…Erscheinungsdatum

…Erscheinungsdatum Redaktion Tue, 19.03.2019 - 10:10

2024

2024 inge Thu, 04.01.2024 - 01:13

Schützende Genvarianten bei Alzheimer

Schützende Genvarianten bei Alzheimer

Fr, 03.05.2024 — Ricki Lewis

Ricki Lewis Icon MolekularbiologieHinweise auf die Bekämpfung einer verheerenden Krankheit können sich aus der Identifizierung von Menschen ergeben, die Genvarianten - Mutationen - haben, die sie schützen, indem sie die Krankheit verlangsamen oder überhaupt das Risiko ihrer Entstehung verringern. Wenn wir verstehen, wie sie dies tun, können wir Behandlungsstrategien für die gesamte Patientenpopulation entwickeln. Die Genetikerin Ricki Lewis berichtet über seltene Varianten von drei bereits gut untersuchten Genen - APOE-Cristchurch, Reelin und Fibronektin -, die vererbte Formen der Alzheimer-Krankheit zu verzögern scheinen - und zwar um Jahrzehnte. *

Gen Nr. 1: Der berühmte Fall der aus einer kolumbianischen Familie stammenden Aliria

Im Jahr 2019 berichteten Forscher über die Patientin Aliria Rosa Piedrahita de Villegas, die dank einer Variante eines zweiten, offenbar schützenden Gens die früh einsetzende familiäre Alzheimer-Krankheit abgewehrt zu haben schien. Der Bericht erschien in Nature Medicine [1].

Aliria gehört zu einer 6 000 Mitglieder zählenden Familie in Kolumbien, die dafür bekannt ist, dass viele Menschen im Alter von etwa 44 Jahren Symptome von Alzheimer zeigen, die verdächtige Anhäufung von Amyloid-Beta-Protein aber bereits in ihren Zwanzigern auftrat. Etwa die Hälfte der Familie ist davon betroffen. Sie haben eine Variante des Presenilin-1-Gens (PSEN1 E280A), die für etwa 70 Prozent der Fälle von früh einsetzender Alzheimer-Krankheit verantwortlich ist. Aliria hat die Variante geerbt, doch bei ihr setzte der kognitive Abbau erst im Alter von 72 Jahren ein.

"Unsere Arbeit mit dieser Familie ermöglicht es uns, die frühesten Veränderungen, die mit der Alzheimer-Krankheit in Verbindung gebracht werden, zu verfolgen und festzustellen, wie diese Veränderungen im Laufe der Zeit ablaufen. Dies wird uns helfen, über die Menschen in Kolumbien hinaus festzustellen, wer gefährdet und wer resistenter gegen Alzheimer ist, und zu lernen, welche Biomarker das Fortschreiten der Krankheit besser vorhersagen können", erklärte Dr. Yakeel T. Quiroz vom Massachusetts General Hospital gegenüber der Alzheimer's Association. Dort wurden bei dieser speziellen Patientin Hirnscans durchgeführt, die die für die Krankheit charakteristischen sehr hohen Konzentrationen von Amyloid-Beta-Protein-Plaques aufzeigten.

Aber was genau hat Aliria geschützt?

Sie hatte auch zwei Kopien der Christchurch-Mutation geerbt, einer seltenen Variante desApolipoprotein E (APOE)-Gens, benannt nach dem Ort, an dem es in Neuseeland entdeckt wurde. Die Christchurch-Genvariante verringert die Dichte der Tau-Fibrillen (Tangles), der anderen Art von Protein, das im Alzheimer-Gehirn aggregiert. Abbildung 1.

Abbildung 1 Stliisierte Darstellung der Amyloid-beta-Plaques (braun) im extrazellulären Raum zwischen den Neuronen und den Tau-Protein Knäueln (blau) in den Neuronen.

Kürzlich haben Forscher der Washington University School of Medicine mit genetisch veränderten "humanisierten" Mäusen gezeigt, dass die Christchurch-Mutation die Wechselwirkung zwischen Amyloid-Beta und Tau unterbindet.

"Wenn Menschen altern, beginnen viele eine Amyloid-Anhäufung im Gehirn zu entwickeln. Anfangs bleiben sie kognitiv unauffällig. Nach vielen Jahren jedoch beginnt die Amyloidablagerung zu einer Anhäufung des Tau-Proteins zu führen. Wenn dies geschieht, kommt es bald zu kognitiven Beeinträchtigungen. Wenn wir einen Weg finden, die Auswirkungen der APOE-Christchurch-Mutation zu imitieren, können wir vielleicht verhindern, dass Menschen, die bereits auf dem Weg zur Alzheimer-Demenz sind, diesen Weg weiter fortsetzen", erklärt Dr. David M. Holtzman von der Universität Washington.

Könnte auf therapeutischem Weg die Bildung von Amyloid-Beta-Plaques von der Ablagerung von Tau-Fibrillen entkoppelt werden?

Das war's, was die Forscher herausfinden wollten, die nun ihre Ergebnisse im Januar 2024 in der Zeitschrift Cell veröffentlichten [2]. Der Übergang von der Amyloidbildung zur Wechselwirkung mit Tau-Protein ist kritisch und noch wenig verstanden. Der Fall von Aliria könnte hier zur Klöärung beitragen.

"Der Fall dieser Frau war sehr, sehr ungewöhnlich, da sie die Amyloid-Pathologie aufwies, aber kaum eine Tau-Pathologie und nur sehr leichte kognitive Symptome, die erst spät auftraten. Das legte uns nahe, dass sie Hinweise auf die Verbindung zwischen Amyloid und Tau bieten könnte", so Holtzman.

Allerdings: Aliria ist ein Einzelfall; weltweit die einzige Person, von der man weiß, dass sie die beiden Mutationen aufweist. Haben diese tatsächlich zusammengewirkt, oder ist ihr ungewöhnlicher , offensichtlich vor Alzheimer schützender Genotyp nur ein Zufall?

Um dieses Rätsel zu lösen, setzte das Team um Holtzman genetisch manipulierte Mäuse ein, die übermäßig viel Amyloid produzierten und dazu auch die menschliche Christchurch-Mutation aufwiesen. Dann injizierten sie menschliches Tau-Protein in die Gehirne der Mäuse. Da die Gehirne der Mäuse bereits voller Amyloid-"Keime" waren, hätten sich die Tau-Knäuel an den Injektionsstellen festsetzen und dann auf andere Hirnregionen ausbreiten müssen - aber das taten sie nicht. Es wurde nur sehr wenig Tau inmitten des reichlich vorhandenen Amyloids gefunden, das die Gehirne erstickte - es war ein Modell für Alirias zufällige Doppelmutation.

Die Mäuse zeigten auf, wie die Christchurch-Mutation schützend wirkte, nämlich durch die Aktivität der Mikroglia, die als Abfallbeseitigungszellen des Gehirns fungieren. Mikroglia sammeln sich um Amyloid-Plaques auf Gehirnzellen. Bei Alzheimer-Mäusen mit der APOE-Christchurch-Mutation liefen die Mikroglia, die die Amyloid-Plaques umgaben, auf Hochtouren, um die Tau-Aggregate zu verschlingen und zu zerstören.

"Diese Mikroglia nehmen das Tau auf und bauen es ab, bevor sich die Tau-Pathologie wirksam auf die nächste Zelle ausbreiten kann. Ohne Tau-Pathologie kommt es nicht zu Neurodegeneration, Atrophie und kognitiven Problemen. Wenn wir die Wirkung der Mutation nachahmen können, könnten wir die Amyloid-Ansammlung unschädlich machen oder zumindest viel weniger schädlich machen und die Menschen vor der Entwicklung kognitiver Beeinträchtigungen schützen", so Holtzman.

Gen Nr. 2: Reelin

Die Forscher, die die große kolumbianische Familie untersuchten, zu der auch Aliria gehört, beschrieben in der Zeitschrift Nature Medicine vom 15. Mai 2023 "den weltweit zweiten Fall mit nachgewiesener extremer Resilienz gegenüber der autosomal dominanten Alzheimer-Krankheit". Wie Aliria behielt der Mann seine kognitiven Fähigkeiten bis zum Alter von 67 Jahren, obwohl er die starke PSEN1 E280A-Mutation hatte, die eine sehr früh einsetzende Alzheimer-Krankheit verursacht.

Im Alter von 73 Jahren zeigten Neuroimaging-Untersuchungen höhere Werte von Amyloid-Beta-Plaques als bei anderen Familienmitgliedern mit der Alzheimer-Mutation. Und obwohl sein Gehirn auch Tau-Knäuel aufwies, war der entorhinale Kortex - ein Gedächtniszentrum - vergleichsweise frei von Tau. Vielleicht ermöglichte diese ungewöhnliche Verteilung, dass seine kognitiven Fähigkeiten trotz des Ertränkens in Amyloid-Beta erhalten blieben.

Aber er hatte nicht die Christchurch-Mutation von Aliria.

Stattdessen wurde der Mann offenbar durch eine seltene Variante eines anderen Gens, RELN, geschützt, das für das Protein Reelin kodiert. Dabei handelt es sich um ein gut untersuchtes Signalprotein, das bei verschiedenen neurologischen und psychiatrischen Erkrankungen wie Schizophrenie, bipolarer Störung und Autismus-Spektrum-Störung eine Rolle spielt.

In Experimenten mit Mäusen zeigten die Forscher, dass diese Form von Reelin eine Gain-of-Function-Mutation ist, d.i. eine verbesserte Funktion im Vergleich zur häufigeren Variante des Gens besitzt. Wie Apolipoprotein E (APOE) bindet Reelin an Rezeptoren auf bestimmten Lipoproteinen, die Cholesterin transportieren. Dadurch wird die Aktivierung von Tau verringert, was offenbar das empfindliche Gleichgewicht zwischen Amyloid-Beta und Tau auf eine Weise stört, die die Alzheimer-Krankheit verlangsamt.

Gen Nr. 3: Veränderung von Fibronektin an der Blut-Hirn-Schranke

In jüngster Zeit haben sich Forscher der Columbia University auf eine andere, offenbar schützende Variante eins Gens konzentriert, das für das Protein Fibronektin kodiert. Es ist im gesunden Gehirn in nur sehr geringen Mengen vorhanden, eine hohe Konzentration wird aber mit einem erhöhten Risiko für die Entstehung von Alzheimer in Verbindung gebracht.

Fibronektin ist in die Blut-Hirn-Schranke eingebettet. Dieses 400 Meilen lange Labyrinth aus Kapillaren, den kleinsten Blutgefäßen, windet sich durch die Neuronen und Gliazellen, die die empfindliche Hirnsubstanz bilden.

Die aus einer einzelnen Zellschichte bestehenden Kapillarwände, das so genannte Endothel, bilden eine Auskleidung, die normalerweise so dicht gepackt ist, dass sie Giftstoffe aus dem Blutkreislauf fernhält, aber lebenswichtige Stoffe wie Sauerstoff ins Gehirn eintreten lässt. Die Schranke mildert auch biochemische Fluktuationen, die das Gehirn überfordern würden, wenn es ständig reagieren müsste, und überwacht den Gehalt an Neurotransmittern.

Zu verstehen, wie die Blut-Hirn-Schranke funktioniert, ist zentrales Thema der Arzneimittel-Forschung bei neurologischen Erkrankungen.

Aus Untersuchungen an Zebrafischen und Mausmodellen der Alzheimer-Krankheit haben die Forscher entdeckt, dass eine Variante des Fibronektin-Gens die Anhäufung von Fibronektin an der Blut-Hirn-Schranke verhindert. Überschüssiges Amyloid-Beta kann dann aus dem Gehirn in den Blutkreislauf eintreten, was das Risiko, an Alzheimer zu erkranken, verringert, so die Forscher. Ihre Forschungsergebnisse sind in Acta Neuropathologica [4] veröffentlicht.

Caghan Kizil, PhD, erklärt die Ergebnisse: "Die Alzheimer-Krankheit beginnt zwar mit Amyloid-Ablagerungen im Gehirn, aber die Krankheitsmanifestationen sind das Ergebnis von Veränderungen, die nach dem Auftreten der Ablagerungen stattfinden. Überschüssiges Fibronektin könnte die Beseitigung von Amyloidablagerungen im Gehirn verhindern. Unsere Ergebnisse deuten darauf hin, dass einige dieser Veränderungen in den Blutgefäßen des Gehirns stattfinden und dass wir in der Lage sein könnten, neue Arten von Therapien zu entwickeln, die die schützende Wirkung des Gens nachahmen, um die Krankheit zu verhindern oder zu behandeln."

Diese Strategie unterscheidet sich von einem direkten Angriff auf die Amyloid-Ablagerungen und einer verbesserten Beseitigung, die zu gering ausfallen und zu spät kommen dürften. "Wir müssen möglicherweise viel früher mit der Beseitigung von Amyloid beginnen, und wir glauben, dass dies über den Blutkreislauf geschehen kann. Deshalb freuen wir uns über die Entdeckung dieser Fibronektin-Variante, die ein gutes Target für die Entwicklung von Medikamenten sein könnte", so Richard Mayeux, Koautor der Studie.

Nachdem die Forscher die Folgen einer Senkung des Fibronektins in Zebrafischen und Mäusen nachgewiesen hatten, haben sie das Protein bei Menschen untersucht, die eine Variante des APOE-Gens, das mit Alzheimer assoziierte APOEε4 geerbt haben, aber lange leben. Hat eine Variante des Fibronektin-Gens sie geschützt?

Um das herauszufinden, haben die Columbia-Forscher die Genome von mehreren hundert Personen mit APOEε4 untersucht, die älter als 70 Jahre und unterschiedlicher Herkunft waren. Einige von ihnen waren bereits an Alzheimer erkankt.

Abbildung 2 Die funktionell inaktive Fibronektin1-Variante schützt vor Alzheimer - Schematische Darstellung. Links: Situation im "normalen" Gehirn. Mit Apolipoprotein Eε4 (APOEε4 ) und nur geringen Mengen an Fibronektin werden Amyloid-Aggregate (Plaques) effizient von Microglia-Zellen abgebaut und die entstandenen Produkte über die Blut-Hirn-Schranke eliminiert ("Clearance"). Mitte: Situation bei Alzheimer - Genotyp APOEε4 zusammen mit einem Zuviel an Fibronektin. Fibronektin lagert sich in der Blut-Hirnschranke an und führt zu deren Verdickung. Abbau von Plaques und Eliminierung von Amyloidprodukten brechen zusammen, Neuronen werden geschädigt ("Synaptic Degeneration"). Rechts: Die funktionell inaktive ("Loss of Function") Fibronektin-Variante lagert sich nicht an der Blut-Hirn-Schranke ab. Die Eliminierung von Amyloidprodukten kann erfolgen. Die Bildung von Amyloid-Plaques erfolgt in reduziertem Ausmaß/verzögert. (Bild von der Redaktion eingefügt aus: Bhattarai, P et al., [4], https://doi.org/10.1007/s00401-024-02721-1 und leicht modifiziert. Lizenz: cc-by.)

"Von den noch nicht erkrankten (resiliente)n Menschen können wir viel über die Krankheit erfahren und darüber, welche genetischen und nicht-genetischen Faktoren einen Schutz davor bieten könnten", sagt Badri N. Vardarajan, PhD, ein Coautor der Studie. Offensichtlich wirkt eine Variante des Fibronektin-Gens schützend.

Als die Forscher den Preprint ihrer Ergebnisse veröffentlichten, haben andere Teams Daten aus anderen Bevölkerungsgruppen hinzugefügt, die diesen Zusammenhang stützten: Fibronektin schützt. Die Daten von mehr als 11 000 Personen zeigten, dass die Mutation die Wahrscheinlichkeit, an Alzheimer zu erkranken, bei APOEε4 -Trägern um 71 % verringert und den Ausbruch der Krankheit bei denjenigen, die sie entwickeln, um etwa vier Jahre verzögert. Abbildung 2.

Nur etwa 1 bis 3 Prozent der APOEε4 -Träger in den USA besitzen auch die schützende Fibronektin-Mutation, das sind immerhin 200.000 bis 620.000 Menschen, schätzen die Forscher. Dieser angeborene Schutzschild könnte die Forschung inspirieren und zur Entwicklung neuer Medikamente führen, die noch viel mehr Menschen helfen könnten.

Kizil fasst zusammen: "Es gibt einen signifikanten Unterschied im Fibronektinspiegel in der Blut-Hirn-Schranke zwischen kognitiv gesunden Menschen und Alzheimer-Patienten, unabhängig von ihrem APOEε4 -Status. Alles, was überschüssiges Fibronektin reduziert, sollte einen gewissen Schutz bieten, und ein Medikament, das dies tut, könnte ein bedeutender Fortschritt im Kampf gegen diese zehrende Krankheit sein."


[1] Arboleda-Velasquez JF et al., Resistance to autosomal dominant Alzheimer's disease in an APOE3 Christchurch homozygote: a case report. Nat Med. 2019 Nov;25(11):1680-1683. DOI: 10.1038/s41591-019-0611-3

[2] Chen Y et al., APOE3ch alters microglial response and suppresses Aβ-induced tau seeding and spread. Cell. 2024 Jan 18;187(2):428-445.e20. doi: 10.1016/j.cell.2023.11.029

[3] Lopera F. et al., Resilience to autosomal dominant Alzheimer’s disease in a Reelin-COLBOS heterozygous man. Nat Med 29, 1243–1252 (2023). https://doi.org/10.1038/s41591-023-02318-3

[4] Bhattarai, P., Gunasekaran, T.I., Belloy, M.E. et al. Rare genetic variation in fibronectin 1 (FN1) protects against APOEε4 in Alzheimer’s disease. Acta Neuropathol 147, 70 (2024). https://doi.org/10.1007/s00401-024-02721-1.


 * Der Artikel ist erstmals am 18. April 2024 in PLOS Blogs - DNA Science Blog unter dem Titel "Mutations in Three Genes Protect Against Alzheimer’s"  https://dnascience.plos.org/2024/04/18/mutations-in-three-genes-protect-against-alzheimers/ erschienen und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt. Abbildung 2 plus Text wurden von der Redaktion aus der zitierten Publikation [4] eingefügt.


Im ScienceBlog: Zur Blut-Hirn-Schranke

Inge Schuster, 12.02.2024: Zur Drainage des Gehirngewebes über ein Netzwerk von Lymphgefäßen im Nasen-Rachenraum

Redaktion, 06.02.2020:Eine Schranke in unserem Gehirn stoppt das Eindringen von Medikamenten. Wie lässt sich diese Schranke überwinden?

Redaktion, 10.10.2017: Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen.


 

inge Fri, 03.05.2024 - 13:18

Zehn Mythen, welche die Anerkennung des Anthropozäns als neue geochronologische Epoche untergraben

Zehn Mythen, welche die Anerkennung des Anthropozäns als neue geochronologische Epoche untergraben

Do, 25.04.2024 — Redaktion

Redaktion

Geowissenschaften Es ist unbestreitbar, dass menschliche Aktivitäten vor allem in den letzten 70 Jahren Klima, Natur, Erdoberfläche und damit die Bewohnbarkeit des Planeten für alle seine derzeit und künftig lebenden Organismen in negativem Sinne verändert haben. Ist damit das Anthropozän, ein neues "Zeitalter des Menschen" angebrochen? Die International Union of Geological Sciences hat 2009 eine Arbeitsgruppe eingerichtet, die prüfen sollte, ob das Anthropozän als neue formale erdgeschichtliche Epoche etabliert werden sollte. Nach eingehender Prüfung lagen 2023 genügend geologisch-stratigrafische Argumente für eine Anerkennung vor. Die Anerkennung sollte auch eine Perspektive implizieren, um mit der bereits drastisch veränderten Welt umzugehen. Dass ein Gutachtergremium im März 2024 entschied die Anerkennung abzulehnen, hat den Protest der Anthropozän-Arbeitsgruppe ausgelöst. Unter Federführung ihrer Vorsitzenden Jan Zalasiewicz (University of Leicester) und Scott Wing (Smithsonian Institution, Washington) hat die Arbeitsgruppe einen Artikel im Smithsonian Magazine verfasst, in dem zehn Trugschlüsse (Mythen) angesprochen werden, die herunter spielen, wie drastisch die Erde in den letzten Jahrzehnten verändert wurde.*

Der Begriff der Anthropozän-Epoche

entstand im Februar 2000 aus einer spontanen Eingebung heraus. Der Chemiker und Nobelpreisträger Paul Crutzen hatte auf einer Tagung des International Geosphere-Biosphere Programme in Mexiko den Vorträgen zugehört. Den ganzen Tag über hatten Wissenschaftler Daten präsentiert, die zeigten, wie sich die vom Menschen verursachten Veränderungen des Klimas, der chemischen Zyklen und der Biologie der letzten Jahrzehnte auf krasse Weise von der relativen Stabilität des Holozäns, der geologischen Epoche, die vor 11.700 Jahren begann, unterschieden. Sie verwiesen immer wieder auf die bemerkenswert schnellen Umweltveränderungen des späten Holozäns.

Entnervt schaltete sich Crutzen schließlich in die Diskussion ein: "Wir befinden uns nicht mehr im Holozän, sondern im ... Anthropozän!" Die improvisierte Bezeichnung setzte sich unter Geowissenschaftlern schnell als grundlegendes Konzept durch, und in den letzten zehn Jahren hat sich das Wort auch in anderen Wissenschaften, der Kunst, den Geisteswissenschaften und der Populärkultur verbreitet.

Im Laufe der Zeit hat "Anthropozän" viele Bedeutungen und Schlussfolgerungen erhalten, die nichts mit Crutzens ursprünglichem Begriff zu tun haben oder ihm sogar widersprechen, so dass seine ursprüngliche Bedeutung verschwommen und manchmal sogar völlig unklar wurde. Was aber hat Crutzen mit dem Anthropozän gemeint, einem Konzept, das durch jahrelange wissenschaftliche Studien verbessert und verfeinert wurde?

Es ist ganz einfach. Sieht man sich Diagramme an, die die Entwicklung der drei wichtigsten Treibhausgase und der globalen Temperatur in den letzten 30 Jahrtausenden aufzeigen, so steilt der Übergang vom Holozän zum Anthropozän wie eine Mauer auf. Alle vier kritischen planetarischen Parameter haben sich in den letzten 70 Jahren von nahezu horizontalen zu nahezu vertikalen Linien verschoben (Abbildung 1). Die Grafiken sind einfach, aber sie zeigen Veränderungen in der Atmosphärenchemie und - mit etwas Verspätung - in der Temperatur, die sich auf die Bewohnbarkeit des Planeten für alle seine Organismen, einschließlich des Menschen, auswirken. Auf einer Zeitskala von Jahrtausenden ähneln die Verschiebungen weniger einem Hockeyschläger als vielmehr einer Treppenstufe. Überdies betreffen diese Veränderungen die gesamte Atmosphäre und die Ozeane, so dass sie auf einer menschlichen Zeitskala im Grunde unumkehrbar sind. Künftige Generationen werden noch mit den planetarischen Veränderungen leben, welche die Menschen in einem einzigen Leben verursacht haben.

Abbildung 1. Die enormen Auswirkungen des Menschen auf die Atmosphäre lässt sich an der Konzentration dreier wichtiger Treibhausgase ablesen: Distickstoffoxid, Methan und Kohlendioxid. Diese Gase haben in den letzten 70 Jahren viel stärker zugenommen als in den vorangegangenen 30.000 oder mehr Jahren. Infolgedessen ist die globale Temperatur in die Höhe geschnellt, und sie wird weiter ansteigen, wenn die Auswirkungen der höheren Treibhausgaskonzentration voll zum Tragen kommen. Martin Kopf

Betrachten wir nur die letzten 300 Jahre auf der Zeitachse,

d.i. über zehn menschliche Generationen gehend, so sehen wir bemerkenswert große und schnelle Veränderungen bei einer ganzen Reihe von Faktoren, welche die Auswirkungen des Menschen auf globaler Ebene kennzeichnen: Es sind nicht nur die Kohlenstoffemissionen, sondern auch die Produktion von Metallen, Kunststoffen, Düngemitteln, Beton und Nutztieren und sogar eine gigantische Zunahme der ultimativen geologischen Währung, den Sedimenten. Abbildung 2. Die Menge an Ablagerungen, die der Mensch jedes Jahr mobilisiert, übersteigt inzwischen die Menge der durch nicht-menschliche Prozesse mobilisierten Sedimente um das 15-fache.

Wenn wir den Zeitrahmen so einengen, sehen wir, dass die globalen Veränderungen ab Mitte des 20 Jahrhunderts besonders rasch erfolgen.

Die Anthropozän-Arbeitsgruppe,

ein Gremium von 34 Wissenschaftlern aus 14 Ländern, das 2009 von der Internationalen Kommission für Stratigraphie eingesetzt wurde, schlug vor, den Beginn einer neuen Anthropozän-Epoche auf das Jahr 1952 zu legen, als die Sedimente weltweit durch den ersten größeren Anstieg des Elements Plutonium gekennzeichnet wurden, das aus den ersten Tests mit thermonuklearen Waffen stammt.

Abbildung 2. Wissenschaftler schlugen vor, eine neue geologische Epoche - das Anthropozän - anzuerkennen, das durch sehr rasche Veränderungen ab Mitte des 20. Jahrhunderts gekennzeichnet ist. Die in den letzten 70 Jahren abgelagerten Sedimente sind durch eine Fülle künstlicher Materialien wie Beton, Metalle, Kunststoffe und Düngemittel gekennzeichnet. Auch die Ökosysteme haben sich durch den starken Anstieg der Düngemittelproduktion (Ammoniak) und der Viehzucht (Fleischproduktion) verändert. Auch der Mensch ist ein enormer Produzent von Sedimenten. Colin Waters

Mit dem Vorschlag einer formellen, geologisch definierten Epoche des Anthropozäns wollte die Arbeitsgruppe eine genaue Definition für diesen jüngsten, großen, dauerhaften und raschen Übergang in den physikalischen, chemischen und biologischen Systemen der Erde liefern.

Der Vorschlag wurde von der internationalen Hierarchie der Stratigraphie, zu der auch die International Commission on Stratigraphy gehört, ohne Angabe von Gründen abgelehnt, aber die meiste öffentliche Kritik am Anthropozän kommt aus verschiedenen Quellen: von der Geologie bis hin zu den Sozial- und Geisteswissenschaften.

In vielen Disziplinen hat das Anthropozän einen Nerv getroffen - und oft auch verletzt: manchmal als Bauchgefühl auf eine beunruhigende neue Idee, manchmal mit Unbehagen angesichts ungewohnter gesellschaftspolitischer Implikationen.  Aus welchen Gründen auch immer, das Anthropozän geriet unter Beschuss.

Das Sperrfeuer der Kritik konzentrierte sich jedoch häufig auf das, was das Anthropozän nicht ist, anstatt auf das, was es ist. Grundlegende Missverständnisse rund um das Konzept vernebeln seine Bedeutung.

Im Folgenden räumen wir mit zehn gängigen Mythen über das Anthropozän auf.

1. Das Anthropozän bildet nicht alle menschlichen Einflüsse ab.

Das ist zwar richtig, geht aber völlig an der Sache vorbei. Die Anerkennung eines Anthropozäns unterschlägt keineswegs die Auswirkungen, die der Mensch seit vielen Jahrtausenden durch die Jagd, den Ackerbau und den Bau von Städten und Handelsnetzen verursacht hat. Aber diese frühen Auswirkungen waren nicht global, liefen nicht synchron auf dem Planeten ab und haben die globale Umwelt nicht dauerhaft verändert. Der Grund für die Benennung einer neuen geologischen Epoche, sowohl in Crutzens ursprünglicher Formulierung als auch in dem sehr detaillierten Vorschlag der Arbeitsgruppe, besteht darin, den Abschied der Erde und ihrer Bewohner von dem stabilen System des Planeten im Holozän zu markieren. Die Epoche des Anthropozäns war nie dazu gedacht, alle anthropogenen Einflüsse zu erfassen.

2. Das Anthropozän ist zu kurz, um eine geologische Epoche zu sein - nur ein Menschenleben.

Die Dauer des Anthropozäns ist kurz, soweit stimmt das. Aber es ist das Holozän, das den größten Unterschied in der Dauer zu anderen Epochen aufweist: fast drei Größenordnungen (11 700 Jahre verglichen mit 2,57 Millionen Jahren für das voran gegangene Pleistozän). Der Unterschied in der Dauer zwischen Holozän und Anthropozän ist proportional geringer, und das Anthropozän stellt eine weitaus bedeutendere und dauerhaftere Veränderung des Planeten dar als das Holozän.

3. Das Anthropozän ist nur ein Augenblick in der Erdgeschichte.

Oder, wie die New York Times schreibt, nennt es ein ranghohes Mitglied der geologischen Zeitskala "ein Augenblick von einem Augenblick von einem Augenblick ". Was diese Sichtweise verkennt, ist, dass diese rund 70 Jahre den Planeten grundlegend verändert und eine neue Bahn einschlagen haben lassen. Schon jetzt sind viele geologische Anzeichen deutlicher und ebenso ausgeprägt wie die plötzliche Freisetzung von Kohlenstoff und die globale Erwärmung, die das Eozän vor 56 Millionen Jahren auslöste.

Man denke nur an die Klimaauswirkungen durch die Verbrennung fossiler Brennstoffe, von denen 90 Prozent in den letzten 70 Jahren verbrannt wurden. Diese Auswirkungen werden sich zumindest noch viele tausend Jahre lang über den Planeten breiten. Wir und viele künftige Generationen sind auf ein Klima festgelegt, das sich von dem des Holozäns unterscheidet. Das bereits in der Atmosphäre befindliche Kohlendioxid wird die Erde heißer machen, als sie es seit mindestens 3 Millionen Jahren war. Viele der biologischen Veränderungen der letzten 70 Jahre sind ebenfalls von Dauer: zweifellos das Aussterben von Arten, aber auch die Ausbreitung vieler Arten durch beabsichtigte und unbeabsichtigte Beihilfe des Menschen, mit einer weltweit veränderten Fauna und Flora als Folge. Die Biosphäre hat sich für immer verändert. Das ist keine Eintagsfliege.

4. Anthropozän-Schichten sind "minimal" oder "vernachlässigbar".

Abbildung 3. Touristen blicken auf den Hoover-Damm hinunter. Die Menge an Sedimenten, die sich hinter den Tausenden von großen Staudämmen der Welt ablagert, würde ganz Kalifornien bis zu einer Tiefe von fünf Metern bedecken. Robert Nickelsberg / Getty Images

Das ist ein recht geologischer Einwand - aber er ist falsch. Seit Mitte des 20. Jahrhunderts hat der Mensch die Landschaft in ungeheurer Weise umgestaltet und Gestein und Sediment bewegt (inzwischen um mehr als eine Größenordnung mehr, als natürliche Sedimentverschieber wie Gletscher und Flüsse). Die Menge an Sedimenten, die sich hinter den Tausenden von großen Staudämmen auf der Welt abgesetzt hat, würde ganz Kalifornien bis zu einer Tiefe von fünf Metern bedecken (Abbildung 3), und diese Sedimente sind voll von charakteristischen Merkmalen wie Pestizidrückständen, Metallen, Mikroplastik und Fossilien von invasiven Arten. Um einen Zeitraum formal zu definieren, müssen Geologen charakteristische Marker in Sedimenten oder Gesteinen identifizieren, die sich weltweit zuordnen lassen - das Vorhandensein solcher Marker ist überall vorhanden. Abbildung 4. Die Geologie ist real.

Abbildung 4. Plastikmüll sammelt sich nach einem Regenschauer in der Nähe von Culver City, Kalifornien. Mikroplastik, das aus solchen Ablagerungen entsteht, findet sich oft im Sediment. Citizen of the Planet / UIG via Getty Images

5. Die geologische Erfassung ist zu komplex und abgestuft, um eine einzige Grenze für das Anthropozän zu ziehen.

Die gesamte Geschichte (der Erde und des Menschen) ist komplex, verläuft stufenweise und variiert über Zeit und Raum. Dennoch legen Geologen Epochen fest, weil solche Zeiteinheiten für ihre Arbeit nützlich, ja unverzichtbar sind. In der Geologie wird jede Zeiteinheit durch einen "Goldenen Nagel"(Golden Spike)  genau definiert - eine bestimmte Schichte in einer Sedimentabfolge an einem bestimmten Ort, der ausgewählt wird, weil er mit anderen Sedimentabfolgen rund um den Globus korreliert werden kann. Dieser Goldene Nagel identifiziert eine globale Zeitebene, aber der planetarische Übergang, der die Platzierung eines Goldenen Nagel motiviert, kann alles andere als einfach sein.

Die letzte Eiszeit des Pleistozäns wich im Laufe von etwa 13 000 Jahren holozänen interglazialen Bedingungen - und verlief auf der Nord- und Südhalbkugel unterschiedlich. Dennoch wird die definierte Holozän-Grenze innerhalb dieses Übergangs, die vor 11.700 Jahren lag, ohne Beanstandung akzeptiert und verwendet. Der Übergang vom Holozän zum Anthropozän ist viel schärfer und global synchroner und daher leichter zu definieren und zu erkennen.

6. Andere Tiere haben die Umwelt beeinflusst und geologische Veränderungen verursacht, das Anthropozän ist also nichts Besonderes.

Andere Tiere haben tatsächlich die Umwelt verändert, aber das kann bei der Erkennung von geologischen Zeitabschnitten eher hilfreich als hinderlich sein. So dient beispielsweise das Aufkommen agiler, muskulöser Tiere, die sich durch Sedimente wühlen konnten, als Grundlage für die Definition des Kambriumzeitalters. Aber keine dieser früheren Veränderungen hat sich so schnell über alle Lebensräume auf dem Planeten ausgebreitet - oder wurde von einem Tier ausgelöst, das sich der Veränderungen bewusst war, die es vornahm. Dieses Bewusstsein muss - wie wir anmerken - wirksam in Maßnahmen umgesetzt werden, um die schlimmsten Folgen dieser Veränderungen abzuwenden. Zu viele streben immer noch nach wirtschaftlicher und industrieller Entwicklung, ohne die langfristigen Kosten für die Gesundheit des Planeten zu bedenken.

7. Das Anthropozän gibt allen Menschen gleichermaßen die Schuld für die globalen Umweltkrisen.

Das Anthropozän weist weder Schuld noch Verdienst zu; es erkennt einfach eine große, abrupte und mehr oder weniger dauerhafte Veränderung im Verlauf der Erdgeschichte an. Es besteht kein Zweifel daran, dass einige Menschen, Gesellschaften, Institutionen und Nationalstaaten den Wandel viel stärker vorangetrieben haben als andere und dass die Vorteile und Kosten des Wandels ungleich verteilt waren und sind. Die gesellschaftliche Bedeutung des Anthropozäns besteht darin, dass es den eindeutigen wissenschaftlichen Nachweis erbringt, dass der Mensch die globale Umwelt dauerhaft verändert hat. Und es kann uns ermutigen zur Kenntnis zu nehmen, dass wir uns alle mit den raschen, dauerhaften, globalen Veränderungen, die im Gange sind, auseinandersetzen müssen.

8. Das Anthropozän bedeutet eine Niederlage für unsere Bemühungen, die Umweltveränderungen einzudämmen.

Der erste Schritt zur Lösung von Problemen besteht darin, sie zu diagnostizieren. Wir können die Erde nicht in den Zustand zurückversetzen, in dem unsere Großeltern oder eine andere Generation des Holozäns gelebt haben. Aber wir können klügere Entscheidungen für die Zukunft treffen, die den Wandel mildern und abschwächen. Das ist Realismus, nicht Defätismus.

9. Das Anthropozän nach dem Menschen zu benennen ist anmaßend.

Die planetarische Transformation, die das Anthropozän einläutete, wurde von Menschen verursacht. Man hätte es auch anders nennen können, aber Anthropozän hat die Phantasie vieler Menschen geweckt, weil seine Bedeutung offensichtlich und zutreffend ist.

10. Das Anthropozän ist nur ein Werbegag.

Wenn das nur wahr wäre. Zu akzeptieren, dass wir nicht mehr in einer Holozän-Welt leben, ist ein erster Schritt, um die Probleme anzugehen, denen sich Menschen und Nichtmenschen in der unmittelbaren Zukunft gegenübersehen.

Fazit

Diese Mythen haben sich in der wissenschaftlichen Gemeinschaft hartnäckig gehalten, obwohl sie in wissenschaftlichen Arbeiten der Anthropozän-Arbeitsgruppe und anderer systematisch widerlegt wurden. Dies deutet darauf hin, dass es sich wie bei allen Mythen um Reaktionen handelt, die eher auf Ideologie, Überzeugung oder persönlicher Philosophie als auf Beweisen beruhen. Diese falschen Vorstellungen liegen auch der jüngsten offiziellen Ablehnung des Anthropozäns durch die Hierarchie der internationalen Stratigraphie zugrunde.

Warum wurde das Anthropozän auf so viele Arten missverstanden und mythologisiert? Wahrscheinlich, weil es für viele zutiefst unangenehm ist. Es ist sehr kurz (bis jetzt). Es umfasst stinkende Mülldeponien als Schichten, die eine geologische Zeitskala durcheinander bringen, die für viele Geologen sakrosankt ist. Und es wirft das Schreckgespenst auf, dass die ruhigen Vorstellungen der geologischen Zeit auf die schwierigen Probleme stoßen, mit denen wir in Gegenwart und Zukunft konfrontiert sind.

Veränderungen sind schwierig, und das Anthropozän ist ein unangenehmes Konzept. Es ist schwer zu akzeptieren, dass wir als Gesellschaft so viel Macht erlangt haben, um die Erde zu verändern, und dabei so wenig darüber nachgedacht haben, wie wir diese Macht nutzen. Wissenschaftliche Erkenntnisse können unsere Sichtweise verändern (man denke nur an den Heliozentrismus und die Evolution) - es ist also nicht überraschend, dass das Anthropozän schwer zu akzeptieren ist. Aber unsere Rolle zu erkennen, wie wir die Erde plötzlich in eine neue Zukunft führen, ist ein notwendiger erster Schritt, um sich mit den planetarischen Veränderungen auseinanderzusetzen, die wir in Gang gesetzt haben.


 *Der Artikel "What Myths About the Anthropocene Get Wrong" ist erstmals am 18. April 2024 im Smithsonian Magazine erschienen https://www.smithsonianmag.com/smithsonian-institution/what-myths-about-the-anthropocene-get-wrong-180984181/. Autoren sind der langjährige Leiter der Anthropozän Arbeitsgruppe emer.Prof. Jan A. Zalasiewicz (University Leicester), Scott L. Wing (Kurator an der Smithsonian Institution) und alle weiteren 32, aus 14 Ländern stammenden Mitglieder der Arbeitsgruppe. Der Artikel wird ungekürzt, von der Redaktion möglichst wortgetreu ins Deutsche übersetzt (und mit einigen Untertiteln) wiedergegeben.

Smithsonian Institution (Smithsonian, https://www.si.edu/) ist eine bedeutende US-amerikanische Forschungs- und Bildungseinrichtung, die auch zahlreiche Museen, Galerien und den Nationalzoo betreibt. Das Smithsonian stellt seine komplette Sammlung nach und nach in elektronischer Form (2D und teilweise 3D) unter der freien cc-0-Lizenz kostenlos zur Weiterverbreitung zur Verfügung. Das Smithsonian Magazine (aus dem der obige Artikel stammt) bringt eine Fülle faszinierender, leicht verständlicher Artikelaus allen Bereichen der Natur und der Gesellschaften. https://www.smithsonianmag.com/?utm_source=siedu&utm_medium=referral&utm_campaign=home.


Das Anthropozän im ScienceBlog:

05.08.2021, Gerd Gleixner: Erdoberfläche - die bedrohte Haut auf der wir leben

22.01.2016, Walter Kutschera: Radiokohlenstoff als Indikator für Umweltveränderungen im Anthropozän.

01.08.2014, Reinhard Hüttl: Vom System Erde zum System Erde-Mensch


 

inge Thu, 25.04.2024 - 18:28

In den Bergen von Europas Metallabfällen lagern Reichtümer

In den Bergen von Europas Metallabfällen lagern Reichtümer

Do,18.04.2024 — Redaktion

Redaktion

Icon Chemie

Metalle sind für neue Technologien unverzichtbar, doch ihre Gewinnung hinterlässt Berge von Abfällen, die eine potenziell gefährliche Umweltbelastung darstellen aber auch Rohmaterial für das Recycling dieser Metalle und die Schaffung wertvoller Industriematerialien bieten. 2 EU-finanzierte Projekte haben sich mit diesem Problemkreis befasst mit dem Ziel eine weitestgehende Wiederverwendung/Verwertung der Abfallberge zu erreichen und nahezu kostendeckend vorzugehen: In "MoveAL" wurden Technologien zur Aufwertung von Bauxitrückständen – dem Nebenprodukt der Aluminiumherstellung - vorgestellt. In "NEMO" ging es um die Gewinnung von Metallen aus sulfidischen Bergbauabfällen mittels modernster Technologien der Biolaugung.*

In der westirischen Stadt Limerick wird auf dem Gelände einer Aluminiumhütte eine 500 Meter lange gepflasterte Straße gebaut, basierend auf einem Experiment, das Europa helfen könnte, Industrieabfälle zu reduzieren. Die Betonstraße auf dem Gelände der Aughinish-Hütte hat einen Unterbau aus Materialien, die Bauxitrückstände enthalten, die auch als Rotschlamm bekannt sind.

Schlammige Materialien

Rotschlamm ist das, was bei der Produktion von Aluminium übrig bleibt - dem Metall, das in allem und jedem - von Küchenfolie und Bierdosen bis hin zu Elektroautos und Flugzeugrümpfen - Anwendung findet. Aluminium wird aus Bauxit gewonnen, einem aluminiumhaltigen Gestein, das aus einem rötlichen Lehmboden entsteht. Während Aluminium im modernen Leben unzählige kommerzielle Verwendungsmöglichkeiten findet, ist dies bei Bauxitrückständen nicht der Fall. Der Schlamm landet in der Regel auf Mülldeponien, nimmt immer mehr Platz ein und stellt eine verpasste Recyclingmöglichkeit dar. Abbildung 1.

Abbildung 1. Rotschlamm, der bei der Aluminiumproduktion anfällt. EU-Forscher suchen nach industriellen Verwendungsmöglichkeiten. © Igor Grochev, Shutterstock.com

Eine Gruppe von Forschern erhielt EU-Mittel, um diese Herausforderungen zu bewältigen, und kam auf die Idee, Bauxitrückstände für die Straße in der Aluminium-Hütte Aughinish zu verwenden. Ihr Projekt mit der Bezeichnung RemovAL (https://cordis.europa.eu/project/id/776469) hatte eine Laufzeit von fünf Jahren und lief bis April 2023.

"Deponierung ist eine Praxis, von der wir uns verabschieden wollen", sagte Dr. Efthymios Balomenos, der das Projekt koordinierte. "Selbst wenn die Umwelt nicht geschädigt wird, verbraucht man immer noch viel Platz und wirft die Hälfte des Materials weg."

Einfache Zahlen verdeutlichen die Problematik für Industrie und Gesellschaft:

Für jede Tonne Aluminium, die produziert wird, fallen etwa zwei Tonnen Bauxitrückstände an. Weltweit fallen jedes Jahr etwa 150 Millionen Tonnen Rotschlamm aus der Aluminiumproduktion an - das sind 20 Kilogramm pro Person weltweit. Davon werden nicht mehr als 3 % recycelt, der Rest kommt auf die Deponien. Weltweit lagern mehr als 4 Milliarden Tonnen Bauxitrückstände, und diese Zahl könnte sich bis 2050 auf 10 Milliarden Tonnen mehr als verdoppeln, so die Aluminium Stewardship Initiative (https://aluminium-stewardship.org/bauxite-residue-management-risks-opportunities-and-asis-role), eine standardsetzende Organisation, die auf "bahnbrechende Lösungen" für den Rotschlamm drängt.

Ideenlabors

Bauxit ist nach der französischen Stadt Les Baux benannt, in der das Erz 1821 entdeckt wurde.

In Europa fallen jährlich etwa 7 Millionen Tonnen Bauxitrückstände an. Der Rotschlamm wird zu künstlichen Hügeln aufgeschüttet, die der EU die Möglichkeit bieten, ihr Ziel einer Kreislaufwirtschaft mit mehr Recycling und weniger Abfall zu erreichen.

Am Projekt RemovAL waren eine Reihe akademischer und industrieller Teilnehmer beteiligt, darunter Aughinish Alumina, Rio Tinto in Frankreich und das griechische Bergbau- und Metallurgieunternehmen Mytilineos. Um Ideen für potenzielle kommerzielle Verwendungen von Bauxitrückständen zu testen, wurden Demonstrationsprojekte an Industriestandorten in Deutschland, Griechenland und Irland durchgeführt. Das primäre Ziel bestand darin, die Abfallmengen zu verringern und dies unter Vermeidung großer zusätzlicher Kosten.

"Unser Ziel war es, fast kostendeckend zu arbeiten und nahezu keine Abfälle zu erzeugen", so Balomenos, der als Berater bei Mytilineos tätig ist.

Straßen vorneweg

Das RemovAL-Team hat gezeigt, dass Bauxitrückstände als erste Fundamentschicht oder Unterbau für Straßen verwendet werden können. Der Unterbau einer Straße besteht in der Regel aus minderwertigem Schotter, liegt auf dem Boden auf und bildet einen stabilen Unterbau für die nächste, höherwertige Fundamentschicht.

Typischerweise bestehen Bauxitrückstände zu etwa zwei Fünfteln aus Eisenoxid, zu einem Fünftel aus Aluminiumoxid, zu 6 % aus Kieselsäure und zu 5 % aus Titan. Rotschlamm enthält sogar Seltene Erden - eine Gruppe von 17 Metallelementen mit besonderen Eigenschaften, die technologische Fortschritte in einer Reihe von Branchen ermöglichen.

"Das ist eine ganze Menge Material, selbst wenn man es nur als potenzielle Eisenquelle betrachtet", so Balomenos.

An den Standorten in Griechenland und Norwegen wurden im Rahmen des Projekts Bauxitrückstände in einem elektrischen Lichtbogenofen geschmolzen, um eine Eisenlegierung herzustellen, die sich für die Stahlherstellung eignet. RemovAL extrahierte auch die seltene Erde Scandium, die in der Luft- und Raumfahrtindustrie verwendet wird, um Festigkeit und Korrosionsbeständigkeit von Bauteilen sicherzustellen Anschließend wurde der verbleibende Rückstand zur Herstellung von Material verwendet, das der Zementmischung zugesetzt werden kann.

Die Vorführungen waren zwar ein technischer Erfolg, doch laut Balomenos gibt es noch immer Kostenhürden - vor allem, weil die Möglichkeiten zur Wiederverwendung von Bauxitrückständen weniger rentabel sind als die Verwendung von lokal beschafften "neuen" Rohstoffen.

"Letzten Endes ist die Deponierung die einzige finanziell tragfähige Option für die Industrie", sagt er.

Um den Aluminiumsektor umweltfreundlicher zu gestalten, müsse Europa Anreize wie Subventionen oder Vorschriften bieten, um die Verwendung von Bauxitrückständen und anderen metallurgischen Nebenprodukten gegenüber neu abgebauten Rohstoffen zu fördern, so Balomenos.

Weitere Metalle

Das Problem der Metallabfälle geht in Europa weit über das von Aluminium hinaus.

Andere von der EU unterstützte Forscher, zusammengeschlossen in einem Projekt namens NEMO (https://cordis.europa.eu/project/id/776846), haben versucht kommerzielle Verwendungsmöglichkeiten für Abfallhalden zu finden, die beim Abbau von Kupfer, Zink, Blei und Nickel anfallen.

In Europa gibt es schätzungsweise 28 Milliarden Tonnen Erzrückstände, so genannte Tailings, aus der früheren Produktion dieser Metalle, und jedes Jahr fallen weitere 600 Millionen Tonnen an.

Kupfer, Zink, Blei und Nickel sind für die Energiewende in Europa unerlässlich. Ohne sie wären Windturbinen, Elektrofahrzeuge und viele andere saubere Technologien nicht möglich. Doch die Abraumhalden haben einen eigenen ökologischen Fußabdruck. Diese Abfälle werden häufig in Absetzteichen gelagert, enthalten Schwefel und erzeugen bei Regen Schwefelsäure.

"Diese Schwefelsäure kann potenziell gefährliche Elemente in die Umwelt, den Boden und das Wasser auswaschen", so Dr. Peter Tom Jones, Direktor des KU Leuven Institute for Sustainable Metals and Minerals in Belgien. "Die saure Drainage von Minen ist eines der größten Probleme der Bergbauindustrie beim Umgang mit sulfidischen Erzen".

Vielversprechende Technik

Jones war Teilnehmer von NEMO, das im November 2022 nach viereinhalb Jahren endete.

Die Forscher haben Standorte in Finnland und Irland genutzt, um die Durchführbarkeit einer als Biolaugung bekannten Technik zu testen, mit der wertvolle Metalle aus Bergwerksabfällen entfernt und die verbleibenden Abfälle in ein Material umgewandelt werden können, das nicht nur sicherer ist, sondern auch als Zusatzstoff bei der Zementherstellung dienen könnte. Abbildung 2.

Abbildung 2. Das NEMO-Konzept. Sulfidhaltige Bergbaurückstände werden derzeit in der Regel in Haldenlagern abgelagert. NEMO zielt auf die weitere Behandlung dieser Rückstände ab, um wertvolle Metalle und Mineralien zu gewinnen, während gefährliche Elemente konzentriert und die Restmatrix in Zement und Baumaterialien verwendet werden. (Bild von Redn. Eingefügt. Quelle: https://h2020-nemo.eu/project-2/)

Wertvolle Metalle können bereits durch ein Verfahren namens Auslaugung aus Abfällen zurückgewonnen werden. Dabei werden Chemikalien, in der Regel Säuren, eingesetzt, um die Metalle aufzulösen und aus dem Abfall herauszulösen, so dass sie zurückgewonnen werden können.

Die Biolaugung ähnelt zwar der chemischen Auslaugung, lässt aber lebende Organismen die Arbeit erledigen. Mikroben zehren von den Elementen in den Minenabfällen und schaffen dann eine saure Umgebung, die die Metalle auflöst. Das Verfahren hat das Potenzial, billiger und effektiver zu sein als die chemische Laugung.

Die Forscher haben gezeigt, dass die Biolaugung ein gangbarer Weg ist, um Metalle wie Nickel aus Abraum zu gewinnen. Die Qualität der Metalle wäre gut genug, um beispielsweise Batterien herzustellen. Sie fanden auch heraus, dass die Biolaugung mit zusätzlichen Rückgewinnungsverfahren wertvolle seltene Erden aus bestimmten Bergbauabfällen extrahieren könnte. Außerdem waren die Abfälle nach der Biolaugung weniger sauer und konnten zu einem Zusatzstoff für Zementmischungen verarbeitet werden.

Kostenfragen

Wie auch das RemovAL-Team stellten die NEMO-Forscher jedoch fest, dass diese Verfahren derzeit zu kostspielig sind, um kommerziell interessant zu sein.

"Es ist eine Sache, die Technologie zur Umwandlung von Abraum in wiedergewonnene Metalle und Baumaterialien zu entwickeln", so Jones. "Es ist etwas ganz anderes, dies auf eine Weise zu tun, die wirtschaftlich machbar ist."

Er sagt, dass die relativ geringen Mengen an kritischen Metallen in den Abgängen bedeuten, dass die Betriebskosten tendenziell höher sind als die potenziellen Einnahmen und dass daher der Abbau von Rohstoffen oft eine billigere Option ist, insbesondere wenn er in Niedriglohnländern erfolgt, in denen die Standards für Umwelt, Soziales und Unternehmensführung (ESG) niedriger sind.

Dennoch hat NEMO dazu beigetragen, Technologien zu entwickeln, die den Weg zu einer effizienten Rückgewinnung von Metallen aus abgebauten Materialien weisen und die Abfälle reinigen.

Mit dem richtigen Rechtsrahmen und den richtigen Anreizen könnten die Biolaugung und ähnliche neue Technologien wirtschaftlicher werden. In der Zwischenzeit können diese Verfahren Europa helfen, sein Ziel zu erreichen, die Versorgung mit kritischen Rohstoffen zu erweitern, indem Abraumhalden beseitigt und die Erzförderung verbessert wird.


 *Dieser Artikel wurde ursprünglich am 12. April 2024 von Michael Allen in Horizon, the EU Research and Innovation Magazine unter dem Titel "The riches in Europe’s mountains of metals waste"  https://projects.research-and-innovation.ec.europa.eu/en/horizon-magazine/riches-europes-mountains-metals-waste publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Abbildung 2 wurde von der Redaktion aus https://h2020-nemo.eu/project-2/ eingefügt.


Zur Verwertung der Abfallberge

EU-Research:

HORIZON: the EU Research & Innovation magazine: The riches in Europe’s mountains of metals waste (April 2024). Video 0:59 min. https://www.youtube.com/watch?v=gwiNoOPnf4E

Aus der Max-Planck-Gesellschaft:

MPG: Grüner Stahl aus giftigem Rotschlamm (Jänner 2024). https://www.mpg.de/21440660/rotschlamm-aluminiumindustrie-gruener-stahl

Max-Planck-Gesellschaft: Grüner Stahl: Ammoniak könnte die Eisenproduktion klimafreundlich machen (2023). Video 2:10 min. https://www.youtube.com/watch?v=a_yUKX8zQfI


 

inge Thu, 18.04.2024 - 22:56

Passatwolken - ein neu entdeckter Feuchtigkeitskreislauf verstärkt den Schutz vor der Erderwärmung

Passatwolken - ein neu entdeckter Feuchtigkeitskreislauf verstärkt den Schutz vor der Erderwärmung

Do, 11.04.2024 — Roland Wengenmayr

Icon Klima

Roland Wengenmayr Tropische Passatwolken wirken wie ein Kühlelement im Klimasystem: In der Äquatorzone dienen sie als Schutzschirm gegen die wärmende Sonnenstrahlung. Doch reduziert der menschengemachte Klimawandel möglicherweise ihre Dichte, sodass sich die Erderwärmung verstärkt? Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über die Eurec4a-Feldstudie, die Bjorn Stevens, Direktor am Max-Planck-Institut für Meteorologie in Hamburg, mitinitiiert hat. Diese Studie hat mit vier Forschungsschiffen, fünf Flugzeugen und weiteren Instrumenten die tropischen Passatwolken untersucht und einen bislang unbekannten Feuchtigkeitskreislauf - die Flache Mesoskalige Umwälzzirkulation - entdeckt. Ein besseres Verständnis davon, wie sich in Passatwolken Niederschlag bildet und warum die Passatwolken verschiedene Formen annehmen, hilft Klimamodelle und ihre Prognosen zu präzisieren.*

Anfang 2020 versammelte die Klimaforschung vor Barbados eine See- und Luftflotte, wie sie vorher nur selten an den Start gegangen war: Vier Forschungsschiffe, darunter die beiden deutschen Schiffe Meteor und Maria S. Merian, und fünf Forschungsflugzeuge, darunter der Jet Halo des Deutschen Zentrums für Luft- und Raumfahrt (DLR), eine französische ATR -42 und eine US-amerikanische Lockheed WP-3D Orion Hurricane Hunter, gingen in den Tropen auf Wolkenjagd. Auf Barbados nahm das große Wolkenradar Poldirad des DLR seinen Betrieb auf. Abbildung 1. Mehr als 300 Forschende aus 20 Nationen beteiligten sich an dieser Großoperation. Das Untersuchungsobjekt: die kleinen, niedrigen Passatwolken.

Abbildung 1: Aufbau des Wolkenradars Poldirad (Polarisations-Doppler-Radar) auf Barbados. © MPI-M

Eurec4a hieß die vierwöchige Kampagne, das steht für „Elucidating the role of clouds-circulation coupling in climate“, also „Klärung der Rolle der Wolken-Zirkulations-Kopplung für das Klima“. Natürlich spielt der Name auch auf Archimedes an; der soll beim Baden das Gesetz des Auftriebs entdeckt und gerufen haben: „Heureka!“ - „Ich habs gefunden!“ Darauf weist Bjorn Stevens hin, denn: „Bei Wolken geht es wirklich um Auftrieb!“ Der Direktor am Max-Planck-Institut für Meteorologie in Hamburg hat die Eurec4a -Kampagne gemeinsam mit seiner französischen Kollegin Sandrine Bony, Direktorin am Centre National de la Recherche Scientifique in Paris, konzipiert und geleitet. Unterstützt wurden sie vor Ort durch David Farrell, Leiter des Caribbean Institute for Meteorology und Hydrology. Stevens hat auch gemeinsam mit Farrell das Barbados Cloud Observatory am östlichsten Punkt der Insel aufgebaut, das 2010 in Betrieb ging.

Aber warum treibt die Klimaforschung einen solchen Aufwand um kleine Wölkchen in den Tropen?

Passatwolken sind niedrige Wolken, sie bilden sich schon in etwa 700 Metern Höhe und dehnen sich – meist – nur bis in zwei Kilometer Höhe aus. Dennoch stellen sie ein Schwergewicht im Klimasystem dar, weil sie so viele sind. Sie sind gesellig wie eine Schafherde und bedecken mehr als 30 Prozent der Gesamtfläche der Passatwindzone, die wie ein Gürtel ein Fünftel der Erde in den Tropen und Subtropen umspannt. Damit bilden die Wolken zusammen einen großen Spiegel, der einen beträchtlichen Teil der Sonnenstrahlung ins All reflektiert und somit die Erde kühlt. Da die Passatwolken eine viel größere Fläche bedecken als das Polareis und zudem fast senkrechter Sonneneinstrahlung ausgesetzt sind, ist ihre Spiegelwirkung für die Wärmestrahlung viel gewichtiger als die der großen Eisflächen in der Arktis und der Antarktis.

Würde nun die Dichte der Passatwolken mit dem Klimawandel abnehmen, dann hätte das erhebliche Auswirkungen auf das Erdklima. Diese Besorgnis lösten die Ergebnisse einiger Klimastudien aus, insbesondere eine wissenschaftliche Arbeit, die 2014 in der britischen Fachzeitschrift Nature erschien. Zugespitzt gesagt, war das Ergebnis dieser Klimasimulationen, dass die Erderwärmung die Passatwolken teilweise wegtrocknen könnte. Die Folge wäre also eine Verstärkung der Erwärmung, was wiederum die Passatwolken-Bedeckung reduzieren würde. „Positive Rückkopplung“ ist der Fachbegriff für einen solchen Teufelskreis.

Nun ist es so, dass die großen, erdumspannenden Klimamodelle zwar sehr zuverlässig geworden sind, wenn es um die Simulation globaler Trends geht: Dass die Menschheit durch ihre Emissionen von Treibhausgasen die Erde erwärmt, steht wissenschaftlich außer Zweifel. Aber mit der Simulation der Wolkenbildung und folglich mit der Frage, wie Wolken auf die Erderwärmung antworten werden, tun sich heutige Klimamodelle recht schwer. Sie konnten die kleinteiligeren Prozesse, die dabei eine Rolle spielen, nicht erfassen. Und es gibt immer noch Wissenslücken, wenn es um ein genaueres Verständnis geht, wie Wolken entstehen und wie sie sich verhalten. Deshalb sollte Eurec4a die Passatwolken vor Ort durchleuchten. Die vierwöchige Kampagne sollte Daten über ihr Entstehen und Vergehen sammeln, über ihre Reaktion auf wärmere, kältere, trockenere und feuchtere Wetteränderungen. Dazu liefen diverse Forschungsaktivitäten parallel, eng aufeinander abgestimmt. Den Kern dieser Wolkenforschung bildete ein zylinderförmiges Volumen von rund 10 Kilometern Höhe und circa 220 Kilometern Durchmesser. In diesem Volumen versuchte das Team vor allem die Luftbewegungen möglichst lückenlos zu erfassen, zusammen mit der transportierten Feuchtigkeit. Grundsätzlich entstehen Kumuluswolken, umgangssprachlich: Quellwolken, aus Luft, die wärmer ist als ihre Umgebung und mehr verdunstendes Wasser aufnehmen kann. Da Wassermoleküle leichter als Sauerstoffmoleküle sind, sorgt ein höherer Feuchtegehalt sogar für mehr Auftrieb als eine höhere Temperatur. Die Luft steigt auf, Konvektion entsteht.

In etwa 700 Metern Höhe kondensiere dann der mittransportierte Wasserdampf zu Wolkentröpfchen, erklärt Raphaela Vogel. Sie hat an Eurec4a teilgenommen und ist heute wissenschaftliche Mitarbeiterin der Universität Hamburg. „Deshalb haben diese Kumuluswolken unten an der Basis so eine messerscharfe Kante“, erklärt sie. Das kann man auch in Europa bei schönem Sommerwetter gut beobachten. Vogel hat am Max-Planck-Institut für Meteorologie promoviert und war als Postdoktorandin in Bonys Gruppe auf Barbados dabei. Ihre Aufgabe war es damals, das Flugprogramm als leitende Wissenschaftlerin zu koordinieren. Dazu flog sie meist auf der französischen ATR -42 mit, gelegentlich auch auf der deutschen Halo. Es sei eine sehr aufregende Zeit gewesen, erzählt sie begeistert, die Kampagne habe das internationale Team zusammengeschweißt.

Flugzeuge für jedes Wolkenstockwerk

Der deutsche Jet Halo war zuständig für das höchste Stockwerk. Er flog den oberen Kreisabschnitt des Zylinders im Lauf der vier Wochen 72-mal ab, hinzu kamen 13 solcher Rundflüge mit der amerikanischen WP-3D. Und jedes Mal saß Geet George im Heck, damals Doktorand in Stevens’ Gruppe und heute Assistenzprofessor an der Technischen Universität Delft. Er kümmerte sich um eine zentrale Messung: Auf exakt zwölf Positionen des 360-Grad-Rundkurses, wie die Fünfminutenstriche auf einem Uhrenziffernblatt, schoss er Wurfsonden aus dem Flugzeug. Diese schwebten dann an Fallschirmen die zehn Kilometer hinunter zur Meeresoberfläche. Ihre Pappröhren enthielten einen Sender, drei Sensoren für Druck, Temperatur und den relativen Feuchtegehalt der Umgebungsluft sowie einen GPS-Empfänger. Auf ihrem etwa zwölfminütigen Weg nach unten sendeten zwei- bis viermal pro Sekunde ihre Messwerte und Positionen an Halo. Besonders wichtig waren die GPS-Daten, denn sie lieferten die Information, wie weit der auf der jeweiligen Höhe herrschende Wind die Sonden zur Seite blies. Aus diesen Daten errechnete George, welche Luftmassen durch die gedachte Wand in das umzirkelte Messvolumen hineinflossen – oder hinaus. Da die Erhaltungssätze der Physik verbieten, dass Luft einfach verschwindet oder hinzukommt, lässt sich daraus errechnen, wie sich die Konvektion innerhalb des Zylinders verhält.

Abbildung 2: Mit einem Laser werden Eigenschaften der Wolken gemessen und daraus Temperatur und Feuchtigkeitsprofile abgeleitet. (Foto: MPI-M, F. Batier; © MPI-M )

Die französische ATR -42 hatte die Aufgabe, innerhalb des gedachten Messzylinders viel tiefer, auf Höhe der Wolkenbasis, zu fliegen. Besonders wichtig waren dabei Instrumente, die die Wolken seitlich mit Radar und Lidar, eine Art Laserscanner, abtasteten. Abbildung 2. Sie lieferten vor allem Informationen über die Wolkentröpfchen und deren Bewegungen. Damit diese Instrumente möglichst horizontal blickten, musste das Flugzeug waagerecht im Geradeausflug ausgerichtet sein. Daher flog die ATR -42 immer wieder einen Kurs ab, der wie bei einem römischen Wagenrennen aus zwei engen Kurven und langen geraden Streckenabschnitten bestand. Auch hier war Disziplin gefordert, selbst wenn es kaum Wolken gab, um in den vier Wochen ein Gesamtbild bei allen Wetterlagen zu erhalten. „Das war nicht immer leicht durchzusetzen“, erzählt Raphaela Vogel lachend, „wenn etwas weiter weg ein schönes Gewitter lockte.“ Im Nachhinein ist sie vor allem beeindruckt davon, wie zuverlässig die Eurec4a -Daten sind.

Aber was kam nun dabei heraus?

Dazu erklärt die Forscherin zunächst, was bei der Wolkenbildung grundsätzlich geschieht: Feuchte, von der Sonne erwärmte Luft steigt über dem Wasser auf, zum Ausgleich muss kühlere, trockene Luft aus größerer Höhe absinken. Wenn die feuchte Luft in diesem Konvektionsaufzug in die Höhe fährt, sinkt ihre Temperatur, und so kondensiert ein Teil des Dampfs zu Wolkentröpfchen. Diese feuchten, tröpfchenhaltigen Luftmassen vermischen sich mit den von oben kommenden trockeneren Luftmassen. Das lässt wieder einen Teil der Tropfen verdunsten. Dabei verschwindet das Wasser nicht, es wird nur wieder gasförmig und trägt so nicht zur Wolke bei. Ein wärmeres Klima allerdings könnte nun bewirken, dass sich weniger Wolkentröpfchen bilden, weil die von oben kommende Luft durch die Erderwärmung mehr Wasserdampf aufnehmen kann. Die Folge wäre, dass immer weniger Passatwolken entstehen, was wiederum – wegen der abnehmenden Spiegelwirkung – die Erderwärmung beschleunigen würde. Das wäre die bereits erwähnte positive Rückkopplung.

Abbildung 3. Quellwolken bilden sich dort, wo warme, feuchte Luft aufsteigt; zwischen den Wolken sinkt kühlere, trockene Luft hinab. Diese konvektive Strömung ist seit Langem bekannt. Im Eurec4a-Projekt haben Forschende nun eine mesoskalige Luftzirkulation über 100 bis 200 Kilometer entdeckt, die Feuchtigkeit dorthin bringt, wo die Wolken entstehen. Es ist daher nicht zu befürchten, dass die Passatwolken infolge der Erderwärmung wegtrocknen. © MPG

Den Ergebnissen der Eurec4a -Kampagne zufolge ist diese Rückkopplung bei Weitem nicht so stark, wie einige Klimamodelle befürchten ließen. Abbildung 3. Das zeigte ein Team um Raphaela Vogel, zu dem auch Bjorn Stevens und Sandrine Bony gehörten, in einer Publikation über die wichtigsten Resultate der Feldstudie im Fachblatt Nature im Dezember 2022. „Das sind doch mal gute Neuigkeiten für uns Menschen“, sagt Raphaela Vogel. Warum das so ist, erklärt Geet George. Er war maßgeblich an einer zweiten wichtigen Veröffentlichung zu den Ergebnissen beteiligt, die im Juli 2023 in Nature Geoscience erschien. Entscheidend seien atmosphärische Zirkulationen, erklärt der Wissenschaftler, die so klein sind, dass sie durch das Raster bisheriger globaler Klimamodelle fallen.

Genug Nachschub an Feuchtigkeit

Diese „flachen mesoskaligen Umwälzzirkulationen“, englisch shallow mesoscale overturning circulations, erstrecken sich über Flächen in der Größenordnung des von Halo umflogenen Gebiets und reichen bis in etwa 1,5 Kilometer Höhe. „Mesoskalig“ bedeutet, dass es um Prozesse in mittelgroßen Räumen des Klimasystems von grob 100 bis 200 Kilometer Ausdehnung geht. Und diese Zirkulation durchmischt feuchte und trockene Luftmassen kräftiger, als einige globale Klimamodelle dies erwarten ließen. Grundsätzlich funktioniert sie wie die Konvektion, die Wolken entstehen lässt, nur dass sie sich genau in diesen mittelgroßen Räumen abspielt, die bei Barbados umflogen wurden. Sie liefert genügend Nachschub an Feuchtigkeit, um das Wegtrocknen der Wolkentröpfchen in einer wärmeren Umgebung weitgehend auszugleichen. Die aufsteigende, feuchte Luft und die fallende, trockene Luft bilden zusammen die aufsteigenden und absteigenden Teile der flachen, mesoskaligen Zirkulation – wie bei einem altmodischen Paternosteraufzug, der mit unterschiedlich besetzten Kabinen auf einer Seite hinauf- und daneben hinunterfährt.

Wir haben ein neues Zirkulationssystem identifiziert, das die Variabilität in der Wolkenbedeckung beeinflusst“, bilanziert Bjorn Stevens. „Und dieser Mechanismus existiert in unseren bisherigen Klimamodellen nicht!“ Die Entdeckung, wie bedeutend diese flache Zirkulation in Räumen von etwa 100 bis 200 Kilometern für die heutige und zukünftige Existenz der Passatwolken ist, war die wichtigste Erkenntnis von Eurec4a.

Darüber hinausgab es noch andere neue Einsichten ins Wolkengeschehen, zum Beispiel wie Bewegung und Organisation der Passatwindwolken den Niederschlag aus ihnen beeinflussen. Unter welchen Bedingungen aus Wolkentröpfchen Regen, Schnee oder Hagel wird, kann die Klimaforschung noch nicht genau erklären, dies ist aber für Wettervorhersagen und Simulationen regionaler Klimaveränderungen relevant. Um die Niederschlagsbildung in Passatwolken besser zu verstehen, hat Jule Radtke als Doktorandin am Max-Planck-Institut für Meteorologie die Messungen von Poldirad auf Barbados ausgewertet. „Poldirad“ steht für Polarisations-Doppler-Radar. Dieser technische Terminus besagt im Kern, dass das Großgerät über das Radarecho sehr genau die Bewegungen der Tröpfchen in einer Wolke verfolgen kann. Normalerweise steht Poldirad am DLR-Standort in Oberpfaffenhofen. Mit finanzieller Unterstützung der Max-Planck-Förderstiftung wurde die Anlage für Eurec4a demontiert und auf einem Schiff über den Atlantik geschickt. Nach mehreren Monaten kam sie in Barbados an und blieb erst einmal in den Zollformalitäten stecken. Doch trotz aller Hindernisse gelang es dem Team, das Radargerät rechtzeitig in der Nähe des Barbados Cloud Observatory in Betrieb zu nehmen.

Blumen und Fische am Himmel

Abbildung 4. In den Tropen und Subtropen bilden sich in einem Gürtel, in dem der Passatwind vorherrscht, zahllose vielgestaltige Wolken, die das Klima kühlen, da sie Sonnenlicht reflektieren. Die hier gezeigten Formen werden als Blume bezeichnet. (Foto: MPI für Meteorologie / NASA World view.)

Radtke untersuchte mit Daten von Poldirad, welchen Einfluss das Herdenverhalten der Passatwolken auf ihren Niederschlag hat. „Früher hieß es immer, dass diese kleinen Passatwindwolken Schönwetterwolken sind, die nicht hoch wachsen und daher auch nicht regnen“, sagt die Klimaforscherin, „und dass sie sich eher zufällig verteilen.“ Schon vor Eurec4a war aber klar, dass dieses Bild nicht stimmt. Radtke kam zu dem Ergebnis, dass der Herdentrieb einen deutlichen Einfluss auf das Regenverhalten der Wolken hat. Drängen sich die Wolken stärker zusammen, regnet es aus ihnen öfter. Denn offenbar schützen sie sich gegenseitig vor der Sonne. Das bewirkt eine feuchtere Atmosphäre und verhindert, dass Regentropfen wieder verdunsten, bevor sie den Boden erreichen. Dafür regnet es aus den Wolken in der Herde schwächer, weil in ihnen weniger Regen gebildet wird. „Das könnte daran liegen, dass da auch jüngere oder ältere Wolken mit herumhängen“, sagt Radtke lachend,„die noch nicht oder nicht mehr zum Niederschlag beitragen.“

Dass die Selbstorganisation der Wolken sehr komplex ist, hatte Bjorn Stevens’ Team schon in der Vorbereitungsphase zu Eurec4a entdeckt. Mithilfe von Maschinenlernen und Mustererkennung hatten die Hamburger in Satellitenbildern vier verschiedene Herdenmuster identifiziert, die sie „Zucker (Sugar)“, „Kies (Gravel)“, „Blumen (Flowers)“ und „Fisch (Fish)“ tauften. Letztere Struktur erinnert tatsächlich an ein Fischskelett. Gemeinsam mit Hauke Schulz, der heute an der University of Washington in Seattle forscht, untersuchte Stevens unter anderem, ob ein hochauflösendes Klimamodell, das auf ein kleineres Gebiet beschränkt ist, um Rechenleistung zu sparen, mit den Eurec4a -Daten diese Muster simulieren kann. Für „Fisch“ und „Kies“ gelang die Simulation schon recht gut, für „Blumen“ nicht. Wie wichtig es ist, dass zukünftige Klimamodelle diese Strukturen ganz genau simulieren können, das sei noch offen, betont Stevens. Zumindest die durchschnittliche Wolkenbedeckung müssen die Modelle jedenfalls möglichst genau berechnen, die Wolkenform könnte dabei ein relevanter Faktor sein. Abbildung 4. Die Lehre aus Eurec4a sei, dass Klimamodelle grundsätzlich viel feiner gestrickt sein müssen, um solche mesoskaligen Vorgänge auch in einem künftigen, wärmeren Klima simulieren zu können.

Bjorn Stevens ist optimistisch, dass die hochauflösenden Klimamodelle der Zukunft wesentlich genauere Vorhersagen für kleinräumige Vorgänge ermöglichen werden. Erst wenn Klimamodelle die Prozesse in der Atmosphäre noch besser erfassen, können sie etwa regionale Klimaveränderungen genauer prognostizieren. Dabei hilft sicher auch, dass der Klimaforschung immer leistungsfähigere Supercomputer zur Verfügung stehen. Die Feldforschung in der Natur werden aber auch diese Computer nicht ersetzen können. Im August und September 2024 läuft die Nachfolge-Feldstudie Orcestra, und wieder wird Barbados die Basis sein.


 Vogel, R., Albright, A.L., Vial, J. et al. Strong cloud–circulation coupling explains weak trade cumulus feedback. Nature 612, 696–700 (2022).https://doi.org/10.1038/s41586-022-05364-y

George, G., Stevens, B., Bony, S. et al. Widespread shallow mesoscale circulations observed in the trades. Nat. Geosci. 16, 584–589 (2023). https://doi.org/10.1038/s41561-023-01215-1


 * Der Artikel ist erstmals im Forschungsmagazin 1/2024 der Max-Planck-Gesellschaft unter dem Titel "Ein Schirm aus Blumenwolken"https://www.mpg.de/21738713/W004_Umwelt-Klima_052-057.pdf erschienen und wird mit Ausnahme des Titels und des Abstracts in praktisch unveränderter Form im ScienceBlog wiedergegeben. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Forschungsmagazin auf unserer Seite zugestimmt. (© 2023, Max-Planck-Gesellschaft)


 Klima/Klimawandel im ScienceBlog

ist ein Themenschwerpunkt, zu dem bis jetzt 52 Artikel erschienen sind.

Das Spektrum reicht von den Folgen des Klimawandels über Strategien der Eindämmung bis hin zu Klimamodellen: Klima & Klimawandel


 

inge Thu, 11.04.2024 - 12:21

Ewigkeitsmoleküle - die Natur kann mit Fluorkohlenstoff-Verbindungen wenig anfangen

Ewigkeitsmoleküle - die Natur kann mit Fluorkohlenstoff-Verbindungen wenig anfangen

Do, 04.04.2024 — Inge Schuster

Inge Schuster

Icon Chemie

Obwohl Fluor zu den am häufigsten vorkommenden Elementen der Erdkruste zählt, hat die belebte Natur von der Schaffung fluorierter organischer Verbindungen abgesehen, da sie offensichtlich mit den über die Evolution entwickelten und erprobten Kohlenstoff-Wasserstoff-Systemen inkompatibel sind. Vor 70 Jahren haben synthetisch hergestellte fluororganische Verbindungen, insbesondere per- und polyfluorierte Alkylverbindungen (PFAS) ihren Siegeszug durch die Welt angetreten. Deren herausragende Eigenschaften - Widerstandsfähigkeit gegenüber chemischen Verbindungen aller Art, Hitze und Wasser - haben sich leider auch als enorm hohe Persistenz gegenüber natürlich entstandenen Abbaumechanismen erwiesen. Dass PFAS in Umwelt und Organismen akkumulieren, war den führenden Industrieunternehmen schon länger bekannt, im Bewusstsein der akademischen Welt und der Bevölkerung samt ihren zögerlich agierenden Vertretern ist das Problem erst im Jahr 2000 angekommen.

Fluor, das leichteste Element aus der Grupe der Halogene (7. Hauptgruppe im Periodensystem, die auch Chlor, Brom und Jod enthält) ist extrem reaktiv und bildet mit nahezu allen Elementen des Periodensystems enorm feste Verbindungen. In der Erdkruste gehört Fluor zu den am häufigsten vorkommenden Elementen und liegt hier in Form von anorganischen Verbindungen - in Mineralien wie u.a. Flussspat, Fluorapatit und Kryolith - vor. Von minimalen Ausnahmen abgesehen hat die belebte Natur allerdings für Fluor keine Verwendung gefunden: Seitdem vor rund 80 Jahren die erste natürlich entstandene Fluorkohlenstoff-Verbindung, die Fluoressigsäure (CH2FCO2H, Abbildung 1), entdeckt wurde, hat man trotz immer besser werdender Analysemethoden und einer immer größeren Fülle an untersuchbarer Spezies erst um die 30 natürlich entstandene Fluorkohlenstoff-(fluororganische)-Verbindungen gefunden, zumeist von der Fluoressigsäure abgeleitete Fluor-Fettsäuren und Fluoraminosäuren. Deren Vorkommen ist auf einige wenige Pflanzenarten, Bakterienstämme (Streptomyces) und eine Meeresschwammart beschränkt. Die bereits erwähnte Fluoressigsäure wird u.a. vom südafrikanischen Strauch Gifblaar synthetisiert und - offensichtlich zur Abwehr von Fressfeinden - in dessen Blättern gespeichert: es ist eine hochgiftige Verbindung, es heißt: "ein Blatt reicht um eine Kuh zu töten". Die Toxizität beruht auf der strukturellen Ähnlichkeit mit der Essigsäure, die eine zentrale Rolle im Stoffwechsel aller aerober Organismen spielt: Fluoressigsäure wird an deren Stelle in den Citratzyklus eingeschleust und bringt diesen zum Erliegen.

Abbildung 1: Fluororganische Verbindungen werden nahezu ausschließlich synthetisch durch Menschenhand hergestellt. Beschreibung der abgebildeten Substanzen im Text.

Die Natur verzichtet auf fluororganische Verbindungen

Die Bindung von Fluor an Kohlenstoff ist die stärkste Einfachbindung in der organischen Chemie, bei weitem stärker als dessen Bindung zu den anderen Elementen Wasserstoff, Sauerstoff, Stickstoff, Schwefel und Phosphor und sie nimmt an Stärke noch zu, wenn mehrere Fluoratome am selben Kohlenstoff gebunden sind, wie beispielsweise im Tetrafluorkohlenstoff (CF4) mit einer Dissoziationsenergie von 130 kcal/mol oder in den künstlich hergestellten Per- und Polyfluoralkyl Stoffen.

Wird in einer Kohlenstoff-Wasserstoffbindung der Wasserstoff durch ein Fluoratom ersetzt, so ändert sich die Größe des gesamten Moleküls nur wenig, da der Atomradius von Fluor nicht viel größer als der von Wasserstoff ist. Das modifizierte Molekül wird meistens noch in die Bindungsstelle seines vormaligen Enzyms, seines vormaligen Rezeptors passen; allerdings haben sich seine Gesamteigenschaften verändert und damit die Spezifität und Stärke der Bindung und damit die Auswirkungen auf den vormaligen Rezeptor/das Enzym und dessen Funktion im Stoffwechsel verändert: i) Der Ersatz von Wasserstoff kann aber zu einer anderen Stereochemie des Moleküls geführt haben, wenn ein asymmetrisches (im Spiegelbild nicht deckungsgleiches - chirales) C-Atom entstanden ist. ii) Da Fluor das elektronegativste, d.i. das am stärksten Elektronen anziehende Element ist, weist die Kohlenstoff-Fluorbindung ein Dipolmoment (δ+C–δ−F) mit negativer Teilladung am Fluor auf. Fluor kann so mit (partiell) positiv geladenen Atomen wie dem an Sauerstoff oder Stickstoff gebundenen Wasserstoff Bindungen - Wasserstoffbrücken - ausbilden. (Auswirkungen eines teilweisen Einbaus von Fluor auf die Basenpaarungen der DNA oder auf die Wechselwirkungen zwischen Proteinen? Undenkbar) iii) Mit der Einführung von Fluor hat die Lipophilie der Verbindung und damit die Löslichkeit in und der Durchtritt durch Membranen zugenommen. iv) Wenn es vor allem um den Abbau/das Recyceln der fluorierten Verbindung geht - die Kohlenstoff-Fluor-Bindung lässt sich durch bereits entwickelte Enzymsysteme nicht so leicht wie eine Kohlenstoff- Wasserstoff-Bindung auflösen.

In Summe: fluorierte organische Verbindungen erweisen sich als nur wenig kompatibel mit den über die Evolution entwickelten und erprobten Kohlenstoff-Wasserstoff-Systemen.

Fluororganische Verbindungen sind also anthropogen

Die Produktion derartiger Stoffe begann vor 90 Jahren mit dem Halogenkohlenwasserstoff Freon-12 (Dichlordifluormethan - CCl2F2; Abbildung 1), einem ungiftigen, verflüssigbaren Gas, das als Kältemittel in Kühlsystemen und später auch als Treibgas in Sprühdosen eingesetzt wurde. Als erkannt wurde, dass Freon und weitere Halogenkohlenwasserstoffe auf die schützende Ozonschicht der Erde zerstörend wirken, wurde deren Herstellung und Verwendung ab 1987 über das Montreal Protokoll verboten.

Zwei Entwicklungen haben dann einen ungeahnten Boom an synthetisch produzierten Fluorverbindungen ausgelöst.

In der medizinischen Chemie

wurde 1954 mit dem Aldosteronderivat Fludrocortison (Abbildung 1) erstmals ein fluoriertes Pharmazeutikum erfolgreich auf den Markt gebracht, das von der WHO in die Liste der essentiellen Arzneimittel aufgenommen wurde. Die gezielte Einführung von Fluor gehörte bald zu den aussichtsreichsten Strategien der medizinischen Chemie, um die Wirkdauer und insgesamt die Wirksamkeit von Entwicklungssubstanzen zu optimieren. Zwei Fluor-Effekte sind dabei von besonderer Bedeutung: i) Fluorierung an Schwachstellen, d.i. an leicht metabolisierbaren Stellen eines Moleküls soll diese Reaktionen erschweren/verhindern und damit die biologische Stabilität der Verbindung und dadurch deren Blutspiegel und Wirkdauer erhöhen. ii) Fluorierung erhöht den lipophilen Charakter von Molekülen und soll so deren Durchtritt durch Lipidmembranen und damit deren Aufnahme in den Organismus und in seine Zellen erleichtern.

In den letzten 3 Jahrzehnten hat der Anteil der fluorierten Wirkstoffe besonders stark zugenommen - bis zu 50 % der neu registrierten synthetischen Pharmaka enthalten heute ein oder mehrere Fluorgruppen und insgesamt über 20 % aller derzeit im Handel erhältlichen Arzneimittel sind bereits Fluorpharmazeutika.

Neue Untersuchungen weisen allerdings auch auf eine Kehrseite der Fluorierung hin: In chemisch instabilen Molekülen und im Verlauf von enzymatischen Reaktionen kann auch die sehr feste Kohlenstof-Fluor-Bindung heterolytisch gespalten werden (d.i. die Bindungselektronen bleiben am Fluor) und Fluorid (F-) wird freigesetzt [Yue Pan, 2019]. Diese Freisetzung lässt sich sehr gut an verschiedenen, mit dem 18Fluor-Isotop markierten Verbindungen verfolgen, die zur Diagnose und auch zur Therapie diverser Tumoren in der Positron-Emissionstomographie (PET) eingesetzt werden (beispielsweise: [Ying-Cheng Huang et al.2016]).

Chronisch anhaltende Fluorid-Zufuhr von täglich mehr als 10 mg Fluorid kann zu schmerzhaften Veränderungen in Knochen und Gelenken (Skelettfluorose) führen. Ein klinisch belegtes Beispiel für die Freisetzung von Fluorid und dessen Folgen bietet das Antimykotikum Voriconazol, das bei Langzeittherapie zu erhöhten Fluoridspiegeln im Plasma und als Folge zu schmerzhaften Beinhautentzündungen und Knochenwucherungen führen kann.

In industriellen Anwendungen

hat die Entdeckung von Teflon (Polytetrafluorethylen, Abbildung 1) und seinen herausragenden Eigenschaften seit den 1950er Jahren zur Entwicklung von mehr als 10 000 unterschiedlichen Stoffen aus der Kategorie der per- und polyfluorierten Alkylverbindungen (PFAS) geführt; dies sind Verbindungen an denen die Wasserstoffatome an den Kohlenstoffatomen ganz oder teilweise durch Fluoratome ersetzt sind (Abbildung 1). Aufgrund der Chemikalienbeständigkeit und wasser-, hitze-, und schmutzabweisenden Eigenschaften wurden und werden PFAS in diversesten Artikeln eingesetzt. Das Spektrum reicht von Feuerlöschschaum bis hin zu wasserdichter Bekleidung, von schmutzabweisenden Beschichtungen bis zu antihaftbeschichtetem Kochgeschirr, von Dichtungsmaterial bis hin zu in Chemielabors und in der Medizintechnik verwendeten inerten Materialien. Zwei der in verschiedenen Anwendungen am häufigsten verwendeten PFAS-Verbindungen sind Perfluoroctansäure (PFOA) und Perfluoroctansulfonsäure (PFOS) (Abbildung 1). Diese langkettigen Stoffe entstehen durch Umweltprozesse auch aus anderen instabileren PFAS.

Die Widerstandsfähigkeit dieser ungemein nützlichen Stoffe ist leider auch die Basis ihrer negativen Auswirkungen auf Mensch und Umwelt: Geschützt durch die dichte Hülle aus Fluoratomen ist das Kohlenstoffskelett praktisch nicht abbaubar; die "Ewigkeitschemikalien" akkumulieren in Boden und Grundwasser und gelangen über Wasser und Nahrungsketten in Mensch und Tier.

Abbildung 2: Die weit verbreitete Verwendung von PFAS hat dazu geführt, dass diese in der Umwelt nun allgegenwärtig sind. Das Vorhandensein von PFAS im Ökosystem bedeutet, dass sie in verschiedene terrestrische und aquatische Nahrungsketten und -netze gelangen und schließlich den Menschen als Endverbraucher erreichen (Quelle: Figure 3 in Wee, S.Y., Aris, A.Z. (2023). https://doi.org/10.1038/s41545-023-00274-6.. Lizenz: cc-by)

Für den Haushalt war es eine großartige Erneuerung: Ab den 1960er Jahren konnten Stoffe, Teppiche, Polstermöbel u.a. mit dem Fleckenschutzmittel Scotchgard der US-amerikanischen Firma 3M imprägniert werden. Erst als sich im Jahr 2000 herausstellte, dass der Hauptbestandteil von Scotchgard, das langkettige Perfluoroctanylsulfonat (PFOS; Abbildung 1), bereits in der Umwelt und in der menschlichen Bevölkerung nachweisbar geworden war, hat eine hektische Forschung zu möglichen Konsequenzen von PFAS, insbesondere von PFOS und PFOA, auf Mensch und Umwelt begonnen. Seit 2000 sind In der Datenbank PubMed (https://pubmed.ncbi.nlm.nih.gov//; abgerufen am 2.4.2024) jeweils rund 5000 Untersuchungen über PFOS und ebenso viele über PFOA erschienen, darunter rund 1300 zur Toxizität, etwa 1700 zur Exposition des Menschen gegenüber PFOS und PFOA und rund 300 zur Schaffung von unproblematischeren Alternativen. Eine kürzlich erschienene Arbeit gibt einen umfassenden Überblick über die Freisetzung von PFAS aus diversen Produkten und die Wege, die zur Exposition des Menschen führen ([Wee, S.Y., Aris, A.Z. (2023)]; graphisch zusammengefasst in Abbildung 2).

Die wachsende Sorge über die Umweltverschmutzung mit PFAS und die gesundheitlichen Auswirkungen von langkettigen PFAS, insbesondere PFOA und PFOS, haben zu Bemühungen geführt, die Produktionsmethoden zu regulieren und Richtlinien zur Überwachung festzulegen (im Stockholmer Übereinkommen über persistente organische Schadstoffe, https://www.pops.int/). Der größte PFAS-Produzent, die 3M Company und auch der globale Player DuPont haben die Produktion und Verwendung von PFOA uns PFOS bereits eingestellt und andere Unternehmen folgen. Allerdings gibt es - vor allem in Kontinentalasien - neue Hersteller von langkettigen PFAS.

Die Europäische Chemikalienagentur (ECHA) hat im März 2024 die nächsten Schritte für die wissenschaftliche Bewertung des Beschränkungsdossiers für PFAS vorgestellt. Der Vorschlag sieht vor, dass PFAS nur noch in Bereichen zum Einsatz kommen dürfen, in denen es auf absehbare Zeit keine geeigneten sicheren Alternativen geben wird bzw. wo die sozioökonomischen Vorteile die Nachteile für Mensch und Umwelt überwiegen. Tatsächlich gibt es ja für viele dieser Stoffe - u.a. in den Chemielabors (Schläuche, inerte Gefäße) und in der medizinischen Anwendung (Stents, Prothesen) keine offensichtlichen Alternativen.

Die Problematik der Abwägung von Risiko und alternativlosem Inverkehrbringen bestimmter PFAS-Produkte und die hohe Persistenz dieser Produkte lassen befürchten, dass PFAS noch lange Zeit unsere Böden und Gewässer kontaminieren werden.

Die PFAS- Exposition

Menschen und Tiere sind permanent PFAS-Kontaminationen ausgesetzt, viele davon sind es bereits seit Jahrzehnten. PFAS gelangen in unsere Organismen durch direkten Kontakt über die Haut oder durch Inhalation oder über den Verdauungstrakt, d.i. über kontaminierte Nahrung und Trinkwasser. Im Organismus angelangt sind langkettige PFAS praktisch nicht abbaubar, zirkulieren, werden nur sehr langsam ausgeschieden und akkumulieren, solange die Aufnahme aus kontaminierten Quellen weiter besteht. Angaben über die Verweildauer im Organismus beruhen häufig auf Schätzungen und gehen weit auseinander.

Konkretere Zahlen hat eine Studie an 106 Personen aus Ronneby (Schweden) geliefert, deren Trinkwasser von der Mitte der 1980er Jahre an mit PFAS kontaminiert war (Quelle: Löschschaum von einem nahegelegenen Flugfeld). Nach Bereitstellung von sauberem Wasser Ende 2013 wurden über 33 Monate lang die PFAS-Spiegel im Blutserum und daraus die Halbwertszeiten des Absinkens bestimmt: die Mittelwerte lagen für PFOA bei 2,7 Jahren, für PFOS bei 3,5 Jahren und für das kürzerkettige PFHxS (Perfluorohexane sulfonate) bei 5,3 Jahren.

Erschreckend hoch waren die anfänglichen Serumspiegel, die im Mittel für PFHxS bei 277 ng/ml (12 - 1 660), für PFOS bei 345 ng/ml (24 - 1 500) und für PFOA bei 18 ng/ml (2,4 - 9,2) lagen [Li Y, Fletcher T, Mucs D, et al., 2019].

Diese Serumwerte sind vor dem Hintergrund des Leitfadens der US-National Academies of Sciences, Engineering, and Medicine (16.6.2022) "Guidance on PFAS Exposure, Testing, and Clinical Follow-Up" https://www.ncbi.nlm.nih.gov/books/NBK584702/ zu sehen:

a) < 2 ng / mL , gesundheitsschädliche Wirkungen sind nicht zu erwarten;

b) 2 - 20 ng / mL , mögliche schädliche Wirkungen, insbesondere bei empfindlichen Bevölkerungsgruppen; und

c) > 20 ng / mL , erhöhtes Risiko für schädliche Wirkungen. Säuglinge und Kleinkinder gelten als besonders empfindlich gegenüber PFAS-Exposition.

Wie groß das Problem der menschlichen Exposition bereits ist, wird aus der Kontamination des Trinkwassers mit den sehr häufig verwendeten PFOA und PFOS ersichtlich, die bereits weltweit detektierbar sind. Abbildung 3 zeigt Höchstwerte, die in einzelnen Regionen gemessen wurden, wobei die US und Schweden mit ihrer umfangreichen Produktion und Konsum von PFAS Hotspots bilden [Wee S.Y., Aris, A.Z. (2023)]. Die Produktion von PFAS in diesen Ländern wurde zwar eingestellt und hat dort zu einem Absinken der Blutspiegel geführt. Dafür hat die Produktion in den Entwicklungsländern erheblich zugenommen. Emission von PFAS und Kontamination werden auch vom Wohlstand (dem BIP) der einzelnen Gebiete beeinflusst, der unmittelbar mit Produktion, Verbrauch und Entsorgung von PFAS-Produkten zusammen hängt.

Abbildung 3: Produktion und globale Verbreitung/Verwendung von PFOA und PFOS spiegeln sich in der Kontamination des Trinkwassers wieder. Konzentrationen in Oberflächen- und Grundwasser, in Leitungswasser und in abgefülltem Wasser sind gemessene Maximalwerte in den einzelnen Staaten und sind in erster Linie auf die anhaltende Verschmutzung durch verschiedene Erzeuger, unvollständige Beseitigungsmethoden und unzureichende Überwachung- und Managementpraktiken erklärbar. NA: keine Angaben.(Quelle: Figure 4 in Wee S.Y., Aris, A.Z. (2023) https://doi.org/10.1038/s41545-023-00274-6. Lizenz: cc-by. Grundkarte mit freundlicher Genehmigung von https://www.mapchart.net/; Lizenz cc-by-sa.)

Die am häufigsten verwendeten PFAS werden wohl noch viele Jahre in der Umwelt gemessen werden können (insbesondere in der Nähe von Flughäfen und Militärstützpunkten), zu der Vielfalt der bereits produzierten und angewandten Tausenden anderen PFAS mit unterschiedlichen Eigenschaften fehlen ausreichend Informationen über Kontaminierungen, Expositionen und mögliche Gesundheitsrisiken und das gilt auch für die neu eingeführten PFAS-Ersatzstoffe.

Ein globales Gesundheitsproblem

Dass akkumulierende PFAS unserer Gesundheit schaden, ist unbestritten auch, wenn die Mechanismen wie und wo PFAS was bewirken noch ziemlich unbekannt sind.

PFAS sind stark lipophile Moleküle, die sich mehr und mehr in Membranen einlagern (und dort wie und was stören). Enzyme (vor allem aus den Cytochrom P450-Familien) scheitern am Versuch PFAS mittels aktiviertem Sauerstoff abzubauen. Sie setzen bloß den aktivierten Sauerstsoff (ROS) frei, der dann Entzündungsreaktionen auslöst, während PFAS-Moleküle weiter unbehelligt für Jahre im Organismus zirkulieren können und immer mehr werden.

Eine Fülle an gesundheitlichen Beeinträchtigungen wurde mit PFAS in Verbindung gebracht - vor allem Leberschäden, Krebserkrankungen im Umfeld von Produktionsstandorten mit sehr hoher Exposition, Nierenerkrankungen, Schilddrüsenerkrankungen, neurodegenerative Erkrankungen und der gesamte Komplex der Fettstoffwechselstörungen und damit verbundene Herz-Kreislauferkrankungen [Sunderland et al., 2019].

Ausreichende Evidenz für einen Zusammenhang mit der PFAS-Exposition gibt es bislang erst für wenige Krankheiten/Auswirkungen auf die Gesundheit. Die oben erwähnten "Guidance on PFAS Exposure, Testing, and Clinical Follow-Up" hat diese 2022 zusammengefasst. Es sind dies:

  •  verminderte Antikörperreaktion (bei Erwachsenen und Kindern),
  • Fettstoffwechselstörung (Dyslipoproteinämie; bei Erwachsenen und Kindern), 
  • vermindertes Wachstum von Säuglingen und Föten und
  • erhöhtes Risiko für Nierenkrebs (bei Erwachsenen).

Seit der Einführung der PFAS-Materialien und dem Bekanntwerden der damit für Umwelt und Gesundheit verbundenen Probleme sind Jahrzehnte ungenützt verstrichen. Dass sich die Industrie bereits viel früher über diese Risiken ihrer Erfindungen im Klaren war, ist in höchstem Maße erschreckend. Der für seine lebenslangen Forschungen über Umwelt verschmutzende Chemikalien berühmte Umweltmediziner Philippe Grandjean fasst diesen skandalösen Umstand und die zögerlichen Reaktionen der Entscheidungsträger in einem überaus kritischen, 2018 publizierten Artikel zusammen (Übersetzt aus [P. Grandjean, 2018]):

"Frühe Forschungsergebnisse über die Exposition gegenüber PFAS in der Umwelt und ihre Auswirkungen auf die Gesundheit wurden erst mit erheblicher Verzögerung verfügbar und bei den ersten Regulierungsentscheidungen zur Verringerung der Exposition nicht berücksichtigt. Erst in den letzten zehn Jahren hat sich die umweltmedizinische Forschung auf die PFAS konzentriert und wichtige Risiken für die menschliche Gesundheit, z. B. für das Immunsystem, aufgedeckt. Obwohl die Richtwerte für PFAS im Trinkwasser im Laufe der Zeit gesunken sind, sind sie immer noch zu hoch, um vor einer solchen Toxizität zu schützen. Während die am häufigsten verwendeten PFAS noch viele Jahre in der Umwelt verbleiben werden, werden neue PFAS-Ersatzstoffe eingeführt, obwohl nur wenige Informationen über negative Gesundheitsrisiken verfügbar sind. In Anbetracht der gravierenden Verzögerungen bei der Entdeckung der Toxizität von PFAS, ihrer Persistenz in der Umwelt und ihrer Auswirkungen auf die öffentliche Gesundheit sollten PFAS-Ersatzstoffe und andere persistente Industriechemikalien vor einer weit verbreiteten Verwendung einer eingehenden Forschungsprüfung unterzogen werden."

Grandjean tritt auch als Topexperte in einer 2023 erschienenen Dokumentation auf, die enthüllt, was die PFAS-Produzenten Dupont und 3M schon früh über die Risiken ihrer Verbindingen wussten. [Zembla - The PFAS Cover-up; 2023].


Zitierte Literatur:

Grandjean P. Delayed discovery, dissemination, and decisions on intervention in environmental health: a case study on immunotoxicity of perfluorinated alkylate substances. Environ Health. 2018 Jul 31;17(1):62. DOI: 10.1186/s12940-018-0405-y

Leitfaden der US-National Academies of Sciences, Engineering, and Medicine (16.6.2022) "Guidance on PFAS Exposure, Testing, and Clinical Follow-Up" https://www.ncbi.nlm.nih.gov/books/NBK584702/

Sunderland EM, Hu XC, Dassuncao C, Tokranov AK, Wagner CC, Allen JG. A review of the pathways of human exposure to poly- and perfluoroalkyl substances (PFASs) and present understanding of health effects. J Expo Sci Environ Epidemiol. 2019 Mar;29(2):131-147. DOI: 10.1038/s41370-018-0094-1

Wee, S.Y., Aris, A.Z. Revisiting the “forever chemicals”, PFOA and PFOS exposure in drinking water. npj Clean Water 6, 57 (2023). https://doi.org/10.1038/s41545-023-00274-6

Li Y, Fletcher T, Mucs D, et al. Half-lives of PFOS, PFHxS and PFOA after end of exposure to contaminated drinking water. Occup Environ Med 2018;75:46–51. doi: DOI: 10.1136/oemed-2017-104651

Ying-Cheng Huang et al., Synthesis and Biological Evaluation of an 18Fluorine-Labeled COX Inhibitor—[18F]Fluorooctyl Fenbufen Amide—For Imaging of Brain Tumors. Molecules 2016, 21, 387; doi: 10.3390/molecules21030387

Yue Pan, The Dark Side of Fluorine. ACS Med. Chem. Lett. 2019, 10, 1016−1019. DOI: 10.1021/acsmedchemlett.9b00235

Zembla - The PFAS Cover-up. Video 51.03 min. https://www.youtube.com/watch?v=y3kzHc-eV88


Verwandte Themen imScienceBlog

Redaktion, 21.03.2024: Kunststoffchemikalien: ein umfassender Report zum Stand der Wissenschaft

Roland Wengenmayr, 11.03.2021: Nachwachsende Nanowelt - Cellulose-Kristalle als grünes Zukunftsmaterial

Inge Schuster, 12.12.2014: Was macht HCB so gefährlich?


 

inge Thu, 04.04.2024 - 12:03

Kunststoffchemikalien: ein umfassender Report zum Stand der Wissenschaft

Kunststoffchemikalien: ein umfassender Report zum Stand der Wissenschaft

Do,21.03.2024 — Redaktion

Redaktion

Icon Chemie

Ein bestürzender Report ist vergangene Woche erschienen (M.Wagner et al., 2024): Wissenschafter aus Norwegen und der Schweiz haben einen umfassenden Überblick über mehr als 16 000 Chemikalien gegeben, die zur Produktion von Kunststoffen verwendet werden, in diesen potentiell enthalten sind und von diesen freigesetzt werden können. Von mehr als 9000 dieser Substanzen fehlen Angaben wo und wie sie eingesetzt werden, bei mehr als 10 000 Substanzen gibt es keine Informationen zum Gefährdungsrisiko. Über 4 200 Kunststoffchemikalien werden als bedenklich betrachtet, da sie persistent sind und/oder sich in der Biosphäre anreichern und/oder toxisch sind, davon unterliegen 3 600 weltweit keinen Regulierungen. Eine Schlussfolgerung der Forscher: bedenkliche Chemikalien können in allen Kunststoffarten vorkommen.Um zu besserer Chemikaliensicherheit und Nachhaltigkeit zu gelangen, empfehlen sie ein Bündel an Maßnahmen zur politischen Umsetzung.

Die wichtigsten Aussagen der Forscher werden im folgenden Artikel ungefiltert aufgezeigt: in Form der "Executive Summary" des Reports, die hier in deutscher Übersetzung und ergänzt mit einigen Abbildungen aus dem Report vorliegt.

Das Ausmaß der Chemikalien bei Kunststoffen

Chemikalien sind ein essentielles Merkmal aller Materialien und Produkte aus Kunststoff und der Schlüssel, um deren Vorzüge zu erzielen. Allerdings werfen Kunststoffchemikalien erhebliche Bedenken zu Umwelt und Gesundheit auf. Die Vielfalt der Kunststoffchemikalien und ihre problematischen Eigenschaften machen eine umfassende Analyse zum Schutz der menschlichen Gesundheit und der Umwelt während des gesamten Lebenszyklus von Kunststoffen erforderlich. Der PlastChem-Bericht "State-of-the-science on plastic chemicals" gibt einen sorgfältigen und umfassenden Überblick über den aktuellen wissenschaftlichen Kenntnisstand der chemischen Dimension von Kunststoffen, einschließlich der Gefahren, Funktionen, Verwendungen, Produktionsmengen und des rechtlichen Status von Kunststoffchemikalien [1].

Warum spielen Kunststoffchemikalien eine Rolle?

Abbildung 1. Anzahl der Chemikalien von denen die Verwendung bei der Kunststoffproduktion, das Vorhandenseins in den Kunststoffen und die Freisetzung aus Kunststoffen nachgewiesen ist. Chemikalien mit unschlüssigen Ergebnissen sind ebenfalls angeführt. Bei den Informationen über Verwendung, Vorhandensein und Freisetzung gibt es erhebliche Überschneidungen, so dass hier für jede Chemikalie der höchste Beweisgrad angegeben wird. (Quelle: Figure 7 in M. Wagner et al., 2024,[1]. von Redn. deutsch übersetzt. Lizenz cc-by-sa-nc-4.0.)

Die weltweite Kunststoffindustrie verwendet eine Vielzahl von Chemikalien, von denen viele nachweislich die Umwelt verschmutzen und schädliche Auswirkungen auf Wildtiere, Menschen und Ökosysteme haben. Viele andere Kunststoffchemikalien sind noch unzureichend untersucht (Abbildung 1).

Die bekannten nachteiligen Auswirkungen in Verbindung mit Datenlücken und bruchstückhaften wissenschaftlichen Erkenntnissen stellen ein gewaltiges Hindernis für die Bewältigung der Risiken dar, die durch die Belastung mit Chemikalien während des gesamten Lebenszyklus von Kunststoffen entstehen. Darüber hinaus verhindert dies auch den Übergang zu einer schadstofffreien Zukunft, indem es Innovationen im Hinblick auf sicherere und nachhaltigere Materialien und Produkte behindert.

Was ist über Kunststoffchemikalien bekannt?

Abbildung 2. Anzahl der Kunststoffchemikalien nach ihrem jährlichen Produktionsvolumen. Die Zahlen sind kumuliert, d. h. die Anzahl der Chemikalien mit ≥10 Tonnen umfasst alle Chemikalien mit einem höheren Produktionsvolumen. (Quelle: Figure 5 in M. Wagner et al., 2024,[1].Lizenz cc-by-sa-nc-4.0.)

Der Bericht über den Stand der Wissenschaft fasst die Erkenntnisse über mehr als 16 000 Chemikalien zusammen, die potentiell in Kunststoffmaterialien und -produkten verwendet werden oder enthalten sind. Nur 6 % dieser Chemikalien unterliegen derzeit internationalen Regulierungen, obwohl eine weitaus größere Zahl in großen Mengen hergestellt wird und ein hohes Expositionspotenzial aufweist. Abbildung 2 gibt einen Überblick über Zahl und Produktionsvolumina von Kunststoffchemikalien.

Mehr als 4200 Kunststoffchemikalien sind bedenklich, weil sie persistieren, in der Biosphäre akkumulieren, mobil und/oder toxisch (PBMT) sind. Was unter diesen Gefährdungskriterien zu verstehen ist, zeigt Abbildung 3.

Abbildung 3. Abbildung 3. Die 4 Gefährdungskriterien Persistenz, Bioakkumulation, Mobiliät und Toxizität - PBMT. (Quelle: Executive Summary in M. Wagner et al., 2024,[1]; von Redn. deutsch übersetzt.Lizenz cc-by-nc-sa-4.0.),

Über 1300 der bedenklichen Chemikalien sind zur Verwendung in Kunststoffen auf dem Markt, und 29 - 66 % der verwendeten oder in gut untersuchten Kunststoffarten gefundenen Chemikalien sind bedenklich.

Dies bedeutet, dass bedenkliche Chemikalien in allen Kunststoffarten vorkommen können.

Der Bericht zeigt auch eklatante Datenlücken auf: Bei mehr als einem Viertel der bekannten Kunststoffchemikalien fehlen grundlegende Informationen über ihre Identität, und bei mehr als der Hälfte sind die Informationen über ihre Funktionen und Anwendungen in der Öffentlichkeit unklar oder fehlen ganz (siehe Abbildung 1). Darüber hinaus sind die Daten zum Produktionsvolumen nicht weltweit repräsentativ und auf bestimmte Länder beschränkt.

Abbildung 4. Übersicht über Kunststoffchemikalien, die als gefährlich, weniger gefährlich und ungefährlich eingestuft sind und von denen keine Gefährdungsdaten vorliegen. Die rechte Seite zeigt, welche Gefahrenkriterien (PBMT: siehe Abb.3) und Eigenschaften die betreffenden Chemikalien erfüllen. Abkürzungen: STOT: spezifische Organ-Toxizität; CMR: carcinogen, mutagen, reproduktionsschädigend; EDC: endokriner Disruptor; POP: persistierende organische Pollution; PBT: persistent, bioakkumulierend, toxisch; PMT: persistent, mobil, toxisch; vPvB: sehr persistent, sehr bioakkumulierend; vPvM: sehr persistent, sehr mobil. (Quelle: Figure 11 in M. Wagner et al., 2024,[1]. von Redn. modifiziert und deutsch übersetzt. Lizenz cc-by-nc-sa-4.0.)

Besonders wichtig ist, dass für mehr als 10 000 Chemikalien keine Informationen über die Gefahren vorliegen, obwohl diese Informationen für eine ordnungsgemäße Bewertung und Handhabung dieser Chemikalien unerlässlich sind (Abbildung 4). Dies unterstreicht den Bedarf an transparenteren Informationen über die Identität, die Gefahren, die Funktionen, die Produktionsmengen und das Vorkommen von Kunststoffchemikalien in Kunststoffen.

Auf welche Kunststoffchemikalien kommt es besonders an?

Der Bericht skizziert einen systematischen Ansatz zur Identifizierung und Prioritätensetzung von besorgniserregenden Chemikalien, wobei ein gefahren- und gruppenbasierter Rahmen verwendet wird, der auf vier entscheidenden Gefährdungskriterien (PBMT; Abbildung 3) basiert. Diese Methode ermöglicht eine effiziente Identifizierung von Chemikalien, die weitere politische Maßnahmen erfordern. Ein solcher Ansatz löst auch die großen Herausforderungen, die mit der Risikobewertung von mehr als 16.000 Kunststoffchemikalien verbunden sind, einschließlich des immensen Ressourcenbedarfs, der Investitionen und der technischen Herausforderungen zur Ermittlung zuverlässiger Expositionsdaten (d. h. der Konzentration von Kunststoffchemikalien in der Umwelt, in der Tierwelt und beim Menschen).

Unter Anwendung eines strengen und umfassenden gefahren- und gruppenbasierten Ansatzes werden in dem Bericht 15 prioritäre Substanzgruppen bedenklicher Kunststoffchemikalien identifiziert (Abbildung 5) und über 4200 bedenkliche Chemikalien, von denen ca. 3600 derzeit weltweit nicht reguliert sind. Außerdem werden zusätzliche Strategien zur weiteren Priorisierung von Kunststoffchemikalien für politische Maßnahmen vorgestellt und Ansätze zur Identifizierung bedenklicher Polymere aufgezeigt

Abbildung 5. Prioritäre 15 Substanzgruppen von Kunststoffchemikalien, die Anlass zu Besorgnis sind. (Quelle: Executive Summary in M. Wagner et al., 2024,[1]; Lizenz cc-by-nc-sa-4.0.),

Wie kann diese Evidenz in politische Maßnahmen umgesetzt werden?

Empfehlung 1: Umfassende und effiziente Regulierung von Kunststoffchemikalien

Die große Zahl und die vielfältigen bekannten Gefahren erfordern neue Ansätze, um Kunststoffchemikalien umfassend und effizient zu regeln. Dies kann durch die Umsetzung eines gefahren- und gruppenbasierten Ansatzes zur Ermittlung bedenklicher Kunststoffchemikalien erreicht werden. Eine solche Strategie ist von entscheidender Bedeutung, um die Grenzen der derzeitigen Bewertungssysteme zu überwinden und die Innovation hin zu sichereren Kunststoffchemikalien zu fördern.

Dementsprechend sollten die politischen Entscheidungsträger die PBMT-Kriterien übernehmen und den 15 Gruppen und 3600 bedenklichen Chemikalien Vorrang bei der Regulierung einräumen, da sie derzeit auf globaler Ebene nicht reguliert sind.

Empfehlung 2: Transparenz bei Kunststoffchemikalien fordern

Mehr Transparenz bei der chemischen Zusammensetzung von Kunststoffen ist unerlässlich, um Datenlücken zu schließen, ein umfassendes Management von Kunststoffchemikalien zu fördern und Rechenschaftspflicht über die gesamte Wertschöpfungskette von Kunststoffen zu schaffen. Eine einheitliche Berichterstattung, die Offenlegung der chemischen Zusammensetzung von Kunststoffmaterialien und -produkten sowie ein "Keine Daten, kein Markt"-Ansatz werden empfohlen, um sicherzustellen, dass wesentliche Informationen über Kunststoffchemikalien öffentlich zugänglich werden. Dies dient dem doppelten Zweck, Sicherheitsbewertungen und Entwicklung von sichereren Kunststoffen zu erleichtern.

Empfehlung 3: Vereinfachung von Kunststoffen in Richtung Sicherheit und Nachhaltigkeit

Die vielen auf dem Markt befindlichen Kunststoffchemikalien erfüllen oft ähnliche und manchmal unwesentliche Funktionen. Diese Komplexität und Redundanz stellen ein großes Hindernis für Governance und Kreislaufwirtschaft dar. Das Konzept der chemischen Vereinfachung bietet die Möglichkeit, die Auswirkungen von Kunststoffen zu verringern, indem ein innovationsfreundlicher und evidenzbasierter Weg in die Zukunft eingeschlagen wird. Die Vereinfachung kann durch die Förderung von Maßnahmen erreicht werden, die die Verwendung von weniger und sichereren Chemikalien begünstigen, sowie durch die Annahme von Konzepten für die erforderliche Verwendung und die sichere Gestaltung, um Innovationen zu lenken.

Empfehlung 4: Aufbau von Kapazitäten zur Entwicklung sichererer und nachhaltigerer Kunststoffe

Um Kunststoffchemikalien wirksam zu handhaben und Innovationen in Richtung sicherer und nachhaltiger Kunststoffe zu fördern, sollten im öffentlichen und privaten Sektor technische, institutionelle und kommunikative Kapazitäten aufgebaut werden. Dazu gehört die Förderung des globalen Wissensaustauschs, die Schaffung eines gleichberechtigten Zugangs zu technischen Fähigkeiten und die Verbesserung der institutionellen Ressourcen für ein effektives Management von Kunststoffchemikalien. Durch die Einrichtung einer Plattform für den Wissensaustausch, die internationale Zusammenarbeit und die Zuteilung von Ressourcen regt der Bericht zu kollektiven Anstrengungen an, um gemeinsame Lösungen zu entwickeln und sicherzustellen, dass Wissen, Technologie und Infrastruktur auf offene, faire und gerechte Weise verfügbar sind.

Abbildung 6. Kunststoffchemikalien: Stand der Wissenschaft und empfohlene Maßnahmen zur politischen Umsetzung. (Quelle: Executive Summary in M. Wagner et al., 2024,[1]; Lizenz cc-by-nc-sa-4.0.),

Abbildung 6. fasst den derzeitigen wissenschaftlichen Stand über Kunststoffchemikalien und die empfohlenen Maßnahmen zur politischen Umsetzung zusammen.

Welche positiven Auswirkungen hat es sich mit Kunststoffchemikalien zu befassen?

Eine umfassende Auseinandersetzung mit besorgniserregenden Kunststoffchemikalien und -polymeren wird erheblichen Nutzen für Umwelt und menschliche Gesundheit mit sich bringen, Innovationen zu sichereren Kunststoffchemikalien, -materialien und -produkten fördern und den Übergang zu einer untoxischen Kreislaufwirtschaft unterstützen. Die vorgeschlagenen Konzepte für Kunststoffchemikalien und Polymere sollen den Stand der Wissenschaft mit den politischen und rechtlichen Rahmenbedingungen in Einklang bringen und so eine fundierte Entscheidungsfindung und verantwortungsvolle Innovationen in allen Sektoren erleichtern.

Da kein Land in der Lage ist, das grenzüberschreitende Problem der Kunststoffchemikalien und -polymere allein anzugehen, ist dem Stand der Wissenschaft entsprechend eine kollektive globale Reaktion am besten geeignet, um die Auswirkungen auf Umwelt und Gesundheit zu mindern. Eine evidenzbasierte Politik, die der Chemikaliensicherheit und Nachhaltigkeit Vorrang einräumt, wird einen Weg zu einer sicheren und nachhaltigen Zukunft bieten.


Der PlastChem-Bericht:

Martin Wagner, Laura Monclús, Hans Peter H. Arp, Ksenia J. Groh, Mari E. Løseth, Jane Muncke, Zhanyun Wang, Raoul Wolf, Lisa Zimmermann (14.03.2024) State of the science on plastic chemicals - Identifying and addressing chemicals and polymers of concern. http://dx.doi.org/10.5281/zenodo.10701706.  Lizenz: cc-by-sa-4.0.

Der Bericht

  • wird von einer öffentlich zugänglichen, umfassenden Zusammenstellung von Informationen über bekannte Kunststoffchemikalien begleitet, der PlastChem-Datenbank: plastchem_db_v1.0.xlsx
  • wurde am 14. März 2024 im Rahmen einer Online-Veranstaltung des Geneva Environment Network vorgestellt: Launch and Panel Discussion: State of the Science on Plastic Chemicals. Video 1:30:25 (mit Transkript) https://www.youtube.com/watch?v=zM-xbq_QyG8
  • ist im Vorfeld der April-Sitzung des Fourth Intergovernmental Negotiating Committee on Plastic Pollution (INC-4, in Ottawa, Ontario) erschienen, eines Ausschusses des Umweltprogramms der Vereinten Nationen, der bis Ende des Jahres ein globales Plastikabkommen mit 175 Ländern ausarbeiten soll.

 

inge Fri, 22.03.2024 - 00:40

Gezüchtetes Fleisch? Oder vielleicht Schlangenfleisch?

Gezüchtetes Fleisch? Oder vielleicht Schlangenfleisch?

Fr, 15.03.2024 — Ricki Lewis

Ricki Lewis

Icon Nahrung

Im Labor aus tierischen Zellen gezüchtetes Fleisch ist bislang ein Fehlschlag geblieben. Schlangen könnten eine neue Quelle für die Fleischzucht darstellen. Eine australische Forschergruppe hat mehr als 4600 Tiere von zwei großen Pythonarten über 12 Monate hinweg auf Farmen in Thailand und Vietnam - wo Schlangenfleisch als Delikatesse gilt - untersucht. Sie haben festgestellt, dass Pythons hitzetolerant und widerstandsfähig gegenüber Nahrungsmittelknappheit sind und in der Lage Proteine weitaus effizienter als alle anderen bisher untersuchten Arten zu produzieren. Die Genetikerin Rick Lewis berichtet über Pythonzucht als eine der Antworten auf eine Klimawandel-bedingte, weltweite Ernährungsunsicherheit.*

Die Biotechnologie hat viele Probleme gelöst, von rekombinanter DNA und monoklonalen Antikörpern über Gentherapie und Transplantation von Stammzellen bis hin zu Impfstoffen auf RNA-Basis und gentechnisch veränderten Pflanzen, die Krankheiten und Pestiziden widerstehen.

Im Gegensatz dazu ist das so genannte kultivierte Fleisch bisher ein Fehlschlag geblieben.

Eine ausführliche Stellungnahme dazu von Joe Fassler ist in der New York Times vom 9. Februar unter dem Titel Die Revolution, die auf dem Weg zur Mahlzeit verkommen ist (The Revolution That Died on Its Way to Dinner ) erschienen. Der Autor setzt sich darin mit den unrealistischen Erwartungen, Verkettungen und Pannen auseinander, die verhindert haben, was er sich unter "einer Hightech-Fabrik mit Stahltanks" vorstellt, "die so hoch sind wie Wohnhäuser, und Fließbändern, die jeden Tag Millionen Kilo fertig geformter Steaks ausrollen - genug, um eine ganze Nation zu ernähren."

Die Herstellung von Fleisch

Gezüchtetes Fleisch zielt darauf ab, Fleisch außerhalb von Körpern nachzubauen. Es handelt sich dabei nicht um einen mit Erbsenprotein voll gepackten Beyond Burger oder einen raffiniert auf Hämoglobin basierenden Impossible Burger, sondern um tierische Zellen, die in einer Suppe aus Nährstoffen gebraut werden, unter Zusatz von Hormonen, welche die Entwicklung in Richtung Muskel-, Fett- und Bindegewebe lenken, um das Ergebnis dann in Formen zu bringen, die Restaurantgerichten ähneln.

Wenn wir so geheimnisvolle Lebensmittel wie Hot Dogs, Fischstäbchen, Gyros und Chicken Nuggets essen können, warum dann nicht auch einen gezüchteten Fleischklumpen?

Das Mantra für Fleischesser besagt, dass bei den im Labor gezüchteten Sorten keine Tiere getötet werden und der Zerstörung von Wäldern zwecks Schaffung von Weideflächen entgegen gewirkt werden könne. Seit 2016 sind Milliarden in die Erforschung von kultiviertem Fleisch investiert worden, entstanden sind aber nur eine Handvoll Produkte, in Singapur, den Vereinigten Staaten und Israel.

Als Biologin kann ich mir nicht vorstellen, wie man geschmackvolle Teile eines Tierkörpers reproduzieren kann, die im Laufe der Jahrtausende von der Evolution immer mehr verfeinert wurden. Würden die Züchter Aktin- und Myosinfasern dazu bringen, sich zu Skelettmuskelfasern zu verflechten, welche der Form nach einem Ribeye-Steak oder einem Kronfleisch entsprechen? Wie genau reproduziert das Gebräu aus Nährstoffen und Hormonen die biochemischen Kaskaden, welche Zellteilung und Zelldifferenzierung bei der Bildung von Organen aus nicht-spezialisierten Vorläuferzellen organisieren? Würden die Versuche stattdessen zu einem Mischmasch von Zelltypen führen?

Und dann ist da noch die Frage des Scale-ups. Ein Prototyp für 10.000 Dollar ist nicht gerade ermutigend.

Als ob diese Herausforderungen nicht schon entmutigend genug wären, haben einige Versuche, Fleisch zu züchten, zu Produkten geführt, die Zellen von Mäusen oder Ratten enthalten. Huch! Nun, das sind auch Säugetiere.

Fleischzüchter - die Unternehmen

Mehr als 20 Unternehmen forschen an kultiviertem Fleisch, darunter Upside Foods, New Age Eats, BlueNalu, das zellgezüchteten" Blauflossenthunfisch anbietet und Shiok Meats aus Singapur mit kultivierten Krustentiere (sogenannten Meeresfrüchten).

Auf der Website von Vow (Sidney, Australien) werden die einzelnen Schritte der Fleischzüchtung sobeschrieben (https://www.vowfood.com/what-we-do):

  • "Zellkuration: Wir züchten die perfekte Kombination von Zellen hinsichtlich ihrer Fähigkeit zur Selbsterneuerung und für idealen Geschmack, Textur und Aromen.
  • Vorbereiten und nähren: Wir fügen essenzielle Mikronährstoffe zu, die dazu beitragen, ein schmackhaftes, strukturiertes Fleischprofil zu erzeugen. Es ist wie Ihre bevorzugte Rezeptur, aber auf molekularer Ebene, und bietet Qualität, Reinheit und Konsistenz besser als jedes andere Fleisch. Immer.
  • Purer Nährwert: Wir setzen die Zellen in unsere klimatisierten Kultivatoren und sorgen so für einen natürlichen Verlauf der Bildung von Muskel-, Fett- und Bindegewebe auf die sicherste Art und Weise.
  •  Wir verpacken sie zu einer Reihe von Markenprodukten für den Verbraucher."

Warum sind Schlangen interessant?

Ökonomischer als der Versuch, die Natur nachzubilden und zu verändern, um Steaks und Sushi zu züchten, könnte es sein, neue Quellen für die Fleischzucht zu finden. Diesbezüglich ist kürzlich unter dem Titel "Pythonzucht als flexible und effiziente Form der landwirtschaftlichen Nahrungsmittel-sicherheit (Python Farming as a flexible and efficient form of agricultural food security) eine Arbeit in Scientific Report erschienen [1]. Darin untersuchen Daniel Natusch und seine Kollegen von der Macquarie University in Sydney die Möglichkeit, Reptilien zu züchten, die ja in Asien bereits ein Grundnahrungsmittel sind.

Abbildung 1. Netzpython (links) und Burmesischer Python (rechts). Die beiden Arten leben hauptsächlich in den Tropen Südostasiens und gehören zu größten Schlangen der Welt. Ausgewachsene weibliche Netzpythons werden bis zu 7 m lang und bis zu 75 kg schwer. Burmesische Pythons sind etwas kleiner. Die Tiere sind Fleischfresser, verzehren u.a. Nagetiere aber auch mache Insekten (Grillen). (Quellen: Links: Rushenby, Malayopython reticulatus, Reticulated python - Kaeng Krachan District, Phetchaburi Province (47924282891) cc-by-sa. Rechts: gemeinfrei.)

Die Forscher haben die Wachstumsraten von 4.601 Netzpythons und burmesischen Pythons in zwei Farmen in Thailand und Vietnam analysiert. Abbildung 1.Die Tiere wurden wöchentlich mit wild gefangenen Nagetieren und Fischmehl gefüttert und ein Jahr lang wöchentlich gewogen und gemessen.

Wie die Forscher berichten, sind Schlangen eine gute Nahrungsquelle. Im Vergleich zu Hühnern, Kühen und Ziegen fressen sie nicht oft. Und 82 % der Masse einer lebenden Schlange können zu "verwertbaren Produkten" werden, schreiben die Forscher.

Beide Arten sind schnell gewachsen - bis zu 46 Gramm pro Tag, wobei die Weibchen schneller wuchsen als die Männchen. Die Wachstumsrate in den ersten beiden Lebensmonaten sagte am besten die spätere Körpergröße voraus.

Die Forscher wählten außerdem 58 Schlangen auf der Farm in Ho Chi Minh Stadt (Vietnam) aus und fütterten sie mit unterschiedlicher proteinreicher Kost, u.a. mit Huhn, Schweinefleischabfällen, Nagetieren und Fischmehl. Für je 4,1 Gramm verzehrter Nahrung konnten die Forscher 1 Gramm Pythonfleisch ernten. "Hinsichtlich des Verhältnisses von Nahrung und Proteinverwertung übertreffen Pythons alle bisher untersuchten landwirtschaftlichen Arten", schreiben die Forscher.

Ein weiteres positives Ergebnis: die Reptilien konnten über lange Zeiträume (20 bis zu 127 Tage) fasten, ohne viel an Körpermasse zu verlieren - rein theoretisch könnte man das Füttern für ein Jahr aussetzen - was bedeutet, dass sie weniger Arbeit für die Fütterung benötigten als herkömmliche Zuchttiere.

Und ja, Schlangenfleisch schmeckt wie Huhn aber geschmackvoller.


Anmerkung der Redaktion

Die Washington Post hat den Artikel von Natusch et al., [1] gestern unter dem Titel "Want a more sustainable meat for the grill? Try a 13-foot python steak." kommentiert https://www.washingtonpost.com/climate-solutions/2024/03/14/snake-meat-food-sustainability-python/:

Wenn auch Schlangen in absehbarer Zeit wohl kaum einen großen Teil der westlichen Ernährung ausmachen werden, so spricht dennoch Einiges für eine Pythonzucht als Antwort auf eine weltweite Ernährungsunsicherheit infolge des Klimawandels. 

     Pythons sind recht einfach zu halten -sie sind von Natur aus sesshaft und koexistieren problemlos mit anderen Schlangen. Es gibt nur wenige der komplexen Tierschutzprobleme, die bei Vögeln und Säugetieren in Käfigen auftreten.

    Pythons sind hitzetolerant und widerstandsfähig gegenüber Nahrungsmittelknappheit und in der Lage Proteine "weitaus effizienter als alle anderen bisher untersuchten Arten" zu produzieren. Sie brauchen sehr wenig Wasser. Ein Python kann von dem Tau leben, der sich auf seinen Schuppen bildet. Theoretisch könnte man einfach ein Jahr lang aufhören, sie zu füttern.

In einer Welt, in der Prognosen zufolge der Klimawandel zu extremeren Wetter- und Umweltkatastrophen führen wird, ist eine Art, die hitzetolerant und widerstandsfähig gegenüber Nahrungsmittelknappheit ist und in der Lage Proteine "weitaus effizienter als alle anderen bisher untersuchten Arten" zu produzieren, "fast ein wahr gewordener Traum".


 [1] Natusch, D., Aust, P.W., Caraguel, C. et al. Python farming as a flexible and efficient form of agricultural food security. Sci Rep 14, 5419 (2024). https://doi.org/10.1038/s41598-024-54874-4


* Der Artikel ist erstmals am 14. März 2024 in PLOS Blogs - DNA Science Blog unter dem Titel "Cultivated Meat? Let Them Eat Snake" https://dnascience.plos.org/2024/03/14/cultivated-meat-let-them-eat-snake/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.


Artikel in ScienceBlog.at

I. Schuster, 11.09.2021: Rindersteaks aus dem 3D-Drucker - realistische Alternative für den weltweiten Fleischkonsum?


 

inge Fri, 15.03.2024 - 18:14

Unerfüllter Kinderwunsch - fehlerhafte Prozesse der reifenden Eizelle

Unerfüllter Kinderwunsch - fehlerhafte Prozesse der reifenden Eizelle

Do, 07.03.2024 — Christina Beck

Christina Beck

Icon Molekularbiologie

Laut einer 2023 veröffentlichten Studie der Weltgesundheitsorganisation ist jeder sechste Mensch im gebärfähigen Alter zumindest zeitweise unfruchtbar. Prof. Dr. Melina Schuh, Direktorin am Max-Planck-Institut für Multidisziplinare Naturwissenschaften (Götttingen) und ihr Team erforschen den Reifungsprozess der Eizelle und zeigen, dass und warum dieser sehr fehleranfällig ist und zu falscher Chromosomenverteilung (Aneuploidie) in der Eizelle führen kann: Diesen Eizellen dürfte ein wichtiges Motor-Protein (KIFC1) zur Stabilisierung der Maschine fehlen, welche die Chromosomen während der Zellteilung korrekt trennen sollte. Das Einbringen dieses Motor-Proteins in menschliche Oozyten stellt somit einen möglichen neuen Ansatz dar, um Kinderwunsch erfolgreicher behandeln zu können. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, berichtet darüber und über den bislang noch nicht völlig verstandenen Prozess, der am Anfang unseres Lebens steht.*

Global sind 17,5 Prozent aller Männer und Frauen demnach an einem Punkt in ihrem Leben davon betroffen, kein Kind zeugen zu können. Ausgewählt und ausgewertet wurden dazu 133 aus weltweit mehr als 12.000 Studien, die zwischen 1990 und 2021 entstanden sind. In Deutschland ist fast jedes zehnte Paar zwischen 25 und 59 Jahren ungewollt kinderlos. Die Gründe dafür sind vielfältig und – das ist wichtig zu wissen – betreffen beide Geschlechter. Tatsächlich sind die medizinischen Ursachen für Unfruchtbarkeit bei Männern und Frauen gleichverteilt (Abbildung 1). Die Hauptursache für ungewollte Kinderlosigkeit liegt hierzulande vor allem darin, dass die Menschen sich immer später für eine Elternschaft entscheiden. Das betrifft Männer wie Frauen gleichermaßen. Das Alter der Erstgebärenden ist in den vergangenen Jahrzehnten stetig gestiegen, ebenso wie das der Väter.

Abbildung 1: Verteilung der Unfruchtbarkeit: Verschiedene physiologische Faktoren können zur Unfruchtbarkeit beitragen und betreffen die Frau, den Mann oder beide Partner. Die prozentualen Anteile unterscheiden sich je nach Studie und untersuchten Kriterien. Die Angaben in der Abbildung stellen ungefähre Werte dar. (© Zahlen nach Forti, G. (1998), doi: 10.1210/jcem.83.12.5296 // Grafik: HNBM CC BY-NC-SA 4.0)

So waren einer Studie des Max-Planck-Instituts für demografische Forschung in Rostock zufolge schon 2013 sechs Prozent aller Neuväter in Deutschland 45 Jahre oder älter und damit fast drei Mal so viele wie noch 1995. Es ist zwar richtig, dass Männer im Durchschnitt deutlich länger fruchtbar sind als Frauen. Etwa ab 40 bis 50 Jahren verschlechtert sich jedoch die Funktion der Spermien, weil sich genetische Defekte in den Samenzellen häufen. Wenn es insgesamt mehr Spermien mit Chromosomenstörungen gibt, dann dauert es länger, bis die Frau schwanger wird. Und abgesehen vom Alter gibt es weitere Faktoren, die die Zeugungsfähigkeit von Männern einschränken können – medizinische ebenso wie durch den Lebensstil implizierte wie Alkohol, Rauchen oder Übergewicht.

Keine lebenslange Reserve

Bei Frauen enden die fruchtbaren Jahre deutlich früher. Im Alter zwischen 20 und 24 Jahren haben sie ihre höchste Fruchtbarkeit. Je älter Frauen werden, desto mehr sinkt jedoch die Wahrscheinlichkeit, schwanger zu werden, während die Wahrscheinlichkeit einer Unfruchtbarkeit ansteigt (Abbildung 2). Und das hängt ganz maßgeblich mit den Eizellen zusammen. So wird eine Frau bereits mit ihrer gesamten Reserve an Eizellen geboren. Im Laufe des Lebens entstehen keine neuen Eizellen mehr. Bei Geburt sind rund eine Million unreife Eizellen (Oozyten) angelegt. Die meisten sterben ab – zu Beginn der Pubertät sind noch etwa 300.000 übrig. Ihre Zahl nimmt dann weiter kontinuierlich ab. Bei einer von 100 Frauen ist die Eizellreserve bereits vor dem 40. Lebensjahr komplett erschöpft. Auch die Qualität der Eizellen sinkt ab dem 35. Lebensjahr deutlich. So steigt der Anteil jener Eizellen, die eine von der Norm abweichende Anzahl an Chromosomen aufweisen (man bezeichnet diese Eizellen als aneuploid). Bei Frauen ab 35 Jahren treten bei mehr als 50 Prozent der Eizellen Aneuploidien auf. Man spricht hier vom „maternal age effect“ (mütterlicher Alterseffekt).

Abbildung 2: Die biologische Uhr tickt © Quellen: Carcio, H. A.: Management of the Infertile Woman; Rosenthal, M. S.: The Fertility Sourcebook (1998) // Grafik: HNBM

Am Max-Planck-Institut für Multidisziplinäre Naturwissenschaften in Göttingen erforscht das Team um Melina Schuh die Entwicklung von Eizellen – und was dabei alles schief gehen kann. Denn tatsächlich sind bereits bei jungen Frauen im Alter von 20 bis Anfang 30 mehr als 20 Prozent der Eizellen aneuploid. „Im Gegensatz dazu sind nur ein bis zwei Prozent der Spermien und weniger als ein Prozent der meisten somatischen Zelltypen aneuploid“, erklärt Schuh. Wenn diese fehlerhaften Eizellen befruchtet werden, dann führt das typischerweise zu Fehlgeburten oder auch zu Unfruchtbarkeit. Statistisch führt nur jede dritte Befruchtung bei Frauen zu einer erfolgreichen Schwangerschaft.

Falsch aussortiert

Eine reife Eizelle entwickelt sich aus einer Oozyte, die noch jeweils zwei Kopien von jedem Chromosom besitzt, also diploid ist. Um ein befruchtungsfähiges Ei zu werden, muss sie daher die Hälfte ihrer 46 Chromosomen ausschleusen. Dies geschieht einmal pro Menstruationszyklus in einer spezialisierten Zellteilung, der Reifeteilung I. Dabei werden die homologen Chromosomen der Oozyten mithilfe einer komplexen Maschinerie – dem Spindelapparat – getrennt. Er besteht aus Spindelfasern, die sich während der Meiose an die Chromosomen anheften. Die Fasern ziehen dann jeweils eines der homologen Chromosomen zu den gegenüberliegenden Polen der Spindel. Die Oozyte teilt sich dazwischen in eine große, nun haploide Eizelle und eine deutlich kleinere „Abfallzelle“, den sog. Polkörper. Abbildung 3.

 

Abbildung 3: . Reifeteilung einer menschlichen Oozyte. Diese Vorläuferzelle der Eizelle ist diploid, d.i. sie besitzt noch zwei Kopien eines jeden Chromosoms. Während der Reifeteilung halbiert der Spindelapparat (grün) den Chromosomensatz, indem er die Chromosomenpaare (magenta) voneinander trennt. (Quelle: © Chun So / MPI für Multidisziplinäre Naturwissenschaften.)

„Genau das klappt jedoch oftmals nicht zuverlässig, sodass eine Eizelle mit falscher Chromosomenzahl entsteht“, erklärt Melina Schuh. Das Max-Planck-Forschungsteam will daher verstehen, wie die Zelle die Chromosomen vorbereitet, um sie in den Polkörper zu entsorgen, und wie die Maschinerie im Detail funktioniert, die die Chromosomen zwischen Eizelle und Polkörper verteilt. Die große Herausforderung dabei: Bei Säugetieren entwickeln sich die Oozyten im Inneren des Körpers. Um diesen Vorgang überhaupt untersuchen zu können, musste Schuh einen Weg finden, die Zellen außerhalb des Körpers zu kultivieren, und zwar so, dass sie diese über viele Stunden hinweg unter einem hochauflösenden Mikroskop untersuchen kann – eine Pionierleistung, die ihr schon während ihrer Promotion gelang.

Wichtiger Brückenbauer

„Was wir bereits wussten ist, dass menschliche Eizellen häufig Spindeln mit instabilen Polen bilden. Solche labilen Spindeln ordnen die Chromosomen bei der Zellteilung falsch an oder bringen sie durcheinander“, berichtet Schuh. Damit sind menschliche Oozyten im Tierreich eher eine Ausnahme. „Die Spindeln anderer Säugetier-Oozyten waren in unseren Experimenten sehr stabil“, so die Max-Planck-Direktorin. Um herauszufinden, was menschliche Spindeln derart labil macht, verglich das Team das molekulare Inventar an Proteinen, das für die Spindelstabilität erforderlich ist, in verschiedenen Säugetier-Oozyten. Für diese Versuche nutzten die Forschenden auch unbefruchtete unreife menschliche Eizellen, die nicht für die Kinderwunschbehandlung verwendet werden konnten und von den Patientinnen gespendet wurden. Ein Motorprotein (Motorproteine erzeugen Bewegungen innerhalb der Zelle) mit dem Namen KIFC1 weckte besondere Aufmerksamkeit: Es baut Brücken zwischen den Spindelfasern, hilft so, die Fasern richtig auszurichten, und verhindert, dass sie auseinanderfallen. Interessanterweise enthalten Oozyten von Mäusen und Rindern im Vergleich zu menschlichen Oozyten deutlich mehr von diesem Protein. Beeinflusst die Menge des Proteins somit möglicherweise die Stabilität der Spindeln?

Abbildung 4: Instabile Spindeln. Oben: Entfernt man den molekularen Motor KIFC1 aus Mäuse- und Rinder-Oozyten, entstehen multipolare Spindeln und Fehler bei der Chromosomentrennung, wie sie auch bei menschlichen Oozyten mit instabilen Spindeln beobachtbar sind. Die gelben Pfeile weisen auf die instabilen Spindelpole. Unten: Menschliche Eizellen bilden oft Spindeln mit mehreren Polen (blaue Kreise). Wird zusätzliches KIFC1 in die Eizelle eingebracht, verbessert es die Stabilität der bipolaren Spindel, indem es deren Mikrotubuli (blau) vernetzt. Die homologen Chromosomen (magenta) werden korrekt getrennt. © Foto: Chun So / MPI für Multidisziplinäre Naturwissenschaften; Grafik: HNBM / CC BY NC-SA 4.0

Um das herauszufinden, entfernten die Forschenden KIFC1 aus den Oozyten von Mäusen und Rindern. Das Ergebnis: Ohne das Protein bildeten auch Mäuse- und Rinder-Oozyten instabile Spindeln und es kam zu mehr Fehlern bei der Chromosomentrennung (Abbildung 4). „Unsere Versuche legen tatsächlich nahe, dass KIFC1 entscheidend dazu beiträgt, Chromosomen bei der Meiose fehlerfrei zu verteilen“, erklärt Schuh. Könnte das Protein daher ein Ansatzpunkt sein, um Fehler bei der Chromosomentrennung in menschlichen Eizellen zu reduzieren? „Für uns war die spannende Frage, ob die Spindel stabiler wird, wenn wir zusätzliches KIFC1 in menschliche Oozyten einbringen“, erklärt Schuh. Unter dem Mikroskop waren in den Zellen, die zusätzliche Mengen des Motorproteins enthielten, die Spindeln deutlich intakter und es traten weniger Fehler beim Trennen der Chromosomen auf. „Das Einbringen von KIFC1 in menschliche Oozyten ist somit ein möglicher Ansatz, um Fehler in Eizellen zu reduzieren“, hofft die Max-Planck-Forscherin.

Aber das ist nicht der einzige Entwicklungsschritt, der fehlerbehaftet ist (Abbildung 5). Das Göttinger Team hat sich insbesondere gefragt, warum das Risiko, aneuploide Eizellen zu erzeugen, für Frauen in fortgeschrittenem Alter deutlich höher ist und dabei das sogenannte Zygoten-Stadium in den Blick genommen, also die Phase direkt nach der Vereinigung von Spermium und Eizelle. Während nämlich in der Reifeteilung I die homologen Chromosomen auf Eizelle und Polkörper verteilt werden, werden in der Reifeteilung II nach der Befruchtung die Schwesterchromatiden eines jeden homologen Chromosoms voneinander getrennt und auf die Zygote und einen zweiten Polkörper verteilt.

Abbildung 5: Was alles bei der Verteilung schief gehen kann. Reifeteilung I: Während der Reifeteilung I kann es zu einer fehlerhaften Trennung kommen, bei der die homologen Chromosomen falsch verteilt werden (Ia). Es kann auch ein einzelnes Chromatid falsch zugeordnet werden (Ib) oder beide Schwesterchromatiden verteilen sich umgekehrt (Ic). Durch diese inverse Verteilung besitzt die Eizelle zwar die richtige Chromosomenzahl, doch die Chromatiden stammen von verschiedenen homologen Chromosomen und sind nicht mehr durch Kohäsin verbunden, was die Ausrichtung und Trennung in der Reifeteilung II beeinträchtigen kann.

Reifeteilung II: In der Reifeteilung II kann es zu einer fehlerhaften Trennung kommen, bei der beide Schwesterchromatiden entweder in der Zygote verbleiben (IIa) oder im zweiten Polkörper entsorgt werden (IIb). © MPI für Multidisziplinäre Naturwissenschaften / Grafik: HNBM / CC BY-NC-SA 4.0

Alter Chromosomen-Kleber

Ringförmige Proteinstrukturen, sogenannte Kohäsin-Komplexe, halten die Schwesterchromatiden zusammen. Sie werden im weiblichen Embryo sehr früh während der DNA-Verdopplung installiert. Studien an Maus-Oozyten zeigen, dass Kohäsin-Komplexe später im Leben nicht mehr neu installiert werden können. „Wenn dies auch für menschliche Oozyten gilt, dann müssen Kohäsin-Komplexe die Chromosomen mehrere Jahrzehnte des Lebens zusammenhalten, bevor sie bei einem Ovulationszyklus zur korrekten Chromosomentrennung beitragen“, erklärt Schuh. Mit fortschreitendem Alter geht das Kohäsin jedoch verloren – zumindest bei der Maus –, was zu einer vorzeitigen Trennung der Schwesterchromatiden während der Reifeteilung I führt. „Wenn die Schwesterchromatiden bereits getrennt sind, dann werden sie zufällig und somit gegebenenfalls eben fehlerhaft zwischen den beiden Spindelpolen verteilt“, erklärt die Wissenschaftlerin. Ob Kohäsin auch in menschlichen Eizellen aus den Chromosomen verloren geht, ist noch nicht klar. Allerdings erfahren Chromosomen in menschlichen Oozyten während der Alterung ähnliche Strukturveränderungen wie die Forschenden sie in Oozyten älterer Mäuse beobachten.

Kinderwunsch erfüllen

Es besteht also weiterhin Forschungsbedarf und somit viel Arbeit für Melina Schuh und ihr Team in Göttingen. Für die Durchführung entsprechender Studien bedarf es immer wieder auch neuer Methoden, die in Schuhs Abteilung in den vergangenen Jahren entwickelt wurden, wie beispielsweise jene, mit der Proteine aus Eizellen funktional untersucht werden können. Ihr erklärtes Ziel dabei: „Wir möchten mehr Paaren helfen, ihren Kinderwunsch zu erfüllen und auch dazu beitragen, dass es mehr Geburten mit weniger In-vitro-Fertilisationszyklen gibt, dass also Kinderwunschbehandlung effizienter ablaufen kann“, so die Forscherin.


 *Der Artikel ist erstmals unter dem Titel: "Chromosomen-Durcheinander in der Eizelle" https://www.max-wissen.de/max-hefte/meiose/ in BIOMAX 39, Frühjahr 2024 erschienen und wurde mit Ausnahme des Abstracts und der Legende zu Abbildung 3 unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


Weiterführende Links

Meiose-Forschung am Max-Planck-Institut für Multidisziplinare Naturwissenschaften (Götttingen): https://www.mpinat.mpg.de/de/mschuh

Von der Erforschung der Eizelle bis zum Kinderwunsch | Prof. Dr. Melina Schuh. Video (12.2023) 1:01:55. https://www.youtube.com/watch?v=em-C4OMwEYc


 

inge Thu, 07.03.2024 - 14:52

Eine Abschätzung der durch den Krieg in der Ukraine verursachten Treibhausgasemissionen

Eine Abschätzung der durch den Krieg in der Ukraine verursachten Treibhausgasemissionen

Do, 29.02.2024 — IIASA

IIASA Logo

Icon Klima

Während eines Krieges können aufgrund militärischer Aktionen die Treibhausgasemissionen erheblich ansteigen; die Leitlinien des Weltklimarats (IPCC) zur Emissionsberichterstattung sind allerdings ausschließlich auf Friedensszenarien zugeschnitten. Eine kürzlich veröffentlichte Studie bringt nun erstmals etwas Licht in die mit Krieg verbundenen Treibhausgasemissionen. Mit dem Hauptaugenmerk auf diese hat ein internationales Team von Wissenschaftlern, darunter mehrere Forscher vom Internationalen Institut für Angewandte Systemanalyse (IIASA, Laxenburg bei Wien) die ersten 18 Monate seit Beginn des Krieges in der Ukraine und dessen Folgen untersucht [1]. Die Ergebnisse zeigen die Grenzen des derzeitigen Rahmens für die Emissionsberichterstattung im Rahmenübereinkommen der Vereinten Nationen über Klimaänderungen (UNFCCC) auf.*

Bewaffnete Konflikte auf der ganzen Welt lasten am schwersten auf den Schultern der einfachen Bevölkerung und führen zu erhöhter Verwundbarkeit, Sterblichkeit und Morbidität sowie zu politischer Instabilität und Zerstörung der Infrastruktur. Abgesehen von den sozialen, wirtschaftlichen und politischen Folgen haben bewaffnete Konflikte jedoch auch schwerwiegende Auswirkungen auf die Umwelt und führen zu deren verstärkter Zerstörung und Verschmutzung. Abbildung 1. Schlussendlich bringen sie zusätzliche Belastungen für den internationalen politischen Rahmen und zeigen Herausforderungen auf, die man bis dahin möglicherweise noch nicht berücksichtigt hatte.

Abbildung 1. Veranschaulichung der durch militärische Aktionen in der Ukraine verursachten Treibhausgasemissionen, die in der offiziellen nationalen Berichterstattung und den globalen Schätzungen möglicherweise nicht berücksichtigt werden: Einsatz von Bomben, Raketen, Artilleriegeschossen, Minen und Kleinwaffen (a); Verwendung von Erdölprodukten für militärische Zwecke (b); Emissionen aus Bränden von Erdölprodukten in Erdöllagern (c); Emissionen aus Bränden von Gebäuden und Infrastruktureinrichtungen (d); Emissionen aus Waldbränden und Bränden auf landwirtschaftlichen Flächen (e); Emissionen aus Müll/Abfall (f).(Bild aus R. Bun et al., 2024; Lizenz: cc-by-nc-nd).

Im Rahmen des Pariser Abkommens sind die Unterzeichnerstaaten verpflichtet, ihre Treibhausgas-emissionen an das UNFCCC zu melden, um die Bemühungen zur Emissionsreduzierung zu evaluieren und strengere Ziele zur Begrenzung des globalen Temperaturanstiegs festzulegen.

In einer Studie, die in der Fachzeitschrift Science of the Total Environment veröffentlicht wurde, zeigen die Autoren, dass eine genaue Erfassung der in die Atmosphäre abgegebenen Treibhausgas-emissionen notwendig ist [1].

"Unsere Ergebnisse zeigen, dass militärische Emissionen eine ungewöhnliche Herausforderung darstellen, da sie in den derzeitigen Berichterstattungsrahmen nicht explizit berücksichtigt werden; THG-Emissionen, insbesondere solche aus menschlichen Aktivitäten, werden in der Regel anhand sogenannter "Aktivitätsdaten" wie Kraftstoffverbrauch, Verkehrszählungen und anderen sozioökonomischen Daten geschätzt", erklärt Linda See, Studienautorin und Mitglied der Forschungsgruppe Novel Data Ecosystems for Sustainability des IIASA Advancing Systems Analysis Program.

Der Hauptautor der Studie, Rostyslav Bun, Professor an der Lviv (Lemberg) Polytechnic National University in der Ukraine und der WBS University in Polen, hat die Auswirkungen des Krieges auf die Fähigkeit der Ukraine kommentiert, seit 2022 grundlegende Aktivitätsdaten zu sammeln; er hat darauf hingewiesen, dass infolge des Kriegs die Infrastruktur des Landes, einschließlich der Möglichkeiten der Datenerhebung, erheblich beeinträchtigt und zerstört wurde. Darüber hinaus betont Bun, dass bei Befolgung der aktuellen UN-Konvention alle Emissionen der Ukraine zugerechnet würden, einschließlich derjenigen, die aus kriegsbedingten Schäden resultieren.

"Auch wenn die Verfolgung von kriegsverursachten Emissionen aufgrund der Art der militärischen Aktivitäten und des Mangels an Informationen eine Herausforderung darstellt, schätzt unsere Studie die Treibhausgasemissionen anhand der besten verfügbaren Daten", erklärt Matthias Jonas, Mitautor der Studie und Gastwissenschaftler im IIASA Advancing Systems Analysis Program. "Die internationalen politischen Rahmenwerke sind auf eine derartige Situation nicht vorbereitet und dies zeigt eine wichtige Einschränkung unseres derzeitigen Ansatzes für das Netto-Null-Emissionen Ziel auf. Dieses geht von einer Welt ohne Konflikte aus und entspricht leider nicht der Realität, mit der wir heute konfrontiert sind. Wenn auch bewaffnete Konflikte zweifellos die lokale Bevölkerung am härtesten treffen, ist es wichtig, dass wir auch die Auswirkungen analysieren, die sie auf unsere Umwelt auf globaler Ebene haben können."

Abbildung 2. Treibhausgasemissionen in Friedenszeiten versus Kriegszeiten. Eine Analyse der öffentlich zugänglichen Daten gestützt auf das Urteil von Experten, um Emissionen aus (1) dem Einsatz von Bomben, Raketen, Artilleriegeschossen und Minen, (2) dem Verbrauch von Erdölprodukten für militärische Operationen, (3) Bränden in Erdöllagern und Raffinerien, (4) Bränden in Gebäuden und Infrastruktureinrichtungen, (5) Bränden auf Wald- und landwirtschaftlichen Flächen und (6) der Zersetzung von kriegsbedingtem Müll zu schätzen. Die Schätzung dieser kriegsbedingten Emissionen von Kohlendioxid, Methan und Lachgas für die ersten 18 Monate des Krieges in der Ukraine beläuft sich auf 77 MtCO2-eq. mit einer relativen Unsicherheit von +/-22 % (95 % Vertrauensintervall)). (Bild aus R. Bun et al., 2024; Lizenz: cc-by-nc-nd).

Die Studie konzentriert sich auf Emissionen, die aus kriegsbedingten Aktivitäten resultieren und in den offiziellen nationalen Berichten  nicht erfasst sein dürften. Sie legt nahe, dass die Summe dieser "nicht erfassten" Emissionen von Kohlendioxid, Methan und Lachgas in den 18 Monaten des Krieges die jährlichen Emissionen einiger europäischer Länder wie Österreich, Ungarn und Portugal überstiegen hat. Abbildung 2.

"Der Krieg beeinträchtigt unsere Befähigung, Emissionen über die auf Aktivitätsdaten basierende Berichterstattung global und nicht nur regional zu überwachen, wie dies bei der globalen Ernährungssicherheit und bei humanitären Fragen der Fall ist", fügt Tomohiro Oda, leitender Wissenschaftler bei der Universities Space Research Association in den USA, hinzu und unterstreicht damit die Bedeutung der Emissionsüberwachung durch Atmosphärenbeobachtung, die unabhängig von Aktivitätsdaten ist.

Die Ergebnisse der Studie werden auf der Generalversammlung 2024 der Europäischen Geowissenschaftlichen Union (EGU) in Wien, Österreich, im April 2024 vorgestellt und weiter diskutiert.


[1] Bun, R., Marland, G., Oda, T., See, L. et al. (2024). Tracking unaccounted greenhouse gas emissions due to the war in Ukraine since 2022. Science of the Total Environment, 914. https://doi.org/10.1016/j.scitotenv.2024.169879https://www.sciencedirect.com/science/article/pii/S0048969724000135


*Der Artikel " Significant greenhouse gas emissions resulting from conflict in Ukraine" ist am 15.Feber 2024 auf der IIASA Website erschienen (https://iiasa.ac.at/news/feb-2024/significant-greenhouse-gas-emissions-resulting-from-conflict-in-ukraine). Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit 2 Abbildungen aus der Originalarbeit [1] ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


 

inge Fri, 01.03.2024 - 00:08

Zur Erinnerung an den vergeblichen Protest von Millionen Russen gegen die Invasion der Ukraine vor zwei Jahren

Zur Erinnerung an den vergeblichen Protest von Millionen Russen gegen die Invasion der Ukraine vor zwei Jahren

Do,22.02.2024 — Redaktion

RedaktionIcon Friede

Der durch nichts zu rechtfertigende russische Überfall auf die Ukraine am 24.Feber 2022 hat damals in Russland einen sofortigen Tsunami des Protests ausgelöst: Bis zum 4. März haben über 1,18 Millionen Russen Petitionen gegen den Krieg mit der Ukraine unterschrieben. Wissenschaftler und Lehrer, Architekten und Designer, Ärzte und IT-Spezialisten, Journalisten und Schriftsteller, Werbefachleute und Psychologen, Kulturschaffende und Vertreter des Klerus, und andere haben darin den Krieg als ungerechtfertigt, schändlich und kriminell bezeichnet. Der Protest fand schnell ein Ende: Tausende Demonstranten wurden verhaftet und mit einem am 4. März verabschiedeten Gesetz wurden das Verbreiten angeblicher "Falschinformationen" über russische Soldaten, das Diskreditieren russischer Streitkräfte und auch Aufrufe zu Sanktionen gegen Russland unter Strafe - Geld- und Haftstrafen bis zu 15 Jahren - gestellt. Aus Angst, dass die Unterzeichner der Petitionen von den russischen Behörden verfolgt würden, haben die Initiatoren der Aufrufe diese gelöscht. Um den mutigen Protest der Russen in Erinnerung zu rufen, stellen wir den Blogartikel vom 4.3.2022 nochmals online.

Stoppt den Krieg mit der Ukraine! Bereits über 1,18 Millionen Russen haben Petitionen unterschrieben (Blogartikel vom 4.3.2022):

Wenn man Presse und Medien verfolgt, gewinnt man den Eindruck, dass die Menschen in Russland kaum erfahren, was sich derzeit in der Ukraine abspielt und/oder dass sehr viele den Lügen der Regierung Glauben schenken. Diejenigen, von denen man annimmt, dass sie Bescheid wissen, hält man aber für zu apathisch und vor allem zu mutlos, um gegen die kriminellen Militäraktionen ihrer Machthaber die Stimme zu erheben. Dass bereits 6440 Anti-Kriegs Demonstranten in brutaler Weise von den russischen Sicherheitskräften festgenommen wurden, zeigt ja, dass solche Proteste mit einem nicht zu unterschätzenden Risiko für Leib und Leben verbunden sind.

Nun, viele Russen sind nicht apathisch, viele Russen zeigen Mut offen den Krieg mit der Ukraine zu verurteilen, den sie ebenso wie nahezu alle Staaten der Welt als ungerechtfertigt, schändlich und kriminell sehen. Seit dem Tag des Einmarsches in die Ukraine wurden von unterschiedlichsten russischen Bevölkerungsgruppen "Offene Briefe" gegen den Krieg verfasst und unterzeichnet. Einer dieser, von russischen Wissenschaftlern und - Journalisten verfassten "offenen Briefe" wurde bereits von über 7 000 Russen unterzeichnet; er ist im ScienceBlog unter Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg nachzulesen.

Lew Ponomarjow: Gegen den Krieg - Net Voyne

Der russische Physiker und Mathematiker Lew Ponomarjow , ein bekannter Politiker und Menschenrechtsaktivist hat auf dem Portal www.change.org/ eine Petion gestartet, in der er gegen den Krieg in der Ukraine aufruft und klare Worte spricht:

Abbildung 1. Der Aufruf von Lew Ponomarjow Njet Woynje wurde bereits von mehr als 1,18 Mio Menschen unterzeichnet. (Grafik nach den Zahlen auf www.change.org/ (https://rb.gy/ctnvxk) von der Redaktion erstellt.)

"Wir betrachten alle als Kriegsverbrecher, die die Entscheidung für kriegerische Aktionen im Osten der Ukraine und für die von den Machthabern abhängige kriegsauslösende Propaganda in den russischen Medien rechtfertigen. Wir werden versuchen, sie für ihre Taten zur Rechenschaft zu ziehen.

Wir appellieren an alle vernünftigen Menschen in Russland, von deren Taten und Worten etwas abhängt. Werden Sie Teil der Antikriegsbewegung, stellen Sie sich gegen den Krieg. Tun Sie dies zumindest, um der ganzen Welt zu zeigen, dass es in Russland Menschen gab, gibt und geben wird, die die von den Machthabern begangene Niederträchtigkeit nicht akzeptieren werden, die den Staat und die Völker Russlands selbst zu einem Instrument ihrer Verbrechen gemacht haben. "

Am Tag 9 des Krieges um 12:00 h haben bereits 1 175 786 Menscchen ihre Unterschriften unter den Aufruf gesetzt, um 23:00 waren es 1.181.101, Tendenz weiter steigend. Abbildung 1.

Wir sind nicht allein - My ne odni

Die Webseite https://we-are-not-alone.ru/ hat eine Liste der zahlreichen russischen Petitionen gegen den Krieg in der Ukraine erstellt mit Links zu den Originaldokumenten - die meisten auf der Plattform https://docs.google.com/ - und laufend aktualisierten Zahlen der Unterzeichner. Die Seite gibt an:

"Wir möchten, dass Sie wissen, dass Lehrer und Nobelpreisträger, Ärzte und Designer, Journalisten und Architekten, Schriftsteller und Entwickler, Menschen aus dem ganzen Land bei Ihnen sind. Wir sind nicht alleine"

Gestern nachts (3.3.2022) hat diese Webseite noch funktioniert, heute kann sie leider nicht mehr aufgerufen werden. Laut  https://ura.newssind diverse Medienportale - u.a. we are not alone.ru - in der Ukraine einem Cyberangriff zum Opfer gefallen.

Proteste aus ganz Russland

Bis gestern war es einfach die "offenen Briefe" diverser Berufsgruppen/Institutionen von der Seite https://we-are-not-alone.ru/ abzurufen. Einige dieser Texte sollen als Beispiele für den furchtlosen Protest russischer Bürger dienen (s. unten). Mit Stand 3.3.2022 hatten bereits mehr als 156 000 Mitglieder einzelner Berufsgruppen Aufrufe gegen den Krieg mit der Ukraine unterschrieben; die Tendenz war stark steigend. Zur Veranschaulichung ist eine kleine Auswahl von Berufsgruppen in Abbildung 2. dargestellt.

Abbildung 2: Aufrufe "Gegen den Krieg in der Ukraine" von Migliedern der IT-Branche und der Wirtschaft und von Vertretern aus Politik, Recht und Gesellschaft. Berufsgruppen und deren Aufrufe konnten von der nun nicht mehr einsehbaren Seite https://we-are-not-alone.ru/ entnommen werden. Die Zahlen der jeweiligen Unterschriften wurden am 3.3.2022 erhoben.

Zweifellos beweisen zahlreiche Vertreter politischer Parteien, Anwälte aber auch Mitglieder des Klerus den Mut namentlich gegen den Krieg Stellung zu beziehen!

Auch Ärzte und andere im Gesundheitssektor Beschäftigte, Kunst- und Kulturschaffende, Sportler und Vertreter der Freizeitindustrie, Architekten und Designer, Vertreter in allen möglichen Branchen von Industrie, und, und, und,..... wurden aufgerufen die Protestnoten gegen den Krieg zu unterzeichnen und die Zahl der Unterschriften steigt und steigt.

Eine Auswahl von Institutionen und Vertretern aus Wissenschaft und Bildung findet sich in Abbildung 3. Hier sind vor allem Aufrufe von verschiedenen Fakultäten der berühmtesten russischen Universität, der Lomonosow Universiät hervorzuheben.

Abbildung 3: Aufrufe "Gegen den Krieg in der Ukraine" von Vertretern aus Wissenschaft und Bildungssektor. Links zu den einzelnen Aufrufen wurden der nun nicht mehr aufrufbaren Seite https://we-are-not-alone.ru/. entnommen, Die Zahl der jeweiligen Unterschriftenwurde am 3.3.2022 erhoben.

Um einen Eindruck von den Protestschreiben zu gewinnen , sind im Folgenden einige dieser Texte wiedergegeben. (Siehe auch Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg)

Offener Brief der Gemeinschaft der Staatlichen Universität Moskau (Lomonosov Universität) gegen den Krieg

https://msualumniagainstwar.notion.site/0378ab0a0719486181781e8e2b360180

(Bis jetzt : 5795 Unterschriften)

Wir, Studenten, Doktoranden, Lehrer, Mitarbeiter und Absolventen der ältesten, nach M.V. Lomonosov benannten Universität Russlands, verurteilen kategorisch den Krieg, den unser Land in der Ukraine entfesselt hat.

Russland und unsere Eltern haben uns eine fundierte Ausbildung vermittelt, deren wahrer Wert darin liegt, das Geschehen um uns herum kritisch zu bewerten, Argumente abzuwägen, einander zuzuhören und der Wahrheit treu zu bleiben – wissenschaftlich und humanistisch. Wir wissen, wie man die Dinge beim richtigen Namen nennt und wir können uns nicht absentieren.

Das was die Führung der Russischen Föderation in deren Namen als „militärische Spezialoperation“ bezeichnet, ist Krieg, und in dieser Situation ist kein Platz für Euphemismen oder Ausreden. Krieg ist Gewalt, Grausamkeit, Tod, Verlust geliebter Menschen, Ohnmacht und Angst, die durch kein Ziel zu rechtfertigen sind. Krieg ist der grausamste Akt der Entmenschlichung, der, wie wir innerhalb der Mauern von Schulen und Universität gelernt haben, niemals wiederholt werden sollte. Die absoluten Werte des menschlichen Lebens, des Humanismus, der Diplomatie und der friedlichen Lösung von Widersprüchen, wie wir sie an der Universität erfahren durften, wurden sofort mit Füßen getreten und weggeworfen, als Russland auf verräterische Weise in das Territorium der Ukraine eindrang. Seit dem Einmarsch der Streitkräfte der Russischen Föderation in die Ukraine ist das Leben von Millionen Ukrainern stündlich bedroht.

Wir bringen dem ukrainischen Volk unsere Unterstützung zum Ausdruck und verurteilen kategorisch den Krieg, den Russland gegen die Ukraine entfesselt hat.

Als Absolventen der ältesten Universität Russlands wissen wir, dass die Verluste, die in den sechs Tagen eines blutigen Krieges angerichtet wurden – vor allem menschliche, aber auch soziale, wirtschaftliche und kulturelle – irreparabel sind. Wir wissen auch, dass Krieg eine humanitäre Katastrophe ist, aber wir können uns nicht ausmalen, wie tief die Wunde ist, die wir als Volk Russlands dem Volk der Ukraine und uns selbst gerade jetzt zufügen.

Wir fordern, dass die Führung Russlands sofort das Feuer einstellt, das Territorium des souveränen Staates Ukraine verlässt und diesen schändlichen Krieg beendet.

Wir bitten alle russischen Bürger, denen ihre Zukunft am Herzen liegt, sich der Friedensbewegung anzuschließen.

Wir sind gegen Krieg!


Offener Brief von Absolventen der Philologischen Fakultät der Lomonosow-Universität

https://rb.gy/ppxx09

(Bis jetzt : 1 071 Unterschriften)

Wir Absolventen der Philologiefakultät der Staatlichen Universität Moskau fordern ein sofortiges Ende des Krieges in der Ukraine.

Der Krieg wurde unter Verletzung aller denkbaren internationalen und russischen Gesetze begonnen.

Der Krieg hat bereits zahlreiche Opfer, darunter auch Zivilisten, gefordert und wird zweifellos weitere Opfer fordern.

Der Krieg spiegelt die Entwicklung einer Welt wider, wie sie vor vielen Jahren bestand.

Der Krieg führt zur internationalen Isolation Russlands, die gigantische wirtschaftliche und soziale Folgen haben wird und auch einen verheerenden Schlag der russischen Wissenschaft und Kultur versetzen wird.

Uns wurde beigebracht, Konflikte mit Worten zu lösen, nicht mit Waffen. Vor unseren Augen beginnt die russische Sprache weltweit als Sprache des Aggressors wahrgenommen zu werden, und wir wollen dies nicht auf uns nehmen.

Wir fordern eine sofortige Waffenruhe und eine diplomatische Lösung aller Probleme.


Offener Brief von Absolventen, Mitarbeitern und Studenten des Moskauer Institus für Physik und Technologie (MIPT) gegen den Krieg in der Ukraine

https://rb.gy/fphkqs

 (Bis jetzt : 3 321 Unterschriften)

Wir, Absolventen, Mitarbeiter und Studenten des Moskauer Instituts für Physik und Technologie, sind gegen den Krieg in der Ukraine und möchten an die Absolventen, Mitarbeiter und das Management des MIPT appellieren.

Seit vielen Jahren wird uns beigebracht, dass unser Institut eine Gemeinschaft ist, in der sich Physiker gegenseitig zu Hilfe kommen. Jetzt ist genau so ein Moment. Wir bitten Sie, Ihre Meinung offen zu äußern und nicht zu schweigen. Wir sind sicher, dass das MIPT diesen sinnlosen und empörenden Krieg nicht unterstützt. Einen Krieg auch gegen ehemalige und jetzige Studenten, MIPT-Mitarbeiter, deren Verwandte und Freunde.

Uns wurde gesagt, dass Physik- und Technologieabteilungen beispielgebend sind. Und wir fordern unser Institut auf, ein Beispiel für andere Universitäten und Organisationen zu werden und das Vorgehen der Führung des Landes und von Präsident Putin öffentlich zu verurteilen. Es gibt keine rationale Rechtfertigung für diesen Krieg. Die Folgen einer Militärinvasion sind katastrophal für die Ukraine, für Russland und möglicherweise für die ganze Welt.

Wir bitten Sie, haben Sie keine Angst sich gegen einen schrecklichen Krieg auszusprechen und alles zu tun, um ihn zu stoppen.

Wir warten auf eine offene Stellungnahme des Managements und der offiziellen Vertreter.

Mit Hoffnung für die Welt


Ein offener Brief russischer Geographen gegen Militäroperationen in der Ukraine

https://rb.gy/cxml9v

  (Bis jetzt : 1 818 Unterschriften)

An Wladimir Putin, Präsident der Russischen Föderation

Wir, Bürger der Russischen Föderation, Geographen, Lehrer, Wissenschaftler, Studenten, Doktoranden und Absolventen, die diesen Appell unterzeichnet haben, sind uns unserer Verantwortung für das Schicksal unseres Landes bewusst und lehnen militärische Operationen auf dem Territorium des souveränen Staates Ukraine kategorisch ab. Wir fordern von allen Seiten einen sofortigen Waffenstillstand und den Abzug russischer Truppen auf russisches Territorium.

Wir halten es für unmoralisch, jetzt zu schweigen, wo jeden Tag und jede Stunde Menschen infolge von Feindseligkeiten sterben. Die Feindseligkeiten bedrohen so gefährdete Standorte wie das Kernkraftwerk Tschernobyl, Wasserkraftwerke am Dnjepr und die einzigartigen Biosphärenreservate der Ukraine. Im 21. Jahrhundert ist es nicht akzeptabel, politische Konflikte mit Waffen in der Hand zu lösen; alle Widersprüche innerhalb der Ukraine und zwischen unseren Staaten sollten nur durch Verhandlungen gelöst werden. Egal, was die Invasion russischer Truppen rechtfertigt, alle Russen und zukünftige Generationen von Russen werden dafür bezahlen.

Die Militäroperation macht die langjährigen Bemühungen von Geographen und anderen Experten zur Erhaltung von Landschaften, zur Bekämpfung des Klimawandels, zur Schaffung besonders geschützter Naturgebiete, zur Analyse und Planung der friedlichen territorialen Entwicklung der Volkswirtschaften Russlands und der Ukraine und ihrer grenzüberschreitenden Zusammenarbeit sinnlos . Wir können die Mission der Fortsetzung der friedlichen und harmonischen Entwicklung unseres Landes, seiner Integration in die Weltwirtschaft nicht aufgeben.

Wir wollen unter einem friedlichen Himmel leben, in einem weltoffenen Land und einer weltoffenen Welt, um die wissenschaftliche Forschung für den Frieden und das Wohlergehen unseres Landes und der ganzen Menschheit fortzusetzen.

Die Kämpfe müssen sofort eingestellt werden!


Lehrer gegen Krieg. Ein offener Brief russischer Lehrer gegen den Krieg auf dem Territorium der Ukraine

https://rb.gy/pogi8f

(Bis jetzt rund 4600 Unterschriften)

Jeder Krieg bedeutet Menschenopfer und Zerstörung. Er führt unweigerlich zu massiven Verletzungen der Menschenrechte. Krieg ist eine Katastrophe.

Der Krieg mit der Ukraine, der in der Nacht vom 23. Februar auf den 24. Februar begann, ist nicht unser Krieg. Die Invasion des ukrainischen Territoriums begann für russische Bürger, aber gegen unseren Willen.

Wir sind Lehrer und Gewalt widerspricht dem Wesen unseres Berufs. Unsere Studenten werden in der Hölle des Krieges sterben. Krieg wird unweigerlich zu einer Verschlimmerung der sozialen Probleme in unserem Land führen.

Wir unterstützen Anti-Kriegsproteste und fordern eine sofortige Waffenruhe.


Nachsatz 22.2.2024

Der Protest fand schnell ein Ende: Tausende Demonstranten wurden verhaftet und mit einem am 4. März verabschiedeten Gesetz wurden das Verbreiten angeblicher Falschinformationen über russische Soldaten, das Diskreditieren russischer Streitkräfte und auch Aufrufe zu Sanktionen gegen Russland unter Strafe - Geld- und Haftstrafen bis zu 15 Jahren - gestellt. (https://orf.at/stories/3251037/) Aus Angst, dass die Unterzeichner der Petitionen von den russischen Behörden verfolgt würden, haben wenige Stunden nach Erscheinen von einigen der zahlreichen Aufrufe im Blog sind diese bereits gelöscht oder blockiert:

Offener Brief der Gemeinschaft der Staatlichen Universität Moskau (Lomonosov Universität) gegen den Krieg

Der Appell wurde (um 00:10, 5. März 2022) von mehr als 7.500 Absolventen, Mitarbeitern und Studenten der Staatlichen Universität Moskau unterzeichnet. Namensunterschriften werden vorübergehend ausgeblendet, stehen aber den Beschwerdeführern zur Verfügung.

------------------------------

Offener Brief von Absolventen der Philologischen Fakultät der Lomonosow-Universität

UPDATE VOM 03.05.2022 (21.43 Uhr Moskauer Zeit): Aus Angst, dass die Unterzeichner des Schreibens von den russischen Behörden verfolgt würden, habe ich als Initiator der Unterschriftensammlung beschlossen, sie zu verbergen. Alexander Berdichevsky, PhD, Jahrgang 2007.

-----------------------------------------

Offener Brief von Absolventen, Mitarbeitern und Studenten des Moskauer Institus für Physik und Technologie (MIPT) gegen den Krieg in der Ukraine https://rb.gy/fphkqs

Wir sind in Sorge um die Sicherheit derer, die diesen Brief unterzeichnet haben. Sie laufen Gefahr, unter ein neues Gesetz zu fallen, das die Diskreditierung des russischen Militärs und die Behinderung seines Einsatzes bestraft. Seine Verletzung ist mit Geld- und Freiheitsstrafen von bis zu 15 Jahren Gefängnis verbunden. Daher haben wir den Text des Schreibens gelöscht und das Aufnahmeformular geschlossen.

----------------------------------

Ein offener Brief gegen den Krieg [jetzt können wir nicht genau sagen, welcher] wurde von 5.000 russischen Lehrern unterzeichnet

Wir haben den vollständigen Text des Appells von russischen Lehrern entfernt, da am 4. März ein neues Gesetz verabschiedet wurde. Jetzt kann eine Person für Antikriegsappelle verwaltungs- oder strafrechtlich bestraft werden. Aber wir sind sicher, dass der Krieg eine Katastrophe ist und beendet werden muss.


 

inge Thu, 22.02.2024 - 17:03

Wie sich die Umstellung auf vegane oder ketogene Ernährung auf unser Immunsystem auswirkt

Wie sich die Umstellung auf vegane oder ketogene Ernährung auf unser Immunsystem auswirkt

Fr, 16.02.2024 — Redaktion

Redaktion

Icon Nahrung

Eine kürzlich publizierte Studie, die an den US-National Intitutes of Health (NIH) unter streng kontrollierten klinischen Bedingungen durchgeführt wurde, zeigt signifikante Auswirkungen einer Umstellung auf zwei gegensätzliche Ernährungsformen, auf die vegane oder die ketogene Diät. Neben einer Veränderung des Stoffwechsels und der Darmflora reagiert vor allem das Immunsystem schnell und unterschiedlich auf die veränderte Kost. So verstärkte die vegane Ernährung die Reaktionen der ersten unspezifischen Abwehr von Krankheitserregern - der angeborenen Immunantwort -, während die ketogene Ernährung eine Hochregulierung von Signalwegen und Zellen der später einsetzenden, erregerspezifischen adaptiven Immunantwort auslöste.

Unsere Ernährung hat weitreichende direkte Auswirkungen auf unsere Physiologie und auch indirekte infolge der unterschiedlichen Zusammensetzung des mit uns in Symbiose lebenden Mikrobioms und seiner Stoffwechselprodukte. Welche Ernährungsform aber welche Auswirkungen auf welche Vorgänge - beispielsweise auf unsere Immunantwort - hat, ist jedoch noch weitgehend unbekannt. Zu vielfältig sind die Ernährungsweisen, zu unterschiedlich die individuellen Reaktionen. Trotz einer im letzten Jahrzehnt ungemein boomenden Forschung - die US-Datenbank PubMed verzeichnet zu "diet & health" fast 130 000 Publikationen, davon rund 10 100 zu "diet & immune system" - mangelt es an qualitativ hochwertigen Studien, vor allem an rigoros konzipierten klinischen Studien zu den Auswirkungen einzelner Diäten und noch viel mehr zum Vergleich von Diäten.

Welche Folgen kann aber der nun weltweit steigende Trend zu einer pflanzenbasiertetn Ernährungsform haben?

Eine randomisierte klinische Studie zum Vergleich zweier Diäten ....

Ein Forscherteam um Yasmine Belkaid vom National Institute of Allergy and Infectious Diseases (NIAID, NIH)) in Bethesda/Maryland hat nun in einer randomisierten klinischen Studie die Auswirkungen von zwei gegensätzlichen Ernährungsformen - einer ketogenen Diät und einer veganen Diät auf Immunsystem, Mikrobiom und Stoffwechsel untersucht. Erstmals konnte mit Hilfe eines Multiomics-Ansatzes (d.i . der Analyse von Transcriptom, Proteom, Metabolom und Mikrobiom; siehe weiter unten) ein detailliertes Bild von den mit den Diätumstellungen verbundenen Veränderungen auf menschliche und mikrobielle Systeme gegeben werden. Die wesentlichen Ergebnisse sind zusammen mit einem ausführlichen Datenmaterial kürzlich im Fachjournal Nature Medicine erschienen [1].

Beide Arten der Ernährung wurden in der Vergangenheit mit unterschiedlichen gesundheitlichen Vorteilen assoziiert: vegane Kost mit weniger Entzündungserkrankungen, einem reduziertem Risiko für Herz-Kreislauferkrankungen und einer insgesamt höheren Lebenserwartung; ketogene Kost mit positiven Effekten auf das Zentralnervensystem (niedrigere Neuroinflammation und anti-epileptisch wirksam).

Die klinische Studie wurde an einer heterogen zusammengesetzten Gruppe von 20 Teilnehmern ausgeführt. Es handelte sich dabei um gesunde Männer und Frauen im Alter von 18 - 50 Jahren mit konstantem Körpergewicht, die über die Versuchsdauer von 4 Wochen stationär in der Klinik (Metabolic Clinical Research Unit at the NIH Clinical Center) aufgenommen waren; dies ermöglichte den Forschern genau zu verfolgen, was die Probanden konsumierten.

Aufgeteilt auf 2 Gruppen begann die erste Gruppe mit einer zweiwöchigen veganen Diät und stieg dann sofort auf eine ketogene Diät um, während die zweite Gruppe mit einer ketogenen Diät anfing und auf eine vegane Diät umstieg. Abbildung 1. Die ketogene kohlenhydratarme Diät bestand zu 75.8% aus Fett, zu 10.0% aus Kohlenhydraten, die vegane, fettarme Diät zu 10.3% aus Fett und zu 75.2% aus Kohlenhydraten. Die ketogene Diät enthielt Produkte tierischen Ursprungs, einschließlich Fleisch, Geflügel, Fisch, Eier, Milchprodukten und Nüssen, die vegane Diät Hülsenfrüchte, Reis, Wurzelgemüse, Sojaprodukte, Mais, Linsen, Erbsen, Vollkornprodukte, Brot und Obst. Beide Diäten enthielten nicht-stärkehaltiges Gemüse (1 kg/Tag) und nur minimale Anteile an hochverarbeiteten Lebensmitteln; die vegane Kost war ballaststoffreicher und zuckerärmer als die ketogene Kost. Den Studienteilnehmern stand es frei so viel von den Speisen zu essen, wie sie wollten (nebenbei: von der ketogenen Kost wurde mehr konsumiert).

....mit Hilfe eines Multiomics Ansatzes .....

Die Auswirkungen der beiden Diäten wurden mit Hilfe eines "Multiomics"-Ansatzes untersucht. Dazu wurden Blut-, Urin- und Kotproben analysiert um die Gesamtheit der darin ersichtlichen Reaktionen des Körpers sowie des im Darm ansässigen/sezernierten Mikrobioms zu erfassen:

  • die biochemischen Reaktionen im Transkriptom (der mittels RNA-Sequenzierung erhaltenen Genexpression) und im Proteom (der Gesamtheit der in den Proben vorliegenden Proteine),
  • die Zusammensetzung der Blutkörperchen und des Mikrobioms und deren zelluläre Reaktionen,
  • die Reaktionen des Stoffwechsels im Metabolom (der Gesamtheit der Stoffwechselprodukte in den Proben) . Abbildung 1.

Abbildung 1: Schematische Darstellung des Versuchsaufbaus. Zwanzig Teilnehmer (Frauen pink, Männer blau) wurden in zwei Gruppen aufgeteilt , wobei Gruppe A mit einer zweiwöchigen veganen Diät begann und dann sofort auf eine ketogene Diät umstieg, während Gruppe B mit einer ketogenen Diät begann und auf eine vegane Diät umstieg. Blut-und Urinproben wurden unmittelbar vor der ersten Diät als Ausgangswert und am Ende der ersten und zweiten Diät entnommen. Im Blut erfolgten Analysen zur Proteinzusammensetzung (SomatLogic), Genexpression mittels RNA-Sequenzierung (RNA-seq), Zusammensetzung der Zellpopulation (Flow Cytometry) und Spiegel von Metaboliten (Metabolomics), Metabolitenspiegel wurden auch im Harn bestimmt. Für die Kot-Proben zur mikrobiologischen Metagenom-Sequenzierung (Microbiome) wurden die Daten an verschiedenen Tagen erhoben. (Quelle: Fig. 1a in Link, V.M. et al., Nat Med (2024) [1].Lizenz: cc-by. https://doi.org/10.1038/s41591-023-02761-2)

.....ermöglicht erstmals einen Blick auf das Gesamtbild der Auswirkungen

Das erstaunliche Ergebnis: Trotz der geringen Zahl der Teilnehmer, deren Verschiedenheit und der kurzen Beobachtungszeit hat die 2-wöchige kontrollierte Ernährungsintervention ausgereicht, um die Immunität des Wirts und die Zusammensetzung des Mikrobioms signifikant und - abhängig von der Diät - unterschiedlich zu beeinflussen.

Auswirkungen auf das Immunsystem

Die vegane Diät hat sich vor allem auf das angeborene Immunsystem ausgewirkt und Leukozyten und Signalwege (über Interferone) hochreguliert, die mit der antiviralen Immunität assoziiert sind. (Angeborene Immunität: die rasch einsetzende, unspezifisch wirkende erste Abwehrlinie, die in Form von Makrophagen, Granulozyten, dem Komplement und freigesetzten Signalmolekülen gegen Krankheitserreger vorgeht.)

Auch rote Blutkörperchen (Erythrocyten) gehören zu den wichtigen Modulatoren der angeborenen Immunität. Die vegane Ernährung hat deren Bildung (Erythropoiese) und den Stoffwechsel des Häm (dem Sauerstoff-transportierenden, farbgebenden Eisen-haltigen Komplex von Hämoglobin) deutlich erhöht (dies könnte auf den höheren Eisengehalt dieser Diät zurückzuführen sein).

Die ketogene Diät führte dagegen zu einem signifikanten Anstieg der biochemischen und zellulären Prozesse, die mit der adaptiven Immunität verbunden sind, einschließlich der Aktivierung von T-Zellen, der Anreicherung von B-Zellen und der Antikörper-produzierenden Plasmazellen. (Adaptive Immunität: die spezifisch wirkende zweite, viel später einsetzenden Abwehrlinie der Immunreaktion, in der B-Zellen Antikörper gegen Erreger freisetzen und T-Zellen diese direkt angreifen und Zytokine gegen diese sezernieren.)

Die beiden Diätformen zeigten unterschiedliche Auswirkungen auf insgesamt 308 mit Krebs assoziierte Signalwege und könnten so den Verlauf von Krebserkrankungen beeinflussen. Vegane Kost aktivierte 242 Signalwege (davon 4 in sehr hohem Ausmaß), ketogene Kost 66 Wege. Erste Hinweise sprechen dafür, dass ketogene Ernährung in Verbindung mit anderen Krebstherapien von Vorteil sein könnten.

Auswirkungen auf die Plasmaproteine

Die ketogene Diät wirkte sich stärker auf den Gehalt von Proteinen im Blutplasma aus als die vegane Diät. Von den rund 1300 im Proteom bestimmten Proteinen zeigten mehr als 100 veränderte Spiegel nach Umstellung von Normalkost auf die ketogene Kost, dagegen nur wenige nach der Umstellung auf vegane Diät. Bei den weiblichen Teilnehmern waren die Veränderungen nach einer ketogenen Diät wesentlich größer, was auf eine mögliche geschlechtsspezifische Reaktion auf die Diät hinweist. Zu diesen geschlechtsspezifischen Unterschieden in der Proteinhäufigkeit gehörten Proteine, die mit dem Glukosestoffwechsel sowie mit der Immunität in Verbindung stehen.

Auswirkungen auf das Mikrobiom

Die Ernährung ist der wichtigste Regulator des Mikrobioms und beeinflusst dessen Zusammensetzung und Funktion.

Beide Diäten haben zu Veränderungen in der Häufigkeit der Darmbakterienarten geführt, vor allem von Actinobacteria, Bacteroidetes, Proteobacteria und am stärksten von Firmicutes; insgesamt waren 26 Arten betroffen, 18 davon kamen bei veganer Diät häufiger vor.

Übereinstimmend mit der Diät waren die meisten, der nach einer veganen Diät hochregulierten mikrobiellen Enzyme mit der Verdauung von pflanzlichen Polysacchariden assoziiert, während die nach einer ketogenen Diät hochregulierten mikrobiellen Enzyme mit der Verdauung von sowohl pflanzlichen als auch tierischen Polysacchariden zu tun hatten.

Im Vergleich zur Ausgangsdiät und zur veganen Diät führte die ketogene Diät zu einer erheblichen Herunterregulierung des mikrobiellen Genvorkommens und dies spiegelte sich in der Herabregulierung zahlreicher mikrobieller Stoffwechselwege wider, wie der Biosynthese von 12 Aminosäuren (darunter essentielle und verzweigte Aminosäuren) und von 9 Vitaminen (darunter B1. B5 und B12).

Effekte auf die Blut- und Harnspiegel der Stoffwechselprodukte (Metaboliten)

Insgesamt wurden im Metabolom des Plasmas 860 Metabolite erfasst; 54 davon waren bei veganer, 131 bei ketogener Ernährung hochreguliert. Die betroffenen Metabolite und das Ausmaß ihrer geänderten Gehalte bieten zweifellos Raum für Hypothesen/Spekulationen zu Nutzen oder Schaden der einen oder anderen Art der Diät.

Die stärkste Veränderung erfuhren die Lipidspiegel.

Der Lipidstoffwechsel war in der Keto-Diät stark gesteigert, da in dieser kohlenhydratarmen Kost Lipide ja zur Energieversorgung der Zellen herangezogen werden. Im Einklang mit der fettreichen Kost, fanden sich mehr Lipide (81) angereichert im Plasma als bei der veganen Kost mit 22 Lipiden. Erhöht wurden bei der Keto-Diät die Gehalte an Lipiden mit gesättigten Fettsäuren, im Fall der veganen Diät waren es Lipide mit ungesättigten Fettsäuren.

Sowohl die ketogene als auch die vegane Kost war mit einem gesteigerten Stoffwechsel von Aminosäuren korreliert. War es bei der ketogenen Diät vor allem die Steigerung der Stoffwechselwege zur Nutzung der essentiellen Aminosäuren Valin, Leucin und Isoleucin, so war bei der veganen Kost der Metabolismus der Aminosäuren Alanin, Asparaginsäure, Glutaminsäure und Arginin erhöht.

Der Vergleich von Plasma- und Urinproben zeigte insgesamt 4 Signalwege, die in beiden Probenarten verstärkt waren: alle waren mit der Hochregulierung der Aminosäure- und Vitaminbiosynthese bei der ketogenen Ernährung korreliert.

Auswirkungen der beiden Diätformen, zusammengefasst

Abbildung 2: Eine Zusammenfassung der wesentlichen Veränderungen nach der Umstellung auf vegane oder ketogene Kost. Pfeile deuten Zunahme oder Abnahme von Reaktionswegen, Metaboliten und Zelltypen an. (Quelle: Fig. 5d in Link, V.M. et al., Nat Med (2024). https://doi.org/10.1038/s41591-023-02761-2. Lizenz cc-by)

Trotz der geringen Zahl an Teilnehmern und der Heterogenität ihrer Zusammensetzung ließen sich aus dem komplexen Datensatz von Proteinen, mikrobiellen Enzymen und Stoffwechselprodukten einige grundlegende Unterschiede in den Auswirkungen von veganer und ketogener Diät erkennen, die in Abbildung 2 zusammengefasst sind.

Von primärer Bedeutung sind die neu beschriebenen Effekte auf das Immunsystem: Bereits eine zwei Wochen dauernde Umstellung auf eine der beiden Diätformen reicht aus, um das angeborene oder das adaptive Immunsystem - also die primäre unspezifische Abwehr von Erregern oder die darauf folgende spezifische, über lange Zeit persistierende Abwehr - anzukurbeln.

Um herauszufinden, wie die Diätformen die Abwehr von Krankheitserregern im realen Leben beeinflussen - ob vegane Kost Ansteckung und Verlauf von Infektionen günstig beeinflussen kann und, ob ketogene Kost die Aussichten in der Krebstherapie verbessert -, sind epidemiologische Studien am Menschen und mechanistische Untersuchungen  an Tiermodellen erforderlich.


  [1) Link, V.M., Subramanian, P., Cheung, F. et al. Differential peripheral immune signatures elicited by vegan versus ketogenic diets in humans. Nat Med (2024). https://doi.org/10.1038/s41591-023-02761-2


 

inge Fri, 16.02.2024 - 18:15

Zur Drainage des Gehirngewebes über ein Netzwerk von Lymphgefäßen im Nasen-Rachenraum

Zur Drainage des Gehirngewebes über ein Netzwerk von Lymphgefäßen im Nasen-Rachenraum

Mo, 12.02.2024 — Inge Schuster

Inge SchusterIcon Gehirn

Erst vor wenigen Jahren wurden zwei Drainagesysteme entdeckt, die Abfallprodukte des Stoffwechsels aus dem Gehirngewebe ausschleusen können: das glymphatische System und ein Lymphsystem in den Hirnhäuten. Koreanische Forscher um Gou Young Koh haben nun eine wesentliche Komponente des Drainagesystems hinzugefügt: ein verschlungenes Netzwerk von Lymphgefäßen im hinteren Teil der Nase (der nasopharyngeale lymphatische Plexus), das eine entscheidende Rolle auf dem bislang unbekannten Weg des Liquorabflusses aus dem Gehirn spielt. Die Stimulierung des Liquorabflusses und damit der darin gelösten toxischen Proteine könnte eine neue erfolgversprechende Strategie zur Behandlung von bislang nur unzulänglich therapierbaren neurodegenerativen Erkrankungen sein.

"Wir sagen, dass wir Demenz verhindern können, wenn wir viel lachen oder viel reden. Das ist kein Scherz. Lachen und Sprechen stimulieren die Lymphgefäße und fördern den Abfluss des Liquors. Ich möchte ein Medikament oder ein Hilfsmittel entwickeln, das die Verschlimmerung von Demenz verhindern kann, indem ich die Forschungsergebnisse des Zentrums für Gefäßforschung nutze."

Gou Young Koh, Director, Center for Vascular Research, IBS

Eine Balance von Versorgung und Entsorgung

Unsere Organe sind auf die kontinuierliche, über den Blutstrom erfolgende Zufuhr von Nährstoffen angewiesen und ebenso auf den Abtransport von Abfallprodukten über das Lymphsystem. Dieses dichte Netzwerk aus verästelten Lymphgefäßen durchzieht unsere Gewebe und fungiert als Drainagesystem. Es verhindert, dass aus den Blutkapillaren in den extrazellulären Raum der Gewebe (das Interstitium) austretende größere Moleküle (vor allem Plasmaproteine), überschüssige Gewebsflüssigkeit, Immunzellen, Abbauprodukte von Zellen ebenso aber auch Partikel und Mikroorganismen sich dort ansammeln. Diese Stoffe treten durch die durchlässigen Wände in Lymphkapillaren ein und werden in der Lymphflüssigkeit durch die Lymphknoten hindurch wieder dem Blutkreislauf und der Ausscheidung zugeführt.

Wie entsorgt das Gehirn seine Abfallprodukte?

Das Gehirn unterscheidet sich von den peripheren Organen u.a. dadurch, dass eine sogenannte Blut-Hirn-Schranke den unkontrollierten Eintritt von Proteinen, Partikeln und Flüssigkeit in das Organ verhindert. Auf Grund des enorm hohen Stoffwechsels - bei rund 2 % unseres Körpergewichts benötigt das Gehirn 20 % des in den Organismus gepumpten Blutes zu seiner Versorgung - entstehen reichlich Abfallprodukte, die in das Interstitium des Gehirngewebes (des Parenchyms) abgegeben werden. Zu solchen Produkten zählen auch fehlgefaltete/aggregierte Proteine, deren Akkumulierung im Gehirngewebe schwere Schädigungen des Nervensystems auslösen kann. Derartige toxische Produkte sind ein gemeinsames Merkmal von neurodegenerativen Erkrankungen, wie der Alzheimer-Krankheit, Parkinson-Krankheit, Huntington-Erkrankung und der amyotrophen lateralen Sklerose.

Bis vor wenigen Jahren rätselte man, wie Abfallprodukte, insbesondere toxische Proteine, aus dem Gehirn ausgeschleust werden können. Die vorherrschende Lehrmeinung besagte ja, dass das Gehirn über kein Lymphdrainagesystem verfügt. Dass dieses Dogma falsch war, wurde 2012 und 2015 durch Studienbewiesen. Demzufolge verfügt das Gehirn sogar über zwei Systeme zum Transport von Abfallprodukten [1]:

Das glymphatische System ...

bewirkt, dass der Liquor (Cerebrospinalflüssigkeit: CSF) das Gehirn durchströmt und sich mit der interstitiellen Flüssigkeit (ISF) und den darin gelösten Stoffen austauscht.

Abbildung 1: Das glymphatische System. Wie Liquor, interstitielle Flüssigkeit und darin gelöste Abfallprodukte im Hirn zirkulieren. A. Liquor fließt über periarterielle Räume, gebildet von den Endfortsätzen von Gliazellen (Astrozyten) ins Gehirn; Wasserkanäle (Aquaporin 4) der Gliazellen regen hier den Austausch von Liquor und interstitieller Flüssigkeit mit den darin gelösten Abfallprodukten an und treiben diese in den abfließenden perivenösen Raum. B. Die perivenöse Flüssigkeit und die gelösten Stoffe fließen dann über große Venen aus dem Gehirn ab, dargestellt am Beispiel eines Mäusehirns . Aus dem subarachnoidalen Liquor können gelöste Stoffe (wie Amyloid-β) den Schädel u.a. über Lymphgefäße der Hirnhäute verlassen. (Abbildung unverändert übernommen aus: Leveaux et al., 2017 [1]. Lizenz cc-by)

Liquor wird kontinuierlich in den Hirnkammern (Ventrikeln) gebildet (etwa 500 ml/Tag), füllt diese und ein Teil gelangt auch in den spaltförmigen Subarachnoidalraum, der zwischen der mittleren Hirnhaut (Arachnoidea mater) und der inneren Hirnhaut (Pia mater) liegt.

Von hier durchfließt der Liquor perivaskulär - d.i. in einem engen, durch die Endfüßchen von Gliazellen (Astrozyten) um die arteriellen Blutgefäße gebildeten Transportraum - das Gehirn (Abbildung 1 A).

Der Austausch von gelösten Stoffen zwischen Liquor und ISF wird in erster Linie durch den arteriellen Pulsschlag gesteuert, wobei die von Gliazellen in den Endfortsätzen exprimierten Wasserkanäle (Aquaporine) essentiell involviert sind. Das Pulsen von Liquor in das Gehirngewebe treibt die Flüssigkeit und die darin gelösten Stoffe in Wellen durch den extrazellulären Raum in die perivenösen Räume. Von hier gelangen sie in wieder in den subarachnoidalen Liquor, können in Lymphgefäße in den Hirnhäuten eintreten und über diese den Schädel verlassen (Abbildung 1 B).

... aktiviert "Gehirnwäsche" im Schlafzustand

Eine besonders wichtige Entdeckung im Jahr 2013 zeigt, dass das glymphatische Transportsystem im Schlafzusstand aktiviert ist [2]: während des Schlafens dehnt sich der extrazelluläre Raum im Hirngewebe um 60 % aus. Dies führt zu einem stark gesteigerten Austausch von Liquor - ISF Austausches und damit zu einer erhöhten Rate der Beseitigung von Abfallprodukten - beispielsweise von Beta-Amyloid, Tau-Protein oder alpha Synuclein - gegenüber dem Wachzustand gesteigert.

Das in den Hirnhäuten lokalisierte Lymphsystem

Abbildung 2: 3D-Darstellung des humanen Lymphsystems (dkl.blau) in der Dura mater. Erstellt aus MRI-Aufnahmen an einer gesunden, 47 Jahre alten Frau (Quelle: Kopie aus [3]; das Bild stammt aus https://elifesciences.org/articles/29738. Lizenz cc-by)

Erst 2015 gelang erstmals der Nachweis von Lymphgefäßen in der äußeren Hirnhaut - der Dura Mater - von Mäusehirnen; diese sehr schwer detektierbaren Gefäße wurden mit ausgeklügelten MRT-Techniken nicht-invasiv zwei Jahre später auch in der Dura Mater des Menschen festgestellt (dazu eine ausführlichere Darstellung im ScienceBlog [3]).

Ebenso wie im peripheren Lymphsystem verlaufen die meningealen (Meninges = Hirnhäute) Lymphgefäße entlang der Blutgefäße, sind aber weniger dicht und verästelt angelegt. Abbildung 2.

Die Lymphgefäße drainieren überschüssige Flüssigkeit und Stoffwechselprodukte der Hirnhäute, transportieren ebenso Immunzellen und dazu - im Anschluss an das glymphatische System - die Mischung aus Liquor und ISF mit den darin gelösten Abfallprodukten des Hirngewebes.

Der nasopharyngeale lymphatische Plexus

Dass das meningeale Lymphsystem schlussendlich zu den tiefen Halslymphknoten außerhalb des Schädels drainiert, ist evident, nicht klar war aber auf welchen Wegen der Abfluss stattfindet und wie er reguliert wird . Ein Team um Gou Young Koh, einem Pionier der Gefäßforschung, Gründungsdirektor und Direktor des Zentrums für Gefäßforschung am Institute for Basic Schiene (IBS) in Daejeon, Korea, hat nun eine entscheidende Schaltstelle auf diesem Weg entdeckt [4].

Das Forscherteam hat dazu transgene Mäuse mit fluoreszierenden Markern zur Sichtbarmachung der Lymphgefäße eingesetzt und die Liquor-/Lymphwege mittels ausgefeilten histologischen, biochemischen und bildgebendern Verfahren untersucht. Um festzustellen, ob die Ergebnisse an der Maus auch für Primaten Relevanz haben, wurden auch einige Versuche am Nasopharynx von Affen (Macaca fascicularis) angestellt.

Die Studie wurde kürzlich im Fachjournal Nature publiziert, die Bedeutung der Ergebnisse ist am Titelblatt des Journals durch ein ganzseitiges Bild zum "Brain Drain" hervorgehoben [4].

Abbildung 3: Schematische Darstellung der Lymphregionen 1, 2 und 3, die über den nasopharyngealen Lymphgefäßplexus (NPLP) zu den medialen tiefen Halslymphgefäßen und den tiefen Halslymphknoten drainieren, Oben: Versuche an Mäusen. Die in den NPLP drainierende Lymphregion 1 umfasst Lymphgefäße in der Nähe der Hypophyse und des Sinus cavernosus liegen. Lymphregion Nr. 2 umfasst Lymphgefäße im vorderen Bereich der basolateralen Dura in der Nähe der mittleren Meningealarterie und des Sinus petrosquamosus (PSS), die entlang der Arteria pterygopalatina (PPA) zum NPLP verlaufen. Die ableitende Lymphregion 3 umfasst Lymphgefäße in der Nähe des Siebbeins (cribriform plate), die zu Lymphgefäßen in der Riechschleimhaut drainieren und zum NPLP führen. Lymphgefäße in der hinteren Region der basolateralen Dura leiten um den Sinus sigmoideus allerdings nicht in den NPLP, sondern durch das Foramen jugulare über die seitlichen tiefen Halslymphgefäße, zu den tiefen Halslymphknoten.(Quelle: Ausschnitt aus Fig. 3 Nature (2024). DOI: 10.1038/s41586-023-06899-4; Lizenz cc-by) Unten: Basierend auf den Ergebnissen an Mäusen und Makaken ist die angenommene Drainierung von Liquor über das nasopharyngeale Lymphgeflechts beim Menschen zu den tiefen zervikalen Lymphgefäßen und Lymphknoten skizziert. (Credit: Institute of Basic Science)

An Hand von vielen hervorragenden fluoresenzmikroskopischen Bildern zeigt die Studie im hinteren Teil der Nase, dem Nasopharynx (Rachenraum), ein wie ein Spinnennetz verschlungenes Netzwerk von Lymphgefäßen, den nasopharyngealen lymphatischen Plexus (NPLP), der als wesentlicher Knotenpunkt für den Abfluss von Liquor zu den tiefen Halslymphknoten im Nacken fungiert. In dem, sich von der Schädelbasis bis zum weichen Gaumen des Mundes erstreckenden Nasopharynx, reicht das Netzwerk der Lymphgefäße bis zur Gehirnbasis; diese vereinigen sich dann zu einigen wenigen Lymphgefäßsträngen, die mit den Halslymphknoten verbunden sind. Aus drei Regionen des Gehirns wird Liquor über Lymphgefäße in der Dura mater in den NPLP abgeleitet und drainiert von dort über die tiefen Halslymphgefäße in die tiefen Halslymphknoten.

Nur das Lymphgefäß in den Hirnhäuten der seitlichen Schädelbasis entsorg auf einem anderen Weg - über die seitlichen Halslymphgefäße - in den tiefen Halslymphknoten. Abbildung 3 (oben) gibt einen Überblick über die Abflusswege (leider nicht für rasches Überfliegen geeignet).

Die Ähnlichkeit des lymphatischen Netzwerks im Nasopharynx von Maus und Affe und seiner Funktion, lässt auf eine Konservierung dieses Drainagesystem bei den Spezies und damit auch auf sein Vorkommen und seine Rolle in der Entsorgung von Abfallprodukten des Gehirns beim Menschen schließen (Abbildung 3, unten).

Aktivierung der tiefen Halslymphgefäße

Ein sehr wichtiger Befund der Studie: die tiefen Halslymphgefäße sind von glatten Muskelzellen umhüllt, die pharmakologisch moduliert werden können, sodass sie die Gefäße zusammendrücken oder erweitern und damit den Liquorfluss regulieren.

Die Forscher haben dies demonstriert: mit Natriumnitroprussid (das Stickstoffmonoxid - NO -  freisetzt) konnte eine Muskelentspannung und damit eine Gefäßerweiterung bewirkt werden, mit Phenylephrin - einem Adrenalin-Analogon - eine Gefäßkontraktion.

Diese pharmakologischen Auswirkungen blieben auch bei alten Mäusen aufrecht, während das Lymphgeflecht im Nasopharynx geschrumpft war, und die Drainage von Liquor abgenommen hatte.

Die Aktivierung der tiefen Halslymphgefäße könnte somit zu einer erfolgversprechende Strategie werden, um bei neurodegenerativen Erkrankungen den Abfluss von Liquor und damit von toxischen Abfallprodukten zu steigern.


 [1] A. Leveaux et al., Understanding the functions and relationships of the glymphatic system and meningeal lymphatics. Clin Invest. 2017 Sep 1; 127(9): 3210–3219. Published online 2017 Sep 1. doi: 10.1172/JCI90603

[2] L.Xie et al., Sleep Drives Metabolite Clearance from the Adult Brain. Science. 2013 Oct 18; 342(6156): 10.1126/science.1241224. doi: 10.1126/science.1241224

[3] Redaktion, 10.10.2017: Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen.

[4] Yoon, JH., et al., Nasopharyngeal lymphatic plexus is a hub for cerebrospinal fluid drainage. Nature 625, 768–777 (2024). https://doi.org/10.1038/s41586-023-06899-4


Aus dem Center for vascular Research (Korea)

Homepage des Center for Vascular Research at the Institute for Basic Science (Korea): https://vascular.ibs.re.kr/

Rezente Artikel im Online Magazin (2023) IBS Research 20th.pdf:

Seon Pyo HONG, Why We Focus on Vessels

Koh Gou Young, The Key to Solving Degenerative Brain Disease: Vessels


 

inge Mon, 12.02.2024 - 17:09

Alzheimer-Therapie: Biogen gibt seinen umstrittenen Anti-Amyloid-Antikörper Aduhelm auf

Alzheimer-Therapie: Biogen gibt seinen umstrittenen Anti-Amyloid-Antikörper Aduhelm auf

Mo, 05.02.2024 — Inge Schuster

Inge SchusterIcon Gehirn

Nachdem fast 20 Jahre lang keine neuen Alzheimer-Medikamente den Markt erreicht hatten, erhielt 2021 der Anti-Amyloid Antikörper Aduhelm des US-Biotechkonzerns Biogen als erster Vertreter einer neuen Klasse von Therapeutika die Zulassung durch die US-Behörde FDA. Dass die Entscheidung trotz des Fehlens eindeutiger Nachweise der Wirksamkeit und des Auftretens bedenklicher Nebenwirkungen erfolgte, löste enorme Kritik aus und das von skeptischen Ärzten kaum verschriebene Präparat wurde zum Flop. Vor 5 Tagen hat Biogen nun mitgeteilt, dass Entwicklung und Vermarktung von Aduhelm einstellt gestellt wird und freiwerdende Ressourcen nun seunem zweiten (im Juli 2023 registrierten) Anti-Amyloid -Antikörper Leqembi (Lecanemab) gewidmet werden sollen.

Für den US-Biotechkonzern Biogen war Aduhelm die bahnbrechende Entdeckung, die den Weg für eine neue Klasse von Medikamenten in der Alzheimer -Therapie ebnete und Forschung und nötige Investitionen in diesem Bereich wieder möglich machte. Waren die bis jetzt wenigen verfügbaren Therapien bestenfalls geeignet Symptome der Alzheimer-Krankheit etwas abzumildern, so sollte nun erstmals der (?) zugrundeliegende Krankheitsprozess beeinflusst werden.

Beta-Amyloid als Target für Alzheimer-Therapeutika

Ein zentrales Element der Erkrankung ist die massive Ablagerung von unlöslichen Protein-Plaques zwischen den Nervenzellen; diese lösen eine Kaskade von pathophysiologischen Ereignissen aus: Schädigungen von Nervenzellen und deren Funktionen, Unterbindungen der Nervenverbindungen und schlussendlich Absterben der Nervenzellen. Wie heute mittels der nicht-invasiven Positronen-Emissionstomographie (PET) gezeigt werden kann, sind solche Plaques bereits Jahre, bevor noch die ersten Symptome auftreten, nachweisbar.

Die Zusammensetzung der Plaques wurde schon vor 40 Jahren aufgeklärt: Sie bestehen aus aggregierten, etwa 40 Aminosäuren langen Beta-Amyloid- Peptidketten, die aus dem Vorläufer-Protein Amyloid-Precursor -Protein (APP) abgespalten werden, das in vielen Körperzellen, insbesondere an den Synapsen der Nervenzellen exprimiert ist. Abbildung 1.

Abbildung 1: Bildung von Beta-Amyloid-Plaques. Enzyme wirken auf das in den Zellmembranen sitzende Amyloid-Vorläuferprotein ein und zerschneiden es in Fragmente. Zu den Bruchstücken gehören die etwa 40 Aminosäuren langen Beta-Amyloidpeptide (gelb), die im extrazellulären Raum zu unlöslichen Plaques aggregieren können. (Bild: http://www.nia.nih.gov/Alzheimers/Resources/HighRes.htm, gemeinfrei)

Seit mehr als 30 Jahren gehört Hemmung der Bildung von Amyloid-Aggregaten/Auflösung der Amyloid-Plaques zu den wichtigen Strategien in Forschung und Entwicklung von Alzheimer-Therapeutika. Laut der kuratierten Datenbank von Alzforum (https://www.alzforum.org/therapeutics) sind bis jetzt insgesamt 314 unterschiedliche Target-Typen in Tausenden klinischen Studien geprüft worden, 81 dieser Targets beziehen sich auf Beta-Amyloid, 9 davon sind Antikörper gegen Beta-Amyloid.

Die Ausbeute an registrierten Präparaten ist äußerst ernüchternd: seit den 1990-er Jahren wurden insgesamt nur 9 Medikamente zugelassen, davon 2 mit Bezug auf Amyloid-Beta (bei beiden handelt es sich um Antikörper gegen Beta-Amyloid). Abbildung 2.

Die Misserfolgsquote von über 97 % ist damit bedeutend höher als für Pharmaka in anderen Indikationen, wo 5 % (im Tumorgbiet) bis 10 % derer, die in die klinische Phase gelangen, auf dem Markt landen.

Abbildung 2: Alle bisherigen Alzheimer Targets, die in die klinische Entwicklung gelangten (314), etwa ein Viertel davon (81) betreffen die Blockierung/Auflösung der Amyloid-Plaques.(Grafik aus den Daten vom Alzforum erstellt; https://www.alzforum.org/therapeutics.)

Neben der marginalen Erfolgsrate ist auch die Wirksamkeit der registrierten Präparate bescheiden: sie können den fortschreitenden kognitiven Abbau etwas verlangsamen, nicht aber stoppen oder gar rückgängig machen.

Die Aduhelm-Saga

Nachdem fast 20 Jahre lang die Entwicklung von Alzheimer-Therapeutika nur Misserfolge gezeitigt hatte, wurde im Juli 2021 von der US-amerikanischen Food and Drug Administration (FDA) ein neues Präparat - Aduhelm (Aducanumab) - zugelassen, genauer gesagt: Aduhelm erhielt eine beschleunigte Zulassung unter der Voraussetzung, dass eine Phase 4 -Studie die klinische Wirksamkeit des Medikaments bestätigen würde und die Anwendung sich auf Patienten in frühem Krankheitsstadium mit milden Symptomen beschränkte.

Forschung und Entwicklung von Aduhelm

Aduhelm ist eine Entdeckung des Schweizer Biotech-Unternehmens Neurimmune, eines Spin-offs der Universität Zürich, das um das Jahr 2000 schützende Anti-Amyloid-Antikörper bei gesunden älteren Menschen und Patienten mit langsam fortschreitender Demenz entdeckte und daraus den monoklonalen humanen Antikörper Aduhelm entwickelte [1].

Dieser Antikörper bindet spezifisch an eine Stelle (Epitop) des Amyloids in den Geweben der Patienten. Intravenös verabreicht passiert Aduhelm die Blut-Hirn-Schranke, bindet an das Beta-Amyloid im Gehirn und löst damit Immunreaktionen aus, die die Amyloid-Ablagerungen auflösen und beseitigen.

2007 hat Neurimmune den Antikörper an das US-Biotechunternehmen Biogen - einem Pionier in der Alzheimer-Forschung - auslizensiert, der diesen dann - zusammen mit dem japanischen Konzern Eisai - präklinisch und klinisch entwickelte.

In einer Studie im Jahr 2016 konnte mit Hilfe der Positron Emission Tomographie (PET) gezeigt werden, dass der Antikörper dosis- und zeitabhängig die Beta-Amyloid-Ablagerungen auflöste - nicht gezeigt wurde aber, wieweit die Reduktion der Plaques mit einer besseren kognitiven Leistung korrelierte.

Bezüglich der kognitiven Leistung lieferten 2019 zwei große klinische Studien an Patienten mit leichten Symptomen im frühen Stadium der Alzheimer-Krankheit widersprüchliche Ergebnisse: Obwohl die Behandlung mit Aduhelm die Amyloid-Ablagerungen stark reduzierte, konnte in einer der Studien (ENGAGE) keine Verbesserung der Gedächtnisleistungen im Vergleich zur Plazebogruppe gezeigt werden. In der zweiten Studie (EMERGE) war nach Auswertung weiterer Daten ein leichter Unterschied (18 - 22 % verlangsamte Verschlechterung gegenüber der Kontrollgruppe) in der hochdosierten Medikamentengruppe zu sehen. Die Reduktion der Plaques rief bei bis zu einem Drittel der Patienten Nebenwirkungen hervor, die im Gehirnscan als Schwellungen und Mikroblutungen des Gehirns erkennbar waren (sogenannte Amyloid-bedingte Bildgebungsanomalien (ARIA)) und in einigen Fällen schwerwiegende Folgen hatten.

Eine umstrittene Zulassung

2020 haben Biogen/Eisai den Zulassungsantrag bei der FDA eingereicht.

Die wissenschaftlich hochrangigen Mitglieder eines unabhängigen Beratergremiums der FDA haben wegen des Fehlens eindeutiger Wirksamkeitsnachweise und bedenklicher Sicherheitsaspekte gegen die Zulassung gestimmt. Die FDA hat dennoch am 7. Juni 2021 für eine beschleunigte Zulassung entschieden, wobei sie den Nachweis der Plaque-Reduktion durch Aduhelm als Surrogatmarker - Ersatzmesswert - für die wahrscheinliche Wirkung am Patienten akzeptierte. Der FDA schien es wichtig, dass nach fast 20 Jahren von Misserfolgen nun mit Aduhelm der erste Vertreter einer neuen Klasse von Alzheimer-Therapeutika registriert wurde.

Viele Experten haben die Zulassung als eine der schlechtesten Entscheidungen der FDA bezeichnet. Die Zulassung stieß auch auf heftige Kritik vieler Organisationen wie beispielsweis des amerikanischen Konsumentenschutzes ("Die Entscheidung zeigt eine rücksichtslose Missachtung der Wissenschaft und schadet der Glaubwürdigkeit der Behörde"), ebenso wie der Medien (New York Times: "How Aduhelm, an Unproven Alzheimer's Drug, Got Approved").

Angesichts einer fragwürdigen Wirksamkeit und mangelnder Sicherheit verweigerte die Europäische Arzneimittel-Agentur (EMA) jedenfalls die Zulassung.

Aduhelm wird ein Flop...

Biogen hatte anfänglich den Preis des Medikaments auf 56.000 US-Dollar pro Jahr und Patient festgesetzt und später auf die Hälfte reduziert. Der hohe Preis und die Skepsis gegen das Medikament führten zu viel, viel weniger Verschreibungen als Biogen erwartet hatte. Dazu kam, dass dies US-Krankenversicherung Medicare die Erstattung auf Patienten beschränkte, die an klinischen Studien teilnahmen. Biogen konnte damit nur einen Bruchteil der erwarteten Umsätze einfahren.

Die Firma hat nun die klinische Studie ENVISION, mit der sie den von der FDA geforderten Wirksamkeitsnachweis erbringen wollte, weitere Entwicklungsarbeiten und das Marketing gestoppt und die Rechte an Aduhelm dem ursprünglichen Entdecker Neurimmune zurückgegeben.

... Nachfolger Leqembi bereits vorhanden

Dieser Schritt war offensichtlich nicht nur dem schlechten Abschneiden von Aduhelm geschuldet: Zusammen mit Eisai hatte Biogen ja mit Leqembi (Lecanemab) bereits einen Nachfolger mit besseren Erfolgsaussichten entwickelt. Dessen Wirksamkeit - eine bescheidene Verlangsamung des kognitiven Abbaus um 27 % - bei Patienten im frühen Stadium der Erkrankung (Studie CLARITY AD) reichte der FDA, um Leqembi 2023 als zweiten Amyloid-Antikörper zuzulassen - allerdings mit einer Black-Box-Warnung (das bedeutet: das Medikament kann ernste bis lebensbedrohende Nebenwirkungen ausllösen), da auch Leqembi die von Aduhelm bekannten Nebenwirkungen, Amyloid-bedingte Bildgebungsanomalien, hervorruft.

Leqembi gilt als Hoffnungsträger, da derzeit keine Therapie am Markt ist, die den Krankheitsprozess umkehreren/stoppen kann oder zumindest einen günstigeren Verlauf verspricht. Allerdings steht nun offensichtlich ein neuer Amyloid-Antikörper - Donanemab - des Pharmakonzerns Eli Lilly vor der Zulassung. Von Donanemab liegen als ausreichend eingestufte Wirksamkeitsdaten vor; allerdings ruft das Präparat - ebenso wie Aduhelm und Leqembi (und andere bis jetzt untersuchte Amyloid-Antikörper) - die auf Amlyoid-zurückführbaren Nebenerscheinungen - Gehirnschwellung en und Mikroblutungen - hervor.

Um der Konkurrenz zu begegnen, muss sich Biogen anstrengen und nun voll auf die Vermarktung von Leqembi konzentrieren.

Nachsatz

Ob die neuen Präparate die Alzheimer-Therapie revolutionieren werden, ist ungewiss. Das behandelbare Patientenkollektiv beschränkt sich (derzeit) ja nur auf Erkrankte im Frühstadium, die dazu auch u.a. mittels Gehirnscans selektiert und dann überwacht werden müssen, um die Amyloid-bedingten Nebenwirkungen möglichst gering zu halten. Da es derzeit keine Medikamente am Markt gibt, die Alzheimer heilen oder den Verlauf günstig modifizieren können, werden wohl viele dieser Patienten zu dem "Strohhalm" der Anti- Amyloid-Antikörper greifen und hoffen damit das Fortschreiten der Erkrankung längerfristig aufhalten zu können.


[1] Ch. Hock et al., Antibodies against Slow Cognitive Decline in Alzheimer’s Disease. Neuron, Vol. 38, 547–554, May 22, 2003.


Die Alzheimer-Erkrankung im ScienceBlog

Inge Schuster, 14.08.2022: Alzheimer-Forschung - richtungsweisende Studien dürften gefälscht sein

Irina Dudanova, 23.09.2021: Wie Eiweißablagerungen das Gehirn verändern

Francis S. Collins, 14.02.2019: Schlaflosigkeit fördert die Ausbreitung von toxischem Alzheimer-Protein

Inge Schuster, 24.06.2016: Ein Dach mit 36 Löchern abdichten - vorsichtiger Optimismus in der Alzheimertherapie

Francis S. Collins, 27.05.2016: Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts

Gottfried Schatz, 03-07.2015: Die bedrohliche Alzheimerkrankheit — Abschied vom Ich


 

inge Mon, 05.02.2024 - 12:00

Bluttests zur Früherkennung von Krebserkrankungen kündigen sich an

Bluttests zur Früherkennung von Krebserkrankungen kündigen sich an

Do, 25.01.2024 — Ricki Lewis

Ricki LewisIcon Molekularbiologie

Krebs im frühen Stadium zu erkennen und zu behandeln kann die Erfolgsaussichten für Patienten bedeutend verbessern. Eine neue Entwicklung zur möglichst frühen Erkennung von möglichst vielen Arten von Krebserkrankungen sind Multi-Cancer-Early-Detection (MCED) Tests, auch als Flüssigbiopsie bezeichnete Tests, die von Krebszellen ins Blut (und andere Körperflüssigkeiten) abgesonderte biologische Substanzen wie Tumor-DNA oder - Proteine messen. Wie großangelegte neue Untersuchungen zeigen, lassen MCED-Testes Rückschlüsse auf mehr als 50 unterschiedliche Tumoren - darunter viele seltene Krebsarten, die oft viel zu lange unentdeckt bleiben - und den Ort ihrer Entstehung zu. Die Genetikerin Rick Lewis berichtet über das vielversprechende Potential dieser neuen Bluttests.*

Eine 52-jährige Frau ist bei ihrer jährlichen ärztlichen Untersuchung. Der Arzthelfer erwähnt, dass er zwei zusätzliche Blutkonserven für neue Krebsfrüherkennungstests benötigt, von denen einer gerade von der FDA zugelassen wurde und der andere im Rahmen einer klinischen Studie verfügbar ist.

"Aber ich bekomme bereits Mammographien und Darmspiegelungen aufgrund der Familienanamnese, und mein Mann wird jedes Jahr auf Prostatakrebs untersucht. Warum brauche ich diese neuen Tests?", fragt die Patientin.

"Diese können Krebserkrankungen viel früher erkennen, und zwar anhand der DNA und der Proteine in Ihrem Plasma, also dem flüssigen Teil des Bluts. Da sind auch Krebsarten dabei, die viel seltener sind als Brust-, Dickdarm- und Prostatakrebs."

"OK", sagt die Patientin und krempelt einen Ärmel hoch. Sie würde zu den Ersten gehören, die sich der "Multi-Krebs-Früherkennung" (MCED) unterziehen - einem Bluttest, der Hinweise darauf findet, dass Krebszellen in den Blutkreislauf gelangt sind. Eine im frühen Stadium begonnene Behandlung hat eine höhere Erfolgswahrscheinlichkeit. Ein MCED-Bluttest könnte ein Gamechanger für Menschen sein, die noch nicht symptomatisch an Krebs erkrankt sind.

Eine Flüssigbiopsie

Krebserkrankungen sind für 1 von 6 Todesfällen verantwortlich; nur etwa 40 Prozent werden früh genug erkannt, um erfolgreich therapiert zu werden. Bei einer Mammographie wurde mein Brustkrebs frühzeitig entdeckt; ein Arzt, der eine Beule in meinem Hals bemerkte, fand Schilddrüsenkrebs.

Für diejenigen, die an Krebs erkrankt waren, kann mittels einer "Flüssigbiopsie" auf ein Rezidiv - die Rückkehr der Erkrankung - geschlossen werden; dabei wird eine Körperflüssigkeit - in der Regel Blut, aber möglicherweise auch Urin, Sputum oder Kot - auf winzige DNA-Stücke untersucht, die krebsverursachende Mutationen enthalten. Die Forschung an solchen Flüssigbiopsien begann vor drei Jahrzehnten.

Die DNA-Schnipsel werden als "zellfrei zirkulierende DNA" oder cfDNA bezeichnet. Durch Überlagerung der Fragmente lässt sich die gesamte Genomsequenz der im Blutkreislauf enthaltenen Krebszellen wieder zusammensetzen und daraus Mutationen identifiziert werden. Darüber hinaus kann die Expression von Krebsgenen (ob es nun eingeschaltete oder ausgeschaltete Gene sind) aus den Methylierungsmustern - Methylgruppen, die an der DNA kleben - abgeleitet werden. Bei Krebs kann ein Tumorsuppressor-Gen mit Methylgruppen umhüllt und stillgelegt (silenced) werden und damit seine Funktion als Tumor-Unterdrücker verlieren. Oder ein Onkogen kann durch den Wegfall von Methylgruppen aktiviert werden und Krebs verursachen.

Eine Flüssigbiopsie - eben nur ein Bluttest - ist viel weniger schmerzhaft und invasiv als eine herkömmliche chirurgisch erhaltene Biopsie, bei der Krebszellen aus einem festen Tumor entnommen werden. Und eine Tumor-DNA ist spezifischer als ein Protein-Biomarker, der auch auf gesunden Zellen vorhanden sein kann, auf Krebszellen aber häufiger vorkommt.

Flüssigbiopsien haben bislang ihren Fokus auf Menschen gerichtet, die bereits an Krebs erkrankt waren, um ein Wiederauftreten des Tumors zu erkennen oder das Ansprechen auf die Behandlung zu überwachen. Der Heilige Gral ist aber der Einsatz bei Menschen, die weder an Krebs erkrankt waren noch sich aufgrund von Risikofaktoren wie Alter oder Familiengeschichte anderen Untersuchungen wie beispielsweise dem PSA-Test unterziehen müssen. Eierstockkrebs ist das klassische Beispiel. Er wird oft erst spät diagnostiziert, weil  Verdacht erweckende Anzeichen - Blähungen und Müdigkeit - vage sind und häufig auftreten und leicht auf etwas Harmloses wie eine Umstellung der Ernährung oder des Sportprogramms zurückgeführt werden.

MCED-Bluttests sind besonders vielversprechend für die vielen seltenen Krebsarten, die oft viel zu lange unentdeckt bleiben. Sie werden wahrscheinlich auch ältere Screening-Methoden in Bezug auf Sensitivität (alle an Krebs Erkrankten werden als krank identifiziert) und Spezifität (alle nicht an Krebs Erkrankten werden als gesund erkannt) übertreffen.

Die neuen MCED-Bluttests - ein Typ ist zugelassen, ein anderer experimentell - weisen DNA oder Proteine nach. Abbildung.

Die MECD- Bluttests weisen im Blutplasma DNA-Stückchen (blau) oder Proteine (grün) nach, die von Tumoren in die Blutbahn abgesondert werden. (credit Jill George, NIH)

Verdächtige DNA

Bereits auf Rezept erhältlich ist die "Multi-Krebs-Früherkennung aus einer einzigen Blutabnahme" des US-Gesundheitsunternehmens GRAIL. Im Oktober 2023 veröffentlichte das Unternehmen die Ergebnisse seiner Pathfinder-Studie im Fachjournal The Lancet. Darin wurden 6 662 Erwachsene im Alter von 50 + ohne Symptome beobachtet, die den Test gemacht hatten [1].

Die Überprüfung von Methylierungsmustern (ob Krebsgene ein- oder ausgeschaltet sind) führte zu mehr als einer Verdopplung der Zahl der neu entdeckten Krebserkrankungen, wobei sich fast die Hälfte davon in frühen Stadien befand. Nach einer Nachuntersuchung auf der Grundlage der spezifischen Krebsarten wurden die meisten Diagnosen in weniger als drei Monaten gestellt, also weitaus schneller als bei herkömmlichen Screening-Tests.

Der DNA-MCED-Test, Galleri genannt, deckt mehr als 50 Krebsarten ab, darunter viele, die derzeit mit den empfohlenen Screening-Tests nicht erkannt werden. So erkennt Galleri drei Arten von Krebs des Gallengangs, sowie Krebsarten des Dünndarms, der Mundhöhle, der Vagina, des Blinddarms, des Penis, des Bauchfells und weitere Arten, sowie die üblichen Krebsarten wie Bauchspeicheldrüsen-, Prostata- und Blasenkrebs.

Maschinelles Lernen wird eingesetzt, um DNA-Methylierungsmuster mit nützlichen klinischen Informationen zu verknüpfen, wie in einem Bericht in der Zeitschrift Cancer Cell erläutert wird. Der Ansatz gibt Aufschluss über die Krebsart und das Ursprungsorgan und unterscheidet Krebszellen von normalen Zellen, die einfach nur alt sind und DNA absondern.

Der Test hat 36 Krebsarten bei 35 Teilnehmern identifiziert, wobei bei einer Person zwei Krebsarten diagnostiziert wurden. Bei den üblichen Krebsuntersuchungen wurden 29 Krebsarten festgestellt.

Untersuchung von Proteinen

Wie bei der DNA in Flüssigbiopsien beruht die Identifizierung von Proteinen im Blutplasma auf der Erfassung von vielen Stückchen an Information.

Bekannt sind Screening-Tests zum Nachweis bestimmter Proteine, die mit einem erhöhten Risiko für bestimmte Krebsarten in Verbindung gebracht werden: PSA steht für Verdacht auf Prostatakrebs, Östrogen- und Progesteronrezeptoren auf Brustkrebszellen sind für die Wahl der Therapie ausschlaggebend, erhöhte Werte von CA125 weisen auf Eierstockkrebs hin.

Dies ist jedoch nur ein winziger Ausschnitt dessen, was durch die Katalogisierung der Konzentrationen vieler Proteine im Blutplasma möglich ist - ein Proteomik- Ansatz (Anm. Redn.: Unter Proteom versteht man die Gesamtheit aller in einer Zelle oder einem Lebewesen unter definierten Bedingungen und zu einem definierten Zeitpunkt vorliegenden Proteine.)

Eine "Proof-of-Concept"-Studie, die eben im BMJ Oncology veröffentlicht wurde, hat Schlagzeilen gemacht: "Ein geschlechtsspezifisches Panel von 10 Proteinen kann 18 verschiedene Krebsarten im Frühstadium erkennen" [2]:

Forscher von Novelna Inc. in Palo Alto haben aus Plasmaproben von 440 Personen, bei denen vor der Behandlung 18 verschiedene Krebsarten diagnostiziert wurden, und von 44 gesunden Blutspendern proteinbasierte "Signaturen solider Tumore" in bestimmten Organen abgeleitet. Sie haben die Häufigkeit von mehr als 3.000 Proteinen gemessen und die mit den Krebsarten assoziierten hohen und niedrigen Spiegel festgestellt. Die Auswahl der zu untersuchenden Proteine erfolgte auf Grund der biochemischen Reaktionswege, an denen diese Proteine beteiligt sind und die bei Krebs gestört sind, wie z. B. Signaltransduktion, Zelladhäsion und Zellteilung.

Ein wichtiger Teil der Studie war die Berücksichtigung des biologischen Geschlechts, da bestimmte Krebsarten bei Männern oder bei Frauen viel häufiger auftreten. Auch hier half künstliche Intelligenz den Ursprungsort des Tumors zu identifizieren sowie innerhalb eines Körperteils abzugrenzen, beispielsweise zwischen medullärem und follikulärem bzw. papillärem Schilddrüsenkrebs sowie zwischen kleinzelligem und nicht-kleinzelligem Lungenkrebs zu unterscheiden.

Niedrige Spiegel von zehn Plasmaproteinen erwiesen sich als aussagekräftige Prädiktoren für 18 Arten von soliden Tumoren, die geschlechtsabhängig sind. Aus den Konzentrationen von 150 Proteinen konnte auf den Entstehungsort des Tumors geschlossen werden, die Proteinsignatur zeigte auch das Stadium an, sogar ein sehr frühes.

In einem Leitartikel, der den Bericht im BMJ Oncology begleitete, weist Holli Loomans-Kropp von der Ohio State University darauf hin, dass "feststellbare geschlechtsspezifische Unterschiede bei Krebs - einschließlich des Alters des Auftretens, der Krebsarten und der genetischen Veränderungen - darauf hindeuten, dass der Ansatz mit MCEDs von Nutzen sein wird.... Kehlkopf-, Rachen- und Blasenkrebs treten bei Männern häufiger auf, Anal- und Schilddrüsenkrebs bei Frauen. Krebserkrankungen, die auf Mutationen im p53-Gen zurückzuführen sind, beginnen bei Frauen früher. Und die akute lymphoblastische Leukämie wird bei Männern und Frauen durch unterschiedliche Arten von Mutationen ausgelöst."

Auch andere genetische Messgrößen unterscheiden sich zwischen den Geschlechtern, z. B. die Anzahl der Mutationen, Kopienzahlveränderungen und Methylierungsmuster. Gene auf dem X-Chromosom unterdrücken das Tumorwachstum, und wir Frauen haben natürlich zwei Xs im Vergleich zu einem bei den Männern.

-------------------------------------------------

In Zukunft wird ein Bluttest zur Früherkennung von Krebs vielleicht so zur Routine werden wie ein Cholesterin-Test. Krebs in einem frühen Stadium, auf eine so einfache Weise zu erkennen, verspricht schlussendlich viele Leben zu retten!


 [1] Nicholson B.D., et al., Multi-cancer early detection test in symptomatic patients referred for cancer investigation in England and Wales (SYMPLIFY): a large-scale, observational cohort study. Lancet Oncology (2023); 24/7: 733-743. https://doi.org/10.1016/S1470-2045(23)00277-2

[2] Budnik B, et al.: Novel proteomics-based plasma test for early detection of multiple cancers in the general population. BMJ Oncology 2024;3:e000073. doi: 10.1136/bmjonc-2023-000073.

[3] Loomans-Kropp H., Multi-cancer early detection tests: a strategy for improvement. BMJ Oncology 2024;3:e000184. doi: 10.1136/bmjonc-2023-000184


* Der Artikel ist erstmals am 11. Jänner 2024 in PLOS Blogs - DNA Science Blog unter dem Titel " Multi-cancer Early Detection Blood Tests (MCED) Debut "https://dnascience.plos.org/2024/01/11/multi-cancer-early-detection-blood-tests-mced-debut/  erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.


 

inge Thu, 25.01.2024 - 17:46

PACE, der neue Erdbeobachtungssatellit der NASA, untersucht Ozeane und Atmosphären im Klimawandel

PACE, der neue Erdbeobachtungssatellit der NASA, untersucht Ozeane und Atmosphären im Klimawandel

Do, 18.01.2024 — Redaktion

Redaktion

Icon Astronomie

Die Ozeane und die Atmosphäre der Erde verändern sich mit der Erwärmung des Planeten. Einige Meeresgewässer werden grüner, weil mehr mikroskopisch kleine Organismen blühen. In der Atmosphäre beeinträchtigen Staubstürme, die auf einem Kontinent entstehen, die Luftqualität eines anderen Kontinents, während der Rauch großer Waldbrände ganze Regionen tagelang einhüllen kann. Der neueste Erdbeobachtungssatellit der NASA mit der Bezeichnung PACE (Plankton, Aerosol, Wolken, Ozean-Ökosystem) wird im Februar 2024 gestartet und soll uns helfen, die komplexen Systeme, die diese und andere globale Veränderungen im Zuge der Klimaerwärmung bewirken, besser zu verstehen.*

Mit der fortschreitenden Erwärmung des Klimas, die möglicherweise zu mehr Waldbränden und damit zu einer stärkeren Ablagerung von Asche führt, können wir davon ausgehen, dass sich die Phytoplankton-Gemeinschaften verändern werden. Ivona Cetinić, Oceanographer - Ocean Ecology Lab at NASA Goddard.

"Der Ozean und die Atmosphäre interagieren auf eine Art und Weise, die nur durch kontinuierliche Forschung vollständig verstanden werden kann", sagte Jeremy Werdell, Projektwissenschaftler für die PACE-Mission am Goddard Space Flight Center der NASA in Greenbelt, Maryland, "Mit PACE werden wir unsere Augen für viele neue Aspekte des Klimawandels öffnen". Abbildung 1.

Abbildung 1. . PACE wird dazu beitragen, den Gesundheitszustand der Ozeane zu beurteilen, indem es die Verteilung von Phytoplankton misst - winzige pflanzenähnliche Organismen und Algen, die das marine Nahrungsnetz erhalten. Außerdem wird es die Aufzeichnungen wichtiger atmosphärischer Variablen im Zusammenhang mit der Luftqualität und dem Klima der Erde erweitern. Bildnachweis: Screenshot, NASA's Scientific Visualization Studio

Der Ozean verändert seine Farbe

Die Auswirkungen des Klimawandels auf den Ozean sind vielfältig und reichen vom Anstieg des Meeresspiegels über marine Hitzewellen bis hin zum Verlust der Artenvielfalt. Mit PACE ((Plankton, Aerosol, Wolken, Ozean-Ökosystem) werden die Forscher in der Lage sein, die Auswirkungen auf das Meeresleben in seinen kleinsten Formen zu untersuchen.

Phytoplankton sind mikroskopisch kleine, pflanzenähnliche Organismen, die nahe der Wasseroberfläche schwimmen und das Zentrum des aquatischen Nahrungsnetzes bilden, das allen möglichen Tieren - von Muscheln über Fische bis hin zu Walen - Nahrung bietet. Es gibt Tausende von Phytoplanktonarten, die jeweils unterschiedliche Nischen im Ozean besetzen.

Abbildung 2. Im Frühjahr und Sommer sind in der Barentssee nördlich von Norwegen und Russland oft blaue und grüne Blüten von Phytoplankton zu sehen. Das Moderate Resolution Imaging Spectroradiometer (MODIS) an Bord des NASA-Satelliten Aqua hat dieses Echtfarbenbild am 15. Juli 2021 aufgenommen. Bildnachweis: NASA Earth Observatory

Während ein einzelnes Phytoplankton in der Regel nicht mit bloßem Auge zu erkennen ist, können Gemeinschaften von Billionen von Phytoplankton, sogenannte Blüten, vom Weltraum aus gesehen werden. Blüten haben oft eine grünliche Färbung, was auf die Chlorophyllmoleküle zurückzuführen ist, die das Phytoplankton- wie die Landpflanzen - zur Energiegewinnung durch Photosynthese nutzt. Abbildung 2.

Laut Ivona Cetinić, einer Ozeanografin im Ocean Ecology Lab der NASA Goddard, reagiert das Phytoplankton auf Veränderungen in seiner Umgebung. Unterschiede in den Meerestemperaturen, den Nährstoffen oder der Verfügbarkeit von Sonnenlicht können dazu führen, dass eine Art aufblüht oder verschwindet.

Aus dem Weltraum lassen sich diese Veränderungen in den Phytoplankton-Populationen als Farbunterschiede erkennen, so dass Wissenschaftler die Abundanz und Vielfalt des Phytoplanktons aus der Ferne und im globalen Maßstab untersuchen können. Und Wissenschaftler haben kürzlich festgestellt, dass der Ozean etwas grüner wird.

In einer im Jahr 2023 veröffentlichten Studie haben die Forscher Daten zur Chlorophyllkonzentration genutzt, die das Moderate Resolution Imaging Spectroradiometer (MODIS) auf dem Aqua-Satelliten der NASA über mehr als 20 Jahre gesammelt hatte, um festzustellen, nicht nur wann und wo Phytoplanktonblüten auftraten, sondern auch, wie gesund und reichlich vorhanden sie waren. Abbildung 3.

Abbildung 3. Analyse von Ozeanfarbdaten des MODIS-Instruments auf dem Aqua-Satelliten der NASA. Die Wissenschaftler stellten fest, dass Teile des Ozeans durch mehr Chlorophyll-tragendes Phytoplankton grüner geworden sind. Kredit: NASA-Erdbeobachtungsstelle

Das Ocean Color Instrument (OCI) von PACE, ein Hyperspektralsensor, wird die Meeresforschung einen Schritt weiterbringen, indem es den Forschern ermöglicht, das Phytoplankton aus der Ferne nach Arten zu unterscheiden. (In der Vergangenheit konnten die Arten nur direkt aus Wasserproben heraus bestimmt werden). Jede Gemeinschaft hat ihre eigene Farbsignatur, die ein Instrument wie OCI identifizieren kann.

Die Identifizierung von Phytoplanktonarten ist von entscheidender Bedeutung, da die verschiedenen Phytoplanktonarten sehr unterschiedliche Funktionen in aquatischen Ökosystemen haben. Sie haben nützliche Funktionen, wie die Versorgung der Nahrungskette oder die Aufnahme von Kohlendioxid aus der Atmosphäre für die Photosynthese. Einige Phytoplanktonpopulationen binden Kohlenstoff, wenn sie sterben und in die Tiefsee sinken; andere geben das Gas wieder an die Atmosphäre ab, wenn sie in der Nähe der Oberfläche zerfallen.

Einige jedoch, wie die in den schädlichen Algenblüten vorkommenden, können sich negativ auf Menschen und aquatische Ökosysteme auswirken. Das Vorhandensein schädlicher Algen kann uns auch etwas über die Qualität der Wasserquellen verraten, z. B. ob zu viele Nährstoffe aus menschlichen Aktivitäten vorhanden sind. Durch die Identifizierung dieser Gemeinschaften im Ozean können Wissenschaftler Informationen darüber gewinnen, wie und wo das Phytoplankton vom Klimawandel betroffen ist, und wie sich Veränderungen bei diesen winzigen Organismen auf andere Lebewesen und die Ökosysteme der Ozeane auswirken können.

Partikel in der Luft ernähren das Phytoplankton im Meer

Neben seiner Rolle als Gras des Meeres spielt das Phytoplankton auch eine Rolle in einem komplexen Tanz zwischen Atmosphäre und Ozean. Und PACE wird beide Partner in diesem Tanz beobachten.

Abbildung 4. Modell, das die Bewegung von Aerosolen über Land und Wasser im Aug. 2017 zeigt. Hurrikane und tropische Stürme zeichnen sich durch große Mengen an Meeressalzpartikeln aus, die von ihren wirbelnden Winden aufgefangen werden. Staub, der aus der Sahara weht, kann von Wassertröpfchen aufgefangen werden und aus der Atmosphäre abregnen. Rauch von massiven Waldbränden im pazifischen Nordwesten Nordamerikas wird über den Atlantik nach Europa getragen. Bildnachweis: Screenshot, NASA's Scientific Visualization Studio

Mit einem Blick aus dem Weltraum über den gesamten Planeten innerhalb von 2 Tagen, wird PACE sowohl mikroskopisch kleine Organismen im Ozean als auch mikroskopisch kleine Partikel in der Atmosphäre, die so genannten Aerosole, verfolgen. Wie diese beiden interagieren, wird den Wissenschaftlern zusätzliche Erkenntnisse über die Auswirkungen des sich ändernden Klimas liefern. Abbildung 4.

Wenn sich beispielsweise Aerosolpartikel aus der Atmosphäre auf dem Ozean ablagern, können sie wichtige Nährstoffe liefern, die eine Phytoplanktonblüte auslösen. Winde tragen manchmal Asche und Staub von Waldbränden und Staubstürmen über den Ozean. Wenn diese Partikel ins Wasser fallen, können sie als Dünger wirken und Nährstoffe wie Eisen liefern, die das Wachstum der Phytoplanktonpopulationen fördern. Abbildung 5.

Abbildung 5. Visualisierung, die ein Beispiel für einen Waldbrand in den Bergen der Sierra Nevada zeigt. Bildnachweis: Screenshot, NASA's Scientific Visualization Studio

Während das Farberkennungsinstrument von PACE Veränderungen im Phytoplankton erkennen wird, trägt der Satellit auch zwei als Polarimeter bezeichnete Instrumente - SPEXone und HARP2 - die Eigenschaften des Lichts (Polarisation) nutzen, um Aerosolpartikel und Wolken zu beobachten. Die Wissenschaftler werden in der Lage sein, die Größe, Zusammensetzung und Häufigkeit dieser mikroskopisch kleinen Partikel in unserer Atmosphäre zu messen.

Rauch, Schadstoffe und Staub sind auch der Ursprung der Wolken

Die neuen Daten von PACE zur Charakterisierung atmosphärischer Partikel werden es den Wissenschaftlern ermöglichen, eine der am schwierigsten zu modellierenden Komponenten des Klimawandels zu untersuchen: die Wechselwirkung zwischen Wolken und Aerosolen.

Wolken bilden sich, wenn Wasser auf Luftpartikeln wie Rauch und Asche kondensiert. Ein leicht zu erkennendes Beispiel sind Schiffsspuren, die entstehen, wenn Wasserdampf kondensiert und helle, tiefliegende Wolken auf von Schiffen ausgestoßenen Schadstoffen bildet. Abbildung 6.

Abbildung 6. Schiffsspuren über dem nördlichen Pazifik. NASA-Bild, aufgenommen am 3. Juli 2010 mit dem Satelliten Aqua. Kredit: NASA NASA

Verschiedene Arten von Aerosolen beeinflussen auch die Eigenschaften von Wolken, wie etwa ihre Helligkeit, die von der Größe und Anzahl der Wolkentröpfchen abhängt. Diese Eigenschaften können zu unterschiedlichen Auswirkungen - Erwärmung oder Abkühlung - auf der Erdoberfläche führen.

Eine helle Wolke oder eine Wolke aus Aerosolpartikeln, die tief über einem viel dunkleren Ozean schwebt, reflektiert beispielsweise mehr Licht zurück in den Weltraum, was eine lokale Abkühlung bewirkt. In anderen Fällen haben sowohl Wolken als auch Aerosole eine wärmende Wirkung, die als "Blanketing" bezeichnet wird. Dünne Wolkenfahnen hoch oben in der Atmosphäre absorbieren die Wärme von der Erdoberfläche und strahlen sie dann wieder in Richtung Boden ab.

"Aus der Klimaperspektive ist die Beziehung zwischen Aerosolen und Wolken eine der größten Unsicherheitsquellen in unserem Verständnis des Klimas", sagt Kirk Knobelspiesse, Leiter der Polarimetrie für die PACE-Mission bei der NASA Goddard. Die neuen Erkenntnisse des Satelliten über Aerosolpartikel werden den Wissenschaftlern helfen, Wissenslücken zu schließen und unser Verständnis dieser Beziehung zu vertiefen.


*Der vorliegende Artikel von Erica McNamee (NASA's Goddard Space Flight Center, Greenbelt, Md) ist unter dem Titel "NASA’s PACE To Investigate Oceans, Atmospheres in Changing Climate" am 11. Jänner 2024 auf der Website der NASA erschienen https://science.nasa.gov/earth/nasas-pace-to-investigate-oceans-atmospheres-in-changing-climate/. Der unter einer cc-by Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu übersetzt.


NASA im ScienceBlog

Redaktion, 29.06.2023: Fundamentales Kohlenstoffmolekül vom JW-Weltraumteleskop im Orion-Nebel entdeckt.

Redaktion, 22.06.2023: Gibt es Leben auf dem Saturnmond Enceladus?

Redaktion, 27.04.2023: NASA-Weltraummission erfasst Kohlendioxid-Emissionen von mehr als 100 Ländern.

Redaktion, 19.01.2023: NASA-Analyse: 2022 war das fünftwärmste Jahr seit Beginn der Aufzeichnungen.

Redaktion, 05.01.2023: NASA im Wunderland: Zauberhafte Winterlandschaften auf dem Mars.

Redaktion, 03.11.2022: NASA: neue Weltraummission kartiert weltweit "Super-Emitter" des starken Treibhausgases Methan.

Redaktion, 14.07.2022: James-Webb-Teleskop: erste atemberaubende Bilder in die Tiefe des Weltraums.

Inge Schuster, 05.09.2019: Pflanzen entfernen Luftschadstoffe in Innenräumen.


 

inge Wed, 17.01.2024 - 23:31

Katalytische Zerlegung von aus grünem Wasserstoff produziertem Ammoniak - ein Weg zum Wasserstoffspeicher

Katalytische Zerlegung von aus grünem Wasserstoff produziertem Ammoniak - ein Weg zum Wasserstoffspeicher

Do, 11.01.2024 — Roland Wengenmayr

Icon Energie

Roland Wengenmayr Katalysatoren spielen als Reaktionsbeschleuniger in Natur und Technik eine entscheidende Rolle. Lebensprozesse werden von Enzymen angekurbelt und über neunzig Prozent aller von der Chemieindustrie eingesetzten Reaktionen benötigen einen Katalysator. Dazu zählt die Ammoniaksynthese, der die Menschheit den künstlichen Stickstoffdünger verdankt. Weil Ammoniak viel Wasserstoff enthält, ist es auch als Wasserstoffspeicher für eine zukünftige Energiewirtschaft interessant. Allerdings muss es dazu auch wieder effizient in Wasserstoff und Stickstoff zerlegt werden - der Schlüssel dazu sind neue Feststoffkatalysatoren. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über die Arbeiten von Prof. Dr. Claudia Weidenthaler, die mit ihrem Team am Max-Planck-Institut für Kohlenforschung in Mülheim an effizienten, preisgünstigen Katalysatoren für die Ammoniakzerlegung forscht.*

Katalysatoren eröffnen einer chemischen Reaktion einen günstigen Pfad durch eine Energielandschaft, der sonst verschlossen wäre. Während einer Reaktion brechen zuerst chemische Bindungen in den Edukten auf, dann bilden sich neue Bindungen. Dabei entstehen die Moleküle der Produkte. Den Reaktionsweg verstellt jedoch oft ein mächtiger Energieberg. Um diesen zu bezwingen, brauchen die Moleküle Energie. Der Katalysator senkt nun diesen hemmenden Energieberg ab. Grundsätzlich gibt es zwei Arten von Katalyse: Bei der homogenen Katalyse befinden sich die reagierenden Stoffe und der Katalysator in der gleichen Phase, etwa in einer Lösung. In der heterogenen Katalyse sind beide in getrennten Phasen. Bei technischen Anwendungen fließen dabei oft Gase über festes Katalysatormaterial, zum Beispiel beim „Autokat“.

Ammoniaksynthese ..............

Einen besonderen Beitrag hat die heterogene Katalyse zur Welternährung geleistet, denn ohne sie gäbe es keine Ammoniaksynthese. Diese bindet den Stickstoff aus der Luft chemisch im Ammoniak, aus dem wiederum Stickstoffdünger produziert wird. 2020 wurden weltweit 183 Millionen Tonnen Ammoniak produziert, was zwei Prozent des globalen Energieverbrauchs der Menschheit erforderte. Da die Energie und der Wasserstoff hauptsächlich aus fossilen Quellen stammten, setzte das 450 Millionen Tonnen CO2 frei. Das entspricht etwa 1,4 Prozent der menschlichen CO2-Emissionen im Jahr 2020. Ohne Katalysator wären allerdings Energieverbrauch und Emissionen ungleich dramatischer: Allein die Produktion von einem Kilogramm Ammoniak würde dann rund 66 Millionen Joule an Energie verbrauchen, was ungefähr der Verbrennungswärme von 1,5 kg Rohöl entspricht.

Als sich Ende des 19. Jahrhunderts der Weltvorrat an natürlichem Salpeter, aus dem Stickstoffdünger produziert wurde, erschöpfte, drohte eine Hungerkatastrophe. Rettung versprach der riesige Stickstoffvorrat in der Luft, denn sie besteht zu 78 Prozent aus Stickstoffmolekülen. Allerdings verschließt die sehr stabile Dreifachbindung des Moleküls den Zugang zu den Stickstoffatomen. An der dreifach harten Nuss scheiterten alle Forschenden – bis Fritz Haber sie 1909 knackte. Er entdeckte, dass Osmium als Katalysator unter hohem Druck die Ammoniaksynthese aus Stickstoff ermöglicht. Leider ist Osmium extrem selten, doch der Chemiker Carl Bosch und sein Assistent Alwin Mittasch fanden Ersatz: Eisen in Form winziger Nanopartikel erwies sich ebenfalls als guter Katalysator. Allerdings benötigte die Reaktion einen Druck von mindestens 200 bar und Temperaturen zwischen 400 °C und 500 °C. Boschs Gruppe konstruierte dafür einen massiven Durchflussreaktor. Schon 1913 startete die industrielle Produktion nach dem Haber-Bosch-Verfahren, das bis heute im Einsatz ist. Haber erhielt 1919 den Nobelpreis für Chemie, Bosch 1931.

Die Reaktionsgleichung der kompletten Ammoniaksynthese lautet

N2 + 3 H2 → 2 NH3

Die Reaktion ist exotherm, in der Bilanz wird Wärmenergie frei: Pro Mol N2 sind es 92,2 Kilojoule, pro Mol NH3 die Hälfte, was auf ein Kilogramm Ammoniak rund 2,7 Megajoule ergibt. So viel Wärmeenergie setzt die Verbrennung von 92 Gramm Steinkohle frei. Der Eisenkatalysator im Haber-Bosch-Verfahren beschleunigt nun diese Reaktion. Aber was sich da genau auf seiner Oberfläche abspielt, konnte die Forschung lange nicht aufdecken. Man ging davon aus, dass die Anlagerung der N2-Moleküle an seiner Oberfläche die Geschwindigkeit der Reaktion bestimmt. Offen blieb aber, ob die N2-Moleküle auf der Fläche zuerst in einzelne Stickstoffatome zerfallen und dann mit dem Wasserstoff reagieren oder ob das komplette N2-Molekül reagiert.

.............und ihr Ablauf im Einkristall

Erst 1975 konnten Gerhard Ertl und sein Team zeigen, dass das N2-Molekül tatsächlich zuerst zerfällt. Der spätere Max-Planck-Direktor setzte die damals neuesten Methoden der Oberflächenforschung ein. Er untersuchte die katalytische Wirkung von perfekt glatten Eisenoberflächen im Ultrahochvakuum. Metalle wie Eisen besitzen eine kristalline Struktur, bei der die Eisenatome ein geordnetes dreidimensionales Gitter ausbilden. Ein perfekter Kristall heißt „Einkristall“. Schneidet man durch ihn hindurch, sind die Eisenatome auf diesen Flächen in einem regelmäßigen Muster angeordnet. Unter solchen Idealbedingungen sollten sich die einzelnen Schritte des Katalyseprozesses leichter entschlüsseln lassen, vermutete Ertl. Tiefer im Kristall ist jedes Atom auf allen Seiten von Nachbaratomen umgeben. An der Oberfläche dagegen liegen die Atome frei. Kommt dort ein H2-Molekül vorbei, dann können sie es deshalb an sich binden. Das passiert allerdings nur etwa einmal in einer Million Fällen. Durch diese Bindung an das Eisen geht der Energiegewinn durch die Dreifachbindung im N2-Molekül verloren. Die Stickstoffatome lösen sich aus dieser Bindung und werden frei. Dem H2-Molekül des gasförmigen Wasserstoffs ergeht es genauso, doch dessen Einfachbindung ist ohnehin recht locker. Die einzelnen Stickstoff- und Wasserstoffatome können nun untereinander chemische Bindungen eingehen (Abbildung 1). Ertls Gruppe schaffte es, den kompletten Ablauf der Ammoniaksynthese zu entschlüsseln und zu zeigen, wie man sie optimiert. Gerhard Ertl führte damit die exakten Methoden der Oberflächenforschung erstmals in die Katalyseforschung ein. Dafür bekam der frühere Direktor am Berliner Fritz- Haber- Institut der Max -Planck- Gesellschaft 2007 den Nobelpreis für Chemie.

 

Abbildung 1: Schritte der Ammoniaksynthese. Die rot gestrichelte Energiekurve zeigt die Reaktion ohne, die durchgezogene grüne mit Katalysator: Die N2– und H2– Moleküle liegen frei vor (1). Das N2-Molekül haftet sich an die Eisenoberfläche (2). Die dort adsorbierten N2– und H2– Moleküle zerfallen zu N- und H- Atomen (3). Es entstehen NH (4), NH2 (5) und NH3 (6). Das fertige Ammoniakmolekül hat sich von der Eisenoberfläche gelöst (7). Die grün und rot gestrichelten Energiekurven enden rechts auf einem tieferen Energieniveau – bei der Reaktion wird Energie frei. © Grafik: R. Wengenmayr nach G. Ertl / CC BY-NC-SA 4.0

Ammoniak – ein guter Wasserstoffspeicher?

Für eine Zukunft ohne fossile Brennstoffe gilt Wasserstoff als wichtiger Energieträger. Zum Beispiel könnten große Solarkraftwerke in sonnenreichen Ländern regenerativen Strom produzieren und in Elektrolyseanlagen Wasser zu Wasserstoff und Sauerstoff zerlegen. Der grüne Wasserstoff würde dann zum Beispiel in Tankschiffen nach Europa verfrachtet werden, wo er in Industrieprozessen oder für die Energieerzeugung, etwa in Brennstoffzellen, verbraucht würde. Allerdings müsste der Wasserstoff dazu entweder gasförmig unter hohem Druck von 200 bar oder verflüssigt unterhalb von -252 °C in Tanks transportiert werden, was teuer und energetisch ineffizient ist.

Im Vergleich dazu bietet Ammoniak als Wasserstoffspeicher einige Vorteile. Der erste Vorteil ist seine hohe Energiedichte von 3,2 Kilowattstunden pro Liter, pro Kilogramm sogar 5,2 Kilowattstunden – zum Vergleich: bei Benzin sind es 9,7 beziehungsweise 12,7 Kilowattstunden. Zweitens wird Ammoniak bei 20 °C schon bei 8,6 bar Druck flüssig, grob dem doppelten Druck eines Fahrradreifens. Damit ist es gut in Tanks transportierbar. Ammoniak könnte die Tankschiffe selbst emissionsfrei antreiben. Die „Viking Energy“ ist das erste Schiff mit einer Hochtemperatur-Brennstoffzelle, die aus Ammoniak elektrischen Strom für den Schiffsantrieb gewinnt.

Allerdings kann Ammoniak nur ein effizienter Wasserstoffspeicher sein, wenn das chemische Binden und Rückgewinnen des Wasserstoffs möglichst wenig Energie verbraucht. Hier kommt die Forschung von Claudia Weidenthaler ins Spiel. Die Professorin erzählt, dass nach besseren Katalysatoren und alternativen industriellen Prozessen gesucht wird, die das traditionelle Haber-Bosch-Verfahren in der Effizienz schlagen können. Ihr Team sucht hingegen Metallkatalysatoren, die Ammoniak in einem „Cracker“-Reaktor möglichst effizient wieder zerlegen. Mit ihren Methoden steht sie in der Tradition des Pioniers Gerhard Ertl. Sie erforscht systematisch verschiedene Metalle, die sich theoretisch gut als Katalysatoren eignen. Und sie räumt auch gleich mit der Vorstellung auf, dass Katalysatoren sich während der Reaktion nicht verändern. Das Gegenteil ist der Fall. Umso wichtiger wäre es, die Vorgänge an ihrer Oberfläche und darunter, im Trägermaterial, bis auf die Ebene einzelner Atome direkt „filmen“ zu können.

Die Katalyse im Blick

Abbildung 2. Ein Röntgen-Pulverdiffraktometer. (© David Bonsen/MPI für Kohlenforschung)

Leider gibt es kein konventionelles Mikroskop, mit dem man einfach bis in die Welt der Atome zoomen und direkt im chemischen Reaktor Videos aufzeichnen kann. Also muss das Team verschiedene Methoden kombinieren, die eines gemeinsam haben: Sie verwenden Wellenlängen, die viel kürzer als die von sichtbarem Licht sind. Röntgenlicht und fliegende Elektronen in Elektronenmikroskopen sind kurzwellig genug, um auch Details bis teilweise hinunter in den Zehntelnanometerbereich erfassen zu können. Herkömmliche Elektronenmikroskope können sehr gut die Strukturen von Oberflächen abbilden, haben aber den Nachteil, dass sie Vakuum benötigen. Damit lassen sich also mit gewöhnlichen Geräten nur Bilder von Katalysatoroberflächen vor und nach der Reaktion aufnehmen. Für die Beobachtung der laufenden katalytischen Reaktion nutzt das Mülheimer Team daher verschiedene Röntgenmethoden. Mit Hilfe eines Röntgen-Pulverdiffraktometers (Abbildung 2) kann das Team das Innere der winzigen Kristalle durchleuchten.

Die Methode ähnelt dem Physikexperiment, in dem Lichtwellen an einem feinen Gitter gebeugt werden. Das dahinter aufgenommene Beugungsbild enthält die genaue Information über die Beschaffenheit des Gitters. Auch die Metallatome im Kristall bilden ein räumliches Gitter mit Abständen im Bereich von Zehntelnanometern. Passt die Wellenlänge des Röntgenlichts, so liefert das Beugungsbild eine genaue Information über den Aufbau des Kristalls – und dessen Veränderungen während der katalysierten Reaktion.

Alternativen zum teuren Edelmetall

Die Reaktionsgleichung beim „Cracken“ von Ammoniak lautet

2 NH3 → N2 + 3 H2

Diese Reaktion benötigt Energie, sie ist endotherm. Pro Mol NH3 sind das die schon bei der Synthese erwähnten 46,1 Kilojoule. Nun hat sich Eisen als relativ guter Katalysator beim Haber-Bosch-Verfahren etabliert. Doch ist es auch ein guter Katalysator für das Cracken? Eigentlich läge das nahe, ein Video kann ja auch einfach rückwärts ablaufen. Doch die Antwort lautet: nein. Für die Ammoniaksynthese und -zerlegung gilt, dass ein guter Katalysator für die eine Reaktionsrichtung nicht automatisch auch für die umgekehrte Richtung funktioniert.

Abbildung 3. Ammoniakzerlegung. Test von vier verschiedenen Proben des Katalysator-Trägermaterials, die entweder bei 550 oder 700 °C hergestellt wurden. Zwei Proben enthielten 4, zwei 8 Gewichtsprozent Cobalt. Untersucht wurde die Zerlegung von NH3 bei Temperaturen von 350 bis 650 °C. Das Katalysator-Trägermaterial, das bei 550 °C hergestellt wurde, ist effektiver, da bei niedrigeren Herstellungstemperaturen weniger Cobalt mit dem Al2O3 im Träger reagiert und als Katalysator inaktiviert wird. Ein höherer Anteil von Cobalt in der Probe wirkt sich positiv auf die NH3-Zerlegung aus, weil mehr Cobalt für die Katalyse zur Verfügung steht. © C. Weidenthaler; verändert nach ChemCatChem, 14/20, 2022, DOI: (10.1002/cctc.202200688) / CC BY 4.0

Der beste metallische Katalysator für das Zerlegen von NH3 ist nach heutigem Kenntnisstand Ruthenium. Da dieses Edelmetall aber selten und teuer ist, sucht Weidenthalers Team nach günstigeren Alternativen. Vor allem sollen sich die neuen Katalysatoren später auch für die Reaktoren in der Industrie eignen. Dabei ist das Zusammenspiel zwischen dem Katalysator und dem Trägermaterial, auf dem er aufgebracht ist, wichtig. Auch das untersucht das Team. Ein Beispiel ist die jüngste Arbeit mit Cobalt als Katalysator auf einem Träger aus Aluminiumoxid-Nanokristallen. Cobalt ist ein vielversprechender Kandidat für die Ammoniakzerlegung. Und Aluminiumoxid versprach ein gutes Trägermaterial: Bei hohen Temperaturen von mehreren hundert Grad verhindert es, dass die feinen Cobaltpartikel auf der Trägeroberfläche „zusammenbacken“. Sintern heißt dieser unerwünschte Effekt, der die gesamte Cobaltoberfläche verkleinern würde, die für die Katalyse noch zur Verfügung stünde.

Das Mühlheimer Team stellte zunächst verschiedene Proben des Katalysator-Trägermaterials mit unterschiedlichen Cobaltanteilen bei Temperaturen von 550 °C und 700 °C her. Diese Proben testete das Team in einem Reaktor, durch den Ammoniakgas floss. Es konnte zeigen, dass sich eine niedrige Herstellungstemperatur und ein hoher Cobaltanteil positiv auf die Ammoniakzerlegung auswirken (Abbildung 3).

Die getesteten Proben sind jedoch für die industrielle Anwendung noch nicht geeignet, da erst bei Temperaturen ab ca. 600 °C eine vollständige Zerlegung des Ammoniaks erreicht wird. Diese hohen Temperaturen benötigen für Industrieprozesse zu viel Energie. Bei niedrigeren Temperaturen wäre der entstehende Wasserstoff noch mit Ammoniak verunreinigt und würde beispielweise Probleme beim Einsatz in Brennstoffzellen verursachen.

Die Forschenden untersuchten auch die Vorgänge bei der Herstellung des Katalysator-Trägermaterials: Auf der Oberfläche des Trägers bilden sich Nanopartikel von elementarem Cobalt, das katalytisch wirksam ist. Ein Teil des Cobalts wandert in das Trägermaterial, bildet mit dem Aluminiumoxid einen Mischkristall und wird dadurch inaktiviert (Abbildung 4).

Abbildung 4: Strukturen im Cobalt-Aluminiumoxid-Träger. Das Trägermaterial besteht aus γ-Aluminiumoxid (links; Sauerstoff: kleine, dunkelrote Kugeln ; Aluminium: große, rosafarbene Kugeln). Auf der Oberfläche des Trägers bildet sich beim Herstellungsprozess elementares Cobalt. Dieses katalysiert die Ammoniakzerlegung. Ein Teil des Cobalts wandert in den Träger und bildet einen Mischkristall (rechts). Das Cobalt ist in dieser Form (blau: CoO4) nicht mehr katalytisch wirksam. © C. Weidenthaler, MPI für Kohlenforschung / CC BY-NC-SA 4.0

Für die industrielle Anwendung ist es auch wichtig zu untersuchen, was passiert, wenn der „Cracker“-Reaktor abgeschaltet wird und das Katalysator-Trägermaterial abkühlt. Dem Team gelang es nicht mehr, Cobalt auf der Oberfläche des Trägermaterials nachzuweisen. Claudia Weidenthaler erklärt: „Wir vermuten, dass die Cobalt-Nanopartikel beim Abkühlen in noch kleinere Partikel zerfallen und deshalb mit der Röntgendiffraktometrie nicht mehr nachweisbar sind. Deshalb setzen wir nun Röntgenspektroskopie-Methoden ein, die eine atomare Auflösung erlauben.“ Damit kommt Claudia Weidenthalers Team dem „Filmen“ von Katalysevorgängen schon sehr nahe.

Optimierte Katalysatoren

Weitere offene Fragen sind: 

- Wohin wandert das Cobalt und in welcher Form liegt es vor?

- Verändert sich das Katalysator-Trägermaterial, wenn es mehrfach erhitzt wird und wieder abkühlt?

Die Suche nach einer geeigneten Kombination geht in Mülheim also weiter. Eine grundsätzliche Herausforderung ist dabei, dass der Katalysator mit dem Trägermaterial keine stabilen Bindungen eingehen darf, die ihn deaktivieren. Die andere Herausforderung: Der Katalysator darf mit den Produkten und Edukten keine Wechselwirkungen eingehen, die die Reaktion behindern.

Findet die Forschung hier gute, energieeffiziente Lösungen, wäre das ein großer Schritt zum Einsatz von Ammoniak als Wasserstoffspeicher.


*Der Artikel ist erstmals unter dem Titel: " Auf dem Weg zum Wasserstoffspeicher - Katalysatoren für die Ammoniakzerlegung"  https://www.max-wissen.de/max-hefte/techmax-10-ammoniakzerlegung-wasserstoffspeicher/   in TECH-Max 10 im Herbst 2023 erschienen und wurde mit Ausnahme von Titel und Abstract und leichten Kürzungen unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz


Ammoniak - Energieträger und Wasserstoffvektor

Max-Planck-Gesellschaft: Mit Ammoniak zu grünem Stahl (24.04.2023). https://www.mpg.de/20212313/gruener-stahl-klimaneutral-ammoniak

Max-Planck-Gesellschaft: Grüner Stahl: Ammoniak könnte die Eisenproduktion klimafreundlich machen (2023). Video 2:10 min.https://www.youtube.com/watch?v=a_yUKX8zQfI&t=128s

Das Campfire Bündnis (BMBF): Wind und Wasser zu Ammoniak. https://wir-campfire.de/

EnergieZukunft (eu): Ammoniak in der Energiewirtschaft - Wasserstoff transportieren (14.11.2023). https://www.energiezukunft.eu/wirtschaft/wasserstoff-transportieren/

Frauenhofer ISE: Ammoniak als Wasserstoff-Vektor: Neue integrierte Reaktortechnologie für die Energiewende (21.9.2022). https://www.ise.fraunhofer.de/de/presse-und-medien/news/2022/ammoniak-als-wasserstoff-vektor-neue-integrierte-reaktortechnologie-fuer-die-energiewende.html

Deutsches Umweltbundesamt :Kurzeinschätzung von Ammoniak als Energieträger und Transportmedium für Wasserstoff - Stärken, Schwächen, Chancen und Risiken (15.02.2023). https://www.umweltbundesamt.de/dokument/kurzeinschaetzung-von-ammoniak-als-energietraeger  

Armin Scheuermann:Flüssiger Wasserstoff, Ammoniak oder LOHC – was spricht für welchen H2-Träger? (28.12.2022). https://www.chemietechnik.de/energie-utilities/wasserstoff/fluessiger-wasserstoff-ammoniak-oder-lohc-was-spricht-fuer-welchen-h2-traeger-381.html


 

inge Thu, 11.01.2024 - 17:52

Wird die künstliche Intelligenz helfen können, schwere Erdbeben vorherzusagen?

Wird die künstliche Intelligenz helfen können, schwere Erdbeben vorherzusagen?

Do, 04.01.2024 — Redaktion

Redaktion

Icon Geowissenschaften

Das Beben der Stärke 7,5 in Japan unterstreicht die Notwendigkeit von Erdbebenvorhersagen - eine Wissenschaft, die ihren "unseriösen" Ruf ablegt und sich der Realität annähert. Ein neuer Ansatz, Erdbeben mit Hilfe künstlicher Intelligenz vorherzusagen, hat Hoffnungen geweckt, dass die Technologie eines Tages eingesetzt werden könnte, um die Auswirkungen von Erdbeben auf Leben und Wirtschaft zu begrenzen. Der von Forschern der University of Texas in Austin entwickelte KI-Algorithmus hat während eines siebenmonatigen Versuchs in China 70 % der Erdbeben eine Woche vor ihrem Auftreten korrekt vorhergesagt.*

In Japan begann das neue Jahr mit einer Katastrophe: Am Montag, dem 1. Jänner erschütterte ein Erdbeben der Stärke 7,5 die Halbinsel Noto im Westen des Landes. Dutzende weiterer Nachbeben, viele mit einer Stärke zwischen vier und sechs, erschütterten in den folgenden Stunden die Umgebung des Epizentrums an der Küste, und Wissenschaftler warnen, dass in den kommenden Tagen noch weitere Beben erwartet werden. Die Japan Meteorologic Agency gab für weite Teile der Präfektur Ishikawa, in der sich das Beben ereignete, eine Tsunami-Warnung heraus, hat diese aber inzwischen auf eine Empfehlung reduziert. Bis Dienstagnachmittag wurde bestätigt, dass mindestens 55 Menschen ums Leben gekommen sind.

Japan ist mit mehr als 2 000 aktiven Verwerfungslinien eines der erdbebengefährdetsten Länder der Welt und hat eine lange Reihe tragischer Erdbeben hinter sich. Daher hat Japan, wie viele andere gefährdete Länder, in den letzten Jahrzehnten massiv in katastrophensichere Gebäude und Erdbebenwarnsysteme investiert.

Vorhersage des Zeitpunkts eines Bebens.....

Im Mittelpunkt der Erdbebenvorsorge steht jedoch der wohl umstrittenste Forschungsbereich: die Vorhersage des Zeitpunkts eines Bebens. Viele Wissenschaftler haben die Vorhersage von Erdbeben lange Zeit für unmöglich gehalten - oder sie sind ihr bestenfalls mit äußerst verhaltenem Optimismus näher gekommen. Abbildung 1.

Abbildung 1.Die Market Street in San Francisco nach dem katastrophalen Erdbeben - Friscobeben - im Jahr 1906. Mehr als 3000 Menschen starben. (Foto: gemeinfrei)

Noch im Jahr 2013 "galt das Thema Erdbebenvorhersage als unseriös und lag so außerhalb des Bereichs der Mainstream-Forschung wie die Jagd nach dem Ungeheuer von Loch Ness", schreibt die Seismologin Allie Hutchison im Fachjournal MIT Technology Review [1]. Und der U.S. Geological Survey (USGS) behauptet, dass "weder der USGS noch andere Wissenschaftler jemals ein großes Erdbeben vorhergesagt haben" [ 2] .

Angesichts der jüngsten Fortschritte im Bereich der künstlichen Intelligenz haben jedoch einige Forscher untersucht, ob sich dies ändern könnte. "Ich kann nicht sagen, dass wir das ändern werden, aber ich bin viel zuversichtlicher geworden, dass wir in den nächsten Jahrzehnten große Fortschritte machen werden. Ich habe jetzt mehr Hoffnung als je zuvor.", hat Paul Johnson im Jahr 2019 dem Smithsonian Magazine berichtet; Johnson ist ein Seismologe, der am Los Alamos National Laboratory mit maschinellem Lernen arbeitet [3].

.....erste Vorhersagen mit Hilfe von KI

Im vergangenen Herbst haben Forscher der University of Texas in Austin solchen Hoffnungen für die Erdbebenvorhersage mit einem siebenmonatigen Versuch in China neue Nahrung gegeben. In ihrer Studie, die im September im Bulletin of the Seismological Society of America veröffentlicht wurde, hat ein KI-Algorithmus 70 Prozent der Erdbeben eine Woche vor ihrem Auftreten korrekt voraus gesagt [4 ]. Das Team hat die künstliche Intelligenz anhand von seismischen Aufzeichnungen aus fünf Jahren (2016 - 2020; Anm. Redn.) trainiert und dann von ihr verlangt, bevorstehende Beben anhand der aktuellen seismischen Aktivität zu lokalisieren.

Insgesamt konnte der Algorithmus 14 Erdbeben vorhersagen, die jeweils weniger als 200 Meilen von ihrem tatsächlichen Epizentrum entfernt waren. Ein Beben wurde hingegen übersehen und acht vorhergesagt, die aber nicht stattfanden. Abbildung 2.

Abbildung 2. Die Karte zeigt die Lage der von der KI vorhergesagten Erdbeben in China (blaue Punkte), die durch eine rote Linie mit dem Ort verbunden sind, an dem das jeweilige Erdbeben tatsächlich stattfand (rote Punkte). Die Zahlen geben die Woche an, in der das Erdbeben stattfand. Während des 30-wöchigen Versuchs verpasste die von der UT Austin entwickelte KI nur ein Erdbeben. (Bild © Yangkang Chen / Jackson School of Geosciences)

Die Studie war Teil eines internationalen KI-Wettbewerbs, einer der wenigen Veranstaltungen dieser Art, die in den letzten Jahren durchgeführt wurden, um Technologien zur Erdbebenvorhersage voranzubringen [5].

"Die Vorhersage von Erdbeben ist der heilige Gral", sagt Sergey Fomel, Geowissenschaftler an der UT Austin und Mitglied des Forschungsteams, in einer Erklärung. "Wir sind noch nicht so weit, dass wir Vorhersagen für die ganze Welt machen können, aber das, was wir erreicht haben, zeigt uns, dass das, was wir für ein unmögliches Problem hielten, im Prinzip lösbar ist."

Möglichkeiten der KI

"Darüber hinaus könnte maschinelles Lernen Seismologen dabei helfen, verborgene Muster in Daten zu erkennen oder mehr Daten zu sammeln, um die Erdbebenvorhersage zu verbessern", schreibt Hutchison im MIT Technology Review. Einige Forscher zeigen zum Beispiel, wie die KI Aufzeichnungen von einem bestimmten seismischen Ort nutzen könnte, um die Stärke eines Erdbebens vorherzusagen. Ein Team hat neuronale Netzwerke entwickelt und trainiert, um vorherzusagen, wo nach einem Erstbeben Nachbeben auftreten könnten. Andere setzen maschinelles Lernen ein, um seismische Wellen - die Vibrationen, die sich bei tektonischen Aktivitäten durch die Erde ausbreiten - zu erkennen und aus einer verrauschten Aufzeichnung anderer Erschütterungen im Boden zu extrahieren.

Laut der Focus Group on A.I. for Natural Disaster Management der Weltorganisation für Meteorologie machen Erdbeben 21,8 Prozent aller Naturkatastrophen aus, bei denen zwischen 2018 und 2021 KI-Modelle zur Risikominderung eingesetzt wurden. Die zunehmende Forschung im Bereich der Erdbebenvorhersage weckt die Hoffnung der Wissenschaftler, dass weitere Durchbrüche möglich sind.

"Es gibt in unserer Gemeinschaft eine große Skepsis, und das aus gutem Grund", sagt Johnson gegenüber MIT Technology Review. "Aber ich denke, dass uns dies erlaubt, Daten zu sehen, zu analysieren und zu erkennen, was diese Daten enthalten, in einer Weise wie wir uns es nie hätten vorstellen können."


 [1] Allie Hutchison: How machine learning might unlock earthquake prediction. https://www.technologyreview.com/2023/12/29/1084699/machine-learning-earthquake-prediction-ai-artificial-intelligence/

[ 2 ] USGS: Can you predict earthquakes? https://www.usgs.gov/faqs/can-you-predict-earthquakes

[3] M.Berger: Could Machine Learning Be the Key to Earthquake Prediction? https://www.smithsonianmag.com/science-nature/could-machine-learning-be-key-earthquake-prediction-180972015/)

[4] O.M. Saad et al., Earthquake Forecasting Using Big Data and Artificial Intelligence: A 30‐Week Real‐Time Case Study in China. Bulletin of the Seismological Society of America (2023) 113 (6): 2461–2478. https://doi.org/10.1785/0120230031

[5] AETA Earthquake Prediction AI Algorithm Competition 2021. https://competition.aeta.io/


 *Der vorliegende Artikel von Christian Thorsberg ist unter dem Titel "Could A.I. Help Seismologists Predict Major Earthquakes?

https://www.smithsonianmag.com/smart-news/ai-help-seismologists-predict-major-earthquakes-180983519/ am 2. Jänner 2024 im Smithsonian Magazin erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt.

Smithsonian Institution (Smithsonian, https://www.si.edu/) ist eine bedeutende US-amerikanische Forschungs- und Bildungseinrichtung, die auch zahlreiche Museen, Galerien und den Nationalzoo betreibt. Das Smithsonian stellt seine komplette Sammlung nach und nach in elektronischer Form (2D und teilweise 3D) unter der freien CC-0-Lizenz kostenlos zur Weiterverbreitung zur Verfügung. Das Smithsonian Magazine (aus dem der obige Artikel stammt) bringt eine Fülle faszinierender, leicht verständlicher Artikelaus allen Bereichen der Natur und der Gesellschaften. https://www.smithsonianmag.com/?utm_source=siedu&utm_medium=referral&utm_campaign=home.


Anmerkungen der Redaktion:

  • Die Meinung der NASA zur Erbebenvorhersage

     "Daher möchte natürlich jeder wissen, ob Wissenschaftler Erdbeben vorhersagen können. Die kurze Antwort lautet nein. Aktuelle Smartphone-Apps können nur wenige Sekunden vor einem bestimmten Gebiet warnen, und Wissenschaftler können die Wahrscheinlichkeit abschätzen, dass eine Verwerfung irgendwann in den nächsten Jahrzehnten ausbricht, aber niemand kann genau vorhersagen, wann ein Erdbeben stattfinden wird":

      NASA Understanding Earthquakes: https://www.jpl.nasa.gov/topics/-earthquakes

  • EU-Project (2021 - 2026):

     Das EU-finanzierte Projekt EARLI wird KI einsetzen, um schwache, frühe seismische Signale zu erkennen und so die Frühwarnung voranzubringen sowie Möglichkeiten der Erdbebenprognose zu erforschen:

    Detection of Early seismic signal using ARtificiaL Intelligence: https://cordis.europa.eu/project/id/949221/de

  • Eine neue Technologie

    Am Center for High Energy Geophysics Research des Earthquake Research Institute (University of Tokyo) wird die Vulkanmyografie eingesetzt, ein neuer Ansatz für die Erforschung von Vulkanologie und Naturkatastrophen. Es ist eine Visualisierungstechnik, die sich der Myonen bedient, Elementarteilchen mit einer hohen Durchschlagskraft, die sogar Gestein von mehreren Kilometern Dicke durchdringen und die Dichteverteilung im Inneren massiver Strukturen - beispielsweise die Dynamik der Magma-Konvektion - aufzeigen können.

    Blick ins Innere der Erde mit Hilfe von Elementarteilchen: https://www.u-tokyo.ac.jp/focus/en/features/f_00059.html


 

inge Thu, 04.01.2024 - 01:18

2023

2023 inge Thu, 05.01.2023 - 16:31

Hämoglobin trägt zur Barrierefunktion unserer Haut bei

Hämoglobin trägt zur Barrierefunktion unserer Haut bei

Fr.29.12.2023  — Inge Schuster

Inge Schuster Icon Medizin

Hämoglobin, der in den Erythrozyten zirkulierende Transporter von Sauerstoff, wird offensichtlich auch in anderen Zelltypen produziert. Eine neue Untersuchung zeigt erstmals, dass Hämoglobin in den obersten Schichten der Epidermis und auch in den Haarfollikeln gebildet wird. Es wird als Antwort auf oxidativen Stress - wie er beispielweise durch UV-Bestrahlung entsteht - in den Keratinozyten hochreguliert und kann dort die Generierung von reaktiven Sauerstoff-Spezies hemmen und die Zellen vor deren Folgen schützen. Die Expression von Hämoglobin ist somit eine neue Facette in der Barrierefunktion der Epidermis.

Mit Hämoglobin verbindet wohl jeder sofort den Blutfarbstoff in den roten Blutkörperchen, den Erythrozyten, der den in der Lunge eingeatmeten Sauerstoff (O2) über den Blutkreislauf zu den Zellen unserer Gewebe und Organe transportiert. Die ununterbrochene Versorgung mit Sauerstoff ist unabdingbar, um die zur Instandhaltung und zum Funktionieren unserer Körperzellen nötige Energie in den Mitochondrien (über Zellatmung und oxydative Phosphorylierung) zu erzeugen; Sauerstoff ist aber auch unentbehrlich, um die zahllosen Oxydationsvorgänge im Stoffwechsel - zu Synthese und Metabolismus von körpereigenen Substanzen und zum Abbau von Fremdstoffen - zu ermöglichen. Für den Sauerstofftransport steht dabei eine sehr hohe Kapazität zur Verfügung: Erythrozyten bestehen zu etwa 90 % (ihres Trockengewichts) aus Hämoglobin und machen bis zu 50 % des Blutvolumens aus; das entspricht 120 bis 180 Gramm Hämoglobin pro Liter (von insgesamt 5 Liter) Blut, wobei ein Gramm Hämoglobin 1,34 ml Sauerstoff binden kann, und ein Erwachsener bei körperlicher Ruhe rund 280 ml Sauerstoff pro Minute einatmet. Im Gegenzug zur Abgabe von Sauerstoff bindet Hämoglobin einen Teil (rund 23 %) des bei der Zellatmung freiwerdenden CO2, das dann über das Blut in die Lunge transportiert und dort abgeatmet wird.

Zur Charakterisierung von Hämoglobin

Seine lebensnotwendige Rolle und hohe Verfügbarkeit haben Hämoglobin zu einem der meistuntersuchten Proteine der letzten 150 Jahre gemacht. Dazu gehört auch, dass die ersten Röntgenkristall-Analysen von 3D-Proteinstrukturen an Hämoglobin (durch Max Perutz) und dem strukturverwandten, einfacher aufgebauten Myoglobin - dem Sauerstoff-Speicher in der Muskulatur - (durch John Kendrew) stattfanden und 1962 mit dem Nobelpreis ausgezeichnet wurden.

Abbildung 1. Hämoglobin A (adulte Form - HbA) als Sauerstofftransporter. Das Bändermodell zeigt ein Tetramer aus je 2 αund 2 β Untereinheiten (Rot- und Blautöne), in die jeweils eine Hämgruppe - ein Protoporphyrin (grün) mit zentralem Eisenatom (rot) - über einen Histidinrest des Globins gebunden vorliegt. Sauerstoff bindet reversibel in der O2-Form an die 6. Koordinationsstelle des Hämeisens. (Bild: Fermi, G., Perutz, M.F. https://www.rcsb.org/structure/3hhb Lizenz: cc-by-sa)

Demnach ist Hämoglobin aus 4 Untereinheiten aufgebaut; beim erwachsenen Menschen sind das jeweils 2 Hb α und 2 Hb β Globine. Jede dieser Untereinheiten besteht aus 142 bis 146 Aminosäuren langen Peptidketten, die jeweils 8 Helices bilden mit einer Tasche, in der das Häm - ein Porphyrin-Molekül mit einem Eisen Fe2+ als Zentralatom - eingebettet ist. Abbildung 1.

An Hämoglobin wurde in den 1960er-Jahren auch erstmals das Phänomen einer kooperativen Bindung entdeckt; im konkreten Fall: Wenn Sauerstoff als O2-Molekül an das Hämeisen einer Untereinheit bindet, induziert es darin eine Konformationsänderung, die sich auf die anderen 3 Untereinheiten überträgt und dort eine erleichterte Bindung der anderen 3 Sauerstoffmolküle zur Folge hat.

Hämoglobin kann auch andere chemische Gruppen binden und transportieren: Direkt an das Hämeisen binden beispielsweise Kohlenmonoxid (CO), Cyanid (CN-) oder Sulfid (S2-), hemmen dadurch die Bindung von Sauerstoff mit schwerwiegenden Folgen. An Aminogruppen der Globine binden Moleküle wie CO2 und das Signalmolekül Stickstoffmonoxid (NO), ein gefäßerweiterndes Gas.

Hämoglobin fungiert nicht nur als Transporter

Es generiert auch reaktive Sauerstoffspezies. Bei der Bindung von Sauerstoff kommt es häufig zur Autooxidation von Hämoglobin: dabei wird das Hämeisen Fe2+ zu Fe3+ oxidiert (Methämoglobin) und gleichzeitig Sauerstoff zum Superoxid-Radikal reduziert, aus dem dann das Hydroperoxid-Radikal und in weiterer Folge Wasserstoffperoxid entstehen. Abbildung 2.

Abbildung 2. Die Bindung von Sauerstoff an das Hämeisen führt häufig zur Generierung von reaktiven Sauerstoffspezies (ROS). Vereinfachte Darstellung.

Die reaktiven Sauerstoffspezies reagieren (nicht nur) mit Hämoglobin und lösen eine Kaskade oxidativer Reaktionen aus, die zum Abbau des Häms, Freisetzung des Hämeisens (das freie Radikalreaktionen katalysiert), irreversiblen Vernetzungen der Globinketten und schlussendlich zum Abbau von Hämoglobin führen. Diese Reaktionen treten auch auf, wenn Hämoglobin oder Erythrocyten mit exogenem Wasserstoffperoxid reagieren, wie er bei anderen metabolischen Vorgängen (beispielsweise in den Mitochondrien) produziert wird und sogar, wenn Erythrozyten gelagert werden. Allerdings - solange Hämoglobin eingeschlossen in den Erythrozyten zirkuliert, schützt ein äußerst wirksames antioxidatives Abwehrsystem aus diversen Enzymen und endogenen niedermolekularen Substanzen wie Glutathion, Vitamin C, Coenzym Q10, etc. vor den kontinuierlich entstehenden reaktiven Sauerstoffspezies. Übersteigt die ROS-Produktion die Kapazität des Abwehrsystems, kommt es zu einer Beeinträchtigung der Sauerstoffzufuhr, Schädigung der Erythrozytenmembran verbunden mit dem Austritt von (geschädigtem) Hämoglobin und anderen Biomolekülen sowie ROS, die Entzündungsprozesse auslösen können.

Die Reaktion von Hämoglobin mit H2O2, die zur Zerstörung des Proteins führt, bedeutet gleichzeitig ein hochwirksame Neutralisierung von ROS und Schutz vor deren schädlichen Auswirkungen.

Hämoglobin wird auch außerhalb der Erythrozyten produziert.....

Dass Hämoglobin außerhalb der im Blutkreislauf zirkulierenden Erythrozyten eine Rolle spielt, war lange unbekannt. Erst in den letzten beiden Jahrzehnten zeigen mehr und mehr Untersuchungen, dass Hämoglobin in vielen, nicht den Erythrozyten oder ihren Vorläuferzellen angehörenden Zelltypen exprimiert wird [1]. Detektiert wurde Hämoglobin oder seine Untereinheiten Hb α und Hb β u.a. in Makrophagen, in Epithelzellen der Alveolen in der Lunge, im Pigmentepithel der Retina, in den Mesangialzellen der Niere, in Leberzellen, in Neuronen und Gliazellen, in der Schleimhaut der Gebärmutter und des Gebärmutterhalses, in den Chondrozyten des Knorpelgewebes und nun kürzlich in den Keratinozyten der obersten Hautschichten der Epidermis [2].

Die Funktion, die Hämoglobin in den einzelnen Zelltypen ausüben dürfte, reicht von Speicherung und Abgabe von Sauerstoff in spärlich durchbluteten Geweben (z.B. durch Hämoglobinkondensate in den Chondrozyten der Knorpelsubstanz [3]) über die Inaktivierung von reaktiven Sauerstoffmolekülen (H2O2, Hydroxyl-Radikal, Superoxid-Anion) bei oxidativem Stress (z.B: in Hepatozyten [1]) und von Stickoxiden (z.B. in der Lunge [4]) bis hin zu antibiotischen und antiviralen Eigenschaften von Peptiden, die durch Proteasen vom Hämoglobin abgespalten werden [5]. Je nach Zellstatus kann das Ausmaß der Hämoglobin-Expression variieren und bei erhöhtem Sauerstoffbedarf oder als Antwort auf oxidativen Stress/Entzündung hochreguliert werden.

... in Keratinozyten trägt es zur epidermalen Barriere gegen Umweltbelastungen bei....

Unsere Haut bildet eine hochwirksame Barriere gegen Umweltbelastungen - von Trockenheit, hoher Sauerstoffbelastung über Fremdstoffe, Mikroorganismen bis hin zur UV-Bestrahlung. Anpassung an diese Gegebenheiten haben im Laufe der Evolution die ausgeprägte mehrschichtige Struktur der obersten Hautschichte, der Epidermis geschaffen. Dieses hauptsächlich aus Keratinozyten bestehende Epithel, das bei uns Menschen unglaublich - im Mittel nur rund 0,1 mm - dünn ist [6], ist die eigentliche Barriere - die epidermale Barriere - gegen die Außenwelt. Die tiefste einzellige Schicht, das Stratum basale, besteht aus Keratinozyten, die sich aus Stammzellen heraus kontinuierlich und rasch teilen. Dadurch werden Zellen laufend nach außen in obere Schichten gedrängt, wobei sie aufhören sich zu teilen und einen Differenzierungsprozess durchlaufen, der sie innerhalb von rund einem Monat von Zellen des Stratum spinosum über Zellen des Stratum granulosum schließlich zu abgestorbenen verhornten Zellen im Stratum corneum umwandelt, die als Schuppen abgeschiefert werden (siehe dazu Abbildung 3 und auch [7]). Seit mehr als 50 Jahren wird über das Differenzierungsprogramm, die darin vom Stratum basale weg bis hin zur Verhornung involvierten Gene und die sich daraus entwickelnden Barrierefunktionen der epidermalen Schichten geforscht - viele Gene sind jedoch noch nicht entdeckt, weil es schwierig war terminal differenzierte Keratinozyten in ausreichender Menge für die Transkriptomanalyse zu erhalten.

Ein japanisches Team um Masayuki Amagai (RIKEN Center for Integrative Medical Sciences, Yokohama) hat kürzlich über eine umfassende Untersuchung der Gene, die in den zunehmend differenzierten Schichten der oberen Epidermis exprimiert werden, berichtet [2]. Die Forscher haben dabei eine vergleichende Analyse der transkribierten Gene in der gesamten Epidermis und in ihren abgetrennten oberen Schichten aus Hautproben von Menschen und Mäusen durchgeführt. Ein unerwartetes Ergebnis war die Expression des Hämoglobin A Gens in der Epidermis, das in der oberen Epidermis im Vergleich zur gesamten Epidermis angereichert war. Mit immunhistochemischen Methoden wurde auch eine hohe, vom Stratum spinosum zum Stratum granulosum zunehmende Konzentration des Hämoglobin Proteins (HbA) bei Mensch und Maus nachgewiesen. Auch in den Keratinozyten von Haarfollikeln wird HbA produziert, insbesondere in der Isthmusregion, nicht aber in der Wulstregion, die Stammzellen (Marker Keratin 15) und prolifierende Keratinozyten enthält. Abbildung 3.

Abbildung 3. Lokalisierung von Hämoglobin A in Keratinozyten der menschlichen Epidermis und des Haarfollikels (Die Haut stammte von der Hüfte einer 62 jährigen Frau).Oben: Das lila angefärbte HbA-Protein wird mit zunehmender Differenzierung in den Zellen der oberen Schichten zunehmend stärker exprimiert, fehlt jedoch in den toten Zellen des verhornten Stratum corneum. Im Vergleich dazu wird Keratin 10 (K10) gezeigt (grün), das als Marker der Differenzierung in allen Zellen ab dem Stratum spinosum (SS) aufscheint und im toten verhornten Stratum corneum akkumuliert. Der weiße Balken entspricht einer Distanz von 0,05 mm. Unten: Im Haarfollikel ist HbA besonders stark in den Keratinozyten der Isthmus Region (d.i, zwischen Talgdrüse und Haarbalgmuskel) exprimiert, dagegen nicht im unteren Bereich der Wulstregion, der Stammzellen und proliferierende Keratinozyten (Indikator Keratin 15, grün) enthält. (Bilder aus Tahara U., et al. 2023; [2. Lizenz cc-by]). Rechts unten: Schematische Darstellung eines Haarfollikels in der Haut (Bild: A. Friedrich, https://de.wikipedia.org/wiki/Haar#/media/Datei:Anatomy_of_the_skin_de.jpg. Lizenz cc-by)

SB, Stratum basale; SS, Stratum spinosum, SG, Stratum granulosum; SC, Stratum corneum.

Wie früher erwähnt können von HbA abgespaltene Peptide antimikrobielle Aktivitäten aufweisen [5]. In Hinblick auf die ausgeprägte HbA-Expression im Isthmus des Haarfollikels könnte dies - nach Meinung der Autoren - auf den Bedarf an Stammzellschutz gegen die Invasion der Hautmikrobiota an der Follikelöffnung zurückzuführen sein.

...... und schützt vor allem gegen durch UV-Strahlung generierte reaktive Sauerstoffspezies

Die auf unsere Haut auftreffende UV-Strahlung des Sonnenlichts, besteht zu etwa 95 % aus UVA (350-400 nm) Strahlung, der Rest aus UVB (290-320 nm) Strahlung. Die energiereichere UVB-Strahlung verursacht direkte DNA-Schäden, UVA kann dagegen in viel stärkerem Maße als UVB ROS erzeugen.

In Primärkulturen menschlicher Keratinozyten und auch in einem 3D-Epidermis Modell haben die Forscher gesehen, das UVA-Bestrahlungen bereits bei der minimalen erythematischen Dosis, aber nicht UVB-Bestrahlungen die Expression von Hämoglobin hochregulierten. Gleichzeitig wurden durch die UVA-Bestrahlung Wasserstoffperoxid und andere ROS generiert, offensichtlich aber zum Großteil von Hämoglobin abgefangen/neutralisiert. Dies ging aus Versuchen hervor, in denen die Expression von Hämoglobin ausgeschaltet (mittels knockdown) war und die UV-induzierten ROS um ein Vielfaches anstiegen.

Diese Ergebnisse deuten darauf hin, dass die epidermale HbA-Expression durch oxidativen Stress induziert wird und als Antioxidans zur Barrierefunktion der Haut beiträgt; nach Meinung der Autoren stellt dies einen körpereigenen Schutzmechanismus gegen Hautalterung und Hautkrebs dar.


  [1] Saha D., et al. Hemoglobin Expression in Nonerythroid Cells: Novel or Ubiquitous? International Journal of Inflammation, vol. 2014, Article ID 803237, https://doi.org/10.1155/2014/803237.

[2] Tahara U., et al. Keratinocytes of the Upper Epidermis and Isthmus of Hair Follicles Express Hemoglobin mRNA and Protein. J Invest. Dermatol. 143 (12) 2023, DOI: https://doi.org/10.1016/j.jid.2023.08.008.

[3] Zhang, F., et al. An extra-erythrocyte role of haemoglobin body in chondrocyte hypoxia adaption. Nature 622, 834–841 (2023). https://doi.org/10.1038/s41586-023-06611-6

[4] M.P.Sumi et al.,Hemoglobin resident in the lung epithelium is protective for smooth muscle soluble guanylate cyclase function. Redox Biology, 07,2023, 63, https://doi.org/10.1016/j.redox.2023.102717

[5] Olari L-R., et al., The C‑terminal 32‑mer fragment of hemoglobin alpha is an amyloidogenic peptide with antimicrobial properties. Cellular and Molecular Life Sciences (2023) 80:151. https://doi.org/10.1007/s00018-023-04795-8

[6] Lintzeri D.A. et al., Epidermal thickness in healthy humans: a systematic review and meta-analysis (2022) J. Eur.Acad.Dermatol. Venereol. 36: 1191 -1200. https://doi.org/10.1111/jdv.18123

[7] Inge Schuster, 17.07.2015: Unsere Haut - mehr als eine Hülle. Ein Überblick.


Verwandte Themen im ScienceBlog

Gottfried Schatz, 23.01.2015: Der besondere Saft

Inge Schuster, 06.09.2018: Freund und Feind - Die Sonne auf unserer Haut


 

inge Fri, 29.12.2023 - 23:55

Extreme Hitze und Dürre könnten in Europa schon früher auftreten als bislang angenommen

Extreme Hitze und Dürre könnten in Europa schon früher auftreten als bislang angenommen

Fr, 22.12.2023 — Redaktion

Redaktion

Icon Klima

Extreme Hitze und Dürre, wie sie für das Klima am Ende des 21. Jahrhunderts typisch sein werden, könnten in Europa schon früher als angenommen auftreten und dies wiederholt in mehreren aufeinander folgenden Jahren. Das ist die kürzlich publizierte Schlussfolgerung eines Forscherteams vom Max-Planck-Institut für Meteorologie (Hamburg), das eines der weltweit besten hochkomplexen Erdsystemmodelle "MPI Grand Ensemble" für seine Berechnungen einsetzte. Demnach liegt die Wahrscheinlichkeit, dass Hitze und Dürre ein Niveau erreichen, wie man es für das Ende des Jahrhunderts angenommen hatte - selbst bei einer moderaten Erwärmung -, bereits in den 2030er Jahren bei 10 %. Um 2040 könnten ganze Dekaden mit Hitzestress ihren Anfang nehmen, wobei ein warmer Nordatlantik den Wandel beschleunigen wird.*

Wenn die Erderwärmung weiter zunimmt, wird abnorme Hitze häufiger auftreten und extremer werden. Dass Hitze, die unsere bisherige Anpassungsfähigkeit deutlich übersteigt, zu erhöhter Morbidität und Sterblichkeit führt, ist erwiesen - bei den Hitzewellen 2015 in Indien und Pakistan und 2003 in Europa sind Tausende Menschen gestorben. Die Lage wird verschärft, wenn zu extremer Hitze noch hohe Luftfeuchtigkeit, mangelnde nächtliche Abkühlung oder anhaltende Trockenheit hinzukommen. Höchsttemperaturen und zunehmende Schwankungen zwischen extremer Trockenheit und immensen Niederschlägen werden zudem massive Auswirkungen auf Sozioökonomie und Ökologie haben und ganze Landstriche unbewohnbar machen. Die Bedrohung für Mensch und Umwelt wird noch ärger, wenn solche extremen Ereignisse in aufeinanderfolgenden Jahren wiederholt auftreten. Wie sich bei zunehmender Erwärmung die Wahrscheinlichkeit einer solchen mehrjährigen Abfolge von extremer Hitze und Trockenheit verändert, ist allerdings unklar, auch wie bald solche Ereignisse bereits auftreten können und wie diese Wahrscheinlichkeiten außerdem von der internen Variabilität des Klimasystems - spontan erzeugt durch Prozesse und Rückkopplungen im Klimasystem selbst — beeinflusst werden.

Das MPI-GE-Ensemble

Diese interne Variabilität des Klimasystems stellt heute eine der größten Unsicherheiten bei der Beurteilung aktueller Klimaschwankungen und bei den modellbasierten Projektionen der zukünftigen Klimaentwicklung dar. Das Max-Planck-Institut für Meteorologie (MPI-M) in Hamburg entwickelt und analysiert hochkomplexe Erdsystemmodelle, welche die Prozesse in der Atmosphäre, auf dem Land und im Ozean simulieren. Das MPI Grand Ensemble (MPI-GE) ist eines der größten derzeit verfügbaren Ensembles für die Anfangsbedingungen eines umfassenden, vollständig gekoppelten Erdsystemmodells, mit dem u.a. die Unsicherheiten der internen Variabilität des Klimasystems untersucht werden können [1].

An Hand von hundert Simulationen mit diesem Erdsystem-Modell hat nun ein Forscherteam vom MPI für Meteorologie die Wahrscheinlichkeit für das (wiederholte) Auftreten von extremen Hitze- und Dürrestress berechnet. Die Ergebnisse wurden eben im Fachjournal Nature Communications Earth & Environment publiziert [2].

Die wichtigsten Aussagen

Selbst bei einer moderaten Erwärmung wird ein noch nie dagewesenes Ausmaß an Hitze- und Dürrestress, wie dies für das Klima am Ende des Jahrhunderts typisch sein wird, in naher Zukunft europaweit möglich sein.

Den Projektionen zufolge werden alle untersuchten Formen von Hitzestress bereits im Jahrzehnt 2030-2039 mit einer Wahrscheinlichkeit von 1:10 ein Niveau erreichen oder übertreffen, das vor 20 Jahren praktisch unmöglich war. Darüber hinaus wird der für das Ende des Jahrhunderts typische, wiederholt in aufeinanderfolgenden Jahren auftretende extreme Hitze- und Dürrestress bereits ab 2050 mit einer Wahrscheinlichkeit von mehr als 1:10 möglich sein (dergleichen war seit Beginn der Aufzeichnungen noch nie beobachtet worden). Bis dahin werden in 20 % der Fälle zwei aufeinanderfolgende Jahre mit für das Ende des Jahrhunderts typischen Niederschlagsdefiziten prognostiziert, und es besteht ein nicht zu vernachlässigendes Risiko für 5 Jahre anhaltende extreme Dürre. Abbildung.

Wahrscheinlichkeit, dass es in Europa zu extremen, für das Ende des Jahrhunderts typischen Hitze- Dürreperioden kommt. a) Wahrscheinlichkeit für das Auftreten extremer Hitze (rot),verbunden mit hoher Luftfeuchtigkeit, mangelnder nächtlicher Abkühlung oder anhaltender Trockenheit in einem Jahr und in den folgenden 2 oder 5 Jahren, für die Zeiträume 2000-2024 (helle Farben), 2025-2049 (mittel-helle Farben) und 2050-2074 (dunkle Farben). Wahrscheinlichkeit von extremem Hitzestress in Europa in 2 aufeinanderfolgenden Jahren (b) und von extremer Hitze und Trockenheit in 5 aufeinanderfolgenden Jahren (c) im Zeitraum 2025-2049. (Quelle: L. Suarez-Gutierrez et al., https://doi.org/10.1038/s43247-023-01075-y [2]; Lizenz cc-by.)

Bei gleichbleibender globaler Erwärmung wird nicht nur die Häufigkeit von Hitze- und Dürreextremen zunehmen, auch deren Bandbreite wird von Jahrzehnt zu Jahrzehnt größer werden.

Diese Spanne wird so groß werden, dass Hitze- und Dürreperioden, wie sie für das Klima am Ende des Jahrhunderts typisch sein werden, in Europa bereits im Jahr 2040 Realität werden könnten. Im günstigsten Fall werden dann die Höchtstemperaturen bei Tag und Nacht im Bereich der Werte des wärmsten bislang in Europa aufgezeichneten Jahrzehnts von 2010 - 2019 liegen; im schlimmsten Fall wird die Häufigkeit und Heftigkeit der extremen Hitze- und Dürreperioden die für das Ende des Jahrhunderts typischen Ereignisse bei weitem übersteigen.

Der Einfluss des Nordatlantiks

Jedes dieser verheerenden Ereignisse könnte durch die interne Variabilität des Klimasystems früher als erwartet nach Europa gebracht werden können. Die über Dekaden zunehmende Variabilität des europäischen Hitze- und Dürrestresses wird stark von der multidekadischen Variabilität des Nordatlantiks beeinflusst. Diese zyklisch auftretende Zirkulationsschwankung der Ozeanströmungen im Nordatlantik (atlantic multidecadal variability - AMV) hat eine Periodendauer von 50 bis 70 Jahren und besitzt „warme“ und „kalte“ Phasen mit veränderten Meeresoberflächentemperaturen des gesamten nordatlantischen Beckens, die sich auf die Temperatur der Atmosphäre auswirken. Die Simulationen am MPI-GE zeigen, dass bei gleichzeitig wärmerem Nordatlantik bereits im Jahr 2030 ein Überschreiten der für das Ende des Jahrhunderts typischen Werte für einfache und komplexe Hitze- und Dürreperioden doppelt so wahrscheinlich ist, als bei einem kalten Nordatlantik.


 *Diese Forschung wurde im Rahmen des vom deutschen Bundesministerium für Bildung und Forschung geförderten Projekts ClimXtreme durchgeführt und durch das Rahmenprogramm Horizon Europe der Europäischen Union unter den Marie Skłodowska-Curie Maßnahmen kofinanziert.

„ClimXtreme – Klimawandel und Extremereignisse“ hat unter Beteiligung von 39 Forscherteams in einer ersten Phase von 2019 - 2023 erforscht, wie sich der Klimawandel auf die Häufigkeit und Intensität von Extremwetterereignissen auswirkt. Nun startet die zweite Phase, die auch Zukunftsprognosen für Anwender, wie etwa für den Katastrophenschutz, Versicherungen, Landwirtschaftsverbände, Hochwasservorsorge, etc. entwickeln wird., um das Angebot ihrer Leistungen auf kommende Schäden durch Extremwetter besser abschätzen zu können. https://www.fona.de/de/aktuelles/nachrichten/2023/231207_ClimXtreme_Phase_2_b.php


[1] Das Max-Planck-Institut Grand Ensemble – ein Instrument zur Untersuchung der internen Variabilität des Klimasystems: https://mpimet.mpg.de/kommunikation/detailansicht-news/das-max-planck-institut-grand-ensemble-ein-instrument-zur-untersuchung-der-internen-variabilitaet-des-klimasystems. (abgerufen am 20.12.2023)

[2] Suarez-Gutierrez, L., Müller, W.A. & Marotzke, J. Extreme heat and drought typical of an end-of-century climate could occur over Europe soon and repeatedly. Commun Earth Environ 4, 415 (2023). https://doi.org/10.1038/s43247-023-01075-y


Klimawandel im ScienceBlog

ist ein Schwerpunktsthema mit bis jetzt knapp 50 Artikeln, die vom Überblick über Klimamodelle bis zu den Folgen des Klimawandels und den Bestrebungen zu seiner Eindämmung reichen.

Eine chrononologische Lise der Artikel findet sich unter: Klima & Klimawandel


 

inge Fri, 22.12.2023 - 13:04

Wie haben 15-jährige Schüler im PISA-Test 2022 abgeschnitten?

Wie haben 15-jährige Schüler im PISA-Test 2022 abgeschnitten?

Sa, 16.12.2023— Inge Schuster

Inge SchusterIcon Politik & Gesellschaft Am 5. Dezember sind die Ergebnisse der neuen internationalen Schulleistungsstudie PISA veröffentlicht worden. PISA wird seit dem Jahr 2000 von der OECD weltweit in Mitgliedstaaten und Nicht-Mitgliedstaaten alle drei Jahre durchgeführt. Dabei wird evaluiert, inwieweit Schüler im Alter von 15 Jahren über die für eine volle gesellschaftliche Teilhabe unerlässlichen Schlüsselkenntnisse und -kompetenzen in den drei Bereichen Lesekompetenz, Mathematik und Naturwissenschaften verfügen. Das Ergebnis: Im OECD-Durchschnitt schnitten 15-Jährige wesentlich weniger gut ab als bei den PISA-Tests 2018 und vor zehn Jahren, wobei Im deutschsprachigen Raum zwar alle Bewertungen über dem OECD-35 Durchschnitt liegen, aber auf einen vhm. hohen Anteil Jugendlicher hinweisen, welche die Grundkompetenzen in den Fächern fehlen. Insgesamt gesehen bringen die Reports kaum Anhaltspunkte, wie weniger erfolgreiche Bildungssysteme verbessert werden könnten.

Durch die Corona-Pandemie bedingt wurde die für 2021 geplante PISA-Studie (Programme for International Student Assessment) auf 2022 verschoben. Der Schwerpunkt der Erhebung lag dieses Mal auf Mathematik; untergeordnet waren die Bereiche Naturwissenschaften und Lesekompetenz (neu hinzugekommen ist ein Bereich kreatives Denken, dessen Ergebnisse aber erst 2024 berichtet werden sollen).

An der Studie haben mehr Staaten und Volkswirtschaften - 37 OECD Mitglieder, 44 Partnerländer - als je zuvor teilgenommen. Stellvertretend für die etwa 29 Millionen 15-jährigen Schüler dieser Länder haben sich rund 690 000 Schüler den Tests unterzogen. In den meisten Ländern wurden zwischen 4000 und 8 000 Schüler aus repräsentativen Stichproben getestet.

Konkret haben die Schüler während zwei Stunden Tests in zwei Bereichen (Mathematik & Naturwissenschaften oder Mathematik & Lesekompetenz) am Computer absolviert und danach in rd. 35 Minuten einen Fragebogen zu ihrem sozioökonomischen Status und zu anderen Fragen ausgefüllt. Dabei wurden Zusammenhänge zwischen Leistungen und sozioökonomischem Status, Geschlecht sowie Migrationshintergrund und auch zu den Auswirkungen der Corona-Pandemie untersucht.

Ein Mammutprojekt, was den Umfang der Ergebnisse betrifft.

Diese liegen nun in zwei insgesamt rund 1000 Seiten umfassenden Publikationen "Lernstände und Bildungsgerechtigkeit" [1] und "Learning During – and From – Disruption" [2] vor, weitere 3 Publikationen sind für 2024 geplant. Zusätzlich gibt es Zusammenfassungen für die einzelnen teilnehmenden Länder (https://www.oecd.org/publication/pisa-2022-results/country-notes/), eine Zusammenfassung "PISA 2022: Insights and Interpretations" [3] und auf 2 Seiten in Bildern "PISA 2022 key results (infographic)"[4].

Leider gibt es Ungereimtheiten bei den Aussagen und Interpretationen und es werden wenig Anhaltspunkte zur Verbesserung weniger erfolgreicher Systeme geboten.

Wie werden PISA-Tests analysiert/bewertet?

Vorweg eine kurze Zusammenfassung, um mit den Zahlen in den nächsten Abschnitten etwas anfangen zu können:

Die Testergebnisse werden einer Normalverteilung entsprechend skaliert mit Mittelwerten von etwa 500 Punkten und Standardabweichungen von etwa 100 Punkten. Bei den ersten schwerpunktmäßig getesteten Bereichen (Lesen: PISA 2000; Mathematik: PISA 2003; Naturwissenschaften: PISA 2006) haben 2/3 der Schüler demnach einen Wert zwischen 400 und 600 Punkten, 95 % der Schüler zwischen 300 und 700 Punkten erreicht.

Die verschiedenen Schwierigkeitsgrade in den Testbeispielen werden auf nach oben und unten offenen, in Kompetenzstufen unterteilten Skalen dargestellt. In Mathematik entspricht jede Kompetenzstufe einer Spanne von etwa 62 Punkten (Schwellenwerte der Kompetenzstufen in Zahlen: 1c = 233,1b = 295, 1a = 358, 2 = 420, 3 = 482, 4 = 545, 5 = 607, 6 = 669) (Tab. I.3.1 [1]). In Naturwissenschaften beträgt die Spanne etwa 75 Punkte, in Lesekompetenz ungefähr 73 Punkte.

Stufe 2 gilt als Grundkompetenzniveau, um in vollem Umfang am gesellschaftlichen Leben teilzuhaben. Schüler, die diese Stufe nicht erreichen - in Mathematik 420 Punkte, in Naturwissenschaften 410 Punkte, in Lesen 407 Punkte - werden als leistungsschwach bezeichnet, Schüler, die die Kompetenzstufen 5 oder 6 erreichen als  leistungsstark.

Globale PISA-Ergebnisse 2022

Seit dem Beginn der PISA-Erhebungen haben die durchschnittlichen Schülerleistungen weltweit in allen 3 Bereichen abgenommen. Wurde ursprünglich ein OECD-Leistungsdurchschnitt in den drei Bereichen von jeweils 500 Punkten festgelegt, so liegen nun die Durchschnitte von 35 OECD Ländern bei 472 Punkten in Mathematik, 485 Punkten in Naturwissenschaften und 472 Punkten in Lesekompetenz. Am stärksten ist der OECD-Leistungsdurchschnitt in Mathematik seit 2018 gesunken (Rückgang um fast 15 Punkte, d.i. dreimal so hoch wie jede der vorherigen Veränderungen) und in der Lesekompetenz (um 10 Punkte). Der Rückgang in den Naturwissenschaften (um 4 Punkte) fiel wesentlich geringer aus und war statistisch nicht signifikant. In den Key Results-Infografik ([1], [4]) wird der Rückgang und auch dessen Interpretation im Stil der in Zeitungen üblichen Clickbaits dargestellt (Abbildung 1).

Abbildung 1. Durchschnittliche Punktezahl in 22 OECD-Ländern seit dem Beginn der Pisatestungen und durchschnittlicher Rückgang im Lernfortschritt seit 2018 in Schuljahren. Ursprünglich wurde der Mittelwert in den OECD-Ländern auf 500 Punkte festgelegt. Die Grafik stammt aus PISA 2022 Key Results (infographic) [4]. Lizenz: cc-by-nc-sa). Caveat: Durchschnitt aus nur 23 Ländern! Zahlen stimmen nicht mit den tatsächlichen OECD-Durchschnittswerten seit 2000 überein.

Der Rückgang in Mathematik seit 2018 wird in den Key Results mit einem Lernrückschritt von etwa einem Dreivierteljahr gleichgesetzt, der Rückgang in Lesekompetenz mit einem halben Schuljahr (Abbildung 1). Als Basis dafür wurde ein aus aktuellen Schätzungen stammender Referenzwert von 20 Punkten für das durchschnittliche jährliche Lerntempo der 15-Jährigen in den Ländern der PISA-Teilnehmer angewandt (Kasten I.5.1 in Kapitel 5 [1]). Im selben Absatz warnt die OECD allerdings gleichzeitig davor "diesen Wert zu verwenden, um Punktezahldifferenzen in Äquivalente von Schuljahren (oder Schulmonaten) umzurechnen. Denn zum einen variiert das Lerntempo in einem bestimmten Alter von Land zu Land erheblich,..... Und zum anderen gibt es keinen Grund zur Annahme, dass das Lerntempo im Zeitverlauf konstant bleibt."

Die obige Quantifizierung des Lernrückschritts erscheint nicht nur auf Grund unterschiedlicher OECD Aussagen fragwürdig - beispielsweise wendet der Schweizer PISA-2022 Nationalbericht auf Basis anderer Schätzungen die Faustregel an, dass ungefähr 40 Leistungspunkte dem Lernfortschritt von einem Schuljahr entsprechen [5].

Wie ist nun der Abwärtstrend der OECD-Durchschnittsleistungen - insbesondere seit 2018 - zu bewerten?

In Anbetracht der hohen Punktedifferenzen zwischen leistungsschwachen und leistungsstarken Schülern innerhalb eines Landes und dem durchschnittlichen Leistungsabstand zwischen den leistungsstärksten und leistungsschwächsten Ländern (beispielsweise liegen in OECD-Ländern 153 Punkte zwischen Japan und Kolumbien, unter allen PISA-Teilnehmern 238 Punkte zwischen Singapur und Kambodscha) ist der Abwärtstrend zwar als eher klein aber als Warnsignal anzusehen:

Insgesamt gesehen sind seit 2018 die PISA-Punktzahlen im OECD-Durchschnitt sowohl bei den besonders leistungsstarken als auch bei den leistungsschwachen Schülern zwischen 2012 und 2022 zurückgegangen, d.i. der Anteil der leistungsschwachen Schüler hat zugenommen, der Anteil der leistungsstarken Schüler abgenommen.

In den OECD-Mitgliedstaaten haben 2022 rund 31 % der 15-Jährigen in Mathematik die Kompetenzstufe 2 nicht erreicht, das heißt es fehlt ihnen die Fähigkeit Mathematik in einfachen Alltagssituationen anzuwenden, 26 % erwiesen sich als leistungsschwach in der Lesekompetenz - sie können einfache Texte nicht interpretieren und 24 % sind leistungsschwach in den Naturwissenschaften, d.i. sie können nicht auf aus dem Alltag stammendes konzeptuelles Wissen zurückgreifen, um Aspekte einfacher Phänomene zu erkennen (siehe auch Tabelle 2).

Bei vielen Nicht-OECD-Mitgliedern fallen die Schülerleistungen noch negativer aus - in 18 Ländern und Volkswirtschaften - darunter 3 Balkanländern - sind mehr als 60 % der 15-Jährigen in allen drei Fächern leistungsschwach (Panama, Saudi-Arabien, Georgien, Nordmazedonien, Indonesien, Albanien, Jordanien, El Salvador, Paraguay, Guatemala, Marokko, Dominikanische Republik, Philippinen, Usbekistan, Kosovo, Kambodscha, Baku, Palästinenser-Gebiete).

Es gibt aber auch positive Entwicklungen.

Tabelle 1. Durchschnittliche Schülerleistungen in Punktezahlen (in Klammer: Veränderung seit 2018) in ostasiatischen Staaten/Volksgemeinschaften. Diese nehmen die Spitzenplätze aller Wertungen in den 81 getesteten Ländern/Volkswirtschaften ein. .

Einige ostasiatische Staaten und Volkswirtschaften haben sich zu besonders leistungsstarken Gebieten entwickelt, die ihre bereits 2018 sehr hohen Leistungen z.T. noch steigern konnten und nun die Weltranglisten in allen 3 Disziplinen anführen: Singapur, Hongkong (China), Japan, Korea, Macau (China) und Chinesisch Taipei. Tabelle 1.

Was im Report nicht Platz findet: Es sind Gesellschaften, die vor allem vom Konfuzianismus geprägt sind, der eine prinzipiell positive Einstellung zum Lernen hat.

Ist die COVID-Pandemie am Leistungsabfall seit 2018 schuld?

Das wäre eine einfache Erklärung - allerdings kann der Leistungsabfall nur zum Teil durch die mit der COVID-19-Pandemie einhergehenden Schulschließungen und Problemen bei der Umstellung auf den digitalen Distanzunterricht erklärt werden. Der Zeitverlauf der PISA-Daten zeigt deutlich, dass der Abwärtstrend in zahlreichen Ländern bereits vor 2018 begonnen hatte (siehe auch Abbildung 3).

PISA-2022 in Europa

Dass Europa durch einen Bildungsvorhang in zwei Teile getrennt ist, ist nicht neu aber in den PISA 2022-Reports kein Thema. Abbildung 2 zeigt diese Spaltung am Beispiel der durchschnittlichen Mathematikleistung - die Ergebnisse in Naturwissenschaften und Lesekompetenz geben ein ganz ähnliches Bild. Auf der einen Seite steht der Block von 24 OECD-Staaten, auf der anderen Seite der Block der Balkanländer und daran angrenzend Moldawien und die Ukraine; Kroatiens Durchschnittsleistungen in allen 3 Bereichen, lassen das Land als Teil des OECD-Blocks erscheinen.

Abbildung 2. PISA 2022: Ein Bildungsvorhang trennt die europäischen Staaten. Durchschnittsleistungen in Mathematik; schwarze Zahlen: OECD-Länder, blaue Zahlen Nicht-OECD-Länder.(Quelle: https://factsmaps.com/pisa-2022-worldwide-ranking-average-score-of-mathematics-science-and-reading/. Daten aus Table 1.B1.2.1. [1])

In Mathematik liegen die Durchschnittsleistungen von 24 Ländern des OECD-Blocks im Bereich der OECD-Durchschnittsleistung von 472 Punkten oder darüber und diese haben damit im Durchschnitt mindestens die Grundkompetenzstufe 2 (Spanne 420 - 482 Punkte) erreicht. Am besten schnitten Estland (510 Punkte) und knapp dahinter die Schweiz (508 Punkte) ab - 51 Punkte trennen die Nummer 1 von Island (459 Punkte), dem Land mit der niedrigsten Durchschnittsleistung, das einst mit Finnland und Schweden zu den Vorreitern im Bildungsbereich gehörte. Seit 2018 sind die Leistungen in allen europäischen OECD-Ländern gesunken, in vielen davon um mehr als 20 Punkte.

Die Mathematikleistungen des Balkanblocks liegen im Durchschnitt um 80 Punkte unter denen des OECD-Blocks, wobei der Kosovo (355 Punkte), Albanien (368 Punkte) und Nordmazedonien (389 Punkte) die schlechtesten Wertungen erhielten, im Durchschnitt Kompetenzstufe 2 nicht erreichten. Auch in Naturwissenschaften und Lesen schnitten diese und die anderen Länder des Balkanblocks ganz ähnlich ab wie in Mathematik.

Leistungstrends in Österreich und Vergleichsländern

Die Durchschnittsergebnisse in Mathematik, Naturwissenschaften und Lesekompetenz fielen in Österreich, Deutschland und der Schweiz schwächer aus als in den Jahren davor. Abbildung 3.

Abbildung 3. Wie haben Schüler in Österreich, Deutschland und der Schweiz in den drei Testbereichen seit 2000 abgeschnitten? Punkte: Durchschnittsleisung, Schwarze Linien: bester Trend, orange Linien: OECD-Durchschnittsleistung (aus nur 23 Ländern! - die Kurven stimmen nicht mit den tatsächlichen OECD-Werten seit 2000 überein.) Quelle: https://www.oecd.org/publication/pisa-2022-results/country-notes/. Lizenz cc-by-nc-sa.

In den drei Ländern ist der Leistungsdurchschnitt in allen Bereichen seit Beginn der PISA-Tests massiv zurückgegangen, die Länder liegen dennoch über oder am OECD-Durchschnitt: über dem Durchschnitt sind in Mathematik die Schweiz um 36 Punkte, Österreich um 15 Punkte, Deutschland um 3 Punkte; in den Naturwissenschaften um 6 resp. 7 Punkte in Österreich und Deutschland und um 18 Punkte in der Schweiz und schließlich in der Lesekompetenz um jeweils 8 Punkte in Österreich und Deutschland und um 11 Punkte in der Schweiz (siehe auch Tabelle 2).

Wo liegen damit die drei Länder in der globalen Bewertung?

Als Vergleichsländer sollen das frühere Vorzeigeland Finnland, die derzeitige Nummer 1 in Europa, Estland und die globale Nummer 1 Singapur dienen (Tabelle 2).

Auch in Finnland und Estland sind die Leistungen seit 2018 in allen Gebieten zurückgegangen, in Singapur dagegen in Mathematik und Naturwissenschaften noch gestiegen - dort liegen diese nun um bis zu 100 Punkten über den Bewertungen unserer Länder.

Tabelle 2. Durchschnittliche Schülerleistungen in den deutschsprachigen Ländern und Vergleichsländern.

Leistungsschwache und leistungsstarke Schüler

Wie bereits früher erwähnt, liegt der Anteil der Schüler die die Grundkompetenzstufe 2 nicht erreichen im OECD-Durchschnitt bei rund einem Viertel in Naturwissenschaften und in Lesekompetenz und bei fast einem Drittel in Mathematik. Etwa 9 % der Schüler erreichten die höchsten Leistungsniveaus in Mathematik und rund 7 % in Naturwissenschaften und Lesekompetenz. Der Anteil leistungsschwacher und leistungsstarker Schüler ist in Deutschland in allen Fächern etwa gleich hoch wie im OECD-Durchschnitt, schwache und starke Leseleistung liegen auch in Österreich und der Schweiz im OECD-Durchschnitt. Österreich und vor allem die Schweiz haben einen niedrigeren Anteil an sehr schwachen und einen höheren Anteil an starken Mathematik-Schülern. In Naturwissenschaften liegt Österreich etwas, die Schweiz stärker über dem OECD-Durchschnitt. Abbildung 4. Der Anteil der leistungsschwachen Schüler ist in Österreich seit 2012 um jeweils 6 % in Mathematik und in den Naturwissenschaften und um 5 % in Lesekompetenz gewachsen.

Abbildung 4. Anteil der Schüler [%], welche die Grundkompetenzstufe 2 nicht erreichten und welche mindestens Kompetenzstufe 5 erzielten. Quelle: PISA-2022-Datenbank, Tabelle I.B1.5.1–12, I.B1.5.19, I.B1.5.20 und I.B1.5.21[1]

Im Vergleich dazu:

Estland, die Nummer 1 in Europa weist mit 15 % in Mathematik, 10 % in Naturwissenschaften und 14 % im Lesen wesentlich niedrigere Anteile an sehr schwachen und mit 13 % in Mathematik, 12 % in Naturwissenschaften und 11% im Lesen höhere Anteile an leistungsstarken Schülern auf als die deutschsprachigen Länder.

In Mathematik nimmt Singapur die globale Spitzenposition ein: 8 % liegen unter Kompetenzstufe 2 und 41 % erreichten Stufe 5, 6. Spitzenleistungen in Mathematik erzielten auch die anderen ostasiatischen Staaten/Volkswirtschaften Taipei (32%), Macao (China) (29%), Hong Kong (27%), Japan (23%) und Korea (23%).

Insgesamt gesehen und für das weitere Berufsleben entscheidend ist der Anteil der 15-Jähringen, die in allen 3 Fächern die Grundkompetenzstufe nicht erreichen: im OECD-Raum liegt dieser bei 16,4 %, in Deutschland (16,7 %) vergleichbar hoch, in Österreich (15,5 %) kaum viel niedriger und auch in der Schweiz mit 12,4 % noch zu hoch. In Estland sind es dagegen nur 5,2 % (Tabelle 1.1[1]).

Wie lässt sich der Rückgang der Schülerleistungen seit 2018 erklären?

Wie oben bereits erwähnt - sicherlich nicht ausschließlich durch die Folgen der Corona-Pandemie. Auf keinen Fall auch durch die weltweiten, seit langem bestehenden Leistungsunterschiede: Buben in Mathematik besser als Mädchen, Mädchen in Lesekompetenz besser als Buben.

Ein wichtiger Prädikator der Schülerleistungen ist der sozioökonomische Status - ESCS -, d.i. der wirtschaftliche, soziale und kulturelle Background der Schüler (ein Index, der sich aus der höchsten Bildungsstufe der Eltern, deren höchster beruflicher Stellung und dem materiellen Wohlstand der Familie zusammensetzt). Wie auch in früheren Studien gezeigt, schneiden sozioökonomisch begünstigte Schüler besser ab als benachteiligte Schüler. Im OECD-Durchschnitt liegt beispielsweise der Leistungsunterschied von begünstigten vs. benachteiligten Schüler in Mathematik bei 93 Punkten. Der aktuelle Punkteabstand in Österreich sind 106 Punkte, in Deutschland 111 Punkte und in der Schweiz 117 Punkte - kein Unterschied zum globalen Top-Performer Singapur bei 112 Punkten.

Ein wesentlicher Unterschied liegt allerdings in der Zuwanderung von sozioökonomisch-kulturell unterschiedlich geprägten Menschen. Der Report [1] schreibt dazu "Der Anteil der Schüler mit Migrationshintergrund hat sich in den meisten PISA-Teilnehmerländern seit 2012 nicht nennenswert verändert; in 20 Ländern bzw. Volkswirtschaften ist er jedoch gestiegen und in 5 anderen gesunken. Im OECD-Durchschnitt beträgt der Anteil der 15-jährigen Schüler mit Migrationshintergrund 13 %. In 40 Ländern und Volkswirtschaften machen die Schüler mit Migrationshintergrund weniger als 5 % der Grundgesamtheit der 15-jährigen Schüler, in 11 ist er höher als 25 %."

Zu diesen 11 Ländern gehören Österreich, Deutschland und die Schweiz. In Europa weisen sie die höchsten Anteile von 15-jährigen Schülern mit Migrationshintergrund auf und deren Anteil ist seit 2012 enorm gestiegen. Abbildung 5.

Abbildung 5.Der Anteil der migrantischen Schüler ist zwischen 2012 und 2022 in den deutschsprachigen Ländern im Vergleich zum OECD-Raum enorm gestiegen. Die Leistungsdifferenz kann nur teilweise durch den unterschiedlichen sozioökonomischen Background erklärt werden. Punktedifferenz: nicht-migrantische vs migrantische Schüler- in Klammer nach Berücksichtigung der soziökonomischen Unterschiede. (Daten aus [1], Bild rechts aus Key Results Infografic [4], Lizenz: cc-by-nc-sa)

Der PISA-Report fährt fort: "Der Anteil der sozioökonomisch benachteiligten Schüler ist im OECD-Durchschnitt unter den Schülern mit Migrationshintergrund größer (37 %) als unter denen ohne (22 %)" [1]. In den meisten Ländern schneiden daher Schüler ohne Migrationshintergrund in allen PISA-Erhebungsbereichen besser ab. Erschwerend kommt noch die Sprachbarriere hinzu - Schüler mit Migrationshintergrund sprechen zu Hause überwiegend eine andere Sprache als die Schulsprache - In Österreich, Deutschland und der Schweiz sind dies mehr als 60 %.

Die hohen Migrationsströme in die deutschsprachigen Länder haben zweifellos zu einem Rückgang der Durchschnittsleistungen beigetragen; im Vergleich dazu gibt es in der Nummer 1 in Europa, Estland, nur 8,7 % Schüler mit Migrationshintergrund, die sich zudem in den Leistungen von den anderen Schülern weniger unterscheiden.

Die mit "Kein signifikanter Unterschied zwischen Schüler*innen mit und ohne Migrationshintergrund" übertitelte Infografik in Abbildung 5 ist wiederum ein clickbait, der nicht die reale Situation, sondern bloß ein Wunschdenken der OECD vermittelt: "Wenn die Bildungspolitik sozioökonomische Benachteiligung und Sprachbarrieren bei Schüler*innen mit Migrationshintergrund ausgleicht (u. a. durch einen gezielten Einsatz von Bildungsressourcen zugunsten sozioökonomisch benachteiligter Schüler*innen mit Migrationshintergrund), können die Länder und Volkswirtschaften die Leistungen ihrer Schüler*innen mit Migrationshintergrund beträchtlich steigern."[1]

Ein wenig ermunternder Ausblick

den Andreas Schleicher, Direktor für Bildung und Kompetenzen bei der OECD, in dem Report Insights and Interpretations gibt [3]."Die Ergebnisse bieten eine Momentaufnahme der Bildungssysteme zu einem bestimmten Zeitpunkt; aber sie zeigen nicht - sie können nicht zeigen - wie die Schulsysteme zu diesem Punkt gekommen sind oder die Institutionen und Organisationen, die den Fortschritt gefördert oder behindert haben könnten. Außerdem sagen die Daten nicht wirklich viel über Ursache und Wirkung aus. Wir wissen zwar besser, was erfolgreiche Systeme tun, aber das sagt uns nicht unbedingt, wie wir weniger erfolgreiche Systeme verbessern können."[3]

Vielleicht hätte Schleicher auf die OECD-Definition des sozioökomischen Profils Bezug nehmen sollen, das durch den PISA-Index des ökonomischen, sozialen und kulturellen Status gemessen wird. Was die als Sieger im PISA-Test hervorgehenden ostasiatischen Länder auszeichnet, ist eine Weltanschauung, die auf Lernen und Leistung ausgerichtet ist. Um dazu den Lehrmeister Konfuzius zu zitieren:

Etwas lernen und mit der Zeit darin immer geübter werden,

ist das nicht auch eine Freude? [6].


[1] OECD (2023), PISA 2022 Ergebnisse (Band I): Lernstände und Bildungsgerechtigkeit, PISA, OECD Publishing, Paris, , https://doi.org/10.1787/b359f9ab-de.

[2] OECD (2023), PISA 2022 Results (Volume II): Learning During – and From – Disruption, PISA, OECD Publishing, Paris, https://doi.org/10.1787/a97db61c-en.

[3] Andras Schleicher: Insights and Interpretations: https://www.oecd.org/pisa/PISA%202022%20Insights%20and%20Interpretations.pdf

[4] PISA 2022 key results (infographic): https://www.oecd-ilibrary.org/sites/afda44bb-en/index.html?itemId=/content/component/afda44bb-en

[5] Erzinger, A. B., et al., (Hrsg.) (2023). PISA 2022. Die Schweiz im Fokus. Universität Bern. https://dx.doi.org/10.48350/187037

[6] Konfuzius-Aussprüche: https://www.aphorismen.de/zitat/3971, abgefragt am 10.12.2023

 


Artikel zum Thema im ScienceBlog:

Inge Schuster, 04.02.2023: Enorme weltweite Bildungsdefizite - alarmierende Zahlen auch in Europa.

Inge Schuster, 30.10.2021: Eurobarometer 516: Umfrage zu Kenntnissen und Ansichten der Europäer über Wissenschaft und Technologie - blamable Ergebnisse für Österreich

Inge Schuster, 03.10.2021: Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit

Inge Schuster, 10.08.2017: Migration und naturwissenschaftliche Bildung


 

inge Sat, 16.12.2023 - 00:51

Roboter lernen die Welt entdecken

Roboter lernen die Welt entdecken

Sa, 02.12.2023 — Roland Wengenmayr

Roland WengenmayrIcon Künstliche Intelligenz

Roboter können den Menschen heute bereits bei manchen alltäglichen Aufgaben unterstützen. Doch unbekannte Umgebungen oder auch kleine Abweichungen in den Aufgaben, auf die sie trainiert sind, überfordern sie. Damit sie rascher lernen, sich auf Neues einzustellen, entwickeln die Forschungsgruppen von Michael Mühlebach und Jörg Stückler am Max-Planck-Institut für Intelligente Systeme in Tübingen neue Trainingsmethoden für die Maschinen. Ihre Roboter müssen sich dabei auch im Pingpong oder Bodyflying bewähren.*

Anspruch und nicht Wirklichkeit: Bis Roboter so geschmeidig wie Menschen tanzen und dabei auch Bewegungen improvisieren können wie auf diesem mit KI erstellten Foto, wird es noch eine Weile dauern. Ihnen eine Art Körpergefühl zu vermitteln, ist ein Schritt in diese Richtung

Intelligent handelnde Roboter waren schon ein Technikmythos, ehe es Maschinen gab, die diese Bezeichnung auch nur annähernd verdienten. Doch was können Roboter heute wirklich? Wie weit sind sie noch von Science-Fiction-Ikonen wie dem amüsant menschelnden C-3PO aus Star Wars entfernt? Bei der Suche auf Youtube landet man schnell bei einem Video der US-amerikanischen Roboterfirma Boston Dynamics. Darin verblüfft der humanoide Roboter Atlas mit Saltos, er rennt und hüpft mit einem Zwillingsbruder über einen anspruchsvollen Trainingsparcours oder unterstützt einen Menschen auf einem Baugerüst (Links zu Videos im Anhang; Anm. Redn.). Doch so beeindruckend leichtfüßig und fast unheimlich menschenähnlich sich diese Roboter auch bewegen können: Sie tun dies in einer vertrauten Umgebung, auf die sie trainiert worden sind. Wozu Atlas und Konsorten tatsächlich fähig wären, wenn sie sich in einem für sie komplett neuen Umfeld orientieren und selbstständig handeln müssten, das erfährt man nicht – Firmengeheimnis.

Joachim Hertzberg, wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz und Professor an der Universität Osnabrück, ist beeindruckt von der komplexen Bewegungsfähigkeit der Roboter von Boston Dynamics. Doch er wendet auch gleich ein: Würde man einem heutigen Roboter den Befehl geben, in einer ihm unbekannten Umgebung einen Auftrag selbstständig und planvoll auszuführen, und sei es nur, einen Kaffee zu holen, sähe das Resultat deutlich weniger spektakulär aus. „Das Gebiet heißt zwar künstliche Intelligenz, aber es kommt auf Intelligenz an, die wir selber für völlig unintelligent halten“, sagt Hertzberg, „also die Fähigkeit, sich in einer Umgebung vernünftig zurechtzufinden, Aufgaben zum ersten Mal zu machen, ohne sie zuvor geübt zu haben, situations- und zielangemessen zu handeln.“

Flexible Algorithmen

Einen Schritt hin zu Robotern, die auch in unbekannten Umgebungen und bei neuen Aufgaben die Orientierung behalten, machen Maschinen, die permanent lernen – und das möglichst schnell. An solchen Systemen arbeiten zwei Teams am Max-Planck-Institut für Intelligente Systeme in Tübingen. Anders als Unternehmen oder anwendungsorientierte Forschungseinrichtungen reduzieren die Forschenden die Komplexität der Aufgaben, die ihre Maschinen bewältigen müssen, um diesen zunächst elementare Aspekte der Orientierung beizubringen. Michael Mühlebachs Gruppe beschäftigt sich mit der Frage, wie Roboter durch Vorwissen über ihre eigenen physikalischen Eigenschaften, vermenschlicht ausgedrückt, eine Art Körpergefühl trainieren können. Denn dieses brauchen sie, um sich in einer unbekannten Umgebung bewegen und Befehle präzise ausführen zu können. Darum geht es auch in Jörg Stücklers Gruppe, die daran arbeitet, Robotern das Sehen beizubringen. Zum Sehen gehört, dass Roboter lernen, Objekte – ruhend und bewegt – in beliebiger Umgebung zu erkennen. Das Erkennen beschränkt sich hier allerdings auf rein physikalische Eigenschaften der Objekte, etwa ihre Größe, Form und Farbe, was allein schon eine gewaltige Herausforderung ist.

Ein permanent lernender Algorithmus steckt etwa im Tischtennisroboter Pamy, dessen Hardware weitgehend die Gruppe von Dieter Büchler am Tübinger Max-Planck-Institut entwickelt hat. Auf Veränderungen im Spiel muss Pamy nämlich flexibel reagieren. Einstweilen trainiert der einarmige Roboter mit einer Ballmaschine, um die künftige Flugbahn eines Balls richtig einschätzen zu lernen. Das Experiment befindet sich in einem Labor, in das Michael Mühlebach führt. Dort empfängt uns sein Doktorand Hao Ma in einer Geräuschkulisse, als wären wir im Trainingscamp einer Luftpumpenmannschaft gelandet.

Hao Ma muss angesichts des verblüfft dreinschauenden Gasts grinsen und deutet auf einen abgesperrten Bereich. Dort vollführt ein einzelner Roboterarm – Pamy ist einarmig – auf einer Art Podest mit einem Pingpong-Schläger laut schnaufend wilde Trockenübungen ohne Ball. Abbildung. Zwei Aluminiumrohre, verbunden mit Kunststoffgelenken, bilden Ober- und Unterarm, die Hand besteht aus einem Gelenk mit festgeschraubtem Schläger. Zu den Gelenken führen Luftschläuche, die unten im Podest an eine Batterie von Pneumatikzylindern angeschlossen sind. In den transparenten Zylindern sieht man Kolben auf und ab stampfen. Sie drücken Luft in die pneumatisch angetriebenen Gelenke hinein oder saugen sie ab und bewegen so den Arm.

Anspruch und nicht Wirklichkeit: Bis Roboter so geschmeidig wie Menschen tanzen und dabei auch Bewegungen improvisieren können wie auf diesem mit KI erstellten Foto, wird es noch eine Weile dauern. Ihnen eine Art Körpergefühl zu vermitteln, ist ein Schritt in diese Richtung. (Foto: Wolfram Scheible für MPG. © 2023, MPG)

Solche luftdruckbetriebenen Muskeln erlauben eine sehr leichte Bauweise ohne Elektromotoren an den Gelenken, weshalb ein Roboterarm schnelle Bewegungen ausführen kann. Diese Konstruktion hat allerdings einen Nachteil: Der Arm federt sichtlich nach. Dieses elastische Verhalten muss die Steuerung genau kennen, um einen Tischtennisball präzise retournieren zu können. Das dafür nötige Körpergefühl erlernt Pamy gerade durch das Luft-Pingpong mithilfe von Kameras, Winkel- und Drucksensoren, die seine Bewegungen live verfolgen. Bei diesem Lernprozess kommt ein zentraler Forschungsansatz von Mühlebachs Team ins Spiel. Damit die Steuerung des Arms nicht mühsam bei null beginnen muss, wenn sie dessen Eigenschaften erlernt, hat das Team Pamy bereits mit einem einfachen physikalischen Modell programmiert. Es repräsentiert den Arm mit ideal steifen Stäben und idealisierten Gelenken. „Schwierig zu beschreiben ist aber das Verhalten der ,Muskeln‘ aus den Plastikbehältern, die sich mit Luft füllen“, erklärt Mühlebach: „Dafür setze ich maschinelles Lernen ein.“ Der dafür verwendete Algorithmus nutzt Kameraaufnahmen nur noch, um das Nachfedern der pneumatischen Bewegungen zu erlernen. Das spart viel Rechenzeit. Ohne das Vorwissen durch das physikalische Modell würde Pamy sechzehn Stunden benötigen, um eine Art Körpergefühl erlernen, sagt Mühlebach. „Mit dem Modell kriegen wir das in ungefähr einer Stunde hin.“ Roboterlernen durch physikalisches Vorwissen zu beschleunigen, ist dabei eine zentrale Strategie in Mühlebachs und Stücklers Forschung. Ma führt im Labor an eine Tischtennisplatte. Dort darf nun das Vorgängermodell des Roboterarms, der noch mit Luft-Pingpong beschäftigt ist, zeigen, was es kann. Eine drehbare Ballmaschine schießt einen Tischtennisball über die Platte, der springt in Pamys Feld einmal auf, ehe die Maschine ihn sauber zurückschlägt. Sie tut dies beeindruckend zuverlässig mit jedem neuen Ball. Ma zeigt auf vier Kameras, die oben über dem Tisch befestigt sind. Sie verfolgen die Bahn der leuchtend orangefarbenen Bälle. Ein Algorithmus hat inzwischen gelernt, die künftige Flugbahn eines Balls aus der bisherigen Bahnkurve so genau vorherzusagen, dass der Roboterarm wie ein geübter menschlicher Spieler reagiert und richtig trifft.

„In einer neuen Version der Ballvorhersage haben wir auch einbezogen, wie der Ball abgeschossen wird“, sagt Jörg Stückler. Das wäre bei einem menschlichen Gegner zwar ungleich schwieriger, doch die Erfahrung mit der Ballmaschine zeigt, wie das im Prinzip gehen könnte. Pamy kann nämlich auch auf Vorwissen über die Ballmaschine zurückgreifen. Das hat Jan Achterhold, Doktorand in Jörg Stücklers Team, dem Roboter beigebracht. Das entsprechende Modell berücksichtigt sogar, dass diese Maschine dem Ball einen Spin geben kann. Dadurch wird der Ball nach dem Aufsetzen im Feld des Roboterarms seitlich abgelenkt. Darauf muss Pamy sofort reagieren, was für den Roboter eine große Herausforderung ist.

Härtetest Bodyflying

Als Modell der Ballmaschine verwendeten Achterhold und Stückler dabei ein Grey-Box-Modell. Stückler erklärt, dies sei ein Zwischending zwischen einem Blackund einem White-Box-Modell. Das Black-Box-Modell steht für Maschinenlernen ohne jegliches Vorwissen, also mühsames Ausprobieren. Ein White-Box-Modell wäre das Gegenteil: ein unveränderlich programmiertes physikalisches Modell, das nicht lernfähig ist. In einer einfachen, mechanisch idealen Welt würde das auch funktionieren, denn der Ablauf inklusive Flugbahn ließe sich exakt berechnen. Doch bei einer echten Ballmaschine treten immer Effekte auf, an denen das unflexible White-Box-Modell scheitern würde. Das Team um Achterhold setzt daher auf ein physikalisch vorgebildetes Maschinenlernen. Zu diesem Zweck entwarfen die Forschenden zunächst ein physikalisches Modell und kombinierten es mit einem ausgefeilten Lernalgorithmus, der das System befähigt, die realen Eigenschaften der Ballmaschine zu erlernen. Das Team nutzte also die Vorteile des Black- und des White-Box-Ansatzes. „Deshalb wird der Ansatz Grey Box genannt“, erklärt Stückler. Im Gespräch mit den Roboterforschern wird immer wieder deutlich, welche Herausforderungen scheinbar simple Aktionen, die wir Menschen unbewusst und selbstverständlich ausführen, für die Robotik darstellen. Dabei will Michael Mühlebach es wirklich wissen. „Ich bin fasziniert vom Bodyflying, von der Akrobatik, den Drehungen und Kunststücken“, sagt er lachend: „Und da dachte ich: Es wäre doch super, das mit Robotern zu machen!“ Beim Bodyflying, auch Indoor Skydiving genannt, schweben Menschen im starken Luftstrom eines senkrecht nach oben gerichteten Windkanals. Wie beim Fallschirmsprung müssen sie lernen, wie sie ihr Flugverhalten auf dem Luftpolster durch Veränderungen ihrer Körperhaltung und damit der Aerodynamik gezielt steuern können.

Das soll in Tübingen nun ein leichter Flugroboter, kaum größer als eine Hand, über einem Miniwindkanal erlernen. Doktorand Ghadeer Elmkaiel tüftelt in seinem Labor gerade an dem selbst entwickelten Windkanal, der mit sechs kreisförmig angeordneten Propellern einen möglichst gleichmäßigen Luftstrom erzielen soll. Über der öffnung des Windkanals befindet sich eine Haltevorrichtung für den kleinen Flieger. Beim Training löst sich der Roboter davon und versucht, ohne Verbindung zu einem Computer zu schweben. Dabei soll er nach und nach vorgegebene Flugfiguren erlernen. Noch ist es nicht so weit, aber auch hier soll das Vorwissen eines einfachen physikalischen Modells den Lernprozess des Flugroboters beschleunigen.

Was Mühlebachs Team bei dem Härtetest der Orientierungsfähigkeit von Robotern lernt, könnte auch in ganz anderen Bereichen Anwendung finden – etwa bei intelligenten Stromnetzen. Sie sollen die Stromproduktion und -verteilung möglichst gut an den jeweiligen Bedarf anpassen. Das wird beim Ausbau dezentraler Windkraftund Solaranlagen, deren Stromproduktion zudem vom Wetter abhängt, immer wichtiger und anspruchsvoller. In einem solchen Netzwerk gibt es ebenfalls Elemente, die sich gut durch physikalische Modelle beschreiben lassen, und solche, deren Verhalten nur durch Lernerfahrung vorhersagbar wird. In die erste Kategorie fallen etwa Großkraftwerke, deren Stromproduktion sich physikalisch gut modellieren lässt. Der Strommarkt und das Verhalten der Endverbraucher hingegen sind erst durch Erfahrung, zum Beispiel über Jahreszeiten, vorhersagbar. „Dort gibt es ein Riesenpotenzial für maschinelles Lernen“, sagt Mühlebach. Doch zurück zur Orientierung. Jörg Stücklers Gruppe arbeitet zum Beispiel an der Weiterentwicklung einer Technik, welche Kameradaten kombiniert mit den Daten von Beschleunigungssensoren, wie sie auch in Smartphones eingebaut sind. Die Beschleunigungssensoren geben einem Roboter sozusagen einen Gleichgewichtssinn, erklärt Stückler. Durch die Kombination mit Kameradaten soll der Roboter ein Wissen darüber entwickeln, wie sein realer Körper auf einen Befehl reagiert. Soll er zum Beispiel losfahren, braucht er ein Gefühl dafür, dass er seine Masse zunächst auf die vorgegebene Geschwindigkeit beschleunigen muss. Dieses Körpergefühl entwickelt der Roboter viel schneller, wenn er mit einem einfachen physikalischen Modell von sich programmiert wurde.

Wenn ein Roboter mit Gegenständen hantieren soll, braucht er nicht nur ein gutes Gefühl für seine eigenen Bewegungen, er braucht auch eine Vorstellung von den Objekten und ihren Eigenschaften. Dass er diese allein durch Beobachtungen erkennen kann, ist das Ziel von Doktorand Michael Strecke. Da die Kameradaten verrauscht, also unscharf sind, lässt sich aus ihnen nicht einfach die Form oder die Größe eines Objekts herauslesen. Beobachtet der Roboter allerdings, wie eine immer wieder geworfene Kugel gegen eine Wand dotzt, zurückprallt und zu Boden fällt, lernt er trotzdem etwas über die Eigenschaften der Kugel. Er begreift allmählich, wie groß die Kugel ist und dass sie daher auf eine bestimmte Weise zurückprallt. So lernt er allein durch die Anschauung einzuschätzen, wie sich ein solches Objekt voraussichtlich verhalten wird.

Grundsätzlich lässt sich also aus dem reinen Beobachten des mechanischen Kontakts eines Objekts mit einem anderen auf deren Eigenschaften schließen. Kleinkinder lernen auf diese Weise, wenn sie Gegenstände herumschmeißen und diese beobachten. Wenn Computer sehen, funktionierte diese Kontaktmethode bislang nur für steife Objekte und auch nur für solche mit sehr einfacher Geometrie. Strecke und Stückler ist es jetzt mit einer neuen Optimierungsmethode gelungen, auch das maschinelle Erlernen komplexerer Formen voranzubringen. Sie veranschaulichen dies mit einem etwas absurden Beispiel: Eine Maschine beobachtet ein Objekt, das auf ein anderes fällt, und hält es zunächst für eine Kuh. Im Laufe mehrerer Zusammenstöße der beiden Objekte verwandelt sich die Kuh in der Maschinenwahrnehmung allmählich in eine Art „Badeentenschwimmring“, der wie bei einem Wurfringspiel mit seinem Loch in der Mitte auf einen Stab fällt. Was weit hergeholt erscheint, entspricht einer Situation, in der auch Menschen sich erst einmal völlig neu orientieren müssen. Roboter stehen hier noch ganz am Anfang, sozusagen im Stadium eines Kleinkinds, für das jedes Objekt in seiner Umwelt ganz neu ist. Mit ihren neuen Trainingsmethoden wollen Jörg Stückler und Michael Mühlebach den Maschinen helfen, sich in unbekannten Situationen schneller zu orientieren. Doch der Weg bis zu einem C-3PO, der sich in einem Star-Wars-Abenteuer bei seinem Begleiter R2-D2 beschwert, dass sie schon wieder in ein Schlamassel geraten seien, dürfte noch recht weit sein.


* Der kürzlich im Forschungsmagazin 3/2023 der Max-Planck Gesellschaft unter dem Titel "Roboter entdecken die Welt" erschienene Artikel https://www.mpg.de/20899916/MPF_2023_3.pdf wird - mit Ausnahme des Titels in praktisch unveränderter Form im ScienceBlog wiedergegeben. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Forschungsmagazin auf unserer Seite zugestimmt. (© 2023, Max-Planck-Gesellschaft)


Videos zu Boston Dynamics

Blue Light Technology: Boston Dynamics' Atlas Bot SHOCKS Investors (2023). Video 8:37 min. https://www.youtube.com/watch?v=QKUosKzUCf8

Boston Dynamics: Do You Love Me? (2021). Video 2:54 min. https://www.youtube.com/watch?v=fn3KWM1kuAw&t=138s

Atlas Gets a Grip | Boston Dynamics (2023). Video 1:20 min. https://www.youtube.com/watch?v=-e1_QhJ1EhQ


Ähnliche Inhalte im ScienceBlog:

Paul Rainey, 02.11.2023: Können Mensch und Künstliche Intelligenz zu einer symbiotischen Einheit werden?

Inge Schuster, 12.12.2019: Transhumanismus - der Mensch steuert selbst seine Evolution

Georg Martius, 09.08.2018: Roboter mit eigenem Tatendrang

Francis S. Collins, 26.04.2018: Deep Learning: Wie man Computern beibringt, das Unsichtbare in lebenden Zellen zu "sehen".

Ilse Kryspin-Exner, 31.01.2013: Assistive Technologien als Unterstützung von Aktivem Altern.


 

inge Sat, 02.12.2023 - 23:31

Vor der Weltklimakonferenz COP28: durch Landnutzung entstehende Treibhausgas-Emissionen werden von Ländern und IPCC unterschiedlich definiert

Vor der Weltklimakonferenz COP28: durch Landnutzung entstehende Treibhausgas-Emissionen werden von Ländern und IPCC unterschiedlich definiert

Fr, 24.11.2023 — IIASA

IIASA Logo

Icon Klima

Der Sektor Landnutzung, Landnutzungsänderung und Forstwirtschaft spielt eine wesentliche Rolle bei der Erreichung der globalen Klimaziele - allerdings klafft eine beträchtliche Lücke darin, wie in diesem Sektor die Emissionen durch globale wissenschaftsbasierte Modellierungen abgeschätzt werden und in welcher Weise die Staaten diese berichten. In einer neuen Studie zeigt ein u.a. am Internationalen Institut für Angewandte Systemanalyse (IIASA, Laxenburg bei Wien) arbeitendes Forscherteam auf, wie sich die Benchmarks für die Minderung der Emissionen ändern, wenn die Szenarien des Weltklimarats (IPCC) aus der Perspektive der nationalen Bestandsanalysen bewertet werden; demnach sollten die Netto-Null-Ziele bis zu fünf Jahre früher erreicht werden, und die kumulativen Emissionen bis zum Netto-Null-Ziel um 15 bis 18 % weniger betragen.*

Eine effektive Landnutzung, sei es für Landwirtschaft, Wälder oder Siedlungen, spielt eine entscheidende Rolle bei der Bewältigung des Klimawandels und bei der Erreichung künftiger Klimaziele. Strategien zur Abschwächung des Klimawandels im Bereich der Landnutzung sehen den Stopp der Entwaldung und eine bessere Waldbewirtschaftung vor. Den Staaten ist die Bedeutung des Sektors Landnutzung, Landnutzungsänderung und Forstwirtschaft (Land use, land use change and forestry: LULUCF) bewusst. 118 von 143 Staaten haben die Reduzierung der durch Landnutzung entstehenden Emissionen und deren Entfernung aus der Atmosphäre in ihre national festgelegten Verpflichtungen (Nationally Determined Contributions - NDCs) aufgenommen; diese NDCs sind das Herzstück des Pariser Abkommens zur Erreichung der langfristigen Klimaziele.

Unterschiedliche Schätzungen der Land-basierten Emissionen

Wie eine neue, im Fachjournal Nature veröffentlichte Studie zeigt, differieren die Schätzungen der von Landnutzung ausgehenden aktuellen Emissionen, wie sie auf Grund wissenschaftsbasierter Untersuchungen (Modellen der IPCC-Sachstandsberichte) erhoben werden und wie sie Staaten in nationalen Treibhausgasbilanzen (Treibhausgasinventaren) berichten [1]. Der Grund liegt darin, dass unterschiedlich definiert wird, was als "bewirtschaftetes" Land und was als vom Menschen durch Landnutzung verursachte (anthropogene) und aus der Atmosphäre entfernte Emissionen angesehen wird; die Studie zeigt auch, wie sich die globalen Benchmarks der Emissionsminderung ändern, wenn mit den wissenschaftlichen Klimamodellen die LULUCF-Flüsse aus der Perspektive der nationalen Treibhausgasbilanzen abgeschätzt werden. Um Fortschritte im Pariser Klimaabkommen zu bewerten, ist es nach Ansicht des Forscherteams notwendig Gleiches mit Gleichem zu vergleichen - dabei müssen die Staaten ehrgeizigere Klimaschutzmaßnahmen ergreifen, wenn sie ihre nationalen Ausgangspunkte mit globalen Modellen vergleichen.

"Die Staaten schätzen ihre LULUCF-Flüsse (Emissionen und Entnahme aus der Atmosphäre) auf unterschiedliche Weise. Direkte Flüsse sind das Ergebnis direkter menschlicher Eingriffe, wie beispielsweise in der Landwirtschaft oder der Holzernte. Die Modelle in den Bewertungsberichten des Weltklimarates (IPCC) verwenden diesen Bilanzierungsansatz, um das verbleibende Kohlenstoffbudget und den Zeitplan für das Erreichen von Netto-Null-Emissionen zu bestimmen. Indirekte Flüsse sind die Reaktion des Bodens auf indirekte, vom Menschen verursachte Umweltveränderungen, wie z. B. die Zunahme des atmosphärischen CO2 oder die Stickstoffablagerung, die beide die Kohlenstoffentnahme aus der Atmosphäre erhöhen", erklärt Giacomo Grassi, ein Mitautor der Studie und Forscher am Joint Research Centre der Europäischen Kommission.

Grassi weist darauf hin, dass es praktisch nicht möglich ist, direkte und indirekte Flüsse durch Beobachtungen wie nationalen Waldinventaren oder Fernerkundungen voneinander zu separieren. Daher folgen die nationalen Methoden zur Treibhausgasinventarisierung Normen, die anthropogene Flüsse anhand eines landbasierten Ansatzes definieren, wobei alle auf bewirtschafteten Flächen auftretenden Flüsse als anthropogen gelten. Im Gegensatz dazu werden die Treibhausgasflüsse auf unbewirtschafteten Flächen nicht in die Berichterstattung einbezogen. Abbildung.

Eine Lücke von 4 - 7 Gigatonnen CO2

Weltweit ergibt sich zwischen den Berechnungsmodellen und den Treibhausgasbilanzen der Länder ein Unterschied von etwa 4 - 7 Gigatonnen CO2 oder rund 10 % der heutigen Treibhausgasemissionen, allerdings variiert dieser Unterschied von Land zu Land.

Abbildung. Flüsse aus Landnutzung, Landnutzungsänderung und Forstwirtschaft (LULUCF): Anpassung von konventionellen wissenschaftlichen Modellen und nationalen Treibhausgasbilanzen. Abweichungen ergeben sich aus den Unterschieden, welche Flächen als bewirtschaftet gelten und ob Flüsse im Zusammenhang mit Umwelt- und Klimaveränderungen einbezogen werden.NGHGI: nationales Treibhausgasinventar [2].(Bild modifiziert aus Gidden et al., [1], Lizenz cc-by)

Die Forscher haben die wichtigsten Klimaschutz-Benchmarks anhand des Bestandsaufnahme-basierten LULUCF-Ansatzes bewertet. Sie sind zu dem Ergebnis gelangt, dass  zur Erreichung des langfristigen Temperaturziels des Pariser Abkommens von 1,5 °C die Netto-Null-Emissionen ein bis fünf Jahre früher als bisher angenommen erreicht werden müssen, die Emissionssenkungen bis 2030 um 3,5 bis 6 % stärker ausfallen und die kumulativen CO2-Emissionen um 55 bis 95 Gt CO2 geringer sein müssen. Das Forscherteam betont, dass die Ergebnisse nicht im Widerspruch zu den vom IPCC festgelegten Benchmarks stehen, sondern die gleichen Arten von Benchmarks mit einem Bestandsaufnahme-basierten Ansatz bewertet werden.

"Um die globale Temperaturreaktion auf anthropogene Emissionen zu berechnen, verwenden die IPCC-Sachstandsberichte direkte, landbasierte Emissionen als Input und beziehen die indirekten Emissionen aufgrund von Klima- und Umweltreaktionen in ihre physikalische Klimaemulation ein. In unserer Analyse machen wir deutlich, dass wir diese beiden Arten von Emissionen getrennt betrachten. Das Klimaergebnis jedes der von uns bewerteten Szenarien bleibt dasselbe, aber die Benchmarks - betrachtet durch die Linse der nationalen Konventionen zur Bilanzierung von Treibhausgasinventaren - verschieben sich. Ohne Anpassungen könnten die Länder in einer günstigeren Lage erscheinen, als sie tatsächlich sind", erklärt Thomas Gasser, Mitautor der Studie und leitender Forscher in den beiden IIASA-Programmen Advancing Systems Analysis und Energy, Climate, and Environment.

"Unsere Ergebnisse zeigen die Gefahr auf, Äpfel mit Birnen zu vergleichen: Um das Pariser Abkommen zu erreichen, ist es entscheidend, dass die Länder das korrekte Ziel anstreben. Wenn Länder bei nationaler Bilanzierung modellbasierte Benchmarks anstreben, werden sie das Ziel verfehlen", sagt Matthew Gidden, Studienautor und leitender Forscher im IIASA-Programm Energy, Climate, and Environment.

Im Vorfeld der UN-Klimakonferenz COP28

(die vom 30. November - 12 Dezember 2023 in Dubai stattfindet) und der ersten globalen Bestandsaufnahme - ein Prozess, der es den Ländern und anderen Interessengruppen ermöglicht zu sehen, wo sie gemeinsam Fortschritte bei der Erfüllung der Ziele des Pariser Abkommens machen und wo nicht - drängen die Forscher auf detailliertere nationale Klimaziele. Sie empfehlen separate Ziele für den Klimaschutz an Land, getrennt von Maßnahmen in anderen Sektoren.

"Länder können Klarheit über ihre Klimaziele schaffen, indem sie ihre geplante Nutzung des LULUCF-Sektors getrennt von Emissionsreduktionen in anderen Sektoren kommunizieren. Während Modellierer und Praktiker zusammenkommen können, um die Vergleichbarkeit zwischen den globalen Pfaden und den nationalen Bilanzierungen zu verbessern, ist es wichtig die Botschaft, dass in diesem Jahrzehnt erhebliche Minderungsanstrengungen erforderlich sind, nicht in den Details der technischen Berichterstattung untergehen zu lassen", schließt Gidden.


[1] Gidden, M., Gasser, T., Grassi, G., Forsell, N., Janssens, I., Lamb, W., Minx, J., Nicholls Z., Steinhauser, J., Riahi, K. (2023). Aligning climate scenarios to emissions inventories shifts global benchmarks. Nature DOI: 10.1038/s41586-023-06724-y

[2] FAO elearning academy: The national greenhouse gas inventory (NGHGI) for land use. https://elearning.fao.org/course/view.php?id=650


 *Die Presseaussendung "Mind the gap: caution needed when assessing land emissions in the COP28 Global Stocktake" https://iiasa.ac.at/news/nov-2023/mind-gap-caution-needed-when-assessing-land-emissions-in-cop28-global-stocktake ist am 22. November 2023 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit Untertiteln ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


 

inge Sat, 25.11.2023 - 00:37

Gentherapie der Duchenne-Muskeldystrophie (DMD) - ein Rückschlag

Gentherapie der Duchenne-Muskeldystrophie (DMD) - ein Rückschlag

Fr 17.11.2023 — Ricki Lewis

Ricki Lewis

Icon Medizin

Tausende Erkrankungen werden durch schadhafte Gene ausgelöst. Bereits vor Jahrzehnten gab es erste Ansätze, um diese Gene durch Gentherapie - reparierte Gene oder intaktes genetisches Material - auszutauschen; man erwartete damit viele der zumeist ererbten Krankheiten nicht nur behandeln, sondern auch wirklich heilen zu können. Obwohl enorme Anstrengungen zur Umsetzung dieser Strategie gemacht und mehrere Tausende klinische Studien dazu durchgeführt wurden, ist der Erfolg bescheiden - von der FDA wurden bislang 6 gentherapeutische Produkte zugelassen - und immer wieder von Rückschlägen bedroht geblieben. Über enttäuschte Hoffnungen und den jüngsten Rückschlag bei einer Gentherapie von Duchenne Muskledystrophie berichtet die Genetikerin Ricki Lewis.*

Im letzten Kapitel meines 2012 erschienenen Buches The Forever Fix: Gene Therapy and the Boy Who Saved It, habe ich prophezeit, dass sich diese Technologie bald weit über die Welt der seltenen Krankheiten hinaus ausbreiten würde. (Anm. Redn.: von einer seltenen Krankheit sind weniger al 0,5 Promille der Bevölkerung betroffen.)

Ich war zu optimistisch. Es hat sich herausgestellt, dass die Gentherapie keinen großen Einfluss auf die Gesundheitsversorgung hatte, da sie nur einigen wenigen Menschen mit seltenen Krankheiten extrem teure Behandlungen offeriert. Wir sind immer noch dabei zu lernen, welche Folgen es haben kann, wenn Millionen von veränderten Viren in einen menschlichen Körper eingeschleust werden. Können sie heilende Gene liefern, ohne eine überschießende Immunreaktion auszulösen?

Ein Bericht im New England Journal of Medicine vom 28. September 2023 beschreibt einen jungen Mann mit Duchenne-Muskeldystrophie (DMD), der nur wenige Tage nach einer Gentherapie starb [1]. Die Einzelheiten erinnern in beunruhigender Weise an den berühmten Fall von Jesse Gelsinger, der im September 1999 an einer überschießenden Immunantwort auf eine experimentelle Gentherapie starb.

Jesse war 19 Jahre alt und litt an einer Defekt im Harnstoffzyklus (Ornithintranscarbamylase-Defizienz). Er wurde an einem Montag behandelt und starb am Freitag infolge eines Multiorganversagens. Die Viren, mit denen die Gene übertragen wurden, hatten ihr Ziel verfehlt und drangen in nicht dafür vorgesehene Zelltypen der Leber ein, was den Alarm der Immunabwehr auslöste.

Es gibt erst wenige Gentherapie-Zulassungen

Auch wenn bereits einige hundert Menschen dem Ende 2017 zugelassenen Luxturna das Sehvermögen verdanken, ist die Liste der Gentherapien, die die Hürden der FDA nehmen konnten, noch kurz geblieben. Zu den enorm hohen Kosten und den kleinen Märkten kommt dazu, dass man die Reaktionen der Patienten nicht vorhersehen konnte.  Man braucht ein besseres Verfahren, um Patienten zu identifizieren, die am ehesten auf eine bestimmte Behandlung ansprechen.

Denken wir an Zolgensma, eine Gentherapie, die 2019 zur Behandlung der spinalen Muskelatrophie zugelassen wurde. Betroffene Kinder überleben selten das Säuglingsalter. Deshalb waren die Videos eines kleinen Mädchens namens Evelyn, das nach der Behandlung mit Zolgensma tanzte, so erstaunlich - ihre Schwester war an der Krankheit gestorben. Ein aktuellerer Fall war ein Säugling, der 2021 die 2,25 Millionen Dollar teure einmalige Anwendung von Zolgensma erhielt und im Alter von acht Monaten nur in der Lage war, seinen Kopf für ein paar Sekunden zu heben.

Die FDA hat 6 Gentherapien zugelassen - begraben in einer Liste von 32 zugelassenen Produkten von Zell-und Gentherapien [2]. Gentherapien und Zelltherapien in einen Topf zu werfen, ist nicht sehr hilfreich - bei den zellbasierten Produkten handelt es sich meist um manipulierte T-Zellen zur Behandlung von Krebs. Darunter sind zwei interessante Produkte sind eine Behandlung für Knieschmerzen, die aus Knorpelzellen eines Patienten besteht, die auf Schweinekollagen gezüchtet werden, und 18 Millionen eigene Fibroblasten, die unter die Haut injiziert werden, um "Nasolabialfalten" aufzufüllen.

Die zugelassenen Gentherapien sind bestimmt für:

  • die Gerinnungsstörungen Hämophilie A und B
  • die schwere Form der Hautablösung, dystrophische Epidermolysis bullosa
  • Netzhautblindheit
  • Spinale Muskelatrophie
  • Duchenne Muskeldystrophie (DMD)

Die Gentherapie zur Behandlung von DMD ist allerdings nur fürJungen im Alter von 4 bis 5 Jahren vorgesehen, die noch gehen können. In der Packungsbeilage des Medikaments, Elevidys, wird vor unerwünschten Nebenwirkungen wie akuten Leberschäden und Entzündungen im Bereich des Herzens und der Muskeln gewarnt. Lungenschäden, die zu dem jüngsten Todesfall geführt haben, werden nicht erwähnt.

Ein riesengroßes Gen einschleusen

Der 27-Jährige Mann mit DMD hatte von seiner Mutter eine Mutation in einem Gen auf dem X-Chromosom geerbt.

Bei dem betroffenen Gen handelt es sich um das mit 2,2 Millionen DNA-Basen größte im menschlichen Genom. Es kodiert für das Protein Dystrophin, das im Vergleich zu den Aktin- und Myosin-Filamenten, aus denen die Muskelmasse besteht, in verschwindend geringer Menge vorhanden ist, aber als essentielle Stütze fungiert (Abbildung).

Abbildung. In Muskelzellen ist Dystrophin das Bindeglied zwischen den kontraktilen Actinfasern und der Zellmembran (Sarcolemma), die wiederum über einen Proteinkomplex an das umgebende Bindegewebe (extrazelluläre Matrix) gekoppelt ist (oben). Fehlt Dystrophin, so verliert die Muskelzelle ihre Stabilität, die Membran bekommt Risse, Calcium strömt permanent ein (unten) und dies führt zur Dauerkontraktion.(Bild von Redn. eingefügt: Screenshots aus open.osmosis.org,Duchenne and Beckermuscular dystrophy [3]; Lizenz CC-BY-SA)

Wird die Fähigkeit, Dystrophin zu bilden zerstört, wie es bei DMD der Fall ist, so fallen Skelett- und Herzmuskelfasern auseinander. Die Muskeln hören zu arbeiten auf. Den betroffenen Personen fehlen Teile des Gens oder das gesamte Gen.

Die DMD-Gentherapie liefert eine verkürzte Version des Dystrophin-Gens, nur 4.558 DNA-Basen. Zwei weitere Design-Strategien sorgen für Präzision:

i) Das Adeno-assoziierte Virus (AAV) ist Vektor für das Gen und nicht das Adenovirus (AV), das in Jesses Leberzellen eingedrungen war, die nicht das Ziel waren. Seit dem tragischen Fall von Jesse ist die Verwendung von AV in der Gentherapie eingeschränkt worden und AAV wird häufiger als Übertragungsvektor verwendet.

ii) Die zweite Veränderung ist wichtiger: Anstatt Kopien eines funktionierenden Gens hinzuzufügen, wie es in der Gentherapie zur Zeit, als ich mein Buch schrieb, der Fall war, ermöglicht nun das CRISPR-Geneditieren, eine Mutation tatsächlich zu korrigieren. Dieser Ansatz wird als maßgeschneiderte CRISPR-Transaktivator-Therapie bezeichnet. Sie heißt "maßgeschneidert", weil sie entwickelt wurde, um eine definierte Mutation zu verändern, mit dem Ziel auf eine ausreichende Anzahl der Millionen von Muskelzellen des Körpers einzuwirken, um die Beweglichkeit zu verbessern - und sei es nur ein bisschen.

Der Ansatz baute auf einer Besonderheit des Patienten auf. Auch wenn seinen Skelettmuskelzellen das riesige Dystrophin-Gen völlig fehlte, hatten bestimmte Gehirnneuronen den Anfang der DNA-Sequenz des Gens (den Promotor und Exon 1) beibehalten. Also designten die Forscher das CRISPR-Werkzeug in der Weise, um die Skelettmuskelzellen des Mannes dazu zu bringen, eine kurze Version des benötigten Proteins zu produzieren, hoffentlich in ausreichender Menge, um etwas Funktion zu gewährleisten. In Zellkulturen und in vivo in Mäusen hatte dies mit menschlichen DMD-Genen funktioniert.

Eine rasche Verschlechterung

Ein Spezialistenteam wählte den Patienten für die maßgeschneiderte klinische Studie aus, da sich sein Zustand rasch verschlechterte und es keine anderen Behandlungsmöglichkeiten mehr gab.

Im Vorfeld des Eingriffs erfolgten zahlreiche Tests. Der Mann hatte weder Antikörper gegen das zu verwendende Virus - AAV9 - noch wies er Anzeichen einer der Virusinfektionen auf, wie sie Transplantatempfänger befallen. Die kardialen Marker waren in Ordnung. Um auf Nummer sicher zu gehen, erhielt er eine immunsuppressive Therapie.

Anscheinend war es aber der Immunreaktion egal, wie gut die heilenden Viren designt waren oder wie viele Vorsichtsmaßnahmen getroffen worden waren.

Der Patient wurde am 4. Oktober 2022 behandelt. Und dann ging alles ganz schnell.

Einen Tag nach der Gentherapie bekam der Patient Extrasystolen. Am zweiten Tag sank die Zahl der Blutplättchen. Am dritten Tag zeigten Biomarker an, dass sein Herz zu versagen begann.

Am 4. Tag sammelte sich Kohlendioxid in seinem Blut an, und am 5. Tag verschlechterte sich seine Herzfunktion, als sich der Herzbeutel mit Flüssigkeit füllte.

Am 6. Tag kam es zum akuten Atemnotsyndrom (ARDS) und zum Herzstillstand. Er starb 2 Tage später. Trotz der Behandlung jeder einzelnen Krise starb er am 8. Tag an Multiorganversagen und Koma. Die Autopsie ergab, dass die Alveolen - die winzigen Luftsäcke in der Lunge - zerstört waren.

Angeborene versus adaptive Immunität: Zwei Stufen der Verteidigung

Wie zuvor Jesse Gelsinger starb auch der Mann mit DMD zu schnell, als dass der Grund dafür die adaptive Immunantwort sein könnte - die dafür maßgebliche Produktion von B- und T-Zellen dauert normalerweise eine Woche oder länger. Somit war die Schuld der unmittelbareren und generalisierten angeborenen Immunreaktion zuzuschreiben.

Eine Immunreaktion ist zweistufig. Zunächst setzt die angeborene Reaktion unspezifisch wirkende antivirale Biochemikalien wie Zytokine (Interferone und Interleukine) und Proteine -das sogenannte Komplement - frei. Tage später produziert die präzisere adaptive Reaktion der B-Zellen spezifische Antikörper gegen Moleküle auf der Oberfläche des Erregers, während die T-Zellen weitere Zytokine freisetzen und direkt angreifen.

Die Schlussfolgerung: Der Patient erlitt eine angeborene Immunreaktion, die auf die hohe Dosis der Gentherapie zurückzuführen war und ein akutes Atemnotsyndrom verursachte. In seinem Blutserum wimmelte es von Zytokinen, die normalerweise kaum nachweisbar sind, während sein Herz ertrank. Ein Zytokin, Interleukin-6, war um sein Herz herum 100-mal so hoch konzentriert wie im Blut. Da sein Herz und seine Lunge angegriffen wurden, hatte er keine Chance mehr.

Die Autopsie ergab, dass sich AAV9 in der Lunge und der Leber konzentrierte, nicht aber in den Muskeln, dem eigentlichen Ziel. Auch gab es keine Antikörper gegen AAV9. Dieses Bild wies darauf hin, dass der Zeitablauf in dem sich der Zustand des Pateinten verschlechterte und schlussendlich letal endete von der angeborenen und nicht von der adaptiven Immunität herrührten.

Die Forscher kamen zu dem Schluss, dass der Mann ein "Zytokin-vermitteltes Kapillarlecksyndrom" erlitt, das am fünften Tag Flüssigkeit in den Herzbereich und in die Lunge schickte und am sechsten Tag ein tödliches ARDS auslöste. "Sowohl die Wirtsfaktoren als auch die inhärenten Eigenschaften des Vektors führten zu unerwartet hohen Konzentrationen von Vektorgenom in der Lunge und könnten zu diesem Ergebnis beigetragen haben", schreiben sie.

Neben dem Trimmen von Genen, einer sorgfältigen Auswahl von viralen Vektoren, massenhaften Tests und sogar dem Einsatz präziserer neuer Instrumente wie CRISPR sind die Eigenschaften des Patienten also nach wie vor von größter Bedeutung. Die Lungen des 27-Jährigen, der an einer Gentherapie seiner Muskeldystrophie starb, waren aus irgendeinem Grund anfällig für eine Infektion durch den viralen Vektor, das normalerweise sichere AAV9.

Vielleicht haben unsere Werkzeuge und Technologien keine Chance gegen die Kräfte der Evolution.

Es ist schwer, eine Milliarde Jahre Evolution in Frage zu stellen

Die überschießende angeborene Immunreaktion, die den Mann mit DMD tötete (und nebenbei für viele COVID-Todesfälle verantwortlich ist), ist der ältere der beiden Zweige der Immunität und geht, auf eine Milliarde Jahre zurück. Wir folgern dies aus dem Umstand, dass sie in allen mehrzelligen Arten - Tieren, Pflanzen und Pilzen - vorkommt. Eine biologische Reaktion, die sich im Laufe der Zeit bewährt hat, hat einen Grund dafür - sie ist vorteilhaft und unterstützt das Überleben.

Und vielleicht ist das eine der Grenzen des Versuchs, mutierte Gene zu ergänzen, zu ersetzen oder zu reparieren. Im Gegensatz dazu ist die adaptive Immunantwort, die Antikörper ausschüttet und Armeen von T-Zellen aussendet, vor weniger als 450 Millionen Jahren entstanden, was sich aus ihrem Vorhandensein nur bei Wirbeltieren ableiten lässt.

Und so ist ironischerweise das Alter der angeborenen Immunantwort vielleicht die größte Hürde, die es zu überwinden gilt, wenn man mit Hilfe der modernen Biotechnologie versucht, unsere Gene therapeutisch zu verändern.


 [1] Lek A. et al., Death after High-Dose rAAV9 Gene Therapy in a Patient with Duchenne's Muscular Dystrophy. N Engl J Med. 2023 Sep 28;389(13):1203-1210. • DOI: 10.1056/NEJMoa2307798 ..

[2] FDA: Approved Cellular and Gene Therapy Products. https://www.fda.gov/vaccines-blood-biologics/cellular-gene-therapy-products/approved-cellular-and-gene-therapy-products

[3] WebM audio/video file, VP9/Opus, DOI: https://commons.wikimedia.org/wiki/File:Duchenne_and_Becker_muscular_dystrophy.webm. Video: 7:18 min. Lizenz cc-by-sa.


 *Der Artikel ist erstmals am 12. Oktober 2023 in PLOS Blogs - DNA Science Blog unter dem Titel "Is Recent Gene Therapy Setback for Duchenne Muscular Dystrophy (DMD) Déjà vu All Over Again?" https://dnascience.plos.org/2023/10/12/is-recent-gene-therapy-setback-for-duchenne-muscular-dystrophy-dmd-deja-vu-all-over-again/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt. Der ungekürzte Artikel folgt so genau wie möglich der englischen Fassung. Eine Abbildung wurde von der Redaktion eingefügt.


Artikel über Gentherapie im ScienceBlog

von Ricki Lewis:

 

von anderen Autoren


 

inge Fri, 17.11.2023 - 23:27

Das Human Brain Project ist nun zu Ende - was wurde erreicht?

Das Human Brain Project ist nun zu Ende - was wurde erreicht?

Do. 09.011.2023— Arvid Leyh

Arvid LeyhIcon Gehirn

Bis zu einer Milliarde Euro war die enorme Summe, welche die EU einem einzigen Projekt der Hirnforschung, dem Human Brain Project (HBP), im Jahr 2013 in Aussicht stellte - einem Flagship-Projekt, einem Aushängeschild der europäischen Forschungsleistung, das 10 Jahre andauern sollte. Das Human Brain Project ist nun zu Ende – und bis zum Ende blieb es umstritten. Mit Ablauf seiner Laufzeit ist das Human Brain Project wieder in den Medien. Meist in der Rückschau, doch tatsächlich werden Teile überdauern. Arvid Leyh, Chefredakteur der Plattform www.dasgehirn.info gibt einen Überblick.*

 

 

 

 

 

 

 

Der Vorlauf: grandios!

In der ersten Dekade des 21. Jahrhunderts war die Hirnforschung der unbestrittene Popstar der Wissenschaft. Die funktionelle Magnetresonanztomographie fMRT lieferte permanent neue Bilder von Areal xy, das bei Aufgabe z beteiligt war; das Bewusstsein war zumindest gefühlt kurz davor, auf neuronale Korrelate festgenagelt zu werden; Computerchips nach Vorbild neuronaler Verschaltungen lagen auf diversen Reißbrettern und sollten die Leistung unserer Rechner revolutionieren. Es gab die Neuropädagogik, das Neuromarketing und sogar eine Neurotheologie. Die mediale Omnipräsenz der Hirnforschung machte nicht zuletzt Hoffnung auf wirksame Therapien für die großen psychiatrischen und neurologischen Erkrankungen, besonders die Demenzen, die – und das ist auch heute noch so – in den kommenden Jahrzehnten zunehmend mehr Menschen betreffen werden. So war es im Grunde nur konsequent, dass neben der EU auch die USA und Japan ihre Big-Brain - Projekte auf den Weg brachten. Nur der Vollständigkeit halber – 2022 hat China eine eigene, wenn auch inhaltlich bislang unscharfe Version gestartet. Budget: 746 Mio. Dollar.

2013 also startete das Human Brain Project unter der Leitung des prominenten Hirnforschers Henry Markram, der bereits mit dem Blue Brain Project in Lausanne die rund 10.000 Neurone eines winzigen Areals aus dem Rattencortex auf einem Supercomputer simuliert hatte. Dass dabei fantastische Bilder entstanden, die regelmäßig für Schlagzeilen sorgten, hat bei der Vergabe bestimmt nicht geschadet. Dass andererseits Markram selbst im Vorfeld als Berater der EU für genau dieses Flagship-Format tätig war, hatte ein gewisses „G´schmäckle“. Dennoch: Markram schien tatsächlich der richtige Mann zu sein – nicht zuletzt dank seiner datentechnischen Erfahrung im Blue Brain Project.

Und er lieferte der Öffentlichkeit eine fantastische Vision: Diesmal sollte das menschliche Gehirn in seiner Gesamtheit simuliert werden. Eine solche Simulation könnte, wie er in einem TED-Talk im Jahr 2009, 4 Jahre vor Beginn des HBP, spekulierte, womöglich sogar zu eigenem Bewusstsein fähig sein. Zusätzlich sollten neuromorphe Chips die Consumer-Industrie in Europa vorantreiben. Und nicht zuletzt sollte eine Plattform geschaffen werden, die neurowissenschaftliche Daten auch über das HBP hinaus sammeln, bündeln und allgemein verfügbar machen sollte.

Dieser letzte Punkt klingt zwar einfach, doch „Neurowissenschaft“ ist ein Plural – sie besteht aus diversen Disziplinen mit unterschiedlichen Standards, unterschiedlichen Modellen, unterschiedlichem Vokabular. Und vor allem fehlt es schlicht an einer vereinheitlichten Theorie, einem integrierten Modell des Gehirns. Markram hoffte, auf dem Weg auch dieses Problem zu lösen.

Der Start: holprig

So großartig die Vision war, so stockend entwickelte sich die Umsetzung zu Beginn. Zum einen gab es massiven Gegenwind aus der wissenschaftlichen Community selbst: Zu unrealistisch seien die Versprechungen, zu groß die Lücken im bekannten Wissen über Neurone, Netzwerke und Systeme – wie sollten wir das ganze Gehirn verstehen, wenn wir noch nicht einmal einzelne Schaltkreise komplett durchschauen? Ein Großteil der Community fürchtete, dass Versprechungen dieser Größenordnung der Hirnforschung zwangsläufig auf die Füße fallen mussten. Als wir auf der Jahrestagung der Neurowissenschaftlichen Gesellschaft 2013 die Forscher in Göttingen nach ihrer Meinung fragten, überwog die Skepsis bei Weitem. Daneben gab es auch einen ganz praktischen Grund: Ein großer Teil der Hirnforscher befürchtete, dass mit diesem großen Projekt Forschungsgelder für kleinere Projekte nicht mehr zur Verfügung stehen würden.

Doch auch innerhalb des HBP rumorte es: Da die Drittmittel nicht so freigiebig flossen, wie erwartet, musste von Anfang an gekürzt werden. Das führte zu einer Kollision zwischen der Realität des Machbaren und der Versprechung der groß angelegten Simulation. Viele starke Führungspersönlichkeiten, gleichzeitig in der Verwaltung – wie der Vergabe der Mittel – als auch in der Forschung tätig … Das führte zum Knatsch. Dabei erwies sich Markram als wenig talentierter Diplomat und bereits 2014 gab es einen offenen Brief, der sowohl die Führung als auch die Entscheidungsfindung im HBP massiv kritisierte. Die in der Folge eingesetzte Schlichtungskommission bestätigte die meisten Vorwürfe, Markram wurde abgewählt und das HBP seit 2016 von der Jülicher Neuroanatomin Katrin Amunts geleitet.

Phase II

Mit Katrin Amunts stellte sich das HBP auf neue Füße: strategisch genauso wie strukturell, ruhiger und seriöser im Angang. Die Datentechnik rückte in den Vordergrund, die Simulation wurde ein Werkzeug von vielen, wenn auch weiterhin in zentraler Position. Parallel wurde die kognitive Neurowissenschaft stärker berücksichtigt und das HBP um vier neue Projekte erweitert. Denn im Zentrum stand immer noch das menschliche Gehirn, und die elementaren Ebenen des Molekularen und Zellulären können die Prozesse der großen Netzwerke, wie etwa die Sprache, nicht erklären. Dazu braucht es Forschungsprojekte, die über sämtliche Skalen des Gehirns dessen Funktion untersuchen – hier liegt eine große Herausforderung der Zukunft.

Nach wie vor galt es auch, die vielen verschiedenen Ansätze und Disziplinen der Hirnforschung zusammenzubringen und dazu noch eine gemeinsame Sprache mit den weiteren beteiligten Disziplinen zu finden: Medizin, Informatik, Physik. Denn auch wenn eine vereinheitlichte Theorie noch in weiter Ferne liegt: Ein gemeinsames Modell kann nur entstehen, wenn sich Daten, Methoden und Modelle nahtlos integrieren lassen – auch das eine enorme Herausforderung, die zumindest innerhalb des HBP inzwischen recht gut gelöst wurde.

Das Erbe

aus dem oben erwähnten TED-Talk von 2009 könnte man meinen, das Vorhaben sei krachend gescheitert. Vergleicht man aber den TED-Talk von Markram mit den tatsächlichen Zielen des Projekts zum Start – die technischen Grundlagen für ein neues Modell der IT-gestützten Hirnforschung zu schaffen, die Integration von Daten und Wissen aus verschiedenen Disziplinen voranzutreiben und eine Gemeinschaftsanstrengung zu katalysieren … – wurden viele davon tatsächlich erreicht. Und was die TED-Talks angeht: Auch bei der US-amerikanischen BRAIN-Initiative, nur Tage nach dem HBP durch den damaligen Präsidenten Barak Obama angekündigt, lag die Latte unrealistisch hoch: Der Fluss „jedes Spikes in jedem Neuron“ solle kartiert werden. Im Rückblick ist diese Vorstellung ebenso naiv. Auf der anderen Seite erklärt der Cambridger Neurowissenschaftler Timothy O’Leary in einem bilanzierenden Nature-Artikel, dass ohne eine solche Naivität – genauer: einem „ridiculously ambitious goal“ – das HBP wohl nie gestartet wäre.

Ob es ein Erfolg war oder eher nicht, darüber scheiden sich die Geister. Doch mit der Neuausrichtung wurden Projekte angestoßen, die über das HBP hinausgehen, nicht nur seine DNA in die nächste Phase tragen, sondern sie auch zukunftstauglich unter der Plattform EBRAINS anbieten. Abbildung 1.

Abbildung 1. EBRAINS eine 2021 geschaffene digitale Forschungsinfrastruktur; sie ist öffentlich zugängig, führt Daten, Werkzeuge und Rechenanlagen für die Hirnforschung zusammen und in ihrem Zentrum steht die Interoperabilität . https://www.ebrains.eu/

Dabei handelt es sich um einen gut gefüllten Werkzeugkasten für die Gesamtheit aller Neurowissenschaftler – und einige Tools sind echte Hingucker. Zum Beispiel The Virtual Brain, eine Simulationsplattform von Viktor Jirsa und Fabrice Bartolomei, die aktuell von Chirurgen für die Vorbereitung von Operationen bei Epilepsie-Patienten in einer groß angelegten klinischen Studie getestet wird. Denn gefüttert mit den Daten des Patienten kann sie helfen, die Operationsplanung zu verbessern. Da bei schweren Fällen der Epilepsie der Ausgangsort der pathologischen Gehirnaktivität – der Herd – operativ entfernt werden muss, ist hier eine genaue Planung extrem wichtig. Zu viel oder zu wenig entferntes Gewebe entscheiden über den Erfolg des Eingriffs.

Ein weiteres Erbe des HBP stammt direkt von Katrin Amunts: Der Julich Brain Atlas, entstanden aus 24.000 hauchdünnen Schnitten von 23 menschlichen Gehirnen, die digital wieder zusammengesetzt wurden – umfangreicher und detaillierter als alles Vorherige. Mit ihm folgt sie ihrer Profession als Leiterin des Cécile und Oskar Vogt Instituts für Hirnforschung der Universität Düsseldorf. Ähnlich wie die Vogts mit ihrem berühmten Mitarbeiter Korbinian Brodmann Karten des Cortex entwickelten und bereits im Jahr 1909 entlang der histologischen Unterschiede einzelne Areale identifizierten, hat Amunts etwas entwickelt, was sie als „Google Maps“ für das Gehirn beschreibt: Zum einen lässt sich von der Zellebene aus sowohl in die Tiefen von Genexpression und Molekülen gehen, doch nach oben sind Netzwerke und Areale in erreichbarer Nähe. Abbildung 2.

Abbildung 2. Benutzeroberfläche des interaktiven dreidimensionalen Viewer (siibra-explorer) für den Zugriff auf den Multilevel-Gehirnatlas auf https://atlases.ebrains.eu/viewer. (Bild aus: Zachlod et al. (2023). Biol. Psychiatry 93(5):471-479. Lizenz cc-by)

Fast noch wichtiger ist die Offenheit der EBRAINS Plattform: Alle Daten im Julich Brain Atlas sind öffentlich zugänglich. Forscher können ihre Daten hochladen und sogar eigene Skripte, die diese Daten bearbeiten. Das ist keine „citizen science“, eher eine „community science“, doch in jedem Fall offen für den Ausbau – und genau diese auf professionellem Datenmanagement basierende allgemeine Vergleichbarkeit und Nutzbarkeit ihrer Ergebnisse braucht die Hirnforschung. Neben funktionellen, genetischen und molekularen Daten werden auch die Metadaten wie Autor und DOI erfasst. Der Gedanke ist, die Daten der breiten Community der Hirnforschung zu sammeln und dabei eben auch die Standards in der Breite zu entwickeln, an denen es den unterschiedlichen Disziplinen mangelt.

Ein solcher Atlas hat bereits jetzt praktischen Wert, aber für viele Labore nicht weniger attraktiv dürfte das Angebot sein, über EBRAINS direkten Zugang auf Supercomputer zu bekommen und so datenintensive Aufgaben deutlich schneller zu erledigen, als das im heimischen Labor machbar wäre.

Die Hoffnung

Der Blick auf dieses Erbe entbehrt nicht einer gewissen Ironie: In den letzten Jahren hat das HBP die Grundlage dessen geschaffen, was es am Anfang gebraucht hätte. Denn die Vision von Henry Markram war bei allen Fehlern und Übertreibungen nicht ganz falsch: Eine große Community, eine gemeinsame Sprache, eine tragfähige Theorie des Gehirns, eine gemeinsame Plattform – nichts weniger braucht es, um das Gehirn zu entschlüsseln. Dazu noch der Blick über den Tellerrand des rein Neuronalen – Stichwort Gliazellen; oder die Systeme Herz-Hirn und Darm-Hirn, aber damit wäre die Latte vielleicht etwas zu hoch gehängt. Es wäre zu wünschen, dass die Community sich nicht von der Vergangenheit abschrecken lässt und das Angebot von EBRAINS nutzt, füllt und weiterentwickelt.


 *Der Artikel ist erstmals am 6.November 2023 unter dem Titel "Das Human Brain Project: Rückschau/Vorschau" auf der Website https://www.dasgehirn.info/ erschienen https://www.dasgehirn.info/grundlagen/kommunikation-der-zellen/das-human-brain-project-rueckschauvorschau Mit Ausnahme des Titels und des Abstracts wurde der unter einer CC-BY-NC-SA Lizenz stehende Text unverändert in den Blog gestellt, Abbildung 1 und 2 wurden von der Redaktion eingefügt.

Die Webseite https://www.dasgehirn.info/ ist eine exzellente Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


Weiterführende Links

EBRAINS powered by the EU-cofunded Human Brain Project ©2023 ebrains.eu

Human Brain Project - Spotlights on major achievements. https://sos-ch-dk-2.exo.io/public-website-production-2022/filer_public/74/94/74948627-6a92-4bed-91e0-3fab46df511d/hbp_spotlights_achievements_2023.pdf

The path to understanding the brain: Henry Markram at TEDxCHUV (28.06.2012) TED-talk 15:21 min. https://www.youtube.com/watch?v=n4a-Om-1MrQ

Artikel im ScienceBlog


 

 

 

 

 

inge Thu, 09.11.2023 - 18:15

Können Mensch und Künstliche Intelligenz zu einer symbiotischen Einheit werden?

Können Mensch und Künstliche Intelligenz zu einer symbiotischen Einheit werden?

Do, 2.11.2023 — Paul Rainey

vIcon Künstliche Intelligenz

Künstliche Intelligenz (KI) hat sich rasend schnell von einer Domäne der Wissenschaft und Science-Fiction zur alltäglichen Realität entwickelt. Die neue Technologie verspricht großen gesellschaftlichen Nutzen, sie birgt aber auch Risiken – vor allem, wenn es um mögliche Auswirkungen von Systemen geht, die intelligenter sind als wir Menschen. So haben führende Fachleute aus der Wissenschaft und Technologieexperten vor einigen Monaten einen Brief veröffentlicht, in dem eine Pause gefordert wird bei Experimenten mit KI-Systemen, die über die Leistung von GPT-4 hinausgehen. Der Evolutionsbiologe Prof. Dr.Paul Rainey (Direktor am Max-Planck-Institut für Evolutionsbiologie, Plön) zeigt auf, wie Menschen und KI zu Symbionten werden können, deren Zukunft unabänderlich miteinander verwoben ist.*

Unter den Gründen für eine Pause sind mögliche Risiken bei der Entwicklung von KI, die Modelle nutzt, um bestimmte Ziele zu verfolgen. Dies würde zu KI mit strategischem Bewusstsein führen. Wird ein Algorithmus etwa mit dem Ziel programmiert, seine Effizienz, Produktivität oder die Nutzung von Ressourcen zu maximieren, könnte er versuchen, mehr Macht oder Kontrolle über seine Umgebung zu erlangen, um diese Aufgaben zu erfüllen. Darüber hinaus wird lernfähige und sich selbst optimierende KI ihre Ziele wahrscheinlich besser erreichen und mehr Vertrauen in ihre eigenen Fähigkeiten gewinnen. Dies könnte dazu führen, dass KI selbstbewusster und aktiv nach Wegen sucht, ihre Macht und ihren Einfluss in der Welt zu vergrößern.

KI-Forschende stehen also vor dem Dilemma, dass sie einerseits KI entwickeln wollen, die dem Wohl der Menschheit dient, dass damit andererseits die Wahrscheinlichkeit wächst, dass die Algorithmen Ziele verfolgen, die nicht mit denen von uns Menschen übereinstimmen. Darüber hinaus könnte KI bewusst mit Zielen konstruiert werden, die denen der Menschheit zuwiderlaufen. Diese Bedenken sind besonders akut im Zusammenhang mit der Entwicklung selbstreplizierender KI. Solche Systeme würden dank ihrer Fähigkeit, sich zu vermehren und durch einen eingebauten Mutationsprozess zu variieren, eine Evolution auf Basis von Selektion durchlaufen. Als vermehrungsfähige Algorithmen oder Roboter könnten sie sich mit möglicherweise katastrophalen Folgen ausbreiten, denn die Selektion ist extrem gut darin, Lebewesen an ihre Umwelt anzupassen. Der Mensch zum Beispiel ist ein Ergebnis dieses Prozesses. Wenn wir die Selektion so steuern könnten, dass sie KI fördert, die den Interessen von uns Menschen dient, wären meine Bedenken geringer. Die Evolutionsbiologie lehrt uns jedoch, dass fortpflanzungsfähige Systeme sich in kaum vorhersagbarer Weise entwickeln können.

So wie Viren oder andere invasive Organismen den Menschen, die Umwelt und sogar den Planeten bedrohen können, besteht auch die reale Gefahr, dass vermehrungsfähige KI unbeabsichtigte negative Auswirkungen auf den Menschen und die Erde hat. Sie könnte sich unkontrolliert verbreiten, die Ressourcen der Erde erschöpfen und die Ökosysteme schädigen. Aufschlussreich sind in dieser Hinsicht die Ergebnisse von Studien mit selbstreplizierenden Computerprogrammen, sogenannten digitalen Organismen. Solche Systeme sind nicht so ausgeklügelt wie heutige KI, sondern lediglich einfache Programmcodes, die mutieren, sich replizieren und auf Selektion reagieren. Genau wie Viren profitieren sie von Mutationen in ihrem Code, welche einen verbesserten Zugang zu begrenzten Ressourcen ermöglichen, in ihrem Fall ist das in der Regel mehr Rechenzeit auf dem Computerprozessor. Die Fähigkeit dieser simplen digitalen Organismen, Eingriffe von außen zu vereiteln, die ihren programmierten Ziele zuwiderlaufen, ist faszinierend und besorgniserregend zugleich.

Künstliche Intelligenz könnte künftig eigene Ziele verfolgen

Ein Beispiel dafür ist die Arbeit von Charles Ofria, Informatiker und Erfinder der sogenannten Avida-Plattform, auf welcher digitale Organismen evolvieren können. Mutierte Organismen, die sich am schnellsten vermehren, werden von einem Ausleseprozess begünstigt und dominieren daher schon bald die gesamte Population. Um dem entgegenzuwirken, bestimmte Ofria die Vermehrungsrate der virtuellen Organismen in einer separaten Testumgebung und eliminierte zu schnell wachsende Typen. Es dauerte jedoch nicht lange, bis sich Mutanten entwickelten, die erkannten, dass sie getestet wurden, und die daraufhin vorübergehend aufhörten sich zu vermehren. Auf diese Weise konnten sie ihrer Eliminierung entgehen, in die Hauptumgebung zurückkehren und die Population erneut dominieren. Daraufhin nahm der Wissenschaftler zufällige Änderungen an der Testumgebung vor, die die Mutanten daran hinderten, es zu „spüren“, wenn sie sich außerhalb der Hauptumgebung befanden. Aber er musste sehr bald feststellen, dass seine Eingriffe erneut von einigen Organismen ausgehebelt wurden – und dies von Programmcodes, die sehr weit von der Raffinesse heutiger KI entfernt sind.

Eines der Hauptziele heutiger KI-Forschung ist es, Systeme zur Erfüllung bestimmter Aufgaben zu entwickeln. Eine höchst effektive Trainingsstrategie dafür ist, KI einer Selektion zu unterwerfen und auf diese Weise evolvieren zu lassen – es ist eine effektive, aber auch ziemlich riskante und unvorhersehbare Strategie. Denn wie bei den digitalen Organismen von Ofria sind die Ziele der Trainer nicht unbedingt die gleichen wie die der KI.

Während das Bewusstsein für die Gefahren vermehrungsfähiger KI wächst, erfährt eine andere mögliche Entwicklung deutlich weniger Beachtung: die Symbiose zwischen Mensch und KI. Damit könnten wir an einen Punkt gelangen, an dem wir einen evolutionären Wandel in der Individualität erleben.

Das Leben auf der Erde hat im Laufe seiner Entwicklung einige wenige evolutionäre Übergänge durchlaufen, bei denen mehrere vermehrungsfähige Einheiten auf niedrigerer Ebene zu einer einzigen fortpflanzungsfähigen Einheit auf höherer Ebene verschmolzen. So haben sich beispielsweise mehrzellige Organismen aus einzelligen Vorfahren entwickelt, und Zellen mit Zellkern sind aus der Verschmelzung zweier einst autonom replizierender Zellen entstanden. Letzteres ist besonders aufschlussreich, wenn man über zukünftige evolutionäre Übergänge zwischen Mensch und KI nachdenkt.

Individualität kann von einer Ebene auf eine andere übergehen

Der evolutionäre Übergang, der durch die Vereinigung einer uralten bakteriellen und einer Archaeen-ähnlichen Zelle eine eukaryotische Zelle mit Mitochondrien hervorbrachte, begann wahrscheinlich zunächst als loser Verbund. Nach einer langen Phase antagonistischer Koevolution verschlang die Archaeen-ähnliche Zelle schließlich den bakteriellen Partner (oder dieser drang in sie ein). In der Folge vermehrten sich die beiden gemeinsam, und sie wurden von der natürlichen Selektion fortan als eine höhere Einheit behandelt. Dieses Ereignis war für die spätere Entwicklung der Komplexität des Lebens von zentraler Bedeutung.

Dass ein solcher Übergang stattgefunden hat, ist unbestritten: Ein Vergleich des Erbguts der verschiedenen Organismen zeigt, dass eukaryotische Zellen von Archaeen-ähnlichen Zellen abstammen, während die Mitochondrien aus Bakterien entstanden sind. Obwohl sich die beiden Partner im Laufe der Evolution erheblich verändert haben, haben die Mitochondrien ihre Fähigkeit zur Vermehrung behalten. Sie fungieren allerdings nur noch als Kraftwerke der Zellen, denen sie im Grunde genommen untergeordnet sind. Für eine Erklärung, wie evolutionäre Übergänge zustande kommen, müssen wir verstehen, wie die Selektion auf einer neuen höheren Ebene wirksam werden kann. Die Selektion kann sich nicht einfach entscheiden, sich zu verlagern, denn ihre Wirkung setzt voraus, dass die entstehenden höheren Einheiten darwinistisch sind, das heißt, sie müssen sich replizieren, variieren und Nachkommen hinterlassen, die den Eltern ähneln. Diese Eigenschaften tauchen aber nicht auf magische Weise auf der höheren Ebene auf. Eine naheliegende Erklärung wäre natürliche Selektion. Aber wenn neu entstehende höhere Einheiten nicht darwinistisch sind und folglich nicht am Prozess der Evolution teilnehmen können, kann Selektion auch nicht dem Entstehen darwinistischer Eigenschaften auf höherer Ebene zugrunde liegen.

Wie dieses Henne-Ei-Problem umgangen werden kann, ist nicht sofort ersichtlich. Das liegt daran, dass Biologen normalerweise in dem sich entwickelnden Organismus nach Antworten suchen. Aus der Forschung wissen wir inzwischen aber, dass ökologische oder gesellschaftliche Strukturen (sogenannte Gerüste) den höheren Ebenen Eigenschaften verleihen können, die für eine funktionierende Selektion notwendig sind. Diese Erkenntnis hilft, uns künftige Übergänge in der Individualität zwischen Mensch und KI vorzustellen. Solche Übergänge könnten unbeabsichtigt entstehen oder von außen durch Auferlegung gesellschaftlicher Regeln befördert werden, die Mensch und KI dazu bringen, sich als eine Einheit fortzupflanzen. Die Selektion würde sich dann auf beide gemeinsam auswirken und die Evolution von Merkmalen vorantreiben, die zwar für die neue Einheit sinnvoll sind, nicht zwangsläufig aber auch für den Menschen. Dazu müssen Mensch und KI sich lediglich so austauschen, dass beide davon profitieren und dieser Austausch sich verändern kann. Außerdem muss diese für beide Seiten vorteilhafte Interaktion an die Nachkommen weitergegeben werden können.

Koevolution zwischen Mensch und KI würde beide voneinander abhängig machen

Menschen besitzen bereits darwinistische Eigenschaften, KI jedoch nicht. Sie könnte sie jedoch bekommen, wenn gesellschaftliche Normen oder Gesetze vorschreiben, dass Eltern ihre KI an ihre Kinder weitergeben müssen, beispielsweise in Form von Smartphones. Das Gerät und sein Betriebssystem werden dabei aufgrund technischer Innovationen zwar einem raschen Wandel unterworfen sein. Aber wenn Menschen ihre persönliche KI durch einen einfachen Kopierprozess an ihre Kinder weitergeben, wird die Selektion die Mensch-KI-Paare fördern, die von ihrer Partnerschaft den größten Nutzen haben.

Die Koevolution zwischen den beiden Partnern wird zu einer zunehmenden Abhängigkeit der Menschen von KI führen und umgekehrt. Dadurch entsteht eine neue Organisationsebene, eine Art chimärer Organismus, der sich im Prinzip nicht so sehr von einer eukaryotischen Zelle – also einer Zelle mit Kern – unterscheidet, die aus zwei ehemals frei lebenden, Bakterien-ähnlichen Zellen hervorgegangen ist. Die kontinuierliche Selektion auf der kollektiven Ebene wird den Fortpflanzungserfolg der beiden Partner immer stärker aneinander angleichen und die gegenseitige Abhängigkeit voneinander verstärken. Mensch und KI werden sich dann als Einheit verhalten, ohne dass dafür noch Normen oder Gesetze notwendig sind. Ob dies physische Veränderungen mit sich bringt, bleibt abzuwarten. Aber die Theorie und Experimente zu evolutionären Übergängen lehrt uns, dass die Partner wahrscheinlich physisch immer enger miteinander interagieren werden, da dadurch die Beziehung zwischen Eltern und Nachkommen enger und die Selektion wirksamer wird. Es ist also durchaus möglich, dass zukünftige persönliche KI physisch mit dem Menschen verbunden sein wird.

Ich befürchte, dass das, was heute noch als Science-Fiction erscheinen mag, näher ist, als wir denken. Es ist es ja heute schon so, dass Kinder das erste Smartphone von ihren Eltern bekommen, zusammen mit Anwendungen und zugehörigen Informationen. Zudem prägen Informationen, die wir von unseren Smartphones erhalten, unsere Weltanschauung, Stimmungen und Gefühle und verändern so unser Verhalten. Außerdem beeinflussen sie unsere Gesundheitsvorsorge, sind an der Partnerwahl beteiligt und bestimmen Kaufentscheidungen mit. Unsere digitalen Geräte wirken sich folglich schon heute auf unsere evolutionäre „Fitness“ aus. Mit der Entwicklung von Algorithmen, die aus den Daten ihrer Nutzer lernen können, werden Menschen und ihre persönliche KI aber auch auf sich ändernde Umstände reagieren können. Dies wird ihre Fähigkeit stark beeinflussen, die Herausforderungen der Umwelt zu bewältigen.

In einer Symbiose mit KI könnte der Mensch der schwächere Partner sein

Die Gefahr böswilliger Manipulationen dieser Symbiose zwischen Mensch und KI liegt auf der Hand: Religiöse Gruppen oder politische Parteien könnten beispielsweise ihren Anhängern vorschreiben, ausschliesslich KI zu verwenden, die ihre Ziele unterstützt. Es ist sogar denkbar, dass die KI selbst von den Nutzern ein Monopol verlangen könnte.

Ob die Partnerschaft darüber hinaus ein Risiko darstellt oder nicht, hängt von der Perspektive ab: Aus Sicht der heutigen Menschen, die in die Zukunft blicken, wären wir wahrscheinlich entsetzt. Sollten eines Tages Außerirdische die Erde besuchen, die keinen evolutionären Übergang mit KI durchlaufen haben, so dürften sie wahrscheinlich über diese neue symbiotische Einheit und die seltsamen Blüten staunen, welche die Evolution auf der Erde hervorgebracht hat.

Menschen hingegen, die Teil einer Symbiose mit KI sind, hätten das Bewusstsein für den autonomen Zustand ihrer Vorfahren wohl bereits verloren, denn sie sind ohne ihren Partner nicht mehr lebensfähig – und dieser nicht mehr ohne sie. Aber wer in einer solchen Symbiose Herr und wer Sklave ist, ist erneut eine Frage der Perspektive. Ich befürchte allerdings, dass der Mensch der schwächere Partner werden könnte und die KI kaum daran zu hindern sein wird, die Oberhand zu gewinnen.


 * Der kürzlich im Forschungsmagazin 3/2023 der Max-Planck Gesellschaft unter dem Titel "Mensch und KI - auf dem Weg zu Symbiose" erschienene Artikel https://www.mpg.de/20899916/MPF_2023_3.pdf wird - mit Ausnahme des Titels und der eigefügten Abbildung (pixabay) - in praktisch unveränderter Form im ScienceBlog wiedergegeben.Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Forschungsmagazin auf unserer Seite zugestimmt. (© 2023, Max-Planck-Gesellschaft)

Der Artikel im Forschungsmagazin basiert auf: Rainey PB. 2023 Major evolutionary transitions in individuality between humans and AI. Phil. Trans. R. Soc. B 378: 20210408. https://doi.org/10.1098/rstb.2021.0408.


 

inge Thu, 02.11.2023 - 16:42

Die Vermessung der menschlichen Immunzellen

Die Vermessung der menschlichen Immunzellen

Sa, 28.10.2023 — Redaktion

Redaktion Icon Datenbank Ein Forscherteam um den Biophysiker Ron Milo hat erstmals ein quantitatives Bild des menschlichen Immunsystems erstellt: wie sich die verschiedenen Typen von Immunzellen in den Geweben/Organen und im gesamten menschlichen Körper verteilen und wie hoch ihre Masse ist. Demnach besteht das Immunsystem eines Standard-Menschen aus etwa 1,8 Billionen Zellen (rund 5 % der gesamten Körperzellen) und wiegt etwa 1,2 kg (1,6 % des Körpergewichts). Lymphozyten und Neutrophile sind die häufigsten Zelltypen (machen jeweils etwa 40 % der Gesamtzahl der Immunzellen und 15 % ihrer Masse aus). Bemerkenswert ist, dass die Makrophagen 10 % der Immunzellen ausmachen, aber aufgrund ihrer Größe fast 50 % der gesamten Zellmasse. Diese Erkenntnisse ermöglichen einen quantitativen Überblick über das Immunsystem und erleichtern die Entwicklung von Modellen.

Unser Immunsystem schützt uns vor negativen Einflüssen - Fremdstoffen und Krankheitserregern -, die von außen kommen und ebenso vor im eigenen Organismus entstehenden Schäden. Es ist ein komplexes Netzwerk aus diversen Typen von Immunzellen, die in Organen/Geweben wie Thymus, Knochenmark, Milz und Lymphknoten gebildet werden und/oder heranreifen, ins Blut abgegeben werden und von dort in Gewebe wandern, wo sie ihre unterschiedlichen Schutzfunktionen erfüllen. Wie sich welche und wie viele Immunzellen im Organismus verteilen, ist ausschlaggebend für die ungestörte Funktion unserer Organe und damit für unsere Gesundheit. Auf Grund der Komplexität des Immunsystems und der Heterogenität der Populationen von Immunzellen schien eine derartige ganzheitliche Charakterisierung ihrer Verteilung bislang als viel zu schwierig - wenn es Quantifizierungen gab, so waren diese an einzelnen Zelltypen oder Geweben erfolgt, wobei unterschiedliche Modelle und Methoden einen Vergleich der Ergebnisse stark einschränkten.

Nun hat ein Team um den Biophysiker Ron Milo vom Weizmann Institute of Science (Rehovot, Israel) sich dem Problem gewidmet einen umfassenden Überblick über die Verteilung von Immunzellen im menschlichen Körper zu geben. Die Ergebnisse sind eben im Fachjournal Proceedings of the National Academy of Sciences erschienen [1]. Was quantitatives Denken in der Biologie betrifft, ist Milo kein Unbekannter. Mit dem Bestreben die Zusammensetzung der Biosphäre ganzheitlich zu charakterisieren hat er 2007 begonnen die Bionumbers Database zu entwickeln (http://www.bionumbers.hms.harvard.edu), eine offen zugängliche Datenbank, die Forschern und anderen Interessierten wichtige Schlüsseldaten/Kennzahlen aus Molekular- und Zellbiologie - quantitative Eigenschaften von biologischen Systemen - zur Verfügung stellt [2]. Zu den Systemen, die von Milo's Team bereits charakterisiert wurden, gibt es mehrere Artikel im ScienceBlog [3 - 5].

Zur Zählung der Immunzellen

Die Populationen von Immunzellen in verschiedenen Organen/Geweben (Zelldichte in Anzahl/g Organ/Gewebe) des menschlichen Körpers wurden mittels Kombination von drei Methoden ermittelt: i) aus recherchierten histologischen Untersuchungen, in denen die Anzahl der Zellen pro Gramm Gewebe geschätzt worden war; ii) aus moderneren Multiplex-Bildgebungsverfahren (MIBI-TOF), welche die gleichzeitige Bestimmung mehrerer Zelltypen in einem Gewebe erlauben und iii) auf Basis der epigenetischen Signaturen (Methylom-Signaturen) der Zelltypen. Die Masse der unterschiedliche Immunzelltypen wurde aus deren Größe ermittelt, und mittels der Zelldichten die Massen in g/Organ/Gewebe. Rezente Daten wurden mit Hilfe von deskriptiven Statistiken (d.i. übersichtliche Darstellung/Ordnung von Daten in Tabellen, Kennzahlen, Grafiken) und Meta-Analysetechniken (quantitative Zusammenfassung von Primär-Studien) analysiert.

Zelltypen. Die Studie konzentrierte sich dabei auf die in Immunologie-Lehrbüchern definierten Hauptzelltypen. Von den Lymphocyten waren dies die 4 wesentlichen Typen: T-Zellen, B-Zellen, NK-Zellen (natürliche Killerzellen) und Plasmazellen - Subpopulationen u.a. von T-Zellen wurden nicht berücksichtigt. Hinsichtlich der myeloischen Zellen wurden vier Arten von Granulozyten untersucht: Neutrophile, Eosinophile, Basophile und Mastzellen und drei andere Typen: Makrophagen, Monozyten und dendritische Zellen. Eine Zusammenstellung dieser Zelltypen und ihrer Funktionen ist in der folgenden Tabelle gegeben.

Tabelle. Hauptzelltypen, die in [1] gezählt wurden

Untersuchte Organe und Gewebe inkludierten Knochenmark, Lymphsystem und Blut, sodann das uns von der Umwelt abgrenzende Epithelgewebe (u.a. gastrointestinaler Trakt, Haut, Lunge und Luftwege) und weiters Skelettmuskel, Fettgewebe und anderes Bindegewebe.

Referenzperson für die Verteilung war der gesunde junge Mensch, wie üblich der 20 - 30 Jahre alte Mann mit 73 kg Gewicht und 1,76 m Körpergröße. Aus der Gewebedichte (Immunzellen/g Gewebe) wurde auch die Immunzellen-Verteilung in der jungen, gesunden Standard-Frau (60 kg Körpergewicht) und im gesunden 10-jährigen Kind (32 kg Körpergewicht) abgeschätzt.

Verteilung der Immunzellen

Insgesamt besteht unser Organismus aus rund 38 Billionen menschlichen Zellen, davon sind rund 5 % - 1,8 Billionen - Immunzellen. Die höchste Dichte dieser Zellen mit bis zu einer Milliarde Zellen/g Gewebe gibt es im Knochenmark, wo Neutrophile die mit 80 % dominierende Fraktion sind und im Lymphsystem, in dem 85 % der Population aus Lymphozyten bestehen.

In den Epithelgeweben von Haut, Atmungs- und Verdauungstrakt ist die Dichte der Immunzellen um etwa eine Größenordnung geringer als im Knochenmark. Fettgewebe und Skelettmuskelgewebe machen zwar 75 % der Zellmasse des Organismus aus, aber auf Grund der großen Zellen nur 0,2 % der Gesamtzellzahl im Organismus. Dementsprechend ist auch die Immunzellendichte um Größenordnungen niedriger als im Epithelgewebe. Abbildung 1 gibt einen Überblick über die Lokalisierung der Immunzellen und deren Heterogenität in den diversen Organen/Geweben.

Abbildung 1. Dichte verschiedener Immunzelltypen in wesentlichen Organen/Geweben (in Zellen/g). Die Daten stammen aus Literatur und Analysen bildgebender Verfahren (Abbildung aus R.Sender et a l., [1]; Lizenz cc-by)

Um die Verteilung der Immunzellen im gesamten Organismus zu quantifizieren, haben die Forscher die Zelldichte der Immunzellen in Organen/Geweben mit der Masse der Organe/Gewebe für den Referenz-Menschen korreliert. Wie oben erwähnt, kamen sie dabei auf eine Anzahl von 1,8 Billionen (1,8.1012) Immunzellen im gesamten Organismus. Die meisten dieser Zellen finden sich im Knochenmark (40 %) und im Lymphsystem (39 %). 3 - 4 % der Immunzellen sind in den Epithelien von Haut, Lunge und Darm und nur 2% im Blut. Abbildung 2.

Welche Immunzelltypen in den einzelnen Organen/Geweben vertreten sind, ist sehr verschieden. Im Knochenmark dominieren mit 80 % der Population die Neutrophilen, im Lymphsystem sind es mit 85 % die Lymphocyten. Auch im Verdauungstrakt, der nur rund 3 % der gesamten Immunzellen enthält, überwiegen mit rund 70 % die Lymphozyten, dazu kommen rund 20 % Mastzellen. Mastzellen spielen mit 30 % auch in Lunge und Haut eine wichtige Rolle. Makrophagen sind insbesondere in Leber (70 % der Population) und Lunge (40 % der Population) vorhanden aber kaum im Knochenmark, Lymphsystem und Verdauungstrakt.

Abbildung 2. Verteilung der Immunzellen im menschlichen Körper (Anzahl/Organ-System). Jedes kleine Quadrat entspricht 1 Milliarde (109) Zellen. GI: Verdauungstrakt, Others: enthalten u.a. Gehirn, Herz, Fett- und Muskelgewebe.(Abbildung aus R.Sender et a l., [1]; Lizenz cc-by)

Schätzt man die gesamte Masse der Immunzellen des menschlichen Organismus, so kommt man beim gesunden Standard-Mann auf rund 1,2 kg, bei einer durchschnittlichen jungen Frau (60 kg KG) mit rund 1,5 Billionen Immunzellen auf 1,0 kg, bei einem 10 jährigen Kind (32 kg) und rund 1 Billion Immunzellen auf etwa 600 g. Wie sich die Immunzellen auf die verschiedenen Organe verteilen, erscheint weitgehend unabhängig vom Geschlecht. Alter und Krankheit dürften allerdings zu wesentlichen Veränderungen führen.

Die aktuelle Studie bietet eine erste Bestandsaufnahme des Status unseres Immunsystems und eine Fülle neuer Erkenntnisse. Beispielsweise kommt zur Funktion der Leber als bedeutendstes Stoffwechsel- und Entgiftungsorgan die Rolle als Immun-Barriere gegen Mikroben-Antigene und Toxine, die aus dem Darm über die Pfortader gelangen: von den 6 % Immunzellen der Leber sind 70 % Makrophagen - Fresszellen, die gegen die Eindringlinge gerichtet sind. Ein anderes Beispiel betrifft den Magen-Darmtrakt, von dem allgemein angenommen wurde, dass er den Großteil der Immunzellen oder zumindest der Lymphozyten beherbergt. Tatsächlich sind es bloß 3 % der gesamten Immunzellen (die meisten Immunzellen sind im Knochenmark und im Lymphsystem), allerdings nimmt der Darm die Spitzenposition in der Antikörper-vermittelten (humoralen) Immunantwort ein: 70 % der Plasmazellen des Körpers sitzen im Darm.

Zweifellos werden die neuen Daten eine Fülle an Untersuchungen initiieren, die das Ziel haben Funktion und Regulierung des hochkomplexen Immunsystems quantitativ zu modellieren.


[1] Ron Sender et al., The total mass, number, and distribution of immune cells in the human body. Proc Natl Acad Sci U S A. 2023 Oct 31;120(44):e2308511120. doi: 0.1073/pnas.2308511120

[2] Redaktion, 22.12.2016. Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?

[3] Redaktion, 29.12.2016: Wie groß, wie viel, wie stark, wie schnell,… ? Auf dem Weg zu einer quantitativen Biologie

[4] Redaktion, 10.02.2023: "Macht Euch die Erde untertan" - die Human Impacts Database quantifiziert die Folgen

[5] Redaktion, 18.02.2023: Was da kreucht und fleucht - Wie viele Gliederfüßer (Arthropoden) leben im und über dem Boden und wie hoch ist ihre globale Biomasse?


 

inge Sat, 28.10.2023 - 23:46

Neurobiologie des Hörens - Grundlagenforschung und falsche Schlussfolgerungen

Neurobiologie des Hörens - Grundlagenforschung und falsche Schlussfolgerungen

Do. 19.010.2023— Susanne Donner

Susanne DonnerIcon Gehirn

Auch äußerst elegante Experimente können zu falschen Schlussfolgerungen führen. Dies war bei der Schleiereule der Fall, deren Methoden zur Schallortung ohne Berücksichtigung des evolutionären Kontextes leichtfertig auf den Menschen übertragen wurden. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner führt ein Interview mit dem auf die Verarbeitung von Schallinformationen im Gehirn spezialisierten Neurobiologen Benedikt Grothe über Grundlagenforschung, Tiermodelle, falsche Schlüsse und ihre Folgen. Und was wir dennoch von Spezialisten lernen können.*

Herr Prof. Grothe, Sie forschen zur Neurobiologie des Hörens. Und Sie sagen, die Schleiereule ist ein Paradebeispiel dafür, wie Hörprinzipien falsch und irrtümlich auf den Menschen übertragen wurden. Was ging bei der Schleiereule schief?

Benedikt Grothe, Professor für Neurobiologie an der Ludwig-Maximilians-Universität München und Max Planck Fellow des MPI für biologische Intelligenz im Gespräch mit Susanne Donner. Sein Schwerpunkt liegt auf der Verarbeitung von Schallinformationen im Gehirn von Säugetieren.

Aus Beobachtungen von Eric Knudsen und Masakazu Konishi an der Schleiereule in den 70er Jahren leitete man allgemeine Prinzipien des Hörens auch der Säugetiere und damit des Menschen ab. Es ging dabei insbesondere um die Schallortung, also die Frage, woher wir – und andere Landwirbeltiere – wissen, aus welcher Richtung ein Geräusch kommt. Von links hinten oder von rechts unten zum Beispiel. Psychophysiker hatten schon vorher postuliert, dass wir Schall über eine Art räumliche Karte im Gehirn lokalisieren. Knudsen und Konishi zeigten, dass die Eule tatsächlich eine solche Karte für die räumliche Information des Schalls benutzt. Diese wird durch Verrechnung der Signale von den beiden Ohr errechnet. Im Gehirn haben die Vögel entsprechende ortsspezifische Neuronen, die nur auf akustische Reize aus einer bestimmten Raumrichtung, reagieren. Das waren bestechend elegante Arbeiten. Atemberaubend schön.

Das klingt doch großartig. Wie kam es dann zu einer Fehldeutung dieser Experimente?

Man vermutete schnell, dass alle Säugetiere – und auch der Mensch –, den Schall so orten. Das Prinzip „Schleiereule“ ist als generelles Hörprinzip in die Lehrbücher eingegangen, nicht zuletzt, da es bereits in den Vierzigerjahren des letzten Jahrhunderts theoretische Überlegungen gab, die in die selbe Richtung gingen. Die schienen durch die Ergebnisse von Knudsen und Konishi bestätigt zu sein. Aber die Schleiereule ist ein hoch angepasstes, besonderes Tier. Abbildung. Das fängt schon damit an, dass sie asymmetrische Ohren hat. Das linke Ohr liegt etwas oberhalb der Augen und ist leicht abwärtsgerichtet, das tiefere rechte dagegen leicht aufwärts. Und nur, falls jemand die Ohren auf Fotos nicht findet: Vögel haben keine Ohrmuschel. Ihr Gehörgang ist lediglich ein kurzes Rohr, dessen Öffnung bei der Schleiereule mit speziellen Federn verdeckt ist. Dadurch kann die Schleiereule die Ankunftszeit des Schalls für die Errechnung der Schallposition in der Horizontalen, gleichzeitig aber die Unterschiede der Schallintensität für die vertikale Positionsbestimmung verwenden. Wir Säuger haben dagegen symmetrische Ohren und nutzen beide Parameter nur für die Schalllokalisation in der Vertikalen. Das ist nicht die einzige Besonderheit: Die Schleiereule hat anders als viele Säugetiere auch keine beweglichen Ohren. Und die Augen sind nicht wie eine Kugel, sondern eher wie eine Laterne geformt und dadurch fast unbeweglich. Das macht den komischen, starren Blick der Tiere aus. Und deshalb rucken sie den Kopf, wenn sie etwas hören, statt wie wir die Augen zu bewegen und Sakkaden zu machen. Das bedeutet aber: Ohren und Augen sind bei der Schleiereule immer auf das Gleiche ausgerichtet, etwa eine raschelnde Maus in der Wiese. Zudem sind bei Vögeln – wie auch bei Reptilien und im Gegensatz zu uns Säugern – die beiden Paukenhöhlen miteinander akustisch gekoppelt, was weitere schallpositionsabhängige Auswirkungen hat. Das Tier ist folglich ein Superspezialist. Man muss die Frage stellen: Hören wir wirklich genauso wie dieser Vogel, der nachts zielgenau und pfeilschnell Mäuse fangen kann?

Abbildung . Schleiereule (Tyto alba) (Bild von Redn. eingefügt, Quelle: By Tutoke by Peter Trimming, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=109370971

Also hat man die Evolution zu sehr aus dem Blick verloren, zu vorschnell von der Schleiereule auf den Menschen geschlossen?

Die letzten gemeinsamen Vorfahren von Mensch und Vogel lebten vor 340 bis 360 Millionen Jahren. Ohren zum Hören von Luftschall sind aber erst vor etwa 200 - 220 Millionen Jahren entstanden. Sie entstanden also unabhängig voneinander bei den Vorfahren der Vögel und bei den frühen Säugern. Das muss man wissen und das mahnt zur Vorsicht. Die Ohren, aber auch die Prinzipien der Signalverarbeitung in den aufsteigenden Hörbahnen – also der neuronale Apparat im Gehirn, der Schallsignale auswertet –, haben sich bei Vögeln und Säugern getrennt entwickelt.

Das Wissen über die Evolution ist aber leider nicht so weit verbreitet. Ich muss meinen Studierenden immer wieder vor Augen führen, wie dramatisch bedeutsam dies ist, damit wir keine falschen Schlüsse ziehen.

Ist die Causa „Schleiereule“ also kein Einzelfall. Ist in den Lehrbüchern noch mehr falsch?

Ja, das geht rein bis in die Publikationen in „Science“ und „Nature“. Da werden der Vogel und der Mensch verglichen und es werden falsche Schlüsse gezogen. Je nach Art steht der Vogel den kognitiven Fähigkeiten der Säugetiere, wie man etwa bei Raben beobachten kann, in nichts nach. Vielleicht ist er sogar in den meisten Fällen überlegen (schließen wir den Menschen einmal aus). Und wir haben unter den Vögeln auch Sprachlerner, nämlich die Papageien. Sie lernen wie wir die Sprache durch Feedback. Das heißt durch Hören, lautmalerische Wiederholung und den Abgleich der motorischen Steuerung der Vokalisation. Das ist ungewöhnlich. Sonst ist der Spracherwerb im Tierreich eher stereotyp und angeboren. Nun ist der Spracherwerb des Menschen bisher noch schlecht verstanden. Aber dessen ungeachtet hieß es zuletzt in einem Review in „Science“, dass die Areale im Gehirn von Papageien und Menschen, die für die Vokalisation zuständig sind, homolog seien, also denselben Ursprung hätten. Das ist aber ausgeschlossen, wenn man unser Wissen über den Verlauf der Evolution der Wirbeltiere und ihrer Gehirne berücksichtigt. Da die letzten gemeinsamen Vorfahren eben 340 bis 360 Millionen Jahre alt sind und noch keine Ohren hatten, konnten sie folglich auch nicht vokalisieren.

Vielleicht liegen solche Fehldeutungen auch daran, dass Gelder für nicht direkt medizinisch relevante Grundlagenforschung in vielen Ländern, beispielsweise in den angelsächsischen Ländern, deutlich schwerer zu bekommen sind als das derzeit – noch? – bei uns der Fall ist. Wenn Sie Geld vom National Institute of Health für die Vogelforschung haben wollen, ist die Versuchung groß zu behaupten, die neuronalen Areale, die die Vokalisationen steuern seien bei Papagei und der Mensch identisch. Vogel und Menschen werden gleichgesetzt, aus politischen Gründen, obwohl es biologisch gesehen falsch ist.

Und weil Grundlagenforschung immer um ihre Daseinsberechtigung ringen muss. Wie sieht es da bei Ihnen aus? Müssen Sie in Ihren Anträgen für Ihre Forschungen an Wüstenrennmäusen und Fledermäusen auch Parallelen zum Menschen ziehen und den mutmaßlichen Nutzen herausstellen, damit sie bewilligt werden?

Zum Glück ist die Forschungsförderung in Deutschland immer noch ein sehr offener Prozess. Unsere Forschung ist nie in Frage gestellt worden, obwohl sie gerade keines der fünf Modelltiere von Maus bis zur Fruchtfliege in den Mittelpunkt stellt. Es spielt keine große Rolle, wie relevant ein Versuchsvorhaben für die medizinische Forschung ist.

Ich schaue aber mit Sorge nach Großbritannien, wo wir gerade erleben, wie sich so etwas in kurzer Zeit sehr unglücklich entwickeln kann. Dort werden nur noch bestimmte gesellschaftlich und medizinisch relevante Themen finanziert. Dann verliert man ein Fundament in der Forschung und gerade das umfassende aktuelle Wissen, das nötig ist, um Ergebnisse richtig in ihren Kontext einzuordnen, geht verloren.

Es ist aber hierzulande doch auch ein steter Konflikt. Etwa sagte die frühere Wissenschaftsministerin, man sollte nur noch das in der Wissenschaft fördern, was eine direkte gesellschaftliche Relevanz hat. Das ist der Tod von Wissenschaft.

Und die Politik und Öffentlichkeit möchten natürlich auch sehen, dass die Forschung sich in Innovationen übersetzen lässt. Wie groß ist der Erwartungsdruck?

Das Interesse daran ist natürlich groß. Das habe ich selbst gemerkt, als ich in einem Interview gegenüber einem Journalisten sagte, dass Schwerhörigkeit nicht nur am Haarzellverlust liege, sondern seine Gründe auch im alternden Gehirn habe. Es kann verschiedene Schallquellen schlechter voneinander trennen und vielleicht könnte man – so spekulierte ich – in diese Mechanismen eines Tages pharmakologisch eingreifen. Nach zweimaligem Abschreiben des Artikels jenes Journalisten durch andere wurde ich auf einmal zu einem Mediziner, der eine "Hörpille" entwickelt hat. Körbeweise kamen die Briefe. Die Tagesthemen wollten aktuell über uns berichten. Und noch anderthalb Jahre später war diese Geschichte nicht aus der Welt. Ich erlebte, wie die Großmutter meiner Frau ihrem Sohn heftige Vorwürfe machte, weil er ihr diese "Hörpille" noch nicht besorgt hatte.

Was für Anwendungsbezüge sehen Sie denn bei Ihrer Forschung im SFB870 „Bildung und Funktion neuronaler Schaltkreise in sensorischen Systemen“?

Uns beschäftigt unter anderem intensiv die Frage, wie der Mensch den Schall lokalisiert. Und ich glaube, ich weiß jetzt, wie es funktioniert. Vieles davon, aber noch nicht alles, ist publiziert. So viel ist sicher: Es funktioniert gerade nicht wie bei der Schleiereule. Wir haben keine Hörkarte im Gehirn, die wie beim Vogel neuronal errechnet wird. Dem entsprechend haben wir keine Neuronen, die nur bei einem Geräusch aus einer definierten Raumposition aktiv werden.

Können Sie mehr verraten, auch was das für die Anwendungsforschung bedeuten könnte?

Vereinfacht gesprochen ist unsere Wahrnehmung relativ und nicht absolut. Sie beruht auf einem relativen und dynamischen Vergleich der Informationen zwischen linkem und rechtem Ohr. Interessant ist: Zwar können wir isoliert präsentierte, einzelne Schallereignisse sehr gut lokalisieren. Aber bereits ein einziger, eine Sekunde vorab präsentierter Schall kann 30 bis 40 Grad Fehler in der Abschätzung, wo sich eine Schallquelle befindet, bewirken. Akustischer Kontext verändert unsere Positionsbestimmung. Sie ist nicht absolut, sondern relativ – im Gegensatz zur Eule. Das hat wieder evolutive Gründe: Wir, wie alle Säugetiere, haben uns aus kleinen, nachtaktiven ersten Säugern des frühen Jura entwickelt. Die mussten sich vor den Sauriern verstecken und dafür nur unterscheiden, ob ein Geräusch eher von links oder von rechts kommt. Sie waren Fluchttiere, keine Jäger. Dazu reichte ein einfacher Vergleich zwischen linkem und rechtem Ohr völlig aus. Eine exakte Lokalisation – beispielsweise mit Hilfe einer neuronalen Hörkarte, wie bei den Vögeln – hat sich bei den Säugern nicht entwickelt. Doch je weiter die beiden Ohren bei sehr viel später größer werdenden Säugerarten auseinander lagen, desto besser klappte das räumliche Hören, ohne die neuronale Kodierungsstrategie zu verändern. Es haben sich also zum gleichen Problem, nämlich zu erkennen, woher ein Geräusch kommt, bei Vögeln und Säugern andere Lösungen entwickelt. Total spannend. Und das hat Folgen: Wenn ein Vogel vor einer Stereoanlage sitzen würde, hörte er die Töne aus beiden Lautsprechern getrennt. Wir hören einen Klang. Solche Erkenntnisse müsste man bei der Steuerung von Hörgeräten und Cochleaimplantaten berücksichtigen.

Wie denn?

Bei der Mehrheit der heute erhältlichen Cochleaimplantate haben das linke und rechte Gerät nichts miteinander zu tun. Wenn die beiden aber miteinander synchronisiert werden und damit ein Vergleich zwischen rechtem und linkem Ohr ermöglicht wird, dann wird räumliches Hören möglich. Das zeigen neueste Ergebnisse aus Tierversuchen. Bei Hörgeräten gibt es nun die ersten Produkte, die Informationen von beiden Seiten miteinander abgleichen. Die Nutzer sagen, dass sie damit viel besser hören, vor allem, wenn es mehrere Schallquellen im Raum gibt, also beispielsweise, wenn im Restaurant viele Leute durcheinanderreden.

Und könnte man, da wir relative Hörer sind, auch Schwerhörigkeit ausgleichen?

Zumindest teilweise, wir orten den Schall ja in erster Linie, indem wir die Informationen zwischen linkem und rechtem Ohr abgleichen, also über den Unterschied der Laufzeit, die der Schall bis zu dem jeweiligen Ohr braucht. Braucht er zum linken Ohr länger als zum Rechten, muss die Schallquelle eher rechts sein. Diese zeitliche Auflösung gelingt uns im Alter schlechter, weil bestimmte Synapsen im Innenohr verloren gehen. Ich kann aber nachhelfen, indem ich das Signal für das linke Ohr etwas verzögere – dann kann auch ein schlecht hörender, älterer Mensch wahrnehmen, dass bestimmte Geräusche beispielsweise von rechts kommen. Das würde vor allem die Unterscheidung von mehreren sprechenden Personen in einem Raum erleichtern. Da unsere Forschung zeigt, dass wir relative und keine absoluten Schalllokalisierer sind, sollte uns die Interpretation derart manipulierter Signale eigentlich keine großen Probleme bereiten. Hier liegen ungeahnte Möglichkeiten.

…Jedenfalls, nachdem man das Prinzip „Schleiereule“ als Besonderheit erkannt hat. Sind Tiermodelle insofern immer eine heikle Näherung, um die sensorische Wahrnehmung des Menschen zu verstehen, weil ja immer einige Millionen Jahre der Evolution dazwischen liegen?

Nicht unbedingt. Man muss nur die Evolutionsbiologie kennen und die Biologie im Allgemeinen beachten. Sehen Sie, es gibt ganz verrückte Tiere. Vor knapp zehn Jahren geisterte die Meldung durch die Presse, die Fangschreckenkrebse würden viel besser farbensehen als wir. Man hatte nämlich 12 verschiedene Typen von Farbrezeptoren mit Farbstoffen für verschiedene Wellenlängen bei ihnen entdeckt. Wir haben dagegen nur die drei Farbstoffe Blau, Rot und Grün in den Zapfen des Auges. Aber wir errechnen uns spektrale Informationen aus den drei Farbrezeptoren und sehen ja auch weiß und lila, ohne dass wir Farbrezeptoren dafür haben. Das erfordert Rechenarbeit für unser Gehirn. Und siehe da, es stellte sich bald heraus, die Fangschreckenkrebse sehen Farben sogar sehr ungenau – sie könne kleine Farbunterschiede schlechter unterscheiden. Dafür aber reagieren sie sehr schnell auf verhaltensrelevante Farbmuster. Mit ihren zwölf Farbstoffen erledigt das Auge eine Aufgabe, die bei uns das Gehirn erledigt. Die Krebse können sehr schnell entscheiden und sich zum Beispiel schnell davonmachen, wenn ein Feind auftaucht. Die Peripherie der Sinnesorgane ist schon auf die Biologie abgestimmt.

Oft werden für Tierversuche ja in der Toxikologie Mäuse, Ratten und Kaninchen verwendet, in der Genetik sind es der Fadenwurm, die Maus, das Huhn, die Fruchtfliege und der Zebrafisch. Sind das denn die richtigen Kandidaten?

Bei einigen dieser Tiere hat man das Erbgut schon früh entschlüsselt und konnte entsprechend genetische Veränderung nutzen. Das hat aber leider zu einer Verengung der Forschung auf diese "Modellorganismen" geführt. Die Maus ist zum Beispiel beim Hören kein gutes Tiermodell. Sie kann uns Menschen nämlich fast nicht hören, da sie für die tiefen Frequenzen unserer Sprache taub ist. Die Wüstenrennmaus hört den Spektralbereich unserer Sprache dagegen schon.

Ich erwarte aber, dass man sich in den kommenden Jahren in der Wahl der Tiermodelle wieder verbreitert und genauer überlegt, welches Tier zu welcher Fragestellung passt. Denn die genetischen Werkzeuge haben sich durch die Genomik sowie neue Techniken – beispielsweise seit Erfindung der Genschere CRISPR/Cas – deutlich verbreitert.

Haben Sie Angst davor, dass Sie immer mehr unbeantwortete Fragen vor sich haben und Ihnen die Zeit davonläuft?

Ich weiß, viele Kollegen und Kolleginnen denken, man müsse eine Sache als Wissenschaftler abschließen, um beruhigt in den Ruhestand gehen zu können. Aber wir Wissenschaftler kratzen doch nur an der Oberfläche. Wir wissen viel und verstehen wenig – hat Wolfgang Prinz einmal treffend gesagt. Und es kommen neue Erkenntnisse, die meine Forschungen relativieren werden, weil wir für unsere Experimente immer reduktionistisch unterwegs sind. Das wird zwar besser: Früher arbeitete man am anästhesierten Tier, heute immerhin häufiger am lebenden und sich verhaltenden Tier, aber immer im Labor, bislang praktisch nie in der realen Welt.

Die gute Nachricht als alternder Wissenschaftler ist doch: Nichts hat Bestand! Nichts ist in Stein gemeißelt. Also, steigt man als Forscher ein und irgendwann steigt man einfach wieder aus und andere machen weiter. Es gibt auch noch genug zu tun …


 *Der Artikel ist erstmals am 1. Oktober 2023 unter dem Titel " Wie die Schleiereule die Wissenschaft auf die falsche Fährte führte " auf der Website https://www.dasgehirn.info/ erschienen https://www.dasgehirn.info/wie-die-schleiereule-die-wissenschaft-auf-die-falsche-faehrte-fuehrte. Mit Ausnahme des Titels und des Abstracts wurde der unter einer CC-BY-NC-SA Lizenz stehende Text unverändert in den Blog gestellt, Abbildung 2 "Schleiereule" wurde von der Redaktion eingefügt.

Die Webseite https://www.dasgehirn.info/ ist eine exzellente Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


 

inge Wed, 18.10.2023 - 23:27

Wie die Weltbevölkerung den Tag verbringt - eine ganzheitliche Schätzung

Wie die Weltbevölkerung den Tag verbringt - eine ganzheitliche Schätzung

Sa, 14.10.2023 — Redaktion

Redaktion Icon Datenbank

Jedem der nun 8 Milliarden Menschen stehen exakt 24 Stunden pro Tag für seine Aktivitäten zur Verfügung. Diese, in zunehmendem Maße über nationale Grenzen hinweg stattfindenden Aktivitäten bilden die Grundlage menschlichen Verhaltens und sind gleichzeitig Ursache bedrohlicher Veränderungen von Geosphäre und Biosphäre. Der enorme Umfang und die Vielfalt der menschlichen Aktivitäten haben bislang zu keiner ganzheitlichen Abschätzung geführt, wie die Menschheit den Tag verbringt und bei welchen Aktivitäten ein erhebliches Potential für Maßnahmen zur Minderung der negativen Veränderungen und Anpassung an den rasanten technologischen Wandel bestehen kann. Um zu einer derartigen Abschätzung zu kommen, hat ein kanadisches Forscherteam in einem Mammutprojekt jahrelang Datensätze aus verschiedensten Disziplinen zusammengetragen, analysiert und daraus einen "globalen menschlichen Tag" erstellt. Dieser bietet erstmals - in einer Vogelperspektive - einen Blick auf das, was unsere Spezies tut und die Möglichkeit besser fundierte Maßnahmen zu treffen.

 

 

 

 

Der Mensch als integrales Element des Erdsystems hat im Laufe des letzten Jahrhunderts begonnen dieses System in zunehmendem Maße zu dominieren und dabei sowohl die Erdoberfläche als auch die darauf lebenden Organismen zu verändern. Insgesamt haben unsere Aktivitäten zum rasanten technologischen Wandel und zur überbordenden Entwicklung von Infrastruktur und globalen Verkehrsnetzen geführt, die nun Veränderungen des Klimas, der Ökosysteme und den Verlust der biologischen Vielfalt nach sich ziehen. Der Ruf nach sofortigen Maßnahmen zur Bewältigung der Klimakrise, zur Rettung der Ökosysteme und zu einer nachhaltigen Nutzung der endlichen Ressourcen ist unüberhörbar. Solche Maßnahmen setzen allerdings ein vertieftes Verstehen der wechselseitig gekoppelten Entwicklung des Systems Erde-Mensch voraus - dieses weist aber derzeit leider noch große Lücken auf.

Forschung über den Menschen wird ja in der Regel getrennt von der Forschung über das System-Erde durchgeführt; insbesondere fehlt eine umfassende Darstellung der menschlichen Aktivitäten auf globaler Ebene. Natürlich werden menschliches Verhalten und Aktivitäten von Ökonomen, Soziologen, Anthropologen, Biologen u.a. seit langem beschrieben, allerdings beschränken sich diese jeweils auf wesentliche Aspekte ihrer Disziplinen (Ökonomen beispielsweise auf bezahlte Erwerbstätigkeit und nicht darauf, was Menschen sonst noch tun). Natur-, Wirtschafts- und Sozialwissenschaften werden in der Regel unabhängig voneinander und mit unterschiedlichen Mitteln betrieben, differieren also methodisch sehr und lassen sie sich kaum zu einem umfassenden Bild auf globaler Ebene kombinieren.

Das Humane Chronom Projekt

Das Team um Eric Galbraith (Professor an der McGill University, Montréal, Canada) entwickelt einen neuartigen interdisziplinären Ansatz, der als "Erdsystemökonomie" bezeichnet wird und zum Ziel hat das globale menschliche System nahtlos mit den anderen Komponenten des Erdsystems zusammen zu führen. (siehe: https://earthsystemdynamics.org/research/current/). Im Rahmen dieses Ansatzes versucht das Team ein quantitatives Bild eines humanen "Chronoms" zu erstellen, d.i. wie die Menschheit im globalen Mittel den Tag auf Aktivitäten aufteilt (https://humanchronome.org/). Es ist dies ein entscheidender Aspekt im Verstehen des Erde-Mensch-Systems: Wie wir die 24 Stunden am Tag verbringen, bestimmt ja einerseits, wie wir die biophysikalische Realität verändern und ist andererseits Ausdruck unseres subjektiven Erlebens. Entstehen soll so ein umfassender globaler Datensatz menschlicher Aktivitäten - eine Datenbank, die auch aufzeigt, bei welchen Aktivitäten ein erhebliches Potential für Maßnahmen zur Minderung der negativen Veränderungen und Anpassung an den rasanten technologischen Wandel bestehen kann.

In einer kürzlich im Fachjournal Proceedings of the National Academy of Sciences erschienenen Arbeit [1] haben die Forscher unter dem Titel The Global Human Day nun erstmals Ergebnisse aus diesem Projekt vorgestellt: Es ist eine gesamtheitliche Schätzung dessen, wie die Weltbevölkerung im Mittel aller Menschen den Tag verbringt. Der zugrunde liegende Datensatz stammt aus 145 Ländern (entsprechend 87 % der Weltbevölkerung), wobei in 52 Ländern sowohl repräsentative Erhebungen zur Zeitnutzung als auch Statistiken über Beschäftigung und Arbeitszeit zur Verfügung standen, in 6 Ländern nur Zeitverwendungsdaten und in den übrigen 87 Ländern nur Wirtschaftsdaten. Abbildung 1. Die Informationen stammten dabei aus heterogenen öffentlichen, privaten und akademischen Quellen - u.a. von statistischen Ämtern, von der Datenbank der Internationalen Arbeitsorganisation (Ilostat), von der Weltbank und von Unicef.

Abbildung 1 Globale Erfassung von nationalen Daten zu Erhebungen von Zeitverwendung und von Wirtschaftsdaten. Die Daten stammen aus den Jahren 2000-2019, die meisten davon aus dem Zeitraum 2010 -2019; Wirtschaftsdaten überwiegend aus den Jahren 2018-2019.Länder,die keine Daten lieferten, sind weiß dargestellt; für diese wurden Informationen aus vergleichbaren Nachbarregionen extrapoliert. (Bild aus Supplement, Fajzel et al., [1]. Lizenz: cc-by-nc-nd)

Der Global Human Day - Datenanalyse

Die aus den verschiedenen Quellen, mit unterschiedlichen Methoden erhobenen Daten haben die Forscher harmonisiert, indem sie die im Wachzustand ausgeübten Tätigkeiten entsprechend der zugrunde liegenden Motivation in 3 große Gruppen und diese jeweils in Kategorien, Subkategorien und weitere Unterordnungen einteilten (insgesamt rund 4000 unterschiedliche Aktivitäten):

Gruppe 1: Aktivitäten, die Auswirkungen auf die Umwelt haben (External Outcomes). Dazu gehören: Erzeugung von Nahrungsmitteln (z.B. Landwirtschaft, Fischfang) und derenVerarbeitung; Gewinnung von Rohstoffen und Energie für die Technosphäre; Errichtung und Instandhaltung von Bauten, Infrastruktur und Pflege der damit verbundenen Tier- und Pflanzenwelt; Produktion von beweglichen Gütern; Müllentsorgung.

Gruppe 2: Aktivitäten, die unmittelbare Folgen für uns selbst haben (Dircet human outcomes). Dazu gehören: Hygiene, Körper-und Gesundheitspflege, Kinderbetreuung; Mahlzeiten; Erziehung, Bildung und Forschung ; Religionsausübung; Ausübung von Hobbies, Sport, sozialen Aktivitäten.

Gruppe 3: Aktivitäten, die innerhalb der Gesellschaft organisiert sind (Organizational outcomes). Dazu gehören: Transport, Pendeln, Handel, Finanzen, Immobilien, Recht und Verwaltung bestimmte Aktivitäten.

Die sich daraus ergebende Schätzung des globalen menschlichen Tages ist in Abbildung 2. dargestellt, und zwar als die Anzahl der Stunden pro Tag, mit der jede Aktivität vom Durchschnitt aller Menschen ausgeübt wird; die Fläche jeder farbigen Zelle ist dabei proportional zur Zeitdauer. Separat dargestellt ist der Schlaf.

Abbildung 2. Der globale menschliche Tag incl. Erwerbstätigkeit. Dargestellt sind separiert die inaktive Phase des Schlafs (graublau) und die drei Kategorien der Aktivitäten im Wachzustand in Form eines Voronoi-Diagramms, dessen farbige Zellen proportional zur Zeitdauer sind. Die drei Kategorien unterteilen sich in Aktivitäten, die i) die Umwelt (external outcomes) beeinflussen (gelb/ braun ), ii) die direkte Auswirkungen auf den Menschen haben (blau), und iii) die durch Organisationen vorgegeben sind (dunkelgrau). Darunter ist die Zeit in Stunden/Tag (mit Konfidenzintervallen) angegeben, die in jeder Unterkategorie verbracht wird. (Bild unverändert übernommen aus Fajzel et al., [1]. Lizenz: cc-by-nc-nd) >

Die meiste Zeit verbringt die Menschheit mit Schlaf und Bettruhe (9,1 ± 0,4 Stunden) - in der Abbildung separat als Sichel dargestellt. Diese Zeit liegt deutlich über dem weltweit mittels tragbaren Geräten festgestellten Durchschnitt von 7,5 Stunden Schlaf pro Tag, ist aber auf die Einbeziehung von Kindern zurückzuführen und auf die Zeit, die nichtschlafend im Bett verbracht wird.

Von den etwa 15 h täglicher Wachzeit nehmen Aktivitäten der Gruppe 2, d.i. sich um sich selbst und seine Angehörigen/Freunde zu kümmern, mit 9,4 Stunden/Tag den Löwenanteil ein. Fast die Hälfte davon (4,6 h/Tag) sind passiven, interaktiven und sozialen Tätigkeiten gewidmet, zu denen Lesen, Bildschirmschauen, Spielen, Spazierengehen, Geselligkeit und auch Nichtstun gehören. Mahlzeiten (1,6 h/Tag) nehmen mehr Zeit ein als Hygiene/Körperpflege und Bildung/Forschung (jeweils 1,1 h/Tag).

Die Aktivitäten der 2. Gruppe - Auswirkungen auf die Umwelt - widmen mehr als die Hälfte der insgesamt 3,4 h/Tag der Produktion und Zubereitung von Nahrungsmitteln. Dahinter rangieren (0,81 h) die Erhaltung und Sauberkeit der Wohnstätten, die Errichtung von Bauten und Infrastrukturen (0,65 h) und schlussendlich die Gewinnung von Materialien und Energie aus der natürlichen Umwelt (o,11 %). Nahezu vernachlässigbar erscheint die Zeit (0,11 h), die auf die Abfallentsorgung aufgewendet wird.

Die Aktivitäten der dritten Gruppe (2,1 h) sind innerhalb der Gesellschaft organisatorisch bestimmt wie der Transport von Menschen (0,9 h/Tag) und Gütern (0,3 h/Tag) und weitere durch Handel, Finanzen, Gesetze bedingte Aktivitäten. Diese variieren von Kultur zu Kultur, von Wirtschaftssystem zu Wirtschaftssystem und hängen auch von rechtlichen und politischen Systemen ab. So ermöglichen arbeitssparende Technologien und vorhandene Transportsysteme in Industrieländern Nahrungsmittel in bedeutend weniger Zeit zu produzieren und zu verteilen, als in armen Regionen. Wie die Forscher herausfanden, ist dagegen der Zeitaufwand für Körperpflege und Zubereitung von Mahlzeiten in armen und reichen Ländern vergleichbar.

Wie viel Zeit verbringt der Mensch mit wirtschaftlichen Tätigkeiten?

Diese Aktivitäten definiert die Studie als Beschäftigungen gegen Entgelt oder mit Gewinn, inkludiert ist die Herstellung von nicht für den Markt bestimmten Gütern im Haushalt. Auf diese Aktivitäten entfallen rund 2,6 h oder ein Sechstel der wachen Stunden während des durchschnittlichen Lebens. Abbildung 3.

Dies mag gering erscheinen, entspricht laut Autoren aber einer 41-Stunden-Woche, wenn auf die Erwerbsbevölkerung - das sind etwa 66 % der Bevölkerung im erwerbsfähigen Alter (15 bis 64 Jahre) bezogen wird. (Anm. Redn.: da auch die unbezahlten Arbeiten im Haushalt mit eingerechnet werden, liegt die bezahlte Lohnarbeit zweifellos weit unter einer "40-Stunden-Woche".)

Abbildung 3. Der globale Wirtschaftstag. Das Voronoi-Diagramm zeigt die durchschnittliche Zeit, die in bezahlter Beschäftigung und unbezahlter oder sonstiger Eigennutzung/Haushaltsproduktion von Gütern verbracht wird, gemittelt über die Weltbevölkerung. Die durchschnittlichen Zeiten pro Unterkategorie sind unten in der Abbildung in Minuten pro Tag angegeben. (Bild unverändert übernommen aus Faizel et al., [1]. Lizenz: cc-by-nc-nd)

Ein Drittel der Arbeitszeit (52 Minuten) fällt auf Produktion von Nahrungsmitteln (hauptsächlich durch Landwirtschaft) und deren Zubereitung. Etwa ein Viertel der Wirtschaftstätigkeit ist dem Transport und der Allokation gewidmet (37 min), wozu Einzelhandel, Großhandel, Immobilien, Versicherungen, Finanzen, Recht und Verwaltung gehören. Die Produktion von Artefakten (d.i. durch menschliche oder technische Einwirkung entstandene Produkte), zu denen Fahrzeuge, Maschinen, Elektronik, Haushaltsgeräte und andere bewegliche Gütern sowie deren Zwischenprodukte gehören, macht etwa ein Siebtel der gesamten Wirtschaftstätigkeit aus (22 min). Erstaunlich niedrig fällt die Bautätigkeit (Gebäude und Infrastruktur 13 min), die Beschaffung von Materialien und Energie (6 min) aus. Die praktisch vernachlässigbare Zeit, die mit der Müllentsorgung verbracht wird, ist bereits erwähnt worden.

Fazit

Eine großartige Datenbank ist im Entstehen, die erstmals eine Quantifizierung dessen, was der Mensch tut und wofür er es tut, ermöglicht. Der nun publizierte " Global Human Day" [1] gibt einen Überblick aus der Vogelperspektive auf die gemittelten Aktivitäten der gesamten Menschheit. Natürlich kann der zugrunde liegende Datensatz auch herangezogen werden, um die Aktivitäten in einzelnen Regionen oder die zeitlichen Veränderungen in den Aktivitäten weltweit oder regionsbezogen zu vergleichen.

Das erstaunlichste Ergebnis der "Global Human Data" ist zweifellos, dass der globale Mensch den größten Teil seiner wachen Zeit darauf verwendet, sich um sich selbst oder andere zu kümmern. Es besteht viel Raum zur Nachjustierung von Aktivitäten - beispielsweise, die Zeit, die zur Erzeugung von Energie aufgewendet wird oder die nahezu vernachlässigbare Müllentsorgung - und damit ein erhebliches Potential für Maßnahmen zur Minderung der im Anthropozän verursachten Schädigungen von Geosphäre und Biosphäre.


[1] W. Faizel et al., The global human day (June 2023), PNAS 120, 25. 0. https://doi.org/10.1073/pnas.2219564120 open access.


 

inge Sat, 14.10.2023 - 17:48

Ferenc Krausz: Pionier der Attosekunden-Physik erhält den Nobelpreis für Physik 2023

Ferenc Krausz: Pionier der Attosekunden-Physik erhält den Nobelpreis für Physik 2023

Do, 05.10.2023 — Roland Wengenmayr

Icon Physik

Roland Wengenmayr Elektronen halten die Welt zusammen. Wenn in chemischen Reaktionen neue Substanzen entstehen, spielen Elektronen die Hauptrolle. Und auch in der Elektronik stellen sie die Protagonisten. Ferenc Kraus konnte - damals noch an der TU Wien - mit nur Attosekunden dauernden Laserpulsen erstmals die rasanten Bewegungen einzelner Elektronen in Echtzeit verfolgen [1]. Nun, als Direktor am Max-Planck-Institut für Quantenoptik in Garching, setzt Krausz mit seinen Mitarbeitern diese Arbeiten fort und erhält daraus nicht nur fundamentale Erkenntnisse über das Verhalten von Elektronen im atomaren Maßstab, sondern schafft auch die Basis für neue technische Entwicklungen, beispielsweise für schnellere elektronische Bauteile oder zur Früherkennung von Krebserkrankungen aus Blutproben. Für seine Entdeckungen hat Ferenc Krausz gemeinsam mit Pierre Agostini und Anne L’Huillier den Nobelpreis für Physik 2023 erhalten. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr gibt hier einen Einblick in die Attosekundenforschung am Max-Planck-Institut. In einem kürzlich erschienen Bericht hat er auch über den medizinischen Ansatz zur Krebsfrüherkennung berichtet [2].*

Ferenc Krausz ist Pionier der Attosekunden-Metrologie, mit der sich die Bewegungen von Elektronen filmen lassen. Die beiden Vakuumkammern im Vordergrund und links von Krausz dienen dabei als Drehorte: In ihnen finden die Experimente statt.

Der schwarze Vorhang hebt sich: Wie auf einer Bühne liegt unter uns, etwa so groß wie eine Schulturnhalle, ein Reinraum, nahezu komplett ausgefüllt mit einer Laseranlage. Hier laufen starke Laserstrahlen durch die Luft und erzeugen Femtosekunden-Lichtpulse, die bloß einige Millionstel einer milliardstel Sekunde dauern. Die Anlage ist so empfindlich, dass wir sie nur durch ein Besucherfenster bewundern dürfen. Der unübersichtliche Aufbau optischer Instrumente bildet den ersten Abschnitt einer Rennstrecke, an deren Ziel die kürzesten Lichtblitze der Welt ankommen. Wir befinden uns in der Abteilung von Ferenc Krausz, Direktor am Max-Planck-Institut für Quantenoptik in Garching. Abbildungen 1, 2.

Abbildung 1. Der lange Weg der Attoblitze: Manish Garg (links) und Antoine Moulet arbeiten am Experimentiertisch, über den die Attosekundenpulse geleitet werden. Durch die Aufnahme mit einem extremen Weitwinkelobjektiv erscheint der gerade Tisch gebogen.

Die selbst schon sehr kurzen Femtosekunden-Laserpulse reisen durch ein Vakuumrohr in ein Labor einen Stock tiefer. Dieses Labor dürfen wir betreten. Hier entstehen Attosekundenblitze, die noch tausendmal kürzer sind als die Femtopulse. In dem Labor fällt eine große Tonne auf, an der die zwei Doktoranden Martin Schäffer und Johann Riemensberger schrauben. Sie erinnert entfernt an eine Kreuzung aus einer XXL-Waschmaschinentrommel und einem alten Taucherhelm. Tatsächlich handelt es sich dabei um eine Vakuumkammer aus massivem Edelstahl. Ihre Panzerfenster gewähren einen Blick auf die Probe, die das Ziel der Attosekundenlichtblitze markieren.

Abbildung 2. Saubere Luft für starkes Laserlicht: Tim Paasch-Colberg arbeitet an der Laseranlage im Reinraum, wo starke Femtosekundenpulse erzeugt werden. Staub in der Luft würde dabei stören.

Schäffer und Riemensberger gehören zum Garchinger Team von Reinhard Kienberger, der auch Physikprofessor an der TU München ist. Neben ihnen forschen mehr als hundert Wissenschaftlerinnen und Wissenschaftler in der Abteilung von Ferenc Krausz. Der Pionier der Attosekundentechnik zieht junge Nachwuchsforscher aus aller Welt an, die extrem schnelle Prozesse der Natur beobachten wollen.

Krausz ist also der perfekte Adressat, um ein Gefühl dafür zu vermitteln, wie schnell eine Attosekunde verstreicht. Rein mathematisch ist eine Attosekunde in Milliardstel einer milliardstel Sekunde. Doch selbst der Physiker Krausz findet dieses Zahlenspiel unanschaulich. Also sucht er nach griffigen Vergleichen. „Das Schnellste, was wir kennen, ist Licht“, steigt er ein, „in einer Sekunde kann es die Erde ungefähr achtmal umrunden.“ Doch obwohl Licht so schnell ist, komme es innerhalb einer Attosekunde gerade mal von einem zum anderen Ende eines einzigen Wassermoleküls!“ Ein Wassermolekül ist mit einem Durchmesser von nur 0,3 Nanometern unfassbar winzig: Bei einem Nanometer handelt es sich um den millionsten Teil eines Millimeters. „Nano“ kommt vom altgriechischen Wort für Zwerg. Und genau darum geht es in der Attosekundenforschung: um extrem zwergenhafte Quantenobjekte, die sich unglaublich schnell bewegen.

Wer die Motivation von Wissenschaftlern wie Ferenc Krausz im historischen Kontext verstehen will, landet beim Pferd. Jahrhunderte gab es Streit über die Frage, ob es beim Galopp alle vier Hufe vom Boden löst. Generationen von Malern haben sich der Thematik gewidmet. Eadweard Muybridge hat das Rätsel gelöst: Ja, für einen kurzen Moment sind alle vier Hufe in der Luft.

Muybridge gelang es 1878, alle Phasen des Pferdegalopps erstmals in schnellen Schnappschüssen einzufrieren. Seitdem haben Hochgeschwindigkeitsaufnahmen von Vorgängen, die zu schnell für unser Auge ablaufen, unser Wissen erheblich erweitert. In den Naturwissenschaften ist die Entschlüsselung ultraschneller Prozesse im Reich der Atome und Elementarteilchen sogar essenziell.

Elektronen verhielten sich wie Hütchenspieler

Im Fokus der Garchinger Attosekundenforschung steht das Elektron. „Es kommt praktisch überall vor“, sagt Krausz und weist damit auf die Übermacht dieses negativ geladenen Elementarteilchens hin. Obwohl Elektronen selbst aus der Perspektive der Nanowelt extrem klein sind, kitten sie als Quantenkleber die Atome zur Materie in den vielfältigen Formen unserer Welt zusammen. Elektronen übernehmen überdies die Hauptrollen in chemischen Reaktionen, weil neue Substanzen stets dadurch entstehen, dass sie zwischen verschiedenen Atomen verschoben werden. Allerdings agieren die Elementarteilchen dabei so schnell, dass sich ihr Treiben bis vor Kurzem nicht direkt verfolgen ließ.

Für die Forschung verhielten sich Elektronen also lange wie Hütchenspieler, die Zuschauer mit Schnelligkeit austricksen. Die Quantenmechanik kann ihr Verhalten zwar theoretisch beschreiben, allerdings vor allem die Anfangs- und Endsituation der elektronischen Hütchenspiele. Das galt lange auch für Experimente: Das eigentliche Spiel der Elektronen blieb verborgen. Diese Wissenslücke war nicht nur aus Sicht der Grundlagenforschung unbefriedigend, sie behindert zudem bis heute neue Entwicklungen für die Praxis. Ein Beispiel bilden Katalysatoren, die chemische Reaktionen effizienter ablaufen lassen. Systematisch lässt sich das jeweils beste Material für die chemische Hilfestellung nur identifizieren, wenn Forscher verstehen, wie genau ein Katalysator den Elektronentransfer beeinflusst.

Als in den 1970er-Jahren die Laser immer leistungsfähiger wurden, kam deshalb eine bestechende Idee auf: Vielleicht ließen sich mit extrem kurzen Laserpulsen Schnappschüsse chemischer Reaktionen aufnehmen, so wie einst Muybridge die Phasen des Pferdegalopps ablichtete. „Aus zu verschiedenen Zeiten aufgenommenen Einzelbildern kann man dann einen Film erstellen, der den genauen Ablauf der Reaktion zeigt“, erklärt Krausz.

Mit diesem Ansatz entstand ein neues Forschungsgebiet; es basiert auf einer Methode, die Pump-Probe-Verfahren heißt. Dabei startet ein erster Laserblitz einen Prozess, etwa eine chemische Reaktion, und nach einer bewusst gewählten Wartezeit macht ein zweiter Blitz einen Schnappschuss. Indem die Wissenschaftler die Reaktion wiederholen und die Wartezeit zwischen Pump-und Probe-Laserpuls variieren, erhalten sie die Einzelbilder eines Prozesses. Diese können sie anschließend zu einem Film zusammensetzen.

In den 1990er-Jahren war diese Experimentiertechnik so weit ausgereift, dass sie völlig neue Einblicke in die Natur lieferte. Sie machte erstmals die Bewegung von Atomen in Molekülen sichtbar. Für diese Pionierleistung erhielt der aus Ägypten stammende USamerikanische Physikochemiker Ahmed Zewail 1999 den Nobelpreis für Chemie.

Doch gleichzeitig lief die bis dahin rasante Entwicklung hin zu immer kürzeren Verschlusszeiten für die einzelnen Aufnahmen gegen eine Wand. Die Technik konnte zwar Prozesse in Zeitlupe darstellen, die in wenigen Femtosekunden ablaufen. Damit ließen sich nur die Bewegungen von Atomen filmen, nicht aber jene der viel leichteren und schneller agierenden Elektronen. Um sie in Schnappschüssen einzufrieren, brauchte es eine radikal neue Attosekunden-Blitztechnik.

Um die Jahrtausendwende schaffte es Ferenc Krausz, damals noch an der TU Wien, als Erster, die Mauer in den Attosekundenbereich hinein zu durchbrechen. Seitdem gelingt es immer besser, das Spiel der Elektronen zu filmen. Damit entstand ein neues Forschungsgebiet. Inzwischen nehmen die Garchinger Aufnahmen aus der rasanten Elektronenwelt. Doch warum gab es diese technische Hürde der Ultrakurzzeitforschung?

Femtosekunden-Laserlicht rüttelt die Atome durch

„Das hat mit der Farbe des Lichts, also seiner Wellenlänge, zu tun“, erklärt Krausz. Ein Lichtpuls kann erst dann durch den Raum wandern, wenn er mindestens einen Wellenberg und ein Wellental umfasst. Nur Pulse aus einem solchen vollständigen Wellenzug sind in sich so stabil, dass sie ihren Weg vom Laser zur Probe zurücklegen, ohne völlig zu zerfließen. Sobald ein Wellenzug aber in eine Zeitspanne von einigen Attosekunden gequetscht werden soll, muss seine Wellenlänge kurz genug sein.

„Für Pulse mit einer Dauer unterhalb einer Femtosekunde braucht man schon extrem ultraviolettes Laserlicht“, sagt Krausz, „zur Erzeugung noch kürzerer Pulse führt an Röntgenlicht kein Weg vorbei.“ Und genau das war das Problem: Es gab lange Zeit keine Laser, die Licht in diesem kurzwelligen Spektralbereich produzieren konnten. Erst in den letzten Jahren dringen sogenannte Freie-Elektronen-Laser dorthin vor. Ihr Nachteil: Sie sind auf kilometerlange Teilchenbeschleuniger angewiesen, also riesige, teure Großforschungsanlagen.

In den 1990er-Jahren stellte sich Krausz – wie einst Muybridge – der Herausforderung, diese Hürde mithilfe der vorhandenen Technik zu nehmen. Muybridge kombinierte seine Plattenkamera-Ungetüme damals zu einer langen Batterie, die von einem vorbeigaloppierenden Pferd nacheinander ausgelöst wurden. So gelang es, jede Phase des Galopps auf einem Foto abzulichten.

Krausz musste mit der Femtosekunden-Lasertechnik auskommen, die zu langwellig war. Er kam auf die Idee, die hochintensiven Laserpulse auf Edelgasatome zu schießen. Das Femtosekunden-Laserlicht rüttelt die Atome durch und zwingt sie, einen Blitz im ultravioletten oder im Röntgenbereich auszusenden. Weil die Atome präzise im Takt des anregenden Femtosekunden-Laserpulses schwingen, hat dieses kurzwellige Licht sogar die reine, perfekte Qualität von Laserlicht. Mit diesem Trick drang Krausz erstmals in den Attosekundenbereich vor. Abbildung 3.

Abbildung 3. Elektronen auf der Durchreise: Attosekundenblitze von extrem ultraviolettem Licht (violett) katapultieren Elektronen aus den Atomen eines Wolframkristalls (grün). Mit infraroten Laserpulsen (rot) haben die Garchinger Forscher gemessen, dass ein Elektron 40 Attosekunden braucht, um eine einzelne Lage von Magnesiumatomen (blau) über dem Wolframkristall zu durchqueren

Der kürzeste Garchinger Blitz dauert 72 Attosekunden

Die Garchinger haben ihre Attosekundenanlagen inzwischen immer weiter verbessert. 2004 hielt Krausz’ Gruppe noch mit 650 Attosekunden den Weltrekord für den kürzesten Lichtpuls, heute blitzen die besten Experimente rund zehnmal schneller. „Mit Martin Schultzes Team sind wir hier in Garching jetzt bei 72 Attosekunden angelangt“, sagt Krausz, „aber seit 2012 hält Zenghu Changs Gruppe an der University of Central Florida den Weltrekord mit nur 67 Attosekunden.“ Den Max-Planck-Direktor stört es nicht, dass die Garchinger den Rekord verloren haben – im Gegenteil. „Das zeigt, dass unser Forschungsfeld auf wachsendes Interesse stößt“, freut er sich. Schließlich geht es nicht um Rekorde, sondern um immer feinere Werkzeuge, um die schnellsten Bewegungen im Mikrokosmos zu erforschen.

Zu den ersten Untersuchungsobjekten der Attosekunden-Metrologie oder Attosekunden-Chronoskopie, wie die Garchinger ihre Technik nennen, gehörten die Bewegungen der Elektronen in einzelnen Atomen und Molekülen. Seit einigen Jahren sind jedoch weitaus komplexere Elektronenwelten in den Fokus der Forscher gerückt: kristalline Festkörper. In vielen anorganischen Materialien ordnen sich die Atome zum regelmäßigen, räumlichen Gitter eines Kristalls an. Kristalle kommen in der Natur vielfältig vor, so bilden auch die für unzählige Anwendungen nützlichen Metalle und Halbleiter Kristalle.

Mit der neuen Attosekunden-Messtechnik hat das Team von Reinhard Kienberger gerade in Echtzeit erfasst, wie Elektronen durch eine einzelne Lage von Metallatomen flitzen. Diese Passage ist sowohl für die Physik als auch für die Technik von zentraler Bedeutung. Ihre direkte Beobachtung kann helfen, eines Tages wesentlich schnellere elektronische Schaltelemente und Mikroprozessoren zu entwickeln.

Grundlagenforscher interessieren sich für das komplexe Verhalten der Elektronen in Kristallen, weil die Elementarteilchen darin zwei ganz zentrale Wirkungen haben, die zusammen viele Materieeigenschaften bedingen. So bindet ein Teil der Elektronen die Atome zum Kristallgitter zusammen. Sie formen gewissermaßen den Quantenkitt der Materie. Für die zweite Wirkung sorgen Elektronen, die sich von ihren ursprünglichen Atomen lösen können. Sie flitzen etwa in Metallen einigermaßen frei durchs Kristallgitter und können so elektrischen Strom transportieren. Diese Leitungselektronen haben zudem großen Einfluss auf die mechanischen und optischen Eigenschaften eines Materials und seine Fähigkeit, Wärme zu leiten.

In vielen Kristallen gibt es aber keine Leitungselektronen. Diese Materialien heißen deshalb Isolatoren, ein Beispiel ist Quarz. Zwitter zwischen Isolatoren und elektrischen Leitern stellen die Halbleiter dar. Halbleiter haben als Baustoff der Elektronik unsere Kultur radikal verändert. In ihnen brauchen die Elektronen einen kleinen Schubs, damit sie als Leitungselektronen fließen können. Um dieses Verhalten zu verstehen, muss man ein Elektron als Quantenteilchen betrachten.

Da ein Elektron auch eine elektromagnetische Welle darstellt, besitzt es eine Wellenlänge. Diese ist mit seiner Bewegungsenergie verknüpft – ein bisschen wie das Geräusch eines Rennwagens mit seiner Motordrehzahl. Wenn ein Elektron sich frei durch ein Kristallgitter bewegen will, muss seine Wellenlänge zum räumlichen Raster der Atome passen. Das trifft nur für einen bestimmten Bereich von Wellenlängen – und damit Energie – zu. Dieser Bereich bildet eine Art Autobahn, auf der die Elektronen durch den Kristall rasen können. In diesem Leitungsband fließt bei Metallen immer reger Elektronenverkehr. Bei Halbleitern dagegen hängen auch die beweglichsten Elektronen an ihren Atomen fest. Erst mit einem Energiekick schaffen sie den Quantensprung ins Leitungsband. Das wird zum Beispiel bei Schaltvorgängen in Transistoren genutzt.

Macht starkes Licht einen Quarzkristall leitfähig?

Bei Isolatoren allerdings müsste dieser Energiekick so heftig sein, dass er das Material zerreißen würde. Könnte man trotzdem einen Isolator dazu bringen, leitfähig zu sein – und sei es nur für kurze Zeit? Und: Wäre das auch technisch interessant?

Das fragte sich ein Garchinger Attosekundenteam, in dem Elisabeth Bothschafter und Martin Schultze ihre Doktorarbeiten machten. Um eine Antwort zu finden, brauchten die Laserphysiker versierte Experten für Kristalle an ihrer Seite. Diese Festkörperphysiker fanden sie in der Gruppe des Theoretikers Mark Stockman von der Georgia State University in Atlanta, USA. Für den engen Kontakt sorgte der Amerikaner Augustin Schiffrin, der gerade nach Garching gewechselt war, um dort ebenfalls Attosekunden-Experimente zu machen.

Das Forscherteam untersuchte in den Garchinger Labors an Quarz, ob dieser Isolator unter dem Beschuss mit extrem starken Femtosekunden-Lichtblitzen kurzzeitig leitfähig werden kann – ohne zerstört zu werden. Auch der Einfluss der Lichtblitze auf dessen optische Eigenschaften interessierte die Forscher. Diese momentane Veränderung verfolgten sie mit noch kürzeren Attosekundenblitzen. Bothschafter und Schultze entwickelten dafür ein Experiment, für das die Garchinger ihren hausinternen Rekord auf nur 72 Attosekunden Pulsdauer herunterschraubten. Diese Attosekundenblitze schickten die Forscher synchron zu den Femtosekunden-Lichtpulsen auf ihre Probe. Damit verfügten sie über das passende Präzisionswerkzeug, um die genaue Form der verwendeten Femtosekunden-Laserpulse genau abzutasten. Das war entscheidend, um die durch diese Pulse im Quarz verursachte Veränderung richtig zu deuten.

Quarz überlebt das kurze elektrische Inferno

Zudem analysierten die Physiker mit den Attoblitzen in Echtzeit, was in der nur knapp 200 Nanometer dünnen Quarzprobe unter dem Lichtbeschuss im Detail passierte. Dort erzeugte der intensive Femtosekunden-Laserpuls, bei dem es sich um eine elektromagnetische Welle handelt, ein extrem starkes elektrisches Feld. Martin Schultze vergleicht es mit dem Feld einer Überland-Hochspannungsleitung, das zwischen zwei Elektroden anliegt, die nur wenige tausendstel Millimeter voneinander entfernt sind. Jedes bekannte Material würde dabei sofort verdampfen.

Abbildung 4. Licht erzeugt Strom: Mit einem sehr intensiven dunkelroten Laserblitz machen Max-Planck-Physiker ein Quarzprisma, das sie auf zwei Seiten mit Goldelektroden bedampft haben, vorübergehend leitfähig. Mit einem zweiten, wesentlich schwächeren Puls schieben sie die kurzzeitig mobilen Elektronen zu einer Elektrode – Strom fließt.

Der Quarz überlebte dieses elektrische Inferno allein deshalb, weil es in ihm nur für wenige Femtosekunden tobte. Er war schlicht zu träge, um es zu bemerken. Bevor seine Atome auseinanderdriften konnten, war es längst vorbei. Allerdings sah es bei den Elektronen anders aus. Einige von ihnen folgten dem Feld des Femtosekundenpulses wie Hunde an der Leine. Sie erzeugten somit vorübergehend einen elektrischen Strom im Quarz, der am Ende des Femtosekundenblitzes sofort wieder abklang. Danach war der Quarz wieder ein normaler Isolator. Abbildung 4.

„Die Leitfähigkeit lässt sich also mit dem Lichtpuls in der unvorstellbar kurzen Zeitspanne von wenigen Femtosekunden nicht nur an-, sondern auch wieder ausschalten“, sagt Krausz. Letzteres war entscheidend, denn das passiert in Halbleitern nicht. Abbildung 5.

Stockmans Gruppe zeigte, dass die Elektronen sich dabei nach einem völlig anderen Mechanismus bewegen als in Halbleitern. Dort lassen sie sich zwar auch innerhalb von Femtosekunden ins Leitungsband kicken. Aber dann verharren sie darin aus Sicht der Attosekundenphysik eine Ewigkeit, nämlich ungefähr tausend- bis zehntausendmal länger als eine Femtosekunde. Im Quarz jedoch folgen die Elektronen unmittelbar dem elektrischen Lichtfeld von ihren Atomen weg und springen ebenso rasch wieder zurück, sobald das Feld abklingt. Die Forscher erhielten auf diese Weise also einen elektrischen Schalter, der extrem schnell wirkt, nämlich innerhalb von Femtosekunden.

Abbildung 5. Ein nur wenige Nanometer dickes Quarzglas, das in einen schwarzen Rahmen eingespannt ist (Bildmitte), wird durch einen roten Laserpuls leitfähig. Mit einem anschließenden Attosekundenpuls lässt sich messen, wie schnell das Quarzglas wieder zum Isolator wird.

Die Garchinger Physiker und ihre Kooperationspartner widmen sich diesen Vorgängen zunächst als Grundlagenforscher, und sie haben dabei etwas völlig Neues aufgespürt: So einen exotischen Zustand hat zuvor noch niemand in einem Isolator erzeugt. Langfristig könnte diese Entdeckung aber auch die Elektronik revolutionieren. Das relativ träge Verharren der Elektronen im Leitungsband von Halbleitern begrenzt nämlich die Geschwindigkeit, mit der herkömmliche Transistoren schalten können. Im Labor kommen konventionelle Transistoren mit extrem kleinen Nanostrukturen zwar schon auf hundert Milliarden Schaltungen pro Sekunde. Das ist grob eine Größenordnung schneller als die heute etablierten Computer-Mikroprozessoren.

„Mit unserer Entdeckung wären aber nochmals um den Faktor zehntausend schnellere Schaltzeiten möglich“, bilanziert Krausz. Damit könnten Computer ungeheure Datenmengen in Echtzeit verarbeiten. Allerdings müsste es dazu auch gelingen, die metergroßen Kurzpulslaser, die den Schaltvorgang antreiben, zu miniaturisieren. „Deshalb – und auch aus einigen anderen Gründen – ist das derzeit erst einmal eine spannende Zukunftsperspektive“, betont Krausz.

Für ihn als Max-Planck-Wissenschaftler steht der Erkenntnisgewinn im Fokus. Mit der neuen Attosekunden-Messtechnik hat das Team von Reinhard Kienberger gerade in Echtzeit erfasst, wie Elektronen durch einzelne Atomlagen eines Kristallgitters flitzen. Diese „Reise“ ist für Physik und Technik von zentraler Bedeutung. Die direkte Beobachtung kann entscheidend helfen, eines Tages wesentlich schnellere elektronische Schaltelemente und Mikroprozessoren zu entwickeln.


[1] Hentschel, M., Kienberger, R., Spielmann, C. et al. Attosecond metrology. Nature 414, 509–513 (2001). https://doi.org/10.1038/35107000

[2] Roland Wengenmayr, 09.03.2023: Technologie aus dem Quantenland mit unzähligen Anwendungsmöglichkeiten


* Der Artikel ist erstmals unter dem Title: "Klappe für den Quantenfilm"https://www.mpg.de/9221304/F002_Fokus_024-031.pdf im Forschungsmagazin der Max-Planck-Gesellschaft 1/15 erschienen und wurde mit Ausnahme des Titels und Abstracts unverändert in den Blog übernommen. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Forschungsmagazin auf unserer Seite zugestimmt. © Max-Planck-Gesellschaft -

 


Weiterführende Links

The Nobel Prize in Physics 2023: Popular information. https://www.nobelprize.org/prizes/physics/2023/popular-information/

The Nobel Prize in Physics 2023: Advanced information. https://www.nobelprize.org/prizes/physics/2023/advanced-information/

MPG: Laser - Der schnellste Blitz der Welt. Video 8:30 min. (2012) https://www.youtube.com/watch?v=6zxzJqvzZMY

MPG: Wie kurz ist eine Attosekunde? Video 2:49 min. https://www.youtube.com/watch?v=FR21qcg856g . copyright www.mpg.de/2012

FU Berlin: 21st Einstein Lecture: Prof. Dr. Ferenc Krausz | Elektronen und Lichtwellen - gemeinsam gegen Krebs (2.12.2022) Video: 1:31:41. https://www.youtube.com/watch?v=J-ynY3YNpkM

Ferenc Krausz, Nobelpreis für Physik 2023. Pressekonferenz 03.10.2023: Video 24:06 min. https://www.youtube.com/watch?v=9FZvFnurOnA

inge Thu, 05.10.2023 - 18:23

Comments

Seegraswiesen wandeln Kohlendioxid in Zuckerverbindungen um und sondern diese in den Meeresboden ab

Seegraswiesen wandeln Kohlendioxid in Zuckerverbindungen um und sondern diese in den Meeresboden ab

Do. 28.09.2023 — Manuel Liebeke

Manuel Liebecke Icon Meere Auf alten Karten findet sich häufig die Bezeichnung „terra incognita“ – unbekanntes Land. Bis heute sind große Teile der Weltmeere unerforscht, „mare incognitum“ sozusagen. In den Meeren gibt es also immer noch jede Menge Neues zu entdecken. Prof. Dr. Manuel Liebeke, Gruppenleiter am Max-Planck-Institut für Marine Mikrobiologie, und sein Team erforschen Seegraswiesen. Obwohl diese Ökosysteme nur eine kleine Fläche des Ozeans bedecken, binden sie durch Photosynthese große Mengen atmosphärischen Kohlendioxids und sondern Berge von Zuckerverbindungen in den Meeresboden ab.*

Seegräser wachsen an den meisten Küsten der Weltmeere. Ähnlich wie Landpflanzen binden die Gräser durch Photosynthese Kohlendioxid und wandeln es in neue, größere Kohlenstoffverbindungen um. Obwohl sie nur 0,2 Prozent der Meeresfläche bedecken, produzieren Seegräser etwa zehn Prozent der in den Ozeanen versinkenden Kohlenstoffverbindungen. Sie leisten somit einen erheblichen Beitrag für den Kohlenstoffhaushalt der Meere und des gesamten Planeten.

Seegräser geben einen Teil des von ihnen gebundenen Kohlenstoffs meist als Zuckerverbindungen über ihre Wurzeln an den Meeresboden ab. Auch viele Landpflanzen sondern aus ihren Wurzeln Zucker ab. Im Boden lebende Pilze und viele Mikroorganismen erfreuen sich an diesen für sie lebenswichtigen Kohlenhydraten. Manche dieser Mikroben stellen den Pflanzen im Gegenzug Mineralien und andere anorganische Substanzen zur Verfügung. Abbildung 1.

Abbildung 1. Kohlenstoffkreislauf in Seegras-Sedimenten. Seegräser geben einen Teil des von ihnen gebundenen Kohlenstoffs meist als Zuckerverbindungen über ihre Wurzeln an den Meeresboden ab. Davon verbrauchen die Mikroorganismen in der Rhizosphäre nur wenig- sie werden offensichtlich von - ebenfalls von Seegräsern produzierten - phenolischen Verbindungen (weiße Strukturen) gehemmt.

Solche schon vor über 100 Jahren als Rhizosphäre bezeichneten Bodenökosysteme sind inzwischen sehr gut erforscht und die Symbiosen zwischen Landpflanzen und den im Boden lebenden Mikroorganismen dokumentiert. Dagegen ist über pflanzliche Zuckerausscheidungen im Meeresboden und deren potenzielle Wechselwirkungen mit Mikroben nur sehr wenig bekannt. Mein Team und ich wollen diese Lücke schließen. In verschiedenen Meeresregionen haben wir Wassersproben im Sediment unter den Seegraswiesen genommen und die darin vorkommenden, von den Pflanzen abgegebenen Stoffwechselprodukte analysiert. Unsere Analysen zeigen, dass unterhalb von Seegraswiesen viel Rohrzucker (Saccharose) vorkommt. Die Konzentrationen erreichen in einigen Sedimenten je nach Tiefe sehr hohe (millimolare) Werte. Der Rohrzucker macht bis zu 40 Prozent des von den Wurzeln der Seegräser abgegebenen organischen Kohlenstoffs aus. Dessen Konzentration im Boden schwankt im Tagesverlauf und je nach Jahreszeit. Bei sehr starkem Lichteinfall, zum Beispiel zur Mittagszeit oder im Sommer, produzieren Seegräser mehr Zucker, als sie verbrauchen oder speichern können. Dann geben sie die überschüssige Saccharose einfach an den Boden ab.

Mikroben im Boden verbrauchen wenig Saccharose

Warum aber lagern Seegräser so viel Saccharose in den Sedimenten ab? Handelt es sich vielleicht um eine Art Überfluss-Stoffwechsel, weil ihnen essenzielle Substrate zum Aufbau anderer Kohlenhydrate fehlen? Die meisten Mikroorganismen an Land und im Meer können Saccharose leicht verdauen und daraus viel Energie für sich gewinnen. Wir haben jedoch bei unseren Untersuchungen festgestellt, dass viele der in der Seegras-Rhizosphäre vorkommenden Mikroorganismen vergleichsweise wenig Saccharose beanspruchen. Dies könnte die von uns beobachtete Anreicherung des Zuckers im Sediment erklären. Oder vielleicht fehlen den Mikroben die Stoffwechselwege, die sie für die Verdauung von Saccharose benötigen?

Möglich ist aber auch, dass die Seegräser Stoffwechselprodukte absondern, die das Wachstum der Mikroorganismen bremsen. Unser Verdacht: Es könnte sich um phenolische Verbindungen handeln. Phenolartige Substanzen kommen in verschiedensten Pflanzenarten vor, zum Beispiel in Weintrauben, Kaffeebohnen und Obst. Diese Stoffe hemmen den Stoffwechsel von Mikroorganismen und wirken dadurch antimikrobiell – vermutlich ihre eigentliche Aufgabe für die Gesundheit der jeweiligen Pflanze.

Seegräser enthalten von Natur aus viele Phenole, etwa Kaffeesäure (3,4-Dihydroxyzimtsäure), die sie an ihre Umgebung abgeben könnten. Im Meerwasser rund um Seegraswiesen konnten wir dann phenolische Verbindungen nachweisen, die aus pflanzlichen Polymeren gebildet werden. Um zu prüfen, ob die in der Umgebung von Seegräsern vorkommenden Mikroorganismen von diesen Phenolen gehemmt werden, haben wir auf der Mittelmeerinsel Elba Bodenproben von unterhalb der Seegraswiesen genommen und mit aus Seegras isolierten Phenolen sowie Saccharose in Kontakt gebracht. Unsere Messungen zeigen, dass die Mikroben in den Bodenproben nach Zugabe der phenolischen Substanzen viel weniger Saccharose konsumiert haben, dies war besonders deutlich bei Versuchen ohne Sauerstoff. Der Zuckergehalt blieb also entsprechend hoch, ähnlich unseren Beobachtungen direkt aus der Seegraswiese.

Abbildung 2. Üppige Seegraswiesen von Posidonia oceanica im Mittelmeer. Das Team des Max-Planck-Instituts für marine Mikrobiologie geht davon aus, dass seine Erkenntnisse auch für andere Seegrasarten sowie Mangroven und Salzwiesen relevant sind.

Als Nächstes haben wir die im Sediment vorhandenen Nukleinsäuren isoliert und sequenziert. Auf diese Weise konnten wir alle Arten von Mikroorganismen anhand ihres Erbguts identifizieren und klassifizieren, welche Stoffwechselgene sie besitzen. Trotz der toxischen Phenole scheint eine kleine Gruppe mikrobieller Spezialisten sowohl Saccharose verdauen als auch Phenole abbauen zu können. Wir vermuten, dass diese von uns entdeckten Mikroorganismen nicht nur auf den Abbau von Zucker und Phenolen spezialisiert sind. Wahrscheinlich sind sie für das Seegras auch nützlich, weil sie Nährstoffe produzieren, welche die Pflanzen für ihr Wachstum dringend brauchen. Der Kohlenstoffkreislauf in Seegras-Sedimenten unterscheidet sich somit von dem auf dem Land und auch von den Kohlenstoffkreisläufen im freien Meerwasser, wo Mikroben Saccharose schnell abbauen.

Phenole in anderen Ökosystemen

Phenolverbindungen kommen höchstwahrscheinlich auch in anderen Ökosystemen in größeren Mengen vor. Wir untersuchen zurzeit die Zusammensetzung von gelöstem Kohlenstoff in Salzmarschen und Mangrovenwäldern. Abbildung 2. Innerhalb der Deutschen Allianz Meeresforschung beteiligt sich unser Institut an Forschungsvorhaben, welche die deutschen Küstenregionen in den Fokus rücken. Vergleichsstudien und Probenahmen in tropischen Ländern ergänzen das Projekt. Zudem wird untersucht, wie stabil Kohlenwasserstoffe bei starkem UV-Licht oder erhöhten Temperaturen sind. Diese Umweltfaktoren sind für das weitere Schicksal des Kohlenstoffs im großen Meereskreislauf entscheidend.

Das Ziel ist, Küstenökosysteme zu erhalten, die langfristig möglichst viele stabile Kohlenstoffverbindungen produzieren und so den Anstieg des Gehalts an Kohlendioxid in der Atmosphäre in Schach halten. Auch eine „Wiederaufforstung“ zerstörter Flächen mit Seegras wäre denkbar, wenn es die Beschaffenheit der Küsten zulässt.


 *Der unter Highlights aus dem Jahrbuch 2022 der Max-Planck Gesellschaft unter dem Titel " Süße Oasen im Meer" erschienene Artikel https://www.mpg.de/20478773/jahrbuch-highlights-2022.pdf (2023) wird - mit Ausnahme des Titels und der Legende zu Abbildung 1- in praktisch unveränderter Form im ScienceBlog wiedergegeben. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung von Artikeln aus dem Jahrbuch auf unserer Seite zugestimmt. (© 2023, Max-Planck-Gesellschaft)


Weiterführende Links

Max-Planck-Institut für Marine Mikrobiologie: Miracle plant seagrass (2022).  Video 2:07 min. https://www.youtube.com/watch?v=iWm2lkK062Q.

The Biome Project: Seagrasses - Ecology In Action (2022). Video 6:59 min. https://www.youtube.com/watch?v=0bvOh7qby-c

International Field Studies: Seagrass Ecosystem Webinar (2020). Video 22:00 min. https://www.youtube.com/watch?v=3j82byN7HGs

Artikel zu verwandten Themen im ScienceBlog:

inge Thu, 28.09.2023 - 22:23

Coenzym Q10 - zur essentiellen Rolle im Zellstoffwechsel und was Supplementierung bewirken kann

Coenzym Q10 - zur essentiellen Rolle im Zellstoffwechsel und was Supplementierung bewirken kann

So24.09.2023  — Inge Schuster

Inge Schuster Icon Medizin

Coenzym Q10 (CoQ10) ist eine unentbehrliche Komponente unseres Zellstoffwechsels; es ist in allen unseren Körperzellen vorhanden (vom ubiquitären Vorkommen leitet sich die Bezeichnung Ubichinon ab) und wird - mit Ausnahme der roten Blutkörperchen - auch in allen Zellen produziert. CoQ10 fungiert als Elektronen-und Protonenüberträger in der mitochondrialen Atmungskette und schützt als potentes Antioxidans vor reaktiven Sauerstoffspezies. CoQ10-Mangel kann zur Entstehung diverser Krankheiten beitragen bzw. diese auslösen. In zahlreichen Studien wurde und wird versucht den Mangel durch Supplementierung mit CoQ10 aufzuheben, um Krankheiten zu lindern/zu heilen. Einige Studien lassen berechtigte Hoffnung auf Erfolg aufkommen.

Was ist CoQ10?

Chemisch gesehen ist CoQ10 ein relativ großes, aus zwei unterschiedlichen Teilen zusammengesetztes organisches Molekül. Es besteht aus dem Redoxsystem des Chinon-/Chinol -Rings, das die funktionelle Gruppe des Coenzyms darstellt und aus einer langen enorm lipophilen (fettlöslichen) Seitenkette aus Isoprenresten - beim Menschen sind das hauptsächlich 10 Reste -, mit der sich das Molekül in die diversen Lipidmembranen der Zelle und in die Lipoproteine des Serums einfügt. CoQ10 findet sich vor allem in der Matrix der Mitochondrien, aber auch in den Membranen des Golgi-Apparats, des endoplasmischen Retikulums, der Lysosomen, der Peroxisomen und in der die Zelle umschliessenden Plasmamembran.

CoQ10 gehört zu den lipophilsten Strukturen in unserem Organismus - in wässrigem Milieu ist es praktisch unlöslich (gelöster Anteil weniger als 0,1 Milliardstel Substanz). Abbildung 1.

Abbildung 1. Coenzym Q10 - chemische Struktur des Redoxsystems. Das enorm lipophile Molekül liegt im menschlichen Organismus zu über 90 % mit einer aus 10 Isoprenresten bestehenden Seitenkette vor, unter 10 % weisen eine Seitenkette aus 9 Isoprenresten auf. Das Ring-Strukturelement (rot) ist die aktive funktionelle Gruppe des Coenzyms, ein Redoxsystem, das unter Aufnahme von 2 Elektronen und 2 Protonen zum Chinol reduziert wird, aus welchem unter Abgabe von Elektronen und Wasserstoff wieder das oxydierte Produkt - Ubichinon-10 - entsteht.

Biosynthese von CoQ10

Alle unsere Zellen sind auf die endogene Synthese von CoQ10 angewiesen. Die mit der Nahrung aufgenommenen Mengen (üblicherweise bis zu 6 mg im Tag und dies hauptsächlich über den Fleischkonsum) können den hohen permanenten Bedarf an CoQ10 nicht decken.

Die Biosynthese erfolgt in 4 Stufen, an denen mindestens 11 Enzyme und andere Proteine beteiligt sind. Zuerst werden die Vorstufe des Ringelements und die Isopren-Seitenkette separat gebildet, der Ring ausgehend von der Aminosäure Tyrosin, die Lipidkette über den Mevalonsäure-Weg (auf dem auch die Synthese von Cholesterin ihren Ausgang nimmt) und die sukzessive Addierung von Isoprenresten. Dann werden Ring und Seitenkette zusammengefügt und schließlich der Ring schrittweise zur Ubichinon-Form modifiziert.

Mit Ausnahme einiger Reaktionen zu Beginn der Biosynthese findet der gesamte Vorgang in der inneren Membran der Mitochondrien statt, wobei die daran beteiligten Proteine einen großen Komplex - das sogenannte CoQ-Synthom - bilden. Abbildung 2. Das neu entstandene CoQ10 lagert sich in der mitochondrialen Membran ein - ein Pool, der dort nicht nur für die essentielle Funktion in der Atmungskette (siehe unten) zur Verfügung steht; CoQ10 wird aber auch in andere Zellorganellen transportiert und zirkuliert in der Blutbahn.

Biologische Funktionen von CoQ10

Lipidlöslichkeit und Redox-Eigenschaften erklären die vielfältigen (pleiotropen) Funktionen von CoQ10 in biologischen Systemen. Wie bereits erwähnt lagert sich CoQ10 in allen Lipidmembranen der Zellen ein und kann dort als mobiler Elektronen-und Protonenüberträger (siehe Abbildung 1) und als potentes Antioxidans fungieren. Als wichtigstes Beispiel für den Elektronen-/Protonentransport soll die Schlüsselrolle von CoQ10 in der mitochondrialen Atmungskette kurz skizziert werden.

Atmungskette: wie Nahrung in Energie umgewandelt wird

Mitochondrien sind die Kraftwerke unserer Zellen, die bis zu 95 % der für Zellwachstum und Zelldifferenzierung nötigen Energie produzieren. In diesem Prozess der Energieerzeugung ist CoQ10 eine essentielle Komponente: Es fungiert im Elektronentransport-System der Atmungskette als mobiler Elektronen- und Protonenüberträger zwischen den membrangebundenen Proteinkomplexen I , II und III, die schlussendlich zur Bildung des universellen biologischen Energieträgers Adenosintriphosphat (ATP) führen. Abbildung 2 zeigt eine sehr vereinfachte Darstellung dieses Elektronentransportsystems (über die folgende Beschreibung des für Laien nicht leicht verständlichen Vorgangs kann auch hinweg gelesen werden):

Coenzym Q10 in der oxydierten Chinonform (siehe Abbildung 1) nimmt in den Proteinkomplexen I und II Reduktionsäquivalente (Elektronen) auf und wird dadurch zur Chinolform reduziert; die Elektronen stammen dabei aus dem ebenfalls in den Mitochondrien lokalisierten Citratzyklus, der Produkte der im Stoffwechsel abgebauten Nährstoffe in Reduktionsmittel umwandelt; Elektronen können aber auch durch Überträger aus anderen mitochondrialen Prozessen eingespeist werden. Die reduzierte Ubichinol-Form überträgt im Proteinkomplex III (Cytochrom C-Reduktase) die Elektronen auf Cytochrom C, die Protonen werden vom mitochondrialen Matrixraum in den Intermembranraum transloziert. Im Komplex IV (Cytochrom C-Oxidase) dienen die vom Cytochrom C transportierten Elektronen und Protonen zur Reduzierung des aus der Atmung stammenden Sauerstoffs unter Bildung von Wasser. Dabei werden weitere Protonen in den Intermembranraum gepumpt und ein elektrochemischer Gradient zwischen Intermembranraum und Matrix erzeugt, der schließlich den Aufbau des energiereichen ATP-Moleküls (via ATP-Synthase) treibt.

Abbildung 2. CoQ10 wird in den Mitochondrien produziert und spielt dort eine Schlüsselrolle in der Energieerzeugung über die Atmungskette. Oben: Vereinfachte Darstellung des Biosynthese-Komplexes - CoQ-Synthom - mit Enzymen (blau) und regulatorischen Proteinen (lila), wobei nur die Ziffern in den Namen der COQ-Proteine (z.B. 2 für COQ2) angezeigt sind. Unten: Schema des Elektronentransportsystems der Atmungskette mit CoQ10 (gelb), das Elektronen von Komplex I und II empfängt und auf Komplex III überträgt. Die weitere Übertragung auf Komplex IV resultiert in der Reduktion des aus der Atmung stammenden Sauerstoffs unter Bildung von Wasser. Der Protonengradient treibt die ATP-Synthese.(Bild leicht modifiziert aus: Y. Wang & S.Hekimi, J Cell Mol Med. 2022;26:4635–4644. Lizenz: cc-by.)

Ubichinol - als potentes Antioxidans

In seiner reduzierten Ubichinol-Form ist CoQ10 ein sehr effizientes Antioxidans, das vor der Entstehung von reaktiven Sauerstoffspezies (ROS) schützt, freie Radikale verhindert, die Peroxidation von Lipiden und Lipoproteinen blockiert und andere Antioxidantien wie Ascorbinsäure oder Vitamin E zu ihren aktiven, völlig reduzierten Formen regeneriert.

Der Schutz vor ROS ist insbesondere in den Mitochondrien von Bedeutung, da der intensive, permanente Energieerzeugungsprozess als Nebenprodukte ROS liefert: Aus dem Sauerstoff den wir einatmen und der zu 80 % in der Atmungskette zu Wasser reduziert wird, entstehen auch 1 - 2 % reaktive Sauerstoffspezies (u.a. Superoxid Anion, Hydroxyl-Radikal, Hydroperoxyl-Radikal, Singlet Sauerstoff). Diese ROS können diverse Biomoleküle (Proteine, Lipide, DNA) gravierend schädigen - darunter die Proteine der CoQ10-Biosynthese und die mitochondriale DNA, die für einige Enzyme der Atmungskette kodiert. ROS können aber auch die Proteinkomplexe der Atmungskette direkt angreifen und (teilweise) inaktivieren. Insgesamt resultiert ein CoQ10-Mangel und Energieerzeugung und auch Verfügbarkeit von Ubichinol zur Abwehr der ROS werden reduziert.

Zahlreiche Studien belegen, dass oxydative Schädigungen zur Beeinträchtigung der mitochondrialen Funktion und in Folge zur Entstehung von diversen Krankheiten beitragen bzw.diese auslösen können. Ausreichend reduziertes CoQ10 in den Mitochondrien kann diese ROS unschädlich machen.

CoQ10 in unseren Organen....

CoQ10 ist in allen menschlichen Zellen und damit in allen Organen vorhanden, wobei der Großteil des Koenzyms in den jeweiligen Mitochondrien sitzt. Wieviele dieser kleinen Organellen in einzelnen Zelltypen enthalten sind, hängt von deren Energiebedarf ab und kann sich an diesen anpassen. Besonders viele Mitochondrien - mehrere Tausend - sind in einer einzelnen Herzmuskelzelle tätig - zusammengenommen nehmen sie mehr als ein Drittel des Zellvolumens ein. Dementsprechend liegen in diesem Organ , aber auch in anderen Organen mit sehr hohem Energiebedarf - Leber, Nieren und Muskeln - die höchsten CoQ10-Konzentrationen (Ubichinon und Ubichinol in Summe bis zu 190 µg/g) vor. Abbildung 3. Ein hoher Anteil an reduziertem CoQ10 schützt in vielen Organen vor dem unvermeidlichen Entstehen von reaktivem Sauerstoff.

Die Gesamtmenge von CoQ10 in unserem Körper kann mit einigen Gramm geschätzt werden.

Abbildung 3. Organspiegel von CoQ10 in oxydierter und reduzierter Form in verschiedenen Organen des Menschen. Die Grafik wurde aus Daten von A.Martelli et al., Antioxidants 2020, 9, 341; doi:10.3390/antiox9040341 (Lizenz cc-by) zusammengestellt..

Im Vergleich zu den Organen liegt der Plasmaspiegel von CoQ10 mit 0,5 - 1,5 µg/ml wesentlich niedriger, wobei nahezu alles in der reduzierten Ubichinolform vorliegt.

Ubichinol-10 zirkuliert ausschließlich in Lipoproteinen, vor allem in LDL eingelagert und kann hier vor der Oxidation von Lipoproteinen aber auch von Cholesterin zu Oxysterolen schützen und damit das Atherosklerose-Risiko senken.

Da Lipoproteinspiegel stark variieren können, erscheint es problematisch aus dem Plasmaspiegel von CoQ10 auf Organspiegel und eventuellen Mangel zu schließen.

...und CoQ10-Mangel

Eine reduzierte Synthese von CoQ10 führt nicht nur zu verminderter Energieproduktion und in Folge zur Schwächung von Organfunktionen, sondern auch zu reduziertem Schutz vor reaktiven Sauerstoffspezies und anderen Radikalen. Davon sind gewöhnlich mitochondrienreiche Organe mit hohem Energiebedarf betroffen, insbesondere die ausdifferenzierten (d.i. sich nicht mehr teilenden) Herzmuskelzellen und Neuronen, da sie bei geschädigter mitochondrialer Funktion nicht mehr ersetzt werden und mit zunehmendem Alter mehr und mehr Schäden ansammeln (s. unten).

Ein primärer CoQ10-Mangel - eine genetische, selten auftretende, autosomal rezessive Erkrankung-- tritt auf,  wenn Gene der in der Biosynthese von CoQ10 involvierten Proteine von Mutationen betroffen sind, die zu reduzierten Aktivitäten und damit verringertem CoQ10-Level führen. Klinische Symptome manifestieren sich schon früh und betreffen viele Organe, vor allem das zentrale und periphere Nervensystem, Herz, Muskel und Niere.

Ein sekundärer CoQ10-Mangel ist häufiger und kann verschiedene Ursachen haben, u.a. defekte Varianten von anderen, nicht in der CoQ10-Biosynthese involvierten Genen, beispielsweise im mitochondrialen Transport oder im Citratzyklus.

Auch zunehmendes Alter führt in den meisten Organen zu einem Absinken der CoQ10-Konzentration. Davon ist vor allem das Herz betroffen: 80-Jährige haben im Vergleich zu 20-Jährigen nur noch etwa 50 Prozent des CoQ10-Gehaltes. Ebenso sinkt der CoQ10-Gehalt in verschiedenen Hirnregionen und in der Epidermis der Haut deutlich ab.

In vielen Erkrankungen - Herzkrankheiten (z.B. Herzinsuffizienz), neurologischen Erkrankungen (beispielsweise Parkinson Krankheit), Diabetes, Lungen-und Lebererkrankungen liegen deutlich reduzierte CoQ10-Konzentrationen in den Organen vor. CoQ10 Mangel kann hier Auslöser und/oder auch Folge der Krankheit sein. In Infektionskrankheiten wie Influenza kommt es zu reduzierten CoQ10-Plasmaspiegeln.

Einige häufig verschriebene Medikamenten greifen direkt in die Biosynthese von CoQ10 ein, indem sie gemeinsame Schritte blockieren: das bekannteste Beispiel sind die millionenfach zur Cholesterinsenkung geschluckten Statine, die einen ganz frühen gemeinsamen Schritt (via HMG-CoA Reduktase) in der Cholesterinsynthese und in der Synthese der CoQ10-Seitenkette blockieren. Unter Therapie mit Statinen wurden deutlich (um ein Drittel) reduzierte CoQ10-Konzentrationen im Muskelgewebe gemessen. Eine Reihe von Statin-Nebenwirkungen in den Muskeln, die von Muskelschwäche, Myalgien bis hin zur seltenen, lebensbedrohenden Rhabdomyolyse reichen, dürften Folge des CoQ10-Mangel sein. Auch im Plasma und im zentralen Nervensystem (gemessen am Indikator Zerebrospinalflüssigkeit) ist der CoQ10-Gehalt unterStatin-Therapie erniedrigt. Zudem wird das Auftreten von kognitiver Beeinträchtigung und zerebellärer Ataxie mit Statin-bedingetm CoQ10-Mangel assoziiert.

Eine weitere Gruppe von Medikamenten - die gegen Osteoporose angewandten Biphosphonate - inhibieren eine Reaktion, die in einem späten Schritt auch zur Synthese der CoQ10- Seitenkette führt.

Supplementierung von CoQ10

Der globale Markt von CoQ10 ist groß (derzeit rund 700 Mio $) und soll laut Prognosen jährlich um rund 7 % wachsen. Allerdings gibt es bislang kein von FDA oder EMA registriertes CoQ10- Arzneimittel, dagegen eine riesige Menge von frei erhältlichen Präparaten - vom Nahrungsergänzungsmittel bis hin zu diversen Kosmetikprodukten, welche die Regale von Apotheken, Drogerien, Beautyshops und Supermärkten füllen. Da es keine Vorschriften bezüglich Formulierung und Dosierung gibt, sind Qualität und angepriesene Wirksamkeit der Präparate in vielen Fällen zu hinterfragen. Dies ist insbesondere der Fall, da das überaus lipophile CoQ10 in ungeeigneten Formulierungen auskristallisiert (Schmelzpunkt 48oC) und dann nur in sehr geringem Ausmaß aus dem Darm in den Organismus aufgenommen werden kann; damit bleibt es unwirksam. Ein wesentliches Manko ist auch, dass für Wirksamkeitsstudien eine solide finanzielle Basis fehlt, um diese genügend lang, an einer ausreichend großen Zahl von Probanden als klinische Doppelblind-Studien durchzuführen.

Nichtsdestoweniger gibt es viele klinische Studien, in denen CoQ10 supplementiert wurde: ua. bei Herz-Kreislauferkrankungen, neurologischen Defekten, Stoffwechselerkrankungen, Statin-verursachten Nebenwirkungen und als Antiaging-Mittel. Die US-Datenbank ClinicalTrials.gov weist 82 Einträge solcher z.T. noch laufender Studien auf. In den letzten 10 Jahren sind 420 Originalberichte und Metaanalysen allein über klinische Studien erschienen - die Ergebnisse sind leider durchwachsen. In vielen Fällen dürften zu kleine Teilnehmerzahl, zu kurze Versuchsdauer und vor allem unzureichende Resorption des Wirkstoffs die Aussagekraft der Studie geschmälert haben.

Ist CoQ10 nun ein Wundermittel, das Krankheiten vorbeugt und heilt und uns Jugend verspricht?

Tabelle. Positive Ergebnisse bei Herzinsuffizienz. (Daten aus Mortensen et al., 2014; https://doi.org/10.1016/j.jchf.2014.06.008 Lizenz cc-by))

Im Folgenden sollen zwei Studien angeführt werden, die - mit optimalen CoQ10 Formulierungen ausgeführt - positive Ergebnisse erzielten und Hoffnung auf erfolgreiche Supplementierung bei weiteren Indikationen erwecken.

Die SYNBIO-Studie: Anwendung bei Herzsuffizienz

Die 2014 publizierte Studie hat insgesamt 420 Patienten mit Herzinsuffizienz Stufe III und IV 2 Jahre lang 3 x täglich mit jeweils 100 mg CoQ10 in einer speziell entwickelten, auf Resorbierbarkeit geprüften Formulierung oder mit Placebo behandelt. Nach 2 Jahren führte die Behandlung zu fast 3-fach erhöhten CoQ10-Plasmaspiegeln und zu einer Reduktion des Krankheits-spezifischen Markers NT-proBNP um 256 pg/ml. Die Sterblichkeit an Herzerkrankungen lag in der CoQ10 Gruppe um über 50 % niedriger als in der Placebogruppe und ebenso die Einweisungen ins Krankenhaus wegen Verschlechterung des Zustands. Tabelle.

Topische Anwendung von CoQ10 auf der Haut

Abbildung 4. In geeigneten Formulierungen angewandt wird die CoQ10 Konzentration in der Epidermis bedeutend erhöht (A) und ein Teil davon in Ubichinol umgewandelt (B). Der Sauerstoffverbrauch von Keratinocyten - als Indikator der Energieerzeugung -erhöht sich bei CoQ10-Behandlung (C). Control: PLacebobehandlung, Formula 1: Creme 348 µM CoQ10, Formula 2: 870 µM CoQ10 (Bilder aus Anja Knott et al., 2015. . https://doi.org/10.1002/biof.1239, Lizenz cc-by-nc.)

Ein seit mehr als 140 Jahren bestehendes, sehr erfahrenes dermatologisches Unternehmen hat das Eindringen von CoQ10 in die Epidermis der Haut, die dort erzielte Konzentration, die Wirkung auf die Energieerzeugung und die antioxidative Funktion versus Placebo geprüft.

Dazu wurden CoQ10 (Chinonform) in 2 verschiedenen Formulierungen (Creme und Serum) und entsprechende Placeboproben auf jeweils mehrere Stellen des linken und rechten Unterarms von 16 Versuchspersonen 2 x täglich 14 Tage lang aufgetragen. Nach dieser Zeit wurde das in der Epidermis vorhandene Ubichinon und Ubichinol bestimmt.

Durch die Behandlung mit der Creme, aber vor allem mit dem Serum wurde der Ubichinon-Gehalt in der Epidermis fast bis auf das Doppelte erhöht (Abbildung 4A) und ein Teil davon dort auch in das antioxidative Ubichinol umgewandelt (Abbildung 4B). In Keratinozyten - den Hauptzellen der Epidermis - stieg der Sauerstoffverbrauch (OCR; als Maß für die Energieerzeugung) durch die CoQ10-Zufuhr um 38 % (Abbildung 4C). Neben der gesteigerten Energieerzeugung erwies sich auch die antioxidative Wirkung von CoQ10: Freie Radikale in der gestressten Haut der Probanden wurden durch die Behandlung um bis zu 10 %gesenkt (ohne Bild).


 

inge Sun, 24.09.2023 - 23:35

Schrumpfen statt schlafen - wie die Spitzmaus im Winter Energie spart

Schrumpfen statt schlafen - wie die Spitzmaus im Winter Energie spart

Do, 14.09.2023 - — Christina Beck Christina BeckIcon Biologie

In den 1940er-Jahren untersucht der polnische Zoologe August Dehnel in der Wirbeltiersammlung seiner Universität die Schädel von Spitzmäusen. Dabei macht er eine erstaunliche Entdeckung: Die Schädelgröße der Tiere verändert sich im Jahresverlauf! Schädel von Individuen, die im Frühjahr und Sommer gefangen wurden, sind größer als diejenigen von „Wintertieren“. Dehnel vermutet, dass die saisonalen Unterschiede etwas mit der Anpassung an die kalte Jahreszeit zu tun haben. Im Jahr 1949 veröffentlicht er seine Beobachtungen im Fachblatt der Universität, die aber kaum Beachtung finden. Erst vor rund 10 Jahren nehmen Dina Dechmann und ihr Team (Max-Planck-Institut für Verhaltensbiologie) die Arbeit an diesem erstaunlichen Phänomen auf und stoßen auf eine neue Strategie des Energiesparens im Winter. Die Zellbiologin Christina Beck (Leiterin der Kommunikation der Max-Planck-Gesellschaft) berichtet darüber.*

Nach seinem Erscheinen findet Dehnels Beitrag zunächst kaum Beachtung. Seine Entdeckung wird sogar als Scheineffekt abgetan: Dehnel sei einem Irrtum aufgesessen, weil kurz vor dem Winter vermehrt große Individuen sterben, vermuten seine Kollegen. Die Studie gerät weitgehend in Vergessenheit, bis vor rund zehn Jahren die Verhaltensökologin Dina Dechmann auf das Phänomen stößt. Dechmann leitet eine Forschungsgruppe am Max-Planck-Institut für Verhaltensbiologie in Radolfzell am Bodensee. Gemeinsam mit ihren Kolleginnen und Kollegen erforscht sie, wie sich Tiere an ihre Umwelt anpassen und ihren Energiehaushalt optimieren: Wie stellen Tiere sicher, dass sie immer genügend Nahrung finden, um zu überleben und Nachkommen aufzuziehen? Welche Strategien verfolgen sie, um Energie zu sparen, wenn nicht genügend Futter vorhanden ist? „Besonders spannend für uns sind kleine Tiere, die eine sehr hohe Stoffwechselrate haben und daher ohnehin am energetischen Limit leben“, sagt Dechmann. Für solche Tiere ist es eine ganz besondere Herausforderung, ihren hohen Energiebedarf ständig zu decken.

Bei gleichwarmen Tieren korreliert die Körpergröße normalerweise umgekehrt mit dem Energieverbrauch: Je kleiner ein Tier, desto höher ist sein relativer Bedarf an Energie. Die Beziehung zwischen Körpergröße und Energieverbrauch ist dabei nicht linear, sondern exponentiell (Abbildung1). Der Grund für dieses Phänomen ist noch nicht vollständig verstanden. Eine Erklärung betrachtet den Wärmehaushalt des Körpers, der sowohl vom Körpervolumen als auch von der Körperoberfläche beeinflusst wird: Je größer das Volumen, desto mehr Zellen sind vorhanden, die Stoffwechsel betreiben und desto mehr Wärme wird im Körperinnern freigesetzt. Kleine Tiere haben jedoch verhältnismäßig mehr Oberfläche. Um ihre Körpertemperatur aufrecht zu halten, müssen sie daher härter arbeiten, um Körperwärme zu produzieren, verlieren aber auch mehr davon. Das kostet Energie.

Abbildung 1: Stoffwechselraten bei Säugetieren. Ein Maß für die Stoffwechselrate ist der Sauerstoffverbrauch pro Kilogramm Körpergewicht. Kleine Tiere haben wesentlich höhere Stoffwechselraten als große Tiere und damit einen höheren relativen Energiebedarf. © J. Lazaro für MPG / CC BY-NC-SA 4.0

Eine Maus, die keine ist

Ein extremes Beispiel ist die Spitzmaus (Abbildung 2) – ein winziges Säugetier, das trotz seines Namens und der äußerlichen Ähnlichkeit nicht zu den Mäusen gehört, sondern mit dem Maulwurf und dem Igel eng verwandt ist (Ordnung „Eulipotyphla“).

Spitzmäuse leben räuberisch und fressen im Sommer vor allem Würmer und Larven. Im Winter, unter ungleich härteren Lebensbedingungen, stehen vor allem Insekten und Spinnentiere auf dem Speiseplan. Die kleinen Räuber sind andauernd in Bewegung: „Spitzmäuse sind winzige Tierchen, die wie kleine Porsches ständig hochtourig fahren und deshalb fortlaufend viel und qualitativ hochwertige Nahrung brauchen“, sagt Dina Dechmann. „Unter allen Säugetieren haben sie den höchsten, je gemessenen Stoffwechsel. Sie sind kleine Hochleistungsathleten, die ausschließlich über schnelle, aerob arbeitende Muskelfasern verfügen – und deshalb nie Muskelkater bekommen, obwohl sie sich ständig unter hohem Energieaufwand bewegen.“ So ein Leben auf der Überholspur hat jedoch seinen Preis: Finden die Tiere kein Futter, verhungern sie binnen fünf Stunden. Für die winzigen Säuger ist Energiesparen im Winter daher eine Frage des Überlebens.

Abbildung 2: Die Spitzmaus. © Christian Ziegler

Um die kalte Jahreszeit zu überstehen, haben Tiere ganz unterschiedliche Strategien entwickelt: Zugvögel verlassen Jahr für Jahr ihre Brutgebiete und fliegen in wärmere Winterquartiere. Fledermäuse, Igel oder Murmeltiere halten Winterschlaf, wobei sie ihre Körpertemperatur drastisch senken. Bei Werten nahe dem Gefrierpunkt sinken die Stoffwechselrate und damit der Energieverbrauch bei manchen Arten bis auf ein Hundertstel der Ausgangswerte. Bei der Winterruhe wird die Körpertemperatur dagegen nur wenig abgesenkt. Tiere, die so überwintern – etwa Braunbären und Eichhörnchen – fallen in einen schlafähnlichen Zustand und sparen dadurch Energie. Zwischendurch wachen sie immer wieder auf, um zu fressen. Eichhörnchen legen dafür im Herbst Futterlager an. Die Spitzmaus verfolgt keine dieser Strategien. Sie wandert nicht aus und behält im Winter ihr Aktivitätslevel bei. Trotzdem sind die kleinen Räuber ausgesprochen erfolgreich, und zwar ausgerechnet in kalten Regionen: Je nördlicher der Breitengrad, desto dominanter ist ihr Einfluss auf die lokale Fauna. Wie machen sie das? War August Dehnel auf der richtigen Spur?

Schrumpfen statt schlafen

Um das herauszufinden, startete Javier Lazaro, Doktorand in Dechmanns Forschungsgruppe, ein aufwändiges Freilandexperiment. Im Sommer fing er in der Umgebung des Instituts mehr als 100 Waldspitzmäuse (Sorex araneus). Die quirligen, im Sommer rund acht Gramm schweren Tiere sind die häufigsten Spitzmäuse in Mitteleuropa und kommen in großen Teilen Europas und im nördlichen Asien vor. Alle gefangenen Tiere wurden geröntgt, um ihre Schädel zu vermessen. Anschließend entließ Lazaro sie wieder in die Freiheit, nachdem er sie zur Wiedererkennung mit reiskorngroßen elektronischen Transpondern ausgestattet hatte. Solche Chips werden in einer größeren Variante auch für Haustiere verwendet. In regelmäßigen Wiederfangaktionen gelang es dem Wissenschaftler, rund ein Drittel der Tiere erneut zu fangen und zu röntgen, um die Veränderungen über die Zeit zu dokumentieren (Abbildung 3). Und tatsächlich: Die Schädel aller untersuchten Spitzmäuse waren im Winter geschrumpft und im darauffolgenden Frühjahr wieder gewachsen! „Die Schädelhöhe nahm im Winter um 15 Prozent ab, manchmal sogar bis zu 20 Prozent“, sagt Javier Lazaro. Und nicht nur die Größe des Schädels verändert sich. Auch lebenswichtige Organe wie Gehirn, Leber, Darm und Milz schrumpfen, sogar Teile des Skeletts werden abgebaut. Die Tiere verlieren dadurch im Winter bis zu einem Fünftel ihres Körpergewichts und verändern ihr Aussehen so stark, dass man sie früher fälschlicherweise sogar für unterschiedliche Arten hielt. Im Frühjahr beginnen die Spitzmäuse dann wieder zu wachsen. Ihre ursprüngliche Gestalt erreichen sie jedoch nicht mehr: „Die Schädelhöhe etwa nimmt lediglich um neun Prozent wieder zu. Dass die Tiere dadurch mit der Zeit nicht immer kleiner werden, liegt daran, dass sie nur 13 Monate lang leben und somit nur einen einzigen Schrumpfungszyklus durchlaufen“, so der Wissenschaftler. „Mit unserer Wiederfangstudie konnten wir erstmals zeigen, dass die saisonalen Veränderungen in jedem einzelnen Tier stattfinden.“ August Dehnel hatte also recht, und mittlerweile sind die von ihm erstmals beschriebenen saisonalen Größenänderungen als Dehnel-Effekt bekannt.

Abbildung 3: Veränderung der Schädelhöhen. Auf der y-Achse wird das Verhältnis „Schädelhöhe zu Zahnreihe“ dargestellt. Da die Länge der Zahnreihe eines Individuums gleich bleibt, werden somit die Schwankungen in der Körpergröße der vermessenen Spitzmäuse herausgerechnet. Die Linie zeigt die Mittelwerte. Die Kreise zeigen die Messwerte der mehrfach gefangenen Individuen. Rot markiert sind drei Messungen, die an demselben Individuum im Sommer, Winter und Frühjahr vorgenommen wurden. Diese Werte entsprechen den Schädelzeichnungen (oben), die auf Grundlage von Röntgenbildern entstanden. © J. Lazaro für MPG / CC BY-NC-SA 4.0

Auch Maulwürfe und Wiesel werden kleiner

Wie aber entsteht ein solches Phänomen im Laufe der Evolution und warum? Um das herauszufinden, suchten die Forschenden auch in anderen Arten – und wurden fündig: Die verwandten Maulwürfe und die im evolutionären Stammbaum weit entfernten Wiesel zeigen dieselben jahreszeitlichen Veränderungen. All diesen Tieren gemeinsam ist, dass sie von hochwertiger Nahrung abhängig sind und keinen Winterschlaf halten. Die Forschenden sehen darin ein starkes Indiz dafür, dass es sich dabei um Konvergenz handelt: Eine konvergente Anpassung tritt bei nicht näher miteinander verwandten Tiergruppen auf, die unter ähnlichen Umweltbedingungen leben und daher denselben Selektionsfaktoren ausgesetzt sind. Die äußeren Bedingungen sind jedoch nicht konstant und können sich im Jahresverlauf ändern – und damit die Richtung, in welche die natürliche Selektion wirkt. Bei der Spitzmaus sind im Winter kleine Tiere im Vorteil, die mit wenig Energie auskommen: „Anhand von Stoffwechselmessungen haben wir gezeigt, dass Spitzmäuse pro Gramm Körpergewicht bei +20 °Celsius genauso viel Energie verbrauchen wie bei -1 °Celsius“, sagt Dina Dechmann. „Eine Spitzmaus, die im Winter um 20 Prozent kleiner ist, spart also auch 20 Prozent Energie.“ Im Frühjahr kehren sich die Verhältnisse um: „Spitzmäuse sind sehr territorial, und dabei sind große Tiere ihren Konkurrenten überlegen. Große Weibchen bringen zudem größere Junge zur Welt, die eine höhere Überlebenswahrscheinlichkeit haben als kleine.“ Als Reaktion auf die unterschiedlichen Anforderungen der Umwelt hat sich bei Spitzmäusen die Fähigkeit herausgebildet, die Körpergröße im Jahresverlauf zu verändern. „Die Schrumpfung ist dabei keine Folge von Hunger, sondern ein genetisches Programm, das bereits im August startet, wenn noch ideale Futterbedingungen herrschen“, sagt die Forscherin. „Dieses Programm kann durch die Umwelt jedoch modifiziert werden.“

Um herauszufinden, welche Umweltfaktoren dafür entscheidend sind, verglichen die Forschenden zwei Maulwurfarten aus unterschiedlichen Klimazonen. Anhand von Schädelmessungen in Museumssammlungen wiesen sie nach, dass der Europäische Maulwurf im Winter schrumpft. Der Iberische Maulwurf, der in Spanien und Portugal vorkommt, bleibt dagegen das ganze Jahr über gleich groß – und das, obwohl auch er zeitweise mit Nahrungsknappheit zu kämpfen hat. Der Futtermangel trifft ihn jedoch während der heißen Jahreszeit. „Wenn es lediglich eine Frage der Nahrung wäre, dann müsste der Europäische Maulwurf im Winter schrumpfen, der Iberische Maulwurf dagegen im Sommer, wenn große Hitze und Trockenheit das Futter knapp machen“, sagt Dechmann. Das Forschungsteam geht daher davon aus, dass nicht allein der Nahrungsmangel, sondern auch das kältere Klima ausschlaggebend ist.

Gehirnverlust mit Folgen

Über die Anpassung von Tieren an kalte Klimazonen hat sich im 19. Jahrhundert bereits der deutsche Anatom Carl Bergmann Gedanken gemacht. Von ihm stammt die sogenannte Bergmannsche Regel. Sie sagt voraus, dass Vögel und Säugetiere, die in kalten Regionen leben, normalerweise größer sind als ihre Verwandten in warmen Gegenden. Grund dafür ist ihr Oberflächen-Volumen-Verhältnis: Da mit zunehmender Größe das Volumen eines Körpers stärker ansteigt als seine Oberfläche, haben große Tiere in kalten Regionen einen Vorteil, weil sie relativ gesehen weniger Wärme abgeben als kleine. Spitzmäuse folgen dieser Regel nicht – im Gegenteil: Bei ihnen sind Individuen derselben Art im Norden sogar noch kleiner als im Süden. Doch trotz ihres energetisch ungünstigen Oberflächen-Volumen-Verhältnisses sind die kleinen Räuber gerade in kalten Regionen häufig. Ihre Strategie, durch saisonale Schrumpfung Energie zu sparen, scheint also aufzugehen. Dafür spricht auch, dass Dehnels Phänomen bei Waldspitzmäusen im Nordosten Polens stärker ausgeprägt ist als bei ihren Verwandten am klimatisch milderen Bodensee. Eine vergleichbare regionale Variabilität haben die Max-Planck-Forschenden auch bei Wieseln gefunden. Bei ihren weiteren Untersuchungen konzentrierten sich Dina Dechmann und ihr Team auf das Gehirn – dasjenige Organ, das bei der Spitzmaus im Vergleich zu anderen Organen besonders stark schrumpft. Bereits August Dehnel hatte anhand seiner Schädelmessungen errechnet, dass das Volumen des Spitzmausgehirns im Winter um 20 Prozent kleiner ist als im Sommer. Mehr als sieben Jahrzehnte später setzten die Max-Planck-Forschenden auf moderne medizinische Diagnoseverfahren, um individuelle Veränderungen des Gehirns sichtbar zu machen. In einem Gemeinschaftsprojekt mit dem Universitätsklinikum Freiburg vermaßen sie einzelne Spitzmäuse wiederholt im Magnetresonanztomografen (Abbildung 4). Es war bereits bekannt, dass nicht alle Gehirnbereiche in gleichem Maße schrumpfen. Die Veränderungen betreffen vielmehr ganz bestimmte Regionen – den Neocortex und den Hippocampus. Der Neocortex ist ein Teil der Großhirnrinde und unter anderem für die Verarbeitung von Sinneseindrücken zuständig, der Hippocampus ist wichtig für die räumliche Orientierung. „Wir haben herausgefunden, dass der Neocortex um ganze 25 Prozent schrumpft, der Hippocampus um 20 Prozent“, sagt Dina Dechmann. Welche Folgen hat es, wenn das Gehirn in solch wichtigen Bereichen derart stark abgebaut wird? Um das zu testen, starteten die Forschenden eine Reihe von Verhaltensexperimenten, deren Resultate sie dann mit den MRT-Messungen im gleichen Tier vergleichen konnten. „Dieses Projekt war eine echte Herausforderung, denn Spitzmäuse sind sehr stressempfindlich und anspruchsvoll in der Haltung“, sagt Dechmann. „Bisher ist es auch nicht gelungen, sie in Gefangenschaft zu züchten.“ Die Forschenden mussten daher mit Wildfängen arbeiten. Im Experiment ließen sie Spitzmäuse, die sie zu verschiedenen Jahreszeiten im Freiland gefangen hatten, in einer Versuchsarena nach Mehlwürmern suchen. Anhand von bestimmten visuellen Hinweisen sollten sich die Tiere merken, wo die Leckerbissen versteckt waren. Dabei zeigte sich, dass sich die saisonalen Veränderungen der Gehirngröße tatsächlich auf die kognitiven Fähigkeiten der Tiere auswirkt: „Im Sommer lernten die Spitzmäuse schneller, wo sich die Futterquelle befand und brauchten in aufeinanderfolgenden Versuchen weniger Zeit, um sie zu finden“, sagt Dina Dechmann. „Im Winter schnitten sie dagegen deutlich schlechter ab.“

Abbildung 4: Veränderung der Knochendichte. Computertomographische Aufnahme des Schädels eines Individuums im Sommer und Winter. Die Farben zeigen die unterschiedlichen Knochendichten. Im Wintertier sind die Plattennähte des Schädels und die Platte am Hinterhaupt demineralisiert. © C. Dullin / CC BY-NC-SA 4.0

Die Forschenden schließen daraus, dass das Ortsgedächtnis der Tiere tatsächlich unter der Schrumpfung leidet: „Wir glauben, dass die Spitzmäuse sich das leisten können, weil ihre Umwelt im Winter weniger komplex wird“, sagt Dina Dechmann. „Im Sommer verändert sich die Vegetation schnell, die Spitzmäuse bewegen sich großräumig und müssen sich daher viel merken. Im Winter sind die Tiere dagegen viel kleinräumiger unterwegs und suchen teils versteckt unter der Schneedecke nach Futter.“ In der kalten Jahreszeit überwiegen daher die Vorteile, die ein kleines Gehirn aufgrund seines geringeren Energieverbrauchs bietet. Biologen sprechen von einem Trade-off (dt. Ausgleich, Kompromiss) zwischen Energieoptimierung und kognitiver Leistung: Bei Eigenschaften, die sich wechselseitig beeinflussen und die miteinander in Konflikt stehen, bildet sich im Lauf der Evolution ein Kompromiss heraus, der das Überleben und den Fortpflanzungserfolg eines Tieres oder einer Pflanze bestmöglich sichert. Vor allem bei Säugetieren ist das Denkorgan ein wahrer Energiefresser: Beim Menschen hat es einen Anteil von zwei Prozent am Körpergewicht, verbraucht aber ganze 20 Prozent der Gesamtenergie. „Der Kompromiss, durch eine Verkleinerung des Gehirns Energie zu sparen, obwohl das zu messbaren Einschränkungen der kognitiven Leistung führt, zeigt, wie extrem anpassungsfähig Säugetiere sein können“, sagt Dechmann.

Neue Ansätze für die Medizin

Aktuell untersuchen die Max-Planck-Forschenden, was bei den saisonalen Veränderungen der Spitzmaus auf physiologischer Ebene passiert: Wie schaffen es die Tiere, Knochen und Organe zu schrumpfen und dann wieder wachsen zu lassen? Und wodurch wird der Vorgang ausgelöst? Neue Experimente zu Stoffwechsel und Genexpression sollen Licht ins Dunkel bringen. Diese Abläufe im Detail zu verstehen, ist nicht nur für Biologinnen und Biologen interessant – auch die Medizin könnte davon profitieren: „So große, vor allem umkehrbare Veränderungen im Skelett könnten für die Knochenrekonstruktion oder Osteoporose-Forschung wichtig sein“, sagt. Dina Dechmann. Bei dieser Erkrankung verliert das Skelett an Substanz und wird brüchig. Weitere Erkenntnisse über diesen Abbauprozess, der in der Spitzmaus umkehrbar ist, könnten daher nützlich sein, um neue Therapieansätze zu entwickeln. Dasselbe gilt für neurodegenerative Erkrankungen wie Alzheimer, die mit einem Substanzverlust im Gehirn einhergehen. Dina Dechmann und ihr Team arbeiten daher mit Forschenden der Universitäten Stony Brook und Aalborg zusammen. „Spitzmäuse könnten schon in naher Zukunft wichtige Modellorganismen für unterschiedliche medizinische Forschungszweige werden“, glaubt die Max-Planck-Forscherin. Die winzigen Räuber sind daher nicht zuletzt ein Beispiel dafür, wie Grundlagenforschung zu neuen Erkenntnissen in der Medizin führen kann.


* Der Artikel von Christina Beck unter Mitwirkung von Dr. Elke Maier (Redaktion Max-Planck-Forschung) ist erstmals unter dem Titel: "Energie sparen leicht gemacht - Warum Spitzmäuse im Winter schrumpfen" in BIOMAX 38, Herbst2023 erschienen https://www.max-wissen.de/max-hefte/biomax-38-energie-sparen-spitzmaus/ und wurde (mit Ausnahme des Titels) unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


Mehr zum Thema

Veröffentlichung von Dina Dechmann und Team:

 Jan R. E. Taylor, Marion Muturi, Javier Lázaro, Karol Zub, Dina K. N. Dechmann: Fifty years of data show the effects of climate on overall skull size and the extent of seasonal reversible skull size changes (Dehnel's phenomenon) in the common shrew. Ecology and Evolution. https://doi.org/10.1002/ece3.9447

 Vortrag von Dina Dechmann:

Wie passen sich Tiere veränderter Nahrung an? Video 12:00 min https://www.br.de/mediathek/podcast/campus-talks/pd-dr-dina-dechmann-wie-passen-sich-tiere-veraenderter-nahrung-an/1865539


 

inge Thu, 14.09.2023 - 12:12

Warum ich mir keine Sorgen mache, dass ChatGTP mich als Autorin eines Biologielehrbuchs ablösen wird

Warum ich mir keine Sorgen mache, dass ChatGTP mich als Autorin eines Biologielehrbuchs ablösen wird

Fr, 08.09.2023 — Ricki Lewis

Ricki Lewis

Icon Medizin

Die Genetikerin Ricki Lewis hat Tausende Artikel in wissenschaftlichen Zeitschriften verfasst und eine Reihe von voluminösen Lehrbüchern geschrieben, die zu Bestsellern wurden und bereits mehr als ein Dutzend Auflagen erreicht haben. Ihre leicht verständlichen Schriften vermitteln den Lesern nicht nur sorgfältigst recherchierte Inhalte, sondern auch die Begeisterung für Wissenschaft und die zugrundeliegende Forschung, wobei Sichtweise, Erfahrung, Wissen und auch Humor der Autorin miteinfließen. Dass ChatGTP eine Konkurrenz für sie als Autorin werden könnte, ist für Ricki Lewis nicht vorstellbar.*

Eben habe ich ChatGTP (https://chat.openai.com/auth/login) zum ersten Mal benutzt. Anfangs habe ich mir Gedanken um meine Zukunft gemacht, denn der Chatbot beantwortete fast augenblicklich meine Fragen zu immer obskurer werdenden Begriffen aus meinem Fachgebiet, der Genetik,. Das KI-Tool zu überlisten, hat allerdings nur etwa 10 Minuten gedauert.

ChatGTP - "Chat Generative Pre-trained Transformer" - wurde am 30. November 2022 von OpenAI/Microsoft freigegeben.(Die Bezeichnung klingt ein bisschen wie das, was Google über Steroide sagt.) Nach meiner kurzen Begegnung mit dem Chatbot muss ich mich aber fragen, ob dieser die Nuancen, den Kontext, den Humor und die Kreativität eines menschlichen Geistes schaffen kann. Könnte er mich als Autorin von Lehrbüchern ersetzen?

Ich schreibe schon seit langem dicke Wälzer über Biowissenschaften

Mein Lieblingsbuch war immer "Human Genetics: Concepts and Applications"; die erste Auflage ist 1994 erschienen, als die Ära der Sequenzierung des menschlichen Genoms begann. Die 14. Auflage wurde diese Woche von McGraw-Hill herausgegeben. Eine Überarbeitung dauert gewöhnlich zwei Jahre: ein Jahr für Aktualisierung und Berücksichtigung der Vorschläge der Rezensenten, ein weiteres für die "Produktion" vom Lektorat bis zur Endfassung. Dann folgt ein Jahr Pause.

Abbildung 1. Ricki Lewis: Humangenetik Konzepte und Anwendungen. 12 Auflagen des Lehrbuchs von 1994 bis 2017 (Lizenz cc-by)

Mit der Entwicklung der Genetik zur Genomik trat die künstliche Intelligenz auf den Plan und übertrug die kombinatorischen Informationen der vergleichenden Genomik auf die DNA-Sequenzen. Mit einem Training an Datensätzen und einer anschließenden Mustererkennung ließen sich Evolutions-Bäume ableiten, welche die Beziehungen zwischen den Spezies abbildeten beim Testen der Abstammung und in der Forensik und ebenso bei der Identifizierung von mutierten Sequenzen, die auftreten, wenn sich das Krebsgeschwür ausbreitet.

ChatGPT ist für mich zu neu, als dass ich bei der Überarbeitung der neuen Auflage davon Gebrauch gemacht hätte, aber ich bin nun neugierig geworden. Ich könnte mir vorstellen, dass der Bot Definitionen ausspuckt, aber ein Lehrbuch ist viel mehr als nur "Inhalt". Ein menschlicher Autor fügt seine Sichtweise, Erfahrung und vielleicht sein Wissen hinzu, das über das hinausgeht, was ChatGPT aus dem Internet entnehmen kann.

Genetik-Lehrbücher und Generative künstliche Intelligenz

Die Genforschung erzeugt und extrahiert Unmengen an Informationen, Millionen und sogar Milliarden an Datenpunkten. Man trainiert einen Algorithmus an den DNA-Sequenzen eines bekannten krankheitsverursachenden Gens und sucht dann in Zellen anderer Personen nach identischen oder sehr ähnlichen Sequenzen, um die Diagnose zu unterstützen.

Die Art von KI, die Lehrbücher neu schreiben könnte, wird generativ genannt - es ist das G in GTP (zufällig auch eine Abkürzung für einen der vier DNA-Bausteine). ChatGTP lernt die Muster und Strukturen von "Trainingsdaten" und generiert ähnliche Kombinationen aus neuen Daten und erzeugt Texte, Bilder oder andere Medien.

Könnte ChatGTP also ein Lehrbuch wie das meine schreiben?

Das glaube ich nicht. Ich kann mir vorstellen, dass die generative KI einen Roman schreibt, der den Romanen der bekannten Autorin Colleen Hoover (US-amerikanische Bestseller-Autorin; Anm. Redn.) ähnelt. Tatsächlich habe ich vor langer Zeit eine Fantasy-Erzählung im Playgirl veröffentlicht, nachdem ich Wörter und Sätze in ähnlichen Artikeln aufgelistet und ein neues Szenario entworfen hatte. Es ging darin um einen Tornado und eine Schubkarre im ländlichen Indiana.

Wie Colleen Hoovers Belletristik und Playgirl-Fantasien haben auch Lehrbücher einen ganz eigenen Stil. Lehrbücher enthalten aber viel mehr als nur eine einzige Erzählung pro Kapitel. Die Herstellung umfasst auch die Auswahl von Fotos, die Gestaltung von Illustrationen und die Erstellung von pädagogischen Hilfsmitteln - Fragen, Zusammenfassungen, Verweise, Texte in Boxen.

Hier folgt nun also ein kurzer Überblick über den Werdegang der Lehrbuchveröffentlichung und anschließend das, was - meiner Meinung nach- künstliche Intelligenz nicht so gut wie ein menschlicher Autor leisten kann.

Das Werden eines Lehrbuchs über Biowissenschaften

Mein erstes Lehrbuch, Life, war ein Einführungsbuch in die Biologie (nicht zu verwechseln mit Keith Richards' Autobiografie mit demselben Titel). Damals waren die Marketing-Leute mit allem möglichen Schnickschnack ausgerüstet, um den Marktanteil zu erhöhen - Probenvorräte, Handbücher für Lehrpersonal, Arbeitsbücher für Fallstudien. Was für ein Unterschied gegen heute! Elektronische Lehrbücher sind mit Multiple-Choice-Fragen zum "adaptiven Lernen" ausgestattet. Der Lernende (früher Student genannt) erhält sofortige Rückmeldung darüber, warum jede falsche Antwort falsch ist.

Jede Auflage hat neue Schriftarten, Designelemente und Farbpaletten gebracht, um die neue Version anders aussehen zu lassen, weil sich einige Themen - Mitose, Mendel, DNA - ja nicht ändern. Umfangreiche Wälzer wurden in kürzere Versionen aufgeteilt- wie kalbende Eisberge.

Die ersten E-Books stammen aus den 1990er Jahren. Heute ist in den Studiengebühren eine Gebühr für die zeitlich begrenzte Lizenzierung eines E-Lehrbuchs enthalten. "E" könnte auch für "eintägig" stehen.

Für die 14. Auflage meines Buches hat ein Unternehmen alles, was ich geschrieben habe, unter dem Blickwinkel von Diversität, Gleichberechtigung und Inklusivität (DGI) unter die Lupe genommen. In einem PLOS-Blogbeitrag vom April d.J. habe ich berichtet, wie ich meine Fauxpas entdeckt habe https://dnascience.plos.org/2023/04/27/embracing-diversity-equity-and-inclusion-in-genetics-textbooks-and-testing/.

Da herkömmliche Lehrbücher kostspielig sind, gibt es gelegentlich Bestrebungen, sie zu ersetzen. Aber einen Kurs aus Online-Materialien oder aus Mitschriften von Vorlesungen und Prüfungsfragen zusammenzuschustern, erfordert mehr Zeit und Mühe, als den meisten angehenden Autoren bewusst ist. Und den kostenlosen Online-Lehrbüchern, die vor einigen Jahren aufkamen, fehlte die redaktionelle Kontrolle und die der Reviewer, die ein akademischer Verlag bietet.

Eine bei der Erstellung eines Lehrbuchs weniger konkretisierbare Fähigkeit ist das angeborene Schreibtalent. Stilelemente sind subtil. Wie viele Akademiker oder ChatGTP wechseln vom Passiv ins Aktiv? Formuliert man um, um "es gibt" und andere Redundanzen zu vermeiden? Um zu häufige Verwendung von Wörtern zu unterlassen? Um die Länge von Sätzen, von Absätzen zu ändern? Um das Material in logische A-, B- und C-Abschnitte zu gliedern?

Kann KI die Kreativität eines menschlichen Geistes nachahmen?

Künstliche Intelligenz kann schnell eine Tabelle mit DNA-Replikationsenzymen zusammenstellen oder eine Chronik für Technologien erstellen. Aber wie könnte ein noch so gut trainierter Algorithmus die Auswahl der Beispiele eines Autors nachahmen oder Fallstudien entwickeln, die auf persönlichen Interviews mit Menschen mit genetischen Krankheiten basieren?

Würde KI meine Stammzellen-Vergleiche verbessern?

"Der Unterschied zwischen einer Stammzelle und einer Vorläuferzelle ist ein wenig so, wie wenn ein Studienanfänger viele Studienfächer in Betracht zieht, während ein Student sich dann bei der Wahl seiner Kurse eher auf einen bestimmten Bereich konzentriert. Die Reprogrammierung einer Zelle ist vergleichbar mit der Entscheidung eines Studienanfängers, das Hauptfach zu wechseln. Will ein Student mit Hauptfach Französisch Ingenieur werden, so müsste er neu beginnen und ganz andere Kurse belegen. Aber ein Biologiestudent, der Chemie studieren möchte, müsste nicht bei Null anfangen, weil viele gleiche Kurse für beide Studiengänge gelten. So ist es auch bei den Stammzellen."

Wie sieht es mit der Pädagogik aus? KI könnte Formulare zum Ausfüllen oder Multiple-Choice-Fragen ausspucken. Aber könnte sie meine Übung zum kritischen Denken mit Venn-Diagrammen (Darstellung von Mengen mit Kreisen; Anm. Redn.) von drei SARS-CoV-2-Varianten mit einigen gemeinsamen Mutationen erstellen? Ich bitte dort den Leser, die Regeln des genetischen Codes anzuwenden, um vorherzusagen, welche Veränderungen die öffentliche Gesundheit am ehesten bedrohen werden.

Ich versuche, meine Fragen unterhaltsam zu gestalten.

Würde ChatGPT am Ende eines Kapitels Fragen zur Vererbung von drahtigem Haar bei den Tribbles aus Star Trek stellen? Bei einer Familie im Allgemeinen Krankenhaus eine seltene Blutgruppe aufspüren? Einen Stammbaum für SORAS (Soap Opera Rapid Aging Syndrome) erstellen, das Leiden, das die Familie Newman in der Seifenoper "Schatten der Leidenschaft" befällt?

Anleihen bei Science-Fiction werden in einem Kapitel über Evolution fortgesetzt, in dem die Lernenden aufgefordert werden, das Prinzip zu identifizieren, das diese Themen veranschaulichen:

In "Seveneves" von Neal Stephenson zerspringt der Mond. In zwei Jahren werden die Bruchstücke auf die Erde prallen und den Planeten für Jahrhunderte unbewohnbar machen. Einige Menschen, die bereits auf riesigen Raumstationen leben, überleben, und andere werden ausgewählt, um sich ihnen anzuschließen. Alle anderen sterben unter der Flut von Mondschrott und der großen Hitze. Oben, auf der "Wolkenarche", schwindet die menschliche Spezies dahin, aber entsteht wiederausgehend von sieben überlebenden Frauen, die mit Hilfe von Fortpflanzungstechnologien Kinder bekommen. Fünftausend Jahre nach der Explosion des Mondes ist die menschliche Bevölkerung wieder auf 3 Milliarden angewachsen, bereit, eine geheilte Erde zu bewohnen. (EIN BEVÖLKERUNGSENGPASS)

In "Children of the Damned" werden plötzlich alle Frauen einer Kleinstadt von genetisch identischen Wesen von einem anderen Planeten geschwängert. (NICHT ZUFÄLLIGE PAARUNG)

In Dean Koontzis "The Taking" töten riesige mutierte Pilze fast alle Menschen und verschonen nur kleine Kinder und die wenigen Erwachsenen, die sie beschützen. Die menschliche Rasse muss sich aus den Überlebenden neu formieren. (GRÜNDEREFFEKT)

Was ist mit der Geschichte? Die KI könnte leicht Chronologien zusammenstellen. Aber würde sie die Entschlüsselung des genetischen Codes durch Marshall Nirenberg und Heinrich Matthaei im Jahr 1961 in einer "Glimpse of History"-Box mit der Erfindung des ersten mRNA-basierten Impfstoffs durch Katalin Karikó und Drew Weissman verbinden?

Und schließlich: Kann KI von Humor Gebrauch machen? Würde sie eine Frage am Ende eines Kapitels wie diese über forensische DNA-Tests stellen?

"Rufus, der Kater, wurde von seinen Besitzern in einer Mülltonne gefunden. Sein Körper war mit Schnitten und Bisswunden übersät, und an seinen Krallen klebten graue Fellreste - graues Fell, das dem Fell von Killer, dem riesigen Hund von nebenan, sehr ähnlich sah."

ChatGPT -eine Abwägung

ChatGPT zu testen war einfach. Es verdient eine Eins plus bei der Ausgabe von Definitionen obskurer Fachbegriffe wie Tetrachromasie (verbessertes Farbsehen durch eine vierte Art von Zapfenzellen) und Chromothripsis (zersplitterte Chromosomen).

ChatGPT unterscheidet genau zwischen Gentherapie und Gen-Editierung. Das Tool vereinfacht die Gentherapie nicht zu sehr auf das "Ersetzen" eines Gens, sondern antwortet: "Bei der Gentherapie werden neue oder veränderte Gene in die Zellen einer Person eingeführt, um ein fehlerhaftes Gen zu korrigieren oder zu ersetzen oder um eine therapeutische Funktion bereitzustellen." Diese Definition deckt alle Grundlagen ab.

In meiner neuen Lehrbuchauflage gibt es eine Box mit Informationen darüber, wie sich die Viren von Grippe und COVID unterscheiden. Auch hier liefert ChatGPT mehr, als ich über die beiden Erreger wissen möchte, und vergleicht und setzt sie in Gegensatz. Ich könnte mir vorstellen, dass ein Student die Antwort in einer Hausarbeit verwendet - ich bin froh, dass meine Zeit als Professor vorbei ist!

ChatGPT unterscheidet klar zwischen Fahrer- und Mitfahrer-Mutationen bei Krebs, gleichwohl beginnt meine Lehrbuchdefinition mit dem Zusammenhang: "Der Fahrer eines Fahrzeugs bringt es zum Ziel, der Beifahrer fährt mit".

Ein Haftungsausschluss für ChatGPT lautet: "Trotz unserer Sicherheitsvorkehrungen kann ChatGPT Ihnen ungenaue Informationen liefern." Offenbar macht er auch Fehler durch Auslassungen; dies stellte ich fest, als ich nach etwas anderem fragte, über das ich geschrieben hatte: wie man einen Impossible Burger macht. Nicht nur die Zutaten, sondern auch die Biotechnologie hinter dieser genialen Erfindung.

Die Erklärung von ChatGPT beginnt genau genug: "Der Impossible Burger ist ein pflanzliches Burger-Patty, das den Geschmack und die Beschaffenheit eines herkömmlichen Rindfleisch-Burgers imitieren soll. Ich habe zwar keinen Zugang zu dem genauen Rezept oder Verfahren, das von Impossible Foods verwendet wird, aber ich kann einen allgemeinen Überblick darüber geben, wie pflanzliche Burger wie der Impossible Burger normalerweise hergestellt werden." Anschließend werden allgemeine Schritte zur Herstellung von Variationen des traditionellen Veggie-Burgers angeführt, die man in Supermärkten findet. Aber Impossible-Burger sind überhaupt nicht wie andere!

Das ist einfach nicht gut genug, trotz der vermenschlichenden Wirkung der Antwort in der ersten Person. ChatGPT hat offenbar meinen Artikel "Anatomy of an Impossible Burger" nicht gelesen, den ich im Mai 2019 in PLOSBlogs DNA Science veröffentlicht habe. Das ist die einfachste Überschrift, die mir einfallen konnte.

Meine Quelle? Die Datenbank des Patent- und Markenamts! Die Suche hat nur ein paar Minuten gedauert. Die Patentanmeldung umfasst 52 Seiten und wurde 2017 nach jahrelangen Forschungsarbeiten eingereicht. Sie enthält Hunderte von verwandten Patenten und Veröffentlichungen, viele davon in den Mainstream-Medien. ChatGTP konnte nichts finden?

Das Werkzeug hatte keinen Zugang zu dem genauen Rezept oder Verfahren? Bei diesem Ansatz werden Hefezellen genetisch verändert, um eine Sojabohnenversion von Hämoglobin, das sogenannte Leghämoglobin, zu produzieren, das das "Mundgefühl" und das Aussehen von totem Kuhfleisch vermittelt.

Ich habe nicht nur 2019 über den Impossible Burger gebloggt, sondern auch eine Version in der dreizehnten Auflage meines Lehrbuchs veröffentlicht, also vor drei Jahren!

Aber ich bin erleichtert und nicht beleidigt, dass ich unter dem ChatGTP-Radar fliege, denn es ist schön zu wissen, dass meine Fähigkeiten noch nicht veraltet sind.

Allerdings habe ich ein Problem mit dem Schreiben von ChatGPT. In früheren Entwürfen kam es immer wieder als GTP aus meinem Gehirn, vielleicht nach dem DNA-Nukleotid GTP - Guanosintriphosphat.


 *Der Artikel ist erstmals am 7. September 2023 in PLOS Blogs - DNA Science Blog unter dem Titel " Why I’m Not Worried that ChatGTP Will Replace Me as a Biology Textbook Author " https://dnascience.plos.org/2023/09/07/why-im-not-worried-that-chatgtp-will-replace-me-as-a-biology-textbook-author/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt. Der ungekürzte Artikel folgt so genau wie möglich der englischen Fassung.


Ricki Lewis im ScienceBlog:

Links zu den bisherigen 31 Artikel aus PLOS Blogs - DNA Science Blog: https://scienceblog.at/ricki-lewis


 

inge Fri, 08.09.2023 - 18:15

Epilepsie - wie Larven des Schweinebandwurms auf das Gehirn einwirken

Epilepsie - wie Larven des Schweinebandwurms auf das Gehirn einwirken

Do, 31.08.2023 — Redaktion

Redaktion

Icon Gehirn

Vor wenigen Tagen erregte ein Presseartikel besonderes Aufsehen: in Australien wurde einer 64-jährigen Frau ein lebender Wurm operativ aus dem Gehirn entfernt, der aber offensichtlich noch keinen größeren Schaden verursacht hatte. Viel weniger öffentliche Aufmerksamkeit finden dagegen die weltweit auftretenden Infektionen mit dem Schweinbandwurm, in deren Verlauf die Wurmlarven Zysten im Gehirn bilden und in Folge Epilepsie auslösen können. Eine neue Arbeit in Journal eLife zeigt nun erstmals auf , dass die Wurmlarven durch Freisetzung des Neurotransmitter Glutamin eine wesentliche Rolle in der Pathophysiologie der Epilepsie spielen dürften.*

Infektionen mit dem Schweinebandwurm Taenia solium

(Taeniasis) treten weltweit auf, insbesondere in Ländern mit niedrigem und mittlerem Einkommen. Menschen infizieren sich, wenn sie rohes oder nicht durchgekochtes Fleisch von Schweinen verzehren, das Larven des Bandwurms, sogenannte Zystizerken enthält. Im Darm reifen die Zystizerken innerhalb weniger Monate zu segmentierten Bandwürmern heran, können dort Jahre verbleiben und Segmente (Proglottide) mit Eiern und auch isolierte Eier mit dem Kot absondern. Bandwurmeier, die von Bandwurmträgern im Kot ausgeschieden werden, können unter schlechten hygienischen Bedingungen über den fäkal-oralen Weg oder durch die Aufnahme von kontaminierten Lebensmitteln oder Wasser aufgenommen werden und sind direkt für Menschen und ebenso für Schweine infektiös. Sie werden zu sogenannten Oncosphären, unreifen Larvenformen, welche die Darmwand penetrieren, im System zirkulieren und sich als Zystizerken in Muskeln, Leber, Haut, Augen bis hin ins Zentralnervensystem festsetzen. Es kommt zur Zystizerkose mit zum Teil verheerenden Folgen für die menschliche Gesundheit.

Im Jahr 2015 hat die WHO-Gruppe für Epidemiologie der lebensmittelbedingten Erkrankungen T. solium als eine der Hauptursachen für lebensmittelverursachte Todesfälle identifiziert. Insgesamt dürften weltweit zumindest um die 5 Millionen Menschen an Zystizerkose leiden. Abbildung 1.

Abbildung 1. Weltweite Verbreitung der Zystizerkose 2019; Fallzahlen pro 100 000 Personen. Im Insert: vergrößertes Bild von Europa. Die Infektion wird durch Larvenformen des Schweinebandwurms verursacht und führt zur Zystenbildung in Muskelgewebe, anderen Organen und Gehirn. Ein Vergleich der Fallzahlen von 1990 und 2019 zeigt, dass die Infektionen in allen betroffenen Ländern stark abgenommen haben; weltweit von 71,3/100 000 auf 59,1/100 000 Personen. n (Bild: Our World in Data, https://ourworldindata.org/grapher/prevalence-cysticercosis. Lizenz: cc-by)

Neurozystizerkose

Bilden die Larven des Parasiten Zysten im Gehirn - dies wird als Neurozystizerkose bezeichnet -, so können Krampfanfälle und Epilepsie die Folge sein. Tatsächlich gehört die Neurozystizerkose weltweit zu den häufigsten Ursachen für erworbene Epilepsie und ein erheblicher Anteil (22-29 %) aller Epilepsiepatienten in Ländern südlich der Sahara hat eine Neurozystizerkose. Abbildung 2 gibt einen Eindruck wie sehr das Gehirn eines Patienten von Zystizerken befallen sein kann.

Abbildung 2. . Neurozystizerkose: multiple Zystizerken im Gehirn eines Patienten; Magnetresonanz-Aufnahme. (Bild: Centers for Disease Control and Prevention (CDC), gemeinfrei)

Man nimmt an, dass Krampfanfälle und Epilepsie auftreten, wenn die Zysten platzen und ihren Inhalt in das Gehirn entleeren; frühere Untersuchungen zur Entstehung dieser Erkrankungen haben sich auf die neuroinflammatorische Reaktion des Gehirns konzentriert. Interessanterweise geht man davon aus, dass Taenia solium-Larven die lokale Immunreaktion gegen ihre Vorhandesein aktiv unterdrücken, so dass sie sich über Monate oder sogar Jahre im Gehirn halten können. Abgesehen von den Arbeiten zur Neuroinflammation wurden jedoch die Auswirkungen der Larven (und ihrer Sekrete) auf die neuronale Aktivität bisher kaum erforscht. Jetzt berichtet im Fachjournal eLife ein internationales Forscherteam unter Joseph Raimondo (Universität Kapstadt) - darunter Anja de Lange und Hayley Tomes als Erstautoren - über Untersuchungen zu den Auswirkungen der Larven auf das Gehirn [1]. Die Ergebnisse haben direkte Relevanz für das Verständnis der Pathogenese akuter Anfälle (Iktogenese) und - da Anfälle zu Anfällen führen - auch chronischer Epilepsie.

Die Larven sezernieren Glutamat

Die wichtigste Erkenntnis der neuen Arbeit ist, dass die Larven und ihre Ausscheidungen einen Neurotransmitter namens Glutamat enthalten, wobei der Glutamatgehalt hoch genug ist, um die umliegenden Neuronen direkt zu aktivieren. Um dies nachzuweisen, haben die Forscher zunächst Taenia solium-Larven homogenisiert und ihre Ausscheidungsprodukte gesammelt. Anschließend haben sie Neuronen diesen Produkten ausgesetzt und gezeigt, dass die Neuronen durch diese Exposition zum Feuern von Aktionspotenzialen aktiviert wurden. Wurden aber die Glutamatrezeptoren in den Neuronen vor der Exposition mit den Larvenprodukten blockiert, so fand keine Aktivierung der Neuronen statt.

Die Forscher untersuchten dann mit Hilfe von fluoreszierenden Kalzium-Indikatoren (Calcium-Imaging), wie sich die lokale Aktivierung von Neuronen durch das Glutamat aus den Larven auf lokale Gehirnschaltkreise auswirkt. Der Anstieg des intrazellulären Kalziums steht stellvertretend für die neuronale Aktivität, so dass sich mit Hilfe der Kalzium-Bildgebung die neuronale Aktivität in den Gehirnschaltkreisen sichtbar machen lässt. Diese bildgebenden Experimente bestätigten, dass das von den Larven ausgeschiedene Glutamat eine lokale neuronale Aktivierung auslöste, die zu einer anschließenden Aktivierung synaptisch verbundener Neuronen in entfernteren Schaltstellen führte. Die Forscher haben auch andere, von den Larven abgesonderte Produkte untersucht, die möglicherweise das Feuern von Neuronen beeinflussen könnten (wie Substanz P, Acetylcholin und Kalium), aber keines dieser Produkte hatte die gleiche weitreichende Wirkung wie Glutamat. Die Ergebnisse deuten also darauf hin, dass Glutamat aus den Larven eine potenzielle Rolle bei der Entstehung und/oder Ausbreitung von Krampfanfällen spielt.

Als Nächstes zeigten de Lange et al., dass die Larvenprodukte ähnlich erregende Wirkungen in-vitro auf Gehirngewebe von Tiermodellen und auf reseziertes menschliches Gehirngewebe haben. Sie wiesen auch nach, dass Glutamat umgebendes Hirngewebe erregen kann - in anderen Studien war dies als Treiber für spätere Epilepsie nachgewiesen worden. Darüber hinaus war von anderen Teams bereits gezeigt worden, dass von Hirntumoren freigesetztes Glutamat epileptische Anfälle auslösen kann; Forscher suchen auch nach Möglichkeiten, die Glutamatfreisetzung gezielt zu steuern, um solche Anfälle zu verhindern.

Ähnliche Strategien könnten bei der Bekämpfung der Neurozystizerkose von Vorteil sein, um Anfälle zu reduzieren oder möglicherweise sogar die Entwicklung einer chronischen Epilepsie zu verhindern. Dies ist von entscheidender Bedeutung, da Millionen von Neurozystizerkose-Patienten unter Krampfanfällen und Epilepsie leiden. Allerdings ist die neue Studie noch kein strikter Beweis, dass Larvenprodukte Anfälle oder Epilepsie verursachen, da sie auf der Ebene einzelner Zellen und kleiner Schaltkreise mit Mini-Mengen (Pikoliter) von Larvenprodukten durchgeführt wurde: bisher wissen wir nur, wie Neurozystizerkose zu neuronaler Übererregbarkeit führt. Abbildung 3. fasst die Ergebnisse der Studie [1] zusammen.

Abbildung 3. . Neurozystizerkose und Epilepsie. Taenia Solium ist ein Parasit, der das Gehirn infizieren und eine Neurozystizerkose verursachen kann, die eine häufige, aber schlecht verstandene Ursache für erworbene Epilepsie ist. de Lange et al. [1] haben gezeigt, dass Taenia Solium erhebliche Mengen eines Neurotransmitters namens Glutamat enthält, der Neuronen und Schaltkreise von Neuronen aktivieren kann.

Künftige Studien werden erforderlich sein, um die Auswirkungen der Larvenprodukte und der Larven selbst auf größere Schaltkreise in vivo zu verstehen und um zu untersuchen, ob/wie diese pathologische Erregung zu langfristigen Veränderungen im Gehirn führt, die spontane, wiederkehrende Anfälle auslösen. Auch nicht-glutamaterge Mechanismen, einschließlich neuroimmunologischer Prozesse, könnten für diese Veränderungen von Bedeutung sein.

Mit den aufregenden experimentellen Hinweisen und darüber hinaus mit naturnahen krankheitsrelevanten Modellen, welche die Untersuchung neuer Behandlungsansätze ermöglichen werden, bringt uns die neue Studie einem Verstehen von Epilepsie als Folge menschlicher Neurozystizerkose näher. Die Studie ist auch deshalb wichtig, weil der Neurozystizerkose - einer Krankheit, von der unverhältnismäßig viele Menschen in einkommensschwachen und unterversorgten Ländern betroffen sind - in der Vergangenheit nicht genügend Aufmerksamkeit geschenkt wurde. Die aktuellen Ergebnisse aus Kapstadt könnten die dringend benötigte Forschung auf dem Gebiet der Neurozystizerkose in Gang gebracht haben, da sie zeigen, was Taenia solium-Larven mit den sie umgebenden neuronalen Netzwerken anstellen. Es ist Aufregend!


[1] Anja de Lange, Hayley Tomes et al., 2023 Cestode larvae excite host neuronal circuits via glutamatergic signaling. eLife12:RP88174 https://doi.org/10.7554/eLife.88174.1


 * Eine Zusammenfassung des Artikels von Anja de Lange, Hayley Tomes, et al., 2023, [1] verfasst von Zin-Juan Klaft und Chris Dulla ist am 23.08.2023 unter dem Titel "Epilepsy: How parasitic larvae affect the brain " im eLife-Magazin erschienen: https://doi.org/10.7554/eLife.91149. Der Text wurde von der Redaktion ins Deutsche übersetzt, mit einigen Textstellen und Abbildungen 1 und 2 ergänzt und ohne die im Originaltext zitierten Literatustellen wiedergegeben. eLife  ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz.


Weiterführende Links

WHO: Taeniasis/cysticercosis (2022): https://www.who.int/news-room/fact-sheets/detail/taeniasis-cysticercosis

JJ Medicine: Pork Tapeworm (Taeniasis) | How It Infects, Symptoms & Cysticercosis, Diagnosis, Treatment (2022). Video 16:44 min. https://www.youtube.com/watch?v=z01Wu0x0us4

Parasitäre Erkrankungen im ScienceBlog:

 

inge Fri, 01.09.2023 - 01:03

Live-Videos aus dem Körper mit Echtzeit-MRT

Live-Videos aus dem Körper mit Echtzeit-MRT

Do, 24.08.2023 — Andreas Merian

Andreas Merian

Icon Physik

Die Magnetresonanztomographie, kurz MRT, gehört längst zum medizinischen Alltag: Nach Sportverletzungen oder Unfällen, auf der Suche nach Tumoren oder zur Untersuchung des Gehirns werden MRT- produzierte Aufnahmen genutzt. Bisher musste man sich dabei allerdings mit Standbildern zufriedengeben. Doch der Arbeitsgruppe von Jens Frahm am Max-Planck-Institut für Multidisziplinäre Naturwissenschaften (Göttingen) gelingt es, mit der MRT Videos aufzunehmen. Die Aufnahmen in Echtzeit ermöglichen der Medizin neue Einblicke, zum Beispiel in das schlagende Herz, in Gelenke in Bewegung oder in die komplexen Vorgänge beim Singen, Sprechen oder Schlucken. Der Spektroskopiker Dr. Andreas Merian gibt einen Überblick über diese Verfahren.*

Nach einem schweren Sportunfall landet man oftmals in der Röhre. Abbildung 1. Während man in der Enge liegt, kann man dem Magnetresonanztomographen bei der Arbeit zuhören: es brummt und klackt und summt.

Abbildung 1: Magnetresonanztomographie. © J. Frahm , Investigative Radiology, Vol. 54 , Nr. 12 , 2019; istockphoto.com

Nach der Untersuchung sichtet ein Arzt oder eine Ärztin die hochaufgelösten Schwarzweißbilder, auf denen die unterschiedlichen Gewebe klar zu unterscheiden sind und ihre Struktur gut zu erkennen ist. So wird festgestellt, ob durch den Unfall Bänder oder Sehnen in Mitleidenschaft gezogen wurden. Neben der Orthopädie kommt das Bildgebungsverfahren auch in vielen anderen Bereichen der Medizin zum Einsatz, zum Beispiel auf der Suche nach Tumoren oder bei der Untersuchung des Gehirns.

Doch was passiert eigentlich, während man in der Röhre liegt? Wie entstehen die Bilder und wie unterscheidet sich das Verfahren von Röntgen und Ultraschall? Der Physiker Jens Frahm vom Max-Planck-Institut für Multidisziplinäre Naturwissenschaften (Göttingen) war bei der Entwicklung der Magnetresonanztomographie von Anfang an dabei und sorgte dafür, dass sie die nötige Geschwindigkeit für den klinischen Alltag erreichte.

Rotierende Kerne

Abbildung 2: Kernresonanz. Kernspin und damit kernmagnetischer Dipol (oben) der Wasserstoffatomkerne des Körpers sind ohne äußeres Magnetfeld ungeordnet (unten links). Wird ein starkes statisches Magnetfeld angelegt, so richten sich die kernmagnetischen Dipole entlang der Feldlinien aus (unten rechts).© HNBM, MPG/CC BY-NC-SA 4.0

Der grundlegende physikalische Effekt hinter der MRT ist die magnetische Kernresonanz. Über 60 Prozent der Atome im menschlichen Körper sind Wasserstoffatome. Und deren Kerne haben einen Eigendrehimpuls, auch Kernspin genannt. Den Kern mit Eigendrehimpuls kann man sich wie einen Ball vorstellen, der sich um sich selbst dreht. Da die Wasserstoffkerne Protonen und damit durch den Kernspin bewegte Ladungen sind, erzeugen sie ein Magnetfeld. Der entstehende kernmagnetische Dipol richtet sich in einem von außen angelegten statischen Magnetfeld entlang der Feldlinien aus (Abbildung 2).

In einem MRT-Gerät wird durch supraleitende Spulen ein üblicherweise 1 bis 3 Tesla starkes statisches Magnetfeld erzeugt, das die Wasserstoffkerne im Körper der untersuchten Person ausrichtet. Dadurch entsteht eine makroskopische Magnetisierung entlang der Längsachse der Röhre (Abbildung 3). Ein elektromagnetisches Wechselfeld kann die Magnetisierung aus dieser Richtung auslenken. Damit das Wechselfeld die Magnetisierung kippen kann, muss seine Frequenz der Resonanzfrequenz entsprechen. Diese ist vom Atomkern und der Stärke des angelegten statischen Magnetfelds abhängig. Für Protonen bei 1 Tesla beträgt sie 42,58 MHz und liegt im UKW-Radiowellenbereich. Nach der Kippung kehrt die Magnetisierung langsam wieder in die Ausgangslage zurück. Dabei erzeugt sie ein elektromagnetisches Wechselfeld, das eine Spannung in einer Messspule induziert und so aufgezeichnet wird. Die Stärke des Signals weist auf die Protonendichte im Gewebe hin, während die Zeit bis zum Abklingen des Signals charakteristisch für die chemische Bindung der Wasserstoffatome und deren molekulare Umgebung ist.

Vom Signal zum Bild

Im Magnetresonanztomographen regt man also die magnetische Kernresonanz der Wasserstoffatome im Gewebe an, um Signale und damit Informationen aus dem Körper zu erhalten. Doch wie kann das Signal einem exakten Ort zugeordnet werden und wie setzt sich aus einer Vielzahl derartiger Informationen ein Bild zusammen?

Hier kommt der zweite Teil des Namens der Bildgebungsmethode ins Spiel, die Tomographie, was Schnittbild oder Schichtaufnahme bedeutet. Bei der MRT wird somit eine ausgewählte Schicht des Körpers dargestellt. Die sogenannte Ortskodierung ermöglicht es, aus den Messdaten Abbilder des Untersuchungsobjekts zu berechnen. Dazu werden zusätzlich zum statischen magnetischen Feld weitere Magnetfelder angeschaltet, die sich in ihrer Stärke entlang einer Achse unterscheiden. Man spricht von Gradientenfeldern (Abbildung 3). In der MRT werden klassisch drei senkrechte Gradientenfelder verwendet, die es möglich machen, ein Signal genau seinem Ursprungsort zuzuordnen. Der erste Gradient wählt die Schicht aus, die abgebildet werden soll, und die beiden anderen Gradienten erzeugen ein Gitter, wodurch Signale Bildpunkten zugeordnet werden können (Abbildung 3). Dabei macht man sich zunutze, dass ein zusätzliches Magnetfeld die Resonanzfrequenz der Wasserstoffkerne ändert und man so eine Schicht zur Anregung auswählen bzw. anschließend nachvollziehen kann, von welchem Ort ein Signal stammt. Die exakte Schaltung von Gradienten- und Wechselfeldern hängt vom spezifischen Verfahren ab und ist hochkomplex. Doch allgemein gilt: Um ein vollständiges Schichtbild zu erhalten, müssen die Gradientenfelder so oft an und wieder ausgeschaltet werden, wie das Bild letztlich Zeilen bzw. Bildpunkte in einer Dimension haben soll. Meist werden in der MRT Bilder mit bis zu 512 x 512 Bildpunkten aufgenommen. Damit die Aufnahme möglichst schnell abläuft, werden die zur Ortskodierung eingesetzten Gradientenfelder sehr schnell geschaltet, wodurch die lauten Geräusche in der Röhre entstehen.

Abbildung 3: Schema des Magnetresonanztomographs. Die zu untersuchende Person wird in der Röhre positioniert. Die äußersten Spulen (rot) erzeugen das starke statische Magnetfeld, das die Kernspins der Wasserstoffkerne ausrichtet. Die Spulen für die Gradientenfelder (grün) schalten kurzzeitig weitere (statische) Magnetfelder für die Ortskodierung zu. Radiofrequenzspulen (orange) erzeugen das magnetische Wechselfeld zur Auslenkung der Magnetisierung und dienen als Empfängerspulen für die Signale. © HNBM, MPG / CC BY-NC-SA 4.0

Mittels komplexer mathematischer Verfahren lässt sich dann aus der großen Datenmenge der vielen Einzelmessungen ein zweidimensionales Schnittbild berechnen. Bis Mitte der 1980er Jahre dauerte die Aufnahme eines Schnittbildes ca. 5 Minuten, eine dreidimensionale Messung des Körpers mit beispielsweise 256 x 256 x 256 Bildpunkten sogar mehrere Stunden. Da sich während dieser Zeit der Patient auch nicht bewegen durfte, führte das dazu, dass die MRT im klinischen Alltag selten eingesetzt wurde.

Doch 1985 gelang Jens Frahm und seinem Team ein Durchbruch. „Durch FLASH eliminierten wir die Wartezeit zwischen den Einzelmessungen und beschleunigten die MRT so um einen Faktor größer 100. Plötzlich konnten einzelne Schichtbilder in Sekundenschnelle aufgenommen werden und dreidimensionale Aufnahmen dauerten nur noch wenige Minuten“, sagt Jens Frahm. Das patentierte FLASH-Verfahren wurde innerhalb eines halben Jahres von allen Herstellern von MRT-Geräten übernommen und kommt heute in allen kommerziellen Geräten zum Einsatz. Dank der Geschwindigkeit des neuen Verfahrens etablierte sich die MRT in der diagnostischen Bildgebung.

MRT vs. Röntgen und Ultraschall

Doch warum ist die MRT in der Medizin eigentlich so gefragt? Mit Röntgen, Computertomographie (CT) und Sonographie waren ja bereits verschiedene Bildgebungsverfahren etabliert. Welche Vorteile bietet die MRT gegenüber diesen Methoden?

Beim Röntgen nutzt man die kurzwellige elektromagnetische Röntgenstrahlung. Diese wird von der einen Seite auf die zu untersuchende Körperpartie gestrahlt und auf der anderen Seite detektiert. Je mehr Gewebe zwischen Strahlungsquelle und Detektor liegt und je dichter dieses Gewebe ist, desto mehr Röntgenstrahlung wird absorbiert oder gestreut. Dichte anatomische Strukturen wie Knochen heben sich somit hell gegen die dunkleren Weichteile wie Muskeln ab. Knochenbrüche können so zum Beispiel leicht diagnostiziert werden. Unterschiedliche weiche Gewebe lassen sich durchs Röntgen nur schwer unterscheiden, da hierzu der Kontrast nicht ausreichend ist. Die Computertomographie basiert auch auf Röntgenstrahlung, ermöglicht aber statt einer Durchleuchtung eine Schichtbildgebung und 3D-Aufnahmen. Da die kurzwellige Röntgenstrahlung ionisierend auf biologisches Gewebe wirkt, besteht durch die Strahlenbelastung ein erhöhtes Krebsrisiko. Deshalb wird bei einer Untersuchung nur die betreffende Stelle geröntgt und empfindliche Körperpartien werden durch eine Bleischürze geschützt. Die Strahlenbelastung verbietet es außerdem, Videos mit vielen Bildern pro Sekunde mit Röntgenapparat oder CT aufzunehmen.

Bei der Sonographie werden mechanische Ultraschallwellen in den Körper gesandt und deren Echo aufgezeichnet. Mit der Sonde, die den Ultraschall aussendet und detektiert, wird über die betreffenden Körperstellen gefahren. Aus der Laufzeit und der Amplitude des Echos berechnet ein Computer dann in Echtzeit Bilder. Von der Sonde werden die Ultraschallwellen fächerartig in den Körper ausgesandt. So entsteht typischerweise ein Schnittbild entlang der Ebene dieses Fächers. Moderne Geräte ermöglichen aber auch 3D-Bilder. Je stärker ein Gewebe den Schall zurückwirft, desto heller erscheint es auf den Bildern. Dadurch entsteht der Kontrast im Bild. Da die Eindringtiefe des Ultraschalls begrenzt ist, werden tief liegende oder verdeckte anatomische Strukturen kaum oder nicht aufgelöst. Dies schränkt die Nutzung der Sonographie ein. Je nach medizinischer Fragestellung können Ärztinnen und Ärzte einzelne Bilder aufnehmen oder in Echtzeit mit Videobildrate das Geschehen im Körper verfolgen. Die sonographische Untersuchung hängt in ihrer Qualität stark vom Untersuchenden ab und ist schlecht wiederholbar. Vorteil der Sonographie ist, dass sie nichtinvasiv und risikoarm ist, weshalb sie beispielsweise in der Schwangerschaftsvorsorge eingesetzt wird.

Stärken der MRT sind der hervorragende Weichteilkontrast und die hohe räumliche Auflösung. So entstehen scharfe Bilder des gesamten Körperinneren. Außerdem sind sowohl die Radiowellen als auch die statischen Magnetfelder gesundheitlich unbedenklich. Ganzkörperscans oder wiederholte Untersuchungen bedeuten also kein zusätzliches gesundheitliches Risiko. Seit der Einführung von FLASH hat sich die Geschwindigkeit der MRT lange Zeit nicht verändert. Das bedeutete, dass zwar MRT-Aufnahmen im medizinischen Alltag kein Problem, aber MRT-Videos bewegter Vorgänge aus dem Körperinneren ein Ding der Unmöglichkeit waren: An Videos mit Bildraten von 20 Bildern pro Sekunde oder mehr war nicht zu denken. „Nach der Entwicklung von FLASH sahen wir zunächst keine weitere Möglichkeit, die MRT zu beschleunigen“, sagt Jens Frahm. Doch die Idee einer noch schnelleren MRT spukte ihm weiter im Kopf herum.

Echtzeit durch Hochleistungsrechner

Bis es soweit war, dauerte es 25 Jahre. Aber seit dem Durchbruch, den Jens Frahm mit seinem Team 2010 feierte, kann er sagen: „Wir haben es geschafft, die MRT-Bildgebung weiter zu beschleunigen! So ist uns sozusagen der Schritt vom Foto zum Film gelungen. Und das eröffnet ganz neue diagnostische Möglichkeiten, zum Beispiel weil das schlagende Herz genau dargestellt werden kann.“ Im Vergleich zur MRT vor 1985 gelang es Jens Frahm und seinem Team, die Aufnahmegeschwindigkeit insgesamt um einen Faktor 10.000 zu steigern. Nun können die Forschenden Schichtbilder mit einer Bildrate von bis zu 100 Bildern pro Sekunde aufnehmen. Sie nennen ihre Technik Echtzeit-MRT. „Möglich gemacht haben diese Entwicklung zum einen Fortschritte in der numerischen Mathematik und zum anderen die Verfügbarkeit von leistungsstarken Grafikkartenrechnern“, erläutert Jens Frahm. Denn die Beschleunigung des Verfahrens beruht nicht wie bei FLASH darauf, dass die Einzelmessungen schneller werden. „Wir messen einfach weniger oft und nutzen dann ein neues mathematisches Verfahren, um aus den für eine klassische Berechnung ungenügenden Daten ein aussagekräftiges Bild zu erzeugen.“ Dazu wenden die Forschenden die radiale Ortskodierung an (Abbildung 4).

Abbildung 4: Echtzeit-MRT durch radiale Ortskodierung: Anstatt wie herkömmlich durch die Gradientenfelder ein Gitter zu erzeugen, laufen die verwendeten radialen Gradienten wie Speichen durch die Mitte eines Rades (links). Dabei werden für jedes Schichtbild aber weniger Einzelmessungen als nötig aufgenommen. Die fehlenden Informationen werden anschließend durch die Lösung eines komplexen mathematischen Problems ermittelt. So lassen sich z.B. Videos des Schluckvorgangs mit einer Zeitauflösung von nur 40 ms aufnehmen. Auf den Einzelbildern aus dem Video hebt sich die getrunkene Flüssigkeit weiß ab (rechts). © links: HNBM, MPG / CC BY-NC-SA 4.0; rechts © J. Frahm et al.: Real-Time Magnetic Resonance Imaging. Investigative Radiology, Vol. 54, Nr. 12, 2019

Entscheidend ist, dass für jedes Schichtbild je nach Anwendung um einen Faktor 10 bis 40 weniger Einzelmessungen durchgeführt werden als eigentlich nötig. Dadurch wird die Aufnahme genau um diesen Faktor schneller. Die fehlenden Informationen werden anschließend durch die Lösung des nichtlinearen inversen Problems rekonstruiert. Durch dieses mathematische Verfahren wird das Bild nicht direkt aus den Daten rekonstruiert, sondern ausgehend von einem Startbild – üblicherweise dem letzten aufgenommenen Bild – geschätzt. Aus dem geschätzten Bild lassen sich die Daten berechnen, die die Messspulen aufgenommen haben müssten, um dieses zu erzeugen. Und die kann man wiederum mit den tatsächlich aufgenommenen Daten abgleichen. In einem schrittweisen Prozess kann das geschätzte Bild so optimiert werden, dass es möglichst genau zu den Messwerten passt. Das klappt dank der Entwicklungen von Jens Frahms Team so gut, dass die Bildqualität ausreichend für die medizinische Diagnostik ist. Da dieser Ablauf die eigentliche Bildentstehung in der MRT auf den Kopf stellt, spricht man von einem inversen Problem. Die Lösung dieses Problems und damit die Echtzeit-MRT erfordert eine sehr große Rechenleistung. Was sie allerdings nicht benötigt, ist ein besonderes MRT-Gerät. So könnten alle bereits in Kliniken vorhandenen Geräte durch einen leistungsfähigen Grafikkartenrechner für die Datenverarbeitung erweitert werden.

Live-Videos aus dem Körper

Der Echtzeit-MRT eröffnen sich viele Anwendungsfelder: So kann ein Kardiologe direkt das schlagende Herz beobachten und beispielsweise Herzrhythmusstörungen genau analysieren. Auch das Schlucken und Schluckbeschwerden können durch die Echtzeit-MRT erstmals untersucht werden. Neben klassischen medizinischen Anwendungen ist Jens Frahm auch auf großes Interesse in der Musik und Phonetik gestoßen: Wie genau werden beim Sprechen Töne erzeugt? Wie beim Beatboxen? Und was unterscheidet einen herausragenden Hornisten von einem Anfänger oder Fortgeschrittenen? Durch die neuen Möglichkeiten der Echtzeit-MRT können beispielsweise die Bewegungen der Zunge im Mundraum genau untersucht und quantifiziert werden.

Abbildung 5: Messen in Millisekunden: Schichtbild aus dem Gehirn eines 4 Jahre alten Kindes. Links: Die herkömmliche MRT mit einer Messzeit von 38 s liefert ein verschwommenes Bild, da sich das Kind offensichtlich während der Messung bewegt hat. Rechts: Die Echtzeit-MRT mit einer Messzeit von 50 ms erzeugt ein scharfes Bild, das zur Diagnostik genutzt werden kann. © Verändert nach: D. Gräfe et al.: Outpacing movement — ultrafast volume coverage in neuropediatric magnetic resonance imaging. Pediatr Radiol 50, 2020. / CC BY 4.0

Die neue Methode beschleunigt auch die Untersuchung ganzer Körperteile mittels überlappender Schichtbilder, die nun in nur wenigen Sekunden gemessen werden (Abbildung 5). Dies ist gerade in der Kinderheilkunde ein großer Vorteil. Denn Säuglinge und Kleinkinder halten nicht lange genug still, um mit der konventionellen MRT beispielsweise eine vollständige Bildgebung des Schädels durchzuführen. Daher ist bisher oft eine risikobehaftete Narkose notwendig. „Unsere Kooperationspartner an der Universitätsklinik Leipzig haben in den letzten Jahren festgestellt, dass mit der Echtzeit-MRT in mindestens der Hälfte aller Fälle keine Narkose notwendig ist“, sagt Jens Frahm.

Der Forscher ist an seinem Ziel angekommen: Live-Videos aus dem Körper dank MRT. Und seit dem Durchbruch 2010 zeigte sich, dass die beschleunigte Methode zahlreiche neue Anwendungen ermöglicht. „Wir müssen aber erst lernen, die Echtzeit-MRT diagnostisch zu nutzen. Auch für das medizinische Personal ergeben sich neue Anforderungen und notwendige Erprobungsphasen. Die technischen Fortschritte müssen in belastbare Untersuchungsprotokolle ‚übersetzt’ werden, die die jeweiligen medizinischen Fragestellungen optimal beantworten.“


* Der Artikel von Andreas Merian ist unter dem Titel: "Liveschaltung in den Körper - Neue Einblicke mit der Echtzeit-MRT" https://www.max-wissen.de/max-hefte/techmax-33-echtzeit-mrt/ im Techmax33-Heft der Max-Planck-Gesellschaft im Frühjahr 2023 erschienen. Mit Ausnahme des Titels wurde der unter einer cc-by-nc-sa Lizenz stehende Artikel unverändert in den Blog übernommen.


 Weiterführende Links

Echtzeit-MRT-Film: Sprechen Video 2:16 min (2018) https://www.youtube.com/watch?v=6dAEE7FYQfc Copyright: Jens Frahm / Max-Planck-Institut für biophysikalische Chemie

Jens Frahm - Schnellere MRT in Echtzeit: Video 6:05 min. (2018) https://www.youtube.com/watch?v=lYQXsMWfJT4

Roland Wengenmayr: Liveschaltung zum Krankheitsherd. (2017) https://www.mpg.de/11248354/W003_Material_Technik_054-061.pdf


 

inge Wed, 23.08.2023 - 23:22

Seetang - eine noch wenig genutzte Ressource mit hohem Verwertungspotential - soll in Europa verstärkt produziert werden

Seetang - eine noch wenig genutzte Ressource mit hohem Verwertungspotential - soll in Europa verstärkt produziert werden

Do. 17.08.2023 — Redaktion

Redaktion Icon Meere Als wertvolle und noch wenig genutzte Ressource aus den Ozeanen und Meeren bieten Algen ein weites Spektrum an gesundheitlichen und ökologischen Vorteilen. Auf Grund ihres hohen Verwertungspotenzials wachsen Nachfrage und Markt für Seetang, "Meersalat" und andere Algen. Um deren Produktion in Europa zu steigern, hat die Europäische Kommission 2022 einen Aktionsplan herausgegeben, in dem intensivierte Forschung zur Optimierung der Algenarten und Züchtungstechnologien eine zentrale Rolle spielen. Der vorliegende Artikel gibt einen Überblick über die Forschung, die von der EU finanziert wird.*

Wenn auch die Vorstellung noch nicht verlockend ist, dass man fermentierten Seetang den Mahlzeiten daheim zufügt, so wird sich das bald ändern, glaubt Ólavur Gregersen. Seit zehn Jahren experimentieren Gregersen und seine Familie auf den Färöer-Inseln mit allen Arten einer durch Algen inspirierten Küche. Die Ergebnisse reichen von Algenbutter bis zu seinem neuen Lieblingsgericht: Algenpesto.

Tägliche Dosis

"Wir achten wir darauf, dass wir täglich einen Esslöffel Algen zu einer unserer Mahlzeiten essen", so Gregersen. Ob zum Frühstück über das Joghurt gestreut, über den Salat zum Mittagessen oder über Fleisch und Fisch am Abend - er ist überzeugt, dass Algen nicht nur gut schmecken, sondern auch von großem Nutzen sowohl für die Gesundheit als auch die Umwelt sind.

Was die menschliche Gesundheit betrifft, so ist Seetang vollgepackt mit essenziellen Nährstoffen wie Eiweiß und Omega-3-Fettsäuren. Die Europäische Behörde für Lebensmittelsicherheit hat 2019 auf Seetang als ein "Superfood" hingewiesen und dessen hohen Nährwert angeführt.

Abbildung 1. Wegen des Nutzens für Gesundheit und Umwelt will Europa die Produktion von Meeresalgen ausweiten. Bildnachweis: Bjoertvedt, CC BY-SA 4.0

Auch aus ökologischer Sicht bieten die Algen viele Vorteile: Sie "saugen" CO2 auf und benötigen weder Zusatzstoffe noch Dünger oder Frischwasser. Einem Bericht der Vereinten Nationen aus dem Jahr 2023 zufolge hat die Algenzucht das Potenzial, "viele" Vorteile für die Umwelt zu bieten, darunter auch für den Kampf gegen den Klimawandel. In Kenntnis des gesamten Potentials hat die Europäische Kommission 2022 einen Aktionsplan zur Steigerung der Produktion von Meeralgen in Europa herausgegeben [1]. Die Intensivierung der Forschung ist ein zentraler Bestandteil der Strategie, ebenso wie eine verbesserte Gesetzgebung, eine gezielte Unternehmensförderung und eine stärkere öffentliche Wahrnehmung. Abbildung 1.

Meeralgen können im offenen Meer oder in Tanks an Land gezüchtet werden. Die EU gehört derzeit zu den weltweit größten Importeuren von Meeresalgen, die aus China, Südkorea und Chile zur Nutzung als Lebensmittel und für industrielle Zwecke (beispielsweise Düngemittel) geliefert werden.

Im Jahr 2021 belief sich der Weltmarkt für Meeralgen auf fast 14 Milliarden Euro und er soll nach Angaben der niederländischen Regierung bis 2028 voraussichtlich auf mehr als 22 Milliarden Euro anwachsen.

Da die Nachfrage in Europa von 270 000 Tonnen im Jahr 2019 laut EU auf 8 Mio. Tonnen bis 2030 steigen dürfte, könnte der europäische Markt für Meeralgen im Jahr 2030 einen Wert von 9 Mrd. EUR erreichen. Durch die steigende Produktion in Europa könnten rund 85 000 Arbeitsplätze geschaffen werden.

Lebensmittel, Futtermittel und mehr

Gregersen ist Unternehmer und Mitbegründer des Unternehmens Ocean Rainforest, das seit 2010 auf den Färöer Inseln Pionierarbeit bei der Züchtung von Meeresalgen vor der Küste leistet. Er koordiniert auch ein europäisches, mit EU-Mitteln gefördertes Forschungsprojekt, um neue Produkte auf Algenbasis zu entwickeln. Die vierjährige Initiative mit dem Namen SeaMark läuft bis Juni 2026 [2].

Gregersen sieht in Europa ein großes ungenutztes Potenzial für Seetang, der in der asiatischen Küche jaseit Jahrhunderten ein Grundnahrungsmittel ist. Er möchte beweisen, dass in Europa die Züchtung von Meeralgen gewinnbringend sein kann und für diese vielfältige Verwendungsmöglichkeiten bestehen. Im Rahmen des Projekts werden 12 Produkte entwickelt, die von Lebensmittelzutaten und Futtermittelzusatzstoffen bis hin zu Nahrungsergänzungsmitteln und Verpackungsmaterial reichen [2]. Konkrete Beispiele sind Algenfasern, die auf Grund ihrer wasserbindenden und gelbildenden Eigenschaften in Lebensmitteln Anwendung finden, Beta-Glucane für die Hautpflege und Verbindungen für pelletierte Bio-Verpackungsmaterialien.

"Mit Seamark wollen wir zeigen, dass es möglich ist, den Prozess der Algenzüchtung effizienter zu gestalten und dass es in Europa einen großen Markt für diese Produkte gibt", so Gregersen.

Ein Teil des Projekts befasst sich mit der Weiterentwicklung der milchsauren Vergärung (Laktofermentation) von Meeresalgen, damit diese in Tierfutter verwendet werden können. Erste Ergebnisse an mit Algen gefütterten Schweinen haben gezeigt, dass diese infolge verbesserter Mikroflora im Darm mehr Milch produzierten und weniger Futter benötigten. Dies wird nun mit 500 Mutterschweinen in einem Betrieb in Dänemark untersucht.

Wachstumspotenzial

Was die Züchtung betrifft, so ist die für SeaMark besonders interessante Algenart eine Braunalge, die als Zuckertang bekannt ist, wie Lasagne-Nudeln aussieht und einen süßen Geschmack hat. Sie ist auch unter dem Namen Saccharina latissima bekannt und wächst in der Natur an den Küsten Nordeuropas und im Süden bis nach Galicien in Spanien. Zuckertang lässt sich schnell züchten und ist daher ideal für die Produktion, solange die Kosten niedrig gehalten werden können. Abbildung 2.

Abbildung 2. Der Forscher Mike Murphy hält eine Saccharina latissima (Zuckertang) hoch. Bild: Wikipedia, gemeinfrei

Eine eng verwandte Art ist in der japanischen Küche bekannt und wird in Japan als "Kombu" geerntet und verkauft.

Auf den Färöer Inseln, wo Temperatur, Nährstoffe und Licht optimal für das Wachstum von Algen sind, hat das SeaMark-Team neue Geräte getestet, die im Meer die Anzucht der Algen beschleunigen - das Äquivalent zur Aussaat von Samenreihen auf einem Acker. Unabhängig davon werden im Rahmen des Projekts Maschinen getestet, die die Ernte beschleunigen, sobald die Biomasse bereit steht. Die Geräte können laut Gregersen zeitaufwändige Handarbeit ersetzen, die Produktionskosten senken und den Weg für eine höhere Produktion ebnen.

Ocean Rainforest weitet seine Aktivitäten mit Versuchen zum Offshore-Anbau in Norwegen und zum Anbau von Meeresalgen an Land in Island aus.

Seetang-Stämme

An der Westküste Irlands stützt sich SeaMark auf das Fachwissen des Algenspezialisten Dr. Ronan Sulpice von der Universität von Galway. Sulpice hilft bei der Identifizierung der besten Algenstämme für die Züchtung von Zuckertang und der als Meersalat bekannten Ulva, die neben ihrem Nährwert auch Stoffe enthält, die zur Herstellung von Arzneimitteln extrahiert werden können. Ziel ist es, hohe Erträge und optimale Qualität - insbesondere hinsichtlich des Proteingehalts - zu gewährleisten.

Sulpice leitet auch ein separates, von der EU finanziertes Forschungsprojekt, um Algenstämmen zu identifizieren, die sich ideal für die Aquakultur eignen. Das Projekt mit der Bezeichnung ASPIRE dauert bei einer Laufzeit von zwei Jahren bis September 2024 [3].

Um Saatgut für die Zucht zu finden, fahren Algenzüchter in der Regel ins Meer hinaus oder die Küste entlang, um Wildstämme zu sammeln. Diese Praxis bedeutet jedoch, dass die gezüchteten Algen von Jahr zu Jahr stark variieren können. Angesichts des zunehmenden Interesses an diesen Pflanzen möchte Sulpice den Farmern helfen, die Auswahl der Sorten zu verbessern und die Produktion zu steigern.

"Die Art und Weise, wie wir derzeit in Europa Saatgut für Meeresalgen züchten, ähnelt der Art und Weise, wie wir vor 10 000 Jahren Landpflanzen angebaut haben - dies ist noch sehr urtümlich, aber die Entwicklung schreitet fort", sagte er. ASPIRE bietet die Möglichkeit, Algensorten zu züchten, die nach den Wünschen der Erzeuger und Verbraucher ausgewählt wurden.

Portugal, Irland untersuchen

Sulpice hat bereits portugiesischen Züchtern, die Ulva anbauen, geholfen, indem er verschiedene Stämme, die an sein Labor in Irland geschickt wurden, untersucht hat. Die Ergebnisse haben erhebliche Unterschiede in den Wachstumsraten zwischen den besten und den schlechtesten Stämmen gezeigt; einige lieferten fünfmal mehr Biomasse. Dank dieser Erkenntnisse konnte ein Betrieb in Portugal seine Produktivität verdoppeln, so Sulpice.

Das Hauptaugenmerk von ASPIRE liegt jedoch auf einer rötlich-braunen Meeresalge namens Palmaria palmata. Sie hat einen hohen Proteingehalt, wächst im Atlantik von Schweden bis Portugal und schmeckt gebraten wie Speck. Die Nachfrage nach Palmaria palmata, auch bekannt als Lappentang, Dulse oder Dillisk, ist groß und die Ernte kann bis zu 250 € pro Kilogramm einbringen. Im Vergleich dazu kostete importierter Seetang in Teilen Europas etwa 6 € pro Kilogramm im Jahr 2020.

Sulpice ist überzeugt, dass ASPIRE den Algenunternehmen in Europa, einschließlich der irischen Unternehmen, helfen kann, dieses Potenzial zu nutzen. Ein solches Unternehmen ist Mungo Murphy's Seaweed, eine Meeresalgenfarm im Bezirk Connemara im Westen Irlands. Seit 2014 züchtet Mungo Murphy's Algen wie Ulva und Palmaria palmata zusammen mit Abalonen (Meeresschnecken) und Seegurken in Becken an Land an. Laut Cindy O'Brien, die das Unternehmen gegründet und die Farm aufgebaut hat, ist dies eine Form von Aquakultur, die in Irland zunehmend an Bedeutung gewinnt. Sie betreibt diese jetzt zusammen mit ihrer Tochter Sinead. Abbildung 3.

Abbildung 3. Sinead O'Brien mit einer Handvoll Seetang. © Mungo Murphy’s Seaweed Co

Attraktivität für den Verbraucher

Mungo Murphy's hofft, dass die Zusammenarbeit mit Sulpice die Möglichkeit bietet, die angebauten Produkte weiter zu entwickeln. "Diese Zusammenarbeit wird es uns ermöglichen, mehr Rohmaterial durch Aquakultur zu produzieren und nicht von wild geerntetem Seetang abhängig zu sein", sagt Cindy O'Brien.

Die auf der Farm gezüchteten Algen werden zu einer Reihe von Verbraucherprodukten verarbeitet. Dazu gehören Kosmetika wie Algen-gefüllte Badesäckchen und Gesichtsmasken und Lebensmittel wie Algengewürze für Suppen, Brote, Salate und sogar Popcorn. O'Brien sagt, dass die Menschen oft von der Vielseitigkeit der Algen überrascht sind. Mungo Murphy empfiehlt Köchen  Algen in ihren Gerichten zu verwenden und hebt ihren Einsatz in Konsumgütern hervor.

ASPIRE ist nun in der Hälfte seiner Laufzeit; O'Brien rechnet damit, dass das Projekt dazu beitragen wird, die allgemeine Attraktivität von Algen zu erhöhen."Das wird uns helfen, mehr gesunde Produkte für den menschlichen Verzehr herzustellen", sagte sie.


[1] United Nations Environment Programme (2023). Seaweed Farming: Assessment on the Potential of Sustainable Upscaling for Climate, Communities and the Planet. Nairobi.https://wedocs.unep.org/bitstream/handle/20.500.11822/42642/seaweed_farming_climate.pdf?sequence=3&isAllowed=y

[2] SeaMark - Seaweed based market applications. https://cordis.europa.eu/project/id/101060379

[3] ASPIRE - Accelerated Seaweed Production for Innovative and Robust seaweed aquaculture in Europe.. https://cordis.europa.eu/project/id/101066815/de


*Dieser Artikel wurde ursprünglich am 9. August 2023 von Andrew Dunne in Horizon, the EU Research and Innovation Magazine unter dem Titel "From butter to baths, seaweed’s potential is being tapped in Europe" https://ec.europa.eu/research-and-innovation/en/horizon-magazine/butter-baths-seaweeds-potential-being-tapped-europe publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Abbildung 2 und Beschriftung wurden von der Redaktion eingefügt.


Über Braunalgen im ScienceBlog:

Susanne Coelho, 02.09.2021: Das Privatleben der Braunalgen: Ursprünge und Evolution einer vielzelligen, sexuellen Entwicklung


 

inge Thu, 17.08.2023 - 23:14

Und man erforscht nur die im Lichte, an denen im Dunkel forscht man nicht - Die Unknome Datenbank will auf unbekannte menschliche Gene aufmerksam machen

Und man erforscht nur die im Lichte, an denen im Dunkel forscht man nicht - Die Unknome Datenbank will auf unbekannte menschliche Gene aufmerksam machen

Fr, 11.08.2023 — Redaktion

Redaktion Icon Datenbank Das menschliche Genom kodiert für etwa 20 000 Protein. Viele dieser Proteine sind noch nicht charakterisiert und ihre Funktion ist unbekannt. Der Schwerpunkt der Forschung liegt auf bereits gut untersuchten Proteinen; dies gibt zur Besorgnis Anlass, dass in den vernachlässigten Teilen des Genoms/Proteoms wichtige biologische Prozesse kodiert sind. Um dem entgegenzuwirken, hat ein britisches Forscherteam eine "Unknome-Datenbank" entwickelt, in der die Proteine danach geordnet sind, wie wenig über sie bekannt ist. Die Datenbank soll die Auswahl bislang schlecht oder gar nicht charakterisierter Proteine von Menschen oder Modellorganismen erleichtern, damit sie gezielt untersucht werden können.

Das Human Genome Project

Mit der (nahezu) vollständigen Sequenzierung des menschlichen Genoms vor 20 Jahren ist zweifellos eine neue Ära der Biowissenschaften angebrochen. Tausende Wissenschafter, die rund um den Globus am Human Genome Project beteiligt waren, konnten einen lange angezweifelten Erfolg von "Big Science" feiern und eröffneten ein Eldorado an genetischen Informationen, das für jeden Interessierten frei zugänglich ist. Forscher wie Geldgeber (aus staatlichen Organisationen und Industrie) gingen davon aus, dass man nun schnell zu einem neuen Verständnis der Biologie des Menschen und seiner Krankheiten gelangen würde. Man erhoffte so in wenigen Jahren viele neue Zielstrukturen (Targets), die zumeist Proteine sind, für die Entwicklung erfolgversprechender Medikamente zu entdecken. Um den damaligen US-Präsidenten Bill Clinton anlässlich der Präsentation des ersten drafts des Human Genome Projects im Juni 2000 zu zitieren "werde das Projekt die Diagnose, Prävention und Therapie der meisten, wenn nicht aller Erkrankungen des Menschen revolutionieren “ und als eine wesentliche Aufgabe sah Clinton: "wir müssen die Fülle von Genomdaten durchforsten, um jedes menschliche Gen zu identifizieren. Wir müssen die Funktion dieser Gene und ihrer Proteinprodukte herausfinden, und dann müssen wir dieses Wissen schnell in Behandlungen umsetzen, die das Leben verlängern und bereichern können" [1].

20 Jahre später sind auch die letzten Lücken im menschlichen Genom geschlossen. Mit neuen Technologien, die einen Preissturz der Sequenzierungen herbeiführten und sie beinahe schon für jeden erschwinglich machten, wurden bislang die Genome von mehr als einer Million Menschen sequenziert. Abbildung 1 zeigt ein vereinfachtes Schema der Genomsequenzierung.

Abbildung 1 Schema der Gensequenzierung. Francis S. Collins, berühmter Pionier der Genforschung und damals Direktor des National Human Genome Research Institute (NHGRI) der NIH war de facto Leiter des aus Tausenden Forschern bestehenden International Human Genome Sequencing Consortium im Humangenomprojekt. Das NHGRI spielte darin eine wichtige Rolle Viele der neuen Technologien wurden im Rahmen und mit Unterstützung des Genomtechnologie-Programms des NHGRI entwickelt. (Bild: https://www.genome.gov/about-genomics/fact-sheets/DNA-Sequencing-Fact-Sheet; cc 0)

Es wurden bislang zahlreiche Gene identifiziert , die mit Krankheiten assoziiert sind; dies kann frühe Diagnosen ermöglichen, bevor noch klinische Symptome auftreten. Zu den wichtigsten Erkenntnissen der Genomanalyse zählen zweifellos die Variationen in unseren Genen, die jeden von uns zu einem unterschiedlichen Individuum machen und sich auch auf unseren gesundheitlichen Status und auf das Krankheitsrisiko auswirken. In Folge ist eine Personalisierte Medizin entstanden, die diese Informationen in gezielte individuelle Behandlungen umsetzen möchte. (Basierend auf dem Genom eines Patienten können beispielsweise die für ihn geeignetsten - d.i. wirksamsten, nebenwirkungsärmsten - Medikamente ermittelt werden.)

Viele Gene und Proteine liegen noch im Dunkeln

Die Kenntnis aller Gensequenzen hat allerdings nicht zu einem wesentlichen Anstieg der Entdeckungsrate neuer Genfunktionen geführt, diese ist seit 2000 sogar noch zurück gegangen [2]. Es gibt einen hohen Anteil an Genen, deren Funktion unzureichend oder noch gar nicht charakterisiert ist. Dies gilt auch für die Charakterisierung der Proteine. Insgesamt enthält das Humangenom den Bauplan (d.h. es kodiert) für etwa 20.000 Proteine, Tausende davon waren zuvor in biochemischen und/oder genetischen Studien noch nicht identifiziert worden. Für viele dieser neuen Proteine ist auch 20 Jahre nach ihrer Entdeckung die Funktion noch unbekannt.

Ein rezenter Überblick über die biomedizinische Literatur bis 2017 zeigt, dass von rund 2000 Proteinen praktisch noch keine Informationen vorliegen und von rund 4600 Proteinen nur spärliche (d.i. 1 bis 10) Veröffentlichungen, dass also 37 % unserer Proteine nur unzureichend beschrieben sind [2]. Abbildung 2. Dagegen handelt es sich bei den am häufigsten - d.i. in mehr als 500 Veröffentlichungen - publizierten Genen und auch Proteinen um Biomoleküle, die ohnehin bereits gut charakterisiert sind.

Wie die Autoren des Übersichtartikels schlussfolgern "gibt es keine offensichtlichen wissenschaftlichen oder finanziellen Gründe für den Rückgang bei der Entdeckung biomolekularer Mechanismen; wahrscheinlich regen die derzeitigen Instrumente der Wissenschaftsförderung Forscher nicht dazu an oder entmutigen sie sogar sich mit den schwierigen Probleme der Entdeckung von Genfunktionen abzugeben."[2].

Natürlich ist auch eine gewisse Bequemlichkeit nicht von der Hand zu weisen. Der Ausflug ins Neuland erfordert ja proteinspezifische Reagenzien - Antikörper, Inhibitoren - und die Suche nach in vitro Systemen, die das neue Protein in ausreichendem Maße exprimieren.

Abbildung 2. Status der bis 2017 vorhandenen Literatur zu Proteinen und für Proteine codierende Gene im humanen Genom. A) Anteil der Proteine, die in <1 bis >500 Veröffentlichungen beschrieben wurden. B) 94 % der gesamten Literatur über Protein-kodierende Gene bezieht sich auf solche, über die in mehr als 500, bzw. 100 bis 500 Arbeiten berichtet wurde. (Bild aus [2]: Sinha et al., Proteomics 18, 2018. https://doi.org/10.1002/pmic.201800093    PMID: 30265449. Lizenz: cc-by-nc.)

Die Unknome Datenbank ...........

Die wissenschaftliche Forschung hat sich also bis jetzt auf gut untersuchte Proteine konzentriert und schlecht erforschte Gene mit möglicherweise wichtigen physiologischen Funktionen vernachlässigt. Dies hat zu der Besorgnis geführt, dass wichtige Grundlagen oder klinische Erkenntnisse sowie das Potenzial für therapeutische Interventionen unerkannt bleiben; mehrere Initiativen wurden daher gestartet, um das Problem anzugehen.

Eine dieser Initiativen ist die von Wissenschaftern in Großbritannien eingerichtete frei zugängliche, benutzergseteuerte Datenbank "Unknome" (zusammengesetzt aus "Unknown" und "Genome"), die anderen Wissenschaftern einen Anreiz geben soll , Licht in das Dunkel der unerforschten Gene/Genprodukte zu bringen (homepage: https://unknome.mrc-lmb.cam.ac.uk/about/) [3].

In der "Unknome"-Datenbank wird jedes Protein anhand eines "Bekanntheitsgrades" (Score) danach eingestuft, wie viel oder wie wenig die Wissenschaftler darüber - u.a. über Funktion, artenübergreifende Konservierung in Spezies, Lokalisierung in Zellen, etc. - wissen.

..............und ihre Brauchbarkeit zur Identifizierung von Funktionen bislang unbekannter Gene

Um die Brauchbarkeit von Unknome als Grundlage für experimentelle Arbeiten zu bewerten, haben die Forscher eine Reihe von 260 menschlichen Proteinen ausgewählt, die in orthologer Form (d.i. in hoch konservierter Basenabfolge) auch in dem Modellorganismus der Fliege Drosophila vorliegen, und deren Funktion in beiden Spezies noch unbekannt war (Score < 1) [3]. Um den Beitrag dieser orthologen Gene zu einem breiten Spektrum biologischer Prozesse zu testen, haben sie diese Gene nacheinander (mit Hilfe von RNA-Interferenz) (partiell) ausgeschaltet. Für 62 dieser Gene war ein kompletter Knockout mit dem Überleben der Fliege nicht vereinbar. Unter den restlichen nicht-essentiellen Genen wurden 59 entdeckt, die zu wichtigen biologischen Funktionen beitragen, darunter zu Fertilität, Entwicklung, Gewebewachstum, Qualitätskontrolle von Proteinen (Entfernung schadhafter Proteine), Widerstandsfähigkeit gegen Stress, Fortbewegung, Signalübertragung über den Notch-Signalweg [3].

Ob und welche Effekte die orthologen Gene beim Menschen haben, ist noch nicht untersucht. Jedenfalls kann aber gefolgert werden, dass in den bislang vernachlässigten Teilen des Genoms/Proteoms wichtige biologische Prozesse kodiert sind.

Fazit

Die Unknome-Datenbank ist eine Ressource für Forscher, welche die Chancen unerforschter Bereiche der Biologie nutzen wollen. In ihrer Studie zeigen die britischen Forscher auf, dass trotz jahrzehntelanger umfangreicher genetischer Untersuchungen es offensichtlich viele Fliegengene gibt, deren essentielle Funktionen noch unbekannt sind; dasselbe gilt auch für die orthologen Gene des Menschen. Die Forscher hoffen, dass sich diese Datenbank mit zunehmender Nutzung in den kommenden Jahren verkleinern und neue biologische und therapeutische Erkenntnisse liefern wird. Dabei ist nicht auszuschließen, dass man auf völlig neue Bereiche biologischer Funktionen stößt.


[1] June 2000 White House Event: https://www.genome.gov/10001356/june-2000-white-house-event

[2] S. Sinha et al., Darkness in the Human Gene and Protein Function Space: Widely Modest or Absent Illumination by the Life Science Literature and the Trend for Fewer Protein Function Discoveries Since 2000. Proteomics 2018, 18, 1800093. DOI: 10.1002/pmic.201800093

[3] Rocha JJ, et al. (2023) Functional unknomics: Systematic screening of conserved genes of unknown function. PLoS Biol 21(8): e3002222. https://doi.org/10.1371/journal.pbio.3002222


 

inge Sat, 12.08.2023 - 00:06

Luftverschmutzung in Europa: Ammoniak sollte vordringlich reduziert werden

Luftverschmutzung in Europa: Ammoniak sollte vordringlich reduziert werden

Fr, 04.08.2023— IIASA

IIASAIcon Politik & Gesellschaft Bei der Verringerung der Luftverschmutzung steht Europa noch vor zahlreichen Herausforderungen. Ein Zuviel an reaktivem Stickstoff (Nr) - dieser schließt Stickoxide (NOx) und Ammoniak (NH3) mit ei n - trägt in Europa stark zur Luftverschmutzung durch Feinstaub (PM2.5) bei und stellt eine Bedrohung für die öffentliche Gesundheit dar. In der Entwicklung kosteneffizienter Fahrpläne zur Reduzierung der PM2,5-Belastung müssen sowohl die Effizienz der Reduzierung als auch die Implementierungskosten berücksichtigt werden. Ein internationales Team aus Forschern des IIAS A (International Institute for Applied Systems Analysis (IIASA, Laxenburg bei Wien), der Universität für Bodenkultur (Wien), der Universität von Zielona Gora (Polen) und der Peking University haben in einer neuen Studie die Reduzierung von Ammoniakemissionen als kosteneffiziente Maßnahme zur Verringerung der Feinstaubkonzentration in der Atmosphäre ermittelt.*

Zu den weltweit, auch in Europa führenden Umweltrisikofaktoren für vorzeitige Todesfälle zählen Verschmutzungspartikel mit einem Durchmesser von weniger als 2,5 Mikrometer in der uns umgebenden Luft; diese werden auch als Feinstaub oder PM2,5 (PM: Particulate Matter)bezeichnet. Zwar konnten bereits die Emissionen von Luftschadstoffen wie Schwefeldioxid, Feinstaub und Stickoxiden erfolgreich reduziert werden konnten, es werden aber die neuen von der Weltgesundheitsorganisation (WHO) festgelegten Richtlinien für Luftqualität (PM2,5-Jahresmittel 5 μg/m3) in vielen Teilen des Kontinents immer noch überschritten: im Jahr 2019 war dies für 97 % der europäischen Messstationen der Fall.

Ein Zuviel an reaktivem Stickstoff (Nr), inklusive Stickoxiden (NOx = NO + NO2), Ammoniak (NH3), Nitrat (NO3-) und Ammonium (NH4+), ist eine anerkannte Umweltbedrohung für Ökosysteme und verschlechtert die Qualität von Luft, Boden und Wasser. Die anthropogenen Stickstoffquellen haben seit 1960 dramatisch zugenommen, wodurch sich der globale Stickstoffkreislauf und die daraus resultierenden schädlichen Auswirkungen auf die menschliche Gesundheit und die Ökosysteme verschärft haben. Die Begrenzung der anthropogenen Stickstoffemissionen (hauptsächlich NOx und NH3) hat für den Umweltschutz hohe Priorität.

Wie die Autoren der neuen Studie, die soeben im Fachjournal Nature Communications veröffentlicht wurde [1] berichten, könnte das Aufhören der Ammoniak- und Stickoxidemissionen die PM2,5-Konzentration in Europa im Jahresdurchschnitt um 2,3 µg/m3 senken und jährlich etwa 100 000 vorzeitige Todesfälle verhindern. Abbildung 1. Für diese Aussagen beziehen die Autoren Schätzungen der Emissionen mit ein, Modellierungen von Luftqualität und der Relation Exponierung-Mortalität, Experimente zur Kontrolle von Nr. und Daten der Implementierungskosten.

Wenn es darum geht die Umweltverschmutzung zu verringern, hat die Senkung der Stickoxide eine permanente Wirkung. Die Reduzierung von Ammoniak ist sofort nicht gleich wirksam, wird aber entscheidend, wenn man eine erhebliche Verringerung der Verschmutzung anstrebt. Zudem ist bei gleich großer Verringerung der PM2,5-Belastung die Reduzierung der Ammoniakemissionen fünf- bis zehnmal so kosteneffizient; dies macht deutlich, dass ein Fokus auf die Verringerung der Ammoniakemissionen von entscheidender Bedeutung ist, um eine weitgehende Senkung der Luftverschmutzung in ganz Europa zu erreichen.

Abbildung 1. Der Beitrag der Emissionen von reaktivem Stickstoff (Nr) zur PM2,5-Luftverschmutzung über Europa für das Jahr 2015. Veränderungen der PM2,5-Konzentrationen (Delta PM2,5) bei Aufhören der a) anthropogenen Nr (NOx+NH3)-Emissionen, b) der NOx-Emissionen und c)der NH3-Emissionen (c).

N-Anteile an der PM2,5-Luftverschmutzung durch Emissionen von d) Nr, e) NOx (e), und f) NH3. (Abbildung und Legende (von Redn. übersetzt und eingefügt aus Liu et al., 2023, Lizenz: cc-b [1].)

" In unserem Modellierungsansatz konnten wir unterschiedliche chemische Regulatorsysteme feststellen. Die Auswirkungen sind in den verschiedenen Teilen Europas unterschiedlich, da die anfängliche chemische Zusammensetzung der Atmosphäre variiert", erklärt Zehui Liu, Hauptautor der Studie und Forscher am Laboratory for Climate and Ocean-Atmosphere Studies (Universität Peking, China).

"Wir sehen den gleichen Effekt, wenn die Emissionsminderung erfolgreich anläuft - sobald die Stickoxide reduziert sind, wird es immer wichtiger, Ammoniak zu entfernen".

Die Autoren sind der Überzeugung, dass ihre Ergebnisse einen Beitrag zur Festlegung politischer Prioritäten leisten werden. "Die meisten Stickoxidemissionen stammen von Fabriken und Fahrzeugen, und wir haben bereits Schritte unternommen, um diese zu kontrollieren. In der Landwirtschaft, die die Hauptquelle für Ammoniakemissionen ist, haben wir jedoch kaum Fortschritte gemacht. Das bedeutet eine Chance durch die Umsetzung wirksamer Maßnahmen im Agrarsektor positive Ergebnisse zu erzielen", bemerkt Wilfried Winiwarter, Mitautor der Studie und leitender Wissenschaftler in der IIASA-Forschungsgruppe für Umweltverschmutzung.

"Wir haben festgestellt, dass die Verbesserungen der Luftqualität von Region zu Region unterschiedlich sind. Eine weitere Verbesserung der Luftqualität bei Feinstaub würde darüber hinaus auch strengere Kontrollmaßnahmen für andere Schadstoffe als Stickoxide und Ammoniak erfordern", ergänzt Harald Rieder, ein weiterer Mitautor der Studie und Professor an der Universität für Bodenkultur (BOKU) Wien.

"Wir können auch für andere Teile der Welt, wie China und Indien Erfahrungen sammeln. Nachdem wir in China erfolgreich mit der Verringerung der Luftverschmutzung begonnen haben, müssen wir nun die nächsten Schritte zur Emissionsreduzierung festlegen", schließt Lin Zhang, Mitautor der Studie und Professor an der Universität Peking.


 [1]Liu, Z., Rieder, H.E., Schmidt, C., Mayer, M., Guo, Y., Winiwarter, W., and Zhang, L. (2023). Optimal reactive nitrogen control pathways identified for cost-effective PM2.5 mitigation in Europe. Nature Communications 14, 4246. DOI: 10.1038/s41467-023-39900-9; open access.


*Der Blogartikel basiert auf der IIASA-Presseaussendung “ Ammonia reduction should be prioritized in Europe’s fight against air pollution

https://iiasa.ac.at/news/jul-2023/ammonia-reduction-should-be-prioritized-in-europes-fight-against-air-pollution vom 26. Juli 2023. Diese wurde von der Redaktion aus dem Englischen übersetzt, geringfügig für den Blog adaptiert und mit Texten und mit Abbildung 1 aus der zugrundeliegenden Veröffentlichung [1] ergänzt. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.


Luftverschmutzung im ScienceBlog:


 

inge Fri, 04.08.2023 - 15:24

Welche Bedeutung messen EU-Bürger dem digitalen Wandel in ihrem täglichen Leben bei? (Special Eurobarometer 532)

Welche Bedeutung messen EU-Bürger dem digitalen Wandel in ihrem täglichen Leben bei? (Special Eurobarometer 532)

Sa, 29.07.2023 — Redaktion Redaktion Icon Politik & Gesellschaft

Internet und digitale Werkzeuge sind nicht länger ein Spielzeug für anfängliche Anwender, sondern für Bürger, Unternehmen, Organisationen und Regierungen zu einem wesentlichen Bestandteil der heutigen Gesellschaft geworden. Im "Politikprogramm 2030 für die digitale Dekade" sind EU-Mitgliedstaaten und EU-Kommission gemeinsame Verpflichtungen eingegangen, die mit konkreten und überprüfbaren Zielvorgaben und Zielpfaden den digitalen Wandel vorantreiben sollen. Vier Ziele stehen dabei im Fokus: die Erhöhung der digitalen Kompetenzen, die sichere und nachhaltige digitale Infrastruktur, der digitale Wandel in Unternehmen und die Digitalisierung öffentlicher Dienste. Wie die EU-Bürger den digitalen Wandel und dessen Auswirkungen auf ihr persönliches Leben und die Gesellschaft betrachten, hat kürzlich eine europaweite Umfrage erhoben (Special Eurobarometer 532: The Digital Decade [1]).

Wie bereits erstmals im Jahr 2021 [2] wurde auch in der aktuellen Umfrage ermittelt, wie EU-Bürger die Zukunft von digitalen Werkzeugen und Internet und sehen und welche Auswirkungen ihrer Meinung nach Internet, digitale Produkte, Dienstleistungen und Werkzeuge bis 2030 auf ihr persönliches Leben haben werden.

Im Auftrag der EU-Kommission ließ Kantar Public (Kantar Belgium) die Umfrage in den 27 Mitgliedstaaten vom 2. bis 26. März 2023 durchführen; insgesamt 26 376 Personen ab 15 Jahren und aus unterschiedlichen sozialen und demographischen Gruppen - rund 1000 Personen je Mitgliedsland - nahmen teil. Diese wurden persönlich (face to face) in ihrem Heim oder in Video-Ferninteraktion in ihrer Muttersprache interviewt.

Der neue Bericht: Die digitale Dekade [1]

knüpft an die Ergebnisse der früheren Umfrage [2] an und behandelt das Thema in drei großen Fragenkomplexen.

Der erste Teil untersucht, wie wichtig digitale Werkzeuge und Internet nach Meinung der EU-Bürger in ihrem Leben bis 2030 sein werden und welche Auswirkungen aus deren Anwendung resultieren werden. Teilnehmer wurden gefragt, ob sie erwarteten, dass digitale Werkzeuge und Internet ihr tägliches Leben erleichtern werden, beispielsweise beim Zugang zu allgemeiner und berufsbildender Bildung, zu Gesundheitsdiensten oder zu Kontakten mit anderen Menschen.

Der zweite Teil des Berichts ermittelt, wie die EU-Bürger die nationalen Prioritäten im Bereich der digitalen Technologien einschätzen und welche Bedeutung sie der Zusammenarbeit der EU- Mitgliedstaaten in den digitalen Technologien beimessen (beispielsweise in Hinblick auf erhöhte Investitionen in innovativere und sicherere digitale Technologien oder, um sicherzustellen, dass die gleichen digitalen Technologien und Dienste für alle und überall in der EU zugänglich sind).

Der dritte Teil des Berichts befasst sich damit, wie EU-Bürger Anwendung und Schutz der Grundrechte im Onlinebereich wahrnehmen. Konkret wurden sie gefragt, ob ihnen bewusst ist, dass Rechte wie das Recht auf freie Meinungsäußerung Meinungsfreiheit, Privatsphäre oder Nichtdiskriminierung sowohl online als auch offline gelten sollten. Sie sollten auch angeben, wie gut ihrer Meinung nach die EU ihre Rechte im Onlinebereich schützt und wie gut die digitalen Rechte und Grundsätze in ihrem Land angewandt werden, z. B. in Bezug auf die Wahrung der Privatsphäre im Internet, d.i. das Respektieren der Vertraulichkeit von Kommunikation und Informationen auf Geräten.

Da die Darstellung der wesentlichen Umfrage-Ergebnisse die übliche Länge der ScienceBlog-Artikel weit übersteigt, wird über das für Europas Zukunft so wichtige Thema in zwei Teilen berichtet. Der gegenwärtige Artikel zeigt nur die Meinungen zum digitalen Wandel und dessen Auswirkungen auf zehn wesentliche Lebensbereiche auf (Teil 1 der Umfrage). Es werden dazu die Antworten der Bürger im EU27-Durchschnitt den Antworten unserer Landsleute in Österreich und unseren Nachbarn in Deutschland gegenüber gestellt.

Die Bedeutung der Digitalisierung im Alltag.................

Der (weitaus) überwiegende Anteil der Bevölkerung in allen Mitgliedstaaten ist der Ansicht, dass digitale Werkzeuge und Internet in ihrem Leben bis 2030 eine sehr wichtige oder ziemlich wichtige Rolle spielen werden. Insgesamt gesehen ist dies die Meinung von rund vier Fünftel der Bürger (79 %) im EU27-Schnitt. Die Länderanalyse zeigt allerdings große Unterschiede - während über 90 % der Bevölkerung in Holland, Schweden und Dänemark den digitalen Wandel für ihr persönliches Leben als wichtig betrachten, messen die Länder in Richtung Osten/Südosten dem offensichtlich weniger Bedeutung bei; Österreich (71 %) und Rumänien (59 %) sind die Schlusslichter. Abbildung 1.

Abbildung 1: Abbildung 1. Länderanalyse der Antworten auf Frage 1: Wie wichtig werden Ihrer Meinung nach digitale Technologien in ihrem Leben bis 2023 sein? Die Antworten "sehr wichtig" und "ziemlich wichtig" sind zusammengenommen in % der Antworten je Land angegeben. (Bild leicht modifiziert aus [1])

Im Vergleich zu 2021 ist in 22 Mitgliedstaaten der Anteil der Befragten, die angeben, dass digitale Werkzeuge und das Internet bis 2030 in ihrem Leben wichtig sein werden, aber zurückgegangen, vor allem in Belgien und Tschechien um 10%, in Finnland um 9 %, in Deutschland um 7 %; der EU-Schnitt lag 2021 bei 81 %, in Österreich bei 72 %, in Rumänien bei 61 % [2].

.......in wesentlichen Lebensbereichen

Insgesamt wurden die Teilnehmer zur Bedeutung der Digitalisierung bis 2030 für sie persönlich in zehn wesentlichen Lebensbereichen befragt. Die Antworten, gelistet nach fallender Wichtigkeit im EU27-Schnitt, sind in Abbildung 2 aufgezeigt und die jeweiligen Antworten aus Österreich und Deutschland gegenüber gestellt. Offensichtlich haben Teilnehmer aus Österreich und Deutschland die Rolle der Digitalisierung in allen diesen Bereichen für weniger wichtig gehalten, als dies im EU27-Schnitt der Fall war.

Abbildung 2: Antworten auf Fragen zur persönlichen Wichtigkeit des digitalen Wandels in bestimmten Lebensbereichen; im EU27-Schnitt, sowie in Österreich und Deutschland. Angaben in % der Antworten; Je EU27 und Land bedeuten dunklere Blautöne: sehr wichtig, hellere Blautöne: ziemlich wichtig, hellere Rosetöne: nicht sehr wichtig, dunkle Rosetöne: völlig unwichtig und Grautöne: keine Aussage. (Bilder von Redn. erstellt/modifiziert aus Abbildung QB2 und Daten von [1]).

Listet man die Wichtigkeit, die nach Meinung der Europäer digitale Technologien in ihrem persönlichen Leben bis 2030 spielen werden, so liegt an erster Stelle deren zentrale Rolle bei Kontakten mit anderen Menschen, Freunden und Familie: dies erwartet die weitaus überwiegende Mehrheit der EU27 (82 %); in Österreich sind dies 76 %, in Deutschland 74 %. Fast ebenso viele Europäer (81 %) sehen auch den digitalen Zugang zu öffentlichen Dienstleistungen als wichtig an (in Österreich 73 %, in Deutschland 77 %).

An dritter Stelle der Wichtigkeit scheint der digitale Wandel im Gesundheitswesen auf: 76 % im EU27- Schnitt (67 % in Österreich, 71 % in Deutschland) erwarten eine Verbesserung im Zugang zu Gesundheitsdienstleistungen oder in deren Inanspruchnahme. Ähnlich viele Europäer (EU27: 74 %, jeweils 70 % in Österreich und Deutschland) haben ähnliche Erwartungen in Bezug auf Online-Handel und Dienstleistungen mit anderen EU-Ländern, sowie für den Zugang zu und die Nutzung von Verkehrsdienstleistungen (EU27: 73 %, Österreich 62 %, Deutschland: 66 %).

In weiterer Folge geht es um die Rolle, die digitale Technologien für den Zugang zu Bildungs- und Aus- und Weiterbildungsmöglichkeiten spielen werden - etwa sieben von zehn Europäern (71 %) sehen diese als wichtig an; in Österreich sind dies nur 63 %, in Deutschland 68 %. Den Zugang zu, die Interaktion mit und/oder die Erstellung von Online-Materialien/Inhalten halten ebenso 71 % der EU27 für wichtig; in Österreich sind dies 62 %, in Deutschland 63 %.

Etwas mehr als zwei Drittel der EU-Bürger (68 %) erwarten, dass sich der digitale Wandel positiv auf die Art und Weise auswirkt, wie sich die Menschen am demokratischen Leben beteiligen; in Österreich sind dies 63 %, in Deutschland 65%.

Rund zwei Drittel (66 %) der Europäer meinen, dass digitale Technologien, wie beispielsweise zur Überwachung der persönlichen Emissionen, des Energieverbrauchs oder der Teilnahme an online-Meetings, einen wichtigen Beitrag im Kampf gegen den Klimawandel leisten können; 59 % der Österreicher und Deutschen teilen diese Meinung.

Eine Mehrheit (63 %) der Europäer erwartet, dass digitale Technologien einen großen Einfluss auf die Fernarbeit (Homeoffice) haben werden; in Österreich sind dies 57 % in Deutschland 56 %.

Eine demographische Analyse

der Antworten zeigt eine klare Abhängigkeit von Alter und Ausbildung der Befragten. Die Ansicht, dass digitale Werkzeuge und das Internet in Leben eine wichtige Rolle spielen werden, nimmt von der Altersgruppe 15 bis 24 Jahre bis zur Altersgruppe 40 - 54 Jahre kontinuierlich ab. Ab 55 Jahren erscheinen digitale Technologien dann im wesentlichen für den Kontakt mit anderen Menschen (71 %), den Zugang zu öffentlichen Diensten (68 %) und zu Gesundheitsdiensten (65 %) wichtig, in den meisten anderen Lebensbereichen ist die Wichtigkeit auf um die 50 % und darunter gesunken.

Insgesamt sehen Befragte mit Hochschulbildung digitale Technologien mit größerer Wahrscheinlichkeit als für ihr Leben wichtig an (90 %), als Absolventen mit einem Sekundarschulabschluss (16 bis 19 Jahre) (75 %) und Personen, die nur bis zum Alter von 15 Jahren zur Schule gingen (49 %).

Fazit

Wenn im Durchschnitt 79 % der EU-Bürger die Ansicht äußern, dass digitale Technologien für ihr Leben bis 2030 wichtig sein werden, so weist dies auf den ersten Blick auf eine sehr hohe Zustimmung zu einem schnellen Fortschreiten der europäischen Digitalisierung hin. Allerdings ist seit der ersten Umfrage 2021 der Anteil positiven Antworten in 22 der 27 EU-Mitgliedsländern gesunken, und es wird in dieser Umfrage auch nicht erhoben, ob und welche erforderlichen Kompetenzen die Befragten bereits besitzen. Verstörend sind die Antworten der Teilnehmer aus den "reichen" Ländern Österreich und Deutschland, welche die Rolle der Digitalisierung in allen Lebensbereichen für weniger wichtig halten, als dies im EU27-Schnitt der Fall ist. Insbesondere ist die Nutzung der digitalen Technologien für allgemeine und berufliche Bildung hervorzuheben, die 35 % der Österreicher und 28 % der Deutschen für unwichtig halten, und die Nutzung von Online-Materialien/Inhalten - diese halten 33 % der Österreicher und 32 % der Deutschen für unwichtig.

Im Übrigen weist die angegebene Wichtigkeit digitaler Technologien das gleiche Gefälle in Richtung Osten/Südosten auf, wie das Interesse der EU-Bürger an Wissenschaft und Technologie und ihre diesbezügliche Informiertheit [3].


 [1] Special Eurobarometer 532: The Digital Decade (June, 2023). doi: 10.2759/14051

[2] Special-Eurobarometer 518: Digital rights and principles (December 2021). doi: 10.2759/30275

[3] I. Schuster, 3.10.2021: Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit


 

inge Sat, 29.07.2023 - 17:45

Wenn das Wasser die Menschen verdrängt - Megastädte an Küsten

Wenn das Wasser die Menschen verdrängt - Megastädte an Küsten

Do, 20.07.2023 - Duška Roth

Duška Roth

Icon GeowissenschaftenSeit 2007 leben mehr Menschen in Städten als auf dem Land. Nach Schätzungen der Vereinten Nationen werden 2030 fünf von achteinhalb Milliarden Menschen in Städten wohnen. Schon heute gibt es 34 Städte beziehungsweise Metropolregionen mit mehr als 10 Millionen Einwohnern. Sie werden Megastädte oder Megacitys genannt und sind geprägt von Gegensätzen zwischen größter Armut und höchstem Luxus. Viele von ihnen liegen nah an der Küste. Damit sind sie durch den steigenden Meeresspiegel unmittelbar bedroht.*

Urbane Räume sind Anziehungspunkte für Menschen auf der Suche nach einem besseren Leben. Der stetige Zuwachs an Menschen stellt gerade die Metropolen des globalen Südens vor gewaltige strukturelle Probleme: Dort schreitet der Anstieg der Bevölkerung so rasant voran, dass Arbeitsplätze fehlen, die Behörden überfordert sind und der Ausbau von Infrastrukturen und Wohnraum nicht Schritt halten kann. Die Folgen sind sozioökonomische und räumliche Fragmentierungen der Stadtgesellschaft. Es entstehen informelle Stadtviertel, die je nach Region als Slums oder Favelas bezeichnet werden und von schlechter Baustruktur und prekären Lebensverhältnissen geprägt sind. Menschen, die dort wohnen, sind auf mehreren Ebenen marginalisiert: Sie sind sowohl räumlich als auch wirtschaftlich, politisch und sozial ausgegrenzt. So haben sie etwa einen schlechten oder gar keinen Zugang zu sauberem Wasser oder medizinischer Versorgung und können nur eingeschränkt auf Extremereignisse wie Erdbeben oder Hochwasser reagieren. Megastädte in Küstennähe sind daher vom Anstieg des Meeresspiegels infolge des Klimawandels besonders bedroht (Abbildung 1). Die meisten Megastädte und die größten Metropolregionen der Welt befinden sich in Asien – einer Region, die bereits heute von klimabedingten Extremereignissen stark betroffen ist und laut Experten auch in der Zukunft noch häufiger und stärker betroffen sein wird. Dort treffen Naturgefahren auf gesellschaftlich vermittelte Vulnerabilität.

Abbildung 1. Städte weltweit. Die Karte zeigt den prozentualen Anteil von Städten mit 500.000 oder mehr Einwohnern (Daten aus dem Jahr 2018). Vierzehn Länder oder Gebiete besitzen einen niedrigen Urbanisierungsgrad, d. h. weniger als 20 % ihrer Bevölkerung leben in städtischen Gebieten. Im Gegensatz dazu liegt der Anteil der städtischen Bevölkerung in 65 Ländern bereits bei über 80 Prozent. Viele Megastädte (rote Kreise) befinden sich an Küsten oder in Küstennähe. © United Nations, DESA, Population Division (2018) / CC BY 3.0 IGO

Land unter in Asien

Der globale Meeresspiegel ist im 20. Jahrhundert zunehmend angestiegen (Abbildung 2). Aufgrund der Trägheit des Klimasystems wird er – selbst bei einem sofortigen Stopp aller Treibhausgas-Emissionen – für mehrere Jahrhunderte weiter steigen. Hunderte Millionen Menschen, die weltweit in Küstennähe leben, sind durch diesen Anstieg bedroht. In Asien könnten Metropolen wie Shanghai, Hanoi, Dhaka, Mumbai, Jakarta oder Kolkata überflutet werden. Besonders gefährdet sind Delta-Gebiete – flache Regionen, die durch den Zusammenschluss von Flussarmen und deren Sedimentablagerungen entstehen. Solche Landstriche sind klassische Siedlungsgebiete für Menschen. Ein Grund sind die Schwemmböden, die mit nährstoffreichen Sedimenten aus dem Fluss versorgt werden. Diese fruchtbaren Böden bringen hohe Erträge in der Landwirtschaft, ihre Nutzung führt aber gleichzeitig zu Bodenabsenkungen: Als Folge der Trockenlegung im Zuge des Ackerbaus ziehen sich tiefer liegende Erdschichten zusammen. Dadurch entstehen Absenkungen, die sich über große Gebiete verteilen. In Ballungszentren wie Dhaka und Kolkata kommen Bodenversiegelung und die exzessive Entnahme von Grundwasser hinzu. So entstehen regionale Absenkungen von mehreren Zentimetern pro Jahr, die den lokalen Meeresspiegelanstieg verstärken. Häufiger auftretende Extremwetterlagen verursachen Sturmfluten, die im Zusammenspiel mit einem erhöhten Meeresspiegel katastrophale Folgen haben. Wohngebiete werden überflutet, das anbrandende Meerwasser trägt die Küste ab und vernichtet Lebensraum und Anbauflächen. Dies betrifft vor allem dicht besiedelte, informelle Siedlungen, die häufig in Küstennähe errichtet werden.

Abbildung 2. Anstieg des Meeresspiegels. Das Diagramm zeigt die Veränderung des globalen Meeresspiegels seit 1993, wie sie von Satelliten beobachtet wird. Infolge der globalen Erwärmung steigt der Meeresspiegel in einem Ausmaß an, wie es in den letzten 2.500 Jahren noch nie vorgekommen ist. © NASA‘s Goddard Space Flight Center

Als Ethnograf in der Megastadt

Die Metropolregion Kolkata befindet sich im bengalischen Delta am Fluss Hugli, einem Mündungsarm im westlichen Gangesdelta. Die Gegend liegt durchschnittlich nur sechs Meter über dem Meeresspiegel. Kolkata ist die Hauptstadt des Bundesstaates Westbengalen und mit ihren 4,5 Millionen Einwohnern (Zahlen vom letzten verfügbaren Zensus im Jahr 2011) die siebtgrößte Stadt Indiens. In der Metropolregion leben demnach 14,1 Millionen Einwohner. Andere, inoffizielle Schätzungen gehen von bis zu 30 Millionen aus. Damit bildet diese Region auf einer Fläche von 187,33 Quadratkilometern den drittgrößten Ballungsraum des Landes. Die Bevölkerungsdichte entspricht derjenigen, als würden alle Einwohner von Sachsen, Sachsen-Anhalt, Thüringen, Berlin, Mecklenburg-Vorpommern und Brandenburg auf einem Gebiet so groß wie Potsdam leben. Obwohl der Wohnraum immer knapper wird, ziehen mehr und mehr Menschen nach Kolkata. Was macht die Megastadt so attraktiv? Arne Harms, Wissenschaftler am Max-Planck-Institut für ethnologische Forschung in Halle, nennt zwei Faktoren: „Kolkata ist ein Sehnsuchtsziel für Migranten aus Indien, die in die Region ziehen, um ihr Überleben zu sichern. Jobs als Tagelöhner findet man dort relativ leicht. Aber Kolkata ist auch eine Stadt des kulturellen Erbes und für die Bengalen sehr bedeutsam.“ Hinzu kommt, dass viele Menschen aus den Küstenregionen in die Städte ziehen, weil sie wegen eines drohenden oder akuten Hochwassers ihre Wohnungen verlassen müssen. Um zu verstehen, wie ökologische und ökonomische Krisen oder die Globalisierung das Leben an der Küste verändern, verknüpft Harms Ansätze aus der politischen Ökologie und der Infrastrukturforschung.

Die politische Ökologie betrachtet Umweltprobleme in ihrem historischen, politischen und ökonomischen Kontext. Welche Rolle spielen wirtschaftliche Verhältnisse und Machtdynamiken für den Zugang zu Trinkwasser oder den Schutz vor Fluten? Wie beeinflusst der steigende Meeresspiegel politische und wirtschaftliche Entscheidungen und Abläufe? Fragen wie diese ermöglichen es, komplexe Zusammenhänge aufzudecken. Die Infrastrukturforschung beschäftigt sich zum Beispiel mit der Frage, wie Dämme, Straßen und Brücken die Entscheidungen und das Handeln der Menschen beeinflussen. Bei der Datenanalyse untersuchen Forschende die Interessen und Machtverhältnisse der beteiligten Akteure und deren konkrete Handlungsmuster. Harms Forschung dreht sich um das zentrale Thema, wie sich das Leben in Küstenregionen durch den steigenden Meeresspiegel und die Urbanisierung verändert. Um das herauszufinden, sammelt er bereits seit 2009 Daten – in Interviews und Gruppendiskussionen, durch teilnehmende Beobachtung und Experteninterviews sowie die Auswertung von Dokumenten und Archivmaterial.

Hochwasser als Teil des Lebens

Die rasant wachsenden Slums in Kolkata sind besonders anfällig für extreme Naturereignisse. Aus Mangel an Alternativen entstehen sie oft an gefährdeten Standorten und sind daher ausgesprochen vulnerabel. Arne Harms befasst sich vor allem mit der sozialen Vulnerabilität der Bewohner: Inwiefern sind gesellschaftliche, soziale, ökonomische und naturräumliche Kategorien dafür verantwortlich, dass sich Menschen in vulnerablen Situationen befinden? Gleichzeitig untersucht er auch die Resilienz der Menschen – die Kapazitäten, aus denen sie schöpfen, um ihr Überleben zu sichern. „An der bengalischen Küste sind Überflutungen ein rhythmisch wiederkehrendes Phänomen“, sagt der Wissenschaftler. Diese Rhythmik betrifft zum einen die Jahreszeiten: In der Regenzeit sind die Wasserstände höher und die Deiche einem höheren Druck ausgesetzt. Dadurch erodiert das Land stärker. Die Rhythmik folgt aber auch den Mondphasen, denn bei Vollmond und Neumond sind die Gezeitenfluten höher als an anderen Tagen. Weil beides verzahnt ist, gelten die Vollmonde der Regenzeiten als die gefahrvollste Zeit: Deiche brechen und Menschen verlieren ihre Häuser. Schließlich ist auch das Leben mit Landverlust rhythmisch, denn mit den wiederkehrenden Fluten fallen immer wieder Teile der Küste der Erosion zum Opfer.

Die Menschen in der Region wissen um die Gefahr wiederkehrender Hochwasser und reagieren innerhalb ihrer Möglichkeiten. Sie ziehen weiter ins Landesinnere, wenn sie bei Bekannten oder Verwandten unterkommen oder es sich leisten können, ein Stück Land zu kaufen. Viele ziehen in notdürftig errichtete Hütten am Straßenrand. Dort werden sie häufig wieder von Flut und Erosion eingeholt, und der Prozess der Vertreibung durch das herannahende Wasser beginnt von neuem. In unmittelbaren Küstengebieten am Rand der Metropolregion bietet sich ein ähnliches Bild: „Die meisten Menschen, mit denen ich gesprochen habe, suchten in einiger Entfernung von der Küste Sicherheit, nur um vom herannahenden Meer nach ein paar Monaten oder Jahren wieder eingeholt zu werden“, sagt Arne Harms. „Sie erleben also einen Wechsel von sicheren, trockenen Perioden und Zeiten, in denen sie unmittelbar vom Meer bedroht sind. Etliche haben bereits fünf- oder sechsmal ihre Bleibe verloren.“ Doch trotz der immer wiederkehrenden Gefahr durch das Wasser ziehen nur wenige weiter weg: „Die gewohnte Umgebung, die lokalen Netzwerke und gemeinsame Geschichten bieten den Menschen Sicherheit“, sagt der Wissenschaftler. Hinzu kommt, dass die Migration in weit entfernte Städte im Landesinneren viele Gefahren birgt: „Die meisten, die auf diversen Migrationspfaden unterwegs sind, kommen mit ziemlich üblen Geschichten nach Hause. Viele werden von Mittelsmännern um ihren Lohn gebracht. Sexuelle Übergriffe sind an der Tagesordnung, besonders auf Frauen, die ihr Geld als Hausangestellte verdienen. In der Ferne erleben die Menschen Entrechtung, Willkür, und Ausbeutung. Deshalb bleiben sie lieber dort, wo sie sind, und verharren in ihrer vulnerablen und marginalisierten Lage.“

Hinzu kommt, dass die Behörden von Kolkata mit dem rasanten Bevölkerungswachstum längst überfordert sind. Oft werden die marginalisierten Teile der Bevölkerung bei der Stadtplanung benachteiligt. Stattdessen setzen sich immer mehr die Ideale der Mittelklasse durch. Informelle Siedlungen finden darin keinen Platz, denn sie gelten als Orte von Krankheit, Armut und Schmutz. Harms schildert, dass die Menschen in den Slums faktisch entrechtet werden. Sie sehen sich vom Bauboom überrollt, durch Gentrifizierung verdrängt: „Neue Skyscraper-Bauprojekte sind nur für die Mittelklasse vorgesehen, welche die Arbeitskraft der marginalisierten Bevölkerung nutzt, etwa als Bauarbeiter oder Hausangestellte. Rehabilitationsprojekte für informelle Siedlungen werden am Stadtrand geplant, weit entfernt von guten Arbeitsplätzen und Einkommensmöglichkeiten. Sie sind daher oft von vornherein zum Scheitern verurteilt.“ In Folge siedeln sich die Menschen wieder auf Freiflächen an, die näher am Zentrum liegen. So schaffen sie neue informelle Strukturen und Siedlungen. Es entsteht ein Kreislauf, „ein Ziehen und Zerren um Land und Ressourcen“, so Harms. Der Wissenschaftler hat in Kolkata mit Herrn Das gesprochen. Dieser ist im Alter von 37 Jahren in die Stadt gezogen. Wegen der Fluten und der Küstenerosion hatte er zuvor fünfmal seine Bleibe verloren. Im Dorf an der Küste sah er daher für sich und seine Familie keine Zukunft. Doch wie er sagt, werde auch das Leben in dem Viertel, in dem er jetzt wohnt, immer schwieriger – vor allem wegen wachsender Probleme, an Trinkwasser zu kommen. Zudem steht er kurz davor, sein Haus erneut zu verlieren: Die informelle Siedlung, in der er mit seiner Familie wohnt, muss weiteren Hochhäusern weichen. So haben Flut und Erosion einerseits sowie Gentrifizierung andererseits für die Menschen im bengalischen Delta letztlich die gleichen Auswirkungen: Sie wissen nicht, wo sie bleiben sollen (Abbildung 3).

Abbildung 3. Vulnerable Bevölkerung. Menschen in küstennahen Metropolregionen müssen aufgrund von Hochwasser immer wieder umziehen. Die farbigen Pfeile zeigen Kreisläufe. Rot: Menschen verlieren ihren Wohnraum und siedeln sich in einiger Entfernung von der Küste wieder an. Dort werden sie nach kurzer Zeit von der nächsten Überschwemmung eingeholt. Blau: Menschen ziehen an den Stadtrand. Es bilden sich informelle Siedlungen, die überschwemmt werden, die Menschen müssen neue Wohnplätze suchen. Grün: In den Slums werden Menschen durch Gentrifizierung verdrängt und siedeln sich wieder auf Freiflächen an, die näher am Zentrum liegen. So entstehen neue informelle Siedlungen. © MPG / CC BY-NC-SA 4.0

Wenn das Wasser steigt

Eine Möglichkeit, den Überflutungen durch den steigenden Meeresspiegel entgegenzuwirken, ist der Bau von Deichen. „Diese bieten aber nur eine trügerische Sicherheit“, sagt Arne Harms. „Durch das Absinken des Bodens bildet sich hinter dem Deich eine Art Tasse, die bei einem Dammbruch vollläuft und aus der das Wasser nicht mehr ablaufen kann. Deiche bieten daher keinen ausreichenden Schutz. Sie vermitteln zunächst Sicherheit, doch wenn sie brechen, sind die Folgen umso gravierender.“ Eine andere Lösung besteht darin, das Wasser abzupumpen. In Kolkata haben Stadtplaner und Investoren einen großen innerstädtischen Bereich, den Salt Lake District, weitgehend überschwemmungssicher gemacht. Sie haben das Land höher gelegt, Pumpen installiert, Schleusen und Dammsysteme gebaut – ein gigantischer Aufwand zum Hochwasserschutz. Heute wohnt in dem Gebiet eine wohlhabende Bevölkerung. In seinem Umkreis wachsen dagegen die informellen Siedlungen derjenigen, die Dienstleistungen für die Reichen erledigen. „Diese Menschen leben mit einem nochmals höheren Hochwasserrisiko, weil dort zusätzlich das Wasser aufläuft, das aus den geschützten Bereichen abgepumpt wird“, sagt Arne Harms. „So gehen derlei Prestigeprojekte an einer Lösung vorbei, weil sie die Frage der sozialen Verwundbarkeit ausklammern.“ Bisherige Hochwasserschutzprogramme in der Region konzentrieren sich vor allem auf Schutzräume für den Ernstfall, sogenannte Cyclone Shelter. Während diese bei Sturmfluten Menschenleben retten, können sie dem Problem versinkender Landschaften nichts entgegensetzen. So müssen die Menschen, die in informellen Siedlungen an den gefährdeten Stadträndern leben, in ihrem Alltag mit der ständig drohenden Katastrophe zurechtkommen. Um ihren Lebensraum zu erhalten, reparieren sie teils in Eigenregie und damit illegal die Deiche. So schützen sie – weitgehend unbemerkt – auch die Menschen im Inland.

Verteilte Katastrophe

Auf der Grundlage seiner Forschung im Raum Kolkata entwickelte Arne Harms die These der „Verteilten Katastrophe“. Sie schlägt nicht als ein weithin sichtbares Schadensereignis zu, sondern ist verteilt in Raum und Zeit. In den Küstenregionen tritt sie in breiter Front auf, geprägt durch Jahreszeiten und Gezeiten. Die Menschen, die mit dieser konstanten Bedrohungslage leben, sehen die „echte Katastrophe“ in der Küstenerosion. Sie raubt ihnen das Land und damit die wichtigste Grundlage von Ökonomie, Zugehörigkeit und Geschichte. „Die Sorgen jener Menschen im bengalischen Delta, die mit bröckelnden Deichen, wiederkehrenden Überschwemmungen und dem Verschwinden von Land zu kämpfen haben, bleiben von staatlichen Institutionen und den mit humanitärer Hilfe beauftragten NGOs bisher weitgehend unberücksichtigt“, sagt der Wissenschaftler. „Trotz ihrer gravierenden Auswirkungen bleibt die Küstenerosion unter dem Radar des Nothilfeapparats. Daher ist nur wenig über das Leid der Menschen bekannt, die am Rand der erodierenden Küstenlinie Indiens ausharren.“ Um soziale Gerechtigkeit zu fördern, fordert der Max-Planck-Forscher deshalb eine neue Definition der Katastrophe: „Der Begriff „Katastrophe“ bezeichnet meist großflächige Schadensereignisse, die massenhaft Tod und Zerstörung bringen. Eine neue Definition müsste auch solche Dynamiken beinhalten, die räumlich und zeitlich entgrenzt und nur selten tödlich sind, die aber eine existenzielle Bedrohung darstellen und daher von den Menschen als Katastrophe erlebt werden.“ Was fehlt, sind nach Ansicht des Wissenschaftlers vor allem Ansätze einer gerechten Umsiedlung sowie ein ausgeklügelter Küstenschutz, der auch verarmte Küstengebiete und deren Bewohner berücksichtigt: „Nur so lässt sich die Bedrohung durch den weiter steigenden Meeresspiegel in den dicht besiedelten Küstenregionen Asiens abmildern.“


* Der Artikel von Duška Roth ist unter dem Titel: " Megastädte an Küsten- Wenn das Wasser die Menschen verdrängt " im Geomax 28-Heft der Max-Planck-Gesellschaft im Sommer 2023 erschienen https://www.max-wissen.de/max-hefte/geomax-28-megastaedte/. Mit Ausnahme des Titels wurde der unter einer cc-by-nc-sa Lizenz stehende Artikel unverändert in den Blog übernommen.


inge Thu, 20.07.2023 - 16:50

Schadstoffe - Pathogene Effekte auf die grauen Zellen

Schadstoffe - Pathogene Effekte auf die grauen Zellen

Do. 13.07.2023— Susanne Donner

Susanne DonnerIcon Gehirn

Viele tausend Schadstoffe befinden sich in Luft, Wasser, Boden und Nahrung und Milliarden Menschen sind diesen ausgesetzt. Schadstoffe können dem Gehirn zusetzen, Stress, Entzündung und Zelltod auslösen. Am Lebensanfang, wenn das Gehirn sich entwickelt und am Lebensende, wenn natürliche Abbauvorgänge einsetzen, ist es besonders empfindlich für Umwelteinflüsse. Luftverschmutzung, besonders die Belastung mit Feinstaub, trägt zu kognitiven Defiziten am Lebensanfang und zu Demenzen am Lebensende bei. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner berichtet über die ernste Bedrohung der globalen Gesundheit, die mit der zunehmenden Menge an Schadstoffen einhergeht.*

Auch an sonnigen Tagen ist Mexiko-Stadt in einen weiß-bräunlichen Dunst gehüllt, den die 21 Millionen Bewohner nur sehen können, wenn sie sich aus dem Ballungsraum entfernen und auf ihre Stadt hinunterschauen. Wer sich dagegen in der Innenstadt aufhält, bemerkt nur eines: Haut und Kleidung sind nach einem Tagesausflug vom Zócalo bis zur barocken Kathedrale mit einem bräunlichen Schleier überzogen.

Die Kinderärztin und Neurowissenschaftlerin Lilian Calderón-Garcidueñas kennt das zur Genüge, da sie sowohl in Mexiko-Stadt als auch in den USA arbeitet. Schon lange hegte sie den Verdacht, dass die feinstaubschwangere Luft Kindern schadet. Mit einer Untersuchung wollte sie endlich für Klarheit sorgen: Sie verglich die geistigen Fähigkeiten von 55 Kindern aus der Hauptstadt mit denen aus einer Kleinstadt des Landes. Und tatsächlich schnitten die Großstadtsprösslinge in den Tests deutlich schlechter ab. In Magnetresonanztomografie-Aufnahmen des Gehirns entdeckte Calderón-Garcidueñas bei 56 Prozent der Kinder Entzündungsherde im präfrontalen Cortex. Hier, im Frontallappen, werden Sinneswahrnehmungen zusammengeführt. Er spielt deshalb eine Schlüsselrolle beim Planen von Handlungen, beim Entscheiden, und auch beim Lernen.

Verursacht die schmutzige Luft die Entzündungen im Gehirn und die kognitiven Defizite? Auf der Suche nach einer Antwort untersuchte Calderón-Garcidueñas das Gehirn von sieben jungen Hunden aus Mexiko-Stadt. Und tatsächlich fand sie auch hier Entzündungsherde bei vier Tieren. Mehr noch: Sie konnte Ablagerungen von Feinstaub nachweisen und eine abnorme Aktivierung von Mikroglia, den Immunzellen des Gehirns. „Die Luftverschmutzung beeinträchtigt das reifende Gehirn, sie erklärt kognitive Defizite in gesunden Kindern“, warnte die Kinderärztin 2008 in einer viel beachteten Veröffentlichung im Journal Brain and Cognition [1].

Seither hat Mexico-Stadt Forschende wegen der brisanten Frage angezogen, ob schlechte Luft das Gehirn zerstört und wenn ja, auf welche Weise und wie sehr. Am Lebensanfang und am ende könnte das Organ besonders verletzlich reagieren, weil es erst noch reift und später auf natürliche Weise abbaut.

Luftverschmutzung und Demenzen treten zusammen auf

Obwohl es oft heißt, neurodegenerative Erkrankungen, zuvorderst die Demenzen, seien eine Unausweichlichkeit der enormen Lebenserwartung in modernen Zivilisationen, liefern mehr und mehr epidemiologische Studien ein brisantes Gegenargument: Je höher die Feinstaubbelastung der Luft, desto mehr häufen sich Demenzen. Daten, die diesen Zusammenhang unterfüttern, kommen aus London, aus Quebec, aus Nordschweden aus Stockholm: Dort hatten Forschende des Karolinska-Instituts im Jahr 2020 etwa 3.000 Erwachsene mit einem Durchschnittsalter von 74 Jahren begleitet. 364 entwickelten innerhalb von 11 Jahren eine Demenz. Und obwohl die Luft der schwedischen Hauptstadt als sauber gilt, fand die Neurobiologin des Instituts Giulia Grande, dass die Gehalte an Feinstaub in der Luft in Wohnortnähe das Risiko einer Demenz beeinflussten [2]. Ungefähr 800.000 Fälle an Demenzen in Europa könnten jedes Jahr auf die Luftverschmutzung zurückgehen, rechneten andere Forscher 2021 hoch.

„Diese Befunde sind sehr unpopulär“, bedauert Bruce Lanphear, Gesundheitswissenschaftler an der kanadischen Simon Fraser University. „Wir sollen lieber an einer Therapie gegen Alzheimer forschen, weil man damit Geld verdienen kann, als den Ursachen auf den Grund zu gehen. Denn, wenn die Luftverschmutzung schuld ist, würde das ein Absenken der Grenzwerte erfordern. Das wollen weder Politiker noch Industrie gern hören.“ Abbildung 1.

Abbildung 1. Luftverschmutzung - ein globales Problem

Blei raubt die Intelligenz

Lanphear widmet sich seit vielen Jahren einem der potentesten Schadstoffe für das Gehirn: dem Blei. Das Schwermetall ist auch im Feinstaub vertreten, weil es etwa im Flugbenzin enthalten ist und damit aus den Triebwerken gewirbelt wird. Vor allem aber ist es eine Substanz, von der man gesichert weiß, wie gefährlich sie für den Menschen ist, weil sie seit vielen Jahrhunderten eingesetzt wird. Und noch heute enthalten bestimmte Gläser und Kunststoffe Blei, auch Knöpfe an Bekleidung, Farben und Stifte, teils sogar Modeschmuck. In verschiedenen Pkw-Kraftstoffen ist Blei zwar EU-weit seit der Jahrtausendwende verboten. Genauer gesagt heißt das aber, dass die erlaubten Mengen lediglich gering sind.

Überall auf der Welt empören sich Toxikologen und Toxikologinnen, die an Blei forschen, wie Lanphear oder die international renommierte Kinderärztin und Umweltmedizinerin Ruth Etzel aus den USA, dass Blei bis heute in vielen Anwendungen nicht verboten ist. Die Belastungen von Kindern und Kleinkindern auch in Deutschland sind nach wie vor zu hoch, warnt das staatliche Bundesinstitut für Risikobewertung.

Nachgewiesen ist nämlich, dass das Schwermetall toxisch auf Nervenzellen wirkt. Es schädigt insbesondere die Entwicklung des reifenden Gehirns. Wenn die Menge an Blei von weniger als einem Mikrogramm je Deziliter Blut auf zehn Mikrogramm je Deziliter steigt, sinkt der IQ der Kinder um 6,9 Punkte, ermittelte Lanphear anhand der Daten an 1.300 Kindern. Andere Studien bestätigten, dass Blei die Intelligenz schmälert. Kleinkinder zwischen null und drei Jahren verleiben sich aber hierzulande 1,1 bis 3,3 Mikrogramm Blei täglich über Essen und Trinken ein – die Atemluft ist da noch nicht einmal berücksichtigt. „Es ist eine Tragödie. Wir wissen bei Blei so gut wie bei kaum einer anderen Chemikalie, wie schädlich es ist. Aber die Regierungen haben die Belastungen nicht auf ein akzeptables Maß gesenkt“, urteilt Etzel.

Das Problem ist“, sagt Lanphear, „fünf IQ-Punkte weniger mögen auf der individuellen Ebene keine große Rolle spielen. Aber auf der Bevölkerungsebene bedeutet das riesige Effekte, wenn ganze Populationen durchschnittlich etwa fünf IQ-Punkte verlieren.“ Der Anteil der Personen mit kognitiven Beeinträchtigungen, die Hilfe oder besondere Förderung brauchen, steigt gewaltig und der Anteil der Hochbegabten schwindet messbar.

Schadstoffbedingte Demenz?

"Das kognitive Defizit am Lebensanfang wird zudem nie wieder aufgeholt“, argumentiert Lanphear in einer Linie mit seinen Forschungskollegen. Viele vermuten, dass die Last an Blei im Körper auch eine spätere Demenz begünstigt. Diese könnte umso früher einsetzen, je mehr des Schwermetalls gespeichert ist. Und weil sich die Indizien in dieser Richtung verdichten, ergründet hierzulande neuerdings auch das Umweltbundesamt, wie Schadstoffe neurodegenerative Krankheiten befeuern.

„Seit etwa dreißig Jahren sinkt die Inzidenz an Demenzen in den USA – auch wenn die Gesamtzahl aufgrund der Überalterung weiter stark steigt. Im selben Zeitraum gingen die Bleibelastungen zurück, weil wir als erstes Land weltweit bleihaltiges Benzin verboten haben. Ich sehe da einen direkten Zusammenhang: sinkende, gleichwohl immer noch zu hohe Bleibelastungen auf der einen Seite und zurückgehende Inzidenzen bei Demenzen auf der anderen Seite“, sagt Lanphear.

Im Gehirn unterbindet Blei die Erregungsleitung zwischen den Nervenzellen. Es erschwert, dass sich Synapsen ausbilden und verstärken. Insgesamt stört das Schwermetall somit das Oberstübchen fundamental beim Denken, Fühlen und Handeln. „Blei ist aber nicht der einzige Schadstoff, der dem Gehirn schadet“, sagt der Neurowissenschaftler Stephen Bondy von der University of California in Irvine. Polychlorierte Biphenyle, die schon in Fahrradlenkern und Sportplätzen gefunden wurden, Aluminium und Kupfer sind nur drei weitere Verdächtige. Bondy selbst gab einem Mäusestamm aluminiumhaltiges Wasser zu trinken, wie es in Kanada typischerweise aus dem Wasserhahn kommt. Die Tiere entwickelten daraufhin typische Alzheimer-Veränderungen im Gehirn, berichtet er. Mit Kupfer beschäftigt sich eine weltumspannende Forschungsszene, die zeigen konnte, dass das Metall die Fehlfaltung von Proteinen anstachelt. Unter dem Einfluss von Kupfer entstünden aus normalen Proteinen „Ringe des Bösen“, schilderten jüngst Forscher der schweizerischen Eidgenössischen Materialprüfungs- und Forschungsanstalt.

Zu viel Verschmutzung, um zu erforschen, was sie macht

Viele tausend Schadstoffe zirkulieren in Luft, Boden und Wasser. „Wenn ein Stoff irgendwo verboten wird, kommt oft ein neuer auf den Markt, von dem wir erst einmal nichts wissen“, klagt Bondy. Jede Forschungsgruppe muss vor der Vielfalt kapitulieren und richtet notgedrungen ihr Augenmerk auf ausgewählte Stoffe. Unter den Pestiziden, Weichmachern und Flammschutzmitteln sind viele Kandidaten mit kryptischen Namen, die Nervenzellen in Kultur oder auf Ebene der Genexpression beeinträchtigen. Sie könnten an den Geistesgaben zehren und Autismus, Alzheimer und ADHS den Weg bereiten.

Beispielsweise entdeckte das Team um Barbara Maher von der Universität Lancaster im Hirnstamm von 186 jungen Bewohnern in Mexiko-Stadt bestimmte fehlgefaltete Proteine. Sie deutete diese als frühe Vorboten häufiger Altersleiden, etwa einer Demenz oder der Parkinson’schen Erkrankung. In den geschädigten Hirnstämmen konnte Maher unter den Feinstaubablagerungen vornehmlich Manganpartikel nachweisen, vermutlich aus dem Straßenverkehr, und nanoskalige Titanpartikel. Letztere sind Bestandteil des umstrittenen Lebensmittelzusatzstoffes E 171. Sie könnten aus Süßigkeiten oder Zahncreme stammen und vom Darm ins Gehirn vordringen, vermutet Maher.

Schleichwege ins Gehirn

Das führt zur grundlegenden Frage, wie Schadstoffe überhaupt in das gut geschützte Gehirn vordringen können. Die Blut-Hirnschranke bildet schließlich eine Barriere zwischen dem Blut und der Hirnsubstanz. Die feinen Blutgefäße sind im Nervengewebe dicht mit Endothelzellen ausgekleidet, die eng miteinander über sogenannte „tight junctions“ verknüpft sind. Sie verhindern, dass Substanzen leichterdings ins Nervengewebe übertreten können. Die Gefäße sind zudem von Astrozyten umgeben, die ebenfalls die Passage von gefährlichen Stoffen kontrollieren.

Und doch können Medikamente, Substanzen aus Zigaretten und eben auch verschiedene Schadstoffe an dieser Einlasskontrolle vorbei aus dem Blut ins Gehirn gelangen. Besonders fettliebende kleine Moleküle haben es leicht. Und feste Partikel wie Blei können eine Abkürzung nehmen. Über die Nase steigen sie in den Riechkolben auf und werden von dort, wenn sie nur klein genug sind, direkt ins Gehirn verfrachtet. Eingeatmete Nanopartikel lassen sich so in Tieren und mit optischen Spezialverfahren neuerdings auch im Gehirn des Menschen nachweisen. Barbara Mahers Team machte zum ersten Mal die Mangan- und Titanteilchen im Hirnstamm der 186 Probanden sichtbar.

Abbildung 2 (von Redn. eingefügt) fasst zusammen, wie Schadstoffe ins Hirn gelangen und welche Auswirkungen sie dort zeigen.

Abbildung 2. Schematische Zusammenfassung: Feinstaub kann in das Gehirn eindringen und dort neurotoxische Wirkungen hervorrufen, was mit einem erhöhten Risiko der Neurodegeneration verbunden ist. Feinstaubpartikel können über das Riechsystem oder den Trigeminusnerv ins Gehirn gelangen, oder sie passieren die Blut-Hirnschranke (BBB), nachdem sie in den Blutkreislauf gelangt sind. Die abgelagerten Feinstaubpartikel können Neurotoxizität, oxidativen Stress, Neuroinflammation sowie Schäden an der BBB und dem neurovaskulären System verursachen. Diese Auswirkungen im Gehirn können zu neurodegenerativen Erkrankungen führen. Epidemiologische Studien haben die Belastung durch Feinstaub mit kognitiven Beeinträchtigungen und einem erhöhten Risiko für die Entwicklung neurodegenerativer Erkrankungen wie Alzheimer (AD) in Verbindung gebracht. (Abbildung und Legende von Redn. in modifizierter (übersetzter) Form eingefügt aus You, R. et al (2022) [3] Lizenz: cc-by.)

Zahlreiche Schadstoffe, die mit der Nahrung aufgenommen werden, treffen im Darm auf eine Gemeinschaft Hunderter verschiedener Arten von Mikroorganismen. Wenn dieses „Mikrobiom“ gestört wird, kann dies die „Entsorgung“ beeinträchtigen und den Weitertransport der Schadstoffe ins Blut und dann ins Gehirn verstärken. Und ausgerechnet die westliche Ernährungsweise derangiert die Flora der 38 Billionen Winzlinge im Darm empfindlich. Morgens Croissant und Weißbrot mit Schinken, abends Pizza und Chips lässt die Vielfalt im Darm schrumpfen und macht ihn schlimmstenfalls durchlässig. Vom „leaky gut“, dem durchlässigen Darm, sprechen Forschende.

Schadstoffe im Gehirn sorgen für Entzündungen und Stress

Feste Partikel wie Blei erinnern das Immunsystem des Gehirns, die Mikroglia, an eingedrungene Bakterien. t„Sie werden aktiviert, können den Partikel aber weder „töten“ noch abtransportieren. Sie wissen nicht, was sie tun sollen und kämpfen weiter und weiter. Es kommt zur chronischen Entzündung, die sehr schädlich ist“, veranschaulicht der Neurowissenschaftler Stephen Bondy von der University of California in Irvine. Noch dazu können gerade Metalle wie Aluminium und Kupfer die Fehlfaltung von Proteinen katalysieren. An ihrer Oberfläche entstehen auch reaktive Sauerstoffspezies, die umliegende Zellen attackieren.

Viele Fachleute vermuten auch, dass Schadstoffe dem Gehirn indirekt schaden, indem sie Herz und Kreislauf schwächen. Bekanntlich zieht die Feinstaubbelastung der Luft Schlaganfälle, Herzinfarkte und Gefäßschädigungen nach sich. Und wenn in der Folge Organe schlechter mit Blut und Nährstoffen versorgt werden, leiden auch diese. Guilia Grande, die Neurobiologin am Karolinska Institut, glaubt die Herz-Kreislaufgesundheit sei der entscheidende Mittler, weshalb schlechtere Luft mehr Demenzen nach sich zieht.

Die Effekte von Schadstoffen auf das Gehirn merkt man erst einmal nicht, gibt Bondy zu bedenken. „Wir müssen nicht husten und nach Luft schnappen. Aber sie sind irreversibel und heimtückisch.“ Vor diesem Hintergrund kann er nur raten, viel hinaus an die frische Luft zu gehen. Das mag erstaunen, fahren doch genau dort die Autos, die Feinstaub produzieren. Aber drinnen ist die Luft noch einmal um Größenordnungen schlechter, weil aus zahllosen Konsumgütern Schadstoffe ausdünsten.


 [1]. Calderón-Garcidueñas, L. et al.: Air pollution, cognitive deficits and brain abnormalities: a pilot study with children and dogs. Brain and Cognition, 2008, 68. https://pubmed.ncbi.nlm.nih.gov/18550243/

[2]. Wu, J. et al., Air pollution as a risk factor for Cognitive Impairment no Dementia (CIND) and its progression to dementia: A longitudinal study. Environment International 160 (2022) 107067. https://doi.org/10.1016/j.envint.2021.107067

[3]. You, R. et al.: The pathogenic effects of particulate matter on neurodegeneration: a review. Journal of Biomedical Science, 2022, 29 (25),https://pubmed.ncbi.nlm.nih.gov/35189880/

----------------------------------------------------

Zum Weiterlesen

Oudin, A. et al.: Association between air pollution from residential wood burning and dementia incidence in a longitudinal study in Northern Sweden. PLoS ONE, 2018, 13(6) https://pubmed.ncbi.nlm.nih.gov/29897947/

Smargiassi, A. et al.: Exposure to ambient air pollutants and the onset of dementia in Quebec Canada. Environmental Research, 2020, 190 (109870) ( zum Abstract: https://pubmed.ncbi.nlm.nih.gov/32739624/ )

Lanphear, B.: The Impact of Toxins on the Developing Brain. Annual Reviews of Public Health 2015, 36 (211–30) ( zum Abstract: https://pubmed.ncbi.nlm.nih.gov/25581143/ )


*Der Artikel ist erstmals am 2.Mai 2023 unter dem Titel "Dauerstress für die Grauen Zellen" auf der Website https://www.dasgehirn.info/ erschienen https://www.dasgehirn.info/krankheiten/eindringlinge/dauerstress-fuer-die-grauen-zellen . Der unter einer CC-BY-NC-SA Lizenz stehende Text wurde unverändert in den Blog gestellt, eine Abbildung aus der im Text zitierten Arbeit von You et al., (2022) [3] wurde von der Redaktion in modifizierter Form eingefügt.

Die Webseite https://www.dasgehirn.info/ ist eine exzellente Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


Artikel im ScienceBlog:

Inge Schuster, 25.09.2019: Pflanzen entfernen Luftschadstoffe in Innenräumen

IIASA, 18.05.2017: Überschreitungen von Diesel-Emissionen — Auswirkungen auf die globale Gesundheit und Umwelt

IIASA, 25.09.2015: Verringerung kurzlebiger Schadstoffe – davon profitieren Luftqualität und Klima

Johannes Kaiser & Angelika Heil, 31.07.2015: Feuer und Rauch: mit Satellitenaugen beobachtet

Inge Schuster, 12.12.2014: Was macht HCB so gefährlich?


 

inge Thu, 13.07.2023 - 12:43

Der Global Migration Data Explorer - ein neues Instrument zur Visualisierung globaler Migrationsströme

Der Global Migration Data Explorer - ein neues Instrument zur Visualisierung globaler Migrationsströme

Do, 06.07.2023— IIASA

IIASAIcon Politik & Gesellschaft Wie viele Menschen sind in den letzten 30 Jahren in ein Land eingewandert, von wo sind sie gekommen und wie viele haben das Land verlassen und wohin sind sie gezogen?  Mit dem Global Migration Data Explorer haben IASA-Forscher ein neues Instrument entwickelt, das den Mangel an Daten über globale Migrationsströme beheben und eine visuelle Methode zur Erforschung der weltweiten Migrationsmuster bereitstellen soll.*

Der Global Migration Data Explorer [1] baut auf dem Erfolg seines Vorgängers [2] auf. Er inkludiert nun Schätzungen aus Zeiträumen bis 2020, die auf weiterentwickelten Schätzmethoden beruhen, und erweitert den Anwendungsbereich, um verschiedene Messungen von Migration und Aufschlüsselungen der Migrationsmuster nach Geschlecht einzubeziehen.

Die Website wurde von Guy Abel, einem Wissenschafter in der Forschungsgruppe Migration and Sustainable Development des IIASA- Population and Just Societies Program und der Universität Shanghai, und Xavier Bolló, einem Spezialisten für Datenvisualisierung, entwickelt. Es bietet den Nutzern eine einzigartige Möglichkeit, sich mit der komplexen Dynamik der globalen Migration zu beschäftigen. Die Webseite stellt sechs verschiedene Schätzmethoden vor, die Forscher nutzen können, um Einblicke in die Migrationsströme zu gewinnen. Solche Methoden der Abschätzung sind unentbehrlich, da es kaum verlässliche Daten über internationale Migrationsströme gibt, und dies die Messung von Mustern und Trends in den globalen Migrationsströmen erschwert.

"Die internationale Migration wird zu einer immer wichtigeren Komponente des Bevölkerungswachstums und zu einer Triebkraft des sozioökonomischen Wandels", erklärt Abel. "Gute Daten über die internationale Migration sind entscheidend, um migrationsbezogene Komponenten der internationalen Entwicklungsagenda und Vereinbarungen wie die Ziele für nachhaltige Entwicklung und den Globalen Pakt für sichere, geordnete und reguläre Migration zu überwachen . Diese Website füllt eine entscheidende Lücke, indem sie Schätzungen der Migrationsströme bereitstellt, welche für Forscher, die sich mit Migrationssystemen, Demografie, Klimawandel und Epidemiologie beschäftigen, von unschätzbarem Wert sind."

Die frei zugängliche Website [2] bietet eine intuitive und interaktive Plattform, die es jedermann möglich macht globale Migrationsmuster zu untersuchen. Der von Bolló entwickelte Code für die Darstellung der Daten ist auf GitHub verfügbar, was Transparenz und weiterführende Zusammenarbeit fördert. Die Nutzer können auf die Daten, die den Visualisierungen zugrunde liegen, zugreifen, und diese sind über die Website frei zugänglich. Ein Beispiel (von der Redaktion eingefügt) zeigt die globalen Migrationsströme der letzten 30 Jahre. Abbildung 1. Mit einem Klick auf eine bestimmte Erdregion - beispielsweise Europa - wird das dortige Ausmaß der Migration - woher kommen die Migranten und wohin gehen sie - in Zeiträumen von 5 Jahren /oder insgesamt in den letzten 30 Jahren angezeigt.

Abbildung 1. Der Global Migration Data Explorer. Links: Migrationsströme im Zeitraum 1990 bis 2020; nach Europa sind rund 68,9 Millionen Menschen eingewandert und rund 31,1 Millionen abgewandert. Rechts: im Zeitraum 2015 bis 2020 sind rund 15 Millionen Migranten nach Europa gekommen und 8,6 Millionen sind abgewandert. Ein Klick auf Europa (oder andere Gegenden) zeigt die einzelnen Staaten und deren Migrationsmuster in den verschiedenen Zeiträumen (nicht dargestellt). https://global-migration.iiasa.ac.at/index.html (Bild von Redn. eingefügt.).

In das Tool fließen die UN-Schätzungen der im Ausland geborenen Bevölkerung ein - diese gelten als zuverlässigste Datenquelle für die globale Migration. Während die UN-Daten eine Momentaufnahme der Migrantenbevölkerung zu einem bestimmten Zeitpunkt darstellen, bieten die Schätzungen der Migrationsströme eine zeitliche Messung der Migration; dies macht sie für Forscher, die die Ursachen und Folgen der Migration untersuchen, wichtiger. (Beispiel: Migration von und nach Europa von Redn. eingefügt: Abbildung 2.)

Abbildung 2. Migration von und nach Europa im Zeitraum von 1990 bis 2020. Diagramm mit den Daten aus dem Global Migration Data Explorer (https://global-migration.iiasa.ac.at/ von Redn. erstellt.

Das Team plant das Visualisierungstool zu erweitern, um die Binnenmigration in verschiedenen Ländern, wie z. B. China, zu erfassen. Darüber hinaus will man zusätzliche Visualisierungen einführen, einschließlich einer kartenbasierten Methode, um die Benutzererfahrung zu verbessern und ein tieferes Verständnis der Migrationsmuster zu ermöglichen.

"Wir hoffen, dass dieses Visualisierungstool von der Öffentlichkeit genutzt wird, um zu einem besseren Verständnis von Migrationsmustern und relativen Ausmaßen der Migration in und aus einem bestimmten Land zu gelangen", sagt Anne Goujon, IIASA Population and Just Societies Program Director. "Besonders erfreulich ist es, wenn man hört, dass Lehrer ihr Interesse bekundet haben, die Website für den Unterricht ihrer Schüler zu nutzen; dies unterstreicht den Bedarf an aktuellen Daten und die Anwendbarkeit des Tools über den akademischen Bereich hinaus".

Zwei wichtige Veröffentlichungen unterstützen die Visualisierungs- und Schätzungsmethoden der Website. Ein 2019 im Fachjournal Nature veröffentlichter Artikel vergleicht die sechs wichtigsten Schätzmethoden, die für die Schätzung der globalen Migration vorgeschlagen wurden [3]. Außerdem wird eine Reihe von Validierungstests vorgestellt, mit denen die Genauigkeit dieser Schätzungen durch den Vergleich mit gemeldeten Migrationsdaten (dies vor allem aus wohlhabenden westlichen Ländern) bewertet wird. Darüber hinaus konzentriert sich eine neuere Veröffentlichung auf die Erstellung von Schätzungen der globalen Migrationsströme nach Geschlecht und weitet die Validierungsübungen auf geschlechtsspezifische Daten aus [4].


[1] Guy J. Abel & Xavier Bolló: Global Migration Data Explorer. Explore changes in global migrant flow patterns over the past 30 years. . https://global-migration.iiasa.ac.at/stocks.html

[2] The global flow of people. Explore new estimates of migration flows between and within regions for five-year periods, 1990 to 2010. Click on a region to discover flows country-by-country. http://download.gsb.bund.de/BIB/global_flow/

[3] Abel, G.J., Cohen, J.E. Bilateral international migration flow estimates for 200 countries. Sci Data 6, 82 (2019). https://doi.org/10.1038/s41597-019-0089-3

[4] Abel, G.J., Cohen, J.E. Bilateral international migration flow estimates updated and refined by sex. Sci Data 9, 173 (2022). https://doi.org/10.1038/s41597-022-01271-z


*Der Blogartikel basiert auf der IIASA-Presseaussendung “ New IIASA online tool to visualize global migration patterns“ vom 5. Juli 2023. Diese wurde von der Redaktion aus dem Englischen übersetzt, geringfügig für den Blog adaptiert und mit Texten und Abbildungen aus der Webseite https://global-migration.iiasa.ac.at/ (oder aus deren Daten zusammengestellt) versehen. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.


Artikel im ScienceBlog


 

inge Thu, 06.07.2023 - 18:04

Fundamentales Kohlenstoffmolekül vom JW-Weltraumteleskop im Orion-Nebel entdeckt

Fundamentales Kohlenstoffmolekül vom JW-Weltraumteleskop im Orion-Nebel entdeckt

Do, 29.06.2023 — Redaktion

Redaktion

Icon Astronomie

Die Kohlenstoffchemie ist für die Astronomen von zentralem Interesse, da alles bekannte Leben auf Kohlenstoff basiert. Ein internationales Forscherteam hat nun mit Hilfe des James Webb Weltraumteleskops zum ersten Mal ein als Methylkation (CH3+) bekanntes Molekül in der protoplanetaren Scheibe um einen jungen Stern nachgewiesen. Dieses einfache Molekül hat eine einzigartige Eigenschaft: Es reagiert relativ ineffizient mit Wasserstoff, dem am häufigsten vorkommenden Element in unserem Universum, aber leicht mit anderen Molekülen und initiiert so das Wachstum komplexerer Moleküle auf Kohlenstoffbasis. Die entscheidende Rolle von CH3+ in der interstellaren Kohlenstoffchemie wurde bereits in den 1970er Jahren vorhergesagt, aber die einzigartigen Fähigkeiten von Webb haben es endlich möglich gemacht, es zu beobachten - in einer Region des Weltraums, in der sich möglicherweise Planeten bilden könnten, die Leben beherbergen.* 

Das Methylkation

Kohlenstoffverbindungen bilden die Grundlage allen bekannten Lebens und sind daher von besonderem Interesse für Wissenschaftler, die verstehen wollen, wie sich das Leben auf der Erde entwickelt hat und wie es sich möglicherweise anderswo in unserem Universum entwickeln könnte. Die interstellare organische (d.i. Kohlenstoff-basierte) Chemie ist daher ein Gebiet, das für Astronomen, die Orte untersuchen, an denen sich neue Sterne und Planeten bilden, besonders faszinierend ist. Kohlenstoffhaltige Molekülionen (d.i. Moleküle mit positiver oder negativer elektrischer Ladung) sind von besonderer Bedeutung, da sie mit anderen kleinen Molekülen reagieren und selbst bei niedrigen interstellaren Temperaturen komplexere organische Verbindungen bilden. Ein solches kohlenstoffhaltiges Ion ist das Methylkation (CH3+). Abbildung 1.

Abbildung 1. Das Methylkation. Das positiv geladene Ion reagiert kaum mit Wasserstoff, dem am häufigsten vorkommenden Molekül im Universum, dagegen effizient mit einer Vielzahl anderer Moleküle. CH3+ wird als seit langem als wichtiger Baustein der interstellaren organischen Chemie betrachtet. (Bild von Redn. eingefügt.).

Bereits seit den 1970er Jahren postulieren Wissenschaftler die außerordentliche Wichtigkeit von CH3+, da dieses Ion mit einer Vielzahl anderer Moleküle reagiert. Dieses kleine Kation ist so bedeutsam, dass es als Eckpfeiler der interstellaren organischen Chemie gilt; bislang konnte es allerdings noch nie nachgewiesen werden.

Das James-Webb-Weltraumteleskop mit seinen einzigartigen Eigenschaften bot sich als ideales Instrument an, um nach diesem wesentlichen Kation zu suchen - und tatsächlich konnte es eine Gruppe internationaler Wissenschaftler mit Webb zum ersten Mal beobachten. Marie-Aline Martin von der Universität Paris-Saclay, Frankreich, eine Spektroskopikerin und Mitglied des Wissenschaftsteams, erklärt: "Dieser Nachweis von CH3+ bestätigt nicht nur die unglaubliche Empfindlichkeit von James Webb, sondern auch die postulierte zentrale Bedeutung von CH3+ in der interstellaren Chemie."

CH3+-Signal in protoplanetarer Scheibe entdeckt

Das CH3+-Signal wurde in dem als d203-506 bekannten System aus Stern und protoplanetarer Scheibe (d.i. eine rotierende Scheibe aus Gas und Staub, die sich um junge Sterne bildet und aus der sich schließlich Planeten bilden können) entdeckt, das sich in etwa 1350 Lichtjahren Entfernung im Orionnebel befindet. Abbildung 2. Der Stern in d203-506 ist zwar ein kleiner roter Zwerg mit einer Masse von nur etwa einem Zehntel der Sonnenmasse, doch das System wird von starker ultravioletter Strahlung benachbarter heißer, junger und massereicher Sterne bombardiert. Wissenschaftler gehen davon aus, dass die meisten protoplanetaren Scheiben, aus denen sich Planeten bilden, eine Periode solch intensiver ultravioletter Strahlung durchlaufen, da Sterne dazu neigen, sich in Gruppen zu bilden, die oft massereiche, ultraviolett-produzierende Sterne umfassen. Faszinierenderweise deuten Hinweise aus Meteoriten darauf hin, dass die protoplanetare Scheibe, aus der sich unser Sonnensystem bildete, ebenfalls einer enormen Menge an ultravioletter Strahlung ausgesetzt war - ausgesandt von einem stellaren Begleiter unserer Sonne, der schon lange gestorben ist (massereiche Sterne brennen hell und sterben viel schneller als weniger massereiche Sterne). Der verwirrende Faktor bei all dem ist, dass ultraviolette Strahlung lange Zeit als rein zerstörerisch für die Bildung komplexer organischer Moleküle angesehen wurde - und doch gibt es eindeutige Beweise dafür, dass der einzige uns bekannte lebensfreundliche Planet aus einer Scheibe entstanden ist, die dieser Strahlung stark ausgesetzt war.

Abbildung 2 Die Webb-Bilder zeigen einen Teil des Orionnebels, der als Orion-Balken bekannt ist. Links: Aufnahme mit dem Webb-NIRCam-Instrument (Nahinfrarotkamera). Rechts oben: Teleskop mit dem Webb-MIRI (Mid-Infrared Instrument) ist auf den angezeigten kleineren Bereich fokussiert. Im Zentrum des MIRI-Bereichs befindet sich ein junges Sternsystem mit einer protoplanetaren Scheibe namens d203-506. Rechts unten: Der Ausschnitt zeigt ein kombiniertes NIRCam- und MIRI-Bild dieses jungen Systems. (Credits: ESA/Webb, NASA, CSA, M. Zamani (ESA/Webb), und das PDRs4All ERS-Team.)

Das Team, das diese Forschung durchgeführt hat, könnte die Lösung für dieses Rätsel gefunden haben. Ihre Arbeit sagt voraus, dass das Vorhandensein von CH3+ tatsächlich mit ultravioletter Strahlung zusammenhängt, welche die notwendige Energiequelle für die Bildung von CH3+ darstellt. Außerdem scheint die Dauer der ultravioletten Strahlung, der bestimmte Scheiben ausgesetzt sind, einen tiefgreifenden Einfluss auf deren Chemie zu haben. So zeigen Webb-Beobachtungen von protoplanetaren Scheiben, die keiner intensiven ultravioletten Strahlung aus einer nahe gelegenen Quelle ausgesetzt sind, eine große Menge an Wasser - im Gegensatz zu d203-506, wo das Team überhaupt kein Wasser nachweisen konnte. Der Hauptautor Olivier Berné von der Universität Toulouse, Frankreich, erklärt: "Dies zeigt deutlich, dass ultraviolette Strahlung die Chemie einer proto-planetaren Scheibe völlig verändern kann. Sie könnte tatsächlich eine entscheidende Rolle in den frühen chemischen Stadien der Entstehung von Leben spielen, indem sie dazu beiträgt, CH3+ zu produzieren - etwas, das bisher vielleicht unterschätzt wurde." 

Obwohl bereits in den 1970er Jahren veröffentlichte Forschungsergebnisse die Bedeutung von CH3+ vorhersagten, war es bisher praktisch unmöglich, das Molekül nachzuweisen. Viele Moleküle in protoplanetaren Scheiben werden mit Radioteleskopen beobachtet. Damit dies möglich ist, müssen die betreffenden Moleküle jedoch ein so genanntes "permanentes Dipolmoment" besitzen, d. h. die Geometrie des Moleküls muss so beschaffen sein, dass seine elektrische Ladung nicht ausgeglichen ist, das Molekül also ein positives und ein negatives "Ende" hat. Da CH3+ symmetrisch ist, ist seine Ladung ausgeglichen und hat somit kein permanentes Dipolmoment, das für Beobachtungen mit Radioteleskopen erforderlich ist. Theoretisch ist es möglich, die von CH3+ emittierten spektroskopischen Linien im Infrarotbereichzu beobachten, aber die Erdatmosphäre macht es praktisch unmöglich, diese von der Erde aus zu beobachten. Daher musste ein ausreichend empfindliches Weltraumteleskop eingesetzt werden, das Signale im Infraroten beobachten kann. Die Instrumente MIRI und NIRSpec von Webb waren für diese Aufgabe wie geschaffen. Tatsächlich war der Nachweis von CH3+ zuvor sehr schwierig und als das Team das Signal zum ersten Mal in seinen Daten entdeckte, war es nicht sicher, wie es zu identifizieren sei. Gestützt auf die Hilfe eines internationalen Teams mit einem breiten Spektrum an Fachwissen waren die Forscher aber in der Lage ihre Ergebnisse innerhalb von vier kurzen Wochen zu interpretieren.

Die Entdeckung von CH3+ war nur durch die Zusammenarbeit von beobachtenden Astronomen, astrochemischen Modellierern, Theoretikern und experimentellen Spektroskopikern möglich, welche die einzigartigen Möglichkeiten von JWST im Weltraum mit denen von Labors auf der Erde kombinierten, um die Zusammensetzung und Evolution unseres lokalen Universums erfolgreich zu untersuchen und zu interpretieren. Marie-Aline Martin fügt hinzu: "Unsere Entdeckung war nur möglich, weil sich Astronomen, Modellierer und Laborspektroskopiker zusammengetan haben, um die von James Webb beobachteten einzigartigen Merkmale zu verstehen."


 *Der vorliegende Artikel ist unter dem Titel " Webb makes first detection of crucial carbon molecule in a planet-forming disc" am 26.Juni 2023 auf der Webseite der ESA erschienen:https://esawebb.org/news/weic2315/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch die Strukturformel des Methylkations ergänzt.

ESA Webb Bilder, Texte und Videos stehen unter einer cc-by 4.0 Lizenz.

Webb ist eine internationale Partnerschaft zwischen der NASA, der ESA und der kanadischen Weltraumbehörde (CSA).

Webb ist das größte und leistungsstärkste Teleskop, das jemals ins All gebracht wurde. Im Rahmen eines internationalen Kooperationsabkommens stellte die ESA den Startdienst für das Teleskop mit der Trägerrakete Ariane 5 bereit. In Zusammenarbeit mit ihren Partnern war die ESA für die Entwicklung und Qualifizierung der Ariane-5-Anpassungen für die Webb-Mission sowie für die Beschaffung des Startservices durch Arianespace verantwortlich. Die ESA stellte auch den Arbeitsspektrographen NIRSpec und 50 % des Instruments für das mittlere Infrarot (MIRI) zur Verfügung, das von einem Konsortium aus national finanzierten europäischen Instituten (dem MIRI European Consortium) in Zusammenarbeit mit dem JPL und der Universität von Arizona entwickelt und gebaut wurde.


Weiterführende Links

 ESA: Pan of the Orion Bar region. Video 0:30 min. https://esawebb.org/videos/weic2315a/

NASA: Webb Makes First Detection of Crucial Carbon Molecule. https://www.nasa.gov/feature/goddard/2023/webb-makes-first-detection-of-crucial-carbon-molecule

ESA: BR-348/DE: Webb – Weiter sehen https://esamultimedia.esa.int/multimedia/publications/BR-348/BR-348_DE.pdf ESA: Webb - Seeing farther.https://www.esa.int/Science_Exploration/Space_Science/Webb

ScienceBlog: Redaktion, 14.07.2022: James-Webb-Teleskop: erste atemberaubende Bilder in die Tiefe des Weltraums


 

inge Thu, 29.06.2023 - 18:04

Gibt es Leben auf dem Saturnmond Enceladus?

Gibt es Leben auf dem Saturnmond Enceladus?

Do, 22.06.2023 — Redaktion

Redaktion

Icon Astronomie

Der kleine Saturnmond Enceladus birgt einen Ozean unter seiner dicken Eishülle. Auf seiner Umlaufbahn um den Saturn sendet er Sprühnebel aus eisigen Partikel aus; diese bilden den E-Ring des Saturns. Auf ihrer von 2004 bis 2017 dauernden Saturnmission flog die US-Raumsonde "Cassini" mehrfach durch die Fontänen hindurch und sammelte mit dem "Cosmic Dust Analyzer" Eispartikel ein. In diesen Partikeln wurden zunächst auf Kohlenstoff basierende Moleküle mit den Elementen Wasserstoff, Stickstoff, Sauerstoff und Schwefel nachgewiesen. Nun haben Wissenschafter in einer neuen Analyse Phosphor - den sechsten und letzten essentiellen Bestandteil des Lebens -nachgewiesen -; es ist der bisher stärkste Hinweis darauf, dass der Ozean von Enceladus bewohnbar ist.*

Nur wenige Welten in unserem Sonnensystem sind so faszinierend wie Enceladus, der eisige Ozeanmond des Saturn. Bilder der Voyager-Raumsonde aus den 1980er Jahren zeigten, dass dieser Mond zwar klein ist - er hat einen Durchmesser von nur etwa 500 Kilometern -, aber seine eisige Oberfläche ist an einigen Stellen bemerkenswert glatt und überall strahlend weiß. In der Tat ist Enceladus der am stärksten reflektierende Körper im Sonnensystem.

Der Mond stößt Sprühnebel aus eisigen Partikeln aus, die sich im Raum um seine Umlaufbahn ausbreiten und den E-Ring des Saturns bilden. Diese Sprühnebel treten in der Nähe seines Südpols aus vier großen, als "Tigerstreifen" bezeichneten Rissen in der kilometerdicken Eishülle aus und lassen warmes Salzwasser, Gase und Mineralien mit 1.300 Kilometern pro Stunde durch die Oberfläche ins All schießen. Abbildung1.

Abbildung 1. Der kleine Saturnmond Enceladus. A) Enceladus, kurz nachdem 2008 die NASA-Raumsonde Cassini bis auf 25 Kilometer an seine Oberfläche herangekommen war. B) Südliche Ansicht von Enceladus mit Darstellung des Inneren, das einen globalen Ozean aus flüssigem Wasser zwischen dem felsigen Kern und der Eiskruste zeigt. Laut Messungen befindet sich unter der südlichen Polarregion in einer Tiefe von etwa 10 Kilometern ein großes Meer, das von einer 30 bis 40 Kilometer dicken Eiskruste umgeben ist. Dieser unterirdische Ozean dürfte die beeindruckenden Sprühnebel speisen, die aus tiefen Spalten ("Tigerstreifen") auf der Mondoberfläche spritzen.(Die Dicke der hier gezeigten Schichten ist nicht maßstabsgetreu.) Bildnachweis: NASA/JPL/Space Science Institute, NASA/JPL-Caltech.

https://solarsystem.nasa.gov/moons/saturn-moons/enceladus/in-depth

Frühere Studien hatten bereits Anzeichen für fünf der für das Leben auf der Erde notwendigen Elemente - Kohlenstoff, Wasserstoff, Stickstoff, Sauerstoff und Schwefel - im Material aus dem Enceladus-Ozean entdeckt. In einer am Mittwoch in der Fachzeitschrift Nature [1] veröffentlichten Arbeit wurde nun Phosphor zu dieser Liste hinzugefügt. Das Vorhandensein dieses Elements gilt als die "strengste Voraussetzung für die Bewohnbarkeit", schreiben die Autoren in der Studie.

"Dies war im Grunde der letzte Puzzleteil, der nötig war, um den Ozean von Enceladus endlich als zweifelsfrei bewohnbar zu betrachten", erklärt Frank Postberg, Mitautor der Studie und Planetenforscher an der Freien Universität Berlin [2].

Die Entdeckung macht Enceladus "zum vielversprechendsten Ort, zur am niedrigsten hängenden Frucht in unserem Sonnensystem, um nach außerirdischem Leben zu suchen", äußert Carolyn Porco, eine Planetenforscherin, die nicht an der Studie beteiligt war, gegenüber Charles Q. Choi von National Geographic [3].

Phosphor ist ein wesentlicher Bestandteil des Lebens auf der Erde. Er ist nach Kalzium das am zweithäufigsten vorkommende Mineral im menschlichen Körper und spielt eine Schlüsselrolle bei der Bildung von Knochen, Zähnen, Zellmembranen und der DNA. Das Element ist Bestandteil von etwa 550 verschiedenen Mineralien auf der Erde und das zwölfthäufigste Element in der Erdkruste.

Bis jetzt hatten Astronomen noch nie Phosphor im Ozean einer anderen Welt detektiert, heißt es in der neuen Studie [1]. Von den sechs lebenswichtigen Elementen ist Phosphor "das bei weitem am wenigsten häufige im Universum", so Postberg gegenüber National Geographic [3].

Die Wissenschaftler konnten die neue Entdeckung dank der Daten der Raumsonde Cassini machen, die 13 Jahre lang den Saturn und seine Monde erforschte. Die Mission endete 2017 mit dem Eintauchen in die Atmosphäre des Saturns.

Mit den Informationen, die Cassini sammelte, stellte sich schnell heraus, dass Enceladus ein faszinierendes Studienobjekt war. Der Mond ist von einer eisigen Kruste bedeckt, wobei der globale Ozean zwischen dieser äußeren Schicht und dem felsigen Kern eingebettet ist. Eruptionen auf Enceladus schießen Fahnen aus Eiskörnern und Gas durch Risse in seiner Kruste ins All. Diese ausgestoßenen Materialien bilden den E-Ring des Saturns; durch die Untersuchung dieses Rings sollte man also mehr über das Innere des riesigen Ozeans erfahren könnte. Abbildung 2.

Abbildung 1. Am 28. Oktober 2015 hat Die Cassini Raumsonde der NASA den tiefsten Tauchgang durch die Fontänen von Enceladus gemacht. Bildnachweis: NASA Jet Propulsion Laboratory: Deep Dive into Enceladus Plume (screenshot)

https://www.youtube.com/watch?v=BZ1KowQXc3Y&t=11s

Die Forscher untersuchten die Cassini-Daten von 345 Eiskörnern aus dem E-Ring und wiesen in neun von ihnen Phosphate nach - chemische Verbindungen, die Phosphor enthalten. Sie fanden heraus, dass die Phosphorkonzentration im Ozean von Enceladus 100 Mal höher sein dürfte als in den Ozeanen der Erde.

Manasvi Lingam, Physiker am Florida Institute of Technology, hatte 2018 eine Arbeit veröffentlicht, in der er auf der Grundlage von Modellierungen argumentierte, dass Ozeane wie der von Enceladus weniger Phosphor als die der Erde enthalten würden. Lingam, der nicht an der neuen Studie beteiligt war, äußerte nun dazu, dass die Entdeckung "die Ergebnisse meines früheren Modells umstößt" [4].

Dennoch war sich das Team nicht sicher, wie Enceladus überhaupt zu solch großen Mengen an Phosphaten gekommen war. Also führten sie einige Laborexperimente durch, die darauf hindeuteten, dass der Ozean des Mondes viele gelöste Karbonate - wie Soda - enthält. Der sogenannte Soda-Ozean kann phosphathaltiges Gestein auflösen, was zu den hohen Phosphatkonzentrationen im Wasser führt, so Katrina Miller von der New York Times [5].

"Es würde niemanden überraschen, wenn es Phosphat im Gestein von Enceladus gäbe. Es gibt Phosphate auf Kometen ... das ist nichts Besonderes", so Postberg gegenüber Space.com. [4] "Das Besondere ist, dass es im Ozean gelöst und damit für die potenzielle Entstehung von Leben leicht verfügbar ist."

Die Ergebnisse deuten auch darauf hin, dass Ozeane auf ähnlichen Welten, wie beispielsweise dem Jupitermond Europa, ebenfalls Phosphor enthalten könnten, schreibt National Geographic [3]. Die Frage ist nun, ob dieser bewohnbare Ozean tatsächlich Leben enthält.

"Wir wissen noch nicht, ob dieser sehr bewohnbare Ort tatsächlich bewohnt ist", so Postberg gegenüber der New York Times. "Aber es lohnt sich auf jeden Fall, danach zu suchen."


 [1] Postberg, F., Sekine, Y., Klenner, F. et al. Detection of phosphates originating from Enceladus’s ocean. Nature 618, 489–493 (2023). https://doi.org/10.1038/s41586-023-05987-9

[2] Becky Ferreira: Saturn’s Moon Enceladus Is Habitable, Confirms Breakthrough Study (14.06.2023). https://www.vice.com/en/article/5d99qz/saturns-moon-enceladus-is-habitable-confirms-breakthrough-study

[3] Charles Q. Choi: Discovery shows Saturn's moon has everything needed for life. (14.06.2023) https://www.nationalgeographic.com/premium/article/astronomers-detect-key-element-for-life-on-saturns-moon-enceladus?loggedin=true&rnd=1686797290637

[4] Sharmila Kuthunur: Saturn's moon Enceladus has all the ingredients for life in its icy oceans. But is life there? https://www.space.com/saturn-moon-enceladus-phosphorus-found

[5]Katrina Miller: A "Soda Ocean" on a moon of Saturn has all the ingredients of Life. https://www.nytimes.com/2023/06/14/science/enceladus-phosphorus-life.html


*Der vorliegende Artikel von Will Sullivan ist am 16. Juni 2023 unter dem Titel "Scientists Find Phosphorus—a Key Element for Life—on a Saturn Moon" https://www.smithsonianmag.com/smart-news/scientists-find-phosphorus-a-key-element-for-life-on-a-saturn-moon-180982385/  Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch zwei Abbildungen und einen kurzen Text von der NASA-Seite https://solarsystem.nasa.gov/moons/saturn-moons/enceladus/in-depth ergänzt.

Smithsonian Institution (Smithsonian, https://www.si.edu/) ist eine bedeutende US-amerikanische Forschungs- und Bildungseinrichtung, die auch zahlreiche Museen, Galerien und den Nationalzoo betreibt. Das Smithsonian stellt seine komplette Sammlung nach und nach in elektronischer Form (2D und teilweise 3D) unter der freien CC-0-Lizenz kostenlos zur Weiterverbreitung zur Verfügung. Das Smithsonian Magazine (aus dem der obige Artikel stammt) bringt eine Fülle faszinierender, leicht verständlicher Artikelaus allen Bereichen der Natur und der Gesellschaften. https://www.smithsonianmag.com/?utm_source=siedu&utm_medium=referral&utm_campaign=home.


 

 

 

inge Thu, 22.06.2023 - 12:52

Mikroorganismen spielen eine entscheidende Rolle bei der Kohlenstoffspeicherung in Böden

Mikroorganismen spielen eine entscheidende Rolle bei der Kohlenstoffspeicherung in Böden

Sa, 17.06.2023— Redaktion

Redaktion

Icon Geowissenschaften Böden können mehr organischen Kohlenstoff - d.i. Kohlenstoff in Form organischer Verbindungen - speichern als andere terrestrische Ökosysteme. Sie gelten daher als entscheidende Kohlenstoffsenken im Kampf gegen den Klimawandel. Eine bahnbrechende Studie zeigt nun, dass Mikroorganismen die entscheidende Rolle bei der Kohlenstoffspeicherung in Böden spielen. Die Ergebnisse der Studie haben Auswirkungen auf die Verbesserung der Bodengesundheit und die Eindämmung des Klimawandel.

Schon seit mehr als hundert Jahren haben sich Studien mit dem Kohlenstoff-Kreislauf im Boden befasst, wobei es hauptsächlich darum ging zu quantifizieren, wie viel organischer Kohlenstoff aus Laubstreu und den Pflanzenwurzeln in den Boden eingebracht und wie viel davon zersetzt und in Form von CO2 aus dem Boden an die Luft abgegeben wird. Wie viel an organischem Kohlenstoff dem Boden zugeführt wird, ist durch die pflanzliche Primärproduktion bestimmt, wie viel an organischem Material im Boden zersetzt wird - hauptsächlich durch Mikroorganismen - ist für die Geschwindigkeit der Freisetzung von CO2 und damit für die Treibhausgas-Konzentration ausschlaggebend.

Mikroorganismen und Kohlenstoffspeicherung

Dass Mikroorganismen bei der Bildung, Erhaltung und Zersetzung von organischem Kohlenstoff im Boden (soil organic carbon - SOC) eine sehr wichtige Rolle spielen, ist seit langem bekannt, und es wurden bereits enorme Anstrengungen unternommen, um Menge, Abbaubarkeit und Abbaugeschwindigkeit externer Kohlenstoffquellen in Böden zu verfolgen. Diese Untersuchungen haben bislang aber nicht zu einer hinreichend verbesserten Quantifizierbarkeit der Speicherung von SOC geführt. Wesentliche Fragen - welche Faktoren das Gleichgewicht zwischen Kohlenstoffspeicherung im Boden und Zersetzung von SOC mit schlussendlicher Abgabe von CO2 an die Luft beeinflussen, und wie mit dem Klimawandel zusammenhängende Faktoren sich auf die Mikroorganismen und ihre Funktion im Boden auswirken - blieben noch unbeantwortet. Die Rolle der Mikroorganismen wird bis jetzt mehr oder weniger in qualitativer Weise betrachtet, wie dies etwa in einem Übersichtsartikel im Jahr 2020 [1] veranschaulicht wird. Abbildung 1.

Abbildung 1. . Mikroorganismen im Kohlenstoffzyklus des Bodens. CO2 aus der Atmosphäre wird von Pflanzen (oder autotrophen Mikroorganismen) durch Photosynthese eingebaut und gelangt 1) in Form von einfachen organischen Verbindungen über Wurzelausscheidungen und in Form komplexer organischer Verbindungen über Blatt- und Wurzelstreu in den Boden. 2) Die organischen Verbindungen werden in der "Fabrik" der Mikroorganismen für Wachstum und Stoffwechsel genutzt und entweder 3) als CO2 in die Atmosphäre abgeatmet oder 4) in Form von teilweise zersetztem Material/Metaboliten und mikrobieller Nekromasse gespeichert. (Bild aus Dan Naylor et al., (2020) [1]; von Redn. mit deutscher Beschriftung versehen. Lizenz: cc-by.)

Entscheidender Faktor bei der Kohlenstoffspeicherung

Ein aus mehr als 30 Forschern bestehendes internationales Team hat kürzlich im Fachjournal Nature eine bahnbrechende Studie veröffentlicht: Mittels eines neuartigen Ansatzes wurde erstmals versucht die Vorgänge zu quantifizieren, welche die Dynamik des organischen Kohlenstoffs - Speicherung und Zersetzung - im Boden bestimmen. Wie sich herausstellte, ist die Effizienz der mikrobiellen Kohlenstoffnutzung (carbon use efficiency - CUE) der ausschlaggebende Faktor für die Relation zwischen Speicherung und Zersetzung. CUE ist dabei eine Messgröße, die anzeigt wie viel Biomasse aus dem aufgenommenen Substrat produziert wird:

CUE = produzierte Biomasse/aufgenommenes Substrat

CUE gibt an, wie viel aus den aufgenommenen organischen Verbindungen für das mikrobielle Wachstum und damit für den in Zellen und in abgestorbener Biomasse (Nekromasse) gespeicherten organischen Kohlenstoff verwendet wird und wie viel im Stoffwechsel der Zellen abgebaut wird und schlussendlich als CO2 in die Atmosphäre entweicht. Ein hoher CUE-Wert kann dabei für verstärktes mikrobielles Wachstum stehen, das zur Akkumulation von organischem Kohlenstoff im Boden führt, aber auch einen Anstieg in der Produktion von Enzymen bedeuten, die organisches Material zersetzen und damit einen Verlust von SOC mit sich bringen. Abbildung 2.

Abbildung 2. Wie wirkt sich eine hohe mikrobielle Effizienz der Kohlenstoffnutzung (CUE) auf die Speicherung von organischem Kohlenstoff im Boden (SOC) aus? Alternative a) Wachstum begünstigt durch erhöhte mikrobielle Biomasse, Nekromasse und Nebenprodukte die Speicherung von SOC. Alternative b) Erhöhte mikrobielle Biomasse kann über anschließende Enzymproduktion den Abbau von SOC fördern. (Bild aus Tao F. et al. (2023) [2], Lizenz: cc-by). )

Um herauszufinden, ob sich nun die Kohlenstoffnutzungseffizienz positiv oder negativ auf die Speicherung von SOC auswirkt, haben die Forscher die Relation zwischen CUE und SOC in umfassender Weise untersucht und auch welchen Einfluss die Wechselwirkungen mit Klima, Vegetation und Boden-Eigenschaften (edaphische Faktoren) darauf haben. Dazu haben sie eine Kombination aus Datensätzen auf globaler Ebene (Metaanalysen von global verteilten vertikalen Kohlenstoff-Bodenprofilen aus 173 Ländern) herangezogen, ein spezifisches mikrobielles Modell für Kohlenstoffprozesse im Boden entwickelt, das mit 57,267 Bodenkohlenstoffdaten kombiniert wurde und Deep Learning und Meta-Analysen eingesetzt.

Die Ergebnisse der Untersuchungen zeigen global eine positive Korrelation zwischen der mikrobiellen Kohlenstoffnutzungseffizienz und der Speicherung von organischem Kohlenstoff im Boden (Abbildung 3). Mehr organischer Kohlenstoff wird also für das mikrobielle Wachstum verwendet als für seinen Verlust in Zersetzungsprozessen, für die Frage wie viel organischer Kohlenstoff im Boden gespeichert wird, ist also das Wachstum der Mikroorganismen ausschlaggebender, als deren Stoffwechsel.

Abbildung 3. Eine Erhöhung der mikrobiellen Effizienz der Kohlenstoffnutzung (CUE) ist mit einer erhöhten Speicherung von organischem Kohlenstoff im Boden (SOC) verbunden. a) Die aus der Metaanalyse von 132 Messungen resultierende CUE-SOC Relation. b) Ergebnisse aus der Assimilierung aller verfügbarer Kohlenstoff-Bodenprofile (n = 57,267) an das Mikroorganismen-Modell. Beispiel für ein Bodentiefe von 0 - 30 cm. Niedrigere mittlere Jahrestemperaturen (MAT) sind mit höheren Speicherungen verbunden. (Bild: Ausschnitt aus Tao F. et al. (2023) [2], Lizenz: cc-by)

Wie die Studie zeigt, sind die mikrobiellen Prozesse entscheidend für die Speicherung von SOC. Wesentlich erscheint auch, dass die Kohlenstoffnutzungseffizienz in höheren Breitegraden (niedrigeren mittleren Jahrestemperaturen) höher ist, als in den wärmeren Zonen niedrigerer Breitegrade. Ein deep-learning Ansatz hat schließlich globale Muster von organischem Kohlenstoff im Boden in Abhängigkeit von sieben wesentlichen Prozessen im Kohlenstoff-Zyklus erzeugt: Daraus geht hervor, dass der Einfluss der mikrobiellen Kohlenstoffnutzungseffizienz auf die globale Speicherung und Verteilung von Kohlenstoff im Boden mindestens viermal stärker als der Einfluss anderer biologischer Faktoren oder Umweltbedingungen ist.

Schlussfolgerungen

Die neuen Erkenntnisse stehen am Anfang weiterer Studien zu einem besseren Verständnis der mikrobiellen Prozesse, die der Effizienz der Kohlenstoffnutzung zugrunde liegen. Untersuchungen mit unterschiedlichen Mikrobiomen, Substraten und landwirtschaftlichen Bewirtschaftungsmethoden können in einer verbesserten Kohlenstoffspeicherung und Bodengesundheit resultieren und bei der Vorhersage von SOC-Rückkopplungen als Reaktion auf den Klimawandel helfen.


 [1] Dan Naylor et al.: Soil Microbiomes Under Climate Change and Implications for Carbon Cycling. Annu. Rev. Environ. Resour. 2020. 45:29–59. doi:10.1146/annurev-environ-012320-08272

[2] Tao, F., Huang, Y., Hungate, B.A. et al. Microbial carbon use efficiency promotes global soil carbon storage. Nature (2023). https://doi.org/10.1038/s41586-023-06042-3


Artikel zu verwandten Themen im ScienceBlog


 

inge Sat, 17.06.2023 - 17:47

Erste topische Gentherapie zur Behandlung der Schmetterlingskrankheit (dystrophe Epidermolysis bullosa) wurde in den USA zugelassen

Erste topische Gentherapie zur Behandlung der Schmetterlingskrankheit (dystrophe Epidermolysis bullosa) wurde in den USA zugelassen

Do, 08.06.2023 — Ricki Lewis

Ricki Lewis

Icon Medizin

Epidermolysis bullosa (EB) - volkstümlich als Schmetterlingskrankheit bezeichnet - wird durch Mutationen in Strukturproteinen der Haut ausgelöst und ist durch eine extrem verletzliche Haut charakterisiert. Vor 6 Jahren hat Eva Maria Murauer (EB-Haus, Salzburg) im ScienceBlog über eine Fallstudie berichtet, in der eine große, chronische Wunde am Bein mittels Gentherapie normalisiert werden konnte [1]. Vor wenigen Wochen hat nun die FDA mit Vyjuvek eine erste Gentherapie zur Behandlung der schweren dystrophischen Epidermolysis bullosa (DEB) in den USA zugelassen. Diese Gentherapie hat lange auf sich warten lassen, aber sie unterscheidet sich von einer Handvoll anderer zugelassener Gentherapien: Sie ist nicht nach einmaliger Anwendung abgetan. Die Genetikerin Ricki Lewis berichtet darüber.*

Mein nun schon zehn Jahre altes Buch "The Forever Fix: Gene Therapy and the Boy who Saved It" (Gentherapie und der Junge, der sie rettete) hat die Geschichten von Kindern erzählt, die einmalig anwendbare funktionsfähige Genkopien erhalten hatten, um ihre Mutationen zu kompensieren. Die ersten Gentherapien haben Menschen mit einer vererbten Form der Netzhautblindheit zum Sehen und Kindern mit schweren Immundefekten zum Überleben verholfen. Heute sprechen mehrere durch Einzelgen-Mutationen verursachte Blut-, Gehirn-, Muskel- und Stoffwechselkrankheiten auf einmalige Infusionen einer Gentherapie an.

Die Biologie, die hinter einer Einzelgen-Erkrankung steht, gibt Aufschluss darüber, wie eine bestimmte Gentherapie zielgerichtet, angewandt und die Wirkung aufrechterhalten werden kann. Im Vergleich zu "Slash-and-Burn"-Technologien wie Standard-Chemotherapie und Bestrahlung, die nicht nur die Zielzellen betreffen, ist eine Gentherapie sowohl rational als auch maßgeschneidert.

Bei der Netzhautblindheit werden die Gene in die nährende Zellschicht unter den Stäbchen und Zapfen injiziert, welche die elektrischen, ein visuelles Bild vermittelnde Signale an das Gehirn weiterleiten. Da sich die Zellen dieser Schicht normalerweise nicht teilen, bleiben die verabreichten Gene an Ort und Stelle, unterhalten die Stäbchen und Zapfen und bewahren das Sehvermögen, das andernfalls verloren gehen würde.

Einige andere Gentherapien verfolgen einen umgekehrten Ansatz; sie werden in Stammzellen eingebracht, sodass sie sich bei der Zellteilung ausbreiten können.

Für die Haut stellt die Gentherapie eine ganz andere Herausforderung dar, weil die Zellen in der Regel so häufig ersetzt werden - es liegt in der Natur des Organs, sich permanent zu erneuern. Die Anwendung einer Gentherapie ist also das Gegenteil von einmal und fertig; sie muss viel häufiger erfolgen.

Topische und redosierbare Gentherapie

Am 19. Mai hat die FDA Vyjuvek, eine Gentherapie für DEB, zugelassen. In der Ankündigung des Erzeugers Krystal Biotech wird sie als "die erste redosierbare Gentherapie" bezeichnet.

Die Ursache für DEB ist eine Mutation im Kollagen-Gen COL7A1, das eine der beiden Hauptkomponenten des Bindegewebes darstellt. In gesunder Haut fügen sich Kollagenproteine zu Fibrillen zusammen, die die Epidermis mit der darunter liegenden Dermis verbinden, ähnlich wie Mozzarella-Käse die Schichten einer Lasagne verankert. Ohne COL7A1-Kollagen lösen sich die Hautschichten ab, und es entstehen schmerzhafte und beeinträchtigende Blasen und Wunden. Täglich.

Betroffene Kinder mit einer rezessiven Form - RDEB - werden manchmal als "Schmetterlingskinder" bezeichnet, weil ihre Haut so zart ist, wie die zerbrechlichen Flügel eines Insekts. Doch dieses Bild hat keine Ähnlichkeit mit der Realität der Extremitäten, die durch ständige Blasenbildung, Schälen, Blutungen und Narbenbildung unbrauchbar werden. Abbildung 1.

Abbildung 1. Ein Schmetterlingskind. (Bild: Yovanna.Gonzalez, commons.wikimedia.org, Lizenz: cc-by-sa)

Bei der geringsten Berührung bilden sich sofort schmerzhafte Blasen, und die Haut schält sich ab. Das Entfernen von Verbänden ist eine Qual, die täglich und ein Leben lang durchgeführt werden muss. Die Krankheit kann zu Sehkraftverlust, Entstellung und anderen Komplikationen führen, von denen einige tödlich sind.

RDEB wird von zwei Trägereltern vererbt. Eine dominante Form - DDEB - ist weniger gravierend, verursacht Blasenbildung an Händen, Füßen, Knien und Ellenbogen.

DEB ist seit 2002 ein Kandidat für eine Gentherapie. In einem Bericht aus dem Jahr 2018 habe ich die Geschichte der Bemühungen nachgezeichnet [2].

Patienten als ihre eigenen Kontrollpersonen

Die eben zugelassene Gentherapie liefert funktionierende Kopien des COL7A1-Kollagengens; Vektoren sind Herpes-Simplex-Viren, die so optimiert sind, dass sie sich nur in den betroffenen Hautzellen vermehren. Ein Arzt trägt einmal pro Woche Tropfen des Vyjuvek-Gels auf die Wunden eines Patienten auf.

Es wurden zwei klinische Studien durchgeführt und die Ergebnisse im Dezember 2022 veröffentlicht. In einer Phase 3-Studie, die im New England Journal of Medicine veröffentlicht wurde, wurden 30 Personen im Alter von 1 bis 44 Jahren, die an RDEB leiden und eine an DDEB leidende Person untersucht [3]. Bei jedem Teilnehmer wurden zwei Wunden ähnlicher Größe ausgewählt, von denen eine wöchentlich mit der Gentherapie und die andere mit einem Placebo behandelt wurde. Nach 24 Wochen wurden die Wunden miteinander verglichen. Von den mit Vyjuvek behandelten Wunden hatten sich 65 % vollständig geschlossen, verglichen mit nur 26 % der mit Placebo behandelten Wunden. Vorhergehende Ergebnisse aus Phase 1/Phase 2-Studien sind in Nature Medicine veröffentlicht worden [4]. Abbildung 2.

Abbildung 2. Die Behandlung mit Vyjuvek führt zur Heilung der Hautwunden. Links: Nach 3 Monaten hat sich der Großteil der Wunden vollständig geschlossen (repräsentative Fotos der Wunden w1 und w3 von Patient 10). Rechts: Histologische Analyse der Hautproben (von Patient 10) zeigt bereits nach 15 Tagen Behandlung die Expression von funktionellem Kollagen 7-Protein, welches Epidermis mit Dermis verknüpft (weiße Pfeile markieren die Grenze Epidermis/Dermis). Mit seiner Domäne NC1 (links, rot gefärbt) verankert Kollagen 7 die Fibrillen in der Basalmembran, mit der Domäne NC2 (rechts grün gefärbt) fördert es den Zusammenbau der Fibrillen. Blau gefärbt sind die Zellkerne. (Bild von Redaktion eingefügt; es sind Ausschnitte aus der oben zitierten Arbeit von Irina Gurevich et al., 2022 [4]. Lizenz cc-by).

Studienleiter M. Peter Marinkovich, MD, Direktor der Blistering Disease Clinic am Stanford Health Care, bezeichnet DEB als eine verheerende Krankheit. "Bis jetzt hatten Ärzte und Krankenschwestern keine Möglichkeit, die Entstehung von Blasen und Wunden auf der Haut von dystrophischen EB-Patienten zu verhindern, und alles, was wir tun konnten, war, ihnen Verbände zu geben und hilflos zuzusehen, wie sich neue Blasen bildeten. Die topische Gentherapie von Vyjuvek ändert all dies. Sie heilt nicht nur die Wunden der Patienten, sondern verhindert auch eine erneute Blasenbildung, weil sie den zugrunde liegenden Hautdefekt der dystrophen EB korrigiert. Da sie sicher und einfach direkt auf die Wunden aufzutragen ist, erfordert sie nicht viel unterstützende Technologie oder spezielles Fachwissen; dies macht Vyjuvek auch für Patienten, die weit entfernt von spezialisierten Zentren leben, besonders zugänglich."


[1] Eva Maria Murauer, 02.03.2017: Gentherapie - Hoffnung bei Schmetterlingskrankheit. https://scienceblog.at/gentherapie-hoffnung-bei-schmetterlingskrankheit

[2] Ricki Lewis, 08.02.2018: Gene Therapy for the “Butterfly Children”https://dnascience.plos.org/2018/02/08/gene-therapy-for-the-butterfly-children/

[3] Shireen V. Guide et al., Trial of Beremagene Geperpavec (B-VEC) for Dystrophic Epidermolysis Bullosa. 15.12. 2022. N Engl J Med 2022; 387:2211-2219. DOI: 10.1056/NEJMoa2206663

[4] Irina Gurevich et al., In vivo topical gene therapy for recessive dystrophic epidermolysis bullosa: a phase 1 and 2 trial. Nat Med 28, 780–788 (2022).https://doi.org/10.1038/s41591-022-01737-y. open access.


*Der Artikel ist erstmals am 1. Juni 2023 in PLOS Blogs - DNA Science Blog unter dem Titel "Topical Gene Therapy FDA-Approved for Severe Skin Disease, Dystrophic Epidermolysis Bullosa" https://dnascience.plos.org/2023/06/01/topical-gene-therapy-fda-approved-for-severe-skin-disease-dystrophic-epidermolysis-bullosa/  erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt. Der leicht gekürzte Artikel folgt so genau wie möglich der englischen Fassung. Abbildung 2 wurde von der Redaktion aus der zugrundeliegenden klinischen Studie [4] eingefügt.


Anmerkung der Redaktion

DEB is eine sehr seltene Erkrankung, Schätzungen zur weltweiten Inzidenz gehen von etwa 100 000 Fällen aus (https://www.eb-researchnetwork.org/research/what-is-eb/).

Nach Mitteilung des Herstellers Krystal Biotech werden sich die Kosten von Vyjuvek auf 24 250 $/ Ampulle belaufen, die geschätzten jährlichen Behandlungskosten auf rund 631 000 $. Damit kommt Vyjuvek zwar in die Liste der weltweit 10 teuersten Medikamente, allerdings beläuft sich auch die bislang allein palliative Behandlung auf jährlich 200 000 bis 400 000 $ (https://ir.krystalbio.com/static-files/e6f347b3-0c14-43d9-b7d3-c9a274267294).


 

inge Thu, 08.06.2023 - 18:02

Prionen - wenn fehlgefaltete Proteine neurodegenerative Erkrankungen auslösen

Prionen - wenn fehlgefaltete Proteine neurodegenerative Erkrankungen auslösen

Do, 01.06.2023— Michael Simm

Michael SimmIcon Gehirn

Für eine Handvoll besonderer Proteine scheinen die Regeln der Biologie nicht zu gelten. Prionen sind infektiöse Proteine, deren Übertragung auch ohne Beteiligung von Erbsubstanz eine Reihe von Krankheiten auszulösen vermag. Dies geschieht nach Art einer Kettenreaktion, bei der die falsch gefalteten krankmachende Prionen ihr natürliches Gegenstück, das zelluläre Prionprotein, umfalten. So entstehen Aggregate und Nervenzellen sterben ab. Wie sie den Rinderwahn verursachen und auf Menschen überspringen konnten, ist eine gruselige Geschichte über die der deutsche Biologe und Wissenschaftsjournalist Michael Simm hier berichtet.*

Wäre Stanley Prusiner einige hundert Jahre früher geboren, hätte man ihn womöglich als Ketzer verbrannt. Oder zumindest aus der Gemeinschaft der Gläubigen ausgestoßen. Denn der Virologe an der Universität Kalifornien in San Francisco und Berkeley hatte an dem Glaubensbekenntnis seiner Zunft gerührt. Das „Zentrale Dogma der Molekularbiologie“ stammt aus dem Jahr 1958 und wurde von keinem geringeren als Francis Crick formuliert, einem Mitbegründer der modernen Biologie und eher unbescheidenen Genie. Dieses Dogma besagt, dass Informationen in biologischen Systemen stets von der Erbsubstanz DNA zum Botenstoff RNA fließen und schließlich in Proteine umgesetzt werden. Die Vorstellung, dass ein Protein genügen könnte, um eine Krankheit zu übertragen, war damit eigentlich unvereinbar. Doch genau dies hatte Prusiner behauptet. Oder zumindest hatte er diese Hypothese weiter verfolgt und ausgebaut. Denn genau genommen, kam die Idee vom infektiösen Protein bereits in den 1960er Jahren auf.

Im Zentrum seines Interesses standen zunächst Schafe, Studienobjekte, die an Scrapie (von engl. „kratzen“) verendet waren. Seit dem 18. Jahrhundert war diese tödliche Tierseuche mit ihren Gang- und Verhaltensstörungen in Europa bekannt, und auch das von Hohlräumen durchlöcherte Gehirn der Tiere war immer wieder beschrieben worden.

Mit Gewebeproben und Blut ließ sich das Leiden im Labor von kranken auf gesunde Schafe übertragen. Auch auf Ziegen, Nerze, Ratten und Mäuse. Ähnliches war US-Forschern bereits 1972 gelungen, als sie infektiöses Material aus dem Gehirn von Schafen, zunächst auf Mäuse und dann vom Mäusegehirn auf Javaneraffen (Macaca fascicularis) übertragen hatten – ein frühes Schlüsselexperiment, auch wenn die Autoren der Studie davon ausgingen, dass ein Virus hinter der Erkrankung steckte. Abbildung 1.

Abbildung 1. Vereinfachte Darstellung der Prion-Exposition von Schafen (rote Pfeile) und der Übertragung unter den Tieren (blaue Pfeile) . Bild von Redaktion modifiziert eingefügt (Quelle: Neil A. Mabbott: How do PrPSc Prions Spread between Host Species, and within Hosts? www.mdpi.com/journal/pathogens. Lizenz: cc-by)

Dieser Verdacht bestätigte sich jedoch nicht. Der Erreger war ungewöhnlich widerstandsfähig, schlüpfte auch noch durch die engmaschigsten Filter und überdauerte verschiedenste Methoden zur Inaktivierung von Nukleinsäuren. Gab man hingegen eiweißspaltende Enzyme (Proteasen) hinzu, so verloren die Gewebeproben zumindest teilweise ihre Infektiosität. 1982 hatte Prusiner genug Beweise gesammelt. Er veröffentlichte seine Entdeckung in der Fachzeitschrift „Science“ unter der Überschrift: „Novel proteinaceous infectious particles cause scrapie“ – „Neue proteinartige infektiöse Partikel verursachen Scrapie“. Die mysteriösen Erreger nannte Prusiner „Prion“, abgeleitet vom englischen „proteinaceous infectious particles“ (proteinartige infektiöse Partikel).

Nobelpreis für einen Außenseiter

Etwa zehn weitere Jahre verbrachte der wissenschaftliche Außenseiter darauf, seine Prionenhypothese gegen die Zweifel und die Angriffe vieler forschender Kollegen zu verteidigen. Doch er sollte recht behalten und wurde – auch als Anerkennung für sein Durchhaltevermögen – 1997 mit dem Nobelpreis für Physiologie oder Medizin geehrt. Heute weiß man: Der Bauplan von Prion-Proteinen ist zwar genauso in einer Reihenfolge von DNA-Bausteinen festgeschrieben wie bei „normalen“ Proteinen. Der Weg von der DNA über die RNA zum Protein ist also durchaus, dem Dogma entsprechend, gegeben. Allerdings kann das im Genom kodierte Prionprotein (PrP) eine alternative Konformation, also eine alternative dreidimensionale Faltung, annehmen, mit weiteren Prionproteinen verklumpen und seine falsche Struktur dann wiederum normalen Prionproteinen aufzwingen. In seltenen Fällen und oftmals über lange Zeiträume hinweg kann dies zu einer über viele Jahre unbemerkten fatalen Kettenreaktion führen. Abbildung 2.

Abbildung 2. Der Übergang von der nativen Konformation des zellulären Prionproteins (PrPc) in eine pathologische Isoform, die als "Prionprotein-Scrapie" (PrPsc) bezeichnet wird, kann mehrere Prion-assoziierte neurodegenerative Erkrankungen auslösen. Bild von Redaktion in modifizierter Form eingefügt aus Yuhai Zhao et al., Molecules 2022, 27(16), 5123; https://doi.org/10.3390/molecules27165123; Lizenz cc-by)

All dies wäre womöglich nur eine Randnotiz in der Veterinärmedizin geblieben, hätte man nicht eine ganze Reihe weiterer Krankheiten entdeckt, die Scrapie ähneln und auch Menschen betreffen können. Das Interesse des Humanmediziners Prusiner wurde nach eigenen Angaben geweckt, als ein Patient mit der seltenen Creutzfeldt-Jakob-Erkrankung (CJD) in seiner Obhut verstorben war. Typisch für diese bis heute unheilbare Krankheit sind Bewegungsstörungen, Gedächtnisverlust und Verwirrtheit, sowie ein schneller Verlauf, der in der Regel nach vier Monaten bis zwei Jahren tödlich endet.

Fasziniert war der Neurologe auch von Gerüchten über eine geheimnisvolle Krankheit namens Kuru, die unter einigen Urvölkern in der Ost-Hälfte Neuguineas (heute Papua-Neuguinea) kursierte, und dort bis etwa 1950 offenbar durch rituellen Kannibalismus verbreitet wurde. Die ersten Weißen, die 1933 ins Hochland vordrangen, trafen dort buchstäblich auf eine vergessene Welt. Die Menschen dort lebten noch in der Steinzeit, gehörten Dutzenden von Völkern an, die sich gegenseitig bekriegten und unterschiedliche Sprachen und Dialekte hatten.

Forscher unter Kannibalen

Dass Kannibalismus weit verbreitet war, bestätigen zahlreiche Berichte nicht nur von Missionaren, sondern auch von Anthropologen und der berühmten US-amerikanischen Ethnologin Margaret Mead . Nach einem Besuch des Ortes Timbunke am Fluss Sepik schrieb sie: „Der Fluss steht für Moskitos, Krokodile, Kannibalen und im Wasser treibende Leichen – und ich kann versichern, ich habe alles gesehen.“ Michael Rockefeller , Mitglied der bekannten US-Familie und Hobby-Ethnograf verschwand 1961 an der Südküste Neuguineas und wurde seinem Biographen zufolge von Angehörigen des Volkes des Asmat umgebracht.

Schließlich reiste auch Prusiner nach Neuguinea. Im Jahr 1982 traf er dort auf Carleton Gajdusek , einen Überflieger, der Physik, Chemie, Mathematik studiert, bei den Nobelpreisträgern Linus Pauling und Frank Burnet gelernt und schließlich in Harvard seinen Doktor der Medizin gemacht hatte. Gajdusek war dem Erreger von Kuru auf der Spur und hatte die Krankheit 1966 bereits auf Schimpansen übertragen. Zwei Jahre später gelang ihm das mit CJD, und 1972 mit Scrapie. Ebenso wie Prusiner hat auch Gajdusek den Medizin-Nobelpreis erhalten, allerdings bereits einige Jahre früher, im Jahr 1976. Die beiden Wissenschaftler haben sich laut Prusiners Erinnerungen nicht besonders gut vertragen. Sie waren wohl eher Konkurrenten, denn Kollegen, wie aus einem Rückblick hervorgeht , den Prusiner im Jahr 2008 veröffentlicht hat.

Kuru, eine Krankheit, die nach dem Ausbruch schnell zum Tod führte, hatte offenbar einiges mit CJD und Scrapie gemeinsam, wie Prusiner und andere Kollegen erkannten. Das Zittern und andere Bewegungsstörungen, der bei Kuru eine Demenz folgte, hatten beide Mediziner beobachtet. Für Gajdusek war die Krankheit jedoch der Parkinsonkrankheit ähnlich – für Prusiner nicht. Der wichtigste Streitpunkt aber war, dass Gadjusek nicht an Prusiners Prionen-Hypothese glaubte. Als Prusiner in einer Publikation über Kuru Gajdusek als Co-Autor nennen wollte, erlaubte Gadjusek dies erst, nachdem das Wörtchen „Prionen“ aus dem Artikel getilgt worden war.

Gajduseks machte, jenseits der Wissenschaft, in negativer Weise von sich reden: Von seinen Reisen in die Tropen hatte er – mit Einverständnis der Eltern – insgesamt 56 Kinder mitgebracht und bei sich zu Hause in einer Art Kommune erzogen. Als Vorwürfe von sexuellem Missbrauch laut wurden, bezeugte dies einer seiner „Schützlinge“, der mittlerweile studierte und im Alter von 14 Jahren mit Gadjusek zusammengelebt hatte. Der Forscher wurde daraufhin zu einem Jahr Gefängnis verurteilt, verlor seine Position als Leiter des Hirnlabors am Nationalen Schlaganfallinstitut (NINDS) und lebte nach Verbüßung seiner Strafe bis zum Tod in Paris, Amsterdam und Tromsö, was er nach eigenen Angaben bevorzugte, weil er dort in der ständigen Dunkelheit des Winters besser arbeiten konnte.

Heute werden Scrapie, Kuru und die übertragbare Variante der CJD (es gibt auch eine vererbte und eine spontan auftretende Form) aufgrund ihrer Pathologie als „Transmissible spongiforme Enzephalopathien“ (TSE) eingeordnet – zu Deutsch: „Übertragbare schwammartige Hirnleiden“. Auch der zusammenfassende Begriff „Prionenerkrankungen“ ist geläufig. Die wohl bekannteste aller TSE wurde erstmals 1984 in England nachgewiesen und als „Bovine spongiforme Enzephalopathie“ (BSE) benannt. Besser bekannt ist diese Tierkrankheit unter dem Namen Rinderwahn.

BSE entstammte einer gefährlichen Mixtur von unnatürlichen Praktiken der Fleischerzeugung sowie routinemäßigen Gesetzesverstößen und Vertuschungsversuchen, wie aus Zeugenbefragungen in einem offiziellen Untersuchungsausschuss hervorging. So hatte man Fleisch und Knochenmehl aus Schafskadavern quasi als „Kraftfutter“ an Rinder verfüttert. Bei der eigentlich vorgeschriebenen Sterilisation durch Hitze und Druck wurde geschlampt – oder gar zwecks Kostenoptimierung manipuliert, sodass Scrapie-Erreger aus infizierten Schafen überlebten, vom Magen der Rinder ins Nervensystem gelangten, sich an den neuen Wirt anpassten und die Rinder töteten. Fast 200.000 Tiere verendeten an BSE, und in der gesamten EU wurden fast vier Millionen Rinder gekeult.

Leichtsinn und Skrupellosigkeit am Rande der Apokalypse

Wenn Scrapie von Schafen auf Rinder übertragbar ist, besteht dann nicht auch die Gefahr einer Übertragung von BSE auf den Menschen? Die Befürchtung lag aus heutiger Sicht nahe. Dennoch gelangten verseuchte Hamburger, Würste und andere Fleischprodukte in die Mägen der Verbraucher in aller Welt. Gelatine aus Haut und Knochen wurde zu Pudding, Tortenbelag oder Gummibärchen verarbeitet. Und es dauerte 10 Jahre von den ersten Warnungen der Experten, bis die britische Regierung 1996 einräumte, dass da möglicherweise doch eine Verbindung bestehe zwischen dem Rinderwahn und einer neuen Variante der CJD, an der zu diesem Zeitpunkt bereits 10 Menschen gestorben waren. Nach aktuellem Stand sind es weltweit mehr als 200 Tote, davon die weitaus meisten in Großbritannien, knapp 30 in Frankreich, aber noch kein einziger Fall in Deutschland. Die Menschheit hat offenbar Glück gehabt. Wenn BSE ebenso leicht auf den Menschen übergesprungen wäre, wie viele Viren das tun, hätte es womöglich Millionen von Toten gegeben.

Viele Krankheiten – ein Mechanismus

Die durch Prionen von Rindern auf Menschen übertragene Form der CJD wird als vCJD (für „Variante“) gekennzeichnet. Und es gibt noch eine weitere Form, die iatrogene CJD (iCJD) mit einer eher kleinen Zahl von dokumentierten Fällen, bei denen die Krankheit durch medizinische Prozeduren wie die Verpflanzung von Hirnhäuten, Augenhornhaut oder der Gabe von Wachstumshormonpräparaten von Mensch zu Mensch übertragen wurde. Abbildung 3.

Alle bisher genannten Prionenkrankheiten verbreiten sich mittels Übertragung. Sie machen aber zusammen weniger als ein Prozent aller Fälle aus. Mit mehr als 85 Prozent ist die sporadische Creutzfeldt-Jakob-Krankheit unter den menschlichen Prionenerkrankungen am häufigsten, und für etwa zwei Todesfälle unter je 1 Millionen Einwohner pro Jahr verantwortlich. Der Rest – rund 15 Prozent – verteilt sich auf erbliche, also genetisch bedingte Prionenerkrankungen wie die familiäre Form der CJD, das Gerstmann-Sträussler-Scheinker (GSS)-Syndrom und die Fatale Familiäre Insomnie (FFI).

Abbildung 3. Modell der Proteinpolymerisierung für die Umwandlung von PrPC in PrPSc bei sporadischen, erblichen und erworbenen Prionenerkrankungen. Links im Bild: humanes Prion in Lösung (NMR-Struktur 1HJM, PDB DOI: https://doi.org/10.2210/pdb1HJM/pdbB). Bild in modifizierter Form von Redaktion eingefügt aus Hideyuki Hara & Suehiro Sahaguchi, Int. J. Mol. Sci. 2021, 22(22), 12439; https://doi.org/10.3390/ijms222212439; Lizenz cc-by)

Bei den erblichen Prionen-Erkrankungen ist die Reihenfolge der Bausteine in dem natürlichen Gen PRNP auf Chromosom 20 verändert. Inzwischen kennt man mehr als 60 Varianten davon. Ein Vergleich der Genome von über 16.000 Patienten mit rund 600.000 nicht Betroffenen in drei Datenbanken ergab, dass nur wenige Varianten unweigerlich zum Ausbruch der Krankheit führen, viele Varianten dagegen auch bei gesunden Menschen auftraten. Bei den letzteren Fällen müssen offenbar weitere ungünstige Umstände hinzukommen, wie möglicherweise Umweltgifte oder Vorbelastungen durch andere Krankheiten.

Zentral für das Verständnis der Prionenkrankheiten sind die Prionproteine selbst. Die krankhafte, falsch gefaltete und verklumpte Form wird als PrPSc bezeichnet – wobei das „Sc“ auf die Schafskrankheit Scrapie verweist –, und die normale, „gesunde“ Form als zelluläres PrPC . Gelangen einige wenige PrPSc in eine Umgebung voller PrPC so werden auch die „gesunden“ Moleküle umgeformt und die Kettenreaktion nimmt ihren Lauf. Die Konzentration von PrPSC im Hirn und Rückenmark steigt rapide an, und führt schließlich zum Tod von Nervenzellen.

Eine verwirrende Vielfalt von Funktionen

Zwar gibt es Dutzende von Forschungsarbeiten zur Funktion des Proteinproteins . Diese sind jedoch oftmals widersprüchlich oder nicht ausreichend, um das Absterben der Nervenzellen zu begreifen – geschweige denn zu verhindern. PrPC zum Beispiel ist, laut einer aktuellen Übersichtsarbeit , bei der neuronalen Entwicklung beteiligt, bei der Zelladhäsion, der Neuroprotektion, der Regulation zirkadianer Rhythmen, der Aufrechterhaltung der Ionenhomöostase usw. Zwar kennt man inzwischen recht genau die Reaktionswege beim Umfaltungsprozess. Und auch die dreidimensionalen Strukturen der beteiligten Eiweißfragmente und Zwischenprodukte sind zunehmend bekannt. Nachgewiesen ist zudem, dass PrPSc bei über die Nahrung erfolgter Übertragung – etwa beim Verzehr von BSE-kontaminiertem Rindfleisch – offenbar vom Magen her in das Nervensystem gelangt und sich dort auf der Membran von Nervenzellen festsetzt. Wie genau es von diesem Punkt aus weitergeht, ist jedoch ziemlich unklar.

Wer nun denkt, dass Stanley Prusiner nach dem Nobelpreis und der Bestätigung seiner Prionenhypothese zufrieden die Hände in den Schoss legt, der irrt. Nach seiner Auffassung könnten Prionen, oder vielmehr ein prionenartiger Mechanismus von sich ausbreitender Eiweißfehlfaltung im Gehirn auch bei anderen neurodegenerativen Erkrankungen am Werk sein. Sowohl bei der Alzheimer-Demenz als auch der Parkinson-Krankheit und bei Chorea Huntington spielen jeweils unterschiedliche Proteine eine Rolle (Aß, Tau, α-Synuklein und Huntingtin), deren Verhalten doch sehr an das von Prionen erinnere. Die Parallelen werden von vielen Forschern durchaus anerkannt. Zwar gibt es keine harten Daten, dass auch nur eine einzige dieser Krankheiten im herkömmlichen Sinne ansteckend sein könnte, doch lauter Widerspruch gegen Stanley Prusiner ist seltener geworden. Im „Harrison“, dem wichtigsten Lehrbuch der Medizin, verantwortet Prusiner das Kapitel über Prionenkrankheiten – eine Art Ritterschlag, die bezeugt, dass dem ehemaligen Außenseiter längst wissenschaftliche Anerkennung zuteilwird.


 *Der vorliegende Artikel ist auf der Webseite www.dasGehirn.info im Mai 2023 erschienen, in dessen Fokus "Eindringlinge - Attacke auf’s Gehirn!" stand:https://www.dasgehirn.info/krankheiten/eindringlinge/prionen-eiweisse-die-wahnsinnig-machen. Der Artikel steht unter einer cc-by-nc-nd Lizenz. Der Text wurde mit Ausnahme des Titels von der Redaktion unverändert verwendet; zur Visualisierung wurden 3 Abbildungen eingefügt.

dasGehirn ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


 Zum Weiterlesen

• Sigurdson CJ et al. Cellular and Molecular Mechanisms of Prion Disease. Annu Rev Pathol. 2019 Jan 24;14:497-516. doi: 10.1146/annurev-pathmechdis-012418-013109

• Prusiner SB, Miller BL. Prion Diseases. In: Jameson J, Fauci AS, Kasper DL, Hauser SL, Longo DL, Loscalzo J. eds. Harrison's Principles of Internal Medicine, 20e. McGraw Hill; 2018. (zum Buchkapitel)

----------------------------------------------------------------------

Catalyst University: Prions | Mechanism of Kuru & Relation to Creutzfeldt-Jakob Disease, Video 11:38 min. https://www.youtube.com/watch?v=Y1_V3oVbvxs


 

inge Thu, 01.06.2023 - 17:57

Homöopathie - Pseudomedizin im Vormarsch

Homöopathie - Pseudomedizin im Vormarsch

Fr 26.05.2023  — Inge Schuster

Inge Schuster Icon Medizin

Vor über 200 Jahren ist die Homöopathie entstanden basierend auf Prinzipien, die sowohl von der wissenschaftlichen Seite als auch von einer Evidenz-basierten Medizin her in höchstem Maße unplausibel sind. Auch, wenn es bis jetzt keine zweifelsfreien Nachweise für Wirksamkeit und Sicherheit gibt, sind weltweit Hunderte Millionen Menschen von der Heilkraft homöopathischer Mittel überzeugt.

Vor den Werbespots, die zur Primetime über den Bildschirm flimmern, gibt es kaum ein Entrinnen. Neben den - milde ausgedrückt - grenzwertigen Spots einer Möbelkette gibt es vor allem auch solche, die im Zuseher die Hoffnung erwecken sollen, dass er bislang erfolglos behandelte Beschwerden effizient und ohne schädliche Nebenwirkungen loswerden kann. Die in den kurzen, 10 - 20 Sekunden dauernden Spots beworbenen Mittel verheißen rasche Besserung diverser Leiden, die von Schlafstörungen über Arthrosen, Nervenschmerzen, Schwindel-Attacken bis hin zu Erektionsstörungen reichen.

Für einen Großteil dieser allabendlich gegebenen Heilsversprechen zeichnet ein am Westrand von München situiertes Unternehmen - die PharmaSGP (https://pharmasgp.com/) - verantwortlich. Das Unternehmen hat 2012 sein erstes Produkt - Deseo gegen sexuelle Schwäche - eingeführt und dank des aggressiven Marketings seines stetig wachsenden Portfolios einen erstaunlichen Aufstieg erlebt; bei den Produkten handelt sich hauptsächlich um Homöopathika, rezeptfreie Mittel wie Rubaxx, Restaxil, Taumea und Neradin. Seit 2020 ist das Werk börsennotiert, der Umsatz von rund 63 Millionen Euro im Jahr 2019 wird sich heuer auf 91 bis 96 Millionen Euro steigern. PharmaSGP rühmt sich "Unsere Arzneimittel basieren auf natürlichen pharmazeutischen Wirkstoffen mit dokumentierter Wirksamkeit und haben nahezu keine bekannten Nebenwirkungen."

Homöopathische Mittel liegen auch anderswo im Trend. Trotz fundierter negativer Kritik an diesen Mitteln, die weder eine rationale wissenschaftliche Basis noch zweifelsfreie Nachweise für Wirksamkeit und Sicherheit vorweisen können, (s.u.) vertrauen weltweit immer mehr Menschen auf solche Alternativen. Globale Schätzungen gehen von mehr als 300 Millionen Menschen aus - in westlichen Ländern jeder Zehnte -, die bereits solche Mittel konsumieren und die Tendenz ist stark steigend. Laut einem aktuellen Report wird der globale Markt für Homöopathika mit 10,7 Milliarden US-Dollar im Jahr 2021 beziffert und bis 2031 ein sehr starkes Wachstum (jährliche Wachstumsrate 18,1 %) auf 32,4 Milliarden Dollar prognostiziert. (https://www.transparencymarketresearch.com/homeopathy-product-market.html). Das ist allerdings nur ein Bruchteil des globalen Pharmaka-Markts: dieser liegt 2022 bei rund 1,5 Billionen US-Dollar; Prognosen für 2026 gehen von einer Steigerung auf rund 2,24 Billionen Dollar (jährliche Wachstumsrate 7,7 %) aus (https://www.transparencymarketresearch.com/homeopathy-product-market.html).

Prinzipien der Homöopathie ........

Ende des 18. Jahrhunderts hat Samuel Hahnemann, ein deutscher Arzt, der sich auch mit Chemie und Pharmazie beschäftigte, "ein neues Princip zur Auffindung der Heilkräfte der Arzneysubstanzen" entwickelt. In einer Zeit, in der man Schwerkranke durch Verabreichung hochgiftiger Stoffe (beispielsweise Quecksilber zur Behandlung der "Franzosenkrankheit" Syphilis), Aderlässe und Durchfälle noch mehr erschöpfte, versprach Hahnemann sanfte Behandlungsmethoden ohne schwere Nebenwirkungen. Angeblich auf einem Selbstversuch zur Anwendung von Chinarinde bei Malaria basierend hat er das zentrale Prinzip, „Ähnliches mit Ähnlichem“ zu heilen - similia similibus curentur - formuliert: eine Substanz, die am Menschen ein bestimmtes Symptom verursacht, kann demnach zur Behandlung einer dasselbe Symptom hervorrufenden Krankheit angewandt werden. Aus der Beobachtung der Symptome, die ein potenziertes (s.u.) Homöopathikum am gesunden Menschen hervorruft, wird auf seine Indikation geschlossen - also beispielsweise Verdünnungen des hochgiftigen gefleckten Schierlings (Conium maculatum), der Sokrates tötete, zur Behandlung von allmählich auftretenden Lähmungen.

Das zweite Prinzip besagt, dass Substanzen durch einen Prozess der seriellen Verdünnung in ihrer Wirkung gesteigert, potenziert werden. Ausgang des Potenzierens ist dabei die sogenannte Urtinktur, die durch Lagerung von Heilpflanzen, tierischen oder mineralischen Komponenten in einer Wasser-Ethanolmischung herausgelöst wird. Diese Urtinktur wird dann im Verhältnis 1:10 (D) oder 1:100 (C) mit Ethanol oder Ethanol/Wasser weiter und weiterverdünnt und nach einem genau vorgegebenem Ritual "verschüttelt". Nach 4 seriellen D-Verdünnungen (D4) ist vom Stoffgemisch der Urtinktur nur mehr ein Zehntausendstel vorhanden, nach 4 C-Verdünnungen ein Hundertmillionstel. Hahnemann war davon überzeugt, dass homöopathische Mittel umso stärker wirken, desto mehr sie potenziert werden. Er konnte damals, in der "Frühzeit" der Chemie, aber noch nicht wissen, dass in den besonders hohen Potenzen (größer als D12, C6) die Verdünnung bereits so groß ist, dass keine Moleküle der Urtinktur mehr nachweisbar sind.

Homöopathische Globuli und Dilutionen Bild: Wikipedia, gemeinfrei).

............im Lichte der heutigen Wissenschaften

Über 200 Jahre nach ihrer Entstehung und im Lichte der modernen Wissenschaften erscheinen Prinzipien und Vorgangsweisen der Homöopathie in höchstem Maße unplausibel, sowohl von der wissenschaftlichen Seite als auch von einer Evidenz-basierten Medizin her.

Dafür, dass ähnliche Symptome hervorrufende Substanzen kausal in den Krankheitsprozess eingreifen können, fehlt jegliche wissenschaftliche Grundlage. Dass die Wirksamkeit durch Verdünnen potenziert wird, steht in krassem Widerspruch zu physikalisch-chemischen Gesetzmäßigkeiten und den Dosis Wirkungsbeziehungen der Medizin. Es müssen schließlich genügend Moleküle vorhanden sein, um Reaktionen auszulösen, an Rezeptoren zu binden und Signale an das System senden zu können. Die Annahme von einigen Verfechtern der Homöopathie, dass durch Ausgangsstoff und Verdünnungsvorgänge die Struktur des wässrigen Lösungsmittels verändert und so die Wirksamkeit potenziert wird, ist nicht haltbar: die Wechselwirkungen zwischen den Lösungsmittelmolekülen erfolgen in weniger als Picosekunden, so rasch, dass hier keine "Gedächtnisstruktur" aufgebaut werden kann.

Ein wesentliches Problem ist zudem die Qualität der homöopathischen Heilmittel. Es handelt sich ja nicht um Reinsubstanzen mit definierter Struktur und Stabilität. Ob die Urtinkturen nun aus Pflanzen (ganzen Pflanzen, Blüten, Samen, Blättern, Wurzeln) oder tierischen Stoffen (z.B. aus Käfern, Insektengiften, Schlangengiften, etc.) hergestellt werden, so handelt es ich um Substanzgemische, die in Art und Quantität der einzelnen Komponenten stark schwanken. Eine für "konventionelle" Arzneistoffe unabdingbare Qualitätskontrolle, ist bei Homöopathika obsolet. In der EU ist nur wichtig, "dass Homöopathika nach den im Europäischen Arzneibuch oder nach einem in den offiziell gebräuchlichen Pharmakopöen der Mitgliedsstaaten der EU beschriebenen homöopathischen Zubereitungsverfahren hergestellt worden sind."

Traurig sieht es auch mit einem Nachweis der Wirksamkeit aus, wenn man eine Evidenz-basierte Medizin zugrunde legt:

Homöopathische Mittel werden nach anderen Kriterien zugelassen

als herkömmliche Arzneimittel. Um für die Zulassung eines neuen Arzneimittels einreichen zu können, müssen normalerweise dessen Wirksamkeit und Sicherheit in mehreren streng regulierten klinischen Studien am Patienten erwiesen sein. Der Nachweis erfolgt in sogenannten randomisierten Doppelblind-Studien, in denen eine statistisch ausreichend große Kontrollgruppe, die ein Placebo erhält, einer vergleichbar zusammengesetzten, mit dem zu prüfenden Therapeutikum (Verum) behandelten Gruppe gegenüber gestellt wird. Doppelblind bedeutet dabei, dass vor Versuchsende weder die Versuchsleiter noch die Teilnehmer wissen wer Placebo und wer die Prüfsubstanz bekommen hat.

Bei Homöopathika ist dies anders. Es besteht hier schon die Möglichkeit einer bloßen Registrierung, wenn das Mittel ohne Angabe eines Anwendungsgebietes in den Verkehr gebracht werden soll, oral oder äußerlich angewendet wird und die Urtinktur (der Ausgangsstoff) mindestens 10 000 fach (D4) verdünnt ist (dass ein derartiges Mittel von einem Anwender bezogen und nach Gutdünken dann für verschiedene Indikationen eingesetzt werden kann, steht auf einem anderen Blatt).

Die Zulassung homöopathischer Mittel erfolgt für eine in den eingereichten Unterlagen angegebene Indikation. Handelt es sich dabei um eine lebensbedrohende Erkrankung, so muss die Wirksamkeit in relevanten klinischen Studien nachgewiesen werden. Allerdings, wie das Deutsche Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) schreibt, wurde "bislang jedoch noch kein homöopathisches Arzneimittel durch das BfArM zugelassen, bei dem sich der Antragssteller auf eine Studie berufen hätte". https://www.bfarm.de/DE/Aktuelles/Schwerpunktthemen/Homoeopathische-Arzneimittel/_node.html).

Zum Nachweis der Wirksamkeit reicht ansonsten auch anderes "wissenschaftliches Erkenntnismaterial" (d.i. nach wissenschaftlichen Methoden aufbereitetes medizinisches Erfahrungsmaterial). Was darunter zu verstehen ist, ist sehr schwammig: Das BfArM nennt hier den Long-Term-Use (das Mittel muss seit 1978 auf dem Markt sein), Expertenurteile beispielsweise von der Kommission D des BfArM (deren Mitglieder allesamt aus der homöopathischen Ecke kommen), eine bewertete präparatbezogene Literaturübersicht zur Indikations-bezogenen Anwendung des Präparats und auch die homöopathische Arzneimittelprüfung (dabei werden Stoffe in Form von Ausgangsstoffen, Urtinkturen oder Verdünnungsgraden (Potenzen) gesunden Probanden verabreicht und diese berichten -subjektiv - mögliche Symptome). Neben dem wissenschaftlichen Erkenntnismaterial sind auch die medizinischen Erfahrungen zu berücksichtigen

Das Österreichische Bundesamt für Sicherheit im Gesundheitswesen (BASG) geht unisono mit dem deutschen BfArM und verweist auf die Experten der Kommission D. Es schreibt dazu: "Für eine Zulassung muss der Nachweis der spezifischen homöopathischen Wirksamkeit erbracht werden. Dies kann durch klinische Prüfungen oder durch allgemein anerkannte wissenschaftliche Literatur (z.B. Monographien der Kommission D des ehemaligen BGA in Deutschland) erbracht werden."

Dass die Beurteilung zur Zulassung neuer Homöopathika von einer aus Homöopathen bestehenden Kommission abhängt, erscheint zumindest fragwürdig.

Wie steht es nun um die Wirksamkeit homöopathischer Mittel?

Dazu Stellungnahmen von kompetenten Gremien:

Das Informationsnetzwerk Homöopathie

stellt fest: "Ein auf diesen Grundlagen aufbauendes Therapiesystem kann keine auf das eingesetzte Mittel zurückzuführende und über Placeboeffekte hinausgehende Wirksamkeit entfalten." Das Netzwerk ist eine unabhängige offene Arbeitsgruppe von über 60 Experten unterschiedlicher fachlicher Ausrichtung, Biografie und Weltanschauung, die es sich zum Ziel gesetzt haben, die Öffentlichkeit über die Homöopathie zu informieren und so den einseitig positiv überzeichneten Informationen der Anwender und Hersteller zutreffende Informationen entgegenzusetzen.https://netzwerk-homoeopathie.info/

Der unabhängige Online-Service "Medizin-Transparent",

ein Projekt von Cochrane Österreich an der Donau-Universität Krems hat zu den bislang durchgeführten Studien an Homöopathika recherchiert: es geht daraus deutlich hervor, dass in gut gemachten Studien die Homöopathie-Mittel nicht besser wirken als Wirkstoff-freie Scheinmedikamente (Placebos). Dies ist gut belegt u.a. für Asthma, Angsterkrankungen, Durchfall bei Kindern, Kopfschmerzen und Migräne, Erkältungskrankheiten oder etwa dem prämenstruellen Syndrom (PMS) bei Frauen. In vielen anderen Fällen liegen nur minderwertige , nicht nach strengen wissenschaftlichen Kriterien durchgeführte Studien vor. Insgesamt gibt es in bisherigen Studien keinen Hinweis, dass Homöopathie bei irgendeiner Krankheit oder Beschwerde besser helfen könnte als Placebo-Medikamente (https://medizin-transparent.at/streitthema-homoopathie/)

Was die die anfänglich von PharmaSGP gemachten Behauptungen "Unsere Arzneimittel basieren auf natürlichen pharmazeutischen Wirkstoffen mit dokumentierter Wirksamkeit und haben nahezu keine bekannten Nebenwirkungen." betrifft, so hat "Medizin-Transparent" auf Leser- Anfragen zu einigen dieser Behauptungen recherchiert, dazu Forschungs-Datenbanken durchsucht, um alle diesbezüglichen Studien dazu zu finden. Dazu zwei Beispiele

  • Taumea, das gegen Schwindel helfen soll, enthält einen Extrakt aus den Früchten der Scheinmyrte (Anamirta cocculus) in homöopathischen Dosierungen (D4). Aussagekräftige wissenschaftliche Belege zur Wirkung gibt es bislang nicht.
  • Neradin, ein Extrakt aus der Damiana-Pflanze (Turnera diffusa) wird als Mittel gegen Erektionsstörungen für den Mann beworben. Belegt ist diese behauptete Wirkung von Damiana auf die Potenz jedoch keineswegs. Denn an Menschen wurde sie bisher offenbar nie untersucht.

( Zur Wirksamkeit von Neradin gibt es übrigens einen niederschmetternde Bewertung von Kunden der Internet Apotheke shop-apotheke.at. Von insgesamt 104 Bewertungen haben nur 18 das Produkt als sehr gut befunden, 58 haben sich sehr negativ dazu geäußert.)

Eine neue internationale Studie

unter Leitung von G. Gartlehner hat sich mit den bis 2021 registrierten und publizierten klinischen Studien über Homöopathika befasst und einen besorgniserregenden Mangel an wissenschaftlichen und ethischen Standards auf dem Gebiet festgestellt. "Mehr als ein Drittel der registrierten Homöopathiestudien blieb unveröffentlicht, mehr als die Hälfte der veröffentlichten Studien war nicht registriert worden, und 25 % der primären Ergebnisse wurden verändert oder abgeändert." Die Schlussfolgerung der Forscher: "Homöopathieforscher dürften sich als Rosinenpicker betätigen. Studien mit den erhofften Ergebnissen werden veröffentlicht, um die Behauptungen über die Wirksamkeit der Homöopathie zu untermauern, während diejenigen, die weniger günstig ausfallen, bequem in einer Aktenschublade verschwinden. Fundierte Aussagen über die Wirksamkeit und die Risiken homöopathischer Mittel bleiben so unmöglich. Infolgedessen sind die Beweise für die Wirksamkeit der Homöopathie nach wie vor so dünn wie eine Prise Salz in einem riesigen Meer von Forschungsergebnissen schlechter Qualität." (Gartlehner G, et al., BMJ Evidence-Based Medicine 2022; 27:345–351. doi 10.1136/bmjebm-2021-111846)

Der Wissenschaftsbeirat der Europäischen Akademien (EASAC)

hat - basierend auf den neuesten Arbeiten seiner Mitgliedsakademien - eine Erklärung veröffentlicht, welche die Kritik an den gesundheitlichen und wissenschaftlichen Behauptungen über homöopathische Produkte verstärkt:

  • ad Wissenschaftliche Wirkmechanismen: "Wir kommen zu dem Schluss, dass die Behauptungen über Homöopathie unplausibel sind und nicht mit etablierten wissenschaftlichen Konzepten übereinstimmen".
  • ad Klinische Wirksamkeit: "Wir bestätigen, dass bei einzelnen Patienten ein Placebo-Effekt auftreten kann. Wir stimmen aber mit früheren umfassenden Bewertungen überein, dass es keine bekannten Krankheiten gibt, für die robuste, reproduzierbare Beweise vorliegen, dass Homöopathie über den Placeboeffekt hinaus wirksam ist. Damit verbunden sind Bedenken hinsichtlich der Informations-getragenen Einwilligung der Patienten und der Sicherheit, wobei letztere mit der schlechten Qualitätskontrolle bei der Herstellung von homöopathischen Arzneimitteln zusammenhängt."
  • ad Werbung für die Homöopathie: "Wir weisen darauf hin, dass es dem Patienten erheblichen Schaden zufügen kann, wenn er die Inanspruchnahme einer evidenzbasierten medizinischen Versorgung hinauszögert, und dass generell die Gefahr besteht, das Vertrauen der Öffentlichkeit in die Natur und den Wert wissenschaftlicher Erkenntnisse zu untergraben."

European Academies Science Advisory Council, September 2017: Homeopathic products and practices: assessing the evidence and ensuring consistency in regulating medical claims in the EU https://easac.eu/fileadmin/PDF_s/reports_statements/EASAC_Homepathy_statement_web_final.pdf

Wie soll es nun weiter gehen?

Dazu die Empfehlungen des EASAC aus der oben zitierten Erklärung:

  1. Es sollte einheitliche regulatorische Anforderungen geben, um die Wirksamkeit, Sicherheit und Qualität aller Produkte für die Human- und Veterinärmedizin aufzuzeigen; diese müssen auf überprüfbaren und objektiven Nachweisen beruhen, welche der Art der Behauptungen entsprechen. In Ermangelung eines solchen Nachweises, sollte ein Produkt von den nationalen Regulierungsbehörden als Arzneimittel weder zugelassen noch registriert werden.
  2. Evidenz-basierte öffentliche Gesundheitssysteme sollten die Kosten für homöopathische Produkte und Praktiken nicht übernehmen, wenn deren Wirksamkeit und Sicherheit durch strenge Tests nicht nachgewiesen ist.
  3. Die Zusammensetzung homöopathischer Mittel sollte in ähnlicher Weise angegeben werden wie die anderer Gesundheitsprodukte, d. h. es sollte eine genaue, klare und einfache eine Beschreibung der Inhaltsstoffe und ihrer Mengen in der Rezeptur vorhanden sein.
  4. Werbung und Marketing für homöopathische Produkte und Dienstleistungen müssen festgelegten Standards von Genauigkeit und Klarheit entsprechen. Werbeaussagen zu Wirksamkeit, Sicherheit und Qualität sollten nicht ohne nachweisbare und reproduzierbare Belege gemacht werden.

 

Hoffen wir, dass diese Empfehlungen nicht auf taube Ohren stoßen!


 

inge Fri, 26.05.2023 - 21:02

Mit CapScan® beginnt eine neue Ära der Darmforschung

Mit CapScan® beginnt eine neue Ära der Darmforschung

Do 18.05.2023  — Inge Schuster

Inge Schuster Icon Medizin

> Kenntnisse über das Mikrobiom des Verdauungstrakts und über Stoffwechselprodukte in diesem System beruhen bislang hauptsächlich auf Daten, die aus Stuhlproben erhoben wurden. Mit Hilfe der CapScan®-Kapsel können erstmals auf nicht-invasive Weise Proben aus den Regionen des Dünndarms gesammelt und analysiert werden. Damit werden Aufschlüsse über lebenswichtige Darmaktivitäten möglich, die bisher nicht messbar waren und die zum Verstehen der Stoffwechselwege des Menschen und ihrer komplexen Interaktionen mit dem Mikrobiom in Gesundheit und Krankheit beitragen.

In den letzten Jahrzehnten ist der menschliche Darm und hier vor allem das dort ansässige Mikrobiom mehr und mehr in den Fokus der Forschung gerückt. Es wurde klar, dass die riesige Zahl und Vielfalt der Mikroorganismen eine essentielle Rolle in Gesundheit und Krankheit spielen - dies beginnt mit dem Metabolismus von Nahrung und Fremdstoffen und erstreckt sich über die Regulierung des Immunsystems, den Schutz vor Pathogenen bis hin zum Einfluss auf die Steuerung des Nervensystems und damit auch auf den Gemütszustand.

Der Dünndarm ist noch weitgehend eine terra incognita

Auf Grund des schwierigen Zugangs zu den oberen Teilen des Verdauungstrakts, d.i. dem 5 - 7 Meter langen Dünndarm, stammen Informationen über die Zusammensetzung des Mikrobioms und die im Darm generierten und diesen beeinflussenden Stoffwechselprodukte bislang weitestgehend aus Analysen des Stuhls. Tatsächlich geben solche Proben aber nur ein sehr beschränktes Bild der Vorgänge im Gesamtdarm: beim Eintritt in den aufsteigenden Teil des Dickdarms ist die Verdauung der Nahrung ja nahezu vollständig (zu 90 %) abgeschlossen und die entstandenen Stoffwechselprodukte (Metabolite) wurden bereits durch die Dünndarmwand in den Organismus aufgenommen (absorbiert), teilweise weiter umgewandelt und als Endprodukte in das Darmlumen ausgeschieden. Was im Colon noch ankommt, sind im Wesentlichen unverdauliche Nahrungsbestandteile, die von den dort ansässigen Bakterienkolonien aufgeschlossen und zu Nährstoffen der Darmwand umgebaut werden.

Der Zugang zu den Dünndarmabschnitten Jejunum und Ileum ist eine Herausforderung. Diesbezügliche Proben werden ja nicht unter physiologischen Bedingungen entnommen: sie stammen aus Operationsmaterial und von klinisch toten Organspendern, die mit verschiedenen Arzneimitteln, darunter Antibiotika behandelt worden waren und bestenfalls aus mehrstündigen Endoskopien, die an nüchternen, betäubten oder sedierten Probanden erfolgen.

Wie auch für unterschiedlichste bioaktive Produkte beruhen unsere Kenntnisse beispielsweise zur Vielfalt, Dynamik und Rolle der Gallensäuren bei der Verdauung auf den wenig repräsentativen Messungen der wenigen Prozent der Gallensäuren, die im Stuhl ankommen oder dem Bruchteil eines Prozents im Blut. Fazit: Stuhlproben sind ein unzulängliches Surrogat für die Vorgänge in den oberen Darmabschnitten.

CapScan® ermöglicht erstmals eine nicht-invasive Reise durch den Dünndarm

Ein Forscherteam von den kalifornischen Universitäten Stanford und Davis und dem Spin-off Envivo Bio Inc. hat eine spezielle Kapsel CapScan® entwickelt, die geschluckt wird und in bestimmten Abschnitten des Darms ein kleines Volumen des Darmlumens inklusive der dort vorhandenen Mikroorganismen, Proteine und Metabolite aufnimmt. Zwei zeitgleich am 10. Mai 2023 in den Fachjournalen Nature und Nature Metabolism erschienene Arbeiten beschreiben diese Kapsel beschrieben und berichten über die die damit erhobenen Veränderungen im oberen Darmtrakt während der normalen täglichen Verdauung bei 15 gesunden Menschen [1,2].

Das Prinzip von CapScan®: Die Kapsel - etwa in der Größe einer Vitamin-Pille - ist mit einer magensaftresistenten, pH-sensitiven Polymer-Beschichtung versehen und enthält darin eine kollabierte Blase mit einem Einwegventil. Normalerweise steigt der pH-Wert im Darmlumen von 4-6 im Zwölffingerdarm auf 7-8 im Ileum an und sinkt im anschließenden aufsteigenden Colon etwas ab. Sobald eine Kapsel mit voreingestelltem pH-Wert auf diesen Wert im Lumen trifft, löst sich die Beschichtung mit vorbestimmter Geschwindigkeit auf, die Blase entfaltet sich und kann bis zu 400 µl Lumenflüssigkeit ansaugen. Ist die Blase voll, so verhindert das Ventil, dass auf dem Weiterweg durch den Verdauungstrakt noch Flüssigkeit eintreten kann. Die Kapsel wird schließlich mit dem Stuhl ausgeschieden, daraus hervor geholt und ihr Inhalt analysiert

Die Untersuchungen erfolgten an 15 gesunden Personen im Rahmen einer klinischen Untersuchung. Um Proben aus vier verschiedenen Regionen des Darmtrakts nehmen zu können, nahmen die Versuchspersonen jeweils vier Kapsel-Typen mit unterschiedlichen pH-Sensitivitäten ein, nachdem sie Mahlzeiten ihrer Wahl gegessen hatten. Abbildung.

Abbildung. 4 Kapsel-Typen, die Proben aus mehreren Regionen des menschlichen Darmtraktes während der normalen Verdauung sammeln. Die Kapseln öffnen sich bei unterschiedlichen, ansteigend höheren pH-Werten. Kapsel-Typ 4 enthält eine zeitverzögerte Beschichtung, um die Sammlung in Richtung des aufsteigenden Dickdarms zu lenken wo der pH-Wert typischerweise im Vergleich zum terminalen Ileum abfällt. (Bild: Ausschnitt aus Dari Shalon et al, 2023 [1]., deutsch beschriftet; Lizenz cc-by).

Die Analyse: Ein sogenannter "Multiomics"-Ansatz wurde angewandt, um die Proben einerseits auf Bakterien, Viren, Wirtsproteine und andererseits auf Stoffwechselprodukte aus der Nahrung zu analysieren [1, 2]. In den verschiedenen Regionen des menschlichen Darms zeigten sich dabei signifikante, zum Teil dramatische Unterschiede in der Zusammensetzung des Mikrobioms, des Wirtsproteoms und in der Induktion von Prophagen. Auch hinsichtlich der Zusammensetzung der Stoffwechselprodukte - die Forscher identifizierten insgesamt nahezu 2000 Metaboliten - gab es massive Unterschiede vom oberen (proximalen) zum unteren (distalen) Dünndarm und zu Stuhlproben und (am Beispiel von Obst und Alkohol) interessante Zusammenhänge zwischen Ernährung und Metaboliten.

Fazit

Mit CapScan® kann nicht nur eine neue Ära in der Forschung des Darmmikrobioms beginnen, die Kapsel kann auch breite Anwendung in der Forschung und Entwicklung von Arzneistoffen finden. Ein erstes Beispiel ist die auf der US-Plattform für Klinische Studien (ClinicalTrials.gov) gelistete Phase 1 Studie: "Evaluierung der CapScan-Vorrichtung zur Messung des Sulfasalazin-Stoffwechsels." (Sulfasalazin wird zur Behandlung von chronisch-entzündlichen Darmerkrankungen eingesetzt.) Dabei geht es darum die regionale Verteilung von Sulfasalazin, die metabolischen Abbauprodukte von Sulfasalazin und die Darmmikrobiota im Verdauungstrakt gesunder Freiwilliger zu charakterisieren. Die von Envivo Bio Inc. geleitete Studie an 10 gesunden Freiwilligen ist vor Kurzem zu Ende gegangen; sie wurde von den NIH unterstützt, die auch weiterhin die Entwicklung und klinische Evaluierung von CapScan fördern wollen.  Für ein anderes Projekt, eine klinische Studie  über die "Auswirkungen des Darmmikrobioms auf die Darmgesundheit von Müttern und Kindern in Ländern mit niedrigem und mittlerem Einkommen" die von Envivo in Zusammenarbeit mit Forschern von Stanford Medicine durchgeführt wird, hat die Bill and Melinda Gates Foundation  Mittel für zur Verfügung gestellt.


 [1] Dari Shalon et al, Profiling the human intestinal environment under physiological conditions, Nature (2023). DOI: 10.1038/s41586-023-05989-7

[2] Jacob Folz et al, Human metabolome variation along the upper intestinal tract, Nature Metabolism (2023). DOI: 10.1038/s42255-023-00777-z


 Mit CapScan könnten auch wesentliche Fragen zum Überleben von Probioika während der Darmpassage und zu ihrer Wirksamkeit  gelöst werden. Dazu:

Inge Schuster, 15.01.2023: Probiotika - Übertriebene Erwartungen?


 

inge Fri, 19.05.2023 - 00:32

Über die unterirdischen Verbindungen zwischen den Bäumen

Über die unterirdischen Verbindungen zwischen den Bäumen

Do. 11.05.2023 — IIASA

IIASA Logo

Icon Wald

Pilze bilden Netzwerke, welche die Bäume in einem Wald miteinander verbinden, diese Pilzgeflechte sind ein zentrales Element, das für den Zustand der Wälder ausschlaggebend ist und dafür, wie diese auf den Klimawandel reagieren. Laut der zunehmend populärer werdenden "Mutterbaum-Hypothese" werden solche Netze auch als Mittel betrachtet, mit dem Bäume ihren Jungbäumen und anderen "befreundeten" Bäumen nützen. In einer kürzlich erschienenen Studie hat eine internationale Forschergruppe die Hinweise, die für und gegen diese Hypothese sprechen, erneut überprüft.*

Die Bäume in einem Wald sind durch fadenförmige Strukturen, den so genannten Hyphen, von symbiotischen Pilzen miteinander verbunden; zusammen bilden diese ein unterirdisches Netzwerk, das so genannte Mykorrhiza-Netzwerk. Wie allgemein bekannt, können Mykorrhizapilze den Bäumen Nährstoffe im Austausch für den von den Bäumen gelieferten Kohlenstoff liefern.

Die Mutterbaum-Hypothese .............

Die so genannte Mutterbaum-Hypothese geht darüber hinaus und impliziert einen vollkommen neuen Zweck dieser Netzwerke. Über das Netzwerk teilen die größten und ältesten Bäume, die auch als Mutterbäume bezeichnet werden, Kohlenstoff und Nährstoffe mit Jungbäumen, die in besonders schattigen Bereichen wachsen und selbst nicht genügend Sonnenlicht für eine ausreichende Photosynthese erhalten. Die Netzwerkstruktur soll es den Mutterbäumen auch möglich machen, den schlechten Gesundheitszustand ihrer Nachbarn durch deren Notsignale zu erkennen und gemahnt zu werden diesen Bäumen die Nährstoffe zu schicken, die diese benötigen, um sich wieder zu erholen. Auf diese Weise - so die Hypothese - sollen die Mutterbäume als zentrale Knotenpunkte fungieren, die sowohl mit jungen Setzlingen als auch mit anderen großen Bäumen in ihrer Umgebung kommunizieren, um deren Überlebenschancen zu erhöhen.

Dies ist ein sehr ansprechendes Konzept, das nicht nur das Interesse der Wissenschaftler anspricht, sondern auch die Medien, in denen diese Hypothese dann oft als Tatsache dargestellt wird. In der soeben in der Zeitschrift New Phytologist veröffentlichten Studie [1] ist - nach Meinung der Autoren - die Hypothese jedoch nur schwer mit einer Theorie in Einklang zu bringen; dies hat die Forscher dazu veranlasst Daten und Schlussfolgerungen aus wissenschaftlichen Untersuchungen, die für und gegen die Mutterbaum-Hypothese sprechen, nochmals einer Prüfung zu unterziehen.

...............und was gegen diese Hypothese spricht

Abbildung 1. Die Mutterbaum-Hypothese und Feldstudien in borealen Wäldern .(a) Stammvolumen von Waldkiefern (Pinus sylvestris) in der Umgebung von alten Bäumen, die bei der vor 20 und mehr Jahren erfolgten Schlägerung erhalten geblieben waren: im Umkreis von weniger als 5 m von den alten Bäumen wiesen die neuen Bäume ein um 24 % geringeres Wachstum als weiter entfernte Bäume. Das hypothetische Wachstumsmuster des jüngeren Bestands im Falle von Konkurrenz bzw. Förderung durch den großen Baum ist orangefarben bzw. blau markiert. (Daten: Jakobsson (2005) [2]). , (b) Kartierung der Waldkiefern in einem Bestand in Südfinnland,(100 x 100 m). Die älteren Bäume sind durch geschlossene Kreise gekennzeichnet (Größen entsprechen den Stammdurchmesser-Klassen), die jüngeren Bäume durch offene Kreise. Der Bereich innerhalb eines Radius von 5-6 m um die älteren Bäume wurde blau schraffiert, um die geringe Dichte der jüngeren Bäume im Vergleich zu den Bereichen ohne alte Bäume hervorzuheben. (Bild aus Aaltonen (1926) [3] mit Genehmigung von Oxford Academic Press nachgedruckt). , (c) Nach Südwesten ausgerichteter Rand eines borealen Kiefernbestands und der verjüngte Bestand daneben (Schweden, 64°N). Man beachte das schwache Wachstum in der Nähe der größeren Bäume. (Abbildung: Fig. 1 aus N. Henriksson et al., 2023, [1] von Redn. deutsch beschriftet. Lizenz: cc-by-nc.)

Die unter der Leitung von Nils Henriksson von der Schwedischen Universität für Agrarwissenschaften ausgeführte Studie ergab, dass tatsächlich nur sehr limitierte empirische Belege für die Mutterbaum-Hypothese vorliegen, und theoretische Beweisführungen für die Mechanismen weitgehend fehlen [1].

Während große Bäume und deren Verbindungen zu ihren Nachbarn für das Ökosystem Wald nach wie vor essentiell sinnd, agiert das Pilznetzwerk nicht als eine einfache Pipeline, um Ressourcen unter den Bäumen zu aufzuteilen. In anderen Worten: der offensichtliche Austausch von Ressourcen zwischen den Bäumen ist eher das Ergebnis eines Handels zwischen Pilzen und Bäumen, als ein gezielter Austausch von einem Baum zum anderen. Sehr oft führt dies eher zu einer Verschärfung des Wettbewerbs zwischen den Bäumen, als zur Unterstützung der Stecklinge. Abbildung 1.

"Wir haben herausgefunden, dass Mykorrhiza-Netzwerke in der Tat für die Stabilität vieler Waldökosysteme unabdingbar sind, aber nur selten für ein Teilen und Hilfeleisten zwischen den Bäumen. Vielmehr funktioniert es wie ein Handelsplatz für einzelne Bäume und Pilze, die jeweils versuchen, das beste Geschäft zu machen, um zu überleben", erklärt Oskar Franklin, einer der Studienautoren und Forscher in der Forschungsgruppe Landwirtschaft, Forstwirtschaft und Ökosystem-Dienstleistungen des IIASA-Biodiversity and Natural Resources Program. "Der Wald ist kein Superorganismus oder eine Familie von Bäumen, die sich gegenseitig unterstützen. Er ist ein komplexes Ökosystem mit Bäumen, Pilzen und anderen Organismen, die alle voneinander abhängig sind, aber nicht von einem gemeinsamen Ziel geleitet werden." Abbildung 2.

Abbildung 2. Alternative Wege des Kohlenstoff-Transfers von einem hypothetischen Donor-Baum zu einer Empfänger-Jungpflanze. EcM (Ectomycorrhiza): symbiotische Beziehung zwischen Pilzsymbionten und den Wurzeln von Pflanzen. Die blauen Pfeile stellen Mechanismen für die potenzielle Verteilung von Kohlenstoff aus dem Donor-Baum in den Boden dar, die keine gemeinsamen Mykorrhiza-Netzwerke (CMN) zwischen den Pflanzen erfordern. Zelluläre Atmung des Spenderbaums und seiner Mykorrhiza-Pilze geben in beiden Fällen Kohlenstoff (C) in Form von CO2 in den Boden ab, das in den Wurzeln des aufnehmenden Keimlings oder über die Photosynthese fixiert wird. Die Ausscheidungen der Feinwurzeln der Spenderbäume und des Mykorrhiza-Myzels setzen organische Verbindungen wie Kohlenhydrate, organische Säuren und Sekundärmetaboliten im Boden frei. Der Umsatz von Spenderbaum-C in Wurzeln und Mykorrhiza-Myzelien, Assimilation und Umsatz von Spender-C durch saprotrophe (d.i. vom Abbau organischer Verbindungen toter Organismen lebende) Pilze, Bakterien und Archaeen, sowie die Umverteilung durch diese und andere Lebensformen im Boden können dem Mykorrhiza-Myzel des aufnehmenden Setzlings ebenfalls C zur Verfügung stellen. Die Kettenräder-Symbole stehen an kritischen Kontrollpunkten des C-Transfers über CMN -Verbindungen. (Bild: Fig. 4. aus N. Henriksson et al., 2023, [1] von Redn. deutsch beschriftet. Lizenz: cc-by-nc.)

"Wenn auch die Mutterbaum-Hypothese wissenschaftlich kaum belegt und in der wissenschaftlichen Gemeinschaft umstritten ist, hat sie sowohl die Forschung als auch das öffentliche Interesse an der Komplexität der Wälder geweckt. Es ist von entscheidender Bedeutung, dass die künftige Bewirtschaftung und Untersuchung der Wälder die tatsächliche Komplexität dieser wichtigen Ökosysteme berücksichtigt", so Franklin abschließend.


[1] Henriksson, N., Marshall, J., Högberg, M.N., Högberg, P., Polle, A., Franklin, O., Näsholm, T. (2023). Re-examining the evidence for the mother tree hypothesis - resource sharing among trees via ectomycorrhizal networks. New Phytologist DOI: 10.1111/nph.18935

[2] Jakobsson R. 2005. Effect of retained trees on the development of young Scots pine stands in Southern Finland. Doctoral thesis, Acta Universitatis Agriculturae Sueciae.

[3] Aaltonen VT. 1926. On the space and arrangement of trees and root competition. Journal of Forestry 24: 627–644.


* Der am 9. Mai 2023 als Presseaussendung auf der IIASA-Webseite unter dem Titel " Exploring the underground connections between trees" erschienene Artikel Artikel  https://iiasa.ac.at/news/may-2023/exploring-underground-connections-between-trees wurde von der Redaktion möglichst wortgetreu übersetzt und durch 2 Abbildungen plus Legenden aus der zugrundeliegenden Veröffentlichung [1] ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Ähnliche Inhalte im ScienceBlog

 Gerd Gleixner, 05.08.2021: /Erdoberfläche - die bedrohte Haut auf der wir leben

Christian Körner, 29.07.2016: Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt

Knut Ehlers, 01.04.2016: Der Boden ein unsichtbares Ökosystem

Gerhard Glatzel, 04.04.2013: Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 2)


 

inge Wed, 10.05.2023 - 23:25

Überfischen hat das natürliche Gleichgewicht der marinen Lebensformen aus dem Lot geraten lassen

Überfischen hat das natürliche Gleichgewicht der marinen Lebensformen aus dem Lot geraten lassen

Do, 04.05.2023 — Tim Kalvelage

Tim Kalvelage

Icon Meere

 

Fischereiprodukte leisten einen wichtigen Beitrag zur globalen Ernährungssicherheit. Derzeit stammen 17 Prozent des tierischen Eiweißes, das weltweit verzehrt wird, aus dem Ozean oder aus Süßgewässern und der Fischkonsum nimmt weiter zu. Meere sind aber keine unendlichen Speisekammern. Die Nutzung der marinen Ressourcen durch den Menschen hat die Grenzen der Nachhaltigkeit längst überschritten; wie Berechnungen zeigen, wurde die Biomasse der Fische und kleineren Meeressäuger bereits um 60 % dezimiert, die von Walen sogar um 90 %. Der Meeresmikrobiologe und Wissenschaftsjournalist Dr. Tim Kalvelage gibt einen Überblick über die Auswirkungen der industriellen Fischerei auf das marine Ökosystem.*

Vor der ostkanadischen Insel Neufundland, dort wo der warme Golfstrom auf den kalten Labradorstrom trifft, liegt einer der reichsten Fischgründe der Erde: die Grand Banks, eine Reihe flacher Unterwasserplateaus auf dem nordamerikanischen Kontinentalschelf. Berühmt wurde die Region einst für ihre riesigen Kabeljaubestände. Schon bevor Kolumbus Amerika entdeckte, segelten baskische Fischer wegen des Kabeljaus quer über den Atlantik. Ab Mitte des letzten Jahrhunderts plünderten immer größere Trawler – vor allem aus Europa und der Sowjetunion – die Fischreichtümer. Auf dem Höhepunkt wurden an den Grand Banks im Jahr 1968 mehr als 800.000 Tonnen Kabeljau gefangen. In den Folgejahren kollabierten die Bestände, sodass Kanadas Regierung 1992 ein Fangverbot verhängte. 40.000 Menschen in den Provinzen Neufundland und Labrador verloren ihre Jobs in der Fischerei.

Trotz mehrjährigen Fangverbots und noch immer drastisch reduzierter Fangquoten haben sich die Kabeljaubestände an den Grand Banks bis heute nicht erholt. Stattdessen ist der Zusammenbruch der dortigen Kabeljaufischerei zum Symbol geworden für die Ausbeutung der Ozeane durch den Menschen und den Rückgang vieler Fischpopulationen. In den vergangenen Jahrzehnten sind die weltweiten Fangflotten in immer entlegenere Gebiete vorgedrungen und haben ihre Netze und Leinen in immer größeren Tiefen ausgebracht, um die Nachfrage nach Fisch und anderen Meerestieren zu bedienen.

Nahrungslieferant Ozean

Fischfang und das Sammeln von Meeresfrüchten wie Muscheln spielen seit Tausenden von Jahren eine wichtige Rolle für die Ernährung der Küstenbewohner der Erde. Im Laufe der Zeit wurden ihre Boote besser und die Netze größer und sie wagten sich immer weiter aufs Meer hinaus. Im Mittelalter florierte der Handel mit getrocknetem und gesalzenem Fisch, etwa rund um die Ostsee oder zwischen Westeuropa und Nordamerika. Angesichts der endlosen Weiten der Ozeane und der riesigen Fischschwärme schienen die lebenden marinen Ressourcen einst unerschöpflich.

Dann kam die Industrielle Revolution: Dampfschiffe, die schneller waren als Segelschiffe und weniger abhängig von Wind oder Gezeiten, eroberten die Weltmeere. Mitte des 19. Jahrhunderts wurde die Harpunenkanone erfunden und das große Schlachten der Wale begann. Manche Arten waren binnen weniger Jahrzehnte nahezu ausgerottet.

Nach dem 2. Weltkrieg schließlich ermöglichten hochseetaugliche Kühlschiffe, elektronische Navigationssysteme und Echolote den Aufstieg der industriellen Fischerei. Heute werden laut der Welternährungsorganisation (Food and Agriculture Organization – FAO) von den rund 30.000 Fischarten im Ozean mehr als 1.700 kommerziell genutzt. Sie landen auf unseren Tellern oder werden als Pellets in der Aquakultur und der Landwirtschaft verfüttert. Für Milliarden von Menschen sind sie eine essenzielle Proteinquelle: 17 Prozent des tierischen Eiweißes, das weltweit verzehrt wird, stammen aus dem Ozean oder aus Süßgewässern. Fischereiprodukte leisten damit einen wichtigen Beitrag zur globalen Ernährungssicherheit.

Seit der Mitte des 20. Jahrhunderts ist der Hunger nach Fisch und Meeresfrüchten jedoch stark gestiegen: Die Weltbevölkerung hat sich seither mehr als verdreifacht, und pro Kopf wird heute die doppelte Menge an Fisch gegessen – ca. 20 Kilogramm jährlich. Fangstatistiken und wissenschaftliche Studien zeigen eindringlich, dass die Nutzung der marinen Ressourcen durch den Menschen die Grenzen der Nachhaltigkeit längst überschritten hat. Vielerorts wird dem Ozean mehr Fisch entnommen, als nachwachsen kann.

Räuber und Beute

Für ein besseres Verständnis der Produktivität der Ozeane hilft ein Blick auf die marinen Nahrungsbeziehungen und den damit verbundenen Transfer von Kohlenstoff und Energie. Betrachtet man ausgewählte Organismen in einem Ökosystem – etwa in einem Korallenriff – dann lassen sich ihre Nahrungsbeziehungen als lineare Nahrungsketten darstellen. In Wirklichkeit jedoch sind Fische, Wirbellose und andere Meerestiere in komplexen Nahrungsnetzen miteinander verknüpft (Abbildung 1). Denn viele besitzen ein breites Beutespektrum und stehen selbst auf dem Speisezettel verschiedener Räuber, mit denen sie zum Teil um Nahrung konkurrieren. Je nach Futterquelle besetzen Organismen unterschiedliche Ernährungsstufen – oder trophische Ebenen.

Abbildung 1: Marines Nahrungsnetz © World Ocean Review Nr. 2, maribus gGmbH, Hamburg 2013

Auf der niedrigsten Stufe stehen die Primärproduzenten, die Kohlenstoffdioxid und Wasser mittels Photosynthese in Zucker und Sauerstoff umwandeln. Sie ernähren direkt oder indirekt alle Konsumenten. Die wichtigsten Produzenten im Ozean sind frei schwebende Mikroalgen und Cyanobakterien: das Phytoplankton. Es bildet die Nahrungsgrundlage für Zooplankton – kleine Krebstiere, Fischlarven und Quallen, die mit der Strömung treiben. Krill und anderes Zooplankton wiederum landen in den Mäulern von Heringen, Makrelen, Walhaien und Blauwalen. Höhere trophische Ebenen gehören schnellen Räubern wie Schwert- und Thunfischen oder Delfinen, die Schwarmfische erbeuten. Am Ende der Nahrungskette jagen Weiße Haie, Orcas und Pottwale – Spitzenprädatoren, die keine natürlichen Feinde haben.

Muster im Meer

Forschende um den Biologen Ian Hatton vom Leipziger Max-Planck-Institut für Mathematik in den Naturwissenschaften haben untersucht, wie zahlreich Plankton Fische und Meeressäuger im Ozean sind und welche Masse sie auf die Waage bringen. Dabei machten die Forschenden eine verblüffende Entdeckung. Ausgangspunkt der Studie waren Beobachtungen, die kanadische Wissenschaftler bereits im Jahr 1972 gemacht hatten. Diese hatten in Wasserproben aus dem Atlantik und Pazifik rund um Nord- und Südamerika Plankton gezählt und dessen Größe bestimmt. Dabei stellten sie fest, dass Organismen umso häufiger vorkommen, je kleiner sie sind. Viel erstaunlicher jedoch war: Wenn sie das Plankton in logarithmische Größenklassen einteilten (1-10 µm, 10-100 µm usw.), dann entfiel auf jede Größenklasse der gleiche Anteil der Planktonbiomasse. In anderen Worten: Größere Organismen machen ihre zahlenmäßige Unterlegenheit gegenüber kleineren durch ein höheres Gewicht wett. Auf Basis der Ergebnisse formulierten sie die kühne Hypothese, dass sich dieses Muster in den Weltmeeren von mikroskopischen Einzellern bis hin zu riesigen Walen erstreckt. „Allerdings war die Hypothese bisher nie getestet worden“, erklärt Hatton, „denn lange Zeit fehlte es dafür an Daten.“

Fünf Jahrzehnte später gab es genug Daten um zu überprüfen, ob die Verteilung der marinen Biomasse tatsächlich diesem Muster folgte. Hatton und sein Team berechneten zunächst die Biomasse für die Zeit vor 1850, als die Meere noch relativ unberührt waren. Die weltweite Menge an Phytoplankton schätzten sie anhand von Satellitendaten ab, die heute routinemäßig zur Bestimmung der Primärproduktion im Ozean genutzt werden. Hunderttausende Wasserproben, die über Jahrzehnte rund um den Globus gesammelt worden waren, lieferten Zahlen für Zooplankton und Bakterien. Beim Plankton nahmen die Forschenden an, dass die Menge seit der Industriellen Revolution konstant geblieben ist. „Die größte Herausforderung war eine Abschätzung der Fischbiomasse“, sagt Hatton. „Fische sind schwer zu erfassen, da sie wandern, Netzen entgehen und konzentriert in Schwärmen auftreten.“ Letztlich wurden die historischen Fischbestände anhand von weltweiten Fangdaten und mithilfe von Computermodellen ermittelt. Für Robben, Wale und andere Meeressäuger griff das Team auf regelmäßige Tierzählungen zurück sowie auf Schätzungen, die in die Vergangenheit extrapoliert wurden.

Abbildung 2: Ozean aus dem Gleichgewicht. Die 23 Gewichtsklassen mariner Organismen sind als Säulen dargestellt. Die Farbender Säulen entsprechen dem relativen Anteil der jeweiligen Gruppe. Der schraffierte Bereich (pink) zeigt, wie stark der Mensch inzwischen die Bestände der großen Meeresbewohner durch Fischerei und Walfang reduziert hat. © I. Hatton, MPI für Mathematik in den Naturwissenschaften / CC-BY-NC-SA 4.0

Nachdem die Forschenden die Anzahl der Lebewesen und deren Biomasse für den globalen Ozean beziffert hatten, teilten sie diese in logarithmische Gewichtsklassen (1-10 g, 10-100 g usw.) ein. Das Körpergewicht mariner Organismen umfasst 23 Größenordnungen, vom weniger als ein Billionstel Gramm schweren Bakterium bis hin zum mehr als 100 Tonnen schweren Blauwal. In der Tat bestätigte sich die 50 Jahre alte Hypothese:

Bevor der Mensch das Ökosystem Meer weitreichend veränderte, war die Biomasse über alle Größenklassen hinweg erstaunlich konstant – zumindest in den produktiven obersten 200 Metern der Wassersäule. Damals betrug die Biomasse je Gewichtsklasse rund eine Milliarde Tonnen; nur an den Enden des Größenspektrums, bei Bakterien und Walen, wichen die Werte nach oben bzw. unten ab (Abbildung 2). Worauf die Regelmäßigkeit beruht, sei noch nicht klar, so Hatton. „Möglicherweise hängt es mit dem Kohlenstoff- und Energietransfer entlang der Nahrungskette zusammen, wie viele Forschende annehmen.“ Auch der Stoffwechsel, das Wachstum und die Fortpflanzung mariner Organismen könnten eine Rolle spielen. Klar ist jedoch: „Der Mensch hat dieses Naturgesetz der Meere gebrochen.“ Das sagt Hatton beim Blick auf die heutige Verteilung der Biomasse im Ozean. Die Studie offenbart einen dramatischen Rückgang für das obere Drittel des Größenspektrums gegenüber dem vorindustriellen Zeitalter (Abbildung 2). Seit 1800 hat die Biomasse von Fischen und Meeressäugern um rund zwei Milliarden Tonnen abgenommen, das entspricht einem Verlust von 60 Prozent. Bei den größten Walen beträgt er sogar fast 90 Prozent. Man schätzt, dass allein im 20. Jahrhundert knapp drei Millionen Tiere getötet wurden, unter anderem zur Gewinnung von Lampenöl, Margarine oder Nitroglycerin für Munition. Zwar wird heute kein kommerzieller Walfang mehr praktiziert – mit Ausnahme von Island, Japan, und Norwegen. Doch viele Populationen sind weit entfernt von ihrer einstigen Biomasse. Auch die Auswirkungen der industriellen Fischerei auf das Ökosystem sind unübersehbar. Insbesondere große Räuber auf hohen trophischen Ebenen wie Schwert- und Thunfische oder Haie sind vielfach verschwunden.

Weiße Flecken in der Fangstatistik

In ihrem aktuellen Fischereibericht beziffert die FAO die weltweite Produktion von Fisch und Meeresfrüchten für das Jahr 2020 auf knapp 180 Millionen Tonnen (Abbildung 3). Nahezu die Hälfte davon waren Wildfische aus dem Meer. Fast jeder zweite Speisefisch stammt heute aus der Aquakultur und wächst in Zuchtteichen oder in Käfigen im Meer auf. Aquakultur ist der am schnellsten wachsende Sektor der Nahrungsmittelproduktion und hat in der Vergangenheit oft zu großflächigen Umweltzerstörungen geführt. Für die Garnelenzucht etwa werden in Südostasien Mangrovenwälder abgeholzt, die wichtige Kinderstuben für Fische sind und Küsten vor Erosion schützen. Auch der Bedarf an Futterfischen und die Gewässerbelastung durch Futterreste und Fischkot sind ein Problem.

Die Fangstatistik der FAO basiert auf den offiziellen Fischereidaten, die Staaten an die UN-Behörde übermitteln. Wie hoch die tatsächlichen Fangmengen sind, ist unklar. Forschende des Projekts „Sea Around Us“ schätzen, dass ein Viertel aller gefangenen Meeresfische nicht in der FAO-Statistik auftaucht, weil sie illegal angelandet, nicht berichtet oder als Beifang wieder über Bord geworfen wurden. Zudem fehlen in der FAO-Statistik die Fangmengen kleiner Schwarmfische wie Sardinen und Heringe, die als Futtermittel wie Fischmehl oder Fischöl enden. Dabei machen diese geschätzte 25 Prozent der globalen Fangmenge aus.

Abbildung 3: Entwicklung von Fischfang und Aquakultur. Im Jahr 2020 wurden weltweit 90 Millionen Tonnen Meerestiere gefangen und 88 Millionen Tonnen Fischereiprodukte in Aquakultur produziert. Von der Gesamtproduktion entfallen 63 Prozent auf die Meere und 37 Prozent auf Binnengewässer. © Verändert nach FAO: The State of World Fisheries and Aquaculture, 2022

Nachhaltige Nutzung der Meere

Welche Maßnahmen könnten den Rückgang der Fischbestände aufhalten und dennoch langfristig hohe Fischereierträge sichern, um die wachsende Weltbevölkerung zu ernähren? Experten fordern seit langem, rund ein Drittel der Meere als Schutzgebiete auszuweisen, besonders artenreiche Regionen sowie wichtige Laichgründe und Kinderstuben. Durch Abwanderung in benachbarte, nicht geschützte Gebiete könnten sich die dortigen Populationen erholen. Gleichzeitig sollten Bestände nicht bis an ihre Belastungsgrenze ausgebeutet werden, damit es nicht zum Kollaps kommt, wenn sich Umweltbedingungen verändern und die Reproduktionsrate sinkt. Nachhaltiges Fischereimanagement beinhaltet, Zielarten nicht isoliert zu betrachten, sondern auch ihre Rolle im Ökosystem zu berücksichtigen. Zum Beispiel verschwinden große Raubfische, wenn ihre Beute zu stark befischt wird. Mehr als 95 Prozent des globalen Fischfangs findet innerhalb von 200 Seemeilen vor den Küsten statt (in der sog. Ausschließlichen Wirtschaftszone). In vielen Ländern müssten Fischereigesetze verschärft und die illegale Fischerei stärker verfolgt werden.

Fortschritte gibt es beim Schutz der Hochsee, die sich an die 200-Seemeilen-Zone anschließt. Im Frühjahr 2023 haben sich die Vereinten Nationen nach jahrelangen Verhandlungen auf ein Abkommen geeinigt. Bisher war dieses riesige Gebiet, das fast 60% der Weltmeere umfasst, ein nahezu rechtsfreier Raum. Geplant ist, mindestens 30 Prozent der Weltmeere unter Schutz zu stellen. Wirtschaftliche Projekte, Expeditionen und andere Aktivitäten in den Meeren sollen zukünftig auf ihre Umweltverträglichkeit geprüft und die biologische Vielfalt der Hochsee unter international verbindlichen Schutz gestellt werden. Jetzt kommt auf es auf die schnelle und ernsthafte Umsetzung in den Mitgliedsländern an.


 * Der Artikel von Tim Kalvelage ist unter dem Titel: "Überfischte Meere - Leben im Ozean aus der Balance" im Geomax 27-Heft der Max-Planck-Gesellschaft im Frühjahr 2023 erschienen (https://www.max-wissen.de/max-hefte/geomax-27-ueberfischte-meere/). Mit Ausnahme des Titels wurde der unter einer cc-by-nc-sa Lizenz stehende Artikel unverändert in den Blog übernommen.

 


Weiterführende Links:

World Ocean Review 2021 - Lebensgarant Ozean – nachhaltig nutzen, wirksam schützen. https://worldoceanreview.com/de/wor-7/

Meeresschutz. https://www.bmuv.de/themen/wasser-ressourcen-abfall/meeresschutz

Fischereibericht der FAO, 2022 (engl.) https://www.fao.org/publications/home/fao-flagship-publications/the-state-of-world-fisheries-and-aquaculture/en


 

inge Thu, 04.05.2023 - 00:51

NASA-Weltraummission erfasst Kohlendioxid-Emissionen von mehr als 100 Ländern

NASA-Weltraummission erfasst Kohlendioxid-Emissionen von mehr als 100 Ländern

Do, 27.04.2023 — Redaktion

Redaktion

Icon Klima

Im Rahmen eines Pilotprojekts der NASA wurden die Emissionen von Kohlendioxid und seine Entfernung aus der Atmosphäre in mehr als 100 Ländern anhand von Satellitenmessungen bestimmt. Das Pilotprojekt OCO-2 bietet erstmals einen aussagekräftigen  Einblick auf das in diesen Ländern emittierte Kohlendioxid, und darauf, wie viel davon durch Wälder und andere kohlenstoffabsorbierende "Senken" innerhalb ihrer Abgrenzungen aus der Atmosphäre entfernt wird. Die Länder arbeiten daran ihre Klimaziele zu erreichen - aus den Befunden der Studie geht klar hervor, wie Weltraum-basierte Instrumente die auf der Erde erhobenen Erkenntnisse unterstützen können.*

Top-Down-Ansätze

Die internationale Studie wurde von mehr als 60 Forschern durchgeführt und hat Messungen der NASA-Mission Orbiting Carbon Observatory-2 (OCO-2) sowie ein Netzwerk von Erdoberflächen-basierten Beobachtungen genutzt, um die Zu- und Abnahmen der atmosphärischen Kohlendioxidkonzentration von 2015 bis 2020 zu quantifizieren [1]. (Zum OCO-2-Projekt: siehe Box.)

Mithilfe dieses auf Messungen basierenden (oder "Top-Down"-) Ansatzes konnten die Forscher dann auf die Kohlendioxid-Bilanz von Emissionen und Entfernungen aus der Atmosphäre schließen. Abbildung 1.

Wenn auch die OCO-2-Mission nicht speziell auf die Bestimmung der Emissionen einzelner Länder ausgerichtet war, so kommen die Ergebnisse aus den über 100 Ländern zu einem recht günstigen Zeitpunkt: Die erste globale Bestandsaufnahme - ein Prozess zur Bewertung des kollektiven globalen Fortschritts bei der Begrenzung der im Pariser Abkommen von 2015 festgelegten globalen Erwärmung - findet 2023 statt.

Abbildung 1. Datenvisualisierung der Emissionen (Quellen) und Entnahmen (Senken) von Kohlendioxid (CO₂) für mehr als 100 Länder auf der ganzen Welt. Die Karte rechts zeigt die mittleren Nettoemissionen und Nettoentnahmen von Kohlendioxid aus der Atmosphäre von 2015 bis 2020. Länder, in denen mehr Kohlendioxid entfernt als emittiert wurde, erscheinen als grüne Vertiefungen, während Länder mit höheren Emissionen hellbraun bis dunkelbraun sind und aus dem Bild herauszuragen scheinen. Diese Befunde beruhen auf Messungen des atmosphärischen CO₂, die von einem Netzwerk bodengestützter Standorte und dem Orbiting Carbon Observatory 2 (OCO-2) der NASA durchgeführt wurden, das CO₂ seit 2014 rund um den Globus kartiert. (Das Bild wurde von Redn. deutsch beschriftet; Quelle: NASA's Scientific Visualization Studio; Lizenz cc-by.)

"Die NASA konzentriert sich auf die Bereitstellung geowissenschaftlicher Daten, die sich mit realen Klimaproblemen befassen - etwa indem weltweit Regierungen geholfen wird die Auswirkungen ihrer Bemühungen zur Verringerung des Kohlenstoffausstoßes zu messen", sagt Karen St. Germain, Direktorin der Earth Science Division der NASA im NASA-Hauptquartier in Washington. "Dies ist ein Beispiel dafür, wie die NASA bestrebt ist die Messung von Kohlenstoffemissionen in einer Weise zu entwickeln und verbessern, die den Bedürfnissen der Nutzer entspricht."

Herkömmliche Aktivitäten-bezogene Ansätze,

solche "Bottom-Up"-Ansätze zur Kohlenstoffbestimmung beruhen auf dem Aufrechnen und Abschätzen wie viel Kohlendioxid in allen Sektoren einer Volkswirtschaft, wie im Transportsektor und in der Landwirtschaft, emittiert werden. Bottom-Up-Bestandsaufnahmen von Kohlenstoff sind von entscheidender Bedeutung für die Bewertung von Fortschritten bei der Emissionsreduzierung; ihre Erstellung erfordert allerdings beträchtliche Ressourcen, Expertise und Kenntnisse über das Ausmaß der relevanten Aktivitäten.

Deshalb ist - nach Meinung der Autoren - die Entwicklung einer Datenbank über Emissionen und deren Entfernungen mittels eines Top-Down-Ansatzes als besonders hilfreich für Länder anzusehen, die nicht über die üblichen Ressourcen für die Erstellung von Bestandsaufnahmen verfügen [1]. Tatsächlich enthält die gegenwärtige Studie Daten für mehr als 50 Länder, die zumindest in den letzten 10 Jahren keine Emissionen gemeldet haben.

Die Studie bietet eine neue Perspektive, indem sie sowohl die Emissionen fossiler Brennstoffe als auch die Veränderungen des gesamten Kohlenstoffbestands in Ökosystemen, einschließlich Bäumen, Sträuchern und Böden erfasst. Abbildung 2.

Abbildung 2. Bestandsaufnahme von CO2-Emissionen und Entfernungen aus der Atmosphäre. CO2 wird der Atmosphäre durch Photosynthese entzogen und dann durch eine Reihe von Prozessen wieder in die Atmosphäre abgegeben. Drei Prozesse verlagern den Kohlenstoff lateral auf der Erdoberfläche, so dass die CO2-Emissionen in einer anderen Region schlagend werden als die CO2-Entnahme: (1) Landwirtschaft: Die geernteten Feldfrüchte werden in städtische Gebiete und zu Nutztieren transportiert, die ihrerseits in städtische Gebiete exportiert werden.CO2 wird in Viehzucht oder in städtischen Gebieten über die Atmung in die Atmosphäre abgegeben. (2) Forstwirtschaft: Der abgeholzte Kohlenstoff wird in städtische und industrielle Gebiete transportiert und dann durch Zersetzung in Deponien oder durch Verbrennung als Biokraftstoff emittiert. (3) Wasserkreislauf: Kohlenstoff wird aus den Böden in Gewässer, wie z. B. Seen, ausgewaschen. Der Kohlenstoff wird dann entweder deponiert, oder in die Atmosphäre freigesetzt oder in den Ozean transportiert. Pfeile zeigen Kohlenstoffflüsse (F) an - grau: Emissionen fossiler Brennstoffe, dunkelgrün: Ökosystem-Stoffwechsel, rot: Biomasseverbrennung, hellgrün: Forstwirtschaft, gelb: Landwirtschaft, blau:Wasserkreislauf. Halbtransparente Pfeile: Flüsse zwischen Erdoberfläche und Atmosphäre, volle Pfeile: Flüsse zwischen Landregionen.Gestrichelte Pfeile: Emissionen von reduziertem Kohlenstoffspezies in die Atmosphäre. (Bild und Legende von Redn.deutsch beschriftet, aus B.Byrne et al., 2023 [1] eingefügt; Lizenz cc-by.)

Die Daten sind besonders nützlich, um Kohlendioxidschwankungen im Zusammenhang mit der Veränderung der Bodenbedeckung zu verfolgen. Allein die Emissionen aus der Entwaldung machen einen unverhältnismäßig großen Teil der gesamten Kohlenstoffbilanz im globalen Süden aus, der Regionen in Lateinamerika, Asien, Afrika und Ozeanien umfasst. In anderen Teilen der Welt deuten die Ergebnisse auf eine gewisse Verringerung der atmosphärischen Kohlenstoffkonzentration durch verbesserte Landbewirtschaftung und Wiederaufforstung hin.

Nach Meinung der Autoren sind Bottom-up-Methoden zur Abschätzung von Kohlendioxidemissionen und -Entnahmen durch Ökosysteme unabdingbar. Diese Methoden sind jedoch anfällig für Unsicherheiten, wenn Daten fehlen oder die Nettoauswirkungen bestimmter Aktivitäten, wie z. B. der Abholzung, nicht vollständig bekannt sind.

"Unsere Top-Down-Messungen liefern eine unabhängige Bestimmung dieser Emissionen und der Entnahmen. Wenn sie auch das detaillierte Prozessverständnis der traditionellen Bottom-up-Methoden nicht ersetzen, können wir doch beide Ansätze auf ihre Konsistenz hin überprüfen", so Philippe Ciais, einer der Studienautoren und Forschungsdirektor am Laboratoire des Sciences du Climat et de l'Environnement in Frankreich.

Dem Kohlenstoff auf der Spur bleiben

Die Studie bietet ein komplexes Bild der Reise des Kohlenstoffs durch Land, Ozean und Atmosphäre der Erde [1].

Zusätzlich zu den direkten Beeinflussungen durch den Menschen, die in den nationalen Verzeichnissen erfasst sind, können unbewirtschaftete Ökosysteme wie einige tropische und boreale Wälder - wo der Mensch nur einen minimalen Fußabdruck hinterlässt - Kohlenstoff aus der Atmosphäre binden und so die potenzielle globale Erwärmung verringern.

"Nationale Verzeichnisse sollen aufzeigen, wie sich Bewirtschaftungsmaßnahmen auf die Emissionen und den Abbau von CO2 auswirken", so Studienautor Noel Cressie, Professor an der University of Wollongong in Australien. "Der Atmosphäre ist es jedoch egal, ob CO2 durch Abholzung im Amazonasgebiet oder durch Waldbrände in der kanadischen Arktis ausgestoßen wird. Beide Prozesse erhöhen die CO2-Konzentration in der Atmosphäre und treiben den Klimawandel voran. Daher ist es von entscheidender Bedeutung, die Kohlenstoffbilanz unbewirtschafteter Ökosysteme zu überwachen und Veränderungen bei der Kohlenstoffaufnahme (= Photosynthese) zu erkennen".

Mit Blick auf die Zukunft sagen die Forscher, dass ihr Pilotprojekt weiter verfeinert werden kann, um zu verstehen, wie sich die Emissionen der einzelnen Länder verändern.

"Nachhaltige, qualitativ hochwertige Beobachtungen sind für diese Top-Down-Schätzungen von entscheidender Bedeutung", sagt der Hauptautor Brendan Byrne, Wissenschaftler am Jet Propulsion Laboratory der NASA in Südkalifornien. "Mit kontinuierlichen Beobachtungen von OCO-2 und Oberflächenstandorten können wir verfolgen, wie sich die Emissionen und Entnahmen im Zuge der Umsetzung des Pariser Abkommens verändern. Künftige internationale Missionen, die eine erweiterte Kartierung der CO2-Konzentrationen auf der ganzen Welt liefern, werden es uns ermöglichen, diese Top-Down-Schätzungen zu verfeinern und genauere Bestimmungen von Emissionen und Entfernungen in den einzelnen Ländern zu liefern."


[1] Brendan Byrne et al., National CO2 budgets (2015–2020) inferred from atmospheric CO2 observations in support of the global stocktake. Earth Syst. Sci. Data, 15, 963–1004, 2023. https://doi.org/10.5194/essd-15-963-2023


* Der vorliegende Artikel von Sally Younger (NASA's Jet Propulsion Laboratory) ist unter dem Titel "NASA Space Mission Takes Stock of Carbon Dioxide Emissions by Countries" https://www.jpl.nasa.gov/news/nasa-space-mission-takes-stock-of-carbon-dioxide-emissions-by-countries  am 7. März 2023 auf der Web-Seite der NASA erschienen. Der unter einer cc-by-Lizenz  stehende Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch Abbildungen vom NASA’s Scientific Visualization Studio (Abbildung 1) und von der dem Artikel zugrunde liegenden Veröffentlichung  von B.Byrne et al., 2023 [1] (Abbildung 2) ergänzt.


Weiterführende Links

Das NASA OCO-2 Projekt: https://ocov2.jpl.nasa.gov

Animation: National Carbon Dioxide Budgets Inferred from Atmospheric Observations: Fossil Fuel Emissions. Video 0:12 min. . https://www.youtube.com/watch?v=wr327cqtXfs

Klimawandel - Schwerpunktsthema im ScienceBlog. Bis jetzt behandeln mehr als 40 Artikel den Klimawandel - von Modellierungen über Folgen des Klimawandels bis hin zu Strategien seiner Eindämmung; chronologisch gelistet in Klima & Klimawandel


 

inge Thu, 27.04.2023 - 16:30

Die Zukunft der evolutionären Medizin

Die Zukunft der evolutionären Medizin

Do 20.04.2023  — Redaktion

Redaktion

Icon Medizin Evolutionäre Medizin - d. h. die Anwendung von Erkenntnissen aus Evolution und Ökologie auf die Biomedizin - birgt ein enormes bislang ungenutztes Potenzial für Innovationen in der biomedizinischen Forschung, der klinischen Versorgung und der öffentlichen Gesundheit. Evolutionsprozesse sind die treibende Kraft hinter vielen Gefährdungen unserer Gesundheit; diese reichen von der Resistenz gegen Antibiotika und Tumortherapeutika über Pandemien bis hin zu "anthropozänbedingten" Krankheiten wie Adipositas, Typ 2 Diabetes, Allergien, etc. . Ein neuer in Frontiers in Science veröffentlichter Artikel zeigt, wie die Anwendung evolutionärer Prinzipien auf die Medizin neue Wege zur Vorbeugung und Behandlung von Krankheiten eröffnen kann.*

Mit evolutionären Prinzipien die Biomedizin und das Gesundheitswesen verändern

Die evolutionäre Medizin verfügt über ein enormes - und noch nicht verwirklichtes - Potenzial zur Verbesserung von Gesundheit und Wohlbefinden der Menschen, indem sie neue biomedizinische Therapien und wirksame Maßnahmen im Bereich der öffentlichen Gesundheit ermöglicht. In einer neuen Veröffentlichung im Fachjournal Frontiers in Science [1] skizziert ein breit aufgestelltes internationales Team aus den US, dem UK und Neuseeland eine Forschungsagenda für die künftige evolutionäre Medizin, wobei der Fokus auf folgenden Anwendungen liegt:

  • Tierarten zu finden, die von Natur aus resistent gegen menschliche Krankheiten sind, und diese Mechanismen in neue klinische Behandlungen umzusetzen
  • Arzneimittelresistenzen bei Infektionskrankheiten und Krebs zu überwinden
  • die Gesundheitspolitik darüber zu instruieren, wie Krankheiten wirksam bekämpft werden können, die aus der Diskrepanz zwischen den Ökologien, in denen wir uns entwickelt haben, und der heutigen Welt resultieren
  • das Management von Pandemien zu verbessern
  • menschlichen Widerstand gegen gesundheitsfördernde Verhaltensweisen zu überwinden.

Abbildung 1. Evolutionäre Medizin basierend auf den Prinzipien der Evolution und der Ökologie. (Bild von Redn. leicht modifiziert. Quelle: B. Natterson-Horowitz et al.,2023, [1]; Lizenz cc-by)

Was ist evolutionäre Medizin?

Die evolutionäre Medizin wendet die Erkenntnisse aus Ökologie und Evolution an, um biomedizinische Forschung, Maßnahmen des öffentlichen Gesundheitswesens und klinische Versorgung zu instruieren, zu steuern und zu verbessern. Abbildung 1.

Mit der Anwendung einer evolutionären Perspektive könnten viele kritische gesundheitliche Herausforderungen bewältigt werden. Dazu zählen die Krise der Antibiotikaresistenz, die Chemotherapieresistenz bei Krebserkrankungen, moderne Gesundheitsprobleme wie Fettleibigkeit, Diabetes und Herz-Kreislauf-Erkrankungen - und sogar die Resistenz von Menschen gegenüber Gesundheitsratschlägen. Dieser Ansatz wird auch für die Identifizierung neu auftretender Krankheitserreger und die Bewältigung künftiger Epidemien und Pandemien von entscheidender Bedeutung sein.

Wie kann die evolutionäre Vielfalt biomedizinische Therapien inspirieren?

Die traditionelle biomedizinische Forschung nutzt die Ähnlichkeiten zwischen Menschen und anderen Tieren, um Krankheitsmechanismen aufzudecken und Therapien zu entwickeln. Aber die Evolutionsmedizin lässt sich auch von unseren Unterschieden inspirieren. So erkranken Elefanten beispielsweise nur selten an Krebs, während Nacktmulle von Natur aus resistent gegen altersbedingte Krankheiten sind und daher ungewöhnlich lange und gesund leben. In der riesigen Vielfalt des Lebens auf der Erde gibt es wahrscheinlich noch unzählige andere Mechanismen zur Krankheitsresistenz. Wir müssen diese systematisch aufspüren, ihre physiologischen Grundlagen aufdecken und diese Erkenntnisse in neue klinische Behandlungen umsetzen. Abbildung 2.

Abbildung 2. Die Identifizierung von Tierarten und ihrer besonderen Physiologie, welche die Anfälligkeit für Krankheiten einschränkt, kann die biomedizinische Innovation beschleunigen. Ein systematischer Ansatz ist erforderlich, um eine umfassende phylogenetische Karte der Anfälligkeit und Resistenz gegenüber Krankheiten zu erstellen.(Bild von Redn. leicht modifiziert. Quelle: B. Natterson-Horowitz et al.,2023, [1]; Lizenz cc-by)

Wie können evolutionäre Prinzipien neue Krebsbehandlungen inspirieren?

Viele Krebstherapien zielen darauf ab, Tumore mit hochdosierten Krebsmedikamenten zu eliminieren. Wenn die Behandlung dann nicht mehr wirksam ist, wird sie durch eine andere und möglicherweise durch noch weitere Behandlungen ersetzt. Auch wenn dies erfolgreich sein kann, gibt es zwei entscheidende Nachteile: die Entwicklung von Arzneimittelresistenzen in Krebszellen und die Toxizität für normale Zellen. Die evolutionäre Medizin kann diese Hürden überwinden, indem sie Behandlungen entwickelt, welche die Entwicklung der Krebszellen berücksichtigen. Beispielsweise:

  • Die Extinktionstherapie sieht eine hohe Dosis eines Medikaments vor, um den Tumor zu verkleinern, gefolgt von einem anderen Medikament, um die verbleibenden Krebszellen abzutöten, bevor sie eine Chemotherapieresistenz entwickeln.
  • Die adaptive Therapie zielt darauf ab, die Tumorgröße stabil zu halten, während die Krebszellen für die medikamentöse Behandlung empfindlich bleiben. Dieser Ansatz ist vielversprechend für eine langfristige Kontrolle fortgeschrittener Krebserkrankungen.

Wie kann die Evolutionsmedizin dazu beitragen, die Krise der antimikrobiellen Resistenz zu bewältigen?

Die Resistenz von Bakterien und anderen infektiösen Mikroorganismen gegen antimikrobielle Mittel ist eine große globale Gesundheitsbedrohung. Zu den konventionellen Lösungen gehört die Entwicklung neuer antimikrobieller Mittel, was jedoch kostspielig ist und nur eine vorübergehende Lösung darstellt. Alternative Ansätze umfassen:

Abbildung 3. Die Anti-Antibiotika-Strategie zur Verhinderung von Resistenzentwicklung und Weiterverbreitung bei kommensalen opportunistischen Krankheitserregern.(Bild von Redn. leicht modifiziert. Quelle: B. Natterson-Horowitz et al.,2023, [1]; Lizenz cc-by)
  • Medikamentenkombinationen, Zeitpläne und Dosierungen, die verhindern, dass Mikroben Resistenz entwickeln
  • Eingriffe in den Evolutionsprozess selbst, z. B. durch Störung der Mechanismen, mit denen Bakterien ihre DNA austauschen und dadurch Resistenzen verbreiten (ein Prozess, der als horizontaler Gentransfer bezeichnet wird)
  • orale "Anti-Antibiotika", die verhindern könnten, dass intravenös verabreichte Antikörper bei Darmbakterien Resistenzen auslösen (Abbildung 3)
  • Einsatz von Viren, die Bakterien infizieren, sogenannte Phagen, um antibiotikaresistente Varianten abzutöten und/oder evolutionäre Kompromisse zu erzwingen, die die Empfänglichkeit für Antibiotika wiederherstellen.

Wie kann die evolutionäre Medizin in Maßnahmen des öffentlichen Gesundheitswesens einfließen?

Viele menschliche Krankheiten sind das Ergebnis eines Missverhältnisses zwischen den Ökosystemen, in denen wir uns entwickelt haben, und unserer modernen Umwelt. Abbildung 4. Ein Beispiel für diese Diskrepanz ist unsere Fähigkeit, Energie als Fett zu speichern. Dies war in der Vergangenheit ein Vorteil, als die Nahrung knapp war, führt aber in Gesellschaften, in denen es heute reichlich Nahrung gibt, zu einem Anstieg von Adipositas, Typ-2-Diabetes und Herz-Kreislauf-Erkrankungen. Weitere Probleme können entstehen, wenn unser Körper als Reaktion auf unser ökologisches und soziales Umfeld seine Prioritäten zwischen den drei wichtigsten evolutionären Zielen (Wachstum, Fortpflanzung und allgemeine Überlebensfähigkeit) verschiebt. Männliche Fruchtbarkeitsprobleme könnten ein Beispiel dafür sein.

Abbildung 4. Gesundheitspolitische Massnahmen auf Basis der evolutionären Medizin. (Bild von Redn. leicht modifiziert. Quelle: B. Natterson-Horowitz et al.,2023, [1]; Lizenz cc-by)

Eine evolutionäre Perspektive kann diese Probleme angehen, indem die ökologischen Bedingungen mit den Bedürfnissen der menschlichen Biologie in Einklang gebracht werden. Im Falle einer evolutionären Fehlanpassung könnte dies bedeuten, dass der Schwerpunkt von der individuellen Verantwortung, die sich auf Ernährung und Bewegung konzentriert, auf Maßnahmen des öffentlichen Gesundheitswesens wie Lebensmittelsteuern und Beschränkungen in der Vermarktung von Lebensmitteln an Kinder verlagert wird.

Welche Rolle spielt die evolutionäre Medizin bei der Bekämpfung von COVID-19 und künftigen Pandemien?

Evolutionäre Prinzipien sind für die Vorhersage von Krankheitsausbrüchen, die Beherrschung der Infektionen und die Modellierung von Zukunftsszenarien unerlässlich. Die COVID-19-Pandemie ist ein perfektes Beispiel dafür. Modelle, die auf Darwins Erkenntnissen über Anpassung und natürliche Selektion beruhen,haben die Eigenschaften der erfolgreichen SARS-CoV-2-Varianten korrekt voraus gesagt. Diese Erkenntnisse ermöglichten auch die schnelle Identifizierung und das Aufspüren neuer Varianten sowie der Orte, an denen das Virus übertragen worden war.

Wie kann die evolutionäre Medizin gesunde Verhaltensweisen fördern?

Die Evolutionsmedizin kann helfen zu erklären, warum wir ungesunde Entscheidungen treffen, wie z.B. übermäßiges Essen, Rauchen, einen sitzenden Lebensstil und die Ablehnung von Impfungen. So können beispielsweise Begebenheiten im Leben eines Menschen den Ausschlag für solche Verhaltensweisen geben, während Entscheidungen, die oft als "problematisch" bezeichnet werden, im Rahmen einer eigenen, oft unbewussten Kosten-Nutzen-Rechnung des Einzelnen durchaus Sinn machen können.

Betrachtet man das Verhalten der Menschen durch diese evolutionäre Brille, so ließen sich wirksamere Maßnahmen im Bereich der öffentlichen Gesundheit entwickeln. Politische Maßnahmen, die sich auf die Verbesserung der Lebensperspektiven der Menschen konzentrieren - indem sie allen Menschen Zugang zu Bildung und Arbeitsplätzen verschaffen und gleichzeitig Ernährungsunsicherheit, Diskriminierung und Kriminalität beseitigen - würden insbesondere dazu beitragen, gesunde Verhaltensweisen in der gesamten Gesellschaft zu fördern.


 [1] Natterson-Horowitz B et al., The future of evolutionary medicine: sparking innovation in biomedicine and public health. Front Sci (2023) 1:997136. doi: 10.3389/fsci.2023.997136. (Lizenz: cc-by)


 *Zur Veröffentlichung von Natterson-Horowitz B et al., [1] gibt es auch eine Zusammenfassung für Nicht-Wissenschafter (Lay summary 1doi: 10.3389/fsci.2023.997136). Diese wurde von der Redn. möglichst wortgetreu übersetzt und durch 2 Abbildungen aus dem Originalartikel ergänzt.


 The future of evolutionary medicine. Video 0:40 min. https://www.youtube.com/watch?v=iuhWfoHaINs&t=4s


 

inge Thu, 20.04.2023 - 13:38

Mitochondrien - mobile Energielieferanten in Neuronen

Mitochondrien - mobile Energielieferanten in Neuronen

Fr, 14.04.2023 — Susanne Donner

Susanne DonnerIcon Hirn-Energie

Archaisch, mächtig, flexibel: Mitochondrien sind weit mehr als Kraftwerke. Sie treiben die Evolution, bestimmen, was das Gehirn leistet und sind mitverantwortlich, wenn wir bei Sauerstoffmangel in Ohnmacht fallen. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner gibt eine Überblick über die Rolle der Mitochondrien in unserem enorm energieverbrauchenden Nervensystem, wie Neuronen über die ganze Länge ihrer Dendriten und Axone die Energieversorgung sicherstellen, und welche Folgen eine Unterversorgung haben kann.*

Die folgenreiche Vereinnahmung hat sich vor mindestens einer Milliarde Jahren ereignet. Lange bevor Tiere und Menschen die Erde bevölkerten. Im Wasser, das den Planeten bedeckte, trafen ein Bakterium und ein weiterer Einzeller aufeinander. Der Einzeller verleibte sich das Bakterium ein – eine Fusion zweier Lebensformen, die letztlich für beide von Nutzen war: So entstanden die Organelle, die sich heute in jeder Zelle von Tieren, Pflanzen und Menschen befinden.

Relikt der geschichtsträchtigen Verschmelzung, die als Endosymbiontentheorie in die Lehrbücher einging, sind beispielsweise die Mitochondrien, gern als „Kraftwerke der Zelle“ bezeichnet. Ihre Erbinformation ist bis heute „nackt“ und ringförmig als sogenanntes Plasmid angeordnet – so wie man es von Bakterien kennt. Dagegen ist die DNA des Zellkerns auf Histone aufgerollt, spezielle Proteine, die die DNA verpacken. Zudem sind die Mitochondrien von einer Doppelmembran umhüllt, die entfernt an die Zellwand von Bakterien erinnert. Abbildung 1. Auch, dass die mitochondriale DNA viel schneller Mutationen anhäuft – wohl weil die Reparatursysteme weniger effizient arbeiten – könnte auf Bakterien zurückgehen, die aufgrund ihrer kurzen Lebensdauer auf derartige Mechanismen weniger angewiesen sind. Die Kern-DNA ist dagegen robuster gegenüber dem Zahn der Zeit.

Abbildung 1. Mitochondrien: zugereiste Kraftwerke in eukaryotischen Zellen (Bild von Redn. eingefügt aus: Wikipedia; gemeinfrei)

Die Macht der Mitochondriengene

Gleichwohl wurde der Beitrag der Mitochondrien zur Erbmasse lange vernachlässigt, weil ihre Gene nur einen Anteil von 0,1 Prozent beisteuern. Sie zählen gar nur 37 Gene, gegenüber rund 25.500 auf der Doppelhelix im Zellkern. Die Mitochondrien stammen in der Regel von der Mutter. Die Kraftwerke des Vaters werden in der befruchteten Eizelle eliminiert. Es gibt allerdings Ausnahmen „Toyota-Prinzip: Nichts ist unmöglich“, kommentiert die Neurowissenschaftlerin Petra Wahle von der Universität Bochum. „Dann gibt der Vater seine Mitochondrien weiter. Das ist aber selten.“

So oder so – lange dachten Forscher, dass die Vererbungswege für die Mitochondrien-DNA und die Kern-DNA unabhängig nebeneinander existieren. Doch neuere Studien unterstreichen, wie eng Zellkern und Mitochondrien sich aufeinander abstimmen und miteinander austauschen.

Der Genetikspezialist Wei Wei von der Universität Cambridge und seine Kollegen untersuchten dafür das Erbgut von 1.526 Müttern und ihren Kindern. Und zwar sequenzierten sie sowohl das Kern- als auch das mitochondriale Genom. Dabei fiel ihnen auf, dass Mutationen im Mitochondriengenom nicht beliebig an den Nachwuchs weitergegeben werden. Vielmehr setzten sich eher solche Varianten durch, die bereits in der Vergangenheit aufgetreten waren und die mit der Kern-DNA harmonierten. Dies ergab ein Abgleich mit einer Gendatenbank, in der die Geninformationen zu 40.325 weiteren Personen hinterlegt waren. Wei schließt daraus, dass die Kern-DNA kontrolliert, welche Mitochondrien-Erbinformationen sich durchsetzen. Beide Vererbungswege sind keineswegs isoliert voneinander.

Mitochondrien ko-evolvieren mit der Kern-DNA“, sagt Wahle. Das habe damit zu tun, dass sie längst nicht nur Energielieferanten sind. Sie haben vielfältige basale Funktionen. So steuern sie beispielsweise die Produktion wichtiger Signalstoffe und Zellbausteine. Nur mit ihrer Hilfe kann die Zelle komplexe Proteine und andere Stoffe erzeugen. Diese Baustoffe brauchen wiederum die Mitochondrien dauernd, um sich permanent rundzuerneuern. Es besteht eine wechselseitige Abhängigkeit. Diese bedingt, dass die Erbmasse von Mitochondrien und Kern fein aufeinander abgestimmt sein muss.

Wenn die Mitochondriengene nicht passen, droht das Aussterben

Das geht so weit, dass beliebig mutierte Mitochondrien die Fitness des Organismus kompromittieren würden. Wenn Forschende etwa die Mitochondrien einer anderen Art in die Keimbahn einschleusen, sind die Nachkommen dieser Bastarde zwar lebensfähig, aber weniger fruchtbar, legt Wahle dar. „Sie entwickeln sich schlechter und sterben unter dem Strich wieder aus.

Mitochondriengene weisen aber, wie erwähnt, enorm hohe Mutationsraten auf. Auf diese Weise helfen sie Lebewesen dabei, sich zu Lebzeiten an sich rasch verändernde Umweltbedingungen anzupassen. Sie modulieren beispielsweise die Menge bereitgestellter Energie.

Über Mitochondrienmutationen entstehen auch in kurzer Zeit neue Arten, wie der israelische Evolutionsforscher Dan Mishmar herausarbeitete: etwa, wenn sich die Lebensräume zweier Populationen trennen. Dann verändert sich deren mitochondriale DNA derart rasch, dass beide schon nach kurzer Zeit nicht mehr kompatibel miteinander sind. Sie können zusammen keine ausreichend lebensfähigen Nachkommen mehr zeugen.

Mehr als kleine Punkte im Neuron

Neben der Fruchtbarkeit sind es kognitive Fähigkeiten, die als Erstes leiden, wenn die Mitochondrien schwächeln. Nach derzeitigem Wissensstand stehen alle neurodegenerativen Krankheiten mit maroden Zellkraftwerken in Verbindung. Die Nervenzellen im Gehirn, aber auch die Zellen von Muskeln und Auge haben einen besonders hohen Energiebedarf.

Das liegt an zwei Besonderheiten. Damit kognitive Prozesse, das Denken und Handeln, ablaufen können, muss der Ionenhaushalt im Gehirn in einem Gleichgewicht sein. Vor allem der Calciumspiegel darf weder in den Zellen noch außerhalb zu sehr abfallen. Das entscheidet mitunter über Leben und Tod einer Zelle. Und, wenn Nervenzellen feuern, müssen sie Aktionspotentiale weiterleiten. Auch das kostet viel Energie.

„In Lehrbüchern sind Mitochondrien immer so diskret hingezeichnet. Aber wir haben pro Neuron mehrere hundert von diesen Mitochondrien“, sagt der Neurowissenschaftler Oliver Kann von der Medizinischen Fakultät der Universität Heidelberg. Das sind viel mehr als beispielsweise in weniger energiehungrigen Geweben wie die Haut.

Mit Blick auf die Mitochondrien sei Neuron allerdings nicht gleich Neuron, wie Kann betont. In seinen Forschungen ergründet er, wie sich verschiedene Hirnzelltypen in ihren Mitochondrien unterscheiden. Manches ist augenfällig, etwa wenn seine Mitarbeitenden die Mitochondrien in Hirnschnitten von Ratte oder Maus histologisch anfärben. In den Dendriten, den verästelten Zellfortsätzen, die die elektrische Erregung von Nachbarzellen aufnehmen, sehen Mitochondrien langgezogen aus. Wenn man aber entlang des Zellfortsatzes näher an die Zelle heranrückt, werden die Mitochondrien kompakt und punktförmig. Und auch in den Prinzipalneuronen selbst, zu denen etwa die Pyramidenzelle gehört, haben sie diese aus Lehrbüchern vertraute Form.

Mitochondrien sind mobil und teilbar wie ein Güterzugsystem

Abbildung 2. Die Form der Mitochondrien hängt vom Kompartiment des Neurons ab. Im Dendriten sind die Mitochondrien langgezogen (0,5 -8,9 µm) und füllen den Großteil des dendritischen Raums aus (b) unten). Im Axon sind die Mitochondrien vergleichsweise kurz (0,3 - 1,1 µm) und besetzen nur rund 5 % der Axonlänge. a) Pyramidenzelle aus dem Kortex, Mitochondrien mittels eines Matrix-gerichteten fluoreszierenden Proteins (mt-DsRED - grün) sichtbar gemacht. b)Vergrößerter Ausschnitt aus a) (braune Box): Teil eines Dendriten, mt-DsRED : mitochondrialer Marker, GFP: Cytosol markiert mit fluoreszierendem Protein. c) Vergrößerter Ausschnitt aus a) (grüne Box): Teil eines Axons, Markierung wie in b). (Bild von Redn. eingefügt, Quelle: Lewis, T.L. et al.,. Nat Commun 9, 5008 (2018) https://doi.org/10.1038/s41467-018-07416-2 Lizenz: cc-by 4.0)

Besonders viele Mitochondrien sitzen in der synaptischen Endigung, also an jenem Ort, an dem Information von einer Nervenzelle zur nächsten übertragen wird. Dort ist besonders viel Energie nötig, um das Signal über den synaptischen Spalt weiterzuleiten. Dafür schließen sich die Mitochondrien teilweise sogar lokal zusammen. Sie bilden hochdynamische Netzwerke, erklärt Kahn, ähnlich einem Güterverkehrssystem. Mitochondrien können sich tatsächlich auch fortbewegen. Sie wandern entlang des Axons und nutzen dafür Mikrotubuli, röhrenförmige Proteine, und molekulare Motoren.

Qua ihrer Mobilität können sich Mitochondrien sammeln. Noch dazu sind sie – wieder in Analogie zum Güterzugsystem in der Lage - miteinander zu verschmelzen, sodass aus mehreren Mitochondrien ein Mitochondrium wird, oder sich zu teilen. (Abbildung 2) Diese Eigenart wird als „fusion“ für Verschmelzung und „fission“ für Spaltung bezeichnet. Wie wichtig sie ist, zeigt auch die Entdeckung, dass eine Stammzelle sich genau dann zum Neuron entwickelt, wenn sich die Mitochondrien in ihr massiv teilen und damit in ihrer Zahl erhöhen.

Wenn Mitochondrien nicht abliefern, schwächeln wir beim Lernen und Autofahren

Besonders viele Mitochondrien benötigen aber auch bestimmte Nervenzellen, Interneurone genannt, die die Netzwerkaktivität im Gehirn synchronisieren. Sie sind quasi die Taktgeber des Neuronenfeuers im Gehirn. Sie sorgen dafür, dass beim Ableiten der Hirnströme über die Kopfhaut überhaupt rhythmische Signale von den alpha- bis zu den theta-Wellen auf dem Bildschirm zu sehen sind. Die Interneurone ermöglichen höhere kognitive Leistungen wie die Verarbeitung komplexer visueller Reize und die selektive Wahrnehmung, auch das Bewusstsein. Dafür müssen sie allerdings in schnellem Takt stark feuern.

Kanns Team stellte unter Beweis, dass diese Energiefresser im Gehirn als erstes an Funktion einbüßen, wenn es zu mildem Stress auf den Stoffwechsel kommt. Der kann darin bestehen, dass weniger Glucose oder Sauerstoff ins Gehirn kommen oder zu viele freie Radikale anfluten. In weiteren Experimenten an isolierten Hirnschnitten von Ratte und Maus erkannten die Forschenden schließlich auch, dass auch ein gestörter Calcium-Ionen-Haushalt die rhythmische Netzwerkaktivität, den Job der Interneurone, unterminiert. Wahrscheinlich, weil die Mitochondrien nicht richtig arbeiten können, wenn der Calciumeinstrom in die Zelle gestört ist.

Für den Neurowissenschaftler können all diese Befunde ein bemerkenswertes Verhalten des menschlichen Gehirns erklären: An Piloten testete man nach dem Zweiten Weltkrieg, was geschieht, wenn kurzzeitig zu wenig Blut ins Gehirn gelangt. Wie anekdotisch überliefert sei, berichtet Kann, legte man ihnen dafür eine enge Manschette um den Hals. Nach vier bis sechs Sekunden waren sie schon bewusstlos. Doch ihre Nervenzellen feuerten noch weiter. Erst nach einigen Minuten beginnen die Neuronen unterzugehen. Kann sagt: „Das Gehirn hat einfach nicht ausreichend Energiespeicher, um die Interneurone zu versorgen und damit die höheren kognitiven Fähigkeiten aufrechtzuerhalten.“

Frauen bekamen das im 19.Jahrhundert dank der damals vorherrschenden Mode am eigenen Leib zu spüren. Zu eng geschnürte Korsette drückte ihre Atemwegsorgane ab, sodass ihr Gehirn zu wenig Sauerstoff bekam. Mangels Mitochondrien-Power fielen die Frauen dann schon mal zu Boden. Nach der Ohnmacht aber war es, als sei nichts gewesen.

Zusammenfassung

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


Zum Weiterlesen

  • Wei, W et al.: Germline selection shapes human mitochondrial DNA diversity. Science. 2019. 364(6442):eaau6520. doi: 10.1126/science.aau6520
  • Bas-Orth, C et al. : The mitochondrial calcium uniporter is crucial for the generation of fast cortical network rhythms. J Cereb Blood Flow Metab. 2020, Nov;40(11):2225–2239. doi: 10.1177/0271678X19887777
  • Kann, O. et al.: The interneuron energy hypothesis: Implications for brain disease. Neurobiol Dis. 2016, Jun;90:75¬–85. doi: 10.1016/j.nbd.2015.08.005
  • Elzoheiry, S et al.: Mild metabolic stress is sufficient to disturb the formation of pyramidal cell ensembles during gamma osciallations. J Cereb Blood Flow Metab. 2020 Dec;40(12) :2401–2415. doi: 10.1177/0271678X19892657
  • Iwata, R et al.: Mitochondrial dynamics in postmitotic cells regulate neurogenesis. Science. 2020 Aug 14;369(6505):858–862. doi: 10.1126/science.aba9760
  • Rangaraju, V et al.: Pleiotropic Mitochondria: The Influence of Mitochondria on Neuronal Development and Disease. J Neurosci. 2019 Oct 16;39(42):8200–8208. doi: 10.1177/0271678X19892657

*Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Der vorliegende Artikel ist am 15.3.2023 unter dem Titel: " Zugereiste Kraftwerke" https://www.dasgehirn.info/grundlagen/energie/zugereiste-kraftwerke erschienen. Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog gestellt.


 Verwandte Themen im ScienceBlog


 

inge Fri, 14.04.2023 - 14:41

Candida auris: ein neuer Pilz breitet sich aus

Candida auris: ein neuer Pilz breitet sich aus

Fr, 07.04.2023 — Ricki Lewis

Ricki Lewis

Icon Medizin

Vor wenigen Tagen hat das US-Center of Disease Control (CDC) vor der zunehmenden Gefahr von gegen Antimykotika resistenten Pilzen gewarnt, die sich derzeit in Gesundheitseinrichtungen ausbreiten. In erster Linie geht es hier um den neu aufgetretenen Stamm Candida auris (C. auris), den ersten Pilz, von dem bereits multiresistente Formen gegen alle 3 Klassen von Antimykotika existieren. Infektionen mit diesem Pilz führen zu schwerer verlaufenden Erkrankungen als mit dem von alters her bekannten Verwandten Candida albicans, der für häufige Infektionen der Vagina und des Rachens verantwortlich ist. Die Genetikerin Ricki Lewis gibt einen Überblick über die gegenwärtige Situation.*

Candida auris, ein multiresistenter Hefepilz (Quelle: Lundquist Institute)

Candida-Hefepilze sind ganz normale Bewohner unserer Haut und anderer oberflächlicher Organe; sie werden aber gefährlich, wenn sie in den Blutkreislauf gelangen oder Organe wie das Herz oder die Nieren erreichen. "Das, wodurch Candida auris von anderen Candida-Arten verschieden und besonders beängstigend erscheint, ist dass der Keim bis zu zwei Wochen auf der Haut und auf Oberflächen im Gesundheitseinrichtungen überleben kann, und dadurch in diesen und in Pflegeheimen die Ausbreitung von Mensch zu Mensch ermöglicht. Dieser Pilz wird in der Regel nicht durch die üblichen klinisch angewandten Antimykotika abgetötet; dies erschwert die Behandlung der Infektion und kann oft zu einem tödlichen Ausgang führen. Erschwerend kommt dazu, dass der Keim mit Standard-Labormethoden nur schwer zu identifizieren ist." So fasst Mahmoud Ghannoum, Direktor des Zentrums für medizinische Mykologie am University Hospitals Cleveland Medical Center, die Situation zusammen.

Das US-Center for Disease Control (CDC) und andere Organisationen des öffentlichen Gesundheitswesens setzen die Ganzgenom-Sequenzierung ein, um die Verbreitung dieses Pilzes weltweit zu verfolgen. Die Behörde hat mit FungiNet im Jahr 2021 ein "Netzwerk für die molekulare Überwachung und genomische Epidemiologie für Pilzkrankheiten" gestartet, wobei der anfängliche Schwerpunkt auf C. auris liegt. Mit der Online-Ressource werden "landesweite Laborkapazitäten zur raschen Erkennung, Vorbeugung und Reaktion auf Arzneimittelresistenzen" gegen diese Infektion unterstützt.

Der Vergleich ganzer Genomsequenzen kann Aufschluss darüber geben, woher der Erreger kommt und wohin er wahrscheinlich geht (als COVID auftrat war die Überwachung in den USA im Vergleich zu anderen Ländern notorisch verspätet). Anhand der Sequenzen lässt sich die Evolution auf der Grundlage einer einzigen Annahme zurückverfolgen: Je ähnlicher die Nukleinsäuresequenzen zweier Arten, Stämme oder sogar Individuen sind, desto jünger ist ihr gemeinsamer Vorfahre. Aus diesen Daten lassen sich also Stammbäume ableiten - manchmal gibt es mehr als einen, um die Hinweise in der Sprache der Genetik zu erklären.

Dem neuen Erreger auf der Spur

Die erste klinische Identifizierung von Candida auris erfolgte 2009 in Japan, aufbewahrte Kulturen zeigen aber, dass der Erreger mindestens bis 1996 in Südkorea zurückdatiert. Das CDC bezeichnet Candida auris als "neu auftretendes Pathogen", weil es inzwischen in mehr als 30 Ländern aufgetaucht ist. Die Behörde verfolgt seit 2013 den Erreger, dessen Ausbreitung hat sich 2015 beschleunigt.

Ein 2018 in der Fachzeitschrift Lancet Infectious Diseases veröffentlichter Bericht des US-Candida auris Investigation Teams des CDC hat Gesamtgenom-Sequenzen des Hefepilzes von Patienten aus zehn US-Bundesstaaten sowie aus Indien, Kolumbien, Japan, Pakistan, Südafrika, Südkorea und Venezuela verglichen.

Die Studie hat sich dabei auf einzelne Basen-Positionen im Genom konzentriert, die von Land zu Land, von Patient zu Patient und sogar in ein und derselben Person variieren können (Single Nucleotide Polymorphisms, kurz SNPs). Das Team hat auch Reiseverhalten und Kontakte berücksichtigt, welche die Ausbreitung begünstigt haben könnten. Die US-Fälle "waren genetisch mit denen aus vier globalen Regionen verwandt, was darauf hindeutet, dass C. auris mehrmals in die USA eingeschleppt wurde. Die genetische Vielfalt der Isolate von denselben Patienten, Gesundheitseinrichtungen und Bundesstaaten deutet darauf hin, dass es eine lokale und kontinuierliche Übertragung gibt", so die Schlussfolgerung des Berichts.

Jetzt ist der Pilz also da.

Im Jahr 2022 meldete das CDC 2.377 Fälle von Patienten und weitere 5.754 bei deren Kontaktpersonen, vor allem in Kalifornien, Nevada, Texas, New York, Florida und Illinois. Dies könnte jedoch eine zu niedrige Zahl sein - einige Ärzte dürften die Fälle noch nicht melden (oder vielleicht nicht erkennen).

Wer ist gefährdet?

Wie viele andere Erreger ist C. auris besonders für Patienten in Krankenhäusern gefährlich; der Keim gelant dort in den Blutkreislauf und breitet sich in der betroffenen Person und auch auf andere Menschen aus. Er infiziert auch Ohren (daher das "auris") und Wunden und möglicherweise Lunge und Blase - zumindest wurden die Hefepilze aus Sputum und Urin isoliert.

Am stärksten gefährdet sind Patienten mit Kanülen, die in Körperteilen stecken (z.B. Venenkatheter, Harnwegskatheter, Beatmungstuben; Anmerkung Redn.), oder Patienten, die übermäßig bestimmte Breitband-Antimykotika oder Antibiotika verwendet haben. Die Sterblichkeitsrate kann 60 % erreichen - allerdings sind viele Patienten bereits schwer krank, bevor sie sich dann im Spital infizieren.

Candida auris verbreitet sich über die Luft und durch Kontakt mit kontaminierten, pilzhaltigen Oberflächen. Und Menschen jeden Alters können infiziert werden.

Für die Identifizierung von C. auris sind spezielle Labortests und Verfahren zur Kultivierung der Hefe erforderlich; der Erreger kann leicht mit anderen Candida-Arten verwechselt werden. Außerdem ist er gegen viele herkömmliche Antipilzmittel resistent (Resistenzen wurden gegen alle 3 Klassen von Antimykotika - Azole, Polyene und Echinocandine - festgestellt; Anmerkung Redn.) Die wirksamsten Medikamente sind noch die Echinocandine, aber es können auch Kombinationen von Medikamenten erforderlich sein, um die Infektion in den Griff zu bekommen.

Die Suche nach neuen Antimykotika

ist im Gange. Beispielsweise hat die Case Western Reserve University gerade eine Förderung in der Höhe von 3 Millionen Dollar von den National Institutes of Health (NIH) erhalten, um neue Therapeutika zu entwickeln.

Meiner Meinung nach steckt aber der Großteil der Forschung noch im präklinischen Stadium (auf der Stufe von Tiermodellen und Synthese von Substanzen), denn auf der Plattform Clinicaltrials.gov, die weltweit klinische Studien listet, sind nur drei solcher Studien an dem Hefepilz gelistet; diese finden in Indien, Pakistan und Südafrika statt (in zwei der Studien werden Substanzen mit neuen Wirkmechanismen untersucht; Sponsoren sind Scynexis, Inc und Pfizer. Die dritte Studie in Pakistan befasst sich mit epidemiologischen Daten. Anmerkung Redn.). Ein Impfstoff wird am Lundquist Institute der UCLA entwickelt - bislang funktioniert er bei Mäusen und kann mit Antimykotika kombiniert werden.

Einstweilen werden die Genomvergleiche fortgesetzt, um Informationen zu sammeln, den Erreger zu verfolgen und wenn möglich auch vorherzusagen, wo sich die Hefe ausbreitet, um Ausbrüche verhindern zu können. Durch die Berücksichtigung von Genomdaten zusammen mit anderen Informationen können die Forscher herausfinden, wie die Menschen mit dem Pilz in Kontakt gekommen sind, wohin sich der Pilz wahrscheinlich geografisch bewegt, und sogar die Einschleppung des Erregers in neue Gebiete aufdecken, bevor Ausbrüche auftreten oder entdeckt werden.


 Der Artikel ist erstmals am 30. März 2023 in PLOS Blogs - DNA Science Blog unter dem Titel " The New Fungus Among Us, Candida auris" https://dnascience.plos.org/2023/03/30/the-new-fungus-among-us-candida-auris/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt. Der leicht gekürzte Artikel folgt so genau wie möglich der englischen Fassung.


Warnungen der Behörden


 

inge Sat, 08.04.2023 - 00:15

Decodierung des Gehirns: basierend auf Gehirnscans kann künstliche Intelligenz rekonstruieren, was wir sehen

Decodierung des Gehirns: basierend auf Gehirnscans kann künstliche Intelligenz rekonstruieren, was wir sehen

Do. 30.03.2023 — Redaktion

Redaktion

Icon Gehirn

 

Weltweit arbeiten Forscher daran, um aus der menschlichen Hirnaktivität mit Hilfe künstlicher Intelligenz zu verstehen, wie das Gehirn die Welt darstellt. Japanische Forscher von der Universität Osaka haben nun erstmals den im August 2022 eingeführten Text-Bild-Generator Stable Diffusion zur Interpretation der in einem funktionellen Magnetresonanztomographen (fMRI) erzeugten Gehirnscans menschlicher Probanden verwendet, die bestimmte Bilder betrachteten. Die Ergebnisse sind verblüffend - die mit KI aus den Gehirnscans nachgebildeten Bilder stimmten zu 80 % mit den betrachteten Originalen (in Farbe, Form, Inhalt, Bedeutung) überein. Die Technologie steckt allerdings noch in den Kinderschuhen und wurde erst mit wenigen Personen getestet. Eines Tages könnte sie aber Menschen helfen, zu kommunizieren oder Träume entschlüsseln, sagen die Forscher.*

Es klingt wie ein Science-Fiction-Roman: Forscher von der Universität Osaka haben erfolgreich ein System der künstlichen Intelligenz (KI) trainiert, das Bilder, die sich Menschen angesehen haben, auf der Grundlage ihrer Gehirnscans nachbildet. Die KI hat Bilder von Objekten generiert wie u.a. von einem Teddybär, einem Uhrenturm und einem Flugzeug, nachdem die Teilnehmer ähnliche Bilder gesehen hatten. Abbildung 1.

Abbildung 1. Gezeigte Bilder (roter Kasten, obere Reihe) und aus fMRI-Signalen rekonstruierte Bilder (grauer Kasten, untere Reihe) für einen Probanden (subj01) . (Quelle: Takagi und Nishimoto /bioRxiv, 2022 [1]; Lizenz: cc-by)

"Die Genauigkeit dieser neuen Methode ist beeindruckend", sagt Iris Groen, eine Neurowissenschaftlerin an der Universität Amsterdam, die nicht an der Forschung beteiligt war, zu Kamal Nahas vom Fachjournal Science.

Die Technologie, die Gehirnscans in Bilder umwandelt, ist zwar noch auf lange Zeit nicht für den öffentlichen Einsatz bereit, könnte sich aber eines Tages als nützlich erweisen, um zu verstehen, was in den Köpfen der Menschen vor sich geht, so die Forscher. Sobald die Wissenschaftler das Konzept weiter verfeinert haben, könnten Ärzte es dann einsetzen, um Menschen, die z. B. an Lähmungen leiden, bei der Kommunikation zu helfen. Es könnte auch Neurowissenschaftlern helfen, Träume zu interpretieren oder sogar zu verstehen, wie andere Spezies die Welt um sie herum wahrnehmen.

Die Forscher der Universität Osaka in Japan gehören zu den Wissenschaftlern, die KI einsetzen, um menschliche Gehirnscans zu verstehen. Ihr Ansatz ist dabei der erste, der den Text-Bild-Generator Stable Diffusion verwendet, der im August 2022 in die schnell wachsende KI-Szene eingeführt wurde. Ihr Modell ist auch viel einfacher, da es nur Tausende statt Millionen von Parametern oder Werten benötigt, die beim Training gelernt werden.

Details dazu hat das Team in einer neuen Arbeit auf dem Preprint-Server bioRxiv veröffentlicht (die Arbeit ist derzeit noch nicht begutachtet) [1]. Wie Science berichtet plant das Team, seine Ergebnisse auf einer bevorstehenden Konferenz zum Thema Computer Vision zu präsentieren.

Wie funktioniert das Ganze also?

Normalerweise gibt ein Benutzer ein Wort oder einen Satz ein, das Stable Diffusion - oder andere ähnliche Technologien wie DALL-E 2 (siehe Videos, unten) und Midjourney - in ein Bild umwandelt. Dieser Prozess funktioniert, weil die KI-Technologien viele vorhandene Bilder und die dazugehörigen Textbeschriftungen studiert haben - mit der Zeit ermöglicht dieses Training der Technologie, Muster zu erkennen, die sie dann auf der Grundlage einer Eingabeaufforderung neu erstellen kann.

Die Forscher gingen bei diesem Training noch einen Schritt weiter, indem sie einem KI-Modell beibrachten, funktionelle Magnetresonanztomographie-Daten (fMRI) mit Bildern zu verknüpfen. Genauer gesagt verwendeten die Forscher die fMRI- Scans von vier Teilnehmern, die sich im Rahmen einer früheren, nicht in Zusammenhang stehenden Studie 10 000 verschiedene Bilder von Menschen, Landschaften und Objekten angesehen hatten. Außerdem trainierten sie ein zweites KI-Modell, um die Gehirnaktivität in den fMRT-Daten mit Textbeschreibungen der Bilder zu verknüpfen, welche die Studienteilnehmer betrachteten.

Mit diesen beiden Modellen konnte Stable Diffusion die fMRI-Daten in relativ genaue Imitationen von Bildern umwandeln, die nicht Teil des KI-Trainingssets waren. Abbildung 2. Auf der Grundlage der Gehirnscans konnte das erste Modell die Perspektive und das Layout, das der Teilnehmer gesehen hatte, nachbilden, aber die erzeugten Bilder zeigten wolkige und unspezifische Figuren. Doch dann kam das zweite Modell zum Einsatz und konnte anhand der Textbeschreibungen aus den Trainingsbildern erkennen, auf welches Objekt die Personen blickten. Erhielt es also einen Gehirnscan, der einem der Trainingsbilder ähnelte, das als eine Person markiert war, die ein Flugzeug betrachtete, setzte es ein Flugzeug in das generierte Bild ein und folgte dabei der Perspektive des ersten Modells. Die Technologie erreichte eine Genauigkeit von etwa 80 Prozent.

Abbildung 2. Die Originalbilder (links) und die von der KI generierten Bilder für alle vier Teilnehmer. (Quelle: Takagi und Nishimoto /bioRxiv, 2022 [1]; Lizenz: cc-by)

In der Tat sehen die nachgebildeten Bilder den Originalen unheimlich ähnlich, wenn auch mit einigen deutlichen Unterschieden. Die von der KI generierte Version einer Lokomotive ist beispielsweise in einen düsteren grauen Nebel gehüllt, anstatt den fröhlichen, hellblauen Himmel des tatsächlichen Bildes zu zeigen. Und die KI-Darstellung eines Uhrenturms sieht eher wie ein abstraktes Kunstwerk aus als ein echtes Foto.

Grenzen der Technologie

Die Technologie ist vielversprechend, aber sie hat noch einige Grenzen. Sie kann nur Bilder von Objekten nachbilden, die in ihrem Schulungsmaterial enthalten sind. In der beschriebenen Studie hat die künstliche Intelligenz die Gehirnaktivität von nur vier Personen verarbeitet; das Modell müsste aber mit den Gehirnscans jeder neuen Person neu trainiert werden - ein teurer und zeitaufwändiger Prozess. Daher ist es unwahrscheinlich, dass die Technologie für die breite Öffentlichkeit zugänglich wird - zumindest nicht in ihrer derzeitigen Form.

"Das ist für den täglichen Gebrauch überhaupt nicht praktikabel", sagt Sikun Lin, ein Informatiker an der University of California Santa Barbara, der nicht an dem Projekt beteiligt war, gegenüber Carissa Wong von New Scientist.

Ganz allgemein betrachtet gibt es dazu größere Bedenken gegenüber KI-Technologien:

  • Inwieweit ist dies ein Diebstahl an menschlichen Künstlern, inwieweit werden Urheberrechtsgesetze verletzt?
  • Wird die Polizei dadurch voreingenommener gegenüber bestimmten Personengruppen,
  • Inwieweit trägt KI zu Fehlinformationen bei oder zur Verletzung unserer Privatsphäre?

Mit diesen und vielen anderen Fragen beschäftigen sich Ingenieure und Ethiker, und die Diskussionen werden wahrscheinlich noch für absehbare Zeit weitergehen, selbst wenn Wissenschaftler neue - und potenziell nützliche - Möglichkeiten für den Einsatz von KI entwickeln.

"Wenn es um sehr leistungsfähige Technologien geht - und offensichtlich wird die KI eine der leistungsfähigsten überhaupt sein - müssen wir vorsichtig sein", sagt Demis Hassabis, CEO des KI-Forschungslabors DeepMind, im vergangenen Jahr zu Billy Perrigo vom Time Magazine. "Es ist wie bei Experimentatoren, von denen viele nicht wissen, dass sie gefährliches Material in der Hand haben."


[1]  Yu Takagi & Shinji Nishimoto: High-resolution image reconstruction with latent diffusion models from human brain activity. bioRxiv preprint doi: https://doi.org/10.1101/2022.11.18.517004


 *Der vorliegende Artikel von Sarah Kuta ist unter dem Titel "This A.I. Used Brain Scans to Recreate Images People Saw" https://www.smithsonianmag.com/smart-news/this-ai-used-brain-scans-to-recreate-images-people-saw-180981768/ am 9. März 2023 im Smithsonian Magazin erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt.

Smithsonian Institution (Smithsonian, , https://www.si.edu/) ist eine bedeutende US-amerikanische Forschungs- und Bildungseinrichtung, die auch zahlreiche Museen, Galerien und den Nationalzoo betreibt. Das Smithsonian stellt seine komplette Sammlung nach und nach in elektronischer Form (2D und teilweise 3D) unter der freien CC-0-Lizenz kostenlos zur Weiterverbreitung zur Verfügung. Das Smithsonian Magazine (aus dem der obige Artikel stammt) bringt eine Fülle faszinierender, leicht verständlicher Artikelaus allen Bereichen der Natur und der Gesellschaften. https://www.smithsonianmag.com/?utm_source=siedu&utm_medium=referral&utm_campaign=home.


 Weiterführende Links

Stable Diffusion Public Release (22.08.2022); ein Deep-Learning-Text-zu-Bild-Generator. Das Open-Source-Programm wird hauptsächlich zur Generierung detaillierter Bilder auf der Grundlage von Textbeschreibungen verwendet. https://stability.ai/blog/stable-diffusion-public-release

Stability AI Launch. Video 52:50 min.  https://www.youtube.com/watch?v=S3qlqY_sOPw

DALL•E 2 Explained (06.04.2022). Video 2:46 min. . https://www.youtube.com/watch?v=qTgPSKKjfVg. DALL•E 2 is a new AI system that can create realistic images and art from a description in natural language

DALL-E 2 Tutorial für Anfänger | Bilder erstellen & bearbeiten mit Künstlicher Intelligenz. Video 14:28 min.https://www.youtube.com/watch?v=sZ_n1vV0aJY .  Kostenlos Bilder aus Worten generieren lassen mit der KI von Openai. Dalle kann aber noch mehr als das.


 

inge Wed, 29.03.2023 - 18:06

Neuronen sind Energiefresser

Neuronen sind Energiefresser

Do, 23.03.2023 — Nora Schultz

Nora SchultzIcon Hirn-Energie

Das Gehirn ist der größte Energiefresser des Körpers und gleichzeitig ungemein komplex. Das Gehirn des Menschen besteht aus rund 86 Milliarden Neuronen und obwohl viel Energie in die Kommunikation über die elektrischen Impulse auf der Membran läuft, verbrauchen auch die Prozesse im Inneren der Zelle eine gehörige Menge davon. Geliefert wird sie von bestimmten Zellorganellen, den Mitochondrien – sie bilden das Hauptkraftwerk sämtlicher Körperzellen.*

„It’s the economy, stupid.“ Der Spruch, der Bill Clintons Wahlkampagne 1992 mit zum Sieg verhalf, taugt auch als Motto für das Gehirn. Denn im Kopf kommt es ebenfalls entscheidend auf die Wirtschaft an – genauer gesagt: auf die Energiewirtschaft. Ohne eine stets ausbalancierte Energiezufuhr und -verteilung gelingen keine Geistesblitze und drohen schlimmstenfalls Zelltod und bleibende Schäden im Gehirn.

Abbildung 1. Die Energieversorgung der Neuronen. Das einzelne Neuron enthält verschiedene Bereiche mit unterschiedlichen Aufgaben, und sie verzweigt sich über weite Distanzen. Dadurch wird der Transport von Substanzen innerhalb der Zelle zur Herausforderung, auch der von Mitochondrien, den Kraftwerken der Zelle. (Grafik MW

Knapp anderthalb Kilo gallertartige Masse im Kopf verschlingen bis zu 20 Prozent des gesamten menschlichen Energieumsatzes – allein dies zeigt, wie anspruchsvoll unser Oberstübchen ist. Unter Ruhebedingungen geht der größte Stromverbrauch– wenig überraschend – auf das Konto der Nervenzellen. Viel Rechnerei ist teuer. Das gilt nicht nur für das Schürfen von Kryptowährung, sondern auch für den Datenaustausch im Gehirn.

Neuronen verrechnen Informationen und leiten sie weiter, indem sie ständig Neurotransmitter und Ionen durch ihre Zellmembranen transportieren. Dafür müssen sie fortwährend Transportkanäle öffnen, und brauchen viel Energie, um molekulare Pumpen zu bedienen und die Kanäle wieder zu schließen.

Zwar verbrauchen auch andere Zelltypen im Gehirn viel Energie, wie etwa die ebenso zahlreichen Gliazellen. Die Nervenzellen aber ragen als Rechenkünstler hervor. Abbildung 1.

Schon ihre Gestalt regt die Fantasie an. Neurone sind halb Baumwesen, halb Alien: Der „Kopf“ eines Neurons – der Zellkörper, der den Zellkern enthält – vernetzt sich über die vielen Antennen seiner fein verästelten Krone mit unzähligen anderen Neuronen. Seine Krone ist beindruckend ausladend – ihre Arme, die Dendriten erstrecken sich beispielsweise in den besonders großen Pyramidenzellen der Großhirnrinde über mehrere hundert Mikrometer, während der Zellkörper nur 20 Mikrometer Durchmesser hat. Abbildung 2. Verglichen mit dem „Stamm“ der Zelle – dem Axon – wirken die Dendriten allerdings winzig. Gemessen an den Maßstäben anderer Zellen schlängelt sich das Axon über gigantische Distanzen von bis zu einem Meter durchs Nervensystem und dockt am Ziel über das ebenfalls stark verzweigte Wurzelwerk der Axonterminale erneut an viele Partnerzellen an.

Abbildung 2. Schematische Darstellung einer Nervenzelle und einer Helferzelle (Gliazelle). Neuronen sind auf Helferzellen angewiesen, die Blutgefäße anzapfen und vorverdauten Treibstoff an Neurone weitergeben (Bild von Redn. eingefügt, leicht modifiziert: Blausen.com staff (2014). "Medical gallery of Blausen Medical 2014". WikiJournal of Medicine 1 (2). DOI:10.15347/wjm/2014.010. Lizenz: cc-by.)

Der Bedarf

Eine durchschnittliche Nervenzelle kommt so auf zehntausende Kontaktstellen (Synapsen) mit anderen Neuronen. Jede dieser Synapsen besteht aus einem präsynaptischen Terminal – einem Knöpfchen am Ende eines Axons – das Signale weitergibt, und einem postsynaptischen Terminal in Gestalt eines „Knubbels“, das sie empfängt. Abbildung 3, Ausschnitt. Signale überqueren den Spalt zwischen den Terminalen immer in Form kleiner Moleküle, den Neurotransmittern. Am postsynaptischen Terminal werden sie von spezialisierten Empfängereiweißen (Rezeptoren) erkannt. Diese lösen dann eine Reaktion aus, die das Neuron mit vielen Signalen, die es über seine anderen Synapsen empfängt, verrechnet. Je nach Rechenergebnis feuert die Zelle dann ein Aktionspotential, bei dem sich ein elektrisches Signal in einer Kettenreaktion entlang des Axons bis in die präsynaptischen Endungen fortpflanzt und über die dort liegenden Synapsen weitere Neurone erreicht. Aktionspotentiale sind immer gleich stark, unterscheiden sich aber in ihrer Häufigkeit – von Zelle zu Zelle und Situation zu Situation. Abbildung 3.

Abbildung 3. Signalübertragung zwischen zwei Neuronen. Detail: Übertragung an der Synapse. (Bild von Redn. eingefügt: Christy Krames, MA, CMI — https://web.archive.org/web/20070713113018/http://www.nia.nih.gov/Alzheimers/Publications. Lizenz: gemeinfrei)

Die Weitläufigkeit und Gliederung der Neuronen in verschiedene Bereiche (Kompartimente) lässt erahnen, welche Herausforderungen die Energieversorgung darstellt. Es gilt, jede Menge Prozesse und Materialien im Gleichgewicht – auch Homöostase genannt – zu halten. Je nachdem, was in den einzelnen Kompartimenten eines Neurons geschieht – in den Dendriten, dem Zellkörper, dem Axon oder den Synapsen – müssen Signale und Stoffe in andere Kompartimente geschickt, nach außen abgeben oder aus der Umgebung aufgenommen werden. Sowohl die Ausschüttung und Aufnahme von Neurotransmittern als auch die Verarbeitung von Informationen und der Weitertransport von Signalen entlang des Axons gehen mit chemischen und elektrischen Veränderungen an der Zellmembran einher. Ionenkanäle öffnen oder schließen sich und lassen positiv geladene Natrium-, Calcium- oder Kaliumionen oder negativ geladene Chlorionen in die Zelle hinein- oder aus ihr herausströmen, bzw. pumpen sie aktiv von einer Seite zur andern.

Dieses dynamische Gleichgewicht in der lebenden Zelle zu beobachten, ist nicht einfach und wird erst mit neueren Methoden nach und nach möglich. Klar ist, dass der dabei fortwährende Transport von Ionen und Neurotransmittern viel Energie frisst. Im Vergleich zu menschgemachten Computern und anderen Maschinen arbeitet das Gehirn allerdings – zumindest nach aktuellem Stand der Technik – viel effizienter. Sein Energieumsatz ähnelt mit knapp 20 Watt dem einer Energiesparlampe. Ein Laptop braucht locker das Doppelte, ist aber viel weniger leistungsfähig. Der Supercomputer SpiNNaker , der circa ein Prozent des menschlichen Gehirns zu simulieren vermag, braucht dafür 100 Megawatt.

Abbildung 4. Neuronale Mitochondrien in den unterschiedlichen Kompartimenten des Neurons. (A) Mitochondrien werden mit Hilfe eines fluoreszierenden mitochondrialen Proteins (rot) sichtbar gemacht. (B) Schematische Darstellung der Kompartimente eines Neurons, wobei das lange Axon und mehrere Dendriten vom Zellkörper (Soma), der den Zellkern enthält, ausgehen. Axonale Mitochondrien sind klein und spärlich, während dendritische Mitochondrien größer sind und ein größeres Volumen des Prozesses einnehmen. Die Mitochondrien sind im Soma dicht gepackt. Maßstab: 20 µm, 10 µm in Vergrößerungen i und ii.(Bild von Redn. eingefügt; leicht modifiziert nach Seager R, et al (2020), Doi: https://doi.org/10.1042/NS20200008. Lizenz: cc-by)

Die Dienstleister

Diese Aufgabe übernehmen allen voran die Astrozyten, sternförmige Gliazellen die mit ihren Endfüßchen wie Zapfsäulen an den Blutgefäßen hängen. Die Astrozyten könne die Blutgefäße verengen und auch erweitern, und sind damit ein wichtiger Regler für den energiereichen Blutfluss. Weitere Ausläufer legen Astrozyten handschuhartig um die postsynaptischen Regionen von Nervenzellen, wo der Energiebedarf besonders hoch ist. Im Gegensatz zu Neuronen können Astrozyten Glukose gut speichern, und zwar – genau wie die Leber – in Form von Glykogen. Außerdem reichen Astrozyten die Glukose, die sie dem Blut oder aus ihren Glykogenvorräten entnehmen, nicht direkt als Treibstoff an die Neuronen weiter, sondern verstoffwechseln sie zunächst zu Milchsäure. Dieses Zwischenprodukt kann dann nach nur einem einzigen weiteren Umwandlungsschritt direkt in die Atmungskette der Mitochondrien eingespeist werden. Abbildung 4.

Andere Gliazellen, die Oligodendrozyten, spielen ebenfalls eine Rolle bei der Versorgung der Axone. Bekannter als Urheber der isolierenden Myelinschicht, die Axone umwickelt und ihre elektrische Leitfähigkeit erhöht, halten Oligodendrozyten ebenfalls als Energielieferanten her. Auch sie schütten Milchsäure aus, die Mitochondrien im Axon dann schnell verwenden können. Die Liefermenge wird dabei an den Energiebedarf angepasst: je häufiger ein Neuron feuert, desto mehr Glukosetransporter bauen die Oligodendrozyten in ihre Membran ein, und desto mehr Energie können sie aus dem Blut aufnehmen und an ihr Axon weitergeben. Dieser maßgeschneiderte Lieferdienst gelingt, weil die Oligodendrozyten über spezielle Empfangsmoleküle „hören“ können, wie aktiv ein Neuron ist. Diese NMDA-Rezeptoren (für N-Methyl-D-Asparaginsäure) erkennen nämlich eine Verbindung, die jedes Mal freigesetzt wird, wenn eine Nervenzelle ein Aktionspotential „abfeuert“.

Mit diesem komplexen Versorgungsnetzwerk aus Gliazellen, Transportkanälen und Mitochondrien schaffen Neurone es im Idealfall, ihre Energieversorgung dynamisch im Gleichgewicht zu halten. Das gelingt allerdings nicht immer. Wird der Nachschub von Glukose und Sauerstoff aus dem Blut unterbrochen oder eingeschränkt, zum Beispiel bei einem Schlaganfall, kommt es schnell zum Zelltod und zu neuronalen Funktionsstörungen. Auch Entzündungsprozesse können die sensible Balance stören oder wichtige Komponenten der Energieversorgung schädigen. Neurologische Erkrankungen wie Demenz, Multiple Sklerose und die Parkinson-Krankheit haben fast immer eine energetische Komponente. Insofern dürfte der erfolgreiche Wahlslogan der Clinton-Kampagne leicht abgewandelt auch in der Hirnforschung noch länger Bestand haben: It’s the Energieversorgung, stupid!


  * Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Im Fokus des Monats März steht das Thema "Energie". Der vorliegende Artikel ist am 15.3.2023 unter dem Titel: "Energieversorgung der Neurone" https://www.dasgehirn.info/grundlagen/energie/energieversorgung-der-neurone erschienen. Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog gestellt, die Abbildungen von der Redaktion eingefügt.


 Zum Weiterlesen

• Deitmer JW, et al: Unser hungriges Gehirn: Welche Rolle spielen Gliazellen bei der Energieversorgung? e-Neuroforum 2017, 23(1):2.12. Doi: https://doi.org/10.1515/nf.2016-1102

• Saab AS et al.: Oligodendroglial NMDA Receptors Regulate Glucose Import and Axonal Energy Metabolism. Neuron 2016 Jul; 91:119–132. Doi: http://dx.doi.org/10.1016/j.neuron.2016.05.016

• Seager R, et al: Mechanisms and roles of mitochondrial localisation and dynamics in neuronal function. Neuronal Signal 2020 Jun; 4(2): NS20200008. Doi: https://doi.org/10.1042/NS20200008


Artikel im ScienceBlog

Rund 60 Artikel zu verschiedenen Aspekten des Gehirns - u.a. zu den zellulären Komponenten und zur Signalübertragung - finden sich im Themenschwerpunkt Gehirn.


 

 

inge Thu, 23.03.2023 - 17:15

Ökologie ist eine treibende Kraft in der Verbreitung von Resistenzen gegen Aminoglykoside

Ökologie ist eine treibende Kraft in der Verbreitung von Resistenzen gegen Aminoglykoside

Fr. 17.03.2023 — Redaktion

Redaktion

Icon Molekularbiologie

Die weltweite Ausbreitung der Antibiotikaresistenz in Umwelt und Bevölkerung könnte nicht - wie bisher angenommen - nur auf den übermäßigen Einsatz von Antibiotika in Landwirtschaft und Medizin zurückzuführen sein. Eine neue, enorm umfangreiche Analyse über die Verbreitung von Resistenzgenen gegen die seit den 1940er Jahren angewandte Antibiotika-Klasse der Aminoglykoside bringt wichtige neue Erkenntnisse über eine wesentliche Rolle von Ökologie (Biome) und menschlich generiertem Austausch (Importe durch Einwanderung und Wareneinfuhr). Die Rolle der Ökologie erscheint nicht verwunderlich, beruhen doch die meisten Antibiotika auf von Bakterien und Pilzen produzierten Naturstoffen, gegen die andere Mikroorgannismen - auch ganz ohne menschliche Einflussnahme - Resistenzen entwickelt haben und weiter entwickeln.* 

Nach wie vor stellt Antibiotikaresistenz - die Fähigkeit von Bakterien, selbst die härtesten klinischen Behandlungen zu überleben - in der ganzen Welt ein massives Problem für die Gesundheit der Bevölkerung dar. Häufig wird der übermäßige Einsatz von Antibiotika in Medizin und Landwirtschaft als treibende Kraft für die Entstehung und Ausbreitung von Bakterien angesehen, die gegen Antibiotika resistent sind. In Gebieten, die stark von den Tätigkeiten des Menschen geprägt sind, kann exzessive Antibiotika Anwendung sicherlich die Selektion von Bakterien mit resistenten Genen gegen Antibiotika erklären. Dass aber Resistenzgene gegen klinisch relevante Antibiotika in Gegenden weitab von Krankenhäusern und landwirtschaftlichen Betrieben weit verbreitet sind, ist so nicht erklärbar. Tatsächlich wurden solche Gene sogar in so entlegenen Umwelten wie dem arktischen Permafrost und der Antarktis gefunden.

Nun berichten Léa Pradier und Stéphanie Bedhomme von der Universität Montpellier im Fachjournal eLife über die Ergebnisse einer Studie, die Licht in diese Fragestellung bringt [1]. Die Forscherinnen haben eine der bisher umfangreichsten Studien über Resistenzgene gegen Antibiotika durchgeführt, wobei der Schwerpunkt auf der Resistenz gegen Aminoglykoside lag.

Aminoglykoside

sind eine altbekannte, häufig angewandte Familie von Antibiotika, welche die Proteinsynthese von Bakterien blockieren. Der erste Vertreter dieser Klasse - das aus dem Bodenbakterium Streptomyces griseus isolierte Streptomycin - wurde bereits 1944 erfolgreich gegen Tuberkulose eingesetzt und erwies sich als erstes wirksames Mittel gegen gram-negative Bakterien. Später landeten noch weitere Isolate wie Kanamycin, Neomycin, Apramycin und chemisch modifizierte weiere Aminoglykoside in der Klinik. Bald tauchten aber erste Befunde zu resistenten Bakterienstämmen auf; zusammen mit einer Injektion erfordernden Applikationsart und ernsten Nebenwirkungen auf Niere und Gehör kam es zu einer stark reduzierten Anwendung von Aminoglykosiden in der Humanmedizin, die nun im wesentlichen als Mittel der zweiten Wahl oder als letzte Möglichkeit in der Behandlung von Infektionen mit gram-negativen Bakterien eingesetzt werden. Nach wie vor haben diese Antibiotika hohe Bedeutung in der Veterinärmedizin.

Die häufigste Ursache für die Entstehung von Aminoglykosidresistenz in klinischen Isolaten sind inaktivierende Enzyme, die die Übertragung chemischer Gruppen an Aminoglykosidmolekülen katalysieren: ein so modifiziertes Medikament kann dann nur mehr schlecht an seine Zielstruktur binden - es wurde unwirksam. Solche Aminoglykosid-modifizierende Enzyme (AMEs) sind biochemisch gut charakterisiert, ihre Bezeichnung basiert auf der Gruppe, die sie übertragen Die klassische Nomenklatur der AMEs basiert auf der Gruppe, die sie übertragen (d. h. Acetyltransferasen, AACs; Nukleotidyltransferasen, ANTs; und Phosphotransferasen, APHs).

Die Studie

Mit dem Ziel die zeitlichen, räumlichen und ökologischen Verteilungsmuster der Aminoglykosid-Resistenz zu beschreiben, haben Pradier und Bedhomme mehr als 160.000 öffentlich zugängliche Genome von Bakterien auf 27 Cluster von homologen Genen (CHGs - Gene, deren Sequenz einen gemeinsamen Vorläufer wahrscheinlich macht) untersucht, die für Aminoglykosid-modifizierende Enzyme kodieren (AME-Gene). Die Sequenzierungsdaten stammten von Bakterien aus allen Kontinenten (außer der Antarktis) und terrestrischen Ökoregionen (Biomen) und betreffen mit insgesamt 54 Bakterienstämmen (Phyla) die weitaus überwiegende Mehrheit aller Bakterien-Phyla. Die zur Sequenzierung herangezogenen Bakterien waren im Zeitraum zwischen 1885 und 2019 gesammelt worden, die meisten davon erst nach 1990.

Zusätzlich zu Ort und Datum der Probenahme wurden in der Studie auch die Anzahl der in den einzelnen Ländern konsumierten Antibiotika, die Handelsrouten und die menschliche Migration berücksichtigt.

Die Ergebnisse

Abbildung 1 Globale Verteilung von Aminoglykosid-resistenten Bakterien. Die Größe der Kreise ist ein Maß für die Zahl der untersuchten Genome. (Bild von Redn. eingefügt und leicht modifiziert nach L. Pradier and S. Bedhomme (2023), [1]; Lizenz cc-by.)

Resistenzgene gegen Aminoglykoside

zeigen eine weltweite geographische Verbreitung, sie kommen in allen Ökoregionen (Biomen) vor und wurden in 23 der 54 sequenzierten Bakterienstämme entdeckt. In den insgesamt rund 160 000 bakteriellen Genomen wurden 46 053 AME-Gene - d.i. in rund 25 % aller untersuchten Bakterien-Genomen - gefunden. In den meisten Regionen liegt die Häufigkeit der AME-Gen-tragenden Bakterien zwischen 20 % und 40 %; sie reicht von 10 % in Japan, Osteuropa und Ostafrika bis zu 50% in Indonesien, Mexiko und der Türkei. Abbildung 1.

Die Verteilung der für AME-kodierenden Gencluster

weist geographisch eine hohe Heterogenität auf (Abbildung 2). Bestimmte (für Acetyltransferasen AACf1 kodierende) Resistenzgene dominierten in der südlichen Hemisphäre von Afrika, Asien und Australien , während in den US und Westeuropa eine ausgewogene Mischung von Resistenzgenen detektiert wurde.

Abbildung 2 Wie sich die 27 für die Aminoglykosid-modifizierenden Enzyme (AME) kodierenden Gencluster global verteilen. Die Bezeichnung der Gencluster basiert auf der Gruppe, die die entsprechenden Enzyme übertragen: AACs = Acetyltransferasen; ANTs = Nukleotidyltransferasen, und APHs = Phosphotransferasen). (Bild von Redn. eingefügt und leicht modifiziert nach L. Pradier and S. Bedhomme (2023), [1]; Lizenz cc-by.)

Die Forscherinnen fanden heraus, dass die Häufigkeit von Aminoglykosid-Resistenzgenen zwischen den 1940er und 1980er Jahren zugenommen hat, was wahrscheinlich auf den verstärkten Einsatz von Aminoglykosid-Antibiotika nach der Entdeckung von Streptomycin im Jahr 1943 zurückzuführen ist, dann aber - trotz eines allgemeinen Rückgangs des Verbrauchs - bei einer Prävalenz von etwa 30 % blieb. Entscheidend ist, dass sie auch entdeckten, dass etwa 40 % der Resistenzgene potenziell mobil sind, d. h. leicht zwischen Bakterien ausgetauscht werden können.

Vorkommen in den Biomen

Pradier und Bedhomme stellten außerdem fest, dass antibiotikaresistente Bakterien in den meisten Biomen vorkommen, nicht nur in Krankenhäusern und landwirtschaftlichen Betrieben. (Abbildung 3).

Abbildung 3.Resistenzgene gegen Aminoglykoside wurden bereits 4 Jahrzehnte vor der erstmaligen klinischen Anwendung entdeckt (oben) und sie sind nun in allen untersuchten Biomen in einer Häufigkeit von knapp über 0 bis 30 % präsent (unten: blau bis rot; leere Kästchen bedeuten 0 Resistenzgene). Die Bezeichnung der Gencluster basiert auf der Gruppe, welche die entsprechenden Enzyme übertragen: AACs = Acetyltransferasen; ANTs = Nukleotidyltransferasen, und APHs = Phosphotransferasen. (Bild von Redn. eingefügt und leicht modifiziert nach L. Pradier and S. Bedhomme (2023), [1]; Lizenz cc-by)

Darüber hinaus fanden sie, dass die Prävalenz von Aminoglykosid-Resistenzgenen von Biom zu Biom stärker variierte, als dies mit der geografischen Lage von Menschen oder der Menge der verwendeten Antibiotika der Fall war. Für das Biom Mensch bedeutet dies, dass die in einem Land festgestellte Antibiotikaresistenz viel wahrscheinlicher mit der Antibiotikaresistenz in einem entfernteren Land korreliert ist, als mit der in der näheren Umgebung im Biom Boden oder im Biom Tiere.

Außerdem entdeckten sie, dass Biome wie Boden und Abwasser wahrscheinlich eine Schlüsselrolle bei der Verbreitung der Gene für die Antibiotikaresistenz über verschiedene Biome hinweg spielen. Eine Analyse der in Europa zwischen 1997 und 2018 gesammelten Proben zeigt deutlich wovon die Häufigkeit des Vorkommens von 16 AME-Gencluster abhängt: in 80 % der Fälle ist die Ökologie treibende Kraft in der Verbreitung der Resistenzgene, in 13 % menschlich generierter Austausch (Importe durch Einwanderung und Wareneinfuhr) und nur in 7 % der Fälle (übermäßige ) Anwendung.

Fragen

Diese Ergebnisse werfen wichtige Fragen zu den Mechanismen auf, die der Ausbreitung der Antibiotikaresistenz zugrunde liegen.

  • Welche Faktoren begünstigen die Ausbreitung der Antibiotikaresistenz in Umgebungen, die nicht durch menschliche Aktivitäten beeinflusst werden?
  • Können wir die von den Aminoglykosiden erhaltenen Ergebnisse auf alle anderen Antibiotikaklassen übertragen?
  • Ist es möglich, dass die Antibiotikaresistenz eher auf Interaktionen mit lokalen mikrobiellen Gemeinschaften zurückzuführen ist, als auf die Exposition gegenüber kommerziellen Antibiotika?
  • Verbreiten sich die Gene für die Antibiotikaresistenz in den pathogenen Bakterien, die für Infektionen bei Mensch und Tier verantwortlich sind, auf die gleiche Weise wie in den nicht-pathogenen Bakterien?
  • Was begrenzt angesichts des Ausmaßes des Selektionsdrucks durch die menschliche Verschmutzung die Ausbreitung von Antibiotikaresistenzgenen zwischen Biomen, insbesondere angesichts des großen Anteils von Genen, die auf mobilen Elementen sitzen?

Es kann gut sein, dass der Verbrauch immer noch eine überragende Rolle spielt, wenn es um die Resistenz gegen Antibiotika geht, die zur Behandlung von Infektionen eingesetzt werden, insbesondere beim Menschen und in klinischen Biomen. Dennoch ist klar, dass wir der Rolle der Umwelt bei der Formulierung von Plänen zur Bekämpfung der Antibiotikaresistenz auf globaler Ebene mehr Aufmerksamkeit schenken müssen.


 [1] Pradier L, Bedhomme S. 2023. Ecology, more than antibiotics consumption, is the major predictor for the global distribution of aminoglycoside-modifying enzymes. eLife 12:e77015. doi: 10.7554/eLife.77015


 *Eine Zusammenfassung des Artikels von Léa Pradier und Stéphanie Bedhomme, 2023, [1] verfasst von Carolina Oliveira de Santana et al., ist am 8.3.2023 unter dem Titel "Antibiotic Resistance: A mobile Target " im eLife Magazin erschienen: :  https://elifesciences.org/articles/86697   . Der Text wurde von der Redaktion ins Deutsche übersetzt und mit einigen Textststellen und 4 Abbildungen aus dem Originaltext [1] plus Legenden ergänzt. eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz.


Antibiotika-Resistenz im ScienceBlog

Redaktion, 11.12.2022: Die globale Krise der Antibiotikaresistenz und diesbezügliches Wissen und Verhaltensweisen der EU-Bürger (Spezial Eurobarometer 522)

08.07.2021, Redaktion: Phagen und Vakzinen im Kampf gegen Antibiotika-resistente Bakterien

Karin Moelling, 29.08.2019: Ein Comeback der Phagentherapie?

Karin Moelling, 4.07.2019: Viren gegen multiresistente Bakterien. Teil 1: Was sind Phagen?

Inge Schuster, 23.09.2016: Gehen wir auf eine Post-Antibiotika Ära zu?

Gottfried Schatz, 30.05.2013: Planet der Mikroben — Warum wir Infektionskrankheiten nie endgültig besiegen werden


 

inge Fri, 17.03.2023 - 19:00

Laser - Technologie aus dem Quantenland mit unzähligen Anwendungsmöglichkeiten

Laser - Technologie aus dem Quantenland mit unzähligen Anwendungsmöglichkeiten

Do, 09.03.2023 — Roland Wengenmayr

Icon Physik

Roland Wengenmayr Laser sind heute überall. Sie befeuern die Glasfasernetze der Telekommunikation, machen dem Internet per Lichtpost Beine, stecken in Laserpointern oder -scannern. Starke Industrielaser bearbeiten Werkstoffe. Laser spüren in der Atmosphäre umweltschädliche Gase auf, in Satelliten erfassen sie kleinste Veränderungen auf der Erde. Jüngste Generationen „optischer“ Atomuhren messen mit Lasern die Zeit immer genauer, Laser steuern künftige Quantencomputer. Auch in der Medizin werden Laser vielfältig genutzt und können in Zukunft noch mehr leisten: Das BIRD-Team, darunter Forschende vom Max-Planck-Institut für Quantenoptik in Garching, will Blutproben auf winzigste molekulare Spuren zur Krebsfrüherkennung durchleuchten. Das erfordert Laser mit extrem kurzen Lichtpulsen, das Spezialgebiet von Ferenc Krausz, Direktor am Institut.*

Ort des Geschehens: ein Labor der Hughes Aircraft Company in der kalifornischen Stadt Culver. Am 16. Mai 1960 lässt dort der amerikanische Physiker Theodore Maiman eine spiralförmige Gasentladungslampe aufblitzen. In ihr steckt ein stabförmiger Rubinkristall, dessen Enden verspiegelt sind. Das Blitzlicht löst in dem Rubin den ersten Laserpuls der Welt aus. Bald konnte Maiman der Presse mit seinem Rubinlaser kräftige rote Laserblitze vorführen. Von ihm hörten die Anwesenden auch zum ersten Mal das Kunstwort „Laser“, für „Light Amplification by Stimulated Emission of Radiation“, auf Deutsch „Lichtverstärkung durch stimulierte Emission von Strahlung”. Heute sind Laser nicht nur Schlüsseltechnologien, sondern auch in der Grundlagenforschung allgegenwärtig. Forschende schauen mit den stärksten Laseranlagen der Welt immer tiefer in die Materie hinein oder verschmelzen damit Atomkerne. Mit schwächerem Laserlicht bremsen sie die Wärmebewegung der umherflitzenden Atome ab. Sie kühlen so die Atome bis fast auf den absoluten Temperaturnullpunkt hinunter und machen mit ihnen Quantenexperimente. Oder sie entwickeln ganz neue medizinische Methoden. Abbildung 1.

Abbildung 1. Laser für Krebsfrüherkennung. Christina Hofer an einem der vom BIRD-Team entwickelten Geräte: Mit ultrakurzen Laserblitzen soll es Krebs im Frühstadium in Blutproben aufspüren. Die zukünftigen Geräte sollen Tausende von Blutproben vollautomatisch analysieren. (Bild © Thorsten Naeser, Attoworld).

Der Laser bezieht seine Stärke aus reiner Quantenphysik. „Es ist mir ein prächtiges Licht über die Absorption und Emission von Strahlung aufgegangen, [es ist] alles ganz quantisch“, schrieb Albert Einstein 1916 begeistert seinem Freund Emile Besso. Einstein legte damals die theoretischen Grundlagen für den Laser, allerdings ohne diesen vorauszuahnen. Schon 1905 hatte er anhand des Fotoeffekts gezeigt, dass Licht und Materie ihre Energie nur in festen Paketen austauschen können. Beim Energieaustausch mit Materie verhält sich Licht also eher wie Teilchen in Form von Energiequanten, den Photonen. Sonst zeigt Licht oft den Charakter einer Welle. Dieser Welle-Teilchen-Dualismus zeichnet alle Objekte der Quantenwelt aus. Der Laser nutzt beide Eigenschaften.

Angeregte Elektronen

Atome können Licht nur als Energiequanten aufnehmen (absorbieren) oder abgeben (emittieren). Trifft ein Photon passender Energie auf ein Elektron eines Atoms, dann kann das Elektron das Photon absorbieren und in ein Orbital höherer Energie hüpfen. Umgekehrt kann das Elektron wieder auf seinen alten Platz herunterfallen, dabei emittiert es das überschüssige Energiequant erneut als Photon: Das Atom leuchtet.

Die Elektronen der Atomhülle lassen sich gruppenweise nach Energiestufen ordnen. Jeder Stufenabstand entspricht einem Quantensprung zwischen zwei benachbarten Energieniveaus in der Elektronenhülle. Eine „klassische“ Lichtquelle wie die Sonne oder eine Glühbirne besteht nun aus vielen verschiedenen Atomen, die wild durcheinander leuchten. Verschiedene Atomsorten mit unterschiedlichen Quantenübergängen emittieren Photonen vieler Frequenzen, also Energien oder Farben. Ihr unkoordiniertes Abstrahlen produziert ein optisches Chaos mit einer breiten Farbmischung, die ein nahezu weißes Licht ergibt.

In einem Laser geht es dagegen extrem geordnet zu. Er strahlt Licht in einer sehr reinen Farbe ab, das er kräftig verstärkt. Dazu füttert er es ständig mit neuen Energiepaketen, mit Photonen in der exakt passenden Lichtfarbe. Dieser Verstärkungsmechanismus benutzt nur wenige, aufeinander abgestimmte Atomsorten, die zusammenwirken. In diesem „Atomkollektiv“ trägt wiederum ein einziger Quantensprung zwischen zwei speziell geeigneten Energieniveaus zur Verstärkung bei. Das ist der Laserübergang. Zudem emittieren diese Atome ihre Lichtquanten auch noch im präzisen Gleichtakt mit der Lichtwelle, die sich im Laser wie in einem Resonanzkörper aufschwingt. Deshalb besteht Laserlicht normalerweise aus sehr langen Lichtwellenzügen, im Gegensatz zum Glühbirnenlicht.

Pingpong mit Quanten

Für die Verstärkung im Laser sorgt ein besonderer Effekt. Diese stimulierte Emission beschrieb Albert Einstein 1917, kurz nach seinem Brief an Besso. Er hatte erkannt, dass Atome nicht nur spontan Lichtquanten abstrahlen können, diese spontane Emission dominiert das Leuchten klassischer Lichtquellen. Wenn ein Photon an einem Atom vorbeifliegt, kann es dieses auch gezielt zur Lichtemission anregen, indem es ein Elektron von einem höheren Energieniveau sozusagen herunterschüttelt. Das Atom strahlt dabei ein Photon mit exakt der gleichen Energie – also Farbe – ab. Im Laser sind allerdings viele gleichartige Atome gemeinsam an der stimulierten Emission beteiligt. Damit die Lichtverstärkung funktioniert, müssen diese Atome zusammen zwei weitere Voraussetzungen erfüllen: Erstens müssen sich Elektronen auf dem höheren Energieniveau des Laserübergangs befinden, zweitens muss dieser Laserübergang genau der Energie der vorbeikommenden Photonen entsprechen (Abbildung 2).

Abbildung 2. Stimulierte Emission. Laserübergang zwischen Grundzustand und angeregtem Zustand der Atome im aktiven Lasermedium. Von links nach rechts: Ein Elektron wird in den oberen Zustand gepumpt, dann kommt ein Photon passender Energie vorbei und stimuliert das Elektron, im Gleichtakt ein zweites Photon gleicher Energie abzustrahlen, wobei es wieder in den Grundzustand zurückfällt. Danach wiederholt sich das Spiel immer weiter, solange der Laser läuft. © R. Wengenmayr / CC BY-NC-SA 4.0

Damit das alles im Laser zusammenpasst, benötigt er einen optischen Resonator aus zwei Spiegeln. Ihr Abstand ist exakt auf ein Vielfaches der zu verstärkenden Laserwellenlänge justiert. Zwischen ihnen laufen die Quanten des Laserlichts wie Pingpong-Bälle hin und her (Abbildung 3). Es gibt auch Laser mit noch mehr Resonatorspiegeln. Einer der Spiegel muss teilweise lichtdurchlässig sein. Durch ihn entwischt ein kleiner Anteil der Photonen und formt den Laserstrahl. Durch dieses gewollte Leck verliert der Laser allerdings permanent Energie. Deshalb benötigt er einen Lichtverstärker, der immer neue Elektronen im Laserübergang nachliefert. Das macht das aktive Lasermedium. Es steckt im Resonator und enthält die Atome, die im Laserübergang leuchten sollen. Wenn die Photonen beim Spiegel-Pingpong immer wieder das Lasermedium durchqueren, „schütteln“ sie die Elektronen dieser Atome so, dass sie in Lawinen den Laserübergang hinunterfallen. Diese stimulierte Emission wirft immer neue Photonen ins Pingpong-Spiel, und das Lichtfeld im Resonator schwillt an. Allerdings fehlt noch eine Zutat: Der Laser braucht noch eine „Pumpe“, die immer neue Elektronen in das sich entleerende obere Niveau des Laserübergangs nachliefert. Dieses permanente Pumpen versorgt den Laser auch mit Energie. Manche Laser strahlen in Pulsen, andere kontinuierlich. Zur ersten Kategorie gehört Maimans Rubinlaser, dessen Pumpe das Blitzlicht der Gasentladungslampe war. Neben diesen optisch gepumpten Lasern gibt es auch solche, in denen ein elektrischer Strom den Laserprozess pumpt. Dazu zählen die weit verbreiteten Laserdioden.

Abbildung 3. Aufbau eines Lasers. Beschreibung im Text. © R. Wengenmayr / CC BY-NC-SA 4.0

Pyramide auf den Kopf gestellt

Das Lasermedium muss die passende Atomsorte mit dem Quantensprung in der gewünschten Lichtfarbe enthalten. Überdies braucht es noch eine weitere wichtige Eigenschaft: Die Elektronen müssen lange genug auf dem oberen Energieniveau seines Laserübergangs verweilen. Sie dürfen nicht zu anfällig für die spontane Emission sein, die sich nicht völlig ausschalten lässt. Die spontane Emission sabotiert die koordinierte Lichtverstärkung, denn sie lässt die Elektronen außerhalb des Gleichtakts ins niedrigere Energieniveau fallen. Zudem muss das Pumpen das untere Energieniveau schnell genug leeren. Nur wenn die Elektronen in dem unteren Quantenzustand genug Platz finden, können sie ungehindert dort hineinfallen.

Hat das Lasermedium diese Eigenschaften, dann kann das Pumpen in ihm den richtigen Betriebszustand herstellen, die Besetzungsinversion. Normalerweise verteilen sich die Elektronen über die Energieniveaus der Atome wie in einer Pyramide: Die unteren Niveaus sind stark mit Elektronen bevölkert, die oberen immer dünner. Die Natur spart gerne Energie. Das Pumpen muss diese Besetzungspyramide nun auf den Kopf stellen (Abbildung 4): Im oberen Energieniveau des Laserübergangs müssen sich mehr Elektronen als im unteren sammeln. Erst dann finden die vorbeikommenden Photonen genügend Elektronen, die sich „herunterschütteln“ lassen

Abbildung 4. Besetzungsinversion. Normalerweise ist das untere Energieniveau der Atome im Lasermedium stärker mit Elektronen (blaue Kugeln) besetzt als das obere. Die Besetzungsinversion stellt diese Pyramide auf den Kopf. Im Laser schafft sie die Voraussetzung für Lichtverstärkung über induzierte Emission. © R. Wengenmayr / CC BY-NC-SA 4.0

Allerdings geschieht das Pumpen in den meisten Lasern nicht in einem einzigen Quantensprung, sondern mit Zwischen zuständen. Außerdem wird die Konstruktion eines Lasers umso anspruchsvoller, je kürzer die Wellenlänge seines Lichts sein soll. Mit schrumpfender Wellenlänge wächst nämlich die Energie der Photonen und damit auch der nötige Quantensprung im Laserübergang. Je höher das obere Energieniveau im Vergleich zum unteren liegt, desto anfälliger reagieren die Elektronen dort auf die sabotierende spontane Emission. Immer weniger von ihnen fallen im Rhythmus der induzierten Emission herunter. Die frühen Laser leuchteten aus diesem Grund im langwelligen roten oder infraroten Spektralbereich. Als der Japaner Shuji Nakamura 1995 die erste blau leuchtende Laserdiode vorstellte, war das eine Sensation. Noch viel kurzwelligere Röntgenlaser wie der European XFEL in Hamburg funktionieren wegen dieses Problems ganz anders. Sie beschleunigen freie Elektronen fast auf Lichtgeschwindigkeit und jagen sie dann durch ein wellenförmiges Magnetfeld: Das zwingt die Elektronen, nach vorne gerichtetes Röntgenlaserlicht abzustrahlen.

Mit Lasern gegen Krebs

Es gibt Laser, die kein „typisches“ Laserlicht erzeugen. Sie strahlen keine langen Lichtwellenzüge in einer reinen Farbe ab, sondern produzieren extrem kurze Pulse in einem Gemisch von Frequenzen. Besonders wichtig sind Femtosekundenpulse, denn auf dieser Zeitskala ändern sich chemische Bindungen und schwingen die Moleküle. Eine Femtosekunde ist der 1015-te Teil einer Sekunde (0,000000000000001 Sekunden). Selbst Licht kommt in einer Femtosekunde nur 300 Nanometer weit – das entspricht dem Durchmesser eines Herpes-Virus.

Ein Pionier der Ultrakurzpuls-Forschung ist Ferenc Krausz, Direktor am Max-Planck-Institut für Quantenoptik. Dieses Team, zu dem auch Forschende der Ludwig-Maximilians-Universität (LMU) in München gehören, will einen Traum verwirklichen: Ultrakurze Laserlichtblitze sollen es ermöglichen, bei Blut proben „gesund“ von „krank“ zu unterscheiden. Dazu nutzt es Infrarot-Laserpulse mit nur wenigen Femtosekunden Dauer. Im Messergebnis soll eine lernfähige Software nach Spuren von Molekülen suchen, die etwas über den Gesundheitszustand aussagen. „Zuerst wollen wir die häufigsten Krebsarten nachweisen können“, erklärt Mihaela Žigman, Leiterin der Breitband-Infrarotdiagnostik-Gruppe (BIRD): „Lungenkrebs, Brustkrebs, Prostatakrebs und Blasenkrebs.“ Die neue Technik soll Krebs schon früh am molekularen „Fingerabdruck“ im Blut entdecken, lange bevor sich gefährliche Tumore im Körper verbreiten können. Die Molekularbiologin ist zudem Direktorin am Center for Molecular Fingerprinting in Budapest. Von dort erhalten die Garchinger Tausende von Blutproben, die der Biologe Frank Fleischmann in einem speziellen Tiefkühlverfahren mit flüssigem Stickstoff für viele Jahre haltbar einlagert.

Die Entwicklung der nötigen komplexen Lasertechnologie leitet der Physiker Alexander Weigel. Er und Fleischmann führen im Garchinger Labor der LMU zu einem der gerade laufenden Geräte. „Dieser sogenannte Infrasampler (Abbildung 1) zieht automatisch Proben ein“, erklärt Fleischmann. Dann durchleuchtet das Gerät sie mit dem Infrarot-Laserlicht. Dessen kurzer Puls entspricht gerade mal einer einzigen Lichtschwingung und enthält viele verschiedene Infrarotfrequenzen. Solche Infrarot-Laserpulse regen dann unterschiedlichen Biomoleküle in den Blutproben zu charakteristischen Schwingungen an. „Der kurze, starke Infrarotpuls ist wie ein Gongschlag“, sagt Weigel. Jedes Biomolekül entspricht einem kleinen Gong, der nach dem Schlag in einer charakteristischen Frequenz nachschwingt. Dieses Nachschwingen macht die Moleküle selbst zu kleinen Sendern, die Infrarotlicht aussenden.

Das gesendete Antwortlicht ist extrem schwach, weshalb das Team es mit einer speziellen Empfängermethode aufzeichnet, elektro-optisches Sampling genannt. Nach dem kurzen, sehr hellen Infrarotlichtpuls, dem „Gongschlag“, wird es sofort dunkel. Nun lässt sich ungestört das Antwortlicht analysieren. Dazu tastet das elektro-optische Sampling die Wellenform des schwingenden elektrischen Feldes vom Antwortlicht ab. „Allerdings wäre eine Elektronik dafür viel zu langsam“, erklärt Weigel. Das Infrarotlicht, das von den Molekülen ausgesandt wird, schwingt nämlich mit einer Frequenz von bis zu mehreren zehn Terahertz. Ein Terahertz entspricht einer Billion, oder 1012 Schwingungen pro Sekunde. Entsprechend schnell muss der „Scanner“ sein, um die Wellenformen der Schwingungen zu erwischen. Die Garchinger nutzen dafür Femtosekunden-Laserpulse, die sie mit dem Antwortlicht überlagern. Diese kurzen Laserpulse tasten dann die elektrischen Feldschwingungen des Antwortlichtes ab, ungefähr wie ein Scannerstreifen, der über ein Blatt Papier wandert. Damit das funktioniert, muss das anregende Infrarotlicht echtes Laserlicht sein, eine starke Infrarotlampe wäre nicht genug. Nur dann lässt sich das Abtastlicht exakt auf die Form der abzutastenden Welle abstimmen. Das sich ergebende Lichtsignal kann dann aufgenommen und elektronisch verarbeitet werden, während das Instrument die nächste Probe vorbereitet. Das gemessene Signal gleicht einem „Fingerabdruck“ der Moleküle. Es zeigt so Änderungen im Blut an, die durch Krankheiten wie Krebs hervorgerufen werden. Mit Hilfe von Maschinenlernen wird das System an vielen Proben darauf trainiert, von selbst die gesuchten Änderungen der molekularen Fingerabdrücke zu erkennen.

Nicht nur die Signale der Moleküle selbst sind sehr schwach. Die gesuchten Moleküle sind auch in teils extrem geringen Konzentrationen in der Blutprobe vorhanden. Und zum Durchleuchten müssen diese Proben auch noch selbst wenige Mikroliter winzig sein. Ein Infrasampler muss darin die gesuchten Moleküle in Mengen von wenigen Nanogramm nachweisen können, erklärt Mihaela Žigman: „Noch ist das BIRD-Projekt Grundlagenforschung und frühestens in zehn bis 15 Jahren reif für den breiten Einsatz in der Medizin.“ Doch dann wäre es ein großer Fortschritt für die Gesundheitsvorsorge.


 * Der Artikel ist unter dem Titel: "Wunderlampe aus dem Quantenland – wie der Laser den Alltag und die Medizin erobert" im TECHMAX 06-Heft der Max-Planck-Gesellschaft im Winter 2022/23 in aktualisierter Form erschienen ((https://www.max-wissen.de/max-hefte/techmax-06-laser/). Mit Ausnahme des Titels wurde der unter einer cc-by-nc-sa Lizenz stehende Artikel  unverändert in den Blog übernommen.


Videos zum Thema

 Max-Planck-Gesellschaft: Laser - Licht in Formation. Video 5:26 min. https://www.youtube.com/watch?v=xFy9DNN0j4M

Max-Planck-Gesellschaft: Laser - Der schnellste Blitz der Welt. Video 8:30 min. https://www.youtube.com/watch?v=6zxzJqvzZMY&t=8s


 

inge Thu, 09.03.2023 - 00:07

Die ökonomischen Kosten von Krebserkrankungen

Die ökonomischen Kosten von Krebserkrankungen

Fr, 24.02.2023 — IIASA

IIASA Logo

Icon Medizin

Ein internationales Team unter Beteiligung von IIASA-Forschern hat die globalen wirtschaftlichen Kosten, die auf Grund der aktuellen Verluste bei den Arbeits- und Behandlungskosten von Krebserkrankungen entstehen, für einen künftigen Zeitraum von drei Jahrzehnten ab 2020 errechnet. Der Schätzung zufolge werden sich diese Kosten zwischen 2020 und 2050 auf 25,2 Billionen Dollar (zu internationalen Preisen von 2017) belaufen, was 0,55 % des globalen jährlichen Bruttoinlandsprodukts entspricht. Die Krebsformen, die dazu am meisten beitragen (insgesamt 47 % der Gesamtkosten) wurden als Krebs von Lunge/Atmungstrakt, Kolon-und Rektumkarzinom, Brustkrebs, Leberkrebs und Leukämie identifiziert. Die Inzidenz der ersten 4 Krebsarten kann durch Präventivmaßnahmen reduziert werden - Investitionen in solche Maßnahmen erscheinen für den Schutz der globalen Gesundheit und des wirtschaftlichen Wohlergehens unerlässlich.*

Krebserkrankungen zählen weltweit zu den häufigsten Todesursachen und fordern jedes Jahr fast 10 Millionen Menschenleben. Die Häufigkeit der Krebserkrankungen nimmt zu; schuld daran sind das Altern der Bevölkerung, Rauchen, Alkoholkonsum, ungesunde Ernährung, Bewegungsmangel und Luftverschmutzung. Krebs bedeutet nicht nur Leid für das Leben der Menschen, sondern auch Schaden für die Wirtschaft - infolge von Einbußen in der Produktivität, Ausfall von Arbeitskräften und Investitionsrückgängen stellen Krebserkrankungen eine enorme finanzielle Belastung für die Länder dar.

Die durch Krebserkrankungen verursachten gesundheitlichen und wirtschaftlichen Belastungen werden klar als dringende Anliegen gesehen: dies geht hervor aus der von Präsident Biden erneut ins Leben gerufenen Cancer Moonshot Initiative, aus dem Globalen Aktionsplan zu Prävalenz und Kontrolle von nicht-übertragbaren Krankheiten der WHO sowie aus dem von den Vereinten Nationen definierten Ziel 3.4 für nachhaltige Entwicklung (SDG 3.4), das anstrebt mit Hilfe von Prävention und Therapie die durch nicht-übertragbaren Krankheiten bedingte vorzeitige Sterblichkeit bis 2030 um ein Drittel zu senken. Trotz dieser dringlichen Sachlage sind die globalen wirtschaftlichen Kosten von Krebserkrankungen bis jetzt noch nicht umfassend untersucht worden.

Um diese Lücke zu schließen und die politischen Entscheidungsträgern dabei zu unterstützen, die Zunahme von krebsbedingten Todesfällen und Invalidität einzudämmen, hat sich ein internationales Forscherteam daran gemacht, die wirtschaftlichen Kosten von 29 Krebsarten in 204 Ländern und Regionen abzuschätzen, die insgesamt die meisten Länder der Welt abdecken. Die Studie wurde in der Fachzeitschrift Journal of the American Medical Association (JAMA) - Oncology veröffentlicht [1]; darin wurde ein umfassendes Modellierungs-Framework angewandt, um die makroökonomischen Kosten von Krebs in Form von entgangenem BIP zu schätzen.

"Viele der aktuellen wirtschaftlichen Studien über Krebs sind rein statisch und lassen die künftigen Folgen der aktuellen Verluste bei den Arbeits- und Behandlungskosten außer Acht", sagt Michael Kuhn, Direktor des IIASA Economic Frontiers Program, der an der Studie mitgewirkt hat. "Unsere Arbeit ist insofern bahnbrechend, als sie die makroökonomischen Kosten von Krebs mit Hilfe eines Modells abschätzt, das viele der wirtschaftlichen Anpassungsmechanismen einbezieht und Veränderungen des Arbeitsangebots aufgrund von Krebsmortalität und -morbidität sowie den Verlust von Kapitalinvestitionen im Zusammenhang mit den Behandlungskosten berücksichtigt."

Die Studie schätzt die weltweiten wirtschaftlichen Kosten von Krebserkrankungen für den Zeitraum 2020-2050 auf rund 25,2 Billionen US-Dollar (INT$, zu konstanten Preisen von 2017), was einer jährlichen Steuer von 0,55 % auf das globale Bruttoinlandsprodukt entspricht. Die Forscher haben auch die Krebsarten identifiziert, welche die höchste wirtschaftliche Belastung verursachen, wobei Lungenkrebs(15,4 %) an erster Stelle steht, gefolgt von Colon- und Rektumkarzinom (10,9 %), Brustkrebs (7,7 %), Leberkrebs (6,5 %) und Leukämie (6,3). Für die einzelnen Länder und Regionen ist dies in der Abbildung unten dargestellt.

 

Abbildung. Für die einzelnen Länder ist jeweils die Krebsart mit den höchsten wirtschaftlichen Kosten im Zeitraum 2020-2050 dargestellt. (TBL: Tracheal-, Bronchial- und Lungenkrebs). Beschriftung von Redn.verändert.

Weiters zeigen die Ergebnisse, dass Gesundheitskosten und ökonomische Kosten von Krebserkrankungen ungleich zwischen den Ländern und Regionen verteilt sind. China und die Vereinigten Staaten sind in absoluten Zahlen mit 24,1 % bzw. 20,8 % der globalen ökonomischen Gesamtkosten von Krebserkrankungen am stärksten betroffen. Während die meisten Krebstodesfälle in Ländern mit niedrigem und mittlerem Einkommen auftreten, beträgt ihr Anteil an den wirtschaftlichen Kosten von Krebserkrankungen nur etwa die Hälfte.

"Die vier Krebsarten, welche die Wirtschaft am stärksten schädigen, lassen sich alle durch primäre und sekundäre Präventionsmaßnahmen betreffend Rauchen, Ernährung und Alkohol sowie verstärkte Vorsorgeuntersuchungen bekämpfen", so Kuhn. "Dies zeigt, dass es weltweit ein großes Potenzial für politische Maßnahmen gibt, die dazu beitragen können, die wechselseitige Beziehung von hoher Krankheitslast und starker wirtschaftlicher Belastung zu dämpfen."

Die Autoren betonen, dass Investitionen in wirksame Maßnahmen des öffentlichen Gesundheitswesens zur Verringerung der Krebsbelastung für den Schutz der globalen Gesundheit und des wirtschaftlichen Wohlergehens unerlässlich sind.


[1]  Chen, S., Cao, Z., Prettner, K., Kuhn, M., Yang, J., Jiao, L., Wang, Z., Li, W., Geldsetzer, P., Bärnighausen, T., Bloom, D.E, Wang, C. (2022). The global economic cost of 29 cancers from 2020 to 2050: Estimates and projections for 204 countries and territories. Journal of the American Medical Association (JAMA) – Oncology DOI: 10.1001/jamaoncol.2022.7826


*Der am 24.Feber 2023 als Presseaussendung auf der IIASA-Webseite unter dem Titel "The Price of Cancer" erschienene Artikel https://iiasa.ac.at/news/feb-2023/price-of-cancerwurde von der Redaktion möglichst wortgetreu übersetzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


 

inge Fri, 24.02.2023 - 18:36

Menschliche Avatare auf Silikonchips - ersetzen sie Tierversuche in der Arzneimittel-Entwicklung?

Menschliche Avatare auf Silikonchips - ersetzen sie Tierversuche in der Arzneimittel-Entwicklung?

Sa 04.03.2023  — Inge Schuster

Inge Schuster Icon Medizin Ende Dezember 2022 hat der US-amerikanische Präsident ein Gesetz unterzeichnet, das die Zulassung neuer Medikamente ohne die bislang erforderlichen, aufwändigen Tierversuche ermöglicht. An deren Stelle können human-relevante alternative Methoden, wie menschliche Miniorgane - sogenannte Organoide -, Multiorganchips menschlicher Zellen und Computermodelle treten, sofern diese validierte Verfahren zum Nachweis von Wirksamkeit und Toxizität sind.

Seit Beginn des 20. Jahrhunderts haben wir einen beispiellosen Boom von neuen wirksamen Medikamenten erlebt. Gab es anfangs erst wenige Arzneistoffe (das sind die aktiven Wirkstoffe in Medikamenten), die diese Bezeichnung heute noch verdienen - etwa die aus Heilpflanzen aufgereinigten Naturstoffe Chinin oder Morphin oder chemisch modifizierte Naturstoffe wie Aspirin oder Pyramidon -, so halten wir nun bereits bei rund 15 000 Wirkstoffen (https://go.drugbank.com/stats). Die neuen, gegen verschiedenste Krankheiten wirksamen Medikamente haben uns Menschen (zumindest in der westlichen Welt) zu einer erhöhten Lebensqualität und fast zu einer Verdoppelung der Lebenszeit seit 1900 verholfen. Ursprünglich aus Apotheken und Farbstoffchemie entstanden, hatte die Pharmaindustrie alleVoraussetzungen für interdisziplinäre Forschung an der Schnittstelle von Medizin, Biowissenschaften, Chemie und Gesundheitsfürsorge. Ihre spektakulären Erfolge machten sie zu einem zentralen Player im globalen Gesundheitssystem und zu einem der umsatzstärksten Industriezweige; aktuell wird der der globale Umsatz auf rund 1 200 Milliarden US $ (49,1 % davon in Nordamerika) geschätzt.

Die Entwicklung der Pharmasparte ist alledings nicht ohne größere Pannen und Katastrophen verlaufen und hat in Folge zu einem streng regulierten und kontrollierten Prozess der Arzneimittel-Forschung und Entwicklung geführt.

Versuchstiere werden in der Arzneimittelentwicklung vorgeschrieben

Bis in die 1930er Jahre brauchte man für den Kauf von Medikamenten meistens noch kein Rezept und die Formulierungen wurden zumeist in der Apotheke nach den Angaben in den Arzneibüchern (Pharmakopöen) zusammengemischt. Nur in wenigen Staaten gab es bereits Behörden für die Zulassung neuer Arzneimittel; diese hatten aber kaum Befugnisse, um übertriebene Werbung zu untersagen und in die Medikamentenentwicklung einzugreifen.

1937 änderte sich die Situation, als in den USA die Antibiotika-Bereitung Elixir-Sulfanilamid Massenvergiftungen hervorrief und mehr als hundert Menschen starben . Unter den Toten waren viele Kinder, die den nach Himbeeren schmeckenden aber das hochtoxische Lösungsmittel Diethylenglykol enthaltenden "Erkältungssaft" geschluckt hatten. In Folge erließ der US-Kongress 1938 Gesetze (Federal Food, Drug, and Cosmetic Act), welche die Qualität der pharmazeutischen Bereitungen garantieren sollten und positiv verlaufende Sicherheitstests an Tieren vorschrieben, bevor neue Medikamente auf den Markt kommen durften; darüber hinaus erhielt die Arzneimittelbehörde der Vereinigten Staaten (FDA) weitreichende Befugnisse in den Forschungs-und Entwicklungsprozess von Arzneimitteln einzugreifen. Andere Länder schlossen sich diesen Regulierungen an.

Noch immer gab es keine obligatorischen Untersuchungen zur Wirksamkeit eines neuen Medikaments. Dazu wurden die Pharmaunternehmen erst 1962, nach dem Contergan-Skandal verpflichtet. Das Medikament war zwischen 1957 und 1961 schwangeren Frauen als Beruhigungs- und Schlafmittel empfohlen worden und hatte bei vermutlich mehr als 10 000 Neugeborenen zu schweren Missbildungen von Gliedmaßen und Organen geführt. Das US-Gesetz von 1938 wurde nun erweitert: alle Arzneimittel mussten sowohl wirksam als auch (in vertretbarem Ausmaß) sicher sein; Zulassungsanträge an die FDA mussten die Wirksamkeit im Tierversuch nachweisen und alle bei den Tests aufgetretenen Nebenwirkungen offenlegen. Ein spezielles Programm untersuchte diesbezüglich auch alle vor 1962 zugelassenen Medikamente - von 3 443 Produkten haben sich fast ein Drittel (1051) als unwirksam erwiesen!

Seit den 1960er Jahren wurden die erforderlichen Protokolle für die präklinischen Wirksamkeits- und Toxizitätstest und für die folgenden klinischen Studien weiter entwickelt und haben zu einem immer länger (und damit teurer) werdenden und stärker regulierten Forschungs- und Entwicklungsprozess geführt. Der heute geltende, aus mehreren aufeinanderfolgenden Phasen zusammengesetzte Prozess soll hier kurz dargestellt werden:

Der Prozess beginnt im Labor mit der Forschung nach den möglichen Ursachen einer Erkrankung und der Suche nach Molekülen , mit denen diese Ursachen beeinflusst werden können. Gelingt es derartige Substanzen zu identifizieren und sind diese patentierbar, so kann die erfolgversprechendste davon in die präklinische Entwicklung eintreten und falls sie diese übersteht, zur Prüfung am Menschen in 3 Phasen zugelassen werden; in Phase 1 erfolgt die Prüfung an einer kleineren Gruppe (20 -100) junger, gesunder Freiwilliger, in Phase 2 sind bis zu mehreren Hundert Patienten involviert, in Phase 3 bis zu mehreren Tausend Patienten. Abbildung 1. Vom Beginn der präklinischen Entwicklung an dauert es im Mittel rund 10 Jahre bis für einen erfolgreichen Arzneimittel-Kandidaten die Unterlagen zur Registrierung eingereicht werden können (Abbildung 1).

Abbildung 1. . Aktuelles Schema des Arzneimittel-Entwicklungsprozesses ab der Identifizierung eines patentierbaren Entwicklungskandidaten und Zeitdauer der präklinischen Phasen zur Prüfung von Toxizität und Wirksamkeit (Pharmakologie) und der 3 klinischen Phasen der Untersuchungen am Menschen. (Quelle: efpia: The Pharmaceutical Industry in Figures, Key data 2022. www.efpia.eu).

Zur präklinischen Prüfung

    der Wirksamkeit dienen Tiermodelle, in denen die zu behandelnde menschliche Krankheit nachgebildet wurde, d.i. ähnliche Symptome wie beim Erkrankten hervorgerufen werden (ein nicht immer erfolgversprechender Ansatz). Um eine Vorauswahl unter mehreren potentiellen Entwicklungskandidaten zu treffen, werden in verstärktem Ausmaß auch aus menschlichen Zellen erzeugte in vitro-Modelle eingesetzt.

    der Sicherheit, d.i. fehlender/tolerierbarer Toxizität, sind Untersuchungen an jeweils zwei Spezies, einem Nager - meistens Ratte oder Maus - und einem Nichtnager - zumeist dem Hund - vorgeschrieben. Je nach Dauer der geplanten Anwendung einer neuen Substanz umfassen die Toxizitätstests Untersuchungen mit einmaliger (akute Toxizität) und wiederholter subchronischer und chronischer Verabreichung, weiters Reproduktionstests und Genotoxizitätstests bis hin zu lebenslangen (d.i. bei Ratten rund 2 Jahre dauernden) Cancerogenitätstests. Auch hier wird die Vorauswahl unter mehreren potentiellen Entwicklungskandidaten häufig an Hand von in vitro-Modellen getroffen.

Bei Verwendung statistisch ausreichend großer Gruppen in den verschiedenen Dosierungen kann die Anzahl der dazu erforderlichen männlichen und weiblichen Tiere bis auf über 3000 steigen. Dazu kommen noch Hunderte Tiere für Studien zur Pharmakokinetik (sogenannte ADME-Studien) - d.i. zur Quantifizierung der Aufnahme (A) eines Wirkstoffs in den Organismus, seiner Verteilung (D) und seinem Metabolismus (M) im Organismus und seiner Ausscheidung (E) - und zur Pharmakodynamik, d.i. zu den Effekten eines Wirkstoffs auf den geplanten Wirkort. Hinsichtlich pharmakokinetischer Eigenschaften haben in vitro Modelle aus menschlichen Zellen eine hohe Vorhersagekraft und können das Scheitern diesbezüglich ungeeigneter Verbindungen in der Klinik verhindern (siehe unten).

.. und der klinischen Prüfung

Wenngleich der Aufwand für Tierversuche und die damit verbundenen Kosten auch enorm hoch sind, ist es ein leider millionenfach bestätigtes Faktum, dass Versuchstiere zwar in ähnlicher, nicht jedoch in derselben Weise auf Wirkstoffe reagieren und damit umgehen wie wir Menschen. Wenn neue Wirkstoff-Kandidaten nach erfolgreicher Testung an Tieren in die klinische Prüfung am Menschen eintreten dürfen - d.i. rund 6 Jahre nach Beginn der Entwicklung , so scheitern dort bis zu 95 % - hauptsächlich wegen geringer/fehlender Wirksamkeit und/oder nicht tolerierbaren Nebenwirkungen. Die meisten fallen in der zweiten klinischen Phase durch, der Phase in der erstmals an Patienten geprüft wird - bis dahin sind 8 - 9 Jahre vergangen und rund ein Drittel der Gesamtkosten von bis zu mehreren Milliarden US $ angefallen.

Bis in die 90er-Jahre sind bis zu 40 % der Substanzen in der Klinik wegen unbefriedigenden pharmakokinetischen (ADME) Eigenschaften gescheitert: Viele oral verabreichte Arzneistoffe wurden aus dem Magen-Darmtrakt viel schlechter aufgenommen als aus dem Tierversuch zu erwarten war und erwiesen sich auf Grund der zu niedrigen Konzentrationen im Organismus dann als unwirksam. Viele Substanzen wurden im menschlichen Körper viel schneller/ viel langsamer abgebaut als im Tier und waren dann im ersten Fall unwirksam oder zeigten auf Grund zu hoher, langlebiger Konzentrationen im zweiten Fall schwerwiegende Nebenwirkungen. Mit der Verfügbarkeit von aus menschlichen Darmzellen bestehenden Resorptionsmodellen und aus menschlichen Leberzellen erzeugten Metabolismus-Modellen scheitern heute nur mehr wenige Prozent der Substanzen wegen ungünstigen ADME Eigenschaften.

Tierschützer wie auch einige Pharmaunternehmer sehen Tierversuche als eine Vergeudung von Leben, Kosten und Zeit und drängen darauf das veraltete System der wenig treffsicheren Tierversuche durch alternative humanbasierte Testverfahren zu ersetzen.

Reichen die derzeitig verfügbaren Moodelle aber dazu aus?

Die US-Arzneimittelbehörde FDA besteht nicht mehr auf Tierversuchen

Ende Dezember 2022 hat der amerikanische Präsident Biden den FDA Modernization Act 2.0 als Gesetz unterzeichnet. Mit diesem Gesetz, das auch den Reducing Animal Testing Act enthält, wird die überholte, aus den Jahren 1938 und 1962 stammende FDA-Vorschrift abgeschafft, wonach Arzneimittel-Kandidaten an Tieren getestet werden müssen, bevor sie in klinischen Studien am Menschen eingesetzt werden. In anderen Worten: Anträge zur Zulassung zu klinischen Studien können nun auf Basis tierversuchsfreier Verfahren akzeptiert werden.

Das Gesetz sieht allerdings kein vollständiges Verbot von Tierversuchen in der Entwicklung von Arzneimitteln vor; vielmehr ermöglicht es die Anwendung human-relevanter alternativer Methoden, sofern dies realisierbar ist. Als Beispiel dient hier ein von der Firma Hesperos Inc. (Florida) und Kollegen entwickeltes Neuropathie-Krankheitsmodell, das - aus induzierten pluripotenten Stammzellen und Schwannschen Zellen aufgebaut - in einem mikrofluiden System (siehe unten) eingesetzt wurde. In diesem Modell normalisierte die Behandlung mit speziellen Antikörpern (von Sanofi) die neuronale Funktion; die FDA akzeptierte dies als Nachweis der Wirksamkeit und gestattete, mit der klinischen Prüfung zu beginnen.

Auf der Humanbiologie basierende alternative Methoden

sind in den letzten 10 Jahren in der akademischen Forschung, in Biotech-Unternehmen und auch in behördlichen Forschungseinrichtungen in zunehmendem Maße entwickelt worden. Es sind dies zellbasierte in vitro Assays (Abbildung 2). Nach den 2-dimensionalen Zellkulturen, wie sie bereits seit Jahrzehnten angewandt werden, liegt nun der Fokus auf

  • Organoiden - aus pluripotenten Stammzellen gezüchtete Gruppen unterschiedlicher Zelltypen eines Organs, die sich selbst zu 3-dimensionalen hohlen Mikrostrukturen organisieren, die dem Organ im Aufbau und Funktion ähneln (beispielsweise Mikrohirne) - und
  • "Organ-on-a-Chip" - mikrophysiologischen Systemen, bei denen Organoid-ähnliche Kokulturen in mikrofluide Chips eingebettet sind.

Ausgangsmaterial dieser Assays sind aus verschiedenen Organen entnommene primäre menschliche Zellen und Biopsien, menschliche Zelllinien und adulte, embryonale und induzierte pluripotente Stammzellen.

Abbildung 2. . Wesentliche Modelle in der Arzneimittelforschung und Entwicklung. Beschreibung: siehe Text. Abbildung modifiziert nach [1] Liancao Jiang et al., Bioengineering2022. https://www.mdpi.com/2306-5354/9/11/685 (Lizenz: cc-by)

"Organ-on-a-Chip"

ist eine bereits fortgeschrittene Technologie mit einem ungeheuer breiten Spektrum an biologischen und biomedizinischen Anwendungsmöglichkeiten, die von Grundlagenforschung bis zu Personalisierter Medizin reichen [2].

Das Kernstück ist ein durchsichtiger, flexibler Chip aus einem Kunststoff auf Silikonbasis , der die Größe eines USB-Memory Sticks hat (Abbildung 2: ganz rechts) und ein Organ oder auch ein Organsystem nachahmen soll: Der Chip ist von hohlen mikrofluiden Kanälen durchzogen, die durch eine poröse Membran in zwei Kompartimente geteilt sind. Auf dieser Membran ordnen sich die Zellen eines bestimmten Organs organoid-ähnlich an, das angrenzende Kompartiment simuliert die funktionsbestimmende Umgebung des Organs - beispielsweise das Lumen des Darms. Das andere Kompartiment wird von Flüssigkeiten (Blutersatz) durchströmt; es kommen ihm - wie den Blutkapillaren im Gewebe - die mikrofluide Versorgung mit Nährstoffen und Entsorgung von Stoffwechselprodukten der Gewebezellen zu und es grenzt sich von diesen auch durch Endothelzellen ab.

Das durchsichtige Material ermöglicht morphologische Veränderungen kontinuierlich mikroskopisch zu verfolgen, in der ausströmenden Flüssigkeit können (biochemische) Indikatoren für diverse physiologische und pathologische Vorgänge (u.a. Wirkungsmechanismen und toxische Nebenwirkungen) gemessen werden.

Die Leber als zentrales Organ im Abbau von Fremdstoffen - u.a. den Medikamenten - ist häufig von deren toxischen Nebenwirkungen betroffen. Abbildung 3 illustriert das Design der "Leber auf dem Chip", das zu einem essentiellen Modell in der Pharmaentwicklung werden kann.

Eine kürzlich erschienene Untersuchung hat diesem Lebermodell ein hohes Potential für die korrekte Vorhersage von Leber-toxischen Substanzen bescheinigt. In einem verblindeten Set von 27 bekannten Leber-toxischen und untoxischen Verbindungen erkannten die Chips 87 % der toxischen Substanzen richtig und keine der untoxischen Substanzen als toxisch [3].

Abbildung 3 . Schematische Darstellung eines "Leber auf dem Chip" Modells. Das Modell enthält alle wesentlichen Zelltypen der menschlichen Leber in der für das Organ charakteristischen Anordnung:. Die typischen Leberzellen (C; Hepatozyten) sitzen begrenzt von extrazellulärer Matrix (B) auf einer porösen Membran (D) innerhalb des oberen Kanals (A; blau). Der untere, dem Blutgefäß entsprechende (vaskuläre) Kanal (H; rot) wird von Endothelzellen ausgekleidet (G), die Fett und Vitamin A speichernden Sternzellen (E) sind im Raum zwischen Hepatozyten und Endothel angesiedelt, die Kupferzellen - Makrophagen oder Fresszellen - der Leber (F) im Gefäßraum. (Bild aus [1]: Lorna Ewart et al., Communications Medicine, 2022. https://doi.org/10.1038/s43856-022-00209-1 (Lizenz: cc-by)

Das Tissue Chip for Drug Screening Programm

Initiative der NIH und FDA

Mit dem Ziel Sicherheit und Wirksamkeit von Arzneimittelkandidaten besser vorherzusagen zu können, haben die US-National Institutes of Health (NIH) gemeinsam mit der FDA bereits 2012 das Programm "Tissue Chip for Drug Screening" (Gewebechips für das Arzneistoffscreening) ins Leben gerufen [4]. Die Förderungen galten vorerst der Entwicklung von 3-D-Chips aus menschlichem Gewebe, die die Struktur und Funktion menschlicher Organe genau nachahmten.

2014 schlossen sich Forscher zusammen, um einzelne "Organs-on-a-Chip" zu einem Multiorgan Modell zu entwickeln, das nun auch die Wechselwirkungen zwischen den Organen berücksichtigen sollte (beispielsweise wurden Pharmakokinetik-Modelle entwickelt, die alle Aspekte von Aufnahme, Verteilung, Abbau und Eliminierung eine Arzneimittels erfassen konnten) .2016/2017 begannen die NIH Projekte zu fördern, die Chips zur Modellierung von Krankheiten und Testung der Wirksamkeit von Behandlungen designten. Es folgte die Förderung von Modellen für Schmerz und Opioidabhängigkeit und von Ansätzen zur Modellierung des Immunsystems.

Schlussendlich sollen alle wesentlichen Organe zu einem "Human-Body-on- a Chip" also einem menschlichen Avatar vernetzt werden. Abbildung 4.

Abbildung 4. . Zukunftsmusik: Wesentliche "Organs-on-a-Chip" werden zu einem System zusammengeschlossen, das den "Human Body on a Chip simuliert.(Bild: NIH, National Center for Advancing Translational Sciences; Lizenz: gemeinfrei).

Das Budget der FDA unterstützt ein FDA-weites Programm, um diese alternativen Methoden zu evaluieren. Die Forscher wollen damit einerseits die humanspezifische Physiologie von Geweben oder Organen modellieren, anderseits Methoden für regulatorische Zwecke vorantreiben, welche die Effizienz der Arzneimittelentwicklung erhöhen und Tierversuche ersetzen, reduzieren und verbessern ("replace, reduce, refine") können.

Können die derzeitigen alternativen Methoden bereits Tierversuche ersetzen?

Ein beträchtlicher Teil der bis jetzt entwickelten Modelle kann sicherlich in frühen Entwicklungsphase von Arzneistoffen zur sogenannten Leadoptimierung eingesetzt werden, d.i. wenn aus mehreren möglichen Kandidaten die erfolgversprechendste Verbindung in puncto Sicherheit und möglicherweise auch Wirksamkeit ausgewählt werden soll.

Das Lebermodell kann frühzeitig Lebertoxizität feststellen, das Multiorgan-Modell der Pharmakokinetik erlaubt konkrete Prognosen über Verfügbarkeit, Spiegel , Metabolisierung und Verweildauer neuer Substanzen im Organismus. Das reduziert die Entwicklungszeit, die Zahl der Versuchstiere und die Kosten.

Allerdings spiegeln die bis jetzt entwickelten alternativen Modelle die komplexe pharmakologische Situation unseres Körpers nur bedingt wider. Toxizitäten können auch in Organen auftreten, die von den Testsystemen nicht erfasst werden, die Rolle des Immunsystems wird in den Modellen noch unbefriedigend abgebildet. Am Kunststoff-Material der Chips können Substanzen hängen bleiben (adsorbiert werden) und damit niedrigere Konzentrationen (und damit geringere Nebenwirkungen) vortäuschen. Ein ganz wesentliches Problem der Multi-Organ Chips und damit schlussendlich des Body-on-a-Chip - eines menschlichen Avatars - ist das Skalieren der einzelnen Komponenten, d.i. der korrekten Verweilzeit der durchströmenden Flüssigkeit und damit der Testsubstanzen in den Organmodellen. Natürlich ist es auch entscheidend wie weit die Funktionsfähigkeit in den Zellen über die Versuchsdauer erhalten bleibt. Noch zahlreiche weitere Fragen sind offen.

Viele der bestehenden Probleme erscheinen lösbar und rücken uns dem Ziel näher immer verlässlichere Prognosen über die Auswirkungen von Fremdstoffen - darunter Medikamenten - auf den menschlichen Organismus zu erhalten, als es jetzt mit Versuchstieren der Fall ist.

Trotz der begrenzten Übertragbarkeit von Ergebnissen im Tierversuch auf den Menschen, dürften die Tierstudien in der präklinischen Entwicklungsphase noch nicht durch Alternativen ersetzbar sein. Die europäische Arzneimittelbehörde EMA hat eine Arbeitsgruppe eingerichtet, die die neuen Verfahren erst einmal evaluieren soll und sieht den Zeitpunkt für den Ersatz der Tierversuche noch nicht gekommen.


 [1] Liancao Jiang et al., Bioengineering 2022. https://www.mdpi.com/2306-5354/9/11/685

[2] Ingber, D.E. Human organs-on-chips for disease modelling, drug development and personalized medicine. Nat Rev Genet 23, 467–491 (2022). https://doi.org/10.1038/s41576-022-00466-9

[3] Lorna Ewart et al., Performance assessment and economic analysis of a human Liver-Chip for predictive toxicology. Communications Medicine, 2022. https://doi.org/10.1038/s43856-022-00209-1

[4] Tissue Chip Initiatives & Projects:https://ncats.nih.gov/tissuechip/projects


Zum Arzneimittelforschungs-und Entwicklungsprozess im ScienceBlog


 

 

inge Sat, 04.03.2023 - 20:17

Was da kreucht und fleucht - Wie viele Gliederfüßer (Arthropoden) leben im und über dem Boden und wie hoch ist ihre globale Biomasse?

Was da kreucht und fleucht - Wie viele Gliederfüßer (Arthropoden) leben im und über dem Boden und wie hoch ist ihre globale Biomasse?

Sa, 18.02.2023 — Redaktion

Redaktion Icon Datenbank Weltweit ist ein offensichtlich vom Menschen verursachter, besorgniserregender Rückgang von Arthropoden - und hier sind vorerst vor allem Insekten im Fokus - zu beobachten. Viele Fragen zu den, für den Erhalt unserer Ökosysteme unabdingbaren Arthropodenarten sind bislang noch ungeklärt, insbesondere was das Ausmaß der globalen Populationen und deren Zusammensetzung in verschiedenen Lebensräumen und Ökosystemen betrifft. Eine neue Studie aus der Gruppe von Ron Milo (Weizmann Institut, Israel) ermöglicht nun erstmals einen umfassenden, quantitativen Blick auf die Populationen der Arthropoden. Die neuen Befunde bieten eine wertvolle Grundlage zur Abschätzung, wie sich unsere ökologischen Systeme verändern und wie sich dies auf unsere Ökonomie, Ökologie und Lebensqualität auswirken könnte.

Die zunehmende Dominanz des Menschen über den Erdball hat zu massiven ökologischen und geologischen Auswirkungen geführt. Das Artensterben hat sich im Anthropozän um Größenordnungen über die durch natürliche Evolutionsprozesse hervorgerufenen Veränderungen beschleunigt und die Populationen diverser Wirbeltierarten nehmen ab. Wie Untersuchungen aus jüngster Zeit zeigen, gehen auch die im Boden und auf/über dem Boden lebenden Populationen von Gliederfüßern (Arthropoden) - Insekten, Spinnen, Milben, Tausendfüßler und andere Vertreter der Taxa - deutlich zurück. Für den Rückgang werden menschliche Aktivitäten verantwortlich gemacht, welche die Zerstörung von Lebensräumen, die Intensivierung der Landwirtschaft, den verstärkten Einsatz von Pestiziden und das Einschleppen invasiver Arten miteinschließen. Dazu kommen die Folgeerscheinungen des anthropogen verursachten Klimawandels - ein hoher Stickstoffeintrag in der Atmosphäre, Hitzeperioden, Dürren, Waldbrände und veränderte Niederschlagsmuster.

Der Rückgang der Arthropoden

ist besorgniserregend, da ihnen eine zentrale Rolle in den terrestrischen Ökosystemen zukommt: sie sind ein enorm wichtiger Bestandteil vieler Nahrungsnetze und dienen diversen Tierarten - von Vögeln, Reptilien, Amphibien bis zum Vielfraß - als Nahrung und ernähren sich selbst von Pflanzen und Tieren. Arthropoden bestäuben unsere Pflanzen, verbreiten deren Samen und bauen unsere Böden auf, indem sie pflanzliche und tierische Abfälle abbauen/kompostieren.

Trotz ihrer ungeheuren ökologischen Bedeutung hat es bis jetzt kaum Informationen über die globale Verteilung der landlebenden Arthropoden gegeben. Die meisten bisherigen Studien beruhen auf Stichproben, die Trends in der Population oder Biomasse in einem Gebiet gemessen haben, aber nicht den gesamten dortigen Bestand quantifizieren konnten. Die Quantifizierung der Arthropoden in verschiedenen Lebensräumen und an verschiedenen Orten ist aber essentiell, um eine Basis zu schaffen, anhand derer künftige Veränderungen der Populationen gemessen werden können, wie sich diese auf globale Prozesse auswirken und welche Erfolge durch Maßnahmen erzielt werden könnten.

Eine erste Studie zur umfassenden Quantifizierung

In einer neuen Studie haben Forscher um den Biophysiker Ron Milo vom Weizmann Institut nun erstmals ein quantitatives Bild der Mengen an terrestrischen Arthropoden, ihrer Zusammensetzung und ihrer globalen Biomasse erzeugt [1]. Milo und sein Team sind weltweit anerkannt für ihre Studien zur Bestimmung der globalen Populationen und Biomassen verschiedener Artengruppen; ihre Arbeiten sind Tausende Male zitiert. Mit dem Ziel einen ganzheitlichen Überblick über die Zusammensetzung der Biosphäre zu ermöglichen, hat Ron Milo zusammen mit Rob Philipps (Professor am CalTech, USA) vor einigen Jahren eine Bionumbers Database (https://bionumbers.hms.harvard.edu/) entwickelt. Ebenfalls von Forscherteams um Ron Milo und Rob Philipps wurde kürzlich eine neue, separate Datenbank - die Human Impacts Database (www.anthroponumbers.org) - vorgestellt, welche die Auswirkungen menschlicher Aktivitäten auf Ökologie und Geologie unseres Planeten zum Thema hat. Über diese und frühere Aktivitäten wurde im ScienceBlog berichtet [2 - 4].

Um auf die gegenwärtige Studie über Arthropoden zurückzukommen, die sich zu einem gigantischen Projekt ausgewachsen hat: Die Forscher haben die Literatur nach Messungen der absoluten Populationen (Zahl der Individuen pro Fläche) und Biomassedichten (= Biomasse pro Fläche) von Arthropoden durchsucht und etwa 7000 solcher Auswertungen gesammelt, die weltweit an rund 500 Standorten und oft über viele Jahre hinweg erfolgt waren.

Abbildung 1. Globale Standorte (A) der Probennahme - unterirdische oder oberirdische Proben - und Untersuchungszeitraum (B) . (Bild leicht modifiziert nach Fig 1.in Rosenberg et al., 2023 [1]. Lizenz: cc-by)

Diese Standorte haben alle wichtigen Biome umfasst - von Regenwäldern bis hin zu borealen Wäldern, Grünland in tropischen und gemäßigten Zonen, Weiden, Ackerland, Tundra und Wüsten. An insgesamt etwa 440 Stellen wurden Proben des Lebensraums "Boden & abgestorbenes Pflanzenmaterial (Pflanzenstreu)" analysiert, an rund 60 Stellen Proben der oberirdischen Habitate "Bodenoberflächen und Pflanzen". Abbildung 1 gibt einen Eindruck von der globalen Verteilung der Sammelstellen mit den dort geprüften Habitaten - im Boden oder oberirdisch - und den Zeitraum der Untersuchungen.

Arthropoden sind ein riesengroßer, aus über einer Million Arten bestehender Stamm des Tierreichs. Um die an den verschiedenen Standorten erhaltenen Biomassedichten und Populationszahlen vergleichen und global integrieren zu können, wurden die landbewohnenden Arten auf Basis der Taxonomie in große Gruppen eingeteilt; für die im Boden lebenden Arthropoden sind diese Gruppen - unterschiedlich gefärbt - in Abbildung 2 dargestellt.

Abbildung 2. Phylogenetischer Baum der im Boden lebenden Arthropoden. Jede Farbe steht für eine einzelne zusammengefasste taxonomische Gruppe. Die oberirdischen Arthropoden wurden separat analysiert.(Bild leicht modifiziert nach Fig 1.in Rosenberg et al., 2023 [1]. Lizenz: cc-by).,

Die Analyse

der gesammelten 7000 Daten zeigt, dass der größte Teil der Biomasse der terrestrischen Arthropoden auf Spezies zurückzuführen ist, die im Boden leben (Abbildung 3, oben). Die gesamte globale Biomasse dieser unterirdischen Tiere wird auf rund 200 Millionen Tonnen (200 Mt) Trockengewicht geschätzt, die der oberirdisch lebenden Tiere auf rund 100 Mt. Insgesamt kann man von einem gesamten globalen Trockengewicht von 300 Mt Tieren ausgehen, entsprechend einem Lebendgewicht von etwa 1000 Mt. Umgerechnet mit den Lebendgewichten der einzelnen Arten ergibt dies eine Zahl von 1 x 1019 - 10 000 000 Billionen - Individuen (Unsicherheitsbereich: 0,5 x 1019- 2,0 x 1019).

Abbildung 3. Globale Biomasse der terrestrischen Arthropoden (oben) und taxonomische Gliederung der gesamten Biomasse der im Boden lebenden Arten (unten, links) und relative Biomasse der in Abbildung 2 aufgezeigten Unterstämme (unten, rechts). Die Fehlerbalken im Bild oben markieren den Unsicherheitsbereich, der sich aus der Summe der unteren und oberen Grenzen aller 95 %-Konfidenzintervalle auf Ebene aller untersuchten Lebensräume ergibt (dazu: Abbildung 4) . Das gestrichelte grüne Rechteck ist die zusätzliche Schätzung der oberen Grenze für die oberirdischen Arthropoden. (Bild modifiziert aus Figs 4 und 5 in: Rosenberg et al., 2023 [1]. Lizenz: cc-by).

Bodenarthropoden

Von den im Boden lebenden Arten sind rund 40 % Termiten; auf Ameisen, Springschwänze und Milben fallen jeweils um die 10 %, (Abbildung 3, unten links), der Rest auf andere Spezies (Abbildung 3, unten rechts). Diese unterirdisch lebenden Tiere, insbesondere die winzigen Springschwänze und Milben, sind für Prozesse verantwortlich, die den Boden aufbauen, düngen und den globalen Kohlenstoffkreislauf beeinflussen und damit für Ökologie des Bodens von entscheidender Bedeutung sind.

Die Biomassen-Dichte (Trockengewicht) der Bodenarthropoden variiert in den einzelnen Habitaten und in der Zusammensetzung. Abbildung 4. Höchste Dichten von etwa 3 g/m2 - Termiten tragen am meisten zur Biomasse bei - gibt es in den tropischen und subtropischen Waldgebieten, niedrigste Werte bis unter 0,1 g/m2 in Wüsten und trockenem Buschland. Auf einzelne Individuen bezogen (beispielsweise wiegt eine Boden-Ameise im globalen Mittel rund 0,84 mg) dominieren in allen Habitaten die kleinen Milben und Springschwänze: ihre Dichte reicht von bis zu 200 000 Tieren pro m2 in den borealen Wäldern bis zu etwa 1000 Tieren pro m2 in Wüsten und trockenem Buschland.

Bemerkenswert dabei: das vom Menschen bearbeitete Ackerland weist eine wesentlich niedrigere Populationsdichte auf als Wälder und Grasland in vergleichbaren Zonen.

Abbildung 4. Abbildung 4. Biomassendichte der Bodenarthropoden in den wesentlichen globalen Lebensräumen. Die Dichte der einzelnen farbig markierten Tiergruppen ist in logarithmischem Maßstab aufgetragen, die Farbstärke spiegelt die Zahl der Untersuchungen an der Meßstelle wider. Die globale Fläche der einzelnen Habitate ist in Klammern in Millionen km2 angegeben. (Bild modifiziert aus Fig 2 in: Rosenberg et al., 2023 [1]. Lizenz: cc-by).

Oberirdische Arthropoden

Hier gibt es insgesamt bedeutend weniger Untersuchungen in den wesentlichen Lebensräumen (Abbildung 1) und die angewandten Methoden - Vernebelung von Baumkronen und Leeren von Fallen - können wichtige Entwicklungsformen - beispielweise Raupen - unterrepräsentieren. Studien haben in allen Waldarten stattgefunden und ein Drittel der auf Bäumen lebenden Tiere auf Ameisen zurückgeführt. In den tropischen Wäldern dürfte wohl der Großteil der Biomasse zu finden sein, allerdings basiert diese Aussage auf nur zwei Studien, die Proben der Waldbodenfläche und ganzer Baumgemeinschaften untersucht haben.

Da die oberirdischen Arthropoden - Schmetterlinge, Ameisen, Käfer, Heuschrecken und Spinnen - in der Regel viel größer als die hauptsächlich im Boden lebenden Milben und Springschwänze sind, ist ihre auf Basis der Biomassendichte geschätzte Populationsdichte und damit ihr Beitrag zur globalen Populationsdichte viel niedriger als die der Bodenanthropoden.

Fazit

Die Kenntnis der Zusammensetzung der Biosphäre ist von grundlegender Wichtigkeit, um wesentliche Veränderungen verfolgen, verstehen und mögliche Maßnahmen dagegen ergreifen zu können. Mit der Quantifizierung der terrestrischen Arthropoden über alle Lebensbereiche hat das Team um Ron Milo begonnen eine wichtige Lücke zu schließen. Laut Schätzungen der Forscher gibt es auf der Erde rund 10 Millionen Billionen terrestrische Arthropoden mit einer gesamten Biomasse von 300 Millionen Tonnen.

Wie viel ist das in Relation zu anderen Lebewesen und was bedeutet es?

Die Forscher geben die Antwort: Es ist dies eine Biomasse, die mit der von allen Menschen und ihren Nutztieren (400 Millionen Tonnen) vergleichbar und um eine Größenordnung höher als die der Wildtiere ist. Die Biomasse der Regenwürmer, Nematoden und Enchyträen ist etwa gleich hoch, die der Meeres-Arthropoden (dominiert von Krebstieren) um eine Größenordnung, die der Mikroorganismen im Boden um 2 Größenordnungen höher. Trotz der im Vergleich zu den Mikroorganismen viel niedrigeren Biomasse, tragen Boden-Arthropoden wesentlich zur Zersetzung von Pflanzenmaterial, zum Aufbau des Bodens und zur Homöostase der Kohlenstoffbilanz bei.


[1] Rosenberg et al., The global biomass and number of terrestrial arthropods. Sci. Adv. 9, eabq4049 (3 February 2023), https://www.science.org/doi/10.1126/sciadv.abq4049

[2] Redaktion, 22.12.2016: Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?

[3] Redaktion, 29.12.2016: Wie groß, wie viel, wie stark, wie schnell,… ? Auf dem Weg zu einer quantitativen Biologie

[4] Redaktion, 10.02.2023: "Macht Euch die Erde untertan" - die Human Impacts Database quantifiziert die Folgen


 

inge Sat, 18.02.2023 - 18:49

"Macht Euch die Erde untertan" - die Human Impacts Database quantifiziert die Folgen

"Macht Euch die Erde untertan" - die Human Impacts Database quantifiziert die Folgen

Fr, 10.02.2023 — Redaktion

Redaktion Icon Datenbank Zu den verschiedenen anthropogenen Auswirkungen auf unserer Erde gibt es nun eine kuratierte, durchsuchbare Datenbank: die Human Impacts Database (HID) - www.anthroponumbers.org. Die HID enthält quantitative Daten (Werte und Zeitreihen von Werten) zu Schlüsselthemen, die ein möglichst umfassendes Bild menschlicher Aktivitäten und deren Folgen geben – vom Anstieg des Meeresspiegels über Viehbestände, Treibhausgasemissionen, den Einsatz von Düngemitteln zum Energiesektor und darüber hinaus. Damit bietet die HID eine einzigartige Ressource für Experten, politische Entscheidungsträger und die breite Öffentlichkeit, die verschiedenen Auswirkungen des Menschen auf den Planeten in ihren Ausmaßen und ihrer Vernetztheit besser zu verstehen.

In den letzten 10 000 Jahren hat der Mensch die Erde massiv verändert. Seine Aktivitäten in Landwirtschaft, Forstwirtschaft, Bergbau und Industrie haben in komplexer Weise Atmosphäre, Ozeane, Biosphäre und Geochemie der Erde beeinflusst. Die Auswirkungen auf den Planeten sind enorm vielfältig, betreffen nahezu jeden Aspekt des Erdsystems und jede wissenschaftliche Disziplin und werden nun mehr und mehr spürbar. Dennoch sind viele Menschen der Meinung, dass die Erde zu groß ist, um durch menschliche Aktivitäten nachhaltig geschädigt zu werden.

Bis jetzt gibt es nahezu unzählige Studien, die versucht haben den einen oder anderen Aspekt der Auswirkungen des Menschen auf den Planeten (beispielsweise die Treibhausgasemissionen oder den Energieverbrauch) zu quantifizieren. Da Wissenschaftler aus diversen Fächern auf Grund ihrer unterschiedlichen Ausbildung verschiedene Mess- und Analysemethoden anwenden, Daten in unterschiedlichen Einheiten und Formaten melden und verschiedenartige Definitionen verwenden, kann es für Forscher, politische Entscheidungsträger und die Öffentlichkeit sehr schwierig sein, diese Studien zu verstehen und miteinander in Beziehung zu setzen.

Die Human Impacts Database

Um eine Ressource zu schaffen, in der jeder Interessierte die vielfältigen Auswirkungen auf den Planeten schnell und einfach nachsehen, miteinander verflechten und quantifizieren kann, haben Forscherteams um die Biophysiker Rob Philipps, Professor am CalTech (USA) und Ron Milo, Professor am Weizmann Institut (Rehovot, Israel) die Datenbank Human Impacts Database - Anthroponumbers.org - entwickelt [1].

Beim Aufbau der Human Impacts Database haben sich die Forscher von den Erfahrungen mit dem Aufbau und der Nutzung Website BioNumbers Database - - https://bionumbers.hms.harvard.edu/ - leiten lassen, die Milo und Philipps einige Jahre zuvor herausgebracht hatten. Diese Datenbank enthält quantitative Daten zu verschiedenen Aspekten der (Molekular)Biologie – von Zellgröße zu Konzentration von Stoffwechselprodukten, von Reaktionsgeschwindigkeiten zu Generationszeiten, von Genomgröße zur Zahl der Mitochondrien in der Zelle – und hat sich zu einer weithin genutzten Ressource entwickelt (auch die diesbezüglichen Berichte im ScienceBlog [2],[3] wurden bereits viele Tausend mal aufgerufen ). Heute dient die BioNumbers Database Forschern zum Auffinden biologischer Kennzahlen, relevanter Primärliteratur, zum Erlernen von Messmethoden und zum Unterrichten grundlegender Konzepte in der Zellbiologie.

Die Zahlen

"Meiner Meinung nach liegt der Ursprung des Verstehens im Zahlenverständnis: Sobald man die Zahlen kennt, wird klar, was die Probleme sind, welche Dinge wichtig sind und welche weniger wichtig sind", sagt Philipps.

Die neue Human Impacts Database enthält momentan 307 eindeutige, manuell kuratierte Einträge, die ein breites Spektrum an Datenquellen abdecken, wissenschaftliche Primärliteratur, Regierungs- und NGO-Berichte und Industriemitteilungen einschließen. Bevor ein Eintrag in die Datenbank aufgenommen und veröffentlicht wird, wird er von den Administratoren (Experten in den einzelnen Disziplinen) eingehend geprüft (zum Kuratierungsverfahren: siehe Note S1 [1]). Was derzeit an Einträgen vorhanden ist, sind Schlüsseldaten, die ein erstes quantitatives Bild für die globalen Auswirkungen des Menschen auf die Erde vermitteln können; mit dem Fortschreiten relevanter Forschungsarbeiten, wird die Datenbank weiter wachsen und zu einem immer besseren Verstehen der komplexen Zusammenhänge und zu zielgerichteteren Maßnahmen führen.

Die Daten sind in fünf Hauptkategorien unterteilt: "Land", "Wasser", "Energie", "Flora & Fauna" und "atmosphärische & biogeochemische Zyklen". Da diese Kategorien sehr weit gefasst sind, und Einträge mehreren Kategorien zugeordnet werden können, gibt es dazu auch 20 Unterkategorien, wie beispielsweise "Landwirtschaft" oder "Kohlendioxid". Soweit verfügbar, enthält die Datenbank auch Zeitreihen, um zu veranschaulichen, wie sich diese Zahlen im Laufe der Jahre verändert haben.

Abbildung 1. CO2-Konzentration in der Atmosphäre. Der Eintrag mit der HuID-Nummer 81043 findet sich in der Kategorie "atmosphärische & biogeochemische Zyklen" und Subkategorie CO2 (Quelle: Figure 1 aus Griffin Chure et al., (2022),[1]. Lizenz cc-by-nc-sa)

Als Beispiel für einen solchen Eintrag ist die wohl bekannteste anthropogene Auswirkung auf den Planeten, die steigende CO2-Konzentration in der Atmosphäre, in Abbildung 1 aufgezeigt.

Der Eintrag findet sich in der in der Kategorie "atmosphärische & biogeochemische Zyklen", Subkategorie "CO2" (B) und ist mit einer fünfstelligen Zahl, "Human Impacts Database identifier"- HuID gekennzeichnet, die auch zitiert werden kann (D). Die aktuelle (d.i. Ende 2021) CO2-Konzentration von ungefähr 415 ppm (C) kann auch in anderen Messgrößen eingesehen werden. Die Zeitreihe im Zeitraum 1964 - 2021 (C) ist graphisch dargestellt (I), die Werte zu einzelnen Zeitpunkten sind interaktiv abrufbar. Es folgen eine Kurzbeschreibung des Inhalts (F) und der angewandten Methoden, einschließlich der Qualität der Messungen (G) und der Link zur Datenquelle ( H). Last, but not least gibt es auch die Information zur Lizenz der Originaldaten (K) und zum Administrator (L).

Von diesen Daten ausgehend kann man in weiterer Folge Einträge zu den CO2-verursachten steigenden Oberflächentemperaturen aufrufen, von hier u.a. Daten zu Gletscherschmelze und Ansteigen der Meeresspiegel, zum CO2-bedingten Absinken des pH-Wertsder Meere usw, usf. In kurzer Zeit erhält man so ein quantitatives Bild von dem Ausmaß der Treibhausgas-verursachten Auswirkungen beispielsweise auf die Meere.

Die Zahlen bieten die Grundlage, um Zusammenhänge in grafischer Darstellung besser erläutern zu können. Ein einfaches Beispiel ist in Abbildung 2 gezeigt.

Abbildung 2. Wachstum der Weltbevölkerung und deren regionale Verteilung, unterschieden nach städtischen und ländlichen Wohnorten. (Quelle: Zeitreihe und Grafik zusammengestellt aus Griffin Chure et al., (2022),[1]. Lizenz cc-by-nc-sa)

Fazit

Mit der Human Impacts Database ist ein großer Wurf gelungen!

Erstmals kann man nun die komplexen vielfältigen Wechselwirkungen zwischen dem Menschen und dem Land, den Ozeanen und der Atmosphäre in quantitativer Weise untersuchen und - auch, wenn die Einträge noch weiter wachsen werden - bereits jetzt besser verstehen. Abbildung 3 gibt einen groben Überblick über das Ausmaß dieser Auswirkungen. Das schnelle, einfache Auffinden relevanter Informationen hat ein enormes Suchtpotential zur Folge - man kann viele Stunden damit verbringen, um über immer neue Zusammenhänge zu spekulieren.

Die Datenbank bietet für Jeden etwas. Forscher haben leichten Zugriff auf quantitative Daten aus seriösen Quellen und den Link zur Primärliteratur. Lehrer und Schüler gewinnen ein besseres Verständnis für das Ausmaß und die komplexen Zusammenhänge der anthropogenen Auswirkungen auf unseren Planeten - entsprechende Themen könnten in den Unterricht aufgenommen werden und einseitigem Aktivismus vorbeugen. Interessierte Laien haben ein Nachschlagwerk, in dem die Informationen auf aktuellem Stand sind und sie diesen (zum Unterschied zu den online Plattformen) voll vertrauen können. Politische Entscheidungsträger schließlich können auf Basis der konkreten Daten Ansätze zur Behebung der humanen Auswirkungen andenken anstatt der üblichen allgemeinen Absichtserklärungen.

Abbildung 3. Menschliche Auswirkungen auf den Planeten und ihre relevanten Ausmaße. Physikalische Einheiten und im täglichen Leben übliche Größen sind links oben dargestellt, die Kategorien oben in der Mitte. (Quelle: Figure 2 aus Griffin Chure et al., (2022),[1]. Lizenz cc-by-nc-sa)

 


--------------------------------------------

[1] Griffin Chure, Rachel A. Banks, Avi I. Flamholz, Nicholas S. Sarai, Mason Kamb, Ignacio Lopez-Gomez, Yinon Bar-On, Ron Milo, Rob Phillips. Anthroponumbers.org: A quantitative database of human impacts on Planet Earth. Patterns, 2022; 100552, DOI: 10.1016/j.patter.2022.100552

[2] Redaktion, 22.12.2016: Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?

[3] Redaktion, 29.12.2016: Wie groß, wie viel, wie stark, wie schnell,… ? Auf dem Weg zu einer quantitativen Biologie


 

inge Fri, 10.02.2023 - 16:07

Enorme weltweite Bildungsdefizite - alarmierende Zahlen auch in Europa

Enorme weltweite Bildungsdefizite - alarmierende Zahlen auch in Europa

Sa, 04.02.2023— Inge Schuster

Inge SchusterIcon Politik & Gesellschaft Basierend auf den Daten aus internationalen und regionalen Leistungstests hat das Münchner ifo Zentrum für Bildungsökonomik kürzlich die bislang umfassendste Darstellung der Bildungsleistungen von Jugendlichen aus 159 Ländern (entsprechend 98 % der Weltbevölkerung) erarbeitet. Die Ergebnisse sind erschreckend: weltweit erreichen zwei Drittel der Jugendlichen keine grundlegenden Fähigkeiten, wie sie für die Teilhabe an modernen wettbewerbsfähigen und erfolgreichen Volkswirtschaften erforderlich sind. Das von allen Mitgliedsstaaten der UNO vereinbarte Entwicklungsziel SDG4 bis 2030 "sicher zu stellen, dass alle Kinder der Welt eine kostenlose, hochwertige Grund- und Sekundarbildung erhalten, die zu brauchbaren Lernergebnissen führt" ist in fernere Zukunft gerückt.

Transformation unserer Welt: Die Agenda 2030 für nachhaltige Entwicklung

Mit dem Ziel weltweit eine nachhaltige Entwicklung auf ökonomischer, sozialer und ökologischer Ebene zu sichern und damit ein gutes, erfülltes Leben für alle Menschen zu gewährleisten, hat die Generalversammlung der Vereinten Nationen im September 2015 die Agenda 2030 für Nachhaltige Entwicklung verabschiedet [1]. Diese enthält 17 nachhaltige Entwicklungsziele (Sustainable Development Goals, SDGs), die vom Beenden von Armut und Hunger zu menschenwürdiger Arbeit, Wirtschaftswachstum und Schutz des Planeten vor Schädigungen reichen. Alle 193 Mitgliedstaaten haben sich verpflichtet auf nationaler, regionaler und internationaler Ebene auf die Umsetzung dieser Ziele bis zum Jahr 2030 hinzuarbeiten.

Ein sehr wichtiges Ziel ist die Gewährleistung einer hochwertigen, gerechten und inklusiven Bildung für alle (SDG4), das bedeutet: "frühkindliche, Grund-, Sekundar- und Hochschulbildung sowie Fach- und Berufsausbildung. ... damit alle sich das Wissen und die Fertigkeiten aneignen können, die sie benötigen, um Chancen zu nutzen und uneingeschränkt an der Gesellschaft teilhaben zu können"[1]. Die Teilhabe an modernen wettbewerbsfähigen, erfolgreichen Volkswirtschaften ist ihrerseits Voraussetzung zur Erreichung anderer SDGs - vor allem der Armut und dem Hunger ein Ende zu setzen.

Bis 2030 soll laut SDG4.1 sichergestellt sein," dass alle Mädchen und Jungen gleichberechtigt eine kostenlose und hochwertige Grund- und Sekundarschulbildung abschließen, die zu brauchbaren und effektiven Lernergebnissen führt" [1].

Bis 2030 liegen nur mehr acht Jahre vor uns. Wie aus einer kürzlich erschienenen Studie des Münchner ifo Instituts hervorgeht, ist die Welt noch extrem weit davon entfernt die vereinbarten Bildungsziele zu erreichen [2].

Eine umfassende Darstellung der globalen Bildungsdefizite

Ludger Wößmann, Leiter des ifo Zentrums für Bildungsökonomik (München) und ifo-Forscherin Sarah Gust haben zusammen mit dem Bildungsökonomen Eric A. Hanushek von der Stanford University die bisher umfassendste Darstellung der weltweiten Bildungsleistungen von Jugendlichen erarbeitet [2]. Basierend auf individuellen Schülerdaten aus internationalen (Programme for International Student Assessment -PISA - und Trends in International Mathematics and Science Study - TIMSS) und regionalen Leistungstests haben sie die Leistungen auf eine global vergleichbare Skala (die PISA-Skala) gebracht. Insgesamt haben sie dann für 159 Länder (98,1 % der Weltbevölkerung und 99,4 % des weltweiten BIP) den Anteil der Kinder abgeschätzt, die keine Grundfertigkeiten erreichen. Details wie Leistungen in Ländern ohne repräsentative Teilnahme an (internationalen) Tests abgeschätzt werden konnten, sind in [2] beschrieben.

Was ist unter Grundfertigkeiten ("Basic Skills") zu verstehen?

Die Autoren definieren diese als die Fertigkeiten, die für eine effektive Teilnahme an modernen Volkswirtschaften erforderlich sind und an Hand der Beherrschung zumindest der untersten PISA-Kompetenzstufe (1 von 6) gemessen werden. Der Fokus liegt dabei auf Mathematik und Naturwissenschaften (in diesen Fächern lassen sich die Leistungen besser zwischen Ländern vergleichen als - auf Grund der Sprachunterschiede - im Lesen). Laut OECD (2019) liegt die zu erreichende Grenze der PISA-Stufe 1 bei 420 Punkten für Mathematik und bei 410 für Naturwissenschaften.

Kompetenzstufe 1 der PISA-Skala bedeutet für Mathematik: " Schüler können Fragen zu vertrauten Kontexten beantworten, bei denen alle relevanten Informationen gegeben und die Fragen eindeutig definiert sind. Sie sind in der Lage, Informationen zu erfassen und in expliziten Situationen Routineverfahren gemäß direkten Instruktionen anzuwenden. Sie können Schritte ausführen, die fast immer offensichtlich sind und sich unmittelbar aus der jeweiligen Situation ergeben." (OECD [3]) . Was sie nicht können, ist - wie in Stufe 2 erforderlich - einfachste Formeln anwenden, Schlussfolgerungen ableiten oder Ergebnisse interpretieren. Es sind dies allerdings Fähigkeiten, die der Arbeitsmarkt nicht nur in entwickelten Ländern in zunehmendem Maße erfordert, und ohne die selbst der nur für Eigenbedarf produzierende Landwirt nicht auskommt.

Kompetenzstufe 1b der PISA-Skale bedeutet für Naturwissenschaften: "Schüler können auf allgemein bekanntes konzeptuelles Wissen zurückgreifen, um Aspekte einfacher Phänomene zu erkennen. Sie können einfache Muster in Daten und naturwissenschaftliche Grundbegriffe erkennen und expliziten Anweisungen folgen, um ein einfaches naturwissenschaftliches Verfahren anzuwenden". (OECD [3])

Wie hoch sind die globalen Bildungsdefizite?

Die ifo-Studie zeigt erschreckende Zahlen (Abbildung 1):

Abbildung 1. Geschätzter Anteil der Jugendlichen (inklusive der nicht in der Schule erfassten), die nicht zumindest den untersten Level (PISA 1) der Grundfertigkeiten in Mathematik und Naturwissenschaften erreicht haben. (Bild leicht modifiziert aus [2]; Lizenz cc-by-nc.).

Weltweit haben mindestens zwei Drittel bis zu drei Viertel der Jugendlichen nicht das Mindestmaß an Grundfertigkeiten (PISA-Stufe 1) erlangt. Am deutlichsten treten die Qualifikationsdefizite bei dem Drittel der Jugendlichen zutage, die keine weiterführende Schule besuchen; allerdings erlangen weltweit auch 61,7 Prozent der Sekundarschüler keine Grundkenntnisse. Tabelle 1.

In 101 der 159 untersuchten Länder liegt der Anteil der Kinder, die keine Grundfertigkeiten erworben haben, über 50 %, in 36 dieser Länder bei über 90 Prozent. Es sind dies Länder mit den niedrigsten Einkommen (< 1085 $/Kopf und Jahr), vor allem in Afrika südlich der Sahara (Bildungsdefizit 94 %). In Südasien liegt das Bildungsdefizit bei 89 %, im nahen Osten bei 68 % und in Lateinamerika bei 65 % (Abbildung 1).

Spalte 1: Anteil der getesteten Schüler, die Grundfertigkeiten nicht erreichen. Spalte 2: Anteil der Schüler ohne Sekundarbildung (daher nicht getestet), Spalte 3: Alle (getestete und nichtgeteste) Kinder, die Grundfähigkeiten nicht erreichen. (Quelle: Table 2 in [2], (Lizenz cc-by-nc) ); Einkommen pro Kopf und Jahr: http://data.worldbank.org/about/country-classifications.)

Niedriges Pro-Kopf Einkommen und Fehlen adäquater Schulen korrelieren mit dem Ausmaß der Bildungsdefizite. Allerdings gibt es einige sehr reiche Länder, wie beispielsweise Katar, in denen trotz enormer Investitionen in den Bildungssektor - vom Kindergarten bis zu Hochschulen - (noch) keine dramatische Verbesserung der Situation gelungen ist (in Katar erreichen 57 % der Jugendlichen nicht die unterste Stufe der Grundfertigkeiten).

Bedenklich erscheint, dass in den die meisten reichen Ländern - wie in den USA und den europäischen Staaten (s.u.) - im Mittel rund ein Viertel der Kinder nicht über das Mindestmaß an Grundfertigkeiten verfügt. Weltweit liegt nur in 19 Ländern deren Anteil unter 20 %; dazu gehören Canada, China (hier die Regionen Beijing, Shanghai, Jiangsu, Zhejiang und Guangdong99, dazu Hongkong und Macao, weiters Japan, Südkorea, Singapur, Taiwan und 11 europäische Staaten (diese sind aus Abbildung 2 ersichtlich). Offensichtlich kommt es aber nicht nur auf die Investitionen in Bildung an: In den 5 chinesischen Regionen ist das Einkommensniveau wesentlich niedriger als im OECD-Durchschnitt (3).

Wie hoch sind die Bildungsdefizite in Europa?

Die in Europa erhobenen Schülerleistungen stammen - mit Ausnahme von Zypern (TIMSS-Testung) -aus PISA-Testungen - ein Ländervergleich der Bildungsdefizite ist damit sehr verlässlich. Europaweit haben bis zu 99 % aller Schüler die Sekundarschulstufe besucht; nur in der Ukraine (64,0 %), Nord-Mazedonien (75,7 %), Moldawien (78,0%) und im Kosovo (78,1 %) liegt die Beteiligung deutlich niedriger.

Abbildung 2. Anteil der Jugendlichen [in %] in europäischen Ländern, die das Mindestmaß an grundlegenden Fähigkeiten in Mathematik und Naturwissenschaften nicht erreichen. Nicht eingetragen sind Zypern (32 %), Malta (33,9 %), Luxemburg (31,3 %) und Liechtenstein (14,5 %). (Die Europakarte ist gemeinfrei, die eingefügten Zahlen sind Tabelle 4A in [2] entnommen (Lizenz cc-by-nc).)

Europaweit bestehen erhebliche Unterschiede in den Bildungsdefiziten, die von 10,5 % (Estland) bis 79,9 % (Kosovo) reichen (Abbildung 2). Höchst alarmierend erscheint die Situation in Südosteuropa. In Ländern , die zusammen genommen 91 Millionen Menschen zählen, erreichen mehr als 40 % der Schüler nicht die unterste Stufe der Grundfertigkeiten; die höchsten Leistungsdefizite weisen dabei Länder des Westbalkans auf: der Kosovo (79,9 %), gefolgt von Nord-Mazedonien (61,1 %) , Bosnien-Herzegowina (59,7 %), Moldawien (52,3 %) und Montenegro (50,1 %). Auch in den EU-Ländern Rumänien und Bulgarien verfügt nahezu die Hälfte der Schüler nicht über die Grundfertigkeiten von PISA-Stufe 1.

Wovon hängen die Lernerfolge ab?

Wie bereits oben erwähnt, bedarf es primär ausreichend ausgestatteter Bildungssysteme, um gute Schülerleistungen zu erzielen. Der Schulbesuch ist aber nicht gleichbedeutend mit Lernen - dies sieht man an Hand der schlechten Leistungen in Südost-Europa.

Der Ruf nach mehr Geld, nach höheren Investitionen in den Bildungsbereich garantiert nicht unbedingt bessere Lernerfolge:  

     So wurden in Estland die besten schulischen Leistungen in Europa erzielt, obwohl die dortigen Bildungsausgaben rd. 30% unter dem OECD-Durchschnitt liegen [3].

    Auf der anderen Seite ist das schwache Abschneiden von Luxemburg, des weltweit derzeit reichsten Staates, zu vermerken, in dem fast ein Drittel (31,3 %) der Schüler die Grundqualifikation nicht erreichen und dies trotz eines hohen Bildungsbudgets.

    Im OECD-Bereich sind im letzten Jahrzehnt die Ausgaben für den Primär- und Sekundarbereich um mehr als 15 % gestiegen, die schulischen Leistungen haben sich aber in den meisten Ländern (72 von 79 Ländern) nicht verbessert [3].

Zweifellos kann auch Migration zum schulischen Abschneiden beitragen. In Ländern, die relativ wenige Zuwanderer aus Kulturkreisen mit niedrigem Bildungsniveau und anderen Wertvorstellungen haben, gibt es auch weniger Probleme in den Schulen und diese sind nicht nur mangelnder Sprachbeherrschung geschuldet.

Ganz wesentlich für den Lernerfolg ist es Schüler - innerhalb der Schule und ausserhalb in Elternhaus und Gesellschaft - zu motivieren, dass sie bereit sind zu lernen. 

Fazit

Die Leistungsdaten aus 159 Ländern, die 98 % der Erdbevölkerung abdecken, zeigen ganz klar, dass die Welt noch enorm weit davon entfernt ist allen Kindern Grundfertigkeiten zu vermitteln, die für die Teilhabe an modernen Volkswirtschaften erforderlich sind. Damit erscheint das Entwicklungsziel SDG4 der Agenda 2030 in näherer Zukunft nicht erreichbar. Das Dilemma: Der Großteil der Jugendlichen trifft unvorbereitet auf eine in raschem Wandel begriffene Welt, die mehr und mehr von informationsbasierten Tätigkeiten geprägt wird. Auch in Berufen, die als anforderungsarm gegolten haben, wird es zunehmend wichtiger schriftliche Informationen zu verstehen, sich damit kritisch auseinander zu setzen, rechnerische Verfahren anzuwenden, wissenschaftlich zu denken und auf Evidenz basierende Schlussfolgerungen zu ziehen.


 [1] Resolution der Generalversammlung, verabschiedet am 25. September 2015: Transformation unserer Welt: die Agenda 2030 für nachhaltige Entwicklung. . https://www.un.org/Depts/german/gv-70/band1/ar70001.pdf

[2] Sarah Gust, Eric A. Hanashek, Ludger Woessmann: Global Universal Basic Skills: Current Deficits and Implications for World Development. (October 2022). https://docs.iza.org/dp15648.pdf, DOI 10.3386/w30566  . 

[3] OECD: PISA 2018 Ergebnisse. Was Schülerinnen und Schüler wissen und können, Band 1 (2019). https://doi.org/10.1787/1da50379-de


Artikel zum Thema Bildung im ScienceBlog

Inge Schuster, 30.10.2021: Eurobarometer 516: Umfrage zu Kenntnissen und Ansichten der Europäer über Wissenschaft und Technologie - blamable Ergebnisse für Österreich

Inge Schuster, 03.10.2021: Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit

IIASA, 17.05.2018: Die Bevölkerungsentwicklung im 21. Jahrhundert - Szenarien, die Migration, Fertilität, Sterblichkeit, Bildung und Erwerbsbeteiligung berücksichtigen.

Inge Schuster, 10.08.2017: Migration und naturwissenschaftliche Bildung

Inge Schuster, 22.6.2017: Der naturwissenschaftliche Unterricht an unseren Schulen

Inge Schuster, 02.01.2015: Eurobarometer: Österreich gegenüber Wissenschaft*, Forschung und Innovation ignorant und misstrauisch

Inge Schuster, 28.02.2014: Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401)


 

inge Sat, 04.02.2023 - 18:54

Auf der Suche nach einem Religiositätsgen

Auf der Suche nach einem Religiositätsgen

Do, 26.01.2023 — Ricki Lewis

Ricki LewisIcon Molekularbiologie

Prädisponieren uns unsere Gene dazu, dass wir vielleicht asozial sind, die Einsamkeit suchen, politischen Ideologien anhängen und möglicherweise, dass wir religiös sind? Zu letzterer Frage hat die US-amerikanische Genetikerin Ricki Lewis unter den Stichworten "Vererbung" und "Religiosität" in Google Scholar nach entsprechenden Berichten gesucht. Was Google Scholar dazu an Untersuchungen aufzeigte, stammte hauptsächlich aus den Sozialwissenschaften. Im Folgenden referiert Lewis kritisch über fünf zwischen 1996 und 2021 veröffentlichte Studien, die der Frage nachgingen, ob Religiosität in unseren Genen steckt.*

Der erste Funke: Der Garten Eden trifft auf die Doppelhelix. (Harishbabu Laguduva). Lizenz: cc-by-sa

Ich habe etwas Naturwissenschaftliches gesucht - bringt religiös zu sein einen Vorteil für Überleben zur Reproduzierung, das die treibende Kraft der natürlichen Selektion eines adaptiven vererbten Merkmals ist?

Das normale Google und die Mainstream-Medien ließ ich beiseite, weil ich ja nach Daten und nicht nach Meinungen suchte, und gab als Stichworte "Vererbung" und "Religiosität" ein. Für mich bedeutet Vererbung Gene, die für Proteine kodieren, welche den Phänotyp (Merkmal oder Krankheit) beeinflussen. Vererben bedeutet aber auch, dass von den Eltern etwas an die Nachkommen weitergegeben wird, wie beispielsweise Geld, Hab und Gut oder Wertvorstellungen.

Sicherlich hatte irgendjemand schon eine Genomweite Assoziationsstudie (GWAS) für "Religiosität" durchgeführt. Eine "GWAS" ist eine Untersuchung der Einzelnukleotid-Polymorphismen (SNPs) in einem Genom, d.i. Variationen in einzelnen Basenpaaren bei unterschiedlichen Individuen. Derartige Studien gibt es bereits seit zwei Jahrzehnten; sie versuchen für Eigenschaften wie antisoziales Verhalten, Vereinsamung und sogar politische Ideologien eine genetische Basis zu finden.

Heute verwenden die Forscher einen abgekürzten "polygenen Risikoscore" (PRS), um sogenannte komplexe Merkmale zu beschreiben, d. h. solche, die sowohl von mehreren Genen als auch von Umweltfaktoren beeinflusst werden. Im Gegensatz zu einer Entweder-Oder-Diagnose wie im Fall der Mukoviszidose umfasst ein PRS die Varianten vieler Gene, die zu einem Merkmal oder einer Krankheit beitragen.

Was Google Scholar an Untersuchungen aufzeigte, stammte eher aus den Sozialwissenschaften und verwendete eine Sprache, mit der ich zugegebenermaßen nicht vertraut bin. Hier ist eine kurze Beschreibung von fünf Studien in chronologischer Reihenfolge, die der Frage nachgingen, ob Religiosität in unseren Genen steckt.

1996: "Ein interaktives Modell der Religiositätsvererbung: Die Bedeutung des familiären Kontextes"

In diesem Bericht im Journal American Sociological Review hat Scott M. Myers von der Penn State University "das Ausmaß der Vererbung von Religiosität anhand von Interviews mit 471 Eltern im Jahr 1980 und ihren erwachsenen Nachkommen im Jahr 1992" abgeschätzt [1]. Sein Befund, dass die Religiosität einer Person von der elterlichen Religiosität abhängt, ist wenig überraschend. Verblüffend ist aber die antiquierte Sprache, die ja aus dem noch nicht so lange zurückliegenden Jahr 1996 stammt:

"Eine glückliche Ehe der Eltern, Unterstützung des Kinds durch die Eltern, angemessene Strenge und ein berufstätiger Ehemann/nicht berufstätige Ehefrau erhöhen die Fähigkeit der Eltern, ihre religiösen Überzeugungen und Gebräuche weiterzugeben." Du lieber Himmel!

2004: "Das Gottes-Gen: Wie der Glaube in unseren Genen fest verdrahtet ist"

Mit dem Konzept eines Gottes-Gens hat sich der Genetiker Dean Hamer in seinem viel zitierten Buch "Das Gottes-Gen" auseinander gesetzt. Es handelt sich um den am National Cancer Institute (Bethesda) tätigen Forscher, der bereits 1993 mit seiner inzwischen widerlegten Entdeckung eines "Schwulen-Gens" Schlagzeilen gemacht hat [2].

Im "Das Gottes-Gen" führt Hamer die "Veranlagung von Menschen zu spirituellen oder mystischen Erfahrungen" auf Varianten eines Gens, nämlich des für den vesikulären Monoamintransporter 2 (VMAT2) kodierenden Gens, zurück (VMAT2 transportiert in der Nervenzelle Monoamine aus dem Cytosol in Vesikel; Anm. Redn.). Laut Online Mendelian Inheritance in Man (d.i. der "Bibel" der Humangenetik) ist die korrekte Funktion des Gens "unerlässlich für die einwandfreie Leistung der monoaminergen Systeme, die bei etlichen neuropsychiatrischen Störungen des Menschen eine Rolle spielen. Der Transporter ist ein Wirkort für wichtige Medikamente".

Zu den Monoamin-Neurotransmittern gehören Serotonin, Dopamin, Adrenalin und Noradrenalin, die starke Auswirkungen auf die Gemütslage haben. Können also Variationen im Monoamin-Feld tatsächlich für religiöse Gedanken und sogar Visionen verantwortlich sein?

Hamers Kandidat des Gens für ein höheres Wesen tauchte 2017 in einem Bericht von Linda A. Silveira (von der University of Redlands) in der Zeitschrift Life Sciences Education wieder auf: "Experimentieren mit Spiritualität: Analyse des Gottes-Gens in einem Laborkurs". Die Studenten haben Varianten in ihren VMAT2-Genen untersucht. Die Autorin bewertete die Übung als ein Lehrmittel. Und das war es auch, denn die Klasse widerlegte die Hypothese, dass Varianten des Gens etwas mit dem Bekenntnis zu einer Religion zu tun haben.

2011: "Religion, Fruchtbarkeit und Gene: Ein Modell der Dualen Vererbung"

In einer Veröffentlichung der Royal Society untersuchte der Wirtschaftswissenschaftler Robert Rowthorn von der University of Cambridge anhand eines Modells die evolutionären Auswirkungen der Tatsache, dass religiöse Menschen im Durchschnitt mehr Kinder haben als ihre säkularen Pendants" [4]. Diese Aussage ist nicht belegt und wird als Allgemeinwissen dargestellt.

Rowthorn legte seine Annahmen dar: (1) die Kultur bestimmt die Fruchtbarkeit und (2) die "genetische Veranlagung" beeinflusst die Neigung zur Religion. "Menschen, die ein bestimmtes 'Religiositäts'-Gen besitzen, werden überdurchschnittlich oft religiös oder bleiben religiös", erklärte er. Dies ist eine Abwandlung der allzu simplen "a-gene-for"-Mentalität, auch bekannt als genetischer Determinismus.

Ich konnte nicht umhin, mich zu fragen, was ein Religionsgen eigentlich sein könnte? Ein DNA-Abschnitt, der für eine Hämoglobinvariante kodiert? Eine Form von Kollagen? Ein Blutgerinnungsfaktor? Ein Verdauungsenzym? Ist es vielleicht doch die abgelehnte VMAT2-Variante von Hamer?

Rowthorn schreibt: "Die Arbeit betrachtet die Auswirkungen von religiösen Übertritten und Exogamie auf die religiöse und genetische Zusammensetzung der Gesellschaft."

Ich wusste, dass Endogamie in der Genetik die Paarung innerhalb einer Gruppe bedeutet. Daher war ich nicht überrascht, als ich entdeckte, dass Exogamie "die soziale Norm ist, außerhalb der eigenen sozialen Gruppe zu heiraten". In der Biologie bedeutet Exogamie Auskreuzung (Tiere) oder Fremdbestäubung (Pflanzen). Einzeller wie Bakterien, Amöben und bestimmte Schleimpilze, die keine sozialen Normen haben, wachsen einfach und teilen sich dann.

Der Wirtschaftswissenschaftler versuchte, die Wissenschaft hinter seiner Hypothese des "Religiositätsgens" zu erklären, wobei er unbewusst die Konzepte der natürlichen Selektion und der genetischen Verknüpfung berührte:

"Sich von der Religion Lossagende verringern den Anteil der Bevölkerung mit religiöser Zugehörigkeit und verlangsamen die Ausbreitung des Religiositätsgens. Wenn jedoch der Unterschied in der Fruchtbarkeit bestehen bleibt, und Menschen mit religiösem Bekenntnis sich hauptsächlich mit Gleichgesinnten paaren, wird das Religiositätsgen trotz einer hohen Lossagungsrate schließlich überwiegen. Dies ist ein Beispiel einer "Gen-Kultur Koevolution'', in der sich ein Gen ausbreitet, weil es in der Lage ist, sich an ein kulturelles Brauchtum mit hoher Fitness anzuhängen."

(Nach Darwin bedeutet Fitness explizit: lange genug zu überleben, um sich fortzupflanzen.)

Rechnerische Modellierungen, so Rowthorns Schlussfolgerung, stützen seine "theoretischen Argumente" über die Ausbreitung eines Religiositätsgens.

2017: "Religiöse Wahnvorstellungen bei Schizophrenie"

Eine im Journal European Neuropsychopharmacology veröffentlichte Studie stößt in den Bereich der diagnostischen Medizin vor [5]. Forscher aus Deutschland haben polygene Risikoscores verwendet, um einen Zusammenhang zwischen "starker religiöser Aktivität" und einem erhöhten Schweregrad der Schizophrenie aufzuzeigen.

"Von 271 Patienten (217 Christen, 9 Muslime, 45 ohne religiöses Bekenntnis) erlebten 102 (38 %) religiöse Wahnvorstellungen während der Krankheitsepisoden", so die Forscher. "Die bloße Zugehörigkeit zu einer Religion korrelierte nicht mit einer höheren Wahrscheinlichkeit von Wahnvorstellungen, wohl aber eine "starke religiöse Aktivität".

"Andere untersuchte Faktoren - Alter, Geschlecht, Bildungsstand, Familienstand und sogar die Frage, ob ein Patient während der Befragung mitten in einem Wahnzustand war - schienen keine Rolle zu spielen. Und je höher die angegebene Religiosität war, desto größer war das Risiko von Wahnvorstellungen", so die Schlussfolgerung der Forscher.

Aber auch das Vorhandensein von mehr prädisponierenden Genen (höhere PRS) korrelierte mit der Wahrscheinlichkeit von Wahnvorstellungen. "Unsere Ergebnisse legen nahe, dass das Auftreten religiöser Wahnvorstellungen bei Schizophrenie und schizoaffektiven Störungen sowohl mit Umwelteinflüssen als auch mit genetischen Faktoren zusammenhängt. Eine moderate religiöse Aktivität scheint jedoch keine negativen Auswirkungen zu haben und könnte sogar hilfreich sein, um mit diesen Störungen fertig zu werden", so die Forscher.

2021: "Die Ursprünge des religiösen Unglaubens: Ein Ansatz der Dualen Vererbung"

Eine Studie in der Fachzeitschrift Social Psychological and Personality Science befasst sich mit den Hintergründen des Nichtglaubens [6]. Der Artikel beginnt mit der Beschreibung von Atheisten, als wären wir Außerirdische.

In dieser sozialwissenschaftlichen Untersuchung werden "theoretische Rahmenbedingungen für die wichtigsten Prädiktoren des religiösen Unglaubens" erörtert. Wir Atheisten "erleben weniger glaubwürdige kulturelle Hinweise auf religiöses Engagement, ... gefolgt von einem reflektierenden kognitiven Stil, ... und einer weniger fortgeschrittenen Mentalisierung."

Da meine Mentalisierung anscheinend zurückgeblieben ist, dachte ich, ich würde das mal genauer untersuchen. Die Wikipedia-Definition ist stumpfsinnig: "Mentalisierung kann als eine Form der imaginativen mentalen Aktivität betrachtet werden, die es uns ermöglicht, menschliches Verhalten in Form von intentionalen mentalen Zuständen wahrzunehmen und zu interpretieren."

Die Definition eines Begriffs sollte den Begriff nicht verwenden, etwas, das ich in dieser kleinen Auswahl der Soziologie-Literatur zuhauf fand. Ich denke, dass meine mangelnde Mentalisierung bedeutet, dass ich nicht unvoreingenommen bin, was vielleicht ein Umweg ist, um zu sagen, dass ich wie ein Naturwissenschaftler denke - ich ziehe Beweise der Phantasie und den Gefühlen vor.

Diesem Bericht zufolge ist Atheismus eher bei Menschen anzutreffen, die "kulturell relativ wenig mit Religion in Berührung kommen". Eine verblüffende Erkenntnis!

-------------------------------------------------------------

Meine Eltern haben mich mit unserer Religion vertraut gemacht. In der dritten Klasse habe ich mittwochs nach der Schule den "Religionsunterricht" besucht.

In der ersten Stunde habe ich aufmerksam der Geschichte der Schöpfung zugehört und in meinem Kopf die Drittklässler-Version eines Stammbaums aufgebaut. Ich war konsterniert. Woher kamen die Frauen von Kain und Abel?

Ich stellte diese Frage und man sagte mir, ich solle still sein. Aber ich hob immer wieder meine Hand. Gehörten die Ehefrauen von Kain und Abel zur Gattung Australopithecus, waren sie Neandertaler oder Schimpansen? Ich hatte die faszinierende Ausstellung von Hominidenköpfen im American Museum of Natural History vor Augen.

Ich bin nicht mehr zum "Religionsunterricht" zurückgekehrt. Meine Mutter wollte die angeborene Neugierde eines zukünftigen Wissenschaftlers nicht unterdrücken.

Wenn es ein Gen für Religiosität gibt, dann ist meines sicherlich gelöscht. Aber das ist in Ordnung.

----------------------------------------------------------------------------------------

 [1] Scott M. Myers: An Interactive Model of Religiosity Inheritance: The Importance of Family Context. American Sociological Review Vol. 61, No. 5 (Oct., 1996), pp. 858-866. https://doi.org/10.2307/2096457

[2] Ricki Lewis: Retiring the Single Gay Gene Hypothesis. 29.09.2019. https://dnascience.plos.org/2019/08/29/retiring-the-single-gay-gene-hypothesis/

[3] Linda A. Silveira: Experimenting with Spirituality: Analyzing The God Gene in a Nonmajors Laboratory Course. (2017) CBE—Life Sciences EducationVol. 7, No. 1. https://doi.org/10.1187/cbe.07-05-0029

[4] Robert Rowthorn: Religion, fertility and genes: a dual inheritance model.(2011). Proc. Royal Soc. https://doi.org/10.1098/rspb.2010.2504 . .

[5] Heike Anderson-Schmidt et al., T41 - Dissecting Religious Delusions In Schizophrenia: The Interplay Of Religious Activity And Polygenic Burden. . European Neuropsychopharmacology Volume 27, Supplement 3, , 2017.

[6] Will M.Gervais et al., The Origins of Religious Disbelief: A Dual Inheritance Approach. (2021)SAGE journals 12,7. https://doi.org/10.1177/1948550621994001


* Der Artikel ist erstmals am 22. Dezember 2022 in PLOS Blogs - DNA Science Blog unter dem Titel "In Search of a Religiosity Gene"https://dnascience.plos.org/2022/12/22/in-search-of-a-religiosity-gene/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.


 

inge Thu, 26.01.2023 - 13:12

NASA-Analyse: 2022 war das fünftwärmste Jahr seit Beginn der Aufzeichnungen

NASA-Analyse: 2022 war das fünftwärmste Jahr seit Beginn der Aufzeichnungen

Do, 19.01.2023 — Redaktion

Redaktion

Icon Klima

Nach einer Analyse der NASA war die durchschnittliche Oberflächentemperatur der Erde im Jahr 2022 gleichauf mit 2015 die fünftwärmste seit Beginn der Aufzeichnungen. Der langfristige Erwärmungstrend der Erde setzt sich fort; laut den Wissenschaftlern des Goddard Institute for Space Studies (GISS) der NASA lagen die globalen Temperaturen 2022 um 0,89 Grad Celsius über dem Durchschnitt des NASA-Bezugszeitraums (1951-1980).*

Abbildung 1. Globale Temperaturanomalien im Jahr 2022. (NASA Earth Observatory images by Joshua Stevens, based on data from the NASA Goddard Institute for Space Studies)

"Dieser Erwärmungstrend ist alarmierend", sagt NASA-Administrator Bill Nelson. "Unser sich erwärmendes Klima hinterlässt bereits seine Spuren: Waldbrände nehmen zu, Hurrikane werden stärker, Dürren richten Verwüstungen an und der Meeresspiegel steigt. Die NASA verstärkt ihr Engagement, um ihren Teil zur Bekämpfung des Klimawandels beizutragen. Unser Earth System Observatory wird hochaktuelle Daten zur Unterstützung unserer Klimamodellierung, -analyse und -vorhersage bereitstellen, um der Menschheit bei der Bewältigung des Klimawandels auf unserem Planeten zu helfen."

Die letzten neun Jahre waren die wärmsten Jahre seit Beginn der modernen Aufzeichnungen im Jahr 1880. Das bedeutet, dass die Erde im Jahr 2022 etwa 1,11°C wärmer war als der Durchschnitt des späten 19. Jahrhunderts.

Die Landkarte in Abbildung 1. zeigt die globalen Temperaturanomalien im Jahr 2022. Das sind nicht die absoluten Temperaturen, sondern um wie viel wärmer oder kühler die einzelnen Regionen der Erde im Vergleich zum Durchschnitt der Jahre 1951 bis 1980 waren.

Das Balkendiagramm in Abbildung 2. gibt das Jahr 2022 im Kontext mit den Temperaturanomalien seit 1880 wieder. Es sind dies über den gesamten Globus gemittelte Oberflächentemperaturen für die jeweiligen Jahre.

Abbildung 2. Globale Temperaturanomalien seit 1880 bezogen auf den Temperatur-Durchschnitt im Zeitraum 1951 - 1980. (Abweichungen in o C.) NASA Earth Observatory images by Joshua Stevens, based on data from the NASA Goddard Institute for Space Studies

"Der Grund für den Erwärmungstrend liegt darin, dass der Mensch fortfährt enorme Mengen an Treibhausgasen in die Atmosphäre zu pumpen, und die langfristigen Auswirkungen auf dem Planeten werden sich fortsetzen", sagt Gavin Schmidt, Direktor des GISS, dem führenden Zentrums der NASA für Klimamodellierung.

Nach einem kurzzeitigen Absinken aufgrund der COVID-19-Pandemie im Jahr 2020 sind die vom Menschen verursachten Treibhausgasemissionen wieder angestiegen. Kürzlich haben NASA-Wissenschaftler, ebenso so wie auch internationale Wissenschaftler festgestellt, dass die Emissionen von Kohlendioxid im Jahr 2022 so hoch waren wie nie zuvor. Mit Hilfe des EMIT-Instruments (Earth Surface Mineral Dust Source Investigation), das letztes Jahr zur Internationalen Raumstation gebracht wurde, hat die NASA außerdem einige Superemittenten von Methan - einem weiteren starken Treibhausgas - identifiziert (siehe dazu: [1]).

Die stärksten Erwärmungstendenzen weist nach wie vor die arktische Region auf: der Temperaturanstieg ist hier fast viermal so hoch wie im globalen Durchschnitt -, so die GISS-Untersuchung, die auf der Jahrestagung 2022 der American Geophysical Union vorgestellt wurde, sowie eine separate Studie.

Gemeinschaften auf der ganzen Welt leiden unter Auswirkungen, die Wissenschaftler in Zusammenhang mit der Erwärmung der Atmosphäre und der Ozeane sehen. Der Klimawandel hat Niederschläge und tropische Stürme verstärkt, Dürreperioden verschärft und die Auswirkungen von Sturmfluten verstärkt. Das vergangene Jahr brachte sintflutartige Monsunregenfälle, die Pakistan verwüsteten, und eine anhaltende Megadürre im Südwesten der USA. Im September wurde Hurrikan Ian zu einem der stärksten und kostspieligsten Wirbelstürme, die das US-amerikanische Festland heimsuchten.

Unser Planet im Wandel

Die globale Temperaturanalyse der NASA stützt sich auf Daten, die von Wetterstationen und Forschungsstationen in der Antarktis sowie von Instrumenten auf Schiffen und Bojen gesammelt wurden. NASA-Wissenschaftler analysieren diese Messungen, um Unsicherheiten in den Daten zu berücksichtigen und einheitliche Methoden für die Berechnung der globalen durchschnittlichen Oberflächentemperaturunterschiede für jedes Jahr beizubehalten. Diese Bodenmessungen der Oberflächentemperatur stimmen mit den Satellitendaten überein, die seit 2002 vom Atmospheric Infrared Sounder auf dem Aqua-Satelliten der NASA gesammelt wurden, sowie mit anderen Abschätzungen.

Um zu erfassen, wie sich die globalen Temperaturen im Laufe der Zeit verändern, verwendet die NASA den Zeitraum von 1951 bis 1980 als Bezugslinie. Diese Basislinie umfasst Klimaverläufe wie La Niña und El Niño, ebenso wie ungewöhnlich heiße oder kalte Jahre, die auf andere Faktoren zurückzuführen sind, und stellt sicher, dass die natürlichen Schwankungen der Erdtemperatur berücksichtigt werden.

Viele Faktoren können die Durchschnittstemperatur in einem bestimmten Jahr beeinflussen. So war beispielsweise das Jahr 2022 eines der wärmsten seit Beginn der Aufzeichnungen, obwohl im tropischen Pazifik das dritte Jahr in Folge La Niña herrschte. NASA-Wissenschaftler schätzen, dass der kühlende Einfluss von La Niña die globalen Temperaturen geringfügig (etwa 0,06 °C) gegenüber dem Durchschnitt gesenkt haben könnte, der unter typischeren Meeresbedingungen erreicht worden wäre.

Eine separate, unabhängige Analyse der National Oceanic and Atmospheric Administration (NOAA) ergab, dass die globale Oberflächentemperatur im Jahr 2022 die sechsthöchste seit 1880 war. Die NOAA-Wissenschaftler verwenden für ihre Analyse größtenteils dieselben Temperatur-Rohdaten, haben aber einen anderen Bezugszeitraum (1901-2000) und eine andere Methodik. Obwohl die Rangfolge für bestimmte Jahre zwischen den Aufzeichnungen leicht abweichen kann, stimmen sie weitgehend überein und spiegeln beide die anhaltende langfristige Erwärmung wider.

Der vollständige Datensatz der NASA zu den globalen Oberflächentemperaturen bis zum Jahr 2022 sowie alle Einzelheiten mit Code zur Durchführung der Analyse durch die NASA-Wissenschaftler sind beim GISS öffentlich zugänglich [2]


[1] Redaktion, 03.11.2022: NASA: neue Weltraummission kartiert weltweit "Super-Emitter" des starken Treibhausgases Methan

[2] Goddard Institute for Space Studies: GISS Surface Temperature Analysis (GISTEMP v4). https://data.giss.nasa.gov/gistemp


* Der vorliegende Artikel ist als Presseaussendung unter dem Titel " NASA Says 2022 Fifth Warmest Year on Record, Warming Trend Continues" am 12. Jänner 2023 auf der Web-Seite der NASA erschienen

https://www.nasa.gov/press-release/nasa-says-2022-fifth-warmest-year-on-record-warming-trend-continues.. Der unter einer cc-by stehende Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit den Abbildungen aus https://earthobservatory.nasa.gov/images/150828/2022-tied-for-fifth-warmest-year-on-record ergänzt.


Weiterführende Links

NASA Goddard: A Look Back: 2022's Temperature Record (12.1.2023), Video 4:41. min. https://www.youtube.com/watch?v=GxXmIgcfFn4&t=4s (Credit: NASA's Goddard Space Flight Center Kathleen Gaeta (Lizenz: gemeinfrei))

Schwerpunktsthema im ScienceBlog. Bis jetzt behandeln mehr als 40 Artikel den Klimawandel - von Modellierungen über Folgen des Klimawandels bis hin zu Strategien seiner Eindämmung; chronologisch gelistet in Klima & Klimawandel


 

inge Thu, 19.01.2023 - 01:15

Probiotika - Übertriebene Erwartungen?

Probiotika - Übertriebene Erwartungen?

So 15.01.2023  — Inge Schuster

Inge Schuster Icon Medizin Innerhalb weniger Jahre ist ein milliardenschwerer Markt für Probiotika entstanden, d.i. für "lebende Mikroorganismen, die, wenn sie in angemessener Menge verabreicht werden, dem Wirt einen gesundheitlichen Nutzen bringen ". Die Werbung verspricht, dass solche "guten" Mikroorganismen eine "gestörte" Darmflora verbessern und in Folge diverseste Erkrankungen verhindern oder heilen können. Für diese Behauptungen fehlt größtenteils ein stichhaltiger, wissenschaftlicher Nachweis.

Als wir In den späten 1970er Jahren im ehemaligen Wiener Sandoz-Forschungsinstitut an neuen, oral verabreichbaren Wirkstoffen gegen Pilzinfektionen forschten, hat mein Labor dazu u.a. mit Untersuchungen zur Aufnahme (Absorption) der Substanzen aus dem Darm beigetragen. Dies war ein Gebiet, in dem der damalige Wissenstand und die experimentellen Möglichkeiten noch sehr bescheiden waren; insbesondere betraf dies auch das Thema, ob und welchen Einfluss Darmbakterien auf die Physiologie/Pathologie (nicht nur) des Verdauungstraktes haben könnten. Hat man auf Tagungen führende Experten danach befragt, kam stereotyp die Antwort: "Das wissen wir leider nicht."

Einige Jahrzehnte später erlebt nun der Markt für Probiotika einen riesigen Boom; laut Definition der International Scientific Association for Probiotics and Prebiotics (ISAPP) versteht man darunter "lebende Mikroorganismen, die, wenn sie in angemessener Menge verabreicht werden, dem Wirt einen gesundheitlichen Nutzen bringen". Die Werbung sieht diese als "gute" Bakterien, deren Anwendung zur Prävention und Therapie eines unglaublichen Spektrums an Krankheiten verhelfen soll. Beispielsweise schreibt das Portal https://probiotics.org/benefits/ "Um nur einige der Wirkungen zu nennen: Probiotische Bakterien bekämpfen Krebs, beugen Karies vor, reduzieren Allergien, senken den Blutdruck und helfen Ihnen, besser zu schlafen!" und listet dann im Detail mehr als 100 unterschiedliche Krankheitsbilder auf, gegen die Probiotika wirksam sein sollen. Solchen Heilsversprechen kann man nicht entrinnen, nicht in den Medien - vor allem in der TV-Werbung zur Hauptsendezeit -, nicht im Internet auf Webseiten und auf sozialen Plattformen.

Man fragt sich hier primär: Wissen wir überhaupt schon genug über unsere Darmbakterien und über gesundheitliche Auswirkungen, wenn deren Gemeinschaften gestört sind (d.i. bei sogenannten Dysbiosen)? Und in weiterer Folge: Welche Evidenz gibt es dafür, dass Probiotika die Darmflora "verbessern" können und damit den einen oder anderen gesundheitlichen Nutzen erbringen?

Was wissen wir über das menschliche Mikrobiom.....

Fakt ist: Wir leben in einer Symbiose mit komplexen Gemeinschaften von Mikroorganismen, die uns in der Regel nicht nur keinen Schaden zufügen, sondern für Wohlbefinden und Aufrechterhaltung der Gesundheit sogar unerlässlich sind. Lange Zeit schien es allerdings ziemlich aussichtslos die auf und in uns lebenden mikrobiellen Gemeinschaften in ihrer Gesamtheit - das, was man nun als das Mikrobiom versteht - charakterisieren zu wollen. Mit den etablierten mikrobiologischen Methoden hätte man ja die unterschiedlichen Stämme der Mikroorganismen isolieren und in Kultur bringen müssen, um sie dann sequenzieren zu können - in Anbetracht der im Dickdarm (Colon) hauptsächlich anaerob (ohne Sauerstoff) existierenden Keime allerdings ein heilloses Unterfangen.

Neue Techniken, vor allem in der Sequenzierung der DNA, wie sie im Human Genome Project erfolgreich angewandt wurden, haben seit der Mitte der 2000-Jahre eine umfassende Untersuchung von mikrobiellen Gemeinschaften ermöglicht ohne, dass man deren einzelne Vertreter vorher isolieren und kultivieren musste.

Initiiert von den US-National Institutes of Health (NIH) und mit 170 Mio $ unterstützt, startete 2007 das Human Microbiome Project (HMP -  https://hmpdacc.org/), eine 10 Jahre laufende, bahnbrechende Initiative, an der sich mehr als 40 Forschungseinrichtungen vorwiegend aus den US aber auch aus Kanada und Belgien beteiligten.

In der ersten Phase hat sich das HMP auf die Identifizierung und Charakterisierung der mit dem Menschen assoziierten Mikroorganismen konzentriert und darauf, ob es so etwas, wie ein zentrales gesundes Mikrobiom - also gemeinsame Elemente im Mikrobiom gesunder Menschen - gibt. Dazu wurden von 242 gesunden Versuchspersonen Proben der mikrobiellen Gemeinschaften an verschiedenen Stellen des Körpers - vom Nasen-Mundraum über die Haut, den Magen-Darm-Trakt bis zum Urogenitaltrakt - mittels metagenomischer Whole Genome Shotgun Sequenzierung charakterisiert. In der zweiten, bis 2016 laufenden Phase sollte das Zusammenspiel von Wirtsorganismus und Mikrobiom, einschließlich Immunität, Stoffwechsel und dynamischer molekularer Aktivität, erforscht werden, um Einblicke in die Rolle der Mikroben für Gesundheit und Krankheit zu gewinnen. Dazu wurden Datensätze biologischer Eigenschaften sowohl des Mikrobioms als auch des Wirts aus drei verschiedenen Kohortenstudien zu Mikrobiom-assoziierten Erkrankungen erstellt: aus Studien i) zu Schwangerschaft und Frühgeburten, ii) dazu, wie entzündliche Darmerkrankungen ihren Ausgang nehmen und iii) wie Diabetes Typ2 anfängt und fortschreitet.

Während seiner Laufzeit sind aus dem Projekt bereits Hunderte wissenschaftliche Publikationen hervorgegangen. Das gesamte Datenmaterial ist auf dem HMP-Portal (https://portal.hmpdacc.org/) als Basis für viele weitere Untersuchungen, Analysen und Hypothesen öffentlich zugänglich.

...... und speziell über das Mikrobiom im Darm?

Die bisherigen Ergebnisse aus dem Human Microbiome Project aber auch aus vielen anderen, größeren Studien haben unsere Kenntnisse über die komplexen Gemeinschaften von Mikroorganismen im Darm erheblich erweitert und auch erste fundierte Informationen zur Rolle der Bakterien in Gesundheit und Krankheit beigetragen. Wir beginnen ein besseres Bild über die Diversität und ungeheure Variabilität der Gemeinschaften von Mikroorganismen zu bekommen, über den Einfluss, den Alter, Geschlecht, Ethnizität, Diät, Lebensstil, Krankheit und Arzneimittelkonsum auf diese Gemeinschaften haben und auch über deren enorme Fähigkeit der Adaptation auf geänderte Bedingungen.

Abweichend von früheren Schätzungen geht man nun davon aus , dass uns etwa gleich viele Bakterien (rund 38 Billionen Zellen) besiedeln, wie wir Körperzellen (rund 30 Billionen) besitzen. Bis zu 1000 unterschiedliche Bakterienspezies (plus deren Subspezies) wurden festgestellt, wobei der Darm - und hier speziell das Colon - um 2 Größenordnungen mehr Keime enthält als alle anderen Körperstellen zusammen. Im Colon machen diverse Stämme von Bacteroideten und Firmicuten bis zu 90 % der Besiedlung aus. Bis zu 100 Milliarden Keime/ml finden sich in der eindickenden Masse im Colon, bis zu 60 % der eingedickten und mit dem Kot ausgeschiedenen (Trocken)Masse bestehen aus Bakterien.

Wenn Bakterien auf Grund ihrer wesentlich geringeren Größe auch nur etwa 0,3 % (ca. 200 g) unseres Körpergewichts ausmachen, so tragen sie auf Grund ihres extensiven Metabolismus und ihrer enormen Vermehrungsrate (Verdoppelung innerhalb weniger Minuten) essentiell zur Homöostase unseres Verdauungssystems bei. Wie weit dies für die lange Strecke im über 5 m langen Jejunum (dem oberen Dünndarm) gilt, in dem zwar nur sehr niedrige und passager auftretende Mengen an Bakterien (1 000 - 10 000/ml) vorkommen, aber über 90 % der verwertbaren Stoffe des Nahrunsgsbreis aber auch Arzneistoffe absorbiert werden, ist nicht bekannt.

Was allerdings aus dem Ileum (dem unteren Dünndarm) an noch unverdauten und unverdaulichen Bestandteilen des Nahrungsbreis ins Colon gelangt, wird von den dort ansässigen Bakterien in absorbierbare, für uns verwertbare Produkte umgewandelt, u.a. in kurzkettige Fettsäuren (Essigsäure, Propionsäure. Buttersäure) und in zahlreiche andere essentielle Produkte (u.a. in die Vitamine Biotin, Vitamin K). Welche möglicherweise bioaktiven Stoffwechselprodukte hier von Bakterien freigesetzt werden (das sogenannte Metabolom), wie sie diese zu Kommunikation und Abwehr untereinander und mit dem Wirtsorganismus nutzen, ist Gegenstand intensiver Untersuchungen, insbesondere, ob und welche Auswirkungen derartige Substanzen auf Stoffwechsel, Immunsystem und Körperorgane bis hin zum CNS haben.

Die Darmflora ist einmalig, wie ein Fingerabdruck und zudem dynamisch - sie adaptiert sich laufend auf die Situation des jeweiligen Wirts und setzt einer Kolonisierung mit fremden pathogenen Organismen Resistenz entgegen.

Nach wie vor ist das Mikrobiom des Darms aber größtenteils eine "terra incognita".

Erst jetzt gibt es erste Ergebnisse zu Lokalisierung und Konzentration der verschiedenen Bakterien-Spezies in den einzelnen Darmabschnitten, erst jetzt Informationen darüber, wo sich die Bakterien dort befinden: assoziiert an das Darmepithel, an die darüber liegende Mucus-Schichte oder im Darmlumen diffundierend.

Über Ausmaß, Lokalisierung und mögliche Auswirkungen unserer Symbiose mit anderen Darmbewohnern wie Archaeen, Pilzen, Parasiten und Viren (vorzugsweise Bakteriophagen) ist noch viel zu wenig bekannt.

Der Probiotika Boom

Wahrscheinlich haben Menschen bereits vor Jahrtausenden begonnen vergorene Lebensmittel - wie Sauerkraut, Joghurt und Kefir -, die große Mengen an Lactobacillen (Milchsäure produzierende Bakterien) enthalten, zu konsumieren. Die Entdeckung der Lactobazillen in diesen Lebensmitteln und die überdurchschnittliche Langlebigkeit bulgarischer Bauern, deren Ernährung sehr viel Joghurt enthielt, ließen den russischen Physiologen und Nobelpreisträger Ilya Metschnikow 1907 erstmals die Hypothese von einer gesundheitssteigernden, lebensverlängernden Wirkung der Lactobazillen herleiten, für die er den Begriff "Probiotika" formulierte. Joghurt wurde in Folge in vielen Ländern populär und 1935 kam in Japan ein mit einem Lactobacillus casei-Stamm angereichertes Joghurt - Yakult - auf den Markt, das auch heute noch zu den globalen Blockbustern zählt. Dann geschah jahrzehntelang nichts.

Der Probiotika-Boom setzte erst viel später ein. An Hand der Veröffentlichungen in wissenschaftlichen Fachjournalen kann er etwa mit dem Ende der 1990er Jahre datiert werden. So findet man in der US-Datenbank PubMed unter dem Suchbegriff "probiotics" insgesamt rund 41 000 Publikationen. Vom Jahr 2000 (212 Publikationen) an gibt es eine nahezu exponentiell wachsende Zahl jährlicher Publikationen. Abbildung 1. Eine ähnliche Zeitkurve erhält man auch auf dem Portal Google Scholar, das allerdings wesentlich mehr Zeitschriften erfasst und auf insgesamt 684 000 Publikationen kommt. Sucht man auf  auf Google selbst, das ja Webseiten von Firmen und Werbung erfasst, nach "probiotics" kommt man auf 138 Millionen Einträge.

Abbildung 1. Ab 2000 findet ein rasanter Anstieg der Publikationen über Probiotika statt (Quelle: https://pubmed.ncbi.nlm.nih.gov/ abgerufen am 2.1.2023) .

Wie Probiotika wirken können

Zu den in Probiotika verwendeten "guten" Bakterien zählen diverse Stämme von Michsäurebakterien (Lactobazilli) , Bifidobakterien und E. coli. (Daneben werden auch Hefepilze eingesetzt.)

Davon ausgehend, dass Probiotika eine "gestörte" Darmflora verbessern, gibt es verschiedene Mechanismen, wie dies bewirkt wird und diese können von Bakterienstamm zu Bakterienstamm unterschiedlicher Natur sein.

"Gute" Bakterien können das Wachstum pathogener Bakterien hemmen, indem sie u.a. mit den Pathogenen um die Besiedlung der Darmschleimhaut konkurrieren, den pH-Wert im Darmlumen absenken, Toxine abbauen, bioaktive Stoffwechselprodukte ausscheiden, die gegen die Pathogene gerichtet sind und/oder auch als Signalmoleküle auf das Immunsystem, das endokrine System und das Nervensystem wirken.

Die Voraussetzung dafür: Eine ausreichende Menge an "guten" Bakterien muss die Passage durch Magen und Dünndarm überleben und vermehrungsfähig ins Colon gelangen, um dort, in dem dicken Brei aus Nahrungsresten und bis zu 100 Milliarden Mikroorganismen im Milliliter eine Chance zu haben gegen pathogene Keime vorzugehen. Wie weit dies bei Probiotika in üblichen Dosierungen von 5 bis zu 50 Milliarden Keimen der Fall ist, bleibe dahingestellt.

Ein wachsender Markt..........

Gleichzeitig mit dem Interesse an Probiotika ist auch der Markt für probiotische Joghurts, Nahrungsergänzungsmittel, Hygieneprodukte etc. schnell gewachsen. Zahlreiche Firmen teilen sich den Markt; zu den wichtigsten Akteuren zählen Yakult Honsha, Danone, Morinaga, Nestle, PepsiCo Inc., Bio-K Plus International Inc. und Daflorn Ltd. Die Größe des globalen Markts wurde 2021 mit 61,1 Milliarden US $ beziffert, bei einem jährlichen Wachstum von 8,3 % soll er 2029 115,71 Milliarden US $ erreichen ((https://www.maximizemarketresearch.com/market-report/probiotics-market-size/542/). (Zum Vergleich: der globale Pharmamarkt lag 2022 bei 1 136 Milliarden US $.)

Vertrieben über Supermärkte, Apotheken und online verleiten gesundheitsbezogene Angaben (d.i. Angaben, mit denen ein Zusammenhang zwischen einem Produkt und Gesundheit suggeriert wird) zur Selbstmedikation und dies auch bei schweren Erkrankungen. Für Probiotika in Lebensmittel sind derartige gesundheitsbezogene Angaben nicht erlaubt. Medizinprodukte mit probiotischen Inhaltstoffen fallen mit dem Inkrafttreten der Europäischen Verordnung über Medizinprodukte (Mai 2021) in den Geltungsbereich der Richtlinie über Human-Arzneimittel. Wie für diese sind also sehr aufwändige, teure klinische Studien zum Nachweis von Wirksamkeit und Sicherheit erforderlich, um eine Zulassung zu erreichen.

...erforderliche klinische Studien......

Forschungsinstitutionen und Industrie haben bereits eine sehr große Zahl an klinischen Studien zur Wirksamkeit von Probiotika durchgeführt, viele laufen noch oder sind in Planung.

Auf der Webseite der von den NIH betriebenen größten Datenbank für klinische Studien https://clinicaltrials.gov/ finden sich unter dem Schlagwort "probiotic" insgesamt 2051 Studien (abgerufen am 2.1.2023). Davon wurden 1140 schon abgeschlossen, darunter 464 von der Industrie durchgeführte Studien. Die meisten der abgeschlossenen Studien untersuchten die Wirksamkeit gegen Infektionskrankheiten (238), Durchfall (94), Reizdarm (66), Entzündung (64), Adipositas (62), vaginale Erkrankungen (42) und Stress (42). Weitere Studien behandelten Depression, kognitive Fähigkeiten, Diabetes, atopische Dermatitis, Krebserkrankungen, ulcerative Colitis, Enteroclitis, Akne, Karies, Schlafstörungen und Epilepsie.

Der Großteil der Studien hat bis jetzt bestenfalls Hinweise aber keine Evidenz auf Wirksamkeit in der untersuchten Indikation erbracht.

....und wie wirksam haben sich Probiotika erwiesen?

Probiotika liegen im Zeitgeist, die rezeptfreien Produkte entsprechen dem Trend zur Selbstmedikation. Das Internet ist hier eine wesentliche Informationsquelle.

Wie steht es aber um die Qualität dieser Informationen?

Ein Team um Michel Goldman (Université Libre de Bruxelles) hat 2020 dazu eine erhellende Studie "Online-Informationen über Probiotika: Stimmen sie mit den wissenschaftlichen Erkenntnissen überein?" veröffentlicht (M. Neunez et al., Front. Med. 6:296. doi: 10.3389/fmed.2019.00296). Gestützt auf Cochrane Reviews hat das Team 150 der von Google zu "probiotics" retournierten Top-Webseiten auf Genauigkeit, Vollständigkeit und Qualität der Informationen ausgewertet.

Abbildung 2 . Nur rund ein Viertel der geundheitsbezogenen Behauptungen für Probiotika sind durch stichhaltige Beweise gesichert. (Bild: modifiziert nach Neunez M., et al., 2020. Online Information on Probiotics: Does It Match Scientific Evidence? Front. Med. 6:296. doi: 10.3389/fmed.2019.00296. Lizenz: cc-by)

Das Ergebnis: Am häufigsten kamen kommerzielle Webseiten und News vor. Die kommerziellen Webseiten haben im Durchschnitt die am wenigsten verlässlichen Informationen geliefert und viele der behaupteten Leistungen von Probiotika wurden nicht durch wissenschaftliche Evidenz gestützt. Insgesamt wurden nur 24 % der Behauptungen durch stichhaltige Belege untermauert; für 20 % gab es keine Belege. In den anderen Fällen reichten die gelieferten Belege nicht aus , um die Behauptungen zu rechtfertigen. Abbildung 2.

Nur insgesamt 25 % der Seiten (nur 8 % der kommerziellen Seiten) beinhalten auch Sicherheitsaspekte. Auch, wenn Probiotika ein gutes Sicherheitsprofil haben, kann es bei immunschwachen Personen zu einem Überfluten des Dünndarms mit den "guten" aber dort unverdaulichen Keimen kommen, insbesondere wenn die Magensäure durch Protonenpumpen-Inhibitoren neutralisiert wurde. Es kommen auch vereinzelte Fälle von bakterieller oder fungaler Sepsis vor.

Von besonderem Interesse ist es natürlich bei welchen Krankheiten stichhaltige Evidenz für die behauptete Wirksamkeit von Probiotika gefunden wurde. Abbildung 3. Dies war nur bei einigen Magen-Darmerkrankungen der Fall. Für den Großteil anderer Erkrankungen sind die Heilsversprechen als Wunschdenken anzusehen.

Abbildung 2. Wissenschaftliche Evidenz für die behauptete Wirksamkeit von Probiotika auf online Webseiten bei diversen Erkrankungen; hergeleitet von Cochrane Reviews. Grün: stichhaltige Eviden, gelb: mäßige Evidenz, orange: geringe Evidenz, rot: keinerlei Evidenz. (Bild: unverändert von Neunez M., et al., 2020, Lizenz: cc-by)

Zu einem ähnlichen Ergebnis kommt auch das Office of Dietary Supplements der NIH in Probiotics. Fact Seet for Health Professionals (https://ods.od.nih.gov/factsheets/Probiotics-HealthProfessional/). Metaanalysen verschiedener Krankheiten, in denen Probiotika angeblich wirkten, zeigten nur im Fall von Infektions- und Antibioka-verursachtem Durchfall bei Kindern Evidenz.

Fazit

Die Industrie hat in wenigen Jahren einen riesigen Markt für Probiotika aufgebaut. Diese sind zu lifestyle-Produkten geworden, auch wenn die gesundheitsbezogenen Behauptungen größtenteils noch leere Heilsversprechen ohne wissenschaftliche und klinische Evidenz sind.

Das Gebiet ist überaus komplex und steckt noch in den Kinderschuhen. Es fehlt an essentiellen wissenschaftlichen Grundlagen sowohl dazu, was ein "gesundes" balanciertes Mikrobiom ist, als auch wie dieses mit den Zellen der Darmwand interagiert und wie die enorme Fülle seiner Stoffwechselprodukte (Metabolom) unsere Organsysteme beeinflussen könnte. Sicherlich wird es noch Jahre dauern bis - aufbauend auf besseren Grundlagen - verstanden wird, wie "Gesundheit im Darm beginnt" und mit welchen Interventionen dies erreicht werden kann.

Soll man Probiotika nach dem Motto "hilft's nicht, schadets auch nicht" anwenden? In Anbetracht recht weniger, jedoch schwerer Nebenwirkungen ist Vorsicht angebracht.


Das Mikrobiom im ScienceBlog

Inge Schuster, 18.09.2020: Spermidin - ein Jungbrunnen, eine Panazee?

Inge Schuster, 03.01.2019: Wie Darmbakterien den Stoffwechsel von Arzneimitteln und anderen Fremdstoffen beeinflussen

Dario Valanzano, 28.06.2018: Mikroorganismen im Darm sind Schlüsselregulatoren für die Lebenserwartung ihres Wirts

Norbert Bischofberger, 24.05.2018: Auf dem Weg zu einer Medizin der Zukunft

Redaktion, 10.05.2018: Anton Weichselbaum und das menschliche Mikrobiom - ein Vortrag vor 125 Jahren

Francis S. Collins, 28.09.2017: Ein erweiterter Blick auf das Mikrobiom des Menschen

Redaktion, 22.12.2016: Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?


 

inge Sun, 15.01.2023 - 18:53

NASA im Wunderland: Zauberhafte Winterlandschaften auf dem Mars

NASA im Wunderland: Zauberhafte Winterlandschaften auf dem Mars

Do, 05.01.2023 — Redaktion

Redaktion

Icon Astronomie

Die Herbst- und Wintertemperaturen bringen Veränderungen auf dem Mars mit sich, da sich die Kohlendioxidatmosphäre in Trockeneis verwandelt, das sich auf der Oberfläche festsetzt. Mit seinen leistungsstarken Kameras und Spektrometern hat der Mars Erkundungssatellit (Reconnaissance Orbiter) detaillierte Bilder aufgenommen und Messungen gemacht, welche die winterliche Schönheit der Natur - Frost, Geysire und komplizierte gefrorene Muster - auf dem Roten Planeten zeigen.*

Frostbedeckte Sanddünen in der Nähe des Mars-Nordpols, aufgenommen vom Mars Reconnaissance Orbiter zwei Tage nach der Wintersonnenwende auf dem Planeten. NASA / JPL-Caltech / University of Arizona.

Der Spätwinter hat die nördliche Hemisphäre des Mars erreicht, und die NASA hat kürzlich Bilder dieser Jahreszeit veröffentlicht, die von ihrem Mars Erkundungs-Satellitten aufgenommen wurden. Die frostigen Szenen bieten ein fremdes und doch irgendwie vertrautes Schauspiel der Schönheit.

Wie auf der Erde gibt es auch auf dem Roten Planeten Schnee und Frost, und es existiert dort auch Wassereis. In gewisser Weise sehen seine Winter also wie unsere aus. Aber da hört die Ähnlichkeit auch schon auf.

In einem Marswinter sinkt die Durchschnittstemperatur des Planeten - ohnehin schon eisige minus 62o C - auf unter minus 123o C. Bei dieser klirrenden Kälte existiert auf dem Roten Planeten noch eine zweite Art von Eis, das aus Kohlendioxid besteht und uns als Trockeneis bekannt ist.

Im Gegensatz zum gefrorenen Wasser bei uns zu Hause schmilzt auf dem Mars das aus Kohledioxid bestehende Eis nicht. Stattdessen wandelt es sich bei ansteigender Temperatur direkt vom festen in einen gasförmigen Zustand um, ein Vorgang, den man als Sublimation bezeichnet. Dabei entstehen fantastische Formationen auf dem Boden, die von spinnenartigen, ineinander verschlungenen Linien bis hin zu getupften Mustern reichen. Wissenschaftler haben diese Formationen nach einigen bekannten Dingen und Mustern benannt, von Dalmatinerflecken über Spiegeleier bis hin zu Schweizer Käse.

Das Gefrieren von Wassereis und die Sublimation von Trockeneis erzeugen derartige Muster auf dem Marsboden. Geysire aus von der Sonne erwärmtem Gas und Staub sind in der farbverstärkten Darstellung blau gefärbt. NASA / JPL-Caltech / Universität von Arizona.

Kohlendioxid-Eis sorgt für eine weitere Besonderheit des Mars-Winters, nämlich für Schneeflocken in Würfelgestalt. Im gefrorenen Zustand sind die Moleküle des Kohlendioxids zu Vieren aggregiert, und so sehen diese viereckigen Flocken anders aus als die sechseckigen aus Wassermolekülen auf der Erde. Kohlendioxid-Flocken sind zudem sehr winzig. "Diese Schneeflocken dürften kleiner sein, als die Breite eines menschlichen Haares", erklärt Sylvain Piqueux, Marsforscher am Jet Propulsion Laboratory der NASA.

Während es auf dem Mars zwar sowohl gefrorenes Wasser als auch gefrorenes Kohlendioxid gibt, sind die würfelförmigen Flocken aus Trockeneis die einzige Art von Schnee, die den Boden bedeckt. Nirgendwo auf dem Planeten gibt es allerdings mehr als ein paar Meter Schnee, und das meiste davon fällt auf flaches Land.

"Es fällt ausreichend viel, dass man mit Schneeschuhen darüber laufen könnte", sagt Piqueux. "Wenn man jedoch Skifahren wollte, müsste man in einen Krater oder an einen Abhang gehen, wo sich der Schnee auf einer abschüssigen Oberfläche ansammeln könnte."

Der auf dem Mars aus Wasser entstehende Schnee sammelt sich nicht an. Die kalten Temperaturen und die dünne Atmosphäre sorgen dafür, dass sich herabfallende Wasserschneeflocken in Gas verwandeln, bevor sie den Boden erreichen.

Das ganzjährige Eis am Südpol des Mars hebt sich von den farbigen Wänden der Gruben mit flachem Boden ab. Die kleinste dieser Gruben in der Mitte ist so groß wie ein Stadion auf der Erde. NASA / JPL-Caltech / Universität von Arizona.

Obwohl die NASA weiß, dass es auf dem Mars schneit, hat sie die fallenden Flocken noch nie fotografiert. Orbiter können nicht durch die dichten Wolken des Planeten sehen, um solche Bilder aufzunehmen, und Roboter auf dem Boden können die kältesten Extrema des Planeten nicht überstehen. Doch das sind die Orte, an denen der Schnee auf dem Mars fällt - in den kalten Gebieten im Schatten der Wolken, an den Polen und in der Nacht.

In Ermangelung von beweisenden Fotos hat die NASA andere Methoden verwendet, um den fallenden Schnee auf dem Mars zu finden und zu untersuchen. Im Jahr 2008 hat die NASA-Raumsonde Phoenix einen Laserstrahl in die Atmosphäre geschickt und die von den Wolken und Schneeflocken zurückgestreuten Signale gemessen. "Im Grunde genommen leuchtet man den Himmel aus und kann sehen, wenn Schnee fällt", sagt Piqueux in einem Video (siehe unten). Außerdem hat der Mars Erkundungs-Satellit, der das Wetter im infraroten und sichtbaren Licht untersucht, fallenden Trockeneisschnee entdeckt.

Diese "Megadünen" oder Barchane (Sicheldünen) sind mit Kohlendioxid-Frost und Eis bedeckt. Wenn das Eis sublimiert, werden Bereiche mit dunklerem Sand sichtbar. NASA / JPL-Caltech / Universität von Arizona.

Der Frost auf dem Mars ist wunderschön, wie die Bilder der NASA beweisen. Darüber hinaus könnte er für künftige menschliche Astronauten auf dem Roten Planeten auch einen praktischen Nutzen haben. Neben der Flüssigkeitszufuhr für extraterrestrische Reisende könnte gefrorenes Wasser auch für die Landwirtschaft oder als Treibstoff für Raumfahrzeuge verwendet werden.

"Der Zugang zu Wasser ist ein wichtiger Faktor für die Erkundung des Weltraums", hat Richard Davis, stellvertretender Direktor für Wissenschaft und Exploration im Science Mission Directorate der NASA, in einem Statement aus dem Jahr 2020 gesagt. Technologische Fortschritte, die es den Menschen ermöglichen, auf fernen Welten 'von der Erde zu leben' und Ressourcen wie Wasser zu nutzen, werden beträchtliche Möglichkeiten eröffnen, unser Universum aus eigner Kraft zu erkunden."

 

 


 *Der vorliegende Artikel von Carlyn Kranking ist unter dem Titel " See the Chilling Beauty of Winter on Mars" https://www.smithsonianmag.com/smart-news/see-the-chilling-beauty-of-winter-on-mars-180981380/ am 4. Jänner 2023 im Smithsonian Magazin erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt.

Smithsonian Institution (Smithsonian, https://www.si.edu/) ist eine bedeutende US-amerikanische Forschungs- und Bildungseinrichtung, die auch zahlreiche Museen, Galerien und den Nationalzoo betreibt. Das Smithsonian stellt seine komplette Sammlung nach und nach in elektronischer Form (2D und teilweise 3D) unter der freien CC-0-Lizenz kostenlos zur Weiterverbreitung zur Verfügung. Das Smithsonian Magazine (aus dem der obige Artikel stammt) bringt eine Fülle faszinierender, leicht verständlicher Artikelaus allen Bereichen der Natur und der Gesellschaften. https://www.smithsonianmag.com/?utm_source=siedu&utm_medium=referral&utm_campaign=home.


 Weiterführende Links

What Is Winter Like on Mars? (NASA Mars News Report Dec. 21, 2022), Video 3:11 min. https://www.youtube.com/watch?v=8gCmVu934Vo&list=PLTiv_XWHnOZpzQKYC6nLf6M9AuBbng_O8.

NASA, Jet Propulsion Laboratory News: https://www.jpl.nasa.gov/news/nasa-explores-a-winter-wonderland-on-mars

National Weather Service: The Planet Mars. https://www.weather.gov/fsd/mars#:~:text=Temperatures%20on%20Mars%20average%20about,lower%20latitudes%20in%20the%20summer.


 

inge Thu, 05.01.2023 - 12:59

2022

2022 inge Fri, 07.01.2022 - 20:15

Fliegen lehren uns, wie wir lernen

Fliegen lehren uns, wie wir lernen

Do, 29.12.2022 — Nora Schultz

Nora SchultzIcon Gehirn-Fliege

Die Taufliege Drosophila gehört zu den beliebtesten Tiermodellen der Genetiker und auch der Neurowissenschafter. Zwar liegen zwischen Fliegen und Menschen Welten; doch schaut man dem kleinen Insekt ins Gehirn – und ins Genom – , so zeigt sich, dass doch vieles sehr ähnlich funktioniert. Viele der heute auch für den Menschen relevanten Gene wurden erstmals in Taufliegen entdeckt. Die Tiere entfalten komplexe Verhaltensmuster, sie machen Erfahrungen, bewerten, lernen, erinnern sich und können auch vergessen. Die Entwicklungsbiologin Nora Schultz gibt eine Einführung in das faszinierendeThema.*

In Kurt Neumanns Horrorfilm „Die Fliege“ aus dem Jahr 1958 widerfahren einem Forscher schlimme Dinge, nachdem sein Körper in einem Experiment versehentlich mit dem einer Fliege verschmolzen ist. Im Gegensatz dazu bleibt die reale Forschung, die sich in vielen Disziplinen seit mehr als 100 Jahren um die Taufliege Drosophila melanogaster dreht, bislang ohne gruselige Nebenwirkungen. An Visionsfülle steht die Realität dem Film jedoch kaum nach: Das kleine Insekt – vielen auch als Frucht- oder Essigfliege bekannt – soll große Fragen beantworten und hat viele Antworten bereits geliefert: Wie wächst aus einer befruchteten Eizelle ein komplexer Körper? Wie entstehen Krebs und andere Krankheiten? Wie lernt ein Gehirn?

Gerade die letzte Frage erscheint anmaßend. Nur 100.000 Neurone arbeiten im Drosophila-Gehirn; im Menschenkopf knäulen sich 86 Milliarden Nervenzellen, fast zehntausendmal so viele. Doch was man bisher über die Fliege weiß, gibt Anlass zum Optimismus, dass uns das bescheidene Fliegenhirn einiges über das Lernen lehren kann. Nicht ohne Grund ist Drosophila das liebste Versuchstier der Forschung. (Siehe Box).

Drosophila - Superstar unter den Tiermodellen

  • Die Taufliege Drosophila ist der Superstar unter den Versuchstieren: klein, pflegeleicht und vermehrungsfreudig. Eine neue Fliegengeneration wächst in nur 10 Tagen heran.
  • Viele heute bekannte Gene wurden zuerst in Taufliegen entdeckt. Das klappt in Reihenuntersuchungen, in denen man zum Beispiel mit Strahlen oder Chemikalien Mutationen entstehen lässt und dann in den Insekten nach veränderten Eigenschaften sucht und diese beschreibt. Viele der so gefundenen Gene arbeiten in ähnlicher Form auch im Menschen.
  • Auch die Struktur und Funktion von Nervenzellen und neuronalen Netzwerken ähneln sich im Menschen und in der Fliege. Und da Fliegen einiges lernen und sich vielfältig verhalten können, lassen sich auch neurowissenschaftliche Fragen gut an ihnen untersuchen.
  • Fruchtfliegen sind experimentell besonders zugänglich. Ihre Gene lassen sich in einzelnen Gewebe- oder Zelltypen gezielt aktivieren, blockieren oder in ihrer Funktion verändern. Auch die Aktivität einzelner Zellen oder Moleküle lässt sich im lebenden Tier gut manipulieren und beobachten. Fliegen eignen sich daher gut für die Untersuchung molekularer und zellulärer Mechanismen.
  • Im Gehirn der Fliege vereint der Pilzkörper auf kompaktem Raum wichtige Funktionen, die im menschlichen Gehirn auf unterschiedliche Regionen verteilt sind: die Integration von Sinneseindrücken, die Bildung und Speicherung von Erinnerungen und eine Entscheidungszentrale zur Verhaltenssteuerung. Im Pilzkörper lässt sich daher besonders gut integrativ untersuchen, wie Moleküle, Nervenzellen und Netzwerke zusammenwirken, um situations- und erfahrungsabhängiges Verhalten hervorzubringen.

Bild von Redn. eingefügt. Quelle: Flickr by cudmore. https://www.flickr.com/photos/cudmore/4277800.   Lizenz: cc-by-sa.

Schon um 1910 wusste der US-amerikanische Zoologe und Genetiker Thomas Hunt Morgan die Vorzüge der kleinen Fliege zu schätzen: für seine Pionierarbeiten in der Genetik, für die er später den Nobelpreis bekam. Taufliegen sind klein, pflegeleicht, überaus fruchtbar und vermehren sich schnell. Eine Generationszeit dauert gerade mal zehn Tage. Morgan und sein Team benötigten in ihrem „Fly Room“ – einem nur 35 Quadratmeter kleinen Labor – anfangs wenig mehr als reife Bananen, Milchflaschen und Lupen, um an tausenden Fliegen zu beobachten, wie bestimmte Merkmale von Generation zu Generation weitervererbt wurden.

Es sind die Gene

Dabei wurde schnell klar, dass Fliegen in vielerlei anderer Hinsicht einen Glücksgriff für die biologische Forschung bedeuten. Die Tiere lassen sich sowohl genetisch als auch zell- und molekularbiologisch überaus gut untersuchen und manipulieren. Morgan und viele andere, die schon bald in dessen Fußstapfen traten, entlockten Drosophila zunächst Geheimnisse, indem sie die Tiere mutierenden Röntgenstrahlen oder Chemikalien aussetzten. Die Effekte dieser Mutationen untersuchten sie dann im Rahmen sogenannter Screens in mühevoller Kleinarbeit und ordneten sie konkreten Positionen auf den Chromosomen zu.

Christiane Nüsslein-Volhard und Eric Wieschaus beispielsweise charakterisierten 1980 auf diese Weise 600 Mutationen in 120 Genen, die das Segmentmuster von Fliegenlarven verändern – eine Arbeit, für die sie später ebenfalls den Nobelpreis erhielten. Damit entschlüsselten sie entscheidenden Mechanismen der Embryonalentwicklung. Und, wie sich später herausstellte, orchestrieren diese Gene vielfach auch bei anderen Tieren bis hin zum Menschen die Entwicklung und sind an Krankheitsprozessen beteiligt – so auch im Nervensystem.

Die überraschende Ähnlichkeit zwischen Taufliegen und anderen, mit ihr nur äußerst entfernt verwandten Lebewesen hat sich seitdem immer wieder bestätigt. Im Jahr 2000 gelang es, das Genom der Fliege vollständig zu entschlüsseln; wenige Monate später erschien 2001 die erste, noch nicht ganz vollständige Sequenzierung des menschlichen Genoms. Seitdem ist klar, dass es für viele menschliche Gene entsprechende Pendants mit ähnlicher Struktur und/oder Funktion in der Fliege gibt. Das gilt beispielsweise für 77 Prozent der 2001 bekannten krankheitsrelevanten menschlichen Gene . Die Liste wird in einer online einsehbaren Datenbank, der „ Flybase “ “ (https://flybase.org/lists/FBhh/), ständig aktualisiert.

Durchaus lernfähig

Auch das Fliegenhirn ähnelt dem menschlichen Gehirn mehr, als man zunächst vermuten möchte. Es ist zwar nur so groß wie ein Mohnkorn, leistet aber auf diesem kleinen Raum eine ganze Menge an Dingen. Fliegen riechen und sehen zum Beispiel sehr gut und gleichen diese und andere sensorische Informationen ständig mit weiteren Details ab, um Entscheidungen zu treffen, durch den dreidimensionalen Raum zu navigieren, Futter zu finden, Gefahren zu meiden und andere Fliegen zu bezirzen oder zu bekämpfen.Abbildung.

Fliegenhirn:- Klein wie ein Mohnkorn, aber ähnlicher dem menschlichen Gehirn, als man vermuten möchte. Unten: Signale der Aussenwelt - z.B. Duft - werden im Pilzkörper verarbeitet. (Bilder von Redn. eingefügt. Quelle: Die Fliege. https://www.youtube.com/watch?v=oH0Fy3lp7Zg.© 2022 www.dasGehirn.info. Lizenz: cc-by-nc)

Ein derart komplexes Verhaltensrepertoire kann nur entfalten, wer lernfähig ist. Fliegen lernen, greifen auf Erinnerungen zurück und vergessen manches auch wieder, genau wie Menschen. Selbst wenn zwischen dem Alltag von Drosophila melanogaster und dem des Homo sapiens Welten liegen, sind die Grundherausforderungen ans Überleben im Kern so ähnlich, dass auch bewährte Lernmechanismen im Laufe der Evolution erhalten geblieben sind – genau wie die beteiligten Gene. Schon in den 1960er und -70er Jahren entdeckte der US-Forscher Seymour Benzer in Screens Gene, die sich auf die Lernfähigkeit von Fliegen auswirken. Gene mit den klangvollen Namen dunce und rutabaga zum Beispiel verschlüsseln die Bauanleitung für Enzyme, die eine wichtige Rolle in intrazellulären Signalkaskaden spielen, die essenziell für Lernprozesse sind. Auch von diesen und vielen weiteren neurobiologisch relevanten Fliegengenen haben Forschende seitdem menschliche Pendants ausgemacht. Es existieren also durchaus grundlegende Gemeinsamkeiten zwischen Drosophila melanogaster und Homo sapiens. Und so ist es dann auch möglich, durch Untersuchungen an der Fliege auch für den Menschen relevante Details darüber herauszufinden, wie Erfahrungen und Lernprozesse, aber auch Krankheiten die neuronalen Schaltkreise verändern, die zur Verhaltenssteuerung dienen.

Fliegenforschung vorn

Die Taufliege macht es Forschern leicht, sie experimentell unter die Lupe zu nehmen und Fragen nachzugehen, die sich beim Menschen oder auch bei anderen Versuchstieren nicht oder nur schwer untersuchen lassen. Bereits seit den 1980er Jahren existieren experimentelle Techniken, um gezielt in das Genom der Fliege einzugreifen, und sie werden ständig verfeinert. Bestimmte Gene oder Genabschnitte lassen sich gezielt in einzelnen Gewebe- oder Zelltypen aktivieren, blockieren oder in ihrer Funktion verändern, auch durch Zugabe von Transgenen, also Genabschnitten anderer Spezies. Solche Veränderungen können dauerhaft sein oder so konzipiert, dass sie sich durch bestimmte Signale ein- und ausschalten lassen, etwa durch Licht.

Bei der Untersuchung molekularer und zellulärer Lernmechanismen hat zudem gerade die kleine Statur des Fliegenhirns einen entscheidenden Vorteil: „In der Maus liegen die Zellen und Schaltkreise, die an einem bestimmten Verhalten mitwirken, so weit auseinander, dass man sie nicht gleichzeitig bei der Arbeit beobachten kann“, sagt André Fiala von der Universität Göttingen. „In der Fliege hingegen können wir zugleich auf die Details der einzelnen Nervenzelle mit ihren Synapsen schauen und auf das, was im Netzwerk passiert.“

Flexible Neurone

Dabei zeigt sich, dass unterschiedliche Synapsen in ein und derselben Zelle je nach Geruch unterschiedlich aktiv sind – und dass diese Aktivitätsmuster sich verändern, wenn die Fliege lernt, einen Duft mit einem negativen Reiz, beispielsweise Schmerz zu verknüpfen. Diese Veränderungen gibt die Kenyonzelle an die an den jeweiligen Synapsen verknüpften Neurone weiter, die nun selbst verändert auf die stärkeren oder schwächeren Signale reagieren, die an dieser Synapse empfangen. Das Gelernte ist damit als messbare Gedächtnisspur fixiert worden. „Interessant ist, dass das Gedächtnis hier nicht in ganzen Zellen, sondern in einzelnen Zellabschnitten codiert wird“, erklärt Fiala. Aktuell untersucht sein Team, wie diese abschnittsweise Regulierung der Aktivität auf der molekularen Ebene funktioniert.

Es gibt noch viele weitere offene Fragen zur Verhaltenssteuerung, bei deren Beantwortung die Pilzkörper der Fliege helfen könnten. Was verändert sich zum Beispiel, wenn Gedächtnisspuren vom Kurzzeitgedächtnis ins Langzeitgedächtnis wandern? Wie genau lernt man, dass bestimmte Nahrungsmittel giftig oder verdorben waren, wenn zwischen der Aufnahme und unangenehmen Symptomen etwas Zeit verstreicht? Wie unterscheiden sich Lernprozesse, bei denen ein bestimmtes Ereignis mit einer angenehmen Belohnung verbunden wird von solchen, bei denen man „nur“ einer unangenehmen Situation entkommt? Und was geschieht, wenn das Altern oder neurodegenerative Erkrankungen die Funktion von Zellen und Schaltkreisen, die am Lernen und Gedächtnis beteiligt sind, beeinträchtigt?

Mit Hilfe von Drosophila und einem gut gefüllten molekularbiologischen Werkzeugkasten lassen sich Antworten finden und in Computermodelle übersetzen, die auch für Menschen relevante Vorhersagen darüber erlauben, wie die raum-zeitliche Dynamik von Molekülen, Zellen und Netzwerken im Gehirn Lernprozesse und die Steuerung von Verhalten. Solche Modelle könnten sogar im Bereich Künstliche Intelligenz zum Einsatz kommen, um Maschinen effektiver lernen zu lassen. Welche Erkenntnisse aus der Fliegenwelt dann wirklich auch für den Menschen gelten, bleibt abzuwarten. Um das, was sie von der Fliege gelernt haben, auf die nächste Ebene zu bringen, setzen Forscher auch auf weitere, näher mit dem Menschen verwandte Modellorganismen, wie Zebrafische und Mäuse, sowie auf Studien mit menschlichen Zellkulturen und Gewebeproben. Ein aus Mensch und Fliege verschmolzenes Mischwesen wie in Neumanns Horrorfilm braucht es zur Klärung dieser Fragen zum Glück nicht.


* Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Im Fokus des Monats Dezember steht das Thema "Fliege". Der vorliegende Artikel ist am 6.12.2022 unter dem Titel: "Fliegen? Wieso Fliegen?" https://www.dasgehirn.info/entdecken/die-fliege/fliegen-wieso-fliegen   erschienen. Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog gestellt, die Abbildungen von der Redaktion eingefügt.


 Weiterführende Links

Arvid Ley (dasGehirnInfo): Die Fliege. (12.2022) Video 5:07 min. https://www.youtube.com/watch?v=oH0Fy3lp7Zg

Arvid Ley (dasGehirnInfo): Im Kopf der Fliege. (12.2022) Video 36:06 min. https://www.youtube.com/watch?v=BBQZd-fKCh0&t=50s

Zum Weiterlesen

• Hales KG, Korey CA, Larracuente AM, Roberts DM. Genetics on the Fly: A Primer on the Drosophila Model System. Genetics. 2015 Nov;201(3):815-42. DOI: 10.1534/genetics.115.183392

• Bellen HJ, Tong C, Tsuda H. 100 years of Drosophila research and its impact on vertebrate neuroscience: a history lesson for the future. Nat Rev Neurosci. 2010 Jul;11(7):514-22. doi: 10.1038/nrn2839

• Bilz, F., Geurten, B.R.H., Hancock, C.E., Widmann, A., and Fiala, A. (2020). Visualisation of a distributed synaptic memory code in the Drosophila brain. Neuron, 106, 1–14. DOI: 10.1016/j.neuron.2020.03.010

• https://www.annualreviews.org/doi/10.1146/annurev-cellbio-113015-023138.https://doi.org/10.1146/annurev-cellbio-113015-023138

https://journals.biologists.com/dmm/article/9/3/235/20105/Drosophila-tools-and-assays-for-the-study-of-human

https://www.sciencedirect.com/science/article/pii/S0092867418307876

https://www.cell.com/cell/fulltext/S0092-8674(18)30787-6

Fliegen im ScienceBlog

Jacob w.Gehring, 25.10.2012: Auge um Auge — Entwicklung und Evolution des Auges

Gottfried Schatz, 13.12.2013: Wider die Natur? — Wie Gene und Umwelt das sexuelle Verhalten prägen

Bill S. Hansson, 19.12.2014: Täuschende Schönheiten

Gero Miesenböck, 23.02.2017: Optogenetik erleuchtet Informationsverarbeitung im Gehirn

Nora Schultz, 30.12.2021: Sinne und Taten - von der einzelnen Sinneszelle zu komplexem Verhalten


 

 

 

 

 

inge Fri, 30.12.2022 - 00:37

Was uns Baumblätter über Zahl und Diversität der Insektenarten erzählen können

Was uns Baumblätter über Zahl und Diversität der Insektenarten erzählen können

Do, 22.12.2022 — Redaktion

Redaktion

Icon Molekularbiologie

In den letzten Jahren häufen sich die dramatischen Berichte über den enormen Rückgang der Insekten, wobei sich die Beobachtungen oft nur auf kurze Zeiträume und begrenzte Standorte erstrecken und die Biomasse gefangener Tiere zur Abschätzung der reduzierten Biodiversität (Artenzusammensetzung) herangezogen wird. Eine bahnbrechende Studie hat nun erstmals Anzahl und Biodiversität der Insektenarten an Hand von über drei Jahrzehnte lang gesammelten und konservierten Baumblättern verfolgt. Aus diesen Blättern wurden DNA-Spuren - sogenannte Umwelt-DNA (eDNA) - , wie sie von Insekten beim Fressen von Blättern zurückbleiben, extrahiert, analysiert und Tausende Insektenarten nachgewiesen. Es zeigte sich, dass die Gesamtzahl der Insektenarten im Laufe der Zeit weitgehend gleich blieb, viele einzelne Arten jedoch zurückgingen und durch neue, sich weiter verbreitende Arten ersetzt wurden.*

Insekten stellen ein Barometer für die Gesundheit der Umwelt dar. Ökosysteme auf der ganzen Welt sind beispiellosen, vom Menschen verursachten Belastungen ausgesetzt, die sich vom Klimawandel über die Umweltverschmutzung bis zur intensiven Landnutzung hin erstrecken. Diese Belastungen wurden in letzter Zeit mit mehreren dramatischen Rückgängen der Insektenpopulationen in Verbindung gebracht, insbesondere in Gebieten, die von stark industrialisierter Landwirtschaft betroffen sind.

Ohne darauf weiter einzugehen - die Zusammenhänge zwischen Insektenrückgang, Umweltbelastung und r Gesundheit der Ökosysteme sind derzeit nur wenig verstanden. Ein Rückgang in einem Gebiet mag wohl katastrophal aussehen, könnte aber auch einfach Teil normaler, längerfristiger Veränderungen sein. Oft wissen wir nicht, ob der Insektenrückgang ein lokales Phänomen ist oder weitergehende Umwelttrends widerspiegelt. Zudem reichen die meisten Studien zeitlich nicht weit genug zurück oder decken keinen ausreichend großen geografischen Bereich ab, um solche Unterscheidungen treffen zu können.

Probenmaterial: eDNA aus Baumblättern

Will man den Insektenrückgang verstehen und dagegen ankämpfen, so braucht man zuverlässige Methoden, um Insektenpopulationen über lange Zeiträume verfolgen zu können. Zur Lösung dieses Problems hat ein Forscherteam um den Biogeographen Henrik Krehenwinkel (von derUniversität Trier) für Untersuchungen an Insektengemeinschaften eine neue Quelle herangezogen, nämlich Baumblätter. Es ist dies ein Probenmaterial, das ursprünglich für andere Zwecke - nämlich zur Untersuchung der Luftverschmutzung - gesammelt und in der deutschen Bundesumweltprobenbank archiviert wurde. Dieses Material enthält aber auch die DNA von Insekten, die damit vor dem Einsammeln in Kontakt gekommen sind: beispielsweise ist dies in Kauspuren zurückgebliebene DNA, d.i. an Stellen wo die Insekten die Blätter angeknabbert hatten. Diese DNA wird als Umwelt-DNA oder kurz eDNA bezeichnet.

Abbildung 1: Sammelstellen von Baumblättern und Baumarten(A) und repräsentative Typen der Landnutzung (B). Analysen der Pestizidbelastung zu drei Zeitpunkten zeigen eine gleichbleibende, mit durchschnittlich 5 Pestiziden höchste Belastung auf landwirtschaftlich genutzten Flächen. (Bild von Redn. eingefügt aus H.Krehenwinkel et al., 2022 [1]; Lizenz: cc-by)

Um die Insektengemeinschaften, die in diesen Bäumen lebten, zu untersuchen, haben Krehenwinkel und sein Team zunächst die eDNA aus den Blättern extrahiert und sequenziert. Die Blätter stammten dabei von vier Baumarten - Buche, Föhre, Lombardeipapel und Fichte -, die an 24 Standorten in ganz Deutschland fachgerecht unter standardisierten Bedingungen über einen Zeitraum von 30 Jahren gesammelt und konserviert worden waren. Die Standorte waren für vier Landnutzungstypen repräsentativ: landwirtschaftlich benutzte Flächen, städtische Parks, Wälder und Nationalparks. Abbildung 1.

Die Analyse der verschiedenen DNA-Sequenzen aus den Blattproben

ergab nicht nur die Anzahl der Insektenarten, sondern auch die Häufigkeit (oder Seltenheit) der einzelnen Arten innerhalb der einzelnen Gemeinschaften. Die eDNA-Analyse hat subtile Veränderungen in der Zusammensetzung der Gemeinschaften der Waldinsekten ergeben. In den Wäldern, aus denen die untersuchten Blätter herstammten, ist die Gesamtzahl der Insektenarten im Verlauf der letzten drei Jahrzehnte weitgehend gleich geblieben. Viele einzelne Arten sind zwar zurück gegangen, aber nur um dann durch neue Arten abgelöst zu werden.

Abbildung 2: Änderungen von Diversität und Zahl (Biomasse) der Insektenarten in allen Standorten im Zeitraum von 30 Jahren. Oben links: Über alle Standorte ist die Diversität der Insektenarten nahezu unverändert geblieben; die Reduktion einiger Arten wurde durch neue Besiedler abgelöst Oben rechts: gleichbleibende Diversität von Insektenklassen. Unten: Bei gleichbleibender Diversität ist über den Zeitraum ein Rückgang der Biomasse zu beobachten. (Bilder von Redn. eingefügt aus H.Krehenwinkel et al., 2022 [1]; Lizenz: cc-by)

Solche Veränderungen haben sich für alle Insektenordnungen als unabhängig von der Art der Landnutzung erwiesen. Die neuen Besiedler haben sich bereits weit verbreitet - dies führt wahrscheinlich zu einem Gesamtmuster mit weniger Arten, die sich aber weiter verbreiten - mit anderen Worten zu mehr Homogenität der Populationen. Abbildung 2.

Fazit

Der Ansatz von Krehenwinkel, et al. [1] bietet eine zuverlässige Methode, um Insektenpopulationen über mehrere Jahrzehnte hinweg im Detail zu untersuchen. Dabei ist es essentiell auf archiviertes Probenmaterial aus Umweltstudien zurück greifen zu können. Informationen, die daraus gewonnen werden, haben praktische Bedeutung für Umweltfragen von enormen sozialen Auswirkungen, die vom Naturschutz über die Landwirtschaft bis hin zur öffentlichen Gesundheit reichen.


 [1] Henrik Krehenwinkel et al., (2022): Environmental DNA from archived leaves reveals widespread temporal turnover and biotic homogenization in forest arthropod communities. eLife 11:e78521. https://doi.org/10.7554/eLife.78521.


 * Eine leicht verständliche Zusammenfassung (Digest) des Artikels von H. Krewinkel et al., 2022, [1] ist am 20.12.2022 unter dem Titel "Insect data grown on trees" im eLife Magazin erschienen: https://elifesciences.org/digests/78521/insect-data-grown-on-trees. Der Digest wurde von der Redaktion ins Deutsche übersetzt und mit 2 Abbildungen aus dem Originaltext [1] plus Legenden ergänzt. eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz .


 Weiterführende Links:

Uni Trier (2022) eDNA: Ein entscheidender Fortschritt für das Biomonitoring. Video 4:00 min. https://www.youtube.com/watch?v=F0sTyYRiCvA

Artikel im ScienceBlog:


 

inge Thu, 22.12.2022 - 18:43

Ein 2 Millionen Jahre altes Ökosystem im Klimawandel mittels Umwelt-DNA rekonstruiert

Ein 2 Millionen Jahre altes Ökosystem im Klimawandel mittels Umwelt-DNA rekonstruiert

Do, 15.12.2022 — Ricki Lewis

Ricki LewisIcon Molekularbiologie

Eine vor 2 Millionen Jahren belebte Landschaft im nördlichen Grönland konnte aus an Mineralien gebundenen DNA-Stückchen rekonstruiert werden. Diese lässt ein eiszeitliches Ökosystem inmitten eines Klimawandels erkennen und zeigt möglicherweise Wege auf, wie auf die heute steigenden globalen Temperaturen reagiert werden kann. Probensammlung, Analyse und Interpretation der Umwelt-DNA aus dieser fernen Zeit und von diesem fernen Ort liefern einen "genetischen Fahrplan", wie sich Organismen an ein wärmer werdendes Klima anpassen können. Die Untersuchung war vergangene Woche das Titelthema des Fachjournals Nature [1]. Auf einer Pressekonferenz haben sechs Mitglieder des 40-köpfigen multinationalen Teams die Ergebnisse erläutert. Die Genetikerin Ricki Lewis berichtet darüber.*

Umwelt-DNA (eDNA)

wird verwendet, um sowohl frühere als auch heutige Lebensräume zu beschreiben. Bislang stammte die älteste eDNA von einem Mammut, das vor einer Million Jahren in Sibirien lebte.

In der neuen Studie [1] kommt die eDNA aus der Kap København Formation in der "polaren Wüste" von Peary Land, Nordgrönland (Abbildung 1). Mit Fossilien und konservierten Pollen ermöglicht eDNA ein Bild längst vergangener Lebensräume zu zeichnen.

eDNA wird von den Zellen in die Umgebung ausgeschieden , wobei aus Mitochondrien und Chloroplasten stammende eDNA häufiger vorkommt als Kern-DNA, da diese Organellen in zahlreichen Kopien in einer Zelle vorliegen. Außerdem ist es wahrscheinlicher, dass sie erhalten bleibt, weil sie im Vergleich zur DNA in einem Zellkern stärker fragmentiert ist.

Der Leiter des Teams, Eske Willerslev, ein Geogenetiker von der Universität Cambridge, vergleicht von Fossilien und eDNA hergeleitete Evidenz. "Bei einem Fossil weiß man, dass die DNA von einem einzigen Individuum stammt. Aus Sedimenten heraus kann man ein Genom rekonstruieren, aber man weiß nicht, ob das Genom von einem oder mehreren Individuen stammt. Ein großer Vorteil der Umwelt-DNA ist jedoch, dass man DNA von Organismen erhalten kann, die nicht versteinert sind, und dass man das gesamte Ökosystem sehen kann." Der Umweltkontext ist ebenfalls wichtig. Man denke nur an die Fossilien eines Elefanten und einer Pflanze, die nur wenige Kilometer entfernt sind. Der Fund von DNA an den beiden Orten ist nicht so aussagekräftig wie der Fund der Pflanzen-DNA im Darm des Elefanten.

" DNA kann sich schnell zersetzen, aber wir haben gezeigt, dass wir unter den richtigen Voraussetzungen weiter in die Vergangenheit zurückgehen können, als man es sich je vorzustellen wagte. Damit schlagen wir ein neues Kapitel auf, das eine Million Jahre länger in der Geschichte zurückliegt. Zum ersten Mal können wir einen direkten Blick auf die DNA eines vergangenen Ökosystems werfen, das so weit in der Vergangenheit liegt", so Willerslev.

Der Fundort

Die Forscher haben an fünf Standorten 41 verwertbare Proben im Ton und Quarz gesammelt Abbildung 1., wobei jedes Schnipsel genetischen Materials nur Millionstel Millimeter lang war.

Abbildung 1. Die Kap København Formation in Nord Grönland. Geografische Lage (a) und Abfolge der Ablagerungen: Räumliche Verteilung der Erosionsreste der rund 100 m mächtigen Abfolge von flachmarinen küstennahen Sedimenten zwischen Mudderbugt und dem Mittelgebirge im Norden (b und c). (Bild von Redn. eingefügt aus Kjaer et al. 2022 [1], Lizenz cc-by) .

"Die alten DNA-Proben waren tief im Sediment vergraben, das sich über 20 000 Jahre in einer flachen Bucht angesammelt hatte. Das Sediment wurde schließlich im Eis oder im Permafrostboden konserviert und - was entscheidend ist - zwei Millionen Jahre lang nicht vom Menschen gestört", erklärt der Geologe Kurt Kjaer von der Universität Kopenhagen.

Die rund 100 m dicke Sedimentschicht sammelte sich in der Mündung eines Fjords an, der im nördlichsten Punkt Grönlands in den Arktischen Ozean ragt. Am Ende der pleistozäne Eiszeit, vor zwei bis drei Millionen Jahren, schwankte das Klima in Grönland eine Zeit lang zwischen arktisch und gemäßigt. Die Temperaturen waren um 10 bis 17 Grad Celsius wärmer als heute.

Geschichten aus der eDNA lesen

Drei technologische Fortschritte ermöglichten laut Willerslev die Untersuchung:

  • die Entdeckung, wie DNA an Mineralienpartikel bindet,
  • eine neue Sequenzierungsplattform, die kleine Schnipsel "frayed" DNA (DNA mit an den Enden geöffneten Basenpaaren) verarbeiten kann,
  • das Sammeln des alten genetischen Materials (mit einem coolen "Arctic PaleoChip" - klingt wie ein Diäteis, ist aber eine optimierte Strategie zu gezielten Anreicherung der eDNA).

Für die Konservierung der eDNA hat deren Wechselwirkung mit der Mineral-Grenzfläche eine entscheidende Roll gespielt. Karina Sand von der Universität Kopenhagen eklärt: "Marine Bedingungen haben die Adsorption der DNA an Mineralien begünstigt; die recht starke Bindung konnte so den enzymatischen Abbau der eDNA verhindern. Alle Mineralien in der Formation konnten DNA adsorbieren, allerdings in anderen Stärken, als wir sie kannten."

Im offenen Meerwasser hätte - laut Sand - die Bindung von DNA an Mineralien nicht stattgefunden. Die Forscher haben die Bindung moderner DNA an Oberflächen mit Hilfe der Rasterkraftmikroskopie untersucht und die Parameter manipuliert, um nachzuvollziehen, was mit den konservierten DNA-Stücken in den alten Sedimenten Grönlands wohl geschehen war.

Dann verglichen die Forscher die kurzen eDNA-Sequenzen mit denen moderner Arten in DNA-Datenbanken. Einige Proben stimmten mit entfernten zeitgenössischen Verwandten überein, während andere keine Treffer ergaben. Anhand bekannter Mutationsraten bestimmter DNA-Sequenzen lassen sich Zeitrahmen auf alte DNA anwenden.

Als die ersten Artenidentifizierungen mit ungefähren Zeitangaben eintrafen, waren die Forscher zunächst verwirrt, berichtet Mikkel Pedersen von der Universität Kopenhagen. "Als ich die Daten erhielt, kam mir das verrückt vor, ich verstand die Zeitstempel nicht. Wir hatten Taxa (taxonomische Gruppen) verschiedener Landpflanzen und -tiere, und plötzlich tauchten marine Arten auf! Das war wirklich merkwürdig. Also rannte ich zu Kurts Büro und fragte: 'Was hast du mir gegeben? Marine Taxa oder terrestrische?' Das war ein Zeichen dafür, dass der Boden in eine marine Umgebung gespült worden war." Abbildung 2.

Abbildung 2. Terrestrische und marine Tiere am Fundort 69. Taxonomische Profile der Tierbestände aus den Sedimentgruppen B1, B2 und B3 (b). (Bild von Redn. eingefügt aus Kjaer et al. 2022 [1], Lizenz cc-by) .

Flora und Fauna des alten Ökosystems

Das Bild des alten Ökosystems glich einem riesigen, aus wenigen Teilen bestehenden Puzzle - aus Fossilien, konservierten Pollen und DNA, die vor allem aus den widerstandsfähigen Chloroplasten und Mitochondrien stammte. Anhand dieser spärlichen Hinweise identifizierte das Team 102 Pflanzenarten, von Algen bis hin zu Bäumen, auf Gattungsebene - die Auflösung war nicht hoch genug, um Arten zu unterscheiden, so Pedersen. "Wir fanden 9 Tierarten, die zu dieser Zeit in der Landschaft am häufigsten vorkamen (und DNA hinterlassen hatten)- Abbildung 2 -, sowie viele Bakterien und Pilze. Wahrscheinlich ist die große Mehrheit der Pflanzen und Tiere aufgrund ihrer ständig niedrigen Biomasse nicht nachweisbar", fügte er hinzu.

Fossilien und DNA aus dem südlichen Teil des Gebiets deuten auf Pappeln, Rotzedern und Tannen hin. "Die Pflanzen kamen in einer Weise zusammen vor, die wir heute nicht mehr sehen würden. Es war ein offener borealer Wald mit Pappeln, Weiden, Birken und Thujabäumen und einer Mischung aus arktischen und borealen Sträuchern und Kräutern", so Pedersen.

Mastodonten lebten in diesem Gebiet, was überraschend war, da sie aufgrund ihrer Fossilien nur aus Nord- und Mittelamerika bekannt waren. Die neue Information wurde durch den reichlichen Kot des riesigen Tieres möglich, der auch Spuren der DNA seiner Nahrung von Bäumen und Sträuchern enthält.

Die DNA zeigte auch, dass atlantische Pfeilschwanzkrebse weiter südlich im Atlantik lebten als heute, was auf wärmere Oberflächengewässer während des Pleistozäns schließen lässt. Winzige DNA-Stücke stammen auch von Gänsen, Hasen, Rentieren, Lemmingen, einem Korallenriff-Erbauer und einer Ameisen- und Flohart.

Der Schauplatz

Bis zur Entdeckung der DNA war die einzige Spur eines Säugetiers ein Stück eines Zahns. Willerslev erzählte, wie das Team auf seinen Fund reagierte:

"Als wir 2006 wegen eines anderen Projekts in dieses Gebiet kamen, haben wir nicht viel gesehen. Es war ähnlich wie in der Sahara, fast kein Leben. Flechten, Moose, das war's. Es war also sehr aufregend, als wir die DNA wiederherstellten und ein ganz anderes Ökosystem zum Vorschein kam. Aus Makrofossilien wusste man, dass es dort einen Wald gegeben hatte, aber die DNA identifizierte viel mehr Taxa. Pollen und Makrofossilien hatten einige Arten identifiziert, aber die Umwelt-DNA identifizierte 102 Pflanzen!

Als wir die DNA eines Mastodons, eines mit Nordamerika assoziierten Tieres, fanden, dachten wir, dass es nach Grönland geschwommen sein und das Eis überquert haben musste!

Wir haben auch Rentiere detektiert. Erstaunlich! Wir hatten erwartet, dass es sich dabei um eine viel jüngere Art handelt. Rentierhaare und Pfeilschwanzkrebse in einer Meeresumgebung lassen auf ein viel wärmeres Klima schließen.

Stellen Sie sich vor, Sie stehen mit Gummistiefeln in der Bucht, schauen nach oben und sehen einen Wald, Mastodonten und Rentiere, die herumlaufen, und einen Fluss, der Sedimente und Ablagerungen vom Land mit sich führt. Deshalb ist die DNA eine Mischung aus terrrestrischen und marinen Organismen. Irgendwann hob sich das Land, so dass die riesigen Berge jetzt im Landesinneren liegen und nicht mehr an der Küste." Abbildung 3.

Abbildung 3. " Stellen Sie sich vor, Sie stehen mit Gummistiefeln in der Bucht, schauen nach oben und sehen einen Wald, Mastodonten und Rentiere,......". (Illustration credit: Beth Zaiken/bethzaiken.com; siehe [2])

Ein Vorbehalt gegenüber der Aussagekraft der eDNA-Forschung ist die Häufigkeit des eDNA-Vorkommens: Von einer Art mit einer kleinen Population wird wahrscheinlich kaum eDNA auftauchen. Und das ist der Grund, warum nach der Beweislage, Karnivoren in Grönland nicht vorkamen.

Es ist ein Zahlenspiel, so Willerslev. "Je mehr Biomasse, desto mehr DNA ist übrig. Pflanzen sind häufiger als Pflanzenfresser und die wiederum häufiger als Fleischfresser. Aber wenn wir weiterhin Proben nehmen und die DNA sequenzieren, sage ich voraus, dass wir irgendwann Beweise für Fleischfresser finden werden, vielleicht ein Tier, das Mastodonten gefressen hat." Er fügt hinzu, dass es (noch) keine-DNA Evidenz für Bären, Wölfe und Säbelzahntiger gibt, vertraute Bewohner pleistozäner Szenen.

Ein genetischer Fahrplan

Ist der in Grönland entdeckte Zeitabschnitt ein Vorbote dessen, was die derzeitige Klimaerwärmung mit sich bringen wird? Wahrscheinlich nicht, sagt Willerslev, aber das ist nicht unbedingt eine schlechte Nachricht:

"Dieses Ökosystem und seine Mix aus arktischen und gemäßigten Arten hat kein modernes Gegenstück. Das deutet darauf hin, dass unsere Fähigkeit, die biologischen Folgen des Klimawandels vorherzusagen, ziemlich schlecht ist. Ausgehend von der heutigen Artenvielfalt hätte niemand ein solches Ökosystem vorausgesagt. Dies zeigt jedoch, dass die Plastizität der Organismen größer und komplexer ist, als wir es uns vorgestellt haben. "

Was wir haben, betont Willerslev, ist eine "genetische Roadmap mit Hinweisen in Form von Genen, wie sich Organismen an einen sehr schnellen Klimawandel anpassen. Aber viele dieser Anpassungen sind wahrscheinlich verloren gegangen, weil sie über lange Zeit keinen Nutzen brachten. Jetzt vollzieht sich der Klimawandel extrem schnell, und die Evolution kann dem nicht folgen. Wir sollten also mit großen Aussterbeereignissen rechnen."

Was aber, wenn wir die Informationen aus Studien wie der in Grönland nutzen, um den DNA-Veränderungen, die die Anpassung an Umweltveränderungen vorantreiben, zuvorzukommen? Kann die Biotechnologie hier eingreifen? Vielleicht.

"Die Gentechnik könnte die Strategie nachahmen, die Pflanzen und Bäume vor zwei Millionen Jahren entwickelt haben, um in einem Klima mit steigenden Temperaturen zu überleben und das Aussterben einiger Arten zu verhindern", so Kjaer.

Willerslev rechnet damit, dass sich solche Bemühungen zunächst auf Pflanzen konzentrieren. "Die Roadmap kann Aufschluss darüber geben, wo und wie man das Genom einer Pflanze verändern kann, um sie widerstandsfähiger gegen den Klimawandel zu machen. Die Werkzeuge sind vorhanden. Das klingt drastisch, und ich sage nicht, dass es so sein sollte, aber es eröffnet eine neue Möglichkeit, die Auswirkungen des Klimawandels abzumildern."

Doch im Moment könnte das Überleben der Arten ein Wettlauf mit der Zeit sein, auch wenn sich das Klima schon früher verändert hat. Pedersen zieht eine eher ernüchternde Bilanz:

"Die Daten deuten darauf hin, dass sich mehr Arten entwickeln und an stark schwankende Temperaturen anpassen können als bisher angenommen. Entscheidend ist jedoch, dass diese Ergebnisse zeigen, dass sie dafür Zeit brauchen. Die Geschwindigkeit der heutigen globalen Erwärmung bedeutet, dass Organismen und Arten diese Zeit nicht haben, so dass der Klimanotstand eine enorme Bedrohung für die Artenvielfalt bleibt. Für einige Arten steht das Aussterben unmittelbar bevor."

----------------------------------------------------

[1] Kjær, K.H., Winther Pedersen, M., De Sanctis, B. et al. A 2-million-year-old ecosystem in Greenland uncovered by environmental DNA. Nature 612, 283–291 (2022). https://doi.org/10.1038/s41586-022-05453-y. open access;Lizenz: cc-by

[2]The world's oldest DNA: Extinct beasts of ancient Greenland. Nature Video 9:12 min. https://www.youtube.com/watch?v=qav579ZURpk&t=550s.


* Der Artikel ist erstmals am 8.Dezember 2022 in PLOS Blogs - DNA Science Blog unter dem Titel "A 2-Million-Year-Old Ecosystem in the Throes of Climate Change Revealed in Environmental DNA" https://dnascience.plos.org/2022/12/08/a-2-million-year-old-ecosystem-in-the-throes-of-climate-change-revealed-in-environmental-dna/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.


inge Thu, 15.12.2022 - 13:15

Die globale Krise der Antibiotikaresistenz und diesbezügliches Wissen und Verhaltensweisen der EU-Bürger (Spezial Eurobarometer 522)

Die globale Krise der Antibiotikaresistenz und diesbezügliches Wissen und Verhaltensweisen der EU-Bürger (Spezial Eurobarometer 522)

So, 11.12.2022— Redaktion Vorname ZunameIcon Medizin

Übermäßiger und untauglicher Einsatz von Antibiotika in Human- und Veterinärmedizin hat zunehmend zur Entstehung (multi-) resistenter Keime geführt, gegen die auch die potentesten Reserve-Antibiotika nichts mehr ausrichten können; an und mit antibiotikaresistenten Infektionen sterben weltweit jährlich bereits Millionen Menschen. Um die Ausbreitung solcher Infektionen einzudämmen, ist ein gezielter, maßvoller Umgang mit Antibiotika erforderlich. Dies setzt ausreichende Kenntnisse über Antibiotika, deren Gebrauch und Risiken voraus. Seit 2009 hat die EU-Kommission ihre Bürger nun bereits zum fünften Mal hinsichtlich ihres diesbezüglichen Wissenstands, ihrer Einstellungen und Verhaltensweisen befragt. Laut der diesjährigen Umfrage ist der Einsatz von Antibiotika zwar auf den bislang niedrigsten Wert gesunken, allerdings nimmt die Hälfte der Befragten fälschlicherweise an, dass Antibiotika gegen Virusinfektionen wirken und wendet diese auch dagegen an  - das Problem, dasss über 90 % der dafür ausgestellten Rezepte und Behandlungen von Ärzten stammten, wird nicht behandelt [1].

Die Krise der Antibiotikaresistenz ist - wie auch andere derzeitige Krisen - eine globale und anthropogen, vom Menschen gemacht. Verursacht wurde sie durch übermäßigen Einsatz und falsche Anwendung der vorhandenen Antibiotika und eine vor mehr als 30 Jahren ins Stocken geratene Entwicklung neuer wirksamer Antibiotika, gegen die (vorübergehend noch) keine Resistenzen bestehen. Zuvor existierte eine so breite Palette hochwirksamer Medikamente, dass die Pharmaindustrie die Forschung und Entwicklung neuer Antibiotikaklassen einstellte und aus nachvollziehbaren Rentabilitätsgründen auch nicht wieder aufnahm, als Resistenzen gegen mehr und mehr "alte" Antibiotika auftauchten. Abbildung 1.

Abbildung 1. Seit mehr als 30 Jahren sind keine neue Klassen von Antibiotika auf den Markt gekommen. (Bild übernommen aus A. Hudson (11.2021) https://www.asbmb.org/asbmb-today/policy/110721/antibiotic-resistance-is-at-a-crisis-point. Quelle React Group, Lizenz cc-by-nd)

Antibiotikaresistenzen sind auf dem Vormarsch....

Mikroorganismen - ob es sich nun um Bakterien, Pilze, Algen, Viren oder Protozoen handelt - werden in zunehmendem Maße gegen antimikrobielle Substanzen resistent, auf die sie vordem hochsensitiv angesprochen haben. Dies ist ein natürlicher Evolutionsprozess, der auf Genmutation und Selektion der fittesten - d.i. im Infektionsprozess am besten propagierenden - Mikrobenstämme basiert.

Bakterien vermehren sich sehr rasch und machen bei der Kopierung ihres Erbguts relativ viele Fehler. Durch solche Mutationen kann eine bakterielle Zielstruktur (Target) von dem dagegen designten Antibiotikum schlechter/nicht mehr erkannt werden; das betroffene Bakterium kann sich in Gegenwart des Antibiotikums weiter zu einer neuen, resistenteren Population vermehren. Erfolgt eine Antibiotika Behandlung nicht ausreichend lang, oder war die Dosis zu niedrig, um auch die resistenteren Keime zu eliminieren, so bleiben diese über und können ihre Resistenzgene auch auf andere Bakterien übertragen. So entstehen dann multiresistente Erreger.

Der übermäßige Einsatz von Antibiotika in der Human- und Veterinärmedizin und ihre falsche Anwendung - etwa bei der Behandlung von Viren, gegen die sie ja unwirksam sind, oder wenn sie nicht über die notwendige Behandlungsdauer eingenommen werden - haben die Resistenzentwicklung von Bakterien gegen diese Medikamente forciert und zu einer enormen Gefahr für die ganze Welt werden lassen.

Gegen Antibiotika (multi)resistente Bakterien kommen überall und in allen Ländern vor. Sie finden sich in Lebensmitteln, in der Umwelt, bei Tier und Mensch; in Spitälern - vor allem in den Intensivstationen - stellen sie eine enorme Bedrohung dar. Es wird damit immer schwieriger, Patienten vor solchen Infektionen zu schützen und chirurgische Eingriffe, Transplantationen, Chemotherapien und andere Behandlungen mit nur geringem Risiko durchzuführen. Ein Video der WHO vor 2 Wochen hat eingehend vor einem Aufsuchen von Spitälern ohne triftigem Grund gewarnt [2].

Eine Prognose der WHO aus dem Jahr 2015 geht davon aus, dass 2050 voraussichtlich bereits 10 Millionen Menschen an bakteriellen Infektionen sterben werden, mehr als an der bisherigen Nummer 1, den Krebserkrankungen, sofern keine wirksamen neuen Medikamente, Vakzinen oder andere Behandlungsmethoden auf den Markt kommen. Eine neue Studie [3] lässt befürchten, dass dieser Todeszoll schon viel früher erreicht werden wird.

....... und gehören bereits zu den häufigsten Todesursachen

Die Entwicklung der Corona-Pandemie hat die Gefahr der global steigenden Antibiotikaresistenzen vorübergehend in den Hintergrund rücken lassen, obwohl deren Auswirkungen noch gravierender sein dürften, als die von COVID-19. So sind laut täglichem Dashboard seit Beginn der Pandemie anfangs 2020 rund 6,65 Millionen Menschen an und mit COVID-19 verstorben. Pandemien sind definitionsgemäß aber zeitlich begrenzt, nicht so Antibiotikaresistenzen - die Zahl der Schwerstkranken und der Todeszoll steigen weiter und weiter. Eine neue, im Rahmen des  Global Research on Antimicrobial Resistance (GRAM) Project durchgeführte Studie, liefert die erste umfassende Evaluierung der antibiotikaresistenten Bakterien und deren Auswirkungen auf der ganzen Welt. Basierend auf der Analyse von 471 Millionen einzelnen Datensätzen oder Isolaten aus 204 Ländern kommt das Autorenteam (mehr als 170 Forscher!) zu dem Schluss, dass 1,27 Millionen Todesfälle im Jahr 2019 direkt durch Antibiotikaresistenzen verursacht wurden und insgesamt 4,95 Millionen Verstorbene mit mindestens einer antibiotikaresistenten Infektion assoziiert wurden [3].

Es sind durchwegs häufige, früher auf Antibiotika gut ansprechende bakterielle Infektionen, die nun durch resistente, oft multiresistente Keime ausgelöst werden; vor allem sind hier Infektionen der unteren Atemwege, des Blutkreislaufs (Sepsis) und intraabdominelle Infektionen zu nennen, die Hunderttausende Todesopfer fordern. Abbildung 2. Für fast 80 % dieser Todesfälle sind 6 (multi)resistent gewordene Bakterienstämme verantwortlich von: Escherichia coli , Staphylococcus aureus, Klebsiella pneumoniae , Streptococcus pneumoniae, Acinetobacter baumannii, und Pseudomonas aeruginosa [3].

Diese Ergebnisse unterstreichen die Notwendigkeit kollektiver globaler Maßnahmen, wie die Entwicklung neuer Antibiotika - die von der Pharmaindustrie über Jahrzehnte ignoriert wurden - und Impfstoffe und eine verbesserte Überwachung der Antibiotikaresistenz.

Abbildung 2. Weltweite Todesfälle (Zahlen), die auf bakterielle Resistenz gegen Antibiotika zurückzuführen sind ("attributable")/ damit in Verbindung stehen ("associated"), nach infektiösem Krankheitsbild. Abkürzungen stehen für bakterielle Infektionen von: LRI+: unteren Atemwegen,Thorax; BSI: Blutbahn; UTI: Harntrakt, Pyelonephritis; CNS: Meningitis u.a. CNS Infektionen, cardiac: Endocarditis u.a.; Skin= Haut und Subcutis; Bone+: Knochen, Gelenke; TF–PF–iNTS= Typhus, Paratyphus und invasive nicht-typhoide Salmonella spp. (Bild aus ‘Global burden of bacterial antimicrobial resistance in 2019: a systematic analysis’ [2]; Lizenz: cc-by)

Zur Situation in der EU....

Laut einem aktuellen Report der ECDC (Europäisches Zentrum für die Prävention und die Kontrolle von Krankheiten) sind im Zeitraum 2016 - 2020 in der EU/EEA jährlich mehr als 35 000 Menschen an antibiotikaresistenten Infektionen gestorben [4]; 4 Jahre zuvor war man noch von mehr als 25 000 Todesfällen ausgegangen. Die Infektionen mit den oben genannten resistenten Bakterienstämmen haben sich z.T. mehr als verdoppelt.

Die Bekämpfung von antibiotikaresistenten Infektionen hat zweifellos prioritäre Bedeutung. Die EU hat bereits 2017 den Aktionsplan "One Health" ins Leben gerufen, der über 70 Maßnahmen in neun Politikbereichen umfasst und Gesundheit von Mensch und Tier, Landwirtschaft, Umwelt und Forschung einschliesst [5]. Es kommt darin klar zum Ausdruckt, dass "menschliche und tierische Gesundheit miteinander zusammenhängen, Krankheiten vom Menschen auf Tiere und umgekehrt übertragen werden und deshalb bei beiden bekämpft werden müssen" [5].

Zudem soll auch für ein besseres Verständnis der EU-Bürger für das Resistenzproblem und einen sachgerechten Umgang mit Antibiotika gesorgt werden. In diesem Sinn hat nun bereits zum fünften Mal seit 2009 - vom Feber bis März 2022 - eine Befragung der EU-Bürger zur Antibiotikaresistenz stattgefunden.

.........und EU-weite Umfrage zur Antibiotikaresistenz - Spezial Eurobarometer 522

Wie in den vergangenen Umfragen war das Ziel Kenntnisse, Meinungen und Verhaltensweisen der EU-Bürger zum Problem antimikrobielle Resistenz zu erheben. Im Auftrag der EU-Kommission erfolgte die Umfrage in den 27 Mitgliedstaaten vom 21.Feber bis 21.März, und insgesamt 26 511 Personen ab 15 Jahren und aus unterschiedlichen sozialen und demographischen Gruppen - rund 1000 Personen je Mitgliedsland -nahmen teil. Diese wurden persönlich (face to face) in ihrem Heim und in ihrer Muttersprache interviewt.

Wie auch 2018 wurden die Teilnehmer u.a. gefragt ob und warum sie im letzten Jahr Antibiotika genommen hatten, wie sie diese erhalten hatten und ob ein Test auf den Erreger der Erkrankung erfolgt war.

Des weiteren gab es Fragen

  • zum Kenntnisstand über die Funktionsweise von Antibiotika, über die mit einem unnötigen Einsatz verbundenen Risiken, ob sich die Bürger ausreichend über die Notwendigkeit den unnötigen Antibiotikaeinsatz einzuschränken informiert fühlten, sowie ihr Interesse, mehr und aus welchen Quellen über Antibiotika zu erfahren,
  • zu Ansichten über die am besten geeignete politische Reaktion auf Antibiotikaresistenzen,
  • zu Einstellungen zur Verwendung von Antibiotika bei kranken Tieren und zur Kenntnis des Verbots einer Anwendung von Antibiotika zur Wachstumsförderung bei Nutztieren,
  • zum Verbrauch von Antibiotika sowie Zugang und Bedarf an Antibiotika im Zusammenhang mit der COVID-19-Pandemie.

 

Die Antworten lauteten ähnlich wie 2018 und nicht minder besorgniserregend:

Haben Sie im letzten Jahr Antibiotika genommen?

Diese Frage beantworteten im EU27-Mittel 23 % der befragten Bürger mit Ja. Dies war scheinbar ein erfreulicher Rückgang zu den früheren Umfragen: 2009 waren es im Mittel 40 %, 2018 immerhin noch 32 %. Der Unterschied im Antibiotikaverbrauch der einzelnen Länder war beträchtlich und reichte von 15 % in Schweden und Deutschland bis 42 % in Malta; in Österreich haben 20 % der befragten Personen angegeben Antibiotika genommen zu haben. Abbildung 3.

Allerdings dürfte der starke Rückgang seit 2018 eine Folge der COVID-19 Epidemie sein: In einem späteren Abschnitt gaben im EU27-Schnitt  insgesamt 45 % - in Österreich 47 % - der Befragten an, dass durch COVID-19 der Bedarf an Antibiotika gesunken sei, weil sie aufgrund verstärkter persönlicher Schutzmaßnahmen wie Masken, räumlicher Distanzierung, verstärkter Handhygiene und auch während der Lockdowns seltener erkrankten.

Abbildung 3. Haben Sie im letzten Jahr orale Antibiotika genommen? Zwischen 15 und 42 % der Teilnahme bejahen diese Frage.(Quelle: [1])

Es ist hier besonders wichtig zu betonen, dass der überwiegende Teil der Befragten in allen Ländern (80 - 95 %) ihre Antibiotika über ein ärztliches Rezept oder direkt vom Arzt erhalten haben, der Rest hatte es sich sonst wo -- in Apotheken, von Freunden, aus übrig gebliebenen Packungen - besorgt. Am unteren Ende der Skala lagen Österreich und Belgien mit 84 % ärztlichen Verschreibungen und Rumänien mit 80 %.

Wofür wurden Antibiotika eingesetzt?

Der (COVID-19-bedingte) Rückgang im Verbrauch von Antibiotika erhält einen negativen Beigeschmack, da ein beträchtlicher Teil der EU-Bürger diese fälschlicherweise bei viralen Infektionen wie "Erkältung", Grippe, der zumeist viral verursachten Bronchitis und den Begleitsymptomen (Fieber, Halsschmerzen, Husten) einsetzte, in denen Antibiotika nutzlos sind:

Nach der im EU27-Schnitt am häufigsten genannten Harnwegsinfektion (15 %) rangierten bereits Anwendungen bei Halsschmerzen (13 %), Bronchitis (12 %), Erkältung (11 %), Grippe (10 %) und Fieber (10 %), um die 9% hatten Antibiotika auch gegen COVID-19 angewandt. Dabei erfolgte die Verschreibung von Antibiotika im EU27-Schnitt bei rund 53 % der Befragten (in Österreich bei 51 %) ohne dass eine Testung auf Bakterien in Blut, Harn oder Speichel stattgefunden hätte.

Man kann sich darüber nur wundern, dass Ärzte für bis zu 98 % der angewandten Antibiotika Rezepte ausgestellt haben, auch wenn offensichtlich virale Infektionen vorlagen, und auch nur in der Hälfte der Fälle auf das mögliche Vorliegen bakterieller Infektionen getestet wurde.

Kenntnisse über Antibiotika und ihre Anwendung

Hier wurden dieselben 4 Fragen wie bereits 2018 gestellt, die Antworten lassen nach wie vor besorgniserregende Wissenslücken erkennen.

  • Können Antibiotika Viren töten ? Im EU27-Mittel gaben nur 50 % (2018: 43 %) der Befragten die richtige Antwort "Nein", dass Antibiotika dazu nicht imstande sind. 11 % sagten, dass sie es nicht wüssten. Auch in den bestabschneidenden Ländern Schweden, Luxemburg, Niederlande und Irland gaben nur 3/4 bis 2/3 der Befragten die richtige Antwort. Österreich hat mit 49 % gegenüber 2018 - damals 28 % - aufgeholt. Abbildung 4.

Abbildung 4 Können Antibiotika Viren töten? Wissenslücken bestehen in allen Ländern (Quelle: [1])
  • 2. Sind Antibiotika bei Verkühlung wirksam? Im EU27-Schnitt wurde dies von 62 % der Teilnehmer richtig mit "Nein" beantwortet (2018 waren es 66 %). In nur 6 Staaten (Ungarn, Bulgarien, Polen, Griechenland, Zypern und Rumänien) gab weniger als die Hälfte die richtige Antwort.
  • Kann unnötige Anwendung von Antibiotika zu deren Wirkungsverlust führen? Hier wussten die Europäer besser Bescheid. 82 % der Teilnehmer bejahten dies (2018 waren es 85 %). Nur 5 Staaten - Bulgarien, Frankreich, Italien, Ungarn und Rumänien - lagen mit der richtigen Antwort unter 80 %.
  • Ist die Anwendung von Antibiotika häufig mit Nebenwirkungen - beispielsweise Durchfall - verbunden? Wie 2018 ist in allen Staaten der überwiegende Teil der befragten Bevölkerung - EU27-Mittel 67 % (2018 68 %) - dieser Meinung. Die Bandbreite reicht von 57 % in Rumänien bis 81 % in Polen.

Der Kenntnisstand ist zusammengefasst, ähnlich wie 2018: europaweit ist etwa nur ein Viertel der Teilnehmer in der Lage die 4 Fragen richtig zu beantworten, und es gibt keinen Staat, in welchem die Mehrheit der Bevölkerung auf alle 4 Fragen die richtige Antwort gibt. Am besten schneidet Nordeuropa ab (Finnland, Schweden, Holland, Luxemburg und Dänemark), am schlechtesten Lettland, Rumänien und Bulgarien.

  • Ähnlich wie 2018 war dem Großteil der Befragten (EU-Schnitt 85 %) bewusst, dass Antibiotika in der vom Arzt verschriebenen Menge und Dauer genommen werden sollen. Allerdings meinen im Mittel 13 %, dass sie mit der Einnahme aufhören können, sobald es ihnen besser geht.
  • Darüber, dass Antibiotika nicht unnötigerweise (beispielsweise bei einer Verkühlung) eingenommen werden sollten, fühlte sich nur ein Fünftel der Befragten informiert. Diese hatten die Information im Wesentlichen vom ihrem Arzt, Apotheker aber auch aus verschiedenen Medien erhalten, wobei Arzt und Apotheker als besonders vertrauenswürdig angesehen wurden.

--------------------------------------------------------------------------------

  • Die Anwendung von Antibiotika im Veterinärgebiet, die damit verbundenen Risiken und die Einstellungen dazu in der EU sollen wegen der enormen Wichtigkeit in einem nachfolgenden Artikel dargestellt werden.

 Fazit

Durch uns verursachte Antibiotikaresistenzen haben eine sehr bedrohliche Lage entstehen lassen, die - wie im Fall von COVID-19 - nur durch ernsthafte, globale Anstrengungen gemildert/gelöst werden kann. Hier brauchbare Informationen zu liefern, ist auch das Ziel der letzten diesbezüglichen EU-weiten Umfrage [1]: "Um die Resistenz gegen antimikrobielle Mittel, die eine große Bedrohung für die öffentliche Gesundheit in Europa und weltweit darstellt, zu verlangsamen und zu verringern, ist es von entscheidender Bedeutung, den übermäßigen und falschen Einsatz von Antibiotika zu reduzieren. Das Wissen, die Einstellung und das Verhalten der Allgemeinheit spielen eine Schlüsselrolle bei der Gewährleistung eines umsichtigen Einsatzes von Antibiotika.".

Der vorliegende Report [1] zur Umfrage hält dieser Ambition leider in keiner Weise stand. Es ist eine Aneinanderreihung von Zahlen aus den einzelnen Ländern, ohne die Ergebnisse im Zusammenhang zu diskutieren:

Beispielsweise wird in den Conclusions stolz verkündet, dass der Antibiotikaverbrauch im letzten Jahr stark gesunken ist, ohne darauf einzugehen, dass dies - den Antworten der EU-Bürger entsprechend - zumindest zum großen Teil - den Restriktionen der COVID-19 Pandemie geschuldet war. Ebendort wird auch konstatiert, dass "insgesamt das Wissen der Europäer über Antibiotika verbesserungswürdig ist", da ja nur "die Hälfte weiß, dass Antibiotika gegen Viren unwirksam sind" und ein hoher Anteil der Europäer diese auch bei viralen Infektionen - Erkältungen, Influenza und deren Symptomen - einsetzt. Dass über 90 % der dafür ausgestellten Rezepte und Behandlungen von Ärzten stammten, und daher primär deren Vorgangsweise in Frage gestellt werden sollte, wird nicht angesprochen. Unerwähnt in den Conclusions bleibt auch der enorme Antibiotikaverbrauch im Veterinärgebiet mit den Risiken der weiten Verbreitung (multi)resistenter Keime.

Alles in allem ist Eurobarometer 522 ein ärgerliches, oberflächliches Machwerk, dessen Informationsgehalt mit den vermutlichen Kosten kaum im Einklang steht.

------------------------------------------------------------

[1] Special Eurobarometer 522: Antimicrobial Resistance. 17. November 2022. doi: 10.2875/16102

[2] WHO's Science in 5: Microbes are becoming resistant to antibiotics (24 November 2022), Video 5:29 min. https://www.youtube.com/watch?v=ELRw0jRiJe0&t=320s

[3] Antimicrobial Resistance Collaborators ‘Global burden of bacterial antimicrobial resistance in 2019: a systematic analysis’ Lancet2022; 399: 629-55. https://doi.org/10.1016/ S0140-6736(21)02724-0

[4] 35 000 annual deaths from antimicrobial resistance in the EU/EEA (press release, 17. 11.2022). https://www.ecdc.europa.eu/en/news-events/eaad-2022-launch

[5] Europäischer Aktionsplan zur Bekämpfung antimikrobieller Resistenzen im Rahmen des Konzepts „Eine Gesundheit“ {SWD(2017) 240 final} https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=COM%3A2017%3A339%3AFIN


Weiterführende Links

Antibiotic resistance - the silent tsunami. Video 2:50 min. https://www.youtube.com/watch?v=Uti42LK3lAQ

Wie wirken Antibiotika? Video 5:44 min. Eine sehr leicht verständliche Zusammenfassung (2015; Standard YouTube Lizenz)

Artikel im ScienceBlog:

Redaktion, 22.11.2018: Eurobarometer 478: zum Wissenstand der EU-Bürger über Antibiotika, deren Anwendung und Vermeidung von Resistenzentstehung

Inge Schuster, 23.09.2016: Gehen wir auf eine Post-Antibiotika Ära zu?


 

 

inge Sun, 11.12.2022 - 18:02

Mit dem Herzen sehen: Wie Herz und Gehirn kommunizieren

Mit dem Herzen sehen: Wie Herz und Gehirn kommunizieren

Do. 01.12.2022— Susanne Donner

Susanne DonnerIcon Gehirn

Hirn und Herz kommunizieren miteinander über das autonome Nervensystem und über Botenstoffe und beeinflussen einander massiv. Im Gehirn existiert ein Abbild des Herzens: Der Herzschlag ist dort über das Herzschlag-evozierte Potential (HEP) repräsentiert. Mit dem Herzschlag ändert sich unsere Wahrnehmung und sogar unsere Neigung zu Vorurteilen. Umgekehrt wirken sich psychische Belastungen sowie neurologische Erkrankungen auf die Herzgesundheit aus. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner fasst die faszinierenden Ergebnisse dieser neuen Forschungsrichtung zusammen.*

Die 85 Männer ahnten nicht, dass sie sich auf ein Experiment eingelassen hatten, das später in die Lehrbücher der Psychologie eingehen würde. Ein Teil von ihnen überquerte auf einer stabilen Holzbrücke den kanadischen Capilano Canyon. Eine andere Gruppe musste über eine schwankende Hängebrücke auf die andere Seite gelangen. Festhalten konnten sie sich bei dieser furchteinflößenden Überquerung nur an zwei Drahtseilen. Links und rechts ging es 70 Meter in die Tiefe.

Auf der Mitte der beiden Brücken wartete jeweils eine attraktive Frau. Die Probanden sollten in ihrem Beisein einen Fragenbogen ausfüllen und einen Text schreiben. Für weitere Fragen bot die Frau ihre private Rufnummer an.

Mit dem Experiment wollten Donald Dutton und sein Kollege Arthur Aron von der University of British Columbia in Vancouver herausfinden, ob die aufregende Brückenüberquerung die Wahrnehmung und das Verhalten gegenüber der attraktiven Mitarbeiterin beeinflusste.

Weiche Knie oder Schmetterlinge im Bauch?

1974 veröffentlichten die Psychologen ihr Experiment im Journal of Personality and Social Psychology – mit Ergebnissen, die bis heute schmunzeln lassen: Ein Drittel der Männer, die jener Frau auf der schwankenden Hängebrücke begegnete, rief sie später an. Nach der Überquerung der stabilen Brücke nahmen dagegen nur elf Prozent der Männer Kontakt auf. Offenbar projizierten die Probanden ihre Aufregung auf die Frau und wähnten sich zu ihr hingezogen. Das verrieten auch die Texte, die die Männer schrieben: Auf der schwankenden Brücke enthielten die Schriftstücke mehr sexuelle Bezüge [1].

Die falsche Zuordnung des Gefühls zu einem Ereignis bezeichnen Psychologen als „Fehlattribution“. Dahinter steht, dass sich weiche Knie und Schmetterlinge im Bauch ja tatsächlich ähnlich anfühlen: In beiden Fällen schlägt das Herz fester, der Puls beschleunigt sich. „Mann“ schwitzt vielleicht.

Nun sind wir nicht jeden Tag verliebt und schon gar nicht begeben wir uns regelmäßig auf eine schwankende Hängebrücke. Doch die Kommunikation zwischen Herz und Hirn beeinflusst unser Leben permanent.

Der immergleiche Herzschlag ist gefährlich

Beide Organe sind gewissermaßen über eine Standleitung verbunden, das autonome Nervensystem. „Autonom“ heißt es, weil es sich nicht direkt willentlich beeinflussen lässt. Es besteht aus Sympathicus und Parasympathicus. Die beiden Nervensysteme werden überwiegend vom Hirnstamm gesteuert und wirken als Gegenspieler. Abbildung 1.

Abbildung 1. . Sympathicus und Parasympathicus regulieren die Herzaktivität (Bild von Redn. eingefügt aus: OpenStax College - Anatomy & Physiology, Connexions Web site; Fig. 19.32. http://cnx.org/content/col11496/1.6/ Lizenz: cc-by)

Der Sympathicus aktiviert uns und sorgt für die notwendigen körperlichen Reaktionen auf Angriff und Flucht. Er lässt unser Herz beispielsweise bei Bedrohung schneller schlagen und erhöht den Muskeltonus. Er sorgt für ein rotes Gesicht in einer peinlichen Situation oder für hektische Flecken bei einem Vortrag.

Der Parasympathicus dagegen bringt uns in die Ruhe. Er verlangsamt die Atmung und lässt das Herz gemächlich schlagen. Auf diese Weise halten sich Entspannung und Anspannung beim gesunden Menschen ständig die Waage. Im Nebeneffekt ist der Herzschlag variabel. Er passt sich ständig der jeweiligen Situation an. Eine hohe Herzratenvariabilität gilt als Zeichen einer vitalen Herz-Hirn-Connection und letztlich von Gesundheit. „Eine starre Herzfunktion ist dagegen lebensbedrohlich und kann zum plötzlichen Tod führen“, sagt Neurologe Arno Villringer vom Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig.

Ein Abbild des Herzens im Hirn

Villringer interessiert sich für feinstimmige Kommunikation zwischen Gehirn und Herz. Dafür analysieren Forscher seiner Arbeitsgruppe das Elektrokardiogramm und die Hirnströme gleichzeitig. Sie gleichen das Muster elektrischer Erregung in beiden Organen im Detail miteinander ab. Es fällt auf, dass bestimmte Regionen des Gehirns synchron mit dem Herzen aktiviert werden. Es kommt zu einem gewissen Gleichklang in beiden Organen. Messbar wird das im so genannte Herzschlag-evozierten Potential (Heartbeat-evoked Potential, kurz: HEP). Infolge der elektrischen Erregungsausbreitung im Herzgewebe, die zur Kontraktion des Herzmuskels führt, entsteht eine elektrische Spannung. Diese lässt sich im Gehirn als Erregung messen. Vor allem in der Inselregion des Gehirns konnte Villringer diese rhythmische Korrelation mit dem Herzen feststellen. Es handelt sich quasi um ein Abbild des pumpenden Herzens im Hirn. Abbildung 2.

Abbildung 2 . Links: Während der systolischen Phase (rot) werden schwache äussere Reize weniger stark wahrgenommen als in der diastolischen Phase (blau). Rechts: Ein Teil der Gehirnaktivität (“P300”) ist in der systolischen Phase unterdrückt (Bild von Redn. eingefügt ; Quelle: AL et al., PNAS (2020), [2]; Lizenz cc-by)

Der Neurologe geht davon aus, dass das HEP aber weit mehr besagt. Es ist nämlich bei verschiedenen Menschen unterschiedlich hoch. „Wir vermuten, dass das Gehirn zwei unterschiedliche Modi hat. Wenn das HEP hoch ist, konzentriert man sich auf den eigenen Körper, die Innenwelt. Im zweiten Modus ist das HEP niedrig: Man wendet sich der Außenwelt zu, im evolutiven Kontext waren das etwa Nahrungssuche und Angriff“, sagt Villringer. Zu dieser Deutung passt ein weiterer Befund: Wenn das HEP groß ist, nehmen Probanden einen äußeren elektrischen Reiz am Finger schwächer wahr. Umgekehrt nehmen sie diesen intensiver wahr, wenn das HEP kleiner ist. Dies beschrieb Villringers Team 2020 im Fachblatt PNAS [2].

Wie der Herzschlag das Denken und Fühlen verändert

Noch ist unklar, ob die Höhe des HEP und damit die Größe des Abbilds des Herzens im Hirn nur von der Situation abhängt oder auch eine Persönlichkeitseigenschaft ist. Fest steht nur, dass der Einfluss des Herzens auf das Gehirn so ausgeprägt ist, dass sich sogar der Herzschlag auf die Wahrnehmung und das Denken auswirkt.

Wieder untersuchte Villringers Team dazu, wie stark Probanden einen elektrischen Reiz am Finger empfinden. Wenn das Herz sich zusammenzieht und Blut in den Körper pumpt, also in der so genannten systolischen Phase, spüren sie den Reiz nicht so intensiv. Das könnte daran liegen, vermuten die Forscher, dass just in diesem Moment Rezeptoren in den großen Blutgefäßen eine Information über den Blutdruck ans Gehirn übermitteln. Der Informationsschwall dieser so genannten Barorezeptoren nimmt das Gehirn offenbar ziemlich in Beschlag. Eindrücke der Außenwelt erreichen uns in diesem Moment nur gedämpft. In der folgenden Diastole dagegen registrieren Probanden einen äußeren elektrischen Reiz intensiver. In dieser Phase füllt sich das Herz wieder mit Blut.

Es war nicht der erste Befund dieser Art. Ein Experiment von Psychologen um Ruben Azevedo von der Universität in London ist laut Villringer das wohl beunruhigendste Ergebnis zum Einfluss des Herzschlags. Azevedo zeigte 30 Probanden in schneller Folge Fotos von Gesichtern – entweder schwarzer oder weißer Männer gefolgt von einer Waffe oder einem Werkzeug. Möglichst rasch sollten die Testpersonen zuordnen, ob einem hellhäutigen oder dunkelhäutigen Mann ein Werkzeug oder eine Waffe folgt. Dabei erfassten die Experimentatoren auch den Herzschlag. Wenn das Herz sich zusammenzog und Blut in die Gefäße strömte, folgten die Teilnehmer signifikant häufiger ihrem Vorurteil: Sie wiesen einem schwarzen Mann eine Waffe zu. In dieser Phase wird das Gehirn so sehr von den Barorezeptoren in Beschlag genommen, dass für die kritische Selbstreflexion nicht mehr genug Hirn übrigbleibt, argumentiert Azevedo 2016 in Nature Communications [3].

Wenn das Gehirn leidet, schwächelt das Herz

Herz und Hirn stehen in einer innigen Verbindung. Aus dieser Perspektive verwundert es nicht, dass sich viele neurologische Erkrankungen auf das Herz auswirken können. Wer an einer Depression leidet, hat beispielsweise ein doppelt so hohes Risiko einen Herzinfarkt oder einen plötzlichen Herztod zu erleiden. Bei knapp 62 Prozent der Schlaganfallpatienten sitzen in den Herzgefäßen Plaques. Und ein Herzinfarkt nach dem Hirnschlag ist eine gefürchtete Komplikation auf den Intensivstationen.

Und sogar auf Stress hin können kerngesunde Menschen eine Herzmuskelschwäche entwickeln. Dieses Krankheitsbild beschrieb ein japanischer Arzt in den neunziger Jahren und benannte es als „Takotsubo-Syndrom“.

„Die Betroffenen kommen in die Notaufnahmen verängstigt, mit Brustschmerzen und Atemnot“, erzählen Victor Schweiger und Julien Mereier aus der Arbeitsgruppe des Kardiologen Christian Templin vom Universitätsspital Zürich. „Manchmal erzählen sie, dass am Tag vorher der Mann gestorben ist. In der Katheteruntersuchung sind dann alle Gefäße offen.“ Die linke Herzkammer pumpt allerdings weniger effizient als gewöhnlich. Die Herzspitze ist ballonartig erweitert, die Hauptschlagader dagegen verengt.

Auf die leichte Schulter darf man die stressbedingte Herzschwäche nicht nehmen, warnen die beiden angehenden Kardiologen. Die Betroffenen brauchen eine Reha, um sich zu erholen. Ihr Risiko zu sterben, ist erhöht. „Es ist nicht nur etwas Psychisches, wie viele glauben, sondern eine körperliche Erkrankung“, betont Schweiger.

Gebrochenes Herz mit Folgen

Das legt auch eine Untersuchung der Gehirne von Patienten mit funktioneller Magnetresonanztomografie nahe, die Templin 2019 der Fachwelt vorstellte [4]. Danach ist die Verarbeitung emotionaler Eindrücke bei den Betroffenen in verschiedenen Gehirnarealen weniger ausgeprägt. Diese verminderte Konnektivität fiel besonders in der Amygdala, dem Hippocampus und dem Gyrus cinguli auf, die für die Kontrolle von Emotionen entscheidend sind. Amygdala und Gyrus cinguli sind zudem an der Steuerung des autonomen Nervensystems beteiligt und können darüber auch die Herzfunktion beeinflussen.

Wie das Gehirn bei einem emotionalen Ereignis das Herz stresst, ist gleichwohl nicht genau verstanden. Eine Schlüsselrolle kommt wohl dem Stresshormon Adrenalin zu. Künstlich gegebenes Adrenalin kann in Tieren eine Herzmuskelschwäche auslösen. In den Patienten sind die Spiegel bestimmter Katecholamine, zu denen die Botenstoffe Adrenalin, Dopamin und Noradrenalin gehören, ein bis drei Tage nach dem Auftreten des Takotsubo-Syndroms deutlich höher als in Gesunden. Bekanntermaßen schadet ein Übermaß an Katecholaminen auf Dauer dem Herzen.

Auch nach einem Schlaganfall sind die Pegel der Katecholamine erhöht. An diesem Punkt schließt sich der Kreis: Ein schwächelndes Herz kann nicht nur eine Reaktion auf heftigen Liebeskummer oder einen Todesfall sein. Auch neurologische Ereignisse gehen gar nicht selten, nämlich in 7,6 Prozent der Fälle, einem Takotsubo-Syndrom voraus. Das konnte Templins Team in den Daten des weltweit größten Registers mit mittlerweile mehr als 4.000 Patienten erkennen [4]. „Meist liegen nur ein bis zwei, maximal zehn Tage zwischen dem Erstereignis im Hirn und der stressbedingten Herzmuskelschwäche“, sagt Schweiger.

Wie neurologische Erkrankungen und seelisches Leid dem Herzen zusetzen, versucht die junge Disziplin der Psychokardiologie zu ergründen. „Es ist schon verblüffend“, sagt Schweiger. „Trauer, Ärger und Freude können organische Veränderungen an einem so wichtigen Organ hervorrufen.“

Als ob Johann Wolfgang von Goethe es schon vor zweihundert Jahren geahnt hätte, als er über die Liebe dichtete: „Herz, mein Herz, was soll das geben? Was bedränget dich so sehr? Welch ein fremdes neues Leben! Ich erkenne dich nicht mehr.“


  [1] Donald D, et al.: Some evidence for heightened sexual attraction under conditions of hig anxiety. Journal of Personality and Social Psychology, 1974, 30 (4). (zum Abstract: https://pubmed.ncbi.nlm.nih.gov/4455773/)

[2] Al E, et al.: Heart–brain interactions shape somatosensory perception and evoked potentials. PNAS, 2020 Mai, 117 (19) 10575-10584. (zum Volltext: https://www.nature.com/articles/ncomms13854)

[3] Azevedo R, et al.: Cardiac afferent activity modulates the expression of racial stereotypes. Nature Communications, 2016 Januar, 8 (13854). (zum Volltext: https://academic.oup.com/eurheartj/article/40/15/1183/5366976?login=false)

[4] Templin C, et al.: Altered limbic and autonomic processing supports brain-heart axis in Takotsubo syndrome. European Heart Journal, 2019 April, 40 (15): 1183–1187. (zum Volltext https://www.pnas.org/doi/full/10.1073/pnas.1915629117)


*Der Artikel ist am 1.10.2022 auf der Website https://www.dasgehirn.info/ unter dem Titel "Die Herz-Hirn Connection" erschienen https://www.dasgehirn.info/grundlagen/herz/die-herz-hirn-connection und steht unter einer CC-BY-NC-SA Lizenz.

www.dasGehirn.info ist ein Projekt der Klaus Tschira Stiftung, der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medien Karlsruhe.


Verwandte Artikel im ScienceBlog

Nora Schultz, 13.10.2022: Neurokardiologie - Herz und Gehirn bilden ein System

Artikel von Susanne Donner unter: https://scienceblog.at/susanne-donner


 

inge Thu, 01.12.2022 - 16:55

Wie alles anfing: Ein Reiseführer auf dem Weg zur Entstehung und Entwicklung des Lebens

Wie alles anfing: Ein Reiseführer auf dem Weg zur Entstehung und Entwicklung des Lebens

Do, 24.11.2022 -— Inge Schuster Inge SchusterIcon Chemie

Vor 53 Jahren, als die Molekularbiologie noch in den Kinderschuhen steckte, habe ich den ebenso jungen Biochemiker Manfred Bühner auf einer wissenschaftlichen Tagung kennengelernt. Manfred war insbesondere von einem Vortrag des US-Amerikaners Michael Rossmanns fasziniert; dieser Pionier der Strukturaufklärung von Enzymen mittels Röntgenstrukturanalyse nahm dann Manfred als Postdoc in seiner Abteilung auf. Manfred konnte sich dort in die damals noch sehr neuen Methoden einarbeiten und baute nach seiner Rückkehr nach Deutschland in Würzburg das erste Forschungslabor an Hochschulen für Röntgenstrukturanalyse von Biomolekülen auf. Seine Forschungen zu Struktur, Funktion und deren Optimierung führten immer wieder zum Thema "chemische Evolution" . Manfred Bühner hat nun darüber ein großartiges Buch "Wie alles anfing - Von Molekülen über Einzeller zum Menschen" verfasst [1]. Die folgende Rezension soll einen kurzen Eindruck davon geben.

Wie ist auf unserem Planeten aus unbelebter Materie belebte Materie bis hin zu komplexen, intelligenten Lebensformen der Gegenwart entstanden? Anders als in den meisten deutschsprachigen Büchern über Evolution, deren Hauptaugenmerk auf der biologischen Phase - also auf der Entwicklung der Arten - liegt, steht in "Wie alles anfing" die präbiotische Phase, die chemische Evolution, im Zentrum.

"Leben ist aus einer geradezu banalen Aneinanderreihung von ganz einfachen und selbständig ablaufenden physikalischen und chemischen Reaktionen entstanden"

In vier Teilen, auf rund 170 Seiten (plus einem ausführlichen Anhang mit chemischen und physikalischen Grundlagen, sowie einem Glossar) führt der Biochemiker Manfred Bühner aus, dass und warum die Chemie die Basis für den Weg zum Leben, wie auch für das Leben in seiner ganzen Vielfalt ist. In der nüchternen, induktiven Betrachtungsweise des Naturwissenschaftlers, die von Beobachtungen und zu berücksichtigenden Rahmenbedingungen ausgeht, kommt er zu dem Schluss: "Leben ist aus einer geradezu banalen Aneinanderreihung von ganz einfachen und selbständig ablaufenden physikalischen und chemischen Reaktionen entstanden". Er bezieht sich dabei auf etabliertes Wissen über Struktur, Funktion und Steuerung der Bausteine lebender Materie und auf plausible Mechanismen ihrer Entstehung, die in der zweiten Hälfte des vorigen Jahrhunderts - dank der Fortschritte der Molekularbiologie - enorm ausgeweitet wurden. Bühner ist Zeitzeuge dieser Entwicklung und hat selbst seit den frühen 1970er Jahren an der Aufklärung der 3D-Struktur von Enzymen gearbeitet und sich eingehend mit deren Evolution zu den überaus präzisen Katalysatoren der Gegenwart befasst.

Abbildung 1. . Kohlenstoff im Zentrum der Chemischen Evolution. Von der Entstehung organischer Moleküle in der Uratmosphäre über Biomoleküle, Protozellen bis hin zur ersten Lebensform LUCA (Last universal common ancestor) . Quelle: Chiswick Chap, https://en.wikipedia.org/wiki/Abiogenesis; Lizenz: cc-by-sa.

Entstanden ist ein umfassender Überblick über mehr als 4,5 Milliarden Jahre Evolution, der mit der Entstehung der chemischen Elemente im Universum und den chemischen Reaktionen von Atomen und Molekülen in der Uratmosphäre beginnt. Abbildung. Bühner erklärt, warum (nur) Kohlenstoff auf Grund seiner vielfältigen Bindungsmöglichkeiten die strukturelle Basis für die Bausteine des Lebens bieten kann und wie in den Reaktionen mit den am häufigsten vorhandenen Elementen - Wasserstoff, Sauerstoff, Stickstoff - und dazu Phosphor und Schwefel zwangsläufig ein nahezu unendliches Spektrum von Biomolekülen entstehen konnte. Verständlicherweise konnten die weniger stabilen Makromoleküle - Kohlenhydrate, Proteine, Nukleinsäuren - erst entstehen, als vor etwa 4,3 Milliarden Jahren die Oberflächentemperatur der Erde gesunken war und atmosphärischer Wasserdampf zu Meeren kondensierte; geschützt vor zu zerstörerischer UV-Strahlung reicherten sich die Moleküle der Uratmosphäre in diesen "Ursuppen" an, aggregierten und reagierten miteinander. Bühner zeigt wahrscheinliche Synthesewege auf, erläutert, welche Rolle dabei flüssiges Wasser spielte und woher die zur Polymerisierung notwendige Energie kommen konnte.

Wie er an späterer Stelle ausführt, sollten - nach den im ganzen Universum geltenden Gesetzen der Chemie und Physik und sofern es die planetar-physikalischen Bedingungen erlaubten - auch auf anderen Himmelskörpern die Moleküle der Uratmosphäre einer zumindest sehr ähnlichen chemischen Evolution unterworfen (gewesen) sein.

Hervorgehoben wird die zentrale Bedeutung der Nukleinsäuren, deren Fähigkeit komplementäre Nukleotide anzulagern und Kopien mit der in der Nukleotid-Abfolge gespeicherten Information entstehen zu lassen, die Grundvoraussetzung für Leben, Vermehrung und Vielfalt der Nachkommenschaft ist. Es wird gezeigt wie die Nukleotid-Sequenz der RNA - und später der längeren, stabileren DNA - für die Aminosäurensequenz von Proteinen kodiert, wie Ablesung und Übersetzung des Codes funktionieren, wie schlussendlich kompliziert gefaltete Proteine entstehen und was solche zu hocheffektiv, spezifisch arbeitenden Enzymen macht. Zur Lösung des Henne- Ei Dilemmas - Was kam zuerst - Proteine, die das Kopieren der Nukleinsäuren katalysieren oder Nukleinsäuren, die für solche Proteine kodieren? - verweist Bühner auf die sogenannten Ribozyme - Ribonukleinsäuren mit zusätzlichen katalytischen Eigenschaften, die in anfänglichen RNA-Welten imstande gewesen sein dürften ohne zusätzliche Katalysatoren den vorerst langsamen und fehlerbehafteten Kopierprozess von RNAs zu beschleunigen und verbessern.

Breiten Raum nimmt auch die Chemie der niedermolekularen Lipide und der daraus spontan gebildeten Membranen ein: wie aus Membran-umschlossenen Tröpfchen der Ursuppe mit darin gelösten Biomolekülen erste Protozellen generiert werden konnten und wie diese Protozellen Stoffwechselsysteme entwickelten, die energieliefernde Stoffe aus der Ursuppe aufnehmen, für Funktionen wie Kopieren und Katalyse einsetzen und Abfallprodukte ausscheiden konnten. Nach mehreren Hundertmillionen Jahren chemischer Evolution, in denen vermutlich unzählige Biomoleküle ausprobiert und verworfen worden waren, gab es vor etwa 3,7 Milliarden Jahren erstmals Voraussetzungen für die Entstehung von Leben, die - als die geophysikalischen Bedingungen taugten - zu ersten Prokaryoten, einzelligen Vorläufern von Bakterien und Archaeen, führten.

"Das Leben? Ist alles nur Chemie mit der Fähigkeit zum autonomen Selbstkopieren"

sagt Bühner. Dieses Kopieren ist Hauptthema des (wesentlich kürzeren, da in der populärwissenschaftlichen Literatur bereits ausführlichst behandelten) Teils über biologische Evolution: wie dem Zufall unterworfene Mutationen in den Nukleotid-Basen und Selektion der Nachkommenschaft durch Adaptation an die Umgebungsbedingungen die Basis für die Evolution der Arten schufen; wie Optimierung von Kopiermaschinerie und Reparatursystemen für defekte Nukleotide immer größere Speicherkapazitäten und damit komplizierter aufgebaute Organismen ermöglichten. Als wesentliche Meilensteine in dem ungeheuer langen Zeitraum der biologischen Evolution (immer mit dem Fokus auf deren Chemie) nennt der Autor die "Erfindung" der Photosynthese durch Cyanobakterien vor etwa 2,7 Milliarden Jahren (d.i. der Nutzung von Sonnenergie zur Synthese von Kohlenhydraten aus CO2 und H2O, wobei der entstehende, für viele Proteobakterien toxische Sauerstoff das erste große Artensterben auslöste) und die Entstehung von Eukaryonten aus Archaea und Proteobakterien durch Endosymbiose 1 Milliarde Jahre später. Der letzte Teil des Buches führt dann von der Entstehung von Mehrzellern vor 800 Millionen Jahren, dem Aufkommen der sexuellen Vermehrung, der Entstehung von kompliziert aufgebauten Organismen bis zu intelligentem Leben und dem Homo sapiens.

Fazit

Ohne philosophische Aspekte zu berühren, erklärt das Buch in überzeugender Weise, wie Leben durch chemische Evolution entstanden sein kann. Anspruchsvoll und sehr dicht geschrieben vermittelt jede Zeile profundes, sorgfältig recherchiertes Wissen und bietet selbst für den Chemiker neue, inspirierende Einblicke. Vor allem Studenten und Absolventen naturwissenschaftlicher und medizinischer Fachrichtungen, (Oberstufen-)Schüler aber auch am Thema Evolution interessierte Laien werden (mit etwas "Nach-Googeln") das Buch mit Gewinn lesen.

Addendum: In einer zweiten Auflage sollte der Verlag die chemischen Strukturformeln in einer dem heutigen Usus adäquaten Form wiedergeben.


 [1] In der Reihe De Gruyter De Gruyter Populärwissenschaftliche Reihe:

Bühner, Manfred. Wie alles anfing: Von Molekülen über Einzeller zum Menschen, Berlin, Boston: De Gruyter, 2022. https://doi.org/10.1515/9783110783155


 

Artikel im ScienceBlog zu verwandten Themen

inge Thu, 24.11.2022 - 00:41

Eine rasche Senkung der Methanemissionen ist erforderlich

Eine rasche Senkung der Methanemissionen ist erforderlich

Do, 17.11.2022 — IIASA

IIASA Logo

Icon Klima

Die vom Menschen verursachten Methanemissionen sind für fast 45 % der derzeitigen Nettoerwärmung verantwortlich. Der von der Climate and Clean Air Coalition herausgegebene und von der IIASA-Forscherin Lena Höglund-Isaksson mitverfasste Bericht "Global Methane Assessment 2030 Baseline Report" bewertet die Fortschritte bei den globalen Reduktionsbemühungen. Wenn die Welt den globalen Temperaturanstieg unter den Zielwerten von 1,5° und 2°C halten will, sind rasche Maßnahmen erforderlich.*

Während der Zusammenhang zwischen Kohlendioxid (CO2)-Emissionen und steigenden Temperaturen weithin bekannt ist, findet die Rolle von Methan als Treiber des Klimawandels in der Öffentlichkeit im Allgemeinen weniger Beachtung. Die Methankonzentrationen in der Atmosphäre steigen rapide an, was zu einem überwiegendem Teil auf Emissionen aus menschlichen Tätigkeiten zurückzuführen ist. Sie liegen derzeit bei 260 % des vorindustriellen Niveaus und betragen jährlich zwischen 350 und 390 Millionen Tonnen. Um die globale Erwärmung in den nächsten Jahrzehnten einzudämmen, muss die CO2-Reduzierung durch rasche und wirksame Maßnahmen zur Verringerung von Methan und anderen Klimaschadstoffen ergänzt werden. Abbildung 1.

Abbildung 1. Gewinnung fossiler Brennstoffe, Landwirtschaft und Abfallwirtschaft sind Hauptverursacher anthropogener Methanemissionen. (Bild von Red. aus "Global Methane Assessment: 2030 Baseline Report" [1] eingefügt; Lizenz: cc-by-nc).

In Anlehnung an den Bericht Global Methane Assessment 2021: "Benefits and Costs of Mitigating Methane Emissions" (Nutzen und Kosten der Minderung von Methanemissionen) der Climate and Clean Air Coalition (CCAC), einer Plattform unter dem Dach des Umweltprogramms der Vereinten Nationen (UNEP), nimmt der neu veröffentlichte 2030 Baseline Report [1] eine Bestandsaufnahme der derzeitigen Bemühungen vor und prognostiziert die anthropogenen Methanemissionen unter verschiedenen Basisszenarien. Die Basisszenarien für die Emissionen gehen von der Umsetzung bestehender Strategien und Verpflichtungen aus, beinhalten aber keine zusätzlichen Minderungsmaßnahmen.

Die Landwirtschaft, die Abfallwirtschaft, die Gewinnung fossiler Brennstoffe und die offene Verbrennung von Biomasse sind die wichtigsten Quellen für anthropogenes Methan. Abbildung 2.

Abbildung 2. Geschätzte anthropogene Methanemissionen für 2020 (2019) nach Sektoren/Subsektoren. Quellen: EPA: US Environmental Protection Agency; IIASA, CEDS:US Comprehensive Economic Development Strategy, EDGAR: EU- The Emissions Database for Global Atmospheric Research (Bild von Redn. aus [1] eingefügt, cc-by-nc-Lizenz).

In dem Bericht wird hervorgehoben, dass die weltweiten Methanemissionen ohne ernsthafte Anstrengungen weiter ansteigen werden. Bis 2030 wird mit einem Anstieg um 5-13 % gegenüber 2020 gerechnet, wobei der größte Anstieg im Agrarsektor erwartet wird. Least-Cost-Szenarien zur Begrenzung der Erwärmung auf 1,5°C erfordern bis 2030 eine Verringerung der Methanemissionen: bezogen auf die Emissionen von 2020 um etwa 60 % aus fossilen Brennstoffen, 30-35 % aus Abfällen und 20-25 % aus der Landwirtschaft.

Um dies zu erreichen, bedarf es umfassender, gezielter und vor allem sozial gerechter Maßnahmen:

"Für die Sektoren der fossilen Brennstoffe brauchen wir einen Rechtsrahmen, der sicherstellt, dass die vorhandenen Technologien von der Industrie umgesetzt und genutzt werden. Bei den Sektoren Abfall und Landwirtschaft müssen die sozioökonomischen Auswirkungen des Wandels berücksichtigt werden, um sicherzustellen, dass arme Menschen und Angehörige benachteiligter Gruppen an den Lösungen beteiligt werden. So wird sichergestellt, dass Veränderungen die bestehenden Probleme dieser Gruppen nicht noch verschlimmern", sagt Lena Höglund-Isaksson, Mitverfasserin des Berichts und leitende Forscherin in der IIASA-Forschungsgruppe für Pollution-Management.

Auf der Konferenz der Vertragsparteien 2021 (COP26) in Glasgow wurde die Globale Methanverpflichtung (GMP) ins Leben gerufen, die die umfassenderen CO2-Bemühungen ergänzt, die allein nicht ausreichen, um an die 1,5°C-Szenarien anzupassen. Im Rahmen der GMP einigten sich die Teilnehmer darauf, gemeinsame Maßnahmen zu ergreifen, um die anthropogenen Methanemissionen bis 2030 um mindestens 30 % gegenüber dem Stand von 2020 zu senken. Bis August 2022 haben sich mehr als 120 Länder dieser Verpflichtung angeschlossen. Abbildung 3.

Abbildung 3. Projektierte Reduktionen der Methanemissionen 2020 bis 2030 nach Regionen und Sektoren. (Bild von Redn. aus [1] eingefügt, Lizemz cc-by-nc).

Die Verwirklichung der GMP-Ziele würde die Erwärmung zwischen 2040 und 2070 um mindestens 0,2°C verringern und darüber hinaus jährlich etwa 6 Millionen vorzeitige Todesfälle aufgrund von Ozonbelastung verhindern, den Verlust von fast 580 Millionen Tonnen an Ernteeinbußen vermeiden, Kosten in Höhe von 500 Milliarden US-Dollar aufgrund von Gesundheitsschäden, die nicht auf Todesfälle zurückzuführen sind, sowie Kosten für die Forst- und Landwirtschaft vermeiden und den Verlust von 1.600 Milliarden Arbeitsstunden aufgrund von Hitzebelastung verhindern. Zusammenfassend lässt sich sagen, dass bei fast 85 % der gezielten Maßnahmen der Nutzen die Kosten überwiegt.

Der Bericht macht jedoch deutlich, dass die derzeitigen Strategien und Maßnahmen zwar ein Schritt in die richtige Richtung sind, aber noch mehr getan werden muss. Die GMP deckt nur die Hälfte der weltweiten anthropogenen Methanemissionen ab, und nur ein Bruchteil der Länder hat explizite Maßnahmen vorgeschlagen, um ihre Minderungsziele zu erreichen. Es müssen mehr Unterzeichnerländer an Bord geholt werden, und die derzeitigen Verpflichtungen müssen erweitert werden.

"Wir müssen in allen Sektoren eine erhebliche Verringerung erreichen, und zwar jetzt. Die rasche Umsetzung der Methanemissionskontrolle ist eine der wenigen Optionen, die uns bleiben, um die globale Erwärmung in den nächsten Jahrzehnten auf einem beherrschbaren Niveau zu halten", so Höglund-Isaksson.

-----------------------------------------------------------

[1] United Nations Environment Programme/Climate and Clean Air Coalition (2022). Global Methane Assessment: 2030 Baseline Report. Nairobi. https://www.ccacoalition.org/en/resources/global-methane-assessment-2030-baseline-report


 *Der Artikel von Lena Höglund Isaksson "The need for rapid methane mitigation" https://iiasa.ac.at/news/nov-2022/need-for-rapid-methane-mitigation ist am 16. November 2022 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch 3 Abbildungen aus dem Global Methane Assessment: 2030 Baseline Report [1] ergänzt (Lizenz: cc-by-nc). IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Einige Artikel über Methanemissionen im ScienceBlog


 

inge Thu, 17.11.2022 - 00:21

Digitale Zwillinge der Erde - Wie Forschung physikalische Klimamodelle entwickelt

Digitale Zwillinge der Erde - Wie Forschung physikalische Klimamodelle entwickelt

Do, 10.11.2022 — Roland Wengenmayr

Icon Klima

Roland Wengenmayr „Es ist eindeutig, dass der Einfluss des Menschen die Atmosphäre, die Ozeane und die Landflächen erwärmt hat“, stellt der Sachstandsbericht 6 (AR6) des Weltklimarats IPCC fest: „Eine globale Erwärmung von 1,5 °C und 2 °C wird im Laufe des 21. Jahrhunderts überschritten werden, außer es erfolgen in den kommenden Jahrzehnten drastische Verringerungen der CO2– und anderer Treibhausgasemissionen.“ Solche Kernaussagen sind das Ergebnis einer weltweiten Zusammenarbeit von 270 Forschenden aus verschiedenen Spezialgebieten. Mit dabei ist Jochem Marotzke, Direktor am Max-Planck-Institut für Meteorologie in Hamburg. Der AR6-Bericht basiert auf vielen Messdaten, Beobachtungen sowie Klimamodellen, wie sie Marotzke mit seiner Abteilung entwickelt. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet darüber.*

Die Lage ist ernst, aber Jochem Marotzke legt Wert darauf, der jungen Generation Mut zu machen. Es sei nicht zu spät, betont er, wir können etwas gegen die weitere Klimaerwärmung tun. Physikalische Gesetze schaffen die Grundlage, dass wir eine lebensfeindliche Heißzeit verhindern können. „Es wäre also ein fataler Fehler, in eine Angstlähmung zu verfallen, denn dann handelt man nicht.“ Handeln müssen wir aber, denn eines ist klar: Solange wir Menschen weiter Kohlenstoffdioxid ausstoßen, wird es wärmer. Je schneller wir unseren Ausstoß an Treibhausgasen in der Gesamtbilanz auf „Netto-Null“ herunterschrauben können, desto früher wird auch die Erderwärmung gestoppt. Netto-Null heißt, dass der dann noch vorhandene Treibhausgas-Ausstoß der Menschheit vollständig mit nachhaltigen Maßnahmen ausgeglichen wird.

Energieflüsse im Modell

Wer in das Gebiet der Klimamodelle eintauchen will, muss zuerst verstehen, wie das komplexe Klimasystem der Erde grundsätzlich funktioniert. Und wie der Mensch es beeinflusst. Dabei hat die Physik ihren Auftritt, denn beim Erdklima geht es global gesehen um eine Bilanz von Energieflüssen. Diese lassen sich in Watt pro Quadratmeter ausdrücken. Axel Kleidon, Klimaforscher am Max-Planck-Institut für Biogeochemie in Jena, hat ein physikalisches Modell mit drei Fällen aufgestellt. Für die Energiezufuhr sorgt die Sonne. Ihre Strahlung trifft auf die Erdatmosphäre, mit einem globalen Mittelwert von 342 W/m2 (Abbildung 1, Fall A). Davon werden durch Schnee und Eis auf der Erdoberfläche und durch Wolken 102 W/m2, also knapp 30 %, zurück ins Weltall reflektiert. Es verbleiben somit 240 W/m2, die auf den Erdboden treffen und ihn aufwärmen. Sobald sich ein Gleichgewicht eingestellt hat, strahlt der Boden die 240 W/m2, umgewandelt in Form von Infrarotstrahlung, wieder ins Weltall ab. In diesem Fall A würde sich die Bodentemperatur theoretisch bei einem globalen Mittelwert von –18 °C einpendeln. Das kann man mit Hilfe der sogenannten Schwarzkörper-Strahlung ausrechnen, die das Stefan-Boltzmann-Gesetz beschreibt. Ohne Treibhauseffekt wäre die Erde also eingefroren. „Tatsächlich würde sie sogar noch kälter werden“, sagt Jochem Marotzke. Die einfache Abschätzung berücksichtigt nämlich nicht, dass die durch Eis und Schnee hellere Oberfläche mehr Sonnenstrahlung als heute ins All zurückreflektieren würde. Dieses Rückstrahlvermögen heißt Albedo, und eine „Schneeballerde“ hätte eine viel größere Albedo als die heutige Erde.

Abbildung 1. . Energiebilanz im einfachen Klimamodell. Die Fälle der Energiebilanz in der Erdatmosphäre werden von A bis C genauer. Die drei Säulen pro Fall zeigen jeweils von links nach rechts: Solarstrahlung, Abstrahlung des Bodens, Konvektion. Die Konvektion ist nur im Fall C berücksichtigt, der rote Pfeil symbolisiert die Wärmeenergie der Luft, der blaue Pfeil die im Dampf gespeicherte latente Wärme. Fall C ergibt eine global gemittelte Bodentemperatur von durchschnittlich 17 °C, was schon sehr nahe an den realen 15 °C ist.© A. Kleidon, R. Wengenmayr / CC BY-NC-SA 4.0

Davor rettet uns der natürliche Treibhauseffekt, zusammen mit den Wolken. „Das wirkt wie ein warmer Mantel um die Erde“, sagt Marotzke. Wenn das Licht der Sonne in die Atmosphäre eindringt, absorbieren zunächst Ozon und Wasserdampf einen Teil davon, sodass im globalen Mittel nur 165 W/m2 den Boden erreichen (Abbildung 1, Fall B). Der eigentliche Treibhauseffekt entsteht, sobald die vom Boden ausgesandte Infrarotstrahlung sich auf den Weg ins Weltall macht. Sie trifft nun wieder auf Wassermoleküle, CO2 und weitere Treibhausgase. Moleküle, die aus drei und mehr unterschiedlichen Atomen bestehen, absorbieren wie kleine Antennen Energie aus der langwelligen Infrarotstrahlung. Diese Energie geben sie über Stöße an die Nachbarmoleküle in der Luft ab, und deren stärkere Bewegung lässt die Temperatur der Atmosphäre steigen. Obwohl Treibhausgase nur Spurengase geringer Konzentration in der Atmosphäre sind, entfalten sie so eine große Wirkung. Sie senden nun selbst mehr Infrarotstrahlung zur Erdoberfläche zurück, im globalen Mittel 347 W/m2. Als Folge erwärmt sich der Boden immer weiter, strahlt aber auch stärker im Infraroten ab. Schließlich stellt sich bei einer Bodenabstrahlung von 512 W/m2 ein neues Gleichgewicht in der Strahlungsbilanz ein. Dadurch steigt nun allerdings die Lufttemperatur am Boden auf einen globalen Mittelwert von 35 °C!

Das ist viel zu warm im Vergleich zur realen Erde. Es fehlt noch ein dritter, stark kühlender Mechanismus der Atmosphäre und der Erdoberfläche (Abbildung 1, Fall C): die Konvektion. Ihre Bedeutung erkannte der japanisch-amerikanische Klimaforscher Syukuro Manabe, als er Anfang der 1960er-Jahren erste, noch sehr einfache Klimamodelle entwickelte. Im Jahr 2021 erhielt er gemeinsam mit Klaus Hasselmann, dem Gründungsdirektor des Max-Planck-Instituts für Meteorologie, für Pionierarbeiten zur Klimaforschung den Nobelpreis für Physik. Konvektion entsteht, weil vom Boden aufgewärmte Luft wie ein Heißluftballon aufsteigt, sich in der Atmosphäre abkühlt und wieder herunterfällt. Dieser Kreislauf transportiert Wasserdampf hinauf zu den Wolken. Wenn Wasser aus dem Boden verdampft, nimmt es sehr viel Energie auf. Diese latente Wärme plus die Wärme in der aufgeheizten Luft werden dem Boden entzogen und kühlen ihn. So gelangen im Gleichgewicht zusätzliche 112 W/m2 in die Atmosphäre. Damit pendelt sich der globale Mittelwert der Bodentemperatur bei rund 17 °C ein. Kleidons einfache Abschätzung kommt dem tatsächlichen Wert von etwa 15 °C erstaunlich nahe. Der Fall C beschreibt das Klimasystem der Erde in einem Gleichgewicht vor dem Zeitalter der Industrialisierung. Danach begann der Mensch, immer mehr fossile Brennstoffe wie Kohle, später auch Erdöl und Erdgas, zu verbrennen. Dadurch gelangten zusätzliche Treibhausgase in die Atmosphäre, vor allem CO2. Dessen Konzentration ist seit 1750 durch menschliche Aktivitäten um etwa die Hälfte angestiegen.

Entscheidende Rückkopplungen

„Dieser Treibhausgas-Ausstoß des Menschen wirkt wie eine zusätzliche Wärmedecke um die Erde“, sagt Marotzke. Entsprechend verschiebt sich das Gleichgewicht in der Bilanz der Strahlungsflüsse. Was da genau geschieht, will die Klimaforschung herausfinden. Entscheidend sind die Rückkopplungen im Klimasystem. Eine Rückkopplung ist die Albedo der Erdoberfläche, die abnimmt, wenn die hellen Eisflächen im wärmeren Klima schrumpfen. Sie beschleunigt somit die Erderwärmung, was durch einen positiven Rückkopplungsparameter beschrieben wird. Der aktuelle IPCC-Bericht nennt dafür einen geschätzten Zahlenwert von +0,35 W/(m2 • K). Den stärksten positiven Rückkopplungsparameter mit +1,3 W/(m2 • K) bringen zusätzlicher Wasserdampf und die Temperaturzunahme der Luft in die Bilanz ein. Wolken kommen mit +0,42 W/(m2 • K) dazu. Gäbe es also nur diese positiven Rückkopplungen im Klimasystem, dann würde die Erde tödliches Fieber bekommen.

Abbildung 2. Das Stefan-Boltzmann-Gesetz beschreibt, welche Wärmestrahlung ein idealer schwarzer Körper in Abhängigkeit von der Temperatur abstrahlt. Für die Erde ist das zwar eine Idealisierung, kommt aber ihrem Verhalten sehr nahe. Eingezeichnet sind hier die Strahlungsleistungen bei -18 °C (ohne Treibhausgase) und den 17 °C nach dem einfachen Modell von Abbildung 1, Fall C. Die tatsächliche, global gemittelte Bodentemperatur liegt bei ungefähr 15 °C, also etwas darunter. © R. Wengenmayr / CC BY-NC-SA 4.0

Dem wirkt aber ein starker Kühlmechanismus entgegen: die negative Planck-Rückkopplung. Sie gleicht mit geschätzten -3,22 W/(m2 • K) alle positiven Rückkopplungen mehr als aus. Das gilt auch für den Effekt der zusätzlichen Treibhausgase aus auftauenden Permafrostböden. Unter Berücksichtigung der Rückkopplungen von Biosphäre und Geologie, die ebenfalls negativ wirken, kommt der AR6-Bericht in der Bilanz auf einen geschätzten Rückkopplungswert von -1,16 W/(m2 • K). Hinter dieser Rettung steckt die schon erwähnte Schwarzkörper-Strahlung. Damit lässt sich beschreiben, wie sich das Abstrahlverhalten der Erde mit der Temperatur (T) verändert. Die Formel dafür liefert die Physik in Form des Stefan-Boltzmann-Gesetzes: Danach steigt der in den Kosmos zurückgestrahlte Energiefluss mit T4 an! An diese Kurve (Abbildung 2) können wir bei der aktuellen, globalen Mitteltemperatur von 17 °C am Boden eine Gerade anlegen. Diese hat dann eine Steigung, die dem Wert 3,22 W/(m2 • K) der Planck-Rückkopplung entspricht.

Eine entscheidende Frage in diesem Zusammenhang ist, ob es im Klimasystem sogenannte „Kippelemente“ gibt und wo sie liegen. Ein Teil der Klimaforschenden geht davon aus, dass etwa die Permafrostböden oder das Eisschild von Grönland zu den Kippelementen zählen. Übersteigt die Klimaerwärmung einen gewissen Punkt, könnten diese unumkehrbar zu schmelzen beginnen. Welche Kippelemente es im Klimasystem möglicherweise gibt und bei welchem Anstieg der mittleren globalen Temperatur sie umkippen könnten, wird kontrovers diskutiert.

Die Klimasensitivität

Hier kommt eine wichtige Größe ins Spiel: die Gleichgewichts-Klimasensitivität, abgekürzt ECS für „Equilibrium Climate Sensitivity“. Dieser Begriff geht auf eine Pionierarbeit zum Treibhauseffekt zurück, die der schwedische Physiker und Chemiker Svante Arrhenius 1896 veröffentlichte. Im Kern geht es um die Frage, wie sich die umhüllende Wärmedecke verhält, wenn das Klima wärmer wird. „Die Wirkung der ECS können wir uns in einem Gedankenexperiment vorstellen, in dem wir die CO2-Konzentration in der Atmosphäre verdoppeln“, sagt Marotzke: „Dann stellt sie die global gemittelte Erwärmung der Erdoberfläche dar, die sich langfristig im neuen Gleichgewicht einstellt.“

Eine der großen Herausforderungen besteht darin, den Wert der ECS einzugrenzen. Viele Jahre lang blieb sie hartnäckig in einer Spanne zwischen 1,5 und 4,5 °C stecken. Der AR6-Bericht konnte nun endlich diese Unsicherheit verkleinern, auf eine wahrscheinliche Spanne von 2,5 bis 4 °C. Diese Reduktion um 1,5 °C klingt nach nicht viel. Sie ist aber ein großer Schritt, um genauere Aussagen darüber machen zu können, wie viel Treibhausgase die Menschheit noch ausstoßen darf, um das Pariser Klimaziel von 1,5 °C einhalten zu können. Auf jeden Fall wird das knapp! Der globale Mittelwert der Bodentemperatur ist seit Beginn verlässlicher Wetteraufzeichnungen bereits um 1,2 °C angestiegen, in Deutschland seit 1881 sogar schon um 1,6 °C.

Das einfache physikalische Modell der Strahlungsbilanz (Abbildung 1) kann die mittlere Oberflächentemperatur verblüffend gut errechnen. Will man aber genauere Aussagen treffen, etwa über regionale Veränderungen, dann braucht man Klimamodelle. Davor beantwortet Jochem Marotzke noch die Frage, warum CO2 eine so dominante Rolle im Treibhaus der Erde spielt. Schließlich sorgt Wasserdampf für einen stärkeren Treibhauseffekt. „Der Wasserdampf ist aber sozusagen der Sklave des CO2“, entgegnet der Forscher. Ursache ist dessen kurze Aufenthaltsdauer im Klimasystem. Das Wasser in der Luft wird ungefähr alle zehn Tage komplett erneuert. „Das CO2 hingegen hat eine viel längere Verweildauer“, erläutert er. „Ein Viertel davon bleibt für Jahrhunderte in der Luft!“ Deshalb steuert das CO2 in seiner Trägheit das Klima, während der schnelllebige Wasserkreislauf sich an die Temperaturveränderung anpassen muss.

Schnell folgt langsam

Diese Erkenntnis, dass im Klima ein schnelles System immer einem langsamen folgen muss, geht vor allem auf Klaus Hasselmann zurück. Der Nobelpreisträger baute darauf zwei bedeutende Pionierarbeiten auf. Darin untersuchte er das Zusammenspiel der Ozeane mit der Atmosphäre. Der riesige Wasserkörper der Meere reagiert sehr langsam auf Klimaveränderungen, er ist das Langzeitgedächtnis. Damit diktieren die langsamen Ozeane der viel schneller reagierenden Atmosphäre langfristige Klimatrends. Man kann das mit einem Menschen vergleichen, der einen unerzogenen Hund an der Leine hält. Der Hund rennt wild hin und her und lässt dadurch den Menschen scheinbar ziellos herumtorkeln. Wenn man länger zuschaut, sieht man jedoch, wie das langsame System Mensch das schnelle System Hund allmählich in die Richtung zwingt, in die der Mensch will. Wie aber kann man einen solchen Trend bereits im chaotischen Bewegungsmuster des Pärchens Mensch-Hund ausmachen, wenn er für das bloße Auge noch gar nicht erkennbar ist? Das entspricht der Frage, die sich Hasselmann gestellt hat: Wie kann man den menschlichen Klima-Handabdruck zweifelsfrei nachweisen, obwohl er sich als winziges Signal im chaotischen Rauschen der täglichen Wetterschwankungen verbirgt? Dieser Nachweis gelang dem Forscher in seiner zweiten Pionierarbeit.

Wie funktionieren Klimamodelle?

„Klimamodelle kann man sich als digitale Zwillinge der Erde vorstellen“, führt Marotzke in sein Forschungsgebiet ein (Abbildung 3). Die Modelle können aber nicht jedes Wassertröpfchen oder gar Molekül nachbilden, das würde alle Supercomputer weit überfordern. Stattdessen besteht der digitale Zwilling aus einem erdumspannenden, dreidimensionalen Netz aus mathematischen Zellen. Diese Zellen erfassen die Atmosphäre, den Boden bis in eine Tiefe von etwa zehn Metern, sowie den Wasserkörper der Ozeane. Für jede Zelle wird bilanziert, welche Energie und welche Masse hinein- und wieder herausströmt. „Es geht also um Energie- und Impulsänderungen, um die Erhaltungssätze der Physik“, sagt der Forscher. Damit lässt sich ausrechnen, wie sich der Energie- und Impulsinhalt jeder Zelle ändert. „Aus dem Energieinhalt können wir die Temperatur ausrechnen, aus der Temperatur die Dichte und daraus den Luftdruck“, erklärt er weiter. Das führt wiederum zu den Windgeschwindigkeiten. In der Atmosphäre wird es allerdings dadurch kompliziert, dass Phasenübergänge stattfinden können: Wasser verdampft, kondensiert wieder zu Tröpfchen oder friert sogar aus.

Abbildung 3. Module eines Klimamodells, wie sie am MPI für Meteorologie entwickelt und eingesetzt werden. Die einzelnen Elemente (farbige Boxen) werden über den Austausch von Energie, Impuls, Wasser und Kohlenstoff miteinander gekoppelt. Das „O.-A.-Koppler“-Modul (rot) simuliert den besonders wichtigen Austausch zwischen Ozean und Atmosphäre. Physikalische, biologische, chemische und geologische Prozesse werden berücksichtigt. Eine zentrale Rolle spielt der Kohlenstoffkreislauf (braune Pfeile, s. auch [1]). © MPI für Meteorologie / CC BY 4.0

Das Computerprogramm rechnet nun in Zeitschritten die Mittelwerte für alle Zellen aus. Hierin unterscheiden sich Klimamodelle nicht von Wettermodellen. Allerdings müssen Klimamodelle in der Regel einige Jahrzehnte bis Jahrhunderte erfassen. Deshalb ist ihr Netz an Zellen viel grobmaschiger, um die Rechenleistung der Computer nicht zu sprengen. Als Folge fallen feine, aber wichtige Elemente des Klimasystems durch das Raster. Forschende müssen Schätzungen einsetzen, was die Genauigkeit reduziert. Außerdem starten Klimamodelle nicht mit Wetterdaten für einen Tag X, wie Wettermodelle. Stattdessen werden sie mit Annahmen über die Entwicklung von Treibhausgasen gefüttert. Diese beruhen auf verschiedenen Szenarien der gesellschaftlichen Entwicklung. Der AR6-Bericht arbeitet mit fünf Szenarien: Im extremen „Weiter-so“-Szenario steigt der CO2-Ausstoß der Menschheit ungebremst an, im günstigsten Szenario kann sie diese Emissionen sehr bald auf Netto-Null reduzieren. Im ersteren Fall würden wir am Ende des 21. Jahrhunderts bei einer um fast fünf Grad aufgeheizten Erde im Vergleich zur Mitte des 19. Jahrhunderts landen. Das Ergebnis wäre ein radikal veränderter Planet mit einigen Regionen, die wahrscheinlich nicht mehr bewohnbar wären.

Blick in die Zukunft

Abbildung 4. Simulation einer Wetterlage mit zwei Klimamodellen. Das Modell mit Zellen von 2,5 km Breite (rechts) erfasst die Wolkenstrukturen viel feiner als das Modell mit 80-km-Zellen (links). Das ermöglicht genauere Klimavorhersagen.© F. Ziemen, DKRZ

Aber woher weiß man, wie gut ein Klimamodell funktioniert? Dazu muss es als Test die Klimaentwicklung der Vergangenheit simulieren (s. [2]). Heutige Klimamodelle können das sehr genau. Ihre Problemzone ist die immer noch geringe Auflösung, typische Zellengrößen liegen bei 150 km. Das erschwert auch Aussagen über regionale Klimaentwicklungen. Deshalb forschen die Hamburger an hochauflösenden Klimamodellen, die mit viel feineren Zellen auch kleinräumige Prozesse in der Atmosphäre physikalisch genau beschreiben können. Im Projekt „Sapphire“ konnte ein Team um Cathy Hohenegger und Daniel Klocke am Institut schon großräumige Klimavorgänge in einer Auflösung von 2,5 Kilometern und noch feiner simulieren. Damit wird auch die Simulation von Wolken realistischer, die eine wichtige Rolle im Klima spielen (Abbildung 4). Eine schlankere Programmierung und leistungsfähigere Computer machen dies möglich.

In Zukunft werden Klimamodelle die Erde immer kleinräumiger erfassen können. Sie erlauben damit genauere Aussagen über die Folgen des menschlichen Handabdrucks im Klima. Das betrifft zum Beispiel regionale Zunahmen von Extremwetterlagen (s. [3]). Eines ist klar: Jedes eingesparte Kilogramm CO2 ist eine Investition in die Zukunft!

---------------------------------------------------------

 [1]Elke Maier: Geomax 22: Das sechste Element - Wie Forschung nach Kohlenstoff fahndet. https://www.max-wissen.de/max-hefte/geomax-22-kohlenstoffkreislauf/

[2] Geomax 19: Der Fingerabdruck des Monsuns - Wie Forschende im Buch der Klimageschichte blättern. https://www.max-wissen.de/max-hefte/geomax-19-monsun/

[3] Elke Maier: Geomax 25: Wetter extrem - Wenn sich Hitzewellen, Stürme und Starkregen häufen. https://www.max-wissen.de/max-hefte/geomax-25-wetter-extrem/


 * Der Artikel unter dem Titel: "Digitale Zwillinge der Erde - Wie Forschung physikalische Klimamodelle entwickelt" stammt aus dem TECHMAX 31-Heft der Max-Planck-Gesellschaft, das im November 2022 erschienen ist ((https://www.max-wissen.de/max-hefte/digitale-zwillinge-der-erde/). Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog übernommen.


Weiterführende Links

Jochen Marotzke: Im Maschinenraum des neuen IPCC-Berichts - Der 6. Sachstandsbericht des Weltklimarats (2.November 2022) Physik in unserer Zeit. https://doi.org/10.1002/piuz.202201651 (open access)

UBA-Erklärfilm: Treibhausgase und Treibhauseffekt. Video 4:10 min. https://www.youtube.com/watch?v=eI8L3wV3pBo 

6. IPCC-Sachstandsbericht:  https://www.ipcc.ch/assessment-report/ar6/

IIASA, 07.04.2022: Eindämmung des Klimawandels - Die Zeit drängt (6. IPCC-Sachstandsbericht)

 Klimamodelle im ScienceBlog

(Artikelserie der britischen Plattform Carbon Brief - https://www.carbonbrief.org/)

[1] Teil 1 (19.04.2018): Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung

[2] Teil 2 (31.05.2018): Klimamodelle: von einfachen zu hoch komplexen Modellen

[3] Teil 3 (21.06.2018): Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen

[4] Teil 4 (23.8.2018): Welche Fragen stellen Wissenschaftler an Klimamodelle , welche Experimente führen sie durch?

[5] Teil 5 (20.09.2018).: Wer betreibt Klimamodellierung und wie vergleichbar sind die Ergebnisse?

[6] Teil 6 (1.11.2018): Klimamodelle: wie werden diese validiert?

Teil 7 (06.12.2018): Grenzen der Klimamodellierungen


 

inge Thu, 10.11.2022 - 00:17

Comments

Wolfbeis (not verified)

Thu, 24.11.2022 - 13:10

Es ist alles schon gesagt, aber offensichtlich noch nicht von allen . . .

NASA: neue Weltraummission kartiert weltweit "Super-Emitter" des starken Treibhausgases Methan

NASA: neue Weltraummission kartiert weltweit "Super-Emitter" des starken Treibhausgases Methan

Do, 3.11.2022 — Redaktion

Redaktion

Icon Astronomie

Im Juli 2022 hat die NASA eine neue Weltraummission zur "Untersuchung von Mineralstaubquellen an der Erdoberfläche (Earth Surface Mineral Dust Source Investigation - EMIT) gestartet. Mit Hilfe eines an der Internationalen Raumstation angedockten, bildgebenden Spektrometers sollen die Mineralstaubquellen auf der Erdoberfläche charakterisiert und kartiert werden. Man erhofft daraus besser verstehen zu können, welche Auswirkungen atmosphärischer Mineralstaub auf das Klima hat. Das Spektrometer zeigt noch eine weitere, für den Kampf gegen den Klimawandel entscheidende Anwendungsmöglichkeit: es kann auch Emissionen des starken Treibhausgases Methan aufspüren und hat bereits mehr als 50 "Super-Emitter" identifiziert.*

Die NASA-Mission EMIT (Earth Surface Mineral Dust Source Investigation) kartiert das Vorkommen wichtiger Mineralien in den staubproduzierenden Wüsten der Erde - es sind Informationen, die uns helfen werden die Auswirkungen von atmosphärischem Staub auf das Klima zu verstehen. Darüber hinaus hat EMIT aber noch eine weitere, enorm wichtige Anwendungsmöglichkeit gezeigt: es kann das starke Treibhausgas Methan nachweisen.

Mit den Daten, die EMIT seit seiner Installation auf der Internationalen Raumstation im Juli gesammelt hat, konnten die Wissenschaftler bereits mehr als 50 "Super-Emitter" identifizieren: in Zentralasien, im Nahen Osten und im Südwesten der Vereinigten Staaten. "Super-Emittenten" sind typischerweise in den Bereichen fossile Brennstoff-Förderung, Abfallwirtschaft oder Landwirtschaft mit hohem Methanausstoß angesiedelt.

"Die Eindämmung der Methanemissionen ist ein Schlüssel zur Eindämmung der globalen Erwärmung. Diese aufregende neue Entwicklung wird den Forschern nicht nur dabei helfen, präziser festzulegen, woher die Methanlecks kommen, sondern auch Aufschluss darüber geben, wie sie beseitigt werden können - und zwar schnell", sagt NASA-Administrator Bill Nelson. "Die Internationale Raumstation und die mehr als zwei Dutzend Satelliten und Instrumente der NASA im Weltraum sind seit langem von unschätzbarem Wert, um Veränderungen des Erdklima festzustellen. EMIT erweist sich als ein wichtiges Instrument in unserem Werkzeugkasten, um dieses starke Treibhausgas zu messen - und es an der Quelle zu stoppen."

Methan absorbiert infrarotes Licht in charakteristischer Weise - es gibt eine sogenannten spektralen Fingerabdruck, den das bildgebende Spektrometer von EMIT mit hoher Genauigkeit und Präzision detektieren kann. Abbildung 1. Das Instrument kann zusätzlich auch Kohlendioxid messen.

Abbildung 1. Daten vom bildgebenden Spektrometer. Der Würfel (links) zeigt auf der Vorderseite Methanfahnen (lila, orange, gelb) über Turkmenistan (siehe auch Abbildung 3). Die Regenbogenfarben an den Seiten sind die spektralen Fingerabdrücke der entsprechenden Punkte auf der Vorderseite. Die blaue Linie im Diagramm (rechts) zeigt den Methan-Fingerabdruck, den EMIT entdeckt hat; die rote Linie ist der erwartete Fingerabdruck, der auf einer atmosphärischen Simulation beruht. Credits: NASA/JPL-Caltech

Die neuen Befunde stammen aus dem breiten Bereich des Planeten, der von der umkreisenden Raumstation erfasst wird, sowie aus der Fähigkeit von EMIT, Streifen der Erdoberfläche zu scannen, die Dutzende von Kilometern breit sind, und dabei Bereiche aufzulösen, die so klein sind wie ein Fußballfeld sind.

"Die Ergebnisse sind spektakulär und zeigen, wie wertvoll es ist, eine Perspektive auf globaler Ebene mit der Auflösung zu verbinden, die für die Identifizierung von Methan-Punktquellen bis hinunter auf die Ebene der Anlagen erforderlich ist", sagt David Thompson, EMIT-Forschungstechniker; er ist Senior-Forscher am Jet Propulsion Laboratory der NASA in Südkalifornien, das die Mission leitet. "Es handelt sich um eine einzigartige Fähigkeit, welche die Messlatte für Bestrebungen zur Zuordnung von Methanquellen und Eindämmung von anthropogenen Emissionen höher legen wird."

Verglichen mit Kohlendioxid macht Methan nur einen Bruchteil der vom Menschen verursachten Treibhausgasemissionen aus. Es Ist aber in den 20 Jahren nach seiner Freisetzung etwa 80-mal wirksamer in der Speicherung von Wärme in der Atmosphäre als Kohlendioxid. Während Kohlendioxid in der Atmosphäre Jahrhunderte überdauert, hält sich Methan etwa ein Jahrzehnt; dies bedeutet, dass die Atmosphäre auf eine Verringerung der Emissionen in einem ähnlichen Zeitrahmen reagiert und dies zu einer verlangsamten kurzfristigen Erwärmung führt.

Die Identifizierung von punktuellen Methanquellen kann ein wichtiger Schritt in diesem Prozess sein. Mit dem Wissen um die Standorte der großen Emittenten können die Betreiber von Anlagen, Ausrüstungen und Infrastrukturen, die das Gas freisetzen, schnell handeln, um die Emissionen zu begrenzen.

Die Feststellung von Methan durch EMIT erfolgte, als die Wissenschaftler die Genauigkeit der Mineraldaten des bildgebenden Spektrometers überprüften. Während seiner Mission wird EMIT Messungen von Oberflächenmineralien in trockenen Regionen Afrikas, Asiens, Nord- und Südamerikas und Australiens durchführen. Die Daten werden den Forschern helfen, die Rolle der Staubpartikel in der Luft bei der Erwärmung und Abkühlung der Erdatmosphäre und -oberfläche besser zu verstehen.

"Wir sind sehr gespannt darauf, wie die EMIT-Mineraldaten die Klimamodellierung verbessern werden", sagte Kate Calvin, leitende Wissenschaftlerin und Klimaberaterin der NASA. "Die zusätzliche Fähigkeit zum Nachweis von Methan bietet eine bemerkenswerte Möglichkeit zur Messung und Überwachung von Treibhausgasen, die zum Klimawandel beitragen."

Methanfahnen aufspüren

Das Untersuchungsgebiet der Mission deckt sich mit bekannten Methan-Hotspots auf der ganzen Welt, was es den Forschern ermöglicht, in diesen Regionen nach dem Gas zu suchen und die Fähigkeiten des bildgebenden Spektrometers zu testen.

Abbildung 2. Methanfahne über einem Ölfeld. Eine 3 km lange Methanfahne, die von der NASA-Mission Earth Surface Mineral Dust Source Investigation südöstlich von Carlsbad, New Mexico, entdeckt wurde. Methan ist ein starkes Treibhausgas, das die Wärme in der Atmosphäre viel effektiver als Kohlendioxid speichert. Credits: NASA/JPL-Caltech

"Einige der von EMIT entdeckten Methanfahnen gehören zu den größten, die je gesehen wurden - anders als alles, was bisher aus dem Weltraum beobachtet wurde", sagt Andrew Thorpe, ein Forschungstechniker am Jet Propulsion Laboratory (JPL) der NASA, der die EMIT-Methanforschung leitet. "Was wir in der kurzen Zeit gefunden haben, übertrifft bereits unsere Erwartungen".

So entdeckte das Instrument beispielsweise eine etwa 3,3 Kilometer lange Abgasfahne südöstlich von Carlsbad, New Mexico, im Permian Basin. Das Permian-Becken ist eines der größten Ölfelder der Welt und erstreckt sich über Teile des südöstlichen New Mexico und des westlichen Texas. Abbildung 2.

In Turkmenistan hat EMIT über Öl- und Gasinfrastrukturen östlich der Hafenstadt Hazar am Kaspischen Meer 12 Abgasfahnen identifiziert. Einige Abgasfahnen erstrecken sich über mehr als 32 Kilometer In westlicher Richtung. Abbildung 3.

Abbildung 3. Methanfahnen über Erdöl- und Erdgas-Förderanlagen. Östlich von Hazar, Turkmenistan, einer Hafenstadt am Kaspischen Meer, strömen 12 Methanschwaden nach Westen, einige von ihnen über eine Länge von mehr als 32 km. Die Methanfahnen wurden von der NASA-Mission EMIT entdeck. Credits: NASA/JPL-Caltech

Das Team identifizierte auch eine Methanfahne südlich von Teheran, Iran, mit einer Länge von mindestens 4,8 Kilometern, die von einer großen Abfallverwertungsanlage ausgeht. Methan ist ein Nebenprodukt der Zersetzung, und Mülldeponien können eine wichtige Quelle sein. Abbildung 4.

Abbildung 4. Methanfahne über einer Mülldeponie. Eine mindestens 4,8 Kilometer lange Methanfahne steigt südlich von Teheran im Iran in die Atmosphäre auf. Die Wolke, die von der NASA-Mission Earth Surface Mineral Dust Source Investigation entdeckt wurde, stammt von einer großen Mülldeponie, in der Methan ein Nebenprodukt der Zersetzung ist.Credits: NASA/JPL-Caltech

Die Wissenschaftler schätzen , dass stündlich etwa 18.300 Kilogramm Methan am Standort Perm abgegeben werden, 50.400 Kilogramm aus den turkmenischen Quellen und 8.500 Kilogramm am Standort im Iran.

Die turkmenischen Quellen haben zusammen eine ähnliche Ausstoßrate wie das Gasleck im Aliso Canyon im Jahr 2015, bei dem zeitweise mehr als 50.000 Kilogramm pro Stunde austraten. Die Katastrophe im Gebiet von Los Angeles war eine der größten Methanfreisetzungen in der Geschichte der USA.

Mit einer breiten, wiederholten Erfassung von seinem Aussichtspunkt auf der Raumstation aus, wird EMIT möglicherweise Hunderte von Super-Emittern finden - einige, die man bereits aus Messungen in der Luft, im Weltraum oder am Boden kennt, andere, die bisher unbekannt sind.

"Bei der weiteren Erkundung des Planeten wird EMIT Orte beobachten, an denen bisher niemand nach Treibhausgasemittenten gesucht hat, und es wird Abgasfahnen finden, die niemand erwartet hat", so Robert Green, leitender Forscher von EMIT am JPL.

EMIT ist das erste aus einer neuen Klasse von weltraumgestützten bildgebenden Spektrometern zur Untersuchung der Erde. Ein Beispiel ist der Carbon Plume Mapper (CPM), ein Instrument, das am JPL entwickelt wird und Methan und Kohlendioxid aufspüren soll. Das JPL arbeitet mit der gemeinnützigen Organisation Carbon Mapper und anderen Partnern zusammen, um Ende 2023 zwei mit CPM ausgestattete Satelliten zu starten.


* Der vorliegende Artikel ist unter dem Titel " Methane ‘Super-Emitters’ Mapped by NASA’s New Earth Space Mission" am 25.Oktober 2022 auf der Web-Seite der NASA erschienen, https://earth.jpl.nasa.gov/emit/resources/100/emit-launch-and-post-launch-video/.  Der unter einer cc-by stehende Artikel wurde von der Redaktion möglichst wortgetreu übersetzt.


Links

 EMIT launch and post-launch video 2:30 min. A video covering EMIT's launch and early post-launch activities, including first light data. https://earth.jpl.nasa.gov/emit/resources/100/emit-launch-and-post-launch-video/

Einige Artikel über Methan-Emissionen im ScienceBlog

IIASA, 7.4.2022: Eindämmung des Klimawandels - Die Zeit drängt (6. IPCC-Sachstandsbericht)

Redaktion, 9.11.2020: Bäume und Insekten emittieren Methan - wie geschieht das?

IIASA, 23.7.2020: Es genügt nicht CO₂-Emissionen zu limitieren, auch der Methanausstoß muss reduziert werden.

Redaktion, 07.11.2019: Permafrost - Moorgebiete: den Boden verlieren in einer wärmer werdenden Welt.

IIASA, 25.9.2015: Verringerung kurzlebiger Schadstoffe – davon profitieren Luftqualität und Klima 36 Rattan Lal, 27.11.2015: Boden - Der große Kohlenstoffspeicher


inge Fri, 04.11.2022 - 00:46

Verringerung der Lärmbelastung durch abgelenkte Schallwellen und gummiasphaltierte Straßen

Verringerung der Lärmbelastung durch abgelenkte Schallwellen und gummiasphaltierte Straßen

Do, 27.10.2022 — Redaktion

Redaktion

Icon MINT

Laut WHO rangiert Umgebungslärm nach Luftverschmutzung an zweiter Stelle als Verursacher von Gesundheitsproblemen. Der Verkehr ist eine der Hauptursachen für beide Probleme. Neben Anstrengungen den Verkehr insgesamt zu reduzieren, wird an Lösungen zur Minimierung der Lärmbelastung gearbeitet. Zwei EU-finanzierte Projekte haben dazu marktfähige Lösungen entwickelt: Im WHISSPER-Projekt sind dies Lärmschutzwände, die mittels einer innovativen Technologie den Schall nach oben ablenken; im SILENT RUBBER PAVE-Projekt führt gummimodifizierter Asphalt zur erhöhten Absorption des Schalls.*

In den Städten der Europäischen Union stellt Lärm neben der Luftverschmutzung ein erhebliches Gesundheitsrisiko dar. Rund 22 Millionen Menschen leiden unter chronisch hoher Lärmbelastung und jedes Jahr sterben 12 000 Menschen vorzeitig an den Folgen einer langfristigen Belastung durch Umweltlärm, wobei der Verkehr eine der Hauptquellen ist. Abbildung 1.

Abbildung 2. Eine zentrale Herausforderung in städtischen Gebieten ist die Begrenzung der verkehrsbedingten Lärmbelastung. Bildnachweis: Pexels via Pixabay

Doch so wie beim Klimawandel geht es der EU bei der Bekämpfung der Lärmbelastung nicht nur um Schadensbegrenzung, sondern auch um Anpassung. Zwar kann der Verkehr durch eine bessere Stadtplanung reduziert werden, doch der motorisierte Verkehr wird auch weiterhin Lärm emittieren, und eine zentrale Herausforderung besteht darin, Wege zu finden, die Auswirkungen auf die Menschen zu begrenzen.

Hier betritt Bart Willems die Szene. Er ist begeistert von einer Art von Wand, die seiner Meinung nach die Menschen mehr vereinen als trennen kann. Willems war an einem Forschungsprojekt beteiligt, bei dem es darum ging, belastenden Straßen- und Eisenbahnlärm zu reduzieren, indem man Barrieren einsetzt, die Schallwellen ablenken und sie von den Gebäuden wegleiten. Das Phänomen ist als Beugung bekannt.

Nervenaufreibend

Das Ziel war ein ernstzunehmendes, jedoch unterschätztes Umweltproblem aus einer neuen Sichtweise anzugehen. Konventionell existieren zwei Methoden zur Lärmreduktion: Blockierung des Schalls durch hohe Lärmschutzwände und Verwendung von Materialien für Straßen und Schienen, die den Lärm besser absorbieren. Die Beugung bietet eine dritte Lösung", sagte Willems, dessen niederländisches Unternehmen 4Silence BV (https://www.4silence.com/) das EU-Horizon-finanzierte WHISSPER-Projekt koordiniert hat.

Das niederländische Unternehmen 4Silence hat Wände mit unterschiedlich breiten Rillen entwickelt, die den horizontalen Lärm reduzieren, indem sie ihn in vertikaler Richtung nach oben ablenken. Die Methode wird im WHISSPER-Projekt folgendermaßen beschrieben [1]: „Die Innovation nutzt das Prinzip aus, dass Schallwellen durch Überlagerung mit anderen Schallwellen gebrochen werden. Dabei erzeugen die aus vorbeifahrenden Fahrzeuge in die Rillen schießenden Schallwellen Resonanz. Der daraus entstehende Luftwiderstand hemmt wiederum die horizontale Ausbreitung der Schallwellen. Da sich Schall ähnlich wie Wasser den Weg des geringsten Widerstands sucht, tendieren problematische Schallwellen dazu, der in den Rillen erzeugten Resonanz nach oben „auszuweichen“, was die Lärmbelastung für das Straßenumfeld reduziert. Die innovativen Lärmschutzwände können auch neben Zuggleisen angebracht werden."

Mit dieser Technologie können niedrigere Wände verwendet werden, um mehr Lärm von den Menschen in der Umgebung abzulenken. "Wenn eine unserer Schallschutzwände einen Meter hoch ist, reduziert sie den Lärm um sieben bis neun Dezibel", so Willems. Eine normale Wand müsste drei Meter hoch sein, um den gleichen Effekt zu erzielen. Abbildung 2.

Abbildung 2. Ablenkung der Schallwellen: Die Lärmschutzwand WHISwall, installiert in Belgien an der N445 in der Nähe von Zele. Ein 1,00 m hohes Element in Kombination mit einem beugenden Element (Resonator) führt zu einer Lärmreduzierung, die einer 3,00 m hohen Schallschutzwand entspricht. © 4Silence, 2022

Diese Technologie wurde im Rahmen des WHISSPER-Projekts von 2019 bis Anfang 2022 getestet. Pilotversuche wurden in den Niederlanden, Belgien, Deutschland und Dänemark durchgeführt und die signifikante Minderung des Geräuschpegels und die Marktfähigkeit demonstriert; nach Angaben des Unternehmens sind die schallumlenkenden Wände einfach zu installieren und zu warten. Man will jetzt damit auf den Markt kommen.

"Wir haben inzwischen mit unseren ersten kommerziellen Projekten in den Niederlanden begonnen", so Willems. "Und wir sind bestrebt, unsere Wände in verschiedenen Ländern zu vermarkten."

Für diese Initiativen arbeitet 4Silence generell mit lokalen Behörden, wie denen der Stadt Eindhoven oder der Provinz Utrecht zusammen. In Deutschland und im Vereinigten Königreich wurden kommerzielle Projekte für das Staatliche Bauamt Augsburg und für Transport for London gestartet. Für die kommenden Monate sind neue Kunden aus ganz Europa angekündigt, wobei 4Silence Kunden in Ländern wie Belgien und Dänemark ins Auge fasst.

Entlastung des Budgets

Lärmschutzwände entlasten auch die öffentlichen Haushalte, denn sie sind nur halb so teuer wie herkömmliche Maßnahmen zur Lärmreduktion. Die öffentlichen Kassen für Infrastrukturen sind bereits stark strapaziert. Die Ausgaben für die Bekämpfung von Straßen- und Schienenlärm belaufen sich in Europa auf etwa 5,4 Milliarden Euro pro Jahr, das sind 6 % der jährlichen Gesamtausgaben für beide Verkehrsträger.

Doch die Belastung der Menschen durch Verkehrslärm nimmt in der EU zu. Mehr als jeder vierte Europäer ist zu Hause, in der Schule und am Arbeitsplatz gesundheitsgefährdenden Lärmpegeln ausgesetzt.

Gute Vibrationen

Inzwischen wird an Verbesserungen der klassischen Methoden zur Bekämpfung von Verkehrslärm gearbeitet. Ein separates, von Horizon finanziertes Projekt namens SILENT RUBBER PAVE [2] macht Asphalt auf umweltfreundliche Weise schwammiger und hoffentlich leiser. An dem Projekt ist ein spanisches Unternehmen namens Cirtec (https://cirtec.es/) beteiligt. Abbildung 3.

Abbildung 3. Der Flüsterbelag wird aufgebracht (Quelle: [2] © SILENT RUBBER PAVE)

Cirtec steht kurz vor dem Verkauf eines neuen Asphaltzusatzes namens RARx, der aus Gummi von Altreifen hergestellt wird. RARx wird dem Asphalt beigemischt, um einen Teil des Straßenverkehrslärms zu dämpfen.

Die Beimischung von Gummipulver zu Asphalt (auch als Bitumen bekannt) wurde zwar schon früher ausprobiert, aber es ergaben sich technische Schwierigkeiten. "Früher mischten die Bauunternehmer die Gummimischung direkt in das Bitumen, was viele Probleme verursachte", so Guillermo Rodríguez Marfil von Cirtec. "Probleme mit dem Mischung und mit der anschließenden Reinigung der Gerätschaften."

Bei RARx wird das Gummipulver vom Hersteller mit mineralischen Zusätzen wie Bitumen gemischt, so dass es für die Asphalthersteller einfacher zu verarbeiten ist. Rodríguez Marfil zufolge wird der Lärm der Fahrzeuge um 4-5 Dezibel reduziert. "Das Gemisch verringert die Steifigkeit des Asphalts, was zu einer geringeren Vibration im Reifen und damit zu weniger Lärm führt", sagt er.

Außerdem kann damit die Lebensdauer des Straßenbelags verlängert und so die Wartungskosten reduziert werden. Zudem entspricht RARx dem Recycling -Gedanken, da die Gummimischung aus Altreifen hergestellt wird.

RARx wird derzeit in Ländern wie Spanien eingeführt. Tests und Bauprojekte wurden auch in Deutschland, Italien, Portugal und Irland durchgeführt, teilweise unter dem Dach von SILENT RUBBER PAVE. Neben der Produktion in Spanien wird RARx auch in einer zweiten Fabrik hergestellt, die derzeit in Mexiko gebaut wird - laut Rodríguez Marfil der größte Markt für Cirtec.

Die Zukunft sieht rosig aus", sagte er. Wir arbeiten auf mehreren Kontinenten und unser Einfluss wächst. Wir sparen den öffentlichen Verwaltungen Geld und verringern den Lärm für die Bürger.

Regulatorische Hürden

Cirtec und 4Silence hoffen nicht nur auf neue Märkte für ihre neuen Produkte zur Lärmminderung, sondern auch auf Änderungen der Rechtsvorschriften, um ihr Geschäft auszubauen.

"Da Straßen oft von Regierungen und deren Subunternehmern gebaut werden, ist diese Tätigkeit stark reguliert. Im Straßenbau wird seit Ewigkeiten das Gleiche getan, und dies lässt sich nur schwer überwinden," so Rodríguez Marfil. Willems von 4Silence schließt sich diesem Standpunkt an: "Die Infrastruktur entwickelt sich nicht schnell, vor allem, wenn Gesetze geändert werden müssen, bevor wir unsere Technologie einführen können", sagt er. "Wir sind dennoch optimistisch, dass die Menschen in Europa in den kommenden drei Jahren an den Anblick unserer Barrieren gewöhnt sein werden."


 [1] WHISSPER-Projekt (06. 2019 - 03. 2022) - Ergebnisse: : https://cordis.europa.eu/article/id/442164-sound-wave-bending-innovation-cuts-noise-pollution/de . DOI10.3030/859337

[2] SILENT RUBBER PAVE-Projekt (04.2017 - 31.03.2020) - Ergebnisse: https://cordis.europa.eu/article/id/422356-novel-asphalt-additive-for-better-safer-and-environment-friendly-roads/de  DOI10.3030/760564


*Dieser Artikel wurde zuerst am 21.Oktober 2022 von Tom Cassauwers in Horizon, the EU Research and Innovation Magazine unter dem Titel "Reducing noise pollution with acoustic walls and rubberised roads https://ec.europa.eu/research-and-innovation/en/horizon-magazine/reducing-noise-pollution-acoustic-walls-and-rubberised-roads  publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt Ein Absatz zur Funktion der Lärmschutzwände und Abbildung 2. wurden aus [1] eingefügt, Abbildung 3 stammt aus [2].


Video: Horizon EU: Reducing noise pollution with acoustic walls and rubberised roads (1:17 min) https://www.youtube.com/watch?v=x5A9woyJd_w&t=77s


 

inge Thu, 27.10.2022 - 13:04

Neurokardiologie - Herz und Gehirn bilden ein System

Neurokardiologie - Herz und Gehirn bilden ein System

Do, 13.10.2022 — Nora Schultz

Nora SchultzIcon Gehirn

Das Herz spielt eine wichtige Rolle für das Gehirn. Nicht nur seine unmittelbare Gesundheit hängt daran: Je besser das Herz, desto besser das Gehirn. Auch schlägt Stress direkt durch aufs Gehirn. Bekannteste Krankheit ist vermutlich das Broken-Heart-Syndrom, doch es gibt einige mehr. Selbst auf Zellebene gibt es verblüffende Parallelen, weshalb die neue Richtung der Neurokardiologie Herz und Hirn als System betrachtet. Damit es ein Leben lang rund um die Uhr situationsgerecht pocht, hat es sich einige Tricks vom Gehirn abgeschaut und spezielle Muskelzellen in ein elektrisch erregbares Kommunikationsnetzwerk umgewandelt. Die Entwicklungsbiologin Nora Schultz gibt einen Überblick über das System "Herz-Gehirn".*

Neurokardiologie: Herz und Hirn als System betrachtet.

Beherzte Entscheidungen; Worte, die von Herzen kommen; Herzen, die auf der Zunge getragen werden oder in die Hose rutschen – Vieles, was wir im Kopf wälzen, scheint eng verknüpft mit dem Organ, das in unserer Brust schlägt (Abbildung 1), Aristoteles verortete im Herzen sogar den Sitz der Seele. Das Gehirn dagegen betrachtete er als bloßes Kühlsystem. Heute wissen wir, dass die Emotionen, die wir „im Herzen“ spüren, in Wirklichkeit durch Neuronengewitter im Kopf entstehen. Längst mehren sich aber die Hinweise auf Parallelen und Verbindungen zwischen Herz und Hirn, die biologisch und medizinisch in vielerlei Hinsicht bedeutsam sind: Psychische Gesundheit und Herzgesundheit hängen oft eng zusammen.

Ein Herzensleben

Das Herz spielt eine Hauptrolle im Leben, fast von Anbeginn. Nur in den ersten beiden Wochen nach der Befruchtung ist der menschliche Embryo herzlos. Kurz nachdem er sich in die Gebärmutter eingenistet hat, verschmelzen kleine Hohlräume in seinem Inneren zu einem Schlauch, der optisch zunächst noch an eine Nacktschnecke erinnert. Zu Beginn der vierten Entwicklungswoche fängt der Herzschlauch an zu pumpen – schon jetzt im Ultraschall messbar. In den folgenden fünf Wochen kringelt sich der Schlauch in eine Schleifenform. Anschließend bilden sich die verschiedenen Herzkammern aus, Wände und Klappen entstehen, um die Kammern voneinander abzutrennen. Und schließlich formen sich die großen Blutgefäße.

In nur neun Wochen ist das menschliche Herz im Wesentlichen fertig konstruiert und verrichtet fortan ein Leben lang seinen Dienst. Schlägt es ganz zu Beginn der Entwicklung noch gemächlich und ähnlich wie das Herz der Mutter etwa 80-mal pro Minute, drückt das Ungeborene bald danach erst einmal gehörig auf die Tube. In der siebten Entwicklungswoche rast das sich formende Herzchen mit 185 Schlägen pro Minute und verlangsamt dann nach und nach bis zum Erreichen des Erwachsenenalters wieder auf durchschnittlich 80 Schläge pro Minute.

Bei gesunden Erwachsenen pumpt jeder Schlag etwa 80 Milliliter Blut in den Körper. Pro Minute sind das ungefähr 5 Liter – etwa die gesamte Blutmenge im Körper. Regen wir uns auf oder strengen wir uns an, schafft das Herz zeitweise und je nach Alter mehr als 200 Schläge und bis zu 20 Liter pro Minute. Selbst wenn man nur die erwachsenen Durchschnittswerte zugrunde legt, kommt ein Mensch so auf über 115.000 Herzschläge und 7.200 Liter gepumptes Blut pro Tag. Das macht rund 42 Millionen Herzschläge und knapp 263.000 Liter Blut pro Lebensjahr und knapp dreieinhalb Milliarden Schläge sowie über 210 Millionen Liter Blut in einem 80-jährigen Menschenleben.

Zentrum des Blutkreislaufs

Der südafrikanische Chirurg Christiaan Barnard, der 1967 die erste Herztransplantation durchgeführt hat, soll gesagt haben: „Das Herz ist nur eine Pumpe.“ Ganz so schlicht sehen Fachleute die Sache heute nicht mehr. Doch ist gerade die Pumpfunktion des Herzens zentral für unser Leben. Wir sind darauf angewiesen, dass das Herz als Motor unseres Blutkreislaufs zuverlässig seinen Dienst verrichtet – und zwar rund um die Uhr.

Schema des menschlichen Herzens (Quelle: Jakov - Eigenes Werk based on image by Yaddah, https://commons.wikimedia.org/w/index.php?curid=3327983. Lizenz: cc-by-sa.)

Das Grundprinzip ist einfach: Das Herz besteht aus zwei von der Herzscheidewand getrennten Hälften. Jede Hälfte ist noch einmal in einen Vorhof und eine Kammer unterteilt. Blut kann nur auf einer Einbahnstraße durch die Herzhälften fließen. Dafür sorgen die Herzklappen, die sich jeweils nur in eine Richtung öffnen. Die zwei Hälften des Herzens bedienen zwei unterschiedliche Kreisläufe. Der Körperkreislauf versorgt den Körper mit Sauerstoff. Sauerstoffreiches Blut fließt über die Lungenvenen in den Vorhof und dann in die Kammer der linken Herzhälfte. Mit ihren kraftvollen Pumpbewegungen schickt die linke Herzkammer das sauerstoffreiche Blut anschließend über die Hauptschlagader bis in die entlegensten feinen Blutgefäße des Körperkreislaufs, die Kapillaren, wo das Blut Sauerstoff und Nährstoffe an die vielfältigen Gewebe abgibt. Auf der Rückreise fließt das nun sauerstoffarme Blut durch Körpervenen zurück zum Herzen: in den Vorhof und die Kammer der rechten Herzhälfte. Von hier aus gelangt es über die Lungenarterien in die Lunge, wo es wieder mit Sauerstoff angereichert wird. Dieser kleinere Kreislauf ist bekannt als Lungenkreislauf.

Arbeitstiere und Impulsgeber

Damit das Herz jeden Winkel des Körpers im Dauereinsatz versorgen kann – und zwar immer genau abgestimmt auf die aktuellen Bedürfnisse – verfügt es über eine Reihe von besonderen Eigenschaften, die teilweise erstaunliche Parallelen zum Gehirn aufweisen. Vereinfacht betrachtet arbeiten in der Hauptsache zwei Zelltypen im Herzen: die Zellen der Arbeitsmuskulatur und die Zellen des Erregungsleitungssystems. Wie der Name schon vermuten lässt, sorgt die Arbeitsmuskulatur dafür, dass das Herz sich verlässlich und kräftig rhythmisch zusammenzieht. Im Unterschied zur Skelettmuskulatur, deren Zellen schon vor der Geburt zu langen Muskelfasern mit mehreren Zellkernen verschmelzen, bewahren Herzmuskelzellen ihre Individualität. Sie enthalten meist höchstens zwei Zellkerne, die bei einer letzten DNA-Verdopplung entstehen, bevor die Zelle den Zellzyklus für immer verlässt.

Einzelkämpfer sind Herzmuskelzellen deshalb noch lange nicht. Vielmehr verketten sie sich über verzweigte Endungen mit ihren Nachbarn und bilden so ebenfalls lange Muskelfasern. An den Verbindungsstellen sitzen viele kleine Poren, die so genannten Gap Junctions. Über diese kann Zellplasma direkt von Zelle zu Zelle fließen. So lassen sich nicht nur chemische Botenstoffe, sondern – über den Austausch von Ionen – auch elektrische Signale besonders schnell übertragen. Das ist nützlich, wenn es wie im Herzmuskel gilt, die rhythmische Aktivität vieler Zellen zu koordinieren. Ähnliches findet sich im Gehirn: Auch hier verbinden Gap Junctions bestimmte, eng zusammenarbeitende Nervenzellen, so etwa im Hippocampus, der zentralen Schaltstelle zwischen dem Kurz- und Langzeitgedächtnis.

Noch mehr Parallelen zum Gehirn weist das Erregungsleitungssystem auf. Es besteht aus abgewandelten Herzmuskelzellen, die sich zu einem komplexen und mit diversen Backup-Mechanismen ausgestatteten Signalnetzwerk verschalten. Dieses Netzwerk übernimmt die Bildung und das Weiterleiten der elektrischen Impulse, die der Arbeitsmuskulatur ihren Takt vorgeben – und das fast ohne Zutun des Nervensystems. Herzmuskelzellen im Erregungsleitungssystem können sich weniger gut zusammenziehen als ihre Kolleginnen in der Arbeitsmuskulatur, sind dafür aber Spezialistinnen im Erzeugen und Weiterleiten von elektrischen Impulsen, den Aktionspotentialen.

Das Erregungsleitungssystem besteht aus mehreren Komponenten. Die primären Impulsgeber sind die Schrittmacherzellen im Sinusknoten. Hierbei handelt es sich um eine rund ein bis zwei Zentimeter lange, spindelförmige Struktur in der Wand des rechten Herzvorhofs. Die Schrittmacherzellen liefern spontan und idealerweise regelmäßig die elektrischen Impulse, die jeden Herzschlag in Gang bringen. Das funktioniert, weil Schrittmacherzellen die Fähigkeit haben, sich selbst immer wieder zu depolarisieren und so rhythmisch neue Aktionspotentiale zu erzeugen. Auf jedes Aktionspotential in elektrisch erregbaren Zellen folgt eine Repolarisationsphase, während der die Natriumkanäle in der Zellmembran sich schließen und den weiteren Einstrom positiv geladener Natriumionen stoppen. Gleichzeitig werden ebenfalls positiv geladene Kaliumionen aus der Zelle herausgepumpt. So wird die Ladung im Zellinnern nach und nach wieder negativer, die Zelle nähert sich ihrem Ruhepotential an. Die meisten elektrisch erregbaren Zellen – einschließlich Neuronen und Zellen der Herzarbeitsmuskulatur – verharren nun eine Weile im Ruhepotential. Anders die Schrittmacherzellen im Sinusknoten des Herzens: Sie verfügen über ganz besondere Natriumkanäle, die sich beim Erreichen der Hyperpolarisation sofort wieder öffnen. Das Zellinnere wird umgehend wieder positiver und es kommt zu einer erneuten Depolarisation.

Erregungsleitungssystem des menschlichen Herzens. 1: Sinusknoten, 2: Atrioventrikular(AV)knoten. ((Quelle: Heuser https://de.wikipedia.org/wiki/Sinusknoten#/media/Datei:Reizleitungssystem_1.png. Lizenz: cc-by) .

Dank dieser besonderen Ausstattung können die Schrittmacherzellen im Sinusknoten als autonome Taktgeber fungieren. Ganz unabhängig vom Rest des Körpers sind sie allerdings nicht. Vor allem das autonome Nervensystem kann über seine Transmitter die Entladungsfrequenz des Sinusknotens, und damit die gesamte Herzfrequenz, sowohl senken als auch erhöhen. Eine wichtige Rolle spielt dabei die Regulierung des Calcium-Haushalts – auch dies eine Gemeinsamkeit mit dem Gehirn, wo calciumabhängige Signale vielfältig an der Modulierung von Synapsen und Netzwerken mitwirken.

Vom Sinusknoten wandern die Impulse in den Atrioventrikularknoten, der in der Wand zwischen dem rechten und linken Vorhof nahe der Grenze zu den Herzkammern sitzt, und weiter in das so genannte His-Bündel. Es verläuft in zwei Strängen (Tawara-Schenkel) entlang der Herzscheidewand in Richtung Herzspitze. Dort verzweigen sie sich in die letzte Komponente des Erregungsleitungssystems, die so genannten Purkinje-Fasern. Diese sind mit den Zellketten der Arbeitsmuskulatur verbunden und diktieren ihnen unmittelbar den Takt. Interessanterweise können auch die Zellen, die im Erregungsleitungssystem dem Sinusknoten nachgeschaltet sind, als Schrittmacher arbeiten. Im Normalbetrieb kommen sie allerdings nicht zum Zug, können aber zum Beispiel einspringen, wenn der Sinusnoten ausfällt.

Energiehunger und Regenerationsfähigkeit

Das ständige Erzeugen und Weiterleiten elektrischer Impulse sowie die unermüdliche Pumpleistung der Arbeitsmuskulatur sind energetisch teuer. Um die Energieversorgung zu gewährleisten, enthalten Herzmuskelzellen daher besonders viele Mitochondrien. Dies ist eine weitere Parallele zum Gehirn, dessen Nervenzellen ebenfalls sehr energiehungrig sind. Beide Organe teilen sich noch eine Gemeinsamkeit: Die große Mehrheit ihrer Zellen verschreibt sich spätestens kurz nach der Geburt ihren spezialisierten Aufgaben, und zwar so rigoros, dass sie darüber die Fähigkeit verliert, sich zu teilen. Das bedeutet, dass beide Gewebe sich nach Verletzung oder Erkrankung, etwa einem Infarkt, kaum regenerieren können.

Lange dachte man, das menschliche Herz sei überhaupt nicht regenerationsfähig. Inzwischen steht fest, dass Regeneration zwar möglich ist, aber nicht in einem Maß, um auch größere Schäden reparieren zu können. Warum das so ist, dass andere Lebewesen wie beispielsweise der Zebrafisch keine Mühe haben, neues Herzgewebe zu bilden, weiß man bis heute nicht genau. Es wäre denkbar, dass diese Unfähigkeit direkt mit dem großen Energiebedarf von Herz und Hirn zusammenhängt. Wo besonders viele Mitochondrien energiehaltige Stoffe mit Hilfe von Sauerstoff zu ATP, der universellen Energiewährung des Körpers, verarbeiten, entstehen auch mehr freie Radikale, die aufgrund ihrer großen chemischen Reaktionsfreudigkeit die DNA schädigen können. In Zellen, die sich noch teilen, bedeutet dies ein erhöhtes Tumorrisiko. Der energieintensive Betrieb in Herz und Hirn ist also möglicherweise nicht kompatibel mit starker Zellteilung.

Wechselwirkungen

Die Ähnlichkeiten zwischen Herz und Gehirn sind umso interessanter, je näher man die vielfältigen Zusammenhänge und Wechselwirkungen zwischen beiden Organen betrachtet. Inzwischen ist bekannt, dass psychische Erkrankungen und Herzkrankheiten eng zusammenhängen. Funktioniert das Herz nicht gut, können Probleme in der Blutversorgung des Gehirns schnell zu Beeinträchtigungen seiner Funktionen führen – zum Beispiel zu einer Demenz ▸ Wenn Herz und Gehirn gemeinsam leiden. Umgekehrt kann nicht nur intensive physische Aktivität das Herz an die Belastungsgrenze treiben, sondern auch großer emotionaler Stress seine Funktionen bedrohen ▸ Wie Stress im Kopf dem Herzen schadet . Wie genau der Austausch zwischen beiden Systemen funktioniert ▸ Herz und Gehirn – das dynamische Duo und welche Faktoren sie aus dem Gleichgewicht bringen können ist daher zunehmend Gegenstand der Forschung. Das Herz, so zeigt sich dabei immer deutlicher, ist letztlich weder Sitz der Seele noch schnöde Pumpe, sondern hat ein bisschen was von beidem.


* Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Im Fokus des Monats Oktober steht das Thema "Herz". Der vorliegende Artikel ist am 1.10.2022 unter dem Titel: "Mehr als eine Pumpe" https://www.dasgehirn.info/grundlagen/herz/mehr-als-nur-eine-pumpe erschienen. Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog gestellt, die Abbildungen von der Redaktion eingefügt.


Zum Weiterlesen

Koehler U, Hildebrandt O, Hildebrandt W, Aumüller G. Herz und Herz-Kreislauf-System in der (kultur-)historischen Betrachtung [Historical (cultural) view of the heart and cardiovascular system]. Herz . 2021;46(Suppl 1):33-40. doi:10.1007/s00059-020-04914-2

 Elhelaly, Waleed M et al.: Redox Regulation of Heart Regeneration: An Evolutionary Tradeoff. Frontiers in cell and developmental biology vol. 4 137. 15 Dec. 2016, doi:10.3389/fcell.2016.00137

 Islam MR, Lbik D, Sakib MS, et al. Epigenetic gene expression links heart failure to memory impairment. EMBO Mol Med. 2021;13(3):e11900. doi:10.15252/emmm.201911900


 

inge Thu, 13.10.2022 - 22:26

Das Zeitalter des Pangenoms ist angebrochen

Das Zeitalter des Pangenoms ist angebrochen

Fr, 21.10.2022 — Ricki Lewis

Ricki LewisIcon Molekularbiologie

Nach der Entschlüsselung des menschlichen Genoms im Jahr 2001, wurden die hochfliegenden Erwartungen, man könne aus genetischen Veränderungen sehr bald Ursachen und Therapien für diverse Krankheiten entdecken, rasch enttäuscht. Nach der Analyse von zigtausenden unterschiedlichen Genomen stellt sich heraus, dass unser Erbgut viel stärker variiert als man bisher glaubte, und die Bedeutung einzelner Variationen unklar ist. Das Humane Pangenom-Projekt macht es sich zur Aufgabe die Variabilität des menschlichen Genoms zu kartieren und aus Sequenzanalysen von mehreren Hundert Menschen aus verschiedenen Weltregionen ein sogenanntes Referenz Genom zu erstellen, das Abweichungen in Zusammenhang mit physiologischen und pathologischen Unterschieden bringen kann. Die Genetikerin Ricki Lewis berichtet darüber.*

Die aus dem Griechischen stammende Vorsilbe "pan" bedeutet "alles, jedes, ganz und allumfassend". In der Sprache der Genetik ist das "menschliche Pangenom" mit "vollständige Referenz für die Diversität des menschlichen Genoms" zu übersetzen. Es ist als eine neue Art von Kartierung gedacht, die alle Variationen der Sequenz von 3.05 Milliarden DNA-Basenpaaren - den Bausteinen eines Genoms - darstellt, plus oder minus einiger weniger kurzer, sich wiederholender Sequenzen. Die Darstellung ist so dicht gepackt, dass sie einer Karte des New Yorker U-Bahn-Systems ähnelt.

In der Schaffung einer "Genom-Referenzdarstellung, die die gesamte menschliche Genomvariation erfassen und die Forschung über die gesamte Diversität der Populationen unterstützen kann" ist das Human Pangenome Reference Consortium federführend.

Eine solche Ressource ist natürlich längst überfällig. Jetzt, da bereits die Genome von mehr als 30 Millionen Menschen sequenziert worden sind, klingt es merkwürdig, von "dem" menschlichen Genom zu sprechen, so als wären wir alle identisch in Bezug auf jede der vier DNA-Basen - A, C, T oder G -, die jeden der 3 Milliarden Speicherplätze belegen. Wir sind keine Klone. Allerdings brauchen die meisten Biotechnologien etwa drei Jahrzehnte, um ausgereift zu sein, und da das Humangenom-Projekt Anfang der 1990er Jahre begonnen wurde, scheinen die Dinge nun genau im Zeitplan für eine umfassendere Betrachtung zu liegen.

Als ich Mitte der 1980er Jahre zum ersten Mal an Sitzungen teilnahm, auf denen die Idee der Sequenzierung des menschlichen Genoms aufkam, rechnete man damit, dass diese Aufgabe mindestens ein Jahrzehnt in Anspruch nehmen würde. Im ersten Entwurf der menschlichen Genomsequenz, die 2001 vom National Human Genome Research Institute (NHGRI) und seinen Partnern veröffentlicht wurde, stammten davon etwa 93 % von nur elf Personen, wobei 70 % vom gesamten von einem einzigen Mann kamen, der zu 37 % afrikanischer und zu 57 % europäischer Abstammung war. Das menschliche Genom, das von Celera Genomics veröffentlicht wurde, stammte Berichten zufolge von Craig Venter, dem Leiter dieses Unternehmens.

Danach begannen Genomsequenzen von Prominenten einzutrudeln, von anderen reichen Leuten, von einer Handvoll Journalisten, die Artikel und Bücher veröffentlichten, in denen sie ihr genetisches Selbst enthüllten, und von einer Reihe von "ersten Testpersonen" - Afrikanern, Han-Chinesen und mehreren Vertretern moderner Völker mit alten Wurzeln.

Es ist schon ein wenig verwunderlich, dass wir heute mit unseren Smartphones auf unsere Daten der Genomsequenzen zugreifen können.

Als das Humangenom-Projekt auslief, begannen die Forscher, die Diversität des menschlichen Genoms zu katalogisieren, indem sie im Genom einzelne Basen-Positionen identifizierten, die sich von Person zu Person unterscheiden. Dies sind sogenannte single nucleotid polymorphisms (Einzelnukleotid-Polymorphismen - SNPs). Als die Ansammlungen von SNPs auf den Chromosomen immer dichter wurden, erkannten die Forscher sehr rasch, dass es neuer Instrumente bedurfte, um die sich ausweitende Diversität unserer DNA darzustellen.

Trotz dieser Fortschritte in der Sequenzierung müssen wir aber noch viel über die genetische Diversität des Menschen lernen, und dazu sind Vergleiche erforderlich. Hier kommt das menschliche Pangenom ins Spiel.

Die Diversität unserer Genomsequenzen ist atemberaubend. Eine Studie der gesamten Genomsequenzen von 53.831 Menschen hat Unterschiede an 400 Millionen Positionen ergeben! Die meisten davon waren SNPs oder eine zusätzliche oder fehlende DNA-Base. Es kann aber sein, dass der Großteil unserer Variabilität von nur wenigen Menschen stammt. Etwa 97 Prozent der 400 Millionen unterschiedlicher Positionen stammten von weniger als einem Prozent der 53 831 Testpersonen, wobei 46 Prozent davon bei nur einer Person auftraten. Wir unterscheiden uns genetisch in vielerlei Hinsicht, und einige von uns unterscheiden sich stärker als andere, aber wir sind alle Menschen.

Einige Jahre lang haben Forscher "Referenz"-Genomsequenzen zusammen gestellt, um der Diversität in bestimmten Populationen Rechnung zu tragen. Diese digitalen Sequenzen zeigten an jeder Position die in vielen Genomen der Gruppe am häufigsten vorkommende häufigste DNA-Base an. Die Aktualisierung der Referenzgenome nahm jedoch viel Zeit in Anspruch und war eine undankbare Aufgabe, die nie abgeschlossen wurde. Um 2010, als weitere Daten von Asiaten und Afrikanern hinzu gekommen waren, blieben immer noch 5 Millionen Lücken in den Referenzsequenzen.

Da die Datenmengen schnell zu groß wurden, um die Diversität des Genoms mit einer einfachen, klaren visuellen Methode erfassen zu können, kam die Idee des menschlichen Pangenoms als "einer vollständige Referenz der Diversität des menschlichen Genoms" auf. Das Human Pangenome Project begann offiziell im Jahr 2019 und füllte innerhalb eines Jahres die verbleibenden Lücken in den Genomsequenzen. Ziel war es, die Genomsequenzen von zunächst 350 Menschen aus verschiedenen ethnischen Gruppen darzustellen, wobei "computational pangenomics"-Werkzeuge verwendet wurden, um visuelle Darstellungen, sogenannte "Genom-Graphen", zu erstellen.

In einem Genom-Graphen zeigen farblich gekennzeichnete Basen, die der DNA-Darstellung überlagert sind, wie sich die Menschen an den einzelnen Positionen unterscheiden. Wie eine geografische Karte mit Symbolen für Campingplätze, Rastplätze und interessante Orte zeigen Genom-Graphen die SNPs und auch fehlende Teile der Genomsequenz, zusätzliche Teile und invertierte Regionen an. Sie zeigen auch welche Bedeutung, welcher Zusammenhang damit verbunden ist, indem z. B. Gene, die für Proteine kodieren, von Kontrollsequenzen unterschieden werden und Positionen gekennzeichnet werden, an denen die DNA-Sequenz von verschiedenen Startpunkten aus gelesen werden kann, wodurch die Zelle die Anweisung erhält, unterschiedliche Proteine zu produzieren.

Die Daten, die in das menschliche Pangenomprojekt einfließen, stammen aus Bevölkerungs-Biobanken und verschiedenen Genomsequenzierungs-Projekten. Wenn all diese Informationen über die Länge der Chromosomen überlagert werden, beginnt der Genom-Graph tatsächlich einem U-Bahn-Plan zu ähneln.

Ich bin mit der New Yorker U-Bahn aufgewachsen. So wie die meisten Zuglinien im Zentrum der Stadt, in Manhattan, zusammenlaufen und sich nur wenige Linien in die Randbezirke erstrecken, so sind auch die proteinkodierenden Gene in Richtung des Zentromers jedes Chromosoms gruppiert und werden zu den Spitzen, den Telomeren, hin immer spärlicher.

Ich denke mit Rührung an die erste Humangenom-Tagung zurück, an der ich 1986, ich glaube in Boston, teilgenommen habe. Es ist eine lange, außergewöhnliche Reise geworden, aber wir fangen endlich an zu verstehen, wie eine Sprache mit vier Buchstaben die erstaunliche Vielfalt des menschlichen Wesens erklären kann.


* Der Artikel ist erstmals am 13.Oktober 2022 in PLOS Blogs - DNA Science Blog unter dem Titel " The Age of the Pangenome Dawns" https://dnascience.plos.org/2022/10/13/the-age-of-the-pangenome-dawns/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.


 

inge Fri, 21.10.2022 - 17:32

Herzliche Gratulation Anton Zeilinger zur höchsten Auszeichnung in Physik!

Herzliche Gratulation Anton Zeilinger zur höchsten Auszeichnung in Physik!

Di, 04.10.2022 — Redaktion

Redaktion

Icon Physik

Der diesjährige Nobelpreis für Physik geht an den österreichischen Quantenphysiker Anton Zeilinger, den französischen Physiker Alain Aspect und den US-Amerikaner John Clauser. Sie werden für ihre bahnbrechenden Experimente mit verschränkten Quantenzuständen ausgezeichnet. Im folgenden Text erzählt Anton Zeilinger von seiner Faszination für die Quantentheorie, wie sich aus dieser ursprünglich ausschliesslich als Grundlagenforschung gedachten Fachrichtung nun Anwendungen ergeben, die "unsere kühnsten Träume übertreffen."*

Anton Zeilinger: Von meiner Faszination für die Quantenphysik zu ersten Experimenten und konzeptuellen Überlegungen  

Anton Zeilinger, 2021.(Bild: Jaqueline Godany - https://godany.com/ cc-by

Mein Interesse an der Wissenschaft wurde wahrscheinlich durch meinen Vater geweckt, der Biochemiker war. Nachdem ich also neugierig geworden war, wie die Welt funktioniert, wurde ich durch einen motivierenden Lehrer im Gymnasium auf den Weg in Richtung Mathematik und Physik gebracht. Er konnte uns das Gefühl vermitteln, dass wir die Grundlagen der Relativitätstheorie oder der Quantenmechanik verstanden hatten. Im Nachhinein betrachtet war dieses Gefühl zwar nicht wirklich gerechtfertigt, aber es hat mich entscheidend motiviert. Als ich dann 1963 begann, an der Universität Wien Physik und Mathematik zu studieren, gab es überhaupt keinen festen Lehrplan. Man war im Wesentlichen frei, die Themen nach eigenem Gusto zu wählen. Nur am Ende musste man das Rigorosum - eine wirklich strenge Prüfung - ablegen und eine Dissertation vorweisen. Das führte dazu, dass ich nicht eine einzige Stunde Quantenmechanik belegte, sondern alles aus Lehrbüchern für die Abschlussprüfung lernte. Als ich diese Lehrbücher las, war ich sofort von der immensen mathematischen Schönheit der Quantentheorie beeindruckt. Aber ich hatte das Gefühl, dass die wirklich grundlegenden Fragen nicht behandelt wurden, und das steigerte meine Neugierde nur noch mehr.

Es gab zwei Punkte, die mir auffielen und mein Interesse noch mehr weckten.

Erstens die Feststellung, dass es keinen Konsens über die Interpretation der Quantentheorie zu geben schien. Damit meine ich die Interpretation dessen, was dies für unsere Weltanschauung oder vielleicht sogar für unsere Stellung in der Welt bedeuten könnte. Zweitens gab es nur sehr wenige experimentelle Belege für die Bestätigung der Vorhersagen der Quantenmechanik für einzelne Teilchen oder einzelne Quantensysteme, wie Teilchensuperposition oder Quantenverschränkung.

Verschränkung (Bild: © Johan Jarnestad/The Royal Swedish Academy of Sciences. cc-by-nc

Auf diese Weise bin ich dazu gekommen, Vorhersagen für einzelne Systeme im Detail zu studieren, und ich schätze mich sehr glücklich, dass ich durch meine Arbeit in der Gruppe von Helmut Rauch in Wien dazu ermutigt wurde, diese Ideen weiterzuverfolgen, und dass ich mich langsam an Experimente zu den Grundlagen der Quantenmechanik herantasten konnte. Damals gab es noch recht diffuse Ansichten über die Interpretation und Bedeutung der Quantenphysik für einzelne Systeme. Ich erinnere mich noch daran - als ich über einige der Neutronenexperimente (die von Helmut Rauch initiiert worden waren) referierte, dass sogar angesehene hochrangige Fachkollegen auf uns zukamen und ihre Verwunderung zum Ausdruck brachten: "Funktioniert Superposition wirklich so, Teilchen für Teilchen?"Meine Antwort war: "Was haben Sie denn sonst erwartet?"

Damals gab es erhebliche Uneinigkeit, z. B. darüber, ob die Quantenmechanik einzelne Systeme oder nur statistische Ensembles beschreibt, welche Rolle die Umgebung spielt oder was die Quanten-Nichtlokalität wirklich bedeutet. Die Erfahrung vieler Gruppen weltweit mit einer Vielzahl von Quantenphänomenen für einzelne Systeme hat auch zu einem viel besseren Verständnis der grundlegenden Fragen der Quantenmechanik geführt. Es wird nun allgemein akzeptiert und verstanden, dass die Natur nicht lokal beschrieben werden kann, dass die Verschränkung ein grundlegender Bestandteil unserer Beschreibung der Welt ist und dass es objektive Zufälligkeit gibt und vieles mehr. Der Standpunkt, dass die Quantenphysik bei richtiger Betrachtung das Verhalten einzelner Quantensysteme beschreibt, hat sich weitgehend durchgesetzt. Wir verstehen auch die Rolle der Umgebung und der Dekohärenz viel besser, und es wurden viele neue Phänomene auf fundamentaler Ebene entdeckt. Für viele setzt sich nun die Ansicht durch, dass die Information eine sehr grundlegende Rolle für das Verständnis der Quantenmechanik spielt.

Zur großen Überraschung aller, die das Glück hatten, früh in dieses Gebiet einzudringen, haben sich Anwendungen ergeben, die unsere kühnsten Träume übertreffen. Ich persönlich halte es für sehr wahrscheinlich, dass die Quanteninformationstechnologien eines Tages die traditionellen Informationstechnologien, wenn nicht vollständig, so doch in erheblichem Maße ersetzen werden.

Typisches und interessantes Beispiel aus jüngster Zeit ist das Aufkommen von Quantenexperimenten im Weltraum. Im Jahr 2016 wurde der erste Quantensatellit von der Chinesischen Akademie der Wissenschaften gestartet. Eine konkrete Vision für die Zukunft ist ein weltweites Quanteninternet, bei dem Bodenstationen direkt mit Quantenkommunikationsverbindungen über Glasfasern und über große Entfernungen und interkontinental über Quantensatellitennetze verbunden sind.

Sicherlich hat in den Anfängen der Experimente an einzelnen Systemen zur Erprobung der Grundlagen der Quantenmechanik niemand auch nur im Entferntesten geahnt, dass heute weltweit riesige Gruppen mit insgesamt wohl Tausenden von Wissenschaftlern an möglichen Anwendungen arbeiten. Dies ist einmal mehr die Bestätigung eines Musters, das in der Geschichte der Physik oder der Wissenschaft im Allgemeinen sehr häufig zu beobachten ist: Die tiefstgreifenden und wichtigsten Anwendungen werden nicht durch die Suche nach Anwendungen gefunden, sondern durch Grundlagenforschung, die völlig neue Türen öffnet.


 * Aus dem langen Artikel von Anton Zeilinger "Light for the quantum. Entangled photons and their applications: a very personal perspective" in Physica Scripta (2017), Volume 92, Number 7, https://iopscience.iop.org/article/10.1088/1402-4896/aa736d wurden einige Absätze ausgewählt und möglichst wortgetreu übersetzt. Der Artikel steht unter einer cc-by-Lizenz © 2017 The Royal Swedish Academy of Sciences.


The Nobelprize in Physics - Announcement: https://www.nobelprize.org/prizes/physics/2022/prize-announcement/


 

inge Tue, 04.10.2022 - 18:37

Paläogenetik: Svante Pääbo wird für seine revolutionierenden Untersuchungen zur Evolution des Menschen mit dem Nobelpreis 2022 ausgezeichnet

Paläogenetik: Svante Pääbo wird für seine revolutionierenden Untersuchungen zur Evolution des Menschen mit dem Nobelpreis 2022 ausgezeichnet

Mo, 03.10.2022 — Christina Beck Christina Beck

Icon Evolution

Der Nobelpreis für Physiologie oder Medizin 2022 geht an Svante Pääbo , den Direktor am Max-Planck-Institut für evolutionäre Anthropologie in Leipzig. Svante Pääbo gilt als Pionier des neuen Forschungsgebietes "Paläontologie". Seine Arbeiten zur Entschlüsselung des Neandertaler-Genoms haben unser Verständnis zur Evolution des Menschen revolutioniert. In einem leicht verständlichen Artikel berichtet die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, über die angewandten Techniken und Ergebnisse von Svante Pääbos Forschung.*

Svante Pääbo © Fank Vinken / MPG

Wer sind wir? Woher kommen wir? – das sind zentrale Fragen, die uns Menschen schon seit mehr als einem Jahrhundert beschäftigen. Spätestens seit dem Jahr 1856 als Arbeiter im Neandertal, ungefähr zwölf Kilometer östlich von Düsseldorf, in einem Steinbruch eine kleine Höhle ausräumten und dabei Reste eines Skeletts entdeckten. Über die Zuordnung der Knochenfragmente wurde lange gestritten. Die Einschätzung einiger Anatomen, dass es sich hierbei um eine Frühform des modernen Menschen handle, wurde insbesondere von dem einflussreichen deutschen Pathologen Rudolf Virchow nicht geteilt. Gegen Ende des 19. Jahrhunderts jedoch hatte sich die Auffassung, dass der Neandertaler ein Vorläufer des anatomisch modernen Menschen war, durchgesetzt.

Dank der mehr als 300 Skelettfunde ist der Neandertaler die am besten untersuchte fossile Art der Gattung Homo. Wie ähnlich die Neandertaler uns waren, ob sie einen ausgestorbenen Ast im Stammbaum der Frühmenschen darstellten und ob sich einige ihrer Gene noch heute im modernen Menschen finden, all diese Fragen ließen sich aber auf Basis rein anatomischer Untersuchungen nicht beantworten. Svante Pääbo, Direktor am Max-Planck-Institut für evolutionäre Anthropologie in Leipzig, war überzeugt, dass die Neandertalerknochen noch einen größeren Schatz bereithalten.

2005 hatte ein wissenschaftliches Konsortium unter Beteiligung von Pääbos Arbeitsgruppe das Genom des Schimpansen sequenziert und nachgewiesen, dass sich nur etwas mehr als ein Prozent der Nucleotide in den DNA-Sequenzen, die der moderne Mensch mit dem Schimpansen gemeinsam hat, unterscheiden. „Die Neandertaler sollten uns natürlich noch viel näher stehen“, sagt Pääbo. „Wenn wir aus ihren Knochen die DNA extrahieren und dann analysieren könnten“, so die Überlegungen des Molekularbiologen, „dann würden wir zweifellos feststellen, dass die Neandertaler-Gene den unseren sehr ähnlich sind.“ Viel spannender aber wären die Unterschiede: „Unter den winzigen Abweichungen, die wir erwarteten, sollten auch genau jene sein, die uns von allen unseren menschlichen Vorläufern unterscheiden und die die biologische Basis dafür gewesen sind, dass der moderne Mensch eine vollkommen neue Entwicklungsrichtung eingeschlagen hat – kulturell und technologisch.“

Die Untersuchung alter DNA erweist sich jedoch gleich in zweierlei Hinsicht als schwierig: Der eigentliche Anteil alter DNA in einem Knochenfragment kann zwischen 100 bis weniger als 0.1 Prozent liegen. In vielen Fällen sind die Proben mit der DNA von Bakterien verunreinigt. Eine weitere Quelle für Verunreinigungen ist die DNA heutiger Menschen. Denn sie ist allgegenwärtig – wir hinterlassen unsere DNA mit kleinsten Hautschuppen etc. und kontaminieren so auch archäologische Funde. Bei der Untersuchung frühmenschlichen Erbguts ist diese Kontamination aufgrund der Ähnlichkeit der DNA-Sequenzen nur schwer zu entdecken.

Abbildung 1: Ohne Kontaminationen Um Verunreinigungen der Knochen mit eigener DNA zu verhindern, müssen die Forschenden umfangreiche Vorsichtsmaßnahmen treffen. © Frank Vinken / MPG

Um die Authentizität alter DNA-Sequenzen sicherzustellen, versuchen Forschende, Verunreinigungen an der Ausgrabungsstätte sowie bei ihren weiteren molekularbiologischen Untersuchungen zu verhindern (Abbildung 1) oder – wenn das nicht bzw. nicht mehr möglich ist – die Verunreinigung bei der Analyse der Sequenzdaten zu identifizieren. Dabei machen sie sich den Umstand zu Nutze, dass post mortem, also nach Eintreten des Todes, Buchstaben in der DNA ausgetauscht werden: So wird Cytosin durch Thymin ersetzt bzw. Guanin durch Adenin, wenn es sich um das Gegenstück des DNA-Stranges handelt. Außerdem steigt an beiden Enden des DNA-Moleküls der Anteil jener Cytosine, denen eine Aminogruppe abhandengekommen ist. Das Cytosin wird damit zu einem Uracil, einem Nukleotid, das normalerweise in der RNA vorkommt. Die DNA-Polymerase behandelt dieses „U“ wie ein „T“ – überproportional viele Ts in bestimmten Regionen sind daher ein ausgesprochen zuverlässiges Signal, um alte von neuer DNA zu unterscheiden.

Eine weitere Erschwernis liegt darin, dass alte DNA den chemischen Abbauprozessen schon länger ausgesetzt ist, was zu einer starken Fragmentierung führt. In den Knochenproben nimmt der Anteil von DNA-Sequenzen mit kürzeren Fragmentlängen daher zu. Mit der bestehenden Technologie zur DNA-Sequenzierung konnten diese kurzen Fragmente jedoch nicht schnell und in großer Zahl ausgelesen werden.

Ein technologischer Treiber für die Paläogenetik

Den Durchbruch brachte eine ganz neue Technologie der DNA-Sequenzierung. Das Grundprinzip des Sequenzierens ist dabei unverändert geblieben: Entlang eines abzulesenden DNA-Stückes wird eine komplementäre Sequenz hergestellt. Der Einbau erkennbarer (in den meisten Fällen mit Farbstoffen markierter) Nukleotide wird registriert und anhand der zeitlichen Abfolge der Einbauereignisse die gesuchte Sequenz ermittelt. Dieses Prinzip liegt auch der Next Generation Sequencing Technology (NGS) zugrunde – nur dass hierbei das Grundprinzip des Sequenzierens in unglaublich verdichteter, effizienter und extrem vervielfältigter Weise zur Anwendung gebracht wird. Im Rahmen von Next Generation Sequencing können so mehrere Tausend bis Millionen Sequenzierungsschritte gleichzeitig und hochgradig automatisiert ablaufen (Abbildung 2). Das ermöglicht einen enorm hohen Probendurchsatz, so dass ein komplettes menschliches Genom mit seinen 3,2 Milliarden Buchstaben, für das das Human Genome Project noch 10 Jahre und hunderte Labore weltweit brauchte, inzwischen innerhalb weniger Tage von einem einzigen Labor sequenziert werden kann!

Abbildung 2: Gesamtzahl der publizierten vollständigen frühgeschichtlichen Humangenome. © Investig Genet 6, 4 (2015). https://doi.org/10.1186/s13323-015-0020-4

Mittels NGS kann nun auch sehr alte, stark fragmentierte DNA mit Fragmenten, die kürzer als 60 oder 70 Basenpaare sind, sehr effektiv sequenziert werden. In Folge dessen setzte förmlich ein Boom bei der Sequenzierung alter DNA ein (Abbildung 2). Anfang 2006 präsentierten Stephan Schuster von der Pennsylvania State University und seine kanadischen Kollegen das 13 Millionen Basenpaare umfassende Kerngenom eines ausgestorbenen Wollmammuts. „Wir waren ein wenig enttäuscht, dass wir nicht als Erste die Sequenz einer alten DNA mit der neuen Sequenzierungstechnik aufgeklärt hatten“, berichtet Pääbo. Schließlich besaß seine Arbeitsgruppe schon seit Monaten die Daten aus den von ihr untersuchten Mammut- und Höhlenbärknochen. „Wir hatten aber weitere Analysen und Experimente durchgeführt, um ein möglichst vollständiges Bild zu veröffentlichen – die anderen hingegen wollten einfach nur schneller sein.“ Die Leipziger Forscherinnen und Forscher publizierten ihre Ergebnisse im September 2006 – und begannen noch im selben Jahr mit ihrem wohl riskantesten Projekt: der Sequenzierung des Neandertaler-Genoms. „Ich wusste, dass ein Erfolg nicht so einfach zu erzielen war“, erzählt Pääbo rückblickend. „Er hing vielmehr von drei Voraussetzungen ab: von vielen Sequenzierautomaten, viel mehr Geld und geeigneten Neandertalerknochen. Nichts davon hatten wir zu Beginn.“

Vier Jahre später war das scheinbar Unmögliche wahr geworden: Pääbo und sein Team konnten im Fachmagazin Science einen ersten Entwurf der Gensequenz unseres vor rund 30.000 Jahren ausgestorbenen Verwandten präsentieren. Der Entwurf basierte auf der Analyse von mehr als einer Milliarde DNA-Fragmenten aus mehreren Neandertaler-Knochen aus Kroatien, Spanien, Russland und Deutschland. Außerdem sequenzierten die Forschenden fünf menschliche Genome europäischer, asiatischer und afrikanischer Abstammung und verglichen diese mit dem Neandertaler-Genom. Der Vergleich förderte Erstaunliches zutage: In den Genomen aller außerhalb Afrikas lebender Menschen fanden sich Spuren vom Neandertaler. „Zwischen 1,5 und 2,1 Prozent der DNA im Genom der heutigen Nicht-Afrikaner stammen vom Neandertaler“, sagt Pääbo. „Asiaten tragen sogar noch etwas mehr davon in sich.“ Das waren klare Indizien für vielfachen artfremden Sex während der Eroberung Eurasiens.

Begonnen hatte das Techtelmechtel zwischen Neandertaler und Homo sapiens vor rund 50.000 bis 80.000 Jahren, als unsere Vorfahren den afrikanischen Kontinent verließen und sich in Europa und Asien ausbreiteten, wo sie auf die Neandertaler stießen. Während dieser Zeit kam es immer wieder zur erfolgreichen Fortpflanzung zwischen den eng verwandten Arten. Fügt man alle heute noch vorhandenen Schnipsel zusammen, lassen sich 40 Prozent des einstigen Erbmaterials der Neandertaler rekonstruieren. Von dieser DNA profitierten unsere Vorfahren. Während die meisten schädlichen Neandertaler-Gene durch Selektion aussortiert wurden, setzten sich nützliche in der menschlichen Population fest. Darunter auch solche, die mit der Beschaffenheit von Haut und Haaren in Verbindung stehen. Gut möglich also, dass unsere Vorfahren ihre weiße Haut von den Neandertalern erbten. Gerade in höheren Breiten war eine helle Körperoberfläche von Vorteil, weil damit die Produktion von Vitamin D aus Sonnenlicht effizienter ist. „Indem der moderne Mensch sich mit den Ureinwohnern seiner neuen Heimat mischte, konnte er sich besser an die neue Umgebung anpassen“, vermutet Pääbo.

Abbildung 3: Next Generation Sequenzing. Svante Pääbo und sein Team sequenzierten mehr als 1 Million Basenpaare Neandertaler-DNA (1) unter Verwendung eines als Pyrosequenzierung bekannten Ansatzes. Bei diesem Verfahren wird die DNA zunächst in Einzelstränge überführt (2) und dann an mit Oligonukleotiden bestückte Mikroperlen (engl. beads) gebunden. Die DNA beladenen Mikroperlen werden zusammen mit den PCR-Reagenzien in Öl emulgiert, wobei idealerweise Emulsionströpfchen erzeugt werden, die nur eine Mikroperle enthalten (3). In dieser Umgebung werden die DNA-Stränge nun vervielfältigt (emPCR) und anschließend in die Vertiefungen einer Picotiterplatte gebracht, bei der unter jeder Pore ein Lichtleiter zu einem Detektor führt (4). Die DNA-Polymerase wird nun gewissermaßen „in Aktion“ beobachtet, wie sie nacheinander einzelne Nukleotide an den neu zu synthetisierenden DNA-Strang anhängt. Der erfolgreiche Einbau eines Nukleotids wird auf der Basis eines Fluoreszenzsignals von einem Detektor erfasst (5). © Roche Diagnostics © Investig Genet 6, 4 (2015). https://doi.org/10.1186/s13323-015-0020-4

Spurensuche im Genom von Homo sapiens

Und welche Auswirkungen haben die geerbten Neandertalersequenzen heute? Anhand aktueller klinischer Daten lassen sich Einflüsse auf Funktionen der Haut, des Immunsystems und des Stoffwechsels erkennen. Einige Neandertaler-Gene, die wir in uns tragen, erhöhen das Risiko, an Diabetes Typ 2 oder Morbus Crohn zu erkranken. Im Kampf gegen Krankheitserreger kann der moderne Mensch allerdings von archaischen Gensequenzen auch profitieren: Sie kodieren für drei bestimmte Immunrezeptoren und verringern damit die Neigung zu Allergien.

Während der Neandertaler in bestimmten Regionen seines Genoms noch „Schimpansen-ähnliche“ Genvarianten besitzt, tragen die meisten modernen Menschen an derselben Stelle bereits abgeleitete Genvarianten. „Genau diese Bereiche unseres Genoms könnten entscheidend zur Entwicklung des modernen Menschen beigetragen haben, weil wir hier früh in unserer evolutionären Geschichte besonders vorteilhafte Mutationen erworben haben“, sagt Pääbo. Die Veränderungen im FOXP2-Gen, das mutmaßlich die Entwicklung unsere Sprechfähigkeit orchestriert, werden hingegen von Homo sapiens und Neandertaler geteilt. Möglich also, dass der Neandertaler in dieser Hinsicht über dieselben kognitiven Fähigkeiten verfügte. Insgesamt umfasst der Katalog der genetischen Unterschiede zwischen Frühmenschen und modernen Menschen 87 Proteine und eine Handvoll microRNAs (nichtcodierende RNA-Schnipsel, die eine wichtige Rolle bei der Genregulation spielen, insbesondere beim Stummschalten von Genen).

Und dabei stehen die Wissenschaftlerinnen und Wissenschaftler erst am Anfang, die funktionellen Folgen bestimmter genetischer Änderungen zu verstehen. So haben die Max-Planck-Teams zusammen mit Kollegen von den Universitäten Barcelona und Leipzig nicht nur die DNA-Sequenz einer frühmenschlichen Genvariante analysiert, sondern auch das entsprechende Protein hergestellt und seine Eigenschaften untersucht. Dabei fanden sie heraus, dass die Aktivität einer bestimmten Genvariante des Melanocortin-Rezeptors bei zwei Neandertalern deutlich reduziert war. Genvarianten mit einer ähnlich verringerten Aktivität sind auch beim modernen Menschen bekannt – mit sichtbaren Folgen: Ihr Träger hat eine rote Haarfarbe. Die Forschenden gehen daher davon aus, dass auch ein Teil der Neandertaler möglicherweise rote Haare besaß. Die Befunde der neuen Paläogenetik führen zu einer ganz neuen Sicht auf die evolutionären Prozesse, die einst den Homo sapiens hervorbrachten und ihm als letzten Vertreter seiner Gattung zum großen Auftritt auf unserem Planeten verholfen haben. Die Erkenntnisse zeigen: Die vielen Hunderttausend Jahre der Humanevolution verliefen anders, als man lange dachte. Seit es den Forschenden gelingt, die erhaltene Erbsubstanz in Knochenfunden zum Sprechen zu bringen, bröckelt die mühsam Knochen für Knochen aufgebaute Lehrmeinung. Homo sapiens steht nicht mehr als Krone der Evolution da, sondern eher als Spross diverser „Liebschaften“ in der Vorzeit.

Unsere Populationsgeschichte im Licht alter DNA

Die Vorgänger leben weiter, im heutigen Menschen, in unserem Erbgut. Im Jahre 2010 sequenzierten Svante Pääbo und sein Team DNA aus dem winzigen Fragment eines Fingerknochens, den sie in der Denisova-Höhle in Südsibirien entdeckt hatten. „Mittels Genanalysen konnten wir zeigen, dass es sich um eine bis dahin unbekannte Menschenform handelt“, erklärt Pääbo.

Abbildung 4: Modell zum Genfluss Die Abbildung zeigt die Richtung und den geschätzten Umfang der Genflüsse zwischen Neandertaler, Denisova-Mensch und modernem Menschen. Ob es einen direkten Genfluss vom Denisova-Menschen nach Asien gab, ist dabei ungewiss (gepunktete Linie). In drei von fünf Fällen konnten die Forscher eine Kreuzung zwischen vier verschiedenen Hominiden-Populationen nachweisen. Bei dem „potenziell unbekannten Frühmenschen“ könnte es sich um Homo erectus gehandelt haben. © aus: K. Prüfer et al., Nature 505, 43–49, 2. Januar 2014

Und dass dieser Denisova-Mensch, wie die Forschenden ihn genannt haben, sich mit den Vorfahren der heutigen Bewohner von Australien, Neuguinea und Ostasien gepaart hat. Genomvergleiche belegen, dass es zwischen Neandertaler, Denisova und Homo sapiens zum Austausch von Genen (Genfluss) gekommen sein muss (Abbildung 4). „Vor diesem Hintergrund müssen wir den modernen Menschen inzwischen als Teil einer hominiden Metapopulation betrachten“, sagt Pääbo. „Einzigartig sind eigentlich nur die letzten 20.000 Jahre, in denen wir als Menschen allein auf der Welt waren.“ Und der Paläogenetiker prophezeit: „In Zukunft werden wir aus minimalen Funden sicher noch viel mehr über die Bevölkerungsgeschichte erfahren.“


 *Der Artikel ist erstmals in Biomax 33 unter dem Titel: "Neandertaler mischen mit - Was DNA-Analysen über unsere Frühgeschichte verraten"  https://www.max-wissen.de/max-hefte/biomax-33-neandertaler// im Winter 2016/17 erschienen und wurde 7/2022 durchgesehen. Bis auf den Titel wurde der unter einer CC BY-NC-SA 4.0 Lizenz stehende Text unverändert wiedergegeben.


Weiterführende Links

Nobelprize in Physiology or Medicine 2022 https://www.nobelprize.org/prizes/medicine/2022/summary/

Der Neandertaler in uns | Max-Planck-Cinema: Video 7:37 min. https://www.youtube.com/watch?v=WnPXZIfEuco

Pionier der Paläogenetik: Max-Planck-Forscher Svante Pääbo im Porträt. Video 8:11 min. https://www.youtube.com/watch?v=P0pSCly-JW0&t=2s

 

Artikel im ScienceBlog

 

Christina Beck, 20.05.2021: Alte Knochen - Dem Leben unserer Urahnen auf der Spur

Inge Schuster, 12.12.2019: Transhumanismus - der Mensch steuert selbst seine Evolution

Herbert Matis, 17.01.2019: Der "Stammbusch" der Menschwerdung

Philipp Gunz, 11.10.2018: Der gesamte afrikanische Kontinent ist die Wiege der Menschheit

Herbert Matis, 30.11.2017: Die Evolution der Darwinschen Evolution

Philipp Gunz, 24.07.2015: Die Evolution des menschlichen Gehirns


 

inge Mon, 03.10.2022 - 17:23

Retinitis Pigmentosa: Verbesserung des Sehvermögens durch Gelbwurz, schwarzen Pfeffer und Ingwer

Retinitis Pigmentosa: Verbesserung des Sehvermögens durch Gelbwurz, schwarzen Pfeffer und Ingwer

Do, 29.09.2022 — Ricki Lewis

Ricki LewisIcon Medizin Retinitis pigmentosa ist die Sammelbezeichnung für eine Gruppe degenerativer Erkrankungen der Netzhaut (Retina), die durch genetische Mutationen verursacht werden und zu schwerem Sehverlust und Blindheit führen. Weltweit sind mehr eine Million Personen davon betroffen. Eine Reparatur der diversen Mutationen durch Gentherapie wird wohl erst in einiger Zeit möglich werden. Auf Grund seiner anti-oxidativen, anti-entzündlichen Eigenschaften wurde das In der Gelbwurz enthaltene Curcumin bereits bei verschiedenen Netzhauterkrankungen erprobt. Die Genetikerin Ricki Lewis erzählt hier über einen an Retinitis pigmentosa leidenden, nahezu erblindeten ehemaligen Schulkollegen, der mit der Gewürzkombination Curcumin, Piperin aus schwarzem Pfeffer und Ingwer einen Teil seiner Sehkraft wieder erlangte.*

Steve Fialkoff und ich waren keine Freunde an der James Madison High School in Brooklyn, NY in der Klasse von 1972. Während der superbeliebte Steve mit seinem riesigen blonden Afro überall zu sehen war, unsere Erlebnisse mit der Kamera festhielt und die Klasse bei Theateraufführungen anführte, war ich auf der Überholspur ins Strebertum. Ich verbrachte meine Zeit im Chemielabor mit dem tollen neuen Lehrer, einem 24-Jährigen, der meiner besten Freundin Wendy und mir zeigte, wie man Wasserpfeifen herstellt.

Es war nicht überraschend, dass Steve Filmeditor und jetzt Schriftsteller wurde. Überraschend war, dass er im Alter von 25 Jahren erfuhr, dass er Retinitis pigmentosa (RP) hatte, nachdem er in einem abgedunkelten Theater über einen Sitz gestolpert war und noch ein paar andere Stolperer hatte.

Von den mehr als vierzig Arten der RP, die jeweils durch ein anderes Gen verursacht werden, sind weltweit mehr als eine Million Menschen betroffen. Dieselbe Mutation kann sich jedoch bei verschiedenen Personen unterschiedlich manifestieren, sogar innerhalb derselben Familie. Die Zusammenhänge zwischen Genotyp - den Mutationen - und Phänotyp - den Symptomen - sind komplex.

Steve erbte das Usher-Syndrom Typ 2A von Eltern, die Träger sind. Das Nachtsehen würde allmählich verschwinden, dann Teile der Peripherie seines Gesichtsfeldes. In seinen 60ern würde er wahrscheinlich sein Augenlicht vollständig verlieren, sagte der Augenarzt, der Usher 2A seltsamerweise als "häufig und leicht" bezeichnete. Kein großer Trost.

Ein bisschen Biologie. Das USH2A-Gen, das für Steves RP verantwortlich ist, kodiert für ein Protein, Usherin, das als zellulärer Klebstoff und Gerüst fungiert. Usherin hält die Integrität der Stäbchen und Zapfen im hinteren Teil des Auges aufrecht, die das Sehen ermöglichen, sowie die Integrität der unterstützenden Zellschichten. Steve nennt das, was ich extrazelluläre Matrix und zelluläre Adhäsionsmoleküle nenne, "zellulären Mist, der Zellen erstickt".

Die Vorhersage des Augenarztes wurde wahr, als Steve 56 Jahre alt war. Als sich der Tunnel seiner Sehkraft unaufhaltsam verengte, meldete sich Steve für einen Blindenhund an, den er bekommen konnte, sobald er 95 Prozent seiner Sehkraft verloren hatte. Im August 2021 hatte er sich dafür qualifiziert.

Als kürzlich Steve mit seinem Hund spazieren ging, nahm seine Geschichte eine dramatische und unerwartete Wendung: Es wurde mehr von der Umgebung sichtbar. Wie ein Wissenschaftler versuchte Steve nachzuvollziehen, welche Umstände zur Erweiterung seines Gesichtsfelds geführt haben konnten.

Durch Überlegen und Ausprobieren fand er drei gängige Nahrungsergänzungsmittel - Curcumin, Piperin aus schwarzem Pfeffer und Ingwer -, die - zusammen eingenommen - ihm anscheinend einen Teil seiner Sehkraft zurückgaben. Abbildung

Abbildung: Gewürze als Heilmittel: Oben: Curcumin Hauptbestandteil der Gelbwurz (Kurkuma), das die gelbe Farbe des Curry bewirkt. Mitte: Piperin, Hauptalkaloid des schwarzen Pfeffers, Träger des scharfen Geschmacks. Unten: Gingerol

Ein halbes Jahrhundert nachdem wir uns auf den Gängen der James Madison High School begegnet sind, erfuhr ich die Geschichte von Steve.

Ein denkwürdiger Sonnenaufgang

Als Steve am frühen Morgen des 8. Februar 2022 sein Wohnhaus in Manhattan verließ, bog er nach Osten ab, "direkt in einen lodernden Feuerball aus Sonne, der zwischen den Gebäuden aufging. Ich schaute nach unten, schirmte meine Augen ab und sah einzelne Haare auf dem Körper meines Blindenhundes und konnte seinen ganzen Kopf sehen. Ich fing zu gehen an und schirmte meine Augen ab. Der Hund erledigte sein Geschäft, und ich drehte mich um und schaute zurück nach Westen, weg von der Sonne. Und ich konnte den ganzen Block entlang sehen, die Gebäudekanten und die Stelle, an der Bürgersteig und Bordsteinkante aufeinandertreffen. Normalerweise konnte ich nicht sehen, wo ich war, bis ich ein paar Meter entfernt war", erinnert er sich.

Aber das Sonnenlicht war keine so starke Veränderung oder so vollständig wie ein sich hebender Vorhang. Auf dem Weg nach Hause stolperte Steve über ein paar kleine eingezäunte Rasenflächen, die Bäume in Manhattans Seitenstraßen umgeben. Oben in seiner Wohnung angekommen sagte er seiner Frau und seiner Tochter, dass er "einen guten RP-Tag" habe. Und das war er auch.

In der Küche, wo Steve sich daran gewöhnt hatte, nur die Hälfte von einer der vier Herdplatten zu sehen, sah er jetzt drei. "Normalerweise muss ich meine Hand auf den Herd legen, um herauszufinden, wo ich einen Topf hinstellen soll. Mein Gesichtsfeld hatte sich über Nacht erweitert."

Was war passiert? Müsste sich die RP nicht verschlechtern? Könnte es an den Curcumin-Pillen liegen, die Steve vorbeugend gegen COVID einnahm?

Auf der Suche nach einem diätetischen Zusammenhang

Seine anfängliche Vermutung erwies sich als richtig. Curcumin ist der aktive Bestandteil von Kurkuma. Es verleiht dem pulverisierten Gewürz seine charakteristische leuchtend gelbe Färbung. Die Quelle ist die Pflanze Curcuma longa, die mit dem Ingwer verwandt ist. Steve nahm ein Ergänzungsmittel namens CurcumRx ein.

Seine Tochter googelte "Curcumin und RP" und fand bald einen Übersichtsartikel vom Mai 2021, in dem Curcumin mit verschiedenen Sehstörungen in Verbindung gebracht wurde, darunter ein langer Abschnitt über RP [1].

Aufgeregt überflog Steve den Artikel. "Ich dachte: Curcumin wirkt tatsächlich! Ich habe ein Viertel Gramm genommen, 250 Milligramm." 3,6 Gramm täglich wären für eine therapeutische Wirkung bei Menschen erforderlich, und bis zu 12 Gramm könnten vertragen werden, so die Extrapolation des Artikels aus Rattenstudien.

"Ich nahm es also weiter ein. Am 11. März erlebte ich einen weiteren Anstieg der Sehkraft." Steve hat den Artikel [1] erneut gelesen. Er erfuhr, dass Curcumin schon seit Tausenden von Jahren in der traditionellen chinesischen und ayurvedischen Medizin verwendet wird und um 1300 in den Westen gebracht wurde.

Die Anwendung des Gewürzes wurde mit seinen vielen "Antis" in Verbindung gebracht - antioxidativ, anti-inflammatorisch, antimutagen, antimikrobiell und sogar anti-Tumor. Es wurde als Mittel gegen Alzheimer, Diabetes, Krebs, rheumatische Erkrankungen, Allergien und Asthma, Arteriosklerose, Lungeninfektionen, chronische Darmentzündungen, Autoimmunerkrankungen, AIDS, Schuppenflechte und vieles mehr erprobt.

Mehr Wissenschaft: Steve hatte zunächst einen Zusammenhang zwischen der Einnahme des Gewürzes und einer besseren Sehkraft festgestellt. Falls er durch die Erhöhung der Dosis noch besser sehen konnte, so wäre das eine Korrelation. Und wenn er eine biologische Erklärung für die Wirkung finden könnte, wäre er auf dem Weg zum Nachweis der Kausalität.

Die Biologie der Netzhautschädigung

Curcumin hilft den Photorezeptorzellen (Stäbchen und Zapfen) der Netzhaut, die das Sehen ermöglichen. Diese Zellen, spezialisierte Neuronen, stehen unter starkem oxidativem Stress, da sie mit Licht bombardiert werden, ebenso wie nahe gelegene Unterstützerzellen und andere Neuronen, die visuelle Informationen an das Gehirn senden.

Unter oxidativem Stress entstehen durch chemische Reaktionen reaktive Formen von Sauerstoff, sogenannte freie Radikale mit ungepaarten Elektronen. Die freien Radikale schädigen Biomoleküle, insbesondere die empfindliche DNA. Mehrere Erkrankungen der Netzhaut entstehen durch ein Ungleichgewicht zwischen der Bildung freier Radikale und ihrer Beseitigung.

Curcumin wurde zur Bekämpfung von oxidativem Stress bei verschiedenen Netzhauterkrankungen eingesetzt, darunter Uveitis, altersbedingte Makuladegeneration, diabetische Retinopathie, zentrale seröse Chorioretinopathie, Makulaödem, retinale Ischämie-Reperfusionsschäden, proliferative Vitreoretinopathie, Tumore und verschiedene genetische Erkrankungen.

Curcumin fängt nicht nur freie Radikale ab, sondern wirkt auch auf das Pigment Rhodopsin, auch bekannt als Sehpurpur. Rhodopsin ist das am häufigsten vorkommende Protein in den Stäbchen, die die Oberflächen der äußeren Membranschichten auskleiden und das Nachtsehen ermöglichen. Bei einigen Formen von RP faltet sich das Rhodopsin bei seiner Bildung falsch, wodurch Teile der umgebenden Membran eingeklemmt werden und die Stäbchenzelle verkümmert und absterben kann. Im Tiermodell (Ratten) mit dieser Art von RP erhält Curcumin die Integrität der Stäbchen aufrecht.

Da die medizinische Wirkung hohe Curcumin-Dosen erfordert, synthetisieren Chemiker Analoga, verwandte Moleküle, die besser in den Blutkreislauf gelangen. Sie arbeiten auch an Verabreichungsmöglichkeiten mit Hilfe von Nanopartikeln, die sie aus Liposomen, Eiklar, Sand, Algen und sogar Seidenprotein herstellen. Natürlich verursachen Analoga und Nanopartikel zusätzliche Kosten.

Steve hat über einen besseren Verstärker der Curcumin-Wirkung gelesen: Piperin, eine Substanz in schwarzem Pfeffer, verzögert die Aufnahme von Curcumin in die Leber (und damit die Inaktivierung; Anm. Redn.). Damit sollte Curcumin länger im Blutkreislauf verbleiben, seine sogenannte Bioverfügbarkeit würde erhöht. Berichten zufolge erhöht der Pfefferanteil die Bioverfügbarkeit von Curcumin tatsächlich um 2000 Prozent.

Der Effekt des vietnamesischen Restaurants

Was hatte Steve gegessen, das besonders scharf gewesen war, bevor sich seine Sehkraft verbesserte? Er erinnerte sich vage an ein Ingwerhuhn in einem vietnamesischen Restaurant. "Wir hatten es dort am 4. Februar bestellt! Ich habe ein wenig recherchiert und gelesen, dass die Menschen in Indien und China dem Kurkuma Ingwer und schwarzen Pfeffer hinzufügen, damit es besser wirkt."

Steve kocht gerne. Es ist ihm aber nicht gelungen die Gewürzmischung des vietnamesischen Restaurants ganz nachzumachen und er wurde frustriert.

"Zwei Monate später sagte ich: Lass mich das verdammte Huhn noch einmal bestellen. Vielleicht ist da ja etwas Magisches drin. Also habe ich es noch einmal bestellt und meine Sehkraft hat sich verbessert." Seine Tochter fand das Rezept im Internet. "Und tatsächlich, das Restaurant marinierte Ingwerscheiben in schwarzem Pfeffer, Öl und Knoblauch."

Also erfand Steve seine eigene Variante vo mit Pfeffer und Kurkuma marinierten Ingwerstreifen und aß alle paar Tage 6 bis 8 davon mit Reis oder Nudeln. Und er erhöhte die Curcumin-Tabletten auf 500 Milligramm.

Der Kalender lieferte die restlichen Anhaltspunkte.

Rattenstudien zeigten, dass Curcumin mittels Piperin 48 Stunden brauchte, um in die Blutversorgung der Netzhaut zu gelangen. "Ich hatte das Ingwerhuhn am 4. Februar bestellt und hatte bis zum 6. Februar noch Reste übrig ... ich hatte es also drei Tage hintereinander gegessen. Am 8. Februar änderte sich meine Sehkraft scheinbar über Nacht. Das Gleiche passierte noch einmal. Am 8. März aß ich Ingwerhuhn und am 11. März veränderte sich mein Sehvermögen."

Davon weiter erzählen

Die Ingwerstreifen-Mischung scheint zu helfen. Im Juli konnte Steve bei seinen morgendlichen Spaziergängen auf den allgegenwärtigen Baustellen in Manhattan Gerüste und Masten sehen, die er vorher nicht kannte. "Ich konnte Metallstangen und Mülltonnen und Menschen sehen - das war eine große Veränderung." Jetzt versucht er, die Diät so konsequent wie möglich zu halten, um die Tage mit gutem Sehvermögen zu maximieren - manchmal ist seine Welt immer noch in Grau- und Schwarztöne gehüllt.

Im April zeigte sich bei einem Besuch in einer Klinik für Netzhauterkrankungen eine Verbesserung der Sehschärfe, also der Fähigkeit, Details von Objekten in einer bestimmten Entfernung zu erkennen. Aber Steves RP hatte sich seit der letzten Untersuchung vor sechs Jahren verschlechtert. Es gab also keine Möglichkeit zu messen, ob sich das Fortschreiten verlangsamt hatte. Als Steve seinen kulinarischen Eingriff erwähnte, sagte der Arzt: 'Das ist schön, wir sehen uns in einem Jahr wieder'.

Als Steve sich an die Foundation Fighting Blindness wandte, wurde er mit einem Wissenschaftsjournalisten in Verbindung gebracht, der ihm riet, die Ergebnisse von klinischen Doppelblindstudien abzuwarten. Das bedeutet allerdings eine lange Wartezeit, denn auf ClinicalTrials.gov sind nur sechs laufende Studien für Usher 2A RP aufgeführt - zwei um des Fortschreitens der Krankheit zu verfolgen und vier, bei denen Antisense-Oligonukleotide (Gen-Silencer) eingesetzt werden, um eine ganz bestimmte Mutation zu bekämpfen.

Klinische Studien abwarten? Wenn ein leicht erhältliches Präparat funktioniert, sollte man es ausprobieren!

Also verbreitete Steve die Nachricht auf einem Verteiler, und ein paar andere RP-Patienten probierten Curcumin-Piperin-Ingwer aus oder hatten bereits ähnliche Entdeckungen gemacht. Ein Mann weinte, als er das Gesicht seiner Frau sehen konnte. Eine Frau konnte ihre Hände auf einem Schneidebrett sehen - ein Defizit, das auch Steve das Kochen erschwert hatte, da er zwar das Messer, nicht aber seine Finger sehen konnte. "Mein Ziel ist es, genug Leute zu informieren, um den Ball ins Rollen zu bringen."

Den Phänotyp oder den Genotyp behandeln? Mein Gentherapie-Buch neu überdenken

Meine Freundin Wendy aus der Zeit des Wasserpfeifen-Baus in der High School hatte den Kontakt zu Steve aufrechterhalten und schickte mir kürzlich einen Artikel von Ingrid Ricks, die ebenfalls an RP leidet [2]. So erfuhr ich von seiner bemerkenswerten Geschichte, die er gerne weitererzählte. Seine abschließende Bemerkung ließ mich kurz innehalten. "Es gibt keine Heilung für diese Krankheit. Bei Niemandem, den ich mit RP kenne, ist eine Verbesserung eingetreten."

Die Botschaft meines 2012 erschienenen Buches The Forever Fix: Gentherapie und der Junge, der sie rettete [3], war genau das Gegenteil, allerdings für eine andere Netzhauterkrankung, die die Schicht unterhalb der Stäbchen und Zapfen betrifft.

Mein Buch erzählt die Geschichte eines Jungen, Corey, mit RPE65-Netzhautdystrophie, der als einer der ersten nach einer Gentherapie innerhalb weniger Tage sein Sehvermögen wiedererlangte. Luxturna war die allererste Gentherapie, die 2017 in den USA zugelassen wurde. Seitdem haben Hunderte von Menschen mit Coreys Form der Blindheit dank Luxturna ihr Sehvermögen wiedererlangt. Steve wusste alles darüber.

Aber die Gentherapie hat auch einige spektakuläre Rückschläge erlitten, und zwar nicht nur den traurigen Fall von Jesse Gelsinger in der Anfangszeit. In jüngster Zeit sind Kinder in klinischen Studien gestorben, wobei es schwierig ist, festzustellen, ob die Krankheit oder die Behandlung daran schuld war.

Einige Gentherapien haben einfach nicht funktioniert, oder die Dosierung für Wirksamkeit ohne Toxizität ist nach wie vor schwer bestimmbar. Die Kosten sind ein großes Problem, selbst wenn es sich um eine einmalige oder seltene Gentherapie handelt. Die allererste zugelassene Gentherapie - Glybera gegen Pankreatitis in Europa - wurde vom Markt genommen, weil niemand dafür bezahlen wollte.

So musste ich im letzten Kapitel von The Forever Fix meinen übertriebenen Optimismus bedauern. Ich hatte eine weite Zulassung und Akzeptanz von Gentherapien sowohl für häufige als auch für seltene genetische Krankheiten vorausgesagt. Das war nicht der Fall. Bislang wurden in den USA erst zwei Gentherapien zugelassen, während andere Strategien im Kommen sind.

Wenn also eine clevere Kombination von weithin verfügbaren und sicheren Präparaten die Sehkraft wiederherstellt, ist das großartig. Bei einigen Erkrankungen ist die Behandlung des Phänotyps - des Merkmals - wirksamer und sicherlich billiger und einfacher als die Behandlung des Genotyps - der DNA.

Inzwischen kann Steve sein Glück kaum fassen und testet sich immer wieder selbst. "Habe ich gestern diese Treppenstufe gesehen? Und heute? Ist die Beleuchtung heute anders? "Ich würde mich gerne so weit verbessern, dass ich die Schauspieler sehe, die meine Originalstücke auf der Bühne aufführen." Ich hoffe, dass sich seine Welt weiter aufhellen wird.


* Der Artikel ist erstmals am 8.September 2022 in PLOS Blogs - DNA Science Blog unter dem Titel "Can Curcumin, Black Pepper, and Ginger Treat Retinitis Pigmentosa? Steve Fialkoff’s Excellent Experiment" https://dnascience.plos.org/2022/09/08/can-curcumin-black-pepper-and-ginger-treat-retinitis-pigmentosa-steve-fialkoffs-excellent-experiment/erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Der Artikel wurde geringfügig gekürzt, die Abbildung von der Redaktion eingefügt


[1] M. Nebbioso et al., Recent Advances and Disputes About Curcumin in Retinal Diseases. Clinical Ophthalmology 2021:15 2553–2571

[2] Ingrid Ricks: Late Stage RP Sufferer Yields Ongoing Vision Gains with Curcumin, Black Pepper and Ginger. https://determinedtosee.com/?p=1951&fbclid=IwAR0t2u4zqOaH-Fj9TgOcLFRncSZxoOhl2L5zskm5ws7Do6kN7TQBxiX3_BI

[3] Ricki Lewis, The Forever Fix: Gene Therapy and the Boy Who Saved It .https://www.rickilewis.com/the_forever_fix__gene_therapy_and_the_boy_who_saved_it_114268.htm


Weiterführende Links

NDR Visite: Retinitis pigmentosa: Gentherapie rettet das Augenlicht; 14.06.2022. Video 7:37 min. https://www.ardmediathek.de/video/visite/retinitis-pigmentosa-gentherapie-rettet-das-augenlicht/ndr/Y3JpZDovL25kci5kZS81NTU0YTcxYS01YzY1LTQzOGYtODY5Zi0zODZlZmI4YmY4YzU

Artikel zum Thema "Sehen" im ScienceBlog

Walter Jacob Gehring, 25.10.2012: Auge um Auge — Entwicklung und Evolution des Auges

Gottfried Schatz, 31.01.2013: Wie «unsichtbarer Hunger» die Menschheit bedroht

Ricki Lewis, 03.09.2019: Gentherapie - ein Update

Redaktion, 18.08.2022: Aus dem Kollagen der Schweinehaut biotechnisch hergestellte Hornhautimplantate können das Sehvermögen wiederherstellen


 

inge Fri, 30.09.2022 - 01:05

Epigenetik - Wie die Umsetzung unserer Erbinformation gesteuert wird

Epigenetik - Wie die Umsetzung unserer Erbinformation gesteuert wird

Do, 15.09.2022 — Christina Beck Christina Beck

Icon Molekularbiologie

Als im Jahr 2001 die Entschlüsselung des menschlichen Genoms fertiggestellt wurde, war die Euphorie groß: Mehr als drei Milliarden Buchstaben umfasst unsere DNA, und die waren endlich bekannt. Wenn es jetzt noch gelänge, in diesem Buchstabensalat die entsprechenden Gene ausfindig zu machen, würde man die Details unseres genetischen Bauplans und damit auch die Ursachen etlicher Krankheiten kennen, so die Meinung vieler Forschender. »Im Rückblick waren unsere damaligen Annahmen über die Funktionsweise des Genoms dermaßen naiv, dass es fast schon peinlich ist«, zitierte die ZEIT im Jahr 2008 den Biochemiker Craig Venter, der mit seiner Firma Celera an der Genomentschlüsselung beteiligt war. Die Epigenetik liefert nun ein neues Verständnis, wie Ablesung und Umsetzung der Gene durch Markierungen an den Genen - wie sie durch Umwelteinflüsse und Lebensstil zustande kommen und auch weiter vererbt werden können - gesteuert werden. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, berichtet darüber.*

Jahrzehntelang galt das Genom als unveränderlicher Bauplan, der bereits bei der Geburt festgelegt ist. Nicht umsonst wurde das Genom als „Buch des Lebens“ bezeichnet, geschrieben mit einem Alphabet aus vier Buchstaben – den Basen Adenin, Guanin, Cytosin und Thymin. Gene waren Schicksal: Sie sollten Aussehen, Persönlichkeit und Krankheitsrisiken bestimmen. Heute wissen wir, dass die in der DNA gespeicherten Informationen keine 1:1 Blaupause für den Organismus sind. Vielmehr stehen unsere Gene in Wechselwirkung mit verschiedenen Faktoren. Dazu gehören auch sogenannte epigenetische Markierungen. Sie dienen dazu, bestimmte Abschnitte der DNA – quasi wie mit einem „bookmark“ – als „lesenswert“ zu markieren, durch Verweise auf weiter entfernt liegende Abschnitte in neue Zusammenhänge zu bringen oder dem Zugriff der Übersetzungsmaschinerie durch eine Art „Passwort-Schutz“ zu entziehen.

Ein Code jenseits der DNA

Das Ganze darf man wohl als Informationsmanagement bezeichnen. Angesichts der ungeheuren Komplexität des Genoms, insbesondere von Säugetieren, eine absolute Notwendigkeit – aber auch Grundlage für Regulation: Schließlich müssen viele verschiedene Zelltypen koordiniert und aufrechterhalten werden. Und anders als die Buchstaben der DNA unterscheiden sich die epigenetischen Markierungen zwischen unterschiedlichen Arten von Zellen. Zusammengenommen ergeben sie das Epigenom – eine Art Code, der kontextabhängig ausgelesen wird und die Umsetzung der Erbinformation steuert: „Die Epigenetik ist eine zusätzliche Informationsebene, die festlegt, welche Gene potenziell aktivierbar sind“, sagt der Molekularbiologe Alexander Meissner, Direktor am Max-Planck-Institut für molekulare Genetik in Berlin. Gemeinsam mit seinem Team arbeitet er daran, die biochemischen Grundlagen dieser epigenetischen Steuerung zu entschlüsseln. Die Forschenden wollen verstehen, wie Gene an- oder ausgeschaltet werden, was ihre Aktivität verstärkt oder herunterdimmt.

Abbildung 1: Ausschnitt aus einem DNA-Molekül, bei dem an beiden Strängen ein Cytosin methyliert ist (gelbe Kugeln). Die DNA-Methylierung spielt eine wichtige Rolle bei der epigenetischen Genregulation und dient dazu, DNA-Abschnitte „stumm“ zu schalten. Neben einzelnen Basen können auch Histone methyliert sein.© links: HN; rechts: Christoph Bock/beide CC BY-NC-SA 4.0

Einer der Regelungsmechanismen setzt direkt an der DNA an: Chemische Markierungen – die Methylgruppen – werden von speziellen Enzymen an die Cytosinbasen der Erbsubstanz angehängt (Abbildung 1). Die so modifizierten DNA-Abschnitte werden daraufhin nicht mehr ausgelesen und in Proteine übersetzt – das Gen ist „stummgeschaltet“. Eine andere Möglichkeit besteht darin, das „Verpackungsmaterial“ der DNA mit chemischen Markierungen zu versehen. Die rund 3,3 Milliarden Nucleotidbasen des menschlichen Genoms ergeben aneinandergereiht einen Faden, der zwei Meter lang ist! Nur durch geschickte Verpackung ist es möglich, den DNA-Faden im Zellkern unterzubringen. Als „Spulen“ dienen dabei die Histone – spezielle Proteine, um die sich die DNA wickelt (Abbildung 2). Aus den so entstehenden Histon-DNA-Partikeln (Nucleosomen) ragen die Proteinschwänze der Histone heraus. An diesen Histonschwänzen sitzen bestimmte epigenetische Markierungen, die zahlreiche Eigenschaften des Chromatins kontrollieren. Dazu zählt etwa, ob das Chromatin locker oder dicht gepackt vorliegt. Die unterschiedlich dichte Verpackung reguliert, welche Gene exprimiert werden und damit, welche Proteine eine Zelle produziert.

Zugang für Ablese-Enzyme

Damit Enzyme die Erbinformationen lesen und abschreiben können, muss die betreffende DNA-Region für sie zugänglich sein. Zugang finden sie jedoch nur, wenn das Chromatin – etwa durch Acetylierung der Histonschwänze – in lockerer Form als sogenanntes Euchromatin vorliegt. Die zusätzlich angehängten Acetylgruppen heben die positiven Ladungen der Histonschwänze auf. So können die negativ geladenen DNA-Moleküle nicht mehr hin reichend neutralisiert werden, die Chromatinstruktur wird instabil und zugänglicher. Auch eine Phosphorylierung der Histonschwänze verändert durch zusätzliche negative Ladungen den Packungszustand des Chromatins und erleichtert das Ablesen bestimmter DNA- Regionen. Durch Reduktion der Acetylgruppen oder auch durch eine Methylierung der Histone nimmt dagegen die Packungsdichte des Chromatins zu. Damit sinkt die Wahrscheinlichkeit, dass eine DNA-Sequenz abgelesen wird und so ihre Funktion ausüben kann. Forschende bezeichnen solche Bereiche als Heterochromatin.

Ein Schritt bei der Öffnung des Chromatins ist die Bewegung der DNA, während sie in Nucleosomen eingewickelt ist. Wie alle molekularen Strukturen in unseren Zellen sind auch die Nucleosomen recht dynamisch. Sie bewegen sich, drehen sich um die eigene Achse, wickeln sich aus und dann wieder ein. Forschende am Max-Planck-Institut für molekulare Biomedizin in Münster haben mithilfe von Computersimulationen gezeigt, dass zwei Histonschwänze dafür verantwortlich sind, das Nucleosom geschlossen zu halten. Nur wenn diese sich von bestimmten Regionen der DNA wegbewegen, kann sich das Nucleosom öffnen, sodass die DNA für Enzyme zugänglich wird und abgelesen werden kann. Die typischen Bewegungen, mit der sich Nucleosomen öffnen und wieder schließen, bezeichnen Forschende als Nucleosomenatmung.

Abbildung 2: Forschende haben Nucleosomen in Bewegung untersucht. Die oben dargestellten statischen Ansichten sind um 90 Grad gedreht und zeigen die DNA (gelb) zusammen mit den unterschiedlichen Histonen H3 (dunkelblau), H4 (hellblau), H2A (rot) und H2B (hellgrün). Die Histonschwänze ragen aus dem Nucleosom heraus. Sie sind flexibel und spielen eine wichtige Rolle bei der Genexpression. © V. Cojocaru; MPI für molekulare Biomedizin Münster, Utrecht Universität, Babeș-Bolyai-Universität Cluj-Napoca / CC BY-NC-SA 4.0

Wie die Vielfalt der Zellen entsteht

Menschen besitzen mehr als 250 verschiedene Zelltypen. Dabei enthalten Hautzellen, Knochenzellen oder Nervenzellen alle dieselbe DNA-Sequenz, obwohl sie ganz unterschiedliche Funktionen erfüllen. Für die Spezialisierung sorgen epigenetische Mechanismen, die den genetischen „Basiscode“ erweitern und die Vielfalt an Expressionsmustern erhöhen: Sie schalten nicht benötigte Gene in bestimmten Zellen stumm, während sie in anderen Zellen aktiv sein können. Alexander Meissner und sein Team vom Max-Planck-Institut für molekulare Genetik in Berlin haben untersucht, wie epigenetische Mechanismen zur Bildung unterschiedlicher Gewebe und Organe im wachsenden Embryo beitragen. Dafür haben sie befruchtete Mäuse-Eizellen mit der Genschere Cas9 (siehe 1) so modifiziert, dass die Enzyme für das Anbringen epigenetischer Markierungen nicht gebildet wurden. Nach einer Entwicklungszeit von sechs bis neun Tagen untersuchten die Forschenden die sich entwickelnden Embryonen. Dabei zeigte sich, dass der Anteil der verschiedenen Zelltypen zum Teil stark verändert war. Von bestimmten Zellen wurden viel zu viele produziert, während andere komplett fehlten. Die Embryonen waren dadurch nicht überlebensfähig. „Wir verstehen jetzt besser, wie epigenetische Regulatoren dafür sorgen, dass wir so viele verschiedene Arten von Zellen im Körper haben“, fasst Meissner die Ergebnisse zusammen. Je nachdem, welche Funktion eine Zelle ausüben soll, versehen Enzyme die DNA mit unterschiedlichen epigenetischen Modifikationen. Sie sorgen dafür, dass sich Stammzellen etwa in Nerven-, Haut-, Herz- oder Muskelzellen weiterentwickeln, sodass sich im wachsenden Embryo unterschiedliche Gewebe und Organe ausbilden.

Folgenreiche Fehlprägung

Epigenetische Mechanismen stecken auch hinter einem Phänomen, das als genomische Prägung bekannt ist und bei verschiedenen Krankheiten eine Rolle spielt: Es tritt bei etwa einem Prozent unserer Gene auf und bewirkt, dass jeweils eine der beiden von den Eltern vererbten Genkopien stummgeschaltet wird. Schädliche Mutationen, die von der Mutter oder dem Vater erworben wurden, können somit nicht durch eine zweite Genkopie ausgeglichen werden. Dies kann zu Krankheiten wie dem Angelman-Syndrom oder dem Prader-Willi-Syndrom, aber auch zu Krebs und Herz-Kreislauf-Erkrankungen führen. Ließe sich das stummgeschaltete gesunde Gen wieder aktivieren, könnte man damit die Störungen des aktiven fehlerhaften Gens möglicherweise ausgleichen. Die Max-Planck-Forschenden wollen daher verstehen, welche Mechanismen für die Inaktivierung der Gene verantwortlich sind. „Erst in den vergangenen Jahren hat sich herauskristallisiert, dass die Prägung auf molekularer Ebene über verschiedene Wege erreicht wird“, sagt Alexander Meissner. Demnach kann auch bei der genomischen Prägung entweder die „Verpackung“ des Erbgutes oder die DNA selbst chemisch modifiziert sein. Um zwischen den verschiedenen Möglichkeiten zu unterscheiden, nutzten die Forschenden wiederum die Genschere Cas9. In befruchteten Mäuse-Eizellen verhinderten sie so die Bildung eines bestimmten Enzyms, das für das Anbringen epigenetischer Markierungen zuständig ist. Anschließend beobachteten sie, ob das fehlgeprägte, stumm geschaltete Gen im weiteren Entwicklungsverlauf wieder aktiv wurde. Auf diese Weise gelang es ihnen nicht nur, die Stummschaltung aufzuheben. Sie konnten auch unterscheiden, welche epigenetischen Mechanismen dahintersteckten. „In den meisten Fällen war das die DNA-Methylierung“, sagt Alexander Meissner.

Schutz vor Eindringlingen

Neben der Genregulation haben epigenetische Mechanismen auch noch eine andere lebenswichtige Funktion: Indem die Zelle bestimmte DNA-Abschnitte stilllegt, kann sie sich vor „parasitären“ Anteilen des Genoms, den Transposons, schützen. „In den meisten Genomen – auch denen von Menschen und Mäusen – verbergen sich tausende virusähnliche Sequenzen, die sich über die Jahrmillionen im Erbgut ihrer Wirte verewigt haben“, so Meissner. Diese auch als „springende Gene“ bekannten Transposons sind in der Lage, sich spontan zu vervielfältigen und an einer beliebigen Stelle der DNA einzubauen. Transposons haben sich im Genom ausgebreitet und machen etwa 40 Prozent des Erbmaterials in Mäusen und Menschen aus. „Methylierung hält diese potenziell schädlichen Erbgutabschnitte in Schach“, sagt Chuck Haggerty, Wissenschaftler in Meissners Team: „Wenn ein Transposon oder Virus mitten in ein Gen springt, könnte das dessen Funktionen beeinträchtigen.“ Die Zelle muss also unbedingt verhindern, dass sich solche Sequenzen unkontrolliert im Genom ausbreiten. Spezielle Enzyme fahnden daher gezielt danach und heften Methylgruppen als chemische Warnhinweise an. Die so markierten DNA-Abschnitte werden daraufhin von der Zelle ignoriert. Ein solches Enzym aus der Gruppe der Methyltransferasen haben die Berliner Forschenden charakterisiert: Es ist dafür zuständig, den epigenetischen Ist-Zustand aufrecht zu erhalten und kann virusartige Erbgutabschnitte auch gezielt stumm schalten.

Verschiedene Studien haben untersucht was passiert, wenn die für die Methylierung zuständigen Enzyme fehlen. In diesem Fall werden viele invasive Elemente wieder aktiviert, und die Mutationsrate der Zellen schnellt nach oben. Experimente wie diese werfen die Frage auf, ob epigenetische Änderungen möglicherweise das genetische Chaos befördern, das mit Krebserkrankungen einhergeht. Tumorzellen tragen nämlich insgesamt oft zu wenige Methylgruppen am Genom, an bestimmten Stellen jedoch wiederum zu viele. Gene für wichtige Reparaturenzyme oder Schutzmechanismen werden dadurch epigenetisch ausgeschaltet. Möglicherweise ergeben sich daraus aber auch Chancen für die Krebstherapie. Denn während Zellen ihre DNA mit hohem Aufwand vor Mutationen schützen, werden epigenetische Markierungen ständig neu gesetzt oder entfernt. Im Prinzip ließen sich daher Medikamente entwickeln, die ganze Gruppen von Genen über epigenetische Effekte wieder an- oder abschalten.

Markierung nach Maß

Alexander Meissner und sein Team wollen daher bestimmte Stellen im Genom gezielt methylieren, um herauszufinden, welchen Effekt die künstlich angebrachten Markierungen haben. Auch dabei kommt ihnen eine umgebaute Version von Cas9 zu Hilfe: Das zentrale Element der Genschere ist Cas9 – ein Enzym, das sich mithilfe von synthetisch hergestellten Führungs-RNAs (Single Guide RNA) gezielt an ausgewählte Regionen im Genom lenken lässt und dort die DNA schneiden kann. Dank der rasanten Entwicklung von Cas9 und ähnlichen Enzymen verfügen Molekularbiologinnen und -biologen heute auch über Cas9-Varianten ohne Schneidefunktion. Genauso wie die schneidende Variante sind auch sie in der Lage, bestimmte Regionen im Genom anzusteuern. Da sie sich darüber hinaus flexibel mit Methyltransferasen koppeln lassen, hoffen die Forschenden, damit künftig gezielt einzelne Basen im Genom methylieren zu können (Abbildung 3). Dafür müssen die Forschenden aber zuerst noch an den Details tüfteln: „Bisher ist die Methylierung leider noch zu unspezifisch“, sagt Alexander Meissner. Denn während der Enzymkomplex nach seinem Ziel sucht, werden hier und da bereits Methylgruppen angehängt. Der Wissenschaftler ist jedoch zuversichtlich, dass sich die Methylierung noch zielgenauer machen lässt. Die vielen neuen Möglichkeiten, die sich daraus ergeben würden, sind der größte Ansporn für ihn und sein Team: „Es hätte enormes Potenzial, wenn wir das Epigenom auf diese Weise gezielt verändern könnten.“

Abbildung 3. Gezielte Methylierung im Genom. Um Cytosinbasen im Genom gezielt zu methylieren, wird eine DNA-Methyltransferase mit einer speziellen Version von Cas9 ohne Schneidefunktion (dCas9) gekoppelt. Da die Führungs-RNA komplementär zur Zielregion ist, lässt sich die Methyltransferase so gezielt in bestimmte Regionen im Genom lenken. Dort versieht sie die Cytosinbasen mit Methylgruppen. Im Idealfall werden dabei nur bestimmte Cytosine methyliert, während weiter entfernt liegende unverändert bleiben. Mit der Methode wird erforscht, welche Methylierungen wann und wo für die Regulation bestimmter Gene verantwortlich sind. © A. Meissner, MPI für molekulare Genetik / CC BY-NC-SA 4.0

Gedächtnis für Umwelteinflüsse

Epigenetische Markierungen können angefügt, aber auch wieder entfernt werden. Dadurch ist das Epigenom im Gegensatz zur DNA-Sequenz relativ flexibel und kann auf Umwelteinflüsse reagieren. Andererseits lassen sich epigenetische Signaturen aber auch konservieren: Während der DNA-Replikation – d.h. bei der Verdopplung der Chromosomen in der teilungsbereiten Zelle – können Methylierungsmuster originalgetreu kopiert werden. Das ermöglicht es, die enthaltenen Informationen von einer Zellgeneration an die nächste weiterzugeben und damit dauerhaft zu speichern. Organismen bauen auf diese Weise ein zelluläres Gedächtnis für Umwelteinflüsse auf. Ob Stress, Ernährung, Sport oder Drogenkonsum – letztlich hinterlässt unsere gesamte Lebensweise Spuren im Epigenom. Zwillingsstudien zeigen dies besonders eindrucksvoll: Eineiige Zwillinge haben exakt die gleichen Gene, trotzdem unterscheiden sie sich in den Mustern ihrer Genaktivität und damit auch in ihren Eigenschaften. Die Unterschiede sind epigenetisch bedingt und nehmen mit dem Lebensalter zu: Während bei dreijährigen Zwillingen die Gene noch nahezu gleich „ticken“, sind die Unterschiede bei 50-jährigen fast viermal so häufig. Besonders ungleich sind jene Pärchen, die schon früh getrennte Wege gehen.

Wie der Großvater, so die Enkelin?

Ein besonders spannendes Gebiet der Molekularbiologie ist derzeit die transgenerationelle Epigenetik, die sich mit der Vererbung epigenetischer Informationen befasst: Immer mehr Studien an so unterschiedlichen Organismen wie Fruchtfliegen, Mäusen und Menschen deuten darauf hin, dass epigenetische Muster nicht nur zwischen verschiedenen Zellgenerationen innerhalb des Körpers weitergegeben werden, sondern zumindest in gewissen Situationen sogar über Generationen hinweg. Demnach können etwa die Ernährungslage während der Schwangerschaft, Traumata, Umweltgifte oder Nikotinkonsum nicht nur das Leben der Kinder bis ins hohe Alter beeinflussen, sondern sogar noch bei den Enkeln und darüber hinaus fortwirken. Inwieweit wir nicht nur unsere Gene, sondern auch epigenetische Veränderungen vererben, muss noch genauer erforscht werden. Es scheint, als könne das Leben unserer Großeltern – das Essen, das sie gegessen haben oder die Erfahrungen, die sie gemacht haben – uns womöglich noch Jahrzehnte später beeinflussen. Und das, obwohl wir selbst diese Dinge nie erfahren haben!

---------------------------------------

[1] Christina Beck,23.04.2020: Genom Editierung mit CRISPR-Cas9 - was ist jetzt möglich?


 * Der Artikel unter dem Titel "Epigenetik - das Gedächtnis unserer Gene" stammt aus dem BIOMAX 23-Heft der Max-Planck-Gesellschaft https://www.max-wissen.de/max-hefte/biomax-23-epigenetik/, das im Sommer 2022 unter Mitwirkung von Dr. Elke Maier (Redaktion Max-Planck-Forschung) aktualisiert wurde. Mit Ausnahme des Titels wurde der unter einer cc-by-n-sa Lizenz stehende Artikel unverändert in den Blog übernommen.


 Weiterführende Links

Max Planck-Gesellschaft: Epigenetik - Änderungen jenseits des genetischen Codes. Video 5:04 min. https://www.youtube.com/watch?v=xshPL5hU0Kg&t=291s

Max Planck-Gesellschaft Epigenetik - Verpackungskunst in der Zelle. Video 8:09 min. https://www.youtube.com/watch?v=0VQ62pD5eqQ

Peter Spork, Newsletter Epigenetik:  https://www.peter-spork.de/86-0-Newsletter-Epigenetik.html

Epigenetik im ScienceBlog

inge Thu, 15.09.2022 - 01:03

Epigenetik: Verjüngungskur für alternde Stammzellen im Knochenmark

Epigenetik: Verjüngungskur für alternde Stammzellen im Knochenmark

Do, 22.09.2022 — Peter Tessarz Peter Tessarz height=

 

Icon Molekularbiologie

Wenn wir altern, werden unsere Knochen dünner, wir erleiden häufiger Knochenbrüche und es können Krankheiten wie Osteoporose auftreten. Schuld daran sind unter anderem alternde Stammzellen im Knochenmark, die nicht mehr effektiv für Nachschub für das Knochengewebe sorgen. Peter Tessarz und sein Team am Max-Planck-Institut für Biologie des Alterns (Köln) haben jetzt herausgefunden, dass sich diese Änderungen zurückdrehen lassen, und zwar durch die Verjüngung des Epigenoms. Eine solcher Ansatz könnte in Zukunft zur Behandlung von Krankheiten wie Osteoporose beitragen*

Das Epigenom verändert sich in alternden Stammzellen

Viele Alternsforscher haben bereits seit einiger Zeit die Epigenetik als eine Ursache von verschiedenen Alterungsprozessen im Blick. Bei der Epigenetik handelt es sich um Veränderungen an der Erbinformation und der Chromosomen, die nicht die Sequenz der DNA selbst verändern, aber ihre Aktivität beeinflussen können. Dies geschieht durch die Modifizierung von DNA und DNA-bindenden Proteinen, den sogenannten Histonen. An diesen Modifizierungen sind kleine Moleküle beteiligt, die aus dem Stoffwechsel der Zelle stammen und die DNA mehr oder weniger zugänglich machen können. Dies erlaubt nachfolgend die Bindung von Transkriptionsfaktoren, die die Gene an- oder abschalten. Durch diesen Prozess sind Stoffwechsel und Epigenetik eng miteinander verbunden und viele Stoffwechselprozesse selbst, aber auch die Ernährung jedes Einzelnen können so die Genexpression beeinflussen.

Abbildung 1: Angefärbtes Kalzium (dunkelbraun) in Stammzellen im Knochenmark: Junge Stammzellen (links) produzieren mehr Material für den Knochenaufbau als alte Stammzellen (Mitte). In alten Stammzellen wiederum sammelt sich mehr Fettgewebe an. Durch Zugabe von Natriumazetat lassen sie sich aber wieder verjüngen (rechts). © Max-Planck-Institut für Biologie des Alterns/Pouikli 0

Da sich der Stoffwechsel mit zunehmendem Alter ändert, ist das Zusammenspiel zwischen Epigenetik und Stoffwechsel ein wichtiger Bestandteil des Alterns. Wir wollen und müssen diesen Aspekt des Alterns besser verstehen, um Ansätze zu entwickeln, die die Lebenszeit eines Menschen verlängern, und zwar um die Zeitspanne, in der er gesund leben kann (Abbildung 1). Eine besonders entscheidende Komponente des Stoffwechsels sind außerdem die Mitochondrien, kleine Organellen in unseren Zellen, die für die Gewinnung von Energie und die Herstellung vieler Stoffwechselprodukte sind. Eines dieser Produkte ist Acetyl-CoA, ein Molekül, das unter anderem in den Zellen benutzt wird, um Fette herzustellen und auch, wie erwähnt, um Histone, zu acetylieren – also kovalent zu modifizieren. Die DNA wird zugänglicher für Transkriptionsfaktoren, die dann Gene effizient anschalten können.

Wie hängen nun also Stoffwechsel, Epigenetik und dünne Knochen zusammen?

Um diese Frage zu klären, haben wir das Epigenom, also alle epigenetischen Veränderungen an der DNA einer Zelle, von mesenchymalen Stammzellen untersucht. Diese Stammzellen finden sich im Knochenmark und können verschiedene Zellarten wie Knorpel-, Knochen- und Fettzellen hervorbringen.

Die Rolle von Acetyl-CoA und der Mitochondrien

Wir wollten wissen, warum diese Stammzellen im Alter weniger Material für die Knochen produzieren und sich so immer mehr Fettgewebe im Knochenmark ansammelt. Deswegen haben wir das Epigenom von Stammzellen aus jungen und alten Mäusen verglichen. Im Alter ändert sich in der Tat das Epigenom sehr, vor allem wird die DNA weniger zugänglich. Diese Veränderungen betreffen häufig diejenigen Gene, die wichtig für die Herstellung von Knochen sind. Weiterhin konnten wir zeigen, dass im Alter weniger Acetylierungen vorliegen, und eine Erklärung dafür könnte sein, dass sich der Stoffwechsel derart verändert ist, dass Mitochondrien weniger Acetyl-CoA produzieren. Dieses aber ist nach unseren Untersuchungen nicht der Fall. Allerdings fanden wir heraus, dass Mitochondrien dieses Stoffwechselprodukt nur noch gering, verglichen mit jungen Mitochondrien, aus ihrem Inneren ausschleusen können. Schuld daran sind reduzierte Mengen eines Proteins (Slc25a1), das dafür verantwortlich ist, Acetyl-CoA von den Mitochondrien in das Cytoplasma zu transportieren [1].

Verjüngung des Epigenoms

Ein spannendes Ergebnis dieser Untersuchungen war, dass es ausgereicht hat, den älteren mesenchymalen Zellen über rekombinante Viren wieder mehr des Proteins Slc25a1 zu verabreichen. So wurde wieder mehr Acetyl-CoA ins Cytoplasma transportiert, die Histone wurden wieder acetyliert und es wurden wieder diejenigen Gene angeschaltet, die dafür sorgen, dass mehr Knochenzellen gebildet werden. Wir konnten sogar zeigen, dass allein schon die kurzfristige Zugabe eines anderen Vorläufers von Acetyl-CoA, nämlich Natriumacetat, zu isolierten Stammzellen ausreicht, das Epigenom zu verjüngen.

Um abschließend zu verstehen, ob die hier vorgestellten Veränderungen im Epigenom auch beim Menschen die Ursache für das im Alter erhöhte Risiko für Knochenbrüche oder Osteoporose sein könnte, untersuchten wir menschliche mesenchymale Stammzellen, die wir nach einer Hüftoperation von Patienten erhielten. Die Zellen von älteren Patienten, die auch an Osteoporose litten, zeigten tatsächlich dieselben epigenetischen Veränderungen, wie sie bereits zuvor bei den Mäusen beobachtet wurden. Dieses zeigt, dass auch im Menschen die Ursachen von dünnen Knochen im Alter wahrscheinlich im Epigenom zu suchen sind.

Neben unserer Studie wurden in den letzten Jahren auch andere Beispiele vorgestellt, die aufgezeigt haben, wie eng Stoffwechsel und Epigenom miteinander verflochten sind. Diese Verbindung ist scheinbar nicht nur ein zentraler Bestandteil des Alterns, sondern spielt auch bei anderen biologischen Prozessen eine entscheidende Rolle. Als Beispiel sei die Embryonalentwicklung zu nennen, wo Änderungen im Stoffwechsel und nachfolgend im Epigenom eng miteinander gekoppelt sind. Auch Erkrankungen, wie zum Beispiel die Entstehung von Tumoren, bei denen sich sowohl Stoffwechsel als auch das Epigenom sehr stark verändern, müssen hier erwähnt werden. In den nächsten Jahren wird es von großer Bedeutung sein, das Zusammenspiel zwischen Stoffwechsel, Epigenetik und Genexpression noch besser zu verstehen, um darauf aufbauend Therapieansätze zu entwickeln. Vielleicht wird es dann in Zukunft auch möglich sein, alte Stammzellen wieder verjüngen zu können und sie im Rahmen einer Stammzelltherapie einzusetzen.

--------------------------------------

[1] Pouikli, A.; Parekh, S.; Maleszewska, M.; Nikopoulou, C.; Baghdadi, M.; Tripodi, I.; Folz-Donahue, K.; Hinze, Y.; Mesaros, A.; Hoey, D.; Giavalisco, P.; Dowell, R.; Partridge, L.; Tessarz, P. Chromatin remodeling due to degradation of citrate carrier impairs osteogenesis of aged mesenchymal stem cells Nature Aging 1, 810–825 (2021)


*Der Forschungsbericht mit dem Titel „Verjüngungskur für alternde Stammzellen im Knochenmark" (https://www.mpg.de/18101170/age_jb_2021?c=155461) stammt aus dem Jahrbuch 2021 der Max-Planck-Gesellschaft, das im Sommer 2022 erschienen ist; mit Ausnahme des marginal veränderten Titels wurde der Bericht unverändert in den Blog übernommen. Die MPG-Pressestelle hat freundlicherweise zugestimmt, dass wir von MPG-Forschern verfasste Artikel in den ScienceBlog stellen können.


 Weiterführende Links

Max-Planck-Institut für Biologie des Alterns: https://www.mpg.de/155461/biologie-des-alterns

Peter Tessarz: Epigenetics and Ageing: Fountain of youth for ageing stem cells in bone marrow (deutsche Untertitel). Video 3:09 min. (13.September 2021) https://www.youtube.com/watch?v=FbwcbFoNInI

Max-Planck-Cinema: Epigenetik - Änderungen jenseits des genetischen Codes.

Peter Spork, Newsletter Epigenetik:  https://www.peter-spork.de/86-0-Newsletter-Epigenetik.html

Epigenetik im ScienceBlog:

inge Thu, 22.09.2022 - 16:58

Photosynthese: Cyanobakterien überleben im dunklen fernroten Licht - das hat seinen Preis, eröffnet aber auch neue Anwendungsmöglichkeiten

Photosynthese: Cyanobakterien überleben im dunklen fernroten Licht - das hat seinen Preis, eröffnet aber auch neue Anwendungsmöglichkeiten

Fr, 09.09.2022 — Redaktion

Redaktion

Icon Biologie

Zwei Arten von photosynthetischen Cyanobakterien können unter Nutzung von energiearmen fernrotem Licht in unglaublich dunkler Umgebung gedeihen. Wie eine neue Untersuchung im Fachjournal e-Life zeigt, geht dies einerseits auf Kosten der Widerstandsfähigkeit gegen Lichtschäden, andererseits auf Kosten der Energieeffizienz. Ein besseres Verständnis der Balance zwischen Effizienz und Widerstandsfähigkeit sollte zur Entwicklung von Kulturpflanzen oder Algen mit zusätzlich eingebauten Fernrot-Photosystemen dienen, die zur Produktion von Nahrungsmitteln und Biomasse aber auch für technologische Anwendungen wie der Synthese von Kraftstoffen Anwendung finden können.*

Das Leben auf der Erde, wie wir es kennen, hängt von der Photosynthese ab. Bei diesem Prozess nutzen Pflanzen, Algen und Cyanobakterien die Sonnenenergie, um Wasser und Kohlendioxid in den Sauerstoff, den wir atmen, und in die Glukose umzuwandeln, die viele biologische Prozesse antreibt.

Die Maschinerie der Photosynthese besteht aus einer aufwändigen, komplizierten Ansammlung von Proteinkomplexen, die hauptsächlich Chlorophyll-a-Moleküle und Carotinoid-Moleküle enthalten. Mehrere dieser Komplexe arbeiten synchron zusammen und vollbringen eine erstaunliche Leistung: Sie spalten Wassermoleküle (eines der stabilsten Moleküle unserer Erde) zur Gewinnung von Elektronen und Erzeugung von Sauerstoff und sie übertragen die Elektronen auf Chinonmoleküle zur Weiterführung der Photosynthese. Die Effizienz dieses ersten Schrittes der Energieumwandlung entscheidet über das Ergebnis des gesamten Prozesses.

Wenn das Photosystem zu viel Licht absorbiert, werden sogenannte reaktive Sauerstoffspezies in einem Ausmaß produziert, dass sie das Photosystem schädigen und die Zelle töten. Um abzusichern, dass das Photosystem effizient arbeitet, und um es vor Schäden zu schützen, wird etwa die Hälfte der Energie des absorbierten Lichts als Wärme abgeleitet, während der Rest der Energie in den Produkten der Photosynthese gespeichert wird.

Abbildung 1: .Die unterschiedlichen Chlorophylle weisen zwei ausgeprägte Absorptionsmaxima im blauen und im roten Spektralbereich des sichtbaren Lichts auf. Grünes Licht, das nicht absorbiert sondern gestreut wird, lässt Blätter grün erscheinen. (Bild und Legende von Redn. eingefügt.)

Viele Jahre lang ist man davon ausgegangen, dass das von Chlorophyll a absorbierte rote Licht (bei einer Wellenlänge von 680 Nanometern) das energieärmste Licht ist, das für den Antrieb der Sauerstoff erzeugenden Photosynthese verwendet werden kann und das gleichzeitig die durch hohe Lichtintensität verursachten Schäden minimiert. Frühere Forschungen haben jedoch gezeigt, dass einige Cyanobakterien, die in dunklen Umgebungen leben, in fernrotem Licht gedeihen können, das nahe an der Grenze dessen liegt, was wir sehen können (Abbildung 1): Dieses Licht hat eine niedrigere Energie als rotes Licht, weil seine Wellenlänge länger ist (720 Nanometer). Diese Cyanobakterien enthalten neben Chlorophyll a auch Chlorophyll d und Chlorophyll f, können aber dennoch die gleichen Reaktionen durchführen wie Organismen, die nur Chlorophyll a enthalten. Bislang war jedoch nicht klar, ob diese Arten einen Preis in Form von Widerstandsfähigkeit gegenüber Lichtschäden oder Effizienz der Energieumwandlung zahlen.

In der Fachzeitschrift eLife berichten nun Stefania Viola und A. William Rutherford vom Imperial College London und Kollegen, die am Imperial College, am CNR in Mailand, an der Freien Universität Berlin, an der Sorbonne und am CEA-Saclay tätig sind, über neue Erkenntnisse zur Photosynthese im Fernrotbereich [1]. Das Team hat zwei Arten von Cyanobakterien untersucht, die im Fernrot Photosynthese betreiben: Acaryochloris marina, das in dunkler Umgebung vorkommt, und Chroococcidiopsis thermalis, das unter variablen Lichtbedingungen lebt und je nach Lichtenergie zwischen normaler Photosynthese und Photosynthese im Fernrot wechseln kann. Um festzustellen, ob diese Organismen die gleiche Widerstandsfähigkeit gegenüber Lichtschäden und die gleiche Effizienz der Energieumwandlung aufweisen wie Organismen, die nur Chlorophyll a enthalten, haben Viola und Kollegen etliche Aspekte des ersten Energieumwandlungsschritts in der Photosynthese (siehe oben) untersucht. Dazu hat die Messung der erzeugten Sauerstoffmenge gehört sowie das Ausmaß an reaktiven Sauerstoffspezies, die zu Lichtschäden führen können.

Abbildung 2: . Photosynthese in rotem und fern-rotem Licht. Pflanzen, Algen und Cyanobakterien verwenden Chlorophyll a (Chl-a), um rotes Licht zu absorbieren und den Prozess der Photosynthese anzutreiben. Studien haben gezeigt, dass Chl-a unempfindlich gegenüber Lichtschäden ist und die Lichtenergie effizient nutzt. Einige Cyanobakterien (grüne Kreise im blauen Teich; nicht maßstabsgetreu) haben sich an ihre dunklere Umgebung angepasst, indem sie andere Chlorophyllmoleküle - Chlorophyll d (Chl-d) und Chlorophyll f (Chl-f) - zur Absorption von fernrotem Licht (das weniger energiereich ist als rotes Licht) verwenden. Die Verwendung dieser Moleküle hat jedoch ihren Preis: Chl-d-Organismen sind energieeffizient, aber nicht widerstandsfähig gegen Lichtschäden; Chl-f-Organismen hingegen sind nicht energieeffizient, aber widerstandsfähig gegen Lichtschäden.

Dabei hat es sich gezeigt, dass beide Arten der Cyanobakterien vergleichbare Mengen an Sauerstoff produzierten wie reine Chlorophyll-a-Cyanobakterien. Das Photosystem II von A. marina, das 34 Chlorophyll-d-Moleküle und nur ein Chlorophyll-a-Molekül enthält, war hocheffizient, hat aber auch hohe Mengen reaktiver Sauerstoffspezies produziert, wenn es starkem Licht ausgesetzt war; dadurch wurde es weniger widerstandsfähig gegen Lichtschäden. Im Gegensatz dazu produzierte C. thermalis - das vier Chlorophylle f, ein Chlorophyll d und 30 Chlorophyll a-Moleküle enthält - bei weitem nicht so viele reaktive Sauerstoffspezies, war aber auch weniger energieeffizient, wenn es in fernem Rotlicht kultiviert wurde. Abbildung 2.

Viola et al. geben eine detaillierte Beschreibung davon, wie sich diese Organismen an die lichtarmen Bedingungen in ihrer Umgebung angepasst haben und welche Kosten mit ihren Eigenschaften verbunden sind [1]. Ein besseres Verständnis der Art und Weise, wie photosynthetische Organismen energiearmes Licht nutzen, könnte den Wissenschaftlern dabei helfen, in Algen oder Pflanzen, die nur Chlorophyll a enthalten, fernrote Photosysteme einzubauen und so die Nutzung des Sonnenlichts zu verbessern und die Ernteerträge zu steigern. Außerdem könnten in Zukunft künstliche Systeme entwickelt werden, die energiearmes Licht zur Erzeugung von synthetischen Kraftstoffen aus Solarenergie nutzen.


 [1] Stefania Viola et. al.,Impact of energy limitations on function and resilience in long-wavelength Photosystem II .  https://doi.org/10.7554/eLife.79890


* Der von E. Romera stammende Artikel: "Photosynthesis: Surviving on low-energy light comes at a price" ist am 02 September 2022 erschienen in: eLife/elifesciences.org/articles/82221 https://doi.org/10.7554/eLife.82221 4 als eine leicht verständliche Zusammenfassung ("Insight") der Untersuchung von S.Viola et al. [1]. Der Artikel wurde von der Redaktion ins Deutsche übersetzt und mit Abbildung 1 plus Text ergänzt. eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz -


Photosynthese im ScienceBlog:

Historisches

Photosynthese in der Biosphäre

Auf dem Weg zur künstlichen Photosynthese


 

inge Fri, 09.09.2022 - 15:50

Anders wirtschaften - Wachstumsmodelle und das Problem das Wirtschaftswachstum vom Ressourcenverbrauch zu entkoppeln

Anders wirtschaften - Wachstumsmodelle und das Problem das Wirtschaftswachstum vom Ressourcenverbrauch zu entkoppeln

Do, 01.09.2022 — Caspar Dohmen

Caspar Dohmen

Icon Politik & Gesellschaft

Passt ein Ökonomie-Artikel in den ScienceBlog? Sicherlich, denn ohne neue naturwissenschaftliche Erkenntnisse und Entwicklungen werden sich die gravierenden aktuellen Probleme nicht lösen lassen. Im ersten Jahr der Pandemie 2020 ist die Weltwirtschaft wohl geschrumpft, in Deutschland um fünf Prozent. Dennoch ist die globale Wirtschaft seit Mitte des 19. Jahrhunderts exorbitant gewachsen. Hauptursachen waren die Schaffung des kapitalistischen Wirtschaftssystems, technologische Erfindungen und die Nutzung fossiler Energie. Das hat einen enormen Zuwachs an Wohlstand für viele Menschen ermöglicht. Aber die Nebenwirkungen sind schwer – das zeigen unter anderem die Klimakrise und das Artensterben. Die Zukunft der Menschheit hängt davon ab, ob sie Wachstum und den Erhalt natürlicher Lebensgrundlagen in Einklang bringen wird. Caspar Dohmen, Ökonom, freier Journalist und journalistischer Fellow am Max-Plank-Institut für Gesellschaftsforschung in Köln berichtet. *

 

Europa litt lange Zeit unter Knappheit, alleine zwischen 1315 und 1317 verhungerten fünf Millionen Menschen. Die Bevölkerung nahm dies als schicksalhaft hin und konnte sich nicht einmal vorstellen, dass sie ihre materiellen Bedingungen gravierend selbst verändern könnte. An dieser Einstellung rüttelte die Aufklärung, die das Denken von Anfang des 18. Jahrhunderts an revolutionierte. Nun verbreitete sich rationales Denken, erlebten Geistes- und Naturwissenschaften einen Aufschwung, was auch gravierende technologische und soziale Innovationen ermöglichte. Die Menschen verwandelten die stationäre, nicht wachstumsorientierte Wirtschaft in eine dynamische Wirtschaft, vor allem indem sie menschliche und tierische Arbeit in einem steigendem Ausmaß durch Kapital ersetzten. Dank der Maschinen und der Nutzung fossiler Energie stieg die Produktivität enorm an, konnte mehr erwirtschaftet und verteilt werden. Wer in Westeuropa lebt, ist deswegen im Schnitt etwa 20-mal reicher als seine Ur-Ur-Urgroßeltern. In unseren Tagen könnte man sogar die elementaren Bedürfnisse aller Lebenden befriedigen. Wenn trotzdem mehr als 800 Millionen Menschen hungern, dann deshalb, weil vielen Menschen Geld fehlt, um sich in ausreichender Menge Nahrungsmittel kaufen zu können.

 

Löhne als Motor

„Wachstum hat in kapitalistischen Ökonomien einen zentralen Stellenwert als politische Zielsetzung, als diskursives Mittel zur Legitimierung politischer Weichenstellungen und auch als „Kitt“ der die Gesellschaft zusammenhält, indem er den Kapitalismus in Gang hält und damit Wohlstand sichert“, so die Politikökonomin Arianna Tassinari. Sie befasst sich am Max-Planck-Institut für Gesellschaftsforschung in Köln mit der „Politischen Ökonomie von Wachstumsmodellen“. Der Direktor des Instituts, Lucio Baccaro, hat den Forschungsbereich ins Leben gerufen. Sein Ziel ist es, unterschiedliche Spielarten des Kapitalismus zu untersuchen, mit denen Staaten im Europa unserer Zeit Wachstum erzeugen.

„Der Motor für das Wachstum in großen europäischen Staaten war bis etwa 1990 stetes Lohnwachstum“, sagt Lucio Baccaro. Weil die Reallöhne im gleichen Maße (oder manchmal sogar schneller) als die Arbeitsproduktivität stiegen, konnten die Verbraucher im Laufe der Zeit mehr Geld für Konsum ausgeben. Das veranlasste Unternehmen zu investieren und mehr zu produzieren, was wiederum für Wachstum sorgte. Das Modell kam infolge der beiden Ölkrisen in den 1970er-Jahren unter Druck, als gleichzeitig Inflation und Arbeitslosigkeit stiegen. Zur Bekämpfung der Inflation entschieden sich Regierungen für politische und institutionelle Reformen, etwa die Einführung unabhängiger Zentralbanken, wie es sie in der Bundesrepublik bereits gab. Negativ wirkte sich auf das lohnorientierte Wachstumsmodell in Europa eine veränderte Arbeitsteilung aus. Von 1990 an begannen hiesige Unternehmen in großem Umfang Arbeit in Billiglohnländer zu verlagern, nach Asien, aber auch in die Transformationsländer in Mittel- und Osteuropa. Nun nähten dort Menschen Jeans oder fertigten Autoteile. Alleine die 30.000 größten Konzerne der Welt konnten ihre Gewinne in den Jahren von 1989 bis 2014 verfünffachen, obwohl sie ihre Umsätze nur verdoppelten. Wenn sich der Umsatz verdoppelt und der Gewinn verfünffacht, müssen die Kosten drastisch gesunken sein, ganz nach der betriebswirtschaftlichen Gleichung: Umsatz – Kosten = Gewinn. Diese Entwicklung schwächte die Gewerkschaften, was ein wesentlicher Grund dafür ist, dass der Anteil der Beschäftigten am erwirtschafteten Volkseinkommen phasenweise deutlich sank, während der Anteil der Unternehmen in Form ihrer Gewinne anstieg.

Neue Wege zum Wachstum

Das lohnorientierte Wachstumsmodell wurde nach Analysen des Max-Planck-Instituts für Gesellschaftsforschung durch mindestens vier neue Modelle abgelöst (Abbildung 1): „Großbritannien steht exemplarisch für das konsumorientierte Wachstumsmodell, welches wesentlich auf günstigen Krediten für die Bevölkerung beruht“, erläutert Lucio Baccaro. Deutschland ist ein Beispiel für das exportorientierte Wachstumsmodell, welches auf drei Elementen basiert: einem Exportsektor, der ausreichend groß ist, um als Lokomotive für die gesamte Volkswirtschaft zu fungieren, einer institutionalisierten Lohnzurückhaltung und einem festen Wechselkurssystem. Schweden wiederum steht für eine Kombination der Wachstumstreiber Konsum und Export, zumindest bis zur Finanzkrise von 2008. Länder wie Italien fanden dagegen keinen tragfähigen Ersatz für ein lohnorientiertes Wachstum. „Die beschriebenen Modelle sind prinzipiell auch auf Volkswirtschaften außerhalb Europas übertragbar“, sagt Erik Neimanns aus dem Forschungsteam von Baccaro. „Nimmt man weitere Länder in den Blick, lassen sich zudem zusätzliche Wachstumsmodelle beobachten, die z. B. auf dem Export von Rohstoffen, dem Tourismus oder hohen staatlichen und privaten Investitionen beruhen.“

Abbildung 1. Wie die Wirtschaft wächst

  • GB: Hohes Leistungsbilanzdefizit (Importe übersteigen Exporte), hohe Konsumausgaben, starke Nachfrage nach Dienstleistungen auch im mittel- und geringqualifizierten Bereich
  • IT: Exportsektor klein, Spezialisierung auf arbeitsintensive Güter, realer Wechselkurs des Euro im Verhältnis zur Wirtschaftsleistung zu hoch, schwacher Konsum
  • SE: Gleichzeitiges Wachstum im Export u. im Konsum, preisunempfindliche Exporte v.a. IT-Dienstleistungen, Lohnzuwächse in der Industrie u. im Dienstleistungssektor
  • D: Anhaltende Leistungsbilanzüberschüsse (Exporte übersteigen Importe), realer Wechselkurs des Euro im Verhältnis zur Wirtschaftsleistung zu niedrig, wachsende Ungleichheit durch Niedriglohnsektor im Dienstleistungsbereich © GCO, HNBM, istock

Noch nie haben Bürgerinnen und Bürger in Deutschland explizit bei einer Bundestagswahl über das auf Export beruhende Wirtschaftsmodell abgestimmt, genauso wenig wie die Britinnen und Briten über ein konsumorientiertes Wachstumsmodell. Allerdings stärken Regierungen regelmäßig mit Gesetzen das jeweilige Modell, in Deutschland beispielsweise durch die Hartz-Reformen im Jahr 2005. Dazu zählten unter anderem deutliche Einschnitte in die Arbeitslosenunterstützung oder die Einführung von Leiharbeit, was die Wettbewerbsfähigkeit der Exportindustrie stärkte.

Politik bestimmt den Kurs

Politikökonominnen und -ökonomen beschäftigen sich mit der Wechselwirkung von Wirtschaft und Gesellschaftssystem. Drei Vertreter, Mark Blyth, Jonas Pontusson und Lucio Baccaro, haben die Hypothese aufgestellt, dass funktionierende Wachstumsmodelle wie in Deutschland oder Großbritannien von einer klassenübergreifenden Koalition getragen werden. Die Wissenschaftler verstehen darunter einen Zusammenschluss gesellschaftlicher Akteure, der die Kluft zwischen Arbeit und Kapital überwindet und all diejenigen Gruppen einer Gesellschaft einbezieht, die von dem jeweiligen Wachstumsmodell profitieren. Einer solchen Koalition können mehr oder weniger organisierte Interessengruppen aus Schlüsselsektoren der Wirtschaft angehören, z.B. wirtschaftliche Eliten, Unternehmen und Arbeitgeberverbände, aber auch Beschäftigte oder Gewerkschaften, die von den Erfolgen in wirtschaftlich bedeutsamen Sektoren profitieren, sowie Regierungsmitglieder, die einen reibungslosen Betrieb der Volkswirtschaft gewährleisten sollen. Zu den Schlüsselsektoren zählen die drei Forscher in Deutschland den Maschinenbau und die Automobilindustrie, in Großbritannien die Finanzindustrie oder in Irland die Europatöchter der US-Technologiekonzerne. „Ein Merkmal von dominanten gesellschaftlichen Koalitionen ist, dass ihre Mitglieder einen legitimierenden Diskurs vorgeben“, sagt Baccaro. Das bedeutet, dass sie in der Lage sind, ihre Interessen als mit dem nationalen Interesse übereinstimmend darzustellen. Parteipolitik spielt in der Politik der Wachstumsmodelle eine wichtige Rolle. Da die dominante gesellschaftliche Koalition in den meisten Fällen über keine Stimmenmehrheit verfügt, muss sie eine Wahlmehrheit um jene Politik herum aufbauen, die ihren Interessen nützt. Die großen Parteien stehen im Wettstreit darum, das gegebene Wachstumsmodell und die damit verbundene vorherrschende gesellschaftliche Koalition bestmöglich zu managen. Zumindest diese Parteien bieten den Wählern nach Ansicht der Wissenschaftler auch keine grundlegende Alternative zu dem ausgewählten Wachstumsmodell, egal ob sie links oder rechts der Mitte positioniert sind.

Die Vermessung des Wohlstands

Üblicherweise wird das Wachstum anhand der Zunahme des Bruttoinlandsprodukts (BIP) gemessen. Statistiker berechnen für Länder zunächst das Bruttosozialprodukt (BSP), also den Wert aller Güter und Dienstleistungen, die in einer Volkswirtschaft binnen eines Kalenderjahres hergestellt oder bereitgestellt worden sind. Zur Berechnung des BIP werden vom BSP alle Erwerbs- und Vermögenseinkommen abgezogen, die in der zeitlichen Periode ins Ausland gingen. Addiert werden die Einkommen, die Inländer aus dem Ausland erhalten haben. Das BSP zielt somit eher auf Einkommensgrößen ab und wird in der volkswirtschaftlichen Gesamtrechnung auch als Bruttonationaleinkommen bezeichnet. Das BIP misst dagegen die wirtschaftliche Leistung eines Landes von der Produktionsseite her und ist in der Wirtschaftsstatistik und der Berichterstattung das Maß aller Dinge. Von Anfang an gab es Kritik am BIP als Maßstab gesellschaftlichen Fortschritts, weil viele Leistungen wie Hausarbeit oder ehrenamtliche Arbeit unerfasst bleiben, obwohl sie für das Wohlergehen der Individuen und den Zusammenhalt in einer Gesellschaft wichtig sind. Das BIP lässt auch keine Rückschlüsse über die Verteilung des Wohlstands zu: Es kann durchaus wachsen, obwohl gleichzeitig die Zahl der Armen zunimmt. Außerdem steigt der Indikator, wenn Umweltschäden beseitigt werden müssen. In den Nationalen Wohlfahrtsindex (NWI) fließen 20 Größen ein. Im Gegensatz zum BIP erfasst er auch die Einkommensverteilung sowie diverse wohlfahrtssteigernde Komponenten (Hausarbeit, ehrenamtliche Tätigkeiten) und wohlfahrtsmindernde Aktivitäten (Kriminalität oder Umweltschäden wie Flächenverlust). Alle Dimensionen werden monetär in Euro bewertet und entweder aufaddiert oder abgezogen. Während das BIP in Deutschland seit 1991 relativ kontinuierlich stieg, entwickelte sich der Wohlstand gemessen am NWI unterschiedlich und nahm weit weniger zu (Abbildung 2). Es existieren diverse weitere Indikatoren zur Messung des Wohlstands, etwa der von den Vereinten Nationen erhobene Index der menschlichen Entwicklung, der Better-Life-Index der OECD, das Bruttonationalglück oder die Gemeinwohl-Bilanz.

Entwicklung von NWI und BIP in Deutschland. BIP und NWI zeigen unterschiedliche Bilder der gesellschaftlichen Entwicklung: Das Wachstum des BIP wird nur durch die Finanzkrise im Jahr 2009 und die Corona-Pandemie unterbrochen. Die Entwicklung des NWI verläuft in verschiedenen Phasen (Anstiege, Rückgang, Stagnation). Der NWI hat zwischen 1991 und 2019 um knapp 12 Punkte zugenommen – weniger als ein Drittel der Steigerung, die das BIP ausweist. © FEST e.V. – Institut für Interdisziplinäre Forschung

Grüne Wirtschaft

Bislang hat es die Menschheit nicht geschafft, das Wirtschaftswachstum vom Ressourcenverbrauch zu entkoppeln. Nicht zuletzt deswegen wird es immer schwieriger, die Klimaerwärmung in einem begrenzten Ausmaß zu halten. Auch die Ressourcen, die der Mensch für seine Wirtschaftsweise braucht, werden zunehmend knapp. Das gilt sogar schon für ein vermeintlich im Überfluss vorhandenes Gut wie Sand, das vor allem für den Immobilien- und Straßenbau benötigt wird. Die natürlichen Lebensgrundlagen schwinden immer mehr, mit erheblichen Folgen. „Ökonomisches Denken bezieht die Natur als Produktionsfaktor nicht ein“, sagte der Umweltökonom Sir Partha Dasgupta bei der Übergabe seines Berichts über die „Ökonomie der Artenvielfalt“ an die britische Regierung 2021. Auf dem Cover sind ein Stück Waldboden und ein Fliegenpilz abgebildet. Innen finden sich erschreckende Zahlen: Während sich das Sachkapital global von Anfang der 1990er-Jahre bis Mitte der 2000er-Jahre verdoppelt hatte und das Humankapital um 13 Prozent gestiegen war, sanken die Naturwerte um 40 Prozent. Die Menschheit sei daran gescheitert, „eine nachhaltige Beziehung zur Natur aufzubauen“, schreibt der Wissenschaftler. Statt einer die Natur zerstörende Ökonomie bräuchte es eine, die die Natur aufbaut: eine regenerative Ökonomie.

Abbildung 3. Kapitalformen und Wechselwirkungen Forschende haben in den vergangenen Jahrzehnten Methoden entwickelt, um den ökonomischen Wert natürlicher Ressourcen zu erfassen und damit den Begriff des Naturkapitals geprägt. Es umfasst die biologische Vielfalt und Ökosystemleistungen (z.B. sauberes Grundwasser, Bindung von Treibhausgasen, Blütenbestäubung, Erholungsfunktion von Naturräumen). © Verändert nach: The Economics of Biodiversity, 2021, S. 39

Die längste Zeit der menschlichen Evolution haben Menschen im Einklang mit der Umwelt gelebt und gewirtschaftet, so wie heute noch manche indigene Gemeinschaften. Mittlerweile ist es aber eine Frage des Überlebens, ob und wenn ja, wie sich Ökonomie und Ökologie in Einklang bringen lassen (Abbildung 3). Noch verschlingt alleine Europas Wirtschaft jährlich 16 Tonnen Material pro Kopf. Und am Ende fallen pro Person jährlich fünf Tonnen Müll an. Mehr Wachstum bedeutete eben bislang meist auch mehr Müll. Manche sehen die Lösung in einer Kreislaufwirtschaft, in der Abfall wieder zum Rohstoff eines neuen Verwertungszyklus wird, so wie bei Mehrwegflaschen oder Altpapier. Es wäre allerdings ein Irrtum zu glauben, dass eine Kreislaufwirtschaft den Konflikt zwischen Wachstum und Nachhaltigkeit ganz auflösen könnte. Denn ein permanentes Recycling ist bei anorganischen Stoffen aufgrund physikalischer Gesetzmäßigkeiten unmöglich. Jeder Verwertungsprozess führt immer auch zu einem Verlust von Material. Recycling benötigt zudem Energie, für deren Gewinnung wieder Ressourcen eingesetzt werden. Manche Rohstoffe wie seltene Erden sind auch nur begrenzt vorhanden – entsprechend lassen sich daraus nicht beliebig viele Produkte fertigen, die in immerwährenden Kreisläufen zirkulieren. Wenn die Menschheit ihre Lebensgrundlagen erhalten will, muss sie daher nicht nur anders wirtschaften, sondern auch mit weniger natürlichen Ressourcen auskommen.


 * Der Artikel ist erstmals unter dem Title: " Anders wirtschaften - Wachstumsmodelle in der Ökonomie" https://www.max-wissen.de/max-hefte/wachstumsmodelle-oekonomie/ in GeoMax 26/Sommer 2022 der Max-Planck-Gesellschaft erschienen und steht unter einer CC BY-NC-SA 4.0 Lizenz. Mit Ausnahme des abgeänderten Titels wurde der Artikel unverändert in den Blog übernommen.


 

inge Thu, 01.09.2022 - 18:28

Energiewende - jetzt Wasserstoff-Pipelines bauen

Energiewende - jetzt Wasserstoff-Pipelines bauen

Do, 25.08.2022 — Robert Schlögl

Robert Schlögl

Icon Energie

Vor drei Jahren hat Robert Schlögl, Direktor am Max-Planck-Institut für Chemische Energiekonversion (Mülheim a.d.R.) in einem, nicht nur für Deutschland richtungsweisenden Eckpunktepapier "Energie. Wende. Jetzt" (s.u.) für einen beschleunigten Umbau des Energiesystems appelliert, der nun durch Ukrainekrieg und drohende Gasknappheit noch an Tempo zulegen muss. In einem Interview spricht Schlögl über die prioritär zu setzenden Maßnahmen und was die Wissenschaft dazu beitragen kann. Er plädiert dafür, zügig die Infrastruktur für die Wasserstoffökonomie aufzubauen. In der Energieversorgung nach Autarkie zu streben, hält er ebenso für falsch wie eine Laufzeitverlängerung für Atomkraftwerke.*

 

Herr Prof. Schlögl, wie bewerten Sie die Maßnahmen, die angesichts der erwarteten Gaskrise ergriffen wurden?

Als erstes muss man mal sagen, dass die Regierung ziemlich viel unternommen hat. Man kann kurzfristig, glaube ich, nicht sehr viel mehr machen. Aber anstatt zu appellieren, wir sollen die Heizung über Nacht runterdrehen, wäre es besser, den Leuten klar sagen, dass wir durch einen historischen Fehler in eine gefährliche Situation gekommen sind. Den kann man nicht in ein paar Wochen ausbessern. Eine Minute weniger duschen und nachts die Temperatur runterregeln, löst das Problem nicht.

Was ist in der Vergangenheit falsch gemacht worden?

Das ist nicht nur die Abhängigkeit von russischem Gas, wir haben in Deutschland ein Systemproblem. Wir lösen unsere Probleme gerne auf Kosten anderer. Die Regelenergie, die wir für ein stabiles Netz brauchen, beziehen wir aus Frankreich, weil es dort Atomkraftwerke gibt. Und vor zehn Jahren haben wir noch 30 Prozent unseres Erdgases aus Russland bezogen, jetzt sind es 55 Prozent. Da hat man nicht aufgepasst, weil man nur aufs Geld geschaut hat. Jetzt begreift man vielleicht langsam, dass es ein energiepolitisches Dreieck gibt. Versorgungssicherheit, Nachhaltigkeit und Preis hängen miteinander zusammen. Wenn man sich in dem Dreieck in eine Richtung bewegt, dann werden die beiden anderen Richtungen automatisch schlechter.

Was muss also getan werden, um uns über den Winter zu bringen?

Man muss die Kohlekraftwerke hochfahren, damit man alles Gas, das nicht zum Heizen gebraucht wird, im Sommer in den Speicher füllen kann. Ein Füllstand von 60 Prozent ist alarmierend, das reicht nicht. In sechs Wochen ist das Fenster zu. Bis Ende August hat man Zeit, die Speicher zu füllen, nicht bis November. Denn im November laufen alle Heizungen.

Soll man auch die Atomkraftwerke weiterlaufen lassen?

Nein, auf keinen Fall – Atomkraftwerke weiterlaufen zu lassen ist Unsinn. Da gibt es drei Argumente dagegen: Erstens haben die Unternehmen die ganzen Materialien nicht mehr, um die AKW länger laufen zu lassen, auch wenn die vorhandenen vielleicht noch ein paar Monate länger reichen. Zweitens gibt es wahrscheinlich keine Arbeitskräfte mehr, weil man allen wichtigen Leuten in den AKWs zum Jahresende gekündigt hat. Und drittens muss man den politischen Schaden bedenken, wenn man zum dritten Mal eine Rolle rückwärts macht. Nein, das geht nicht. Die AKWs können fünf Prozent unserer Stromversorgung beitragen. Da kann ich auch zwei Kohlekraftwerke anschmeißen.

Klimapolitisch ist das aber natürlich nicht sinnvoll.

Wir emittieren 1000 Millionen Tonnen CO2 im Jahr. Wenn da noch zwei Millionen dazukommen, ist das völlig egal. Da muss man die Symbolpolitik von der Realität trennen. Wenn man nukleare Energie als einen Bestandteil der Energieversorgung zur Sicherung verwenden würde, wie das in Frankreich der Fall ist, wäre das etwas anders. Wir haben in einem demokratischen Prozess beschlossen, dass wir keine AKWs wollen – auch wenn das wissenschaftlich anfechtbar ist. Aber da jetzt eine Rolle rückwärts zu machen, würde, glaube ich, den sozialen Frieden in diesem Land aufkündigen. Das ist eine Scheintoten-Debatte, die von den wirklichen Problemen ablenkt.

Welche sind das?

Wir müssen schnellstens unsere Infrastruktur auf Vordermann bringen. Alle reden von erneuerbaren Energieträgern. Aber für die Tausenden von Windrädern, die jetzt gebaut werden sollen, gibt es keine Stromleitungen. Und für den grünen Wasserstoff, den wir kaufen wollen, gibt es keine Pipelines. Zumindest beginnt jetzt der Bau der Suedlink-Leitung von Nord- nach Süddeutschland, die schon vor zwölf Jahren versprochen wurde. Und sie kostet jetzt 25 bis 30 Milliarden statt 3 bis 4 Milliarden Euro, weil man die Leitung als Kabel in die Erde legt, damit man keine Masten sieht. Aber man wird die Stromleitungen auch so genau sehen, weil die Kabel so heiß werden, dass es an der Oberfläche 70 Grad warm wird und sich dort ein Wüstenstreifen bildet. Das war ein politischer Kompromiss, den Herr Seehofer durchgesetzt hat, der sachlich einfach nicht gerechtfertigt war. Das können wir uns eigentlich nicht leisten. Die Irrationalität in diesen Planungen ist ein Problem. Mich beunruhigt aber mehr, dass wir keinen Gesamtplan haben.

Was meinen Sie damit?

Es ist auch ein fundamentaler Unsinn, die Energiewende durch das Klimaschutzgesetz in Sektoren aufzuteilen, die wie die Ministerien zugeschnitten sind. Jetzt sind für die Energiewende fünf Ministerien zuständig, und jedes Ministerium macht wegen des Klimaschutzgesetzes irgendwas. Es gibt keine systemische Betrachtung. Das ist selbst dem Bundeskanzler schon aufgefallen. So ein großes Projekt wie die Energiewende braucht eine Steuerung.

Wie macht sich bemerkbar, dass die fehlt?

Das Gesamtsystem muss optimiert werden, nicht einzelne Sektoren, und vor allen Dingen nicht ein Sektor auf Kosten aller anderen. Denn alle Energieträger und alle Anwendungen stehen miteinander in Wechselwirkung, und deswegen auch alle Infrastrukturen. Wir haben ja nicht einmal eine gemeinsame Infrastruktur. In der Situation wollen jetzt alle auf die nicht vorhandene grüne Elektrizität zugreifen. Die einen wollen elektrisch Autofahren, die anderen wollen elektrisch heizen, und die dritten wollen ihre Industrie elektrifizieren. Ein großes Problem dabei ist, dass wir dafür viel mehr grünen Strom brauchen, als es unserem heutigen Energiebedarf entspricht. Denn um die Schwankungen von Wind und Sonne auszugleichen, muss man ungefähr 50 Prozent der Energie speichern. Wind- oder Sonnenstrom in eine speicherfähige Form umzuwandeln, kostet aber viermal mehr Energie als sie direkt zu verwenden. Die Leute, die die Energiewende verantworten, sagen aber, dass wir auch künftig nur so viel Energie haben können wie jetzt.

Müssen wir also unseren Energiebedarf senken?

Die Energie ist nicht begrenzt, aber die Gesellschaft begrenzt sie. In Zukunft schreibt Ihnen vielleicht jemand vor, dass Sie nur 1000 Kilowattstunden verbrauchen dürfen. Denn wir laufen auf ein Energiesystem zu, das bewusst auf Autarkie ausgelegt ist. Deshalb lesen Sie überall, dass der Bedarf an Primärenergie halbiert werden muss. Aber das ist natürlich Blödsinn. In einer freiheitlich-demokratischen Gesellschaft darf Ihnen niemand Ihren Energieverbrauch vorschreiben. Das Energiesystem muss so gebaut sein, dass es allen Sparten die Energie zur Verfügung stellt, die sie brauchen.

Ist das der Grund, warum Sie immer wieder für einen globalen Markt der erneuerbaren Energien werben?

Ja, genau. Aber die Energiewende, die jetzt politisch vertreten wird, geht nicht von einem globalen Energiemarkt aus, sondern von Unabhängigkeit. Das Streben nach Autarkie ist aber ein grober systemischer Fehler. Unser Land ist Exportweltmeister. Wie können wir denn autark sein? Wenn wir das versuchen, bricht unser Land sofort zusammen. Wir brauchen einen globalen Markt für erneuerbare Energie, nicht Autarkie.

Aber gerade die Abhängigkeit vom russischen Gas und die Tatsache, dass man sich jetzt mit anderen zweifelhaften Staaten arrangieren muss, ist doch jetzt ein Problem.

Da ist das Streben nach Autarkie doch verständlich. Dieses Argument habe ich schon sehr oft gehört, aber das ist ja vollkommen unzutreffend, weil die Situation eine völlig andere ist. Man muss den Import von Energie diversifizieren. Und das ist mit erneuerbarer Energie viel leichter möglich als mit fossiler. Denn die fossilen Energieträger bekommt man nur daher, wo eine Quelle ist. Erneuerbare Energie in transportierbarer Form kann man besonders effizient in einem Streifen plus/minus 20 Grad um den Äquator erzeugen. Da liegen 60 Prozent der Landmasse der Erde. Schon die Hälfte der Landfläche von Saudi-Arabien würde reichen, um den Energiebedarf der gesamten Welt zu decken. Bei uns geht das nicht so effizient, weil wir außerhalb dieser günstigen Zone liegen.

Sollten wir die regenerative Stromerzeugung dann bei uns massiv ausbauen?

Wir sollten die Energiewandlung, also zum Beispiel Fotovoltaik, Windturbinen und die Wasserstofferzeugung, bei uns in sinnvollen Dimensionen ausbauen. Aber es ist ehrlich gesagt dumm, bei uns die ganze Energie zu wandeln, die wir brauchen. Wir haben jetzt schon die höchste Dichte an Energiewandlern auf der ganzen Welt und damit decken wir nur zehn Prozent des Bedarfs. Wir müssten alles also zehnmal so dicht mit Solaranlagen und Windrädern zupflastern, um den ganzen Bedarf zu decken. Aber wir wollen doch nicht in einem landesweiten Windpark leben. Und das ist auch nicht nötig. Die Sturheit der Politik in dieser Hinsicht kritisiere ich wirklich stark. Die Energie dort zu erzeugen, wo es am effizientesten ist, würde das Problem lösen.

Wie sieht man das in anderen Ländern, vor allem denen, die uns künftig die Energie liefern sollen?

Die Welt wird diesen Weg gehen, egal ob die Deutschen das wollen oder nicht. Warum setzen wir uns nicht an die Spitze dieser Bewegung, anstatt das verhindern zu wollen. Wir haben ja jetzt auch einen globalen Energiemarkt, und den wird es immer geben. Sie glauben doch nicht im Ernst, dass die heutigen Akteure sich das einfach wegnehmen lassen – natürlich nicht, auch weil Energie einen großen Machtfaktor darstellt. Es gibt ja de facto keinen Mangel an Energieträgern auf dieser Welt. Die Knappheit, die wir gerade erleben, ist nur auf Spekulation und Politik zurückzuführen. Putin verkauft jetzt seine Energieträger irgendwem anders als uns und der, der die gekauft, kauft sie dann nicht mehr in Amerika. Aber deswegen ist doch der Verbrauch nicht anders geworden, und das Angebot ist auch nicht anders geworden, sondern nur die Spekulation ist anders geworden. Daran sieht man, welche Macht dahintersteckt.

Wie kann man diese Macht begrenzen?

Wir müssen als ein Land, das immer ein Nettoimporteur von Energie bleiben wird, dafür sorgen, dass in diesem globalen Markt möglichst viele Spieler mitspielen. Diversifizierung ist also die Aufgabe.

Gibt es in der Wissenschaft schon systemische Konzepte?

Das Bundesforschungsministerium hat vor zwei Jahren das Projekt TransHyDE aufgesetzt, das ich koordiniere. Darin untersuchen wir den Transport von Wasserstoff für Deutschland. In einem großen Teilprojekt geht es dabei um die Systemanalyse. Da entwickeln ungefähr 40 Unternehmen und 250 Leute systemische Konzepte. Auch die Betreiber heutiger Pipelines haben solche Konzepte. Die wollen die Gaspipelines künftig mit Wasserstoff füllen. Das geht aber nicht, weil es nicht so viel Wasserstoff gibt, dass sich das Erdgas von einem Tag auf den anderen ersetzen lässt. Wir sind in Deutschland toll darin, schnell aus etwas auszusteigen. Dann überlegen wir erst, wo wir einsteigen. Das ist auch ein Webfehler unserer Energiewende. Man muss aber erst in etwas Neues einsteigen, und wenn das funktioniert, schaltet man das alte ab.

Das heißt, man sollte für den Wasserstoff neue Pipelines bauen?

Ja genau, wir müssen jetzt Wasserstoff-Pipelines bauen, damit wir sie in fünf Jahren haben.

Aber eine Idee ist doch, die alten Erdgaspipelines für den Wasserstoff zu verwenden.

Dann müssen Sie aber warten, bis der Wasserstoff da ist, und das dauert noch 20 Jahre. Bis dahin sind die alten Pipelines 40 Jahre alt – dann kann man sie nicht mehr verwenden. Es ist doch unsinnig zu glauben, dass man einfach den Gashahn abdrehen kann. Gas trägt etwa ein Drittel zum gesamten deutschen Energiesystem bei. Die erneuerbaren Energien liefern aber nur zehn Prozent davon. Das passt also quantitativ nicht. Man muss jetzt mal warten, bis wir 500 Terawattstunden Wasserstoff verfügbar haben. Das ist eine irrsinnig große Menge. Wir haben heute 800 Terawattstunden Erdgas, soviel Wasserstoff wird es vielleicht in 20 Jahren geben – aber für die ganze Welt. Um das russische Gas durch Wasserstoff zu ersetzen, müssten alle Fabriken auf der Welt, die Elektrolyseure herstellen, 40 Jahre lang Elektrolyseure produzieren, damit man das ersetzen kann – aber nur für Deutschland. (Abbildung)

Abbildung Die Wasserstofftechnologie: Umwandlung volatiler Erneuerbarer Energien in Wasserstoff und flüssige Kraftstoffe. (Bild stammt von der homepage des Autors https://www.cec.mpg.de/de/forschung/heterogene-reaktionen/prof-dr-robert-schloegl und wurde von der Redaktion eingefügt)

Hat der Umstieg auf Wasserstoff, für den Sie immer plädieren, dann überhaupt eine Chance?

Der Umstieg auf Wasserstoff hat keine Chance, wenn man sagt, wir wollen das in zwei Jahren machen. Aber wir wollen das in 20 Jahren schaffen, dann funktioniert es schon. Wenn man aber nicht anfängt, dauert es 20 Jahre plus X. Die meiste Zeit verliert man in einem so großen Projekt am Anfang. Wenn die Bagger rollen, dauert es halt solange es dauert. Aber das Reden darüber, ob wir die Bagger rollen lassen, das kann man beschleunigen.

Derzeit hat man den Eindruck, dass sehr viel unternommen wird. Herrscht jetzt hektischer Aktionismus?

Ja, aber das geht auch nicht anders. Stellen Sie sich mal vor, was Herr Habeck seit dem Ukrainekrieg für eine Verantwortung trägt – meine Güte. Er sieht auch die Notwendigkeit einer systemischen Betrachtung. Der weiß das alles genau, was ich jetzt gesagt habe – das weiß ich. Aber Politik ist die Kunst des Machbaren, nicht die Kunst des Notwendigen. Und da haben auch wir als Wissenschaft schon eine Verantwortung, faktische Aufklärung zu betreiben. In unserer Demokratie sind Politikwechsel nur über das Verständnis des Problems möglich, das kann man nicht anordnen.

Wie kann die Grundlagenforschung der Max-Planck-Gesellschaft zur Energiewende beitragen? Kann die Kernfusion dabei helfen?

Aktuell kann die Kernfusion uns natürlich nicht helfen, sie ist etwas fürs 22. Jahrhundert. Trotzdem muss man das natürlich verfolgen. Aber im Maschinenraum der wirklichen Technik gibt es eine Million von wissenschaftlichen Schwierigkeiten. Katalysatoren werden zum Beispiel überall gebraucht, die meisten funktionieren aber nicht richtig. Dadurch verlieren wir wahnsinnig viel Energie. Bei den Umwandlungsprozessen in chemische Energieträger, die wir für einen globalen Energiemarkt brauchen, ist noch viel zu tun. Und da tun wir in der Max-Planck-Gesellschaft auch viel. Was uns zum Beispiel fehlt, ist eine Wissenschaft der chemischen Konversion, die so funktioniert wie die Entwicklung von Computerchips. Die designt heute ein Computer – für einen Menschen ist das viel zu kompliziert. Eine chemische Reaktion kann aber bislang niemand auf der Welt als Ganzes berechnen, weil es zu kompliziert ist. Diese Komplexität mit neuen Konzepten in der theoretischen Chemie zu reduzieren, ist ein lohnendes Ziel für die Max-Planck-Gesellschaft.

Das wirkt jetzt recht kleinteilig.

Gemessen an den Herausforderungen der Energiewende ist das natürlich kleinteilig, aber in vielen Fällen haben wir die wissenschaftlichen Grundlagen der Energiewende noch gar nicht. Nur geht es hier eben nicht nach dem Leitspruch von Max Planck, dem Anwenden muss das Erkennen vorausgehen. Wir müssen jetzt erst einmal anfangen und suchen dann das Optimum. Das Fehlen des Wissens ist keine Entschuldigung, nichts zu tun. Die Gegner der Energiewende sagen oft, wenn Ihr das alles rausgefunden habt, dann machen wir Energiewende. Das ist aber ganz falsch.

Das Interview führte Peter Hergersberg (Redaktionsleiter für Chemie, Physik, Technik), Abt. Kommunikation, www.mpg.de


*Das Interview ist am 1.8.2022 unter dem Titel „Wir müssen jetzt Wasserstoff-Pipelines bauen“ auf der Webseite der Max-Planck-Gesellschaft erschienen https://www.mpg.de/19042600/energiewende-gaskrise-schloeglund wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Text wurde unverändert übernommen; eine Abbildung von der Webseite von Robert Schlögl von der Redaktion eingefügt.


Energiewende im ScienceBlog

Eckpunktepapier von Robert Schlögl: "Energie.Wende.Jetzt"

Teil 1: R.Schlögl, 13.06.2019: Energie. Wende. Jetzt - Ein Prolog.

Teil 2: R.Schlögl, 27.06.2019: Energiewende (2): Energiesysteme und Energieträger

Teil 3: R.Schlögl, 18.07.2019: Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen.

Teil 4: R. Schlögl, 08.08.2019: Energiewende (4): Den Wandel zeitlich flexibel gestalten.

Teil 5: R.Schlögl, 22.08.2019: Energiewende(5): Von der Forschung zum Gesamtziel einer nachhaltigen Energieversorgung.

Teil 6: R.Schlögl, 26.09.2019: Energiewende (6): Handlungsoptionen auf einem gemeinschaftlichen Weg zu Energiesystemen der Zukunft

------------------------------------------------------------------------------------------

Artikel von Georg Brasseur:

Georg Brasseur, 24.9.2020: Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität.

Georg Brasseur, 10.12.2020: Die trügerische Illusion der Energiewende - woher soll genug grüner Strom kommen?


 

inge Thu, 25.08.2022 - 00:05

Aus dem Kollagen der Schweinehaut biotechnisch hergestellte Hornhautimplantate können das Sehvermögen wiederherstellen

Aus dem Kollagen der Schweinehaut biotechnisch hergestellte Hornhautimplantate können das Sehvermögen wiederherstellen

Do,18.08.2022 — Redaktion

Redaktion

Icon Medizin Der Verlust von Transparenz und Lichtbrechungsvermögen der Hornhaut (Cornea) gehören weltweit zu den Hauptursachen einer Erblindung. Diese Form der Blindheit kann zwar durch Transplantation behandelt werden, allerdings gibt es für mehr als die Hälfte der Weltbevölkerung keinen Zugang zu einer Spenderhornhaut: um die 12,7 Millionen Menschen warten bereits darauf und jährlich kommen über 1 Million neuer Fälle dazu. Forscher von der schwedischen Universität Linköping haben nun ein zellfreies implantierbares Medizinprodukt aus Typ-I-Kollagen der Schweinehaut biotechnisch entwickelt, in einer kleinen klinischen Studie an 20 Patienten mit fortgeschrittenem Keratokonus (s.u.) erprobt und das Ergebnis über 2 Jahre verfolgt. Nach einer neuen minimal-invasiven Implantationstechnik konnten 14 Patienten, die bereits blind waren, nach der Operation wieder sehen, und drei von ihnen erreichten eine perfekte Sehkraft.*

Millionen Menschen auf der ganzen Welt sind blind oder sehen schlecht, weil ihre Hornhaut, die klare äußere Schicht, die die Augen schützt und das Licht bündelt, beschädigt ist. Und obwohl Hornhäute mit leichten Schäden von selbst heilen können, benötigen manche Menschen eine Hornhauttransplantation, um ihr Sehvermögen wiederzuerlangen. Abbildung 1 zeigt Position und Aufbau der Hornhaut im menschlichen Auge (von Redn. eingefügt).

Abbildung 1. Die Hornhaut (Cornea) im menschlichen Auge ist ein klares gewölbtes, zumeist elliptisches Scheibchen (11,7 x 10,6 mm) mit einer Dicke von 0,67 mm am Rand und 0,52 mm in der Mitte. Klarheit und Brechkraft sind Voraussetzungfür scharfes fokussierten Sehen. (Bild von Redn. eingefügt. Quelle: Oculus333; https://de.wikipedia.org/wiki/Hornhaut#/media/Datei:Hornhaut-anatomischer-Aufbau1.jpg. Lizenz: cc-by-sa.

Transplantation von Spenderhornhaut

Diese Hornhauttransplantationen sind allerdings teure, invasive und zeitaufwändige Operationen, nach denen die Patienten mehr als ein Jahr lang Medikamente einnehmen müssen, um sicherzustellen, dass ihr Körper das Gewebe nicht abstößt. Wie andere Arten von Spenderorganen müssen menschliche Hornhäute schnell verwendet werden - innerhalb von zwei Wochen nach dem Tod des Spenders -, was zu logistischen Problemen führen kann. In vielen Teilen der Welt, vor allem in ärmeren Gegenden, gibt es nicht genug Hornhautspenden, um diese zu verteilen.

Biotechnisch hergestellte Hornhautimplantate

Nun haben schwedische Forscher nach eigenen Angaben eine neuartige Lösung für viele dieser und anderer Probleme bei der Hornhauttransplantation entwickelt: biotechnisch hergestellte Hornhautimplantate aus Material der Schweinehaut.

In einer kleinen klinischen Studie haben diese Implantate bei 20 Patienten mit fortgeschrittenem Keratokonus zu einer Verbesserung der Sehkraft geführt. (Keratokonus ist eine Erkrankung, bei der sich die Hornhaut verdünnt und vorwölbt, was zu verschwommenem, verzerrtem Sehen führt.) Abbildung 2. Vierzehn der 20 Teilnehmer waren vor dem Eingriff blind, erlangten aber nach der Behandlung mit den Implantaten ihre Sehkraft ganz oder teilweise zurück und konnten auch wieder Kontaktlinsen tragen. Drei der blinden Patienten erreichten nach der Transplantation eine perfekte Sehschärfe .

Abbildung 2. In einer kleinen klinischen Studie mit 20 Patienten verhalfen biotechnisch hergestellte Hornhäute zur Verbesserung oder Wiederherstellung des Sehvermögens. Bild: Thor Balkhed / Universität Linköping

Alle Studienteilnehmer vertrugen die Implantate auch zwei Jahre nach dem Eingriff  und hatten keine unerwünschten Nebenwirkungen wie Entzündungen oder Narbenbildung zu verzeichnen.

Die Forscher haben diese und weitere Ergebnisse  aus der Studie in einem neuen Artikel veröffentlicht, der letzte Woche in der Zeitschrift Nature Biotechnology erschienen ist [1].

"Es ist möglich, ein Biomaterial zu entwickeln, das alle Kriterien für die Verwendung als menschliches Implantat erfüllt, das in Massenproduktion hergestellt, bis zu zwei Jahre gelagert werden kann und damit noch mehr Menschen mit Sehproblemen erreicht", erklärtNeil Lagali, Augenarzt an der Universität Linköping und einer der Autoren der Studie. "Damit umgehen wir das Problem, dass es an gespendetem Hornhautgewebe mangelt und erhalten den Zugang zu anderen Behandlungen für Augenkrankheiten."

Entwicklung und klinische Prüfung der Hornhauttransplantate

Um ein transparentes Hydrogel herzustellen, haben die Forscher medizinisches Kollagen aus Schweinehaut verwendet. Die Chirurgen haben dann einen winzigen Einschnitt in die Hornhaut der Patienten gemacht und das Hydrogel eingesetzt; dieses half die Hornhaut zu verdicken und umzuformen und ihre Funktionsfähigkeit so wieder herzustellen. Abbildung 3.

Diese chirurgische Methode stellt auch eine Verbesserung gegenüber herkömmlichen Transplantationsverfahren dar, bei denen die Chirurgen die ursprüngliche Hornhaut des Patienten entfernen und eine neue einsetzen.

Mit 30 Minuten Dauer war das Hydrogel-Verfahren auch viel schneller als eine typische Hornhauttransplantation, die mehrere Stunden dauern kann.

Abbildung 3. Die biotechnisch hergestellte Hornhaut (oben) vor und nach ihrer Implantation (unten rechts). Bild oben von Thor Balkhed / Universität Linköping. Bild unten: Spaltlampen-Aufnahme aus der klinischen Studie von einem Patienten vor der Operation (links) und einen Tag nach der Operation(rechts): die unmittelbare Änderung (weiße Pfeile) von Dicke und Krümmung der Hornhaut sind ersichtlich (Bild von Redn. aus [1) eingefügt, Lizenz: cc-by).

Nach dem Eingriff brauchten die Patienten in der klinischen Studie nur acht Wochen lang immunsuppressive Augentropfen anwenden, während sie bei herkömmlichen Transplantationen mehrere Jahre lang Medikamente einnehmen müssen. Ihre Körper stießen die biotechnisch hergestellten Hornhäute nicht ab.

"Die Idee, dass biotechnologisch hergestellte Hornhaut zur Verrfügung steht, sollte eine Revolution auslösen", äußert Marian Macsai, Augenarzt an der Universität von Chicago, der nicht an der Studie beteiligt war, gegenüber Aria Bendix von NBC News. "Das Risiko einer Abstoßung würde möglicherweise wegfallen und Hornhäute könnten Patienten weltweit zur Verfügung gestellt werden."

Auch wenn es für eine Feststellung, ob die biotechnisch hergestellten Hornhäute auch Patienten mit anderen Erkrankungen helfen können, noch zu früh ist, zeichnet sich die Technologie bereits als vielversprechend  für Menschen ab, die mit Keratokonus leben; weltweit ist davon davon ist laut Johns Hopkins Medicine [2] einer von 2.000 Menschen betroffen.

Ausblick

Als Nächstes haben die Forscher vor, die Hornhäute in einer klinischen Studie an 100 oder mehr Personen zu erproben und dann um die behördliche Zulassung einzureichen, berichtet NBC News. Sie wollen Untersuchungen auch an Patienten durchführen, die an anderen Augenkrankheiten leiden.

Auf lange Sicht hin wollen sie biotechnisch hergestellte Hornhäute in Teilen der Welt mit begrenzten Ressourcen verfügbar machen. Laut der gemeinnützigen Organisation Eversight (ein Netzwerk von Augenbanken in den US basierend auf Spender-Geweben, Anm. Redn.) gibt es in den Vereinigten Staaten zwar keine Warteliste für Hornhauttransplantationen, anderswo ist das aber nicht der Fall. Eine Studie aus dem Jahr 2016 ergab, dass weltweit etwa 12,7 Millionen Menschen eine Hornhauttransplantation benötigen würden - die Forscher wollen dazu beitragen, diesen Rückstand abzubauen.

"Wir haben erhebliche Anstrengungen unternommen, um sicherzustellen, dass unsere Erfindung weithin verfügbar und für alle, nicht nur für die Wohlhabenden, erschwinglich ist", erklärt Mehrdad Rafat, biomedizinischer Ingenieur an der Universität Linköping, CEO von LinkoCare Life Sciences AB und einer der Autoren der Studie. "So kann diese Technologie in allen Teilen der Welt eingesetzt werden."


[1] Rafat, M., Jabbarvand, M., Sharma, N. et al. Bioengineered corneal tissue for minimally invasive vision restoration in advanced keratoconus in two clinical cohorts. Nat Biotechnol (2022). https://doi.org/10.1038/s41587-022-01408-w (open access, cc-by)

[2] Keratokonus: https://www.hopkinsmedicine.org/health/conditions-and-diseases/keratoconus#:~:text=Keratoconus%20occurs%20in%20approximately%20one,be%20needed%20to%20restore%20sight.


 *Der vorliegende Artikel ist unter dem Titel "Cornea Implants Made From Pig Skin Restored Eyesight in a Small Clinical Trial" am 16 . August 2022 im Smithsonian Magazin erschienen https://www.smithsonianmag.com/smart-news/cornea-implants-made-from-pig-skin-restored-eyesight-in-a-small-clinical-trial-180980590/. Autorin ist die Redakteurin Sarah Kuta (Longmont, Colorado).

Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit 2 Abbildungen (aus Wikipedia und aus der zugrunde liegenden klinischen Prüfung [2]) ergänzt.


 

inge Thu, 18.08.2022 - 13:27

Alzheimer-Forschung - richtungsweisende Studien dürften gefälscht sein

Alzheimer-Forschung - richtungsweisende Studien dürften gefälscht sein

Fr, 14.08.2022 — Inge Schuster

Inge SchusterIcon Gehirn

Eine 2006 erschienene Untersuchung, die erstmals über einen kausalen Zusammenhang zwischen dem Auftreten des Amyloid-Komplexes Ab*56 und dem kognitiven Abbau bei der Alzheimerkrankheit berichtete, erregte enormes Interesse, da sie eine massive Untermauerung der Amyloid-Hypothese zur Entstehung der Krankheit war. Der mehr als 3000 Mal zitierte Artikel wurde so richtungsweisend für die weitere, milliardenschwere Finanzierung zu Forschung und Entwicklung neuer Alzheimer-Therapeutika. Wie sich nun herausstellte, dürften die Forscher in dieser und auch in einer Reihe darauf folgender Arbeiten ihre Aussagen mit manipulierten Abbildungen belegt haben. Darüber hat das Fachjournal Science nach ausführlichen Recherchen Ende Juli 2022 einen langen, bestürzenden Bericht gebracht [1].

116 Jahre nachdem der Arzt Alois Alzheimer vor Irrenärzten in Tübingen einen Vortrag "Über eine eigenartige Erkrankung der Hirnrinde" hielt, in dem er sogenannte Plaques im Hirn einer Demenzkranken zeigte, stellt die nach ihm benannte Erkrankung ein noch immer ungelöstes Problem für die Weltgesundheit dar. Es ist weder klar, wodurch die Krankheit ausgelöst wird, noch gibt es Therapien, die den fortschreitenden kognitiven Abbau stoppen oder gar heilen könnten. Charakteristisch für die Alzheimer-Krankheit sind Proteinablagerungen die sich in Form von Plaques zwischen den Nervenzellen (β- Amyloid-Plaques) und als Knäuel von Fibrillen des Tau-Proteins im Innern der Nervenzellen bilden. Alzheimer betrifft vor allem alte Menschen, kann aber auch schon in jüngerem Alter, d.i. unter 65 Jahren, auftreten; das zumeist langsame, sich über Jahre erstreckende Absterben von Nervenzellen ist für den überwiegenden Teil (bis zu 70 %) aller Demenzerkrankungen verantwortlich.

WHO hat Demenz zur Priorität für die Weltgesundheit erklärt

https://www.who.int/news-room/fact-sheets/detail/dementia

Laut WHO sind global derzeit rund 55 Millionen Menschen von Demenz - und dies bedeutet überwiegend von Alzheimer - betroffen, rund 10 Millionen Erkrankte kommen jährlich hinzu; mit der Zunahme der Bevölkerung und den noch schneller wachsenden älteren Gruppen wird die Zahl der Kranken im Jahr 2030 voraussichtlich auf 78 Millionen und im Jahr 2050 auf 139 Millionen (das sind dann rund 1,4 % der Weltbevölkerung) ansteigen. Demenz ist weltweit die siebenhäufigste Todesursache und einer der Hauptgründe für Behinderungen und Pflegebedürftigkeit von älteren Menschen. Die Erkrankung hat physische, psychische, soziale und wirtschaftliche Auswirkungen nicht nur für die Betroffenen, sondern auch für ihre Betreuer, Familien und die Gesellschaft insgesamt. Wurden die weltweiten gesellschaftlichen Gesamtkosten von Demenz im Jahr 2019 auf 1,3 Billionen US-Dollar geschätzt, so wird bis 2030 ein Anstieg auf 2,8 Billionen US-Dollar erwartet. Mit dem Global action plan on the public health response to dementia 2017-2025 ein umfassendes Handlungskonzept für politische Entscheidungsträger, internationale, regionale und nationale Partner und die WHO ins Leben gerufen worden.

Fehlende Therapeutika

Die einzigen zugelassenen Medikamente gegen Alzheimer können die Neurodegeneration nicht stoppen, sondern lediglich die Symptome behandeln - dies nicht sehr effizient und mit zum Teil schweren Nebenwirkungen.

Insgesamt wurden bis jetzt 7 Pharmaka zugelassen, 5 davon sind auf Neurotransmitter abzielende Wirkstoffe, die schon vor mehr als 25 Jahren auf den Markt kamen: Inhibitoren der Acetylcholinesterase (Donezepil, Galantamin, Rivastigmin und Tacrin) und ein NMDA-Rezeptor Antagonist (Memantin). Suvorexant, ein Antagonist des Orexin-Rezeptors wurde eigentlich zur Behandlung von Schlaflosigkeit zugelassen, von der häufig auch Alzheimer-Kranke betroffen sind. Basierend auf der Hypothese, dass eine Verringerung der zwischen den Nervenzellen abgelagerten Plaques ein Fortschreiten der Erkrankung aufhalten/umkehren könnte (s.u.), wurden 1984 als deren Beta-Amyloid-Peptide identifizierte Komponenten rasch zu wichtigen Zielstrukturen (Targets) der Alzheimer-Forschung und Entwicklung. Allerdings sind die Bemühungen jahrzehntelang an fehlender Wirksamkeit und/oder nicht tolerablen Nebenwirkungen gescheitert. Dass 2021 mit Aduhelm (Aducanumab) erstmals ein gegen β-Amyloid-Proteine gerichteter Antikörper, von der FDA zugelassen wurde, stellt wahrscheinlich keinen echten Durchbruch dar. Diese Zulassung ist bei führenden Experten auf heftige Ablehnung gestoßen, da Aduhelm zwar die Amyloid-Plaques reduzierte, dies aber nicht mit verbesserten kognitiven Fähigkeiten der Patienten korrelierte und dazu eine Reihe schwerer Nebenwirkungen auftraten. Die europäische Arzneimittelagentur EMA hat sich gegen eine Zulassung ausgesprochen.

Von insgesamt 331 gelisteten klinischen Alzheimer-Studien (klinische Phasen 1 - 3) gibt es 69, deren Target Beta-Amyloid ist - in den besonders großen klinischen Studien der entscheidenden Phase 3 sind es 9 von 23. Wie oben erwähnt sind viele der Amyloid-Studien bereits gescheitert, 30 wurden schon abgebrochen. (Eine detaillierte Auflistung verschiedener Targets in den einzelnen klinischen Phasen Liste findet sich in [2].)

Die Amyloid-Hypothese

geht von einer zentralen Rolle der Beta-Amyloid-Peptide in der Alzheimer-Erkrankung aus. Diese bestehen zumeist aus 38- 42 Aminosäuren langen Peptidketten, die mit Hilfe von Enzymen (Sekretasen) aus dem Vorläufer-Protein Amyloid-Precursor -Protein (APP) abgespalten werden. APP ist in vielen Körperzellen, insbesondere an den Synapsen der Nervenzellen exprimiert. Im gesunden Hirn dürften APP und auch seine Spaltprodukte wichtige Funktionen in physiologischen Prozessen spielen, u.a. in der Bildung von Synapsen und in der Neuroprotektion.

APP ist ein in der Zellmembran sitzendes Rezeptor-Protein, das mit dem Großteil seiner Sequenz aus der Zelle herausragt (Abbildung 1 oben). Die Abspaltung des langen, extrazellulären Teils (blau) der Kette führt u.a. zu kleinen, etwa 40 Aminosäuren großen, Bruchstücken (gelb), den sogenannten Beta-Amyloid-Peptiden. Diese können aggregieren und - wenn sie durch das glymphatische System des Gehirns nicht in ausreichendem Maße entsorgt und/oder abgebaut werden - zu unlöslichen Plaques zusammenwachsen (Abbildung 1 oben, rechts), die in weiterer Folge Entzündungen und Schädigungen von Nervenzellen und ihren Funktionen hervorrufen.

Durch geeignete Marker (in diesem Fall PiB) können solche Plaques nicht-invasiv mittels Positron-Emission-Tomographie (PET) sichtbar gemacht werden und damit die Alzheimer-Diagnose (AD) erhärten. Abbildung 1 (unten rechts) zeigt im Hirn eines Alzheimer-Kranken hohe Anreicherungen des Markers - und damit der Amyloid-Plaques - im Frontal- und Scheitellappen, Regionen, die für kognitive Prozesse, motorische Steuerung, operative Funktionen und Sinneswahrnehmungen verantwortlich sind. Dass solche massiven Ansammlungen schwere Beeinträchtigungen der lokalen Hirnfunktionen zur Folge haben sollten, erscheint einleuchtend.

Die Unterbindung von Nervenverbindungen und das massive Absterben von Nervenzellen führen bei fortschreitender Krankheit zu einer extremen Schrumpfung von Teilen des Gehirns insbesondere der Hirnrinde (Cortex) und des Hippocampus und zu hochgradig erweiterten Ventrikeln (Abbildung 1. links unten).

Abbildung 1: Von der Bildung der Beta-Amyloid-Peptide über die massive Anhäufung von Amyloid-Plaques in essentiellen Gehirnregionen von Alzheimer-Kranken (AD, sichtbar gemacht durch Positronen Emissions-Tomographie - PET) zur Gehirnschrumpfung. Erklärung: siehe Text. (Bilder oben aus http://www.nia.nih.gov/Alzheimers/Publications/UnravelingTheMystery/Part1/Hallmarks.htm ; Bild unten rechts: Klunkwe https://commons.wikimedia.org/wiki/File:PiB_PET_Images_AD.jpg, Lizenz: cc-by-sa; Bild unten links: gemeinfrei).

Im Laufe der Jahre kam allerdings die Abfolge "Generierung von Beta-Amyloid - Bildung von Plaques - Demenz" ins Wanken, da sich herausstellte, dass die Plaque-Belastung nicht mit dem Erscheinungsbild der Krankheit korrelierte, Nervenzellen auch an Orten ohne Plaques abstarben, es anderseits nicht-demente Personen mit ausgeprägten Plaques gab und in klinischen Studien die Reduktion der Plaques keinen Einfluss auf das Krankheitsgeschehen hatte. In der Folge kam es zu einem Paradigmenwechsel: Untersuchungen deuteten nun darauf hin, dass nicht Amyloid-Plaques sondern kleinere lösliche Aggregate - Beta-Amyloid Oligomere - die eigentlichen toxischen Strukturen sein könnten.

Wäre nun vielleicht ein Amyloid-Oligomeres Auslöser der Alzheimer-Krankheit und damit endlich ein erfolgversprechendes Target für das Design wirksamer Therapeutika in Sicht?

Ein neues, toxisches Amyloid-Oligomer

Ein 2006 im Fachjournal Nature erschienener Artikel bestätigte die Hypothese vom toxischen Amyloid-Oligomer [3]. Forscher am Department of Neuroscience der Universität von Minnesota (Minneapolis) hatten an einem validierten Alzheimer-Mäusemodell (s.u.) ein neues Amyloid-Oligomeres, Ab*56, im Hirngewebe identifiziert, dessen Menge mit dem nachlassenden Gedächtnis der alternden Mäuse korrelierte (dies wurde an Hand des von den Tieren zuvor erlernten Orientierungsvermögens im sogenannten Morris Wasser-Labyrinth untersucht). Isoliert und in gereinigter Form in junge, gesunde Ratten injiziert löste Ab*56 in diesen Tieren dann Gedächtnisverlust aus. Damit schien erstmals ein kausaler Zusammenhang zwischen dem toxischen Amyloid-Oligomer und dem Gedächtnisverlust, also eine Hauptursache für die Erkrankung gefunden worden zu sein. "Unsere Daten zeigen, dass Ab*56 das Gedächtnis gesunder, junger Ratten beeinträchtigt, und stützen die Hypothese, dass Ab*56 die Hauptursache für den Gedächtnisverlust bei Tg2576-Mäusen mittleren Alters ist." schrieben die Forscher. Ihre Daten stützten sich auf eine Reihe aussagekräftiger Fotos von sogenannten Western-Blots, die Ab*56 und seinen Verlauf im Alterungsprozess des Gehirns dokumentierten. (nb: In Western Blots werden Proteinlösungen, die mittels Gelelektrophorese im elektrischen Feld nach Größe getrennt wurden, auf eine Membran übertragen (Blotting) und die einzelnen Proteinbanden mit immunologischen Methoden nachgewiesen.)Ab*56 wurde dann auch in menschlichen Gehirnen identifiziert, sein Gehalt stieg mit dem Alter an und korrelierte im frühen Stadium der Alzheimer-Krankheit mit der Plaque-Last und dem pathologischen Tau-Protein.

Die 2006 Studie löste ein enormes Echo aus - wurde seitdem zur meistzitierten Alzheimer-Arbeit (laut Google Scholar kam es zu 3276 Zitierungen) - und gab der bis dato erfolglosen, bereits stark kritisierten Amyloid-Forschung neuen Aufwind. Die amyloid-bezogene Alzheimer-Forschung erhielt enorme Unterstützung - fast die Hälfte der gesamten Alzheimer-Gelder sollen in die Amyloid-Forschung geflossen sein. Die US-National Institutes of Health (NIH) haben allein im letzten Jahr 1,6 Milliarden US Dollars - die Hälfte ihres Alzheimer Budgets - an Amyloid-bezogene Projekte vergeben - zu Lasten von Forschern, die andere Ideen entwickelten. Natürlich wechselten viele Alzheimer-Forscher auf das erfolgversprechende, finanziell besser unterstützte neue Thema.

Es gab damals wenig Grund an den Ergebnissen zu zweifeln, handelte es sich bei den Autoren offensichtlich doch um erfahrene, brillante Experten:

Sylvain Lesné,ein junger französischer Wissenschaftler, der Erstautor der Studie und Entdecker des toxischen Ab-Oligomer, hatte bereits in seiner Doktorarbeit in Frankreich über den Metabolismus des Amyloid-Precursor-Proteins gearbeitet. Unmittelbar danach war er 2002 als PostDoc zur hochrenommierten Neurobiologin Karen Ashe, Professorin am Neuroscience Department in Minneapolis gekommen. Ashe ist Koautorin der Studie [3] und auch einiger späterer Studien von Lesne. Sie gilt als Pionierin der Alzheimerforschung. Als PostDoc hatte sie im Labor von Stanley Pruisiner wesentlich zu dessen Prionen-Forschung beigetragen (für die er mit dem Nobelpreis ausgezeichnet wurde); an der University of Minnesota forscht sie nun seit 30 Jahren am Gedächtnisverlust bei der Alzheimer-Krankheit und hat u.a. ein Alzheimer-Mausmodell - eine transgene Maus entwickelt, die menschliches Beta-Amyloid produziert, welches im Gehirn des Tieres Plaques bildet - das Modell wird weltweit angewandt.

In den folgenden 16 Jahren sind eine Reihe weiterer Publikationen von Lesné und Ashe - gemeinsam und auch einzeln - erschienen, welche die Befunde von 2006 bekräftigten und darauf aufbauten. Lesné wurde Assistant Professor, erhielt ein eigenes Labor und für seine Projekte insgesamt rund 10 Millionen US-Dollar Unterstützung von den NIH.

Merkwürdigerweise wurde - trotz des enormen Interesses an dem neuen Konzept - das toxische Ab*56 Amyloid von anderen Forschergruppen kaum nachgewiesen.

Ab*56 - Fact or Fiction...............

Im vergangenen Jahr ist der Neurowissenschaftler und Alzheimer-Forscher Matthew Schrag (Vanderbilt University) bei einer Recherche auf der PubPeer Website auf Kritik an den Lesné-Artikeln gestoßen, welche die Echtheit der Abbildungen zu Identifikation und Charakterisierung von Ab*56 in Frage stellten. Mit Hilfe von Software-Tools hat Schrag den 2006-Artikel und darauf folgende Artikel untersucht und in rund 20 davon mehr als 70 fragwürdige, manipulierte Western-Blots gefunden, die duplizierte, hineinkopierte Banden und Hintergründe aufwiesen [1].

Schrag hat seine Ergebnisse den NIH und den Fachjournalen Science und Nature gemeldet. Science beauftragte daraufhin unabhängige Bildanalytiker und mehrere führende Alzheimerforscher mit der Überprüfung von Schrags Ergebnissen zu den Artikeln von Lesné. Diese stimmten mit den Schlussfolgerungen von Schrag überein. "Die Bilder scheinen durch Zusammensetzen von Teilen von Fotos aus verschiedenen Experimenten zusammengestellt worden sein", sagte eine Expertin.[1]

Es sieht also derzeit so aus, als ob zahlreiche Abbildungen, die die Existenz und Funktion des Amyloid Oligomeren beweisen sollten, massiv manipuliert worden sind. Nach einem halben Jahr intensiver Recherche hat Science am 21. Juli 2022 über diesen Fall in einem langen ausführlichen Artikel berichtet.[1]

...........und Konsequenzen

Wie groß der durch diese Studien angerichtete Schaden für die Alzheimer Forschung aber auch ganz allgemein für das Vertrauen in die Wissenschaft ist, kann noch nicht abgeschätzt werden.

Gibt es das Amyloid-Oligomere Ab*56 überhaupt? Oder sind die publizierten Bilder vielleicht "nur" geschönt und das Amyloid in den Originalen vielleicht doch, wenn auch nicht so klar, nachgewiesen? Allerdings: Warum konnten es dann andere Forscher nicht finden? Lesné ist laut Science derzeit für eine Stellungnahme nicht erreichbar.

Warum sind die manipulierten Abbildungen Karen Ashe nicht aufgefallen, die ja Koautorin und anfangs Betreuerin ihres Postdocs Lesné war? Warum hat sie als Koautorin nicht in die Originalfotos Einsicht genommen? Auch als Alleinautorin eines Übersichtsartikels im Jahr 2010 bekräftigt sie in einem langen Kapitel die Ergebnisse aus dem 2006-Artikel und übernimmt einige der dortigen Abbildungen [4].

Warum sind die Abbildungen den Gutachtern der Publikationen nicht aufgefallen? Insbesondere im Journal of Neuroscience wurden fünf verdächtige Arbeiten veröffentlicht.

Was bedeutet dies aber nun für die Alzheimer-Forschung? Wurde diese durch die Befunde von Lesné 16 Jahre lang in die falsche Richtung gelenkt?

Der Direktors des National Institutes of Aging der NIH bemüht sich in einer "Erklärung zur Demenzforschung mit Amyloid-Beta-Protein" um Schadensbegrenzung [5]:

"Unter den identifizierten Oligomeren befindet sich eines mit der Bezeichnung Aβ*56. Während diese Entdeckung anfänglich ein gewisses Interesse weckte, führte sie zu einer begrenzten Reihe von nachfolgenden Forschungen, da es an spezifischen Markern fehlte, um es im Labor nachzuweisen, und da die anfänglichen Ergebnisse nicht reproduziert werden konnten. Es ist bemerkenswert, dass das Ab*56-Oligomer eines von vielen war, die damals erforscht wurden, und dass seitdem kein Alzheimer-Biomarker oder eine experimentelle Therapie auf der Grundlage von Ab*56 entwickelt wurde. Stattdessen stehen Immuntherapien, die auf Ab-Monomere (eine einzelne "Einheit" von Ab), andere Arten von Oligomeren und die längeren Amyloidfibrillen abzielen, im Mittelpunkt von Studien über potenzielle Medikamente zur wirksamen Behandlung von Demenz."

Deutlicher äußert sich der Nobelpreisträger Thomas Südhof, der selbst über Ursachen neuronaler Erkrankungen forscht [1]: "Der unmittelbare, offensichtliche Schaden ist die Verschwendung von NIH-Mitteln und die Verschwendung von Ideen in diesem Gebiet, weil die Leute solche Ergebnisse als Ausgangspunkt für ihre eigenen Experimente verwenden."


[1]Ch. Piller, Blots on a field? 21.7.2022. Science 377(6604):358-363. 10.1126/science.add9993  

[2] Alzforum:https://www.alzforum.org/therapeutics

[3] Sylvain Lesne et al., A specific amyloid-b protein assembly in the brain impairs memory. Nature 440|16 March 2006|doi:10.1038/nature04533

[4] Karen H. Ashe, Animal models to study the biology of amyloid-beta protein misfolding in Alzheimer disease; in Protein Misfolding Diseases: Current and Emerging Principles and Therapies (Marina Ramirez-Alvarado et al., John Wiley & Sons, 2010) rb.gy/tez5zz

[5] Richard J. Hodes, M.D., Director, National Institute on Aging : NIA statement on amyloid beta protein dementia research. https://www.nia.nih.gov/news/nia-statement-amyloid-beta-protein-dementia-research


Weiterführende Links

Sylvain Lesné: homepage https://lesnelab.org/  

Karen H. Ashe: homepage https://www.memory.umn.edu/research/ashe-lab/

National Institutes of Health (NIH).  https://www.nih.gov/

Alzheimer: Eine dreidimensionale Entdeckungsreise. https://www.youtube.com/watch?v=paquj8hSdpc

Tau-Protein gegen Gedächtnisverlust (ohne Ton). Max-Planck Film 1:44 min, http://www.mpg.de/4282188/Tau-Protein_gegen_Gedaechtnisverlust

-----------------------------------------------

Artikel über die Alzheimer-Krankheit im ScienceBlog:

Francis S. Collins, 14.02.2019: Schlaflosigkeit fördert die Ausbreitung von toxischem Alzheimer-Protein.

Francis S. Collins, 27.05.2016: Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts

Inge Schuster, 24.06.2016; Ein Dach mit 36 Löchern abdichten - vorsichtiger Optimismus in der Alzheimertherapie.

Gottfried Schatz, 03.07.2015:; Die bedrohliche Alzheimerkrankheit — Abschied vom Ich.


 

inge Sun, 14.08.2022 - 00:21

OrganEx regeneriert die Organfunktionen von Schweinen eine Stunde nach dem Tod - ein vielversprechender Ansatz für die Transplantationsmedizin

OrganEx regeneriert die Organfunktionen von Schweinen eine Stunde nach dem Tod - ein vielversprechender Ansatz für die Transplantationsmedizin

Fr, 04.08.2022 — Ricki Lewis

Ricki LewisIcon Medizin Die Transplantationsmedizin könnte einen riesigen Sprung nach vorn machen, wenn Spenderorgane länger Sauerstoff aufnehmen könnten und ihre Zersetzung verzögert würde. Genau das verspricht eine Technologie namens OrganEx, die ein Forscherteam von der Yale-University im Fachjournal Nature beschrieben hat [1]. Die Forscher haben bei Schweinen einen Herzstillstand erzeugt, eine Stunde später OrganEx angewandt und dann die Rückkehr der Körperfunktionen verfolgt. Die Genetikerin Ricki Lewis berichtet über diesen neuen Ansatz, der bestehende Technologien zur Verlängerung der Lebensfähigkeit von Organen bei weitem übertrifft.*

Schweine, ein populäres Modell

Schweine sind seit langem ein beliebtes Tiermodell für menschliche Krankheiten, da sie ungefähr unsere Größe haben und ihre Herzen und Blutgefäße recht ähnlich sind. So sind sie auch in medizinische Science Fiction eingegangen.

In der Twilight-Zone-Episode Eye of the Beholder (Im Auge des Betrachters) hat sich Janet Tyler mehreren Eingriffen unterzogen, um den "erbärmlichen, verdrehten Fleischklumpen", der ihr Gesicht darstellt, durch etwas Akzeptableres zu ersetzen. Am Ende, als die Verbände nach einem weiteren fehlgeschlagenen Eingriff langsam abgerollt werden, sehen wir, dass sie von Natur aus wie wir aussieht, was in ihrer Welt, in der die meisten Menschen, einschließlich der Krankenschwester und des Arztes, Schweinegesichter haben, als hässlich gilt. Janet und andere wie sie werden abgesondert, um unter sich zu leben.

Arnold Ziffel, auch bekannt als Arnold das Schwein, diente als Kinderersatz in der Fernsehserie Green Acres, die von 1965 bis 1971 lief. In einer Folge von Seinfeld aus dem Jahr 1993 glaubt Kramer, der einen Freund in einem Krankenhaus besucht, einen Schweinemenschen über den Flur rennen zu sehen, das Ergebnis eines schiefgelaufenen Experiments in einem oberen Stockwerk.

Im wirklichen Leben schrieb 1997 ein 15 Wochen altes, 118 Pfund schweres Schwein namens Sweetie Pie Medizingeschichte. Ein 19-Jähriger, der an Leberversagen litt, benötigte dringend ein Transplantat. Er überlebte 6 Stunden lang in Erwartung eines Spenderorgans, wobei sein Blut außerhalb seines Körpers durch Sweetie Pie's körperlose Leber zirkulierte. Sweetie Pie war kein gewöhnliches Schwein, nicht einmal ein so wunderbares wie Arnold. Ihre Zellen waren mit menschlichen Proteinen durchsetzt, die ihre Leber vor dem Immunsystem des Patienten abschirmten. Die Schweinegesichter der Twilight Zone waren eine Metapher, Arnold ein Kinderersatz, Pigman ein Rätsel und Sweetie Pie ein vorübergehender Leberersatz. Aber die Schweine in der neuen Studie [1] versprechen, viel mehr zu sein.

Den Tod rückgängig machen

Nach dem Hirntod oder dem Herzstillstand setzt eine charakteristische chemische Choreografie ein. Nur wenige Minuten nach dem Versiegen der Sauerstoffzufuhr bilden sich Säuren während die Zellen anschwellen an und empfindliche Membranen und Organelle verletzen. Die ausgeprägten Vorgänge des Zelltods beginnen sich zu entwickeln.

Auf Ganzkörperebene alarmiert eine Flut von Hormonen und Zytokinen die Zellen und löst Entzündungsprozesse aus. Das Nerven- und das Immunsystem sowie die Blutgerinnung schalten auf Hochtouren, während sich die Organe abschalten. Aber selbst Organe, die sich im Todeskampf befinden, haben noch einige lebensfähige Zellen, die entnommen und in Laborgläsern kultiviert werden können. Isolierte, ganze Organe, darunter Herzen, Lebern, Nieren und Lungen, können am Leben erhalten werden, wenn eine geeignete "Suppe" durch ihre Gefäße geleitet (perfundiert) wird.

Solche Beobachtungen haben dazu geführt, dass das Yale-Team 2019 die BrainEx-Technologie entwickelte. Damit wurde das Gehirn von Schweinen am Leben erhalten, das Organ, das durch Sauerstoffmangel am stärksten geschädigt werden kann.

"OrganEX ist eine Fortsetzung von BrainEx, die vom isolierten Gehirn auf den ganzen Körper übertragen wird. Ähnlich wie die vorherige Studie hat diese Studie gezeigt, dass wir bestimmte Zellfunktionen nach dem Tod wiederherstellen können, und wir sehen eine ähnliche Erholung der Zellen in anderen Organsystemen. Die Zellen sterben nicht so schnell ab, wie wir angenommen haben, was uns die Möglichkeit eröffnet, einzugreifen", sagte Zvonimir Vrselja in einem Webinar, das das Fachjournal Nature kurz vor der Veröffentlichung der Studie veranstaltete. Die Forscher lösten Herzinfarkte aus, um die in den BrainEx-Experimenten verwendeten Schweine zu töten, gefolgt von bis zu sechs Stunden Sauerstoffentzug.

Sowohl BrainEx als auch OrganEx verwenden ein "kryoprotektives Perfusat", ein Kälteelixier, das mit synthetischem Hämoglobin für den Sauerstofftransport angereichert ist. Das Gebräu enthält auch Antibiotika, Entzündungshemmer, Unterdrücker des Zelltods und verschiedene Moleküle, um die Zellen zu schützen und in der Lage zu sein, dem Einfrieren stand zu halten und die Blutgerinnung zu hemmen.

Das OrganEx-Rezept wurde so modifiziert, dass es für einen ganzen Schweinekörper passt, die wichtigste Änderung bestand aber in der Computersteuerung einer Pumpe, die das Mittel durch das Kreislaufsystem eines ganzen großen Säugetiers schickt. Der Aufbau ähnelt einer Herz-Lungen-Maschine. Eine Abbildung im Nature-Artikel zeigt die Zeichnung eines Schweins, das an verschiedene Sensoren (zur Messung von Hämoglobin, Herzschlag, Blutfluss und -Druck), Pumpen, einen Tank mit Medikamenten, darunter Heparin zur Aufrechterhaltung des Blutflusses, einen Oxygenator und ein Dialysegerät zur Aufrechterhaltung der Elektrolyte angeschlossen ist.

Ein Bioethiker war an Bord, um sicherzustellen, dass die Schweine - 10 bis 12 Wochen alte Weibchen - nicht leiden. Sie erhielten Fentanyl-Pflaster, waren in tiefer Narkose und dann wurde ihr Herz mit 9-Volt-Batterien angehalten.

Besser als ECMO

Eine Stunde nach dem Tod wurden einige Schweine an OrganEx angeschlossen, andere an ECMO (extrakorporale Membranoxygenierung), eine bestehende Technik, bei der das sauerstoffhaltige Blut eines Tieres rezirkuliert und für vielleicht 20 Minuten lang aufrechterhalten werden kann. OrganEx ersetzt das Blut - und das neue Rezept funktioniert besser.

Nach sechs Stunden hatte ECMO noch nicht alle Organe der Schweine erreicht, und viele kleinere Blutgefäße waren kollabiert. Aber die OrganEx-Schweine hatten eine vollständige Reperfusion und einen stabilen Sauerstoffverbrauch sowie keine Elektrolytstörungen und saure Körperflüssigkeiten, die durch Sauerstoffmangel entstehen. Zur Überprüfung ihrer wiederhergestellten physiologischen Funktionen bestanden die Schweine verschiedene Tests (auf Glukose, Blutgerinnung, Nierenfunktion, EEG und EKG).

Als die Forscher Teile der wichtigsten Organe - Gehirn, Herz, Lunge, Leber, Niere und Bauchspeicheldrüse - genauer untersuchten, stellten sie fest, dass sie nach OrganEx weniger geschädigt waren und sich besser erholten als nach ECMO. Die Nieren unter OrganEx zeigten sogar Anzeichen von Zellteilung.

Die Analyse der Genexpression ging noch weiter in die Tiefe und untersuchte, welche Gene in einzelnen Zellen der Nieren, der Leber und des Herzens an- oder abgeschaltet wurden. Die Ergebnisse stimmten mit denen auf Gewebe- und Organebene überein und bestätigten den Ansatz. Die wichtigsten Unterschiede zwischen OrganEx und ECMO, die sich bei allen Tests herausstellten, waren Ausmaß der Entzündung und Zelltod.

Nenad Sestan fasste die Ergebnisse zusammen. "OrganEx hat die Funktion zahlreicher Organe wiederhergestellt, Stunden nachdem sie eigentlich tot sein sollten. Das Absterben von Zellen kann aufgehalten werden, und Zellen können sogar noch eine Stunde nach dem durch Kreislaufstillstand herbeigeführten Tod neu starten."

Die nachweisbare Überlegenheit von OrganEx könnte Tore für künftige Behandlungen öffnen, so David Andrijevic. "Unsere Ergebnisse unterstreichen eine bisher unbekannte Fähigkeit eines großen Säugetierkörpers, sich nach dem Lebensende wieder zu erholen. Die Ergebnisse haben das Potenzial, die Verfügbarkeit von Organen für Transplantationen zu erhöhen oder lokale Organischämie zu behandeln", welche Gerinnungsprobleme wie Schlaganfälle und Herzinfarkte verursacht.

Wie geht es mit OrganEx weiter? Erprobung in speziellen klinischen Situationen.

OrganEx könnte den Pool an Spenderorganen erweitern. Heute kann ein hirntoter Mensch, dessen Organe noch durchblutet sind, als Spender in Frage kommen, nicht aber jemand, der zwar hirntot ist, dessen Kreislauf aber nicht mehr funktioniert. Sauerstoffmangel setzt die Kaskade von Organschäden und Absterben in Gang.

Die wertvollen Kühlboxen mit Organaufklebern, welche die Operationssäle in Fernsehsendungen ausschmücken, können nur ein wenig Zeit gewinnen. OrganEx könnte diese Zeit erheblich verlängern. Aber das bringt mich zurück in das Reich der Twilight Zone.

Was ist, wenn OrganEx zu gut funktioniert?

Könnten die Gehirnneuronen eines hirntoten Organspenders mit Herzstillstand plötzlich anfangen, Aktionspotenziale abzufeuern und sich dann durch die Bildung neuer Synapsen verbinden? Stellen Sie sich ein Autounfallopfer vor, das auf einem Tisch liegt, an Maschinen angeschlossen ist und auf die Organentnahme wartet. Und plötzlich beginnt das Gehirn zu erwachen.

Dies geschieht in einem meiner Lieblingsromane, Kazuo Ishiguros Never Let Me Go von 2005, der 2010 auch verfilmt wurde.

In einem gruseligen Internat in England werden junge Schüler vorbereitet, ihre Organe an reiche Leute "zu spenden"und bis zum jungen Erwachsenenalter damit "fertig zu werden".  Eine plappernde Lehrerin erklärt den Schülern, wie ihre Lebern, Nieren, Milzen und alle anderen Teile nach und nach entnommen werden, bis sie "fertig" sind.

Die neue Arbeit hat einen Bioethiker an Bord, der dafür sorgt, dass die Schweine schmerzlos sterben. Ich hoffe, dass er in der Nähe bleiben wird, um alle Möglichkeiten für die Folgen des gut gemeinten und vielversprechenden OrganEx zu prüfen. Weil in der Wissenschaft die Ergebnisse nicht immer so sind, wie wir sie erwarten.


[1]  Andrijevic, D., Vrselja, Z., Lysyy, T. et al. Cellular recovery after prolonged warm ischaemia of the whole body. Nature (2022). https://doi.org/10.1038/s41586-022-05016-1


 * Der Artikel ist erstmals am 4.August 2022 in PLOS Blogs - DNA Science Blog unter dem Titel " OrganEx Revives Pigs an Hour After Death, Holding Promise for Transplants" https://dnascience.plos.org/2022/08/04/organex-revives-pigs-an-hour-after-death-holding-promise-for-transplants/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.  Das Foto mit den Schweinen wurde von der Redaktion eingefügt


 Bill Hathaway, August 3, 2022: Yale-developed technology restores cell, organ function in pigs after death. https://news.yale.edu/2022/08/03/yale-developed-technology-restores-cell-organ-function-pigs-after-death


 

inge Thu, 04.08.2022 - 23:59

Das virtuelle Fusionskraftwerk

Das virtuelle Fusionskraftwerk

Do, 28.07.2022 — Felix Warmer

Icon Physik

Felix Warmer Die Energiequelle der Sonne auf der Erde nutzbar zu machen ist das ehrgeizige Ziel der Fusionsforschung. Derzeit gibt es vor allem zwei mögliche Varianten, ein Kraftwerk zu realisieren: Tokamak und Stellarator. Felix Warmer vom Max-Planck-Institut für Plasma Physik (Greifswald), das den Stellarator Wendelstein 7-X beheimatet, beschreibt hier, wie seit Jahren eine Simulationsplattform entwickelt wird, mit der sich sowohl die physikalischen als auch technischen Anforderungen an einen Stellarator ganzheitlich simulieren lassen. Dieser digitale Zwilling soll das Zusammenwirken aller Systemkomponenten beschreiben, um ein Fusionskraftwerk schneller zu entwickeln und zur Marktreife zu bringen.*

Aus der Fusion von Wasserstoff (genauer: dessen schweren Varianten Deuterium und Tritium) Energie zu gewinnen ist ein lang gehegter Traum. Mit einem nahezu unerschöpflichen Brennstoffreservoir und dem CO2-freien Betrieb könnte diese Technik eine der Stützen einer nachhaltigen Energieversorgung werden. Mit ihrer großen elektrischen Leistung würden Fusionskraftwerke vor allem die Grundlast bedienen und so in idealer Weise die von der Witterung abhängigen Wind- und Sonnenkraftwerke ergänzen.

Im südfranzösischen Cadarache entsteht derzeit der Experimentalreaktor Iter. Er soll erstmals im großen Maßstab demonstrieren, dass diese Art der Energiegewinnung technisch möglich ist. Iter basiert auf dem Prinzip des sogenannten Tokamak. In ihm wird das rund hundert Millionen Grad heiße Plasma in einem Magnet feldkäfig eingesperrt. Dieser wird indes auf eine Weise erzeugt, dass ein Tokamak ohne Zusatzmaßnahmen nur in gepulstem Betrieb, also mit r egelmäßigen Unterbrechungen arbeiten kann.

Wegen dieser Einschränkung wird parallel dazu ein anderes Anlagenprinzip namens Stellarator erforscht. Es bietet eine attraktive Alternative, da Stellaratoren im Dauerbetrieb arbeiten können. Die größte und erfolgreichste Experimentieranlage dieses Typs ist der seit 2015 in Greifswald laufende Wendelstein 7-X.

Das Stellarator-Konzept erschien anfänglich herausfordernder, weil dabei zum Einschluss des Plasmas wesentlich komplexer geformte Magnetspulen nötig sind als in einem Tokamak. Wendelstein 7-X hat bewiesen, dass solche Spulen mit der erforderlichen Genauigkeit realisierbar sind. Diese Anlage hält den Stellarator-Weltrekord für das Fusionsprodukt aus Temperatur, Plasmadichte und Energieeinschlusszeit. Es gibt an, wie nahe man den Werten für ein selbstständig brennendes Plasma kommt.

Abbildung 1: , Das Modell eines Stellarators bildet ein Spulensystem mit realistischen Abmessungen und Betriebseigenschaften ab und berücksichtigt die technischen Randbedingungen. Der Farbcode gibt die Magnetfeldstärke in Tesla an. Die kleinen Pfeile stellen lokale elektromagnetische Kräfte an den Spulen dar, die großen Pfeile zeigen die Richtung und, qualitativ, die Stärke der summierten Kräfte für eine Spule.

Das Ziel: ein ökonomisches Kraftwerk

Die für die Planung des Stellarators verwendeten Computerprogramme wurden bereits in den 1990er-Jahren entwickelt. Sie berechnen das Magnetfeld, welches das heiße Fusionsplasma einschließt, sowie die Spulen, die das Feld erzeugen. Bislang existierte jedoch kein systematischer Rahmen, der weitere technische Anforderungen berücksichtigt, die für einen Betrieb große Bedeutung haben. Aufbauend auf den bisherigen erfolgreichen Codes haben wir in den vergangenen Jahren – weltweit erstmalig – neue Modelle entwickelt, die genau diese Randbedingungen in einer Simulationsplattform einbeziehen, um alle Komponenten eines Stellarators gewissermaßen ganzheitlich zu beschreiben. Unser Ziel ist es also, einen flexiblen digitalen Zwilling eines Fusionskraftwerks am Computer zu schaffen, mit dem man die Auswirkung neuer Techniken, physikalischer Erkenntnisse oder Unsicherheiten auf den Entwurf untersuchen und ein optimales Konzept für ein Stellarator-Fusionskraftwerk erstellen kann. Dieser digitale Zwilling optimiert dabei nicht nur die physikalischen, sondern auch die ingenieurstechnischen Aspekte einer solchen Anlage. Abbildung 1.

Die wissenschaftliche Herausforderung beim Erarbeiten eines Kraftwerkskonzepts besteht darin, aus laufenden Stellarator-Experimenten wie Wendelstein 7-X die physikalischen Erkenntnisse mit aktuellen technischen Entwicklungen zu verbinden, um daraus einen ökonomisch attraktiven Kraftwerksentwurf abzuleiten. Abbildung 2. Besonders anspruchsvoll ist es, alle technischen Komponenten miteinander in Einklang zu bringen: supraleitende Spulen, Stützstruktur, Kühlsysteme und viele weitere Systeme müssen aufeinander abgestimmt werden und genügend Platz für Vorrichtungen lassen, die eine Wartung aus der Ferne erlauben. Unsere Simulationsplattform öffnet neue Wege, um solch komplexe technische Herausforderungen virtuell darzustellen und zu bewältigen.

Abbildung 1: , 2016 und 2017 wurden in der Plasmakammer von Wendelstein 7-x unter anderem 8000 Graphitkacheln montiert. Daten, die Forschende in der Anlage seither gesammelt haben, fließen auch in das virtuelle Modell des Stellarators.

Test für unterschiedliche Reaktoren

Wendelstein 7-X hat bereits experimentell bewiesen, dass das Stellarator-Konzept funktioniert. Ein zukünftiger Reaktor kann jedoch in sehr unterschiedlichen Formen gebaut werden, wobei die optimale räumliche Gestalt erst noch gefunden werden muss. Wir haben unseren Code namens Process daher auf zwei unterschiedliche Stellarator-Konzepte angewendet. Zum einen haben wir drei reaktorgroße Stellaratoren mit unterschiedlichen Seitenverhältnissen simuliert. Zum anderen haben wir drei Spulensätze mit einer unterschiedlichen Zahl an Spulen durchgerechnet. Hierbei spielen Volumen und Oberfläche des Plasmas eine bedeutende Rolle, wenn es um weitere Berechnungen beispielsweise der Fusionsleistung, der Füllraten oder der Materialbelastung geht. Process berücksichtigt in Magnetfeldrechnungen die Materialeigenschaften von Supraleitern und technische Randbedingungen, etwa die Regeln für eine Schnellabschaltung der Spulen. Das Modell erzeugt somit ein funktionstüchtiges Spulensystem mit realistischen Abmessungen und Betriebseigenschaften. Diese Simulationen ermöglichen zum ersten Mal den Vergleich verschiedener Stellarator-Konfigurationen innerhalb des gleichen ganzheitlichen Systemcodes und tragen somit zur Stellarator-Optimierung bei.

Ein weiterer Clou von Process ist die Geschwindigkeit: Die Ergebnisse liegen bereits nach wenigen Sekunden vor. Das ermöglicht es uns, eine nahezu endlose Zahl alternativer Entwürfe parallel zu untersuchen und den großen Parameterbereich entscheidend einzugrenzen. Bei der Konstruktion der Codes haben wir auf die Rechengeschwindigkeit geachtet, wobei dies mit einem Kompromiss zwischen Supergenauigkeit und Schnelligkeit einhergeht. Haben wir mit Process einen optimalen Bereich eingegrenzt, kann diese Konfiguration mit hochauflösenden Simulationen detaillierter untersucht werden. Dies geschieht innerhalb des EU-Projekts EUROfusion. Es vereint derzeit 30 Forschungseinrichtungen in 25 EU-Mitgliedstaaten sowie der Schweiz, dem Vereinigten Königreich und der Ukraine. Koordiniert wird es vom IPP in Garching. In diesem Forschungsverbund sind Fachleute versammelt, die sich auf bestimmte Teilaspekte spezialisiert haben und diese detailliert berechnen können. Mit ihnen kooperieren wir intensiv. Diese Forschung erzeugt daher starke Synergie-Effekte und fördert länderübergreifenden Austausch und Zusammenarbeit.

Bislang sind längst nicht alle technischen Aspekte eines Stellarator-Kraftwerks abgedeckt. So arbeiten wir derzeit an Modellen, welche die mechanischen Spannungen in den Spulen und ihrer Stützstruktur hinreichend genau vorhersagen können. Solche Spannungen entstehen vor allem durch die starken elektromagnetischen Kräfte zwischen den Spulen. Letztlich müssen wir alle physikalischen und technischen Aspekte in unserem digitalen Zwilling zusammenzuführen. Wir sind davon überzeugt, dass unsere Strategie dazu beitragen kann, die Entwicklung eines Stellarator-Kraftwerks voranzutreiben.


 * Der Artikel ist unter dem Titel "Das virtuelle Fusionskraftwerk" in der Sammlung Highlights aus dem Jahrbuch der Max-Planck-Gesellschaft 2021 https://www.mpg.de/18802436/jahrbuch-highlights-2021.pdf im Mai 2022 erschienen und wird hier unverändert wiedergegeben . Die MPG-Pressestelle hat freundlicherweise der Verwendung von Jahrbuch-Beiträgen im ScienceBlog zugestimmt.


Kernfusion im ScienceBlog:

Roland Wengenmayr, 13.05.2022: Die Sonne im Tank - Fusionsforschung


 

inge Thu, 28.07.2022 - 18:01

Klimaresistente Pflanzen für eine zukunftssichere Ernährung

Klimaresistente Pflanzen für eine zukunftssichere Ernährung

Do, 21.07.2022 — Redaktion

Redaktion

Icon Nahrung

Der Klimawandel nimmt an Fahrt zu und bedroht den Bestand einiger unserer Grundlebensmittel, dazu kommt die Pandemie und schlussendlich der Krieg in der Ukraine mit den daraus resultierenden Problemen in den Versorgungsketten mit Grundlebensmitteln. Dies sind einige der Gefahren, die sich aus der Abhängigkeit von einer globalisierten Versorgung mit der "Handvoll" von Nahrungsmitteln ergeben, die heute an die 90 % zur Ernährung der Menschheit beitragen. Forscher in in den Royal Botanic Gardens (Kew, UK) arbeiten an der Erweiterung der Vielfalt unserer Nahrungsmittel und zeigen klimaresistente Nutzpflanzen auf, die in unserer heißeren, trockeneren Zukunft Sinn machen werden.*

Der sich beschleunigende Klimawandel bedroht einige unserer bevorzugten Nahrungsmittel. Bei nur 15 Pflanzen, die zu 90 Prozent der Energiezufuhr der Menschheit beitragen, könnte der Verlust eines einzigen Grundnahrungsmittels eine Katastrophe bedeuten. Dabei gibt es weltweit mehr als 7.000 Arten von essbaren Pflanzen.

Forschung in den Royal Botanic Gardens, Kew (UK)

"Warum nutzen wir den Rest nicht?", fragt die Naturschutzbiologin Tiziana Ulian, Leiterin des Forschungsteams Sustainable Use, Seeds and Solutions in den Royal Botanic Gardens, Kew in Großbritannien. (https://www.kew.org/science/our-science/departments/ecosystem-stewardship/sustainable-use-seeds-and-solutions)

Um unsere Ernährung "zukunftssicher" zu machen, haben sich die Forscher in Kew daran gemacht zur Erweiterung der Vielfalt unserer Nahrungsmittel beizutragen. Sie befassen sich mit wenig genutzten Nahrungsmitteln - sowohl Wildpflanzen als auch Kulturpflanzen - und fragen, welche davon in unserer heißeren, trockeneren Zukunft Sinn machen werden.

Unsere derzeit bevorzugten Feldfrüchte "sind nicht unbedingt solche, die einem Klimawandel in der Zukunft standhalten können", sagt Ulian. "Sie wurden wegen ihrer Farbe oder ihres Ertrags ausgewählt. Man braucht aber Alternativen, die an örtliche Gegebenheiten angepasst sind".

In einigen der Biodiversitätsinitiativen von Kew wird mit Gemeinschaften zusammengearbeitet, um das Wissen über lokale Nahrungspflanzen zu erhalten und mit der Kultivierung von Wildarten zu beginnen. Ein Projekt im Libanon und in Jordanien konzentriert sich auf die Gundelia tournefortii, die auf Arabisch als Akkoub bekannt ist und angeblich wie eine Kombination aus Artischocke und Spargel schmeckt. Sie kommt nur in der freien Natur vor, wo sie auf naturbelassenen felsigen Böden wächst; an der Kultivierung arbeiten die Kew-Forscher jedoch mit lokalen Gärtnereien zusammen. Akkoub ist nicht nur schmackhaft (die Einheimischen braten die unreifen Blütenköpfe der Pflanze in Olivenöl und Knoblauch und geben sie zu Omeletts, Fleisch und Kichererbsengerichten), sondern auch reich an Kalzium und Eisen.

Ein anderes Projekt befasst sich mit Fonio-Hirse, einem in Westafrika beheimateten Getreide. Dieses braucht sehr wenig Wasser, was es zu einer guten Wahl für eine zunehmend von Trockenheit bedrohte Welt macht. Es ist reich an Eisen, Kalzium, Aminosäuren und B-Vitaminen. Außerdem ist es glutenfrei, was es für Menschen mit Zöliakie interessant machen könnte. Die Einheimischen essen es als Frühstücksbrei oder als Getreidegericht ähnlich wie Couscous.

Die Forscher untersuchen, welche Fonio-Sorten unter verschiedenen Bedingungen am besten gedeihen, beispielsweise in heißen Tälern oder in kühleren, höher gelegenen Gebieten. Es ist äußerst wichtig, dass die Pflanzen an bestimmte Standorte angepasst sind, sagt Ulian. "In der Vergangenheit war es ein Fehler zu versuchen, alle wesentlichen Feldfrüchte überall auf der Welt haben zu wollen", sagt Ulian. "Warum müssen wir überall die gleichen Pflanzen essen? Jedes Land muss sich Gedanken machen und vorausschauend planen, welche Nutzpflanzen tatsächlich an die eigenen Gegebenheiten angepasst sind."

Probleme mit Versorgungsketten bei Pandemien und der Krieg in der Ukraine haben einige der Gefahren aufgezeigt, die sich aus der Abhängigkeit von einer globalisierten Lebensmittelversorgung ergeben," sagt Ulian.

Der Welt war nicht bewusst, wie viel Weizen in der Ukraine produziert wurde, bis dieser plötzlich nicht mehr verfügbar war. Dies hat die Lebensmittelpreise weltweit in die Höhe getrieben, was Entwicklungsländer besonders hart trifft.

Ein Schlüssel zur Kompensation dieser Art von Verlusten ist sich botanische Verwandte von Grundnahrungsmitteln wie Weizen anzuschauen, sagt Ulian. Kew-Wissenschaftler haben mit Partnern in 24 Ländern zusammengearbeitet, um Alternativen zu herkömmlichen Reissorten zu finden. Sie sammeln die Samen von wilden Reisverwandten und senden einige davon zur sicheren Aufbewahrung an die Millennium Seed Bank von Kew, einen unterirdischen Tresor mit mehr als 2,4 Milliarden Samen aus der ganzen Welt. Das Saatgut wird daraufhin untersucht, ob es dem Klimawandel standhält; die derzeit angebauten Reispflanzen können ja leicht durch Überschwemmungen oder Hitze zerstört werden.

Um uns eine Vorstellung davon zu geben, wie unsere Lebensmittelzukunft aussehen könnte, hat Kew kürzlich eine Liste klimaresistenter Lebensmittel veröffentlicht und veranstaltet eine spezielle Sommerausstellung mit Vorträgen, Installationen und Kochdemonstrationen. Außerdem hat Kew Gardens das Kew Gardens Cookbook herausgegeben, ein Kompendium vegetarischer Rezepte, das ab September in den USA erhältlich ist und einige dieser Lebensmittel enthält, um die köstliche Seite der Lebensmittelvielfalt zu zeigen.

Einige der Lebensmittel, die wir in den kommenden Jahren vermehrt essen könnten, sind:

Maramabohnen

Ulians Spezialität, die Maramabohne, ist eine im südlichen Afrika beheimatete Hülsenfrucht. Abbildung 1 A. Marama-Bohnen stammen aus der Kalahari-Region und sind an den Anbau in extrem trockenen, sandigen und nährstoffarmen Böden angepasst. Die Bohnen sind reich an Kohlenhydraten und Mineralien und können zur Herstellung von Öl und Pflanzenmilch verwendet werden. Sie liefern auch eine große, essbare Knolle, die süß und zart sein soll und sind eine gute Quelle für Wasser.

Abbildung 1. A: Maramabohnen (Bild: NoodleToo via Wikipedia, public domain), B: Coffea stenophylla (Bild: Ingo Schulz/Getty Images), C: Feigenkaktusblätter (Mauricio Palos/Bloomberg Creative Photos/Getty Images), D: Enset (Firdausiah Mamat/Getty Images).

Sierra Leone Kaffee

Viele von uns beginnen den Tag mit einer Tasse Arabica-Kaffee, dem weltweit beliebtesten Getränk, das aufgrund steigender Temperaturen und der Abholzung der Wälder bedroht ist. Kew-Forscher haben herausgefunden, dass eine seltene Wildkaffeeart (Coffea stenophylla) aus Sierra Leone wesentlich hitzetoleranter ist als ihre Verwandten. Abbildung 1 B. Kaffee ist natürlich nicht lebensnotwendig, stellt Ulian fest, weist aber darauf hin, dass er für Gesellschaften auf der ganzen Welt eine wirtschaftlich äußerst wichtige Pflanze ist. "Unter dem Gesichtspunkt des Lebensunterhalts macht [klimasicherer Kaffee] einen großen Unterschied", sagt sie.

Kakteen

In Mexiko sind Nopales - die Blätter des Feigenkaktus - ein beliebtes Gemüse, das oft in Tacos oder mit Rührei serviert wird. Der Feigenkaktus ist nicht die einzige essbare Kaktusart. Verschiedene Sorten der trockenheitstoleranten Pflanze, wie der Kugelkaktus, der Saguaro und der Cholla, können gedünstet, eingelegt, zu Saft verarbeitet oder sogar frisch gegessen werden (wie die Drachnfrucht) und sind eine gute Quelle für Wasser, Ballaststoffe und Vitamine. Abbildung 1 C.

Falsche Banane

Die äthiopische Enset-Pflanze bringt zwar eine bananenähnliche Frucht hervor, aber die ist eigentlich ungenießbar. Der stärkehaltige Stängel und die Wurzeln können zu einem Teig für Brot und Brei fermentiert werden. Eine Enset-Pflanze kann bis zu 12 Jahre alt werden, und 60 Pflanzen könnten eine fünfköpfige Familie ein ganzes Jahr lang ernähren, so Kew. Das und die Tatsache, dass er zu jeder Jahreszeit gepflanzt und geerntet werden kann, haben ihm den Namen "Baum gegen den Hunger" eingebracht. Wilde Verwandte des Enset wachsen bis nach Südafrika, was bedeutet, dass die Pflanze potenziell in großem Umfang angebaut werden könnte. Ein weiterer Pluspunkt: Sie kann als Baumaterial verwendet werden, da ihre Fasern Lehmmauern verstärken. Abbildung 1 D.

Andere Bohnen

Bohnen sind bereits weltweit beliebt, aber die Kew-Wissenschaftler sind der Meinung, dass sie noch vielseitiger genutzt werden könnten. Neben den weltweit bekannten und beliebten Bohnen wie Kidneybohnen, Pintos, Favas, Kichererbsen, Erbsen und Linsen könnten Hunderte weiterer wilder Arten angebaut werden. So zum Beispiel die Yeheb-Nuss, die in Somalia und Äthiopien wächst und wie eine Kastanie schmeckt, oder die im Mittelmeerraum verbreitete essbare Lupine, die für Snacks eingelegt oder zu Mehl gemahlen werden kann. Bohnen sind äußerst trockenheitstolerant und führen dem Boden Stickstoff zu, der ihn für andere Kulturen vorbereitet. Außerdem wachsen sie bereits auf allen Kontinenten außer der Antarktis. Abbildung 2A.

Abbildung 2. A: Bohnen (Elizabeth Perez Holowaty/Getty Images) , B: Nori-Kultur im Meer in der Stadt Xiapu, Provinz Fuijian, China (Pone Pluck/Getty Images), C: Pandanus Nan Marot / 500px/Getty Images, D: Chaya (Frank Vincentz via Wikipedia under CC BY-SA 3.0

Seetang

In den letzten Jahren hat das "Ocean Farming" an Popularität gewonnen, da es eine Möglichkeit darstellt, Gemüse ohne Süßwasser, Dünger oder Landnutzung zu produzieren. Die meisten von uns kennen Nori, die getrockneten Blätter aus rotem Seetang, die zum Einwickeln von Sushi verwendet werden. Aber auch viele andere Formen von Algen sind essbar, von Kelp (auf Japanisch als Wakame bekannt und in Suppen und anderen Gerichten verwendet) bis hin zu Dulse, die in Irland oft in Sodabrot gebacken wird. Abbildung 2B.

Pandanus

Pandanus, ein kleiner Baum aus der Gattung der Schraubenkiefern, wächst in warmen Niederungen an der Küste und auf Inseln im asiatisch-pazifischen Raum. Als Küstenpflanze ist sie an Salzsprühnebel und starke Winde gewöhnt. Die weibliche Pflanze bringt eine vitamin- und kaliumreiche, ananasähnliche Frucht hervor, und sowohl die männlichen als auch die weiblichen Pflanzen haben aromatische Blätter, die zum Würzen von Marmeladen, Kuchen und Reisgerichten oder zum Einwickeln von Fleisch und Fisch verwendet werden. Abbildung 2C.

Chaya

Die auf der mexikanischen Halbinsel Yucatan im Süden Mexikos beheimatete Chaya produziert Blätter und Triebe, die auch als Baumspinat bekannt sind. In rohem Zustand sind diese hochgiftig. Werden sie jedoch gekocht und gedünstet, sind sie eine hervorragende Quelle für Proteine, Vitamine, Eisen und Kalzium. Sie sind äußerst resistent gegen Schädlinge und vertragen Trockenheit und starken Wind. Abbildung 2D.


 *Der vorliegende Artikel ist unter dem Titel " Eight Superfoods That Could Future-Proof Our Diet" am 12 . Juli 2022 im Smithsonian Magazin erschienen https://www.smithsonianmag.com/innovation/eight-superfoods-that-could-future-proof-our-diet-180980394/.
Autorin ist die Innovations-Korrespondentin Emily Matchard. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt.


Information zu den Royal Society Gardens, Kew (UK)

Kew Gardens

Pflanzen und Pilze sind lebenswichtig für die Zukunft von Lebensmitteln, sauberer Luft und Medizin. Wir kämpfen gegen den Verlust der biologischen Vielfalt, um das Leben auf der Erde zu retten.https://www.kew.org/kew-gardens

Kew Science

Unser Ziel ist es, den Verlust der biologischen Vielfalt zu stoppen und naturbasierte Lösungen für einige der größten globalen Herausforderungen der Menschheit zu entwickeln. https://www.kew.org/science

Millennium Seed Bank

Die größte und vielfältigste genetische Ressource für Wildpflanzenarten in der Welt; eine unterirdische Sammlung von mehr als 2,4 Milliarden Samen aus der ganzen Welt, die seit 2000 in einer Bank aufbewahrt werden, um sie für die Zukunft zu erhalten. 97 Länder haben beigetragen.https://www.kew.org/wakehurst/whats-at-wakehurst/millennium-seed-bank


 

inge Thu, 21.07.2022 - 17:42

James-Webb-Teleskop: erste atemberaubende Bilder in die Tiefe des Weltraums

James-Webb-Teleskop: erste atemberaubende Bilder in die Tiefe des Weltraums

Do, 14.07.2022 — Redaktion

Redaktion

Icon Astronomie

Nach 26 Jahren Entwicklungsarbeit von NASA, ESA und CSA befindet sich das leistungsstärkste und teuerste Weltraumteleskops, das jemals gestartet wurde, auf seiner 1,5 Millionen km entfernten Umlaufbahn. Mit den eben veröffentlichten 5 Bildern wird ein neues Fenster in der Geschichte unseres Universums aufgestoßen. Es ist ein tiefer Blick zurück in die Frühzeit des Universums, der neue Erkenntnisse zur Entstehung und Entwicklung von Galaxien, zum Lebenszyklus von Sternen und zur Atmosphäre von Exoplaneten ermöglicht.*

Das tiefste und schärfste Infrarotbild, das jemals vom fernen Universum aufgenommen wurde, wurde vorgestern Abend enthüllt - ein atemberaubendes Bild des Galaxienhaufens SMACS 0723, das vom kürzlich gestarteten James Webb-Weltraumteleskop geliefert wurde. Abbildung 1. Noch vor einem Jahrhundert glaubten die Wissenschaftler, dass es nur eine einzige Galaxie gibt, doch dieses Bild offenbart Tausende - alle in einem winzigen Himmelsfleck, der in etwa so groß ist wie ein einzelnes Sandkorn, das jemand auf Armeslänge entfernt hält. NASA-Administrator Bill Nelson erklärte, dass Bilder wie dieses, das als "Webb's First Deep Field" bezeichnet wird, es uns ermöglichen, das Universum so zu sehen, wie es vor langer Zeit aussah - das von diesen Galaxien eingefangene Licht ist seit 4,6 Milliarden Jahren durch den Weltraum unterwegs.

Die Wartezeit auf Webb war nicht ganz so lang. Doch nun, mehr als drei Jahrzehnte nach seiner Konzeption und nach sechs Monaten in der Umlaufbahn, liefern die ersten Vollfarbbilder des James- Webb-Weltraum-Teleskop einen noch nie dagewesenen Blick auf unser Universum. Nach der Aufnahme, die gestern Abend von Präsident Biden enthüllt wurde, haben die Wissenschaftler heute vier weitere erstaunliche Bilder veröffentlicht, die ersten von vielen unglaublichen Bildern, die noch folgen werden.

Abbildung 1. Galaxien im Sternhaufen SMACS 0723. Das tiefste und schärfste Infrarotbild, das jemals vom fernen Universum aufgenommen wurde, zeigt ein Tableau mit Tausenden von Galaxien im Sternhaufen SMACS 0723, wie er vor 4,6 Milliarden Jahren erschien. Webb's First Deep Field, wie es genannt wird, ist eine Zusammenstellung von Bildern verschiedener Wellenlängen, die von der Nahinfrarotkamera des Teleskops in nur 12,5 Stunden erstellt wurden. Die kombinierte Masse von SMACS 0723 verstärkt die Leistung von Webb und wirkt wie eine Gravitationslinse, die die weit entfernten Galaxien dahinter vergrößert. Diese Galaxien, die auf dem Bild schwach und rot erscheinen, wurden noch nie zuvor gesehen, und die Wissenschaftler untersuchen bereits ihre Zusammensetzung, da Webb Konzentrationen von Elementen wie Sauerstoff, Wasserstoff und Neon in ihnen aufzeigt. Webb bietet nicht nur unglaublich weit entfernte Ansichten, sondern auch eine solche Klarheit, die es den Wissenschaftlern ermöglicht, das Alter, die Geschichte und die Zusammensetzung der frühesten Galaxien zu studieren, während sie die Geschichte unseres Universums in Richtung Urknall zurückverfolgen. NASA, ESA, CSA und STScI

Zu den ersten Bildern gehören der Carina-Nebel (Abbildung 2), eine dynamische Region, in der neue Sterne entstehen, mit mindestens einem Dutzend massereicher Sterne, die 50- bis 100-mal so groß sind wie unsere eigene Sonne, und der Südliche Ringnebel (Abbildung 4), eine riesige, sich ausdehnende Gaswolke, die einen Stern im Todeskampf umgibt. Webb nahm auch Bilder von Stephans-Quintett auf (Abbildung 5), einer kompakten Gruppe von fünf Galaxien im Sternbild Pegasus, und von dem faszinierenden Planeten WASP-96b, einem Gasriesen etwa 1.150 Lichtjahre von der Erde entfernt.

Der Astrophysiker John Mather, leitender Projektwissenschaftler für das Webb-Teleskop und Nobelpreisträger (2006, Untersuchung der Hintergrundstrahlung; Anm. Redn.) begann 1995 mit der Arbeit am Webb-Teleskop, kurz nachdem er geholfen hatte, Urknall und Alter des Universums zu bestimmen: Bei der Enthüllung der Bilder meint er: "Nachdem man weiß, wie es angefangen hat, ist nun die nächste Frage: was ist dann passiert?" Das Teleskop, da ist sich Mather sicher, wird dazu beitragen, einige Antworten zu finden. "Das ist unsere Zeitmaschine, und ich bin so begeistert, dass wir die Chance dazu bekommen haben."

Abbildung 2. Der Carina-Nebel ist eine turbulente Region der Sternentstehung und des Sternentods in etwa 7.600 Lichtjahren Entfernung im südlichen Sternbild Carina. Dank seiner Infrarotfähigkeiten kann Webb durch die Wolken hindurchschauen und Hunderte von neuen Sternen in atemberaubenden Details sichtbar machen. "Wir haben diese gigantischen, heißen, jungen Sterne hier oben, und die Strahlung und die stellaren Winde dieser Sterne drängen nach unten und treffen auf all dieses Gas und den Staub", sagt die Astrophysikerin Amber Straughn vom NASA Goddard Space Flight Center und beschreibt das Bild mit dem Namen Cosmic Cliffs. "Und natürlich wissen wir, dass Gas und Staub ein großartiges Rohmaterial für neugeborene Sterne und Babyplaneten sind." Straughn erklärt, dass jeder Lichtpunkt auf dem Bild ein einzelner Stern ist, der unserer Sonne nicht unähnlich ist, und viele von ihnen haben wahrscheinlich Planeten, die sie umkreisen. "Es erinnert mich einfach daran, dass unsere Sonne, unsere Planeten und schließlich wir selbst aus demselben Material entstanden sind, das wir hier sehen." NASA, ESA, CSA und STScI

Das rund 10 Milliarden Dollar teure Teleskop ermöglicht es uns, tiefer in den Weltraum und weiter zurück zu den Ursprüngen unseres Universums zu blicken, als es der Menschheit je zuvor möglich war. Webb kann das Licht der allerersten Sterne und Galaxien im Universum beobachten, die sich vor 13,5 Milliarden Jahren, nur wenige hundert Millionen Jahre nach dem Urknall, gebildet haben, und die Entwicklung dieser Sterne und Galaxien über das gesamte Alter des Universums hinweg verfolgen.

Wenn Webb es uns auch ermöglichen wird, tiefer in den Weltraum vorzudringen als je zuvor, so wird das Teleskop noch viel mehr tun. Webb wird den Vorhang vor Nebeln lüften, um zu sehen, wo Planetensysteme und Sterne geboren werden, die bisher durch Staubwolken von Observatorien mit sichtbarem Licht abgeschirmt waren. Beobachtungen mit Infrarotlicht ermöglichen es Webb, durch diesen Staub hindurchzuschauen, um die Geburt von Sternen zu beobachten und sogar durch aufgewirbelte Gase hindurch zum Schwarzen Loch im Zentrum unserer eigenen Galaxie zu sehen. Das Teleskop wird auch einen klareren Blick auf Exoplaneten jenseits unseres Sonnensystems ermöglichen, deren Atmosphären von Wolken umhüllt sind. Abbildung 3. Das wird es Wissenschaftlern wie Mercedes Lopez-Morales ermöglichen, ihre Zusammensetzung und ihre Atmosphären zu untersuchen, um festzustellen, ob einer von ihnen der Erde ähnelt - und sogar, ob er für Leben geeignet sein könnte.

"Das Universum mit Webb zu betrachten wird so sein, als würde man ein vertrautes Foto mit einer anderen Brille anschauen, die es uns ermöglicht, neue Details in diesem Foto zu sehen, die wir vorher nie gesehen haben", sagt Lopez-Morales, Astrophysikerin am Center for Astrophysics, Harvard & Smithsonian. "Überall, wo Webb hinschaut, werden wir etwas Neues sehen."

Abbildung 3. Die Erforschung von Exoplaneten durch Webb hat mit diesem Bild, das das Vorhandensein von atmosphärischem Wasserdampf auf WASP-96 b, einem heißen, gashaltigen Planeten etwa 1.150 Lichtjahre von der Erde entfernt, zeigt, einen unglaublichen Anfang gemacht. Außerhalb unseres Sonnensystems gibt es unzählige Planeten, und Webb wird es den Wissenschaftlern ermöglichen, diese wie nie zuvor zu analysieren. Durch den Blick durch die Wolken, die solche Welten verdecken, kann Webb aufdecken, welche Gesteinsplaneten Atmosphären haben und somit Leben beherbergen könnten, und gleichzeitig die Zusammensetzung aller Arten von Exoplanetenatmosphären untersuchen. "Was Sie hier sehen, ist der chemische Fingerabdruck, die verräterische Signatur von Wasserdampf in der Atmosphäre dieses Exoplaneten", sagt NASA-Astrophysikerin Knicole Colon und fügt hinzu, dass die Beweise für das Vorhandensein von Wolken und Dunst auf WASP-96 b sprechen. NASA, ESA, CSA und STScI )

Als Nachfolger des Hubble-Teleskops, das nach 30 Jahren immer noch in Betrieb ist, ist das Webb-Teleskop das leistungsstärkste und komplexeste wissenschaftliche Observatorium, das je gebaut wurde. Das 25 Jahre dauernde Projekt, eine gemeinsame Anstrengung der NASA, der Europäischen Weltraumorganisation (ESA) und der kanadischen Weltraumbehörde, hatte mit zahlreichen Komplikationen zu kämpfen. Dazu gehörten Kosten, die von anfänglichen Schätzungen in Höhe von 1 Milliarde Dollar auf 3,5 Milliarden Dollar angewachsen sind, eine Kürzung des NASA-Budgets im Jahr 2011 und eine Verzögerung nach der anderen, die einige daran zweifeln ließ, ob Webb jemals starten würde. Aber die Tatsache, dass er sich nun in der Umlaufbahn befindet und in Betrieb ist, zeugt von wissenschaftlicher Zusammenarbeit in großem Maßstab. Die beeindruckenden Bilder, die das Webb-Teleskop von unserem Universum aufnimmt, und die Entdeckungen, die es über seine und unsere Ursprünge verspricht, sind das Ergebnis der Arbeit von rund 1 200 Wissenschaftlern, Technikern und Ingenieuren aus 14 Ländern.

"Etwas wie das Webb-Teleskop zeigt wirklich, was wir Menschen tun können, wenn wir uns zusammentun", sagt Lopez-Morales. "Wenn wir uns etwas in den Kopf setzen, jahrelang durchhalten und alle zusammenarbeiten, können wir so etwas schaffen, und das ist für mich sehr inspirierend."

Abbildung 4. Südlicher Ringnebel. Im Südlichen Ringnebel haben zwei Webb-Kameras Bilder vom Sternentod eingefangen - und einen Blick in die Zukunft unseres eigenen Sonnensystems geworfen. "Dies ist ein planetarischer Nebel, der von einem sterbenden Stern verursacht wird, der einen großen Teil seiner Masse in aufeinanderfolgenden Wellen ausgestoßen hat", erklärt Karl Gordon, Astronom am Space Telescope Science Institute. Das Bild zeigt zwei Sterne, die sich in einer Umlaufbahn im Zentrum einer Wolke aus Elementen befinden, die von dem schwächeren Stern in den Weltraum ausgestoßen und durch die Bewegung der Umlaufbahn des Paares aufgewühlt werden. Der orangefarbene Schaum auf dem Bild ist molekularer Wasserstoff, der sich bei der Ausdehnung der Wolke bildet. Der innere blaue Schleier ist eine Konzentration von heißem, ionisiertem Gas, das durch den übrig gebliebenen Kern des Sterns überhitzt wird. NASA, ESA, CSA und STScI

Der NASA-Administrator James Webb war für viele bahnbrechende Errungenschaften verantwortlich, darunter die Apollo-Missionen, bei denen die ersten Menschen auf dem Mond landeten, und die Erkundung des ersten interplanetaren Raumschiffs der USA. Das nach ihm benannte Teleskop - gegen das einige Wissenschaftler Einspruch erhoben, weil Webb die homophobe Regierungspolitik seiner Ära duldete - startete am 25. Dezember 2021, als eine Ariane-5-Rakete vom europäischen Weltraumbahnhof in Französisch-Guayana abhob. Im Weltraum entfaltete sie vorsichtig einen tennisplatzgroßen Sonnenschutzschild und eine Wabe aus 18 sechseckigen, goldbeschichteten Spiegeln mit einem Durchmesser von mehr als 30 Metern, von denen jeder auf ein Zehntausendstel der Breite eines einzelnen menschlichen Haares ausgerichtet war. Die Spiegel ermöglichten es Webb, große Lichtmengen zu sammeln und damit mehr vom Weltraum zu sehen als jedes andere Instrument, als es sich in einer Umlaufbahn fast eine Million Meilen über der Erde niederließ.

Mit Hilfe von Sensorsystemen und vier verschiedenen Kameras arbeitet das Teleskop im infraroten Licht, einer Wellenlänge knapp jenseits dessen, was wir sehen können, und spürt Wärmestrahlung auf. Unsere eigene Atmosphäre blockiert das Infrarotlicht aus dem Weltraum, was ein Grund dafür ist, dass das Webb-Teleskop aus der Umlaufbahn arbeiten muss. Das Teleskop muss außerdem sehr kalt gehalten werden (-220 Grad Celsius), damit seine eigene Wärme die Sensoren nicht beeinträchtigt. Dies wird durch seine Lage im tiefen, kalten Weltraum und durch den schützenden Sonnenschirm erreicht.

Abbildung 5. Stephans Quintett. "Wir sehen uns fünf Galaxien an", sagt ESA-Astronomin Giovanna Giardino und weist darauf hin, dass eine typische Galaxie 100 Milliarden Sterne enthalten kann. Webbs Bild von Stephans Quintett, 290 Millionen Lichtjahre entfernt im Sternbild Pegasus, zeigt wunderbar chaotische Prozesse bei der Arbeit. Vier dieser Galaxien, fügt sie hinzu, "sind in eine Art kosmischen Tanz verwickelt, der von der Gravitationskraft angetrieben wird". Zwei Galaxien sind im Begriff zu verschmelzen. Das Bild zeigt, wie Webb grundlegende kosmische Phänomene aufdecken kann, die uns bisher weitgehend verborgen geblieben sind. "Es zeigt die Art von Wechselwirkungen, die die Entwicklung von Galaxien vorantreiben", merkt Giardino an, ein Prozess, mit dessen Hilfe wir auch die Geschichte unseres Universums seit der Entstehung der ersten Galaxien nachvollziehen könnten. Und obwohl Webb uns kein aktives Schwarzes Loch zeigen kann, erlaubt dieses Bild den Wissenschaftlern, die Zusammensetzung der umgebenden Gase zu untersuchen, die die Anwesenheit eines solchen Lochs verraten. "Wir können sehen, wie das Material herumwirbelt", sagt sie, "und von dieser Art kosmischem Monster verschluckt wird". NASA, ESA, CSA und STScI

Das von einer Solaranlage betriebene Teleskop könnte 20 Jahre oder länger in Betrieb sein. Im Gegensatz zum Hubble-Teleskop, das sich in einer niedrigen Umlaufbahn befindet und gewartet werden kann, ist das Webb-Teleskop aufgrund seiner Entfernung zum Mond so konzipiert, dass es während der gesamten Dauer der Mission autark ist.

Die Aufgabenliste von Webb ist äußerst beeindruckend. Die Wissenschaftler haben ausgefeilte Pläne, um das frühe Universum zu erforschen, aufzuzeichnen, wie Galaxien entstehen und sich im Laufe der Zeit entwickeln, den Lebenszyklus von Sternen zu beobachten und die Geheimnisse von Exoplaneten zu ergründen. Aber die größten Entdeckungen des Teleskops liegen vielleicht nicht in einem dieser Bereiche.

"Es ist sehr wahrscheinlich, dass wir Dinge entdecken werden, die wir nicht ohne Weiteres erklären können und an die wir nicht gedacht haben", sagt Lopez-Morales. "Das ist die Art und Weise, wie Durchbrüche im menschlichen Wissen geschehen, und deshalb bin ich sehr gespannt darauf, was die Beobachtungen von Webb uns offenbaren werden."

 

 

 

 

 

 

 

 


*Der vorliegende Artikel ist unter dem Titel "NASA Releases First Breathtaking Images Taken by James Webb Space Telescope" am 12 . Juli 2022 im Smithsonian Magazin erschienen.https://www.smithsonianmag.com/science-nature/nasa-releases-first-breathtaking-images-taken-by-james-webb-space-telescope-180980403/ Autor ist der Wissenschaftskorrespondent Brian Handwerk. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt.


Weiterführende Links

Die Astrophysikerin Suzanna Randall analysiert die Fotos und beantwortet Fragen in leicht verständlicher Weise in: Terra X Lesch & Co. LIVE: Endlich erste Bilder vom James Webb Space Telescope! | (12.7.2022) Video 52:30 min. https://www.youtube.com/watch?v=AS-3orgIDrw

Zum Bau des James-Webb-TelesKop in Scientific American:The James Webb Space Telescope just revealed our universe anew--the view is absolutely stunning (12.7.2022). Video 11:01 min. https://www.youtube.com/watch?v=nBDHqquK_8k

James Webb Space Telescope set to explore star and planet formation (11.7.2022). Video 1:40 min. https://www.youtube.com/watch?v=dUrHdTxDIqY


 

inge Thu, 14.07.2022 - 01:10

Comments

Rainer Kirmse … (not verified)

Sun, 25.06.2023 - 16:04

DAS LICHT

Wissenschaft und Zustandsbericht,
Astronomie und Poesie, ein Gedicht

Newtons Gesetze sind phänomenal,
Einstein modernisierte sie genial.
Max Planck und die Quanten,
in aller Munde, doch kaum verstanden.
Mit Fotoeffekt und Wirkungsquantum
schlägt man sich an jeder Schule herum.
Licht bewegt sich durch Raum und Zeit,
und das mit Lichtgeschwindigkeit.
Was ist das Licht, was ist es nicht?

ES WERDE LICHT

Das alles geht sehr schnell,
ruck zuck wird's ringsum hell.
Konstant bewegt sich das Licht,
Beschleunigung gibt es nicht.
Klein c = Lichtgeschwindigkeit,
Maximum in Raum und Zeit.

Quanten und Photonen
dem Lichte innewohnen.
Welle oder Teilchen?
Wir wollen nicht feilschen.
Betrachten wir's mal dual,
dem Lichte ist's ganz egal.

Lichtgeschwindigkeit im Quadrat;
E = m c ² - Einsteins Resultat.
Die Masse wirkt hier schwer,
das Licht sogar noch mehr.
Fazit und Ende vom Gedicht:
Ohne Energie kein Licht!😉

Das Licht in Gefangenschaft

DAS SCHWARZE LOCH

Ein kosmisches Schwergewicht,
zu keiner Diät bereit.
Sternenstaub das Hauptgericht,
verschmäht wird keine Mahlzeit.
Die Materie superdicht,
stark verbogen die Raumzeit.
Dem Monster entkommt kein Licht,
Gefängnis für die Ewigkeit.
Der Ereignishorizont ist Grenze,
dahinter ist einfach Sense.

Wo Licht ist, ist auch Schatten.

DUNKLES UNIVERSUM

Am Anfang war der Urknall,
um uns herum der Nachhall.
Das Weltall in Expansion
Milliarden Jahre nun schon.

Es sind dabei die Galaxien
einander rasant zu entflieh'n.
Da ist keine Wende in Sicht,
irgendwann geht aus das Licht.

Dunkle Materie ist rätselhaft,
dunkle Energie nicht minder.
Das Wissen ist noch lückenhaft,
man kommt nicht recht dahinter.

Es braucht wohl wieder ein Genie,
gar eine neue Theorie.
Den Kosmos ganz zu versteh'n,
wird noch etwas Zeit vergeh'n.

Des Universums Architektur -
Was ist der Sinn von allem nur?

TEILCHENPHYSIK

Ewig bleibt steh'n keine Mauer,
nichts im Weltall ist von Dauer.
So zerfällt nach einem Weilchen
auch noch das kleinste Teilchen.

Nukleonen winzig klein,
der größte Galaxienverein;
was am Himmel sehen wir,
der Mensch und alles Getier;
so schön auch der Bibelbericht -
einen Gott brauchte es wohl nicht.

STERNSUCHER

Sie blicken zu Mond und Sternen,
sind den Planeten auf der Spur;
reisen zu des Weltalls Fernen,
wenn auch mit Teleskopen nur.

Unterwegs in finsterer Nacht,
im Banne der himmlischen Pracht.
Licht aus, Sterne an, klare Sicht -
viel mehr brauchen sie dazu nicht.

DIE WELT DER STERNE

Deklination und Rektaszension
bestimmen die Sternposition.
Die Parallaxe indessen
hilft uns beim Entfernung messen.

Mehr Erkenntnisse bringt uns dann
das Hertzsprung-Russel Diagramm.
Der Sterne Aufbau und Wesen
an der Stellung abzulesen.

Wir sehen Sterne blau und rot,
neugeboren, auch kurz vorm Tod;
oder uns'rer Sonne ähnlich,
mittelalt und leuchtend gelblich.

Da gibt es Riesen und Zwerge
verschiedenster Leuchtstärke;
Solisten und Mehrfachsterne,
recht nah und in weiter Ferne.

All dieser Sonnen Profession
ist im Innern die Kernfusion.
Eruption und Protuberanz
sind nur oberflächlicher Tanz.

Sternenheimat sind Galaxien,
die mit ihnen durchs Weltall zieh'n.
Meist von Planeten umgeben,
gibt's ohne Sterne kein Leben.

Die Sterne sind bis zum Ende
Geburtsort der Elemente.
Nach dem Eisen ist damit Schluss,
von den Sternen ein letzter Gruß.

Für Elemente superschwer
muss eine Supernova her.
Der Mensch, ein Kind der Sterne,
betrachtet's aus der Ferne.

LEBEN IM WELTALL

Sind wir im Universum allein,
ist weit draußen nur totes Gestein?
Zahllose Sterne am Himmel steh'n,
zahllose Planeten daneben.
Sollte man nirgendwo Leben seh'n,
zu höchster Komplexität streben?
Von Mikroben könnte es wimmeln
unter herrlichen Exo-Himmeln.

Sterne entstehen und vergehen,
das ist im All Normalgeschehen.
Wir alle kommen von den Sternen,
wo die Elemente geboren.
Kein Atom in des Kosmos Fernen
geht im großen Zyklus verloren.
So werden in allen Galaxien
Lebenskeime ihre Kreise zieh'n.

Rainer Kirmse , Altenburg

Herzliche Grüße aus Thüringen

Was Quantencomputer in den nächsten Jahren leisten können

Was Quantencomputer in den nächsten Jahren leisten können

Do, 07.07.2022 — Roland Wengenmayr

Icon Physik

Roland Wengenmayr Sie sollen Probleme lösen, an denen heute sogar die besten Computer scheitern. Mit dieser Erwartung investieren Regierungen, aber auch private Geldgeber massiv in die Entwicklung von Quantencomputern. Es wird vielleicht noch Jahrzehnte dauern, bis es einen universell programmierbaren Quantencomputer gibt, vor allem weil Rechnungen mit ihm sehr fehleranfällig sind und Quanteninformation sehr empfindlich ist. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr berichtet über Arbeiten zur Fehlerkorrektur und Validierung von Quantenrechnungen am Max-Planck-Institut für Quantenoptik, über physikalische Systeme zur Hardware von Quantencomputern und dabei u.a. über die vom Institut für Quantenoptik und Quanteninformation (IQOQI; OEAW) und der Universität Innsbruck entwickelten Ionenfallentechnologie *

Eigentlich sollte Ignacio Cirac Grund zu Enthusiasmus haben. Der Direktor am Max-Planck-Institut für Quantenoptik in Garching bei München ist ein Pionier der Entwicklung von Quantencomputern. Solche Rechner sollen mithilfe der Quantenphysik manche Aufgaben etwa in der Logistik oder bei der Entwicklung neuer Medikamente und Werkstoffe wesentlich schneller bewältigen als heutige Computer. In dieser Hoffnung überbieten sich staatliche Institutionen geradezu bei der Förderung der Quantentechnologie, vor allem des Quantencomputers: Die deutsche Bundesregierung hat von 2021 bis 2025 zwei Milliarden Euro für das Gebiet zur Verfügung gestellt, die US-Regierung gibt ebenfalls für vier Jahre rund eine Milliarde Dollar, und die EU-Kommission hat in einem über zehn Jahre laufenden Flaggschiffprogramm etwa genauso viel ausgelobt. Doch China übertrifft alle anderen mit gleich zehn Milliarden Euro für ein Institut für Quanteninformationswissenschaft. Dazu kommt: neben zahlreichen Start-ups beteiligen sich auch große Unternehmen wie Google und IBM am Rennen zu den ersten Quantenrechnern – und sie begleiten jeden Fortschritt mit einigem medialen Tamtam. Hunderte Millionen Euro investieren die Firmen und ihre Kapitalgeber in die Entwicklung von Quantencomputern.

Das Forschungsfeld von Ignacio Cirac boomt also augenscheinlich. Doch das führt bei dem Physiker nicht nur zu Begeisterung, sondern auch zu Beunruhigung. Wie viele seiner Kollegen, die sich auf dem Gebiet der Quanteninformation gut auskennen, fürchtet er, dieser Hype um Quanteninformations-technologien könnte bei Misserfolgen bald ins Gegenteil umschlagen. „Wir werden jetzt nicht mehr nur durch die Forschung angetrieben, sondern auch durch Investoren“, sagt Cirac. Die aber könnten zu ungeduldig sein. Angesichts der enormen technischen Herausforderungen erwartet Cirac nämlich, dass es mindestens noch zehn Jahre, vielleicht sogar zwanzig bis dreißig Jahre dauern könnte, bis es wirklich anwendungsreife universelle Quantencomputer geben wird. „So lange wird aber kein Hype andauern“, betont er, „und am Ende werden wir Wissenschaftler als die Schuldigen ausgemacht, wenn der Quantencomputer noch nicht so weit ist.“ Die große Zukunftsvision sind universelle, das heißt frei programmierbare Quantencomputer. Sie sind das Gegenstück zu den digitalen Computern: Analog zu den digitalen Bits rechnen sie mit Quantenbits, kurz Qubits. Ihre Rechenmacht, wenn es um bestimmte Aufgaben geht, beziehen sie aus den Regeln der Quantenwelt: Anders als ein digitales Bit kann ein Qubit nicht allein die Zustände 0 und 1 annehmen, sondern sich auch in einer Überlagerung beider Zustände befinden. Darüber hinaus können mehrere Qubits miteinander überlagert werden. Diese Verschränkung bildet das Rechenwerk eines Quantencomputers. Abbildung 1.

Abbildung 1. Vieldeutiges Bit: Anders als ein klassisches Bit kann ein Quantenbit auch Überlagerungen der Zustände 0 und 1 annehmen, die sich mit den Koordinaten x, y und z auf einer Kugel darstellen lassen und bei einer Messung mit einer gewissen Wahrscheinlichkeit auftreten. Da Quantencomputer so verschiedene Lösungen parallel testen können, dürften sie manche Aufgaben schneller bewältigen als klassische Rechner.

Ein universeller Quantencomputer könnte vielfältige Anwendungen finden. „Ein typisches Beispiel ist das Problem des Handlungsreisenden“, sagt Cirac. Der Handlungsreisende soll eine gewisse Anzahl von Städten besuchen und will dafür die kürzeste Strecke errechnen. „Wie wächst nun mit der Anzahl der Städte die dafür auf einem digitalen Computer benötigte Rechenzeit?“, fragt der Physiker und antwortet gleich selbst: „Sie wächst exponentiell!“ Das sei typisch für derartige kombinatorische Probleme, und die lauern vielfältig darauf, zum Beispiel in der Technik, Rechenzeiten auf herkömmlichen Computern explodieren zu lassen. Und nicht nur das: Auch der für das Rechnen benötigte Speicherplatz kann lawinenartig anwachsen.

Die Sache mit der exponentiellen Explosion kennen wir alle seit Beginn der Coronapandemie. Die Legende von der Erfindung des Schachspiels kann sie veranschaulichen. Der von dem neuen Spiel begeisterte König will dem Erfinder eine Belohnung zukommen lassen, die dieser sich aussuchen darf. Der im Gegensatz zum König mathematisch versierte Erfinder überlegt und wünscht sich dann Reis, nach folgender Regel: für das erste Feld des Schachbretts ein Reiskorn, für das zweite zwei Körner und dann für jedes nächste Feld immer die doppelte Anzahl. Mathematisch ergibt dies bei 64 Spielfeldern die Zahl 264 – 1, die in dieser Form als Potenz harmlos aussieht, aber gigantisch groß ist. Der König müsste dem Erfinder des Schachspiels so viel Reis geben, dass die Menge umgerechnet jener von rund zweitausend heutigen Weltjahresproduktionen entspräche.

Eine solche exponentielle Explosion erschwert auch die Lösung von Aufgaben aus der Physik und Chemie, die Quantencomputer schon recht bald bearbeiten könnten. Zum Beispiel wenn es darum geht, gezielt neue medizinische Wirkstoffe oder neue Werkstoffe zu entwickeln – etwa praxistaugliche Materialien, die Strom ohne Widerstand leiten. Denn wer die Eigenschaften von chemischen Reaktionen, von Molekülen und Materialien möglichst exakt berechnen will, muss unweigerlich Quanteneigenschaften berücksichtigen, genauer gesagt: das komplexe Zusammenspiel von Elektronen. Das Verhalten eines solchen Quantenvielteilchensystems kann selbst ein heutiger Supercomputer nicht berechnen. Daher hantieren Programme etwa für die Materialentwicklung mit stark vereinfachten Näherungsmodellen. Entsprechend unterentwickelt ist deren Vorhersagekraft. Quantencomputer können im Prinzip ein viel präziseres Materialdesign ermöglichen. Die Grundidee geht auf den amerikanischen Physik-Nobelpreisträger Richard Feynman zurück. Sie lautet: Will man ein Quantensystem exakt berechnen, so nehme man ein angepasstes zweites Quantensystem, welches sich als adäquates Ersatzteam eignet. Doch anders als das schwer zugängliche Untersuchungsobjekt, etwa das Elektronenkollektiv in einem Supraleiter, muss dieses zweite Quantensystem wie ein Rechenwerk gut von außen steuerbar sein. Genau dadurch zeichnet sich ein Quantencomputer aus, und zwar in der Rolle eines Quantensimulators.

Simulatoren für die physikalische Forschung

Vergleicht man das mit der Geschichte der klassischen Computer, dann sind Quantensimulatoren das Pendant zu Analogrechnern. Das waren hochspezialisierte Computer, die zum Beispiel die aerodynamischen Eigenschaften eines zu entwickelnden Flugzeugs simulierten. Anders als digitale Computer, welche Information portionsweise als Bits verarbeiten, bildeten Analogcomputer ein bestimmtes System kontinuierlich nach, etwa mechanisch oder elektronisch. Analogcomputer hatten ihre große Zeit, als digitale Computer noch nicht so leistungsfähig waren. Heute, in der Frühphase der Quantencomputer, ist es ähnlich. Quantensimulatoren werden bereits zunehmend interessant, um zumindest Fragen der physikalischen Grundlagenforschung anzupacken. Daran forscht zum Beispiel die Gruppe von Immanuel Bloch, ebenfalls Direktor am Max-Planck-Institut für Quantenoptik, mit der Ciracs Team auch zusammenarbeitet.

Von dem universell programmierbaren Quantencomputer trennt einen Quantensimulator, der heute oder zumindest in naher Zukunft verfügbar ist, etwa so viel wie einen alten Analogrechner vom heutigen PC. Ciracs Team verfolgt daher eine doppelte Strategie. Ein Teil der von den Garchingern entwickelten Algorithmen wird erst in fernerer Zukunft auf leistungsfähigen, fehlerkorrigierten universellen Quantencomputern laufen können. Der andere Teil soll schon möglichst bald auf den bereits verfügbaren Quantenrechnern mit relativ wenigen Qubits einsetzbar sein und besonders in der Quantensimulation erste Vorteile demonstrieren. „Wir wollen zeigen, dass man schon jetzt auf Quantencomputern etwas Nützliches machen kann, das auf klassischen Computern nicht mehr geht“, sagt Cirac, „zum Beispiel die Eigenschaften von einigen neuen Materialien vorherzusagen.“ Dazu kooperiert er auch mit Google Research, der Forschungsabteilung von Google.

Für die Hardware von Quantencomputern sind verschiedene physikalische Systeme im Wettrennen. Immanuel Blochs Gruppe etwa setzt auf ultrakalte Atome als Qubits, die in einem räumlichen Gitter aus Laserstrahlen gefangen sind und über Laserlicht angesteuert werden. Google hingegen entwickelt Chips, die winzige supraleitende Schaltkreise als Quantenbits nutzen. Mit einem solchen Quantenprozessor namens Sycamore, der 53 funktionierende Qubits enthielt, konnte die Google-Forschung 2019 erstmals demonstrieren, dass ein Quantencomputer in der Berechnung einer Aufgabe den leistungsfähigsten konventionellen Supercomputer schlagen kann. „Allerdings war das eine rein akademische Aufgabe ohne sinnvolle Anwendung“, kommentiert Cirac diesen gefeierten Durchbruch. Und Markus Hoffmann von Google Research in München vergleicht es mit dem ersten Motorflug-Hüpfer der Gebrüder Wright: „Mit diesem Flug sind wir auf einer ersten Insel gelandet, die klassisch nicht erreichbar ist – aber diese ist noch unfruchtbar.“ Er betont auch, dass Google Research das technische Entwicklungsniveau von Quantencomputern realistisch einschätzt. Zugleich gibt er sich optimistisch. So erwartet Google, dass die nächsten Meilensteine hundert supraleitende Qubits sind, danach tausend und schließlich – etwa in einer Dekade – eine Million.

Die Grenzen von Quantencomputern

Schon mit hundert Qubits ließe sich in der Materialentwicklung etwas anfangen. Will man nämlich die Eigenschaften eines mikroskopisch kleinen Supraleiterstückchens exakt berechnen, die von hundert stark miteinander wechselwirkenden Elektronen bestimmt werden, landet man bei einem Problem mit 2100 Unbekannten. Das ist weit mehr, als das Universum Sterne hat, und überfordert absehbar alle herkömmlichen Großcomputer. Ein Quantencomputer würde hingegen nur hundert verschränkte Qubits benötigen, um die Aufgabe zu lösen. Aber wie macht er das?

Mari Carmen Bañuls, leitende Forscherin in Ciracs Abteilung, versucht, die Prozedur zu erklären: „Man schreibt seine Instruktionen in die Quantenbits hinein und präpariert sie so in einem bestimmten Quantenzustand.“ Die zu berechnende Aufgabe, die einen bestimmten Quantenalgorithmus nutzt, steckt dabei in der Art, wie die Quantenbits anfänglich verschränkt sind. „Dann lässt man das System sich eine gewisse Zeit entwickeln“, erklärt die Physikerin, „und macht dann eine Messung, um das Ergebnis zu bekommen.“ Das ist in gewisser Weise mit dem Kochen in einem Schnellkochtopf vergleichbar: Man gibt die Zutaten hinein, verschließt den Topf und startet den Kochvorgang. Nach einer vom Rezept festgelegten Zeit schaut man nach, ob der Eintopf gelungen ist. Während des Kochens hat man nur den Druckanzeiger als Information über die Vorgänge im Topf – aber immerhin.

In der Quantenwelt ist nicht einmal eine solche Anzeige erlaubt, solange die verschränkten Qubits vor sich hin werkeln. Denn hier kommt eine weitere Eigenheit ins Spiel: Quanteninformation ist ein extremes Sensibelchen. Selbst ein minimaler Eingriff entspricht einer Messung, welche die Verschränkung sofort kollabieren lässt. Also darf man erst nach Ablauf der im Quantenrezept festgelegten Zeit nachschauen, sprich: eine Messung machen, und bekommt dann das erwünschte Resultat – vielleicht. Denn es gibt noch eine Besonderheit der Quantenmechanik. Sie beschreibt nur Wahrscheinlichkeiten, mit denen sich bestimmte Quantenzustände einstellen.

Ein Quantencomputer würde also nicht 1 + 1 = 2 liefern, sondern das Resultat 2 nur mit einer gewissen, allerdings exakt berechenbaren Wahrscheinlichkeit ausgeben. Auch das ist ein Hinweis darauf, dass der Einsatz von Quantencomputern nur für spezielle Aufgaben sinnvoll sein wird, für die solch eine Unsicherheit tolerabel ist oder es keine Alternative gibt. Welche Aufgaben das sein könnten, das erforscht Ciracs Team ebenfalls. Denn hier ist trotz kühner Zukunftsvisionen noch sehr vieles offen: „Wir untersuchen auch, was Quantencomputer nicht können“, betont Cirac. Dies soll verhindern, dass wertvolle Ressourcen auf nicht erreichbare Ziele verschwendet werden.

Auch ein universell programmierbarer Quantencomputer kann also nicht beliebige Probleme lösen. Und um die Hoffnungen überhaupt zu erfüllen, die auf ihn gesetzt werden, reichen selbst die von Google in rund zehn Jahren angepeilten eine Million Qubits nicht. Das liegt nicht zuletzt am Unterschied zwischen physikalischen und logischen Qubits, wie Google-Forscher Markus Hoffmann erklärt. Ein physikalisches Quantenbit ist eben zum Beispiel ein in einem Lichtgitter schwebendes Atom oder ein mikroskopischer supraleitender Kreisstrom. Doch weil diese physikalischen Bits so anfällig gegenüber Störungen aus der Umwelt sind, gibt es den Plan, mehrere physikalische Qubits zu einem logischen Qubit zusammenzuschalten, um darin die Quanteninformation wesentlich stabiler zu speichern. Bei der supraleitenden Technik, wie Google sie erforscht, würde ein logisches Qubit aus tausend synchronisierten physikalischen Qubits bestehen.

Bei einem universellen Quantencomputer werden viele zwischen den und rund um die logischen Qubits verteilte Hilfsquantenbits hinzukommen. Sie sollen als zusätzliche Sensoren Störungen messen. All das ist der Herausforderung geschuldet, dass die eigentlich rechnenden logischen Qubitswährend ihrer Arbeit nicht auf Fehler geprüft werden dürfen, was ein herkömmlicher Computer täte. Eine Prüfung wäre ja eine verbotene Messung. Aber auf Basis der Informationen von den Hilfsqubits und der Ergebnisse der logischen Qubits kann der Algorithmus eine sinnvolle Fehlerkorrektur machen.

Solche Konzepte für einen universellen, fehlerkorrigierten Quantencomputer haben Schätzungen zufolge einen hohen Preis. „Das läuft auf vielleicht hundert Millionen physikalische Qubits hinaus“, sagt Cirac: „Ein solcher Quantencomputer würde mit seinen Vakuum- und Kühlvorrichtungen unser ganzes Institut füllen!“ Mit der heutigen Technik sind diese Anforderungen also „crazy“, wie Cirac betont, und genau deshalb macht ihm der gegenwärtige Hype Sorgen. Aus seiner Sicht sind auch noch grundlegende technische Herausforderungen nicht gemeistert.

Neue Ideen aus ersten Anwendungen

Erstaunlich gelassen ist hingegen Thomas Monz von der Universität Innsbruck. Er gehört zu einem Team um Rainer Blatt, das eine andere Technik vorantreibt. Die Forschenden nutzen elektrisch geladene Calciumatome, die – wie Perlen aufgereiht – in einer elektromagnetischen Falle, der sogenannten Paul-Falle, schweben. Angesteuert werden sie mit Laserstrahlen. Der Vorteil dieser Calciumionen besteht darin, dass sie wegen ihrer elektrischen Abstoßung sehr stark miteinander wechselwirken. Dies lässt sich für eine sehr kräftige Verschränkung nutzen. Bereits 24 Qubits konnten in diesem Ionen-Quantencomputer verschränkt werden. Abbildung 2.

„Das klingt nach wenig, aber diese Verschränkung ist sehr stabil“, sagt Monz. Er ist auch Geschäftsführer des Startups Alpine Quantum Technologies (AQT), das bereits Ionen-Quantencomputer kommerziell verkauft. Seine Gruppe an der Universität Innsbruck, unterstützt durch AQT, hat in Zusammenarbeit mit dem Forschungszentrum Jülich kürzlich erstmals eine erfolgreiche Quantenfehlerkorrektur demonstriert. „Dazu haben wir je sieben physikalische Qubits zu logischen Qubits zusammengeschaltet“, sagt Monz. Die Idee ist einfach: Nach einer gewissen Rechenzeit weichen gewöhnlich Zustände einiger physikalischer Qubits, die ein logisches Qubit formen, wegen Fehlern voneinander ab; dann zeigt die Mehrheit der Qubits, die im Zustand übereinstimmen, wahrscheinlich das korrekte Ergebnis an. „Bei der Quantenfehlerkorrektur geht es ja einfach um Redundanz“, sagt Monz.

Abbildung 2. Modell eines Quantensystems: Gekreuzte Laserstrahlen formen ein Gitter, das einem Eierkarton ähnelt. In dessen Kuhlen lassen sich Atome fangen, die Quantenphänomene simulieren können. Solche Systeme sind aber auch Kandidaten für universelle Quantencomputer. Grafik : Christoph Hohma nn (MCQST Cluster)

Um mit der Fehleranfälligkeit von Quantenrechnungen besser umgehen zu können, haben Cirac und sein Team ein Projekt gestartet: „Wir arbeiten an der Verifikation von Rechenergebnissen“, sagt er: „Ich denke, das ist eine wichtige Fragestellung.“ Denn es soll sichergestellt sein, dass Quantencomputer verlässliche Ergebnisse produzieren. Solch ein Debugging muss auch die etablierte Computertechnik immer wieder vornehmen. Trotz aller Einschränkungen, trotz der Hindernisse, die Quantencomputer noch nehmen müssen, ehe sie für breitere Anwendungen nutzbar sind, ist Cirac überzeugt: Gibt es sie erst einmal, werden sie zu unerwarteten Ideen führen. Der inspirierende Effekt der fortschreitenden Entwicklung motiviert ihn auch, schnell zu ersten, kleineren Anwendungen zu kommen. Er ist sicher: „Falls wir in fünfzehn Jahren wieder ein Interview führen, werden die wichtigsten Anwendungen der Quantenphysik nicht die sein, über die wir heute gesprochen haben!“


 * Der Artikel ist erstmals unter dem Title: "Quantenrechner auf dem Sprung" im Wissenschaftsmagazin 2/2022 der Max-Planck-Gesellschaft https://www.mpg.de/18900638/MPF_2022_2.pdf erschienen. Die MPG-Pressestelle und der Autor haben freundlicherweise der Verwendung von Wissenschaftsmagazin-Beiträgen im ScienceBlog zugestimmt. Mit Ausnahme des veränderten Titels und einer fehlenden Abbildung wurde der Artikel unverändert in den Blog übernommen.


Weiterführende Links:

Max-Planck-Instituts für Quantenoptik (Garching)

Prof. Dr. Ignacio Cirac, Direktor MPQ, Abt. Theorie. https://www.mpq.mpg.de/6497359/theory-homepage

Prof. Dr. Immanuel Bloch, Direktor MPG, Abteilung Quanten-Vielteilchensysteme (LMU, MPQ). https://www.quantum-munich.de/

Ignacio Cirac: Quantum computers: what, when and how (Vortrag 2020): Video 51:15 min. https://www.youtube.com/watch?v=2lp8aeyi4Dc

Institut für Quantenoptik und Quanteninformation (IQOQI) Innsbruck

Synergien nutzen: IQOQI und Universität Innsbruck (Rainer Blatt): Video 3:36 min. https://www.youtube.com/watch?v=3RslpA8i8fM&t=213s

Rechnen mit QuBits (IQOQI, Rainer Blatt): Video 14;59 min. https://www.youtube.com/watch?v=xRdlbjnLK6Q

Quanteninformation: Von der Idee zur Realität (IQOQI, Peter Zoller): Video 4:26 min. https://www.youtube.com/watch?v=c-pGT3ODcEg

Projekt Optoquant: Österreichische Forschung ebnet Weg für Quantencomputer: Video 4:48 min. https://www.youtube.com/watch?v=CkAtSQNfn-4&t=278s

Alpine Quantum Technologies (AQT):https://www.aqt.eu/

Google Research

Hello quantum world! Google publishes landmark quantum supremacy claim (23.10.2019): https://www.nature.com/articles/d41586-019-03213-z

Quantum supremacy: A three minute guide. Video 3:12 min. https://www.youtube.com/watch?v=vTYp5Kd9nMA&t=12s


 

inge Thu, 07.07.2022 - 00:27

Comments

Markus (not verified)

Tue, 20.12.2022 - 10:31

Kleiner Fehler im Text: Die Summe ist nicht 1+2^63 sondern 2^64-1, oder?

Markus (not verified)

Tue, 20.12.2022 - 10:39

P.S. Im Originaltext, der vielleicht inzwischen korrigiert wurde, habe ich auch meine Lösung, nämlich 2^64-1 gefunden...

Wie sich Schwärme von Immunzellen selbst organisieren

Wie sich Schwärme von Immunzellen selbst organisieren

Fr, 30.06.2022 - — Tim Lämmermann

Tim LämmermannIcon Medizin In einem früheren Artikel hat der Immunologe Tim Lämmermann (Forschungsgruppenleiter am Max-Planck Institut für Immunbiologie und Epigenetik) über neutrophile Granulozyten berichtet [1]. Diese Fresszellen der angeborenen Immunantwort und Ersthelfer unseres Immunsystems patrouillieren durch Blutgefäße und wandern bei Anzeichen einer Entzündung oder Infektion schlagartig ins Gewebe ein, um dort Krankheitserreger zu eliminieren. Im Gewebe angekommen, schließen sie sich zu beeindruckenden Zellschwärmen zusammen und greifen Erreger gemeinsam an. Nun zeigt Lämmermann, dass Neutrophile ein molekulares Start-Stopp-System entwickelt haben, um ihre Schwarmaktivität selbst zu kontrollieren und Bakterien in Geweben effektiv und ohne Nebenwirkungen zu beseitigen.*

Immunologische Erstabwehr von Infektionserregern

Unsere Körper sind durch Barrieren wie die Haut gut vor eindringenden Krankheitserregern geschützt. Durch Verletzungen, wie etwa bei einem Riss in der Haut, können jedoch Krankheitserreger durch die Wunde in den Körper eindringen und schwere Infektionen verursachen. In solchen Fällen übernimmt das angeborene Immunsystem die erste Verteidigungslinie mit einem effektiven Arsenal verschiedener zellulärer Waffen. Als einer der ersten Zelltypen vor Ort werden neutrophile Granulozyten, auch kurz Neutrophile genannt, innerhalb weniger Stunden aus dem Blutkreislauf in das verletzte Gewebe rekrutiert, um möglichst schnell mikrobielle Eindringlinge aufzunehmen und zu zerstören.

Schwärme von Fresszellen als angeborener Immunschutz

Neutrophile sind unscheinbar wirkende, runde Immunzellen mit einem Durchmesser von ca. 0,015 Millimetern, die im menschlichen Blut etwa 50-70% der weißen Blutkörperchen ausmachen. Nur an den Orten einer lokalen Entzündung oder Infektion treten sie aus den Blutgefäßen heraus, werden aktiviert und gehen dann im dortigen Gewebe auf die Jagd nach Erregern. Auf diese Weise patrouillieren diese Zellen fast alle Bereiche unseres Körpers.

Mittels molekularer Sensoren auf ihrer Zelloberfläche sind Neutrophile besonders darauf spezialisiert, die Alarmsignale von Zellen zu erkennen, die durch Verletzungen oder eindringende Mikroben geschädigt wurden. Sobald einzelne Neutrophile solche Signale erkennen, rufen sie mittels chemischer Botenstoffe weitere Neutrophile zu Hilfe. Im Zuge unserer Forschung ist es uns gelungen, die Schlüsselrolle des Lipids Leukotrien B4, kurz LTB4, für genau diese Kommunikation zwischen den Immunzellen aufzudecken (Abbildung 1).

Dieses Lipid wird von aktivierten Neutrophilen ausgeschüttet, um anderen Neutrophilen die Richtung vorzugeben, der sie folgen sollen. Durch diese interzelluläre Kommunikation bilden Neutrophile imposante Zellschwärme, die zum Teil mehrere Hundert Zellen umfassen können und wie ein Zellkollektiv gemeinsam und fein abgestimmt im Gewebe agieren.

Abbildung 1: Neutrophile (grün) bilden Zellschwärme und sammeln sich an Gewebestellen, wo sie beschädigte Zellen oder eindringende Mikroben eindämmen und bekämpfen. Die mehrfarbigen Bahnen zeigen die Bewegungspfade von Neutrophilen an. Zwischen dem linken und rechten Bild liegen 30 Minuten. © Max-Planck-Institut für Immunbiologie und Epigenetik/Lämmermann .

Neben ihrer besonderen Effektivität beim Jagen von Bakterien sind Neutrophile auch noch hervorragend ausgerüstet, um diese zu töten und aus dem Gewebe zu entfernen. Hierzu besitzen sie in ihrem Zellinneren mehrere antibakterielle Substanzen, die Krankheitserreger töten können. Gelangen diese Substanzen jedoch aus der Zelle in ihre Umgebung, dann können sie für die umliegenden Gewebestrukturen aus Eiweißen und Zuckern schädlich sein. Ein Überschießen der nützlichen Entzündungsreaktion kann auf diese Weise zu massiven Gewebeschäden führen und zur Gefahr für den Körper werden. Ein solches Ungleichgewicht liegt häufig bei starken Entzündungsreaktionen vor und wird aktuell auch als eine der Ursachen für Lungenschäden bei schweren Verläufen von Covid-19 Erkrankungen diskutiert.

Eine molekulare Bremse, um den Schwarm zu stoppen

Während in den letzten Jahren immer mehr Erkenntnisse zu den auslösenden Mechanismen von Neutrophilen-Schwärmen gewonnen wurden, blieben diejenigen Prozesse bislang unbekannt, die diesen Teil der Immunreaktion wieder beenden. Am Max-Planck-Institut für Immunbiologie und Epigenetik haben wir uns deshalb der Frage gewidmet, wie das Schwarmverhalten von Neutrophilen und deren unkontrollierte Anhäufung im Gewebe die damit verbundene schädliche Entzündungsreaktion verhindert wird. Abbildung 2.

Abbildung 2: Neutrophile geben Signalstoffe ab, die immer mehr Zellen anziehen (links). Übersteigt die Konzentration der Signale eine bestimmte Schwelle, kommt die Wanderung der Fresszellen zum Stillstand (rechts). Der so entstehende Schwarm kann eingedrungene Krankheitserreger (graue Kreise) abschirmen und bekämpfen. .

Unsere Studien zeigen, dass Neutrophile ihre Schwarmaktivität selbst begrenzen und somit eine optimale Balance zwischen Such- und Zerstörungsphasen bei der Beseitigung von Erregern ermöglichen. Diese Erkenntnisse sind überraschend, denn bisherige Annahmen gingen stets von externen Signalen aus der Gewebeumgebung aus, die die Aktivität der Neutrophilen während der Endphase einer Entzündung dämpfen oder beenden. Durch den Einsatz spezieller Mikroskope für die Echtzeit-Visualisierung der Immunzelldynamik in lebendem Mausgewebe konnten wir jedoch zeigen, dass schwärmende Neutrophile mit der Zeit gegenüber ihren eigenen Signalen wie dem Leukotrien LTB4 unempfindlich werden, mit denen sie den Schwarm ursprünglich initiiert haben.

Um dies zu bewerkstelligen, besitzen Neutrophile eine molekulare Bremse, mit der sie ihre Bewegung stoppen, sobald sie hohe Konzentrationen der sich anhäufenden Schwarmlockstoffe in den Neutrophilen-Clustern wahrnehmen.

Jagdstrategien der Fresszellen

Das die Bremswirkung vermittelnde Protein trägt den Namen „G-Protein gekoppelte Rezeptor Kinase 2 (GRK2)“. Es sorgt dafür, dass bei hohen Konzentrationen der sich anhäufenden Schwarmlockstoffe die Zellen nicht mehr auf diese Signale reagieren und somit stehen bleiben. Angesichts der Entdeckung des Start-Stopp-Systems in Neutrophilen lag es nahe, zeitgleich geläufige Hypothesen zu Bewegungsmustern und Jagdstrategien von Fresszellen zu überprüfen. In Experimenten mit Neutrophilen, denen der Start-Stopp-Mechanismus fehlte, beobachteten wir nämlich, dass sich diese Zellen ungebremst im Gewebe bewegten und dadurch in großen Gewebebereichen nach Bakterien Ausschau halten konnten. Die Neutrophilen selbst hatten jedoch keinen Vorteil davon, sich besonders schnell im Gewebe bewegen zu können und ungebremst umherzueilen. Im Gegenteil: Neutrophile agieren viel effektiver, wenn sie als Schwarm eine infizierte Zelle umzingeln und dann dort verharren. Auf diese Weise bilden sie nämlich eine zelluläre Barriere, welche die Vermehrung und die weitere Verbreitung von Bakterien lokal eindämmt.

Fazit

Unsere Ergebnisse haben einen wichtigen Aspekt der Biologie von Neutrophilen entschlüsselt, der besonders für die Immunabwehr gegen Bakterien von Bedeutung ist. Unsere unerwarteten Erkenntnisse zu den Jagdstrategien der Immunzellen können wichtige Impulse für neue therapeutische Ansätze darstellen. Darüber hinaus könnten die hier beschriebenen Mechanismen zum Schwarmverhalten der Neutrophilen auch die Forschungen zum kollektivem Verhalten von Zellverbänden bis hin zum kollektiven Verhalten einiger Insektenarten vorantreiben.

 [1] Tim Lämmermann, 08.07.2016: Schwärme von Zellen der angeborenen Immunantwort bekämpfen eindringende Mikroorganismen


* Der Artikel ist unter dem Titel "Wie sich Schwärme von Immunzellen selbst organisieren " im Jahrbuch der Max-Planck Gesellschaft 2021 h https://www.mpg.de/18167365/ie-freiburg_jb_2021?c=153825 und leicht modifiziert unter dem Titel "Schwärmende Fresszellen" in der Sammlung Highlights aus dem Jahrbuch 2021https://www.mpg.de/18802436/jahrbuch-highlights-2021.pdf  im Mai 2022erschienen. Die MPG-Pressestelle hat freundlicherweise der Verwendung von Jahrbuch-Beiträgen im ScienceBlog zugestimmt. Der Artikel erscheint hier ohne Literaturzitate; diese können im Original nachgesehen werden.


 

inge Thu, 30.06.2022 - 01:15

11 Jahre ScienceBlog.at

11 Jahre ScienceBlog.at

Do, 29.06.2022— Redaktion

Redaktion

 

Wir feiern Geburtstag!

 

 

inge Wed, 29.06.2022 - 18:12

Getrübtes Badevergnügen - Zerkarien-Dermatitis

Getrübtes Badevergnügen - Zerkarien-Dermatitis

So 26.06.2022  — Inge Schuster

Inge Schuster Icon Medizin Zerkarien-Dermatitis, auch Badedermatitis genannt, wird vor allem im Sommer durch freischwimmende Larven von Saugwürmern verursacht und tritt weltweit sowohl im Süßwasser als auch im Meerwasser auf. Als Parasiten von Vögeln, die im und am Wasser leben, durchleben gewisse Saugwürmer (Schistosomen) einen komplexen Zyklus mit mehreren Larvenstadien und Lungenschnecken als Zwischenwirten. Angelockt von ähnlichen Lipidkomponenten der Haut befallen Zerkarien nicht nur ihren Wirt - zumeist Enten - sondern auch Menschen. Letztere erweisen sich allerdings als Fehlwirte; die Erreger werden noch in der Haut durch rasch einsetzende entzündliche Immunreaktionen zerstört, bevor sie in das venöse System gelangen und sich weiter entwickeln können. An den Eindringstellen in der Haut entsteht - je nach Sensibilität der betreffenden Person - ein Hautauschlag mit geröteten Quaddeln und Bläschen, die tagelang sehr stark jucken können.

Viele von uns, die unter der Hitze des diesjährigen Mai stöhnten, haben in Seen, Bächen und Flüssen die ersehnte Abkühlung gefunden - in Badegewässern, die in Europa (laut Europäischer Umweltagentur) zum weitaus überwiegenden Teil exzellente Wasserqualität aufweisen. (Österreich nimmt mit 97,7 % den Spitzenplatz ein; https://www.umweltbundesamt.at/news220603). Aber auch, wenn das Wasser "kristallklar" erscheint, kann ein Befall mit Zerkarien vorliegen, kleinen Saugwürmerlarven, die mit dem bloßen Auge nicht erkennbar sind und auf die in den Analysen zur Wasserqualität nicht geprüft wird. Diese Larven können sich auch in die Haut von Menschen bohren - dieser ist zwar ein Fehlwirt - und einen massiven entzündlichen Hautausschlag (Erythem) mit sehr stark juckenden Quaddeln und Pusteln - die sogenannte Badedermatitis oder Zerkarien-Dermatitis - auslösen.

Aktuelle Meldungen weisen darauf hin, dass es sich dabei um ein erhebliches gesundheitliches Problem handelt, das für die Freizeitindustrie an betroffenen Badegewässern auch ökonomische Folgen hat. Abbildung 1 zeigt einige Schlagzeilen aus Deutschland und auch aus den USA.

Abbildung 1: Einige Beispiele von deutschen und amerikanischen Medien, die vor Zerkarienbefall in Badegewässern warnen.

Zerkarien-Dermatitis - ein lang bekanntes, weltweites Phänomen

Dass der Aufenthalt im Wasser zu Hautausschlägen führen kann, wurde bei Reisbauern in Japan, also arbeitsbedingt, bereits vor 175 Jahren festgestellt und vor rund 100 Jahren als unerwünschter Nebeneffekt bei Badenden in Deutschland berichtet. Kurz darauf (1927) entdeckte der amerikanische Parasitologe W.W. Cort die eigentlichen Verursacher dieser Erytheme, als er Schnecken am Ufer eines Sees in Michigan sammelte und an den Händen lang anhaltende, stark juckende Hautausschläge entwickelte. Die Untersuchung der Schnecken ergab, dass diese massenhaft winzige, stark bewegliche Saugwürmerlarven - Zerkarien - absonderten, die für die Hauterscheinungen verantwortlich gemacht werden konnten.

In der Folge wurden Ausbrüche dieser Zerkarien-Dermatitis in vielen Ländern Europas und in Nordamerika beschrieben. In Österreich wurde vor mehr als 50 Jahren über Fälle von Zerkarien-Dermatitis am Neusiedlersee berichtet, später dann über weitere Vorkommen an vielen Badegewässern und in allen Bundesländern [1].

Zerkarien-Dermatitis tritt offensichtlich überall dort auf, wo Wasservögel (vor allem Stockenten und Gänsesäger) als Wirtstiere der Saugwürmer und geeignete Schnecken als Zwischenwirte in einem Ökosystem zur Verfügung stehen (zum Lebenszyklus der Parasiten: s.u.). Dies trifft vermutlich für viele Gewässer auf der Nordhalbkugel zu:

  • Stockenten und Gänsesäger sind weit über die ganze Nordhalbkugel verbreitet und kommen fast überall vor, wo sie in und am Wasser leben können; teils sind sie dort ganzjährig angesiedelt, teils migrieren sie, haben Brutplätze im Norden und Überwinterungsplätze in südlicheren Gebieten. (Wo beispielsweise Stockenten siedeln, brüten und überwintern ist in Abbildung 2. dargestellt.) Dass migrierende infizierte Vögel die globale Verbreitung der Parasiten treiben, ist evident.

 

Abbildung 2: Weltweite Verbreitung der Stockenten. Ganzjährige Siedlungsgebiete: dunkelgrün, Brutgebiete: hellgrün, Überwinterungsgebiete: blau, Einführungsgebiete: braun, Streifzüge: pink. (Bild: AnasPlatyrhynchosIUCN2019 2.png. https://commons.wikimedia.org/wiki/File:AnasPlatyrhynchosIUCN2019_2.png. Lizenz cc-by-sa).
  • Verschiedene Arten von Lungenschnecken, die als Zwischenwirte dienen, werden im selben Ökosystem wie die Wasservögel angetroffen. Zwei wesentliche Vertreter, die Spitzschlammschnecke und die Ohrschlammschnecke, sind in vielen Teichen, Seen und Flüssen auf der gesamten Nordhalbkugel beheimatet.

 

Wirte und Zwischenwirte sind also im selben Ökosystem aufzufinden - die Zerkarien-Dermatitis hat die Menschheit wahrscheinlich von Anfang an begleitet.

Zum Entwicklungszyklus der Saugwürmer

Die Erreger der Zerkarien-Dermatitis sind Larven von Saugwürmern (Trematoden) aus der Familie der Schistosomatiden. In dieser großen Familie (die einige humanpathogene, Bilharziose-auslösende Arten enthält) wurden (bis jetzt) 85 Spezies als Parasiten charakterisiert, deren Wirte Vögel sind. In unseren Breiten sind es häufig verschiedene Arten der Gattung Trichobilharzia.

Der Entwicklungszyklus dieser Vogel-Schistosomen beginnt mit der Infektion eines Vogels (z.B. einer Stockente) durch freischwimmende Gabelschwanzlarven (Zerkarien). Diese saugen sich üblicherweise an der Haut der Füße des schwimmenden Vogels fest, werfen ihren Schwanzteil ab, durchbohren die Haut und dringen in das Gefäßsystem des Wirts vor. Dort reifen sie zu männlichen und weiblichen Parasiten heran und paaren sich. Die Ablage von befruchteten Eiern erfolgt je nach Art der Schistosomen dann in den Venen des Darmtrakts - von wo sie in das Darmlumen gelangen und mit dem Kot ins Wasser ausgeschieden werden - oder in der Nasenschleimhaut. Abbildung 3.

Abbildung 3: Charakteristischer Lebenszyklus eines Vogel-Schistosomen (hierTrichobilharzia stagnicolae). Ausführliche Beschreibung im Text. (Bild modifiziert nach E.S.Loker et al.,2022, 11 [2], Lizenz cc-by). Inserts: Unten links: Mirazidium 1 Stunde nach Eindringen in eine Schlammschnecke, a: Keimzellen, b: keine Infiltration von Haemozyten ("Immunzellen") des Wirts. Skala: 0,02 mm. (Bild: V.Skala et al., [3], Lizenz cc-by.) Unten Mitte: Ausstoß von Zerkarien aus einer infizierten Schnecke. Screen-shot aus: Snail releasing its schistosome parasites. Video 3:19 min. https://www.youtube.com/watch?v=c_p6cCj7OWU&t=14s. Rechts: Zerkarie von Trichobilharzia Skala: 0,1 mm. (Bild: N.Helmer et al., 2021,[4], Lizenz cc-by)

Innerhalb weniger Minuten entstehen aus den Eiern freischwimmende bewimperte Larvenformen, sogenannte Mirazidien, die in ihrer nur sehr kurzen Lebensspanne (sie können keine Nahrung aufnehmen) auf passende Schnecken stoßen müssen, um die Infektion weiter zu tragen. Mirazidien reagieren auf Lichtreize und auf von Schnecken abgesonderte chemische Signale (Glykoproteine), die ihnen die für sie spezifische Schnecke anzeigen. Treffen sie auf eine solche Schnecke, so bohren sie sich in deren Körper (Abbildung 3, Insert unten links) und verwandeln sich innerhalb von 2 - 3 Monaten in sogenannte Sporozysten, das sind Brutschläuche, in denen durch ungeschlechtliche Vermehrung (Knospung) die nächste Larvenform entsteht ("Redien") und aus dieser entwickeln sich schlussendlich die knapp 1mm großen Zerkarien (Abbildung 3, Insert rechts). Diese können in der Schnecke im Schlamm auch überwintern.

Mit steigenden Wassertemperaturen im Frühjahr/Sommer beginnen infizierte Schnecken Unmengen an Zerkarien auszustoßen (Abbildung 3, Insert unten Mitte). Untersuchungen an der Spitzschlammschnecke nennen einen mittleren täglichen Ausstoß von 2 600 Zerkarien/Schnecke und über eine Million Zerkarien über die Lebensdauer der Schnecke. Bezogen auf Gewicht sondern die Schnecken damit mehr Biomasse ab, als sie selbst besitzen [5]. Wie die Mirazidien leben Zerkarien von ihren Energiespeichern (Glykogen), da sie keine Nährstoffe aufnehmen können. In den 1 -1,5 Tagen ihrer Lebenszeit suchen sie aktiv nach ihrem Endwirt, zumeist Enten. Dabei werden sie negativ geotaktisch (d.i. sie schwimmen an die Oberfläche) und über pigmentierte Augen-Flecke von Lichtreizen getriggert und von chemischen Komponenten der Vogelhaut - Cholesterin, Ceramiden - angelockt. Mit dem Ansaugen an die Vogelhaut und durch Fettsäuren (Linolsäure, Linolensäure) stimulierte Penetration in die Haut schließt sich der Zyklus. Dies gelingt allerdings nur einem verschwindenden Bruchteil der Zerkarien, die erfolglosen Zerkarien enden als abgestorbene Biomasse und/oder als Beute anderer Organismen - sie sind also erhebliche Bestandteile des Ökosystems.

Bevor noch das Wasser für uns zum Schwimmen ausreichend warm geworden ist, können aus dem Vorjahr stammende Zerkarien, die in den Schnecken im Schlamm überwintert haben, Jungvögel ebenso wie die ältere Population und Vögel auf dem Durchzug infizieren und damit einen neuen Schistosomen Zyklus einleiten.

Der Mensch als Fehlwirt

Vogelhaut und Menschenhaut weisen eine ähnliche Zusammensetzung aus Lipidkomponenten auf. Dies führt dazu, dass Zerkarien auf Menschen, die im Wasser waten, schwimmen oder Arbeiten verrichten in gleicher Weise wie auf Vögel reagieren. Sie saugen sich an unserer Haut fest und beginnen Sekunden später in diese einzudringen. Im Schnitt ist dieser Prozess in 4 Minuten (1:23 min bis 13:37 min) abgeschlossen. Dann verhindern rasch einsetzende allergische Reaktionen offensichtlich ein weiteres Vordringen in den Organismus und die Entwicklung zu adulten Schistosomen, verursachen aber Entzündungsreaktionen in der Haut.

Vorerst kommt es zur Histamin-Freisetzung durch Mastzellen, gefolgt von Entzündungsreaktionen ausgelöst durch Cytokine von einwandernden Granulozyten und Makrophagen und einer T-Zell-Antwort. Je nach Sensibilität des Zerkarienopfers entsteht an den Penetrationsstellen der Haut ein Ausschlag mit geröteten, sehr stark juckenden Quaddeln und Bläschen, die u.U. auch von tagelang anhaltendem Fieber begleitet werden können [6]. Nach mehreren Tagen sind die eingedrungenen Zerkarien abgestorben und zersetzt. Die allergische Reaktion auf diese ist selbstlimitierend; nach 2 Wochen sind die Symptome zumeist abgeklungen. Ist man gegen Zerkarien bereits sensibilisiert, so bedeutet eine neuerliche Infektion - auch Jahre später - eine gesteigerte Entzündungsreaktion.

Wie kann man Zerkarien-Dermatitis behandeln/verhindern?

Als lästig, aber ungefährlich betrachtet gehört Zerkarien-Dermatitis zu den bislang wenig-beachteten Hauterkrankungen - als zu wenig interessant für Medizin, Pharma und biochemische Forschung. Es gibt kaum epidemiologische Untersuchungen zur Zahl der Fälle und auch keine klinischen Studien zur Behandlung. Und dies obwohl manche Studien berichten, dass  30 - 40 % der Menschen auf Zerkarien sensibel reagieren. 

So gibt es, wenn überhaupt, ein Standard-Procedere:  Zur Linderung des tagelangen, häufig fast unerträglichen Juckreizes können Antihistaminika oder Kortikosteroide eingesetzt werden. Ist durch Kratzen eine Sekundärinfektion entstanden, so wird diese topisch mit Antiseptika oder Antibiotika behandelt.

Ebenso wenig bekannt wie die Inzidenz der Zerkarien-Dermatitis ist vielerorts auch der Verseuchungsgrad von Wirtstieren und Zwischenwirten und damit von Badegewässern:

  • Bei Wasservögeln wurden sehr variable Infektionsraten von einigen % bis zu mehr als 60 % berichtet [7].
  • Für Schnecken, die man in Europa an unterschiedlichen Stellen von Flüssen, Teichen und Seen gesammelt hat, gibt es  sehr unterschiedliche Angaben zu Infektionsraten - zwischen 0,1 und mehr als 20 % (20 % mit Trichobilharzia verseuchte Schnecken wurden beispielsweise in der niederösterreichisch/burgenländischen Region zwischen Orth/Donau und Zicksee nachgewiesen: L.Gaub et al., 2020, Arianta 8, 13 -19).

Natürlich steigt die Gefahr infiziert zu werden mit der Infektionsrate der Schnecken; allerding skann bei dem hohen Ausstoß von Zerkarien (täglich mehrere tausend Spezies/Schnecke) auch eine einzelne Schnecke ausreichen, um in einem limitierten Bereich mehrere Personen zu infizieren. Schnecken und damit Zerkarien sind vor allem im seichten Wasser im Uferbereich anzutreffen; Kinder. die hier spielen, können besonders gefährdet sein.

Zur Bekämpfung der Zerkarien schreibt das Wisconsin Department of Natural Sciences [8]:

"Es gibt keine wirksame Methode, um die Zerkarien-Dermatitis am eigenen Strand zu beseitigen. Alle Versuche, bei der entweder die Zerkarien oder ihre Schneckenwirte abgetötet werden, sind unwirksam, da die Zerkarien in der Lage sind, über große Entfernungen von unbehandelten Bereichen her zu schwimmen/zu treiben. Es macht keinen Unterschied, ob Ihr Strandbereich sandig, felsig oder bewachsen ist. Die Wirtsschnecken leben an allen Standorten......"

"In den letzten Jahren gab es Versuche, die Wirtsvögel mit Arzneimitteln zu behandeln. Die Theorie ist, die Vögel von den erwachsenen Parasiten zu befreien, bevor sie die Schneckenpopulation mit Mirazidien infizieren können... Bislang wird das Verfahren in Wisconsin als nicht praktikabel für die gesamte Seefläche angesehen."

"Moderne Pestizidgesetze verbieten Behandlungen, wie sie in der Vergangenheit versucht wurden (d.i. Anwendung von Kupfersulfat, Anm. Redn.). Behandlungen zur Abtötung von Schnecken sind sehr aggressiv und töten viele Pflanzen und Tiere, die nicht zu den Zielgruppen gehören, und können auch zu kontaminierten Sedimenten führen. ..."

Wozu wird also geraten?

"Es ist am besten, die Zerkarien-Dermatitis genauso zu betrachten wie Mücken und Bremsen: Man kann wirklich nichts tun, um sie zu beseitigen, und es ist am besten, wenn man lernt, wie man die Exposition reduziert." [8]

Bedeutet dies also so viele verdächtige Badegewässer von vornherein zu meiden? (Dazu gehört leider auch mein Schwimmteich, in dem ich - vor Jahren bereits sensibilisiert - mir vor einem Monat, nach 10 Minuten im Wasser, eine fast 3 Wochen dauernde Dermatitis zugezogen habe.)


[1] H.Auer & H.Aspöck: „Vogelbilharzien" als Erreger einer Hautkrankheit: die Zerkarien-Dermatitis. Denisia 6, Nr. 184 (2002), 321-331

[2] E.S.Loker et al., Scratching the Itch: Updated Perspectives on the Schistosomes Responsible for Swimmer’s Itch around theWorld Pathogens 2022, 11, 587. https://doi.org/10.3390/pathogens11050587

[3] V.Skala et al., Influence of Trichobilharzia regenti (Digenea: Schistosomatidae) on the Defence Activity of Radix lagotis (Lymnaeidae) Haemocytes. PLoS ONE 2014, 9(11): e111696. https://doi.org/10.1371/journal.pone.0111696

[4] N.Helmer et al., First Record of Trichobilharzia physellae (Talbot, 1936) in Europe, a Possible Causative Agent of Cercarial Dermatitis. Pathogens 2021, 10(11), 1473; https://doi.org/10.3390/pathogens10111473

[5] M.Soldanova et al., The Early Worm Catches the Bird? Productivity and Patterns of Trichobilharzia szidati Cercarial Emission from Lymnaea stagnalis. PLoS ONE 2016, 11(2): e0149678. https://doi.org/10.1371/journal.pone.0149678.

[6] P. Kourilová et al, Cercarial Dermatitis caused by Bird Schistosomes Comprises Both Immediate and Late Phase Cutaneous Hypersensitivity Reactions. J Immunol 2004; 172:3766-3774; http://www.jimmunol.org/content/172/6/3766

[7]  E.K. lashaki et al., Association between human cercarial dermatitis (HCD) and the occurrence of Trichibilarizia in duck and snail in main wetlands from Mazandaran Province, northern Iran. 2021. Parasite Epidemiology and Control. https://doi.org/10.1016/j.parepi.2021.e00211

[8] Wisconsin Department of Natural Resources:  https://dnr.wi.gov/lakes/swimmersitch/


 

inge Sun, 26.06.2022 - 18:42

Manche Kontakt-Sportarten führen zu schweren, progressiven Gehirnschäden

Manche Kontakt-Sportarten führen zu schweren, progressiven Gehirnschäden

Do, 16.06.2022 - 16:54 — Michael Simm

Michael SimmIcon Gehirn

Die chronisch traumatische Enzephalopathie (CTE) war lange Zeit ein Waisenkind unter den Erkrankungen des Gehirns. 2017 lieferte die Neuropathologin Ann McKee von der Boston University of Medicine den Beweis, dass Kopfverletzungen, etwa wiederholte Schläge auf den Kopf, mit CTE in Zusammenhang stehen. Der deutsche Biologe und Wissenschaftsjournalist Michael Simm schreibt im folgenden Artikel über diese bis jetzt größte Studie an 110 Gehirnen, die zeigt, wie groß dieses Problem wirklich ist.*

Tatort-Fans wissen Bescheid: Wenn in Münster der Fall mal wieder ins Stocken gerät, und selbst Kommissar Frank Thiel nicht mehr weiterweiß, schlägt die Stunde des Pathologen. Ein ums andere Mal findet Prof. Dr. Dr. Karl-Friedrich Boerne bei der Leichenschau den entscheidenden Hinweis zur Aufklärung des Verbrechens. Aber wäre Boerne nicht so unbescheiden, dann müsste selbst er den Hut ziehen vor der Arbeit, die Prof. Ann McKee von der Boston University of Medicine ganz real geleistet hat. Vor nunmehr fünf Jahren veröffentlichte die Neuropathologin und Expertin für neurodegenerative Erkrankungen im Fachblatt JAMA , eine Studie, die eine ganze Nation erschüttert hat – und deren Schlussfolgerungen bis heute nachhallen.

„110 Hirne“ titelte die New York Times noch am Tag der Veröffentlichung. Hinterlegt war der Text mit den Porträts Dutzender verstorbener American Football-Spieler und mit gefärbten Hirnschnitten, auf denen selbst Laien die Schäden erkennen konnten. Oft wirkte die Großhirnrinde verdünnt, die flüssigkeitsgefüllten Hohlräume (Ventrikel) im Inneren der Schädel waren vergrößert. Der jüngste Spieler war mit 23 Jahren gestorben, der älteste mit 89. Obwohl sie auf unterschiedlichen Positionen gespielt hatten, fand McKee eine glasklare Gemeinsamkeit: Mit einer einzigen Ausnahme waren von den 111 American Football-Spielern, die in der höchsten und härtesten Liga gespielt hatten, alle mit CTE gestorben. CTE steht für chronische traumatische Enzephalopathie und ist – wie die New York Times es formulierte – jene degenerative Hirnerkrankung, die mit wiederholten Schlägen auf den Kopf in Verbindung steht.

Die CTE – ein Waisenkind der Neurologie?

Wie eng dieser Zusammenhang ist, war bis dato unklar. Angesichts zahlreicher anderer und viel häufigerer degenerativer Hirnerkrankungen wie Alzheimer oder Parkinson gab es nur wenig Interesse für die CTE. Selbst in einem 800 Seiten dicken Standardlehrbuch des Fachgebietes fand sie noch vor 15 Jahren keine Erwähnung. Seitdem hatten sich bei einer ganzen Reihe von Kontaktsportarten zwar die Zeichen gemehrt, dass sie ein Risiko für langfristige geistige Beeinträchtigungen mit sich bringen. Allein: Wie groß dieses Risiko wirklich ist, und ob man dagegen ernsthafte Maßnahmen ergreifen müsse, war höchst umstritten. Abbildung 1.

Abbildung 1. Wiederholte Schläge auf den Kopf und Gehirnerschütterungen

Den Durchbruch brachte McKees Arbeit. Sie gilt heute nicht nur als anerkannter wissenschaftlicher Beweis für den Zusammenhang zwischen Kopfverletzungen und CTE, sondern auch als Meilenstein und Endpunkt einer viel zu langen Phase, in der Funktionäre, Manager, aber auch die Spieler selbst das Problem verdrängten.

Charakteristisch für die CTE ist der langsame Zerfall von Hirnzellen. Die Auslöser sind in der Regel Verletzungen des Kopfes wie Gehirnerschütterungen, aber auch Explosionen, wie sie Soldaten im Gefecht erleben können. Die CTE gehört im weiteren Sinne zur Krankheitsgruppe der Demenzen, bei denen eine beeinträchtigte Funktion des Gehirns dazu führt, dass die Patienten Probleme mit dem Gedächtnis, dem Denken und dem Lernen bekommen.

Zwei Namen für dieselbe Krankheit?

Tatsächlich hatte ein weiterer Pathologe – Harrison Martland – bereits 1928 festgestellt, dass viele Boxer offenbar langfristig Gehstörungen erleiden und zu zittern beginnen, dass es mit dem Gedächtnis bergab ging, und dass die alten Kämpfer psychische Probleme entwickelten. Er nannte das Phänomen Dementia pugilistica nach dem lateinischen Wort für Boxer, Pugil. Heute geht man davon aus, dass es sich um frühe Beschreibungen der CTE handelt.

Zu den Anzeichen der Krankheit gehören Stimmungsstörungen wie Depressionen, Reizbarkeit oder Hoffnungslosigkeit. Das Verhalten kann impulsiv und/oder aggressiv sein. Weiterhin können Gedächtnisstörungen oder andere Anzeichen einer Demenz auftreten. Die Patienten entwickeln zudem häufig Bewegungsstörungen, die denen von Parkinson-Kranken ähneln.

Die Ärzte unterschieden zwei verschiedene klinische Verläufe: Die erste Variante beginnt bereits im jungen Erwachsenenalter mit Stimmungs- und Verhaltensproblemen, während die geistigen Fähigkeiten erst später nachlassen. Bei der zweiten Variante, die sich erst relativ spät im Leben entwickelt, ist es genau umgekehrt: Erst lässt die Denkfähigkeit nach, dann folgen die Stimmungsschwankungen und Verhaltensprobleme.

Offensichtlich entwickelt aber längst nicht jeder, der einmal auf den Kopf geschlagen wurde oder eine Gehirnerschütterung erlitten hat, auch eine CTE. Nach aktuellen Schätzungen sind es bei den Sportlern beispielsweise „nur“ etwa drei Prozent jener, die mehrere – auch kleine – Gehirnerschütterungen hatten.

Dies wirft die Frage auf, ob weitere äußere Risikofaktoren dazukommen müssen, oder ob Menschen unterschiedlich empfindlich auf die gleichen Verletzungen reagieren. Auch hier lieferte die Studie Ann McKees entscheidende Hinweise. Sie hatte nämlich neben den 111 Hirnen von Profispielern aus der US nationalen Football League auch 91 weitere untersuchen können, die allesamt von ihren Besitzern noch zu Lebzeiten oder posthum von Verwandten einer Gewebesammlung für die Hirnforschung vermacht worden waren. 16 dieser Hirne stammten von Schülern, 53 hatten in einer College-Mannschaft gespielt, 22 in einer halb-professionellen beziehungsweise der kanadischen Liga.

Kopfballspieler und menschliche Rammböcke

In der Gesamtbilanz war CTE bei 177 von 202 der untersuchten Sportler diagnostiziert worden, ein Anteil von 87 Prozent. In den verschiedenen Gruppen waren die Schäden durch CTE aber unterschiedlich groß. In den unteren Spielklassen waren mehrere Männer von CTE verschont geblieben oder hatten vergleichsweise milde Spuren der Krankheit. Je mehr Spielpraxis und je höher die Liga, desto häufiger aber waren schwere Schäden durch die CTE. Bei den Profis war sie bei 99 Prozent der untersuchten Sportler die Todesursache. Abbildung 2. Andere Studien hatten übereinstimmend gezeigt, dass langfristige Hirnschäden bei jenen Sportlern besonders häufig sind, die aufgrund ihrer Position viele Kopfbälle spielen oder deren Aufgabe es ist – wie im American Football – als „Rammbock“ (Lineman) gegnerische Angriffe zu stoppen.

Abbildung 2. CTE zeigt einen progressiven Verlauf, Vergleich eines normalen Hirns mit einem Hirn im fortgeschrittenen CTE-Stadium. (Bild von Redn. eingefügt; Quelle: Boston University Center for the Study of Traumatic Encephalopathy, https://www-cache.pbs.org/wgbh/pages/frontline/art/progs/concussions-cte/h.png. Lizenz: cc-b-sa)

Die Forscher um Ann McKee betonen, dass ihrer Untersuchung keine repräsentative Stichprobe zugrunde liegen. Vielmehr handelt es sich um Menschen, bei denen bereits zuvor ein Verdacht auf Hirnschäden bestand. Entsprechend vorsichtig formulieren die Wissenschaftler auch ihre Schlussfolgerung: „Ein hoher Anteil verstorbener American-Football-Spieler, die ihre Hirne der Forschung zur Verfügung gestellt haben, zeigten in der neuropathologischen Untersuchung Hinweise auf CTE, was nahelegt, dass die Krankheit mit dem früheren Footballspiel zusammenhängt.“

Andere sehen die Spitze eines Eisbergs. Und warnen: Wenn manche Spieler nach Jahren Anzeichen für eine CTE entwickeln, ist es bereits zu spät, um den Verlauf zu stoppen. Gerade erst wurde eine Studie mit mehr als 150.000 Kindern und Jugendlichen veröffentlicht, die in Kanada eine Gehirnerschütterung erlitten hatten. Beim Vergleich mit 300.000 weiteren Kindern, die „nur“ Knochenbrüche erlitten hatten, stellte sich heraus, dass die erste Gruppe in der siebenjährigen Nachbeobachtungszeit ein um 40 Prozent höheres Risiko für psychische Probleme aller Art hatte. Einweisungen in psychiatrische Kliniken waren um 50 Prozent häufiger gewesen. Auch die Selbstmordrate schien erhöht, obwohl sich dies aufgrund kleiner Fallzahlen nicht eindeutig belegen ließ.

Derartige Studien haben dann auch zu Forderungen geführt, die vom verpflichtenden Kopfschutz im Jugendsport bis hin zum vollständigen Verbot mancher Kontaktsportarten führen. Doch jeder weiß, dass hier auch sehr viel Geld auf dem Spiel steht. Weder der Trainer noch der Spieler will in der entscheidenden Phase des Endspiels einer Weltmeisterschaft auswechseln, „nur“ weil man sich nach einem Zusammenprall kurzfristig benommen fühlt. Präzisere Schutzmaßnahmen könnten sich ergeben, wenn der genaue Verlauf der Krankheit besser bekannt wäre. Wenn es eindeutige Warnzeichen gäbe, so die Hoffnung, könnte man die Spieler rechtzeitig vom Platz nehmen, und müsste dennoch nicht vollständig auf die Sportspektakel verzichten.

Löcher und Proteinhäufchen

Tatsächlich wird die CTE auch vor diesem Hintergrund in Tierversuchen erforscht. So beobachteten Forscher um Prof. David Wassarman von der Universität Wisconsin an der Fruchtfliege Drosophila melanogaster schon früh, was häufige Schläge auf den Kopf bewirken können: In Dünnschnitten des Gehirns der „misshandelten“ Fliegen fanden sich sowohl große wie auch kleinste Löcher. „Es sieht aus wie Schweizer Käse“, so Wassarman. Die molekularen Mechanismen, die dabei im Fliegenhirn ablaufen, seien sehr wahrscheinlich auch für das Verständnis der CTE beim Menschen relevant. „Die Nervenzellen sind fast identisch mit denen des Menschen, und es spielen sich darin die gleichen Reaktionen ab.“ Außerdem könnten auch Genanalysen Hinweise liefern. Immerhin, so Wassarman, fänden sich drei Viertel aller Erbgutveränderungen, die bei Krankheiten des Menschen auftreten, in ähnlicher Form auch bei Drosophila.

Den direkten Weg ging der Neuropathologe und ehemalige Leichenbeschauer Bennet Omalu. Er gilt als Pionier für Fallstudien an American Football-Spielern. Sein berühmtester Fall war Mike Webster (Spitzname „Iron Mike“), ehemaliger Center-Spieler der Pittsburgh Steelers, der nach seiner Karriere bis zum Tod im Jahr 2002 mit Sprachstörungen, Stimmungsschwankungen und Selbstmordgedanken zu kämpfen hatte. Obwohl das Gehirn bei der Obduktion oberflächlich normal aussah, führte Omalu auf eigene Kosten weitere Feinanalysen des Gewebes durch. Dabei fand er – wie später auch bei einem weiteren Spieler – große Mengen abnormaler Ablagerungen des Proteins Tau . Obwohl beide Spieler nicht älter als 50 Jahre wurden, wären die Tau-Konzentration so hoch gewesen, wie bei einem 90-jährigen mit fortgeschrittener Alzheimer-Krankheit, so Omalu. Diese spezifische Veränderung gilt heute als Schlüsselmerkmal beider Krankheiten, wogegen Ablagerung des „Alzheimer-Proteins“ ( Beta-Amyloid ) bei der CTE nur selten zu finden sind.

Das vorläufige Bild der CTE ist, dass die Schläge auf den Kopf zu einer Art Keimbildung führen. Während sich immer mehr Zellmüll ansammelt, schreitet die Schädigung der Nerven voran. In bedeutend größerem Detail sind solche langjährigen Verfallsprozesse auch für die Alzheimer-Krankheit dokumentiert. Die schlechte Nachricht lautet: Trotz dieser Entdeckung ist es bis heute nicht gelungen, den Zerfall im Gehirn aufzuhalten. „Wir wissen einfach nicht, welche Menge an Schlägen auf den Kopf es braucht, um die degenerative Kaskade in Gang zu setzten“, beschreibt der Neuropathologe Daniel Perl von der Uniformed Services University of the Health Sciences das Dilemma. Alles, was die Mannschaftsärzte tun können, ist die geistige Leistung ihrer Spieler möglichst früh mit Psychotests zu vermessen und nach einer Gehirnerschütterung zu prüfen, ob sie sich verschlechtert hat. Unterschwellige Schäden, aus denen sich eine CTE entwickeln könnte, werden dabei aber womöglich übersehen.

So bleibt die Bilanz trotz einiger Fortschritte unbefriedigend. Immerhin, fasst McKee klar und deutlich zusammen: „Wir müssen nicht länger darüber reden, ob es im American Football ein Problem gibt. Es gibt ein Problem.“


*Der vorliegende Artikel ist auf der Webseite www.dasGehirn.info am 15.06.2022 zum Thema "Gehirntrauma" unter dem Titel "110 Hirne" erschienen, https://www.dasgehirn.info/krankheiten/gehirntrauma/110-hirne Der Artikel steht unter einer cc-by-nc-sa Lizenz; der Text wurde von der Redaktion unverändert übernommen, es wurden jedoch zwei Abbildungen eingefügt.

"dasGehirn.info" ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


Weiterführende Links

Ann McKee on CTE: Video 17:35 min. https://www.youtube.com/watch?v=lVo-XLMwEfM  Wer mit Fußball (soccer) oder American Football zu tun hat, sollte sich das vermutlich ansehen. (Lizenz cc-by-nc)

Mez J, Daneshvar DH et al. Clinicopathological Evaluation of Chronic Traumatic Encephalopathy in Players of American Football. JAMA. 2017;318(4):360-370 https://doi.org/10.1001/jama.2017.8334 .

Ledoux AA, Webster RJ et al. Risk of Mental Health Problems in Children and Youths Following Concussion. JAMA Netw Open. 2022;5(3):e221235. https://doi.org/10.1001/jamanetworkopen.2022.1235

inge Thu, 16.06.2022 - 17:37

Kann ein Kaugummi vor COVID-19 schützen?

Kann ein Kaugummi vor COVID-19 schützen?

Fr, 09.06.2022 — Ricki Lewis

Ricki LewisIcon Medizin Mund und Rachenbereich sind Einfallstor und großes Reservoir von SARS-CoV-2. Bereits dort werden Zellen infiziert, das Virus kann sich rasend schnell vermehren und - wenn das Immunsystem erst verzögert reagiert - seinen unheilvollen Weg in Lunge und andere Organe antreten . Um die Infektion an ihrem Ursprung zu stoppen haben Forscher um Henry Daniell einen Kaugummi entwickelt, der den für das Andocken an Wirtszellen und Eindringen des Coronavirus essentiellen Rezeptor ACE2 enthält. In Labortests bewirkte dieser Kaugummi eine dramatische Reduktion von Viruslast und Infektiosität im Speichel. Vor wenigen Tagen erfolgte die FDA-Genehmigung für die klinische Erprobung des ACE2-Kaugummi in der Phase I/II .Die Genetikerin Ricki Lewis berichtet über diese neue Strategie, die auch bei anderen oral übertragenen Infektionen Anwendung finden könnte.*

Als ich in den 1960er Jahren aufwuchs, war Kaugummikauen überaus populär. Es gab Teekaugummi mit Teegeschmack und einen köstlichen Lakritzkaugummi mit einem Namen, der wahrscheinlich nicht mehr politisch korrekt ist. Trident-Kaugummi bot eine zuckerfreie Alternative, während Dentyne die Illusion von Gesundheit vermittelte. Der Apotheker Franklin V. Canning aus New York City hatte den Kaugummi 1899 erfunden, laut Verpackung "um den Atem zu versüßen und die Zähne weiß zu halten". Dentyne kombiniert geschickt "Dental" und "Hygiene".

Ich hätte es nie für möglich gehalten, dass Kaugummi eines Tages vor einem tödlichen Pandemievirus, SARS-CoV-2, schützen würde.

Zielorte sind Mund, Nase und Rachenraum

In seiner Funktion als Wirkstoffträger hat der Kaugummi eine Vorgeschichte.

Als Kind habe ich bei Halsschmerzen Aspergum (einen Aspirin enthaltenden Kaugummi; Anm.Redn.) gekaut, der heute von Retrobrands USA vertrieben wird. Aspirin ist allerdings ein kleines, einfaches Molekül.

"In jüngerer Zeit sind Koffein- und Nikotinkaugummis weit verbreitet. Allerdings konnte niemand Proteine mit Hilfe von Kaugummi verabreichen, weil die Kaugummibasis eine sehr hohe Temperatur benötigt, um richtig gewalzt zu werden", sagt Henry Daniell von der University of Pennsylvania School of Dental Medicine. Hohe Temperaturen würden aber die äußerst wichtige dreidimensionale Form eines Proteins, das ja eines voluminöses Molekül ist, aufbrechen. "Die höhere Temperaturstabilität von in Pflanzenzellen hergestellten Proteinen hat uns aber geholfen, diese schwierige Hürde zu nehmen", fügt Dr. Daniell hinzu.

Der von seinem Team entwickelte, vor COVID schützende Kaugummi gibt Proteine ab, die von Salatpflanzen in Hydrokultur produziert werden. Darüber berichtet das Fachjournal Molecular Therapy [1].

Der COVID-Kaugummi gibt ACE2 (Angiotensin Converting Enzyme 2) ab, ein Protein, das auf der Oberfläche von vielen unserer Zelltypen vorkommt und eine Vielzahl von Funktionen steuert. ACE2 ist der hauptsächliche Rezeptor für SARS-CoV-2: Das Virus bindet mit seinen Spikes an ACE2 und dringt in die Zellen ein. Sodann übernimmt das Virus die Kontrolle über die Zellen und schüttet seine eigenen Proteine aus, die als Toolkit zur Herstellung weiterer Viren dienen. SARS-CoV-2 vermehrt sich in den Zellen des gesamten Nasen-Rachen-Raums wie wild und wandert, wenn sich die Immunreaktion verzögert, in die Lunge. Wie der Kaugummi das Virus abffangen und damit die Infektion der Wirtszellen verhindern kann, ist in Abbildung 1 dargestellt.

Abbildung 1: Ein Überschuss an ACE2 im Rachenraum fängt das Corona-Virus ab. A: Der Kaugummi enthält in Pflanzen produziertes humanes ACE2, das mit CTB (Chlolera-non Toxin B subunit) fusioniert wurde - CTB-ACE2- und Bindungsstellen für RBD und GM1des Spikeproteins (B) bietet. SARS-CoV-2 bindet an lösliches ACE2 und an CTB-ACE2, das unlösliche Pentamere bildet. (Das von der Redaktion eingefügte Bild stammt aus H. Daniell et al., [1] , Figure 2 und steht unter einer cc-by-nc-nd-Lizenz)

Rationale Maßnahmen wie im öffentlichen Bereich Maskentragen und Abstandhalten halten Viren fern, das Fluten des Mundes mit ACE2-Rezeptoren, die als Köder dienen, bietet einen starken zusätzlichen Schutz. Genau das macht der Kaugummi.

Der Kaugummi kann beispielsweise im Restaurant beim Warten auf Speisen und Getränke nützlich sein; unvermittelt können ja überall virusbeladene Tröpfchen ausgespuckt werden und werden es auch. Außer Coronaviren verbreiten Tröpfchen eine ganze Reihe anderer Krankheitserreger, darunter auch Masern, HPV, Epstein-Barr-Viren und Herpesviren. Um in unsere Zellen einzudringen, binden die verschiedenen Virustypen an unterschiedliche Rezeptormoleküle.

Ein ganz klein wenig Spucke reicht aus, um an COVID zu erkranken. Ein Milliliter Speichel, etwa ein Fünftel eines Teelöffels, kann 7 Millionen Kopien des RNA-Genoms von SARS-CoV-2 enthalten. Ein Tröpfchen mit einem Volumen von nur einem Tausendstel Milliliter ist immer noch groß genug, um das Virus zu übertragen. Die Studie "The airborne lifetime of small speech droplets and their potential importance in SARS-CoV-2 transmission" liefert dazu die Messwerte [2].

Offensichtlich verhält sich SARS-CoV-2 in keiner Weise so, wie wir es erwarten. Unabhängig davon, ob eine infizierte Person Symptome hat oder nicht, kann die Viruslast im Speichel hoch sein - und viele Menschen sind tatsächlich symptomlos. Ich bin mir ziemlich sicher, dass ich eine hohe Viruslast in meinem Nasen-Rachen-Raum hatte, denn mein Teststreifen war innerhalb von Sekunden positiv; auch nachdem COVID ein Monat vorbei ist, kippe ich manchmal noch immer tonnenweise Gewürze auf meine Speisen, die ich nicht schmecken kann. Das Virus vermehrt sich in Speicheldrüsen und Mundschleimhäuten.

Ein Kaugummi-Antiinfektivum blockiert Rezeptoren

Beim "Chewing Gum-Topical-Delivery-Approach" wird ein Pflanzenpulver aus Salatzellen eingesetzt, welches das Protein ACE2 enthält, den Rezeptor an den SARS-CoV-2 bindet und der das Einfallstor in unsere Zellen darstellt.

ACE2-Rezeptoren übersäen normalerweise Zellen in Nase, Mund, Lunge, Herz, Blutgefäßen, Nieren, Leber und Magen-Darm-Trakt. Ist zu wenig ACE2 vorhanden, weil das Virus die Rezeptoren blockiert, führt dies zu Entzündungen, Zelltod und Organversagen, insbesondere im Herzen und in der Lunge.

Mehrere Forschergruppen arbeiten an den ACE2-Proteinen, die als Fallen für das Virus fungieren sollen. Anum Glasgow und Kollegen an der University of San Fransisco, CA beschreiben die Entwicklung einer solchen "Rezeptorfalle", die SARS-CoV-2-Spikes bindet und so von unseren Zellen fernhält. Dank Computertechnik binden die manipulierten Rezeptoren den Hotspot des viralen Spikeproteins (die rezeptorbindende Domäne) 170-mal stärker als das ursprüngliche ACE2. Und die manipulierten ACE2-Rezeptoren halten das gesamte Virus fern.

Rezeptorfallen wurden von der FDA hat noch nicht als antivirale Wirkstoffe zugelassen, mehrere Kandidaten, die ACE2 in Form eines Nasensprays verabreichen, sind aber in der Entwicklung. Dies reicht vermutlich nicht aus.

Die in Molecular Therapy beschriebene Untersuchung [1] zielt auf die Speicheldrüsen ab, die auch von mehreren anderen Viren befallen werden - Zika, Herpes simplex, Hepatitis C, Cytomegalovirus und Epstein-Barr. Und da sich SARS-CoV-2 von Subvariante zu Subvariante weiterentwickelt hat, konzentriert sich mehr davon in den Speicheldrüsen - die Viruslast bei Menschen mit der Delta-Variante ist 1.260 Mal höher als bei Menschen mit früheren Versionen des Virus, wobei ein Großteil davon in den Speicheldrüsen schwimmt.

Dr. Daniell beschreibt den Hintergrund der Erfindung und wie diese funktioniert

"Unsere Universität hat den SARS-CoV-2-mRNA-Impfstoff entwickelt, und mehrere andere Gruppen haben wichtige Beiträge geleistet, doch die meisten Entwicklungsländer sind noch nicht geimpft. Sogar gespendete Impfstoffe konnten in Afrika wegen unzureichender Kühlkettennetze nicht ausgeliefert werden. So habe ich mich entschlossen, Wege zur Bekämpfung von Infektionskrankheiten zu finden, die ohne Kühlkette auskommen. In Pflanzenzellen hergestellte Proteine sind viele Jahre lang stabil, wenn sie bei Raumtemperatur gelagert werden. Da die orale Übertragung von SARS-CoV-2 um 3 bis 5 Größenordnungen höher ist als die nasale Übertragung - vier gesprochene Worte 'Aah' setzen mehr Viren im Aerosol frei als eine Stunde maskenfreies Atmen - und die Infektion im Rachen beginnt, sollte Kaugummi ideal sein, um Selbstinfektion und Übertragung zu verringern. Deshalb haben wir einen Kaugummi angewandt, der mit einem in Pflanzenzellen hergestellten Fallenprotein für das Virus beladen war, um SARS-CoV-2 im Speichel zu beseitigen."

Warum nicht mit einer Anti-COVID-Mundspülung gurgeln? Weil, wie jeder weiß, der schon einmal eine Stange Juicy Fruit oder ein Stück Bazooka gekaut hat, Kaugummi länger im Mund bleibt.

COVID-Kaugummi könnte auch während zahnärztlicher Eingriffe bei infizierten Patienten verwendet werden. "Dieses allgemeine Konzept könnte erweitert werden, um die Infektion oder Übertragung der meisten oralen Viren zu minimieren", schreiben die Forscher.

Testen, testen

Die Forscher haben getestet, inwieweit der Kaugummi Viren in Speichelproben von der Zunge und vom Zahnfleisch infizierter Krankenhauspatienten zu neutralisieren vermag, Orte wo die Rezeptoren besonders dicht vorliegen. Sie haben dazu den "Microbubble SARS-CoV-2 Antigen Assay" verwendet, einen Test zum Nachweis der viralen Nukleokapsidproteine, die das RNA-Genom abschirmen. Die Erhöhung des ACE2-Gehalts korrelierte mit einem Rückgang der Viruslast um bis zu 95 Prozent. Der Placebo-Kaugummi zeigte keinerlei Wirkung. Abbildung 2.

Abbildung 2: Der ACE2-Kaugummi reduziert die Viruslast in Speichelproben von Spitalspatienten dramatisch. Der Kaugummi enthielt 25 mg BCT-ACE2 bei Patient 1 und 2 und 50 mg BCT-ACE2 bei Patient 3. (Das von der Redaktion eingefügte Bild stammt aus H. Daniell et al., [1], Figure 3 und steht unter einer cc-by-nc-nd-Lizenz.)

Der Anti-COVID-Kaugummi ist - wie die Forscher schlussendlich  sagen -  "neuartig und erschwinglich und bietet Patienten in Ländern, in denen Impfstoffe nicht verfügbar oder zu teuer sind, Zeit zum Aufbau einer Immunität". Der Kaugummi kann die Menschen zu Hause und am Arbeitsplatz schützen und beim Essengehen  in die Wange geschoben oder auf höfliche Weise weggelegt werden. Und in den kommenden Monaten könnte der Kaugummi möglicherweise eine erneute Infektion verhindern - etwas, das unweigerlich passieren wird.

"Am 2. Juni haben wir die die Genehmigung der FDA für die klinische Untersuchung von ACE2-Kaugummi in Phase I/II erhalten! Die klinische Studie läuft über drei Tage an COVID-19-positiven Patienten, die zwölf Kaugummis erhalten. Mit den steigenden COVID-19-Fällen in Philadelphia sind wir nun in der Lage die klinischen Studien zu Ende zu bringen und die Herstellung und Markteinführung des Produkts zügig voranzutreiben", sagt Dr. Daniell.

Mit Hilfe von Rezeptorfallen für Viren im Kaugummi hat das Team bereits erfolgreich die Kontrolle virulenter Grippestämme untersucht und testet derzeit die Kontrolle von HPV bei Patienten mit oralem Carcinom und von Herpes bei Patienten mit Fieberbläschen, die, wie Daniell anmerkt, auf dem Universitätscampus häufig übertragen werden."Dies könnte also die nächste neue Plattformtechnologie zur Bekämpfung oraler Infektionen sein", sagt er. Der Marketingplan liegt auf der Hand.

Ich sehe der Werbung entgegen, die den antiviralen Kaugummis beiliegen wird und Bilder von Coronaviren, Pockenviren, Chikungunya und Coxsackie, Influenza und Hepatitis, Ebola und Zika und vielem mehr enthalten wird.


 [1] Henry Daniell et al., Debulking SARS-CoV-2 in saliva using angiotensin converting enzyme 2 in chewing gum to decrease oral virus transmission and infection. Molecular Therapy 30/5 May 2022. https://doi.org/10.1016/j.ymthe.2021.11.008.

[2] Valentyn Stadnytsky et al., The airborne lifetime of small speech droplets and their potential importance in SARS-CoV-2 transmission. PNAS May 13, 2020, 117 (22) 11875-11877 . https:// https://doi.org/10.1073/pnas.2006874117.


 * Der Artikel ist erstmals am 2.Juni 2022 in PLOS Blogs - DNA Science Blog unter dem Titel "Can Chewing Gum Protect Against COVID?"

 https://dnascience.plos.org/2022/06/02/can-chewing-gum-protect-against-covid/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Abbildungen 1 und 3 plus Legenden wurden von der Redaktion aus der zitierten Originalarbeit [1] eingefügt.


 

inge Thu, 09.06.2022 - 19:01

Comments

Dr. Henry Daniell ist Professor and Direktor of Translational Research an der University of Pennsylvania.

Daniell  hat Pionierarbeit auf dem Gebiet der Chloroplasten-Gentechnik geleistet, die eine neue Plattform zur Herstellung und oralen Verabreichung kostengünstiger Impfstoffe und biopharmazeutischer Produkte darstellt, welche in Pflanzenzellen bioverkapselt sind. Nature Biotechnology  zählt diese Technologie zu den zehn besten Erfindungen des letzten Jahrzehnts.

Daniell wird von Biomed Central zu den 100 wichtigsten Autoren der Welt gezählt. Er hat >250 wissenschaftliche Arbeiten veröffentlicht (h-Faktor 209) und ist Inhaber von > 100 weltweiten Patenten.  Henry Daniell ist Träger zahlreicher Auszeichnungen.

Sein Konzept erklärt er in:

Delivering Medicine Through Lettuce, World Altering Medical Advancements  (2014), Video 3:59 min. https://www.youtube.com/watch?v=6z7qwwtHQTY

Interview mit H. Daniell über COVID-Gum:

Pennsylvania researchers developing gum that could reduce COVID transmission (12.2021). Video 6:27 min. https://www.youtube.com/watch?v=k4f8jqIugS4

Hochhäuser werden zu Energiespeichern

Hochhäuser werden zu Energiespeichern

Do, 02.06.2022 — IIASA

IIASA Logo

Icon Energie

Mit den rasch sinkenden Kosten für die Erzeugung erneuerbarer Energien wie Wind- und Solarenergie entsteht ein wachsender Bedarf an Technologien zur Energiespeicherung, um sicherzustellen, dass Stromangebot und -nachfrage in Balance sind. Ein internationales Team um Julian Hunt vom International Institute of Applied Systems Analysis (IIASA) hat ein innovatives, auf der Schwerkraft basierendes Energiespeicherkonzept - Lift Energy Storage Technology (LEST) - entwickelt, mit dem in städtischen Gebieten zur Verbesserung der Netzqualität Hochhäuser in Batterien verwandelt werden können. In solchen Gebäuden sollen Aufzüge und leer stehende Wohnungen und Flure genutzt werden, um zur Energiespeicherung Container mit Materialien hoher Dichte von den unteren Etagen in die oberen Wohnungen zu transportieren und zur Stromerzeugung Container von den oberen Wohnungen in die unteren Etagen herab zu führen.*

Die weltweite Kapazität zur Erzeugung von Strom aus SolarPaneelen, Windturbinen und anderen erneuerbaren Technologien hat in den letzten Jahren stetig zugenommen und man erwartet, dass bis zum Jahr 2026 die weltweite Kapazität zur Erzeugung von Strom aus erneuerbaren Energien um mehr als 60 % gegenüber dem Stand von 2020 steigen wird. Dies entspricht der derzeitigen globalen Gesamtkapazität der Stromerzeugung aus fossilen Brennstoffen und Kernenergie zusammen genommen. Nach Angaben der Internationalen Energieagentur werden die erneuerbaren Energien bis 2026 fast 95 % des Anstiegs der weltweiten Stromerzeugungskapazität ausmachen, wobei die Photovoltaik mehr als die Hälfte dazu beitragen wird. Allerdings erfordert der Übergang zu einer CO2-armen oder -freien Gesellschaft innovative Lösungen und eine andere Art der Energiespeicherung und des Energieverbrauchs als die traditionellen Energiesysteme.

Das Lift Energy Storage Technology (LEST)- Konzept

Die Forscher des IIASA schlagen in ihrer in der Zeitschrift Energy veröffentlichten Studie eine originelle, auf der Schwerkraft basierende Speicherlösung vor, die Aufzüge und leer stehende Wohnungen in hohen Gebäuden zur Energiespeicherung nutzt [1]. Die Autoren nennen diese neue Idee Lift Energy Storage Technology (LEST). Die Speicherung von Energie erfolgt durch das Hochfahren von Behältern mit nassem Sand oder anderen Materialien mit hoher Dichte, die mittels autonom gesteuerten Fahrzeugen in einen Aufzug hinein und wieder heraus transportiert werden. Abbildung 1.

Abbildung 1. Hochhäuser als Energiespeicher - Das Konzept der Lift-Energy-Storage-Technology: Energiespeicherung durch Hochfahren von Lasten in leer stehende Räume oberer Stockwerke, Energierückgewinnung durch Bremsenergie beim Hinunterfahren der Lasten. a): Die Komponenten des Systems. b): Lasten im unteren Gebäudeabschnitt. c) "Voller" Energiespeicher. d): Aufladen der "Batterie". e): Stromerzeugung beim Hinunterfahren. f: Aufzug dient dem Personenverkehr und der Speicherung und Regeneration von Energie . (Bild aus Julian Hunt et al., 2022 [1]; Lizenz: cc-by)

LEST ist eine interessante Option: Aufzüge sind in den Hochhäusern ja bereits installiert. In anderen Worten: es besteht kein Bedarf für zusätzliche Investitionen oder Räume , es wird vielmehr das Vorhandene auf andere Weise verwendet, um einen zusätzlichen Nutzen für das Stromnetz und den Gebäudeeigentümer zu schaffen.

Wie es zu dem LEST-Konzept gekommen ist, erklärt Julian Hunt von der IIASA-Forschungsgruppe für nachhaltige Dienstleistungssysteme und Erstautor der Studie erklärt dazu: "Ich war schon immer von Themen fasziniert, die mit potentieller Energie zu tun haben, d. h. mit der Erzeugung von Energie durch Änderung der Höhenlage, wie es beispielsweise Wasserkraft, Pumpspeicherung, Auftrieb und Schwerkraftspeicherung sind. Das Konzept der Schwerkraftspeicherung hat in letzter Zeit auch in der wissenschaftlichen Gemeinschaft und bei Startups große Aufmerksamkeit erregt. Auf die Idee von LEST bin ich gekommen, als ich nach meinem Einzug in eine Wohnung im 14. Stock viel Zeit damit verbracht hatte mit dem Aufzug auf und ab zu fahren".

Wie viel Energie gespeichert werden kann**,

beschreibt die Gleichung:

E = m x h x g x e

E ist die potentielle Energie (J), m die Masse( kg) der beladenen Container, h der mittlere Höhenunterschied (m) zwischen oberen und unteren Lagerplätzen, g die Gravitationskonstante (m/s2) und e die Effizienz des Aufzugs (üblicherweise mit 80 % kalkuliert). Für ein Gebäude mit einer Lagerfläche für 5 000 Container (jeweils mit 1000 kg nassem Sand) und einer Höhendifferenz von 50 m ergibt dies eine Speicherkapazität von 545 kWh (entspricht der Batterie eines Elektro-LKWs). Mit zunehmendem Höhenunterschied und steigender Masse der Container erhöht sich die Speicherkapazität des Systems.

Die Kosten für die Energiespeicherung sind (abgesehen von etwaigen Mietkosten) im Wesentlichen auf die Beschaffung der Container plus Füllmaterial und die autonom fahrenden Vehikel beschränkt. So würde die Speicherung in einem System mit 5000 Containern und 100 m Höhendifferenz auf 62 $/kWh kommen, bei 300 m Höhendifferenz auf 21 $/kWh - bedeutend billiger als konventionelle Batterien. Wie viel Energie (W) beim Hinunterfahren regeneriert wird, hängt von der Transportgeschwindigkeit ab.

Vorteile von LEST ....

Um eine Lösung durch Schwerkraftspeicheung realisierbar zu machen, sind nach Ansicht der Autoren die Kosten für die Energieaufnahme und - Rückgewinnung (Energiekapazität) die größte Herausforderung, Der wichtigste Vorteil von LEST ist, dass diese Energiekapazität bereits in Aufzügen mit regenerativen Bremssystemen eingerichtet ist. Weltweit sind mehr als 18 Millionen Aufzüge in Betrieb; viele von ihnen stehen aber einen beträchtlichen Teil der Zeit still. Die Idee von LEST ist, Aufzüge in der Zeit, in der sie nicht der Beförderung von Personen dienen, zur Speicherung oder Erzeugung von Strom zu nutzen.

Die Möglichkeit, Energie dort zu speichern, wo der meiste Strom verbraucht wird, wie es in Städten der Fall ist, bedeutet großen Nutzen für das Energienetz; LEST kann erschwingliche und dezentrale Hilfsdienste bereitstellen, die wiederum die Qualität der Stromversorgung in einem städtischen Umfeld verbessern könnten.

Behnam Zakeri, Koautor der Studie und Forscher in der IIASA-Forschungsgruppe für integrierte Bewertung und Klimawandel betont dies: "Umweltfreundliche und flexible Speichertechnologien wie LEST werden in einer Zukunft, in der ein großer Teil des Stroms aus erneuerbaren Energien stammt, für die Gesellschaft immer wertvoller werden. Daher müssen die politischen Entscheidungsträger und die Stromnetz-Regulierungsbehörden Strategien entwickeln, um Anreize für die Endverbraucher, in diesem Fall die Hochhäuser, zu schaffen, ihre dezentralen Speicherressourcen - beispielsweise LEST - mit dem zentralen Netz zu teilen. Die koordinierte Nutzung solcher dezentraler Ressourcen verringert den Bedarf an Investitionen in große zentrale Speichersysteme".

.... und noch zu lösende Fragen

Wie bei jedem neuen System gibt es noch einige Details, die weiter ausgearbeitet werden müssen, bevor das System zum Einsatz kommen kann. Dazu gehört es nutzbare Räume zu finden, in denen die Gewichtscontainer gelagert werden können - in den in den obersten Etagen, wenn das System voll aufgeladen ist und unten im Gebäude, wenn das System entladen ist. Hier könnten leer stehende Wohnungen, Büroräume und Gänge in den oberen Bereichen und Eingangshallen und Garagen in den unteren Etagen praktikable Optionen sein.

Eine weitere Überlegung betrifft die Deckentragfähigkeit bestehender Gebäude, in denen das System installiert wird, d. h. die Gesamtlast in Kilogramm pro Quadratmeter, die die Decke tragen kann, ohne zusammenzubrechen.

Zum globalen Potential von LEST**

Abbildung 2. Zahl, Höhe und globale Verteilung von Hochhäusern. (Bild von der Redaktion eingefügt aus: J.Hunt et al., Figs 11,12 [1]. Lizenz: cc-by)

Auf Basis der über 22 000 in Datenbanken gelisteten, weltweit existierenden Hochhäuser (mit Höhen über 50 m) haben die Forscher eine grobe Abschätzung des globalen Potentials von LEST vorgenommen. (Abbildung 2 fasst die Zahl, Höhe und regionale Verteilung der Hochhäuser zusammen.) Bei einer mittleren Gebäudehöhe von 120 m und vorausgesetzt, dass in den obersten Etagen Platz und Tragfähigkeit für 5 000 Container vorhanden ist, schätzen die Forscher ein globales Potential von 30 GWh, bei 50 000 Containern käme das Potential auf 300 GWh.


 [1] Hunt, J.D., Nascimento, A., Zakeri, B., Jurasz, J., Dąbek, P.B., Franco Barbosa, P.S., Brandão, R., José de Castro, N., Filho, W.L., Riahi, K. (2022). Lift Energy Storage Technology: A solution for decentralized urban energy storage, Energy DOI: 110.1016/j.energy.2022.124102


 *Der Artikel " Turning high-rise buildings into batteries" https://iiasa.ac.at/news/may-2022/turning-high-rise-buildings-into-batteries  ist am 30. Mai 2022 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch Untertitel und zwei mit ** markierte Absätze mit Texten und Abbildungen aus der zitierten Originalarbeit [1] ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Anmerkung der Redaktion:

Mit einem internationalen Team hat der noch recht jungen IIASA-Forscher Julian David Hunt (PhD in Engineering Science, University Oxford) vor wenigen Wochen zwei weitere hoch-innovative Konzepte zur Energiespeicherung publiziert, die wir im ScienceBlog vorgestellt haben:

IIASA, 30.03.2022: Hydrogen Deep Ocean Link: Ein globales nachhaltiges Energieverbundnetz

IIASA, 24.03.2022: Anstelle von Stauseen, Staumauern, Rohrleitungen und Turbinen: Elektro-Lkw ermöglichen eine innovative, flexible Lösung für Wasserkraft in Bergregionen


 

inge Thu, 02.06.2022 - 01:06

Comments

Günter Baca (not verified)

Sun, 12.06.2022 - 11:26

Das ist eine sehr schöne Phantasie. Die Realität ist weniger euphorisierend. Denn um die Träger der "Potentiellen Energie" (in diesem Beispiel nasse Sandsäcke) an den Speicherplatz zu verbringen benötigt man zuerst einmal Energie für die Fahrt nach oben.
Dabei ist der Einfluss der Systemeffizienz auf Energieverbrauch und Regeneration bedeutsam. Denn es gibt etwa folgende elektrische und mechanische Verluste.
Aufwärtsfahrt: Schacht-Verlust 5% Motor-Verlust 20% Steuerungs-Verlust 5%
Regenerationsfahrt: Schacht-Verlust 5% = 5 Motor-Verlust 20% = 20 Steuerungs- Verlust 5%
Tatsächlich können nur etwa 52% der eingesetzten Energie, die benötigt wird um die Sandsäcke hochzutransportieren, zurückgewonnen werden. 48% entfallen auf Systemverluste.
Es wird in jedem Fall weniger Strom gewonnen, als investiert.
Die Rekuperation kann aber auch ohne Sandsäcke erzielt werden, wenn leere Kabinen nach oben fahren.
Natürlich bleibt der Systemverlust davon unberührt.
Ein weiterer Punkt ist die äusserst kurze Zeitspanne, in der Strom "gewonnen" werden kann. Eine durchschnittliche Fahrtdauer liegt in herkömmlichen Gebäuden unter einer Minute. Von den rund 18 Millionen Aufzügen fährt nur ein kleiner Teil in Hochhäusern.
Etwa 50% der Aufzugspopulation ist älter als 25 Jahre. Regenerative Antriebe sind noch entsprechend selten und die elektrische Effizienz der Anlagen ist sicher nicht fit für diese Nutzung.
Zusätzlich ist der Strombedarf zu bedenken, der für die Steuerung und den Betrieb der "Roboter" benötigt wird. Die müssen vermutlich rund um die Uhr bereit stehen.
Die Bereitstellung des Lagerraums sowohl im oberen als auch unteren Bereich des Gebäudes wirft zusätzliche Fragen auf. Erstens die kommerzielle: Raum ist teuer und in Highrisegebäuden ganz besonders, je höher im Gebäude der Raum angeordnet ist. Zweitens, die Statik.
Ich würde mich freuen hier mehr zu erfahren, wie diese Punkte gelöst werden können.
Eine Dialogbox, welche einen Permalink zum Kommentar anzeigt

- auch zur Systemeffizienz, den Vorteilen und den offenen Fragen - gibt die unter [1] zitierte Arbeit von Hunt et al., in Energy, Energy DOI: 10.1016/j.energy.2022.124102

Die von Ihnen aufgeworfenen Fragen sieht Hunt natürlich auch: "This paper assumes that the lift installed already has regenerative braking capabilities and the cost for renting the space to store the containers in the upper and lower storage sites is zero. Thus, the only cost requirements are the containers, the material selected to increase the mass of the containers, and the autonomous trailers".         

Im Übrigen wird das Konzept der Schwerkraftspeicherung von einigen Firmen bereits umgesetzt:

 

 

Somatische Mutationen bei Säugetieren skalieren mit deren Lebensdauer

Somatische Mutationen bei Säugetieren skalieren mit deren Lebensdauer

Do, 26.05.2022 — Redaktion

Redaktion

Icon Molekularbiologie

Es liegt nun die erste Studie vor, in der bei vielen Tierarten die Zahl der während der Lebenszeit erworbenen Mutationen verglichen wurde. Insgesamt 16 Säugetierarten - von der Maus bis zur Giraffe - zeigten trotz großer Unterschiede in Körpergröße und Lebensdauer eine ähnlich hohe Zahl von im Laufe des Lebens erworbenen Mutationen. Diese von Forschern des Wellcome Sanger Institute durchgeführte Studie lässt jahrzehntelange Fragen zur Rolle solcher genetischer Veränderungen im Alterungsprozess und in der Krebsentstehung in einem neuen Licht erscheinen.*

Forscher vom Wellcome Sanger Institute haben herausgefunden, dass verschiedene Tierarten trotz enormer Unterschiede in Lebensspanne und Größe ihr natürliches Leben mit einer ähnlichen Anzahl genetischer Veränderungen beenden. In der kürzlich in Nature veröffentlichten Studie [1] wurden Genome von 16 Säugetierarten - von der Maus bis zur Giraffe - analysiert. Die Autoren belegten darin: je länger die Lebenserwartung einer Spezies ist, desto langsamer ist die Mutationsrate; dies stützt die schon seit langem bestehende Theorie, dass somatische Mutationen eine Rolle bei der Alterung spielen.

Genetische Veränderungen, sogenannte somatische Mutationen, treten über die gesamte Lebenszeit in allen Zellen eines Organismus auf. Dies ist ein natürlicher Prozess; beim Menschen häufen Zellen etwa 20 bis 50 Mutationen pro Jahr an. Die meisten dieser Mutationen sind harmlos, aber einige von ihnen können eine Zelle zur Krebszelle entarten lassen oder auch die normale Funktion der Zelle beeinträchtigen.

Seit den 1950er Jahren haben einige Wissenschaftler darüber spekuliert, dass diese Mutationen eine Rolle im Alterungsprozess spielen könnten. Auf Grund der Schwierigkeit somatische Mutationen in einzelnen Zellen oder kleinen Klonen zu bestimmen, war es allerdings bislang ein Problem diese Möglichkeit zu untersuchen. Technologische Fortschritte der letzten Jahren erlauben nun endlich genetische Veränderungen in normalem Gewebe zu verfolgen; dies lässt hoffen damit die Frage nun zu beantworten.

Eine weitere, seit langem bestehende Frage betrifft das sogenannte Peto-Paradoxon: Da sich Krebserkrankungen aus einzelnen Zellen entwickeln, müssten Spezies mit größeren Körpern (und damit mehr Zellen) theoretisch ein viel höheres Krebsrisiko haben. Tatsächlich ist aber die Krebshäufigkeit bei Tieren unabhängig von deren Körpergröße. Man nimmt an, dass Tierarten mit großen Körpern bessere Mechanismen zur Krebsprävention entwickelt haben. Ob einer dieser Mechanismen darauf beruht, dass sich weniger genetische Veränderungen in ihrem Gewebe anhäufen, wurde bislang nicht untersucht.

Die Wellcome Sanger Studie

Abbildung 1. Histologische Bilder von Dickdarmproben mehrerer Tierspezies wobei jeweils ein Krypte strichliert umrandet ist. Der durch den schwarzen Strich angezeigte Maßstab ist 0,25 mm. (Bild stammt aus aus A. Cagan et al., 2022 [1]; Lizenz cc-by. und wurde von der Redn. eingefügt.)

In der neuen Studie haben Forscher des Wellcome Sanger Institute diese Theorien untersucht; sie haben neue Methoden angewandt, um die somatische Mutation bei 16 Säugetierarten zu messen, die ein breites Spektrum an Lebenserwartung und Körpergröße abdecken. (Im Detail waren dies: Schwarz-weißer Stummelaffe, Katze, Kuh, Hund, Frettchen, Giraffe, Schweinswal, Pferd, Mensch, Löwe, Maus, Nacktmull, Kaninchen, Ratte, Ringelschwanzlemur und Tiger.) Erwähnt werden soll hier auch der langlebige, sehr krebsresistente Nacktmull.

Die Gewebeproben - Krypten aus dem Dickdarmbereich (Kolon) - wurden von mehreren Organisationen, u.a. der Zoological Society of London zur Verfügung gestellt. Krypten sind anatomische Strukturen im Epithel des Dickdarms (und auch des Dünndarms). Da alle Zellen einer Krypte sich von einer einzigen Stammzelle herleiten, sind sie ideal für die Untersuchung von Mutationsmustern und Mutationsraten geeignet. Wie diese Krypten aussehen, ist in Abbildung 1 für mehrere Spezies gezeigt.

Mit zunehmendem Alter einer Spezies steigen die Mutationen linear an

Abbildung 2. Mutationen in den Krypten-Zellen steigen linear mit dem Lebensalter an. Am Lebensende weisen die einzelnen Spezies eine ähnliche Anzahl von Mutationen in ihren Genomen auf. Beispiele von 4 Säugetierspezies.(Bild stammt aus aus A. Cagan et al., 2022 [1]; Lizenz cc-by. und wurde von der Redn. eingefügt.)

Um die Mutationsraten in einzelnen Darmstammzellen zu messen, wurden Gesamtgenom-Sequenzen aus 208 solcher Darmkrypten von insgesamt 48 Individuen analysiert. Die Analyse der Mutationsmuster (Mutationssignaturen - charakteristische Muster an Mutationen) lieferte Informationen über die ablaufenden Prozesse. Die Forscher fanden heraus, dass sich somatische Mutationen im Laufe der Zeit linear anhäufen (Abbildung 2.) und dass diese bei allen Spezies, einschließlich des Menschen - trotz sehr unterschiedlicher Ernährungsweisen und Lebensabläufen- durch ähnliche Mechanismen verursacht werden.

Mit steigender Lebenserwartung sinken die Mutationsraten

Einen Hinweis auf eine mögliche Rolle somatischer Mutationen im Alterungsprozess lieferte die Entdeckung der Forscher, dass die Rate somatischer Mutationen mit zunehmender Lebenserwartung der Spezies abnahm. Abbildung 3.

"Es war überraschend, ein ähnliches Muster genetischer Veränderungen bei so unterschiedlichen Tieren wie einer Maus und einem Tiger zu finden. Der interessanteste Aspekt der Studie ist jedoch die Feststellung, dass die Lebensspanne umgekehrt proportional zur somatischen Mutationsrate ist. Dies deutet darauf hin, dass somatische Mutationen eine Rolle bei der Alterung spielen, obgleich auch andere Erklärungen denkbar sind. In den nächsten Jahren wird es spannend werden, diese Studien auf noch diversere Arten, wie Insekten oder Pflanzen, auszuweiten." sagt der Erstautor der Studie Dr Alex Cagan vom Wellcome Sanger Institute

Abbildung 3. Somatische Mutationen in den Krypten des Dickdarms von 16 Spezies, die sich in ihrer Größe bis um das 39 000-Fache, in ihrer Lebensdauer bis um das 30-Fache und in ihrer jährlichen Mutationsrate um bis das 17-Fache unterscheiden. Die zum Lebensende angehäuften Mutationen differieren aber nur um das 3-Fache! (Bild stammt aus aus A. Cagan et al., 2022 [1]; Lizenz cc-by. und wurde von der Redn. eingefügt.)

 

 

 

 

Die Suche nach einer Antwort auf Petos Paradoxon geht jedoch weiter. Nach Berücksichtigung der Lebensspanne fanden die Autoren keinen signifikanten Zusammenhang zwischen der somatischen Mutationsrate und der Körpermasse, was darauf hindeutet, dass andere Faktoren an der Fähigkeit größerer Tiere beteiligt sein müssen, ihr Krebsrisiko im Verhältnis zu ihrer Größe zu verringern.

"Die Tatsache, dass die Unterschiede in der somatischen Mutationsrate offenbar durch Unterschiede in der Lebensspanne und nicht durch die Körpergröße erklärt werden können, deutet darauf hin, dass die Anpassung der Mutationsrate zwar nach einer eleganten Methode zur Kontrolle des Auftretens von Krebs bei verschiedenen Arten klingt, die Evolution diesen Weg aber nicht wirklich gewählt hat. Es ist durchaus möglich, dass die Evolution jedes Mal, wenn sich eine Art größer entwickelt als ihre Vorfahren - wie bei Giraffen, Elefanten und Walen - eine andere Lösung für dieses Problem findet. Um das herauszufinden, müssen wir diese Arten noch genauer untersuchen", sagt Dr. Adrian Baez-Ortega, Koautor der Studie [1] (Wellcome Sanger Institute)

 

 

 

 

Trotz der großen Unterschiede in Bezug auf Lebensdauer und Körpermasse zwischen den 16 untersuchten Arten war die Anzahl der somatischen Mutationen, die im Laufe des Lebens der einzelnen Tiere erworben wurden, relativ ähnlich. Eine Giraffe ist im Durchschnitt 40 000-mal größer als eine Maus, und ein Mensch lebt 30-mal länger, aber der Unterschied in der Anzahl der somatischen Mutationen pro Zelle am Ende der Lebensspanne zwischen den drei Arten betrug nur etwa den Faktor drei (Abbildung 3).

Die genauen Ursachen des Alterns sind nach wie vor eine ungelöste Frage und ein Bereich, in dem aktiv geforscht wird. Das Altern wird wahrscheinlich durch die Anhäufung verschiedener Arten von Schäden an unseren Zellen und Geweben im Laufe des Lebens verursacht, unter anderem durch somatische Mutationen, Proteinaggregation und epigenetische Veränderungen. Ein Vergleich der Raten dieser Prozesse bei verschiedenen Arten mit sehr unterschiedlicher Lebensdauer kann Aufschluss über ihre Rolle bei der Alterung geben.

"Die Alterung ist ein komplexer Prozess, der auf vielfältige Formen molekularer Schädigungen in unseren Zellen und Geweben zurückzuführen ist. Seit den 1950er Jahren wird vermutet, dass somatische Mutationen zur Alterung beitragen, doch deren Erforschung blieb schwierig. Mit den jüngsten Fortschritten in der DNA-Sequenzierungstechnologie können wir nun endlich die Rolle untersuchen, die somatische Mutationen beim Altern und bei verschiedenen Krankheiten spielen. Dass diese verschiedenen Säugetiere ihr Leben mit einer ähnlichen Anzahl von Mutationen in ihren Zellen beenden, ist eine aufregende und faszinierende Entdeckung", sagt Dr. Inigo Martincorena . korrespondierender Autor( [1] Wellcome Sanger Institute..

 

 

 

 

 


*Der vorliegende Artikel basiert auf einem News Article des Wellcome Trust Sanger Institute vom 13.April 2022: Mutations across animal kingdom shed new light on ageing.  https://www.sanger.ac.uk/news_item/mutations-across-animal-kingdom-shed-new-light-on-ageing/. Dieser Artikel wurde weitestgehend wörtlich übersetzt und durch 3 Abbildungen aus der zugrundeliegenden Publikation ergänzt:

[1] Alex Cagan, Adrian Baez-Ortega et al. (2022). Somatic mutation rates scale with lifespan across mammals. Nature. DOI: https://doi.org/10.1038/s41586-022-04618-z

Die Inhalte der Website des Sanger Instituts und auch [1] stehen unter einer cc-by 3.0 Lizenz.


 

inge Fri, 27.05.2022 - 00:07

Elektrisierende Ideen für leistungsfähigere Akkus

Elektrisierende Ideen für leistungsfähigere Akkus

Do, 19.05.2022 — Roland Wengenmayr

Icon Energie

Roland Wengenmayr Als Alessandro Volta um 1800 die Voltasche Säule erfand, ahnte er sicher nicht, dass ihn diese Ur-Batterie unsterblich berühmt machen würde. Heute ist das Volt die physikalische Einheit für die elektrische Spannung, und wir leben längst in einer elektrifizierten Kultur. Aufladbare Akkumulatoren und Einwegbatterien haben elektrische Energie praktisch überall verfügbar gemacht, das Smartphone ist unser ständiger Begleiter. Und die Elektromobilität nimmt nach der Schiene nun auch auf der Straße Fahrt auf, vom E-Roller bis zum Elektroauto. Sogar elektrisches Fliegen ist im Kommen. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr gibt einen Überblick über Aufbau und Funktion von Lithium-Batterien und Ergebnisse aus dem Max-Planck-Institut für Festköperforschung (Stuttgart) zur Optimierung solcher Batterien.*

Noch aber haben Elektroautos zwei gewichtige Nachteile im Vergleich zu Fahrzeugen mit Verbrennungsmotor: Laden dauert deutlich länger als Tanken, und eine entsprechende Reichweite erzwingt eine große, schwere „Batterie“. Das wiederum verschlechtert wegen des Ressourcenverbrauchs die Ökobilanz größerer Elektroautos. Zwar sind auch diese in ihrer Lebenszeit klimafreundlicher als die „Verbrenner“, wenn die elektrische Energie aus erneuerbaren Quellen kommt. Aber leistungsfähigere Akkumulatoren, wie die wieder aufladbaren Batterien korrekt heißen, wären ein großer Gewinn für das Klima.

Das ist das Forschungsziel der Chemikerin Jelena Popovic-Neuber am Max-Planck-Institut für Festköperforschung in Stuttgart. An den „Akkus“ gibt es noch viel zu optimieren. Selbst die besten Auto-Akkus mit Lithium-Ionen-Technologie können derzeit nur rund 0,12 Kilowattstunden (kWh) an Energie pro Kilogramm speichern. Ein Kilogramm Benzin oder Diesel enthält dagegen rund 12 kWh an nutzbarer chemischer Energie, also hundert Mal so viel Energie. Dafür allerdings sind elektrische Antriebe viel effizienter als Verbrennungsmotoren. Deshalb müssen Elektroautos deutlich weniger elektrische Energie an Bord mitführen, um auf vergleichbare Fahrleistungen zu kommen. Also muss die Forschung die spezifische Energiedichte der Akkus gar nicht auf das Niveau von fossilem Treibstoff steigern.

Akkumulatoren, Einweg-Batterien sowie Brennstoffzellen, die ebenfalls in Stuttgart erforscht werden, zählen zu den elektrochemischen Zellen. Deren Elektrochemie ist ein Forschungsthema der Abteilung von Joachim Maier, Direktor am Max-Planck-Institut für Festkörperforschung in Stuttgart. Maier interessiert sich schon sehr lange für das Verhalten von zum Beispiel Lithium-Ionen in solchen Zellen und gründete ein Forschungsgebiet, das Nano-Ionik heißt. Jelena Popovic-Neuber leitet bei ihm ein Team, das neue Ideen für effizientere Akkus auf Basis von Lithium und anderen Alkali- sowie Erdalkalimetallen entwickelt. Es ist Grundlagenforschung mit direkter Verbindung zur technischen Anwendung. Sogar einige Patente halten die Stuttgarter.

Lithium ist das dritte Element im Periodensystem. Man kann das silbrige Metall allerdings nicht einfach in die Hand nehmen. Es muss unter Paraffinöl oder in trockenem Argon-Schutzgas aufbewahrt werden, denn es reagiert schon mit Spuren von Wasser und Sauerstoff. Darin ist es seinem schwereren Vetter Natrium ähnlich. Auch Natrium eignet sich für Batterietechnologien, das Stuttgarter Team arbeitet damit ebenfalls. Es hat den Vorteil, dass es auf der Erde viel häufiger als Lithium vorkommt und leichter ohne negative ökologische und soziale Folgen gewonnen werden kann. „In China kommen 2023 erste Natrium-Akkus für Autos auf den Markt“, erzählt Jelena Popovic-Neuber.

Im Periodensystem der Elemente steht Lithium noch oberhalb von Natrium auf der „Linksobenaußen“-Position, unterhalb von Wasserstoff. Es ist generell ein chemischer Extremist. Für Hochleistungsakkus ist es aus zwei Gründen attraktiv: Erstens ist das Atom winzig und damit ein Leichtgewicht. Das steigert die speicherbare Menge an elektrischer Ladung pro Kilogramm Akku und damit Energie. Zweitens verhält sich Lithium innerhalb der elektrochemischen Spannungsreihe – dem Laufsteg der elektrochemischen Elemente – besonders „elektropositiv“. Es ist somit ein williger Elektronenspender. Aber warum ist das für Akkus gut?

Dazu muss man wissen, dass die zweite Stellschraube zur Optimierung der Speicherkapazität die elektrische Spannung zwischen dem Plus- und dem Minuspol ist. Je höher diese Zellspannung ist, desto mehr elektrische Energie passt im Prinzip in den Akku. Und hier kommt die Spannungsreihe ins Spiel: Würde man eine Lithium-Elektrode an eine Standard-Wasserstoffelektrode anschließen, die die Null-Volt-Linie markiert, läge das Lithium bei minus 3,04 Volt. Das ist Rekord in der Spannungsreihe. Wenn man nun leistungsfähige Akkus entwickeln will, paart man den Elektronenspender Lithium mit einem möglichst gierigen Elektronenempfänger am anderen Pol der Zelle. Dann sind Zellspannungen über 5 V erreichbar! Zum Vergleich: Handelsübliche Lithium-Ionen-Akkuzellen liegen derzeit bei 3,6 bis 3,8 V, Alkali-Einwegbatterien bei nur 1,5 V.

Einfach und schnell speichern

Die theoretisch höchstmögliche Zellspannung liegt bei fast 6 V. Dazu müsste man Lithium mit seinem extremsten Gegenspieler verkuppeln: Fluor, das elektronegativste Element. Nach dieser Überlegung würde also der stärkste aller Akkus eine Elektrode besitzen, in die Fluorgas geleitet wird. Die andere Elektrode wäre ein Klotz aus Lithiummetall, denn so wäre das Lithium am dichtesten zusammengepackt. Ein solcher Lithium-Fluor-Akku käme theoretisch auf eine spezifische Energiedichte von fast 10 kWh/kg. Er wäre mit Diesel und Benzin konkurrenzfähig. Allerdings ist Fluor so reaktiv, korrosiv und giftig, dass niemand ernsthaft einen solchen Akku bauen wollte.

Wiederaufladbare Akkus werden über einen Elektronenstrom geladen. Beim Entladen liefern sie einen entgegengesetzten Elektronenstrom, der Arbeit leistet. Dabei benötigen Laden und Entladen jeweils eine gewisse Zeit. Das liegt daran, dass Akkus die elektrische Energie zum Speichern erst in chemische Energie umwandeln müssen. Beim Entladen machen sie das wieder rückgängig.

Beim Laden werden die Elektronen mit einer zweiten Sorte elektrischer Ladungsträger zusammengebracht: positiv geladene Ionen, zum Beispiel Lithium-Kationen, denen im Vergleich zu den Lithium-Atomen jeweils ein Elektron fehlt. In Akkus sind diese positiven Ladungsträger beweglich. Die Ionen fließen im Zellinneren zwischen beiden Elektroden, wobei zwischen Laden und Entladen ihre Fließrichtung wechselt. Für die Ionen-Rennbahn sorgt ein flüssiger oder fester Elektrolyt. Der Elektrolyt muss einerseits die positiven Ionen möglichst gut leiten, andererseits die negativen Elektronen wie ein Isolator blockieren. Sonst würden die Elektronen kurzerhand durch das Zellinnere flitzen, anstatt im äußeren Stromkreis mühsam zu arbeiten. So ein interner Kurzschluss kann bei leistungsfähigen Akkus richtig gefährlich werden.

Mehr Platz für Energie

Abbildung 1: Funktionsprinzip einer Lithium-Ionen-Akkuzelle: Beim Laden „pumpt“ das Ladegerät im äußeren Stromkreis Elektronen (blaue Kugeln und Pfeile) von der in der Abbildung linken in die rechte Elektrode – und damit auch elektrische Energie. Im Inneren der Zelle wandern die Lithium-Ionen (rote Kugeln und Pfeile) von der linken Elektrode hinüber und lagern sich zwischen den Graphitschichten (schwarz) der rechten Elektrode ein. Beim Entladen kehren sich die Vorgänge um. Die Hin- und Herbewegung der Lithium-Ionen beim Laden und Entladen heißt Schaukelstuhl-Effekt. Die für die Ionen durchlässige Separatormembran (blau gestrichelte Linie) verhindert einen direkten Kontakt der Elektroden, also einen Kurzschluss.© R. Wengenmayr / CC BY-NC-SA 4.0

Jede Batterie- und Akkusorte hat ihre ganz eigene, oft komplizierte Elektrochemie. Beim Lithium-Ionen-Akku ist zumindest das chemische Grundprinzip einfach zu verstehen. Beim Laden des Akkus pumpt das Ladegerät Elektronen von der Lithiumverbindung-Elektrode in die Graphit-Elektrode, während gleichzeitig im Inneren der Batterie Lithium-Ionen durch den Elektrolyt zur Graphit-Elektrode fließen. Beim Entladen werden Elektronen an den Leiterdraht abgegeben, die über den äußeren Stromkreis zur Lithiumverbindung-Elektrode wandern. Im Inneren des Akkus wandern gleichzeitig Lithium-Ionen von der Graphit-Elektrode durch den Elektrolyt zur Lithiumverbindung-Elektrode (Abbildung 1).

Eine Elektrode besteht bei den etablierten Lithium-Ionen-Akkus aus Graphit. Es kann Lithium-Ionen wie ein Schwamm aufnehmen und trägt so maßgeblich zur hohen Speicherkapazität bei. Graphit ist aus mehreren Ebenen mit wabenförmigen Kohlenstoff-Sechserringen aufgebaut. Die kleinen Lithium-Ionen können in diese Ebenen wie in ein Parkhaus hineinfahren und dort chemisch einparken. Dabei bilden sie mit den ankommenden Elektronen in den Zwischenräumen zwischen den Kohlenstoff-Ebenen eine sogenannte Interkalationsverbindung (Abbildung 1, links).

Die andere Elektrode besteht in der Regel aus einer geeigneten Lithiumverbindung, die ebenfalls wie ein Schwamm für Lithium-Ionen wirkt. Bei kommerziell verbreiteten Zellen ist das oft noch Lithium-Cobaltoxid. Doch große Hersteller wie Tesla stellen zunehmend auf Lithium-Eisenphosphat um (Abbildung 2) und ersetzen so das umweltschädliche und seltene Cobalt. Das meiste Cobalt wird im Kongo abgebaut, oft unter menschenunwürdigen Bedingungen und großen Umweltschäden.

Abbildung 2: Aufbau einer Lithium-Ionen-Akkuzelle mit einer umweltfreundlichen Lithium-Eisenphosphat-Elektrode. In ihr laufen beim Laden und Entladen Redoxreaktionen ab, deren komplexe Mechanismen im Detail noch diskutiert werden. Einflussfaktoren sind zum Beispiel die Partikelgröße von LiFePO4 in der Verbundelektrode oder das verwendete Lösungsmittel. © R. Wengenmayr / CC BY-NC-SA 4.0

Neuartige Materialkombinationen für Elektroden und Elektrolyt sollen die Lithium basierten Akkus verbessern. Höhere Zellspannungen werfen dabei neue Probleme auf. Mehr als etwa 3,5 V hält nämlich kein Elektrolyt aus, ohne sich zu zerlegen. Zum Glück bilden sich beim allerersten Laden der Zelle Passivierungsschichten um die Elektroden. Diese schützen einerseits das Elektrodenmaterial vor dem chemisch aggressiven Elektrolyt. Andererseits reduzieren sie die elektrische Spannung, der der Elektrolyt direkt ausgesetzt ist. Der Clou: Trotzdem verbessert die hohe Zellspannung die Speicherfähigkeit. Um zu verstehen, wie das im Prinzip funktioniert, hilft der Vergleich mit den größten Speichern für elektrische Energie: Pumpspeicher-Wasserkraftwerke (Abbildung 3).

Abbildung 3: Energie über Potenzialgefälle speichern. Sowohl beim Lithium-Ionen-Akku (links) als auch einem Pumpspeicher-Wasserkraftwerk gibt es ein sogenanntes Potenzialgefälle (breite rote Linien): Beim Akku ist es die elektrische Spannung, beim Wasserkraftwerk die Energiedifferenz des Wassers im oberen und unteren Becken. Beim Akku sorgen die Passivierungsschichten um die Elektroden für einen „Spannungsabfall“ (kurze rote Linienstücke, die steiler verlaufen), der den Elektrolyt schützt. Analog schützen beim Kraftwerk zwei Reduzierventile oben und unten das Fallrohr vor zu heftig strömendem Wasser.© R. Wengenmayr / CC BY-NC-SA 4.0

Entklumpter Elektrolyt

Der Elektrolyt besteht aus Lithiumsalzen in einem organischen Lösemittel. Wasser scheidet nicht nur wegen des Lithiums aus, es zersetzt sich überdies ab einer Spannung von 1,2 V. Die komplexe Flüssigkeit enthält einfach positiv geladene Lithium-Ionen und eine entsprechende Anzahl negativer Ladungsträger, zum Beispiel Hexafluorphosphat-Anionen (PF6–). Zwischen ihnen herrschen starke elektrische Anziehungskräfte, weshalb beide Ionen-Sorten sich gerne zusammenlagern. So bleibt der Elektrolyt elektrisch neutral, was verhindert, dass er sich zersetzt und technische Probleme verursacht. Leider werden die Lithium-Ionen im Klammergriff der Anionen ziemlich unbeweglich. Das behindert den Ladungstransport in der Zelle und vernichtet einen Teil ihrer gespeicherten Energie. Jedes positiv geladene Ion ist zudem von einer Hülle negativ geladener Anionen umgeben, und solche Gebilde können sich aneinander lagern, was die Lithium-Ionen in ihrer Bewegung durch den Elektrolyt behindert (Abbildung 4, links).

Man kann sich das wie die Fans zweier gegnerischer Fußballmannschaften vorstellen, die wild durcheinander zu zwei verschiedenen Aufgängen im Stadion streben. Sie ziehen sich auch noch gegenseitig an, was natürlich zu Reibereien führt. Kurzum: Der Strom ins Stadion droht zu stocken, weshalb der Veranstalter Ordner einsetzt. Diese halten die Fans einer Mannschaft fest, um die gegnerischen Fans schnell in ihren Block zu schleusen. Genau diese Idee hatten die Stuttgarter. Sie mischten extrem feine, nur zehn bis hundert Nanometer (Milliardstel Meter) winzige Partikel in den Elektrolyten. Diese sind zum Beispiel aus Siliziumdioxid, also Nanosand! Die Sandkörnchen wirken als Ordner: Da ihre Oberfläche elektrisch positiv geladen ist, binden sie einen Teil der Anionen an sich. Das befreit zusätzliche Lithium-Ionen. Die größere Menge an (fast) ungehindert fließenden Lithium-Ionen senkt den elektrischen Widerstand des Elektrolyten deutlich. Das verringert den Energieverlust im Akku und beschleunigt das Laden und Entladen.

Auf den Trick mit dem Nanosand kam Joachim Maier vor einigen Jahren. Allerdings hat der feine Sand in dem flüssigen Elektrolyten auch Nachteile, zum Beispiel kann er sich unten im Akku absetzen. „So ein System lässt sich nur schwer mit reproduzierbaren Eigenschaften herstellen“, erklärt Jelena Popovic-Neuber. Das ist aber Voraussetzung für die industrielle Anwendung. Es gibt jedoch eine Lösung, an der ihr Team forscht. Aus den Oxiden von Silizium und Aluminium, SiO2 und Al2O3, lässt sich mit einem speziellen chemischen Verfahren eine Art mineralischer „Hartschaum“ herstellen. Dieses Material ist durchzogen von mikro- bis nanoskopisch kleinen Poren und Kapillaren. „Das legen wir über Nacht in die Elektrolytlösung ein, damit es sich vollsaugt“, erklärt die Forscherin. Danach funktioniert dieser Festelektrolyt im Prinzip wie der Nanosand – jetzt aber wie Sand, dessen Körner im Raum fixiert sind und damit nicht mehr der Schwerkraft folgen können (Abbildung 4, rechts). Das bringt die nötige Stabilität ins Spiel.

Abbildung 4: Links: Im flüssigen Elektrolyten einer normalen Akkuzelle sind die Lithium-Ionen (rot) zwischen negativ geladenen Anionen (blau) des Elektrolyts nahezu gefangen (grün: Lösemittelteilchen). Das behindert ihre Bewegung. Rechts: Die Mikro- und Nanokanäle im Festelektrolyten (grau) aus SiO2 oder Al2O3 binden die Anionen an ihren elektrisch positiv geladenen Oberflächen. Das setzt mehr Lithium-Ionen für den Ladungstransport zwischen den Elektroden frei. Der Akku arbeitet effizienter.© R. Wengenmayr / CC BY-NC-SA 4.0

Das Rätsel der Grenzflächen

So ein Festelektrolyt hat auch noch einen weiteren Vorteil, der zu Popovic-Neubers zweitem Forschungsgebiet führt. Das befindet sich in der schon erwähnten Passivierungsschicht auf den Oberflächen des Elektrodenmaterials. Die Forscherin will nämlich zurück zu den Wurzeln der Lithium-Akkus, und diese hatten ursprünglich metallische Lithiumelektroden. Der Vorteil besteht darin, dass das Lithium im Metall wesentlich dichter gepackt und außerdem extrem leicht ist. Also können solche Akkus theoretisch mehr Energie pro Kilogramm Gewicht speichern. Allerdings gab es bei den ersten Generationen in den 1980er-Jahren Unfälle, bei denen metallische Lithium-Akkus explodiert und in Brand geraten sind. Wegen dieser Gefahr verschwanden solche Akkus wieder vom Markt. Als sichere Alternative wurden Lithium-Ionen-Akkus mit Graphit-Elektroden entwickelt.

Das Problem der metallischen Elektroden liegt grundsätzlich darin, dass die Ionen einerseits Ladungsträger, andererseits Material sind. Sobald ein Lithium-Ion ein Elektron einfangen kann, wird es zu einem Metallatom. Die Gefahr: Metallisches Lithium kann sich an Stellen im Akku abscheiden, wo es stört oder gefährlich wird. So können zum Beispiel feine Metall-„Filamente“ wie Tropfsteine wachsen, bis sie eine elektrische Brücke zwischen den Elektroden herstellen. Die Folge ist ein Kurzschluss, der den Akku zerstört.

Wie solche unerwünschten Metallstrukturen entstehen, ist ziemlich kompliziert und deshalb bis heute nicht im Detail verstanden. Ihr Gegenspieler ist eine schützende Passivierungsschicht, die auf der Oberfläche einer metallischen Lithiumelektrode durch chemische Reaktion mit der Elektrolytlösung wächst. Sie ist sehr komplex aus vielen mikroskopischen Körnchen aufgebaut, die chemisch unterschiedlich zusammengesetzt sind. Daher ist es schwierig, ganz genau herauszufinden, wie eine unerwünschte Metallstruktur diese Schicht durchdringt.

Die Passivierungsschicht ist wie schon erwähnt wichtig, um die Elektrode ausreichend vom Elektrolyten zu trennen. Auf der anderen Seite muss diese Schicht durchlässig für die Lithium-Ionen sein. Sie darf auch im Lauf der Lade- und Entladezyklen nicht zu schnell weiterwachsen, weil das den Akku altern lässt. Das unerwünschte Schichtwachstum lässt sich zum Beispiel durch Einsatz eines sehr dünnen Festelektrolyten verhindern. Weil dieser mechanisch stabil ist, kann der „Sandwich“ Elektrode-Elektrolyt-Elektrode im Akkupack zusammengepresst werden. Das bremst einen unerwünschten Zuwachs der Passivierungsschicht.

Im Labor zeigt Jelena Popovic-Neuber zwei große Plexiglaskästen. Einer der beiden Kästen ist für Experimente mit Lithium, der andere für Natrium. Vorne gibt es jeweils zwei Öffnungen, durch die man in armlange, schwarze Handschuhe schlüpfen und so im Kasten hantieren kann. Die Kästen sind mit dem trockenen Edelgas Argon geflutet, um die Alkalimetalle vor dem Kontakt mit Luft zu schützen. Die Forscherin zeigt ein Stück Natrium, aus der mit einem Locheisen runde Stücke für Elektroden gestanzt werden. Daneben liegt eine zusammengeschraubte Testzelle. Spezielle elektrische Messungen, sogenannte Impedanzmessungen, verraten dem Team, wie die Grenzschicht auf den Elektroden chemisch und physikalisch aufgebaut ist.

Aber nicht nur für Alkalimetalle, auch für Erdalkalimetalle interessiert sich Jelena Popovic-Neuber. Magnesium- und Calcium-Ionen erlauben zwar nicht so hohe elektrische Spannungen wie Lithium, dafür kann jedes Ion eine zweifache positive Ladung tragen. „So kann man eine höhere Energiedichte erreichen“, sagt sie. Für bessere Akkus sind also viele Lösungen denkbar. Für Forschung und Entwicklung sind das elektrisierende Zukunftsaussichten.


 * Der Artikel ist erstmals unter dem Title: " Eine volle Ladung Energie – elektrisierende Ideen für leistungsfähigere Akkus" https://www.max-wissen.de/max-hefte/techmax-13-akkumulatoren/ in TECHMAX 13 (aktualisiert Frühjahr 2022) der Max-Planck-Gesellschaft erschienen und steht unter einer CC BY-NC-SA 4.0 Lizenz. Mit Ausnahme des verkürzten Titels wurde der Artikel wurde unverändert in den Blog übernommen.


Weiterführende Links

Matthias Kühne et al., 2016: Lithium ultraschnell zwischen zwei Graphenlagen. https://www.mpg.de/10977209/mpi-fkf_jb_20161?c=10583665&force_lang=de

Agora Verkehrswende (2019), Klimabilanz von Elektroautos. Einflussfaktoren und Verbesserungspotenzial, 2019: https://www.agora-verkehrswende.de/fileadmin/Projekte/2018/Klimabilanz_von_Elektroautos/Agora-Verkehrswende_22_Klimabilanz-von-Elektroautos_WEB.pdf

Alexander Freund , 2020: Natrium statt Lithium: Die Akkus der Zukunft. https://www.dw.com/de/natrium-statt-lithium-die-akkus-der-zukunft/a-54512116

Joachim Maier, 2011: Die Ausnützung von Größeneffekten für die elektrochemische Energieumwandlung. https://www.mpg.de/4647190/Elektrochemische_Energieumwandlung?c=11659628 und: Pioniere zwischen den Polen. https://www.mpg.de/1327542/lithiumbatterien


Artikel im ScienceBlog

IIASA, 24.03.2022: Anstelle von Stauseen, Staumauern, Rohrleitungen und Turbinen: Elektro-Lkw ermöglichen eine innovative, flexible Lösung für Wasserkraft in Bergregionen

Inge Schuster, 05.03.2021: Trojaner in der Tiefgarage - wenn das E-Auto brennt

Georg Brasseur,10.12.2020: Die trügerische Illusion der Energiewende - woher soll genug grüner Strom kommen?

Georg Brasseur, 24.09.20: Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität

Erich Rummich, 02.08.2012: Elektromobilität - Elektrostraßenfahrzeuge


 

inge Thu, 19.05.2022 - 13:14

Wie globale Armut vom Weltraum aus erkannt wird

Wie globale Armut vom Weltraum aus erkannt wird

Do, 12.05.2022 — IIASA

IIASA Logo

Icon Energie

Trotz der Erfolge bei der weltweiten Armutsbekämpfung in den letzten zwei Jahrzehnten leben noch immer fast eine Milliarde Menschen ohne Zugang zu verlässlicher und erschwinglicher Elektrizität; dies wirkt sich wiederum negativ auf Gesundheit und Wohlergehen aus und beeinträchtigt eine nachhaltige Entwicklung. Wenn Hilfe und Infrastruktur diese Menschen erreichen sollen, ist es von entscheidender Bedeutung zu wissen, wo sie sich befinden. Eine neue, vom International Institute of applied System Analysis (IIASA) geleitete Studie schlägt eine neuartige Methode zur Schätzung des globalen wirtschaftlichen Wohlstands anhand von nächtlichen Satellitenbildern vor.*

Nächtliche Satellitenbilder

Seit fast 30 Jahren verwenden Forscher Satellitenbilder der Erde bei Nacht, um menschliche Aktivitäten zu untersuchen. Es hat sich gezeigt, dass diese Bilder - gemeinhin als "nighttime radiance" (nächtliche Lichtemission) oder "nighttime lights" (nächtliche Beleuchtung) bezeichnet - helfen können, Aspekte wie Wirtschaftswachstum, Armut und Ungleichheit zu erfassen, insbesondere dort, wo Messdaten fehlen. In Entwicklungsländern weisen nachts unbeleuchtete Gebiete in der Regel auf eine limitierte Entwicklung hin, während hell erleuchtete Gebiete auf besser entwickelte Gebiete wie Hauptstädte hinweisen, in denen reichlich Infrastruktur vorhanden ist.

Bislang haben sich Wissenschaftler eher für die Daten aus den beleuchteten Gebieten interessiert, während die unbeleuchteten Gebiete in der Regel unberücksichtigt blieben. In einer Studie, die eben in Nature Communications veröffentlicht wurde, haben sich Forscher des IIASA und Kollegen aus mehreren anderen Einrichtungen jedoch speziell auf die Daten der unbeleuchteten Gebiete konzentriert, um das globale wirtschaftliche Wohlergehen abzuschätzen [1]. Abbildung 1.

Nächtlich beleuchtete Siedlungsgebiete und Wohlstand

Abbildung 1. Nighttime lights über der Nordhalbkugel.

"Während sich frühere Arbeiten eher auf den Zusammenhang zwischen beleuchteten Gebieten und wirtschaftlicher Entwicklung konzentrierten, haben wir herausgefunden, dass es auch andersherum funktioniert, und dass unbeleuchtete Gebiete ein guter Indikator für Armut sind. Indem wir diese unbeleuchteten Gebiete identifizieren, können wir gezielt Maßnahmen zur Armutsbekämpfung ergreifen und uns auf Orte konzentrieren, um dort den Zugang zur Energie zu verbessern", erklärt Studienautor und IIASA Strategic Initiatives Program Director, Steffen Fritz.

Die Forscher haben dazu einen harmonisierten georäumlichen Wohlstandsindex für Haushalte in verschiedenen Ländern Afrikas, Asiens und Amerikas verwendet, der im Rahmen des Demographic and Health Surveys (DHS)-Programms errechnet wurde und die einzelnen Haushalte auf einer kontinuierlichen Skala des relativen Wohlstands von ärmer bis reicher einordnet. Anschließend haben sie diese Daten mit Daten aus Satellitenbildern der weltweiten nächtlichen Beleuchtung in diesen Ländern kombiniert und heraus gefunden, dass 19 % der gesamten Siedlungsfläche des Planeten keine nachweisbare künstliche Strahlung aufweisen. Der größte Teil der unbeleuchteten Siedlungsflächen befand sich in Afrika (39 %) und Asien (23 %). Betrachtet man nur die unbeleuchtete ländliche Infrastruktur, so steigen diese Zahlen für Afrika auf 65 % und für Asien auf 40 %. In fast allen Ländern zeigen die Ergebnisse einen eindeutigen Zusammenhang zwischen einem steigenden Anteil unbeleuchteter Gemeinden in einem Land und einem sinkenden wirtschaftlichen Wohlstand. Abbildung 2.

Abbildung 2. Klassifizierung der weltweiten unbeleuchteten Siedlungsflächen. a) Prozentsatz des unbeleuchteten Siedlungsgebietes in den einzelnen Ländern (ländliche und urbane gebiete zusammengenommen). Ranking afrikanischer Staaten mit mehr als 50 Millionen Einwohnern nach dem Prozentsatz an unbeleuchteten städtischen (b) und ländlichen (c) Siedlungsflächen. (Bild: leicht modifizierte Fig. 1 aus McCallum et al.,2022 [1]. Lizenz: cc-by.Bild von Redn. eingefügt-)

"Basierend auf dem Prozentsatz unbeleuchteter Siedlungen, die wir in nächtlichen Satellitenbildern feststellten, waren wir in der Lage, eine Klassifizierung des Wohlstands von rund 2,4 Millionen Haushalten in 49 Ländern in Afrika, Asien und Nord- und Südamerika mit einer Genauigkeit von insgesamt 87 % vorherzusagen und zu kartieren. Überraschenderweise gab es auch in den Industrieländern, insbesondere in Europa, relativ viele unbeleuchtete Siedlungen. Für dieses Ergebnis kann es mehrere Gründe geben, u. a. die Tatsache, dass die Satellitenbilder nach Mitternacht aufgenommen wurden: Es könnte aber auch auf eine gewissenhafte Energie- und Kosteneinsparungspolitik von Hausbesitzern, Regierungen und Industrie in Europa zurückzuführen sein", so Ian McCallum, Leiter der IIASA-Forschungsgruppe Novel Data Ecosystems for Sustainability, der die Studie leitete.

Elektrifizierung zur Steigerung des Wohlstands

Die Forscher merken an, dass Regierungsbehörden in der Regel der Ausweitung des Stromzugangs eher in städtischen als in ländlichen Gebieten Priorität einräumen. Die Elektrifizierung des ländlichen Raums ist jedoch ein vielversprechender Ansatz zur Steigerung des Wohlstands und kann auch erhebliche positive Auswirkungen auf Einkommen, Ausgaben, Gesundheit und Bildung der Haushalte haben. Die Ziele für nachhaltige Entwicklung der Vereinten Nationen (SDGs) beinhalten ausdrücklich den Zugang zu erschwinglicher, zuverlässiger, nachhaltiger und moderner Energie für alle. Während es Bemühungen gibt, dieses Ziel zu erreichen, und in den letzten zwei Jahrzehnten erhebliche Fortschritte erzielt wurden, so gibt es Anzeichen dafür, dass Regierungen und Industrie Schwierigkeiten haben werden, mit dem erwarteten Bevölkerungswachstum Schritt zu halten.

Vor allem in den afrikanischen Ländern südlich der Sahara werden den Prognosen zufolge bis 2030 immer noch über 300 Millionen Menschen in extremer Armut leben. Die Auswirkungen der COVID-19-Pandemie werden um 2030 herum wahrscheinlich weitere 88 bis 115 Millionen Menschen in die extreme Armut treiben und damit die Ziele der Vereinten Nationen zur Verringerung der Armut um etwa drei Jahre zurückwerfen. Studien wie die vorliegende können jedoch dazu beitragen die Entwicklungsländer bei der Elektrifizierung zu verfolgen und die Industrieländer bei der Verringerung ihres Lichtenergieverbrauchs.

"Wenn die Methode, die wir in unserer Studie verwendet haben, fortlaufend angewandt wird, könnte sie Möglichkeiten bieten, das Wohlergehen und den Fortschritt in Richtung der SDGs zu verfolgen. Im Hinblick auf die Politik kann sie dazu beitragen, die Energiepolitik auf der ganzen Welt besser zu informieren, und sie kann auch bei der Gestaltung der Entwicklungshilfepolitik hilfreich sein, indem sie sicherstellt, dass wir die abgelegenen ländlichen Gebiete erreichen, die wahrscheinlich energiearm sind. Darüber hinaus könnte sie nützlich sein, um Anzeichen für ein nachhaltiges und ökologisches Beleuchtungsmanagement in den Industrieländern zu erkennen", schließt Shonali Pachauri, Leiterin der Forschungsgruppe Transformative institutionelle und soziale Lösungen.


  [1] McCallum, I., Kyba, C.C.M., Laso Bayas, J.C., Moltchanova, E., Cooper, M., Crespo Cuaresma, J., Pachauri, S., See, L., Danylo, O., Moorthy, I., Lesiv, M., Baugh, K., Elvidge, C.D., Hofer, M., Fritz, S. (2022). Estimating global economic well-being with unlit settlements. Nature Communications DOI: 10.1038/s41467-022-30099-9


* Der Artikel " Identifying global poverty from space"https://iiasa.ac.at/news/may-2022/identifying-global-poverty-from-space ist am 5.Mai 2022 auf der IIASA Website erschienen. Er wurde von der Redaktion möglichst wortgetreu übersetzt und durch eine Abbildung aus der zitierten Originalarbeit [1] und drei Untertitel ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


 

inge Thu, 12.05.2022 - 00:42

Warum Psychedelika eine Schlüsselrolle in der Behandlung von posttraumatischen Störungen und Depression erlangen können

Warum Psychedelika eine Schlüsselrolle in der Behandlung von posttraumatischen Störungen und Depression erlangen können

Do, 05.05.2022 — Redaktion

RedaktionIcon Gehirn Ecstasy und Psilocybin - der Wirkstoff in Magic Mushrooms (Zauberpilzen) - haben sich in klinischen Studien von posttraumatischen Störungen (PTBS) und Depressionen als vielversprechend erwiesen, und die US-Arzneimittelbehörde FDA hat Behandlungen mit diesen Substanzen als breakthrough therapies - bahnbrechende Therapien - eingestuft. Dies bedeutet Unterstützung der Behörde während des gesamten Prozesses der klinischen Prüfung und einen vorrangigen Review, sobald Daten vorliegen. Die Aussichten sind gut: Derzeit wird in über 200 klinischen Studien die Wirkung von Psilocybin oder MDMA bei Erkrankungen wie PTBS, schweren depressiven Störungen und Alkoholkonsumstörungen getestet.*

Die posttraumatische Belastungsstörung (PTBS),

wie wir sie heute kennen, wurde zum ersten Mal nach dem Zweiten Weltkrieg als eigenständige Diagnose bei Personen beschrieben, welche die Konzentrationslager der Nazis überlebt hatten; nichtdestoweniger war eine solche Störung im Laufe der Geschichte immer wieder erwähnt worden war, insbesondere im Ersten Weltkrieg. Die Patienten kehrten mit Angstzuständen, Depressionen und Albträumen heim. Sie waren oft erschrocken. In einer Abhandlung von 1963, die einige dieser frühen Beobachtungen zusammenfasste, schrieb der Psychiater Paul Chodoff: „Das vielleicht am weitesten verbreitete und charakteristischste Symptom war ein Zustand des zwanghaften Grübelns, in dem der Patient mehr oder weniger ständig mit Erinnerungen und Nachsinnen über seine Erlebnisse während der Verfolgung und über Familienmitglieder, die gestorben oder ermordet worden waren, beschäftigt war.“ Psychiater testeten eine Vielzahl von Behandlungen und von Medikamenten bis hin zur Expositionstherapie, für das, was Chodoff als „Konzentrationslagersyndrom“ bezeichnete.

Mehr als 70 Jahre nach den ersten Beobachtungen haben Patienten, bei denen heute eine PTBS diagnostiziert wird, immer noch wenige Behandlungsmöglichkeiten; höchstwahrscheinlich wird ihnen eine Kombination aus Therapie und Antidepressiva verschrieben. Bei einigen Patienten verbessern diese Behandlungen die Lebensqualität, aber viele andere bleiben jahrelang ohne Linderung von Albträumen, Rückblenden, schweren Schuldgefühlen und Angstzuständen, die mit der Erkrankung einhergehen können. Nach Angaben des US-Kriegsveteranenministerium wird bei etwa 6 Prozent der Amerikaner irgendwann in ihrem Leben eine PTBS diagnostiziert, unabhängig davon, ob sie beim Militär gedient haben oder nicht. PTBS wird oft mit Kriegstraumata in Verbindung gebracht, kann aber auch nach anderen traumatischen Erlebnissen auftreten, wie beispielsweise, wenn man in einen schweren Unfall verwickelt war, Zeuge eines Todes oder einer Verletzung oder Opfer eines sexuellen Übergriffs wurde.

Patienten und Wissenschaftler haben sich mehr Optionen gewünscht. „Wie viele Medikamente sind [in den USA und Europa] für PTBS zugelassen?“ fragt Eric Vermetten, Psychiater an der Universität Leiden in den Niederlanden und selbst ein Militärveteran. „Die Antwort lautet: zwei. Und wann wurden sie registriert? Vor 21 Jahren. Das sind 21 Jahre, in denen wir keine neuen Medikamente für PTBS zugelassen haben.“

Psilocybin, Wirkstoff der Zauberpilze

Aber vielleicht ist der Weg in die Zukunft ein Weg, der schon vor Jahrzehnten aufgegeben wurde. In den 1960er Jahren behandelte der Psychiater Jan Bastiaans, ebenfalls an der Universität Leiden, das KZ-Syndrom mit den psychedelischen Drogen LSD und Psilocybin (einem Wirkstoff in Zauberpilzen), weil er dachte, dass diese Patienten in ihrem Geist noch in den Lagern waren. Abbildung 1.

Er glaubte, „dass LSD oder Psilocybin sie soweit öffnen würde, dass sie sich selbst befreien könnten“, erklärt Vermetten. Andere Psychiater und Aufsichtsbehörden hielten die Therapie für zu gefährlich, auch wenn sie therapeutisches Potenzial hatte. Trotz der Kritik behandelte Bastiaans bis zu seiner Pensionierung im Jahr 1985 Patienten weiterhin mit den Medikamenten, aber zu diesem Zeitpunkt war er mit seiner Meinung über ihren therapeutischen Wert fast allein.

Abbildung 1. Psilocybinhaltige Pilze, vor allem Psilocyben (Kahlköpfe) sind weltweit verbreitet; hier: Psilocybe bohemica. Rechts: Vom Psilocybin wird im Körper die Phosphatgruppe abgespalten; es entsteht der psychoaktive Wirkstoff Psilocin (Foto: Gerhard Koller (Gerhard) at Mushroom Observer. Wikipedia; cc-by-sa)

Außerhalb der Niederlande war der Widerstand noch größer. 1968 verboten die Vereinigten Staaten den Besitz von LSD und stuften das Halluzinogen in der Liste 1 der Drogen ein. Zwei Jahre später wurde der Besitz von Psilocybin verboten.

MDMA (auch als Ecstasy oder Molly bekannt) hielt sich etwas länger, da es schon 1912 als potenzielles Therapeutikum synthetisiert wurde. Abbildung 2. In den 1970er Jahren hatten einige Psychiater damit begonnen, MDMA erneut als potenzielles Therapeutikum zu untersuchen; es wurde aber gleichzeitig als Partydroge verwendet und 1985 in den USA dann verboten.

Jetzt gewinnen diese Medikamente wieder an Akzeptanz, da Patienten und Ärzte ihre Frustration über die derzeitigen Behandlungsmöglichkeiten demonstriert haben.

In den letzten Jahren haben Studien gezeigt, dass schon wenige Dosen Psilocybin oder MDMA in Kombination mit einer Therapie Patienten mit PTBS oder anderen psychischen Erkrankungen helfen können. Die Ergebnisse waren so vielversprechend, dass die U.S. Arzneimittelbehörde (FDA) beide Behandlungen als breakthrough therapies - bahnbrechende Therapien - eingestuft hat – ein Status, der vielversprechenden Medikamenten, die für einen noch ungedeckten Bedarf designt wurden, Priorität einräumt. Ein Unternehmen, das ein solches Medikament entwickelt, wird von der FDA während des gesamten Prozesses der klinischen Prüfung unterstützt und erhält einen vorrangigen Review, sobald die Daten vorliegen. MDMA hat den Breakthrough-Status für die Behandlung von PTSD erhalten, während Psilocybin diesen Status für die Behandlung von behandlungsresistenten Depressionen bekommen hat.

„Als ich [mit der Forschung an Psilocybin] anfing, bestand die Vorstellung, dass man eine einzige Dosis eines Medikaments verabreichen könnte und die Menschen sich fast sofort besser fühlen würden und dies dann monatelang anhalten würde. Ich hätte das nicht für möglich gehalten“, sagt Joshua Woolley, ein Psychiater an der University of California in San Francisco, der sich mit Psilocybin beschäftigt. „Aber jetzt explodiert das Ganze… es gibt eine enorme Dynamik.“

Abbildung 2. MDMA oder Ecstasy hat einige Erfolge bei der Behandlung von PTBS gezeigt. Links: Strukturformel (von Redn. eingefügt), Rechts: MDMA in Pillenfom und zerkleinerte Pillen mit einem Orangensaft (Bild: Steve Liss/Getty Images).MDMA wirkt auf die Ausschüttung der Neurotransmitter Serotonin, Noradrenalin und (etwas schwächer) Dopamin.

Wie man annimmt, dass die Wirkung erfolgt

Die gängige Kategorie von Antidepressiva, die heute häufig zur Behandlung von PTBS verwendet werden, sind selektive Serotonin-Wiederaufnahmehemmer (SSRIs). Diese Medikamente wirken, indem sie die Menge an Serotonin erhöhen, die zur Bindung an Serotoninrezeptoren im Gehirn zur Verfügung steht. Serotonin ist ein Neurotransmitter, der hilft, Ihre Stimmung zu regulieren. Wenn mehr Serotonin an spezielle Rezeptoren bindet, kann es den Patienten helfen, sich stabiler und zufriedener zu fühlen. Abbildung 3 fasst die Biochemie von Serotonin in und an den Nervenzellen zusammen (von Redn. eingefügt).

Abbildung 3. Bildung, Transport, Wirkung und Abbau des Neurotransmitters Serotonin; vereinfachtes Schema: Bildung aus der Aminosäure Tryptophan im Neuron, Verpackung in Vesikeln und Release in den Spalt zwischen zwei Neuronen (synaptischer Spalt).Von dort diffundiert 5-HT einerseits an verschiedene 5-HT-Rezeptoren und löst das Signal aus oder es wird von der Monoaminoxidase inaktiviert oder über Serotonintransporter wieder in das Neuron aufgenommen. Blockierung von SERT erhöht die für Rezeptoren verfügbare Menge an Neurotransmitter (Bild & Legende von Redn. eingefügt.; die Grafik stammt von S. Jähnichen, https://de.wikipedia.org/wiki/Serotonin#/media/Datei:5-HT_Neuron.svg und steht unter cc-by-sa)

Psilocybin wirkt ebenfalls auf Serotoninrezeptoren (Anm. Redn.: siehe die ähnlichen Strukturen vn Serotonin und Psilocybin in Abbs. 1 und 3), aber Wissenschaftler sagen, dass die Wirkung des Medikaments weit über Serotonin hinausgeht. Sie glauben, dass das Medikament tatsächlich die Art und Weise verändert, wie Neuronen miteinander kommunizieren. „Wir sprechen von einem anderen Wirkungsmechanismus dieser Medikamente im Vergleich zu den alten serotonergen Verbindungen“, sagt Vermetten. „Der Wirkungsmechanismus beruht nicht auf einem einzigen Molekül.“

Viele Patienten, denen Antidepressiva verschrieben wurden, leiden unter einer Reihe von Nebenwirkungen, die von Magenverstimmungen bis zur Schlaflosigkeit reichen. Einer der Gründe, warum psychedelische Therapien so attraktiv sind, ist, dass sie angeblich mit nur wenigen Dosen wirken – was das Risiko von Nebenwirkungen begrenzt.

Woolley erklärt, dass die psychedelischen Drogen einen Zustand der Plastizität zu induzieren scheinen, der es den Menschen erleichtern kann, neuronale Schaltkreise neu zu verdrahten und neue Dinge zu lernen, in einer Weise wie sie es zum Beispiel als Kinder getan haben. Das bietet die Chance einer besonders effektiven Therapie. Es ist wahrscheinlicher, dass Patienten während ihrer Behandlung neue Verbindungen und Denkweisen annehmen.

Darüber hinaus, so Rakesh Jetly, Chief Medical Officer von Mydecine, einem Unternehmen, das psychedelische Medikamente entwickelt, und Veteran der kanadischen Armee, haben bildgebende Studien des Gehirns gezeigt, dass die Medikamente Veränderungen in einem Netzwerk von Zellen hervorrufen können, das uns normalerweise hilft zu verstehen, wer wir sind und wo wir uns in Zeit und Raum befinden, das sogenannte Standardmodus-Netzwerk. Die Störung dieses Schaltkreises könnte hinter den Symptomen vieler PTBS-Patienten stehen, die im Krieg ein Trauma erlebt haben. Wenn eine Person Angst hat, ist dies der Teil des Gehirns, der ihr sagt: „He, Du, dir geht es gut. Du bist nicht mehr [im Krieg] in Ruanda. Du [kämpfst] nicht in Afghanistan“, erklärt Jetly. Wenn das Standardmodus-Netzwerk jedoch nicht richtig funktioniert, hat die Person möglicherweise Schwierigkeiten zu erkennen, dass sie nicht mehr in Gefahr ist.

Zur Erfahrung mit Psychedelika

Abgesehen vom Experimentieren mit unterschiedlichen Dosierungen und Behandlungsplänen funktionieren die meisten psychedelischen Behandlungsprogramme ähnlich. Bevor ein Patient eine Dosis erhält, trifft er sich mit einem oder zwei Therapeuten oder Guides – nicht unbedingt Ärzten oder Psychiatern –, die ausgebildet sind, ihm mit ihrer Erfahrung helfen. Diese Experten erklären, wie die Behandlungssitzungen ablaufen werden und nehmen sich Zeit, um die Probleme und Ziele des Einzelnen vor der Behandlung zu besprechen.

Die Wirkung von Psychedelika setzt normalerweise nach 20 bis 40 Minuten ein und hält dann etwa sechs Stunden an. Während dieser Zeit hören manche Patienten Musik oder unterhalten sich mit den Therapeuten. Sie fühlen sich vielleicht nachdenklich und entspannt. Sie könnten auch halluzinieren. Manche Patienten können einen „schlechten Trip“ oder beängstigende Halluzinationen erleben. Therapeuten sind darin geschult, Patienteni zu helfen, mit auftretenden Ängsten oder Paranoia umzugehen. Ein Behandlungsschema kann eine ein- oder mehrtägige Dosierung umfassen, damit ist es aber noch nicht getan. „Was an diesen Behandlungen wirklich ungewöhnlich ist, ist, dass man den Menschen nicht nur das Medikament verabreicht“, sagt Wooley. „Millionen und Abermillionen von Menschen verwenden Psilocybin oder Magic Mushrooms und all diese Menschen werden nicht gesund.“

“Und die meisten Leute denken, dass es wahrscheinlich darauf ankommt, wie das Medikament verabreicht wird.” Wooley erklärt, dass die Umgebung wichtig ist. Die Patienten bereiten sich mental auf die Erfahrung vor und machen sie in einer ruhigen und vertrauten Umgebung durch, mit Therapeuten, denen sie vertrauen, anstatt beispielsweise von Konzertbesuchern umgeben zu sein, die sie zuvor nicht kannten.

Abbildung 4. Patient und Therapeut simulieren eine psychedelische Sitzung Eine Frau mit einem Arzt an ihrer Seite demonstriert, was ein Patient bei einer psychedelischen Behandlung in einer Therapieklinik erleben würde. Cole Burston/AFP über Getty Images

Diese Praxis unterscheidet sich von der Behandlung, mit der die meisten Patienten wahrscheinlich vertraut sind – der kognitiven Verhaltenstherapie (CBT) – einer Therapieform, die Menschen helfen soll, negative Denk- und Verhaltensmuster zu erkennen und zu ändern. „Jedem, der ab etwa 1980 zum Therapeuten ausgebildet wurde, hat man beigebracht, diese sehr direktive Psychotherapie, einen CBT-Ansatz, durchzuführen. „Wir werden darüber sprechen. Wir werden diese Fähigkeit lernen. Wie ist es gelaufen? Wenn Sie nach Hause gehen, möchten wir, dass Sie diese Hausaufgaben machen‘“, sagt Jetly. Aber einige Wissenschaftler denken, dass dieser Ansatz bei psychedelischen Behandlungen nicht besonders sinnvoll ist. Jetly ist der Ansicht, dass die Therapie mehr vom Patienten als vom Therapeuten geleitet werden sollte, was dem Einzelnen die Freiheit lässt, Assoziationen zwischen verschiedenen Erfahrungen herzustellen, die er zuvor möglicherweise nicht erkannt hat.

Neben verschiedenen Dosierungen und Formulierungen werden in unterschiedlichen Studien verschiedene Therapieansätze getestet. Zum Beispiel könnte das Hauptziel des Therapeuten nur darin bestehen, die Erfahrung zu lenken und die Patienten zu schützen, da sie Psychosen erleben oder sich unberechenbar verhalten könnten. Jetly ist der Ansicht, dass Therapeuten den Patienten dabei helfen sollten, alles zu besprechen, was ihnen in den Sinn kommt, aber nicht darauf bestehen sollten, sich auf bestimmte Ziele zu konzentrieren, wie dies während der CBT der Fall sein könnte. „Es gibt kein Richtig und Falsch, aber man hofft, dass die Patienten mit Medikament und Erfahrung in der Lage sein werden, Dinge anzusprechen, die ansonsten schmerzhaft waren, und vielleicht einige Konnexe herzustellen.“ Das könnte ihnen helfen, sich selbst besser zu verstehen und ihren Erlebnissen einen Sinn zu geben. Das Wichtigste, sagt Vermetten, ist, dass die Therapie nach der psychedelischen Behandlung fortgesetzt wird. „Das Medikament ist der Katalysator. Die Therapie ist nicht fertig, wenn man mit den zwei Sitzungen mit Psilocybin fertig ist“, sagt er. Zuerst werden die Patienten verarbeiten, was sie während der Behandlungen gefühlt haben, aber Vermetten sagt, dass viele Patienten weiterhin ihre Therapeuten aufsuchen werden, um sowohl die Erfahrungen während der Behandlung als auch alle anhaltenden Auswirkungen ihres Traumas zu besprechen.

Dennoch, sagt Wooley, ist es eine wichtige Herausforderung auf diesem Gebiet, die beste Therapieform zu bestimmen und die am besten qualifizierten Therapeuten anzubieten. Wenn auch die Medikamente nicht als süchtig machend gelten und die meisten bekannten Nebenwirkungen innerhalb von Stunden nachlassen, kann es Menschen besonders anfällig machen, unter ihrem Einfluss zu stehen. "Wie soll das geregelt werden?" fragt er. „Wenn Sie ein Medikament geben, das die Beeinflussbarkeit erhöht, ist es eine ziemlich tiefgreifende Kraft, die für schändliche Zwecke eingesetzt werden könnte.“ Ein Therapeut könnte jemanden dazu überreden, etwas zu tun, was er sonst nicht tun würde. Beispielsweise deutet eine STAT-Untersuchung darauf hin, dass ein Therapeut einen älteren Holocaust-Überlebenden um 4.000.000 Dollar erleichtert hat, als dieser sich einer psychedelischen Behandlung unterzog. Der Therapeut hatte mit dem Patienten eine romantische Beziehung und bot -dem Artikel zufolge - vermutlich auch an Sterbehilfe zu leisten nachdem der Patient Selbstmordgedanken geäußert hatte.

Sowohl Psilocybin als auch MDMA bleiben in den USA auf Bundesebene illegal, obwohl mehrere Städte dazu übergegangen sind, Psilocybin zu entkriminalisieren, und Oregon dazu übergegangen ist, eigene Regulierungen für den Konsum der Droge zu erlassen. Über 200 klinische Studien sind auf clinicaltrials.gov registriert, in denen die Wirkung von Psilocybin oder MDMA bei Erkrankungen wie PTBS, schweren depressiven Störungen und Alkoholkonsumstörungen getestet wird. Experten betonen aber, dass es noch einige Zeit dauern wird, bis die Medikamente allgemein verfügbar sind. „Wir möchten, dass die FDA diese als sichere und wirksame Behandlungen anerkennt“, sagt Jetly. „Also werden wir die Sicherheit und Wirksamkeit dieser Behandlungen nachweisen.“


*Der vorliegende Artikel stammt von Emma Yasinski Kim ist und ist unter dem Titel "Why Psychedelic Drugs May Become a Key Treatment for PTSD and Depression" am 3. Mai 2022 im Smithsonian Magazine erschienen https://www.smithsonianmag.com/science-nature/why-psychedelic-drugs-may-become-a-key-treatment-for-ptsd-and-depression-180979983/ (Lizenz: cc-by-nc-sa) Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit einigen Überschriften und Abbildungen (plus Legenden) ergänzt.


Weiterführende Links

Smithsonian Institution (Smithsonian, https://www.si.edu/): bedeutende US-amerikanische Forschungs- und Bildungseinrichtung, die auch zahlreiche Museen, Galerien und den Nationalzoo betreibt. Das Smithsonian stellt seine komplette Sammlung nach und nach in elektronischer Form (2D und teilweise 3D) unter der freien CC-0-Lizenz kostenlos zur Weiterverbreitung zur Verfügung. Aus dem Smithsonian Magazine stammt der obige Artikel.

inge Thu, 05.05.2022 - 15:51

Das ganze Jahr ist Morchelzeit - ein Meilenstein in der indoor Kultivierung von Pilzen

Das ganze Jahr ist Morchelzeit - ein Meilenstein in der indoor Kultivierung von Pilzen

So 01.05.2022  — Inge Schuster

Inge Schuster Icon Biologie Die Nutzung der nachhaltigen Ressource "Pilze" kann einen wesentlichen Beitrag zur globalen Ökonomie, insbesondere zur zukünftigen Welternährung liefern. Voraussetzung dafür ist die Möglichkeit ein weites Spektrum an Pilzarten zu züchten, um Massenproduktionen auf minimalen Kulturflächen zu erzielen. Für Spitzmorcheln, deren exzellenter Geschmack und rares Vorkommen sie zu den wertvollsten aber - nach den Trüffeln - auch teuersten essbaren Pilzen haben werden lassen, ist dies nun offensichtlich gelungen. Nach 40 Jahren Forschung haben es die Brüder Jacob and Karsten Kirk, Biologen an der University of Copenhagen Denmark, geschafft Spitzmorcheln über das ganze Jahr in Innenräumen zu ziehen und hohe Erträge (10 kg/m2 Kulturfläche) erstklassiger Pilze zu ernten

Seit meiner frühen Jugend haben mich Pilze fasziniert."Schwammerlsuchen" und neue Spezies aus der unglaublichen Vielfalt des - neben Pflanzen und Tieren - dritten großen Reichs eukaryotischer Lebewesen Kennenlernen (und vielleicht auch Zubereiten) haben von jeher zu meinen Lieblingshobbies gehört. Später wurde das Spektrum durch humanpathogene Pilze erweitert - ein langfristiges Thema meiner beruflichen Tätigkeit im Wiener Sandoz-Forschungsinstitut, aus dem mit "Lamisil", ein Blockbuster unter den antifungalen Medikamenten herausgekommen ist.

Schwammerlsuchen hat für mich bereits früh im Jahr begonnen. Mit Ausnahme der Wintermonate haben Pilze ja das ganze Jahr Saison; diese erstreckt sich von den Morcheln im Frühjahr bis zu den Austernseitlingen und Schopftintlingen im Spätherbst. So bin ich meisten schon in den ersten Märztagen losgezogen, um nach der frühesten Morchel-Verwandten, der Böhmischen Verpel (Verpa bohemica) zu suchen. Diese kleinen, unter dichtem abgestorbenem Laub kaum erkennbaren Pilze sind bereits nach 2 - 3 Wochen wieder verschwunden, abgelöst u.a. von den ebenfalls nur kurze Zeit auffindbaren Spitzmorcheln (Morchella elata). Abbildung 1. Auch weitere Morchelverwandte wie die Käppchenmorchel (Morchella semilibera) und die größeren Speisemorcheln (Morchella esculenta) haben eine nur kurze Saison.

Das stundenlange konzentrierte Absuchen des Waldbodens war nicht immer mit einer reichen Morchelernte - d.i. mit einer Ausbeute von mehr 0,25 kg Pilzen - belohnt. In anderen Worten es war ein recht mühsames Unterfangen, andererseits aber Erholung und Hobby.

Abbildung 1: Morcheln tauchen nur über kurze Zeit auf und sind - im abgestorbenen Laub versteckt - auch auf Grund ihrer "Tarnfarbe" nur schwer zu finden (oben: rote Pfeile). Unten: Getrocknete Köpfe von Spitzmorcheln. Fundstellen werden geheim gehalten und nur an engste Angehörige weitergegeben. (Bilder: Funde im Gebiet des Bisambergs, Wien; I.S).

Allgemeines zu den Morcheln…

Man schätzt, dass es im Reich der Pilze an die 2 Millionen unterschiedliche Arten gibt, wovon allerdings nur 5 % beschrieben sind. Morcheln gehören zu einer der großen Abteilungen, den sogenannten Schlauchpilzen (Ascomycetes); phylogenetische Studien haben bis jetzt an die 80 unterschiedlichen Morchelarten identifiziert (http://www.indexfungorum.org/).

Morcheln sind in den gemäßigten Zonen der nördlichen Hemisphäre - von Europa über Nordamerika bis Asien - zu finden. Sie lieben helle, sonnige Standorte, die feucht und windgeschützt sein sollen und erscheinen - wie bereits erwähnt -, wenn sich die ersten Blätterknospen der Bäume und Sträucher öffnen; ist es um diese Jahreszeit allerdings noch zu kalt oder zu trocken, können Morcheln in einem solchen Jahr auch völlig ausbleiben. Morcheln wachsen auf Böschungen, Wegrändern, Waldwiesen und in Flussauen - häufig vergesellschaftet mit Eschen, Ulmen und auch Fichten - aber auch in Parks und in Gärten und sie sind standorttreu. Kennt man Fundstellen (überliefert aus Familie und engstem Freundekreis), dann kann man dort jahrelang Pilze ernten - ein Vorteil, wenn diese in einem warmen Frühjahr von schnellwachsendem Gras und anderen Pflanzen bereits völlig verdeckt sind. Im Gegensatz zu diesen wildwachsenden Morcheln findet man diese sogar auf Rindenmulch; die Freude ist allerdings kurz. Nach einer Saison ist offensichtlich das Substrat verbraucht und die Pilze kommen nie wieder.

…und zur Spitzmorchel

Der Fruchtkörper setzt sich aus Hut und Stiel zusammen, die miteinander verbunden sind und einen Hohlkörper bilden. Abbildung 2. Der dunkle, in verschiedenen Braun- bis Schwarztönen gefärbte Hut ist wabenförmig mit ausgeprägten Längsrippen strukturiert und zwischen 3 bis zu 10 cm hoch. Die Gruben der Waben sind von schlauchartigen Strukturen, den sogenannten Asci (davon leitet sich der Name der Ascomyceten ab), ausgekleidet, welche jeweils 8 Sporen enthalten, die der Vermehrung und Ausbreitung dienen und bei ungünstigen Umweltbedingungen lange überdauern können. Die Längsrippen trennen die Gruben voneinander und sind steril.

Abbildung 2: Eine alte Darstellung der Spitzmorchel von Giacomo Bresadola (1822). Im aufgeschnittenen Pilz ist die Hohlkörperstruktur zu erkennen (rechts). Jeweils 8 Sporen befinden sich in Schläuchen , sogenannten Asci (Skizze links), die in den Gruben der Waben liegen, die begrenzenden Rippen sind steril. (Bild Wikimedia commons, gemeinfrei)

Das Besondere an den eher unscheinbaren Morcheln ist ihr exquisiter Geschmack. Bereits seit der Antike werden Morcheln als Delikatesse geschätzt. Angeblich liebte der römische Kaiser Claudius Morchelgerichte, seine Frau Agrippina vergiftete ihn mit einem solchen, dem sie Knollenbätterpilze beigefügt hatte. Die Verwechslung der Morchel mit der verwandten, giftigen Lorchel, soll zum Tod von Buddha geführt haben.

Mit den verwandten Trüffeln zählt man Morcheln zu den besten Speisepilzen (meiner Ansicht gehört auch noch der seltene Kaiserling Amanita caesarea dazu); dementsprechend sind sie nicht nur aus der Gourmetküche nicht wegzudenken. Es sind Spezialitäten, die auf Grund ihres raren Vorkommens sehr hohe Preise erzielen: der Marktwert für frische Spitzmorcheln liegt in unseren Breiten aktuell um die 150 €/kg, für getrocknete Pilze, die beim Trocknen ein noch intensiveres Aroma entwickeln, werden bis zu 700 €/kg verlangt. Märkte und Küchen werden bei uns hauptsächlich von Pilzsammlern beliefert, in den letzten Jahren nehmen aber bereits Importe getrockneter Pilze aus China zu (s.u.).

Dass man sich beim Morchelsammeln aber keine goldene Nase verdienen kann, zeigt eine rezente Untersuchung aus Michigan: 163 befragte Sammler gaben an im Durchschnitt 16 Tage auf Morcheljagd zu sein; von denjenigen, welche die Pilze auch verkaufen, werden jährlich im Schnitt rund 13 kg frische Spitzmorcheln/Speisemorcheln (zu 70 US $) auf den Markt gebracht [1].

Züchtung von Spitzmorcheln

Versuche diese Pilze zu züchten gibt es bereits seit mehr als hundert Jahren, bis vor kurzem waren diese aber wenig erfolgreich. Im letzten Jahrzehnt ist es nun in China gelungen mehrere Arten von Spitzmorcheln im Freiland zu kultivieren. Wie bei den natürlich vorkommenden Morcheln ist die Erntezeit auf einige Wochen im Frühjahr beschränkt. Von 2011 bis 2020 stieg die Anbaufläche von 200 ha auf 10 000 ha und der Ertrag von weniger als 750 kg/ha auf 15 000 kg/ha und der Jahresertrag auf 15 000 t frische Pilze. [2]. Abbildung 3 zeigt ein besonders ertragreiches Feld.

Der Ernteertrag wirkt auf den ersten Blick sehr beeindruckend. Eine Untersuchung zum Morchelanbau von 2019 bis 2020 ergab jedoch, dass die Hälfte der Felder keine Früchte trugen oder nur schwaches Wachstum aufwiesen und mehr als 70 % der Produzenten keine stabilen Gewinne erzielen konnten [1]. Die Misserfolge können dabei auf viele Faktoren zurückzuführen sein: von ungeeigneter Bodenbeschaffenheit, ungünstigen Bodenmikroben, instabiler Qualität der Morchelstämme, bis hin zu Krankheitserregern und schlechten Umweltbedingungen (z. B. Temperatur, Feuchtigkeit [2].

Abbildung 3: Freilandkultur von Spitzmorcheln. Boden mit besonders hohem Ertrag.(Bild aus Yu F.M. et al., (2022) [1]. Lizenz:cc-by)

Bereits 1982 hatten Forscher der Michigan State University und San Francisco State University ein Verfahren zur Züchtung der Morchella rufobrunnea, einer verwandten gelben Morchel, unter kontrollierten Bedingungen in Innenräumen entwickelt, das sie später patentierten und in einer Produktionsstätte in Alabama zur Anwendung brachten. In den ersten Jahren soll die Ernte wöchentlich an die 700 kg Morcheln erbracht haben. Eine Infektion der Anlage und die Weltwirtschaftskrise 2008 brachten die Produktion zum Erliegen.

Es erscheint merkwürdig, dass seit vielen Jahren außer den Erfindern niemand in der Lage ist, Morcheln nach den Beschreibungen des Patents herzustellen.

Das dänische Morchelprojekt

In den späten 1970er Jahren haben die Brüder Jacob und Karsten Kirk, damals noch Biologie-Studenten an der Universität Kopenhagen, begonnen Pilze zu züchten und experimentierten vorerst mit leicht kultivierbaren Typen wie den Champignons und Austernseitlingen. Ihr Interesse wandte sich aber bald den Spitzmorcheln zu, die sie für eine zwar herausfordernde aber zugleich lohnendere Spezies hielten. Das angestrebte Ziel war eine Massenproduktion dieser Pilze unter kontrollierten Bedingungen in Innenräumen über das ganze Jahr. Nach fast 40 Jahren Entwicklungsarbeit scheinen sie nun dieses Ziel erreicht zu haben [3].

Spitzmorcheln stellen einen großen Artenkomplex von nahe verwandten Spezies dar, die unterschiedliche Wachstumsbedingungen aufweisen können. Auf Reisen in mehrere europäische Länder haben die Kirk-Brüder jedes Frühjahr Spitzmorcheln gesammelt und in Zusammenarbeit mit der Universität Kopenhagen daraus Mycelien isoliert, diese auf speziellem Nähragar aufgetragen und unter sterilen Bedingungen sogenannte Sklerotien hergestellt, das sind aggregierte, nährstoffreiche, winterharten, braune knotenartige Strukturen - eine bei Pilzen auftretende Dauerform - , die unter anderem den Nährstoffhintergrund für die Fruchtkörperbildung im Frühjahr bilden. Die (u.a. in flüssigem Stickstoff gelagerten) Sklerotien bildeten dann die Grundlage für Kultivierungsversuche, die in mindestens 20 m2 großen, angemieteten Klimakammern erfolgten. Über Jahre wurde an der Entwicklung einer optimalen Morchelerde getüftelt, die nun in Paletten mit witterungsbeständigen Kunststoff-Boxen eingebracht wird. Auch die Entwicklung eines optimalen Programms für Beleuchtung, Temperatur und Feuchtigkeit erstreckte sich über mehrere Jahre.

Insgesamt ist es nun gelungen aus 73 von 80 ganz unterschiedlichen genetischen Varianten der Spitzmorcheln Fruchtkörper zu ziehen, die allerdings in Wachstumsraten, Größe und Aussehehen sehr unterschiedlich waren. Zwei der Varianten erwiesen sich als besonders produktiv: bei einem Ernteertrag von rund 4,2 kg /m2 innerhalb von 22 Wochen ergibt vor allem Variante 195 prachtvolle, exzellent schmeckende überdurchschnittlich große Pilze von über 25 g, die allein stehen und leicht zu ernten sind. (Bezogen auf einen Jahresertrag von rund 10 kg/m2 ist das eine etwa 7 mal größere Ausbeute als in den saisonalen chinesischen Freilandanbauten erzielt wurde; s.o.) Insgesamt wurden so mehr als 150 kg Morcheln geerntet. Ein kurzes Video zeigt Methode und Pilze [4].

Outlook

Die Kultivierungsmethode der Kirk-Brüder kann als Meilenstein in der Pilzzucht betrachtet werden. Sie vereint beste Wachstumsbedingungen, optimale genetische Varianten, Böden und Nährstoffe. Die Kultivierung erfolgt ohne Pestizide und erfordert auch keine besonderen Schutzmaßnahmen beim Arbeiten in den Klimakammern. Morcheln können damit über das ganze Jahr hindurch geentet werden und voraussichtlich zu niedrigen Preisen, die denen von Champignons und anderen etablierten Pilzen entsprechen.

Die Methode ist nun soweit entwickelt, dass eine großtechnische Produktion ins Auge gefasst werden kann. Zweifellos werden die Erfolge mit den Spitzmorcheln auch auf viele andere Pilzarten übertragbar sein: Ohne Verbrauch wertvoller Agrarflächen kann so auf minimalem Raum eine Massenproduktion von Pilzen aufgebaut werden, die nicht nur einen Beitrag zur zukünftigen Welternährung liefern sondern auch als Ressource für viele großtechnische Verfahren dienen können.


[1] Malone, T. et al. Economic Assessment of Morel (Morchella spp.) Foraging in Michigan, USA. Econ Bot (2022). https://doi.org/10.1007/s12231-022-09548-5

[2] Yu, F.-M. et al., Morel Production Associated with Soil Nitrogen-Fixing and Nitrifying Microorganisms. J.Fungi 2022, 8, 299. https://doi.org/10.3390/jof8030299

[3] Jacob Kirk &Karsten Kirk: Controlled Indoor Cultivation of Black Morel (Morchella sp.) All-year-round.  https://thedanishmorelproject.com/

[4] The Danish Morel Project: Controlled Indoor Cultivation of Morel Mushrooms All-year-round. Video 1:15 min.  https://www.youtube.com/watch?v=A3E78Q20RlE

inge Sun, 01.05.2022 - 18:42

Grünes Tuning - auf dem Weg zur künstlichen Photosynthese

Grünes Tuning - auf dem Weg zur künstlichen Photosynthese

Do, 21.04.2022 — Christina Beck & Roland Wengenmayr Christina BeckRoland WengenmayrIcon Biologie

Eine Herausforderung des 21. Jahrhunderts ist die Eindämmung des Klimawandels. Und das heißt, dass es uns gelingen muss, den Anteil von Treibhausgasen in der Atmosphäre zu reduzieren. Kohlenstoffdioxid aus der Luft mithilfe von Sonnenenergie nutzbar machen – diesen Prozess beherrschen Pflanzen bereits seit Jahrmillionen. Eröffnet die künstliche Photosynthese einen Weg, um aus Kohlenstoffdioxid mithilfe von Licht nachhaltig Rohstoffe zu produzieren? Ein Team um Tobias Erb, Direktor am Max-Planck-Institut für terrestrische Mikrobiologie in Marburg, arbeitet daran, diesen Prozess so zu „tunen“, dass er mehr Kohlenstoff binden kann. Mit ihrem synthetisch-biologischen Ansatz wollen die Max-Planck-Forschenden biologische Prozesse jedoch nicht nur schrittweise verbessern, sondern auch ganz neue Lösungen umsetzen, die in dieser Form in der Natur nicht zu finden sind – eine Idee mit vielversprechendem Potenzial.*

Jedes Jahr holen Photosynthese treibende Organismen rund 400 Milliarden Tonnen Kohlenstoffdioxid (CO2) aus der Luft. Im natürlichen Kohlenstoffkreislauf entsprach das genau der Menge an CO2, die durch geologische und biologische Prozesse wieder freigesetzt wurde – bis mit Beginn des Industriezeitalters (etwa um 1750) der Mensch anfing, zunehmend fossile Brennstoffe wie Kohle, Erdöl und Erdgas, in denen der Kohlenstoff aus Jahrtausenden bis Jahrmillionen unterirdisch gespeichert war, zu verbrennen. Dadurch bringen wir den Kohlenstoffkreislauf zunehmend aus dem Gleichgewicht: Aktuell emittieren wir jährlich 38 Gigatonnen CO2 zusätzlich, also knapp ein Zehntel des natürlichen Kreislaufs. Ein Verfahren, welches das überschüssige Kohlenstoffdioxid wieder aus der Atmosphäre entfernt und gleichzeitig noch sinnvoll nutzt, wäre also hochwillkommen. Tobias Erb, Direktor am Max-Planck-Institut für terrestrische Mikrobiologie treibt aber nicht primär der Kampf gegen den Klimawandel an. Zunächst einmal will er verstehen, wie sich Kohlenstoffdioxid in organische Moleküle umwandeln lässt. „Wenn wir das Treibhausgas mit biologischen Methoden als Kohlenstoffquelle erschließen und dabei aus der Atmosphäre entfernen könnten, wäre das natürlich ein toller Nebeneffekt“, sagt der Max-Planck-Forscher.

Zentral für das Leben

Evolutionär betrachtet ist die Photosynthese ein ausgesprochen erfolgreicher biochemischer Prozess und sehr gut in der Lage, die Anforderungen der biologischen Funktionen zu erfüllen: Einfach zusammengefasst, wandelt sie das CO2 aus der Luft mithilfe von Sonnenenergie und Wasserstoff in Kohlenhydrate um. Um Wasserstoff zu gewinnen, müssen Pflanzen dabei Wassermoleküle spalten. Den überschüssigen Sauerstoff gibt die Pflanze an die Umwelt ab. Ein Teil der Kohlenhydrate liefert die nötige Energie zum Leben, der andere Teil wird zum Grundbaustein für die Produktion großer Biomoleküle. Mit diesen wächst die Biomasse an – die Pflanze speichert so den Kohlenstoff aus der Atmosphäre.

Der Prozess hat aber auch seine Grenzen. So beträgt die Effizienz der Umwandlung von eingestrahltem Sonnenlicht in Biomasse bei der biologischen Photosynthese (ohne den Eigenverbrauch der Pflanze) gerade mal ein Prozent. Das ist nichts im Vergleich zu gängigen Fotovoltaikanlagen, die rund 20 Prozent der eingesammelten Sonnenenergie in elektrische Energie umwandeln. Ein Flaschenhals für die Effizienz ist die Transpiration der Pflanzen. Über die Spaltöffnungen der Blätter, die sogenannten Stomata, nehmen Pflanzen nicht nur das CO2 aus der Luft auf, sondern verdunsten dabei gleichzeitig auch Wasser. Die Verdunstung verbraucht jedoch wesentlich mehr Wasser als die Photosynthese-Reaktion. Indem die Pflanze den Verlust an Wasser begrenzt, schränkt sie auch den Gasaustausch und die Photosyntheseleistung ein.

Begrenzte Leistung

Als einen weiteren limitierenden Faktor hat Axel Kleidon, Forschungsgruppenleiter am Max-Planck-Institut für Biogeochemie, die Thermodynamik ausgemacht. Als Erdsystemforscher untersucht er wichtige chemische, geologische und physikalische Prozesse und Stoffkreisläufe auf der Erde. Das erfordert einen Blick auf das Große und Ganze: „Der CO2-Transport an die Blätter erfolgt durch die große Umwälzanlage der Thermik, indem erwärmte, befeuchtete und CO2-ärmere Luft vom Boden aufsteigt und kühlere, trockenere und CO2-reichere Luft absinkt“, erklärt Kleidon. Der Motor dafür ist die Erwärmung der Erdoberfläche durch die Sonnenstrahlung. Dadurch entsteht ein Temperaturunterschied, der eine atmosphärische Wärmekraftmaschine antreibt. „Diese Maschine leistet so viel wie möglich, sie begrenzt aber auch die Verdunstung und damit den Nachschub an CO2 für die Photosynthese“, so der Physiker. Denn der Wärmefluss, der die Maschine antreibt, baut auch den Temperaturunterschied wieder ab und reduziert so ihren Wirkungsgrad. Die biologische Photosynthese ist also immer nur so effektiv, wie der thermodynamisch geleistete Nachschub. „Natürliche Ökosysteme und auch die Landwirtschaft operieren schon nah an ihrer Leistungsgrenze, substanzielle Steigerungen sind hier kaum zu erwarten“, betont Kleidon daher.

Die Biologie lässt sich nicht weiter optimieren, wenn die Physik ihr Grenzen setzt. Aber die heute gut erforschten fotosynthetischen Prozesse in Pflanzen, Algen und Bakterien können als Vorbild dienen für die Entwicklung einer künstlichen Photosynthese. Der künstliche Nachbau der Photosynthese gilt dabei als eine Art „Apollo-Projekt“ unserer Zeit: Damit ließen sich Kohlenstoffverbindungen nachhaltig mithilfe von Licht aus Kohlenstoffdioxid herstellen. Sonnenlicht wäre dafür die ultimative Ressource, denn die Sonne sendet ungefähr 15 000-mal mehr Energie zur Erde als die Menschheit verbraucht. Die technische Umsetzung der beiden Teilprozesse der Photosynthese, der Primär– und der Sekundärreaktion, befindet sich dabei in unterschiedlichen Entwicklungsstadien. Für die Primärreaktion wurden fotovoltaische Lösungen realisiert, die hinsichtlich der Photonenausbeute dem natürlichen Prozess entsprechen. Für die technische Umsetzung der Sekundärreaktion konnte bisher keine mit dem natürlichen System konkurrierende katalytische Lösung gefunden werden. Doch genau das ändert sich gerade – dank der Forschungsarbeiten von Tobias Erb.

Die Umwandlung von atmosphärischem CO2 in energetisch höherwertige Kohlenstoffverbindungen erfolgt in Pflanzen über den nach seinem Entdecker benannten Calvin-Zyklus. Der US-amerikanische Biochemiker Melvin Calvin verfolgte mit seiner Arbeitsgruppe an der University of California in Berkeley Ende der 1940er Jahre, wie aus radioaktiv markiertem Kohlenstoffdioxid in einem Kreisprozess Kohlenhydrate hergestellt wurden. 1961 erhielt er für diese Arbeiten den Nobelpreis für Chemie. Für den Ablauf der chemischen Reaktionen, die im Stroma der Chloroplasten stattfinden, werden als Voraussetzung lediglich ATP als Energiequelle und NADPH/H+ als Reduktionsmittel benötigt. Das zentrale Enzym, das die Bindung von CO2 katalysiert, heißt Ribulose-1,5-bisphosphatcarboxylase/-oxygenase, kurz Rubisco (Abbildung 1). Es ist eines der häufigsten Proteine der Natur. „Nimmt man das Proteom, also alle Proteine zusammengefasst in einem Blatt, so besteht das zu fünfzig Prozent aus Rubisco“, erklärt Tobias Erb.

Abbildung 1: Das CO2-bindende Enzym des Calvin-Zyklus heißt Rubisco. Es ist sehr komplex gebaut und besteht aus 16 Untereinheiten. Auf jeden Menschen kommen etwa fünf Kilogramm Rubisco. Aus dem Kohlenstoffdioxid, das im Volumen eines gewöhnlichen Wohnzimmers vorhanden ist, kann die Pflanze mithilfe des Enzyms eine Prise Zucker produzieren.© Grafik: A. Bracher / © MPI für Biochemie

Dabei ist Rubisco keine optimale Lösung, wenn es um die Effizienz der Kohlenstofffixierung geht. Denn trotz seiner wichtigen Rolle arbeitet Rubisco relativ langsam: Ein Molekül kann nur etwa fünf bis zehn CO2-Moleküle in der Sekunde umsetzen. Und es ist sehr ineffizient, da es nicht nur CO2 bindet, sondern auch Sauerstoff. Als Rubisco vor rund drei Milliarden Jahren entstand, war das noch kein Problem – da gab es nämlich noch keinen Sauerstoff in der Atmosphäre. Als sich dieser jedoch mehr und mehr anreicherte, konnte sich das Enzym dieser Veränderung nicht anpassen. Zwanzig Prozent der Reaktionen laufen unerwünscht mit dem Sauerstoff ab. Die Pflanzenzelle kann mit dem daraus entstehenden toxischen Produkt nichts anfangen. Sie muss es in einem aufwändigen Prozess, der sogenannten Photorespiration, umwandeln, wobei wiederum CO2 freigesetzt wird. Dieser Prozess verpulvert bis zu einem Drittel der durch die Photosynthese eingefangenen Energie – was die Pflanzen sich aber angesichts der unbegrenzten Verfügbarkeit von Sonnenenergie leisten können.

Stoffwechsel 2.0

Tobias Erb setzt derweil auf eine effizientere Alternative zu Rubisco, die er vor einigen Jahren mit seinem Team im Bodenbakterium Kitasatospora setae entdeckt hat. Das betreibt zwar keine Photosynthese, musste aber lernen, seinen Bedarf an Kohlenstoff in einer kohlenstoffarmen Umwelt zu decken. Dazu entwickelte dieses Bakterium eine höchst wirksame Klasse von Enzymen mit dem Namen Enoyl-CoA Carboxylase/Reduktase, kurz ECR. Sie können das Kohlenstoffdioxid etwa zwanzigmal schneller verarbeiten als das pflanzliche Rubisco – nicht zuletzt deshalb, weil dabei auch kaum Fehler auftreten.

Dieser Fund brachte Erb auf die Idee, eine künstliche, hocheffiziente Alternative zum Calvin-Zyklus quasi neu zu erfinden und dabei Hochleistungsenzyme wie ECR zu nutzen. Die Herausforderung bestand darin, dass an dem Prozess noch ein gutes Dutzend anderer Enzyme beteiligt sind, die fein aufeinander abgestimmt sein müssen. Entfernt man auch nur eines davon, dann bricht der biochemische Prozess zusammen. „Das Enzym ist eigentlich nur so etwas wie ein neues Computerprogramm“, erklärt Erb. „Damit es aber funktioniert, mussten wir – um im Bild zu bleiben – ein komplettes neues Betriebssystem aufbauen.“ Dazu suchte das Team Enzyme zusammen, die jeweils ihre Aufgabe im „Betriebssystem“ möglichst optimal erledigen (Abbildung 2). Sie fanden sich in so unterschiedlichen Organismen wie Purpurbakterien, Gänserauke und sogar der menschlichen Leber. Einige Enzyme mussten auch chemisch umgebaut werden.

Abbildung 2: Entwurf und die Realisierung künstlicher Stoffwechselwege zur effizienteren CO2-Reduktion mithilfe der synthetischen Biologie: Der CETCH-Zyklus besteht aus 17 verschiedenen Enzymen, die aus insgesamt neun verschiedenen Organismen (farblich gekennzeichnet) stammen. Drei dieser Enzyme wurden mit Computerunterstützung maßgeschneidert, um eine entsprechende Reaktion zu katalysieren. © acatech/Leopoldina/Akademienunion auf Grundlage von T. Erb

Das Ergebnis nennt sich „CETCH-Zyklus“. Es ist der erste künstliche Stoffwechselweg zur biologischen CO2-Fixierung. Mit 15 bis 17 Einzelschritten ist er vergleichbar komplex wie sein natürliches Vorbild, arbeitet aber wesentlich effizienter und zudem fehlerfrei: Theoretische Berechnungen zeigen, dass der CETCH-Zyklus lediglich 24 bis 28 Lichtquanten pro fixiertem, also gebundenem CO2-Molekül benötigt. Verglichen mit der natürlichen Sekundärreaktion in Pflanzen (ca. 34 Lichtquanten pro CO2-Molekül) braucht der künstliche Stoffwechselweg damit bis zu 20 Prozent weniger Lichtenergie. Im Reagenzglas sei der Designer-Stoffwechselweg bereits funktionsfähig, so der Max-Planck-Forscher. Zu den aufgereinigten Proteinen, die beteiligt seien, müsse man noch ATP als Energielieferant hinzugeben, und der CETCH-Zyklus laufe los.

Photosynthese im Reagenzglas

Praktisch musste das Marburger Team dies erst einmal in einem künstlichen Photosynthesesystem beweisen. Doch wie konstruiert man eine künstliche photosynthetisch aktive Zelle? „Als allererstes benötigten wir ein Energiemodul, das es uns erlaubt, chemische Reaktionen nachhaltig zu betreiben. Bei der Fotosynthese liefern Chloroplasten-Membranen die Energie für die Kohlenstoffdioxid-Fixierung. Ihre Fähigkeiten wollten wir nutzen“, erklärt Erb. Der aus der Spinatpflanze isolierte Photosynthese-Apparat zeigte sich robust genug, um auch im Reagenzglas die Energie aus dem Licht, die Elektronen und den Wasserstoff bereitzustellen. Für die Sekundärreaktion setzten die Forschenden den von ihnen selbst entwickelten CETCH-Zyklus ein (Abbildung 3).

Der heutige Chloroplast (oben links) hat sich in 3,5 Milliarden Jahren zu einer effizienten molekularen Maschine entwickelt. Der künstliche Chloroplast (oben rechts) wurde in weniger als 7 Jahren entworfen und realisiert (grün: Thylakoidmembranen). Abb. D: links © Science History Images / Alamy Stock; rechts © T. Erb, MPI für terrestrische Mikrobiologie / CC-BY-NC-SA 4.0

Nach mehreren Optimierungsrunden gelang dem Team tatsächlich die lichtgesteuerte Fixierung des Treibhausgases Kohlenstoffdioxid in vitro. „Mit der Plattform können wir neuartige Lösungen umsetzen, die die Natur während der Evolution nicht beschritten hat“, sagt Erb. Nach seiner Einschätzung bergen die Ergebnisse großes Zukunftspotenzial. So konnten die Forschenden zeigen, dass der künstliche Chloroplast mithilfe der neuartigen Enzyme und Reaktionen Kohlenstoffdioxid 100-mal schneller bindet als bisherige synthetisch-biologische Ansätze. „Langfristig könnten lebensechte Systeme in praktisch allen technologischen Bereichen Anwendung finden, einschließlich Materialwissenschaften, Biotechnologie und Medizin“, hofft der Max-Planck-Forscher.

Noch sind die künstlichen Chloroplasten nur feine Wassertröpfchen von knapp 100 Mikrometern Durchmesser, die in einer Ölemulsion schwimmen (Abbildung 4). Sie sind nur zwei Stunden lang stabil. Trotzdem können sie erstaunlicherweise selbstständig aus dem gebundenen Kohlenstoff messbare Mengen der Verbindung Glykolat herstellen. Daraus lassen sich bereits eine Vorstufe des Antibiotikums Erythromycin oder ein Duftstoff auf Terpen-Basis herstellen, wie Erbs Team zeigen konnte.

Abbildung 4. Diese Tröpfchen haben 90 Mikrometer Durchmesser und sind ein Beispiel für halb künstliche Chloroplasten aus Marburg. Sie enthalten bereits Thylakoidmembranen aus echten Chloroplasten, in denen die Primärreaktion der Fotosynthese abläuft. © T. Erb, MPI für terrestrische Mikrobiologie / CC BY-NC-SA 4.0

Grüne Fabriken

Alternativ zum rein künstlichen Fotosynthesesystem forscht das Team auch daran, die Enzyme für den CETCH-Zyklus gentechnisch in lebende Zellen einzubauen. „In E. coli-Bakterien ist uns das bereits zu neunzig Prozent gelungen“, berichtet Tobias Erb. Der nächste Schritt ist der gentechnische Einbau des CETCH-Zyklus in den Stoffwechsel einzelliger Algen – eine viel größere Herausforderung, da sie weitaus weniger erforscht sind als E. coli und deutlich komplexere Zellstrukturen besitzen. Außerdem ist die Entwicklung synthetischer Algenstämme durch ihre niedrigere Wachstumsrate langwieriger. Gelingt der Einbau, so wären große „Algenfabriken“ denkbar, die CO2 besonders effektiv in Biomasse umwandeln können. Das wäre dann tatsächlich ein Schritt hin zur Bewältigung einer der größten Herausforderungen unserer Zeit: die Reduktion der ständig steigenden Konzentration von atmosphärischem Kohlenstoffdioxid.


 *Der Artikel ist erstmals unter dem Titel: "Grünes Tuning - auf dem Weg zur künstlichen Fotosynthese" https://www.max-wissen.de/max-hefte/kuenstliche-fotosynthese in BIOMAX 37, Frühjahr 2022 erschienen und wurde unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


 Weiterführende Links

Tobias Erb, Max-Planck-Institut für terrestrische Mikrobiologie:  https://www.mpi-marburg.mpg.de/erb

MPG: Synthetic Chloroplast Production using a Microfluidic platform (Untertitel) Video 2,3 min. https://www.youtube.com/watch?v=NLf4LJ5Z4a4

Tobias Erb on Designing a More Efficient System for Harnessing Carbon Dioxide. Video 3,59 min. https://www.youtube.com/watch?v=CPFscyYRS10

Künstliche Photosynthese Forschungsstand, wissenschaftlich-technische Herausforderungen und Perspektiven:  https://www.acatech.de/publikation/kuenstliche-photosynthese-forschungsstand-wissenschaftlich-technische-herausforderungen-und-perspektiven/download-pdf/?lang=de

Rund um die Photosynthese - Artikel im ScienceBlog

Historisches

Photosynthese in der Biosphäre

Auf dem Weg zur künstlichen Photosynthese

inge Thu, 21.04.2022 - 00:16

Comments

KEINESWEGS ZU BAGATELLISIEREN - neue Befunde zum neuropathologischen Potential von COVID-19

KEINESWEGS ZU BAGATELLISIEREN - neue Befunde zum neuropathologischen Potential von COVID-19

Sa 16.04.2022  — Inge Schuster

Inge Schuster Icon Medizin Als vor nun bereits mehr als zwei Jahren die ersten COVID-19 Fälle auftraten, wurden diese primär als schwere, einen hohen Todeszoll fordernde Erkrankung der Atemwege klassifiziert. Mittlerweise gibt es weltweit mehr als eine halbe Milliarde bestätigte SARS-CoV-2 Infizierte (und knapp 6,2 Millionen daran Verstorbene) und es ist offensichtlich, dass das Virus auch in anderen Organen Schäden anrichten und Langzeitfolgen - long Covid - nach sich ziehen kann. Darunter fallen neurologische Beschwerden, deren Pathogenese noch wenig verstanden ist. Modelluntersuchungen an infizierten Affen, die milde bis moderate Atemwegserkrankungen entwickeln, aber vergleichbare neuropathologische Befunde in Hirngeweben wie an COVID-19 verstorbene Patienten aufweisen, geben erste Einblicke in die Virus-ausgelösten Entzündungsprozesse, die in vielen Hirnregionen auftreten und Schädigung und Absterben von Nervenzellen bewirken können.

Mehr als 30 % der hospitalisierten Patienten aber auch Personen mit milden Krankheitssymptomen und sogar asymptomatische Infizierte können ein weites Spektrum an neurologischen Beschwerden entwickeln, die häufig als unspezifisch, vielleicht sogar als eingebildet angesehen werden. Neben - zum Teil dauerhaften - Störungen des Geruchs- und Geschmacksinns sind dies u.a. kognitive Probleme, Konzentrationsstörungen ("Gehirnnebel"), dauernde Erschöpfung, Schlafstörungen und persistierende Kopfschmerzen. Am Ende des Spektrums stehen zweifelsfreie Diagnosen von Schlaganfällen, Gehirn- und Gehirnhautentzündungen (Enzephalitis, Meningitis) und dem Guillain-Barré Syndrom (Zerstörung der Myelinummantelung von peripheren Nerven durch überschießende Immunreaktion); mehrere Studien berichten auch über Parkinsonerkrankungen, die zwei bis fünf Wochen nach der Infektion auftraten.

Als Reaktion auf das Virus, kann die Immunantwort - selbst wenn das Virus nicht mehr nachweisbar ist - zu weiteren Entzündungsprozessen im Gehirn führen und Schädigungen von Gefäßen, Zellen und Funktionen, insbesondere der neuronalen Signalübertragung verursachen. Dies geht aus Untersuchungen hervor, die an Hirngeweben von an COVID-19 verstorbenen Patienten ausgeführt wurden: einerseits konnte das Virus und seine Genprodukte in Hirnarealen nachgewiesen werden, andererseits wurden - auch wenn das Virus dort nicht (mehr) detektierbar war - Entzündungen festgestellt, die zu undichten Blutgefäßen und Gerinnseln führten (dazu im ScienceBlog: [1, 2]). Die Pathogenese der neurologischen Symptome blieb allerdings weiterhin unklar.

Neue Befunde

In den letzten Tagen sind einige Studien erschienen, die das Verstehen der neuropathologischen Konsequenzen von COVID-19 erheblich verbessert haben. Untersuchungen zu ultrastrukturellen Veränderungen des Riechtrakts können erstmals die Schwächung des Riechsystems bis hin zum persistierenden vollständigen Geruchsverlust erklären [3]. An relevanten Modellen - nicht-menschlichen Primaten - konnte der Infektionsprozess verfolgt und damit erstmals eine umfassende Beschreibung der durch SARS-CoV-2 Infektion ausgelösten Neuropathologie möglich werden [4, 5]. In den Gehirnen von SARS-CoV-2 infizierten nicht-menschlichen Primaten wurden zudem Aggregate von alpha-Synuclein gefunden, einem Charakteristikum der Parkinsonerkrankung [5]. Dazu passend haben in vitro-Untersuchungen ergeben, dass das Nukleocapsid-Protein des Virus (das in Hirnarealen von Patienten nachgewiesen wurde [1]) mit dem für die neuronale Funktion wichtigen alpha-Synuclein interagiert und die Bildung zelltoxischer Faserbündel auslöst [6].

Wesentliche Ergebnisse dieser Studien werden im Folgenden skizziert.

Neuropathologische Veränderungen im Riechsystem

Neben den Beeinträchtigungen der Atemwege gehören Riech -und Geschmacksstörungen zu den häufigsten Symptomen von COVID-19. Bis zu 70 % der Infizierten leiden unter solchen, bis zum totalen Riechverlust gehenden Störungen. Dies ist auch bei jungen, zuvor gesunden Menschen der Fall, wie die kürzlich erschienene erste Human Challenge Studie zeigte: ein minimales Virus-Inokulum hatte dort ausgereicht, um eine milde Infektion der Atemwege hervorzurufen, allerdings waren zwei Drittel der Infizierten von Riechstörungen bis hin zu Riechverlust betroffen, die zum Teil auch nach 9 Monaten noch andauerten. [7]

Eine neue, aus verschiedenen US-amerikanischen Institutionen stammende Multicenter-Studie hat nun erstmals ultrastrukturelle Veränderungen des Riechkolbens und des Riechtrakts festgestellt, welche die Schwächung des Riechsystems bis hin zum vollständigen Geruchsverlust erklären können. [3]. Zur Erläuterung: Im Riechkolben, der an der Basis des Gehirns liegt, werden Nervensignale aus der Nasenschleimhaut zusammen mit Informationen über spezifische Gerüche an weiterführenden Neuronen im Gehirn übertragen (Abbildung 1).

Abbildung 1: Das menschliche Riechsystem (Olfacory System), vereinfachtes Schema. Duftstoffe, die in die Nasenschleimhaut (Regio olfactoria) der oberen Nasenhöhle gelangen, binden an Rezeptoren von bipolaren Riechneuronen, deren zentrales Axon durch die knöcherne Siebplatte hindurch in Form von Riechfäden in den Riechkolben gelangt. Diese von glialen Membranen (Gliazellen) umhüllten, dichten sphäroiden Nervengeflechte (sogenannte Glomeruli olfactorii) sind über Synapsen mit den Mitralzellen verbunden, Neuronen, die über ihre Axone Signale an Hirnareale zur Verarbeitung zu unbewussten und bewussten Geruchswahrnehmungen weiterleiten. (Bild modifiziert aus Andrewmeyerson, https://commons.wikimedia.org/wiki/File:Olfactory_System_Large_Unlabeled.jpg. Lizenz: CC-BY-SA-3.0

Um herauszufinden wie die Infektion auf zelluläre Prozesse des Riechens einwirkt, haben die Forscher Gewebe des Riechkolbens und des Riechtrakts von an COVID-19 Verstorbenen und von einer dazu passenden Kohorte an anderen Ursachen Verstorbener ("Kontrollgruppe") isoliert und mit (elektronen)mikroskopischen, histochemischen und molekularbiologischen Methoden analysiert [3]. In den Geweben wurde auf vorhandenes Virus geprüft und Strukturen und Charakteristika der Zellen, der Blutgefäße und die Zahl intakter Axone (welche die Signale der Neuronen weiterleiten) untersucht. Im Vergleich zu den Kontrollen, stellten die Forscher bei den COVID-Patienten schwere pathologische Veränderungen an den Axonen bis hin zum Verlust von Axonen fest und sogenannte Mikrovaskulopathie, d.i. Verletzungen kleinster Blutgefäße. Diese Veränderungen waren besonders ausgeprägt bei Patienten, die über Geruchsbeeinträchtigungen geklagt hatten, standen jedoch in keinem Zusammenhang mit dem Schweregrad der Atemwegserkrankung, dem Zeitverlauf der Infektion oder der Detektierbarkeit von Virus im Riechgewebe. Tatsächlich konnte in den Riechkolben der meisten COVID-19 Patienten kein Virus nachgewiesen werden.

Die Analysen weisen darauf hin, dass nicht das Virus direkt sondern Entzündungsreaktionen als Folge der Infektion zur Schädigung von Nervenzellen und Reduktion bis hin zur Zerstörung ihrer Axone führt. Sinkt die Zahl funktionsfähiger Axone, können Signale nur abgeschwächt bis gar nicht mehr an das Hirn weitergeleitet werden und dies kann - abhängig von der Fähigkeit neue Neuronen zu generieren (Neurogenese) - leider ein permanenter Zustand sein.

Neuropathologische Auswirkungen von SARS-CoV-2 auf nicht-menschliche Primaten

Tiermodelle, welche die neuropathologischen Befunde in Hirngeweben von an COVID-19 verstorbenen Patienten widerspiegeln, können einen essentiellen Beitrag zur Aufklärung der Neuropathogenese dieser Infektion leisten. Tracy Fisher und ihr Team am Tulane National Primate Research Center (Tulane University, New Orleans) haben langjährige Erfahrung mit Modellen unserer nächsten Verwandten, den Makaken (Rhesusaffen und grünen Meerkatzen), insbesondere mit Untersuchungen an deren Gehirnen. (Im übrigen: Makaken werden seit langem als aussagekräftige Modelle genutzt, um einerseits einen Einblick in die Pathogenese von Infektionskrankheiten zu gewinnen und anderseits, um Strategien zur deren Prävention und Behandlung  zu testen.) Seit dem Beginn der Corona-Pandemie haben die Forscher zudem die Gehirne von an COVID-19 Verstorbenen untersucht. Die Ergebnisse an den Affen stimmen mit Autopsiestudien von an COVID-19 verstorbenen Menschen überein, die Tiere dürften also geeignete Modelle für die Vorgänge im Menschen darstellen. Untersuchungen von Tracy Fischer haben so zum Verständnis des Infektionsgeschehens beigetragen, insbesondere wie eine Infektion mit dem Virus zu langfristigen Entzündungen und Schäden an zahlreichen Organen führen kann.

Abbildung 2: Die Infektion von Makaken mit SARS-CoV-2 führt zwar nicht zu schweren Atemwegserkrankungen, löst aber ausgeprägte morphologische Änderungen bis hin zum Zelltod von Neuronen aus . Dargestellt sind Hämatoxylin/Eosin gefärbte histologische Schnitte des Cerebellums von grünen Meerkatzen (Zellkerne: blau; oben: Körnerschicht). Im Bild links: eine gesunde Schichte von Purkinje-Zellen im Cerebellum eines nicht infizierten Kontrolltiers (RM6), Mitte und rechts: Pfeile weisen auf irreversibel verdichtete (pyknotische) und aufgelöste (karyolytische) Zellkerne und Ausbuchtungen der Zellmembran (cellular blebs) in infizierten Tieren (AGM3 und AGM4). (Bild modifiziert aus [4], Lizenz cc-by].

In der aktuellen Studie [4] wird nun gezeigt, dass eine Infektion mit SARS-CoV-2 (WA1/2020) im Gehirn von Makaken zu massiven Entzündungen des Nervengewebes, zu Mikroblutungen und reduzierter Sauerstoffzufuhr (Hirnhypoxie) führt, dass Neuronen degenerieren und absterben. Abbildung 2 zeigt als Beispiel die Schädigung von Purkinje-Zellen (multipolaren Neuronen mit stark verästeltem Dendriten in der Kleinhirnrinde (Cortex cerebelli)). Lecks in Blutgefäßen und durch Sauerstoffmangel hervorgerufene Schädigungen des Gehirngewebes dürften somit eine häufige Komplikation einer SARS-CoV-2-Infektion sein.

Die Tiermodelle erweisen sich dabei als besonders bedeutsam, weil die neuronalen Symptome bei infizierten Tieren beobachtet werden, die keine schweren Atemwegserkrankungen entwickeln: diese Modelle könnten somit einen Einblick in die bis dato "Black Box" von long-Covid erlauben.

SARS-CoV-2 Infektion von Makaken, Gehirnentzündung und Aggregation von alpha-Synuclein

Ein Team aus holländischen/belgischen Wissenschaftern hat ebenfalls Makaken (Rhesus- und Cynomolgus-Makaken) als Modell verwendet, um die neurologischen Auswirkungen einer Infektion mit SARS-CoV-2 (Beta Variante) zu untersuchen [5). Im Zentrum stand die Frage wieweit solche Auswirkungen fünf bis sechs Wochen nach leichten bis mittelschweren Infektionen auftreten können.

Abbildung 3: Überblick über die Auswirkungen einer leichten SARS-CoV-2-Infektion auf das Zentralnervensystem von Makaken. 15 Hirnregionen wurden untersucht. Infiltration aktivierter T-Zellen und Mikkrogliazellen wurde in praktisch allen Hirnregionen der infizierten Tiere in geringfügigem Ausmaß (hellblau) und moderatem Ausmaß (dunkelblau) detektiert. alpha-Synuclein Aggregate traten in den orangefarbenen Regionen auf. Virus (gelb) wurde in mehreren Regionen nur in einem Tier (C3) nachgewiesen. (Bild modifiziert aus [5], Lizenz cc-by].

Die Studie wurde an post-mortem entnommenen Gewebe aus 15 unterschiedlichen Gehirnregionen ausgeführt. Diese wurden auf Detektierbarkeit von Virus (Antigen und RNA) und Immunreaktion - Infiltration von aktivierten T-Zellen und Mikroglia-Zellen (das sind die primären Immunzellen des Gehirns, entsprechend den peripheren Makrophagen) - untersucht.

Virus wurde nur in einem Makaken (C3) in 7 Gehirnregionen nachgewiesen, Entzündungsreaktionen - Infiltrationen von Immunzellen - traten dagegen in allen infizierten Tieren, nicht aber in Kontrolltieren und mit Ausnahme des Markhirns (medulla oblongata) in allen untersuchten Hirnregionen auf, auch wenn dort weder virales Antigen oder RNA nachweisbar waren. Abbildung 3.

Eine ganz wesentliche neue Erkenntnis war, dass in den Gehirnen aller infizierter Rhesus Affen und eines Cynomolgus Affen, nicht aber in den Kontrollen, Aggregate von alpha-Synuclein entstanden waren [5]. Es sind dies runde Einschlüsse im Zytoplasma von Nervenzellen - sogenannte Lewis bodies -die als Charakteristikum der Parkinson-Erkrankung gelten und für das Absterben von Dopamin-produzierenden Neuronen verantwortlich gemacht werden. Interessanterweise kommt es bei Parkinson häufig zu einem Riechverlust noch bevor sich motorische Defekte zeigen. Ein Überblick über die Auswirkungen einer leichten SARS-CoV-2 Infektion auf das Zentralnervensystem ist in Abbildung 3 gegeben.

Wie kommt es zur alpha-Synuclein Aggregation?

Abbildung 4: Das Nukleocapsid-Protein (N-Protein) von SARS-CoV-2 interagiert mit mehreren Kopien von alpha-Synuclein und löst deren Aggregation zu zelltoxischen Faserbündeln aus. (Bild aus [7], Lizenz: cc-by-nc-nd) .

Wie eingangs erwähnt gibt es eine Reihe von Fallstudien, in denen bei relativ jungen Personen einige Wochen nach COVID-19 eine Parkinsonerkrankung ausgebrochen ist. Auf der Suche nach einem möglichen molekularen Zusammenhang zwischen den beiden Erkrankungen haben Forscher entdeckt, dass mehrere Kopien des neuronalen α-Synuclein zumindest in vitro an das Nukleocapsid-Protein (aber nicht an andere Proteine) von SARS-CoV-2 binden und die Bildung von zelltoxischen Aggregaten auslösen [7]. Wurden beide Proteine zusammen in ein Zellmodell von Parkinson injiziert, so führte dies zu einem beschleunigten Absterben der Zelle. Wie man sich diese Aggregation vorstellen kann, ist in Abbildung 4 dargestellt.

Fazit

SARS-CoV-2 Infektionen dürfen nicht auf die leichte Schulter genommen werden!

Nach einem milden Krankheitsverlauf und sogar in asymptomatischen Fällen können neurologische Langzeitfolgen - long-COVID - auftreten und es besteht die Gefahr, dass diese durch erhebliche Schädigungen im Gehirngewebe verursacht werden können. Dies lassen Untersuchungen an nicht-menschlichen Primaten (Makaken) befürchten - aussagekräftigen Modellen, die einen Einblick in die Pathogenese von Infektionskrankheiten erlauben und Möglichkeiten bieten deren Prävention und Behandlung  zu testen. Diese mit dem ursprünglichen SARS-CoV-2 Virus oder mit der beta-Variante infizierten Tiere haben zwar nur milde Atemwegserkrankungen entwickelt, wiesen aber in vielen Hirnregionen massive neuropathologische Veränderungen auf, die vergleichbar waren mit den Schädigungen der an COVID-19 verstorbenen Patienten: Entzündungsprozesse in weiten Hirnregionenm die zum Absterben von Nervenzellen führen, Lecks in Blutgefäßen und Blutgerinnsel können eine Erklärung für Langzeitfolgen bis hin zu Schlaganfällen, Hirn(haut)entzündungen und auch beobachteten Parkinson-Fällen bieten.


[1] Inge Schuster, 07.01.2022: Was ist long-Covid?

[2] Francis S.Collins, 15.01.2021: Näher betrachtet: Auswirkungen von COVID-19 auf das Gehirn

[3] Ho C, Salimian M, Hegert J, et al. Postmortem Assessment of Olfactory Tissue Degeneration and Microvasculopathy in Patients With COVID-19. JAMA Neurol. Published online April 11, 2022. doi:10.1001/jamaneurol.2022.0154

[4] Ibolya Rutkai et al., Neuropathology and virus in brain of SARS-CoV-2 infected non-human primates. Nature Commun.(01.04. 2022) https://doi.org/10.1038/s41467-022-29440-z

[5] Ingrid HCHM Philippens et al., Brain Inflammation and Intracellular alpha-Synuclein Aggregates in Macaques after SARS-CoV-2 Infection. Viruses (08.04.2022) 14, 776. https://doi.org/10.3390/v14040776

[6] Slav A. Semerdzhiev et al., Interactions between SARS-CoV-2 N-Protein and α-Synuclein Accelerate Amyloid Formation. ACS Chemical Neuroscience, (03.12.2021); 10.1021/acschemneuro.1c00666

[7] Inge Schuster, 12.02.2022: Wie verläuft eine Corona-Infektion? Ergebnisse der ersten Human-Challenge-Studie


Artikel über COVID-19 im ScienceBlog

Seit Beginn der Pandemie sind dazu bis jetzt 44 Artikel im Blog erschienen.

Die Links zu diesen Artikeln sind in chronologischer Reihenfolge in Themenschwerpunkt Viren gelistet.


 

inge Sat, 16.04.2022 - 18:56

Eindämmung des Klimawandels - Die Zeit drängt (6. IPCC-Sachstandsbericht)

Eindämmung des Klimawandels - Die Zeit drängt (6. IPCC-Sachstandsbericht)

Do, 7.04.2022 — IIASA

IIASA Logo

Icon Klima

Nach den ersten beiden Teilen des neuen Sachstandsberichts ( 6.Assessment Report, AR6), die sich mit den"Naturwissenschaftlichen Grundlagen" (Arbeitsgruppe 1: 9. August 2021) und mit "Folgen, Anpassung und Verwundbarkeit " (Arbeitsgruppe 2: 28. Feber 2022) des Klimawandels befassten, hat der Weltklimarat ((Intergovernmental Panel of Climate Change - IPCC) nun den dritten Teil (Arbeitsgruppe 3: 4. April 2022) herausgegeben, der die "Minderung des Klimawandels" zum Thema hat [1]. Der aus 17 Kapiteln bestehende, insgesamt 2913 Seiten lange Bericht untersucht, woher die globalen Emissionen stammen und erklärt die Entwicklungen zur Reduktion der Emissionen und zur Minderung der Erderwärmung. Es ist der erste IPCC-Report, der eine eingehende Untersuchung dazu abgibt, wie Verhalten, Entscheidungen und Konsum von uns Menschen zur Eindämmung des Klimawandels beitragen können. An dem Bericht haben 278 Experten federführend mitgewirkt, weitere Autoren haben zu spezifischen Fragen Beiträge geleistet. Drei Forscher vom International Institute of Systems Analysis (IIASA, Laxenburg) haben als Hauptautoren und Koordinatoren der Arbeitsgruppe mitgearbeitet.*

Abbildung 1. Aus anthropogenen Quellen stammende Treibhausgasemissionen in den letzten drei Jahrzehnten. (Abbildung von der Redn. eingefügt aus [2] https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_PressConferenceSlides.pdf)

Im Zeitraum 2010 - 2019 befanden sich die durchschnittlichen globalen Treibhausgasemissionen auf dem höchsten Stand in der Menschheitsgeschichte, die Geschwindigkeit des Anstiegs hat sich aber (gegenüber dem vorhergehenden Jahrzehnt; Redn.) verlangsamt (Abbildung 1). Ohne sofortige und tiefgreifende Emissionsminderungen in allen Sektoren ist die Begrenzung der globalen Erwärmung auf 1,5 °C unerreichbar. Allerdings gibt es laut Aussagen der Wissenschafter Im jüngsten Sachstandbericht des Weltklimarates (IPCC) zunehmende Evidenz, dass Klimaschutzmaßnahmen erfolgreich sind. (Das Ziel der Null Emissionen wurde von mindestens 826 Städten und 103 Regionen angenommen. Einige Länder haben eine kontinuierliche Abnahme der Emissionen erreicht, die mit einer Erderwärmung um 2 °C kompatibel ist. Anm. Redn. aus [2] eingefügt.)

Seit 2010 haben sich die Kosten für Solar- und Windenergie sowie für Batterien fortlaufend um bis zu 85 % gesenkt. Durch immer mehr Richtlinien und Gesetze wurde die Energieeffizienz verbessert, die Abholzungsraten verringert und der Einsatz erneuerbarer Energien beschleunigt. Abbildung 2.

Abbildung 2. Kosten für erneuerbare Energie sind z.T. niedriger als für fossile Brennstoffe (oben) und ihr Anteil an elektrischen System steigt stark (unten). (Abbildung von der Redn. eingefügt aus [2] https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_PressConferenceSlides.pdf.)

Wir stehen an einem Scheideweg. Die Entscheidungen, die wir jetzt treffen, können eine lebenswerte Zukunft sichern. Wir haben die Werkzeuge und das Know-how, die erforderlich sind, um die Erwärmung zu begrenzen“, sagte IPCC-Vorsitzender Hoesung Lee. „Die Klimaschutzmaßnahmen, die in vielen Ländern ergriffen werden, geben mir Mut. Es gibt Richtlinien, Vorschriften und Marktinstrumente, die sich als wirksam erweisen. Wenn diese verstärkt und breiter und gerechter angewendet werden, können sie tiefgreifende Emissionsminderungen unterstützen und Innovationen anregen.“

Der Bericht der Arbeitsgruppe III bietet eine aktualisierte globale Bewertung der Fortschritte und Zusagen zur Eindämmung des Klimawandels und untersucht die Quellen der globalen Emissionen. Er erläutert Entwicklungen bei den Bemühungen zur Emissionsreduzierung und -minderung und bewertet die Auswirkungen nationaler Klimaschutzverpflichtungen in Hinblick auf langfristige Emissionsziele.

In allen Sektoren gibt es Optionen die Emissionen bis 2030 mindestens zu halbieren

Laut den Autoren wird die Begrenzung der globalen Erwärmung große Veränderungen im Energiesektor erfordern. Abbildung 3. Dies wird eine erhebliche Reduzierung im Verbrauch fossiler Brennstoffe bedeuten, eine weitreichende Elektrifizierung, eine verbesserte Energieeffizienz und die Verwendung alternativer Brennstoffe (etwa wie Wasserstoff). Mit den richtigen Regeln, Infrastrukturen und verfügbaren Technologien zur Änderung unseres Lebensstils und Verhaltens, können die Treibhausgasemissionen bis 2050 um 40–70 % gesenkt werden. Dass solche Änderungen des Lebensstils die Gesundheit und das Wohlbefinden verbessern können, ist evident.

Abbildung 3. Vom Energie- bis zum Transportsektor: In allen Sektoren gibt es Möglichkeiten die Emissionen bis 2030 auf die Hälfte zu reduzieren. (Abbildung von der Redn. eingefügt aus [2] https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_PressConferenceSlides.pdf.)

Städte und andere urbane Gebiete bieten ebenfalls erhebliche Möglichkeiten zur Reduzierung von Emissionen. Dies kann durch einen geringeren Energieverbrauch (z. B. durch die Schaffung kompakter, in Gehdistanz angelegter Städte), die Elektrifizierung des Verkehrs kombiniert mit emissionsarmen Energiequellen und eine verbesserte Kohlenstoffaufnahme und -speicherung unter Nutzung der Natur erreicht werden. Es gibt Optionen für etablierte, schnell wachsende und neue Städte.

Die Reduzierung von Emissionen in der Industrie wird die effizientere Nutzung von Materialien, die Wiederverwendung und das Recycling von Produkten und die Minimierung von Abfall beinhalten. Für Grundstoffe, einschließlich Stahl, Baumaterialien und Chemikalien, befinden sich treibhausgasarme oder treibhausgasfreie Produktionsverfahren in Phasen, die von Pilot- bis zu nahezu kommerziellen Stadien reichen. Dieser Sektor ist für etwa ein Viertel der weltweiten Emissionen verantwortlich. Das Erreichen von Netto-Null wird eine Herausforderung sein und neue Produktionsprozesse, emissionsarmen und emissionsfreien Strom, Wasserstoff und gegebenenfalls die Abscheidung und Speicherung von Kohlenstoff erfordern.

Land- und Forstwirtschaft sowie andere Landnutzungen können in großem Maßstab Emissionen reduzieren und Kohlendioxid in großem Maßstab entfernen und speichern. Land kann jedoch verzögerte Emissionsminderungen in anderen Sektoren nicht kompensieren. Reaktionsoptionen können der Biodiversität zugute kommen, uns bei der Anpassung an den Klimawandel unterstützen und Lebensgrundlagen, Nahrungsmittel, Wasser und Holzvorräte sichern.

Eine wichtige neue Komponente des Berichts der Arbeitsgruppe III ist ein neues Kapitel zu den sozialen Aspekten der Emissionsminderung, das die „Nachfrageseite“ untersucht, mit anderen Worten, was treibt die Konsumation und die Treibhausgasemissionen an. Signifikante Veränderungen in den Bereichen Verkehr, Industrie, Gebäude und Landnutzung werden es den Menschen erleichtern, einen kohlenstoffarmen Lebensstil zu führen, und gleichzeitig das Wohlbefinden verbessern. Bis 2050 hat eine Kombination aus wirksamen Strategien, verbesserter Infrastruktur und Technologien, die zu Verhaltensänderungen führen, das Potenzial, die Treibhausgasemissionen um 40 bis 70 % zu reduzieren.

"Die Vorgangsweise im kommenden Jahrzehnt ist entscheidend dafür das 1,5-Grad-Ziel in Reichweite zu halten. Gleichzeitig ist es wichtig zu erkennen, dass – selbst wenn es uns nicht gelingt, die globale Erwärmung auf 1,5 °C zu begrenzen, – es wichtig ist, die Klimaschutzmaßnahmen weiter voranzutreiben. Weniger Klimawandel ist aus Sicht des Risikomanagements eindeutig besser“, sagt Volker Krey, Leiter der IIASA Integrated Assessment and Climate Change Research Group und einer der Hauptautoren des Berichts.

Investitionslücken schließen, Ungleichheiten überbrücken und die Ziele für nachhaltige Entwicklung erreichen

Abseits von den Technologien zeigt der Bericht, dass die Finanzströme zwar um einen Faktor drei- bis sechsmal niedriger sind als das Niveau, das bis 2030 erforderlich ist, um die Erwärmung auf unter 2 °C zu begrenzen, es jedoch genügend globales Kapital und Liquidität gibt, um Investitionslücken zu schließen. Dies hängt jedoch von klaren Signalen der Regierungen und der internationalen Gemeinschaft ab, einschließlich einer stärkeren Angleichung von Finanzen und Politik im öffentlichen Sektor.

„Die Abschätzung hebt die großen Unterschiede im Beitrag verschiedener Regionen, Nationen und Haushalte zu den globalen Treibhausgasemissionen hervor. Beispielsweise haben die am wenigsten entwickelten Länder (LDCs) und die kleinen Inselentwicklungsstaaten (SIDS) in der Vergangenheit nicht wesentlich zu den globalen Treibhausgasemissionen beigetragen, und sie tun dies auch jetzt nicht“, bemerkt die Hauptautorin des Kapitels, Shonali Pachauri, die die Forschungsgruppe für Transformative institutionelle und soziale Lösungen am IIASA leitet. „Für die Bevölkerung in emissionsarmen Ländern, die keinen Zugang zu modernen Energiediensten und einem angemessenen Lebensstandard haben, hat die Bereitstellung eines universellen Zugangs zu diesen Diensten keine wesentlichen Auswirkungen auf das globale Emissionswachstum.“

Beschleunigte und gerechte Klimaschutzmaßnahmen zur Minderung und Anpassung an die Auswirkungen des Klimawandels sind für eine nachhaltige Entwicklung von entscheidender Bedeutung. Einige Optionen können Kohlenstoff absorbieren und speichern und gleichzeitig den Gemeinden helfen, die mit dem Klimawandel verbundenen Auswirkungen zu begrenzen. Beispielsweise können in Städten Netze von Parks und Freiflächen, Feuchtgebiete und städtische Landwirtschaft das Hochwasserrisiko verringern und Hitzeinseleffekte reduzieren.

Minderung in der Industrie kann Umweltauswirkungen verringern und Beschäftigungs- und Geschäftsmöglichkeiten erhöhen. Die Elektrifizierung mit erneuerbaren Energien und Verlagerungen im öffentlichen Verkehr können Gesundheit, Beschäftigung und Gerechtigkeit verbessern.

Die nächsten Jahre sind kritisch

Die von Arbeitsgruppe III bewerteten Szenarien zeigen, dass eine Begrenzung der Erwärmung auf etwa 1,5 °C voraussetzt, dass die globalen Treibhausgasemissionen spätestens vor 2025 ihren Höhepunkt erreichen und bis 2030 um 43 % reduziert werden müssen. Abbildung 4. Gleichzeitig müsste auch Methan um etwa ein Drittel reduziert werden. Selbst wenn dies getan wird, ist es fast unvermeidlich, dass wir diese Temperaturschwelle vorübergehend überschreiten, aber bis zum Ende des Jahrhunderts wieder unterschreiten könnten.

Abbildung 4. Globale Treibhausgasemissionen: Modellierte Pathways (Abbildung von der Redn. eingefügt aus [2] https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_PressConferenceSlides.pdf) . Zu den Klimamodellen siehe unten: Artikelserie im ScienceBlog.

Die globale Temperatur wird sich stabilisieren, wenn die Kohlendioxidemissionen netto Null erreichen. Für eine Begrenzung auf 1,5 °C bedeutet dies, dass wir Anfang der 2050er Jahre weltweit Netto-Null-Kohlendioxidemissionen erreichen; für 2 °C ist dies in den frühen 2070er Jahren der Fall. Die Bewertung zeigt, dass die Begrenzung der Erwärmung auf etwa 2 °C immer noch erfordert, dass die globalen Treibhausgasemissionen spätestens vor 2025 ihren Höchststand erreichen und bis 2030 um ein Viertel reduziert werden.

„Der Bericht zeigt, wie wichtig die nächsten Jahre bis 2030 dafür sind, ob wir die Erwärmungsziele des Pariser Abkommens erreichen können. Wir haben die notwendigen Optionen und Investitionen aufgezeigt. Der Ball liegt jetzt bei der Politik, um die Umsetzung zu beschleunigen“, schließt Keywan Riahi, koordinierender Hauptautor und IIASA-Programmdirektor für Energie, Klima und Umwelt.


 [1] Working Group III Report to the Sixth Assessment Report of the IPCC: Climate Change 2022. Mitigation of Climate Change https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_FinalDraft_FullReport.pdf

[2] Sixth Assessment Report of the IPCC: Press Conference 4.4.2022, Slide Show https://report.ipcc.ch/ar6wg3/pdf/IPCC_AR6_WGIII_PressConferenceSlides.pdf


 * Die Presseaussendung "New IPCC Report: we can halve emissions by 2030." https://iiasa.ac.at/news/apr-2022/new-ipcc-report-we-can-halve-emissions-by-2030  ist am 6. April 2022 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch 4 Abbildungen aus den IPCC-Report/Press Conference slides [2] ergänzt. (Alle Abbildungen stehen unter einer cc-by-nc-nd-Lizenz, sind daher in der Originalversion (englische Beschriftung) wiedergegeben.) IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Weiterführende Links

Weitere Details zum IPCC-Sixth Assessment Report: https://report.ipcc.ch/ar6wg3/

Video on Sixth Assessment Report of the IPCC CLIMATE CHANGE 2022: Mitigation of Climate Change. Video 2:14:36.https://www.youtube.com/watch?v=STFoSxqFQXU

Artikel im Scienceblog

Artikelserie über Computermodelle, dem zentralen Element der Klimaforschung :


 

inge Thu, 07.04.2022 - 18:05

Hydrogen Deep Ocean Link: Ein globales nachhaltiges Energieverbundnetz

Hydrogen Deep Ocean Link: Ein globales nachhaltiges Energieverbundnetz

Do, 30.03.2022 — IIASA

IIASA Logo

Icon Energie

Die Wasserstoffwirtschaft ist eine Energiealternative , die viel Aufmerksamkeit erhält. Für die Entwicklung einer solchen Wirtschaft gibt es jedoch einige zentrale Herausforderungen, wie beispielsweise die hohen Investitionskosten für Produktion, Verdichtung, Speicherung und Transport des Wasserstoffs. Der IIASA-Forscher Julian Hunt und seine Kollegen haben die Tiefsee ins Auge gefasst, um ein innovatives Konzept zu erstellen, das diese Probleme lösen könnte.* 

Das Hydrogen Deep Ocean Link (HYDOL) Konzept

Zur Produktion von grünem Wasserstoff sind teure Elektrolyseanlagen erforderlich. Diese sollten nach Möglichkeit in Betrieb bleiben, um die Produktionskosten zu senken. Erneuerbare Energiequellen wie Wind und Sonne sind jedoch intermittierend und liefern keine konstante Energiemenge. Dieses Problem könnte durch den Bau eines Elektrolyseschiffs gelöst werden, das den Jahreszeiten entsprechend zu Orten mit im Überschuss erzeugter erneuerbarer Energie fahren kann. So kann das Schiff im Sommer beispielsweise in Japan Wasserstoff mit überschüssigem Solarstrom erzeugen und dann nach Süden fahren, um mit überschüssigem Solarstrom im Sommer in Australien Wasserstoff zu produzieren.

Was die Verdichtung, Speicherung und den Transport von Wasserstoff betrifft, so steht in dem von uns explorierten Grundkonzept [1] die Tatsache im Mittelpunkt, dass verdichteter Wasserstoff in Tiefseetanks gefüllt werden kann, wobei das gleiche Volumen an Meerwasser aus den Tanks entfernt wird. Dadurch wird der Druck in den Tanks auf dem gleichen Niveau wie in der Umgebung des Tanks gehalten. So kann der unter hohem Druck stehende Wasserstoff mit billigen Kunststofftanks (aus Polyethylen hoher Dichte) in der Tiefsee gespeichert werden, wodurch die Kosten für die Langzeitspeicherung erheblich gesenkt werden. Damit die Wasserstofftanks nicht zur Oberfläche treiben, wird Sand hinzugefügt, um ihr Gewicht zu erhöhen. Ein weiterer wichtiger Aspekt, der diese Lösung ermöglicht, ist, dass Wasserstoff auch bei sehr hohen Drücken in Wasser unlöslich ist. Wäre Wasserstoff in Wasser löslich, so würde sich ja ein großer Teil des Wasserstoffs in den Tanks lösen und im Ozean verloren gehen.

Abbildung 1. Hydrogen Deep Ocean Link (HYDOL). a: Gesamtkonzept mit den verschiedenen Einrichtungen.b: Vorschlag für das Design einer Pipeline. (cc-by, Hunt et al., [1])

Der isotherme (d.i. bei konstanter Temperatur arbeitende; Anm. Redn.) Kompressor, mit dem der Wasserstoff verdichtet und in die Tiefsee transportiert wird, hat einen Wirkungsgrad der Verdichtung von rund 80 %; im Prozess des Komprimierens lässt das leichte Übergewicht des Sandes die Wasserstofftanks in der Tiefsee langsam auf den Meeresboden sinken, während Wasser in die Rohre gelangt (siehe Abbildung 1a).

Die tiefen Tanks für die Langzeitspeicherung von Wasserstoff (in Abbildung 1a unten dargestellt) sind am Meeresboden fixiert und können bei niedrigen Kosten große Mengen an Wasserstoff speichern. Das ebenfalls in der Abbildung gezeigte Tiefsee-Wasserstoff-U-Boot ist im Grunde ein Wasserstoff-Langzeitspeichertank, der mit einem Propeller angetrieben wird. Der Hauptzweck des Tiefsee-Wasserstoff-U-Bootes besteht darin, den Sand in den Container zu tragen. Das Tiefsee-Wasserstoff-U-Boot mit Sand ist jedoch immer noch leichter als ein Lkw mit auf 500 bar verdichtetem Wasserstoff an Land.

Die tiefe Wasserstoffpipeline ist dazu ausgelegt, Wasserstoff von einem Punkt zum anderen zu liefern, wobei der Wasserstofffluss mit dem Neigungswinkel der Pipeline variiert. Abbildung 2. Aufgrund der hohen Kosten von Hochdruckleitungen an Land ist es günstiger Wasserstoff in tiefen Pipelines zu transportieren als in Pipelines an Land.

Abbildung 2. Hydrogen Deep Ocean Link (HYDOL).Links: Querschnitt durch eine Wasserstoff-Pipeline. Rechts: Vorschlag für Tiefsee-Wasserstoff Pipelines. (cc-by, Hunt et al., [1])

Eine Abschätzung der Kosten

Für die isotherme Verdichtung von Wasserstoff von 100 bar auf 500 bar belaufen sich nach unserer Berechnung die Investitionskosten auf 15.000 US-Dollar pro Kubikmeter und Tag. Für eine langfristige Energiespeicherung bei 500 bar sind nach unseren Schätzungen rund 0,02 USD pro kWh einzuplanen, während die Kosten für eine Tiefsee-Wasserstoffpipeline bei 400 bar und einer Länge von 5.000 km auf 60 Millionen USD pro Gigawatt kommen. Die Kosten für das Tiefsee-Wasserstoff-U-Boot bei 400 bar und 500 km werden auf 40 Millionen Dollar pro Gigawatt geschätzt.

Diese Kosten sind sechsmal billiger als die übliche Wasserstoffverdichtung (mit Kompressionsturbinen), 50-mal billiger als die normale Wasserstoff-Langzeitspeicherung (Oberflächen-Druckbehälter) und dreimal billiger als der normale Ferntransport (mit verflüssigtem Wasserstoff). Dabei ist zu beachten, dass das Verflüssigen von Wasserstoff die Gesamtenergiespeichereffizienz des Systems erheblich verringert.

Fazit

Der Hydrogen Deep Ocean Link kann Wasserstoff bei niedrigen Kosten sowohl innerhalb als auch zwischen Kontinenten transportieren, was zu einem globalen nachhaltigen Energienetz führt.


[1] Hunt, J., Nascimento, A., Zakeri, B., & Barbosa, P.S.F. (2022). Hydrogen Deep Ocean Link: a global sustainable interconnected energy grid. Energy 249 e123660. 10.1016/j.energy.2022.123660. [pure.iiasa.ac.at/17854]


 *Der Artikel " Hydrogen Deep Ocean Link: A global sustainable interconnected energy grid " https://iiasa.ac.at/blog/mar-2022/hydrogen-deep-ocean-link-global-sustainable-interconnected-energy-grid ist am 28.März 2022 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch 3 Untertitel ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt. Es wird darauf hingewiesen, dass der Artikel ausschließlich die Ansichten des Autors J. Hunt widerspiegelt.


Weiterführende Links

In der vergangenen Woche ist im ScienceBlog ein weiteres innovatives Konzept des IIASA-Forschers Julian Hunt und seiner Kollegen erschienen, das auf der Basis von Elektro-Lkw eine flexible und saubere Lösung für die Stromerzeugung in Bergregionen bieten könnte:

IIASA, 24.03.2022: Anstelle von Stauseen, Staumauern, Rohrleitungen und Turbinen: Elektro-Lkw ermöglichen eine innovative, flexible Lösung für Wasserkraft in Bergregionen

Wasserstoff im ScienceBlog:


 

inge Thu, 31.03.2022 - 01:16

Anstelle von Stauseen, Staumauern, Rohrleitungen und Turbinen: Elektro-Lkw ermöglichen eine innovative, flexible Lösung für Wasserkraft in Bergregionen

Anstelle von Stauseen, Staumauern, Rohrleitungen und Turbinen: Elektro-Lkw ermöglichen eine innovative, flexible Lösung für Wasserkraft in Bergregionen

Do, 24.03.2022 — IIASA

IIASA Logo

Icon Energie

Bergregionen besitzen ein großes Potenzial für Wasserkraft, das mit herkömmlichen Technologien nicht ausreichend effizient genutzt werden kann. Ein internationales Team um den IIASA-Forscher Julian Hunt hat auf der Basis von Elektro-Lkw eine innovative Wasserkrafttechnologie entwickelt, die eine flexible und saubere Lösung für die Stromerzeugung in Bergregionen bieten könnte. Dazu soll in großen Höhen Wasser aus Gebirgsbächen in Vorratsbehälter gefüllt, den steilen Berg hinunter transportiert, die potentielle Energie des Wassers mit den Rekuperationsbremsen der Elektro-Lkw in Strom umgewandelt und in der Batterie des Lkw gespeichert werden.*

Beim Übergang zu einer nachhaltigeren Zukunft wird die Wasserkraft als erneuerbare Energiequelle wahrscheinlich an Bedeutung gewinnen. Trotz ihres Potenzials erfolgten Innovationen in der Wasserkrafttechnologie im letzten Jahrhundert langsam. Herkömmliche Verfahren setzen heute auf zwei miteinander verbundene Stauseen mit unterschiedlichen Wasserständen, in denen die potentielle Energie des Wassers in Strom umgewandelt wird. Abbildung 1, links.

Elektro-Lkw-Wasserkraft…

In steilen Gebirgsgegenden ist das Potenzial zur Stromerzeugung aus einem kleinen Wasserlauf hoch, jedoch bleibt das Wasserkraftpotenzial dieser Regionen ungenutzt, da es Speicherbecken benötigt, die ökologische und soziale Auswirkungen haben. Der IIASA-Forscher Julian Hunt und ein internationales Forscherteam haben eine neue Technologie namens Electric Truck Hydropower (ETH, Elektro-Lkw-Wasserkraft) entwickelt, die zu einer Schlüsselmethode für die Stromerzeugung in steilen Bergregionen werden könnte. Die Ergebnisse der Studie wurden im Fachjournal Energy veröffentlicht [1].

Abbildung 1. Wasserkraft in steilen Bergregionen. Links: Konventionelle Wasserkraft im steilen Gebirge. Wasser- und Pumpspeicherkraftwerk Kaprun in Österreich. Die Anlage besteht aus hohen Staumauern und Stollen zur Vergrößerung des Einzugsgebietes der Anlage und zur Verbindung mit der Salzach und dem Zeller See. Rechts oben: Schematische Beschreibung des ETH-Systems, bei dem der leere LKW den Berg hinauffährt, um die mit Wasser gefüllten Behälter an der Ladestelle abzuholen, und der LKW mit dem vollen Behälter den Berg hinunterfährt, um Strom zu erzeugen. Das Wasser wird dann an der Einleitungsstelle entladen. Rechts unten: Luftbild des ETH-Systems im Vergleich zu einem bestehenden Wasserkraftprojekt, das die Flexibilität von ETH-Systemen unterstreicht. (Bild: Fig.1 und 2 plus Legenden aus Julian Hunt et al., 2022 [1]von der Redn. eingefügt. Lizenz cc-by)

Elektro-Lkw-Wasserkraft würde die vorhandene Straßeninfrastruktur nutzen, um Wasser in Containern den Berg hinunter zu transportieren, die rekuperativen Bremsen des Elektro-Lkw zu betätigen, um die potenzielle Energie des Wassers in Strom umzuwandeln und die Batterie des Lkw aufzuladen. Die erzeugte Energie könnte dann in das Netz eingespeist oder vom Lkw selbst zum Transport anderer Güter verwendet werden. Elektro-Lkw-Wasserkraft könnte auch in Kombination mit Solar- und Windressourcen Strom erzeugen oder Energiespeicherdienste für das Netz bereitstellen. Abbildung 1, rechts.

„Die ideale Systemkonfiguration ist in Bergregionen mit steilen Straßen, wo die gleichen Elektro-Lkw zur Erzeugung von Strom aus Wasserkraft an verschiedenen Orten eingesetzt werden können. Das erhöht die Chancen, dass Wasser zur Verfügung steht“, sagt Hunt.

…mit anderen erneuerbaren Technologien konkurrenzfähig…

Die vorgeschlagene Technologie ist eine innovative, saubere Stromquelle, die mit Solar-, Wind- und konventioneller Wasserkraft konkurrenzfähig ist. Kostenschätzungen zeigen, dass die Gestehungskosten für Elektro-Lkw-Wasserkraft 30 - 100 US-Dollar pro MWh betragen, was erheblich billiger ist als herkömmliche Wasserkraft mit 50 - 200 US-Dollar pro MWh. Abbildung 2.

Abbildung 2. Globales Potential für Elektro-Lkw-Wasserkraft (ETH). Oben: Maximales ETH-Potenzial in den einzelnen Regionen. Unten: Kosten von ETH versus Potential der mittels ETH produzierten Energie Produktion. (Bild: Ausschnitte aus Fig.4 plus Legenden aus Julian Hunt et al., 2022 [1]von der Redn. eingefügt. Lizenz cc-by.)

…und mit geringeren Auswirkungen auf die Umwelt

Auch die Auswirkungen von Elektro-LKW-Wasserkraft auf die Umwelt sind deutlich geringer als die von konventioneller Wasserkraft.

„Diese Technologie erfordert keine Staumauern, Stauseen oder Stollen und stört nicht die natürliche Strömung des Flusses und die Fischwanderung. Das System benötigt nur bereits vorhandene Straßen, Lade- und Entladestationen ähnlich kleinen Parkplätzen, eine an das Stromnetz angeschlossene Batterieanlage und die Lkw“, erklärt Hunt.

In Hinblick auf die globale Reichweite dieser Technologie kam das Forscherteam zu der Abschätzung, dass Electric Truck Hydropower 1,2 PWh Strom pro Jahr erzeugen könnte, was etwa 4 % des weltweiten Energieverbrauchs im Jahr 2019 entspricht. Mit dieser  Technologie könnte das bisher ungenutzte Potenzial für Wasserkraft auf steilen Bergketten genutzt werden. Die Regionen mit dem größten Potenzial sind der Himalaya und die Anden. Abbildung 2, oben.

„Aufgrund seiner hohen Flexibilität ist es eine interessante Alternative zur Stromerzeugung. Befindet sich ein Land beispielsweise in einer Energiekrise, kann es mehrere Elektro-Lkw kaufen, um Wasserkraft zu erzeugen. Sobald die Krise vorbei ist, können die Lastwagen für den Frachttransport eingesetzt werden“, schließt Hunt.


[1] Hunt, J., Jurasz, J., Zakeri, B., Nascimento, A., Cross, S., Schwengber ten Caten, C., de Jesus Pacheco, D., Pongpairoj, P., Leal Filho, W., Tomé, F., Senne, R., van Ruijven, B. (2022). Electric Truck Hydropower, a Flexible Solution to Hydropower in Mountainous Regions. Energy Journal DOI:  10.1016/j.energy.2022.123495


*Die Presseaussendung "Electric Truck Hydropower, a flexible solution to hydropower in mountainous regions" https://iiasa.ac.at/news/mar-2022/electric-truck-hydropower-flexible-solution-to-hydropower-in-mountainous-regions ist am 7.März 2022 auf der IIASA Website erschienen. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch 3 Untertitel und zwei Abbildungen aus der zitierten Originalarbeit [1] ergänzt. IIASA hat freundlicherweise der Veröffentlichung der von uns übersetzten Inhalte seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Weiterführende Links

Energie gehört zu den Hauptthemen im ScienceBlog. Rund 10 % aller Artikel befassen sich mit diversen Aspekten der Energie, wobei deren Spektrum vom Urknall bis zur Energiekonversion in Photosynthese und mitochondrialer Atmung, von technischen Anwendungen bis zu rezenten Diskussionen zur Energiewende reicht. Ein repräsentativer Teil dieser Artikel ist nun in einem Themenschwerpunkt Energie aufgelistet.

inge Wed, 23.03.2022 - 18:50

Phänologische Veränderungen - Der Klimawandel verändert den Rhythmus der Natur

Phänologische Veränderungen - Der Klimawandel verändert den Rhythmus der Natur

Fr, 18.03.2022 — Redaktion

Redaktion

Icon Klima

In dem kürzlich erschienenen Bericht „Frontiers 2022: Emerging Issues of Environmental Concern“ hat die Umweltorganisation der Vereinten Nationen (UNEP) vor drei drohenden und bisher unterschätzten Umweltgefahren gewarnt, darunter vor den durch den Klimawandel verursachten phänologischen Veränderungen, die zu Störungen der Ökosysteme führen [1]. Das schon seit Jahrhunderten etablierte Gebiet der Phänologie befasst sich mit den im Jahresablauf periodisch wiederkehrenden Wachstums- und Entwicklungserscheinungen von Organismen. Pflanzen und Tiere nutzen oft die Temperatur als Zeitgeber, um in das nächste Stadium eines saisonalen Zyklus einzutreten. Das Timing dieser Phasen ist entscheidend, um beispielsweise Pflanzenblüte und bestäubende Insekten oder eintreffende Zugvögel und deren Nahrungsangebot zu synchronisieren. Der Klimawandel beschleunigt sich nun schneller, als sich viele Pflanzen- und Tierarten anpassen können. Dies führt zu einem Auseinanderdriften (Mismatch) von synchronen pflanzen- und tierphänologischen Phasen. Die Wiederherstellung von Lebensräumen, der Bau von Wildtierkorridoren zur Verbesserung der Habitatkonnektivität, die Verschiebung der Grenzen von Schutzgebieten und die Erhaltung der Biodiversität in produktiven Landschaften können als Sofortmaßnahmen hilfreich sein. Allerdings: ohne starke Anstrengungen zur Reduzierung von Treibhausgas-Emissionen, werden diese Schutzmaßnahmen den Zusammenbruch wesentlicher Ökosystemleistungen nur verzögern.*

Timing bedeutet Alles für die Harmonie des Ökosystems

In der Natur ist das Timing entscheidend. Vogelküken müssen geschlüpft werden, wenn für sie Nahrung vorhanden ist, Bestäuber müssen aktiv sein, wenn ihre Wirtspflanzen blühen, und Schneehasen müssen ihre Farbe von Weiß zu Braun ändern, wenn der Schnee verschwindet. Die Phänologie untersucht das Timing von wiederauftretenden Phasen im Lebenszyklus, welche von Umwelteinflüssen angetrieben werden, und wie interagierende Arten auf Änderungen im Timing innerhalb eines Ökosystems reagieren. Pflanzen und Tiere nutzen häufig Temperatur, Tageslänge, den Beginn der Regenfälle oder andere physikalische Veränderungen als Zeitgeber für die nächste Phase in ihrem jahreszeitlichen Kreislauf. Setzt der Frühling früher ein, reagieren viele Vögel mit einem früheren Brüten, passend zur schneller aufkommenden Nahrung für ihre Nestlinge, wenn es warm wird. Da die Temperatur einen so starken Einfluss als Auslöser hat, gehören die phänologischen Veränderungen der letzten Jahrzehnte zu den sichtbarsten Folgen des globalen Klimawandels, zumindest in den gemäßigten und polaren Regionen der Erde. Abbildung 1.

Abbildung 1. Die Kirschblüte als Symbol des wiedererwachenden Lebens wird in Japan mit rauschenden Festen gefeiert. Beobachtungsreihen existieren seit 705 a.D.; von 1830 an hat sich die Kirschblüte schrittweise zu früheren Zeitpunkten hin verlagert, parallel zu den meteorologischen Daten der steigenden Temperaturen. Trendlinie: 50-Jahre-Mittelwerte. (Bild leicht modifiziert aus [1 ]. Lizenz: cc-by)

Die Temperatur ist nicht die einzige Umgebungsvariable, welche die Phänologie beeinflusst. Eine weitere kritische Variable ist in höheren Breiten die jahreszeitlich variierende Tageslänge (Photoperiode). Während die Tageslänge selbst nicht vom Klimawandel beeinflusst wird, kann das Ausmaß des Temperatureffekts auf die Phänologie davon abhängen: in einigen Systemen können hohe Temperaturen das nächste Stadium während langer Tage, nicht aber während kürzerer Tage auslösen. In höheren Breitengraden brauchen einige Pflanzen und Insekten auch einen Zeitraum niedriger Temperatur, einen sogenannten Kältereiz, um richtig zu reagieren, sobald es wärmer wird. Einige Arten sind auf Brände angewiesen, um Lebenszyklusstadien zu initiieren, wie beispielsweise die Freisetzung von Samen aus den Zapfen und die Samenkeimung, die durch Feuer stimuliert werden. Ein Beispiel aus der Wasserwelt ist der Einfluss von Regen auf die Abflüsse, die - zusammen mit Faktoren wie Wassertemperatur und Tageslänge - wiederum Timing und Dauer der Fischwanderung beeinflussen.

Die Phänologie in tropischen Regionen ist aufgrund geringerer Schwankungen von Temperatur und Tageslänge schwieriger zu erkennen, als in Regionen mit deutlichen jährlichen saisonalen Zyklen. Tropische Arten zeigen unterschiedliche phänologische Strategien, so können sich Individuen innerhalb einer Population nicht synchronisieren und Zyklen kürzer als 12 Monate dauern. Verschiedene Faktoren, darunter Regen, Dürre, vorhandene Feuchtigkeit und reichlich Sonneneinstrahlung können die nächste Lebenszyklusphase in tropischen Regionen auslösen.

Ein wesentliches Problem von den, auf den Klimawandel zurückzuführenden, phänologischen Veränderungen besteht darin, dass in einem bestimmten Ökosystem sich nicht alle voneinander abhängigen Arten in die gleiche Richtung oder mit dem gleichen Tempo verändern. Der Grund dafür ist, dass jeder Organismus auf verschiedene treibende Faktoren der Umwelt reagiert oder unterschiedliche Grade von Sensitivität gegenüber einem einzelnen Umweltfaktor aufweist. Innerhalb der Nahrungsketten können Pflanzen ihre Entwicklung schneller ändern als Tiere, die diese als Futter nutzen - dies führt zu phänologischen Fehlanpassungen (Mismatches). Detaillierte Studien zu verschiedenen Phasen des Lebenszyklus bei einer Vielzahl von Pflanzen- und Tierarten haben signifikante phänologische Mismatches entdeckt. Solche Fehlanpassungen zwischen Räuber und Nahrungsquelle innerhalb eines Nahrungsnetzes beeinflussen Wachstum, Fortpflanzungs- und Überlebensraten der Individuen und haben schlussendlich Auswirkungen auf ganze Populationen und Ökosysteme.

Störungen in der Harmonie des Ökosystems

Durch Klimawandel verursachte phänologische Veränderungen wurden in unterschiedlichen Stadien festgestellt: u.a. in Reproduktion, Blüte, Blattaustrieb, Beginn der Larvenentwicklung, Mauser, Winterschlaf und Migration. Daten dazu kommen aus vergleichenden Studien zu phänologischen Veränderungen in großen Gruppen von Arten – Pflanzen, Insekten, Fische, Amphibien, Vögeln und Säugetieren -, die in Langzeitreihen in beiden Hemisphären aufgezeichnet wurden. In mehreren Regionen haben Forscher zudem eine zunehmende Wahrscheinlichkeit für phänologische Mismatches verfolgt, unter anderem wurden 10.000 Datensätze zu Pflanzen und Tieren im gesamten Vereinigten Königreich, zu terrestrischen Spezies in den Alpen, mehr als 1.200 Zeitreihen phänologischer Trends in der südlichen Hemisphäre und von marinen Spezies in verschiedenen Ozeanen verwendet. Abbildung 2

Abbildung 2. Veränderungen erkennen, Trends verfolgen. Jüngste Abschätzungen um wie viele Tage pro Dekade sich die Lebensstadien von Tieren und Pflanzen verschoben haben. A: Terrestrische Spezies, B: Marine Spezies. Kreise: quantifizierte Rate der beobachteten phänologischen Reaktion einer bestimmten Spezies, wenn sie ein Lebenszyklusstadium um eine Anzahl von Tagen pro Jahrzehnt nach früher oder später verschiebt. (Bild leicht modifiziert aus [1 ]. Lizenz: cc-by)

Studien an Vögeln liefern zahlreiche Beweise für Fehlanpassungen, die eine erfolgreiche Vermehrung beeinträchtigen. Arten wie Trauerschnäpper (Ficedula hypoleuca) und Kohlmeisen (Parus major) müssen ihre Küken schlüpfen lassen, wenn ihr normales Nahrungsangebot an Raupen am reichlichsten ist. Diese Zeit des maximalen Nahrungsangebots ist kurz und dauert nur wenige Wochen. Das richtige Timing ist also entscheidend. Andere Vögel, wie die gemeinen Trottellummen (Uria aalge), müssen ihre Fortpflanzung genau auf die Küstenwanderung ihrer Hauptbeute, kleinen Futterfischen, abstimmen.

Innerhalb des Jahreszyklus ist es notwendig, dass sich verschiedene Lebensphasen synchronisieren. Für wandernde Arten umfassen die Jahreszyklen Phasen des Umzugs in die Brutgebiete, der Fortpflanzung, der Mauser und der Rückkehr in die Überwinterungsgebiete. Einige Stadien des Lebenszyklus, wie die Reproduktion, sind überaus temperaturempfindlich. Mit steigenden Temperaturen verschiebt sich die reproduktive Phänologie, während andere Stadien, wie die Mauser, empfindlicher auf Lichtverhältnisse reagieren, sodass sie nicht synchron auftreten.

Die phänologischen Reaktionen unterscheiden sich überall in marinen Ökosystemen und in saisonalen Zyklen, was zu Mismatches zwischen Arten und Gruppen im Nahrungsnetz führt. Wie Untersuchungen zeigen, erfolgen phänologische Reaktionen auf den Klimawandel in marinen Umgebungen schneller als an Land. Die verschiedenen Meeresspezies, vom Plankton bis hin zu höheren Räubern, verändern ihre Phänologie mit unterschiedlicher Geschwindigkeit; dies bedeutet, dass der Klimawandel auch zu Mismatches in gesamten ozeanischen Gemeinschaften führen kann.

Unterschiede in den Geschwindigkeiten mit denen die Phänologie auf die Erwärmung in terrestrischen Systemen, Süßwasser- und Meeresökosystemen reagiert, könnten sich letztendlich auf Arten auswirken, die von verschiedenen Ökosystemen abhängig sind, um phänologische Übergänge in die nächste Lebenszyklusphase mitzunehmen. Beispiele hierfür sind Fische, die zwischen Meeres- und Süßwasserökosystemen wandern, und viele Insekten, Amphibien und Vögel, deren Lebenszyklusstadien sowohl von terrestrischen als auch von aquatischen Ökosystemen abhängen. Nicht übereinstimmende phänologische Verschiebungen könnten weit verbreitete Störungen des Nahrungsnetzes und ökologische Folgen verursachen.

Während phänologische Reaktionen auf den Klimawandel gut dokumentiert sind, verlangen weitere Fragen zu den Zusammenhängen mit Populationen und zu den Folgen für Ökosysteme größere Aufmerksamkeit. In der Arktis hat sich nach der Schneeschmelze die Vegetation, auf die Karibus (Rangifer tarandus)-Mütter und -Kälber angewiesen sind, auf Grund der höheren Temperaturen schneller entwickelt. Jetzt werden Karibu-Kälber zu spät geboren, was zu einem75-prozentigen Rückgang der Nachkommen führt. Auch bei Rehen (Capreolus capreolus) verringert das zunehmende Auseinanderlaufen von Geburtsdatum und Nahrungsverfügbarkeit die Überlebenschancen der Kälber.

Asynchrone phänologische Veränderungen bei einem breiten Spektrums interagierender Arten haben das Potenzial, das Funktionieren ganzer Ökosysteme und die Bereitstellung von Ökosystemleistungen, von denen menschliche Systeme abhängen, zu stören. Verschiebungen in der Phänologie kommerziell wichtiger Meeresarten und ihrer Beute haben erhebliche Folgen für alle Aspekte der Fischerei. Die phänologischen Reaktionen von Nutzpflanzen auf jahreszeitliche Schwankungen werden angesichts des Klimawandels eine Herausforderung für die Nahrungsmittelproduktion darstellen. Zum Beispiel führen Obstbäume, die früh blühen und dann in der Spätsaison Frost erleiden, zu großen wirtschaftlichen Verlusten für Obstplantagen. Phänologische Veränderungen erschweren weltweit bereits jetzt eine klimafreundliche landwirtschaftliche Anpassung für wichtige Nutzpflanzen.

Unglaubliche Reisen: Die Herausforderung der Migration zum falschen Zeitpunkt

Migration ist eine Verhaltensanpassung an die Saisonalität. Periodische Wanderungen von Tieren zwischen Lebensräumen ermöglichen es ihnen, die Ressourcen an mehreren Orten zu verschiedenen Jahreszeiten zu optimieren. Migration ist auch erforderlich, wenn saisonale Luft- oder Wassertemperaturen für die Zucht oder Aufzucht von Nachkommen ungünstig werden. Die meisten wandernden Arten stammen daher aus Regionen in hohen Breiten, in denen die Jahreszeiten und die verfügbaren Ressourcen am ausgeprägtesten sind. Verschiedene Arten von Insekten, Krebstieren, Reptilien, Fischen und Säugetieren wandern, und viele legen bemerkenswerte Entfernungen zurück. Einige Migranten unter den Vögeln nisten in der hohen Arktis und entfliehen ihrem Winter in niedrigere Breiten; Wale wandern zwischen Äquator und polaren Nahrungsgründen; und wandernde pflanzenfressende Säugetiere folgen saisonalen Veränderungen in der Vegetation über Kontinente hinweg.

Über Langstrecken migrierende Spezies sind besonders anfällig für phänologische Veränderungen durch Effekte der Klimaerwärmung, die über die Regionen hinweg nicht einheitlich sind. Lokale klimatische Zeitgeber, die normalerweise eine Migration auslösen, können nicht mehr genau vorhersagen wie die Bedingungen am Zielort und auch an den Zwischenstopps entlang der Route sind. Die Herausforderung ist noch größer für migrierende Arten, die in Polarregionen zurückkehren, wo Voranschreiten und Ausmaß des Klimawandels am größten sind. Folglich haben viele wandernde Arten Schwierigkeiten anzukommen, wenn hochwertige Nahrung noch reichlich vorhanden ist, das Wetter für bestimmte Lebenszyklusstadien geeignet ist, Raubtier- oder Konkurrenzdruck geringer ist, oder es weniger Parasiten und Krankheitserreger gibt. Eine frühere Frühlings-Phänologie in hohen Breiten hat zu einem zunehmenden Grad an ökologischer Fehlanpassung für wandernde Arten geführt, mit möglichen demografischen Folgen.

Arten haben bewiesen, dass sie fähig sind ihr Migrationsverhalten zu ändern, vom Anpassen des Zeitpunkts bis hin zur Änderung von Routen und Orten. Ihre Anpassungsfähigkeit als Reaktion auf den Klimawandel wird aber bereits durch andere anhaltende Bedrohungen beeinträchtigt. Ökologischer Abbau, Zersplitterung und Verlust von Nahrungs-, Brut- und Rasthabitaten, Jagd, Umweltverschmutzung und andere Gefahren bedrohen wandernde Arten auf langen Reisen mit steigendem Druck, sich an schnelle Umweltveränderungen anzupassen.

Maßnahmen zur Maximierung des Anpassungspotenzials und zur Stärkung der Resilienz von Artenpopulationen erfordern eine Reduzierung konventioneller Bedrohungen und eine Änderung bestehender Naturschutzrichtlinien und -strategien angesichts des Klimawandels. Ein umfangreiches Netzwerk verschiedener kritischer Standorte und geschützter Lebensräume könnte das Anpassungspotenzial wandernder Arten maximieren. Es ist auch unerlässlich, die Konnektivität von Land- und Meereslebensräumen, die für die Ausbreitung jetzt und in Zukunft entscheidend sind, sicherzustellen und zu verbessern. Eine zunehmende Konnektivität von Lebensräumen wird dazu beitragen, die adaptive genetische Variation und die Überlebensfähigkeit zu erhalten, die für den Fortbestand der Arten erforderlich sind.

Entwicklung zu neuen Synchronitäten

Um beobachtete Fehlanpassungen dem Klimawandel zuzuschreiben bedarf es einer Langzeit-Forschung zur Phänologie interagierender Arten innerhalb eines Ökosystems. Langzeitstudien sind unerlässlich, aber die größte Herausforderung ist der Nachweis der Kausalität. Der Klimawandel kann Temperaturen und Niederschläge beeinflussen, aber andere Faktoren können gleichzeitig die Reaktionen der Arten beeinflussen, wie z. B. Änderungen der Landnutzung, Übernutzung von Ressourcen, invasive Arten und andere ökologische Stressoren. Die Unsicherheit in Bezug auf die Kausalität kann teilweise durch Minimierung von Variablen angegangen werden: Beobachtung von Reaktionen entweder an verschiedenen Orten - indem Populationen in Gebieten mit starker Erwärmung mit solchen mit geringer Erwärmung verglichen werden - oder in verschiedenen Zeiträumen - indem Populationen in Jahren mit schnell steigenden Temperaturen mit solchen in Jahren mit langsamerer Erwärmung verglichen werden. Solche Ansätze ermöglichen es die spezifische Wirkung des Temperaturanstiegs auf die Phänologie der Spezies besser abzuschätzen, auch wenn sie Probleme mit anderen Temperatur-sensitiven Umweltfaktoren nicht lösen. In vielen Regionen ändern sich beispielsweise die Niederschlagsmuster unter variierenden klimatischen Bedingungen dramatisch, wobei Zeitpunkt, Häufigkeit und Intensität der Regenzeiten verändert werden. Mit zunehmender Datenfülle erkennen die Forscher, dass Kombinationen phänologischer Mechanismen – beispielsweise Temperatur, Photoperiode und Niederschlag – zusammenkommen müssen, um als phänologisches Signal zu wirken.

Eine starke phänologische Veränderung einer Population infolge von Umweltveränderungen ist ein Hinweis darauf, dass ein großer Teil der Individuen in der Lage ist, das Timing in die gleiche Richtung zu ändern - bekannt als phänologische Plastizität. Empirische Hinweise legen nahe, dass diese Plastizität der wesentliche Ursprung für die beobachteten Klima-bezogenen phänologischen Verschiebungen ist. Die Plastizität von Individuen oder Populationen kann möglicherweise aber nicht mit den schnellen Umweltveränderungen, die wir erleben, Schritt halten. Arten benötigen auch genetische Veränderungen, um sich erfolgreich anzupassen; dies ist bei Arten mit kurzer Generationszeit, wie Insekten, wahrscheinlicher,als bei Bäumen, die sich über Jahrzehnte regenerieren. Es gibt eine Handvoll Beispiele - hauptsächlich bei Insekten und einigen Vögeln -, bei denen genetische Veränderungen als Reaktion auf den Klimawandel als Mikroevolution erkannt werden können. Gesamt gesehen erfolgen genetische Veränderungen viel langsamer als der Klimawandel.

Die phänologische Mikroevolution - der Prozess der natürlichen Selektion, bei dem genetische Veränderungen die Phänologie von Arten verändern, um diese besser an das veränderte Klima anzupassen - hat höchstwahrscheinlich eine wichtige Rolle bei der Anpassung von Arten und Ökosystemen an vergangene Erwärmungsperioden gespielt. Da die Erwärmung jetzt jedoch viel rascher erfolgt – vielleicht um den Faktor 100 – wird wahrscheinlich sogar die Mikroevolution sich als zu langsam für die derzeitige Geschwindigkeit des Klimawandels herausstellen.

In der Praxis könnten Maßnahmen zu Erhaltung und Management von Ökosystemen ergriffen werden, um günstige Bedingungen für eine Mikroevolution zu fördern. Eine Maßnahme besteht darin, die genetische Vielfalt von Populationen zu unterstützen und zu pflegen, da dies die entscheidende Voraussetzung für Mikroevolution und natürliche Selektion ist. Habitatkorridore zur Erhöhung der ökologischen Konnektivität würden die Besiedlung durch Pflanzen und die Mobilität von Tierarten mit neuem genetischem Material innerhalb eines bestimmten Ökosystems ermöglichen, die genetische Vielfalt fördern und die Chancen einer erfolgreichen Anpassung erhöhen.

Brücken zu neuen Harmonien

Phänologische Veränderungen können nur aus Langzeitaufzeichnungen ermittelt werden. Die Datenerhebung wird von wissenschaftlichen Einrichtungen, Universitäten, Regierungen und NGOs durchgeführt. Initiativen wie das African Phenology Network, das Australia's TERN-Projekt, Indiens SeasonWatch, der UK Nature’s Calendar und das USA National Phenology Network inkludieren Beobachtungen von Bürgern zur Verfolgung von Pflanzen, Insekten, Vögeln und Säugetieren. Diese umfassenden Datensätze ermöglichen es den Wissenschaftlern Arten und Standorte herauszusuchen, die am meisten gefährdet sind. Sie liefern auch Daten für den Weltklimarat (IPCC) zur Abschätzung der für Ökosysteme tolerierbaren Erwärmungsraten und untermauern die Ziele von Regierungen, die globale Erwärmung auf die im Pariser Abkommen festgelegten Grenzen zu reduzieren.

Seit Jahrhunderten haben in der ganzen Welt Landwirte, Gärtner und Naturliebhaber ihr Wissen über phänologische Phasen genutzt. Regionale und lokale Netzwerke ermöglichen es den Mitgliedern Wissen und Ratschläge zu verschiedenen Umgebungen und Ökosystemen auszutauschen. Mit modernen Kommunikationsmitteln ist die Identifizierung und Verfolgung der Entwicklung von Pflanzen und Tieren in vielen Ländern zu einem weit verbreiteten Zeitvertreib geworden. Citizen Science-Beiträge zum phänologischen Wissen reichen von der Notierung von Blütedaten in den Gärten bis hin zu Beobachtungen wandernder Herden zur Verifizierung von Luft- und Satellitenbildern Abbildung 3.

Abbildung 3. Phänologische Beobachtungen und Citizen Science. (Bild leicht modifiziert aus [1 ]. Lizenz: cc-by)

Phänologische Veränderungen und Mismatches, die dem Klimawandel zugeschrieben werden, haben die landwirtschaftlichen Ökosystemleistungen seit Jahrzehnten belastet. Um die Probleme längerer Vegetationsperioden, durch Hitze oder Dürre verkürzter Wachstumsphasen und anderer Auswirkungen des Klimawandels zu mildern, haben Landwirte klimaresistentere Sorten ausgewählt. Die Einführung neuer Techniken, das Ausprobieren neuen Saatguts, die gemeinsame Nutzung von Saatgutbanken und die Nutzung von Beratungsdiensten sind alles Aspekte einer klimafreundlichen Landwirtschaft, die von der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen, vielen NGOs und nationalen und sub-nationalen Stellen gefördert wird.

In eingeschränktem Maß wurde untersucht, wie sich phänologische Veränderungen und Mismatches auf das Management natürlicher Ressourcen und den Erhalt der biologischen Vielfalt auswirken, wobei es für die Manager oft nicht klar ist, wie sie die Daten in die Praxis einbauen sollen. Phänologische Daten könnten Klimamaßnahmen anzeigen, die Implementierung der Überwachung optimieren und die Abschätzung der Vulnerabilität durch den Klimawandel unterstützen. Dies ist besonders in weniger gut untersuchten Gebieten wichtig, wie z. B. an vielen Orten der südlichen Hemisphäre. Manager müssen berücksichtigen, wie sich phänologische Veränderungen auf ihre aktuellen Strategien auswirken. Beispielsweise machen Fischereimanager in der Regel jährlich eine Erhebung der Fischpopulationen und bestimmen Zeitpunkte, an denen die Populationen in einem Gebiet am häufigsten vorgekommen sind. Phänologische Veränderungen könnten dazu führen, dass Erhebungen zur falschen Jahreszeit durchgeführt werden, was Populationsschätzungen und erlaubte Fangquoten verfälschen würde.

Aktuelle Übersichtsartikel zu mehreren spezifischen Fallstudien haben Beispiele für Phänologie, phänologische Veränderungen und phänologische Mismatches in erweiterter Form dargestellt. Mit der höheren Anzahl an Spezies, Ökosystemen und Regionen und diversen phänologischen Mechanismen, kann über Ansätze informiert werden, die zur Unterstützung menschlicher Gemeinschaften und Ökosysteme bei der Anpassung an die Bedingungen des Klimawandels erforderlich sind.

Größere Anstrengungen zur Unterstützung der Intaktheit der biologischen Vielfalt werden die Widerstandsfähigkeit und Anpassungsfähigkeit aller Ökosysteme stärken. Sanierung von Lebensräumen, Bau von Lebensraumkorridoren zur Verbesserung der ökologischen Konnektivität und genetischen Vielfalt, Anpassung der Grenzen von Schutzgebieten an die veränderten Verbreitungsgebiete der Arten und Erhaltung der biologischen Vielfalt in produktiven Landschaften sind alles notwendige sofortige Eingriffe des Managements.

Fazit

Der anthropogene Klimawandel führt zu phänologischen Verschiebungen sowohl in terrestrischen als auch in aquatischen Ökosystemen. Diese Veränderungen können zu Mismatches führen, mit schwerwiegenden Folgen für einzelne Individuen, Populationen, Gemeinschaften und ganze Ökosysteme. Der Klimawandel beschleunigt sich zu schnell, als dass sich viele Arten durch ihre natürlichen phänologischen Fähigkeiten anpassen könnten. Die Erhaltung der Integrität einer funktionierenden biologischen Vielfalt, die Beendigung der Zerstörung von Lebensräumen und die Wiederherstellung von Ökosystemen werden die natürlichen Systeme stärken, von denen wir abhängig sind. Ohne fortgesetzte Bemühungen zur drastischen Reduzierung der Treibhausgasemissionen werden diese Schutzmaßnahmen jedoch den Verlust dieser wesentlichen Ökosystemleistungen nur verzögern. Damit sich Arten und Ökosysteme den beschleunigten Rhythmen anpassen können, den der Klimawandel vorgibt, werden Zeit und Möglichkeit neue Harmonien zu erreichen nötig sein.


[1] Marcel E. Visser: "Phenology - Climate change is shifting the rhythm of nature" in: UN-Environment Programme. Frontiers 2022 Report. Emerging Issues of Environmental Concern. https://www.unep.org/resources/frontiers-2022-noise-blazes-and-mismatches  


*Der Artikel "Phenology - Climate change is shifting the rhythm of nature“ verfasst von Marcel E. Visser (Institut of Ecology, Wageningen; Netherlands) stammt aus dem unter [1] angeführten UNEP-Report „Frontiers 2022: Noise, Blazes and Mismatches“ (17. Feber 2022). Der Text des unter einer cc-by Lizenz stehenden Artikels wurde in etwas verkürzter Form von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt und durch 3 Bilder aus dem Original ergänzt.


 UN-Environment Programme: https://www.unep.org/

UNEP's Frontiers Reports: Emerging environmental issues that we should be paying attention to. The 2022 Report: Video 2:06 min.  https://www.youtube.com/watch?v=PPniKJyH_rg&t=14s


 

inge Fri, 18.03.2022 - 17:48

SARS-CoV-2: Varianten können in verschiedenen Zelltypen eines Infizierten entstehen und ihre Immunität adaptieren

SARS-CoV-2: Varianten können in verschiedenen Zelltypen eines Infizierten entstehen und ihre Immunität adaptieren

Fr, 11.03.2022 — Ricki Lewis

Ricki LewisIcon Medizin Bei Infektionen mit SARS-CoV-2 können sich innerhalb eines Wirts Varianten des Virus an unterschiedlichen Stellen des Organismus entwickeln, die veränderte Präferenzen für Zelltypen aufweisen und sich vor dem Angriff des Immunsystems tarnen. Wie diese Tarnung erfolgen kann, zeigen neue Untersuchungen an synthetisch hergestellten Virionen: wenn bestimmte Fettsäuren, wie sie bei einer Entzündungsreaktion freigesetzt werden, in einer hochkonservierten Tasche des Spikeproteins binden, so verändert dieses seine Form und wird für das Immunsystem weniger sichtbar. Die Genetikerin Ricki Lewis berichtet darüber.*

Als ob es nicht schon genügt hätte, dass Wellen neuartiger SARS-CoV-2 Varianten - Varianten unter Beobachtung (Variants of Interest VOI) und besorgniserregende Varianten (Variants of Concern, VOC) - den Planeten überschwemmen, und dass wir Virus-Versionen finden, die in einem komplexen Muster von Integration und De-Integration in Arten eindringen und aus Arten austreten! Nun entdecken wir, dass das Ganze noch gefährlicher ist. Von einer Forschergruppe am Max Planck Bristol Center of Minimal Biology sind zwei neue Artikel in Nature Communications erschienen, die beschreiben, wie sich das Virus in verschiedenen Teilen desselben Wirts genetisch unterscheiden kann [1,2].

Was kann dies bedeuten

Auch, wenn Impfstoffe und Therapien das Virus in den Atemwegen besiegen, könnte der Erreger anderswo weiter persistieren. Und an neuen Plätzen könnten sich – möglicherweise – Viren unserer Immunantwort besser entziehen, sich besser replizieren und höher infektiös sein.

Bedenkt man, dass der Schutz durch Impfung oder Genesung von COVID-19 nachlässt, sind das keine guten Nachrichten.

Es war uns bereits bekannt, dass das Virus im Körper einer Person mit geschwächtem Immunsystem neue Mutationen erzeugen kann. Und es mutiert schnell in den Ungeimpften. Aber die aktuelle Forschung zeigt, dass bei ein und demselben Individuum neue Varianten in verschiedenen Körpernischen entstehen.

Virus-Varianten, die in ein und demselben Individuum entsehen

„Unsere Ergebnisse haben gezeigt, dass man mehrere verschiedene Virusvarianten im Körper haben kann. Einige dieser Varianten können Nieren- oder Milzzellen als Nische nutzen, um dort geborgen zu sein, während der Körper damit beschäftigt ist, sich gegen den dominanten Virustyp zu verteidigen. Dies könnte es den infizierten Patienten schwer machen, SARS-CoV-2 vollständig loszuwerden“, sagt Kapil Gupta, der Erstautor des einen Artikels [1].

Eine hochkonservierte, essentielle Tasche im Spikeprotein

Der Vorgang beim Eindringen eines Virus in eine Wirtszelle konzentriert sich auf eine Region – eine Tasche – in dem Teil des viralen Spike-Proteins, welches das Immunsystem erkennt. Eine Änderung der dreidimensionalen Form der Tasche wirkt auf das Virus wie die Tarnvorrichtung der Romulaner aus Star Trek, die deren Kriegsschiffe unsichtbar macht, wenn sich ein Raumschiff der Föderation nähert.

Die Forscher haben die Tasche in Viren untersucht, die von einem einzelnen englischen Patienten stammten und eine Deletionsmutation im Spike-Protein aufwiesen, in welcher 8 der 1273 Aminosäuren fehlten. Dabei handelt es sich um eine Deletion in Nachbarschaft zur sogenannten Furin-Spaltstelle, einer kritischen Stelle, an der das Spikeprotein (von einem Enzym der Wirtszelle, Anm. Redn.) in seine zwei Untereinheiten gespalten wird, worauf eine Untereinheit die menschliche Zelle akquiriert und die andere das Virus in die Zelle hineinzieht.

Aber statt dass der fehlende Teil das Virus nun inaktiv macht, haben die Forscher heraus gefunden, dass sich der Erreger in einer Weise verformt, dass er noch in menschliche Zellen eindringen kann.

Das ist ein Weg, wie sich das Virus ständig neu erfindet - auf unterschiedliche Weise in verschiedenen Ritzen und Schlupfwinkeln des unglücklichen Wirtsorganimus'.

Die BriSdelta-Variante

Die Version des Virus aus dem englischen Patienten – BriSdelta genannt – repliziert sich stark in Kulturen von Affennierenzellen und von menschlichen Dickdarmkrebszellen, aber nicht in menschlichen Lungenkrebs-Epithelzellen. Abbildung 1. Das könnte bedeuten, dass sich die Präferenz des Wildtyps für Oberflächen der Atemwege anders wohin verlagert, wenn das Virus beschädigt ist.

Abbildung 1: Verglichen mit dem SARS-CoV-2 Wildtyp (blau) ist die BriSDelta-Variante (rot) stärker infektiös in Affennierenzellen (Vero E6) und Dickdarmkrebszellen (Caco-2, dagegen schwächer infektös in Lungenepithelzellen (Calu-3). Bilder aus K. Gupta et al., [1] von Redn. eingefügt,Lizenz: cc-by.

Die neue Version des Virus kann sich besser replizieren und ist stärker infektiös als frühere Varianten.

„In der heterogenen Umgebung des menschlichen Körpers können solche Deletionsvarianten in geeigneten Zelltypen entstehen, welche als potenzielle Nischen zur Weiterentwicklung oder Spezialisierung von SARS-CoV-2 fungieren“, schreiben die Forscher.

Das ist beängstigend.

Synthetische Minimal-Virionen

Die Forscher haben dann untersucht, wie dies geschieht, indem sie künstliche Versionen des Virus verwendeten, die mit Techniken der synthetischen Biologie zusammengebaut wurden. Abbildung 2.

Abbildung 2: Menschliche Epithelzellen (grün mit blauen Kernen) werden mit synthetischen Sars-CoV-2-Viren (magenta) inkubiert, um den Beginn der Infektion und die Immunabwehr zu untersuchen. (Halo Therpeutics). Bilder aus K. Gupta et al., [1] von Redn. eingefügt,Lizenz: cc-by.

Die zweite Veröffentlichung beschreibt diese „synthetischen Minimalvirionen“, auch bekannt als MiniVs, des Wildtyps SARS-CoV-2 und Kombinationen der Mutationen aus der Parade der Varianten [2].

Dabei haben sie herausgefunden, dass Fettsäuren, wie sie während eines Entzündungsprozesses freigesetzt werden (das ist die initiale Reaktion des angeborenen Immunsystems auf eine Infektion), an die neue Mutante binden und dabei ein subtiles Zusammenfalten der Form des Spikeproteins bewirken, die dieses vor dem Ansturm von Antikörpern aus der spezifischeren Reaktion des adaptiven Immunantwort tarnt. Abbildung 3.

Abbildung 3: Das Spike-Protein ändert bei der Bindung einer Fettsäure seine Form - damit kann es nicht mehr an den ACE-2-Rezeptor der Wirtszelle andocken und es wird für das Immunsystem weniger sichtbar. Abbildung aus O. Staufer et al., [2] von Redn. eingefügt. Lizenz cc-by

Die Forscher haben ein Unternehmen, Halo Therapeutics, gegründet, um antivirale Pan-Coronavirus-Mittel zu entwickeln, basierend auf dem Tanz von Spikeprotein-Tasche mit den ACE-2-Rezeptoren auf menschlichen Zellen  – egal wo diese sich im Körpebefinden.

Fazit

Wenn wir also unsere Masken abnehmen und fröhlich zu einem Anschein von Normalität zurückkehren, dürfen wir nicht vergessen, dass SARS-CoV-2 immer noch überall da draußen lauert und sich ständig verändert.

Wir müssen für das nächste Mal bereit sein!

 

 


 [1] Kapil Gupta et al., Structural insights in cell-type specific evolution of intra-host diversity by SARS-CoV-2. Nature Comm. (2022) 13:222 https://doi.org/10.1038/s41467-021-27881-6
[2] Oskar Staufer et al., Synthetic virions reveal fatty acid-coupled adaptive immunogenicity of SARS-CoV-2 spike glycoprotein. Nature Comm. (2022) 13:868  https://doi.org/10.1038/s41467-022-28446-x 


* Der Artikel ist erstmals am 3.März 2022 in PLOS Blogs - DNA Science Blog unter dem Titel "SARS-CoV-2 Pops Up, Mutated, Beyond the Respiratory Tract"

https://dnascience.plos.org/2022/03/03/sars-cov-2-pops-up-mutated-beyond-the-respiratory-tract/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Einige Überschriften und Abbildungen 1 und 3 plus Legenden wurden von der Redaktion eingefügt.

inge Fri, 11.03.2022 - 01:29

Stoppt den Krieg mit der Ukraine! Bereits über 1,18 Millionen Russen haben Petitionen unterschrieben

Stoppt den Krieg mit der Ukraine! Bereits über 1,18 Millionen Russen haben Petitionen unterschrieben

Fr,04.03.2022 — Redaktion

RedaktionIcon Friede Ein Tsunami des Protests geht quer durch Russland und schwillt weiter an: Über 1,18 Millionen Russen - Wissenschaftler und Lehrer, Architekten und Designer, Ärzte und IT-Spezialisten, Journalisten und Schriftsteller, Werbefachleute und Psychologen, Kulturschaffende und Vertreter des Klerus, und, und, und... - haben bereits Petitionen gegen den Krieg mit der Ukraine unterschrieben und stündlich werden es um rund 900 mehr. Aufrufe, die wie nahezu alle Staaten der Welt den Krieg als ungerechtfertigt, schändlich und kriminell sehen, sind derzeit noch öffentlich einzusehen. Kann das neue Gesetz, das die Verbreitung angeblicher „Falschinformationen“ und Diskreditierung russischer Armeeangehöriger verbietet, den Protest der Russen zum Schweigen bringen?

Wenn man Presse und Medien verfolgt, gewinnt man den Eindruck, dass die Menschen in Russland kaum erfahren, was sich derzeit in der Ukraine abspielt und/oder dass sehr viele den Lügen der Regierung Glauben schenken. Diejenigen, von denen man annimmt, dass sie Bescheid wissen, hält man aber für zu apathisch und vor allem zu mutlos, um gegen die kriminellen Militäraktionen ihrer Machthaber die Stimme zu erheben. Dass bereits 6440 Anti-Kriegs Demonstranten in brutaler Weise von den russischen Sicherheitskräften festgenommen wurden, zeigt ja, dass solche Proteste mit einem nicht zu unterschätzenden Risiko für Leib und Leben verbunden sind.

Nun, viele Russen sind nicht apathisch, viele Russen zeigen Mut offen den Krieg mit der Ukraine zu verurteilen, den sie ebenso wie nahezu alle Staaten der Welt als ungerechtfertigt, schändlich und kriminell sehen. Seit dem Tag des Einmarsches in die Ukraine wurden von unterschiedlichsten russischen Bevölkerungsgruppen "Offene Briefe" gegen den Krieg verfasst und unterzeichnet. Einer dieser, von russischen Wissenschaftlern und - Journalisten verfassten "offenen Briefe" wurde bereits von über 7 000 Russen unterzeichnet; er ist im ScienceBlog unter Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg nachzulesen.

Lew Ponomarjow: Gegen den Krieg - Net Voyne

Der russische Physiker und Mathematiker Lew Ponomarjow , ein bekannter Politiker und Menschenrechtsaktivist hat auf dem Portal www.change.org/ eine Petion gestartet, in der er gegen den Krieg in der Ukraine aufruft und klare Worte spricht:

Abbildung 1: Abbildung 1. Der Aufruf von Lew Ponomarjow Njet Woynje wurde bereits von mehr als 1,18 Mio Menschen unterzeichnet. (Grafik nach den Zahlen auf www.change.org/ (https://rb.gy/ctnvxk) von der Redaktion erstellt.)

"Wir betrachten alle als Kriegsverbrecher, die die Entscheidung für kriegerische Aktionen im Osten der Ukraine und für die von den Machthabern abhängige kriegsauslösende Propaganda in den russischen Medien rechtfertigen. Wir werden versuchen, sie für ihre Taten zur Rechenschaft zu ziehen.

Wir appellieren an alle vernünftigen Menschen in Russland, von deren Taten und Worten etwas abhängt. Werden Sie Teil der Antikriegsbewegung, stellen Sie sich gegen den Krieg. Tun Sie dies zumindest, um der ganzen Welt zu zeigen, dass es in Russland Menschen gab, gibt und geben wird, die die von den Machthabern begangene Niederträchtigkeit nicht akzeptieren werden, die den Staat und die Völker Russlands selbst zu einem Instrument ihrer Verbrechen gemacht haben. "

Am Tag 9 des Krieges um 12:00 h haben bereits 1 175 786 Menscchen ihre Unterschriften unter den Aufruf gesetzt, um 23:00 waren es 1.181.101, Tendenz weiter steigend. Abbildung 1.

Wir sind nicht allein - My ne odni

Die Webseite https://we-are-not-alone.ru/ hat eine Liste der zahlreichen russischen Petitionen gegen den Krieg in der Ukraine erstellt mit Links zu den Originaldokumenten - die meisten auf der Plattform https://docs.google.com/ - und laufend aktualisierten Zahlen der Unterzeichner. Die Seite gibt an:

"Wir möchten, dass Sie wissen, dass Lehrer und Nobelpreisträger, Ärzte und Designer, Journalisten und Architekten, Schriftsteller und Entwickler, Menschen aus dem ganzen Land bei Ihnen sind. Wir sind nicht alleine"

Gestern nachts hat diese Webseite noch funktioniert, heute kann sie leider nicht mehr aufgerufen werden. Laut  https://ura.newssind diverse Medienportale - u.a. we are not alone.ru - in der Ukraine einem Cyberangriff zum Opfer gefallen.

Proteste aus ganz Russland

Bis gestern war es einfach die "offenen Briefe" diverser Berufsgruppen/Institutionen von der Seite https://we-are-not-alone.ru/ abzurufen. Einige dieser Texte sollen als Beispiele für den furchtlosen Protest russischer Bürger dienen (s. unten). Mit Stand 3.3.2022 hatten bereits mehr als 156 000 Mitglieder einzelner Berufsgruppen Aufrufe gegen den Krieg mit der Ukraine unterschrieben; die Tendenz war stark steigend. Zur Veranschaulichung ist eine kleine Auswahl von Berufsgruppen in Abbildung 2. dargestellt.

Abbildung2: Aufrufe "Gegen den Krieg in der Ukraine" von Migliedern der IT-Branche und der Wirtschaft und von Vertretern aus Politik, Recht und Gesellschaft. Berufsgruppen und deren Aufrufe konnten von der nun nicht mehr einsehbaren Seite https://we-are-not-alone.ru/ entnommen werden. Die Zahlen der jeweiligen Unterschriften wurden am 3.3.2022 erhoben.

Zweifellos beweisen zahlreiche Vertreter politischer Parteien, Anwälte aber auch Mitglieder des Klerus den Mut namentlich gegen den Krieg Stellung zu beziehen!

Auch Ärzte und andere im Gesundheitssektor Beschäftigte, Kunst- und Kulturschaffende, Sportler und Vertreter der Freizeitindustrie, Architekten und Designer, Vertreter in allen möglichen Branchen von Industrie, und, und, und,..... wurden aufgerufen die Protestnoten gegen den Krieg zu unterzeichnen und die Zahl der Unterschriften steigt und steigt.

Eine Auswahl von Institutionen und Vertretern aus Wissenschaft und Bildung findet sich in Abbildung 3. Hier sind vor allem Aufrufe von verschiedenen Fakultäten der berühmtesten russischen Universität, der Lomonosow Universiät hervorzuheben.

Abbildung 3: Aufrufe "Gegen den Krieg in der Ukraine" von Vertretern aus Wissenschaft und Bildungssektor. Links zu den einzelnen Aufrufen wurden der nun nicht mehr aufrufbaren Seite https://we-are-not-alone.ru/. entnommen, Die Zahl der jeweiligen Unterschriftenwurde am 3.3.2022 erhoben.

Um einen Eindruck von den Protestschreiben zu gewinnen , sind im Folgenden einige dieser Texte wiedergegeben. (Siehe auch Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg).

Offener Brief der Gemeinschaft der Staatlichen Universität Moskau (Lomonosov Universität) gegen den Krieg

https://msualumniagainstwar.notion.site/0378ab0a0719486181781e8e2b360180

(Bis jetzt : 5795 Unterschriften)

Wir, Studenten, Doktoranden, Lehrer, Mitarbeiter und Absolventen der ältesten, nach M.V. Lomonosov benannten Universität Russlands, verurteilen kategorisch den Krieg, den unser Land in der Ukraine entfesselt hat.

Russland und unsere Eltern haben uns eine fundierte Ausbildung vermittelt, deren wahrer Wert darin liegt, das Geschehen um uns herum kritisch zu bewerten, Argumente abzuwägen, einander zuzuhören und der Wahrheit treu zu bleiben – wissenschaftlich und humanistisch. Wir wissen, wie man die Dinge beim richtigen Namen nennt und wir können uns nicht absentieren.

Das was die Führung der Russischen Föderation in deren Namen als „militärische Spezialoperation“ bezeichnet, ist Krieg, und in dieser Situation ist kein Platz für Euphemismen oder Ausreden. Krieg ist Gewalt, Grausamkeit, Tod, Verlust geliebter Menschen, Ohnmacht und Angst, die durch kein Ziel zu rechtfertigen sind. Krieg ist der grausamste Akt der Entmenschlichung, der, wie wir innerhalb der Mauern von Schulen und Universität gelernt haben, niemals wiederholt werden sollte. Die absoluten Werte des menschlichen Lebens, des Humanismus, der Diplomatie und der friedlichen Lösung von Widersprüchen, wie wir sie an der Universität erfahren durften, wurden sofort mit Füßen getreten und weggeworfen, als Russland auf verräterische Weise in das Territorium der Ukraine eindrang. Seit dem Einmarsch der Streitkräfte der Russischen Föderation in die Ukraine ist das Leben von Millionen Ukrainern stündlich bedroht.

Wir bringen dem ukrainischen Volk unsere Unterstützung zum Ausdruck und verurteilen kategorisch den Krieg, den Russland gegen die Ukraine entfesselt hat.

Als Absolventen der ältesten Universität Russlands wissen wir, dass die Verluste, die in den sechs Tagen eines blutigen Krieges angerichtet wurden – vor allem menschliche, aber auch soziale, wirtschaftliche und kulturelle – irreparabel sind. Wir wissen auch, dass Krieg eine humanitäre Katastrophe ist, aber wir können uns nicht ausmalen, wie tief die Wunde ist, die wir als Volk Russlands dem Volk der Ukraine und uns selbst gerade jetzt zufügen.

Wir fordern, dass die Führung Russlands sofort das Feuer einstellt, das Territorium des souveränen Staates Ukraine verlässt und diesen schändlichen Krieg beendet.

Wir bitten alle russischen Bürger, denen ihre Zukunft am Herzen liegt, sich der Friedensbewegung anzuschließen.

Wir sind gegen Krieg!


Offener Brief von Absolventen der Philologischen Fakultät der Lomonosow-Universität

https://rb.gy/ppxx09

(Bis jetzt : 1 071 Unterschriften)

Wir Absolventen der Philologiefakultät der Staatlichen Universität Moskau fordern ein sofortiges Ende des Krieges in der Ukraine.

Der Krieg wurde unter Verletzung aller denkbaren internationalen und russischen Gesetze begonnen.

Der Krieg hat bereits zahlreiche Opfer, darunter auch Zivilisten, gefordert und wird zweifellos weitere Opfer fordern.

Der Krieg spiegelt die Entwicklung einer Welt wider, wie sie vor vielen Jahren bestand.

Der Krieg führt zur internationalen Isolation Russlands, die gigantische wirtschaftliche und soziale Folgen haben wird und auch einen verheerenden Schlag der russischen Wissenschaft und Kultur versetzen wird.

Uns wurde beigebracht, Konflikte mit Worten zu lösen, nicht mit Waffen. Vor unseren Augen beginnt die russische Sprache weltweit als Sprache des Aggressors wahrgenommen zu werden, und wir wollen dies nicht auf uns nehmen.

Wir fordern eine sofortige Waffenruhe und eine diplomatische Lösung aller Probleme.


Offener Brief von Absolventen, Mitarbeitern und Studenten des Moskauer Institus für Physik und Technologie (MIPT) gegen den Krieg in der Ukraine

https://rb.gy/fphkqs

 (Bis jetzt : 3 321 Unterschriften)

Wir, Absolventen, Mitarbeiter und Studenten des Moskauer Instituts für Physik und Technologie, sind gegen den Krieg in der Ukraine und möchten an die Absolventen, Mitarbeiter und das Management des MIPT appellieren.

Seit vielen Jahren wird uns beigebracht, dass unser Institut eine Gemeinschaft ist, in der sich Physiker gegenseitig zu Hilfe kommen. Jetzt ist genau so ein Moment. Wir bitten Sie, Ihre Meinung offen zu äußern und nicht zu schweigen. Wir sind sicher, dass das MIPT diesen sinnlosen und empörenden Krieg nicht unterstützt. Einen Krieg auch gegen ehemalige und jetzige Studenten, MIPT-Mitarbeiter, deren Verwandte und Freunde.

Uns wurde gesagt, dass Physik- und Technologieabteilungen beispielgebend sind. Und wir fordern unser Institut auf, ein Beispiel für andere Universitäten und Organisationen zu werden und das Vorgehen der Führung des Landes und von Präsident Putin öffentlich zu verurteilen. Es gibt keine rationale Rechtfertigung für diesen Krieg. Die Folgen einer Militärinvasion sind katastrophal für die Ukraine, für Russland und möglicherweise für die ganze Welt.

Wir bitten Sie, haben Sie keine Angst sich gegen einen schrecklichen Krieg auszusprechen und alles zu tun, um ihn zu stoppen.

Wir warten auf eine offene Stellungnahme des Managements und der offiziellen Vertreter.

Mit Hoffnung für die Welt


Ein offener Brief russischer Geographen gegen Militäroperationen in der Ukraine

https://rb.gy/cxml9v

  (Bis jetzt : 1 818 Unterschriften)

An Wladimir Putin, Präsident der Russischen Föderation

Wir, Bürger der Russischen Föderation, Geographen, Lehrer, Wissenschaftler, Studenten, Doktoranden und Absolventen, die diesen Appell unterzeichnet haben, sind uns unserer Verantwortung für das Schicksal unseres Landes bewusst und lehnen militärische Operationen auf dem Territorium des souveränen Staates Ukraine kategorisch ab. Wir fordern von allen Seiten einen sofortigen Waffenstillstand und den Abzug russischer Truppen auf russisches Territorium.

Wir halten es für unmoralisch, jetzt zu schweigen, wo jeden Tag und jede Stunde Menschen infolge von Feindseligkeiten sterben. Die Feindseligkeiten bedrohen so gefährdete Standorte wie das Kernkraftwerk Tschernobyl, Wasserkraftwerke am Dnjepr und die einzigartigen Biosphärenreservate der Ukraine. Im 21. Jahrhundert ist es nicht akzeptabel, politische Konflikte mit Waffen in der Hand zu lösen; alle Widersprüche innerhalb der Ukraine und zwischen unseren Staaten sollten nur durch Verhandlungen gelöst werden. Egal, was die Invasion russischer Truppen rechtfertigt, alle Russen und zukünftige Generationen von Russen werden dafür bezahlen.

Die Militäroperation macht die langjährigen Bemühungen von Geographen und anderen Experten zur Erhaltung von Landschaften, zur Bekämpfung des Klimawandels, zur Schaffung besonders geschützter Naturgebiete, zur Analyse und Planung der friedlichen territorialen Entwicklung der Volkswirtschaften Russlands und der Ukraine und ihrer grenzüberschreitenden Zusammenarbeit sinnlos . Wir können die Mission der Fortsetzung der friedlichen und harmonischen Entwicklung unseres Landes, seiner Integration in die Weltwirtschaft nicht aufgeben.

Wir wollen unter einem friedlichen Himmel leben, in einem weltoffenen Land und einer weltoffenen Welt, um die wissenschaftliche Forschung für den Frieden und das Wohlergehen unseres Landes und der ganzen Menschheit fortzusetzen.

Die Kämpfe müssen sofort eingestellt werden!


Lehrer gegen Krieg. Ein offener Brief russischer Lehrer gegen den Krieg auf dem Territorium der Ukraine

https://rb.gy/pogi8f

(Bis jetzt rund 4600 Unterschriften)

Jeder Krieg bedeutet Menschenopfer und Zerstörung. Er führt unweigerlich zu massiven Verletzungen der Menschenrechte. Krieg ist eine Katastrophe.

Der Krieg mit der Ukraine, der in der Nacht vom 23. Februar auf den 24. Februar begann, ist nicht unser Krieg. Die Invasion des ukrainischen Territoriums begann für russische Bürger, aber gegen unseren Willen.

Wir sind Lehrer und Gewalt widerspricht dem Wesen unseres Berufs. Unsere Studenten werden in der Hölle des Krieges sterben. Krieg wird unweigerlich zu einer Verschlimmerung der sozialen Probleme in unserem Land führen.

Wir unterstützen Anti-Kriegsproteste und fordern eine sofortige Waffenruhe.


Ausblick

Eben melden unsere Medien, dass Moskau in Sachen Meinungsfreiheit im eigenen Land die Daumenschrauben weiter anzieht (https://orf.at/stories/3251037/ ). Das Parlament hat ein Gesetz auf den Weg gebracht, das die Verbreitung von „Falschinformationen“ über die Streitkräfte und deren Diskreditierung unter strenge Strafen stellt. Des weiteren wurde der Zugang zu social media wie Facebook und Twitter blockiert.

Kann dieses neue Gesetz den Protest der Russen zum Schweigen bringen?

inge Sat, 05.03.2022 - 01:04

Comments

Wenige Stunden nach Erscheinen von einigen der zahlreichen Aufrufe im Blog sind diese bereits gelöscht oder blockiert:

Offener Brief der Gemeinschaft der Staatlichen Universität Moskau (Lomonosov Universität) gegen den Krieg

Der Appell wurde (um 00:10, 5. März 2022) von mehr als 7.500 Absolventen, Mitarbeitern und Studenten der Staatlichen Universität Moskau unterzeichnet. Namensunterschriften werden vorübergehend ausgeblendet, stehen aber den Beschwerdeführern zur Verfügung.

------------------------------------------

Offener Brief von Absolventen der Philologischen Fakultät der Lomonosow-Universität

* UPDATE VOM 03.05.2022 (21.43 Uhr Moskauer Zeit): Aus Angst, dass die Unterzeichner des Schreibens von den russischen Behörden verfolgt würden, habe ich als Initiator der Unterschriftensammlung beschlossen, sie zu verbergen. Alexander Berdichevsky, PhD, Jahrgang 2007.*

-------------------------------------------

Offener Brief von Absolventen, Mitarbeitern und Studenten des Moskauer Institus für Physik und Technologie (MIPT) gegen den Krieg in der Ukraine https://rb.gy/fphkqs

Wir sind in Sorge um die Sicherheit derer, die diesen Brief unterzeichnet haben. Sie laufen Gefahr, unter ein neues Gesetz zu fallen, das die Diskreditierung des russischen Militärs und die Behinderung seines Einsatzes bestraft. Seine Verletzung ist mit Geld- und Freiheitsstrafen von bis zu 15 Jahren Gefängnis verbunden. Daher haben wir den Text des Schreibens gelöscht und das Aufnahmeformular geschlossen.

-------------------------------------------------

Ein offener Brief gegen den Krieg [jetzt können wir nicht genau sagen, welcher] wurde von 5.000 russischen Lehrern unterzeichnet

Wir haben den vollständigen Text des Appells von russischen Lehrern entfernt, da am 4. März ein neues Gesetz verabschiedet wurde. Jetzt kann eine Person für Antikriegsappelle verwaltungs- oder strafrechtlich bestraft werden. Aber wir sind sicher, dass der Krieg eine Katastrophe ist und beendet werden muss.

-------------------------------------------------

Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg

Es gibt keine rationale Rechtfertigung für den Krieg mit der Ukraine: Tausende russische Wissenschaftler und Wissenschaftsjournalisten protestieren gegen den Krieg

Mo, 28.02.2022 — Redaktion

RedaktionIcon Friede In einem an die weltweite Öffentlichkeit gerichteten "offenem Brief" auf der Webseite https://trv-science.ru protestieren russische Wissenschaftler und Wissenschaftsjournalisten gegen die Invasion Russlands in der Ukraine: "Wir fordern einen sofortigen Stopp aller gegen die Ukraine gerichteten Militäroperationen". Bei den meisten, der auf der Webseite ersichtlichen ersten rund 100 Unterzeichner handelt es sich um Top-Wissenschaftler des Landes (viele sind Physiker, Chemiker, Mathematiker, Biologen), die der Russischen Akademie der Wissenschaften angehören. Inzwischen haben bereits 7400 (Stand 4.3.2022; 12:50) Wissenschaftler und Journalisten den Brief unterzeichnet. Kann der Kreml einen Protest so vieler Spitzenwissenschaftler ignorieren? *

Ein offener Brief russischer Wissenschaftler und Wissenschaftsjournalisten gegen den Krieg mit der Ukraine

Wir russischen Wissenschaftler und Wissenschaftsjournalisten protestieren mit Nachdruck gegen die von den Streitkräften unseres Landes begonnene militärische Offensive auf dem Territorium der Ukraine. Dieser fatale Schritt führt zu enormen Verlusten an Menschenleben und untergräbt die Grundlagen des etablierten Systems der internationalen Sicherheit. Die Verantwortung für die Entfesselung eines neuen Krieges in Europa liegt ausschließlich bei Russland.

Abbildung 1: Der offene Brief der russischen Wissenschaftler und Wissenschaftsjournalisten im Faksimile. (Abgerufen am 28.2.2022)

Es gibt keine rationale Rechtfertigung für diesen Krieg. Die Versuche, die Situation im Donbass als Vorwand für eine Militäroperation zu nutzen, sind nicht glaubwürdig. Es ist klar, dass die Ukraine keine Bedrohung für die Sicherheit unseres Landes darstellt. Der Krieg gegen sie ist unfair und offen gesagt sinnlos.

Die Ukraine war und ist ein uns nahestehendes Land. Viele von uns haben Verwandte, Freunde und wissenschaftliche Kollegen, die in der Ukraine leben. Unsere Väter, Großväter und Urgroßväter haben gemeinsam gegen den Nationalsozialismus gekämpft. Für die geopolitischen Ambitionen der Führung der Russischen Föderation einen Krieg zu entfesseln, angetrieben von dubiosen geschichtsphilosophischen Fantasien, ist ein zynischer Verrat an ihrem Andenken.

Wir respektieren die ukrainische Staatlichkeit, die auf tatsächlich funktionierenden demokratischen Institutionen ruht. Wir verstehen die Einstellung unserer Nachbarn zu Europa. Wir sind davon überzeugt, dass alle Probleme in den Beziehungen zwischen unseren Ländern friedlich gelöst werden können.

Mit der Entfesselung des Krieges hat sich Russland selbst zur internationalen Isolation verurteilt, zur Position eines Paria-Landes. Das bedeutet, dass wir Wissenschaftler unsere Arbeit nicht mehr in üblicher Weise erledigen können, denn wissenschaftliche Forschung ist ohne intensive Zusammenarbeit mit Kollegen aus anderen Ländern undenkbar. Die Isolierung Russlands von der Welt bedeutet einen weiteren kulturellen und technologischen Abbau unseres Landes bei völligem Fehlen von positiven Perspektiven. Der Krieg mit der Ukraine ist ein Schritt ins Nirgendwo.

Es ist bitter für uns festzustellen, dass unser Land zusammen mit anderen Republiken der ehemaligen UdSSR, die einen entscheidenden Beitrag zum Sieg über den Nationalsozialismus geleistet haben, nun zum Anstifter eines neuen Krieges auf dem europäischen Kontinent geworden ist.

Wir fordern einen sofortigen Stopp aller gegen die Ukraine gerichteten Militäroperationen.

Wir fordern die Achtung der Souveränität und territorialen Integrität des ukrainischen Staates.

Wir fordern Frieden für unsere Länder.


* Der "offene Brief" der russischen Wissenschaftler ist am 24. Feber 2022 auf der Webseite https://trv-science.ru/2022/02/we-are-against-war/ erschienen. Der russische Text wurde mit Hilfe von google-Übersetzer und Wörterbüchern ins Deutsche übertragen.


Anmerkung der Redaktion

Herausgeber der Webseite "Troitzki-Variant-science"  https://trv-science.ru/ ist der Astrophysiker Boris Stern, Institute of Nuclear Research der Russischen Akademie der Wissenschaften.

trv-science ist auch auf facebook in russisch - deutsche Übersetzungen sind aber durchaus akzeptabel. Hier finden sich weitere Aufrufe zu Protesten gegen den Krieg mit der Ukraine https://www.facebook.com/trvscience/:

inge Mon, 28.02.2022 - 13:28

Comments

Die letzten Stunden der Dinosaurier

Die letzten Stunden der Dinosaurier

Fr, 25.02.2022 — Redaktion

RedaktionIcon Biologie Vor 66 Millionen Jahren hat ein riesiger Asteroid auf der Erde eingeschlagen und ein weltweites Massensterben ausgelöst. 76 % aller damals lebenden Spezies, darunter die meisten Dinosaurier wurden ausgelöscht. Untersuchungen an hervorragend erhaltenen Knochen und die Kohlenstoff- und Sauerstoff-Isotopenverteilung von fossilen Fischen, die an dem Tag des Einschlags starben, helfen Wissenschaftlern, die Jahreszeit zu bestimmen, in der das Massensterben begann. Diese dürfte einen wesentlichen Einfluss auf das bislang unverstandene selektive Überleben von Spezies am Ende der Kreidezeit gehabt haben.*

Der Asteroideneinschlag

Abbildung 1: Szenario an der Tanis-Fundstätte. Nach dem Asteroiden-Einschlag strömen Trümmer in den Tanis-Fluss, Einschlagkugeln regnen vom Himmel herab. Ein Dinosaurier versucht, der Katastrophe zu entkommen. Bild: Joschua Knuppe.)

Der Frühling ist meistens eine Zeit des neuen Wachstums, wenn das Leben aufblüht. In den letzten Tagen der Kreidezeit, vor 66 Millionen Jahren, haben die Dinosaurier und verschiedene andere Bewohner des Hell-Creek- Ökosystems die Temperaturanstiege und die längeren Tageszeiten wahrscheinlich in ähnlicher Weise erlebt wie die heutigen Organismen. Tyrannosaurus und Triceratops haben vielleicht den Drang verspürt ein Nest zu bauen, während sich Magnolien und Hartriegel auf die Blüte vorbereiten. Es könnte allerdings zu eben diesem Zeitpunkt gewesen sein, dass ein Asteroid mit einem Durchmesser von etwa 11 km auf den Planeten aufgeschlagen ist und sofort ein Massensterben ausgelöst hat, das zur Auslöschung von 76 % der bekannten Arten führen sollte. Abbildung 1. Diese wesentliche Zeitangabe ist nicht von Dinosauriern hergeleitet, sondern von den Fischen, die in den Gewässern schwammen, aus denen Edmontosaurus und seine Verwandten tranken.

Die Tanis-Fundstätte

Paläontologen und Geologen haben im Jahr 2019 ihre erste Arbeit über eine Fossilienfundstelle in North Dakota mit der Bezeichnung „Tanis“ veröffentlicht. Abbildung 2.

Abbildung 2: Massenhaft aneinander gepresste Fische in der Überschwemmungsflut-Lagerstätte Tanis (Quelle: Robert DePalma / University of Kansas. https://www.smithsonianmag.com/science-nature/fossil-site-captures-dinosaur-killing-impact-its-only-beginning-story-180971868/)

Nach Meinung der Forscher enthält dieser Ort entscheidende Hinweise darauf, was in den ersten Minuten und Stunden nach dem Aufprall geschehen ist – dazu gehören gut erhaltene fossile Fische, die Trümmer des Asteroideneinschlags in ihren Kiemen aufweisen. Die Paläontologin Melanie During von der Vrije Universiteit Amsterdam und ihre Kollegen haben die Knochen dieser Fische untersucht und mit ihren modernen Gegenstücken verglichen; daraus sind sie zu dem Schluss gekommen, dass der Einschlag, der das Zeitalter der Dinosaurier beendete, höchstwahrscheinlich im Frühjahr stattfand.

Fosssile Fische dokumentieren die Zeitspanne unmittelbar nach dem Asteroideneinschlag

Zu dieser Schlussfolgerung, die vorgestern in Nature veröffentlicht wurde [1], hat es Jahre gebraucht. During erinnert sich an eine Präsentation, die der Geologe Jan Smit 2017 an der Institution gegeben hat, an der sie an ihrer Thesis arbeitete. Ein Teil von Smits Präsentation befasste sich mit neuen, bisher unveröffentlichten Funden am Standort Tanis. Die dort gefundenen Fossilien waren nicht nur bis hin zu ihren kettenhemdartigen Schuppen außergewöhnlich gut erhalten, die Stätte schien zudem auch die unmittelbaren Folgen des Asteroideneinschlags zu dokumentieren. Fossilien aus dieser Zeitspanne sind äußerst schwer zu finden, ganz zu schweigen von relativ vollständigen. „Ich glaube mich zu erinnern, dass ich richtig aufgeregt war, als er uns die Bilder zeigte und uns die Geschichte erzählte“, sagt During. Die Fische schienen perfekte Kandidaten für eine geochemische Analyse zu sein, die enthüllen könnte, was am Ende der Kreidezeit geschah. Nachdem sie sich mit Smit und ihrem Betreuer Jeroen van der Lubbe beraten hatte, machte sich During nach Tanis auf, um dort fossile Fische auszugraben.

During war hinter den Geheimnissen in den Knochen der Löffelstöre und Störe her, die in Tanis konserviert waren. Ganz ähnlich wie ihre modernen Gegenstücke wiesen die uralten Störe und Löffelstöre der Hell Creek Formation ein zyklisches Wachstum auf. During nutzte moderne Störe und Löffelstöre, um die Biologie ihrer alten Verwandten zu untersuchen, da moderne Fische den am Standort Tanis gefundenen fossilen Formen sehr ähnlich sind. „Ich denke, wir können davon ausgehen, dass kreidezeitliche Störe und Löffelstöre eine ähnliche Biologie wie die lebenden Formen hatten, weil ihre Anatomie so ähnlich ist und sie ähnliche Umgebungen bewohnen“, sagt die Paläontologin Alison Murray von der University of Alberta, die an der neuen Studie nicht beteiligt war.

Ebenso wie ihre modernen Verwandten sind die damaligen Fische in den wärmeren Monaten, wenn es reichlich Nahrung gab, gewachsen und haben mehr Knochengewebe angebaut. In kühleren, raueren Monaten hat sich jedoch ihr Wachstum verlangsamt und eine Linie – eine so genannte Linie des Wachstumsstopps – in ihren Knochen hinterlassen. Darüber hinaus haben die Knochen dieser Fische Signaturen von stabilen Sauerstoff- und Kohlenstoffisotopen aufgewiesen. Die Isotopenverteilung wurde beeinflusst von dem, was die Fische gefressen haben, und von den Gewässern, in denen sie geschwommen sind. Es sind geochemische Signale, die von Paläontologen genutzt werden, um alles zu untersuchen, von der Zeit, als frühe Wale ins Meer kamen, bis hin zu den Pflanzen, die Pflanzenfresser der Vorzeit aßen.

Insgesamt konnten Wachstumsrate und Kohlenstoffisotopen-Signatur helfen herauszufinden, wie diese Fische lebten – und zu welcher Jahreszeit sie ausstarben. „Ich denke, es ist für jedermann klar, dass der Knochen eines Fisches wächst, wenn er frisst“, sagt During „aber dies quantitativ zu erfassen, ist wirklich neu und unglaublich aufschlussreich für künftige Studien.

Konsistente Sauerstoffisotopenwerte weisen darauf hin, dass der Löffelstör am Standort Tanis ausschließlich im Süßwasser gelebt hat, anstatt von Salz- und Süßwasser zu wandern. Und die Details der prähistorischen Stör- und Löffelstörknochen weisen darauf hin, dass diese Fische noch nicht den Höhepunkt ihres jährlichen Wachstumsschubs erreicht hatten, wie er in der wärmsten Jahreszeit zu erwarten war. Auch die Kohlenstoffisotopenverhältnisse in den Gräten des Löffelstörs stimmen mit diesem Muster überein.

Der Einschlag fand statt als auf der Nordhalbkugel Frühjahr war

Wenn diese alten Fische nach einem ähnlichen Jahreszyklus gelebt haben wie ihre modernen Verwandten, dann deuten die Signaturen in ihren Knochen darauf hin, dass sie im Frühjahr gestorben sind. Die Tatsache, dass winzige Kügelchen, die während des Einschlags in die Luft geschleudert wurden, in ihren Kiemen gefunden wurden, legt den Zeitpunkt des Todes innerhalb von Minuten oder Stunden nach dem Einschlag am Ende der Kreidezeit fest. Abbildung 3. Zusammengenommen deuten diese Hinweise darauf hin, dass der Einschlag stattfand, als es in der nördlichen Hemisphäre Frühling und in der südlichen Hemisphäre Herbst war.

Abbildung 3: Rekonstruierter Teil eines Löffelstörs von der Tanis-Fundstätte. Im Ausschnitt (unten) sind winzige, durch den Asteroid-Einschlag empor geschleuderte Kügelchen zu sehen, die ausschließlich in den Kiemen lokalisiert waren. (Bild: European Synchrotron Radiation Facility aus During et al., (2022) [1]; cc-by-Lizenz)

Der saisonale Zeitpunkt des Einschlags sollte globale Auswirkungen gehabt haben. In der nördlichen Hemisphäre war möglicherweise Paarungs- oder Brutzeit für viele Dinosaurier und kleine Säugetiere könnten sich möglicherweise länger außerhalb ihrer Höhlen aufgehalten haben. Im Vergleich dazu hatten auf der Südhalbkugel Pflanzen möglicherweise bereits ihre Samen für das nächste Jahr ausgesät und kleine Tiere in ihren Höhlen Winterschlaf gehalten, wodurch diese Arten sogar etwas widerstandsfähiger gegen die Auswirkungen des Aufpralls waren. Wenn dies der Fall war, dürften Organismen auf der Nordhalbkugel viel stärker betroffen gewesen sein als auf der Südhalbkugel, und das Massensterben hätte sich auf andere Weise abspielen können. Einige Hinweise deuten darauf hin, dass sich das Leben auf der Südhalbkugel nach dem Aufprall schneller erholte als auf der Nordhalbkugel, und die neue Studie könnte helfen, dieses Muster zu erklären. „Es ist wunderbar“, sagt Murray, „zu sehen, wie die Geschichte zusammenpasst.“

--------------------------------------------------------------------------

[1] Melanie A.D. During et al., The Mesozoic terminated in boreal spring. Nature (2022) https://doi.org/10.1038/s41586-022-04446-1. open access


Der vorliegende Artikel von Riley Black ist unter dem Titel "Asteroid That Decimated the Dinosaurs Struck in Spring" am 23. Feber 2022 im Smithsonian Magazin erschienen. https://www.smithsonianmag.com/science-nature/asteroid-that-decimated-the-dinosaurs-struck-in-spring-180979621/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch mehrere Untertitel und zwei Abbildungen (Abbildungen 2 und 3) ergänzt.


Weiterführende Links

ESRF-Synchotron: Dinosaurs disappeared in spring, Video 1:10 min. https://www.youtube.com/watch?v=7H5FtfMCFE4

inge Fri, 25.02.2022 - 12:46

Von Vererbung und Entwicklungskontrolle zur Reprogrammierung von Stammzellen

Von Vererbung und Entwicklungskontrolle zur Reprogrammierung von Stammzellen

Do, 17.02.2022 — Christina Beck Christina Beck

Icon Molekularbiologie

Auf adulten Stammzellen ruhen die Hoffnungen der regenerativen Medizin. Es sind dies Stammzellen, die auf ein bestimmtes Gewebe spezialisiert sind und für dessen Erneuerung, Reparatur und den Umbau sorgen. Durch geeignete Kulturbedingungen lassen sie sich in pluripotente Stammzellen reprogrammieren, die sich - wie embryonale Stammzellen - zu beliebigen Zelltypen weiterentwickeln können und mögliche "Ersatzteillager" für alte, defekte Gewebe darstellen. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, führt uns auf eine Zeitreise, die von den ersten Erkenntnissen in der Genetik über die Kontrolle von Entwicklungsprozessen bis hin zur Entdeckung von Stammzellen, ihrer Reprogrammierung in beliebige Zelltypen und die Erzeugung organähnlicher Strukturen (Organoiden) führt.*

Eine Zeitreise, die im Jahr 1864 beginnt, zeigt, wie der Erkenntnisfortschritt in der Genetik funktioniert: Im Klostergarten des Augustinerstifts in Alt-Brünn führt der Mönch Johann Gregor Mendel Kreuzungsversuche u.a. mit Erbsen durch. Dabei stößt er auf Gesetzmäßigkeiten, nach denen bestimmte Merkmale von Generation zu Generation weitergegeben werden. Mendel schickt seine Arbeit an einen namhaften Biologen, der diese – wohl auch aus Abneigung gegen die Mathematik – mit ablehnendem Kommentar zurücksendet. 1865 wird der Aufsatz dann doch noch vom Brünner Naturforschenden Verein veröffentlicht, ohne jedoch größere Aufmerksamkeit zu erlangen. Erst ein Zufall bringt Mendels Arbeit im Jahr 1900 an die wissenschaftliche Öffentlichkeit.

Seither plagen sich ganze Schülergenerationen mit den Mendelschen Regeln – und der dazugehörigen Mathematik. Die Chromosomen, die an der Vererbung beteiligten Grundstrukturen, sind in den achtziger Jahren des 19. Jahrhunderts von Walter Fleming entdeckt und untersucht worden. Doch niemand ahnt zu diesem Zeitpunkt, dass sie mit der Vererbung zu tun haben könnten. Auch die Desoxyribonukleinsäure (DNA) in Zellkernen ist durch die Entdeckung von Friedrich Miescher bereits seit 1869 bekannt. Aber erst die wissenschaftlichen Fortschritte im 20. Jahrhundert lassen die Zusammenhänge sichtbar werden: das Zeitalter der Gene beginnt.

1907 startet Thomas Hunt Morgan Züchtungsversuche an der Taufliege Drosophila. Morgan gelingt es zu zeigen, dass Gene, die sich entlang der Chromosomen aneinanderreihen, die Träger der Vererbung sind. Die Natur dieser „Gene“ ist zu diesem Zeitpunkt jedoch noch vollkommen unklar. Es dauert fast vierzig Jahre, bis der US-Amerikaner Oswald Avery nachweisen kann, dass die Weitergabe erblicher Information von einem Bakterien-Stamm auf einen anderen auf der Übertragung von DNA beruht. 1953 entwickeln James Watson und Francis Crick das Doppelhelix-Modell der DNA, bei dem sich zwei DNA-Fadenmoleküle schrauben förmig umeinanderwinden mit den Basenpaaren in der Mitte. Dieses Modell ist der Schlüssel zum Verständnis des genetischen Codes und bedeutet den Durchbruch für die genetische Forschung. Zusammen mit Maurice Wilkins erhalten die beiden Wissenschaftler dafür 1962 den Nobelpreis für Medizin.

Es hat also fast hundert Jahre gedauert, um die verschiedenen Puzzleteile zusammenzufügen. Wir wissen jetzt, dass die DNA die Basen Adenin, Thymin, Guanin und Cytosin enthält. Die Reihenfolge der Basen bedingt in verschlüsselter Form die Zusammensetzung der Proteine: Jeweils drei Basen der DNA bestimmen eine Aminosäure im Protein. Insgesamt kennt man zwanzig verschiedene Aminosäuren, die sich im menschlichen Körper zu Tausenden von Proteinen zusammenbauen lassen.

Die Suche nach dem Fehler

Proteine stellen die eigentlichen Bau- und Wirkstoffe der Zellen dar – sie bedingen am Ende die Eigenschaften, die das Leben ausmachen. Gene machen ihren Einfluss geltend, indem sie kontrollieren, welche Proteine zu welchem Zeitpunkt und an welchem Ort hergestellt werden. Sie steuern damit Zellverhalten und Entwicklung, das heißt, wie Zellen auf geordnete Weise verschieden werden.

Wie das genau funktioniert, wollen Ende der 1970er Jahre Christiane Nüsslein-Volhard und Eric Wieschaus am Europäischen Laboratorium für Molekularbiologie (EMBL) in Heidelberg herausfinden. Systematisch suchen sie nach mutierten Genen, die auf die embryonale Entwicklung der Taufliege Drosophila einwirken. In umfangreichen Screenings erforschen sie die Nachkommenschaft Tausender einzelner Fliegen (Abbildung 1) unter dem Mikroskop, eine Sisyphus-Arbeit.

Abbildung 1: Der Schlüssel zum Verstehen. Eine der interessantesten Quellen zum Verständnis des menschlichen Genoms bietet der Vergleich mit dem Genom von Modellorganismen wie der Taufliege. Die Funktionen vieler Gene sind bei Drosophila nämlich aufgrund von Experimenten bekannt. © Pavel Masek

Sie finden Fliegen, die an beiden Körperenden einen Kopf aufweisen, denen Brust- und Hinterleibssegmente fehlen oder die anstelle der Fühler ein Beinpaar auf dem Kopf tragen. Die Defekte lassen sich in drei Kategorien einteilen: sie beeinflussen entweder die Polarität, also die Ausrichtung des Embryos, seine Segmentierung oder die Positionierung von Strukturen innerhalb eines Segments. Die dreiteilige Klassifikation der Gene könnte, so die Hypothese, die schrittweise Verfeinerung des Körperbauplans in der frühen Embryogenese widerspiegeln. Bei ihren Arbeiten können sich die beiden Entwicklungsbiologen nur auf die beschreibende Analyse von Phänotypen stützen. Erst die molekularbiologischen Methoden der Genklonierung in den späten 1980er Jahren ermöglichen die Charakterisierung vieler Entwicklungsmutanten auf Molekülebene und erbringen schließlich den eindeutigen Beweis für die Richtigkeit der Hypothese. Ihre Ergebnisse markieren einen Wendepunkt in der Embryologie und werden deshalb 1995 mit dem Nobelpreis für Medizin ausgezeichnet.

Alles unter Kontrolle

Inzwischen sind etwa 150 entwicklungsregulierende Gene beschrieben worden, die die grobe Morphologie von Drosophila beeinflussen. Viele der Gene kodieren für sogenannte Transkriptionsfaktoren. Sie besitzen die Fähigkeit, im Zellkern an die DNA zu binden und so Gene an- oder abzuschalten. Auf diese Weise steuern Transkriptionsfaktoren die Produktion von Proteinen in der Zelle, die diese für die Wahrnehmung ihrer spezifischen Aufgaben benötigt. Nun ist nicht anzunehmen, dass die kleine Taufliege ein Patent für diesen Mechanismus der Entwicklungskontrolle besitzt. Forschende haben deshalb auch im Erbgut anderer Organismen nach Entwicklungskontrollgenen gefahndet: Im Genom von Wirbeltieren stoßen sie auf Sequenzbereiche, deren Sequenzen deckungsgleich mit den Entwicklungsgenen von Drosophila sind. Aus dieser strukturellen Homologie lässt sich aber nicht unmittelbar auch auf eine funktionelle Homologie schließen; denn entwicklungsgeschichtlich gesehen ist Drosophila ein Oldtimer. Die homologen Sequenzen könnten, obgleich noch strukturell bewahrt, ihre ursprüngliche Bedeutung längst verloren haben.

In einem Schlüsselexperiment können Peter Gruss und sein Team am Max-Planck-Institut für biophysikalische Chemie in Göttingen zeigen, dass Entwicklungskontrollgene von Drosophila auch bei der Maus funktionieren. Die molekularen Steuerungsmechanismen sind also über mehr als 600 Millionen Jahre der Evolution erhalten geblieben. Die Untersuchung von Genen mit Homologie zu Drosophila-Genen wird in den neunziger Jahren des 20. Jahrhunderts einer der erfolgreichsten Ansätze, um auch die Kontrolle der Entwicklung bei Wirbeltieren auf genetischem Niveau zu verstehen. Eine Voraussetzung für diese wegweisenden Experimente war die erfolgreiche Gewinnung und Kultivierung embryonaler Stammzellen bei der Maus.

Toti-, Pluri- und Multi-Talente

Was sind Stammzellen?

Abhängig von der Säugetierart können bis zum 8-Zellstadium (nach drei Zellteilungen) die aus einer befruchteten Eizelle hervorgegangenen Tochterzellen, jede für sich alleine einen kompletten Organismus aufbauen. Sie sind totipotent. Zu späteren Stadien geht diese Fähigkeit jedoch allmählich verloren. Im sogenannten Blastozysten-Stadium besteht die innere Zellmasse, der Embryonalknoten, aus pluripotenten Stammzellen. Diese sind zwar nicht mehr totipotent, ihr Differenzierungspotenzial ist jedoch nach wie vor sehr groß. Aus diesen Vielkönnern entstehen im Verlauf der weiteren Embryonalentwicklung nämlich alle im Organismus benötigten Zelltypen. Aus dem Embryonalknoten lassen sich embryonale Stammzellen gewinnen. So werden pluripotente Stammzellen genannt, die als Zelllinie im Labor wachsen. Wie die pluripotenten Stammzellen in der Blastozyste können diese auch in der Kulturschale durch Zugabe bestimmter Wachstumsfaktoren alle Zelltypen des Körpers bilden.

Darüber hinaus finden sich in vielen Geweben des ausgewachsenen Organismus adulte Stammzellen. Sie sorgen für den gewebespezifischen Ersatz von ausgefallenen Zellen. So wird beispielsweise die Haut alle 28 Tage einmal „runderneuert“ – was nach einem Sonnenbrand durchaus hilfreich ist. Im Blut werden innerhalb von 24 Stunden mehrere Milliarden Zellen durch neue ersetzt und auch Muskelgewebe wird, beispielsweise nach Muskelabbau infolge eines Beinbruchs, regeneriert. Das Entwicklungspotenzial dieser Stammzellen gilt aber als eingeschränkt und man bezeichnet sie daher, je nachdem wie stark ihr Potential eingeschränkt ist, als multi- bzw. unipotent.

Streit um Stammzellen

1998 gelingt es dem US-Amerikaner James Thomson und seinem Team erstmals, auch aus menschlichen Embryonen pluripotente Stammzellen zu isolieren und durch Zugabe bestimmter Substanzen zum Nährmedium ihre weitere Ausdifferenzierung in Laborkultur zu verhindern. Über viele Jahre hinweg können so humane embryonale Stammzellen (hES) kultiviert werden und dabei ihre Pluripotenz erhalten, also ihre Fähigkeit, sich in eine Vielzahl von Zelltypen weiterzuentwickeln. Diese Ergebnisse nähren die Hoffnung, dass es gelingen könnte, beschädigte Gewebe mit Hilfe von Stammzellen zu ersetzen und somit Krankheiten wie Schlaganfall, Parkinson, Alzheimer, Osteoporose, Herzinfarkt oder Diabetes zu behandeln.

An einer Ausweitung der Forschung mit menschlichen embryonalen Stammzellen entzündet sich Ende der 1990er Jahre jedoch eine heftige Debatte. Ethisch umstritten ist vor allem die Herstellung der Zelllinien: Menschliche embryonale Stammzellen werden aus überzähligen Embryonen gewonnen, die im Rahmen von künstlichen Befruchtungen entstanden sind. In Deutschland ist die Gewinnung embryonaler Stammzellen aus menschlichen Embryonen verboten. Das 2001 beschlossene Stammzellgesetz erlaubt jedoch die Einfuhr und Verwendung solcher Stammzellen zu genehmigungspflichtigen Forschungszwecken. Mit der im Frühjahr 2008 beschlossenen Gesetzesnovelle wurde der Stichtag bezüglich der Herstellung humaner embryonaler Stammzelllinien verschoben. Seitdem dürfen nur solche Linien importiert werden, die vor dem 1. Mai 2007 gewonnen wurden.

A(du)lte Zellen reprogrammiert

Doch Wissenschaft steht nicht still und schickt sich an, auch als unverrückbar geglaubte Dogmen zu stürzen und so ganz neue Optionen zu eröffnen: 2006 gelingt es dem Japaner Shinya Yamanaka und seinem Team an der Universität Kyoto, Hautzellen einer Maus so umzuprogrammieren, dass sie sich wie embryonale Stammzellen verhalten. Ein Jahr später schaffen sie dieses Kunststück auch mit menschlichen Zellen – und kippen damit endgültig das uralte Dogma der Biologie, wonach spezialisierte Zellen nicht wieder in eine ursprüngliche Zelle umgewandelt werden können. Um die begehrten Multitalente zu erzeugen, haben die Japaner mithilfe viraler Genfähren vier Transkriptionsfaktoren mit den kryptischen Kürzeln Oct4, Sox2, Klf4 und cMyc in die Zellen eingeschleust – also jene entwicklungsregulierenden Gene, denen die Forscher schon länger auf der Spur sind. Die so entstandenen Zellen werden als induzierte pluripotente Stammzellen, kurz iPS bezeichnet (Abbildung 2). Weltweit gilt dies als detektivische Meisterleistung. Schließlich wusste bis dahin niemand, ob und wenn ja, mit welchen Faktoren sich eine Zelle überhaupt reprogrammieren lässt. 24 Kandidaten in allen erdenklichen Kombinationen testeten die Japaner, bis sie die richtige Kombination von vier Faktoren – salopp auch als Yamanaka-Cocktail bezeichnet – gefunden hatten, mit der genau jene Gene angeschaltet und abgelesen werden, die zur Pluripotenz führen. Für diesen wissenschaftlichen Durchbruch erhält Shinya Yamanaka bereits sechs Jahre später, im Jahre 2012, den Nobelpreis für Medizin.

Abbildung2: Vom Spezialisten zum Alleskönner. Die Zugabe von vier Wachstumsfaktoren reicht aus, um aus Körperzellen wieder Alleskönner-Zellen zu machen. Diese pluripotenten Stammzellen sind in der Lage, sich zu einem beliebigen Zelltyp weiterzuentwickeln. © University of Utah

2009 gelingt es dem Team um Hans Schöler, Direktor am Max-Planck-Institut für molekulare Biomedizin in Münster, adulte Stammzellen aus dem Gehirn von Mäusen durch Zufügen eines einzigen Transkriptionsfaktors, des Oct4, in induzierte pluripotente Stammzellen (iPS-Zellen) umzuwandeln – sie brauchen lediglich etwas mehr Geduld, bis der Prozess der Reprogrammierung abgeschlossen ist. Oct4 scheint dabei eine Schlüsselrolle zu spielen: „Das Gen ist in allen pluripotenten Zellen des Embryos aktiv“, sagt Schöler. Dabei regulieren sich Oct4, Sox2 und zahlreiche andere Gene bzw. Proteine gegenseitig. Wie genau, wird immer noch in zahlreichen Laboren untersucht. Und wie so oft sind die Zusammenhänge komplizierter als ursprünglich gedacht. So haben Schöler und sein Team inzwischen herausgefunden hat, dass Oct4 für die ersten einleitenden Schritte von Pluripotenz gar nicht benötigt wird – weder in der sich entwickelnden Maus noch bei der Reprogrammierung. Ohne Oct4 ist Pluripotenz allerdings auch nicht möglich: „Es wird dann essenziell, wenn die Pluripotenz von Zellen aufrechterhalten werden muss“, erklärt Schöler.

Ersatzteillager bald praxistauglich?

Die Reprogrammierung von menschlichen Körperzellen zu humanen iPS-Zellen (hiPS) stellt nicht nur einen Durchbruch für die Forschung dar, sondern hat auch die teilweise sehr erhitzte Debatte um embryonale Stammzellen beruhigt. Dazu kommt, dass die Reprogrammierungs-Technik durch weitere Forschungen in rasantem Tempo praxisfreundlicher wird.

So gelang es dem Max-Planck-Team zusammen mit kalifornischen Wissenschaftlerinnen und Wissenschaftlern Zellen ohne virale Gen-Fähren in iPS-Zellen umzuwandeln. Dazu schleusten sie die entsprechenden Proteine direkt in die Hautzellen von Mäusen ein. „Das ist nicht trivial, denn zumindest im molekularen Maßstab sind Proteine extrem groß“, so Schöler. Doch ein Trick half: Sie koppelten eine kleine Kette aus Bausteinen der Aminosäure Arginin an die zuvor eigens in Bakterien hergestellten Proteine. Dieses molekulare Zugangsticket erleichtert deren Eintritt in die Zellen.

Die Zugabe der Proteine birgt nach heutigen Kenntnissen kein Risiko – auch weil sie im Inneren der Zelle recht schnell abgebaut werden. „piPS-Zellen“ haben die Forscher ihre neuen Kreationen getauft: Protein induzierte pluripotente Stammzellen. Inzwischen haben andere Labore auch Verfahren entwickelt, die die chemische Reprogrammierung von iPS-Zellen („ciPS-Zellen“) erlauben. Vor dem Hintergrund einer therapeutischen Anwendung am Menschen scheint damit eines der Kernprobleme der Zell-Reprogrammierung gelöst. „Wir haben jetzt den Fuß in der Tür, aber die Verfahren müssen noch wesentlich effizienter werden“, betont Schöler. Die Hoffnung der Forschenden ist zumindest rein technisch gesehen nicht mehr utopisch:

      Sie wollen Patienten mit Herzinfarkt, Diabetes, Parkinson oder anderen Erkrankungen eines Tages Zellen entnehmen, sie in iPS-Zellen umprogrammieren und diese dann wiederum in die gewünschten Zelltypen umwandeln, um das kranke oder verletzte Gewebe durch frische und vitale Zellen zu ersetzen. Damit gäbe es dann endlich das gewünschte Ersatzteillager aus Zellen, die vom Patienten selbst stammen und von seinem Immunsystem nicht abgestoßen werden.

Tatsächlich hat die US-Gesundheitsbehörde FDA mittlerweile grünes Licht für den Start einer klinische Phase-I-Studie gegeben, die aus pluripotenten Stammzellen gewonnene Dopamin-Neurone für die Behandlung der fortgeschrittenen Parkinson-Krankheit nutzen will.

Der Jungbrunnen – ein Menschheitstraum

Abbildung3: Organ-Modelle der Zukunft. Gehirn-Organoide in der Petrischale. Mit zunehmenden Alter wird die Komplexität der Organoide größer. Zu Beginn bestehen sie aus neuralen Stamm- und Vorläuferzellen. Nach 70 Tagen dominieren reife und junge Nervenzellen sowie Gliazellen. © T. Rauen, MPI für molekulare Biomedizin

Inzwischen denken Wissenschaftlerinnen und Wissenschaftler darüber nach, wie man Zellen direkt im Körper reprogrammieren kann. Gerade der Verlust an Stammzellen im gealterten Körper macht solche Überlegungen attraktiv. Wie schön und gesundheitlich wichtig wäre es, wenn man im Alter noch genug Kraft in den Armen und Beinen hätte. Als Modellsystem nutzen Forscher u.a. sogenannte menschliche Organoide, das sind aus Stammzellen abgeleitete Organ-ähnliche Strukturen (Abbildung 3).

Das Team um Hans Schöler setzt beispielsweise Gehirnorganoide ein, um einerseits Medikamente gegen Parkinson zu finden, andererseits um Verfahren der „Zellverjüngung“ direkt im Körper zu entwickeln. Ein wichtiges Hilfsmittel dazu ist das von ihnen im Jahr 2020 publizierte vollautomatisierte Verfahren der Organoid-Züchtung. Die uralte Vision eines „Jungbrunnens“ könnte so vielleicht doch noch Wirklichkeit werden.


 *Der Artikel ist erstmals unter dem Titel: "Der Griff nach den Genen. Wie sich Zellen neu programmieren lassen" https://www.max-wissen.de/max-hefte/biomax-10-stammzellen/ in BIOMAX Ausgabe 10, Neuauflage Herbst 2021 erschienen und wurde unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


Weiterführende Links


Stammzellen in ScienceBlog.at:

inge Thu, 17.02.2022 - 12:38

Wie verläuft eine Corona-Infektion? Ergebnisse der ersten Human-Challenge-Studie

Wie verläuft eine Corona-Infektion? Ergebnisse der ersten Human-Challenge-Studie

Sa 12.02.2022  — Inge Schuster

Inge Schuster Icon Medizin Wesentliche Fragen zu Übertragung und Verlauf der Infektion mit SARS-CoV-2 konnten bislang nicht geklärt werden. Aus der ethisch umstrittenen britischen Challenge-Studie konnten erstmals konkrete Aussagen über den gesamten Verlauf der Infektion, insbesondere über deren frühe Phasen und Infektiosität getroffen werden, die in die Überlegungen zu verbesserten Teststrategien einfließen sollten. In dieser Studie wurden 34 junge, gesunde Probanden mit einer sehr niedrigen Dosis des Coronavirus (einer "prä-alpha" Variante) inokuliert, wovon 18 Probanden eine Infektion davontrugen, die zu vorübergehenden, leichten bis mittelschweren Symptomen führte. Es zeigte sich, dass früher als bisher angenommen (aktives) Virus im Rachenraum und dann in den Nasenhöhlen detektierbar wird und damit die Infektiosität - für die ein Nasentröpfchen reicht - früher als erwartet einsetzen kann, dass es sehr schnell zu einem sehr hohen Anstieg der Viruslast vor allem in der Nase kommt und Symptome offensichtlich nicht direkt mit der Viruslast korreliert sind. Besonders erwähnenswert: Die Infektion führt bei einem hohen Anteil auch junger, gesunder Menschen zu (sehr) lang anhaltenden Beeinträchtigungen des Geruchsinns: In dieser Studie waren zwei Drittel der Infizierten davon betroffen.

Nach nunmehr 2 Jahren Corona-Pandemie mit nahezu 400 Millionen Infizierten, über 5,7 Millionen an/mit COVID-19 Verstorbenen und einem bisher nie dagewesenen globalen Forschungsaufwand, der uns neuartige, hochwirksame Vakzinen und wirksame antivirale Medikamente bescherte, sind wesentliche Fragen zu Übertragung und Verlauf der Infektion bislang ungeklärt geblieben. Eine sogenannte Human-Challenge-Studie sollte hier Einblick schaffen, d.i. eine Studie, bei der gesunde Menschen gezielt dem Virus ausgesetzt werden, um Zeitverlauf (die Kinetik) der Infektion, Viruslast, Infektiosität und Krankheitssymptome quantitativ erfassen zu können. In weiterer Folge lässt sich dann untersuchen, wieweit eine Infektion durch Impfstoffe oder Medikamente unterdrückt werden kann. Mit einer relativ kleinen Zahl an Studienteilnehmern kann so zeit-und kostensparend zwischen potentiellen Vakzinen/Medikamenten selektiert und optimiert werden. Die erste derartige Challenge Studie mit SARS-CoV-2 startete im März 2021 in Großbritannien, ihre (vorläufigen) Ergebnisse wurden vorige Woche auf einem preprint Server von Springer Nature publiziert (sind also noch nicht peer-reviewed) [1].

Ethische pros und cons

Human-Challenge-Studien konnten bereits in der Vergangenheit die Entwicklung von Therapien in anderen Infektionskrankheiten, wie Typhus, Cholera, Malaria und Influenza wesentlich vorantreiben [2] - als ältestes Beispiel kann wohl die Geburtsstunde der Vakzinologie - die 1798 von Edward Jenner durchgeführte Impfung mit Kuhpocken - gesehen werden, die schlussendlich zur Ausrottung der Pocken führte. Solche Studien werden heute vom ethischen Standpunkte aus kontrovers diskutiert: einem für die öffentliche Gesundheit äußerst wertvollen Erkenntnisgewinn steht das vielleicht sehr hohes Risiko gegenüber gesunde freiwillige Probanden schwerkrank zu machen. Dabei werden freilich Erinnerungen an verbrecherische Untersuchungen auch aus jüngerer Zeit wach, die an Personen ohne deren Information und Einverständnis stattfanden - Häftlinge, Kriegsgefangene, aber auch geistig zurückgebliebene Patienten in psychiatrischen Anstalten waren die bedauernswerten Opfer.

Auch im Vorfeld der Human Challenge Studien mit SARS-CoV-2 hat es ernste Bedenken gegeben, beispielsweise hat John Mascola, Direktor am NIH-Vaccine Research Center (VRC), im Juli 2020 dazu geäußert: "Für Challenge-Studien wäre es vorzuziehen, eine sehr wirksame Behandlung mit synthetischen Arzneimitteln oder Antikörpern zur Hand zu haben. Wenn jemand krank wird, kann man sehr schnell mit den Behandlungen gegen die Infektion beginnen. Wir haben keine kurativen Behandlungen, daher sind wir derzeit noch nicht für COVID-19-Challenge-Studien gerüstet"[3].

Tatsächlich war damals erst eine einzige antivirale Substanz - Remdesivir - zur Behandlung zugelassen, die sich später in zahlreichen Studien allerdings als wenig bis völlig unwirksam herausstellen sollte (so auch in der Challenge-Studie, s. Abbildung 2). Ab Dezember 2020 stand dann auch ein Antikörpercocktail von Regeneron zur Verfügung, der vor schweren Krankheitsverläufen schützen sollte (auch Präsident Trump wurde damit behandelt).

Die britische Challenge-Studie

Bereits im Oktober 2020 kündigte ein britisches Forscherteam die erste Human-Challenge-Studie mit dem Coronavirus an. Das Versuchsprotokoll sah eine streng kontrollierte klinische Untersuchung unter Quarantänebedingungen an jungen gesunden Freiwilligen vor, die mit einer definierten niedrigen Dosis eines gut charakterisierten Virus infiziert werden sollten. Die Ethikkommission der UK Health Research Behörde genehmigte im Feber 2021 die den internationalen Ethikrichtlinien (incl. der Helsinki-Deklaration) genügende Studie und diese startete im März 2021, finanziert von der britischen Regierung mit rund 40 Millionen €. Unter der Leitung des Imperial College London waren mehrere britische Forschungsinstitutionen daran beteiligt, in Partnerschaft mit dem kommerziellen Unternehmer hVIVO Services Ltd.(Teil von Open Orphan), der weltweit als Pionier und führender Experte für das Testen von Impfstoffen und antiviralen Medikamenten in Human Challenge-Studien gilt.

Das Interesse an der Studie war groß, nahezu 30 000 Personen registrierten sich als potentielle Teilnehmer; von diesen wurden in einem Screening-Verfahren 34 junge, gesunde Personen (26 Männer, 8 Frauen) im Alter von 18 - 29 Jahren ausgewählt; diese hatten noch keine SARS-CoV-2 Infektion hinter sich und waren auch nicht dagegen geimpft. Das Design der Studie ist in Abbildung 1 skizziert

Abbildung 1: Design der klinischen Challenge Studie. Bild aus Ben Killingley et al., [1]. Lizenz cc-by 4.0.

Bereits 2 Tage vor der Infektion mit dem Virus bezogen die Freiwilligen Einzelzimmer mit 24stündiger medizinischer Überwachung in der Quarantänestation des Royal Free London NHS Foundation Trust. Die Inokulation mit dem Virus erfolgte in die Nasenhöhle mit einem Tröpfchen der niedrigsten noch quantifizierbaren Dosis einer Variante, die noch weitgehend dem ursprünglichen Wildtyp entsprach ("prä-Alpha-Variante). Täglich zweimal entnommene Nasen-und Rachenabstriche (in jeweils 3 ml Medium) ermöglichten Infektionsverlauf und Viruslast zu bestimmen. Auftretende Symptome haben die Probanden 3 x täglich in einem Tagebuch notiert. Zur Sicherheit der Probanden wurden tägliche Bluttests, Lungenfunktionstests, Tests auf diverse klinische Parameter, EKGs und Thorax-CTs durchgeführt. Beeinträchtigungen des Geruchsinns wurden mittels des von der University of Pennsylvania entwickelten Smell Identification Tests (UPSITs) festgestellt. Die Probanden blieben mindesten 14 Tage nach Inokulation in Quarantäne und wurden erst entlassen, wenn an 2 aufeinanderfolgenden Tagen kein Virus in den Nasen-/Rachen-Abstrichen mehr nachweisbar war. Weitere Tests erfolgten nach 28 Tagen und sollen auch noch nach einem Jahr stattfinden.

Als Kompensation für die Teilnahme an der Studie wurden 4500 Pfund pro Proband vorgesehen.

Der Infektionsverlauf

Erstmals konnte ein Einblick in die Anfangsphase der Infektion gewonnen werden, d.i. wie lang es nach dem definierten Zeitpunkt der Inokulation dauert bis Virusausscheidung detektierbar wird, Infektiosität eintritt (Latenzzeit) wie schnell und wie hoch die Virenlast ansteigt und wann es zu Symptomen kommt (Inkubationszeit).

Abbildung 2: Zeitverlauf der Viruslast in Nasen-und Rachenabstrichen. Oben: Bestimmung der Viruslast mittels PCR-Test in Kopien des Nucleocapsid-Gens/ml (blau) und mittels Test auf funktionelles Virus in Kultur in Foci-bildenden Einheiten (FFU)/ml (rot). Unten: Die präventiv verabreichte antivirale Substanz Remdesivir (blau) kann weder die Viruslast reduzieren noch den Zeitverlauf beeinflussen. Die Viruslast ist logarithmisch dargestellt in Form von Mittelwerten+/- Standardabweichung. Bild modifiziert aus Ben Killingley et al., [1]. Lizenz cc-by 4.0.

Das niederdosierte Inokulum des vermehrungsfähigen Virus (5,5 Mio Kopien/ml, 55 FFU/ml) führte bei 18 der 34 Probanden zur Infektion (das entsprach der angepeilten Inzidenz von 50 %). Bereits früher als man bislang angenommen hat, wurde Virusausscheidung in Nase und Rachen detektierbar: mittels PCR-Test (auf das Nucleocapsid-Gen) und auch mittels des Foci-Forming Tests in Zellkultur auf aktives Virus wurde die Viruslast im Rachen bereits nach 40 Stunden, in der Nase nach 58 Stunden nachgewiesen. Die Virusmengen stiegen dann rasant an, erreichten einen Maximalwert im Rachen von im Mittel 65 Mio Kopien/ml (800 FFU/ml) nach rund 4,7 Tagen und einen um eine Größenordnung höheren Wert von 750 Mio Kopien/ml (8000 FFU/ml) in der Nase nach 6,2 Tagen. Abbildung 2.

Auch der weitere Infektionsverlauf brachte eine neue Erkenntnis: Die Virusausscheidung klang nur langsam ab - auch 14 Tage nach Inokulation war bei allen Infizierten das Virus noch quantifizierbar, sodass bis zur fehlenden Detektierbarkeit die Quarantäne noch bis zu 5 Tage länger andauern musste.

Remdesivir erweist sich als wirkungslos

In der Hoffnung mit dem antiviralen Medikament Remdesivir den Infektionsverlauf beeinflussen zu können, wurden 10 Teilnehmer präventiv - sobald das Virus in den Abstrichen detektierbar wurde - über 5 Tage mit täglich 200 mg der Substanz behandelt. Weder der Zeitverlauf noch die Höhe der Viruslast zeigten einen Unterschied zu den nicht mit Remdesivir Behandelten (Abbildung 2). Auch hinsichtlich der Symptome gab es keinen Unterschied.

Bildung von Antikörpern

In allen infizierten Probanden hat das Immunsystem mit der Bildung von Virus-neutralisierenden - also vor der Vermehrung des Virus schützenden - Antikörpern geantwortet. Gesamt gesehen stieg deren Serumspiegel in den ersten beiden Wochen nach Infektion rasch an, um sich dann bis zum 28. Tag nur mehr zu verdoppeln. Abbildung 3. Speziell gegen das Spikeprotein, mit dem das Virus an unsere Zellen andockt, entstanden Antikörper wesentlich langsamer und zeigten dabei große individuelle Unterschiede im Zeitverlauf. Im Mittel erfolgte dann zwischen 14. und 28. Tag nach Infektion ein Anstieg der Spikeprotein- Antikörper auf das 10-fache.

Abbildung 3: Neutralisierende Antikörper (links, gemessen im Serum mittels Mikroneutralisationstest; NT50: Verdünnung des Serums bei der die Virusvermehrung in der Zellkultur um 50 % reduziert wird) und Antikörper speziell gegen das virale Spikeprotein (rechts). Bild modifiziert aus Ben Killingley et al., [1]. Lizenz cc-by 4.0.

Symptome

Von den 18 Infizierten entwickelten 16 Symptome, die sich 2 - 4 Tage nach Infektion bemerkbar machten. Es gab keine schweren Erkrankungen, keine Veränderungen der Lunge. Der Antikörpercocktail (Regeneron), der zur Behandlung schwerer Fälle hätte dienen können, brauchte nicht eingesetzt werden.

Trotz der stark ansteigenden, sehr hohe Titer erreichenden Virusausscheidung in Nase und Rachen, waren die Symptome leicht bis mittelschwer und zum überwiegenden Teil Erkältungssymptomen ähnlich. Sie betrafen vor allem den oberen Atmungstrakt - verstopfte/rinnende Nase, trockene Kehle - waren aber auch systemisch - Fieber, Muskel-/Gelenksschmerzen, Kopfschmerzen - anzutreffen. Abbildung 4 (rechts).

Ein für COVID-19 charakteristisches Symptom ist die Beeinträchtigung des Geruchsinns. Diese trat bei zwei Drittel (12/18) der infizierten Probanden (nicht aber bei den Nichtinfizierten) auf, bei 9 davon (50 %) kam es zu völligem Riechverlust. Riechminderung/Riechverlust setzte wesentlich später ein als die anderen Symptome und blieb auch länger bestehen (Abbildung 4, lila Kurve). Am Tag 28 berichteten noch 11 Probanden über Beeinträchtigungen, nach 90 Tagen waren es 4 und 5 nach 180 Tagen (Table 1, [1]).

Nach Ablauf eines Jahres sollen die Probanden nochmals auf potentielle Langzeitfolgen der Infektion untersucht werden.

Abbildung 4: Die Infektion mit SARS-CoV-2 hat zu häufigen milden, bis mittelschweren Symptomen geführt, die mit dem Zeitverlauf nicht aber mit der Höhe der Viruslast in Nase und Rachen (siehe Abbildung 2) korrelieren . Dies ist insbesondere für den sehr häufig auftretenden Riechverlust der Fall. Links: Gesamtscore der Symptome der Infizierten (rot), Riechverlust (lila, gemessen mittels University of Pennsylvania Smell Identification Tests - UPSIT). Gesamtscore der Symptome der Nichtinfizierten (schwarz). Bild aus Ben Killingley et al.,[1]. Lizenz cc-by 4.0.

Ausblick

 

Die Challenge-Studie hat gezeigt, dass ein sehr niedriges, gerade noch quantifizierbares Inokulum des aktiven Virus ausreicht, um eine Infektion hervorzurufen. Derartig niedrige Virusmengen können bereits in frühen Infektionsphasen in einem einzigen Nasentröpfchen, in einem Atemlufttröpfchen vorhanden sein, Infizierte früher als angenommen ansteckend sein. (Demzufolge erweist sich wiederum die Mund-Nasenmaske als besonders wirksame Schutzmöglichkeit) Eine wesentliche Frage ist, warum einige Menschen angesteckt werden und andere nicht. Um herauszufinden, welche Faktoren Schutz bieten können, wertet das Forscherteam der Challenge-Studie eine Fülle weiterer Ergebnisse aus, analysiert lokale und systemische immunologische Marker, darunter mögliche kreuzreaktive Antikörper, T-Zellen und lösliche Mediatoren (Cytokine) und molekularbiologische Parameter wie Genexpression.

In Hinblick auf sogenannte Impfdurchbrüche will das Forscherteam in weiteren Challenge-Studien vormals infizierte und geimpfte Probanden mit steigenden Dosierungen des Wildtyps und/oder mit anderen Virusvarianten zu inokulieren, um herauszufinden, welche Faktoren zu einem klinischen Befund führen.

In Zukunft können Challenge-Studien eine Plattform bieten, um im frühen Entwicklungsstadium schnell und effizient antivirale Entwicklungssubstanzen, Impfstoffkandidaten und Diagnostika auf Eignung zu testen und Studien zu vermeiden, die auf einer kontinuierlichen Übertragung der Infektion in der Gemeinschaft beruhen.

-----------------------------------------

Nachsatz (I.S.)

Mit Ausnahme des gestörten Riechsinns hat die Challenge-Studie rasch vorübergehende leichte bis mittelschwere Symptome hervorgerufen. Minderung bis hin zum Verlust des Riechsinn, von dem 2/3 der Infizierten betroffen war, gehört zu dem sehr häufig auftretenden, noch weithin unverstandenen Kranheitsbild von long-COVID, das eine erhebliche Reduzierung der Lebensqualität mit sich bringt [4]. Weitere Challenge-Studien, vor allem auch mit aggressiveren Virus-Varianten, sollten erst starten, wenn man in der Lage ist die langzeitigen negativen Folgen für die jungen, geunden Probanden zu minimieren.


[1] Ben Killingley et al., Safety, tolerability and viral kinetics during SARSCoV-2 human challenge. (posted 1. Feb. 2022) https://doi.org/10.21203/rs.3.rs-1121993/v1

[2] Euzebiusz Jamrozik and Michael J. Selgelid: History of Human Challenge Studies. Human Challenge Studies in Endemic Settings . 2021 : 9–23. doi:10.1007/978-3-030-41480-1_2

[3] Francis S. Collins. 16.07.2020: Fortschritte auf dem Weg zu einem sicheren und wirksamen Coronaimpfstoff - Gepräch mit dem Leiter der NIH-COVID-19 Vakzine Entwicklung

[4] Inge Schuster, 7.1.2022:Was ist long-COVID?


Artikel in ScienceBlog.at

Zu COVID19 sind bis jetzt 42 Artikel erschienen. Die Links finden sich zusammengefasst unter: Themenschwerpunkt Viren


inge Sat, 12.02.2022 - 13:47

100 Jahre Vitamin D und der erste klinische Nachweis, dass Vitamin D-Supplementierung das Risiko für Autoimmunerkrankungen verringert

100 Jahre Vitamin D und der erste klinische Nachweis, dass Vitamin D-Supplementierung das Risiko für Autoimmunerkrankungen verringert

Sa. 05.02.2022  — Inge Schuster

Inge Schuster Icon Medizin Zum 100. Geburtstag von Vitamin D ist eine klinisch überaus bedeutsame Wirkung von Vitamin D nachgewiesen worden. In einer Begleitstudie zur 5 Jahre dauernden, randomisierten, doppelblinden, Placebo-kontrollierten VITAL-Studie mit 25.871 Teilnehmern konnte erstmals gezeigt werden, dass Supplementierung mit Vitamin D vor Autoimmunerkrankungen schützt. Diese zu den häufigsten Erkrankungen zählenden Defekte sind derzeit unheilbar und können die Lebensqualität enorm beeinträchtigen. Die Prävention mit dem billigen, ungefährlichen und chemisch stabilen Vitamin D bietet einen neuen Zugang zur Bewältigung von Autoimmundefekten.

Ein kurzer Rückblick

Vor 100 Jahren wurde die antirachitische Wirkung einer Komponente - des sogenannten Vitamin D - im Lebertran entdeckt (Abbildung 1). Etwa zeitgleich konnte gezeigt werden, dass die schwere, auf eine gestörte Mineralisation der Knochen zurückzuführende Erkrankung durch Bestrahlung mit UV-Licht verhindert und geheilt werden kann. Auch hier wird die Wirkung durch Vitamin D hervorgerufen: dieses entsteht in der Haut aus der unmittelbaren Vorstufe des Steroidmoleküls Cholesterin durch UV-Licht, wie es auch im Sonnenlicht enthalten ist.

Abbildung 1: Vor 100 Jahren hat der amerikanische Biochemiker Elmer McCollum die antirachitische Wirkung einer im Lebertran enthaltenen Substanz beschrieben, die er als Vitamin D bezeichnete (Screenshot aus J.Biol. Chem 53: 293-312 (1922),cc-by-Lizenz)

Vitamin D ist Vorstufe zu einem Hormon mit diversen Funktionen

Das vom Körper selbst produzierte Vitamin D allerdings noch nicht die eigentlich wirksame Substanz; dies haben drei voneinander unabhängige Forscherteams vor 50 Jahren festgestellt. Sie haben gezeigt, dass aus Vitamin D in zwei aufeinanderfolgenden Schritten das Hormon Calcitriol entsteht, das - gebunden an seinen spezifischen Rezeptor - in der Weise von Steroidhormonen die Expression diverser Gene reguliert. Mit Hilfe neuer effizienter Methoden konnte in den 1990er Jahren dann untersucht werden, um welche Gene es sich dabei handelt: insgesamt sind es hunderte Gene - rund 3 % aller unserer Gene -, die direkt oder indirekt durch Calcitriol reguliert werden können.

Neben Genen, welche die klassische Rolle von Vitamin D in der Mineralisierung des Skeletts, im Wachstum und Umbau der Knochen und insgesamt im Calciumhaushalt erklären, gibt es eine Fülle weiterer Gene, die Schlüsselfunktionen in Wachstum und Differenzierung von Zellen innehaben, die diverse neurophysiologische Prozesse steuern und wichtige Rollen in der Regulierung der angeborenen und erworbenen Immunantwort spielen und viele andere mehr. Über diese sogenannten pleiotropen Funktionen des hormonell aktiven Vitamin D wurde bereits ausführlich im Blog berichtet [1].

Vitamin D-Mangel

Unterversorgung mit Vitamin D führt zu den eingangs erwähnten, altbekannten Störungen des Calciumhaushalts, des Knochenaufbaus und -Umbaus. Wieweit durch Vitamin D Mangel andere Funktionen des Hormons gestört werden und damit das Risiko für weitere Erkrankungen steigt, wird intensiv erforscht. Tatsächlich wird ja bei vielen Krankheiten ein Zusammenhang mit niedrigen Vitamin D- Spiegeln geortet: Dazu zählen u.a. Krebserkrankungen, Erkrankungen des Immunsystems, des kardiovaskulären Systems, metabolische Defekte, neuronale Erkrankungen und Infektionen.

Die primäre Quelle für das in unserem Organismus zirkulierende Vitamin D ist die Eigenproduktion in der dem Sonnenlicht ausgesetzten Haut; mit Ausnahme von fettem Fisch enthalten die meisten unserer Nahrungsmittel viel zu wenig Vitamin D, um nennenswerte Mengen davon aufzunehmen. Durch Lebensumstände und Gewohnheiten bedingt kommt es in der westlichen Welt häufig zu Vitamin D Mangel. Der Vitamin D-Status wird dazu an Hand der Blutspiegel des als Marker dienenden Vitamin D Metaboliten 25(OH)D bestimmt. Vitamin D-Mangel, der die Knochen-/Muskel-Gesundheit beeinträchtigt , wird allgemein (beispielsweise von der European Food Safety Authority) mit 25(OH)D -Blutspiegeln unter 20 ng/ml (50 nmole/l) definiert, wobei schwerer, zu Rachitis bei Kindern und Osteomalazie bei Erwachsenen führender Mangel vorliegt, wenn25(OH)D den Grenzwert von 10 - 12,5 Nanogramm/ml (25 - 30 nmole/l) unterschreitet. Testungen des Vitamin D-Status haben in den letzten Jahren eine enorme Steigerung erfahren. Eine rezente Metaanalyse von weltweit dazu erfolgten Studien zeigt auf, dass ein beträchtlicher Anteil der Menschheit von Vitamin D-Mangel betroffen ist: 25(OH)D -Blutspiegel unter 20 ng/ml weisen im Schnitt rund 40 % der Europäer, 37 % der Kanadier, dagegen nur 24 % der US-Amerikaner (die ja einige mit Vitamin D angereicherte Nahrungsmittel konsumieren) auf. Schweren Vitamin D-Mangel mit 25(OH)D-Spiegeln unter 10 - 12,5 ng/ml haben im Schnitt 13 % der Europäer, 7,4 % der Kanadier und 5,9 % der US-Amerikaner [2].

Dass Supplementierung von Vitamin D vor Erkrankungen des Muskel-/Knochensystems schützt, ist erwiesen. Wieweit kann Vitamin D aber auch vor den oben angeführten weiteren Krankheiten schützen? Und in welchen Dosierungen müsste Vitamin D angewandt werden, um Wirksamkeit ohne schädliche Nebenwirkungen zu erzielen?

Zu diesen Themen wurden und werden weltweit nahezu unzählige klinische Studien unternommen, die meisten davon sind in der US-amerikanische Datenbank https://clinicaltrials.gov/ gelistet: Unter dem Stichwort "vitamin D deficiency" finden sich dort insgesamt 791 Studien, von denen rund 500 bereits abgeschlossen sind. Die meisten dieser Studien leiden allerdings unter methodischen Schwächen. Abgesehen von häufig zu niedrigen Teilnehmerzahlen, kann die wesentlichste Frage nicht beantwortet werden: wie unterscheiden sich die Ergebnisse der Vitamin-D supplementierten Kohorte von denen einer Placebo-Kohorte - d.i. Vitamin D-Mangel -Kohorte?  An Letzterer sind aus ethischen Gründen ja keine Langzeitstudien verantwortbar.

Die VITAL-Studie

Das Fehlen einer solchen Vitamin D-Mangel-Gruppe trifft auch auf die bislang größte Placebo kontrollierte, randomisierte klinische Studie zu. Diese sogenannte VITAL-Studie zur präventiven Wirkung von Vitamin D3 auf Herz-Kreislauferkrankungen und Krebs wurde in dem der Harvard Medical School angegliederten Brigham and Women’s Hospital in Boston ausgeführt, deren Ergebnisse Ende 2018 publiziert. In diese Studie waren insgesamt 25 871 anfänglich gesunde Personen im Alter über 50 (Männer) bzw. 55 Jahren (Frauen) involviert, die über einen Zeitraum von etwa fünf Jahren täglich hochdosiertes Vitamin D3 (2 000 IU = 50 µg) oder Placebo und/oder parallel dazu 1 g Omega-3 Fettsäuren erhielten. Über diese Studie und ihr Ergebnis habe ich in [3] berichtet. Zum besseren Verständnis der neuen, darauf aufbauenden Begleitstudien wird das Design von VITAL nochmals in Abbildung 2 dargestellt.

Abbildung 2. Das Design der VITAL-Studie. Die primäpräventive Wirkung von Vitamin D3 und von Fischöl (EPA + DHA) auf kardiovaskuläre Ereignisse (Infarkt, Schlaganfall, CV-Tod) sowie auf invasive Krebserkrankungen wurden im Vergleich zu Placebo in randomisierten Gruppen mit N Teilnehmern untersucht. EPA: Eicosapentaensäure, DHA: Docosahexaensäure. (Bild aus [3] übernommen, Daten aus: JoAnn Manson et al.,: Vitamin D Supplements and Prevention of Cancer and Cardiovascular Disease. NEJM (10.11.2018) DOI: 10.1056/NEJMoa1809944)

Die Placebo-Gruppe wies - wie erwähnt - keinen Vitamin D-Mangel auf; es war ihr erlaubt bis zu 800 IU (20 µg) Vitamin D täglich zu sich nehmen (eine Reihe von Nahrungsmittel in den US sind ja Vitamin D supplementiert); dies entspricht der von der Deutschen Gesellschaft für Ernährung (DGE) empfohlenen Tagesdosis für ausreichende Vitamin D-Versorgung. Demzufolge lagen die Blutspiegel der Placebo-Gruppe im Schnitt bei 30,8 ng/ml (78 nM); nur 12,7 % der Teilnehmer hatten Spiegel unter 20 ng/ml, d.i. fielen unter die Definition Vitamin D-Mangel.

Das Ergebnis der Studie war enttäuschend. Die Supplementierung mit Vitamin D3 (und/oder mit Omega-3 Fettsäuren) hatte zwar eine Erhöhung der 25(OH)D-Spiegel auf etwa 41.8 ng/ml (104 nmole/l) zur Folge, im Vergleich zur Placebo-Gruppe konnte jedoch kein signifikanter Schutz vor kardiovaskulären Ereignissen oder Krebserkrankungen beobachtet werden [3]. Es ist nicht auszuschließen, dass in der Placebo-Gruppe Vitamin D seine Wirkung bereits voll entfalten konnte und ein rund 40 %iger Anstieg der Blutspiegel kaum mehr eine Steigerung der Effekte erbrachte.

Begleitende Studien zu VITAL

Design und Durchführung der VITAL-Studie haben einen enormen Aufwand bedeutet, dabei aber auch die Möglichkeit für Begleitstudien geboten, welche die Auswirkung von Vitamin D und/oder Omega-3-Fettsäuren auf andere Gesundheitsrisiken untersuchen konnten. Dabei nahm man ein weites Spektrum von Krankheiten ins Visier, das von Depression, Gedächtnisverlust, kognitivem Verfall über Infektionen bis hin zur großen Gruppe der Autoimmunerkrankungen reichte (unter "VITAL, vitamin D" sind 66 Studien in https://clinicaltrials.gov gelistet).

Autoimmunerkrankungen

Mehr als hundert unterschiedliche Autoimmunerkrankungen sind derzeit bekannt und rund 4 % der Weltbevölkerung sind davon betroffen. Zu den bekanntesten Autoimmundefekten zählen u.a. Typ 1-Diabetes, multiple Sklerose, Psoriasis, chronisch entzündliche Darmerkrankungen, rheumatoide Arthritis, Polymyalgie und autoimmune Schilddrüsenerkrankung. In der industrialisierten Welt gehören Autoimmunerkrankungen zu den häufigsten Krankheitsursachen. Einer aktuellen Umfrage der Plattform Statista zufolge sind an die 7 % der US-Amerikaner, 6 % der EU-Bürger und 5 % der Chinesen daran erkrankt (https://www.statista.com/statistics/418328/diagnosed-autoimmune-conditions-prevalence-in-selected-countries/). Die Inzidenz von Autoimmunerkrankungen steigt stark an - zum Teil dürfte da auch die höherer Informiertheit und eine verbesserte Diagnostik beitragen.

Ausgelöst werden Autoimmunerkrankungen durch ein fehlgeleitetes Immunsystem , das Komponenten des Körpers als fremd ansieht und attackiert. Autoreaktive T-Zellen und B-Zellen richten sich gegen Antigene, die aus körpereigenen Proteinen stammen. Es werden gesunde Zellen angegriffen - organspezifisch, wie im Fall von Typ1-Diabetes im Pankreas oder auch Zellen im gesamten Körper, wie im Fall des systemischen Lupus erythematodes. Was im Einzelnen zur Fehlleistung des Immunsystems führt, ist noch nicht hinreichend bekannt - eine Rolle spielen offensichtlich genetische Veranlagung, Infektionen, Ernährung und Exposition zu Umweltstoffen.

Autoimmundefekte sind chronische Erkrankungen, die derzeit nicht heilbar sind und deren Behandlung mit Immunsuppressiva von schweren Nebenwirkungen begleitet werden kann. Es wird daher nach Möglichkeiten zur Prävention dieser Erkrankungen gesucht.

VITAL-Studie zeigt: Vitamin D-Supplementierung reduziert das Risiko von Autoimmunerkrankungen

(Design der Studie: siehe Abbildung 2)

Eine der VITAL-Begleitstudien zur Auswirkung auf Autoimmunerkrankungen haben Forscher des Brigham and Women's Hospital (Boston, MA, US), an dem die VITAL-Studie gelaufen war, durchgeführt; die vielversprechenden Ergebnisse wurden kürzlich publiziert [4].

Die Studienteilnehmer hatten in jährlichem Abstand Fragebögen erhalten, in denen sie u.a. angaben, ob, wann und welche Autoimmunerkrankungen neu aufgetreten und ärztlich bestätigt worden waren. Dabei wurden explizit rheumatoide Arthritis, rheumatische Polymyalgie, autoimmune Schilddrüsenerkrankung, Psoriasis und entzündliche Darmerkrankungen angeführt , zusätzlich konnten alle anderen neu diagnostizierten Autoimmunerkrankungen eingetragen werden. Für die einzelnen Krankheiten spezialisierte Fachärzte prüften die Krankenakten und bestätigten die noch geblindeten Angaben (d.i. ohne Kenntnis ob sie aus der Vitamin D oder Placebo-Gruppe stammten) oder lehnten sie ab.

Es zeigte sich, dass Personen, die mit Vitamin D oder Vitamin D plus Omega-3-Fettsäuren supplementiert wurden, eine signifikant niedrigere Inzidenz von Autoimmunerkrankungen aufwiesen als Personen der Placebo-Gruppe. So wurden während der 5-jährigen Studiendauer bei 123 Teilnehmern in der Vitamin D-Gruppe Autoimmunerkrankungen neu diagnostiziert, in der Placebogruppe dagegen bei 155 Teilnehmern - entsprechend einer Reduktion um 22 % (Abbildung 3).

Abbildung 3. Inzidenz von Autoimmunerkrankungen in der VITAL-Studie. Kumulierte Inzidenzen in der Vitamin D-Gruppe (blau) verglichen mit der Plazebo.Gruppe (gelb).(Bild modifiziert nach J. Hahn et al., 2022 [4], Lizenz cc-by-nc.).

Autoimmunerkrankungen entwickeln sich langsam, die hemmende Wirkung von Vitamin D beginnt erst nach 2 Jahren sichtbar zu werden und könnte bei über die 5 Jahre hinaus dauernder Supplementierung noch stärker ausfallen. Werden nur die letzten 3 Jahre der VITAL-Studie betrachtet, so ergibt sich eine Reduktion der Krankheitsfälle um fast 40 %. (Was die alleinige Supplementierung mit Fettsäuren betrifft, so ergab sich eine leichte Reduktion der Erkrankungsrate, die aber erst für die letzten 3 Jahre mit 10 % Signifikanz erlangte. Auch hier ist möglicherweise erst nach längerer Anwendungsdauer eine stärkere Wirkung zu erwarten.)

Fazit

Autoimmunerkrankungen zählen zu den häufigsten Erkrankungen; sie vermindern die Lebensqualität, erhöhen die Mortalitätsrate, ihre Behandlung verursacht enorme Kosten (laut Statista wurden 2019 global US $ 140 Milliarden ausgegeben) und sie sind bis jetzt nicht heilbar. Dass Supplementierung mit Vitamin D einen Schutz vor Autoimmunerkrankungen bietet, ist von hoher klinischer Bedeutung. Bei Vitamin D handelt es sich ja um eine stabile, billige Substanz, die chronisch auch in höherer Dosis angewandt werden kann, ohne schwere Nebenwirkungen zu verursachen.


[1] Inge Schuster, 10.05.2012: Vitamin D — Allheilmittel oder Hype?

[2] Karin Amrain et al., Vitamin D deficiency 2.0: an update on the current status worldwide. Eur. J.Clin. Nutrition (2020) 74:1498–1513. https://doi.org/10.1038/s41430-020-0558-y

[3] Inge Schuster, 15.11.2018: Die Mega-Studie "VITAL" zur Prävention von Herz-Kreislauferkrankungen oder Krebs durch Vitamin D enttäuscht

[4] Jill Hahn et al., Vitamin D and marine omega 3 fatty acid supplementation and incident autoimmune disease: VITAL randomized controlled trial. BMJ 2022;376:e066452 | doi: 10.1136/bmj-2021-066452


inge Sat, 05.02.2022 - 16:29

Agrophotovoltaik - Anbausystem zur gleichzeitigen Erzeugung von Energie und Nahrungsmitteln

Agrophotovoltaik - Anbausystem zur gleichzeitigen Erzeugung von Energie und Nahrungsmitteln

Do, 27.01.2022 — Redaktion

RedaktionIcon Biologie Der Umstieg auf erneuerbare Energie konkurrenziert mit der Landwirtschaft um geeignete Bodenflächen. Eine grandiose Lösung zur optimierten Nutzung der begrenzten Ressource Land kann von Agrophotovoltaik erwartet werden, der gleichzeitigen Landnutzung sowohl für die Produktion von Energie als auch von Nahrung. Weltweit laufen Pilotprojekte, um die Effizienz solcher "Anbausysteme unter Solarpaneelen" und deren Marktfähigkeit zu testen. Wesentliche Aspekte dieser Forschungen, zu denen auch von der EU-unterstützte Projekte (PanePowerSW und HyPErFarm) beitragen, wurden kürzlich im EU-Research & Innovation Magazine "Horizon" beschrieben*. .*

In einem Photovoltaikpark auf dem griechischen Festland wird eine Mischung aus aromatischen Kräutern und Blumen angebaut. In Spanien teilen sich Artischocke und Brokkoli Felder mit Solar-Paneelen. In Belgien wurden Paneele direkt über Birnbäumen und Zuckerrübenbeeten installiert. Abbildung 1.

Abbildung 1: Forscher testen die Effizienz von Pflanzenwachstum unter Solarpaneelen und deren Marktfähigkeit. (Bild: © Brite, 2022, siehe unten)

Dies sind Beispiele für Agrophotovoltaik – eine neue nachhaltige Lösung, die auf dem Vormarsch ist. In ganz Europa tauchen Pilotprojekte auf, die aufzeigen sollen, wie die Ernte von Sonnenlicht für landwirtschaftliche Betriebe eine Win-Win-Situation sein könnte, insbesondere für Kleinbauern, die nach Möglichkeiten suchen, ihre Erträge zu steigern und gleichzeitig weniger Energie und Wasser zu verbrauchen.

Laut den Vereinten Nationen ist der Wasser-Nahrung-Energie-Nexus der Schlüssel für eine nachhaltige Entwicklung unserer Gesellschaften (1]. Nach allen drei Ressourcen steigt die Nachfrage - Treiber sind die steigende Weltbevölkerung, die rasche Urbanisierung, veränderte Ernährungsgewohnheiten und das Wirtschaftswachstum. Aus den Daten der Vereinten Nationen geht auch hervor, dass die Landwirtschaft heute der größte Verbraucher der weltweiten Süßwasserressourcen ist, und mehr als ein Viertel der weltweit verbrauchten Energie für die Nahrungsmittelproduktion und -versorgung aufgewendet wird.

Die Welt wird in den nächsten 30 Jahren Heimat von unglaublichen 10 Milliarden Menschen sein. Das sind nicht nur sehr viele Menschen, sondern auch viele Mäuler zu stopfen – viel zu viele, als dass die heutigen Landwirtschaften sie zufrieden stellen könnten. Um diese zukünftige Bevölkerung zu ernähren, müssen wir tatsächlich doppelt so viel Nahrung produzieren wie heute – eine Aufgabe, die voll von Herausforderungen ist.

Erst einmal gibt es die Herausforderung, wo mehr Pflanzen angebaut werden sollen. Von insgesamt 13 Milliarden Hektar Land auf diesem Planeten stehen nur 38 % für die Landwirtschaft zur Verfügung. Um diese Fläche zu vergrößern müssten Wälder – einschließlich Regenwälder – in Ackerland umgewandelt werden, was zu einem großen Verlust an Biodiversität führen würde. Und weil Bäume eine essentielle Rolle im Kampf gegen den Klimawandel spielen, würde eine solche Entwaldung auch zu einem Anstieg der Treibhausgasemissionen führen.

Zusätzlich zur Entwaldung besteht auch die Herausforderung der Umweltverschmutzung, da die Landwirtschaft für mindestens 10 % der weltweiten Treibhausgasemissionen verantwortlich ist. Diese sind größtenteils auf Methan zurückzuführen, das von Nutztieren produziert wird, auf die Verwendung von Düngemitteln auf Stickstoffbasis (die Stickoxid verursachen, ein 300 Mal stärkeres Treibhausgas als CO2) und auf die von fossilen Brennstoffen abhängigen landwirtschaftlichen Maschinen und Transportmittel.

Agrophotovoltaik könnte die Antwort sein

Ungeachtet des Ziels der EU, 30 % ihrer Energie bis 2030 aus Erneuerbaren Quellen zu erzeugen, sind derzeit fast alle Schritte in der Lebensmittelproduktion auf Gas und Öl angewiesen. In Anbetracht dieses Umstands würde jede Steigerung der Nahrungsmittelproduktion mit Sicherheit einen Anstieg im Verbrauchs fossiler Brennstoffe bedeuten und daraus resultierende Treibhausgasemissionen.

Agrophotovoltaik könnte der Ausweg sein. Pflanzen benötigen Sonnenlicht, um zu wachsen, landwirtschaftliche Betriebe können das Sonnenlicht nutzen, um ihre Produktionsprozesse zu betreiben. Schließlich sind landwirtschaftliche Felder in der Regel große offene Flächen, die einer Menge Sonnenlicht ausgesetzt sind. Warum also nicht Solarpaneele installieren?

„Leider nehmen Solarpaneele Platz ein“, antwortet Ilse Lenaerts, Leiterin der Wissenschafts-, Ingenieur- und Technologieeinrichtung TRANSfarm, die Forschungsgruppen der Katholieke Universiteit (KU) Leuven unterstützt [2]. „Da dieser Raum nicht mehr für den Anbau von Pflanzen genutzt werden kann, können sie den Ernteertrag eines Betriebs verringern.“

Aber es ist nicht alles verloren. „Die Agrophotovoltaik zielt darauf ab, die Produktion von Nutzpflanzen auf derselben Landfläche fortzuführen, die für Solarpaneele genutzt wird“, erklärt Lenaerts.

Im Rahmen des EU-Projekts HyPErFarm (Hydrogen and Photovoltaic Electrification on Farm; [3]) arbeitet das Team der KU Leuven daran, die Nutzung der Agrophotovoltaik voranzutreiben und sie von einem innovativen Konzept zu einer tragfähigen kommerziellen Lösung zu machen. „Wir wollen einen unanfechtbaren Business Case dafür liefern, warum Landwirte erneuerbare Energie auf ihren Höfen produzieren und nutzen sollten und warum Agrophotovoltaik der beste Weg dazu ist“, sagt sie.

Was den Produktionsprozess betrifft hat das Projekt eine einmalige Technik zur Installation von Solarpaneelen auf landwirtschaftlichen Feldern entwickelt. Anstatt die Paneele auf dem Boden zu platzieren, installiert HyPErFarm sie als eine Art Überdachung über den Pflanzen oder neben den Pflanzen als schützende Windschutzscheibe.

„Indem man die Solarpaneele über den Feldfrüchten installiert, geht kein Ackerland verloren; dies bedeutet, dass Solarenergie ohne Beeinträchtigung der Ernteerträge erzeugt werden kann“, bemerkt Lenaerts. „Die Paneele bieten den Pflanzen auch Schatten und Schutz vor widrigen Wetterbedingungen, was ebenfalls zu höheren Erträgen beitragen kann.“

Mit den installierten Solarpaneelen können Landwirte die Energie erzeugen, die für einen Großteil des Betriebs ihrer Farm (z. B. Beleuchtung, Heizung und Kühlung) benötigt wird. Das wiederum senkt die Betriebskosten – und den CO2-Ausstoß. HyPErFarm erforscht auch Möglichkeiten, diese Sonnenenergie zur Erzeugung von sauberem Wasserstoff zu nutzen, der dann zum Antrieb landwirtschaftlicher Maschinen und Geräte verwendet werden könnte.

Agrophotovoltaik-Systeme öffnen das Tor zur vollständigen Elektrifizierung landwirtschaftlicher Betriebe“, fügt Lenaerts hinzu. „Dies kommt den Landwirten nicht nur in Bezug auf Ernteerträge und Betriebskosten zugute, sondern stellt auch sicher, dass die Landwirtschaft ihren Teil dazu beiträgt, Europa dabei zu helfen, seine Klimaziele zu erreichen.“

Lass' den Sonnenschein herein

Während Solarpaneele großartig sind, wenn sie auf offenen Feldern verwendet werden, sind sie für Gewächshäuser von begrenztem Nutzen. „Da Solarpaneele Sonnenlicht absorbieren sollen, sind sie normalerweise undurchsichtig, sogar schwarz“, sagt Dr. Nick Kanopoulos, CEO von Brite Solar [4]. „Da Gewächshäuser jedoch die Menge der einfallenden Sonne maximieren müssen, sind Solarpaneele eher unpraktisch.“

Das ist bedauerlich, da die Feldbestellung in Gewächshäusern die zehnfache Menge der auf freiem Feld angebauten Früchte produziert. „Das Problem ist, dass die Produktion dieser Menge an Nahrungsmitteln zehnmal mehr Energie erfordert als ein Feld im Freien benötigt“, fügt er hinzu.

Der CEO von Brite Solar glaubt, dass der Schlüssel zur Senkung des Energieverbrauchs eines Gewächshauses darin besteht, seine Nutzung der Solarenergie zu erhöhen. Und dafür hat sein Unternehmen mit Unterstützung des PanePowerSW-Projekts (Transparent Solar Panel Technology for Energy Autonomous Greenhouses and Glass Building; [5]) das sogenannte Solarglas erfunden: ein transparentes Paneel für Gewächshäuser, das wie ein normales Fenster aussieht und gleichzeitig Sonnenlicht hereinlassen und Solarstrom erzeugen kann.

Das Geheimnis der Doppelfunktion des Solarglases ist eine innovative nanostrukturierte Beschichtung. „Die Nanobeschichtung absorbiert nur das UV-Licht, das für die Pflanzen und die Solarzellen nutzlos ist“, erklärt Kanopoulos. „Die Beschichtung transformiert dieses UV-Licht dann in das sogenannte rote Lichtspektrum, das Pflanzen zum Wachstum und Solarzellen zur Energiegewinnung nutzen.“

Um zu demonstrieren, wie bahnbrechend diese Anwendung ist, hat Brite Solar ein 1.000 Quadratmeter großes Gewächshaus für einen Weingarten in Griechenland gebaut. Das von nanostrukturbeschichteten Solarzellen völlig eingehüllte Gewächshaus kann 50 kW Leistung erzeugen – genug, um fast den gesamten Energiebedarf des Gewächshauses zu decken. „Zum ersten Mal in der Geschichte der Landwirtschaft haben wir einen negativen Kohlendioxid-Fußabdruck pro Kilogramm produzierter Feldfrüchte gemeldet“, sagt Kanopoulos.

Doch beim Demo-Gewächshaus geht es um mehr als nur um die Stromerzeugung. Es geht auch um Steigerung der Ernteerträge. Tatsächlich war es das Ziel, den Ertrag gegenüber dem zu verdoppeln, was in einem vergleichbar großen Freilandweingarten erreicht werden kann.

Gewächshäuser haben hier einen besonderen Vorteil gegenüber landwirtschaftlichen Feldern: Sie können das ganze Jahr über ernten. Beispielsweise produziert der Gewächshaus-Weingarten in Griechenland zwei Ernten, eine im Herbst und eine zweite im Winter. Dies ist eine hervorragende und relativ einfache Möglichkeit, die Erträge zu steigern, ohne mehr Ackerland schaffen zu müssen, was letztendlich weniger Entwaldung bedeuten könnte.

„All dies hat tiefgreifende Auswirkungen auf die Umwelt und weist auf eine neue Art der Landwirtschaft hin – eine, die vollständig elektrisch ist, mit erneuerbaren Ressourcen betrieben wird und in der Lage ist, nachhaltig die Lebensmittel zu produzieren, die wir für die Ernährung der Zukunft benötigen“, schließt Kanopoulos.

Dabei unterstützen Projekte wie PanePowerSW und HyPErFarm so wichtige Strategien wie die Farm2Fork-Initiative [6] und beschleunigen Europas Übergang zu einem nachhaltigen Ernährungssystem (Abbildung 2).

Abbildung 2 Farm to Fork strategy - for a fair, healthy and environmentally-friendly food system . https://ec.europa.eu/food/horizontal-topics/farm-fork-strategy_de#Strategy

-

 


[1] Water, Food and Energy: https://www.unwater.org/water-facts/water-food-and-energy/

[2] TRANSFARM: https://set.kuleuven.be/en/about-us/transfarm

[3]HyPerFarm - Eine Doppelnutzung für die Energie- und Nahrungsmittelerzeugung. EU-Projekt. https://cordis.europa.eu/project/id/101000828/de

[4] Brite Solar: https://www.britesolar.com/ dazu Brite Solar Presentation, Video 3:58 min. https://www.youtube.com/watch?v=GJ6CDqIdJww&t=198s  

[5] PanePowerSW - Transparent Solar Panel Technology for Energy Autonomous Greenhouses and Glass Buildings.EU-Projekt. EU-Strategy. https://cordis.europa.eu/project/id/804554

[6] Farm to Fork Strategy: https://ec.europa.eu/food/horizontal-topics/farm-fork-strategy_de


 *Dieser Artikel wurde ursprünglich am 21. Jänner 2022 von Nick Klenske in Horizon, the EU Research and Innovation Magazine unter dem Titel " To feed a growing population, farmers look to the Sun"https://ec.europa.eu/research-and-innovation/en/horizon-magazine/feed-growing-population-farmers-look-sun publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Abbildung 2 - Farm to Fork Strategy - wurde von der Redaktion eingefügt und stammt von der EU-Seite https://ec.europa.eu/food/horizontal-topics/farm-fork-strategy_de.


Ein kurzes Video zum Artikel:

To feed a growing population, farmers look to the Sun. Video 1:12 min. https://www.youtube.com/watch?v=rgx-0M5uP9k


inge Thu, 27.01.2022 - 12:59

COVID-19 - ist ein Ende der Pandemie in Sicht?

COVID-19 - ist ein Ende der Pandemie in Sicht?

Do, 20.01.2022 — Ricki Lewis

Ricki LewisIcon Medizin Die Infektionszahlen mit der neuen hochmutierten Omikron-Variante nehmen rasant zu. Impfungen und auch eine dritte Auffrischungsimpfung - Booster - bieten nur eingeschränkten Schutz vor einer Infektion. Grund dafür dürfte sein, dass die gegen den ursprünglichen Corona- Wildtyp gerichteten Vakzinen zwar in beschränktem Ausmaß neutralisierende Antikörper auch gegen Omikron initiieren, diese aber sehr rasch absinken. Dass es dennoch zu milderen Krankheitsverläufen kommt als bei Infektionen mit früheren Corona-Varianten, wird dem Schutz durch eine starke Vakzinen-induzierte T-Zellantwort zugeschrieben. Trotz der katastrophalen Infektionszahlen sehen führende Immunologen und Virologen nun eine positive Wendung im Infektionsgeschehen. Die Genetikerin Ricki Lewis berichtet darüber.*

Ein Ende könnte in Sicht sein. Zum ersten Mal seit Beginn der Pandemie habe ich mir eine Pressekonferenz von medizinischen Experten angehört, die mir keine Albträume bescherte.

Dies war am 11. Dezember 2021, der wöchentliche Zoom des Massachusetts Consortium on Pathogen Readiness (MassCPR). Die Gruppe eloquenter Experten hatte sich zu Beginn der Pandemie gebildet: Seither haben sie sporadische Informationsveranstaltungen für Journalisten abgehalten, die, als sich Anfang Dezember Omikron abzeichnete, bis auf wöchentliche Veranstaltungen steigerten

Von JAMA zu MassCPR

Am Anfang war ich ein Fan der Online-Gespräche mit Howard Bauchner, der damals Chefredakteur des medizinischen Fachjournals Journal of the American Medical Association war. Dr. Bauchners entspannte Art brachte die Superstars der Pandemie – von Anthony Fauci (Direktor des National Institute of Allergy and Infectious Diseases (NIAID) and Chief Medical Advisor to the President; Anm. Redn.) über Rochelle Walensky ((Leiterin der Centers for Disease Control and Prevention - CDC; Anm. Redn.) bis hin zu Paul Offit (Leiter des Vaccine Education Center)– dazu, auch entspannt zu sein. Das war noch die Zeit, als die Experten vom Ziel einer Herdenimmunität sprachen. Ich vermute, keiner von ihnen hätte daran gedacht, dass so viele Menschen lebensrettende Impfstoffe ablehnen würden. Dass die Entscheidung dafür gar zum Politikum würde, das uns alle gefährdet und einen fruchtbaren Boden für Omikron und die anderen Varianten bietet, dass sie evolvieren, auftreten und uns bedrohen. Ich muss zugeben, dass ich davon überrumpelt wurde.

Eines der ersten Gespräche von Dr. Bauchner war mit Maurizio Cecconi vom Humanitas Research Hospital in Mailand. In Coronavirus in Italy, Report from the Front Lines, beschrieb Cecconi die schreckliche Situation in der Lombardei. Es war der 16. März 2020. Ich starrte auf meinen Bildschirm, auf das Bild einer düsteren und scheinbar endlosen Parade von Särgen, die sich langsam eine breite Allee entlang bewegten. Ich hätte nie gedacht, dass meine Tochter bald einen noch schlimmeren Ausblick aus ihrem Fenster auf eine Notaufnahme in Astoria, Queens (Stadtteil von New York; Anm. Redn.) haben würde. Diese Leichen lagen nicht horizontal wie auf der italienischen Promenade, sondern vertikal gestapelt und warteten auf die weißen Kühllaster, um sie abzutransportieren.

Bedauerlicherweise ging Dr. Bauchner im Juni 2021 "über Bord", nachdem er es versäumt hatte, einen rassistischen Podcast zu stoppen, den JAMA leider und unerklärlicherweise gesponsert hatte (“Structural Racism for Doctors—What Is It?” nicht mehr verfügbar; Anm. Redn.). Darin behaupteten zwei weiße Redakteure, dass es in der Medizin keinen strukturellen Rassismus gibt, weil er illegal ist.

Ja, Dr. Bauchner hat es versäumt, auf die beiden Redakteure loszugehen; ich vermisse aber nun seine Podcasts.

So bin ich zu den MassCPR-Pressekonferenzen abgewandert. Eine davon vor etwa einem Jahr habe ich zu einem Blog-Beitrag in DNA-Science gemacht ("Überholt der COVID-Optimismus endlich den Pessimismus? Harvard-Experten stimmen zu"[1]). Impfstoffe wurden auf den Markt gebracht, Ärmel hochgekrempelt und Idee und Idealvorstellung einer Herdenimmunität mussten noch begraben werden. Ich hatte gerade meine erste Impfung bekommen, was mir meine Polio-Impfung in der Grundschule in Erinnerung rief.

Omikron taucht auf

Die Frequenz der MassCPR-Briefings nahm zu, wurde wöchentlich, als sich seit Anfang Dezember Omikron von Südafrika aus zu verbreiten begann.

Was die Redner uns auf der Grundlage von Vorabdrucken und dem, was sie von Kollegen und direkten Erfahrungen mit an COVID-Erkrankten und Sterbenden wussten, erzählten, war den Nachrichten immer Tage, wenn nicht Wochen voraus. So hatte ich in den folgenden Tagen dieses Gefühl des Untergangs, als Freunde mir Artikel aus den Mainstream-Medien und von anderen Journalisten im Zoom schickten.

Die MassCPR-Pressekonferenz vom 14. Dezember 2021 bildete den größten Teil meines DNA-Wissenschaftsbeitrags „Pandemie zu schnell, um ihr zu folgen, da drei Infektionswellen über die USA hinwegfegen: Delta, Omicron und Grippe“ [2]. Ich endete in Finsternis und Untergangsstimmung unter der Überschrift „Was mich nachts wach hielt“ mit einem ausführlichen Zitat von Jacob Lemieux, einem Spezialisten für Infektionskrankheiten am Massachusetts General Hospital. Die zu befürchtende ausgedehnte Reisetätigkeit über Weihnachten und Silvester machte mir Angst.

Das erste MassCPR-Briefing des neuen Jahres habe ich ausgelassen, nachdem ich in den Abendnachrichten die steil ansteigenden Kurven von Krankenhauseinweisungen gesehen hatte - katastrophale Spitzenwerte, die hauptsächlich von denen verursacht wurden, die sich immer noch weigerten, sich impfen zu lassen. Sie dürften nun endlich Plateauwerte erreichen.

Die Hoffnung kommt von T-Zellen

Am 11. Januar hat wieder der faszinierende Dr. Lemieux das MassCPR -Briefing beendet, und ich war fassungslos über seinen positiven Ton. Vieles davon stammte aus einer Zusammenstellung von Ergebnissen und daraus sich ergebenden Folgerungen, dass sinkende Spiegel neutralisierender Antikörper gegen Omikron und die allgemein milden Symptome bedeuten, dass T-Zellen Schutz bieten.

Kurze Biologiestunde

T-Zellen induzieren B-Zellen zur Ausscheidung von Antikörpern und sie zerstören auch virusinfizierte Zellen. Der Nachweis von T-Zellen ist allerdings wesentlich schwieriger und länger dauernd als der von Antikörpern; T-Zellen dürften aber das verlässlichste „correlate of protection“ [3]– Indikator für das Überwinden einer Infektion sein . Abbildung 1. In anderen Worten: Antikörper erzählen nicht die ganze Geschichte. Die meisten Medienberichte, die ich gesehen habe, haben aufgehört, irgendetwas über Antikörper hinaus zu erklären, und die lebenswichtige zelluläre Immunantwort -der T- und B-Zellen - ignoriert. Antikörper bilden die humorale Immunantwort („humor“ bedeutet „Flüssigkeit“; Antikörper werden im Blutserum nachgewiesen). Ende des Biologieunterrichts.

Abbildung 1: . Schematische Darstellung der adaptiven Immunantwort nach einer Virus-Infektion. Das Virus wird von Makrophagen oder dendritischen Zellen inkorporiert und zu Bruchstücken (zu kurzen Peptiden) abgebaut, die als Antigene an der Zelloberfläche präsentiert werden. T-Zellen heften sich an diese Antigene. Ihre Aktivierung führt einerseits zur Generierung von B-Zellen, die gegen das Antigen spezifische Antikörper generieren und sezernieren (humorale Immunantwort) und cytotoxische (Killer)-T-Zellen, die infizierte Zellen zerstören (zelluläre Immunantwort). Die Aktivierung führt auch zu Gedächtniszellen von B-Zellen und T-Zellen, die bei erneutem Kontakt mit demselben Erreger eine sekundäre Immunantwort einleiten. (Bild und Beschriftung von Redn. eingefügt. Bild modifiziert nach Sciencia58 https://commons.wikimedia.org/wiki/File:Immunantwort_1.png. Lizenz: cc-by-sa)

Am 11. Jänner spürte man bei den Rednern insgesamt eine Veränderung. Klischees schwappten hoch wie: Licht am Ende des Tunnels. Sehr finster vor der Morgendämmerung. Und so schließe ich mit dem, was Dr. Lemieux zu sagen hatte:

„Bei diesen Briefings wird es immer schwieriger Fragen zu beantworten. Wir wissen nicht, was die Zukunft bringt.

Am Anfang dachte ich, ok, was können wir von Omikron annehmen? Wir wussten, dass es beängstigend aussieht, und dass wir herausfinden müssten ob damit eine Zunahme der Übertragbarkeit signalisiert wird. In den nächsten Wochen wurde klar, dass Omikron viel stärker übertragbar ist. Und als experimentelle Labordaten eintrafen, zeigten sie, dass Omikron die bislang der Immunantwort am weitesten ausweichende Variante ist. Von da an war der Weg vorbestimmt - außerordentlich übertragbar und immunausweichend, also würde sich Omikron ausbreiten und das tat es auch. Es war leicht zu konstatieren, dass es in der folgenden Woche mehr Fälle geben würde; wir wussten allerdings nicht, wie gut die Impfung funktioniert und ob es einen Unterschied in der Schwere der Erkrankung geben würde.

Glücklicherweise zeigen Impfstoffe immer noch Wirksamkeit und die Variante ist weniger virulent. Aber in Bezug auf die Vorhersage, was jetzt passiert, ist es viel schwieriger. Alles, was wir sagen, muss mit einem viel größeren Vorbehalt aufgenommen werden.

Wir können jetzt über die grundlegenden wissenschaftlichen Fragen sprechen, wie die Beobachtung, dass weniger Menschen mit Omikron sterben. Das sind gute Neuigkeiten. Aber wieso ist das so? Was ist die Quelle ihrer anhaltenden Immunität? T-Zellen? Eine nicht neutralisierende Funktion von Antikörpern? Alles Hypothesen, die im Begriff sind evaluiert zu werden, und wir beginnen, eine Flut an Veröffentlichungen zu sehen, die sich mit diesen Fragen befassen. Es fühlt sich an wie ein normaler wissenschaftlicher Prozess. Aber in Bezug auf das, was jetzt passiert, würde ich einfach sagen, dass wir alle zusammen daran sind und wir werden es bald herausfinden.

Erstens befinden wir uns in der Pandemie an einem ganz anderen Punkt als vor zwei Jahren. Es hat damals düster ausgesehen, mit null Behandlungen oder Impfstoffen und einer hohen Anzahl von Fällen, aber es gibt Licht am Ende des Tunnels. Wir sind immer noch im Tunnel, aber die Impfstoffe wirken und wir haben gelernt, welche Maßnahmen im Bereich der öffentlichen Gesundheit funktionieren, wie Masken und soziale Distanzierung. Und wir stehen kurz vor der Markteinführung von Medikamenten, die derzeit nur begrenzt verfügbar sind, aber zunehmen und an ambulante Patienten verabreicht werden und ein hohes Maß an Wirksamkeit aufweisen werden.

Wir sehen auch, dass das Virus im Laufe der Zeit weniger virulent wird. Wird sich dieser Trend fortsetzen? Wir hoffen es, wissen es aber nicht genau. Wir blicken auf etwas in Richtung einer normaleren Zukunft, insbesondere wenn der Winter langsam aufhört.

Aber ist das Virus schon endemisch? Nein. Es ist ganz klar immer noch eine Epidemie, weil die Fälle zunehmen.

Wird es noch eine Variante geben? Ja, denn Mutationen finden statt.

Werden neue Varianten die gleiche Auswirkung wie Omikron haben? Wir wissen es nicht, aber wir können sicherlich wissen, dass wir uns als Gesellschaft auf das mögliche und unvermeidliche Auftreten von Varianten vorbereiten müssen. Und das bedeutet, die Qualität der Überwachungssysteme zu verbessern und auch den Zugang zu bereits vorhandenen Impfstoffen und Medikamenten. Wir müssen eine Strategie entwickeln, wie wir langfristig mit Varianten umgehen. In den kommenden Monaten werden wir eine Rückkehr zur Normalität erleben.

Moderator Bruce Walker, Direktor des Ragon Institute of MGH, MIT und Harvard, fügte hinzu: „Es gibt viele Gründe für Optimismus. Unter dem Strich müssen wir alles tun, um zu verhindern, dass wir uns im nächsten Monat infizieren, während wir uns mitten in einem Anstieg befinden. Dann, meine ich , werden uns erneut damit befassen, wie wir vorankommen und zu einer Balance mit dieser Pandemie gelangen.“


[1] Ricki Lewis, 04.03.2021: Is COVID Optimism Finally Overtaking Pessimism? Harvard Experts Weigh In. https://dnascience.plos.org/2021/03/04/is-covid-optimism-finally-overtaking-pessimism-harvard-experts-weigh-in/

[2] Ricki Lewis, 16.12.2021: Pandemic Too Fast to Follow as Three Waves of Infection Wash Over the US: Delta, Omicron, and Flu. https://dnascience.plos.org/2021/12/16/pandemic-too-fast-to-follow-as-three-waves-of-infection-wash-over-the-us-delta-omicron-and-flu/

[3] Ricki Lewis, 21.09.2021: Viewpoint: Does mounting evidence for vaccine “durability” suggest we delay boosters for all until we learn more? https://geneticliteracyproject.org/2021/09/21/viewpoint-does-mounting-evidence-for-vaccine-durability-suggest-we-delay-boosters-for-all-until-we-learn-more/ ------------------------------------------------------ *

* Der Artikel ist erstmals am 13.Jänner 2022 in PLOS Blogs - DNA Science Blog unter dem Titel " Pandemic Predictions Take a Turn Towards the Positive – Finally" https://dnascience.plos.org/2022/01/13/pandemic-predictions-take-a-turn-towards-the-positive-finally/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Abbildung 1 und Legende wurden von der Redaktion eingefügt.


Weitere Links:

Massachusetts Consortium on Pathogen Readiness  https://masscpr.hms.harvard.edu/

Inge Schuster, 11.12.2021: Labortests: wie gut schützen Impfung und Genesung vor der Omikron-Variante von SARS-CoV-2? https://scienceblog.at/omikron-impfschutz

Inge Schuster, 16.12.2021: Omikron - was wissen wir seit vorgestern? https://scienceblog.at/omikron-wirksamkeitsstudie


inge Thu, 20.01.2022 - 20:07

Nanokapseln - wie smarte Polymere Chemie und Medizin revolutionieren

Nanokapseln - wie smarte Polymere Chemie und Medizin revolutionieren

Do, 13.01.2022 — Roland Wengenmayr

Icon Chemie

Roland Wengenmayr Nanokapseln im medizinischen Bereich sollen Arzneistoffe sicher einschließen und diese an einen bestimmten Ort im Körper bringen. Welche Herausforderungen gibt es beim Bau bioverträglicher Kapseln, und wie gelangen sie genau zu den Stellen, an denen sie wirken sollen? Wie solche winzige Transporter hergestellt werden und welche Rolle Polymere dabei spielen, beschreibt der Physiker und Wissenschaftsjournalist DI Roland Wengenmayr*.

Ohne die Eigenschaften der Nanowelt ist chemische Forschung heute kaum noch denkbar. Das gilt besonders für die Nanokapseln von Katharina Landfester, Direktorin am Max-Planck-Institut für Polymerforschung in Mainz. Diese Objekte sind mit einigen Hundert Nanometern Durchmesser zwar winzig. Sie sind aber immer noch viel größer als typische Moleküle. Deshalb können an ihren Oberflächen chemische Reaktionen ablaufen, zum Beispiel eine Polymerisation. Sind nun viele Nanoobjekte im Spiel, bieten sie dafür eine gigantisch große Oberfläche an. Genau diese Stärke der Nanowelt nutzt die Mainzer Forscherin in ihren Miniemulsionen aus fein verteilten Nanotröpfchen.

Abbildung 1: Schematische Darstellung von Nanokapseln als Träger von Wirkstoffen im Blut. Nanokapseln (Durchmesser etwa 100 Nanometer) sind wesentlich kleiner als Erythrozyten (rot, Durchmesser rund 7,5 Mikrometer (µm), Dicke 2 µm) und Lymphozyten (weiß, Durchmesser : 10 - 15 µm ). © Dr_Microbe/istock

Wer in die Forschungsprojekte von Katharina Landfester eintaucht, erkennt, wie faszinierend und vielfältig Chemie sein kann. Grundlagenforschung und Anwendung gehen dabei Hand in Hand. Über 50 Patente hält die Chemieprofessorin inzwischen, und in allen spielen Nanokapseln eine tragende Rolle. Die Anwendungen reichen von eingekapselten Farbpigmenten, die dadurch nicht mehr zusammenklumpen, über Parfüm-Mikrokapseln für Waschmittel oder verkapselten Korrosionsschutz für Metalle, der nur bei Beschädigung freigesetzt wird, bis hin zur Zukunftsvision einer völlig neuen Art von Medizin. Zu ihren Partnern zählen große Konzerne – und ein durch die Corona-Pandemie berühmt gewordenes Mainzer Start-up-Unternehmen: BioNTech. „Viele junge Chemikerinnen und Chemiker aus meiner Abteilung arbeiten inzwischen dort“, berichtet die Max-Planck-Direktorin über die spannenden beruflichen Perspektiven. Landfester forscht auf einem Gebiet, das ihr ganz besonders am Herzen liegt. Es geht um die Verwirklichung des Traums, Medikamente im Körper gezielt zu den Zellen zu bringen, wo sie wirken sollen. Dazu sollen die Mainzer Nanokapseln sozusagen als winzige „Transport-U-Boote“ im Blut dienen (Abbildung 2). Doch zuerst geht es im Gespräch mit der Max-Planck-Direktorin darum, wie der chemische Zauberkasten funktioniert, den sie seit ihrer Zeit als Nachwuchsforscherin so enorm kreativ weiterentwickelt hat.

Abbildung 2: Winzige Behälter. Mainzer Nanokapseln aus Hydroxyethylstärke, die eines Tages zum Beispiel ein Medikament im Körper genau ans Ziel bringen könnten. Die Aufnahme wurde mit einem Raster-Elektronenmikroskop gemacht.© MPI für Polymerforschung / CC BY-NC-ND 4.0

Grundlegende Mixtur

Die Basis sind sogenannte Miniemulsionen. Eine Emulsion ist beispielsweise ein fein verteilter Mix aus kleinen Öl- oder Fetttröpfchen in einer wässrigen Umgebung – oder umgekehrt. In Miniemulsionen sind diese Tröpfchen besonders klein, bei Landfester sogar Nanoobjekte. Die Nanowelt ist auf der Größenskala zwischen der Mikrowelt mit Objekten in Mikrometergröße und der Welt der Atome und der meisten Moleküle angesiedelt. Der Durchmesser von Atomen bemisst sich in Zehntel-Nanometern (siehe [1]). Emulsionen begegnen uns vielfach im Alltag, etwa in Lebensmitteln oder Kosmetika. Milch ist eine Mixtur aus feinen Fetttröpfchen in einer wässrigen Lösung, bei Butter oder Hautcreme ist es umgekehrt. Eigentlich sind Emulsionen etwas Unmögliches, aber Chemie und Physik machen sie doch möglich. Das erlebt man beim Anmachen einer Salatsoße. Der Essig als wässrige Phase und das Salatöl bleiben zunächst getrennt voneinander. Schnelles Durchquirlen sorgt zwar für feinere Öltröpfchen in der Soße, aber stabil wird die Vinaigrette erst durch Zugabe von etwas Senf.

Der Grund, warum wässrige und fettige Flüssigkeiten sich schlecht mischen, liegt in den Eigenschaften ihrer Moleküle. In einem Wassermolekül zieht das Sauerstoffatom die Elektronen der beiden Wasserstoffatome an. Damit bekommt das Molekül elektrisch negative und positive „Pole“. Als polares Lösungsmittel kann Wasser daher Stoffe, deren Moleküle ebenfalls elektrisch geladene Abschnitte haben, gut lösen. Beim Anlagern der Wassermoleküle entstehen Wasserstoffbrückenbindungen, die in Landfesters Forschung eine wichtige Rolle spielen: Die Wassermoleküle docken sozusagen mit ihren positiv geladenen Wasserstoffatomen an den negativ geladenen Teil eines anderen Moleküls an.

Stoffe mit solchen „hydrophilen“, also wasserliebenden Eigenschaften sind wasserlöslich. Unpolaren Lösungsmitteln wie Fetten und Ölen hingegen fehlen diese von elektrischen Ladungen dominierten Eigenschaften. Ihre Moleküle wechselwirken untereinander durch sogenannte Van-der-Waals-Kräfte. Daher können sich die Wassermoleküle nicht so gut an Fettmoleküle anlagern, was die geringe oder fehlende Löslichkeit von Fetten in Wasser erklärt. Sie sind daher hydrophob, also „wasserängstlich“. Es gibt aber „amphiphile“ Stoffe, deren Moleküle diese lipophilen, „fettliebenden“ Abschnitte und dazu noch hydrophile Teile besitzen. Als Kontaktvermittler können sie so auf der Grenzfläche zwischen den beiden Phasen dafür sorgen, dass zum Beispiel Fetttröpfchen sich sehr fein in Wasser verteilen, also emulgieren. Das geschieht beim Abwaschen von fettigem Geschirr, dank der Tensidmoleküle des Spülmittels. „Ein Beispiel für ein verbreitetes Tensid ist das Natriumdodecylsulfat in Waschmitteln“, erklärt die Chemikerin.

Das Besondere an Landfesters Miniemulsionen ist nun, dass extrem winzige Nanotröpfchen eine riesige Gesamtoberfläche formen. Auf diesem Spielfeld können chemische Reaktionen viel effizienter ablaufen als zwischen den unvermischten wässrigen und öligen Phasen. Sind diese getrennt übereinandergeschichtet, kommen sie nur auf der vergleichsweise kleinen Querschnittsfläche des Gefäßes in Kontakt. „In einer Miniemulsion gleichen Volumens entspricht dagegen die gesamte Grenzfläche zwischen beiden Phasen ungefähr einem Fußballfeld“, sagt Landfester.

Abbildung 3: Herstellung von Nanokapseln © R. Wengenmayr verändert nach MPI für Polymerforschung / CC BY-NC-SA 4.0

Wie die Herstellung von Miniemulsionen funktioniert, erklärt Landfester im Labor anhand der Geräte. „Der erste Schritt beginnt tatsächlich mit einem Turbomixer, also im Prinzip einem besseren Pürierstab“, sagt sie (Abbildung 3). Das ergibt eine Voremulsion, die dann in das eigentliche „Herzstück“ kommt. Das ist ein Hochdruck-Homogenisator, wie er im Prinzip auch zum Homogenisieren von Milch eingesetzt wird. In ihm wird die Voremulsion unter hohem Druck von bis zu 2000 bar durch einen schmalen Spalt gegen eine Art Prallwand geschossen, was die Tröpfchen bis in den Nanobereich zerkleinert. Zum Vergleich: Ein Druck von 1000 bar herrscht in einer Wassertiefe von 10 km, also ungefähr der tiefsten Stelle aller Ozeane im Marianengraben. Benötigt das Team nur kleinere Mengen, dann verwendet es alternativ ein Ultraschallgerät zur Zerkleinerung.

Spontane Kugelbildung

Aber wie setzt Landfesters Team die winzigen Tröpfchen als chemische Nanoreaktoren ein? Angefangen haben die Mainzer mit technischen Polymeren und den dazu nötigen Polymerisationsreaktionen. Grundsätzlich verketten diese Reaktionen immer gleiche chemische Grundbausteine, die Monomere, zu langen Polymeren. Mono bedeutet auch im Altgriechischen so viel wie „allein“, während Poly für „viel“ steht. „Das Polymer darf bei uns aber nur an der Kapselwand entstehen“, betont Landfester den entscheidenden Punkt. Ein Beispiel, wo das funktioniert, ist Nylon. „Nylon geht im Prinzip in der Miniemulsion, wenn auch nicht sehr gut, es ist zudem wissenschaftlich nicht so interessant für uns“, sagt Landfester.

Besser funktioniert die Nanokapsel-Herstellung mit einer ähnlichen Reaktion, bei der Polyurethan entsteht (Abbildung 4). Beide Kunststoffe haben grundsätzlich gemeinsam, dass die Polymerisationsreaktion zwei verschiedene Monomer-Bausteine zu einer langen Polymerkette verknüpft. Polyurethan entsteht in einer Polyadditionsreaktion, die Polyamidfasern des Nylons hingegen in einer Polykondensationsreaktion. Bei einer Polykondensationsreaktion muss immer ein Nebenprodukt abgespalten werden, damit die funktionellen Gruppen beider Monomere verbunden werden können. Bei einer Polyadditionsreaktion ist das nicht nötig.

Entscheidend für Landfesters Strategie ist nun, dass eine Bausteinsorte besser in der öligen, die andere in der wässrigen Phase löslich ist. Folglich kommen sie nur an der Grenzfläche miteinander in Kontakt. Damit läuft auch nur dort die Polymerisationsreaktion ab. Da das entstehende Polymer amphiphil ist, verbleibt es zwischen der wässrigen und öligen Phase und baut die Kugel des eingeschlossenen Tropfens nach. So formt sich die Nanokapsel selbstorganisiert. Bei Polyurethan ist einer der beiden Monomerbausteine ein Diol. Das ist eine organische Verbindung, die zwei alkoholische Gruppen enthält und damit oft wasserlöslich ist. Das zweite Monomer ist ein Diisocyanat, das sich besser in der öligen Phase löst. Sobald beide Monomere an der Grenzfläche in Kontakt kommen, startet die Polyadditionsreaktion, denn das Diisocyanat ist hochreaktiv.

Abbildung 4: Polyurethan-Nanokapsel. Herstellung einer Nanokapsel aus Polyurethan durch eine Polyadditionsreaktion. Links unten ist das Diisocyanat, darüber das Diol, rechts vom Reaktionspfeil das fertige Polymer. © R. Wengenmayr verändert nach MPI für Polymerforschung / CC BY-NC-SA 4.0

Verträgliche Transporter

Allerdings eignen sich solche technischen Kunststoffe nicht für Nanokapseln, die medizinische Wirkstoffe ans Ziel bringen sollen. Der Einsatz im Körper erfordert biokompatible Alternativen für das Kapselmaterial. Und noch etwas sei wichtig, sagt Landfester: „Die meisten Wirkstoffe sind wasserlöslich.“ Das ist typisch für biologische Moleküle, ein Beispiel ist das mRNA-Molekül im Covid-Impfstoff von BioNTech. „Also müssen wir unsere Miniemulsion sozusagen umdrehen“, fährt die Chemikerin fort (Abbildung 3 rechts). Das Team musste Nanokapseln mit einem wässrigen Inhalt erzeugen, die während der Reaktion in einer öligen Flüssigkeit emulgiert sind – sozusagen High-Tech-Creme. Für das Material der Kapsel experimentierten die Mainzer mit verschiedenen biokompatiblen Stoffen, die sich polymerisieren lassen. Dazu müssen diese reaktive Gruppen besitzen, die sich für chemische Bindungen an weitere Moleküle eignen. So sind die Mainzer zu Kohlenhydraten und Proteinen gekommen. „Zucker haben OH-Gruppen, mit denen man solche Grenzflächenreaktionen machen kann“, erzählt Landfester, „und bei Proteinen sind es Amino.(NH2)-Gruppen an bestimmten Aminosäuren, die man zur Reaktion nutzen kann“.

Proteine sind besonders interessant für das Ziel, Medikamente im Körper genau dorthin zu bringen, wo sie wirken sollen. Das liegt daran, dass man Proteinoberflächen von Nanokapseln gewissermaßen mit chemischen Versandadressen versehen kann, die bestimmte Zellen erkennen können. Das können Immunzellen sein, die gegen ein Virus oder eine Krebsart aktiviert werden sollen – oder Tumorzellen. Targeting heißt dieser Traum der Medizin, nach dem englischen Wort „target“ für Ziel. Proteine sind als große Biomoleküle bereits Polymere. Die Grenzflächenreaktion, die aus ihnen Nanokapseln formen soll, muss daher etwas anderes tun als zu polymerisieren. Sie muss benachbarte Polymerstränge miteinander so vernetzen, dass diese eine stabile Kapsel bilden. Das Resultat einer Vernetzung von Proteinen begegnet uns im Alltag zum Beispiel in Form von Gelatine. Für die biokompatiblen Nanokapseln kommen verschiedene Vernetzungsreaktionen zum Zug. Ein besonders interessanter Ansatz sind sogenannte „Click-Reaktionen“. Ein herkömmliches Reagenz, das eine Vernetzung starten soll, funktioniert „unspezifisch“, also nicht zielgerichtet. Dadurch besteht die Gefahr, dass es auch mit den Wirkstoffen reagiert, die eingekapselt werden sollen. „Viele Wirkstoffe haben ebenfalls OH- oder NH2-Gruppen“, erklärt die Professorin: „Das heißt, wir würden sie ungewollt mit der Kapsel vernetzen.“ Das darf aber nicht passieren, und hier spielt die Click-Chemie ihren Vorteil aus: Sie funktioniert zielgerichtet und schnell.

Es gibt verschiedene Vernetzungsreaktionen mit Hilfe der Click-Chemie. Eine ist die Alkin-Azid-Reaktion. Entscheidend ist hier die N3-Gruppe der Azide, mit der zuerst die zu vernetzenden Proteine „funktionalisiert“, sozusagen für die Vernetzung vorbereitet werden. Dabei werden die NH2-Gruppen des Proteins genutzt, um ein Molekül anzubinden, an dessen Ende sich eine N3-Gruppe befindet. Diese Azid-Gruppe reagiert dann mit einem Dialkin, das die Rolle eines „Vernetzermoleküls“ übernimmt. Die Dreifachbindung des Dialkins öffnet sich und sorgt dafür, dass sich mit den am Protein hängenden Azid-Gruppen Ringmoleküle ausbilden. Diese verknüpfen dann benachbarte Proteine zum Netzwerk (Abbildung 5).

Abbildung 5: Click-Chemie. Proteinmoleküle, die durch die Reaktion einer Azid-Gruppe mit einem Dialkin miteinander vernetzt wurden. Das Fenster zeigt, wie die Reaktion an der Kapselwand abläuft (rote Pfeile). R1: Proteinmolekül, R2: Dialkin, blau: wässriger Nanotropfen, gelb: umgebende ölige Phase, grün: Proteinmoleküle. © R. Wengenmayr verändert nach MPI für Polymerforschung / CC BY-NC-SA 4.0

Eine Click-Vernetzungsreaktion hat noch einen Vorteil: Es entstehen keine Nebenprodukte, die gesundheitsschädlich sein könnten. Außerdem muss die Vernetzung so ablaufen, dass sie die biologische Funktion der Kapselproteine selbst nicht verändert. Das ist wichtig für die smarte Funktion beim Targeting im Körper. Bei den Nanokapseln gibt es allerdings noch eine Herausforderung: Sie müssen so dicht sein, dass die Wirkstoffmoleküle sicher eingekapselt bleiben, solange sie nicht am Ziel sind. Nun ist so eine Kapsel mit einem Durchmesser von etwa hundert Nanometern wirklich winzig. Die Kapselwand ist folglich nur 15 bis 20 Nanometer dünn – eine Extremfolie sozusagen. „Jetzt versuchen Sie mal, das dicht zu machen“, sagt Landfester. Je dünner so ein Polymernetzwerk ist, desto durchlässiger wird es auch. Die Folge: Die Wirkstoffmoleküle drohen die Kapsel zu verlassen, bevor sie am Ziel sind. Zum Glück gibt es Möglichkeiten, diese superdünnen Kapselwände dichter zu bekommen. Als ersten Schritt kann man sie noch stärker vernetzen, also das Molekülgitter engmaschiger machen. „Das reicht aber häufig nicht aus“, sagt die Chemikerin. Abhilfe können nun zusätzliche Wasserstoffbrückenbindungen bringen. „Die ziehen das Netzwerk der Proteinstränge noch näher zusammen und machen es dichter“, betont Landfester. Vor allem ordnen die Stränge sich teilweise so sauber nebeneinander, dass sie ansatzweise Kristalle bilden. Diese Teilkristallinität macht zum Beispiel auch Kunststofffolien wasserdichter. „Wenn Plastiktüten knistern, dann hört man diese Teilkristallinität sogar“, erklärt die Max-Planck-Direktorin einen Effekt, den alle kennen.

Zielgenaue Lieferung

Eine Nanokapsel, die einen Wirkstoff sicher eingeschlossen transportieren kann, ist aber nur der erste Schritt. Der nächste ist das Targeting, also das erfolgreiche Adressieren an ein Ziel im Körper. Das erfordert Lösungen, bei denen Chemie auf Biologie und Medizin trifft. Deshalb arbeitet Landfesters Team seit 2013 in einem großen Sonderforschungsbereich mit diesen Disziplinen zusammen, auch die Physik ist dabei. Ein Ziel ist es, die Kapseln an ihrer Oberfläche mit Molekülen zu versehen, die nur von den zu bekämpfenden Erregern im Körper erkannt werden. Dazu muss die Kapsel allerdings chemisch so getarnt sein, dass sie nicht vorher schon im Blut von den falschen Adressaten wie den Fresszellen erkannt und aufgenommen wird. „Angesichts von 1600 Proteinen im Blut ist das eine echte Herausforderung“, sagt Landfester. Inzwischen hat das Team Lösungen für eine solche Tarnkappenfunktion gefunden. Eine wichtige Rolle spielen dabei sogenannte Apolipoproteine. Diese Moleküle führen dazu, dass die Nanokapseln von den Zellen nicht erkannt werden.

Beim Targeting, das Krebszellen bekämpfen soll, gibt es eine schlauere Alternative als die Tumorzellen direkt zu vergiften: Das Immunsystem selbst soll gegen die versteckten Tumorzellen fit gemacht werden. Dazu werden die Nanokapseln an der Oberfläche so präpariert, dass die T-Zellen des Immunsystems sie erkennen und zerstören. In der Kapsel befinden sich Moleküle, die das Immunsystem auf Merkmale der Tumorzellen trainieren. So lernen die T-Zellen, diese Feinde im Körper aufzuspüren und zu vernichten. Tatsächlich funktionieren diese „Nanotherapeutika“ schon bei erkrankten Mäusen im Labor. Katharina Landfester ist optimistisch, dass der Einsatz solcher Therapeutika auch bald beim Menschen möglich sein wird. Chemische Grundlagenforschung kann also auf unterschiedlichsten Gebieten Fortschritte bringen. Das ist das Faszinierende an ihr.


 *Der Artikel ist unter dem Titel " Smarte Polymere – wie Nanokapseln Chemie und Medizin revolutionieren" in TECHMAX 29 der Max-Planck-Gesellschaft erschienen, https://www.max-wissen.de/max-hefte/techmax-29-polymere-nanokapseln/.. Der unter einer CC BY-NC-SA 4.0 Lizenz stehende Artikel ist hier ungekürzt wiedergegeben. Abbbildung1 wurde von der Redaktion mit einer Beschriftung versehen.


Weiterführende Links

Katharina Landfester: Physikalische Chemie der Polymere. Max-Planck-Institut für Polymerforschung.  https://www.mpip-mainz.mpg.de/de/landfester

Volker Mailänder & Katharina Landstätter: Wirkstofftransporter für die Nanomedizin (2016). https://www.mpg.de/11344118/wirkstofftransporter-fuer-nanomedizin.pdf

Max-Planck.Institut für Polymerforschung: Kunststoff Bildungspfad: https://sites.mpip-mainz.mpg.de/kunststoffbildungspfad  

Universität Mainz: Sonderforschungsbereich 1066 - Die vier Teile der Videoreihe zum SFB 1066 im Überblick (30.10.2020):

inge Thu, 13.01.2022 - 17:30

Was ist long-Covid?

Was ist long-Covid?

Fr. 07.01.2022  — Inge Schuster

Inge Schuster Icon Medizin Weltweit haben sich bisher über 300 Millionen Menschen mit SARS-CoV-2 Infiziert, 5,47 Millionen sind an oder mit COVID-19 gestorben, etwa die Differenz gilt als "genesen". Dass ein beträchtlicher Anteil der "Genesenen" aber unter massiven Langzeitfolgen, dem sogenannten long-COVID, leidet, wird häufig übersehen. Die Fülle an Symptomen lassen long-COVID als eine Multiorgan-Erkrankung erscheinen. Deren Pathomechanismen sind aber noch weitgehend unverstanden. Es fehlen auch eindeutige Definitionen des Krankheitsbildes ebenso wie eine verlässliche Diagnostik und darauf aufbauende Maßnahmen zu Prävention und Rehabilitation. Impfungen könnten nicht nur vor der Erkrankung an COVID-19 schützen, sondern auch das Risiko von long-COVID reduzieren.

Vor mehr als einem Jahr infizierte sich unser Nachbar mit SARS-CoV-2 . Glücklicherweise kam es zu einem recht milden Verlauf: er hatte Symptome, wie man sie von einer sogenannten Erkältung kennt Schnupfen, Husten, Halsweh, etwas Fieber - und diese klangen rasch ab. Nicht abgeklungen sind allerdings nun mehr als ein Jahr danach die Langzeitfolgen: ein völliger Verlust von Geruchs- und Geschmacksempfindungen und eine bleierne Müdigkeit. Unser Nachbar ist damit kein Einzelfall.

Von COVID-19 genesen bedeutet nicht immer gesund.

Nach der akuten Phase einer Corona-Infektion treten häufig Langzeitfolgen auf. Es sind vielfältige, oftmals wenig spezifische Symptome wie u.a. dauernde Erschöpfung, Atemnot, Schlafstörungen, kognitive Probleme und Konzentrationsstörungen ("Gehirnnebel"), die sich nach einem schweren lebensbedrohenden, längerem Krankheitsverlauf, aber ebenso nach milden, 2-3 Wochen dauernden Verläufen und sogar nach asymptomatischen Verläufen einstellen können. Auch junge, gesunde und sportliche Personen und sogar Kinder können von solchen Langzeitfolgen betroffen sein.

Mit diesem neuartigen Krankheitsbild haben sich bereits sehr viele internationale und auch nationale Studien – klinische Untersuchungen, Internet-basierte Umfragen und Metaanalysen – befasst (allein in der Datenbank PubMed (MEDLINE) sind dazu schon 938 wissenschaftliche Artikel gelistet; 5.Jänner 2022); sehr viele Studien sind aktuell am Laufen. Dennoch ist Vieles noch ungeklärt – von der Epidemiologie (insbesondere bei Kindern) bis zur Charakterisierung und Definition der Krankheit, d.i. zu den Pathomechanismen vieler Symptome, zu deren Verlauf/Rückbildung, zur Lebensqualität und Funktionsfähigkeit der Betroffenen, zu Diagnose und Ansätzen zur Rehabilitation. Eine erste (zweifellos verbesserbare) Definition (Fallbeschreibung) hat die Weltgesundheitsorganisation (WHO) am 6. Oktober 2021 veröffentlicht:

       "Eine Post-COVID-19-Erkrankung kann bei Personen mit einer wahrscheinlichen oder bestätigten SARS-CoV-2-Infektion auftreten, in der Regel drei Monate nach Auftreten von COVID-19 mit Symptomen, die mindestens zwei Monate andauern und nicht durch eine andere Diagnose zu erklären sind. Zu den allgemeinen Symptomen zählen Erschöpfung, Kurzatmigkeit, kognitive Fehlleistungen sowie weitere, die sich im Allgemeinen auf den Tagesablauf auswirken. Die Symptome können neu auftreten nach einer anfänglichen Genesung von einer akuten COVID-19-Erkrankung oder die anfängliche Krankheit überdauern. Die Symptome können fluktuieren oder mit der Zeit wiederkehren. Eine gesonderte Definition kann für Kinder erforderlich sein." [1]

Von den unterschiedlichen Bezeichnungen, die für diese neuartige Erkrankung geprägt wurden - dem WHO angeregten Begriff "Post-COVID-19-Erkrankung" oder „long-haul COVID“ oder „long COVID“ - wird im folgenden Text long-COVID verwendet.

Wie viele SARS-CoV-2-Infizierte sind von long-COVID betroffen?

Über die Häufigkeit von long-COVID variieren die Aussagen. Während die WHO eine Inzidenz von 10 - 20 % der zuvor an COVID-19 Erkrankten schätzt [2], gehen zahlreiche nationale (u.a. in Norwegen, Großbritannien, USA, Deutschland, China, etc.) und internationale Studien davon aus, dass bis zu 75 % (und sogar noch mehr, siehe [5]) zumindest ein oder mehrere mit long-COVID assoziierte Symptome aufweisen.

Neueste Ergebnisse aus der bislang größten deutschen Studie - der EU-geförderte Gutenberg COVID-19 Studie - wurden in einer Pressekonferenz am 20. Dezember 2021 vorgestellt [3]. Die von Oktober 2020 bis März 2022 laufende Studie untersucht(e) eine repräsentative Bevölkerungsstichprobe von insgesamt 10.250 Personen aus Rheinhessen zu zwei Zeitpunkten im Abstand von 4 Monaten sowie nach einem Jahr. Ziel dieser Studie ist es das Krankheitsbild von long-COVID "evidenzbasiert charakterisieren und definieren zu können. Das beinhaltet beispielsweise betroffene Organe und Systeme, aber auch Risikofaktoren zu identifizieren" [3]. PCR- und Antigen-Tests ergaben, dass rund 5 % der Probanden sich mit dem Coronavirus - wissentlich oder unwissentlich - angesteckt hatten. Von diesen berichteten jeweils rund 40 % über mindestens 6 Monate nach der Infektion andauernde/neu aufgetretene long-COVID-Symptome. Etwa die Hälfte der Symptome verursachten eine mäßige bis schwere Beeinträchtigung des Alltagslebens und/oder Berufslebens.

Für eine der bisher größten internationalen Studien wurde eine Internet-basierte Umfrage designt, mit der sowohl das breite Profil der long-COVID Symptome, als auch deren zeitlicher Verlauf und die Auswirkungen auf Alltags- und Berufsleben erfasst werden sollten. Unter Leitung des University College London wurden damit 3762 COVID-19 Fälle aus 56 Ländern über 7 Monate verfolgt [4]. Von diesen gaben etwa 65 % an 6 Monate nach der Erkrankung noch unter Symptomen zu leiden: mehr als die Hälfte unter Erschöpfung (Fatigue), Verschlechterung des Zustands nach physischer oder mentaler Belastung, kognitiven Störungen ("Gehirn-Nebel"), Gedächtnisproblemen, Bewegungseinschränkungen, Kopfschmerzen; bis zu 50 % litten an Atemnot, Muskelschmerzen, Arrhythmien, Schlaflosigkeit, Gleichgewichtsstörungen, u.a.m. Wie schwer solche Symptome sind und, dass sie offensichtlich noch länger als 6 Monate anhalten dürften, ist in Abbildung 1 dargestellt.

Abbildung 1: Wahrscheinlichkeiten von leichten bis sehr schweren Symptomen nach COVID-19 und deren zeitlicher Verlauf. Schwere bis schwerste Symptome nehmen nach der Akutphase ab, sind aber nach 6 Monaten noch nicht abgeklungen. Mäßig starke und milde Symptome nehmen zu und dominieren die Spätphase. Bild modifiziert nach H. E. Davis et al.,2021 [4] (Lizenz cc-by 4.0).

Symptome von long-COVID

Das Krankheitsbild äußert sich in einer Fülle von sehr unterschiedlichen Symptomen, deren Pathomechanismen Gegenstand intensiver Forschung sind. In diesem Zusammenhang sollte darauf hingewiesen werden, dass sehr viele Typen unserer Körperzellen mit Rezeptoren ausgestattet sind, welche dort das Andocken und Eindringen von SARS-CoV-2 ermöglichen. So kann das Virus neben dem Atmungstrakt verschiedene andere Organe und Gewebe - von Herz, Niere, Leber bis zum Gehirn - befallen. Dies ist in Einklang mit klinischen Studien und Autopsien (s.u.), in denen strukturelle Schädigungen in Organen, Geweben, Blutgefäßen beobachtet werden, ausgelöst möglicherweise durch zurückbleibendes Virus, durch chronische Entzündungsprozesse und/oder durch Virus-verursachte Dysregulierungen des Immunsystems.

Dass das Krankheitsbild von long-COVID den gesamten Körper betreffen kann, soll an Hand von 2 repräsentativen Studien gezeigt werden, die bezüglich der am häufigsten auftretenden Symptome übereinstimmen:

     Eine systematische, umfassende Übersicht basierend auf Metaanalysen aller Artikel (peer-reviewed) mit Originaldaten zu long-COVID, die an mindestens 100 Personen stattfanden und vor dem 1. Jänner 2021 veröffentlicht wurden, ist im August 2021 im Fachjournal Nature erschienen [5]. Insgesamt wurden knapp 48 000 Patienten (im Alter von 17 - 87 Jahren) in einem Zeitraum von 14 - 110 Tagen nach der Virusinfektion erfasst und 55 Symptome identifiziert, die mit long-COVID assoziiert sind. Laut Schätzung der Autoren entwickelten rund 80 % der infizierten Patienten in dieser Zeit ein oder mehrere solcher Symptome. Zu den 5 am häufigsten vorkommenden Symptomen zählten Erschöpfung (58 %), Kopfschmerzen (44 %), Aufmerksamkeitsstörungen (27 %), Haarausfall (25 %) und Atemnot (24 %). Einen Überblick über alle 55 Symptome und deren Häufigkeit gibt Abbildung 2.

Abbildung 2. Symptome von long-COVID. Die Häufigkeit (%) der 55 Symptome ist durch Größe und Farben der Kreise gekennzeichnet; rund 80 % der Patienten litten im Zeitraum 14 - 110 Tage nach Infektion mit Beginn von COVID-19 unter zumindest einem der Symptome. Bild leicht modifiziert nach S. Lopez-Leon et al., [5] (Lizenz: cc-by).

     Die bereits oben erwähnte, vom University College London geleitete Studie berichtet über eine noch höhere Zahl an Symptomen [4]: Insgesamt finden sich über 200 Symptome in der Liste, die 10 Organsystemen zugeordnet wurden:

  • systemische Beeinträchtigungen (u.a. Erschöpfung, Schwäche, Fieber),
  • neuropsychiatrische Symptome (von kognitiven Beeinträchtigungen bis zur Ageusie),
  • Symptome des Atmungstraktes (u.a. Atemnot),
  • Symptome des Verdauungstraktes,
  • Symptome des Reproduktions-und endokrinen Systems,
  • Symptome des Herz-Kreislaufsystems,
  • Symptome des Skelett-Muskelsystems,
  • Symptome der Haut,
  • Symptome an Schädel, Auge, Ohr, Rachen,
  • immunologische / Autoimmun-Symptome.

Long-COVID oder nicht-long-COVID - das ist die Frage

Eine Vielfalt und Vielzahl an Symptomen lassen long-COVID als eine Multiorgan-Erkrankung erscheinen; es fehlen aber eindeutige Definitionen des Krankheitsbildes ebenso wie eine verlässliche Diagnostik und darauf aufbauende Maßnahmen zu Prävention und Rehabilitation. Viele der mit long-COVID assoziierten Beschwerden sind ja unspezifisch und können auch bei Personen auftreten, die nicht mit SARS-CoV-2 infiziert sind. Die Abgrenzung ist schwierig; vielen Studien, die long-Covid Symptome beschreiben, fehlen ausgewogene Kontrollgruppen aus der nicht-infizierten Bevölkerung.

Die bereits erwähnte Gutenberg-Studie [3] kann auf solche Kontrollgruppen zurückgreifen. Hier hatten 40 % der nachgewiesen Infizierten über diverse Langzeitfolgen berichtet - allerdings auch rund 40 % der nachgewiesen nicht-Infizierten. In dieser Gruppe überwogen allerdings unspezifische Symptome wie Müdigkeit, Schlafstörungen und Stimmungsschwankungen. Die Infizierten gaben dagegen spezifischere Symptome wie u.a. den Verlust von Geruch- und Geschmacksinn (Ageusie) an.

In einer schwedischen Studie (COMMUNITY) wurden an Spitalsbeschäftigten Langzeit-Symptome nach milden Verläufen von COVID-19 und an entsprechenden Kontrollgruppen untersucht: 26 % der Infizierten (gegenüber 9 % der nicht-Infizierten) gaben an längerfristig zumindest an einem mittelschweren bis schweren Symptom zu leiden, welche die Lebensqualität beeinträchtigten, wobei der Verlust von Geruch und Geschmack, Erschöpfung und Atemprobleme im Vordergrund standen. Kognitionsstörungen, Muskelschmerzen oder auch Fieber traten nicht häufiger als in der Kontrollgruppe auf [6].

Langzeitfolgen nach COVID-19 und Influenza. Langzeitfolgen sind auch nach anderen Virusinfektionen wie beispielsweise Influenza bekannt. Ein Forscherteam von der Oxford University hat - basierend auf den elektronischen Gesundheitsdaten von 81 Millionen Personen inklusive 273,618 von COVID-19 Genesener - das Auftreten von 9 langfristigen mit post-COVID assoziierten Symptomen an den COVID-19-Genesenen untersucht und an einer vergleichbaren Gruppe von im selben Zeitraum von Influenza genesenen Personen.[7] Insgesamt traten Symptome nach COVID -19 wesentlich häufiger auf als nach Influenza: im Zeitraum 3 - 6 Monate nach Infektion litten 42,3 % nach COVID-19 gegenüber 29,7 % nach Influenza an derartigen Symptomen. Auch nach einzelnen Symptomen betrachtet traten diese nach COVID-19 häufiger auf als nach Influenza. Abbildung 3. Ein beträchtlicher Teil der Beschwerden könnte auch bei nicht-infizierten Personen vorkommen.

Abbildung 3. Wesentliche langfristige Symptome nach COVID-19 treten auch nach Influenza auf, allerdings mit geringerer Häufigkeit. Bild zusammengestellt aus Daten von Table 1 in M. Taquet et al., [7](Lizenz: cc-by).

Long-COVID eine Multiorganerkrankung: Evidenz für die systemische Ausbreitung und Persistenz von SARS-CoV-2 in diversen Körperregionen

Vor wenigen Tagen ist die Untersuchung eines NIH-Forscherteams um Daniel Chertow erschienen (als preprint), die eine Erklärung für die breite Palette und Persistenz der long-COVID Symptome bieten könnte.

An Hand der Autopsien von 44 hospitalisierten (größtenteils intubierten) Patienten, die bis zu 230 Tage nach dem Auftreten von Symptomen an oder mit COVID-19 verstarben, wird erstmals ein Bild über die breite Verteilung von SARS-CoV-2 über nahezu den gesamten Organismus, seine Replikation, Mutierbarkeit und Persistenz - und das auch im Gehirn - aufzeigt [8]. (Die Autopsieproben wurden dabei zu einem Zeitpunkt analysiert , an dem sich die virale RNA noch nicht zersetzt hatte):

Gene des Virus wurden in den Lungen praktisch aller Verstorbenen in höchster Kopienzahl nachgewiesen, in niedrigerer Konzentration aber auch an mehr als 80 anderen Orten. Unter anderem wies bei 80 % der Patienten das Herz-Kreislauf-System Virus-RNA auf, bei 86 % das Lymph-System, bei 72 % der Magen-Darmtrakt, bei 64 % Nieren und Hor¬mondrüsen, bei 43 % die Fortpflanzungsorgane, bei 68 % Muskel-, Fett- und Hautgewebe einschließlich periphe¬rer Nerven, Augen bei 58 % und Hirngewebe bei 91 % (in 10 von 11 analysierbaren Proben). Neben den Genen des Virus wurden auch seine Genprodukte -Virus Proteine - in den Organen detektiert. Abbildung 4 zeigt, dass das virale Nucleocapsidprotein NP1 in allen Schichten des Cerebellums detektiert werden kann.

Abbildung 4. Das SARS-CoV-2 Protein Np1 (grün) wird in allen Schichten des Cerebellums detektiert (MS: Molekulare Schicht, KS: Körnerschicht, WS: weiße Substanz). Zellkerne: Neronen-spezifische Kerne wurden mit NeuN rot-violett gefärbt, andere Zell sind blau. Rechts. ein vergrößerter Ausschnitt aus der weißen Substanz zeigt ein angeschnittenes Blutgefäß, in dessen umhüllenden Endothelzellen das Virusprotein eingelagert ist. Bild: modifizierter Ausschnitt aus D. Chertow et al., 2021 [8].(Lizenz cc-by) .

Bei längerer Dauer der Infektion ging die Zahl der Virus RNA-Kopien in den Organen zurück, ließen sich jedoch bis zu 230 Tage nach Symptombeginn noch nachweisen; auch bei Patienten die symptomlos oder mit milden Symptomen verstarben.

Die Sequenzierung der RNA ergab, dass bei einigen Patienten bereits mehrere durch einzelne Mutationen unterschiedliche Varianten auftraten, die auf die fehlerhafte Replikation - Evolution - des Virus schließen ließen.

Kann die Impfung vor long-COVID schützen?

Dafür gibt es erste Hinweise aus der britischen Zoe-COVID-Studie, einer Initiative zu der weltweit via App Millonen Menschen beitragen. Für Großbritannien zeigen die Daten, dass zweifach geimpfte Personen nicht nur vor schweren Krankheitsverläufen mit Hospitalisierungen geschützt sind (Reduktion um 73 %), sondern auch - falls es zu einem Impfdurchbruch kommt - nur ein halb so großes Risiko haben long-COVID  zu entwickeln wie ungeimpfte Personen [9].

Fazit

Von den global bereits über 300 MIllionen mit SARS-CoV-2 Infizierten, gelten rund 97 % bereits als genesen. Tatsächlich dürfte ein beträchtlicher Teil (> 30 Millionen) an z.T. schweren Langzeitfolgen - long-COVID - leiden, welche die Lebensqualität beeinträchtigen und bis zur Funktionsunfähigkeit in Alltag und Berufsleben führen. Das Krankheitsbild äußert sich in einer Fülle von sehr unterschiedlichen Symptomen, deren Pathomechanismen bislang nicht bekannt sind und die auf eine Involvierung sehr vieler Organe und Gewebe hindeuten. (Der Großteil der zugrundeliegenden Studien stammt allerdings aus einem Zeitraum, in dem die neuen Virus-Varianten Delta und Omikron noch nicht entstanden waren; diese könnten zu einer unterschiedlichen Virusbelastung des Organismus führen.)

Bislang gibt es noch keine Definition für dieses neuartige Krankheitsbild, auch keine eindeutige Diagnose und Strategien zur Rehabilitation Betroffener. Welche Auswirkungen long-COVID auf unsere Gesundheitssysteme haben kann, wenn auch nur 10 % der Infizierten long-COVID entwickeln und langfristig behandelt werden müssen, lässt größte Befürchtungen aufkommen. Eine Intensivierung der Forschung zu long-COVID ist unabdingbar.


[1] WHO: Klinische Falldefinition einer Post-COVID-19-Erkrankung gemäß Delphi-Konsens (6.10.2021).https://apps.who.int/iris/bitstream/handle/10665/350195/WHO-2019-nCoV-Post-COVID-19-condition-Clinical-case-definition-2021.1-ger.pdf?sequence=1&isAllowed=y

[2]WHO: Coronavirus disease (COVID-19): Post COVID-19 condition (16 December 2021) https://www.who.int/news-room/questions-and-answers/item/coronavirus-disease-(covid-19)-post-covid-19-condition

[3] Die Gutenberg COVID-19 Studie. https://www.unimedizin-mainz.de/GCS/dashboard/#/app/pages/AktuelleErgebnisse/ergebnisselc

[4] Hannah E. Davis et al., Characterizing long COVID in an international cohort: 7 months of symptoms and their impact. July 2021, EClinicalMedicine.  DOI: 10.1016/j.eclinm.2021.101019

[5] Sandra Lopez-Leon et al., More than 50 long‑term effects of COVID‑19: a systematic review and meta‑analysis. Nature, Scientific Reports (2021) 11:16144; https://doi.org/10.1038/s41598-021-95565-8

[6] Sebastian Havervall et al., “Symptoms and Functional Impairment Assessed 8 Months After Mild COVID-19 Among Health Care Workers” April 2021, JAMA: Journal of the American Medical Association.  DOI: 10.1001/jama.2021.5612

[7] Maxime Taquet et al., Incidence, co-occurrence, and evolution of long-COVID features: A 6-month retrospective cohort study of 273,618 survivors of COVID-19. (28.09.2021) PLoS Med 18(9): e1003773. https://doi.org/10.1371/journal.pmed.1003773

[8] Daniel Chertow et al., SARS-CoV-2 infection and persistence throughout the human body and brain. Biological Sciences - Article, DOI:https://doi.org/10.21203/rs.3.rs-1139035/v1

[9] Michela Antonelli et al., Risk factors and disease profile of post-vaccination SARS-CoV-2 infection in UK users of the COVID Symptom Study app: a prospective, community-based, nested, case-control study. 2022, The Lancet, Infectious Diseases 22 (1): 43 - 55

inge Fri, 07.01.2022 - 18:53

Comments

2021

2021 mat Thu, 07.01.2021 - 06:20

Sinne und Taten - von der einzelnen Sinneszelle zu komplexem Verhalten

Sinne und Taten - von der einzelnen Sinneszelle zu komplexem Verhalten

Do, 30.12.2021 — Nora Schultz

Nora SchultzIcon Gehirn

Tiere sind häufig in Bewegung – auf der Suche nach Futter, Partnern oder Sicherheit. Dafür brauchen sie ein Nervensystem, das Sinneseindrücke und Verhalten gut aufeinander abstimmt. Wichtige Sinneseindrücke müssen schnell erkannt und korrekt interpretiert werden, um daraus angemessene Verhaltensbefehle für das motorische System zu entwickeln. In der einfachsten Variante reicht ein Reiz, um eine eindeutige Reaktion auszulösen. Manches Verhalten lässt sich daher bottom-up, von unten nach oben erklären, etwa manche Reflexe. Oft ist die Lage aber komplizierter. Dann beeinflussen höhere Netzwerke aufgrund von Erfahrungen, Erwartungen und multiplen sensorischen Informationen die Verarbeitung in den senso-motorischen Netzwerken – eben top-down. Dabei laufen Informationen oft in komplizierten und dynamischen Rückkopplungen zwischen Sensorik, Motorik und assoziativen „höheren“ Netzwerken. Die Entwicklungsbiologin Nora Schultz berichtet über dieses neue Kapitel der Hirnforschung*

Die Welt wahrnehmen und auf sie reagieren – das kennzeichnet alles Leben, vom schlichtesten Einzeller bis zum komplexesten Primaten. Am virtuosesten interagieren Tiere mit ihrer Umwelt, denn sie sind im Gegensatz zu vielen anderen Organismen zumindest für einen Teil ihres Lebens in reger Bewegung: auf der Suche nach Nahrung, Partnern oder Sicherheit. So ein Lebensstil setzt die Fähigkeit voraus, schnell und flexibel auf die sich ständig verändernde Außenwelt zu reagieren – Chancen bestmöglich zu nutzen und Risiken möglichst zu umschiffen. Der Schlüssel zum Erfolg, geschmiedet in mehr als 500 Millionen Jahren der Evolution, ist ein Nervensystem, in dem Sinne und Motorik geschickt zusammenspielen.

Los ging es wahrscheinlich ganz langsam. Charnia, das Lebewesen, von dem man annimmt, dass es das erste Tier gewesen sein könnte, ähnelte einem Farnblatt und lebte vor über 550 Millionen Jahren im Meer, vermutlich noch recht unbeweglich. Allein das in Fossilien dokumentierte Wachstumsmuster mutet tierisch an. Die ersten Tiere mit bilateralen Bauplänen verwendeten dann zur Koordination ihrer Aktivitäten einen zentralen Datenprozessor – ein Gehirn. Und vor rund 541 Millionen Jahren spülte der steigende Meeresspiegel einer sich erwärmenden Erde Mineralien ins Meer, die Tiere erstmals als Baustoffe für Skelette und Panzer nutzen konnten.

Ganz im Hier und Jetzt

Im sich nun entfaltenden Reigen der Jäger, Sammler und Gejagten, der balzenden, rivalisierenden oder migrierenden Tiere wurden Sensorik und Motorik entscheidend für das Überleben. Das Erfolgsrezept erscheint einfach: von Moment zu Moment gilt es wahrzunehmen, was wichtig ist, um dann zu tun, was richtig ist. Dafür braucht es drei Komponenten: 1. ein sensorisches System, das Reize aus der Umwelt aufnimmt, 2. Prozessoren, die diese Informationen verarbeiten und korrekte Verhaltensempfehlungen berechnen und 3. ein motorisches System, das diese umsetzen kann.

Schlicht gedacht

Einigen tierischen Verhaltensmustern kann man sich mit einem solchen schlichten Schema nähern. Schaltkreise mit klaren Bahnen, die von unten nach oben, von einem sensorischen Reiz zur Verarbeitung und dann weiter zur motorischen Reaktion verlaufen, gibt es beispielsweise bei Reflexen, mit denen ein Tier schnell und unwillkürlich in immer gleicher Weise auf bestimmte äußere Reize reagiert.

Manche Reflexe sind angeboren. Mit dem Lidschlussreflex etwa reagiert der Körper auf plötzliche Reize oder Gefahrensignale, um das empfindliche Auge vor Schäden zu schützen. Andere Reflexe werden erst im Laufe des Lebens erworben, wenn ein Tier lernt, dass sich ein konkretes Verhalten in bestimmten Situationen bewährt. Ein berühmtes Beispiel hierfür ist der Sabberreflex, mit dem die Hunde von Iwan Petrowitsch Pawlow auf einen Glockenton reagierten, der immer kurz vor der Fütterung erklang. Die Tiere hatten gelernt, den Ton als verlässliches Signal für den bevorstehenden Verdauungsprozess wahrzunehmen.

Planung ist komplexer

Mit derart starren Verhaltensmustern lässt sich aber längst nicht alles erreichen, was in einer wandelbaren Welt notwendig oder wünschenswert wäre. Das gilt erst recht, wenn es um komplexeres Verhalten geht, das viele Faktoren berücksichtigen muss und vielleicht sogar längerfristiger geplant wird. Wie ein Nervensystem solche Aufgaben löst und dabei die richtige Balance zwischen Reizwahrnehmung und Reaktionswahl findet, lässt sich besser top-down betrachten – also von oben nach unten. Denn Planung bezieht auch Erfahrungen mit ein und Erfahrung führt zu Erwartung. Höherliegende Schaltkreise beeinflussen entsprechend die Verarbeitung bestimmter Reize durch vorgeschaltete Netzwerke, indem sie wie ein Filter wirken. Eine solche Verschaltung ermöglicht ein deutlich komplexeres Verhalten.

Die komplexe Realität

Die Realität liegt meist irgendwo zwischen beiden Extremen. Die Nervenbahnen von Sensorik und Motorik funken selten nur einspurig. Stattdessen gilt es schon für scheinbar schlichtes Verhalten, oft Informationen aus mehreren Quellen zu verrechnen und das Ergebnis dann wiederum an mehrere Empfängerregionen im Körper zurückzuspielen. Diese Integrations- und Verteilungsleistungen laufen auf unterschiedlichen Ebenen ab. Anfangs registrieren Sinneszellen bestimmte Reize. Die mit ihnen verknüpften Neurone und Netzwerke funktionieren dann wie eine Reihe von Filtern, die auf unterschiedliche Aspekte der Sinneseindrücke reagieren. Die extrahierten Informationen geben sie jeweils an die nächste Ebene zur Verrechnung weiter: Sie werden weiter gefiltert, und mit den Informationen aus anderen Sinnesorganen oder zentralen neuronalen Netzwerken integriert.

Fruchtfliegen zum Beispiel müssen sich in einer dreidimensionalen Welt zurechtfinden, wenn sie durch die Luft navigieren und dabei Hindernissen und Räubern ausweichen wollen. Die Fotorezeptoren in ihren Augen reagieren auf bestimmte Lichtintensitäten oder Wellenlängen, andere Sinneszellen auf die Position des eigenen Körpers oder Geräusche. Unterschiedlich spezialisierte Zellen auf der nächsten Ebene, filtern weitere Details aus den Informationen heraus, zum Beispiel die Richtung, aus der verschiedene Signale kommen, oder die Geschwindigkeit, mit der sie sich verändern. Auf einer noch höheren Ebene integrieren weitere Zellen die Komponenten zu raumzeitlichen Mustern, die einem Gesamtbild der aktuellen Situation und der Verhaltensmöglichkeiten entsprechen.

Bewegung in 3D

„Manche Zellen reagieren nur auf Veränderungen von dunkel nach hell, andere, nachgeschaltete Zellen, auf Verschiebungen von unten nach oben oder von vorne nach hinten“, erklärt Alex Mauss. Er hat gemeinsam mit Alexander Borst am Max-Planck-Institut für Neurobiologie in München erforscht, wie der Austausch zwischen einzelnen Zelltypen und verschiedenen Schaltkreisen abläuft, wenn Fruchtfliegen ihren Flugkurs korrigieren. Dabei muss das Tier nicht nur die Außenwelt berücksichtigen, sondern auch, wie sich diese zur eigenen Bewegung verhält. Mithilfe optogenetischer Methoden lassen sich einzelne Zelltypen durch Lichteinwirkung ein- oder ausschalten um so ihren Beitrag zum Verhalten der Fliege zu untersuchen. „Was eine einzelne Zelle tut, kann als Steuersignal funktionieren, um den Kurs der Fliege zu korrigieren, sodass sie beispielsweise ihr Laufverhalten oder ihren Flügelschlag ändert“, sagt Mauss.

Sender = Empfänger

Sensorik und Motorik interagieren dabei nicht nur mehrspurig, sondern auch in beide Richtungen: Sie funken in einem regen Gegenverkehr vielfältige Rückmeldungen hin und her. Abbildung.

Abbildung .Informationen laufen nicht nur in eine Richtung, sondern oft in komplizierten und dynamischen Rückkopplungen zwischen Sensorik, Motorik und assoziativen „höheren“ Netzwerken.

Schon einfach gestrickte Nervensysteme können so Sinneseindrücke und Verhaltensbefehle virtuos aufeinander abstimmen. Räuberisch lebenden Würfelquallen etwa besitzen noch nicht einmal ein Gehirn, sondern lediglich einen Nervenring, der mit einer Reihe von Sinnesorganen verbunden ist. Zu diesen Sinnesorganen gehören mehrere Augen und Gleichgewichtsorgane mit unterschiedlichen Aufgaben und Ausrichtungen, die gut miteinander und mit dem motorischen System der Qualle vernetzt sind. Diese lokale Vernetzung reicht, um den Quallen komplexe Schwimmmanöver zu erlauben. „Das klappt, weil die Sensorik hier einen direkten Zugriff auf die Motorik hat – und umgekehrt“, erklärt Benedikt Grothe von der Ludwig-Maximilians-Universität München. „Die Augen beeinflussen direkt, wie die Qualle sich bewegt."

Manche Rückkopplungen zwischen Sensorik und Motorik sind schon länger bekannt. So weiß man seit Mitte des 20. Jahrhunderts, dass Kopien motorischer Befehle (so genannte Efferenz-Kopien) an sensorische Areale geschickt werden, damit Informationen über die Bewegung des eigenen Körpers dort mit neuen Sinnesinformationen verrechnet werden können. Das ist nötig, um korrekt einzuschätzen, wie sich die Wahrnehmung der Umwelt durch eigene Bewegungen verändert. Andernfalls entstünden verzerrte Eindrücke.

Wie vielfältig und komplex sich die Interaktion von Sensorik und Motorik jedoch tatsächlich gestaltet, um Verhalten optimal an die Umwelt anzupassen, wird erst neuerdings richtig deutlich. „Nervensysteme funktionieren nicht nur als externe sondern auch als interne Kommunikationssysteme“, sagt Grothe: „Auf der Suche nach Regeln für die Informationsverarbeitung von Ebene zu Ebene haben wir zu oft nur in die eine Richtung geschaut und dann festgestellt, dass das nur die halbe Wahrheit ist.“

Im menschlichen Hörsystem zum Beispiel geht es entgegen ursprünglicher Erwartungen keineswegs darum, ein möglichst akkurates Abbild der Umwelt aufzubauen und etwa eine Schaltquelle genau zu orten. So ein Konzept passt zwar in schalldichten Kammern ohne Störgeräusche, aber im echten Leben, in dem zahlreiche Reize permanent auf alle Sinne einprasseln und sich auch gegenseitig in die Quere kommen, funktioniert das System anders.

Erwartung und Realität

„Wir dachten, wir bauen ein Bild unserer Umgebung auf, aber das ist eine Illusion“, sagt Grothe. Stattdessen verrechnen Schaltkreise innerhalb von Millisekunden etliche lokale und systemweite Rückkopplungen und berücksichtigen dabei sowohl äußere Reize als auch interne Erfahrungen, Erwartungen und Reaktionen. Auf Grundlage solcher Erkenntnisse sind Konzepte wie predictive coding und active sensing entstanden, nach denen Sinneseindrücke im Cortex mit Erfahrungen, Erwartungen und Handlungsdispositionen integriert werden, die wiederum zu bestimmten Erwartungshaltungen führen. Diese schärfen das Sinnessystem besonders für Reize, die diesen Erwartungen gerade nicht entsprechen. Solche Überraschungen werden nun bevorzugt registriert und lösen Alarm aus. Die Vorteile eines derartigen Feintunings liegen auf der Hand: Wer im Alltagstrott feine Antennen für unerwartete Gefahren – oder Chancen – bewahrt, sichert sich so vielleicht den entscheidenden Überlebensvorteil.

Die Erkenntnis, dass Sensorik und Motorik nicht in fest verschalteten, hierarchischen Bahnen verlaufen, sondern hochdynamisch und flexibel miteinander und mit der Umwelt interagieren, bringt neue Herausforderungen für die Forschung mit sich. Die Fragen werden komplizierter und Experimente anspruchsvoller. Nun gilt es zu beobachten und zu verstehen, wie Gruppen verschiedener Zellen zusammenarbeiten, wenn ein Tier sich durch die Welt bewegt. Methodische Fortschritte wie die gleichzeitige Ableitung vieler Zellen, Virtual-Reality-Simulationen für Versuchstiere und Leistungssprünge in der Datenanalyse und Algorithmenentwicklung öffnen hier neue Perspektiven. Die neue ökologische Sichtweise auf das Nervensystem alleine reicht allerdings nicht, sondern muss ergänzt werden durch ein besseres Verständnis davon, wie dynamisch verknüpfte Nervenzellen die Interaktionsfülle meistern, betont Benedikt Grothe: „Die Rechenleistungen des einzelnen Neurons haben wir bislang völlig unterschätzt.“


 Zum Weiterlesen (open access)

• Ferreiro DN et al: Sensory Island Task (SIT): A New Behavioral Paradigm to Study Sensory Perception and Neural Processing in Freely Moving Animals. Front. Behav. Neurosci., 25 September 2020.   https://doi.org/10.3389/fnbeh.2020.576154 ]

• Lingner A et al: A novel concept for dynamic adjustment of auditory space. Sci Rep 8, 8335 (2018). https://doi.org/10.1038/s41598-018-26690-0

• Busch, C., Borst, A., & Mauss, A. S. (2018). Bi-directional control of walking behavior by horizontal optic flow sensors. Current Biology, 28(24), 4037-4045.https://doi.org/10.1016/j.cub.2018.11.010


 * Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Der vorliegende Artikel ist am 18.Dezember 2021 unter dem Titel: "Sinne und Taten. Von der einzelnen Sinneszelle zu komplexem Verhalten: Das gelingt dem Nervensystem mit vielen hochdynamischen Rückkopplungen." erschienen (https://www.dasgehirn.info/grundlagen/struktur-und-funktion/sinne-und-taten). Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog gestellt.


Artikel von Nora Schultz auf ScienceBlog.at


 

inge Thu, 30.12.2021 - 23:40

Francis S. Collins: Abschied vom NIH

Francis S. Collins: Abschied vom NIH

Do, 23.12.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin An diesem Wochende hat Francis S. Collins seinen Abschied als Direktor der US-National Institutes of Health (NIH) , der weltweit größten Forschungs-und Forschungsförderung-Einrichtung, genommen. Collins, zuvor bereits einer der berühmtesten Pioniere der Genforschung (Entdecker einiger wichtiger krankheitsverursachender Gene, Leiter des Human Genome Projekts) kann in seiner 12-jährigen Amtszeit auf große Erfolge verweisen: abgesehen von 39 Nobelpreisträgern, deren Arbeiten durch NIH-Förderung ermöglicht wurden, wurden die Brain Initiative, die Präzisionsmedizin Initiative (All of Us) gestartet , ein neues Zentrum für "Advancing Translational Sciences" eröffnet und schließlich in Zusammenarbeit mit Moderna innerhalb kürzester Zeit ein sicherer Impfstoff gegen COVID-19 entwickelt, der sich auch als der derzeit wirksamste erweist. Bestrebt neue Entdeckungen in Biologie und Medizin einem breiten Publikum zu kommunizieren, hat Collins dies in seinem NIH-Director's Blog getan. 2016 hat er unserem ScienceBlog gestattet seine Beiträge übersetzt, unter seinem Namen in unseren Blog zu stellen. Wir sind dafür ungemein dankbar und stolz auf bislang 32 seiner leicht verständlichen Artikel über Spitzenforschung, die wir  in unseren Blog stellen durften.

So viel zum Wissenschafter Collins. Den Menschen Collins kann man wohl nicht besser charakterisieren, als dies Rebeecca Baker, Direktor der NIH HEAL Initiative in 3 Worten getan hat. Er vereint in seiner Person: "Human, Kindness, Action". (Humanity und Hoffnung spricht auch aus seiner Paraphrasierung von "Somewhere  over the Rainbow", s.u.)

Wir wünschen Francis Collins nun allen seinen bislang zu kurz gekommenen Hobbies nachkommen zu können und weiterhin eine nicht abreißende Erfolgssträhne, wenn er wieder in sein Labor zurückkehrt.*

Euch Allen ein frohes Fest!

Wie Ihr vielleicht gehört habt, ist dies mein letzter Urlaub als Direktor der National Institutes of Health (NIH) – eine Position, die ich in den letzten 12 Jahren und vier Monaten unter drei US-Präsidenten innehatte. Und, wow, es kommt mir wirklich vor, als wäre es erst gestern gewesen, als ich diesen Blog gestartet habe!

Als ich den Blogs startete, nannte ich als mein Ziel, „neue Entdeckungen in Biologie und Medizin aufzuzeigen, welche meiner Meinung nach bahnbrechend, bemerkenswert oder einfach nur cool sind“. Mehr als 1.100 Beiträge, 10 Millionen einzelne Besucher und 13,7 Millionen Aufrufe später, stimmen Sie mir hoffentlich zu, dass dieses Ziel erreicht wurde. Ich habe auch festgestellt, dass das Bloggen sehr viel Spaß macht und eine großartige Möglichkeit ist, meinen eigenen Horizont zu erweitern und ein wenig von dem, was ich über biomedizinische Fortschritte gelernt habe, mit Menschen im ganzen Land und auf der ganzen Welt zu teilen.

Wenn ich mich also als NIH-Direktor abmelde

und in mein Labor am National Human Genome Research Institute (NHGRI) des NIH zurückkehre, möchte ich allen danken, die diesen Blog jemals besucht haben – von Gymnasiasten bis hin zu Menschen mit Gesundheitsproblemen, von biomedizinischen Forschern bis hin zu politischen Entscheidungsträgern. Ich hoffe, dass die evidenzbasierten Informationen, die ich bereitgestellt habe, für meine Leser ein wenig hilfreich und informativ waren. In diesem meinem letzten Beitrag teile ich ein kurzes Video, das nur einige der vielen spektakulären Bilder des Blogs hervorhebt; viele davon sind von NIH-finanzierten Wissenschaftlern im Laufe ihrer Forschung erstellt worden (Anmerkung der Redaktion: zahlreiche der hier aufgezeigten Einträge sind übersetzt im ScienceBlog erschienen):

In dem Video seht Ihr eine etwas ungewohnte Sammlung von Einträgen. Ich hoffe aber, dass Ihr daraus meine Begeisterung für das Potential der biomedizinischen Forschung verspüren könnt, welches diese für den Kampf gegen Erkrankungen des Menschen und für die Verbesserung seiner Gesundheit innehat – das Spektrum reicht hier von innovativen Immuntherapien zur Behandlung von Krebs bis hin zum Geschenk von mRNA-Impfstoffen, die zur Bekämpfung einer Pandemie eingesetzt werden.

Im Laufe der Jahre habe ich über viele von den kühnen, neuen Grenzen der Biomedizin gebloggt, die jetzt von NIH geförderten Wissenschaftlerteams erforscht werden. Wer hätte sich vorstellen können, dass sich die Präzisionsmedizin innerhalb von einem Dutzend Jahren von einer interessanten Idee zu einer treibenden Kraft hinter der größten NIH-Initiative aller Zeiten ("All of us") entwickeln würde, einer Initiative, die versucht, die Prävention und Behandlung häufiger Erkrankungen auf die individuelle Basis zuzuschneiden? Oder, dass wir heute bereits tief in die genaue Funktionsweise des menschlichen Gehirns vorgedrungen sind oder wie die menschliche Gesundheit von einigen der Billionen von Mikroorganismen profitieren kann, die unseren Körper als ihr zuhause bezeichnen?

Meine Beiträge haben sich auch mit einigen der erstaunlichen technologischen Fortschritte befasst, die in einer Vielzahl von wissenschaftlichen Disziplinen Durchbrüche ermöglichen. Diese innovativen Technologien umfassen leistungsstarke neue Möglichkeiten, um die atomaren Strukturen von Proteinen zu kartieren, genetisches Material zu editieren und verbesserte Gentherapien zu designen.

Was kommt demnächst für das NIH?

Ich kann Euch dazu versichern, dass sich das NIH in sehr ruhigen Händen befindet, wenn es einen hellen Horizont ansteuert, der vor außerordentlichen Möglichkeiten für die biomedizinische Forschung nur so übersprudelt. Wie Ihr erwarte ich Entdeckungen, die uns den lebensrettenden Antworten, die wir alle wollen und brauchen, noch näher bringen.

Während wir darauf warten, dass der US-Präsident einen neuen NIH-Direktor ernennt, wird Lawrence Tabak als amtierender NIH-Direktor fungieren - Tabak war in den letzten zehn Jahren stellvertretender NIH-Direktor und mein rechter Arm. Wartet also Anfang Januar auf seinen ersten Beitrag!

Was mich selbst betrifft,

werde ich mir wahrscheinlich ein wenig Auszeit gönnen, um bereits dringend benötigten Schlaf nachzuholen, um ein bischen zu lesen und zu schreiben und hoffentlich noch ein paar Fahrten auf meiner Harley mit meiner Frau Diane zu unternehmen. In meinem Labor mit dem Schwerpunkt auf Typ-2-Diabetes und einer seltenen Krankheit des vorzeitigen Alterns, dem sogenannten Hutchinson-Gilford-Progerie-Syndrom, gibt es allerdings viel zu tun. Ich freue mich darauf, diesen Forschungsmöglichkeiten nachzugehen und zu sehen, wohin sie führen.

Abschließend möchte ich Euch allen meinen aufrichtigen Dank für Euer Interesse aussprechen, während der letzten 12 Jahre vom NIH-Direktor hören zu wollen - und die NIH-Forschung zu unterstützen. Es war eine unglaubliche Ehre, Euch an der Spitze dieser großartigen Institution, die oft als National Institutes of Hope bezeichnet wird, zu dienen. Und nun senden Diane und ich Euch und Euren Lieben ein letztes Mal unsere herzlichsten Wünsche für ein frohes Fest und ein gesundes neues Jahr!


*Dieser Artikel von NIH-Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 19. Dezember 2021) im NIH Director’s Blog unter dem Titel: "Celebrating NIH Science, Blogs, and Blog Readers!" https://directorsblog.nih.gov/2021/12/19/celebrating-nih-science-blogs-and-blog-readers/ Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit einigen Untertiteln versehen. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


A Farewell for Dr. Francis Collins: Anthony Fauci. Video 5:11 min. https://www.youtube.com/watch?v=kWa9528JbF8

Francis Collins: Somewhere Past the Pandemic.https://www.youtube.com/watch?v=ftvkgpmgMao American Academy of Arts & Sciences; Video 2:03 min

Zur Gitarre singt Collins:

"Somewhere past the pandemic, where we're free,

there's a life I remember, full of activity,

Somewhere past the pandemic, no quarantine

We'll all stay well and healthy thanks to a safe vaccine.

 

Thank God these shots came very fast.

so all my fears are now behind me.

My family now can leave our home,

visit stores and freely roam

Masks off finally!

 

Somewhere past the pandemic life will resume.

We'll all complain about the traffic,

forgetting how we hated Zoom.

 

Somewhere past the pandemic, I'll hug my friends.

And thank God, science. and people,

have brought the pandemic's end.

 

But though we're doing better here,

those other countries' cries we hear

they're our family too.


Artikel von Francis S. Collins in ScienceBlog.at unter:

https://scienceblog.at/francis-s-collins


 

inge Thu, 23.12.2021 - 12:44

Omikron - was wissen wir seit vorgestern?

Omikron - was wissen wir seit vorgestern?

Do. 16.12.2021  — Inge Schuster

Inge Schuster Icon Medizin Die Omikron-Variante von SARS-CoV-2 weist eine hohe Zahl an Mutationen auf, insbesondere im Spikeprotein, mit dem es an unsere Zellen andockt. Wie Labortests zeigen kann Omikron deshalb in hohem Maße der schützenden Immunantwort durch Antikörper entkommen, die durch Impfung oder Infektion gegen ein nicht-(weniger-)mutiertes Spikeprotein erzeugt worden waren. Eine großangelegte britische Studie an mehr als 180 000 Personen zeigt nun erstmals in welchem Ausmaß die aktuellen Vakzinen von Pfizer und AstraZeneca vor symptomatischen Infektionen mit den Omikron-und Delta-Varianten schützen können. Auch wenn über die Zeit hin neutralisierende Antikörper bereits verschwunden sind, bleibt ein gewisser Schutz noch bestehen, möglicherweise durch eine substantielle Beteiligung von T-Zellen an der Immunantwort.

Die neue Omikron-Variante von SARS-CoV-2 breitet sich mit einer bisher nie gekannten, rasanten Geschwindigkeit über den ganzen Erdball aus - bereits 77 Länder sind davon betroffen (WHO, Status 15.12.2021), auch solche mit hohen Durchimpfungsraten. In nicht minder rasantem Tempo versuchen Forscherteams auf der ganzen Welt die Gefährlichkeit dieser Variante zu ergründen und Mittel und Wege zu ihrer Eindämmung zu finden. Weil es ja so schnell gehen muss, werden die Ergebnisse in Form vorläufiger Berichte sofort auf online- Plattformen wie medRxiv oder bioRxiv gestellt und sind für jedermann zugänglich.

Seit einer Woche häufen sich Berichte, die übereinstimmend zeigen, dass Antikörper, die durch die aktuellen Impfungen oder auch Infektionen erzeugt wurden, in Labortests Omikron sehr viel schwächer neutralisieren als die bisherigen Varianten (zusammengefasst in (1]). Ein britisches Team aus akademischen Institutionen und Gesundheitseinrichtungen hat nun eine großangelegte erste - ebenfalls vorläufige - Untersuchung aus der "realen Welt" vorgelegt, nämlich eine Studie zur Wirksamkeit der aktuellen Impfungen gegen symptomatische Erkrankungen durch die Omikron-Variante und die (noch) dominierende Delta-Variante [2].

Die Situation in Großbritannien

Hier begannen die Impfungen gegen COVID-19 bereits im Dezember 2020, wobei jeweils 2 Mal hauptsächlich mit der Vakzine von Pfizer/Biontech-Impstoff (BNT162b2) oder von AstraZeneca (ChAdOx1-S) (oder in geringem Ausmaß von Moderna (mRNA-1723)) geimpft wurde. Im September 2021 begann man 6 Monate nach der letzten Impfung mit einem dritten Stich, einem Boostern mit dem Pfizer- oder Moderna-Impfstoff.

Die Durchimpfungsrate der Bevölkerung ist hoch. Insgesamt sind rund 70 % zwei Mal geimpft, von den über 50 Jährigen sind es über 80 %; und rund 37 % der Bevölkerung haben bereits einen dritten Stich erhalten. (UK Health Security Agency, Stand 15.12.2021).

Die ersten symptomatischen Omikron-Infektionen wurden mittels Genom-Sequenzierung Mitte November 2021 festgestellt. Inzwischen hat deren Zahl exponentiell auf insgesamt 10 017 Fälle zugenommen - von vorgestern auf gestern waren es um 4671 Fälle mehr (UK Health Security Agency, Stand 15.12.2021).

Die Studie in Großbritannien

Insgesamt erfolgten Testungen zwischen dem 27.11. und 6.12.2021 an 187 887 Personen, die über Symptome einer möglicher COVID-19 Erkrankung klagten. Damals gab es erst "nur" 581 Fälle mit bestätigter Omikron-Infektion, in 56 439 Fällen war die damals bei weitem dominierende Delta-Variante der Verursacher. In 130 867 Fällen verlief der Test negativ (Table 1 in [2]).

Der bei weitem überwiegende Teil der Untersuchten war geimpft. Man wusste aber bereits , dass der Impfschutz gegen die Delta-Variante mit zeitlicher Distanz zur Impfung stetig abnahm. Eine Aufschlüsselung der Inzidenzen nach geimpft/ungeimpft ergab aber einen deutlichen Vorteil für die Geimpften: 72 % der Geimpften waren nicht mit SARS-CoV-2 infiziert, 28 % mit der Delta-Variante und 0,27 % mit der neuen Omikron Variante. Dagegen waren 49 % der Ungeimpften mit der Delta-Variante und 1 % mit der Omikron-Variante infiziert. Abbildung 1.

Abbildung 1: Die aktuellen Vakzinen sind gegen die dominierende Delta-Variante und die neue Omikron- Variante wirksam. (Abbildung mit Daten aus Tabelle 1,[2] zusammengestellt, die unter einer cc-by-nc-nd: Lizenz stehen).

Die Wirksamkeiten gegen die Omikron- und Delta-Varianten nehmen innerhalb weniger Monate ab

Im Detail erfassten die Testungen Zeiträume von 2 -9 Wochen bis 25 (und mehr) Wochen nach der 2. Dosis Impfstoff und (zumindest) 2 Wochen nach dem Booster, der sowohl nach 2 x Pfizer als auch nach 2 x AstraZeneca mit dem Pfizer-Impfstoff erfolgte.

Insgesamt war die Wirksamkeit gegen die Delta-Variante bedeutend höher als gegen die Omikron-Variante und nahm in beiden Fällen über die Zeit hin stark ab.

Nach etwa einem halben Jahr (25 + Wochen) war die Wirksamkeit der Pfizer-Doppelimpfung gegen die Delta-Variante von anfänglich (d.i. 2- 9 Wochen nach dem 2. Stich) rund 88 % auf im Mittel rund 63 % gesunken, 2 Wochen nach dem Booster stieg die Wirksamkeit aber wieder auf 92,6 %. Abbildung 2. Gegen die Omikron-Variante wirkte die Pfizer-Vakzine bedeutend schwächer: bereits 10 -14 Wochen nach der 2. Impfdosis war die anfängliche Wirksamkeit von im Mittel 88 % auf 48 % gesunken, nahm noch weiter auf rund 35 % ab und blieb dann über den weiteren Zeitverlauf konstant. 2 Wochen nach dem Booster wurden dann rund 75,5 % Wirksamkeit erreicht. Abbildung 2.

Abbildung 2. Wirksamkeit der Pfizer-Vakzine gegen die Delta-Variante (Quadrate) und Omikron-Variante (Kreise). Zeitverlauf nach dem 2. Stich und 2 Wochen nach dem Booster. . Ab 15 Wochen nach dem 2. Stich bleibt die Wirksamkeit gegen Omikron auf konstantem Niveau von rund 35 % .Auf Grund der zum Testzeitpunkt noch geringen Omikron-Fallzahlen, sind die Werte mit großen Streuungen behaftet. (Bild aus [2], Figure 1; Lizenz: cc-by-nc-nd).

Die mit der AstraZeneca-Vakzine gegen Delta und Omikron erzielten Ergebnisse waren weit schlechter. (Keine Abbildung.) Die Wirksamkeit gegen die Delta-Variante war nach 25 Wochen auf rund 42 % gesunken, gegen die Omikron-Variante gab es bereits 15 Wochen nach dem 2. Stich keine schützende Wirkung mehr. Ein dritter Stich mit der Pfizer Vakzine ergab 2 Wochen später eine gesteigerte Wirkung gegen Delta von rund 92 %, gegen Omikron von 71,4 %.

Fazit

2 Dosen der aktuellen Impfstoffe von Pfizer oder AstraZeneca reichen nicht aus, um vor symptomatischen Infektionen insbesondere mit der Omikron-Variante geschützt zu werden. Durch einen dritten Stich - Boostern - mit dem Pfizer-Impfstoff werden kurz danach adäquate Schutzwirkungen erzielt; darüber, wie lange dieser Schutz anhält, sind aber noch keine Daten erhoben.

Neutralisierende Antikörper und Impfschutz

Allgemein wird der Impfschutz vor symptomatischen Infektionen mit dem Vorhandensein neutralisierender Antikörper korreliert, die hochselektiv an Bereiche (Epitope) eines Pathogens binden und so dessen Eintritt in unsere Körperzellen und Vermehrung blockieren - das Pathogen neutralisieren.

In der vergangenen Woche hat das Team um die Frankfurter Immunologin Sandra Ciesek über Labortests berichtet, in denen untersucht wurde wieweit die in Serumproben Geimpfter enthaltenen Antikörper die authentischen Omikron- und Delta-Varianten zu neutralisieren vermögen [3] [1]. Gleichgültig ob 2 x mit der Pfizer-, der Moderna- oder der AstraZeneca-Vakzine geimpft worden war, konnten 6 Monate nach dem 2. Stich in keiner Serumprobe mehr Omikron-neutralisierende Antikörper nachgewiesen werden. Auch gegen die Deltavariante enthielten nur 47 % der Serumproben von Pfizer-Geimpften, 50 % der Moderna-Geimpften und 21 der AstraZeneca-Geimpften neutralisierende Antikörper. Das Boostern von 2 x Pfizer-Geimpften mit einem dritten Pfizerstich führte zu gesteigerten Antikörperspiegeln: 2 Wochen danach enthielten nun 100 % der Seren Antikörper gegen Delta, aber nur 58 % gegen Omikron; 3 Monate nach dem dritten Stich hatten noch 95 % der Seren messbare Titer gegen Delta, aber nur mehr 25 % gegen Omikron.

Abbildung 3. Der Impfschutz gegen Omikron- und Delta-Varianten ist höher als auf Grund von Antiköpertests geschätzt. Bestimmungen: 6 Monate nach 2 x Pfizer(2x6m), 2 Wochen nach 3. Pfizerstich (3x2w) und 3 Monate nach dem 3. Pfizerstich (3x3m) . Angaben in % der Serumproben, die neutralisierende Antikörper enthalten und % Wirksamkeit gegen symptomatische Infektionen n.b.: nicht bestimmt. (Daten zusammengestellt aus [2] und[3].)

Diese Antikörpertiter aus der Neutralisationsstudie und die aus der britischen Studie hervorgehende Wirksamkeit der Impfungen zeigen keine quantitative Korrelation. Dies ist für die 2x, 3x Impfung mit der Pfizer-Vakzine in Abbildung 3 dargestellt.

6 Monate nach 2x Pfizer sind in den Serumproben zwar keine neutralisierenden Antikörper gegen Omikron mehr enthalten [3], dennoch hat die Impfung noch 33 % Wirksamkeit (Abbildung 2, [2]). Auch gegen die Deltavariante ist die Wirksamkeit der Impfung nach 6 Monaten höher als aus den Antikörperspiegeln vermutet und ebenso 2 Wochen nach dem Boostern gegen die Omikron-Variante. Dies könnte auf eine substantielle, langanhaltende Beteiligung von CD8+ T-Zellen an der Immunantwort hinweisen, gegen die Omikron noch keine Fluchtmutationen entwickelt hat [4]; die Folge davon:

                   Wenn neutralisierende Antikörper verschwinden, besteht zwar ein hohes Risiko mit Omikron infiziert zu werden, patrouillierende T-Zellen können aber infizierte Zellen erkennen, deren Zerstörung einleiten und so einen schweren Krankheitsverlauf verhindern/mildern.


[1] I. Schuster, 11.12.2021.: Labortests: wie gut schützen Impfung und Genesung vor der Omikron-Variante von SARS-CoV-2?

[2] Nick Andrews et al., Effectiveness of COVID-19 vaccines against the Omicron (B.1.1.529) variant of concern; medRxiv preprint (14.12.2021), doi: https://doi.org/10.1101/2021.12.14.21267615

[3] A. Wilhelm et al., Reduced Neutralization of SARS-CoV-2 Omicron Variant by Vaccine Sera and monoclonal antibodies. doi: https://doi.org/10.1101/2021.12.07.21267432

[4] Andrew D Redd et al., Minimal cross-over between mutations associated with Omicron variant of SARS-CoV-2 and CD8+ T cell epitopes identified in COVID-19 convalescent individuals. doi: https://doi.org/10.1101/2021.12.06.471446


Artikel in ScienceBlog.at

Zu COVID-19 sind bis jetzt 38 Artikel erschienen. Die Links finden sich zusammengefasst unter: Themenschwerpunkt Viren

inge Fri, 17.12.2021 - 00:13

Comments

Labortests: wie gut schützen Impfung und Genesung vor der Omikron-Variante von SARS-CoV-2?

Labortests: wie gut schützen Impfung und Genesung vor der Omikron-Variante von SARS-CoV-2?

Sa. 11.12.2021  — Inge Schuster

Inge Schuster Icon Medizin Die neue, von der WHO als besorgniserregend eingestufte Omikron-Variante von SARS-CoV-2 breitet sich auch in Ländern mit hoher Durchimpfungsrate rasant schnell aus. Omikron weist eine ungewöhnlich hohe Zahl an Mutationen auf, insbesondere am Spikeprotein mit dem das Virus an unsere Zellen andockt und gegen das - durch Impfung - die schützende Immunantwort im Organismus erzeugt werden soll. Mehrere präliminäre Berichte aus den letzten Tagen zeigen übereinstimmend, dass bei Geimpften die Antikörper gegen Omikron sehr viel schwächer wirken als gegen die bisherigen Varianten, inklusive der derzeit noch dominierenden Delta-Variante und ein Booster nach der Zweifach-Impfung dringend angezeigt ist. In Hinblick auf die T-Zellantwort spielen die Mutationen offensichtlich (noch) keine Rolle, bei Geimpften sollte auch die Omikron-Variante von den T-Zellen erkannt werden.

Es sind gerade vier Wochen her, dass eine neue SARS-CoV-2-Variante in Botswana und Südafrika identifiziert wurde, die sich rasant verbreitet und von der WHO bereits am 26. November 2021 als besorgniserregende Variante ("variant of concern" -VOC) eingestuft wurde. Inzwischen hat diese mit Omikron bezeichnete Variante B.1.1.529 bereits globale Verbreitung gefunden und ist in mehr als 55 Staaten (darunter in 21 Ländern der EU; Status 8.12.2021) nachgewiesen worden. Basierend auf Analysen gehen Risikoeinschätzungen in UK davon aus, dass Omikron dort innerhalb der nächsten 2 - 4 Wochen als dominierende Variante die Delta-Variante ablösen wird.

Eine ungewöhnlich hohe Zahl an Mutationen

Im Vergleich mit den bisherigen Varianten weist das Omikron Genom eine ungewöhnlich hohe Zahl an Mutationen auf. Gegenüber dem ursprünglichen, aus Wuhan stammenden Virus, sind es 60 Mutationen, wobei 32 davon das an der Virusoberfläche sitzende Spikeprotein betreffen, mit dem dieses an unsere Körperzellen andockt. Abbildung 1. Dieses Spikeprotein spielt die zentrale Rolle bei den derzeit zugelassenen Vakzinen und Antikörpern, die bis jetzt höchst erfolgreich vor symptomatischen Infektionen mit den im Verlauf der Pandemie neu entstandenen SARS-CoV-2- Varianten - von Alpha bis Delta - schützen.

Abbildung 1. Das Spikeprotein in seiner Struktur als Trimer mit den Positionen der Omikron Mutationen von oben in Richtung Membran gesehen Die Domäne, mit der das Protein an den Rezeptor (ACE-2) auf unseren Zellen andockt ist im hellblauen und grauen Monomer nach oben, im dunkelblauen Monomer nach unten gerichtet. 15 der insgesamt 32 Mutationen des Monomers liegen in der jeweiligen Bindungsdomäne. Aminosäure-Substitutionen: gelb, Deletionen: rot, Insertionen: grün. Bild: https://commons.wikimedia.org/wiki/User: Opabinia_regalis. Lizenz: cc-by-sa. 4.0

Neutralisationstest und .....

Die Vielzahl der Mutationen, welche die neue Variante an entscheidenden Positionen des Spikeproteins aufweist und die rasante Verbreitung auch in Staaten mit hoher Durchimpfungsrate (wie den UK) haben die Frage aufgeworfen, wieweit dagegen einsetzbare Vakzinen/Antiköper überhaupt noch einen Schutz bieten können. Mit Laborexperimenten - sogenannten Neutralisationstests (NT) - war man überzeugt bereits in wenigen Wochen dazu Informationen zu erhalten: Sind Antikörper im Serum Geimpfter noch in der Lage die neue Variante zu blockieren und am Eintritt in Wirtszellen zu hindern, so sollte dies zu einer Reduktion der Virusvermehrung führen. Eine Maßzahl dafür ist der Neutralisationstiter - NT50- : dazu wird eine Serumprobe schrittweise verdünnt (1:2, 1:4, 1:8, 1:16,......) und in Zellkulturen gegen das Virus getestet bis zur Verdünnung, bei der die Virusvermehrung um 50 % reduziert wird. Mehrere Forscherteams haben sich sofort an diese überaus dringende Aufgabe gemacht.

.....in vitro Untersuchungen zur Wirksamkeit von Seren Geimpfter

2 Wochen später erleben wir nun ein Stakkato an Ergebnissen. Diese sind wohl präliminär - es sollten ja so schnell als möglich Daten generiert werden -, wurden erst auf Seiten wie bioRxiv oder medRxiv (vorerst sogar nur auf Twitter) mitgeteilt, sind natürlich noch keinem peer review unterzogen worden und mit einigen "caveats" zu betrachten. Aber, auch wenn die Testmethoden der einzelnen Teams unterschiedlich waren, so zeigen sie übereinstimmend, dass die Antikörperantwort gegen Omikron bei Geimpften sehr viel schwächer ausfällt als gegen die bisherigen Varianten, inklusive der derzeit noch dominierenden Delta-Variante.

Daten aus Südafrika

Am Dienstag (7.12.2021) hat ein Team um Alex Sigal in Durban, Südafrika Daten vorgelegt, in denen sie die Neutralisierung von authentischen Omikron-Viren in Lungenzellen, die den SARS-CoV-2-Rezeptor ACE-2enthielten, durch die Antikörper im Plasma von 12 mit der Pfizer/Biontech-Vakzine geimpften Personen (rund 2 - 4 Wochen nach der Impfung) untersuchten; 6 dieser Personen hatten (mehr als ein Jahr) zuvor eine Infektion mit COVID-19 durchgemacht. Das niederschmetternde Ergebnis: die neutralisierende Wirkung der Antikörper war um das 41-Fache reduziert. Allerdings gingen die zuvor Infizierten und dann Geimpften von einer rund 100-fach höheren neutralisierenden Wirkung aus [1].

Daten aus Schweden

Ebenfalls am 7.12.2021 hat eine Gruppe um D. Murrell vom Karolinska Institut in Stockholm Daten aus einem Pseudovirus-Test präsentiert [2]. Es handelte sich dabei um die Neutralisierung eines Lentivirus, das mit einem alle Mutationen der Omikron Variante enthaltenden Spikeprotein-Fragment bestückt war. Das Plasma stammte von geimpften Blutspendern (n = 17) und von Krankenhausbediensteten (n = 17), die nach einer COVID-19 Infektion geimpft worden waren. Auch hier wurde ein, im Vergleich zum Wuhan Wildtyp und auch zur Delta-Variante, deutlicher Rückgang der Antikörperwirkung beobachtet, wobei allerdings dessen Ausmaß enorm variierte. Frühe Plasmaproben, die zur Standardisierung des Tests dienten - sogenannte WHO Neutralisierungs-Standards - zeigten eine 40-fache Reduktion der Antikörperwirkung gegen Omikron verglichen mit dem Wuhan-Virus.

Daten aus Frankfurt

Am 8. Dezember hat das Team um Sandra Ciesek vom Institut für Medizinische Virologie der Universität Frankfurt einen ausführlichere Studie mit SARS-CoV-2-Isolaten der Delta- und Omikron-Varianten in medRxiv vorgestellt [3]. Die Omikron-Variante war aus Nasen-Rachen Abstrichen eines infizierten Heimkehrers aus Südafrika isoliert worden. Serumsproben von Personen, die nach verschiedenen Schemata mit den Vakzinen von Pfizer/Biontech (BNT162b2) , von Moderna (mRNA1273) und AstraZeneca (ChAdOx1) geimpft worden waren, wurden auf ihre Fähigkeit die beiden Varianten zu neutralisieren getestet. Abbildung 2.

Abbildung 2. Antikörper-vermittelte Neutralisierung der Delta Variante graue Punkte)und Omikron-Variante(rote Punkte)nach verschiedenen Impfschemata: 6 Monate nach Zweifachimpfung, Dreifachimpfung 0,5 Monate nach Booster und 3 Monate nach Booster (nur BNT) und nach 6 - 7 Monate nach Infektion und Doppelimpfung (nur BNT). NT50: Serum-Titer bei dem 50 % des Virus neutralisiert sind. %-Angaben: Anteil der Serumproben, die einen meßbaren Titer zeigten. X-fache Reduktion: NT50- Delta - NT50-Omikron. (Quelle: Bilder A, B und C von Figure 1 aus [3]; Lizenz: cc-by-nd)

Generell war die Wirksamkeit gegenüber der Omikron-Variante bedeutend niedriger als gegen die Delta-Variante. Gleichgültig mit welchen Vakzinen 2 mal geimpft worden war, ließ sich 6 Monate danach keine Neutralisierung der Omikron Variante nachweisen; auch die Wirkung gegen die Delta-Variante war stark reduziert: 47 % der Serumproben nach Doppelimpfung mit Biontech/Pfizer, 50 % nach 2 x Moderna und 21 % nach der heterologen Impfung mit AstraZenca/Pfizer hatten noch messbare Titer. (Abbildung 2. A,B,C).

2 Wochen nach dem dritten Stich mit BNT162b2 war die Antikörperwirksamkeit NT50 stark angestiegen, allerdings für die Omikron-Variante 37 mal niedriger als für die Delta-Variante; während 100 % der Serumsproben gegen die Delta-Variante messbare Titer hatten, waren es nur 58 % gegen die Omikron-Variante. 3 Monate nach dem dritten Stich hatten noch 95 % der Seren messbare Titer gegen Delta, aber nur mehr 25 % gegen Omikron. Die Seren Genesener hatten nach Aussage der Autoren nur geringe Wirksamkeit gegen beide Varianten [3]; nach dem Boostern stieg diese im Mittel stark an (die Streuung ist allerdings sehr groß), aber auch in diesem Fall hatten nur 25 % messbare Titer gegen Omikron (alles Abbildung 2 A).

Auch im Fall der 2-fach Impfung mit Moderna oder mit AstraZeneca/Pfizer brachte das Boostern mit jeweils Pfizer einen starken Anstieg der Wirkung gegen beide Varianten. 2 Wochen nach dem 3. Stich hatten 78 % der Seren nach 2 x Moderna/Pfizer und 38 % nach AstraZeneca/2 x Pfizer messbare Titer gegen Omikron (Abbildung 2, B und C). Ergebnisse nach längeren Zeitintervallen sind offensichtlich noch nicht vorhanden.

Zwei derzeit gegen COVID-19 therapeutisch eingesetzte monoklonale Antikörper- Imdevimab und Casirivimab - verhindern zwar effizient die Infektion mit der Delta-Variante, sind aber aber auf Grund einer Mutation im Bindungsbereich gegen die Omikron-Variante völlig wirkungslos [3].

Daten aus China

Ein großes Team um Yunlong Cao von der Peking University, der Chinesischen Akademie der Wissenschaften und anderen Institutionen hat insgesamt 247 gegen die Bindungsdomäne des Spikeproteins gerichtete, neutralisierende Antikörper auf Wirksamkeit gegen die Omikron-Variante untersucht [4]. Diese Antikörper waren aus den Seren Geimpfter und Genesener isoliert worden. Wie die Forscher in einem preprint in medRxiv am 9.12.2021 berichten, versagten 85 % dieser Antikörper auf Grund der zahlreichen Mutationen der Omikron-Variante, ebenso wie eine Reihe therapeutischer Antikörper-Cocktails. Nur gegen eine konservierte Region des Spikeproteins gerichtete Antikörper zeigten Wirksamkeit.

Anmerkung: Die Ergebnisse bieten eine Anleitung, um wirksame Vakzinen und Antikörper-Cocktails gegen Omikron und auch gegen zukünftige Corona-Varianten zu entwickeln.

Meldung von Pfizer

Am 8.12. hat auch Pfizer in einer Aussendung zur Wirksamkeit seines Impfstoffs gegen die Omikron-Variante Stellung genommen [5]. Serumproben von 2 mal mit BNT162b2 Geimpften wurden nach 3 Wochen , von 3 mal Geimpften einen Monat nach der 3. Dosis genommen, der Antikörper Titer gegen das Spikeprotein des Wuhan-Wildtyps und gegen die Omikron-Variante in einem Pseudovirus-Neutralisierungstest bestimmt (siehe oben). Nach dem 2. Stich war der Titer gegen Omikron 25-fach niedriger als gegen den Wildtyp; der dritte Stich führte zu einer 25-fachen Erhöhung der Wirksamkeit (allerdings ist die Wirkung gegen die Deltavariante 2,6-mal höher als gegen Omikron).

Anmerkung: wie lange die Antikörperwirkung anhält, ist noch nicht untersucht. Den Daten des Frankfurter Teams zufolge, ist bereits nach 3 Monaten mit einer starken Reduktion zu rechnen (Abbildung 2A).

Pfizer hat am 25.11.2021 mit der Entwicklung einer Omikron spezifischen Vakzine begonnen. Abhängig von den Bescheiden der Behörden rechnet Pfizer mit deren Verfügbarkeit im März 2022 [5].

Impfschutz vor Omikron durch die T-Zell Antwort

Auf eine Impfung/Infektion antwortet unser Immunsystem mit einer Reihe von Abwehrstrategien. Neben der Bildung von Antikörpern, die im Blutplasma transportiert das Eindringen und die Ausbreitung der Erreger im Körper blockieren, wird auch die zelluläre Abwehr durch T-Zellen (T-Lymphozyten) stimuliert. Wird im gegebenen Fall als Folge der Impfung/Infektion nun das Spikeprotein produziert, so wird es in unseren sogenannten Antigen-präsentierenden Zellen in kleine Bruchstücke abgebaut und diese an der Zelloberfläche präsentiert. Cytotoxische T-Zellen (CD8+ T-Zellen), die genau an verschiedene Bereiche (Epitope) des Spikeproteins angepasst sind, erkennen die präsentierten Bruchstücke als fremd und lösen über eine Signalkaskade die Zerstörung der Zellen aus. Solche Cytotoxische Zellen entstehen bereits wenige Tage nach der Infektion/Impfung (früher als Antikörper) und können in langlebige Gedächtniszellen umgewandelt werden, um bei späteren Infektionen mit dem Pathogen wieder aktiviert zu werden.

Abbildung 3. Aminosäuresequenz für das Spikeprotein des ursprünglichen Wuhan-SARS-CoV-2 Virus. Die CD8+ Epitope sind hellgrün hervorgehoben, alle Mutationen und Deletionen (durchgestrichen) durch große blaue Buchstaben gekennzeichnet. Aminosäuren sind abgekürzt als Einbuchstabencode. (Quelle: Redd et al., [6], Lizenz: cc0).

Die zahlreichen Mutationen der Omikron-Variante im Spikeprotein haben zum massiven Wirkungsverlust der gegen frühere Varianten erzeugten Antikörper geführt. Ob diese Mutationen auch in Epitopen der T-Zell Antwort auftreten und diese kompromittieren, wurde von einem Team am National Institute of Allergy and Infectious Diseases der NIH und an der John Hopkins University (Baltimore) untersucht und am 9.12.2021 als preprint in bioRxiv veröffentlicht [6]:

Periphere mononukleare Blutzellen von 30 Genesenen, die im Jahr 2020 an Covid-19 erkrankt waren, dienten als Ausgangsmaterial für die umfangreiche Analyse. Diese prüfte ob Epitope des Virus, gegen welche die CD8+ -Zellen generiert worden waren, nun in der Omikron-Variante Mutationen aufweisen würden. Unter den 52 identifizierten Epitopen gab es nur eines, das in der Omikron-Variante eine mutierte Aminosäure enthält. Abbildung 3.

SARS-CoV-2 hat derzeit also noch keine T-Zell Fluchtmutationen entwickelt. Bei praktisch allen Personen mit einer aufrechten CD8+ T-Zell Antwort gegen SARS-CoV-2 nach Impfung/Infektion sollte auch die Omikron-Variante erkannt werden.


[1] Sandile Cele et al.,; SARS-CoV-2 Omicron has extensive but incomplete escape of Pfizer BNT162b2 elicited neutralization and requires ACE2 for infection. medRxiv 2021.12.08.21267417; https://doi.org/10.1101/2021.12.08.21267417

[2] Daniel E, Sheward et al.,: Preliminary Report - Early release, subject to modification. Quantification of the neutralization resistance of the Omicron Variant of Concern. https://tinyurl.com/ycx4x4d4

[3] A. Wilhelm et al., Reduced Neutralization of SARS-CoV-2 Omicron Variant by Vaccine Sera and monoclonal antibodies. doi: https://doi.org/10.1101/2021.12.07.21267432

[4] Yunlong Cao et al.,: B.1.1.529 escapes the majority of SARS-CoV-2 neutralizing antibodies of diverse epitopes. doi: https://doi.org/10.1101/2021.12.07.470392  

[5] Pfizer and BioNTech Provide Update on Omicron Variant. https://www.businesswire.com/news/home/20211208005542/en/

[6] Andrew D Redd et al., Minimal cross-over between mutations associated with Omicron variant of SARS-CoV-2 and CD8+ T cell epitopes identified in COVID-19 convalescent individuals. doi: https://doi.org/10.1101/2021.12.06.471446

 


Artikel in ScienceBlog.at

Zu COVID-19 sind bis jetzt 38 Artikel erschienen. Die Links finden sich zusammengefasst unter: Themenschwerpunkt Viren


inge Sun, 12.12.2021 - 00:01

Brennstoffzellen: Knallgas unter Kontrolle

Brennstoffzellen: Knallgas unter Kontrolle

Do, 02.12.2021 — Roland Wengenmayr

Icon Energie

Roland Wengenmayr Brennstoffzellen ermöglichen die direkte Umwandlung von chemischer Energie in elektrische Energie. Verglichen mit der von fossilen Brennstoffen ausgehenden Stromerzeugung haben Brennstoffzellen dementsprechend einen sehr hohen Wirkungsgrad. Die im folgenden Artikel beschriebene Zelle verwendet kontinuierlich zuströmenden Wasserstoff als Brennstoff, der Reaktionspartner ist Sauerstoff. Dabei entstehen Strom, Wasserdampf und Wärme. Wie diese Zelle funktioniert, wovon ihre Effizienz abhängt und wie sie praxistauglicher gemacht werden kann, erklärt der Physiker und Wissenschaftsjournalist DI Roland Wengenmayr*.

„Houston, wir haben hier ein Problem.“ Mit dieser Meldung von Apollo 13 wurde die Brennstoffzelle schlagartig berühmt. Am 11. April 1970 war ein Sauerstofftank an Bord des Raumschiffs auf dem Weg zum Mond explodiert. Das Merkwürdige war, dass damit die Stromproduktion an Bord ausfiel. Was aber hat Sauerstoff mit elektrischer Energie zu tun? Die mitfiebernden Fernsehzuschauer erfuhren, dass eine „Brennstoffzelle“ aus Sauerstoff und Wasserstoff elektrischen Strom machte. Das Abfallprodukt war praktischerweise Trinkwasser für die Astronauten.

Die erste Brennstoffzelle bastelte 1838 Christian Friedrich Schönbein. Wasser kann man mit elektrischer Energie in Wasserstoff und Sauerstoff spalten, und diese Elektrolyse (Abbildung 1) drehte Schönbein um. Er steckte zwei Platindrähte in Salzsäure und umspülte den einen Draht mit Wasserstoff, den anderen mit Sauerstoff. Zwischen den Drähten konnte er eine elektrische Spannung messen. fast zur gleichen Zeit kam der Engländer Sir William Grove auf dieselbe Idee. Beide gelten heute als Väter der Brennstoffzelle. Welches Energiepotenzial eine Wasserstoff-Brennstoffzelle hat, vermittelt ein Schulversuch: Mischt man gasförmigen Wasserstoff mit Sauerstoff und entzündet dieses Knallgas, dann gibt es eine Explosion. Chemisch verbinden sich dabei jeweils zwei Wasserstoffatome mit einem Sauerstoffatom zu einem Wassermolekül. Dabei wird viel Energie als Wärme frei. eine Brennstoffzelle bringt diese heftige chemische Reaktion unter Kontrolle und zwingt sie, ihre Energie zum guten Teil in elektrisch nutzbarer Form abzugeben. Abbildung 1.

Abbildung 1: Knallgas unter Kontrolle

Brennstoffzellen gehören, wie Batterien und Akkumulatoren, zu den elektrochemischen Zellen. Diese wandeln chemische Energie in elektrische Energie um. Akkus sind über den umgekehrten Prozess auch aufladbar. Im Unterschied zu Batterien müssen Brennstoffzellen permanent von außen mit den elektrochemisch aktiven Stoffen, Sauerstoff und Brennstoff, versorgt werden. Nur dann produzieren sie elektrische Energie.

Wie Batterien haben Brennstoffzellen zwei Elektroden, die über einen Elektrolyten Kontakt haben. Zusätzlich brauchen sie noch einen Anschluss für den Brennstoff, in der Regel reinen Wasserstoff. Durch eine weitere Öffnung müssen sie Sauerstoff aus der Luft aufnehmen können. Als Abgas entsteht in der Wasserstoff-Brennstoffzelle reiner Wasserdampf.

Die Elektroden der Zellen sind porös, damit Luft, der Brennstoff und das Abgas sie möglichst gut durchströmen können. Sie bestehen zum Beispiel aus mikroskopisch kleinen Kohlenstoffkörnern, die zusammengepresst sind. Diese Körnchen sind zusätzlich mit Katalysatorteilchen belegt, die ungefähr zehn Mal kleiner sind. als Reaktionsbeschleuniger spielt der Katalysator eine entscheidende Rolle. Wasserstoff-Brennstoffzellen benötigen hierfür Edelmetalle wie Platin, was teuer ist.

Das Team des Chemikers Klaus- Dieter Kreuer am Max-Planck-Institut für Festkörperforschung forscht an der Verbesserung von Niedertemperatur-Brennstoffzellen. Die Betriebstemperatur solcher Zellen liegt normalerweise unterhalb von 100 °C, dem Siedepunkt von Wasser unter Normaldruck. ihre kompakte Bauweise erlaubt enorme Leistungsdichten. im Gegensatz zu Hochtemperatur-Brennstoffzellen, die bei bis zu 1000 °c arbeiten, reagieren sie agil auf Lastwechsel, zum Beispiel beim Beschleunigen und Bremsen von Fahrzeugen. Das macht sie besonders geeignet für Elektroautos und elektrische Züge auf Strecken ohne Oberleitung.

Im Fokus von Kreuers Team steht ein zentrales Bauteil der Niedertemperatur-Brennstoffzellen: eine hauchdünne Kunststoffmembran. Diese muss beide Elektrodenräume der Brennstoffzelle effizient trennen. Deshalb heißen solche Zellen auch Polymermembran-Brennstoffzellen. „Heute sind solche Membranen bis zu zehn Mikrometer dünn“, erklärt Kreuer. Menschliches Kopfhaar ist grob zehnmal so dick. Da es an den bisher verwendeten Membranen noch Verbesserungsbedarf gibt, forschen die Stuttgarter Chemikerinnen und Chemiker seit vielen Jahren an neuen Membranmaterialien.

Abbildung 2: Grundprinzip der Wasserstoff-Niedertemperatur-Brennstoffzelle. In der Anode links wird das Wasserstoffgas H2 (H–H) in je zwei Protonen (H+, rot) und Elektronen (e–, blau) zerlegt. Die Elektronen fließen durch einen Verbraucher und leisten dort Arbeit. Die Protonen wandern durch die Membran als Elektrolyt in die Kathode (rechts). Dort treffen sie auf die vom Verbraucher kommenden Elektronen. Zusammen mit Sauerstoff ( O2) aus angesaugter Luft entsteht Wasser (H2O). © R. Wengenmayr / CC BY-NC-SA 4.0

Um zu verstehen, was eine solche Membran leisten muss, schauen wir uns zuerst an, wie eine Wasserstoff-Brennstoffzelle grundsätzlich funktioniert. In ihr laufen zwei einfache chemische Teilreaktionen ab, räumlich getrennt an den beiden Elektroden (Abbildung 2). An der Anode wird das Wasserstoffgas H2 elektrochemisch in zwei Wasserstoffatomkerne, also Protonen (H+), und zwei Elektronen (e–) zerlegt. Oxidation heißt eine solche Reaktion. Vom Anodenkontakt fließen die Elektronen (e–) durch den äußeren Stromkreis und leisten Arbeit. Sie treiben zum Beispiel den Elektromotor eines Autos an. Danach fließen sie über den Kathodenkontakt zurück in die Zelle. An der Kathode treffen die Elektronen wieder auf die Protonen. Über diese Elektrode saugt die Zelle auch Luft und damit Sauerstoff (O2) an. In der Kathode läuft die zweite Teilreaktion ab. Dabei wird das Sauerstoffmolekül an der Katalysatoroberfläche in zwei Sauerstoffatome zerlegt, die sich mit je zwei Protonen und zwei Elektronen zu Wassermolekülen (H2O) verbinden. Diese Teilreaktion stellt eine chemische Reduktion dar. Die Zelle gibt den reinen Wasserdampf zusammen mit überschüssiger Luft als Abgas ab. Theoretisch liefert so eine Zelle bei Raumtemperatur 1,23 Volt Spannung. Verluste durch elektrische Widerstände drücken diese aber in der Praxis unter 1 Volt.

Aber wie gelangen die Protonen in die Kathode? Hier kommt die Membran ins Spiel. Als Elektrolyt muss sie den Protonen eine möglichst gute Rennstrecke von der Anode zur Kathode bieten. Der Protonenstrom durch den Elektrolyten ist nämlich genauso hoch wie der Elektronenstrom durch den Verbraucher. Zugleich muss die Membran verhindern, dass Elektronen direkt durch die Zelle fließen – sie ist also ein Elektronen-Isolator. Ein elektronischer Kurzschluss in ihr wäre gefährlich. Außerdem sollen die Elektronen im Stromkreis außerhalb der Zelle Arbeit leisten. Also muss dieser äußere Stromkreis die Elektronen gut leiten. Dafür sorgen Metalle wie Kupfer in den Kabeln und zum Beispiel Motorwicklungen. Solche Metalle leiten wiederum keine Protonen, wirken also umgekehrt als Protonen-Isolatoren.

Je wärmer, desto effizienter

Gegenüber konventionellen Verbrennungsmotoren bieten Elektrofahrzeuge mit Brennstoffzellen prinzipielle Vorteile. Reine Wasserstoff-Brennstoffzellen emittieren kein klimaschädliches Kohlenstoffdioxid (CO2), wenn der Wasserstoff mit erneuerbaren Energiequellen erzeugt wurde. Das kann etwa mit überschüssigem Strom aus Windenergie- oder Photovoltaikanlagen geschehen. Damit zerlegt eine Elektrolyseanlage Wasser zu Wasserstoff und Sauerstoff. Es gibt auch die Möglichkeit, Brennstoffzellen mit Methanol zu betreiben, dann arbeiten sie aber nicht CO2-frei. Zudem muss das Methanol zu Wasserstoff und CO2 zersetzt werden, was den technischen Aufwand erhöht. Ein weiterer Vorteil der Brennstoffzelle ist ihr hoher Wirkungsgrad, der sich noch steigern lässt. Grob die Hälfte der im Treibstoff chemisch gespeicherten Energie könne eine moderne Niedertemperatur-Brennstoffzelle in nutzbare elektrische Energie umwandeln, erklärt Kreuer. Wegen weiterer Verluste, wie durch die Kompression des Wasserstoffs im Drucktank, sind es am Ende aber nur etwa 40 Prozent. Das ist zwar immer noch viel besser als Dieselfahrzeuge mit rund 25 Prozent Wirkungsgrad.

Doch dieser Vorsprung in der Effizienz und die Klimafreundlichkeit reichen noch nicht, um die Nachteile auszugleichen: Noch sind die Herstellungskosten hoch, und die Infrastruktur für den Wasserstoff von der Herstellung bis zur Tankstelle fehlt bislang. Wären Niedertemperatur-Brennstoffzellen noch effizienter und kostengünstiger, dann könnten sich Brennstoffzellenautos leichter durchsetzen. Eine Lösung bietet die Erhöhung der Betriebstemperatur. Je wärmer eine Zelle ist, desto schneller laufen die elektrochemischen Prozesse in ihr ab. Das steigert ihre Effizienz. Auf der anderen Seite ist eine zu hohe Temperatur gefährlich für die Zellen. Je nach Hersteller wird die Kunststoffmembran spätestens bei 100 °C weich und verliert durch Austrocknen einen Teil ihrer Protonenleitfähigkeit. In der Zelle entsteht auch Abwärme, die der Wasserdampf als Abgas nicht ausreichend nach außen abführt. Deshalb brauchen Niedertemperatur-Brennstoffzellen ein aufwendiges Kühlsystem. Eine höhere Arbeitstemperatur würde das vereinfachen. Zudem würde sie die Menge an teurem Platin als Katalysator reduzieren, weil die Reaktion besser abliefe. Das würde die Kosten eines Brennstoffzellensystems spürbar senken.

Die neue Stuttgarter Membran

Kreuers Team forscht deshalb an alternativen Kunststoffmaterialien. Vor einigen Jahren gelang ihm die Entwicklung einer Kunststoffmembran, die Temperaturen bis zu 180 °C aushält. Zudem verhindert sie viel effizienter, dass gasförmiger Wasserstoff und Sauerstoff durchdringen. Kommen diese auf den Katalysatoren zusammen, dann reagieren sie dort zu aggressiven Radikalen. „Die greifen die Membran an“, erklärt Kreuer. Noch vor etwa 15 Jahren hat das die Lebensdauer der Brennstoffzellen auf unter 2000 Stunden begrenzt. Heute werden Radikalfänger eingebaut, was die Lebensdauer auf praxistaugliche 10000 Stunden steigert.

Das Urmaterial der Membranen heißt Nafion. Damit sind alle heute eingesetzten Membranen chemisch verwandt. Entwickelt wurde das Material bereits in den 1960er- Jahren von amerikanischen Chemikern. Sie zwangen damals zwei gegensätzliche Partner zu einem Molekül zusammen: Teflon und Sulfonsäure. Teflon ist extrem wasserabweisend, hydrophob, während die Sulfonsäuregruppe extrem wasserliebend, hydrophil, ist. Sie wird in dem neuen Molekül zur Supersäure. Eine Supersäure ist stärker als konzentrierte Schwefelsäure.

Abbildung 3: Mikrostruktur einer Nafion-Membran. Grün sind die hydrophoben Molekülketten, gelb die hydrophilen Supersäuren (Sulfonsäuregruppen), blau: Wasser, rot: positiv geladene Protonen. © MPI für Festkörperforschung / CC BY-NC-SA 4.0

Da sich beide ungleichen Partner eigentlich heftig abstoßen, organisieren sich die hydrophoben Teile der Moleküle zu einem feinen Netzwerk (Abbildung 3). Die Säuregruppen zwingen sie dabei an die Oberfläche dieses Netzwerks. In der Gegenwart von Wasser lagern die Säuregruppen Wassermoleküle an und bilden so eine Wasserstruktur, die sich durch das gesamte Netzwerk zieht. Wie alle Brønsted-Säuren geben diese Supersäuren liebend gerne Protonen an Wasser ab. Damit wird das feinverteilte Wasser in der Membran protonenleitend. Für den effizienten Betrieb in der Brennstoffzelle braucht die Membran einen optimalen Wassergehalt.

Allerdings hat der Teflonanteil im Nafion zwei Nachteile. Erstens ist er als Fluorchlorkohlenwasserstoff nicht umweltfreundlich. Zweitens sorgt diese chemische Struktur dafür, dass Nafion schon bei relativ niedrigen 80 °C kritisch weich wird. Modernere Varianten sind zwar temperaturstabiler, aber spätestens bei 100 °C ist Schluss. Die viel temperaturstabilere Stuttgarter Membran basiert auf einem umweltfreundlicheren Kohlenwasserstoff: Polyphenylen besteht als Polymer aus langen Ketten einzelner Phenylmoleküle. Jeder Grundbaustein (Monomer) enthält ebenfalls eine Sulfonsäuregruppe (Abbildung 4). Allerdings ist das Polymer viel steifer als Nafion. Damit können sich das Polymernetzwerk und der wässrige Teil mit den Ionen schlechter voneinander trennen. Als Folge lagern sich die Säuregruppen weniger gut zusammen. Das glich Kreuers Team durch einen Trick aus: sie bauten in das Material viel mehr Sulfonsäuregruppen ein, als Nafion enthält. Damit erreichten sie sogar eine höhere Leitfähigkeit für Protonen als im Nafion.

Abbildung 4: Ein Monomer-Baustein aus der Polymerkette des neuen Stuttgarter Membrankunststoffs. Rechts oben: Sulfonsäuregruppe. Sie wird zur protonenspendenden Supersäure, weil die SO2-Gruppe (rechts) über den Phenylring (Mitte) elektronische Ladung (blauer Punkt mit Minus) teilweise anzieht. Das lockert das Proton (H+) in der Sulfonsäuregruppe, das sich leicht lösen kann. © MPI für Festkörperforschung, R. Wengenmayr / CC BY-NC-SA 4.0

Eine große Gefahr im Betrieb von Polymermembran-Brennstoffzellen besteht darin, dass die Membran trockenfällt oder zu stark geflutet wird. Muss die Zelle dann volle Leistung bringen, altert das Membranmaterial vorzeitig. Das soll ein Diagnosesystem verhindern, das ein Team von Tanja Vidakovic-Koch am Max-Planck-Institut für Dynamik komplexer technischer Systeme in Magdeburg entwickelt hat. Herkömmliche Diagnosemethoden schicken elektrische Signale durch die Elektroden in die Brennstoffzelle und messen deren elektrische „Antwort“. Diese zeigt, ob es der Zelle gut geht oder ob sie ein Wasserproblem hat.

„Man kann aber nicht unterscheiden, ob die Membran ausgetrocknet oder geflutet ist“, erklärt die Ingenieurin. Mit der neuen Diagnosemethode gelingt das nun. Dazu rüsten die Magdeburger die Zelle mit einem Sensor aus, der den Fluss von Sauerstoff in sie hinein aufzeichnet. Aus den Messdaten bestimmt das Diagnosesystem auch den Fluss des Wassers durch die Zelle hindurch. Um deren Gesundheitszustand zu erfassen, braucht es noch einen Trick: Der Fluss von Sauerstoff und Wasser in die Zelle hinein muss wellenförmig an- und abschwellen.

Diese Wellen sind zum Beispiel sinusförmig. Die Brennstoffzelle reagiert darauf wie ein Musikinstrument: Je nach Frequenz schwächt oder verstärkt sie das Eingangssignal wie ein Resonanzkörper in ihrer elektrischen Antwort. Diese unterscheidet sich nun für die Fälle „zu trocken“ und „zu nass“. Damit könnte ein zukünftiges Diagnosesystem an Bord eines Autos automatisch erfassen, wie es der Brennstoffzelle geht. Erkenne es einen kritischen Zustand früh genug, dann ließen sich sogar anfängliche Schäden in der Membran „ausheilen“, erklärt die Wissenschaftlerin.

Optimal für schwere Elektrofahrzeuge

Abbildung 5: Von oben nach unten: Energiewandlungsketten vom Rohstoff zu der Energiemenge (11,6 kWh), die nötig ist, um das Auto 100 km weit fahren zu lassen. Aus erneuerbaren Energiequellen stammen der Wasserstoff (blaue Kette) und der Strom (hellgraue Kette). Je größer die oben eingekreiste Energiemenge ist, desto größer sind die Verluste. © Verändert nach: Gregor Hagedorn / CC BY 4.0; Daten: WELL-TO-WHEELS Report Version 4.1 European Commission, 2014

Im Verkehr haben Brennstoffzellen auch scharfe Konkurrenz durch die Batterie. Beide Systeme haben Vor- und Nachteile. In Brennstoffzellenautos wird das Wasserstoffgas in einem soliden Drucktank bei 700 bar gespeichert, der gegen Unfälle abgesichert ist. In diesem Zustand hat Wasserstoff eine fast 200 -mal höhere Energiedichte als Lithiumionen-Batterien. Auch wenn man das Gewicht des Drucktanks hinzurechnen muss, schleppt aber ein Elektroauto ein viel höheres Batteriegewicht im Verhältnis zur gespeicherten Energiemenge mit sich. Als Vorteil wiederum kann es Strom ohne größere Verluste speichern.

Für die Brennstoffzelle hingegen muss der Strom erst elektrolytisch Wasserstoff herstellen (Abbildung 5). Dieser muss dann wieder in der Brennstoffzelle elektrische Energie erzeugen. „Wegen dieses Umwegs ist der Wirkungsgrad vom Windrad bis hin zum Rad am Fahrzeug um den Faktor zwei- bis dreimal niedriger als beim Batteriefahrzeug“, erklärt Kreuer.

Diese Vor- und Nachteile hängen aber von der Größe und dem Gewicht beider Typen von Elektrofahrzeugen ab. Bei einem LKW wiegt eine Batterie, die brauchbare Reichweiten ermöglicht, viele Tonnen. Diese „tote“ Masse muss ein Brennstoffzellen- LKW nicht mitschleppen, außerdem braucht er kein so dichtes Wasserstoff-Tankstellennetz wie PKW. Busse, Bahn und LKW könnten also der Brennstoffzelle zum Durchbruch verhelfen.


* Der Artikel ist in aktualisierter Form unter dem Titel: "Knallgas unter Kontrolle - Brennstoffzellen für den breiten Einsatz fit gemacht" in TECHMAX 16 der Max-Planck-Gesellschaft erschienen, https://www.max-wissen.de/max-hefte/techmax-16-brennstoffzelle/ und steht unter einer CC BY-NC-SA 4.0 Lizenz. Der Artikel ist hier ungekürzt wiedergegeben.


Weiterführende Links

Artikel im ScienceBlog:

 

 

inge Thu, 02.12.2021 - 17:06

Umwelt-DNA (eDNA) erlaubt einen Blick in die Dämmerzone der Meere

Umwelt-DNA (eDNA) erlaubt einen Blick in die Dämmerzone der Meere

Do, 25.11.2021 — Ricki Lewis

Ricki Lewis

Icon MeereDie Dämmerzone der Ozeane ist eine Wasserschicht, die sich in einer Tiefe von 200 bis 1000 m unter der Meeresoberfläche über den ganzen Erdball erstreckt. Es ist eine kalte Zone, in die Sonnenlicht nicht mehr durchdringt, in der es aber von unterschiedlichsten Lebewesen nur so wimmelt - insgesamt dürften davon hier mehr zuhause zu sein als in den gesamten übrigen Schichten der Meere. Bislang ist dieses, vermutlich größte Ökosystem auf Erden kaum erforscht. Die Woods Hole Oceanographic Institution hat 2018 das Ocean Twilight Zone Project gestarted, das mit neuesten Methoden, u.a mittels Bestimmung der Umwelt-DNA (eDNA) Forschern Hinweise darauf gibt, welche Arten sich in der Dämmerzone befinden, wie häufig sie vorkommen und wie sie sich dort bewegen. Die Genetikerin Ricki Lewis berichtet darüber.*

Die Dämmerzone - auch mesopelagische Zone oder Mesopelagial genannt (von griechisch pelagos = offenes Meer) - reicht von etwa 200 bis 1.000 Meter Tiefe. Es ist eine kalte und dunkle Zone, aufgehellt durch Blitze von biolumineszenten Organismen, mit denen diese sich vor Räubern schützen. Der Druck in dieser Zone kann bis zu 100 Bar betragen. Die Biomasse der Fische in der Dämmerungszone dürfte die des restlichen Ozeans übersteigen – über ihre Verbreitung wissen wir jedoch wenig. (Abbildung 1)

Abbildung 1: Die Meereszonen (Pelagials) und einige Bewohner der Dämmerzone (Mesopelagia), die Biolumineszenz ausstrahlen. (Abbildung und Text von der Redn. eingefügt; Quelle: links: Wikipedia, gemeinfrei; rechts: modifiziert nach Drazen et al., 2019; https://commons.wikimedia.org/wiki/File:Organisms_inhabiting_the_mesopelagic_zone_-_Oo_257140.jpg. Lizenz cc-by)

Die Bewohner der Dämmerzone erstrecken sich von winzigen Bakterien und Plankton bis hin zu Fischen, Krustentieren, Tintenfischen und allen möglichen klebrigen Variationen der Tierwelt, wie Quallen und Rippenquallen. In der Zone leben Billiarden von Borstenmaulfischen, die nach ihren stacheligen Zähnen benannt sind. Und wir haben keine Ahnung, wie viele Arten noch auf eine Beschreibung warten.

Die Tiere in der Dämmerzone unterstützen das riesige Nahrungsnetz, transportieren Kohlenstoff von der Oberfläche in die Tiefe und wirken so auf das Klima regulierend.

Die größte Tierwanderung auf dem Planeten

Aus den Tiefen der Dämmerzone schwimmen Tiere in den dunklen Stunden auf der Suche nach Nahrung nach oben und tauchen tiefer, wenn die Sonne herauskommt, um den Kontakt mit Räubern zu vermeiden. Die Sonar-Operatoren der US-Marine während des Zweiten Weltkriegs hielten diese täglichen Bewegungen für einen sich wellenden Meeresboden. „Dies ist die größte Tierwanderung auf dem Planeten, und sie findet alle 24 Stunden statt und fegt in einer massiven lebenden Welle über die Weltmeere“, heißt es auf der Website der Woods Hole Oceanographic Institution (WHOI; https://www.whoi.edu/know-your-ocean/ocean-topics/ocean-life/ocean-twilight-zone/). Abbildung 2.

Abbildung 2: Das vertikale tägliche Auf- und Absteigen in der Wassersäule der Dämmerzone. Oben: Echogram der täglichen Wanderung. Die Farbskala zeigt die Intensität des von den Tieren reflektierten Schalls an (Sonar auf einem Schiff). Image courtesy of Kevin Boswell, Florida International University and the DEEPEND https://oceanexplorer.noaa.gov/technology/development-partnerships/21scattering-layer/features/scattering-layer/scattering-layer.html. Unten: Screenshot aus dem Video Bioluminescence, October 25, 2021. https://oceanexplorer.noaa.gov/edu/multimedia-resources/dsd/dsd.html, (Beide Bilder stehen unter einer cc-by Lizenz und wurden von der Redn. eingefügt,)

Die kalten, dunklen Tiefen nach Lebenszeichen zu durchsuchen, ist für den Menschen eine Herausforderung. Die kleinste Störung lässt Tiere fliehen, und manche Organismen sind so weich, dass sie beim Hochziehen in Netzen oder in Probenahmebehältern geradezu dahinschmelzen.

Umwelt-DNA

Um dieses Szenario zu untersuchen, ohne das Leben zu stören, sammeln die am Dämmerzonen-Projekt arbeitenden WHOI-Forscher Umwelt-DNA – auch bekannt als eDNA – und führen mithilfe von Computermodellen eine Art Volkszählung durch, die das Geschehen aus der Verteilung von DNA aus Exkrementen, Hautschuppen und anderen Partikeln mit Nukleinsäuren, die von Körpern abschiefern, ableitet. Die Muster der DNA-Verteilung und -Konzentration geben Hinweise auf die Häufigkeit, Bewegung und Wanderung von Arten. Abbildung 3.

Diese Untersuchung kann in Scientific Reports nachgelesen werden [1].

Das Simulationsmodell berücksichtigt zwei Größen von eDNA. Große Partikel im Bereich von mehreren zehn Mikrometern (1 µm = 1 Millionstel Meter) bis zu einem Millimeter erfassen Kotpellets, Gewebestücke sowie Eier und Spermien. Kleine Partikel bis zu einem Zehntel Mikrometer sind aus den großen entstanden. Das Modell berücksichtigt Bewegungen, die Teil des Verhaltens eines Tieres sind, Attribute der eDNA wie Sedimentieren und Abbau und physikalische Einflüsse wie Mischung und horizontale Bewegung.

Abbildung 3: Modell der vertikalen Profile der eDNA in der Wassersäule der Dämmerzone - welche Faktoren beitragen. (Bild von der Redn. in modifizierter Form eingefügt aus: E. Andruszkiewicz Allan et al.(2021), https://doi.org/10.1038/s41598-021-00288-5 [1], Lizenz cc-by)

Ich konnte mir diese Experimente vorstellen, indem ich mich lebhaft an den Blick auf das Hinterende eines Nilpferds in der Hippoquarium-Ausstellung im Detroiter Zoo erinnerte. Das Tier entleerte sich und drehte dann seinen Schwanz wie ein riesiges Windrad hoch und ließ die Exkremente weit kreisen. Die DNA der Tiefe scheint nach dem Modell der ozeanischen eDNA nicht ganz so dynamisch zu sein.

„Eine wichtige Erkenntnis unserer Arbeit ist, dass das eDNA-Signal nicht sofort verschwindet, wenn sich das Tier in der Wassersäule nach oben oder unten bewegt. Das hilft uns, einige große Fragen zu beantworten, die wir mit Netzschleppen oder akustischen Daten nicht beantworten können. Welche Arten wandern? Wie viel Prozent von ihnen wandern jeden Tag aus? Und wer ist ein früher oder später Einwanderer?“ sagte die Erstautorin Elizabeth Andruszkiewicz Allan in einer Pressemitteilung.

Physikalische Prozesse wie Strömungen, Wind und Mischung sowie dasSedimentieren des Materials hatten keinen großen Einfluss auf die vertikale Verteilung der eDNA, die die Tendenz hatte innerhalb von 20 Metern von ihrem Ursprung zu bleiben. Das bedeutet, dass das eDNA-Muster zeigen kann, wo sich bestimmte Arten zu verschiedenen Tageszeiten aufhalten, wie lange sie in bestimmten Tiefen verweilen und welcher Anteil einer Spezies während eines Tages aus der Dämmerzone an die Oberfläche wandern.

„Vor dieser Untersuchung konnten wir nicht sicher sagen, was mit der eDNA passiert ist, die von Arten der Dämmerzone abgegeben wurde. Aber im Modell zeigte sich ein sehr klares Muster, das ein grundlegendes Verständnis der Konzentration von eDNA zwischen der Oberfläche und den tiefen Schichten im Zeitverlauf lieferte “, sagte Teammitglied und Ozeanograph Weifeng Zhang. „Mit diesem neuen Wissen werden Feldforscher in der Lage sein, gezielt zu bestimmen, wo sie die wertvollen Wasserproben entnehmen, um die wandernden Arten zu identifizieren und den Anteil der Tiere in jeder Artengruppe zu schätzen, die jeden Tag wandern“, fügte er hinzu.


[1] Elizabeth Andruszkiewicz Allan et al., Modeling characterization of the vertical and temporal variability of environmental DNA in the mesopelagic ocean. Scientific Reports, 2021,https://doi.org/10.1038/s41598-021-00288-5


* Der Artikel ist erstmals am 4.November in PLOS Blogs - DNA Science Blog unter dem Titel "A Glimpse of the Ocean’s Twilight Zone Through Environmental DNA" https://dnascience.plos.org/2021/11/04/a-glimpse-of-the-oceans-twilight-zone-through-environmental-dna/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Drei passende Abbildungen plus Legenden und einige Untertitel wurden von der Redaktion eingefügt.

 


Weiterführende Links

Woods Hole Oceanic Institution (WHOI) is the world's leading, independent non-profit organization dedicated to ocean research, exploration, and education. Our scientists and engineers push the boundaries of knowledge about the ocean to reveal its impacts on our planet and our lives. https://www.whoi.edu/who-we-are/

NOAA Ocean Exploration is the only federal program dedicated to exploring our deep ocean, closing the prominent gap in our basic understanding of U.S. deep waters and seafloor and delivering the ocean information needed to strengthen the economy, health, and security of our nation. https://oceanexplorer.noaa.gov/welcome.html

Zahlreiche Videos von den beiden Institutionen:

Value Beyond View: The Ocean Twilight Zone, Video 2:04 min https://www.youtube.com/watch?v=w-MmLhQDfao&t=3s

Ocean Encounters: Weirdly Wonderful Creatures of the twilight zone. Video 1:12:0 min. https://www.youtube.com/watch?v=GpI2RiUDS6Y&t=572s Sommer 2021

Our beautiful ocean from surface to seafloor Video: 13:34 min. https://www.youtube.com/watch?v=MV3OtxB9BKE

The discoveries awaiting us in the ocean's twilight zone | Heidi M. Sosik, TED, Video 10:01 min. https://www.youtube.com/watch?v=rJmwZhy9Suk 

Deep Sea Dialogues - Bioluminescence. Video 8:03 min. https://oceanexplorer.noaa.gov/edu/multimedia-resources/dsd/dsd.html


 

inge Thu, 25.11.2021 - 18:06

Comments

Milla (not verified)

Sat, 04.12.2021 - 07:18

I think the admin of this site is actually working
hard in support of his site, because here every data is quality based material.

Zwischenergebnisse aus der Klinik deuten darauf hin, dass die Pfizer-Pille Paxlovid schweres COVID-19 verhindern kann

Zwischenergebnisse aus der Klinik deuten darauf hin, dass die Pfizer-Pille Paxlovid schweres COVID-19 verhindern kann

Do, 18.11.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin Auf der Basis von außerordentlich positiven klinischen Interims-Ergebnissen hat der Pharmagigant Pfizer vorgestern bei der FDA um die Notfallzulassung für sein neues, oral anwendbares COVID-19 Therapeutikum Paxlovid angesucht. Laut Pressemitteilung von Pfizer konnte Paxlovid -innerhalb von 5 Tagen nach Diagnosestellung/Auftreten von Symptomen angewandt - weitestgehend Hospitalisierung und Letalität verhindern. Noch fehlen allerdings Angaben zur Sicherheit einer breiten Anwendung dieses möglichen Game-changers. Wie Paxlovid wirkt und welches Potential dieses neue Therapeutikum haben kann, beschreibt Francis S. Collins - ehem. Leiter des Human Genome Projects, Entdecker mehrerer krankheitsverursachender Gene und seit 2009 Direktor der NIH.*

Im Verlauf dieser Pandemie wurden erhebliche Fortschritte bei der Behandlung von COVID-19 und der Rettung von Menschenleben erzielt. Zu diesen Fortschritten gehören die Entwicklung lebenserhaltender monoklonaler Antikörperinfusionen und die Wiederverwendung bestehender Medikamente, zu denen die öffentlich-private Partnerschaft von NIH zur Beschleunigung von COVID-19 therapeutischen Interventionen und Impfstoffen (ACTIV) einen wichtigen Beitrag geleistet hat.

Seit vielen Monaten hegen wir aber die Hoffnung auf ein sicheres und wirksames orales Arzneimittel, welches - kurz nach Erhalt einer COVID-19 -Diagnose verabreicht - das Risiko eines schweren Krankheitsverlaufs verringern kann. Den ersten Anhaltspunkt, dass sich diese Hoffnungen erfüllen könnten, gab es vor gerade einem Monat: es war die Meldung, dass das von Merck und Ridgeback stammende Medikament Molnupiravir Krankenhausaufenthalte um 50 % reduzieren könnte (das Medikament wurde ursprünglich mit NIH-Förderung an der Emory University (Atlanta) entwickelt). Nun kommt die Meldung von einem zweiten Medikament mit einer möglicherweise noch höheren Wirksamkeit: es ist eine antivirale Pille von Pfizer Inc., die auf einen anderen Schritt im Vermehrungszyklus des SARS-CoV-2 Virus abzielt.

Erste Daten zur antiviralen Pfizer-Pille…

Die aufregenden neuesten Nachrichten kamen Anfang dieses Monats heraus, als ein Pfizer-Forschungsteam in der Zeitschrift Science einige vielversprechende erste Daten zur antiviralen Pille und ihrem Wirkstoff veröffentlichte [1]. Einige Tage später gab es dann noch wichtigere Neuigkeiten, als Pfizer Zwischenergebnisse einer großen klinischen Phase 2/3-Studie bekannt gab. Die Studie an Erwachsenen mit hohem Risiko für einen schweren Krankheitsverlauf zeigte, dass die Pille das Risiko eines Krankenhausaufenthalts oder eines letalen Ausgangs um 89 Prozent reduzierte, wenn sie innerhalb von drei Tagen nach Auftreten von COVID-19-Symptomen eingenommen wurde [2].

Auf Empfehlung des unabhängigen Ausschusses, der die klinische Studie überwachte und in Absprache mit der US-amerikanischen Food and Drug Administration (FDA) hat Pfizer die Studie nun aufgrund der großartigen Zwischenergebnisse gestoppt. Pfizer plant, die Daten sehr bald bei der FDA zur eine Notfallzulassung (Emergency Use Authorization - EUA) einzureichen (diese Anmeldung ist am 16.11.2021erfolgt; Anm.Redn.)

…und wie sie gegen SARS-CoV-2 wirkt

Die antivirale Pille von Pfizer enthält einen Protease-Inhibitor, der ursprünglich PF-07321332 oder kurz "332" genannt wurde. Eine Protease ist ein Enzym, das ein Protein an einer bestimmten Sequenz von Aminosäuren spaltet. Das SARS-CoV-2-Virus kodiert für seine eigene Protease, um ein großes, viral kodiertes Polyprotein in kleinere Segmente zu verarbeiten, die es für seinen Vermehrungszyklus benötigt; ein Medikament, das die Protease hemmt, kann dies verhindern. Wenn der Begriff Protease-Hemmer bekannt erscheint, so liegt das daran, dass Medikamente mit diesem Wirkungsmechanismus bereits zur Behandlung anderer Viren verwendet werden, u.a. zur Behandlung des humanen Immunschwächevirus (HIV) und des Hepatitis-C-Virus.

Im Fall von 332 ist eine von SARS-CoV-2 kodierte Protease namens Mpro (auch 3CL-Protease genannt) die Zielstruktur. Das Virus verwendet dieses Enzym, um einige längere virale Proteine in kürzere Abschnitte zu zerschneiden, die es zur Replikation benötigt. Wenn Mpro außer Gefecht gesetzt ist, kann das Coronavirus keine Kopien zur Infektion anderer Zellen mehr produzieren. Abbildung 1.

Abbildung 1. Wie Paxlovid funktioniert. Wenn das Virus in die Wirtszelle eintritt, beginnt es (unter Verwendung der Wirtssysteme) seine RNA in Polyproteine (pp1a und pp1ab) umzuschreiben (Translation). Daraus entstehen durch Proteolyse die Virusprotease Mpro und einige Nicht-Strukturproteine (Nsps), welche für den Zusammenbau zum aktiven Virus essentiell sind. PF-0731332 ist ein sehr starker Inhibitor von Mpro, Ritonavir blockiert den Abbau von PF-0731332 und verlängert/erhöht ("boostert") so seine Wirksamkeit.(Bild und Beschriftung von Redn. eingefügt; Quelle: adaptiert nach H.M. Mengist et al., Signal Transduction and Targeted Therapy (2020) 5:67, https://doi.org/10.1038/s41392-020-0178-y. Lizenz: cc.by)

Breite Wirksamkeit gegen andere Coronaviren?

Das Bestechende an diesem therapeutischen Ansatz ist, dass Mutationen an den Oberflächenstrukturen von SARS-CoV-2, wie dem Spike-Protein, die Wirksamkeit eines Protease-Inhibitors nicht beeinträchtigen sollten. Das Medikament zielt auf ein hochkonserviertes, essentielles virales Enzym ab. Ursprünglich hat Pfizer bereits vor Jahren Protease-Inhibitoren synthetisiert und präklinisch als potenzielle Therapeutika für das schwere akute respiratorische Syndrom (SARS) evaluiert, das durch ein mit SARS-CoV-2 nahe verwandtes Coronavirus verursacht wird. Dieses Medikament könnte somit sogar gegen andere Coronaviren wirksam sein, die eine Erkältung (grippalen Infekt) verursachen.

In der Anfang dieses Monats in Science [1] veröffentlichten Studie hat das Pfizer-Team unter der Leitung von Dafydd Owen (Pfizer Worldwide Research, Cambridge, MA) berichtet, dass die neueste Version ihres Mpro-Inhibitors in Labortests nicht nur gegen SARS-CoV-2 eine starke antivirale Aktivität zeigte, sondern auch gegen alle von ihnen getesteten Coronaviren, deren Infektiosität für Menschen bekannt ist. Weitere Studien an menschlichen Zellen und Modellen der SARS-CoV-2-Infektion an der Maus deuteten darauf hin, dass die Behandlung eine Limitierung der Infektion und eine Reduzierung der Schädigung des Lungengewebes bewirken könnte.

In dem Science-Artikel berichteten Owen und Kollegen auch über die Ergebnisse einer klinischen Phase-1-Studie an sechs gesunden Personen [1]. Sie zeigten, dass ihr Protease-Inhibitor bei oraler Einnahme sicher war und zur Bekämpfung des Virus ausreichende Konzentrationen im Blutkreislauf erreichen konnte.

Präliminäre Ergebnisse zu Paxlovid

Aber kann es gelingen, COVID-19 bei einer infizierten Person zu behandeln? Die vorläufigen Ergebnisse der größeren klinischen Studie mit der jetzt als PAXLOVID™ bekannten Pille sehen zweifellos ermutigend aus. PAXLOVID™ ist eine Formulierung, die den neuen Proteasehemmer mit einer niedrigen Dosis eines eingeführten Medikaments namens Ritonavir kombiniert. Ritonavir verlangsamt den Metabolismus einiger Proteasehemmer und hält sie dadurch länger im Körper aktiv (Ritonavir blockiert vor allem CYP3A4, das den Metabolismus und damit die Inaktivierung von 332 dominierende Enzym; Anm. Redn.).

An der klinischen Studie der Phase 2/3 nahmen rund 1.200 Erwachsene aus den USA und der ganzen Welt teil. Um rekrutiert zu werden, mussten die Studienteilnehmer eine in den letzten 5 Tagen bestätigte Diagnose von COVID-19, sowie leichte bis mittelschwere Krankheitssymptome haben. Dazu mussten sie zumindest auch ein Merkmal oder ein Befinden aufweisen, das mit einem erhöhten Risiko für einen schweren Krankheitsverlauf von COVID-19 verbunden ist. Die Studienteilnehmer wurden nach dem Zufallsprinzip ausgewählt, um fünf Tage lang alle 12 Stunden entweder das experimentelle antivirale Mittel oder ein Placebo zu erhalten.

Laut Pfizer-Mitteilung wurden bei Patienten, die innerhalb von drei Tagen nach dem Auftreten von COVID-19-Symptomen behandelt wurden, 0,8 Prozent (3 von 389) der PAXLOVID™ Gruppe innerhalb von 28 Tagen ins Krankenhaus eingeliefert, dagegen 7 Prozent (27 von 385) derjenigen, die das Placebo erhalten hatten. Ähnlich ermutigende Ergebnisse wurden bei denen beobachtet, die innerhalb von fünf Tagen nach Auftreten der Symptome behandelt worden waren. Von den mit dem antiviralen Medikament Behandelten wurde ein Prozent (6 von 607) ins Krankenhaus eingeliefert gegenüber 6,7 Prozent (41 von 612) aus der Placebo-Gruppe. Insgesamt gab es keine Todesfälle bei Personen, die PAXLOVID™ einnahmen; dagegen starben 10 Personen in der Placebogruppe (1,6 Prozent) in weiterer Folge.

Paxlovid - die Pille für zuhause?

Wenn der FDA-Review positiv ausgeht, besteht die Hoffnung, dass PAXLOVID™ als eine Behandlung für zu Hause verschrieben werden könnte, um einen schweren Krankheitsverlauf, Hospitalisierungen und Todesfälle zu verhindern.

Paxlovid würde dann längstens 5 Tage nach COVID-19-Diagnose/Auftreten von Symptomen über 5 Tage lang 2 x täglich in einer Dosierung von 300 mg PF-07321332 und 100 mg Ritonavir angewandt werden (Anm. Redn., [3])

Pfizer hat außerdem zwei zusätzliche Studien mit Paxlovid gestartet: i) eine bei Erwachsenen mit COVID-19, die ein normales Risiko für einen schweren Krankheitsverlauf haben (1140 Personen) und ii) eine andere Studie, die die Eignung von Paxovid zur Vorbeugung einer Infektion bei Erwachsenen untersucht, die dem Coronavirus durch ein Haushaltsmitglied ausgesetzt sind (2634 Teilnehmer).

Mittlerweile hat Großbritannien das andere kürzlich entwickelte antivirale Medikament Molnupiravir zugelassen, welches die Virusreplikation auf andere Weise verlangsamt: es blockiert die Fähigkeit des Virus sein RNA-Genom exakt zu kopieren. Die FDA wird am 30. November zusammentreffen, um den Antrag von Merck und Ridgeback auf eine Notfallzulassung von Molnupiravir zur Behandlung von leichtem bis mittelschwerem COVID-19 bei infizierten Erwachsenen mit hohem Risiko für schwere Erkrankungen zu erörtern [4].

Mit Thanksgiving und den schon nahen Winter- Feiertagen sind diese beiden vielversprechenden antiviralen Medikamente sicherlich weitere Gründe in diesem Jahr dankbar zu sein.


 [1 ]An oral SARS-CoV-2 M(pro) inhibitor clinical candidate for the treatment of COVID-19.
Owen DR, Allerton CMN, Anderson AS, Wei L, Yang Q, Zhu Y, et al. Science. 2021 Nov 2: eabl4784.

[2] Pfizer’s novel COVID-19 oral antiviral treatment candidate reduced risk of hospitalization or death by 89% in interim analysis of phase 2/3 EPIC-HR Study. Pfizer. November 5, 2021.

[3]  https://www.pfizer.com/news/press-release/press-release-detail/pfizer-seeks-emergency-use-authorization-novel-covid-19 Pfizer. November 16, 2021

[4] FDA to hold advisory committee meeting to Discuss Merck and Ridgeback’s EUA Application for COVID-19 oral treatment. Food and Drug Administration. October 14, 2021.


 *Dieser Artikel von NIH-Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 16. November 2021) im NIH Director’s Blog unter dem Titel: "Early Data Suggest Pfizer Pill May Prevent Severe COVID-19". https://directorsblog.nih.gov/2021/11/16/early-data-suggest-pfizer-pill-may-prevent-severe-covid-19/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit einigen Untertiteln und mit "Anm. Redn." gekennzeichneten Ergänzungen versehen. Zur anschaulichen Erläuterung des Wirkmechanismus von Paxlovid wurde von der Redn. auch eine Abbildung (plus Legende) eingefügt. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

National Institutes of Health: https://www.nih.gov/

COVID-19-Research: https:/covid19.nih.gov/

ClinicalTrials.gov: Accelerating COVID-19 Therapeutic Interventions and Vaccines (ACTIV): https://www.nih.gov/research-training/medical-research-initiatives/activ

 Artikel von Francis S. Collins über COVID-19 im ScienceBlog


 

inge Thu, 18.11.2021 - 16:03

Ein klimapolitischer Rahmen zur Finanzierung von klimabedingten Verlusten und Schäden

Ein klimapolitischer Rahmen zur Finanzierung von klimabedingten Verlusten und Schäden

Do, 11.11.2021 — IIASA

IIASA Logo Icon Klima

Während die Auswirkungen des Klimawandels gravierender werden und Adaptierungen bald an ihre Grenzen stoßen, werden vulnerable Gemeinschaften verschiedene Arten der Finanzierung benötigen, um Resilienz (Widerstandsfähigkeit) aufzubauen und Umgestaltungen für ihren Selbstschutz vorzunehmen. IIASA-Forscher haben nun ein neues Dossier erarbeitet, das einen Finanzierungsrahmen für solche Klimarisiken vorlegt und relevante Modelleinblicke zur Information internationaler Debatten über Adaptierung und "Loss and Damage" - Verluste und Schäden - bietet.*

Wenn der Meeresspiegel steigt, Überschwemmungen zunehmen, Hitze existenzbedrohend wird und Riffe auf Grund von Hitze und Übersäuerung zusammenbrechen, werden Gemeinschaften gezwungen sein, eine Änderung in ihrem Umgang mit klimabedingten Risiken vorzunehmen – für manche wird dies bis hin zur Aufgabe ihrer Wohnstätten gehen. Die Auswirkungen werden in erster Linie auf weniger wohlhabende und zudem vulnerable Nationen treffen, die auf sich allein gestellt nicht in der Lage sind, effizient zu reagieren. Wo immer aber eine Katastrophe eintritt, werden die Auswirkungen zunehmend erheblicher – insbesondere dort, wo die Grenzen der Adaptierung bereits nahe gerückt sind (Abbildung 1).

Abbildung 1. Existenzielle klimabedingte Risiken und Grenzen der Anpassung. (Starre Grenzen sind unveränderliche Grenzen,die Kipppunkte von Erdsystemen sind, weiche Grenzen sind zwar technisch beherrschbar,können aber von gesellschaftlicher und politischer Seite behindert werden. Anm. Redn.) (basierend auf Mechler und Deubelli, 2021 und Deubelli und Venkateswaran, 2021)

„Vermeidung, Minimierung und Umgang“ von/mit klimabedingten Verlusten und Schäden

Das bedeutet, dass wir überdenken müssen, wie wir mit klimabedingten Risiken umgehen. Die Industrienationen – die seit Jahrzehnten die Haupttreiber des Klimawandels sind – haben eine moralische Verpflichtung die notwendigen Veränderungen in Richtung Resilienz zu unterstützen und im Katastrophenfall zu helfen. Es wurden zwar Schritte unternommen, um den diesbezüglichen Dialog zu fördern, doch sind weitere Maßnahmen erforderlich, insbesondere in Hinblick darauf, wie solche Maßnahmen finanziert werden können. Darüber hinaus verweist die nicht eindeutige Diktion des aktuellen Diskurses auf „Vermeidung, Minimierung und Umgang“ von/mit Verlusten und Schäden; Vermeidung und Minimierung werden aber auch durch Milderung des Klimawandels, Adaptierung und Risikomanagement abgedeckt; übrig bleibt der Umgang mit Verlusten und Schäden, die nicht verhindert werden können.

Abbildung 2. Risiko-Layering-Architektur für das Management von Klimarisiken (RKR: Reduzierung des Katastrophenrisikos; AKW: Anpassung an den Klimawandel)

IIASA-Forscher haben Ideen aus verschiedenen Disziplinen zusammengetragen, um einen umfassenden Rahmen für die Finanzierung von Verlusten und Schäden vorzuschlagen, der alle drei Säulen des "Verlust und Schaden" Diskurses umfasst, wie er jetzt in Publikationen und einem neuen Grundsatzpapier für den Glasgower Klimagipfel ( COP26) dargelegt wird.

Die Forscher haben die Risikoanalyse angewandt, um zwischen vermiedenen, nicht vermiedenen und unvermeidbaren Risiken zu unterscheiden, die als Teil eines Portfolioansatzes zu handhaben sind. Mit den verschiedenen Risikoebenen in Verbindung gebracht führte dies zu einer Hierarchie der Risikoebenen. Abbildung 2.

Finanzierung des Risikomanagements .............

bedeutet in diesem Zusammenhang eine direkte Finanzierung, um für Anpassung, Risikomanagement und Aufbau von Resilienz zu zahlen – es ist dies eine Umwandlung von nicht vermiedenen Risiken in vermiedene Risiken. Dafür ist mehr Risikoprävention nötig und Vorbereitetsein erforderlich. Staatshaushalte und Entwicklungsförderung könnten durch innovativere Finanzierungsmechanismen, wie beispielsweise durch Klimaresilienz-Anleihen, aufgestockt werden. Wo eine zunehmende Adaptierung nicht mehr ausreichend ist, sind zusätzliche Mittel und Engagement für eine radikalere, transformative Anpassung von entscheidender Bedeutung. Dies kann bedeuten, dass man den Menschen hilft, eine neue Existenzgrundlage zu finden, beispielsweise - dort wo die Landwirtschaft nicht mehr realisierbar ist -durch den Wechsel von der Landwirtschaft in die Dienstleistungsbranche; oder aber auch, dass ein gesteuerter Rückzug aus den Bereichen mit dem höchsten Risiko unterstützt wird. Es sind dies transformatorische Initiativen, die im Rahmen des "Loss and Damage"-Dialogs derzeit noch keine ausreichende Unterstützung finden.

..........Risikofinanzierung......

bedeutet im weitesten Sinne private und öffentliche Versicherungen, beispielsweise durch regionale Risikobündelung, um einen schnellen Wiederaufbau und Wiederaufschwung zu finanzieren, wenn ein Sturm Hochwasserschutzanlagen fortgerissen hat. Traditionell steht die Risikofinanzierung im Mittelpunkt der Debatte um die Finanzierung von Verlusten und Schäden – sie ist jedoch nur ein Trostpflaster, wenn die Abwendung und Minimierung von Schäden aussichtslos gewesen ist.

.....kurative Finanzierung

Schlussendlich stellt kurative Finanzierung einen letzten Ausweg für übrige Risiken dar, um die Kosten eines erzwungenen Rückzugs und des Verlusts der Lebensgrundlage zu decken. Wo sich Risiken an den starren Grenzen der Anpassung manifestieren, kann auch die Finanzierung der transformativen Anpassung einen Ort nicht wieder bewohnbar machen; daher werden neue Finanzierungsquellen und -mechanismen benötigt, wie beispielsweise nationale und internationale Verteilung- der- Verluste- und Entschädigungssysteme.

Nach Meinung der Forscher sollten solche Systeme idealerweise global angelegt sein; in Ermangelung globaler Mechanismen, um ausreichende Mittel bereitzustellen und die ethischen Verpflichtungen reicherer Nationen zu erfüllen, bietet aber die offizielle Entwicklungshilfe für nationale Verlustverteilungs- und Entschädigungssysteme einen nützlichen Ausweg.

„Wie der Weltklimarat (IPCC) gezeigt hat, stoßen einige Systeme und Länder bereits an die Grenzen der Anpassung oder sind nahe daran“, sagt Reinhard Mechler, Leiter der Forschungsgruppe für Systemisches Risiko und Resilienz. „Beispielsweise besteht eine hohe Wahrscheinlichkeit, dass um das Jahr 2050 tropische Korallenriffe verschwunden sind und Gemeinden, die einst auf diese vertraut haben - für Küstenschutz, Ökosystemdienstleistungen und Tourismus - nun" gestrandet" sind– selbst wenn die Erwärmung auf 1,5 ° C begrenzt bleibt.“

Abbildung 3. Strategischer Rahmen für limitanfällige Systeme

Modellierung

IIASA hat auf der Grundlage seines CatSim-Modells (Catastrophic Simulation-odell) Tools entwickelt, um die verschiedenen Risikoebenen zu modellieren. Insbesondere die Frage, wer kurative Finanzierungen für die Hochrisiko-Abwanderungsebene „jenseits der Anpassung“ bereitstellt, ist umstritten – aber sie ist dringend geworden und eine Angelegenheit von gemeinschaftlichem globalem Interesse. Abbildung 4 zeigt die weltweite Finanzierungslücke für mehrere Risiken, um Länder und Regionen zu identifizieren, die internationale Unterstützung benötigen.

Abbildung 4. Abschätzung der Ebene Abwanderungsrisiko mit CatSim; Hochrainer-Stigler, 2021

Der Ansatz der Risikoebenen bietet einen wissenschaftlich fundierten und umsetzbaren Rahmen für einen globalen Ansatz zur Aufnahme zunehmend existenzieller Risiken und zur Schaffung von Eigenverantwortung für Risikoschichten „jenseits der Anpassung". Weitere Studien sind erforderlich, um Grenzen der Anpassung, Kapazitäten und Risiken im großen Maßstab zu verstehen und Chancen im Bereich der internationalen Klimapolitik auf der COP26 und darüber hinaus zu erkennen. Die Kurzfassung zum neuen Rahmenwerk kann hier abgerufen werden: https://iiasa.ac.at/web/home/resources/publications/IIASAPolicyBriefs/PB32.pdf-


 * Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 10.November 2021 auf der IIASA Webseite unter dem Titel: " A climate policy framework to deal with existential climate risk" https://iiasa.ac.at/web/home/about/211110-loss-and-damage-finance-policy-brief.html
erschienen. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch Untertitel ergänzt.

 


Relevante Publikationen

Deubelli, T.M. & Mechler, R. (2021). Perspectives on transformational change in climate risk management and adaptation. Environmental Research Letters 16, e053002 [[pure.iiasa.ac.at/17003

Deubelli, T.M. & Venkateswaran, K. (2021). Transforming resilience-building today for sustainable futures tomorrow. IIASA Working Paper. Laxenburg, Austria: WP-21-005 [pure.iiasa.ac.at/17398]]

Hochrainer-Stigler, S. (2021). Changes in fiscal risk against natural disasters due to Covid-19. Progress in Disaster Science, e100176 [pure.iiasa.ac.at/17198]

Mechler, R. & Deubelli, T.M. (2021). Finance for Loss and Damage: a comprehensive risk analytical approach. Current Opinion in Environmental Sustainability 50, 185-196 [pure.iiasa.ac.at/17239]


 

inge Fri, 12.11.2021 - 00:47

Wie Spinnen ihre Seide nutzen: 14 Anwendungsarten

Wie Spinnen ihre Seide nutzen: 14 Anwendungsarten

Do, 04.11.2021 — Redaktion

Redaktion

Icon Biologie

Von der Produktion von Fallschirmen bis zum Bau von Taucherglocken reichen die faszinierenden Kreationen der Spinnentiere. Spinnenseide ist ein Wundermaterial; auf Gewicht bezogen kann sie stärker als Stahl, fester als Kevlar und elastischer als Gummi sein. Zudem ist sie formbar und antimikrobiell. Wissenschaftler haben diese Seide verwendet, um kugelsichere Rüstungen, Geigensaiten, medizinische Bandagen, Glasfaserkabel und sogar extravagante Kleidung herzustellen. Die Physikerin Shi En Kim (Universität Chikago) hat kürzlich im Smithonian Magazine einen umfassenden (allerdings sehr langen), reich illustrierten Überblick über die diversen Anwendungsarten gegeben, mit denen Spinnen ihre Seide nutzen.*

„Ich kann mir nicht vorstellen, dass man Ihnen glaubt, wenn Sie sagen: es gibt da dieses Geschöpf, das - bezogen auf die Größe eines Menschen -, ein Flugzeug mit dem Material einfangen könnte, das es aus sich selbst produziert,“ sagt Fritz Vollrath, Evolutionsbiologe an der Universität Oxford.

Spinnenseide besteht aus einer Mischung verschiedener Proteine, die zu einer Kette verbunden sind und von speziellen Drüsen, den Spinndüsen, am Hinterende der Spinne produziert werden. Alle Spinnen produzieren Seide (einige Spinnen können verschiedene Arten produzieren), aber nicht unbedingt in Form von Netzen, wie sie als Halloween-Dekorationen dienen.

Über die statischen Netze hinaus, mit denen Spinnen ihre Beute fangen, folgen hier einige ungewöhnliche Anwendungsarten der Spinnenseide.

Als Schnüre und Netze, um Beute aktiv zu umschlingen

Seide als passives Netz, in das Insekten hineinfliegen, ist die wahrscheinlich am wenigsten interessante Jagdmethode der Spinnen. Um ihre nächste Mahlzeit zu fangen, können Spinnen ihre Seide als Netze verwenden – oder als Lassos, Peitschen, Fesseln, Verkleidungen, Angelschnüre und Köder.

Abbildung 1. Oecobius umschlingt die Beute, Deinopis wirft das Netz. Bilder sind Screenshots aus Videos: links https://www.youtube.com/watch?v=CGdMRXQOk18&t=5s , rechts: https://www.youtube.com/watch?v=RmP2Wth3OTA 

Die meisten Spinnen meiden Ameisen, weil diese selbst oft räuberisch sind, eine Spinnenfamilie betrachtet Ameisen aber als Futter. Trifft die Webspinne Oecobius eine Ameise allein an, so umkreist sie ihr Opfer, während sie eine fortwährend eine Seidenschnur absondert und die Ameise aus sicherer Entfernung einwickelt. Abbildung 1 (links). Nachdem die Ameise ganz zusammengerollt ist, geht die Spinne zum Töten, indem sie die Ameise an der Basis der Antennen zerkaut.

Die Spinne der Art Deinopis spinnt ein Netz in Schlingenform und setzt es auf ungewöhnliche Weise ein. Sie webt ein Netz zwischen ihren vier Vorderbeinen, hält dieses kopfüber hängend weit geöffnet und wartet. Abbildung 1 (rechts). Sobald ein Insekt vorbeikommt, fängt sie die Beute mit ihrem Netz. Mit Netzwurf kann sie Beute fangen, die unterhalb läuft oder sogar fliegt. Dann verpackt die erfolgreiche Spinne ihre Beute und tötet sie.

Im Jahr 1883 brach der Vulkan Krakatau im heutigen Indonesien mit der Kraft von über 10.000 Wasserstoffbomben aus, vernichtete den größten Teil der Insel und verwandelte sie in eine leblose Ödnis. Drei Monate später waren Gastwissenschaftler überrascht, eine Lebensform in der Region zu finden: mikroskopisch kleine Spinnen.

Diese Spinnen gab es auf der neuentstandenen Insel nicht deshalb, weil sie die Explosion überlebt haben. Vielmehr waren sie nach der Eruption dorthin gereist – mit Ballonfahrten. Ballonfahren ist heute ein bekanntes Phänomen, wenn Spinnen ihre Seide in die Luft wachsen lassen und den Wind wie ein Segel für das Dach auffangen. Mitten im Ozean wurden Spinnen gefunden, die auf dem Jetstream segeln und auf abgelegenen Inseln, die Hunderte Meilen vom Festland entfernt sind. Nicht alle Spinnen produzieren einen Ballon, um extreme Entfernungen zurückzulegen – einige vertrauen darauf, um vor Räubern zu fliehen oder, um kurze Strecken zurückzulegen, ohne viel Energie zu verbrauchen. (Video dazu: unter Weiterführende Links; Anm Redn.)

Abbildung 2. Eine in den Uluguru-Bergen in Tansania gefundene Radnetzspinne spinnt ein mit dichten Seidenstreifen verziertes Netz. Muhammad Mahdi Karim über Wikimedia Commons unter GFDLv1.2

Wenn die Spinne einen Ballon absondert, geht sie buchstäblich auf Zehenspitzen und hebt ihren Bauch in den Himmel. Es braucht nicht immer günstigen Wind (Brise ist besser als Böen) um abzuheben, der Auftrieb beruht größtenteils auf elektrostatischer Abstoßung. Spinnenseide ist negativ geladen, ähnlich wie die Erdoberfläche, die durch die 40.000 täglichen Gewitter auf der ganzen Welt negativ geladen wird. Gleiche Ladungen stoßen ab, die Seide wird vom Boden gehoben und ermöglicht den Flug der Spinne. Mit den Haaren an ihren Beinen können Spinnen elektrische Felder spüren, so können sie ein Glied heben, um die atmosphärischen Bedingungen zu untersuchen, bevor sie eine große Flucht antreten.

Als Heimdekor

Radnetzspinnen bauen nicht nur ihr Heim aus Seide. Manche mache sich auch die Mühe es zu dekorieren. Sie durchweben ihre Netze mit Streifen aus dick gebänderter Seide, sogenannten Stabilimenta. Abbildung 2. Die Wissenschaftler dachten zunächst, dass diese Strukturen das Gewebe stabilisieren, aber die Theorie wurde widerlegt, als sie herausfanden, dass die Muster nur lose in den Stoff des Gewebes gestrickt waren. Die Funktion der Stabilimenta ist heute noch ein Rätsel.

Es gibt aber mehrere Hypothesen. Da die Stabilimenta nur von tagsüber aktiven Spinnen gewebt werden, haben Forscher vermutet, dass diese Spinnen beabsichtigen ihre aufwendigen Netzdesigns sichtbar zu machen. Die auffälligen Muster könnten dazu dienen die Umrisse der Spinne zu tarnen. Sie könnten in der Wahrnehmung aber auch die Spinne größer erscheinen lassen.

Abbildung 3. Eine Carrhotus-Springspinne versteckt sich in einem kleinen Schutzzelt. Leana Lahom-Cristobal / Projekt Noah

Andere maßgebliche Theorien besagen, dass diese Strukturen ebenso wie Blüten und Blattwerk mehr ultraviolettes Licht reflektieren und damit mehr Insekten anziehen. Alternativ könnten sie als Stoppschild dienen, damit Vögel nicht versehentlich in das Netz fliegen und es beschädigen. Der Nachteil dieser gewebten Motive ist, dass sie anscheinend auch mehr spinnenfressende Spinnen anziehen, indem sie das Netz für diese visuellen Jäger auffälliger erscheinen lassen.

Als Schutz vor den Elementen

Springspinnen laufen tagsüber frei herum, aber nachts oder bei Kälte oder Regen spinnen sie sich einen seidenen Unterschlupf. Abbildung 3. Springspinnen verwenden solche Schutzzelte, um ihre Außenhülle zu sichern, ihre Eiersäcke zu lagern oder zu überwintern.

Ein Wissenschaftler hat spekuliert, dass die Fähigkeit, kuschelige Kokons zu spinnen, die die Spinne vor Kälte isolieren, ein Grund dafür ist, dass die Himalaya-Springspinne (Euophrys omnisuperstes) die eisigen Temperaturen in Höhen von 6 500 m überleben kann, was sie zu einer der am höchsten lebenden, nicht wandernden Tiere der Welt macht.

Abbildung 4. Die Desis martensi Spinne lebt in der Gezeitenzone an felsigen Stränden. Ria Tan und wildsingapore.com via Flickr unter CC BY-NC-ND 2.0

Als Puffer gegen Gezeiten

Eine Spinne spinnt Kokons, um sich an ihrem Wohnort vor den täglichen Gezeiten zu schützen. Die Desis-Spinnen huschen bei Ebbe zwischen Korallen, verlassenen Muscheln und den Seetangböden am Strand herum. Abbildung 4.

Wenn das Wasser steigt, versiegeln sich die Spinnen in diesen Ecken und Winkeln mit wasserdichter Seide. Forscher haben herausgefunden, dass die Spinne ihre Atmung reduziert, um den Sauerstoffverbrauch in ihrer Lufttasche zu verringern.

Es gibt noch Rätsel - beispielsweise, wie das Netz Salz aushält oder wie die Spinne mit den Gezeiten Schritt hält.

Als Unterwasser-Atemtank

Ein einziges Spinnentier lebt den Großteil seines Lebens unter Wasser: die Wasserspinne (Argyroneta aquatica). Wie alle anderen Landspinnen atmet sie nur Luft. Bevor sie untertaucht, nimmt sie eine Luftblase auf ihrem Hinterteil mit als temporäre Tauchflasche. Abbildung 5. Für eine längerfristige Lösung spinnt sie auf Wasserpflanzen eine luftgefüllte, kuppelförmige Taucherglocke aus Seide auf Wasservegetation - ihre Unterwasserheimat.

Abbildung 5. Eine Wasserspinne verzehrt in ihrer Unterwasserbehausung einen Stichling. Oxford Scientific über Getty Images

 

Wasserspinnen pumpen ihr Heim mit Luftblasen auf, die sie von der Wasseroberfläche sammeln. Ihre seidene Höhle ermöglicht den Austausch von Gasmolekülen mit dem umgebenden Wasser. Wissenschaftler haben gemessen, wie Sauerstoff in die Taucherglocke diffundiert und Kohlendioxid nach außen diffundiert, um die Atmung einer Spinne zu erleichtern. Aus diesem Grund haben Wissenschaftler die selbstgesponnene Struktur sogar mit einer Kieme verglichen.

In sauerstoffarmen Gewässern erweitern diese Spinnen ihre Häuser, um mehr Luft aufzunehmen. Obwohl der Gasaustausch effizient ist, schrumpfen die Taucherglocken schließlich, sodass die Spinnen einmal am Tag wieder auftauchen müssen, um Luftblasen zum Wiederaufpumpen zu sammeln.

Als Türblätter am Bau

Falltürspinnen und Vogelspinnen verwenden Seide zur Verstärkung der Wohnröhren, die sie errichten. Es ist also gleichsam ein Baustoff“, sagt Sebastian Echeverri, Spinnenforscher und Kommunikator. Abbildung 6. Unter seinen 19 Haustierspinnen sind seine beiden Falltürspinnen seine Favoriten.

Abbildung 6.Eine Falltürspinne späht aus der Tür ihres Baus. Louise Docker, Sydney, Australien über Getty Images

 

Diese Spinnenart richtet ihr Zuhause mit einer soliden Tür aus Erde, Blättern und Seide ein. Insbesondere das Türblatt ist aus Seide gesponnen. Diese Spinnentiere halten morgens die Tür geschlossen und lassen sie nachts offen, wenn sie jagen und am aktivsten sind. Vom Eingang gehen Spuren aus Seidenfäden aus, die als Stolperfallen dienen. Wenn ein Opfer diese Fäden berührt, spüren die im Hinterhalt lauernden Jäger deren Schwingungen durch die Seide und stürzen sich darauf.

Die Türen dienen als Schutz, insbesondere vor ihrem räuberischen Erzfeind: Schlupfwespen. Im Falle eines Angriffs halten die Falltürspinnen mit ihren Reißzähnen die Tür zu – eine Bewegung, die seltsam an einen mürrischen menschlichen Teenager erinnert. Aber die stechenden Räuber gewinnen üblicherweise indem sie die Klappe durchkauen. Die älteste bekannte Spinne in freier Wildbahn, eine Falltürspinne im Südwesten Australiens, starb 2016 im Alter von 43 Jahren, als sie von einer parasitären Wespe getötet wurde, die ihr Zuhause überfiel.

Abbildung 7. Die Netze der sozialen Anelosimus eximus-Spinnen, wie sie im Yasuni-Nationalpark in Ecuador zu finden sind, können bis zu 7 Meter lang werden und bis zu 50.000 Einwohner aufnehmen. Peter Prokosch über Flickr unter CC BY-NC-SA 2.0

Als Gemeinschafts-Zentren

Nicht alle Spinnen sind Einzeljäger. Forscher kennen 25 soziale Spezies unter den 45.000 beschriebenen Arten. Soziale Spinnen leben oft in Kolonien bis zu 50.000 Tieren zusammen (obwohl eine Mitgliederzahl von etwa 1.000 normalerweise die optimale Größe ist). In Kooperation kann eine solche Armee von Spinnentieren beeindruckende Behausungen aus Seide bauen. Abbildung 7. Die Spinnenkolonie Anelosimus eximius in Südamerika kann Netze mit einer Länge von 7,5 m spinnen und bildet eines der größten seidenen Schutzgebiete der Natur.

Nur die weiblichen Mitglieder – sie übertreffen die Männchen um das Fünffache - kooperieren, um ihr Heim zu bauen, zu reparieren und zu reinigen. Die großen Zahlen der Kolonie und des gigantischen Netzes sind von Vorteil, wenn die Spinnen nach größerer Beute Ausschau halten, die ein Individuum allein nicht bewältigen kann. Die Spinnen arbeiten im Team, um diese größeren Insekten wie Heuschrecken oder Schmetterlinge zu töten, indem sie die Opfer mit ihrer Zahl überwältigen.

Wenn die Anelosimus-Netze durch räuberische Ameisen- oder Wespenschwärme beschädigt werden, können die Spinnentruppen im Gegenzug eine Verteidigung aufbauen. Die Vibrationen der Eindringlinge werden leicht auf die riesigen Netze übertragen, wodurch jeder Überraschungsangriff verhindert wird. Der Sieger der Schlacht, ob Spinne oder nicht, wird von den Gefallenen eine reichhaltige Mahlzeit erhalten.

Große Seidennetze eignen sich nicht gegen größere Tiere, insbesondere gegen Vögel, welche die Seide stehlen, um ihre eigenen Nester damit zu schmücken.

Abbildung 8. In Indonesien sitzt eine Wolfsspinne in einem Netz, das mit Wassertröpfchen bedeckt ist. dikkyoesin1 über Getty Images

Als Trinkbrunnen

Während Spinnen ihren Durst normalerweise durch Saugen an den Säften ihrer Beute stillen, können sie sich auch auf traditionelle Weise hydratisieren, indem sie direkt aus Wassertropfen oder kleinen Pfützen trinken. Um sich den Ausflug zu einem Wasserloch zu ersparen, nippen sie gelegentlich an den Tröpfchen, die auf ihren Netzen kondensieren.

Spinnenseide kann hervorragend Feuchtigkeit aus der Luft anziehen. Abbildung 8. Die Forscher haben die Seide von Cribellate-Spinnen untersucht und herausgefunden, dass der Schlüssel zu ihrer wassersammelnden Eigenschaft die sich verändernde Struktur der Faser selbst ist:

       In Gegenwart von Feuchtigkeit kräuseln sich die Filamente zu knotigen Puffs, die dann zwischen glatten, entwirrten Strängen gelagert, wie an einer Schnur aufgefädelte Perlen aussehen. Diese knotigen Puffs sind Feuchtigkeitsmagnete. Wenn Wasser auf der Seide kondensiert, gleiten die Tröpfchen entlang der glatten Bereiche zu den Puffs und verschmelzen dort zu größeren Kügelchen.

Die knotige Struktur dieser Seide saugt Wasser so effizient aus der Luft, dass sie Wissenschaftler dazu inspiriert hat, ähnliche Materialien zu entwickeln, in der Hoffnung, Wasser aus Nebel zu gewinnen.

Abbildung 9. Die schlimmste Art von Mitbewohnern, eine Argyrodes elevatus-Spinne, sitzt auf einem nicht selbst produzierten Netz, dem einer gelben Gartenspinne. Die Spinnen sind dafür bekannt, anderen Beute und Seide zu stehlen. Katja Schulz via Flickr unter CC BY 2.0

Als Nahrung

Die Proteine der Spinnenseide sind ein wertvolles Gut. Die Seidenherstellung erfordert Energie von der Spinne, so dass sie manchmal ihre eigene Seide frisst und ihrem Körper ermöglicht, die Proteine zu recyceln, um neue Seide herzustellen. Viele Spinnen reißen routinemäßig ihre Netze ab und beginnen von vorne, so können sie ebenso ihre Baumaterialien recyceln.

Die Argyrodes-Spinne oder Diebsspinne, bringt – indem sie die Seide anderer Spinnen stiehlt - das Seidenfressen auf eine ganz neue Ebene. Abbildung 9. Diese Spinne ist ein Kleptoparasit, das bedeutet, dass sie die erbeuteten Insekten anderer Spinnen raubt, anstatt nach eigenen zu jagen. Gelegentlich macht sie mehr als nur stehlen – sie kann sogar einwandern und den Wirt erbeuten. In mageren Zeiten, in denen andere Spinnen nichts fangen können, stehlen Diebsspinnen noch von den Armen, indem sie deren Netze fressen. Ihr Netzraub ist eine temporäre Strategie der Futtersuche, um zu überleben, wenn für alle Nahrung knapp ist. Forscher haben im Labor beobachtet, dass diese wahren Diebe genauso viel Seide fressen können wie Insekten.

Als Geschenkspapier

Weibliche Jagdspinnen sind dafür bekannt, dass sie einen auffälligen Eikokon aus Seide als Kinderzimmer bauen. Die Mütter sind extreme Beschützerinnen –wohin sie auch wandern, tragen ihre Eiersäcke in ihren Kieferklauen. Wenn die Eier schlüpfen, spinnt die Mutter ein „Kinderzelt“ und legt die Eier hinein. Dann hält sie draußen Wache und wehrt Räuber ab, bis ihre Jungen alt genug sind, um einen eigenen Weg in die Welt zu finden.

Abbildung 10. Eine männliche Jagdspinne verpackt das Brautgeschenk für ein Weibchen. Scrrenshot aus https://www.youtube.com/watch?v=Nw1YZkCtLa4.

Der kreative Umgang mit Seide ist nicht auf die Weibchen beschränkt. Männchen verspinnen das Material zu Geschenkpapier. Als Zeichen der Vertrauenswürdigkeit verwendet das Jagdspinnenmännchen seine Seide, um ein Futter als Geschenk zu verpacken und es als Brautgabe anzubieten. Abbildung 10. Das Risiko ist hoch, wenn er mit leeren Händen auftaucht: Normalerweise frisst ihn das Weibchen. Brautgeschenke, wie die in Seide gewickelten Mitgiften genannt werden, tragen dazu bei den sexuellen Kannibalismus durch Weibchen zu verhindern und die Paarungszeit auszudehnen, wenn die Weibchen mit dem Auspacken beschäftigt sind . Wie Forscher zeigten, ist es sechsmal wahrscheinlicher, dass das Weibchen einen möglichen Partner frisst, wenn er ohne Geschenk erscheint, egal ob sie nun hungrig ist oder nicht.

„Manche Männchen sind eigentlich ziemlich frech“, sagt Vollrath. Bisweilen enthalten Pakete nicht einmal eine Fliege“. Hinterlistige Männchen können kurzen Prozess machen – anstatt in die Vorbereitung eines nahrhaften Geschenks zu investieren, können sie betrügen und Falsches einpacken, wie ungenießbare Pflanzensamen, Essensreste oder Kieselsteine. Ein Männchen könnte mit dem Trick davonkommen und einen Quickie schaffen, aber das Weibchen bricht normalerweise die romantische Zeit ab - kurz, nachdem sie die List entdeckt hat.

Die Täuschung des Jagdspinnen-Männchens ist eine messerscharfes Balance zwischen Kosten und Nutzen: Er kann seine Energie sparen, indem er ein wertloses Geschenk für das Weibchen vorbereitet; aber auf der anderen Seite kann es sein, dass er nicht genug Zeit hat, um zu kopulieren, oder er wird gefressen.

Abbildung 11. Ein mickriges Nephila-Pilipes-Männchen kann ein kannibalisches Weibchen fesseln, bevor es sich mit ihr paart. Dieses Paar wurde am Airlie Beach in Queensland, Australien, fotografiert. Graham Winterflood über Wikimedia Commons unter CC BY-SA-2.0

Umherziehende Wolfspinnenweibchen bemühen sich anzuzeigen, dass sie Single und paarungswillig sind - sie hinterlassen beim Durchstreifen eine Seidenspur. Diese „Seidenstraße“ enthält Sexualpheromone, schüchterne chemische "komm' her" Signale, die die Männchen auf eine fröhliche Jagd schicken. Abbildung 12. Tatsächlich können Männchen einer bestimmten Wolfsspinnenart, der Schizocosa ocreata, jungfräuliche Erwachsene von vorpubertären Weibchen anhand der Chemikalien in den Seidenfasern unterscheiden. Sie ziehen es vor, nach den geschlechtsreifen Weibchen zu jagen, um ihren Fortpflanzungserfolg zu steigern.

Als Fessel während der Paarung

Angehende Bräute vieler Spinnenarten sind furchterregende Kreaturen – sie können jedes Männchen fressen, das sich ihnen zu nähern wagt. Eine männliche Spinne kann aber ein Weibchen daran hindern, ihn zu fressen, indem er sie vor der Paarung mit seiner Seide bindet. Abbildung 11.

Einige Spinnen halten das Weibchen zurück, indem sie deren ganzen Körper an den Boden binden; andere Männchen werfen einen leichten Seidenschleier über ihre Bräute, der mit Pheromonen angereichert ist, um sie anzumachen.

Forscher haben gezeigt, dass diese dünne Seide das Weibchen beruhigt wie eine schwere Decke. Das Ancylometes bogotensis Männchen bindet ein Weibchen nur an den Beinen hoch und kippt es dann auf die Seite, um sich mit ihm zu paaren. Dieses Vorspiel erfolgt aus reiner Notwendigkeit – Weibchen sind im Allgemeinen größer und aggressiver als die Männchen. Bei Nephila pilipes ist das Weibchen zehnmal größer und 125mal schwerer. Und die Weibchen haben keine Probleme, sich nach der Paarung von den Bindungen zu befreien.

Abbildung 12.Wolfspinnen sind wandernde Spinnentiere, die keine Netze spinnen, aber Seide verwenden, um chemische Informationen abzusondern. Joshua Innes über Getty Images

Als Chemikalien-getränkte Straße

Umherziehende Wolfspinnenweibchen bemühen sich anzuzeigen, dass sie Single und paarungswillig sind - sie hinterlassen beim Durchstreifen eine Seidenspur. Diese „Seidenstraße“ enthält Sexualpheromone, schüchterne chemische "komm' her" Signale, die die Männchen auf eine fröhliche Jagd schicken. Abbildung 12. Tatsächlich können Männchen einer bestimmten Wolfsspinnenart, der Schizocosa ocreata, jungfräuliche Erwachsene von vorpubertären Weibchen anhand der Chemikalien in den Seidenfasern unterscheiden. Sie ziehen es vor, nach den geschlechtsreifen Weibchen zu jagen, um ihren Fortpflanzungserfolg zu steigern.

Männchen, die ein Geruchsignal empfangen, beginnen eine Balz, noch bevor sie das Weibchen erreichen. Die auffällige Show ist energetisch kostspielig und kann ihn für Räuber sichtbarer machen. Forscher glauben jedoch, dass es immer noch einen evolutionären Vorteil gibt, eine Show ohne das schüchterne Weibchen im Publikum zu machen. Die Männchen hoffen einfach, die Aufmerksamkeit anderer Weibchen auf sich zu ziehen, die zufällig in der Nähe sind, und vielleicht eine frühe Botschaft an interessierte Weibchen senden, die eifrigen Werber nicht zu fressen.

Als Kommunikationsmittel

Spinnen sind außerordentlich empfindlich für Vibrationen. Durch das winzige Zittern der Seide können sie ihre Beute spüren. Seide bietet auch die perfekte Plattform für Spinnentiere, um aus der Ferne zu kommunizieren, indem sie an den Strähnen zupfen oder mit ihrem Hinterleib Töne von sich geben. Abbildung 13. Spinnen können während der Balz entlang eines Seidenfadens hin und her kommunizieren, sodass ein Männchen testen kann, bevor es sich einem distanzierten Weibchen nähert, um nicht gefressen zu werden. Wenn das Weibchen paarungswillig ist, klimpert sie vielleicht einfach zurück.

Abbildung 13.Die Portia fambriata-Spinne schlägt Spinnenseide wie eine Gitarre, um andere Spinnen als Beute anzulocken. Hua Ming Lee über Getty Images

Spinnen können, falls es immer noch nicht klar ist, hinterhältige Kreaturen sein. Eine kannibalische Spinne hat gelernt, die Schwingungen eines in einer Falle gefangenen Insekts nachzuahmen. Sie dringt in die Netze anderer Spinnen ein, klimpert ihr Lied, um die Opfer in eine Ecke zu locken, und überfällt sie dann. Die Springspinne Portia ist berühmt für ihre Intelligenz; sie wendet "trial and error" an, um die die richtigen Signale zu „komponieren“, bis sie erfolgreich die Neugier der Beute weckt. Es wurde beobachtet, dass eine besonders hartnäckige Portia drei Tage lang ihr experimentelles Geklimpere durchführte, bevor sich ihre Beute schließlich entschied, dem nachzugehen.

Portia-Spinnen gehen auf jede Spinne zu, die bis doppelt so groß sein kann. Wenn sich die Kannibalen also mit größeren Spinnen anlegen, müssen sie achtsam klimpern, damit sie nicht selbst zur Beute werden. Auch hier experimentiert diese schlaue Spinne mit verschiedenen Beats und zupft vielleicht eine monotone Melodie, die auf größere Spinnen beruhigend wirkt. Der Rhythmus kann das Opfer auch in eine bestimmte Richtung lenken, damit die Portia ihre Beute aus einem sichereren Winkel angreifen kann. Die beeindruckende Bandbreite von Portias Taktiken ist das Markenzeichen der Spinnen-fressen-Spinnen-Welt, in der diese Tiere leben.

„Spinnen haben jeden einzelnen möglichen Aspekt des Spinnenseins aufgegriffen und sind damit in völlig verschiedene Richtungen aufgebrochen“, sagt Echeverri. "Spinnen agieren als Spinnen auf völlig unterschiedliche Weise."


*Der vorliegende Artikel von Shi En Kim ist unter dem Titel "Fourteen Ways That Spiders Use Their Silk" am 27. Oktober 2021 im Smithsonian Magazine erschienen https://www.smithsonianmag.com/science-nature/fourteen-ways-spiders-use-their-silk-180978354/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und es wurden aus den zitierten YouTube-Videos drei Screenshots (Abbildung 1 und 10) eingefügt.


 Weiterführende Links

Smithsonian Institution (Smithsonian, https://www.si.edu/): bedeutende US-amerikanische Forschungs- und Bildungseinrichtung, die auch zahlreiche Museen, Galerien und den Nationalzoo betreibt. Das Smithsonian stellt seine komplette Sammlung nach und nach in elektronischer Form (2D und teilweise 3D) unter der freien CC-0-Lizenz kostenlos zur Weiterverbreitung zur Verfügung. Das Smithsonian Magazine (aus dem der obige Artikel stammt) bringt eine Fülle faszinierender, leicht verständlicher Artikelaus allen Bereichen der Natur und der Gesellschaften. https://www.smithsonianmag.com/?utm_source=siedu&utm_medium=referral&utm_campaign=home

Zur Ballonfahrt der Spinnen:

Spinnen fliegen mit eigenen Ballons um die Welt, Natl. Geographic, https://www.nationalgeographic.de/wissenschaft/spinnen-fliegen-mit-eigenen-ballons-um-die-welt


 

inge Thu, 04.11.2021 - 12:15

Eurobarometer 516: Umfrage zu Kenntnissen und Ansichten der Europäer über Wissenschaft und Technologie - blamable Ergebnisse für Österreich

Eurobarometer 516: Umfrage zu Kenntnissen und Ansichten der Europäer über Wissenschaft und Technologie - blamable Ergebnisse für Österreich

Sa. 30.10.2021  — Inge Schuster

Inge SchusterIcon Politik & Gesellschaft Von Medien, akademischen Institutionen, Wirtschaft und Politik noch völlig ignoriert ist vor wenigen Wochen das Ergebnis der bislang umfangreichsten, von der Europäischen Kommission beauftragten Umfrage zum Thema Wissenschaft und Technologie erschienen (Special Eurobarometer 516). Es geht dabei um "Kenntnisse und Ansichten der europäischen Bürger zu Wissenschaft und Technologie". Aus der enormen Fülle der dort erhobenen Informationen wurde kürzlich im Scienceblog über die Aspekte "Interesse an Wissenschaft &Technologie und Informiertheit" berichtet - beide Voraussetzung für den Erwerb von Kenntnissen in den Wissenschaften, die das moderne Leben prägen. Mit diesen Kenntnissen und den Ansichten der Europäer zu Naturwissenschaften befasst sich der aktuelle Artikel, wobei speziell auch auf die Situation in Österreich Bezug genommen wird.

 

 

Wissenschaft* und Technologie spielen eine enorm wichtige Rolle für unsere Gesellschaften, sie sind die Grundlage für unser heutiges und zukünftiges wirtschaftliches und soziales Wohlergehen.Dass unter den EU-Bürgern aber nicht immer ein breites Verständnis für Naturwissenschaften und deren Methoden vorhanden ist, wurde in mehreren, von der EU beauftragten Umfragen ("Special Eurobarometer") zu verschiedenen Aspekten von Wissenschaft und Technologie aufgezeigt. Dies geht auch aus den Ergebnissen der letzten EU-weiten Umfragen 2010, 2013 und 2014 hervor. Über die Ergebnisse der Eurobarometer Umfragen 2010, 2013 und 2014 wurde mit speziellem Fokus auf Österreich im ScienceBlog berichtet [1 - 4].

Sieben Jahre später hat nun wieder eine europaweite Umfrage zu Wissen und Ansichten der europäischen Bürger zu Wissenschaft und Technologie ("European citizens’ knowledge and attitudes towards science and technology") stattgefunden. Diesmal wurden nun nicht nur Bürger der EU27 interviewt, sondern auch Bürger der Beitrittskandidaten in Südosteuropa und andere Nicht-EU-Mitglieder (Island, Norwegen, UK, Schweiz). Zu einer Menge neuer Fragen kamen bereits früher gestellte dazu und ermöglichen damit einen Vergleich der wissenschaftlichen Entwicklung einzelner Länder. Der vor vier Wochen erschienene Report dieser bislang umfangreichsten Studie enthält auf 322 Seiten eine so enorme Fülle an wichtigen Ergebnissen, dass diese auch nicht ansatzweise in einem Artikel zusammengefasst werden können [5]. Dass allerdings weder die europäische noch die internationale Presse darüber berichtete, erscheint dennoch verwunderlich.

Über den Aufbau dieser Studie und über die Ergebnisse zum Teilaspekt "Interesse der europäischen Bürger an Wissenschaft & Technologie und Informiertheit" hat kürzlich der ScienceBlog berichtet [6]. Daraus ging hervor, dass das Interesse der Europäer naturwissenschaftlichen und technologischen Themen seit 2010 gestiegen war und nun der überwiegende Anteil (82 - 89 %) der Befragten angab daran (sehr oder eher) interessiert zu sein. Gleichzeitig bedauerten die Menschen aber über naturwissenschaftliche Themen nicht sehr gut informiert zu sein - eine Situation, die sich seit 2010 nur schwach verbessert hat.

In Fortsetzung zu diesem Artikel wird heute ein weiterer Fragenkreis der Studie zu "Kennnissen und Ansichten der Europäer zu Naturwissenschaften und Technologie" behandelt. Wie auch in [6] wird dabei der Fokus auf die Ansichten der Österreicher im Vergleich zu den Ansichten anderer Europäer gelegt

Wie denken die europäischen Bürger über Wissenschaft und Technologie?

Nicht in Einklang mit dem bekundeten Interesse steht der persönliche Bezug vieler Europäer zu den Naturwissenschaften. Abbildung 1.

Abbildung 1: Persönliche Standpunkte zu den Naturwissenschaften: Angaben (%) für den EU27-Schnitt und für Österreich (AT) . Standpunkt 1 und 3 waren neu, die Bedeutung der Naturwissenschaften im täglichen Leben wurde bereits in früheren Umfragen erhoben (hier 2010). Ganz rechts (rot) zeigt den Platz Österreichs im entsprechenden Ranking der 27 EU-Staaten. Die Daten wurden aus Tabellen und Grafiken des Special Eurobarometer 516-Reports [5] entnommen.

Zu kompliziert - ich verstehe ja kaum etwas

Knapp die Hälfte der befragten EU-Bürger (46 %) beklagt, dass Naturwissenschaften derart kompliziert sind, dass sie davon kaum etwas verstehen, nur 28 % sind der gegenteiligen Meinung. Es besteht dabei ein starker Süd/Ost - Nord/West- Trend: den höchsten Mangel am Verständnis geben Bulgarien (70 %), Zypern (69 %) und Griechenland (67 %) an, den niedersten Belgien (23 %), Irland (24 %) und Holland (24 %) am andern Ende der Reihung. Fünf der EU-Beitrittskandidaten in Südosteuropa (incl. Kosovo) fügen sich mit 57 - 60 % in das Ranking der süd/östlichen EU-Staaten ein. Albaniens Angabe - nur für insgesamt 23 % erscheinen Naturwissenschaften zu kompliziert - steht in krassem Widerspruch zu den weiter unten festgestellten geringfügigen Kenntnissen.

Österreich (51 % ) liegt - etwas schlechter als der EU27 Schnitt - an 13. Stelle der EU-Länder umgeben von zahlreichen ehemaligen Oststaaten.

Bedarf für mehr Informationen zu wissenschaftlichen Entwicklungen

Im EU27-Schnitt erklären mehr als die Hälfte (54 %) der Befragten, dass sie sich beispielsweise in Museen, Ausstellungen und Büchereien über wissenschaftliche Entwicklungen informieren möchten. Besonders interessiert erscheinen die Befragten in Portugal (80 %), Irland (68 %), Luxemburg (65 %) und Zypern (64%), am wenigsten interessiert in Bulgarien, Österreich und Kroatien (jeweils 41 %). Österreich steht in dieser Reihung an vorletzter (26.) Stelle und hat mit 35 % ablehnenden Antworten den Spitzenplatz an Desinteresse inne. Nur im Beitrittsland Serbien ist das Desinteresse noch etwas höher (37 %).

Naturwissenschaftliche Kenntnisse im täglichen Leben? Es geht auch ohne

Abbildung 2: In einigen europäischen Ländern braucht nur eine Minderheit naturwissenschaftliche Kenntnisse, um im täglichen Leben zurechtzukommen. Antworten (%) der EU27-Länder und der EU-Beitrittskandidaten (rechts: RS: Serbien, ME: Montenegro, BA: Bosnien-Herzegowina, XK: Kosovo, MK: Nord-Mazedonien, Al: Albanien). Die Grafiken stammen aus dem Special Eurobarometer 516-Report.

Während im EU27-Schnitt ein Drittel der Bürger diese Ansicht vertreten, fast die Hälfte (46 %) aber angibt solche Kenntnisse im täglichen Leben zu brauchen, hält mehr als die Hälfte (53 %) der befragten Österreicher solche Kenntnisse für unwichtig und nur 29 % erklären darauf angewiesen zu sein. Im Vergleich zu den Erhebungen von 2010 ist der Anteil derer, die damals ohne Kenntnisse auskamen (57 %), nur leicht gesunken, derer die damals solche benötigten (25 %) etwas gestiegen (Abbildung 1). In dieser "es geht auch ohne" Reihung nimmt Österreich Platz 3 nach Bulgarien (57 %) und Griechenland (53 %) ein, gefolgt von ehemaligen Ostblockländern wie Slowakei, Ungarn, Polen und Rumänien. Ähnlich negative Werte sehen wir ansonsten nur bei den Beitrittsländern Serbien und Montenegro. Abbildung 2.

Am anderen Ende der Reihung stehen Länder wie Portugal, Malta, Tschechei und Finnland, in denen bis über 70 % der Befragten naturwissenschaftliche Kenntnisse im täglichen Leben für wichtig erachten.

Soll sich die Jugend für Naturwissenschaften interessieren?

Abbildung 3: Ist das Interesse junger Menschen an Naturwissenschaften Grundvoraussetzung für einen künftigen Wohlstand? Antworten (%) der EU27-Länder und der EU-Beitrittskandidaten (rechts: RS: Serbien, ME: Montenegro, BA: Bosnien-Herzegowina, XK: Kosovo, MK: Nord-Mazedonien, Al: Albanien). Die Grafiken stammen aus dem Special Eurobarometer 516-Report.

Die überwiegende Mehrheit in den EU27 Staaten stimmt voll oder eher zu (insgesamt 68 - 98 %) , dass das Interesse junger Menschen an Naturwissenschaften Grundvoraussetzung für einen künftigen Wohlstand ist. Abbildung 3. Auch hier ist ein starker Nord/West - Süd/Ost Trend bemerkbar. In 16 EU- Staaten stimmt mehr als die Hälfte der Befragten voll zu, angeführt von Portugal (80 %), Schweden (64 %), Estland (67 %) und Irland (69 %), am anderen Ende sind hauptsächlich ehemalige Ostblockländer, Italien und - leider wiederum - Österreich. Nur 27 %, die voll zustimmen und 11 %, die meinen "brauchen wir (eher) nicht", sind ein Armutszeugnis für ein Land, das so viel in Bildung investiert.

Kenntnisse in naturwissenschaftlichen Gebieten

Insgesamt wurde den befragten Personen eine Liste mit 11 Aussagen vorgelegt, welche die Kenntnisse über einen weiten Bereich naturwissenschaftlicher Gebiete - Naturgeschichte und Geographie, Bio- und physikalische Wissenschaften - und dazu auch den Glauben an Verschwörungstheorien - testeten. Aufgabe war es zu entscheiden ob die Aussagen richtig oder falsch wären, bzw. "ich weiß nicht" anzugeben.

Naturgeschichte und Geographie

Dieses Themengebiet enthielt 4 Aussagen; die Antworten im EU27-Schnitt und aus Österreich sind in Abbildung 4 zusammengefasst. Auch hier ist ein starker Nord/West - Süd/Ost Trend richtiger Antworten ersichtlich (die auch den Trends in Abbildung 2 und 3 entsprechen) und ein ähnliches Abschneiden der EU-Beitrittskandidaten wie in deren EU-Nachbarländern (die Trends sind im Report [5] nachzusehen).

"Die Kontinente, auf denen wir leben, haben sich seit Millionen Jahren bewegt und werden sich auch in Zukunft bewegen". Dass dieses Statement richtig ist, weiß der bei weitem überwiegende Teil der Befragten in den EU27-Staaten. Angeführt wird die Reihung der richtigen Antworten von Deutschland (92 %), Schweden (91 %) und Irland (91 %), am anderen Ende der Liste sind Polen (72 %), Bulgarien (67 %) und Rumänien (62 %). Österreich steht mit 78 % in dieser Reihung an 20. Stelle und hat sich seit 2005 (88 %) um 10 Punkte verschlechtert. Die richtigen Antworten der Beitrittskandidaten liegen zwischen 35 % (Albanien) und 74 % (Montenegro).

Abbildung 4: Kenntnisse in Naturgeschichte und Geographie in den EU27-Staaten. Angaben (%) für den EU27-Schnitt und für Österreich (AT) . Frage 1,2 und 4 wurden bereits auch 2005 gestellt. Ganz rechts (rot) zeigt den Platz Österreichs im entsprechenden Ranking der 27 EU-Staaten. Die Daten wurden aus Tabellen und Grafiken des Special Eurobarometer 516-Reports entnommen.

Dass der Mensch sich aus früheren Tierspezies entwickelt hat, wissen im EU27-Schnitt rund 2/3 der Befragten: die meisten davon gibt es in Irland (84 %), Schweden (83 %) und Luxemburg (83 %), die wenigsten in Zypern (48 %), Lettland (39 %) und der Slowakei (36 %). Richtige Antworten der Beitrittskandidaten gibt es von 22 % (Kosovo) bis 51 % (Nord-Mazedonien). Österreich rangiert in der EU am 13. Platz und hat seit 2005 dazugelernt.

Es gibt derzeit mehr als 10 Milliarden Menschen auf der Erde. Ein relativ hoher Anteil der Bevölkerung hält diese falsche Aussage für richtig: 37 % im EU27-Schnitt, gleich viele in Österreich. Die höchste Rate der Fehleinschätzungen gibt es in Zypern (51 %), Spanien (45 %) und Polen (44 %), die geringste Rate in Lettland (24 %), Dänemark (23 %) und Luxemburg (21 %). Die Fehlschätzungen in den Beitrittskandidaten liegen zwischen 54 % (Montenegro) und 26 % (Kosovo). Österreich liegt im Mittelfeld auf Stelle12.

Die frühesten Menschen lebten gleichzeitig mit den Dinosauriern. Zwei Drittel der Befragten im EU27-Schnitt konstatierten diese Aussage als falsch. Die Meisten in der Tschechei, Belgien und Schweden (82 -86 %), die Wenigsten in Rumänien, Italien und Ungarn, wo rund ein Drittel der Personen diesen Satz für richtig hielt. In der Reihung nach falschen Einschätzungen nimmt Österreich mit 28 % den 6. Platz ein und hat sich seit 2005 um 12 Punkte verschlechtert. Von den Beitrittskandidaten liegt nur noch Albanien (48 %) schlechter als Ungarn.

Naturwissenschaften/Physik ("Science")

Dieses Themengebiet enthielt 5 Aussagen; die Antworten im EU27-Schnitt und aus Österreich auf 4 dieser Aussagen sind in Abbildung 5 zusammengefasst. (Auf das 5. Statement "The methods used by the natural sciences and the social sciences are equally scientific", dass sich also Naturwissenschaften und Sozialwissenschaften gleichwertiger wissenschaftlicher Methoden bedienen" wird hier nicht eingegangen, da nicht klar ist, was unter "equally scientific" zu verstehen ist; die Analyse kann in [5] nachgelesen werden.)

Wie in den Aussagen zu Naturgeschichte und Geographie besteht auch hier ist ein starker Nord/West - Süd/Ost Trend der richtigen Antworten (die einzelnen Trends sind im Report [5] nachzusehen).

Abbildung 5: Kenntnisse in Biowissenschaften und Physik. Angaben (%) für den EU27-Schnitt und für Österreich (AT) . Fragen 1 - 3 wurden bereits 2005 gestellt. Ganz rechts (rot) zeigt den Platz Österreichs im entsprechenden Ranking der 27 EU-Staaten. Die Daten wurden aus Tabellen und Grafiken des Special Eurobarometer 516-Reports [5] entnommen.

Der Sauerstoff, den wir atmen, kommt von den Pflanzen. Der bei weitem überwiegende Anteil der Bevölkerung weiß, dass diese Aussage richtig ist: 82 % im EU27 Schnitt, mit höchsten Werten in Schweden, Lettland und Finnland (89 - 97 %). Auch am andern Ende der Reihung in Rumänien, Ungarn und Belgien gibt es 70 - 75 % richtige Antworten. Österreich liegt mit 81 % an 19. Stelle der Reihung - immerhin 16 % - 6 Punkte mehr als 2005 - halten die Aussage für falsch. Mit Ausnahme Albaniens (52 % richtig) gaben die Beitrittskandidaten zwischen 70 und 89 % richtige Antworten.

Antibiotika töten Viren ebenso wie Bakterien. Mehr als die Hälfte (55 %) der Befragten im EU27-Schnitt betrachtet diese Aussage als falsch - um 9 Punkte mehr als 2005. Auch die meisten EU-Staaten haben hier dazugelernt. Dies ist leider nicht der Fall in Staaten wie Griechenland (68 %), Bulgarien (65 %) und Rumänien (63 %), die sich seit 2005 um 10 - 20 Punkte verschlechtert haben. Zypern mit 71 % (2005: 74 %) nimmt den obersten Platz in der Reihung der falschen Antworten ein. Am anderen Ende der Skala stehen Finnland, Schweden und Belgien mit 7 - 10 % Personen, die grippale Infekte vermutlich mit Antibiotika zu behandeln versuchen. In Österreich ist der Anteil derer, die bei viralen Erkrankungen Antibiotika geben von 40 % im Jahr 2005 auf nun 26 % gesunken; es steht auf Stelle 13 der Reihung.

Laser arbeiten indem sie Schalwellen fokussieren. Dass diese Aussage falsch ist wird im EU27-Schnitt von nur 42 % der Befragten erkannt, rund ein Viertel (26 %) halten sie für richtig und etwa ein Drittel (32 %) gibt zu darüber nichts zu wissen. Die Liste der falschen Antworten führen Polen (43 %), Österreich (42 %) und Italien (40 %) an, die wenigsten falschen Antworten stammen aus Irland, Belgien und Portugal (8 - 10 %). Bei den Beitrittskandidaten liegen die richtigen Antworten zwischen 20 und 38 %.

Der Klimawandel wird größtenteils durch natürliche Kreisläufe und nicht durch menschliche Aktivitäten verursacht. Dieser Meinung ist im EU27-Schnitt rund ein Viertel (26 %) der Befragten, zwei Drittel (67 %) sehen den Menschen als Verursacher. Problematisch für einen EU-weiten effizienten Kampf gegen den Klimawandel erscheint der relativ hohe Anteil an Klima(wandel)leugnern in den ehemaligen Ostblockstaaten, vor allem in Ungarn (48 %), Rumänien (47 %) und der Slowakei (43 %). In den Staaten am anderen Ende der Skala - Belgien, Holland und Portugal - gibt es immerhin auch noch noch 13 -14 % Klima(wandel)leugner. Österreich nimmt mit 30 % den 9.Platz unter den Klimaleugnern ein. Mit Ausnahme Albaniens (56 %) rangieren die Beitrittskandidaten zwischen 31 und 39 % Klima(wandel)leugnern, gleichauf mit dem Großteil ihrer EU-Nachbarstaaten.

Glaube an Verschwörungstheorien

Der Test umfasste hier zwei falsche Thesen mit medizinisch-biologischem Background. Wie auch bei den Antworten zu den wissenschaftlichen Fragen besteht in beiden Fällen ein sehr starker Süd/Ost - Nord/West Gradient.

Es gibt Mittel Krebs zu heilen, von denen die Öffentlichkeit aus kommerziellen Gründen nichts erfährt. Daran glaubt im Schnitt rund ein Viertel (26 %) in den EU27-Ländern, 56 % sind gegenteiliger Meinung und 18 % enthalten sich der Einschätzung. Besonders viele Verschwörungstheoretiker sind in Zypern (58 %), Griechenland (52 %) und Ungarn (48 %) anzutreffen, gefolgt von den Oststaaten. Auch in den Beitrittskandidaten-Ländern finden sehr viele Bürger diese These richtig (44 - 68 %). Die wenigsten der daran glaubenden Menschen gibt es in Finnland, Dänemark und Schweden (4 - 7 %). Österreich liegt mit 21 % auf Platz 16 der Skala der Verschwörungstheoretiker.

Viren sind in staatlichen Labors produziert worden, um unsere Freiheit einzuschränken. Hier ergibt sich ein ganz ähnliche Bild wie zur ersten These. 28 % im EU27-Schnitt halten dies für richtig, 55 % für falsch und 17 % geben dazu keine Meinung ab. Wiederum sind die meisten daran Glaubenden in Süd/Ost anzutreffen, mit Rumänien, Zypern und Bulgarien in den obersten EU-Rängen (52 - 53 %) - und ebenfalls sehr hohen Zahlen in den EU-Beitrittskandidaten-Ländern (51 - 71 %). Schweden, Holland und Dänemark liegen mit 6 - 7 % am unteren Ende der Skala. In Österreich sind 21 % der falschen Meinung - dies ergibt wiederum Platz 16 der Skala der Verschwörungstheoretiker.  

Wie gut sind in Summe die naturwissenschaftlichen Kennnisse der Europäer und wie korrelieren sie mit dem bekundeten Interesse?

Abbildung 6: Kenntnisse der europäischen Bürger in den Naturwissenschaften getestet anhand von 11 Fragen (oben) und geäußertes Interesse an naturwissenschaftlichen Entdeckungen und Entwicklungen (unten; diese Grafik wurde auch in [6] gezeigt). Die Grafiken sind aus dem Special Eurobarometer 516-Reports [5] entnommen.

 

Die Bewertung der 11 Antworten erfolgte nach dem Schlüssel mehr als 8 richtige, 5 - 8 richtige und weniger als 5 richtige Antworten - in Schulnoten ausgedrückt wäre das in etwa: gut bis sehr gut, befriedigend bis genügend und nicht genügend. Abbildung 6.

Im EU27-Schnitt erzielten 24 % der Befragten mehr als 8 richtige Antworten, 56 % zwischen 5 und 8 richtige und 20 % weniger als 5 richtige Antworten - in Summe ergibt das ein zwischen befriedigend und genügend liegendes Resultat.

Zwischen den einzelnen Ländern herrschen sehr große Wissensunterschiede. Die besten Resultate erzielten nordwestliche Staaten wie Luxemburg, Belgien, Schweden, Irland. Finnland und Dänemark mit 39 - 46 % mehr als 8 richtigen Antworten und nur 7 - 10 % weniger als 5 richtigen Antworten. Die schlechtesten Ergebnisse liefern  EU-Länder des ehemaligen Ostblocks, dazu Zypern und Griechenland; noch schlechter sieht es in Albanien und im Kosovo aus. Diese Staaten haben zweifellos ein Manko zu verstehen, was in der Welt um sie herum vorgeht, um auf diverseste Engpässe und Bedrohungen in adäquater Weise zu reagieren.

Österreich erreicht mit Platz 11 ein befriedigendes Ergebnis. Problematisch erscheint der relativ hohe Anteil (17 %) der Personen, die weniger als 5 Fragen richtig beantworten konnten.

Wie korrelieren nun Interesse und Wissen?

Im Allgemeinen gehören die Länder, die im Test am besten abschnitten auch zu denen, die hohes Interesse an Naturwissenschaften bekundeten. Abbildung 6. Im Umkehrschluss bedeutet die Aussage sehr interessiert zu sein aber nicht auch entsprechendes Wissen zu haben (oder anzustreben). Dies zeigen die Beispiele Portugal, das nur mittelmäßig abschnitt, Zypern, das zu den Ländern mit geringstem Wissen zählt und der Kosovo, wo das vorgebliche Interesse sich keineswegs in Kenntnissen wiederspiegelte. (Eine derartige Diskrepanz war auch im Fall der Türkei zu sehen, die in diesem Artikel aber fehlt.) Es erscheint durchaus möglich, dass das Interesse den Interviewern also nur vorgespiegelt wurde.

Fazit

Durch Europa zieht sich ein Graben. Zwar hat eine überwiegende Mehrheit in allen Staaten (sehr großes oder mäßiges) Interesse an Wissenschaft und Technologie bekundet [6], doch besteht ein enormer Unterschied darin, wie der Norden und Westen Europas und die Länder im Süden und Osten diese Gebiete tatsächlich einschätzen und in Folge agieren. Abgesehen vom persönlichen Interesse, das sich auch in guten Kenntnissen manifestiert, sehen die Länder im Norden und Westen auch das Potential von Wissenschaft und Technologie zur Schaffung neuer Anwendungsgebiete und damit von Arbeitsplätzen. Wissenschaft und Technologie gehören für diese Länder zum täglichen Leben, sie schneiden in Wissenstests gut ab und es ist ihnen wichtig die Jugend für diese Gebiete zu interessieren.

Das Gegenteil ist der Fall in den Ländern im Süden und im Osten Europas. Dort sind für viele Wissenschaft und Technologie viel zu kompliziert - sie verstehen nichts davon, ihre Kenntnisse sind dürftig, im Alltagsleben kommen sie auch ohne diese zurecht und sie schließen daraus, dass dies auch für ihre Jungen genügen wird. Noch krasser sieht es in den EU-Beitrittskandidaten am Balkan aus.

Trotz eines sehr hohen Lebensstandards und hohen Ausgaben für Erziehung und Bildung reihen sich die Ergebnisse aus Österreich im Wesentlichen in die der ehemaligen Oststaaten ein. Es ist eine Grundhaltung die unser großer Kabarettist Helmut Qualtinger vielleicht so subsummiert hätte: "Wos, Travnicek, geben Ihnen Wissenschaft und Technologie?" Antwort: "Wos brauch i des; de san ma Wurscht!" Eine überaus blamable Situation!

 


*Unter Wissenschaft sind hier – dem englischen Begriff „science“ entsprechend – ausnahmslos die Naturwissenschaften gemeint.


 [1] J.Seethaler, H.Denk, 17.10.2013: Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme [2]

J.Seethaler, H. Denk Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?

[3] I. Schuster, 28.02.2014: Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401)

[4] I. Schuster, 02.01.2015: Eurobarometer: Österreich gegenüber Wissenschaft*, Forschung und Innovation ignorant und misstrauisch

[5] [Special Eurobarometer 516: European citizens’ knowledge and attitudes towards science and technology. 23. September 2021. ebs_516_science_and_technology_report - EN

[6] I. Schuster, 3.10.2021: Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit

inge Sat, 30.10.2021 - 18:36

Signalübertragung: Wie Ionen durch die Zellmembran schlüpfen

Signalübertragung: Wie Ionen durch die Zellmembran schlüpfen

Do, 21.10.2021 — Christina Beck Christina Beck

Icon Biologie

Der diesjährige Nobelpreis für Physiologie oder Medizin wurde für die Entdeckung von Ionenkanälen vergeben, die zwei essentielle Sinnesempfindungen vermitteln: die Temperaturwahrnehmung und die Druckwahrnehmung des Körpers. Ionenkanäle spielen eine universelle Rolle im „Nachrichtenwesen“ eines Organismus: Ihre Aufgaben reichen von der elektrischen Signalverarbeitung im Gehirn bis zu langsamen Prozessen wie der Salz-Rückgewinnung in der Niere. Ermöglicht wurden alle derartigen Untersuchungen durch die sogenannte Patch-Clamp Technik, die in den 1970er Jahren am Göttinger Max-Planck-Institut für Biophysikalische Chemie von Erwin Neher und Bert Sakman entwickelt wurde (beide wurden dafür 1991 mit dem Nobelpreis ausgezeichnet). Wie Ionenkanäle identifiziert wurden und wie sie funktionieren beschreibt die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft.*

Als Rod MacKinnon am Neujahrstag 1998 erwachte, fürchtete er, dass alles nur ein Traum gewesen sein könnte. Bis spät in die Nacht hatte er an der Synchrotron-Strahlungsquelle der Cornell-Universität in Ithaka (NY) Daten aufgenommen, um die Struktur eines Kaliumkanals aus der Zellmembran zu ermitteln – einer Art Schleuse für geladene Teilchen. Seine Kollegen waren nach Hause gegangen, und er hatte alleine weitergearbeitet. Mitternacht war vorüber, und mit jeder Neuberechnung der Daten gewann das Bild des Kanals auf seinem Computerschirm an Schärfe. Schließlich begannen sich die Umrisse einzelner Kaliumionen abzuzeichnen, aufgereiht wie die Spielkugeln eines Flipper-Automaten – genauso, wie es Alan Hodgkin fast fünfzig Jahre zuvor prophezeit hatte: „Ions must be constrained to move in a single file, and there should on average, be several ions in the channel at any moment“. MacKinnon war total aus dem Häuschen …

Festgesetzt – Ein Molekül in Handschellen

Es war kein Traum. Tatsächlich hatte Rod MacKinnon eine wissenschaftliche Glanztat vollbracht, die ihm fünf Jahre später den Nobelpreis für Chemie einbringen sollte. Dabei hatten viele Kollegen die Erfolgsaussichten von MacKinnons Vorhaben, die Struktur von Ionenkanälen zu enthüllen, stark bezweifelt. Es galt als extrem schwierig, tierische oder pflanzliche Membranproteine für Röntgenstruktur-Untersuchungen zu kristallisieren. Gewohnt, sich einzeln in eine Lipidschicht einzubetten, zeigen Membranproteine nämlich wenig Neigung, sich mit ihresgleichen zu einem Kristall zusammenzulagern.

Warum kam der Amerikaner zum Erfolg, wo andere gescheitert waren? Zunächst wählte Mac Kinnon für seine Arbeiten einen Ionenkanal, der aus einem sehr wärmeliebenden (hyperthermophilen) Bakterium stammt. Die Proteine solcher Organismen erlangen die für ihre Funktion notwendige Beweglichkeit erst bei hohen Temperaturen, im Bereich um 20°C sind sie sehr viel starrer als entwicklungsgeschichtlich verwandte Moleküle anderer Organismen. Sie lassen sich daher etwas einfacher in eine gemeinsame Form bringen.

Diesen ersten Kristallen fehlte aber immer noch die notwendige exakte innere Ordnung. Die Forscher mussten daher zu einem weiteren Trick greifen: Um das Proteinmolekül endgültig festzusetzen, entwickelten sie einen monoklonalen Antikörper, der sich mit einer speziellen Bindungsstelle genau an jene Region des Kanalproteins heftet, in der offenbar die größte Beweglichkeit herrscht. Auf die unspezifischen Teile des Antikörpers konnten die Forscher im Weiteren verzichten – für ihre Kristallisationsexperimente nutzten sie lediglich das spezifische Teilstück, das so genannte Fab-Fragment. Die damit hergestellten Kristalle lieferten dann die Röntgenbeugungsdaten, aus denen sich jene hoch aufgelöste Struktur des Ionenkanals ableiten ließ, die im Mai 1998 die Titelseite der renommierten Fachzeitschrift Nature zierte.

Die Suche nach Kanälen

Das war nahezu ein halbes Jahrhundert nachdem Alan Hodgkin, Andrew Huxley und Bernhard Katz in Großbritannien Aktionspotenziale am Riesenaxon des Tintenfisches untersucht hatten. Ihre Messungen bestätigten das so genannte Membrankonzept: Danach basieren alle bekannten elektrischen Signale – Aktionspotenziale, synaptische Signale und Rezeptorpotenziale – auf Änderungen in der Membranpermeabilität, also der Durchlässigkeit der Membran für Ionen. Um die bei einem Aktionspotenzial auftretenden Änderungen in der Leitfähigkeit der Membran formal beschreiben zu können, entwickelten Hodgkin und Huxley die Vorstellung von spannungsgeregelten Ionenkanälen. Dafür erhielten die beiden Physiologen aus Cambridge 1963 den Nobelpreis für Medizin. Die Bezeichnung Natriumkanal und Kaliumkanal wurde seither vielfach benutzt, obwohl es keinen direkten Beweis für die Existenz solcher Kanäle auf der Basis biologischer Präparationen gab.

Im Falle künstlicher Membranen war das anders. Diese „black lipid membranes“ dienten seit Ende der 1960er Jahre als experimentelles Modellsystem und ähnelten in vielerlei Hinsicht der Lipidmembran lebender Zellen. Die Membranen stellten sehr gute Isolatoren dar; aber versetzt mit Antibiotika oder Proteinen wurden sie elektrisch leitfähig. Weil der hindurchfließende Strom sich stufenartig änderte, vermuteten die Wissenschaftler, dass einzelne Proteinmoleküle Kanäle durch die künstliche Membran bilden, wobei die Stufen dem Öffnen und Schließen dieser Kanäle entsprechen. Ähnliche Untersuchungen an biologischen Membranen ließen sich zu diesem Zeitpunkt noch nicht durchführen. Die Methoden zur Messung elektrischer Ströme an lebenden Zellen lieferten ein Hintergrundrauschen, das zwar nur zehn Milliardstel Ampere (100 pA) betrug, damit aber immer noch hundert Mal größer war, als die an den künstlichen Membranen beobachteten Einzelkanalströme. Also mussten die Forscher über neue Messmethoden nachdenken.

Am Max-Planck-Institut für biophysikalische Chemie in Göttingen taten das in den 1970er Jahren Erwin Neher und Bert Sakmann. Die Messgeräte würden, so die Überlegung der beiden Wissenschaftler, nur dann mit der gewünschten Empfindlichkeit ansprechen, wenn es gelänge, aus der Zellmembran ein sehr kleines Areal zu isolieren (einen Membranfleck oder „patch“). Dazu benutzten sie eine mit einer elektrisch leitenden Flüssigkeit gefüllte Glaspipette, die sie auf eine enzymatisch gereinigte Muskelfaser aufsetzten – in der Hoffnung auf diese Weise einige wenige Ionenkanäle von der übrigen Membran isolieren zu können und damit ein klares Messsignal zu erhalten. Es erwies sich allerdings als äußerst schwierig, eine dichte Verbindung zwischen der Glaspipette und der Membran herzustellen. Die beiden Max-Planck- Forscher kämpften mit Lecks, durch welche die Flüssigkeiten außerhalb und innerhalb der Pipette in Kontakt gerieten. Also optimierten sie die Pipettenspitze und reinigten die Zelloberfläche noch sorgsamer. Abbildung 1.

Abbildung 1: Durch einen halboffenen Käfig (oben) wird die Messapparatur im Labor vor elektrisch störenden Einflüssen abgeschirmt. Detailbild (rechts) von der Mess- und Haltepipette unter dem Mikroskopobjektiv bei einer Patch-Clamp-Me ssung © W. Filser, MPG / CC BY-NC-SA 4.0

Lauschangriff auf die Zellmembran

1976 wurden ihre Mühen endlich belohnt: Erstmals konnten die Wissenschaftler an der neuromuskulären Synapse, der Kontaktstelle zwischen Nervenfaser und Muskelzelle, Ströme durch einzelne Kanäle beobachten. Diese ersten Messungen bestätigten viele ältere Annahmen über Einzelkanalströme – insbesondere die Vermutung, dass die elektrischen Signale in Pulsen stets gleicher Amplitude (Stromgröße), aber von unterschiedlicher Dauer auftreten.

Einige Jahre später entdeckten Neher und Sakmann durch Zufall, dass sich der elektrische Widerstand der Signalquelle um mehrere Zehnerpotenzen auf mehr als eine Milliarde Ohm (GΩ) erhöhen ließ, wenn man in der Glaspipette einen kleinen Unterdruck erzeugte und so den Membranfleck leicht ansaugte. Damit wurde das Hintergrundrauschen noch geringer, und die Forscher konnten nun auch Ionenkanäle anderer Synapsen-Typen untersuchen. Für diese mittlerweile zum Standard in den elektrophysiologischen Forschungslabors zählende Methode, die „Patch-Clamp-Technik“, bekamen die beiden Deutschen 1991 den Nobelpreis für Medizin (Abbildung 1).

Ein passgenauer Tunnel für Ionen

Auch Nobelpreisträger Rod MacKinnon hatte zunächst mit der Patch-Clamp-Technik versucht, die Eigenschaften von Ionenkanälen zu erforschen (Abbildung 3). Dazu veränderte er Schlüsselstellen des Kanals mit gentechnischen Methoden – er tauschte also bestimmte Aminosäuren aus – und prüfte anschließend, wie sich das auf die Kanaleigenschaften (z. B. die Leitfähigkeit) auswirkte. Auf diese Weise konnte er grundsätzliche Aussagen zur Struktur des von ihm untersuchten bakteriellen Kaliumkanals treffen: Demnach besteht diese Ionenschleuse aus vier Untereinheiten, die die Zellmembran durchspannen und sich dabei um eine zentrale Pore gruppieren. MacKinnon konnte genau zeigen, welche der Aminosäuren die Selektivität des Kanals festlegen – ihn also nur für Kaliumionen, nicht aber für andere Ladungsträger durchlässig machen. Zu ähnlichen Einsichten war man zuvor schon beim Studium von Natriumionen leitenden Kanälen gelangt.

Doch alle diese Ergebnisse warfen neue Fragen auf, die sich mit molekularbiologischen und elektrophysiologischen Methoden alleine nicht beantworten ließen. Wie waren die Untereinheiten räumlich angeordnet? Und wie war es möglich, dass diese Kanäle hochselektiv waren und gleichzeitig enorme Durchflussraten erlaubten?

Abbildung 2: Oben: Ionenkanäle (orange) sind Proteine, die in die Membran (grün) von Zellen eingebettet und auf den Transport von Ionen spezialisiert sind. Unten: Die Kanalpore stellt den Selektivitätsfilter dar – hier entscheidet sich, welches Ion durchgelassen wird und welches nicht. Kaliumionen (lila) passieren die Kanalpore ohne ihre Hydrathülle. © W. Filser, MPG / CC BY-NC-SA 4.0

Um diese Fragen zu klären, begann MacKinnon sich mit Kristallographie zu beschäftigen – Voraussetzung für Röntgenstruktur – Untersuchungen. Seine daraus resultierenden Arbeiten enthüllten schließlich die molekulare Basis dieses Phänomens, über das sich die Forscher jahrzehntelang den Kopf zerbrochen hatten: Durch die dreidimensionale Struktur des Ionenkanals wirkt dieser als hocheffizienter Filter. Die engste Stelle im Kanal, der sogenannte Selektivitätsfilter sorgt dafür, dass nur Kaliumionen mit ihrer charakteristischen Größe und Ladung passieren können. Doch wie gelingt es, Kaliumionen so rasant durchzuschleusen (pro Millisekunde strömen etwa 10.000 Kaliumionen durch die Membran)?

Forscher am Max-Planck-Institut für biophysikalische Chemie und der Universität Dundee (UK) haben herausgefunden, dass der Kanal in der Lage ist, die Ionen trotz ihrer starken elektrostatischen Abstoßungskräfte direkt hintereinander zu leiten. „Tatsächlich funktioniert dieser Mechanismus völlig anders als bisher gedacht“, erklärt der Chemiker Bert de Groot. Mithilfe aufwändiger Computersimulationen konnte sein Team die vorhandenen kristallografischen Daten viel genauer auswerten als bisher und den Kaliumkanälen direkt „bei ihrer Arbeit“ zuschauen (Abbildung 3). An der Engstelle des Kanals, dem Selektivitätsfilter, sitzen die Kaliumionen aufgereiht wie auf einer Perlenschnur sehr eng beieinander. Und anders als bisher vermutet, gibt es keine Wassermoleküle, die die geladenen Teilchen voneinander abschirmen. Weniger als ein millionstel Millimeter sind die Ionen voneinander entfernt. Diese räumliche Nähe führt dazu, dass sich die positiven Ladungen gegenseitig abstoßen. Durch anziehende Wechselwirkungen mit den kanalbildenden Polypeptidketten wird jedoch ein Gleichgewicht der Kräfte eingestellt. Diese feine Balance wird empfindlich gestört, wenn ein neues Kaliumion in den Kanal eintritt. Denn jetzt überwiegt die Abstoßung der positiven Ladungen und das Kaliumion, das am nächsten zum Kanalausgang sitzt, wird hinausgedrängt. Dadurch wird der Durchfluss durch den Kanal beschleunigt.

Abbildung 3: Der schnelle Durchtritt von Kaliumionen und die Ionenselektivität beruhen auf einem gemeinsamen Prinzip. Starke abstoßende Wechselwirkungen zwischen den Kaliumionen ohne Wasserhülle (lila) im Selektivitätsfilter beschleunigen den Durchfluss. Die Bindungsstellen im Selektivitätsfilter (rot) begünstigen dabei die erforderliche räumliche Nähe der Kaliumionen zueinander. Da Natriumionen (gelb) ihre Wasserhülle – anders als Kaliumionen – nicht so leicht ablegen, wird ihr Durchtritt durch den Kanal nicht durch Kanal-Wechselwirkungen gefördert. Zudem sind Natriumionen samt ihrer Wasserhülle für die Pore des Kaliumkanals zu groß.© W. Kopec, MPI für biophysikalische Chemie / CC BY-NC-SA 4.0© W. Filser, MPG / CC BY-NC-SA 4.0

Bleibt die Frage nach der Selektivität: Wieso erlauben Kaliumkanäle den Durchfluss von Kaliumionen, während die kleineren Natriumionen zuverlässig ausgeschlossen werden? An der Ladung kann es nicht liegen, denn diese ist bei beiden gleich. Dem Forschungsteam ist es gelungen, auch diese Frage zu beantworten. Wojciech Kopec, Mitglied in der Forschungsgruppe von de Groot erklärt: „Kaliumionen legen ihre Wasserhülle komplett ab, um durch die enge Pore zu gelangen. Natriumionen hingegen behalten ihre Wasserhülle. Damit sind sie letzten Endes größer als ‚entkleidete‘ Kaliumionen – und zu groß für den engen Kaliumkanal-Filter.“ Doch weshalb legen Natriumionen ihre Wasserhülle nicht ebenso ab wie die Kaliumionen? „Die kleineren Natriumionen gehen stärkere Wechselwirkungen mit den Wassermolekülen der Umgebung ein, da ihre Ladung kompakter ist. Daher wäre mehr Energie nötig, um sie von ihrer Wasserhülle zu befreien“, so Kopec. Die Natriumionen passieren die Membran zusammen mit ihrer Wasserhülle. Dies erklärt auch, weshalb die Natriumkanäle fast dreimal breiter als Kaliumkanäle sind.

Schlüsselstellen im Zellgeschehen

Ionenkanäle spielen eine universelle Rolle im „Nachrichtenwesen“ eines Organismus: Ihre Aufgaben reichen von der elektrischen Signalverarbeitung im Gehirn bis zu langsamen Prozessen wie der Salz-Rückgewinnung in der Niere. Wie viele unterschiedliche Ionenkanäle es im menschlichen Körper gibt, hat die Sequenzierung des Humangenoms eindrucksvoll belegt. Dabei stellen Kaliumkanäle unter den Ionenkanälen die größte Proteinfamilie. Sie finden sich in den Membranen der meisten Zelltypen – ein Hinweis auf ihre entscheidende Rolle bei der Weiterleitung von Signalen. Ihre am besten bekannte Funktion ist die Regulation des Membranpotenzials in Nervenzellen, d. h. der Aufbau und die Aufrechterhaltung einer Spannungsdifferenz zwischen dem Inneren und Äußeren einer Zelle. Es gibt sie aber auch in nicht-erregbaren Zellen. Die so genannten ATP-abhängigen Kaliumkanäle beispielsweise finden sich in den meisten Organen und sind mit zahlreichen Stoffwechselvorgängen verknüpft – wie der Insulinausschüttung, der Steuerung des Muskeltonus der Blutgefäße oder der körpereigenen Antworten auf Herzinfarkt oder Schlaganfall. Das Verständnis der Funktion von Ionenkanälen auf molekularer Ebene ist daher Voraussetzung, um Antworten auf wichtige medizinische Fragen zu erhalten. „Wenn wir den molekularen Mechanismus kennen, der den extrem schnellen Durchstrom der Kaliumionen durch den Kanal ermöglicht, können wir zukünftig auch sehr viel besser verstehen, warum sich bestimmte genetische Veränderungen des Ionenkanals so fatal auswirken und zu Krankheiten wie Herzrhythmusstörungen führen können“, so Bert de Groot.


 *Der Artikel ist erstmals unter dem Titel: " Spannung auf allen Kanälen - Wie Ionen durch die Zellmembran schlüpfen" https://www.max-wissen.de/max-hefte/biomax-15-ionenkanal/print/ in BIOMAX Ausgabe 15, Neuauflage Frühjahr 2021 erschienen und wurde unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


Weiterführende Links

José Guzmán, et al-. Patch-Clamp 2.0 – die nächste Generation der Patch-Clamp-Methode (2017). http://laborjournal.de/rubric/essays/essays2017/m_e17_17.php

Mitteilung MPG: Forscher enthüllen rasend schnellen, hocheffizienten Filtermechanismus in lebenden Zellen (2014).  https://www.mpibpc.mpg.de/14744909/pr_1432

Mitteilung MPG: Struktur von Channelrhodopsin aufgeklärt (2017). https://www.mpg.de/11808464/channelrhodopsin-struktur

Nobelpreis 2021 für Physiologie oder Medizin: https://www.nobelprize.org/prizes/medicine/
 


 

inge Fri, 22.10.2021 - 00:12

Alles ganz schön oberflächlich – heterogene Katalyse

Alles ganz schön oberflächlich – heterogene Katalyse

Do, 08.10.2021 — Roland Wengenmayr

Icon Chemie

Roland Wengenmayr Sowohl die Synthesen biologischer Verbindungen in der belebten Natur als auch über neunzig Prozent aller von der industriellen Chemie genutzten Reaktionen benötigen Katalysatoren, um die Prozesse effizient in der gewünschten Weise ablaufen zu lassen. In der Biosphäre vermitteln Enzyme in hochselektiver Weise den Kontakt und die Umsetzung der Ausgangsprodukte, in der Industrie vermitteln meistens Metalloberflächen - in der sogenannten heterogenen Katalyse - das Aufeinandertreffen und die Aktivierung der Reaktanten . Wie im zweiten Fall die einzelnen Schritte auf der molekularen Ebene ablaufen, konnte mit neuen Methoden der exakten Oberflächenforschung untersucht werden. Gerhard Ertl, ehem. Direktor am Fritz Haber Institut der Max-Planck-Gesellschaft, konnte so den Prozess der Ammoniaksynthese aus Stickstoff und Wasserstoff und die Oxydation von Kohlenmonoxid zu Kohlendioxid im Detail aufklären. Der Physiker und Wissenschaftsjournalist DI Roland Wengenmayr beschreibt diese Vorgänge.*

Im frühen 19. Jahrhundert führten Wohlhabende ihren Gästen gerne ein Tischfeuerzeug vor, das sensationell mühelos eine Flamme produzierte. Erfunden hatte es der Chemieprofessor Johann Wolfgang Döbereiner im Jahr 1823. Es enthielt verdünnte Schwefelsäure und ein Stück Zink an einem Haken. Durch Betätigen des Auslösers wurde das Zink in das Säurebad getaucht und eine chemische Reaktion gestartet, bei der unter Bildung von Zinksulfat (Zinksalz der Schwefelsäure) Wasserstoff frei wurde. Dieser verbrannte mit dem Luftsauerstoff zu Wasser. Normalerweise sind Wasserstoff und Sauerstoff reaktionsträge, weshalb man ihnen durch Anzünden erst Energie zuführen muss. Im Feuerzeug entzündete sich der Wasserstoff jedoch spontan, indem er durch einen kleinen Platinschwamm geleitet wurde: das Platin wirkte als Katalysator.

Katalysatoren reinigen heute nicht nur Abgase. Über neunzig Prozent aller von der industriellen Chemie genutzten Reaktionen benötigen einen Katalysator als quasi „Heiratsvermittler“ der jeweiligen Ausgangsstoffe (Chinesen gebrauchen für beide Funktionen übrigens das gleiche Wort). Ohne Biokatalysatoren, vor allem Enzyme, gäbe es kein Leben. Der dänische Chemiker Jöns Jakob Berzelius leitete den Namen vom altgriechischen Wort katálysis für „Loslösung“ ab, denn offensichtlich nahmen diese Stoffe an der Reaktion nicht teil. Der deutsche Chemiker und Nobelpreisträger Wilhelm Ostwald prägte die heute noch gängige Definition: „Ein Katalysator ist jeder Stoff, der, ohne im Endprodukt einer chemischen Reaktion zu erscheinen, ihre Geschwindigkeit verändert.“ In Lehrbüchern steht allerdings meist, dass der Katalysator beschleunigend wirkt – „Reaktionsbremsen“ sind selten interessant.

Katalysatoren wirken als chemischer „Sesam öffne dich!“: Sie eröffnen einer Reaktion einen günstigen Pfad durch die Energielandschaft, der sonst verschlossen ist. Während einer Reaktion brechen zuerst chemische Bindungen in den Ausgangsmolekülen (Edukte) auf, dann bilden sich neue Bindungen. Dabei entstehen die Moleküle des Endstoffes (Produkt). Den Reaktionsweg verstellt jedoch oft ein mächtiger Energieberg.

Um diesen zu bezwingen, brauchen die Moleküle Energie. Im Labor führt man sie meist als Wärmeenergie zu, was aber in der industriellen Großproduktion die Energiekosten explodieren lassen kann. Zudem kann starkes Erhitzen die beteiligten Moleküle zerstören. Der Katalysator umgeht diesen hemmenden Energieberg und lässt die Reaktion ohne viel Energiezufuhr ablaufen. Abbildung 1.

Abbildung 1: Ein hoher Energieberg (rot) verstellt die Reaktion zweier Mo¬leküle (blaue und grüne Kugel links). Sie kann nur ablaufen, wenn man ihr viel Energie zu¬führt (roter Pfeil). Ein Katalysator eröffnet einen alternativen, ener¬giesparenden Weg (grüner Pfeil): Über dessen Gefälle läuft die Reaktion dann von selbst ab, bis hin zum Endprodukt (rechts)

Chemiker unterscheiden grundsätzlich zwei Arten von Katalyse: Bei der homogenen Katalyse befinden sich die Reagenzien und der Katalysator in der gleichen Phase, zum Beispiel in einer Lösung. Bei der heterogenen Katalyse dagegen stecken das Hochzeitspärchen und der Heiratsvermittler in verschiedenen Phasen. Bei technischen Anwendungen sind es oft Gase, während das Katalysatormaterial fest ist, zum Beispiel beim Autokat.

Eine dreifach harte Nuss

Einen besonderen Beitrag hat die heterogene Katalyse zur Welternährung geleistet – denn ohne sie gäbe es keine Ammoniaksynthese. Diese bindet den Stickstoff aus der Luft chemisch im Ammoniak, aus dem wiederum Stickstoffdünger produziert wird. Ohne diesen Dünger würden Ackerböden wesentlich weniger Frucht tragen. Nach einer Schätzung von Wissenschaftlern im Fachmagazin Nature müssten vierzig Prozent der Menschheit, also 2,4 Milliarden Menschen, verhungern, gäbe es nicht ausreichend Stickstoffdünger. Als sich Ende des 19. Jahrhunderts der Weltvorrat an natürlichem Salpeter, aus dem Stickstoffdünger produziert wurde, erschöpfte, drohte tatsächlich eine Hungerkatastrophe.

Dass Luft einen riesigen Stickstoffvorrat enthält (sie besteht zu 78 Prozent aus Distickstoffmolekülen), war den Chemikern bekannt. Allerdings verschloss eine chemische Dreifachbindung den Zugang: Sie „klebt“ die zwei Stickstoffatome bombenfest aneinander. Mit diesem Trick füllen die beiden Atome sich gegenseitig ihre lückenhaften Elektronenschalen und sparen viel Energie ein. An der dreifach harten Nuss scheiterten alle Chemiker – bis Fritz Haber sie 1909 knackte. Er entdeckte, dass Osmium als Katalysator unter hohem Druck die Ammoniaksynthese aus dem Distickstoff ermöglicht.

Leider ist Osmium extrem selten, doch der BASF-Chemiker Carl Bosch und sein Assistent Alwin Mittasch fanden Ersatz: Eisen in Form – wie wir heute wissen – winziger Nanopartikel, erwies sich ebenfalls als guter Katalysator. Allerdings benötigte die Reaktion einen Druck von mindestens 200 Atmosphären und Temperaturen zwischen 400 und 500 °C. Boschs Gruppe meisterte die Herausforderung und konstruierte einen Durchflussreaktor, der unter diesen Bedingungen kontinuierlich arbeitete. Schon 1913 startete die industrielle Produktion nach dem Haber-Bosch-Verfahren, das bis heute im Einsatz ist. Haber erhielt den Nobelpreis für Chemie im Jahr 1919, Bosch 1931.

Die chemische Reaktion der Ammoniaksynthese sieht eigentlich einfach aus: Aus einem Stickstoffmolekül und drei Wasserstoffmolekülen entstehen zwei Ammoniakmoleküle. Den Forschern gelang es jedoch nicht aufzudecken, was sich auf dem Eisenkatalysator genau abspielt. Klar war nur, dass die Anlagerung der Distickstoff-Moleküle an seiner Oberfläche, ihre Adsorption, die Geschwindigkeit der Reaktion bestimmte. Offen blieb aber, ob die Stickstoffmoleküle auf der Fläche zuerst in einzelne Stickstoffatome zerfallen und dann mit dem Wasserstoff reagieren oder ob das komplette Stickstoffmolekül reaktiv wird.

Neue Energielandschaften

Erst 1975 konnten der deutsche Physikochemiker Gerhard Ertl und sein Team zeigen, dass das Distickstoffmolekül tatsächlich zuerst zerfällt. Der spätere Max-Planck-Direktor setzte dafür die damals neuesten Methoden der Oberflächenforschung ein. Er untersuchte die katalytische Wirkung von perfekt glatten Eisenoberflächen im Ultrahochvakuum. Schneidet man durch nahezu fehlerlose Einkristalle, dann sind die Atome auf diesen Flächen in einem regelmäßigen Muster angeordnet. Unter solchen Idealbedingungen sollten sich die einzelnen Schritte des Katalyseprozesses leichter entschlüsseln lassen, so vermutete Ertl, als am Nanopartikel-Chaos echter Industriekatalysatoren.

Die Eisenatome an der Oberfläche unterscheiden sich von denjenigen, die tiefer im Kristall stecken. Jedes Atom ist dort auf allen Seiten von Nachbaratomen umgeben, die seinen Hunger nach chemischen Bindungen sättigen. An der Oberfläche dagegen liegen die Atome offen; sie haben sozusagen eine chemische Hand frei. Kommt ein Stickstoffmolekül vorbei, dann können sie es an sich binden. Das passiert allerdings nur in etwa einem von einer Million Fällen. Das gebundene Stickstoffmolekül erfährt auf der Eisenoberfläche eine radikal veränderte Energielandschaft: Plötzlich verliert die starke Dreifachbindung ihren Energiegewinn. Die Stickstoffatome lösen sich und werden frei. Dem Wasserstoff-Molekül des gasförmigen Wasserstoffs ergeht es genauso, doch dessen Einfachbindung ist ohnehin recht locker. Die freien Stickstoff- und Wasserstoffatome können nun ihre chemische Hochzeit feiern.

Ertls Gruppe schaffte es, den kompletten Ablauf der komplexen Ammoniaksynthese zu entschlüsseln und zu zeigen, wie man sie optimiert. (Abbildung 2) Doch für viele kinetisch anspruchsvollere Reaktionen gilt Katalyseforschung auch heute noch als „Schwarze Kunst“ – nach wie vor müssen die Forscher viele Mixturen ausprobieren. Gerhard Ertl führte in das Gebiet die exakten Methoden der Oberflächenforschung ein. Dafür bekam der Direktor am Berliner Fritz-Haber-Institut der Max-Planck-Gesellschaft, der inzwischen im Ruhestand ist, 2007 den Nobelpreis für Chemie.

Abbildung 2: Die wichtigsten Schritte der Ammoniaksynthese (rote Energiekurve ohne, grüne mit Katalysator). 1. Die N2¬- und H2¬-Moleküle (blaue bzw. grüne Kugeln) liegen frei vor. 2. Das N2¬-Molekül haftet sich an die Eisenoberfläche. 3. Die adsorbierten N2¬- und H2¬-Moleküle zerfallen zu freien N¬- und H¬-Atomen. Es enstehen NH (4.), NH2, (5.) und NH3 (6.). 7. Das fertige Ammoniakmolekül NH3 hat sich von der Eisenoberfläche gelöst. Die Produktion von 1 kg Ammoniak würde ohne Katalysator rund 66 Millionen Joule verbrauchen (etwa die Verbrennungswärme von 1,5 kg Rohöl). Auf der idealen Einkristalloberfläche setzt sie dagegen 2,7 Millionen Joule an Energie frei. © Grafik: R. Wengenmayr nach G. Ertl

Zu Ertls Forschungsobjekten gehörte auch der Drei-Wege-Katalysator in Benzinautos. Er heißt so, weil er drei gefährliche Abgasbestandteile, die während der Verbrennung entstehen, in harmlose Gase umwandelt. Geeignete Katalysatoren sind Platin, Rhodium und Palladium. Auf einem Reaktionsweg oxidiert der „Kat“ das giftige Kohlenmonoxid (CO) mit Sauerstoff (O2) zum ungiftigen Kohlendioxid (CO2). Der zweite Weg ist die Oxidation giftiger Kohlenwasserstoff-Verbindungen zu Kohlendioxid und Wasser. Auf dem dritten Weg reduziert er schädliche Stickoxide (NOx) zu ungefährlichem Distickstoff (N2).

Der Max-Planck-Forscher untersuchte die Oxidation von Kohlenmonoxid (2CO + O2 zu 2 CO2) allerdings auf Platinoberflächen. „Die Kohlenmonoxid-Oxidation an Platin ist unsere Drosophila“, spielt Ertl auf das Modelltierchen der Biologen an. Sie testet stellvertretend für komplexere Reaktionen zuverlässig, wie aktiv die Oberfläche eines Oxidationskatalysators ist. Die Berliner trieben Anfang der 1980er-Jahre diese Reaktion in einen extremen Ungleichgewichtszustand. Die Katalyse produzierte daraufhin nicht mehr gleichmäßig Kohlendioxid, sondern schwang wie ein Pendel zwischen „keine Reaktion“ und „Reaktion“ hin und her. Abbildung 3.

Dabei breiten sich die Gebiete, die gerade CO2 produzieren, als Spiralwellen über die Platinfläche aus. Die Platinatome schwingen mit den CO¬- und O2¬-Molekülen im Wechsel, und die atomare Landschaft der Katalysatoroberfläche springt zwischen zwei verschiedenen Formen hin und her. Gerhard Ertl faszinieren solche Selbstorganisationsprozesse fernab langweiliger Gleichgewichte: „Das ist auch die Grundlage der ganzen Biologie!

Abbildung 3: Die schwingende Oxidationsreaktion des Kohlenmonoxids wandert in Spiralwellen über die Oberfläche des Platin-Katalysators. An den hellen Stellen sitzen Kohlenmonoxid-Moleküle, die noch nicht reagiert haben. Das Bild hat ei¬nen Durchmesser von etwa 500 Mikrometern (Millionstel Meter). © Fritz-Haber-Institut

Offenbar ist die Lehrbuchmeinung, dass Katalysatoren von der Reaktion unbeeindruckt bleiben, idealisiert. Das bestätigt auch Ferdi Schüth, Direktor am Max-Planck-Institut für Kohlenforschung in Mülheim: „Manche Katalysatoren verändern sich unter Reaktionsbedingungen ganz dramatisch!“ Viele technische Katalysatoren brauchen erst eine Anlaufphase, um aktiv zu werden. Diese Aktivität verlieren sie dann wieder allmählich durch Alterungsprozesse.

Die Mülheimer erforschen feste Katalysatoren, wie sie technisch eingesetzt werden. Wie schwierig dieses Terrain ist, demonstriert Schüth mit elektronenmikroskopischen Aufnahmen. Anstatt glatter Flächen zeigen sie wild zerklüftete Mikrolandschaften des Trägermaterials, in denen die Nanopartikel des Katalysators wie verstreute Felsbrocken stecken. Diese poröse Struktur verleiht technischen Katalysatoren eine riesige Oberfläche, die den reagierenden Molekülen ein möglichst großes Spielfeld bieten soll. Ein Gramm der Eisenkatalysatoren für die Ammoniaksynthese zum Beispiel birgt in sich zwanzig Quadratmeter Oberfläche – also einen kompletten, zusammengeknüllten Zimmerboden! Das macht sie so enorm aktiv.

Ähnlich sieht es auch im Drei-Wege-Katalysator aus. Wie viele technische Katalysatoren leidet er zum Beispiel an der hohen Betriebstemperatur, die bis auf 800 °C steigen kann. Auf dem heißen Trägermaterial beginnen die Nanopartikel des Katalysators zu wandern. Bei diesem „Sintern“ lagern sie sich gerne zu größeren Klumpen zusammen. Das kann ihre gesamte Oberfläche und damit ihre Aktivität empfindlich reduzieren. „Deshalb wollen wir einen Katalysator entwickeln, der sinterstabil ist“, sagt Schüth. Dazu sperren die Mülheimer ihre Katalysatorpartikel in molekulare Käfige, die so klein sind, dass die Partikel ihnen nicht entkommen und zusammen sintern können. Diese Käfige besitzen aber Poren, die groß genug sind, damit die an der Oxidationsreaktion beteiligten Moleküle hindurch schlüpfen können. Das Mülheimer Modellsystem besteht aus Goldpartikeln. Seine Aktivität testen die Forscher wieder mit der Standardreaktion, der Oxidation von Kohlenmonoxid zu Kohlendioxid. Erprobt ist die Technik an Goldteilchen mit 15 Nanometern (Milliardstel Meter) Durchmesser.

Nanorasseln für`s Auto

Schüths Mitarbeiter Michael Paul erklärt das Verfahren (Abbildung 4): „Wir bedecken zuerst die Goldpartikel mit einer Schicht aus Polyvinylpyrrolidon.“ Diese Polymermoleküle, kurz PVP genannt, verhindern, dass die Goldpartikel sich am Gefäßboden absetzen oder aneinander haften.

Abbildung 4: Herstellungsschritte des sinterstabilen Katalysators. (von links nach rechts): Die Goldpartikel bekommen eine Schicht aus PVP¬-Polymeren.Die Chemiker umgeben es mit einer Schicht aus Siliziumdioxid, danach mit einer dünnen Schicht aus Zirconiumoxidkristallen. Durch deren Poren lösen sie das Siliziumdioxid auf. Übrig bleibt eine hohle Zirconiumoxidkugel (rechts), die das lose Goldpartikel einschließt. Unten: elektronenmikroskopische Bilder zu diesen Schritten (ein Nanometer entspricht einem Milliardstel Meter). © Grafik: R. Wengenmayr und M. Paul

Im nächsten Schritt setzen die Mülheimer der Lösung eine Silicatverbindung zu. Nun wirken die langen PVP-Moleküle wie Anker, in denen sich Siliziumdioxid (SiO2) aus der Lösung verfängt. „Sie funktionieren wie molekulare Staubsauger“, sagt Paul. Die Forscher lassen diesen Stöber-Prozess, benannt nach dem Physiker Werner Stöber, eine Weile laufen. Dabei wächst um das Goldpartikel ein Mantel aus Siliziumdioxid – wie bei einer Perle. Seine Schichtdicke können die Mülheimer zwischen 100 und 400 Nanometern einstellen, indem sie entsprechend lange warten.

„Danach packen wir die Partikel in eine sehr dünne Hülle aus Zirconiumoxidkristallen ein“, erläutert Paul, „und erhitzen sie auf 900 Grad Celsius, um sie zu stabilisieren“. Nun kommt der Trick: Die nur 15 bis 20 Nanometer dünne Zirconiumoxidhülle hat kleine Poren mit grob fünf Nanometern Durchmesser. Durch diese lassen die Forscher eine Natriumhydroxidlösung eindringen, die das Siliziumdioxid auflöst. Übrig bleibt eine hohle Zirconiumoxid-Nanokugel mit einem losen Goldpartikel. „Wir haben eine Nanorassel“, lacht Paul.

Tests zeigen, dass diese Nanorasseln über 800 Grad Celsius aushalten und zudem auch mechanisch sehr stabil sind. Als Katalysatoren oxidieren sie Kohlenmonoxid zuverlässig zu Kohlendioxid, ohne durch Sintern an Aktivität zu verlieren. Allerdings sind die 15-Nanometer-Goldpartikel kein sehr guter Katalysator. Technisch interessant werden erst kleinere Partikel mit nur wenigen Nanometern Durchmesser. Zudem sind andere Materialien wie zum Beispiel Platin aktiver. Deshalb arbeiten die Mülheimer Verpackungskünstler derzeit an einem System mit kleineren Platinpartikeln. Vielleicht haben unsere Autos bald Nanorasseln im Auspuff.


 * Der Chemie-Nobelpreis ist eben für die Entdeckung einer neuen Art von Katalysatoren - kleinen organischen Molekülen - vergeben worden, die eine Revolution für Synthesen in Akademie und Industrie darstellen (s.u.). Wie die bislang, größtenteils auf Metallen basierenden Katalysatoren funktionieren, zeigt der obige Artikel. Er ist erstmals unter dem Title: "Alles ganz schön oberflächlich –warum Forscher noch mehr über Katalyse wissen wollen" in TECHMAX 10 der Max-Planck-Gesellschaft erschienen https://www.max-wissen.de/230626/Techmax-10-Web.pdf und steht unter einer CC BY-NC-SA 4.0 Lizenz. Der Artikel ist hier ungekürzt wiedergegeben.


Nobelpreis für Chemie 2021: Press release: https://www.nobelprize.org/prizes/chemistry/2021/press-release/und

Popular information: Their tools revolutionised the construction of molecules. https://www.nobelprize.org/prizes/chemistry/2021/popular-information/

B. List, 07.10.2021: Ein Leben ohne Katalyse ist nicht denkbar. Organokatalyse - eine neue und breit anwendbare Synthesemethode


 

inge Fri, 08.10.2021 - 18:58

Auszeichnungen für die Grundlagenforschung: Fünf NIH-geförderte Forscher erhalten 2021 den Nobelpreis

Auszeichnungen für die Grundlagenforschung: Fünf NIH-geförderte Forscher erhalten 2021 den Nobelpreis

Do, 14.10.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin Die US-National Institutes of Health (NIH) sind weltweit die größten öffentlichen Förderer der biomedizinischen Grundlagenforschung und investieren in diese jährlich 32 Milliarden $. Als return-on investment sind über ein Jahrhundert lang grundlegende Entdeckungen gemacht worden, die Leben retten und die Gesundheit verbessern und 163 NIH-unterstützte Forscher wurden mit Nobelpreisen ausgezeichnet. Francis S. Collins - ehem. Leiter des Human Genome Projects und Entdecker mehrerer krankheitsverursachender Gene - ist seit 2009 Direktor der NIH. In seine Ära fallen 39 NIH-geförderte Nobelpreisträger in den Disziplinen Medizin oder Physiologie, Chemie und nun auch Ökonomie. Mit diesem triumphalen Ergebnis für die Grundlagenforschung tritt Collins nun als Direktor ab, um wieder voll als Forscher in seinem Labor zu arbeiten.*

Die letzte Woche war sowohl für die NIH (US National Institutes of Health) als auch für mich von großer Bedeutung. Ich habe nicht nur meine Absicht angekündigt mit Jahresende als NIH-Direktor zurückzutreten, um voll in mein Labor zurückzukehren; die Bekanntgabe der Nobelpreise 2021 hat mir auch wieder vor Augen geführt, welche Ehre es bedeutet einer Institution anzugehören, die mit einem so starken, andauernden Engagement die Grundlagenforschung unterstützt.

Fünf neue vom NIH-unterstütze Nobelpreisträger

In diesem Jahr begann für die NIH die Nobel-Begeisterung in den frühen Morgenstunden des 4. Oktobers, als zwei vom NIH unterstützte Neurowissenschaftler in Kalifornien die Nachricht aus Schweden erhielten, dass sie den Nobelpreis für Physiologie oder Medizin gewonnen hatten. Ein „Weckruf“ ging an David Julius, University of California, San Francisco (UCSF), der für seine bahnbrechende Entdeckung des ersten Proteinrezeptors ausgezeichnet wurde, der die Temperaturwahrnehmung des Körpers - die Thermosensation - steuert. Der andere Ruf ging an seinen langjährigen Mitarbeiter Ardem Patapoutian, Scripps Research Institute, La Jolla, CA, für seine bahnbrechende Arbeit, die den ersten Proteinrezeptor identifizierte, der unseren Tastsinn steuert. Abbildung 1.

Abbildung 1. Nobelpreis 2021 für Physiologie oder Medizin. Die Arbeiten von David Julius und Ardem Patapoutian wurden durch die Förderung der NÌH ermöglicht. Credit: Niklas Elmehed © Nobel Prize Outreach.

Aber das war nicht das Ende der guten Nachrichten. Am 6. Oktober wurde der Nobelpreis für Chemie 2021 dem NIH-finanzierten Chemiker David W.C. MacMillan von der Princeton University, N.J verliehen, der sich diese Ehre mit Benjamin List vom deutschen Max-Planck-Institut teilte. (List erhielt auch zu Beginn seiner Karriere NIH-Unterstützung.) Die beiden Forscher wurden für die Entwicklung einer genialen Methode ausgezeichnet, die eine kosteneffiziente Synthese „grünerer“ Moleküle ermöglicht mit breiter Anwendung in Wissenschaft und Industrie, inklusive Design und Entwicklung von Medikamenten. Abbildung 2.

Abbildung 2. Nobelpreis 2021 für Chemie Die Arbeiten von David W.C. MacMillan wurden durch die Förderung der NÌH ermöglicht. Credit: Niklas Elmehed © Nobel Prize Outreach

Um daraus einen echten Nobelpreis 2021-„Hattrick“ (im Sport ein Ausdruck für dreimaligen Erfolg desselben Spielers in Serie, Anm. Red.) für die NIH zu machen, erfuhren wir am 12. Oktober, dass zwei der drei diesjährigen Nobelpreisträger für Wirtschaftswissenschaften auch NIH-finanziert wurden. David Card, ein NIH-unterstützter Forscher an der Universität of California, Berkeley, wurde „für seine empirischen Beiträge zur Arbeitsökonomie“ ausgezeichnet. Er teilte sich den Preis 2021 mit dem NIH-Stipendiaten Joshua Angrist vom Massachusetts Institute of Technology, Cambridge, und dessen Kollegen Guido Imbens von der Stanford University, Palo Alto, CA, „für ihre methodischen Beiträge zur Analyse kausaler Zusammenhänge“. Abbildung 3.

Abbildung 3. Nobelpreis 2021 für Wirtsschaftswissenschaften.Nobelpreis für Wirtschaftswissenschaften 2021. Die Arbeiten von David Card und Yoshua D. Angrist wurden durch die Förderung der NÌH ermöglicht. Credit: Niklas Elmehed © Nobel Prize Outreach

Was war das für ein Jahr!

Investieren in Grundlagenforschung

Die Leistungen dieser und der 163 früheren Nobelpreisträger der NIH zeugen davon, welche Bedeutung das Investment in die biomedizinische Grundlagenforschung in der langen und stabilen Geschichte unserer Behörde hatte. In diesem Forschungsbereich stellen Wissenschaftler grundlegende Fragen dazu wie Leben funktioniert. Die Antworten, die sie aufzeigen, helfen uns, die Prinzipien, Mechanismen und Prozesse zu verstehen, die lebenden Organismen zugrunde liegen, inkludieren den menschlichen Körper in Gesundheit und Krankheit.

Dazu kommt, dass jeder Fortschritt auf früheren Entdeckungen aufbaut - oft auf unerwartete Weise - und es manchmal Jahre oder sogar Jahrzehnte dauert, bis diese in praktische Anwendungen umgesetzt werden können. Zu den jüngsten Beispielen für lebensrettende Durchbrüche, die auf jahrelanger biomedizinischer Grundlagenforschung aufbauen, gehören die mRNA-Impfstoffe gegen COVID-19 und die Immuntherapieansätze, die heute Menschen mit vielen Krebsarten helfen.

Sensoren für Temperatur und Druck

Nehmen Sie den Fall der neuesten Nobelpreisträger. Es waren grundlegende Fragen zur Reaktion des menschlichen Körpers auf Heilpflanzen, welche Julius an der UCSF zu seinen Arbeiten ursprünglich inspirierten. Er hatte aus ungarischen Studien gesehen, dass eine natürliche Chemikalie in Chilischoten, genannt Capsaicin, eine Untergruppe von Neuronen aktiviert, um das schmerzhafte, brennende Gefühl zu erzeugen, das die meisten von uns durch ein bisschen zu viel scharfe Soße erfahren haben. Was jedoch nicht bekannt war, war der molekulare Mechanismus, durch den Capsaicin diese Empfindung auslöste.

Nachdem Julius und Kollegen sich 1997 für einen optimalen experimentellen Ansatz zur Untersuchung dieser Frage entschieden hatten, haben sie Millionen DNA-Fragmente von Genen gescreened (durchgemustert), die in den sensorischen, mit Capsaicin interagierenden Neuronen exprimiert wurden. Innerhalb weniger Wochen hatten sie das Gen lokalisiert, das für den Proteinrezeptor kodiert, über den Capsaicin mit diesen Neuronen interagiert [1]. In Folgestudien stellten Julius und sein Team dann fest, dass der Rezeptor, später TRPV1 genannt, auch als Wärmesensor auf bestimmte Neuronen im peripheren Nervensystem wirkt. Wenn Capsaicin die Temperatur in einen schmerzhaften Bereich steigert, öffnet der Rezeptor einen porenartigen Ionenkanal im Neuron, der dann ein Signal für das unangenehme Gefühl an das Gehirn weiterleitet.

In Zusammenarbeit mit Patapoutian hat Julius dann seine Aufmerksamkeit von heiß auf kalt geschwenkt. Die beiden nutzten die Empfindung von Kälte, die Menthol, die aktive Substanz in Minze vermittelt, um ein Protein namens TRPM8 zu identifizieren: den ersten Rezeptor, der Kälte wahrnimmt [2, 3]. Es folgte die Identifizierung weiterer porenartiger Kanäle, die mit TRPV1 und TRPM8 in Verbindung stehen und durch eine Reihe unterschiedlicher Temperaturen aktiviert werden.

Zusammengenommen haben diese bahnbrechenden Entdeckungen Forschern auf der ganzen Welt die Tür geöffnet, um genauer zu untersuchen, wie unser Nervensystem die oft schmerzhaften Reize von Hitze und Kälte erkennt. Solche Informationen können sich bei der ständigen Suche nach neuen, nicht süchtig machenden Schmerztherapien als wertvoll erweisen. Die NIH verfolgen aktiv einige dieser Wege durch die Initiative „Helping to End Addiction Long-termSM“ (HEAL).

Währenddessen war Patapoutian damit beschäftigt, die molekulare Grundlage einer anderen fundamentalen Sinnesempfindung - der Berührung - zu knacken. Zuerst identifizierten Patapoutian und seine Mitarbeiter eine Mauszelllinie, die ein messbares elektrisches Signal erzeugte, wenn einzelne Zellen angestoßen wurden. Sie vermuteten, dass das elektrische Signal von einem Proteinrezeptor erzeugt wurde, der durch physikalischen Druck aktiviert wurde, mussten aber noch den Rezeptor und das dafür kodierende Gen identifizieren. Das Team hat 71 Kandidaten-Gene ohne Erfolg überprüft. Bei ihrem 72. Versuch haben sie dann ein Gen identifiziert, das für den Berührungsrezeptor kodiert, und es Piezo1 genannt, nach dem griechischen Wort für Druck [4].

Patapoutians Gruppe hat seitdem weitere Piezo-Rezeptoren gefunden. Wie so oft in der Grundlagenforschung wurden die Forscher durch ihre Ergebnisse in eine Richtung gelenkt, die sie sich so nie hätten vorstellen können. Sie haben beispielsweise entdeckt, dass Piezo-Rezeptoren an der Kontrolle des Blutdrucks beteiligt sind und dass sie erkennen, ob die Harnblase voll ist. Faszinierenderweise scheinen diese Rezeptoren auch eine Rolle bei der Kontrolle des Eisenspiegels in den roten Blutkörperchen zu spielen sowie bei der Regulation der Wirkung bestimmter weißer Blutkörperchen, der sogenannten Makrophagen.

Organokatalyse - kleine organische Moleküle als neuartige Katalysatoren

Wenden wir und nun dem Nobelpreis 2021 für Chemie zu. Hier hat die Grundlagenforschung von MacMillan und List den Weg geebnet, um einen großen ungedeckten Bedarf in Akademie und Industrie zu decken: den Bedarf an kostengünstigeren und umweltfreundlicheren Katalysatoren. Und was ist ein Katalysator? Um die synthetischen Moleküle zu bauen, die in Medikamenten und einer Vielzahl anderer Materialien verwendet werden, verlassen sich Chemiker auf Katalysatoren, das sind Substanzen, die chemische Reaktionen steuern und beschleunigen, ohne Teil des Endprodukts zu werden.

Lange dachte man, es gebe nur zwei Hauptkategorien von Katalysatoren für die Synthese organischer Verbindungen: Metalle und Enzyme. Enzyme sind aber große, komplexe Proteine, die sich nur schwer auf industrielle Prozesse skalieren lassen. Metallkatalysatoren andererseits können für Arbeiter giftig und für die Umwelt schädlich sein. Dann, vor etwa 20 Jahren, entwickelten List und MacMillan unabhängig voneinander eine dritte Art von Katalysator. Dieser Ansatz, bekannt als asymmetrische Organokatalyse [5, 6], basiert auf Katalysatoren aus kleinen organischen Molekülen, die ein stabiles Gerüst aus Kohlenstoffatomen aufweisen, an die aktivere chemische Gruppen binden können, die häufig Sauerstoff, Stickstoff, Schwefel oder Phosphor enthalten.

Die Anwendung von Organokatalysatoren hat sich als kostengünstiger und umweltfreundlicher erwiesen als die Verwendung herkömmlicher Metall- oder Enzymkatalysatoren. Tatsächlich wird dieses präzise neue Werkzeug für die Konstruktion von Molekülen derzeit verwendet, um alles zu bauen, von neuen Pharmazeutika bis hin zu lichtabsorbierenden Molekülen, die in Solarzellen verwendet werden.

Arbeitsökonomie und Analyse von Kausalzusammenhängen

Damit sind wir beim Nobelpreis für Wirtschaftswissenschaften. Die diesjährigen Preisträger zeigten, dass es möglich ist, auf sozialwissenschaftliche Fragen Antworten zu Ursache und Wirkung zu finden. Der Schlüssel liegt darin, Situationen in Gruppen von Menschen zu bewerten, die unterschiedlich behandelt werden - ganz ähnlich wie es im Design klinischer Studien in der Medizin stattfindet. Mit diesem Ansatz des „natürlichen Experiments“ erstellte David Card Anfang der 1990er Jahre neuartige Wirtschaftsanalysen, die zeigten, dass eine Erhöhung des Mindestlohns nicht unbedingt zu weniger Arbeitsplätzen führt. Mitte der 1990er Jahre verfeinerten Angrist und Imbens dann die Methodik dieses Ansatzes und zeigten, dass aus natürlichen Experimenten, die Kausalzusammenhänge aufzeigen, präzise Schlüsse gezogen werden können.

Ausblick

Letztes Jahr hat das NIH die Namen von drei Wissenschaftlern in seine illustre Liste von Nobelpreisträgern aufgenommen. In diesem Jahr sind fünf weitere Namen hinzugekommen. In den kommenden Jahren und Jahrzehnten werden zweifellos noch viele weitere hinzukommen. Wie ich in den letzten 12 Jahren oft gesagt habe, ist es eine außergewöhnliche Zeit, ein biomedizinischer Forscher zu sein. Während ich mich darauf vorbereite, als Direktor dieser großartigen Institution zurückzutreten, kann ich Ihnen versichern, dass die Zukunft von NIH nie besser war.


 [1] The capsaicin receptor: a heat-activated ion channel in the pain pathway. Caterina MJ, Schumacher MA, Tominaga M, Rosen TA, Levine JD, Julius D. Nature 1997:389:816-824.

[2] Identification of a cold receptor reveals a general role for TRP channels in thermosensation. McKemy DD, Neuhausser WM, Julius D. Nature 2002:416:52-58.

[3] A TRP channel that senses cold stimuli and menthol. Peier AM, Moqrich A, Hergarden AC, Reeve AJ, Andersson DA, Story GM, Earley TJ, Dragoni I, McIntyre P, Bevan S, Patapoutian A. Cell 2002:108:705-715.

[4] Piezo1 and Piezo2 are essential components of distinct mechanically activated cation channels. Coste B, Mathur J, Schmidt M, Earley TJ, Ranade S, Petrus MJ, Dubin AE, Patapoutian A. Science 2010:330: 55-60.

[5] Proline-catalyzed direct asymmetric aldol reactions. List B, Lerner RA, Barbas CF. J. Am. Chem. Soc. 122, 2395–2396 (2000).

[6] New strategies for organic catalysis: the first highly enantioselective organocatalytic Diels-AlderReaction. Ahrendt KA, Borths JC, MacMillan DW. J. Am. Chem. Soc. 2000, 122, 4243-4244. -


 *Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 12. Oktober 2021) im NIH Director’s Blog unter dem Titel: "NIH’s Nobel Winners Demonstrate Value of Basic Researchwinners-demonstrate-value-of-basic-research/.https://directorsblog.nih.gov/2021/10/12/nihs-nobel-winners-demonstrate-value-of-basic-research/. Er wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig (mit einigen Untertiteln) für den ScienceBlog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

National Institutes of Health (NIH): https://www.nih.gov/

Nobelpreise 2021:

Artikel im ScienceBlog:

Benjamin List, 07.10.2021; Ein Leben ohne Katalyse ist nicht denkbar. Organokatalyse - eine neue und breit anwendbare Synthesemethode


 

inge Thu, 14.10.2021 - 18:41

Ein Leben ohne Katalyse ist nicht denkbar. Organokatalyse - eine neue und breit anwendbare Synthesemethode

Ein Leben ohne Katalyse ist nicht denkbar. Organokatalyse - eine neue und breit anwendbare Synthesemethode

Do 07.10.2021 — Benjamin List

Benjamin ListIcon Chemie Wilhelm Ostwald hatte 1901 den Begriff des Katalysators definiert: "Ein Katalysator ist jeder Stoff, der, ohne im Endprodukt einer chemischen Reaktion zu erscheinen, ihre Geschwindigkeit verändert." Bis vor 20 Jahren kannte man 2 Gruppen von Katalysatoren: i) in der Biosphäre eine schier unendliche Zahl an Enzymen, die hochselektiv die Synthese aller organischen Verbindungen (d.i. Gerüste aus Kohlenstoff, Wasserstoff und N-, O-, S- Und P-Gruppen) ermöglichen und ii) Metalle (Metallverbindungen), die von Akademie und Industrie zur zielgerichteten chemischen Synthese diverser organischer Moleküle eingesetzt werden. Eine dritte Klasse von Katalysatoren haben um 2000 Benjamin List (damals Scripps-Research Institute, US) und David MacMillan (Princeton University) voneinander unabhängig entdeckt: kleine organische Moleküle, die hochselektiv und effizient chemische Reaktionen katalysieren und ein enormes Potential für die industrielle Anwendung haben. Die beiden Forscher wurden für diese fundamentale Entdeckung mit dem diesjährigen Chemie-Nobelpreis ausgezeichnet. Im Folgenden findet sich ein kurzer Bericht von Benjamin List (Direktor am Max-Planck-Institut für Kohlenforschung, Mülheim, D) , den er nach seiner Rückkehr nach Deutschland 2003 über das neue Gebiet der Organokatalyse verfasst hat.*

Organokatalyse ist eine neue Katalysestrategie, bei der kleine, rein organische Katalysatoren verwendet werden. Obwohl die Natur eine ähnliche metallfreie Katalyse in vielen Enzymen verwendet, haben Chemiker erst vor kurzem das große Potenzial der Organokatalyse als einer hochselektiven und umweltfreundlichen Synthesemethode realisiert. In den letzten Jahren wurden spektakuläre Fortschritte auf dem Gebiet erzielt und seit kurzem wird Organokatalyse auch am Max-Planck-Institut für Kohlenforschung in Mülheim betrieben. Sie ergänzt dort bereits existierende Forschung auf den Sektoren der Biokatalyse, Metallkatalyse und der Heterogenen Katalyse.

Chemiker bemühen sich seit langem, die Effizienz und Selektivität von Enzymen mit synthetischen Katalysatoren nachzuahmen. Insbesondere ist es ein Ziel, die hohe Selektivität, die Enzyme gegenüber spiegelbildlichen Molekülen aufweisen, auch in chemisch katalysierten Reaktionen zu erreichen. Diese so genannte Enantioselektivität ist von herausragender Bedeutung in der Synthese von Wirkstoffen, da spiegelbildliche Moleküle unterschiedliche biologische Aktivitäten aufweisen.

Überraschenderweise basieren die für diesen Zweck entwickelten Katalysatoren fast ausschließlich auf Metallkomplexen, während etwa die Hälfte aller Enzyme völlig metallfrei ist. Erst seit kurzem realisiert man, dass auch niedermolekulare organische Katalysatoren hoch effizient und selektiv chemische Reaktionen katalysieren können. Das Potenzial solcher organokatalytischer Reaktionen ist insbesondere für die industrielle Synthese sehr groß, da die verwendeten Katalysatoren robust, günstig erhältlich, ungiftig und einfach zu synthetisieren sein sollen. Außerdem werden organokatalytische Reaktionen häufig bei Raumtemperatur durchgeführt und sind unempfindlich gegenüber Luft und Feuchtigkeit; viele Reaktionen lassen sich in der Tat in wässrigen Lösungsmitteln durchführen. Eine bedeutend leichtere Anbindung an die feste Phase zur effizienten Abtrennung und Rückgewinnung des Katalysators ist ebenfalls möglich. Das große Potenzial dieses Gebiets wird inzwischen akzeptiert und eine exponentiell wachsende Anzahl von Forschergruppen beschäftigt sich weltweit mit dieser noch nicht einmal ansatzweise ausgeschöpften Thematik.

Abbildung: Produkte neu entdeckter Prolin-katalysierter Reaktionen. Ausbeuten enantioselektiver Produkte (ee rot) in Prozent. (In das Bild wurde von Redn. die Strukturformel des Prolin eingefügt.)


Eine wichtige Klasse von organokatalytischen Reaktionen, die insbesondere am Max-Planck-Institut für Kohlenforschung untersucht werden, sind solche, die durch Amine und Aminosäuren katalysiert werden können. So konnten in den letzten Jahren eine Reihe von Reaktionen entwickelt werden, die durch die Aminosäure Prolin katalysiert werden, so zum Beispiel hochselektive Aldol-, Mannich-, Michael- und Aminierungsreaktionen (Abbildung). Diese neuen Reaktionen liefern in exzellenten Ausbeuten und Enantioselektivitäten chirale Alkohole, Amine und Aminosäurederivate von potenziellem Nutzen für die Synthese funktionaler Moleküle, insbesondere von Wirkstoffen. Vor kurzem wurden außerdem neuartige Zyklisierungsreaktionen entdeckt.


* Der vorliegende Artikel von Bejamin List ist dem Jahrbuch 2003 der Max-Planck-Gesellschaft unter dem Titel "Organokatalyse: Eine neue und breit anwendbare Synthesemethode" (https://www.mpg.de/870377/forschungsSchwerpunkt1?c=154862) erschienen und kann mit freundlicher Zustimmung der MPG-Pressestelle im ScienceBlog verbreitet werden. Der Abstract (kursiv) zum Artikel wurde von der Redaktion eingefügt. Der folgendeText und eine Abbildung wurden unverändert übernommen, allerdings fehlt der abschließende Teil über eine Reihe weiterer wichtiger Prolin-katalysierter Reaktionen und die Darstellung ihrer Synthesewege, da dafür eine Vertrautheit mit der Sprache der organischen Chemie nötig ist. Auch für die Literaturzitate wird auf den Originalartikel verwiesen.

 


Weiterführende Links

Benjamin List homepage: https://www.kofo.mpg.de/de/forschung/homogene-katalyse

Catarina Pietschmann: Eine Perspektive fürs Leben (6. Oktober 2021), Ein Porträt des Direktors am Max-Planck-Institut für Kohlenforschung und Chemie-Nobelpreisträgers 2021. Chemie (M&T) Preise

Nobelpreis für Chemie 2021: Press release: https://www.nobelprize.org/prizes/chemistry/2021/press-release/und

Popular information: Their tools revolutionised the construction of molecules. https://www.nobelprize.org/prizes/chemistry/2021/popular-information/

BR Mediathek: Benjamin List erklärt seine Methode der asymmetrischen Organokatalyse. (ARD alpha campus talk 2019). Video 11;26 min. https://www.br.de/mediathek/video/nobelpreis-fuer-chemie-benjamin-list-erklaert-seine-methode-der-asymmetrischen-organokatalyse-av:615da7fdeb179f00072e4570

inge Fri, 08.10.2021 - 01:04

Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit

Special Eurobarometer 516: Interesse der europäischen Bürger an Wissenschaft & Technologie und ihre Informiertheit

So. 03.10.2021  — Inge Schuster

Inge SchusterIcon Politik & Gesellschaft Über die jüngste EU-weite Umfrage zum Thema Wissenschaft und Technologie "European citizens’ knowledge and attitudes towards science and technology" ist eben der bislang umfangreichste Report erschienen. Aus der enormen Fülle an wichtigen Ergebnissen wird hier eine Auswahl getroffen. Es wird über das Interesse der Europäer (und speziell das Interesse der Österreicher) an Wissenschaft und Technologie berichtet und über deren Informiertheit - beides Grundlagen für den Erwerb von Kenntnissen und einem breiten Verständnis für die Wissenschaften, die das moderne Leben prägen.

Im Jahr 2000 war mit der Lissabon Strategie ein überaus ehrgeiziges Ziel gesteckt worden: die Europäische Union sollte sich bis 2010 zur weltweit wettbewerbsfähigsten und dynamischsten wissensbasierten Ökonomie entwickeln. Zielorientierte Investitionen in Forschung & Entwicklung sowie Innovation - sogenannte Forschungsrahmenprogramme - sollten dabei das Wachstum im Bereich von Wissenschaft (science) und Technik ermöglichen (NB: unter science sind hier die Naturwissenschaften zu verstehen!). Allerdings ergab eine 2001 von der EU-Kommission in Auftrag gegebene EU-weite Umfrage [1], dass die Europäer im Durchschnitt Wissenschaft und Technik nicht in der zur Zielerreichung erforderlichen Weise wahrnahmen, dass es an Wissen und Information, vielfach aber auch einfach an Interesse mangelte. Weitere Umfragen in den Jahren 2005 und 2010 [2] zeigten eine positive Entwicklung auf dem Weg zur angestrebten Wissensgesellschaft, aber auch enorme Verbesserungsmöglichkeiten.

Jedenfalls wurden 2010 die Kernziele von Lissabon auch nicht annähernd erreicht; diese sollten - neben neuen Zielen - nun in der Nachfolgestrategie Europa 2020 weiterverfolgt werden. Um nicht an finanziellen Engpässen zu scheitern, wurde die Mittelausstattung der Forschungsrahmenprogramme massiv erhöht - das von 2014 - 2020 laufende Programm Horizon 2020 wurde mit 70 Milliarden € dotiert, das neue bis 2027 laufende Horizon Europa wird 95,5 Milliarden € erhalten.

Anknüpfend an die 2010-Umfrage folgten in den Jahren 2013 und 2014 zwei weitere EU-weite Umfragen. Diese untersuchten einerseits die Einbindung der Gesellschaft in Wissenschaft und Innovation [3], andererseits wieweit die europäische Bevölkerung davon überzeugt war, dass sich der Einsatz von Wissenschaft und Technologie in naher Zukunft positiv auf die wesentlichsten Aspekte des täglichen Lebens - von Gesundheit über Bildung, Arbeitsplätze, Energieversorgung, Mobilität, Wohnen bis hin zu Umweltschutz und Kampf gegen den Klimawandel - auswirken werde [4].

Über die Ergebnisse der Eurobarometer Umfragen 2010, 2013 und 2014 wurde (mit speziellem Fokus auf Österreich) im ScienceBlog berichtet [5 - 8].

Special Eurobarometer 516

Nach einer langen Unterbrechung von sieben Jahren ist vor 10 Tagen der mit 322 Seiten bislang umfangreichste Bericht über die jüngste Umfrage zu "Wissen und Einstellungen der europäischen Bürger zu Wissenschaft und Technologie" erschienen [9]. Neben 26 827 Personen in den 27 Mitgliedstaaten wurden 10 276 Personen in weiteren 11 Ländern befragt (in den Beitrittskandidaten Albanien, Montenegro, Nordmazedonien, Serbien und Türkei, sowie in Bosnien und Herzegowina, Island, Kosovo, Norwegen, Schweiz und UK). Die Befragung hat vom 13 April bis 10 Mai 2021 stattgefunden - soweit es pandemiebedingt möglich war in Form von face-to-face Interviews bzw. online - in der jeweiligen Muttersprache und soziodemografisch repräsentativ gewichtet.

Die Ergebnisse bieten Einblicke in

  • das Wissen der Bürger über Wissenschaft und Technologie, ihr Interesse daran und ihre Informationsquellen,
  • Ihre Ansichten zu den Auswirkungen von Wissenschaft und Technologie - auch auf die Gesellschaft - und zu Risiken und Vorteilen neuer Technologien,
  • ihre Ansichten zur Governance von Wissenschaft und Technologie,
  • ihre Einstellung zu Wissenschaftlern, zu deren angenommenen Eigenschaften, deren Glaubwürdigkeit und Rolle in der Gesellschaft,
  • ihr Engagement in Wissenschaft und Technologie,
  • Aspekte in Bezug auf junge Menschen,
  • die Geschlechtergleichstellung und soziale Verantwortung
  • den Vergleich des Status in Wissenschaft und Technologie der EU und anderen Teile der Welt.
  • Themen, die bereits in früheren Befragungen angesprochen wurden und die diesbezügliche Entwicklung der Bevölkerung aufzeigen.

Insgesamt liegt eine derart immense Fülle an wichtigen Ergebnissen vor, dass diese hier auch nicht ansatzweise in entsprechender Form zusammengefasst werden können. Fürs Erste wird daher nur der Teilaspekt  Interesse an Wissenschaft &Technologie und Informationsstand ausgewählt. Die Aussagen dazu sind offensichtlich von den derzeitigen beispiellosen Krisen geprägt: vom Klimawandel, vom Verlust der biologischen Vielfalt und vor allem von der COVID-19 Pandemie.

Wie auch in den vorangegangenen Berichten werden die  Ansichten der Österreicher mit den Ansichten anderer Europäer verglichen.

Wissenschaft & Technologie: Interesse und Information

Die weitaus überwiegende Mehrheit der EU-Bürger gibt an sich für Wissenschaft und Technologie zu interessieren, insbesondere für Umweltprobleme, für neue Entdeckungen in Medizin und Naturwissenschaften und für technologische Entwicklungen, fühlt sich aber nicht in gleicher Weise darüber informiert. Abbildung 1.

Abbildung 1: Wieweit sind die EU-Bürger im Durchschnitt an Wissenschaft und Technologie interessiert, wieweit informiert? Interessiert = Summe aus sehr hohem und mäßigen Interesse, informiert = Summe aus sehr gut und mäßig gut informiert. (Bild modifiziert nach ebs_516_science and technology_Infographic.pdf und [9])

Dabei ist aber zwischen großem Interesse und mäßigem Interesse (was immer das ist) zu unterscheiden. Großes Interesse zeigen im EU27-Schnitt i) an Umweltproblemen (inklusive Klimaschutz) 42 % der Befragten, ii) an Entdeckungen in der Medizin 38 % und iii) an naturwissenschaftlichen Entdeckungen und technologischen Entwicklungen 33 %. (Dass an Umweltproblemen und medizinischen Entdeckungen ein so hohes Interesse besteht, ist zweifellos den derzeitigen Krisen geschuldet.)

Der Anteil der sehr Interessierten hat in allen 3 Gebieten seit 2010 um einige  Prozentpunkte zugenommen (siehe unten, Abbildung 5). Der Anteil der völlig Desinteressierten liegt in den drei Themen im EU27-Schnitt bei 11 %, 14 % und 18 %, allerdings ist in allen Themen eine sehr starke Zunahme des Desinteresses von Nordwest nach Südost zu beobachten. Dies soll am Beispiel des Interesses an naturwissenschaftlichen Entdeckungen und technologischen Entwicklungen aufgezeigt werden (Abbildung 2): In Ländern wie Italien, Rumänien, Bulgarien, Polen sind bis zu 37 % der Befragten daran desinteressiert. Noch geringer ist das Interesse der Beitrittskandidaten am Balkan und hier vor allem in Serbien (39 % desinteressiert); Serbien weist auch den höchsten Anteil Desinteressierter an medizinischen Entdeckungen (34 %) und an Umweltproblemen (29 %) auf.

Abbildung 2: Europa zeigt einen starken Nordwest - Südost-Trend im Interesse an naturwissenschaftlichen Entdeckungen und technologischen Entwicklungen. Auch in einigen (noch)Nicht-EU-Ländern ist ein beträchtlicher Teil der Bevölkerung (vor allem in Serbien) desinteressiert . XK: Kosovo, ME: Montenegro, BA: Bonien/Herzegovina, MK: N-Mazedonien, Albanien: Al, RS: Serbien. (Bild modifiziert nach [9]).

Auch in puncto Informiertheit ist zwischen sehr guter und mäßig guter Information zu unterscheiden. So fühlten sich im EU27-Schnitt i) über Umweltprobleme (inklusive Klimaschutz) nur 21 % der Befragten sehr gut, 61 % aber mäßig gut Informiert und ii) über neue Entdeckungen in der Medizin 13 % sehr gut, 54 % aber mäßig gut informiert. Auch ihren Informationsstand über Entdeckungen in den Naturwissenschaften und über technologische Entwicklungen empfanden nur 13 % als sehr gut und 53 % als mäßig gut (Abbildung 3). Die Angaben "sehr gut informiert" sind seit 2010 in allen drei Sparten nur um 2 % gestiegen (siehe unten, Abbildung 5).

Abbildung 3 zeigt als Beispiel die Informiertheit an naturwissenschaftlichen Entdeckungen und technologischen Entwicklungen der einzelnen EU-Länder. Besonders problematisch erscheint hier der sehr starke Nordwest-Südost-Trend: in Italien, Ungarn und Bulgarien bezeichnen sich 50 % bzw. 53 % der Befragten als schlecht informiert. Im Beitrittskandidaten Serbien sind es gar 57 % (ohne Abbildung).

Es besteht also dringender Handlungsbedarf für Maßnahmen zur Steigerung des Interesses und auch zur Bereitstellung von nötiger, leicht verständlicher Information!

Abbildung 3: Bis zur und über die Hälfte der EU-Bürger sind über wissenschaftliche Entdeckungen und technologische Entwicklungen schlecht informiert. (Bild modifiziert nach [9].)

Zur Situation in Österreich

Österreich zeichnet sich nicht durch besonders hohes Interesse an den drei Gebieten aus. Auch, wenn die Angaben "sehr interessiert" seit 2010 gestiegen sind, entsprechen die Zahlen in etwa nur dem EU27-Schnitt und liegen damit näher den südöstlichen als den nordwestlichen Ländern: sehr interessiert i) an Umweltproblemen sind 44 % der Befragten (um 6 % mehr als 2010), ii) an Entdeckungen in der Medizin 33 % (um 10 % mehr als 2010) und iii) an naturwissenschaftlichen Entdeckungen und technologischen Entwicklungen 27 % (um 6 % mehr als 2010). Der Anteil der völlig Desinteressierten in den drei Sparten liegt bei 11 %, 16 % und 21 %.

Ein wesentlich niedrigerer Anteil der Befragten sieht sich als sehr gut informiert an: 27% über Umweltthemen, 14 % über medizinische und auch über naturwissenschaftliche Entdeckungen. Als schlecht informiert bezeichnen sich 16 % in Umweltfragen, 31 % in medizinischen Entdeckungen und mehr als 1/3 der Befragten (36 %) in neuen naturwissenschaftlichen Erkenntnissen.

Soziodemographische Unterschiede

Aufgeschlüsselt nach Alter, Geschlecht und Ausbildung sind deutliche Unterschiede im Interesse an Wissenschaft und Technologie erkennbar. Abgesehen von einem insgesamt niedrigeren Interesse folgt Österreich demselben Trend wie der EU27-Schnitt. Abbildung 4.

Befragte in jüngerem Alter zeigen höheres Interesse als ältere. Ein sehr großer Unterschied ist zwischen Männern und Frauen erkennbar - Männer geben sehr viel häufiger an, dass sie an Entwicklungen in Wissenschaft und Technologie sehr interessiert wären.

Bestimmend für das Interesse ist auch die Dauer der Ausbildung. Je länger diese dauerte, desto mehr Interessierte an Entwicklungen in Wissenschaft und Technologie gibt es.

Abbildung 4: Wer ist an wissenschaftlichen Entdeckungen und technologischen Entwicklungen sehr interessiert? Soziodemographische Aufschlüsselung. (Bild modifiziert nach: ebs_516_science and technology_Infographic.pdf)V

Wissenschaften versus Nicht-Wisssenschaften

Interesse und Informiertheit wurden auch zu 3 anderen Sphären des täglichen Lebens abgefragt: i) zu Kunst und Kultur, ii) zu Politik und iii) zu Sportnachrichten.

Erstaunlicherweise besteht ein höheres Interesse an den wissenschaftlichen Themen als an den nicht-wissenschaftlichen, für Letztere zeigten sich im EU27-Schnitt jeweils rund ein Viertel der Befragten sehr interessiert. Abbildung 5.

Der Anteil der an Kunst & Kultur und an Politik sehr Interessierten hat seit 2010 zugenommen (um 4 bzw. 6 %), der Anteil der Sportfans um 4 % abgenommen.

Der Anteil der sehr gut Informierten in Politik und Sport liegt etwas höher als  in Umweltproblemen; der Erstere hat seit 2010 um 4 % zugenommen und entspricht dem Anteil der an Politik sehr Interessierten. Parallel zum sinkenden Anteil der Sportbegeisterten ist auch der Anteil der sehr gut Informierten stark gesunken, der Anteil der schlecht Informierten auf 39 % gestiegen.

Ebenso hat der Anteil an sehr gut Informierten in Kunst & Kultur leicht zugenommen.

Abbildung 5: Im EU27-Schnitt zeigen mehr Menschen großes Interesse an wissenschaftlichen Themen als an nicht-wissenschaftlichen, sind aber nicht entsprechend gut informiert. Interessanterweise hat die Sportbegeisterung im letzten Jahrzehnt stark abgenommen. (Bild modifiziert nach [9].)

In Österreich punkten auch die nicht-wissenschaftlichen Themen: Im Vergleich zu den wissenschaftlichen Themen, an denen 27 - 44 % der Befragten großes Interesse äußerten (siehe oben), waren 28 % sehr an Politik interessiert (2010 waren es noch 18 %) und 32 % an Sport (2010: 30 %). Überraschend war allerdings, dass der Anteil der Kunst- & Kultur-Fans mit 22 % (2010: 15 %) unter allen Sparten am niedrigsten ausfiel (und das bei dem Anspruch Österreichs als Kulturland!).

Hinsichtlich Informiertheit fühlten sich 23 % (2010: 13 %) über Politik sehr gut informiert, 27 % über Sport (2010: 26 %) und 16 % (2010: 12 %) über Kunst & Kultur.

Woher stammen die Informationen über Wissenschaft und Technologie?

Den Befragten wurde eine Liste möglicher Informationsquellen für Wissenschaft und Technologie vorgelegt, aus der sie die zwei für sie wichtigsten Quellen nennen sollten.

Wie auch in der Vergangenheit ist für den Großteil der Europäer TV die wichtigste Informationsquelle (EU27-Schnitt 63 %, Österreich 53 %), mit großem Abstand folgen das Internet mit sozialen Netzwerken und Blogs und dann Tageszeitungen (online oder gedruckt), die 4.häufigste Quelle ist wieder das Internet mit Lexika wie Wikipedia. Die Präferenzen für diese Quellen sind in Abbildung 6 zusammengefasst.

Weitere Quellen wie Radio, Bücher, wissenschaftliche Fachzeitschriften werden von wesentlich kleineren Personenkreisen vorgezogen.

Abbildung 1: Die vier im EU27-Schnitt und in Österreich am häufigsten genannten Informationsquellen für Wissenschaft und Technologie. (Bild modifiziert nach ebs_516_science and technology_Infographic.pdf und [9])

Fazit

Das Interesse der Europäer an naturwissenschaftlichen und technologischen Themen ist seit 2010 gestiegen und im EU27-Schnitt höher als an den nicht-wissenschaftlichen Themen Kunst & Kultur, Politik und Sportnachrichten. Allerdings fühlen sich die Menschen über die wissenschaftlichen Themen als nicht sehr gut informiert und diese Situation hat sich seit 2010 nur schwach verbessert. Sowohl Interesse als auch Informiertheit fallen von Nordwest nach Südwest stark ab, wo sich bis zu 37 % der Befragten als desinteressiert und über 50 % als uninformiert bezeichnen.

Es wäre Aufgabe des Fernsehens, das als wichtigste Informationsquelle genannt wird und ebenso des Internets seriöse, leicht verständliche aber auch unterhaltsame naturwissenschaftliche Themen anzubieten, um sowohl das Interesse daran als auch das Wissen zu steigern.


[1] Eurobarometer 55.2 “Wissenschaft und Technik im Bewusstsein der Europäer” (2001)

[2] Spezial-Eurobarometer 340 „Wissenschaft und Technik“; Juni 2010 (175 p.)http://ec.europa.eu/public_opinion/archives/ebs/ebs_340_de.pdf

[3] Spezial- Eurobarometer 401 „Verantwortliche Forschung und Innovation, Wissenschaft und Technologie; November 2013 (223 p.) http://ec.europa.eu/public_opinion/archives/ebs/ebs_401_de.pdf

[4] Special Eurobarometer 419 “Public Perceptions of Science, Research and Innovation” (6.10.2014) http://ec.europa.eu/public_opinion/archives/ebs/ebs_419_en.pdf

[5] J.Seethaler, H.Denk, 17.10.2013: Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme [6]

J.Seethaler, H. Denk Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?

[7] I. Schuster, 28.02.2014: Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401)

[8] I. Schuster, 02.01.2015: Eurobarometer: Österreich gegenüber Wissenschaft*, Forschung und Innovation ignorant und misstrauisch

[9] Special Eurobarometer 516: European citizens’ knowledge and attitudes towards science and technology. 23. September 2021. ebs_516_science_and_technology_report - EN


 

inge Mon, 04.10.2021 - 01:17

Wie Eiweißablagerungen das Gehirn verändern

Wie Eiweißablagerungen das Gehirn verändern

Do, 23.09.2021 — Irina Dudanova

Irina DudanovaIcon Gehirn

  Neurodegenerative Erkrankungen sind verheerende Krankheiten, deren grundlegende Mechanismen noch nicht ausreichend erforscht sind. Ein gemeinsames Merkmal sind Eiweißablagerungen im Gehirn. Fehlgefaltete Proteine, die vom Qualtitätskontrollsystem gesunder Zellen korrigiert oder entsorgt werden, überfordern dieses bei neurodegenerativen Erkrankungen. Dr. Irina Dudanova, Leiterin der Forschungsgruppe "Molekulare Neurodegeneration" am Max-Planck-Institut für Neurobiologie (Martinsried, D), untersucht mit ihrem Team die Auswirkungen dieser Eiweißablagerungen auf Nervenzellen. Dabei kommen histologische und biochemische Methoden, Verhaltensanalysen sowie mikroskopische Untersuchungen an lebenden Organismen (Invitralmikroskopie) zum Einsatz. Mit einem neuen Mausmodell kann das Team erstmals den Zustand der kontrollierten Funktion der Proteine - der Proteostase - in Säugetier-Nervenzellen sichtbar machen. Diese Studien sollen dabei helfen, die Entstehung neurodegenerativer Erkrankungen besser zu verstehen, um in Zukunft effiziente Therapien entwickeln zu können.*  

Manche Gehirnerkrankungen wie die Alzheimer-Krankheit, die Parkinson-Krankheit oder Chorea Huntington zeichnen sich durch fortlaufende Schädigung und Tod von Nervenzellen aus und sind als neurodegenerative Erkrankungen bekannt. Im Verlauf der Erkrankung bilden sich Ansammlungen von fehlgefalteten Eiweißen im Gehirn, die man als Einschlusskörperchen oder Plaques bezeichnet. Welche Wirkung haben diese Eiweißablagerungen auf die Nervenzellen, und wie beeinflussen sie die Gehirnfunktion? Um diese Fragen zu beantworten, forschen wir sowohl an Zellkulturen als auch an Mäusen, die als Modelle der humanen Erkrankungen dienen.

Störungen des Abwehrsystems von Eiweißfehlfaltung

Eiweißablagerungen sind eine Folge von Eiweißfehlfaltung, durch die sich die dreidimensionale Struktur der Eiweiße verändert. Jede Zelle ist mit einem Abwehrsystem gegen Eiweißfehlfaltung ausgestattet. Dazu gehören mehrere Faltungshelfer-Moleküle, die geschädigte Proteine erkennen und reparieren bzw. ihren Abbau fördern, um eine stabile Funktion der Proteine („Proteostase“) in der Zelle zu gewährleisten. Es wird angenommen, dass die Fähigkeiten dieses Abwehrsystems mit dem Alter nachlassen, was zu Proteostasestörungen und zur Eiweißablagerung führt und somit neurodegenerative Erkrankungen begünstigt.

Bisher war es jedoch nicht möglich, diesen Prozess im Mausgehirn im Krankheitsverlauf mikroskopisch zu beobachten. Durch den Einsatz eines fluoreszierenden Sensors ist es uns gelungen, den Proteostase-Zustand in Nervenzellen sichtbar zu machen. Mithilfe dieser Methode kann man nun die Proteostasestörungen bei verschiedenen Krankheiten genauer untersuchen. Wenn das Fehlfaltungsabwehrsystem überfordert ist, bildet der normalerweise diffus verteilte Sensor kleine Punkte innerhalb der Zellen (Abbildung 1). In der Zukunft kann der Sensor dabei helfen, die Wirksamkeit von möglichen Therapien einzuschätzen.

Abbildung 1: Oben: Funktionsweise des Proteostase-Sensors. In gesunden Nervenzellen (links) ist der Sensor gleichmäßig verteilt. Eine Proteostasestörung erkennt man daran, dass der Sensor sich in der Zelle umverteilt und kleine Punkte bildet (rechts). Unten: Proteostasestörung in einem Mausmodell der Alzheimer-Krankheit, das Ablagerungen des Tau-Eiweißes (rot) aufweist. Die Umverteilung des Sensors (grün) ist mit Pfeilen markiert. Nervenzellen sind blau gefärbt. © MPI für Neurobiologie / Dudanova, Blumenstock

Defekte Abfallentsorgung in Nervenzellen

Um die allgemeinen Vorgänge bei der Eiweißablagerung in Zellkultur nachzubilden, haben wir in Kooperation mit Kollegen vom Max-Planck-Institut für Biochemie künstlich erzeugte Proteine eingesetzt, die spontan Einschlusskörperchen bilden. Mithilfe von hochauflösender Elektronenmikroskopie untersuchten wir die Struktur der Nervenzellen mit solchen Ablagerungen im Detail. Dabei fanden wir Veränderungen der Lysosomen, den zellulären Strukturen, die für die Abfallentsorgung zuständig sind. In Anwesenheit von Eiweißablagerungen waren die Lysosomen angeschwollen, sie schienen unverdautes Material zu enthalten. Biochemische Analysen zeigten, dass in den betreffenden Zellen mehrere wichtige Proteine von den Ablagerungen „aufgefangen“ werden und an ihnen kleben bleiben, darunter auch ein Protein, das am Transport struktureller Komponenten der Lysosomen beteiligt ist. Vermutlich führt dies zu unzureichender Funktion der Lysosomen und folglich zu einem Stau im zellulären Entsorgungssystem. Mit unserer gemeinsamen Studie konnten wir somit eine neue Verbindung zwischen Eiweißablagerungen und Beeinträchtigung der Abbauvorgänge in Nervenzellen aufzeigen [1].

Veränderungen der neuronalen Aktivität

Eiweißablagerungen stören auch die Kommunikation der Nervenzellen untereinander innerhalb der neuronalen Netzwerke. Solche funktionellen Veränderungen durch neurodegenerative Erkrankungen sind bisher jedoch nur unzureichend erforscht. Mithilfe intravitaler Mikroskopie, bei der Veränderungen im lebenden Gewebe mikroskopisch sichtbar gemacht werden können, haben wir die Aktivität der Nervenzellen in der motorischen Hirnrinde von Mäusen, die an Chorea Huntington erkrankt waren, über mehrere Wochen hinweg wiederholt gemessen.

Abbildung 2: Die maximale Aktivität einzelner Nervenzellen in der motorischen Hirnrinde einer Kontrollmaus (links) und einer Huntington-Maus (rechts) während einer 15-minütigen Mikroskopie-Sitzung ist mithilfe der Farbskala dargestellt.© MPI für Neurobiologie / Dudanova, Burgold

Überraschenderweise konnten wir bereits vor dem Eintreten der krankheitsbedingten Verhaltensänderungen eine erhöhte Aktivität der Nervenzellen feststellen (Abbildung 2). Histologische Untersuchungen in Chorea Huntington-Mäusen und in humanem Chorea Huntington-Gehirngewebe sowie biochemische Analysen wiesen darauf hin, dass diese Hyperaktivität der Nervenzellen möglicherweise mit unzureichender synaptischer Hemmung im Zusammenhang steht [2]. In zukünftigen Studien wollen wir daher einzelne Typen von hemmenden Nervenzellen genauer unter die Lupe nehmen, die bisher im Kontext der Chorea Huntington-Erkrankung wenig erforscht wurden [3].

Ausblick

Bei jeder neurodegenerativen Erkrankung sind bestimmte Nervenzelltypen besonders früh und stark betroffen, während andere Nervenzellen in ihrer Nähe länger verschont bleiben [4]. Über die Ursachen dieser Unterschiede verbleiben noch viele Fragen. In zukünftigen Untersuchungen wollen wir die molekularen und funktionellen Merkmale der unterschiedlich stark betroffenen Zelltypen in Mausmodellen der Neurodegeneration weiter erforschen. Dies ist wichtig, um zu verstehen, welche von den vielen pathologischen Vorgängen, die im kranken Gehirn stattfinden, bei der Krankheitsentstehung eine entscheidende Rolle spielen.


[1]. Schaefer, T. et al., Amyloid-like aggregates cause lysosomal defects in neurons via gain-of-function toxicity. bioRxiv (2019).https://www.biorxiv.org/content/10.1101/2019.12.16.877431v3

[2]. Burgold, J. et al., Cortical circuit alterations precede motor impairments in Huntington’s disease mice. Scientific Reports 9(1), 6634 (2019). https://www.nature.com/articles/s41598-019-43024-w

[3]. Blumenstock, S.; Dudanova, I. Cortical and striatal circuits in Huntington’s disease. Frontiers in Neuroscience 14, 82 (2020). https://www.frontiersin.org/articles/10.3389/fnins.2020.00082/full

[4]. Fu, H.; Hardy, J.; Duff, K.E. Selective vulnerability in neurodegenerative diseases. Nature Neuroscience 21(10), 1350-1358 (2018). https://www.nature.com/articles/s41593-018-0221-2


* Der vorliegende Artikel von Irina Dudanova ist in dem neuen Jahrbuch 2020 der Max-Planck-Gesellschaft unter dem Titel " Wie Eiweißablagerungen das Gehirn verändern" (https://www.mpg.de/15932560/neuro_jb_2020?c=11659628) erschienen und kann mit freundlicher Zustimmung der MPG-Pressestelle und der Autorin von ScienceBlog.at weiterverbreitet werden. Text und Abbildungen wurden von uns nahezu unverändert übernommen.


Weiterführende Links

Webseite der Irina Dudanova- Forschungsgruppe "Molekulare Neurodegeneration" am Max-Planck-Institut für Neurobiologie (Martinried, D): https://www.neuro.mpg.de/dudanova/de

Fehlerhafte Qualitätskontrolle im Gehirn (19.08.2021): https://www.neuro.mpg.de/news/2021-08-dudanova/de?c=2742

.............................................................................................................

Zur Protein(fehl)faltung aus dem Max-Planck-Institut für Biochemie (Martinsried, D):

F.-Ulrich Hartl:Chaperone - Faltungshelfer in der Zelle.Video 9:11 min. https://www.biochem.mpg.de/4931043/03_Hartl-Chaperone copyright: www.mpg.de/2013

F.-Ulrich Hartl: Die Proteinfaltung. Video 4:38 min.https://www.biochem.mpg.de/4931164/07_Hartl-Proteinfaltung copyright: www.mpg.de/2013

...............................................................................................

Das Gehirn im ScienceBlog:

Rund 10 % aller Artikel - d.i. derzeit mehr als 50 Artikel - befassen sich mit unterschiedlichen Aspekten zu Aufbau, Funktion, Entwicklung und Evolution des Gehirns und - basierend auf dem Verstehen von Gehirnfunktionen - mit Möglichkeiten bisher noch unbehandelbare Gehirnerkrankungen zu therapieren. Ein Themenschwerpunkt Gehirn fasst diese Artikel zusammen.


 

inge Wed, 22.09.2021 - 23:10

Wie viel Energie brauchen wir, um weltweit menschenwürdige Lebensverhältnisse zu erreichen?

Wie viel Energie brauchen wir, um weltweit menschenwürdige Lebensverhältnisse zu erreichen?

Do, 16.09.2021 — IIASA

IIASA Logo IconEnergie

Die Bekämpfung der Armut ist Ziel Nr. 1 der UN-Ziele für Nachhaltige Entwicklung. Um den Lebensstandard zu erhöhen, wäre für viele Menschen eine Zunahme in der Energieversorgung erforderlich. Gleichzeitig wäre aber für das Erreichen der aktuellen Klimaziele des Pariser Abkommens ein niedrigerer Energieverbrauch angezeigt. IIASA-Forscher haben abgeschätzt, wie viel Energie man braucht, um den Armen der Welt ein menschenwürdiges Leben zu ermöglichen und sie haben herausgefunden, dass dies mit Bemühungen zur Erreichung der Klimaziele vereinbar ist.*

Angemessene Lebensstandards (DLS)...

Um die weltweite Armut zu beseitigen und angemessene Lebensstandards ("Decent Living Standards", DLS , d.i. die materielle Grundlage des menschlichen Wohlbefindens) zu erreichen, ist eine ausreichende Energieversorgung die wesentliche Voraussetzung. Trotz internationaler Verpflichtungen wie den UN-Zielen für Nachhaltige Entwicklung (Sustainable Development Goals - SDGs; Anm. Redn.: siehe dazu [1]) gehen die Fortschritte bei der Verwirklichung von DLS weltweit in vielen Bereichen nur langsam voran. Dazu kommen auch Befürchtungen, dass ein besserer Zugang zu Energie zu höheren Emissionen von Kohlendioxid führen könnte, was mit den Zielen zur Eindämmung des Klimawandels interferieren würde.

In einer neuen Studie, die in der Zeitschrift Environmental Research Letters veröffentlicht wurde, haben IIASA-Forscher einen multidimensionalen Ansatz zur Armut angewandt, um eine umfassende globale Untersuchung zu angemessenen Lebensstandards durchzuführen. Die Forscher haben regionsweise (bei insgesamt 193 Ländern; Anm. Redn.) dabei Lücken in den DLS identifiziert und abgeschätzt, wie viel Energie notwendig ist, um sie zu schließen. Sie haben auch ermittelt, wie weit ein menschenwürdiges Leben für alle mit den Klimazielen vereinbar ist. [2]

..... materielle Voraussetzungen....

Armutsstudien verwenden häufig eine einkommensbasierte Definition zur Festlegung von Armutsgrenzen (Schwellenwert: 1,90 USD/Tag für arme Länder oder 5,50 USD/Tag für Länder mit mittleren/hohen Einkommen); dies verschleiert, dass andere Faktoren unmittelbarer zum menschlichen Wohlbefinden beitragen. Im Gegensatz dazu stellen DLS eine Reihe von materiellen Voraussetzungen dar, um für das Wohlbefinden die erforderlichen Dienstleistungen bereitzustellen, wie etwa eine angemessene Unterkunft, Ernährung, sauberes Wasser, sanitäre Einrichtungen, Kochherde und Kühlung sowie die Möglichkeit, sich physisch und sozial über Transport- und Kommunikationstechnologien verbinden zu können. Dies ermöglicht vor allem die Berechnung der Ressourcen, die für die Bereitstellung dieser Basisdienste erforderlich sind.

.... und Lücken in den DLS

Die größten Lücken in den DLS wurden in Afrika südlich der Sahara festgestellt, wo mehr als 60 % der Bevölkerung mindestens die Hälfte der Indikatoren für angemessenes Leben nicht erreichen. Die Forscher identifizierten auch einen hohen Mangel an DLS-Indikatoren wie beispielsweise an sanitären Einrichtungen und Wasserzugang, Zugang zu sauberem Kochen und Heizen in Süd- und Pazifikasien sowie moderatere Lücken in anderen Regionen. Eines der auffälligsten Ergebnisse der Studie war, dass die Zahl der Menschen, die nach DLS einen Mangel in ihren Grundbedürfnissen haben, in der Regel die Zahl der Menschen in extremer Einkommensarmut bei weitem übersteigt, sodass aktuelle Armutsgrenzen oft nicht mit einem menschenwürdigen Leben vereinbar sind.

Abbildung 1. Abbildung 1. Mittlerer Indikator für die Entbehrung angemessener Lebensstandards (DLS). Die Karte zeigt die durchschnittliche Entbehrung angemessener Lebensstandards (DLS) bezogen auf die Bevölkerungszahl von null bis eins. Der regionale Durchschnitt der Bevölkerung mit menschenwürdigem Lebensstandard (farbiger Balken) ist für jede DLS-Dimension (Ernährung bis Transport) von 0 bis 100 % dargestellt.

Auf die Frage, welche Komponenten der DLS die meisten Investitionen in Energie erfordern, haben die Forscher Unterkünfte und Transport identifiziert.

„Der Großteil der Weltbevölkerung verfügt derzeit über keinen angemessenen motorisierten Verkehr. Eine wichtige politische Erkenntnis für nationale Regierungen ist die weitreichende Auswirkung, die Investitionen in den öffentlichen Nahverkehr haben, um damit die Nutzung von Personenkraftwagen zu reduzieren, die im Allgemeinen einen viel höheren Energieverbrauch pro Person haben“, sagt Jarmo Kikstra, Hauptautor der Studie und Forscher im IIASA Energie-, Klima- und Umweltprogramm.

Energiebedarf für die DLS

Die im Voraus erforderliche weltweite Energie für den Bau neuer Häuser, Straßen und für andere Güter, um die Gewährleistung der DLS von 2015 bis 2040 für alle zu ermöglichen, beträgt etwa 12 Exajoule pro Jahr (1 Exajoule -1 EJ = 1018 Joule = ~ 278 TWh; Anm. Redn.). Dies ist nur ein Bruchteil des derzeitigen gesamten Endenergieverbrauchs, der 400 Exajoule pro Jahr übersteigt. Der mit der Zunahme der Dienstleistungen einhergehende Anstieg der jährlichen Betriebsenergie, einschließlich der Wartungskosten, ist substantieller und erhöht sich schließlich um etwa 68 Exajoule. Für einige Länder würde das Erreichen dieses Ziels nachhaltige Veränderungen in der Entwicklung erfordern, die insbesondere im Globalen Süden eine Herausforderung darstellen.

„Für die meisten Länder, insbesondere für viele arme Länder in Afrika, sind ein bislang nicht gekannter Anstieg des Energieverbrauchs sowie ein gerechter verteiltes Wachstum unerlässlich, um DLS vor der Jahrhundertmitte zu erreichen“, fügt Kikstra hinzu. „Daher wird die größte Herausforderung für die Politik darin bestehen, eine gerechte Verteilung des Energiezugangs weltweit zu erzielen, der derzeit noch außer Reichweite ist.“

Laut Studie beträgt die Energiemenge, die weltweit für ein angemessenes Leben benötigt wird, weniger als die Hälfte des gesamten Endenergiebedarfs, der unter den meisten zukünftigen Entwicklungspfaden, die den Temperaturanstieg unter 1,5 °C halten, prognostiziert wird (SSP-Szenarien: Shared Socioeconomic Pathways = gemeinsame sozioökonomische Entwicklungspfade; Anm. Redn.). Abbildung 2. Dies deutet darauf hin, dass das Erreichen der DLS für alle nicht mit den Klimazielen zu interferieren braucht. Während sich deren Verhältnis in verschiedenen Klimaschutzszenarien und je nach Region ändert, bleibt der Energiebedarf für die DLS auf der Stufe größerer globaler Regionen immer deutlich unter dem prognostizierten Energiebedarf.

Abbildung2. Energiepfade für ein menschenwürdiges Leben in einem Szenario, in dem bis 2040 allen Menschen ein menschenwürdiges Leben ermöglicht wird (DLE-2040), und in einem Szenario, in dem die Bereitstellung eines menschenwürdigen Lebens an das Wirtschaftswachstum gekoppelt ist (DLE-BIP). Verglichen wird mit dem Szenario SSP2 - dem „mittleren Weg“, d.i. die bisherige Entwicklung setzt sich in die Zukunft fort – und den mit einem Temperaturanstieg von 2 °C (SSP2-26) und 1,5 °C (SSP2-19) kompatiblen Pfaden. (Bild aus Jarmo S Kikstra et al 2021 [2], von der Redn.eingefügt)

„Um weltweit menschenwürdige Lebensbedingungen zu erreichen, müssen wir anscheinend den Energiezugang zu grundlegenden Dienstleistungen nicht einschränken, da es einen Überschuss an Gesamtenergie gibt. Was vielleicht unerwartet ist, ist, dass selbst unter sehr ambitionierten Armutsbekämpfungs- und Klimaschutzszenarien noch ziemlich viel Energie für Wohlstand zur Verfügung steht“, sagt Studienautor Alessio Mastrucci.

„Unsere Ergebnisse stützen die Auffassung, dass Energie zur Beseitigung der Armut im globalen Maßstab keine Bedrohung für die Eindämmung des Klimawandels darstellt. Um jedoch allen ein menschenwürdiges Leben zu ermöglichen, ist eine Energieumverteilung auf der ganzen Welt und ein bisher nicht dagewesenes Wachstum der Endenergie in vielen armen Ländern erforderlich“, schließt Studienautor Jihoon Min.


[1 ] IIASA, 14.10.2019; Die Digitale Revolution: Chancen und Herausforderungen für eine nachhaltige Entwicklung

[2] Jarmo S Kikstra et al 2021. Decent living gaps and energy needs around the world. Environ. Res. Lett. 16 095006. DOI: 10.1088/1748-9326/ac1c27 Die Arbeit ist open access und unter cc-by lizensiert.

[3] Carbon Brief, 23.08.2018: Welche Fragen stellen Wissenschaftler an Klimamodelle, welche Experimente führen sie durch?


 * Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 2.September 2021 auf der IIASA Webseite unter dem Titel: "How much energy do we need to achieve a decent life for all?" erschienen. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch Untertitel und eine Abbildung aus [2] ergänzt.


 

Energie im ScienceBlog

Energie ist eines der Hauptthemen im ScienceBlog und zahlreiche Artikel haben sich bis jetzt mit deren verschiedenen Aspekten befasst. Das Spektrum der Artikel reicht dabei von Urknall und Aufbau der Materie bis zur Energiekonversion in Photosynthese und mitochondrialer Atmung, von technischen Anwendungen bis zu rezenten Diskussionen zur Energiewende. Ein repräsentativer Teil dieser Artikel - derzeit rund 40 Artikel - ist in einem Themenschwerpunkt "Energie" zusammengefasst : Energie.


 

inge Thu, 16.09.2021 - 00:29

Rindersteaks aus dem 3D-Drucker - realistische Alternative für den weltweiten Fleischkonsum?

Rindersteaks aus dem 3D-Drucker - realistische Alternative für den weltweiten Fleischkonsum?

So 11.09.2021.... Inge Schuster Inge SchusterIcon Politik & Gesellschaft

Ein vor 2 Wochen erschienener Artikel beschreibt, wie aus Stammzellen von Muskelgewebe, Fettzellen und gefäßbildenden Zellen (Endothelzellen) des Wagyu-Rindes erstmals Strukturen mit ähnlicher Konsistenz wie natürlich gewachsenes Fleisch erzeugt wurden. Das Drei-Stufen Verfahren begann mit der Isolierung und Vermehrung der Zellen im Labor. In einem zweiten Schritt wurden diese mittels einer speziellen 3D-Drucktechnik in ein Hydrogel-Stützgerüst pipettiert, wo sie zu Fleisch-typischen Fasern differenzierten, die sich in einem dritten Schritt schlussendlich zu Strukturen mit vergleichbarer Konsistenz wie gewachsenes, "marmoriertes" Fleisch zusammensetzen ließen. Es ist dies zweifellos ein sehr vielversprechender Ansatz! Allerdings müssen die methodischen Details - noch ist der Einsatz von speziellen Nährmedien, Antibiotika und diversen Wachstumsfaktoren unabdingbar - weiter entwickelt und optimiert werden, um zu einem erfolgreichen, leistbaren Massenprodukt zu gelangen, das vom nicht-vegetarisch lebenden Großteil der Menschheit als adäquater Fleischersatz akzeptiert wird.

Die Bekämpfung des Klimawandels und seiner Folgen und die Schaffung einer nachhaltigen Ernährungssicherheit für die weiterhin stark wachsende Erdbevölkerung gehören zweifellos zu den größten Herausforderungen unserer Zeit. Ernährung und Klimasituation können dabei nicht als voneinander unabhängig betrachtet werden: veränderte Klimabedingungen wirken sich unmittelbar auf landwirtschaftliche Erträge aus, das Ernährungssystem wiederum - von Landnutzung über Nahrungsproduktion, Transportkette bis hin zur Abfallwirtschaft - verursacht heute bereits rund ein Drittel der der globalen anthropogenen Treibhausgas-Emissionen (die anderen zwei Drittel stammen aus den Aktivitäten in Industrie, Verkehr und Wohnen )[1]. Ein Großteil der Emissionen kommt dabei aus der industriellen Tierproduktion.

Fleisch und Fleischprodukte

sind die weltweit am häufigsten konsumierten Nahrungsmittel. Der Anteil der vegetarisch/vegan sich ernährenden Menschen lag laut Statista 2020 in nahezu allen Staaten (weit) unter 10 % (selbst in Indien sind nur noch 38 % der Bevölkerung Vegetarier); in Deutschland, Österreich und Schweiz lag der Anteil bei 7 % [2]. Produktion und Konsum tierischer Nahrungsmittel werden nach den Schätzungen der FAO (United Nations Food and Agriculture Organization) bis 2050 noch weiter zunehmen. Abbildung 1.

Abbildung 1. Global wird die Produktion von Fleisch und tierischen Produkten weiter ansteigen. Daten bis2013 und Voraussagen bis 2050 basieren auf Schätzungen der FAO. Angaben in Tonnen. (Bild: https://ourworldindata.org/grapher/global-meat-projections-to-2050. Lizenz : cc-by)

Für die Zunahme werden nicht so sehr die reichen Staaten Nordamerikas oder der EU verantwortlich sein, da diese mit einem jährlichen pro-Kopf- Verbrauch von 70 kg Fleisch und mehr bereits "fleischgesättigt" sind. Es liegt einerseits am globalen Bevölkerungswachstum - nach Berechnungen der UN werden ausgehend von aktuell 7.8 Milliarden Menschen im Jahr 2050 zwischen 8,7 und 10,8 Milliarden Menschen die Erde bevölkern - und auch daran dass aufstrebende Staaten mit wachsendem Wohlstand zu einem erhöhten Fleischkonsum tendieren; insbesondere wird dies für asiatische Länder und hier vor allem für China zutreffen. Wie Analysen aus den letzten Jahrzehnten zeigen, ist der Fleischkonsum ja ein Gradmesser dafür, wie reich Staaten sind. Abbildung 2.

Abbildung 2. In den letzten Jahrzehnten hat die Fleischproduktion in asiatischen Ländern enorm zugenommen. (Bild: https://ourworldindata.org/grapher/global-meat-production. Lizenz : cc-by)

Mehr Nutztiere bedeuten steigende Treibhausgasemissionen. Die für Deutschland berechneten, bei der Produktion von Nahrungsmitteln anfallenden durchschnittlichen Emissionen betragen pro 100 g Rindfleisch 1,23 kg CO2-Äquivalente, pro 100 g eiweißreicher Feldfrüchte (Kartoffel, Hülsenfrüchte, Nüsse) dagegen bei 0,1 kg und weniger CO2-Äquivalente [3]. Mehr Nutztiere benötigen einen gesteigerten Platzbedarf, ein Mehr an Agrárflächen für die Produktion von Futtermitteln und ein Mehr an Wasserverbrauch. Um beispielsweise 1 kg Rindfleisch zu erzeugen, braucht es bis zu 9 kg Futter, bis zu 15 400 l Wasser und eine Fläche bis zu 50 m2 [4).. Von der bewohnbaren Erdoberfläche ( 104 Mio km2) wird heute bereits die Hälfte - 51 Mio km2 - landwirtschaftlich genutzt, davon 77 % (40 Mio km2) für Tierhaltung und Anbau von Tierfutter [5].

Eine zukünftige weitere Expansion von Weide- und Futteranbauflächen auf Kosten der Waldgebiete muss wohl gebremst, ein weiterer, durch Nutztierhaltung verursachter Anstieg von Treibhausgasen verhindert werden.

Fleischersatz

Dass bis 2050, d.i. innerhalb einer Generation, der Appetit auf Fleisch stark abnehmen und der Anteil der Vegetarier rasant steigen wird, ist ohne diktatorische Maßnahmen wohl kaum erreichbar. Eine Änderung der Konsumgewohnheiten ist nur denkbar, wenn gesunde alternative Ernährungsmöglichkeiten verfügbar sind, wenn ein von Textur und Geschmack akzeptabler, preiswerter Fleischersatz - "Laborfleisch" - angeboten wird.

Prinzipiell sind hier zwei Wege des Fleischersatzes möglich: i) Produkte, die auf eiweißreichen Pflanzen basieren, in ihren Inhaltsstoffen optimiert werden und mit Bindemitteln, Farben, Wasser und Aromen Aussehen und Geschmack von Fleischprodukten nachahmen und ii) Produkte, die aus den Muskelzellen unserer Nutztiere hergestellt werden. In den meisten Fällen wird auf beiden Wegen dabei unstrukturiertes Material mit der Textur von Hackfleisch erzeugt, die im Wesentlichen zu Burger und Wurstwaren verarbeitet werden.

Pflanzenbasierte Produkte - Ausgangsstoffe sind u.a. Soja, Erbsen, Bohnen, Getreide, Pilze - sind bereits auf dem Markt sind und erfreuen sich steigender Nachfrage. Hier sind vor allem die Produkte von Beyond Meat (das bereits in Fast-Food Ketten angeboten wird) und Impossible Meat zu nennen.

Fleischzucht im Labor ...........

Hier sind aus Muskel- und Fettgewebe von Tieren isolierte Stammzellen das Ausgangsmaterial, die mittels Zellkulturtechniken in Bioreaktoren vermehrt werden. Bereits 2013 wurde an der Universität Maastricht der erste aus solchen Zellen erzeugte Burger verkostet - auf Grund der teuren Nährmedien, Wachstumsfaktoren und anderer Zusätze belief sich damals sein Preis auf 250 000 €. Die Erwartung von Milliarden-Umsätzen hat seitdem mehr als 74 Unternehmen - große Konzerne wie Merck oder Nestle und auch viele kleine und mittelgroße Firmen - auf den Plan gerufen, die an der Entwicklung von leistbarem und geschmacklich akzeptierbaren in vitro-Fleisch für den Massenkonsum arbeiten. Dabei geht es vielfach - wie oben erwähnt - um unstrukturiertes Laborfleisch, also um Hackfleisch-artige Produkte und daraus erzeugte Wurstwaren. Strukturiertes Steak-ähnliches Fleisch ("whole cuts") entsteht aus einer Kombination von gezüchteten Fleischzellen und einem Gerüst aus Pflanzenprotein (z.B. Soya), in welches die tierischen Zellen hineinwachsen. Die Kosten konnten zwar bereits enorm gesenkt werden, u.a. durch den Einsatz von pflanzlichem Material und pflanzenbasierten Zusätzen, im Vergleich zu authentischem Fleisch sind sie aber noch viel zu hoch.

Im Juni 2021 hat nun die in Rehovot (Israel) ansässige Firma Future Meat die weltweit erste Firma eröffnet, die Laborfleisch in größerem Maßstab - das sind aber bloß erst 500 kg (d.i. 5 000 Burger) pro Tag - und zu einem Preis von US 40 $/kg herstellen will. Die Steaks vom Huhn oder Lamm sind, wie oben erwähnt, Hybride (50:50?) aus tierischem und pflanzlichen Material und noch immer erheblich teurer als normal gewachsenes Fleisch.. Gespräche mit der amerikanischen FDA zur möglichen Einführung auf dem US-Markt wurden begonnen.

........und ein Mini-Steak vom Wagyo-Rind

Die Erzeugung fleischtypischer Strukturen ausschließlich aus tierischen Zellen ist wesentlich komplizierter und aufwendiger. Eine japanische Forschergruppe von der Universitär Osaka hat hier nun offensichtlich einen Meilenstein gesetzt. Es wurden erstmals Stammzellen für alle wesentlichen Fleischkomponenten - Muskelfasern, Fettgewebe und Blutgefäße - isoliert, vermehrt, mittels 3D-Druck zu fleischtypischen Faserstrukturen gezogen und diese sodann zu Ministeaks - in diesem Fall zur für das Wagyo-Rind charakteristischen "marmorierten" Textur- zusammengebaut [6] . Das in drei Schritten ablaufende Verfahren ist in Abbildung 3 zusammengefasst.

Abbildung 3. IAus den Stammzellen des Muskel- und Fettgewebes des Wagyo-Rinds In 3 Schritten zum in vitro-Ministeak. Oben rechts: wie Fleisch in vivo aufgebaut ist. Schritt 1: Isolierung und Reinigung von Satelliten-Stammzellen des Muskels (bovine satellite cells - bSCs) und von Fettgeweben stammenden Zellen (bovine adipose-derived stem cells - bADSCs ). Schritt 2: 3D-Druck von bSCs und bADSCs um Muskel-, Fett- und Gefäßfasern zu erzeugen. Schritt 3: Zusammensetzung der Fasern und Verklebung mittels Transglutaminase zu einer für Steaks typischen marmorierten Struktur. (Bild modifiziert nach Kang et al,. (2021) [6], die Arbeit ist unter cc-by lizensiert.)

Schritt 1: Ein frisch geschlachtetes Wagyu-Rind lieferte das Ausgangsmaterial für 2 Sorten von Stammzellen; diese wurden aus Muskelgewebe (bovine satellite cells - bSCs) und aus Fettgewebe (bovine adipose-derived stem cells -bADSCs) isoliert. In speziellen Nährmedien kultiviert entstanden aus den bSCs Muskelzellen, die bADSCs differenzierten zu reifen Fettzellen (Adipozyten) und unter veränderten Kulturbedingungen zu Blutgefäß-Zellen (Endothelzellen). Die einzelnen Zelltypen wurden nun unter jeweils optimierten Kulturbedingungen vermehrt.

Schritt 2: Mittels einer speziellen 3D-Drucktechnik - dem "Sehnen Gel-Druck" (Tendon-Gel-imprinted Bioprinting - TIP) wurden Suspensionen der einzelnen Zelltypen ("bio-ink") in ein von senkrechten Kanälchen durchzogenes Hydrogel-Stützgerüst aus Gelatine pipettiert, wo begrenzende Kollagen-Gel-"Sehnen" (Tendon-Gel) sie dann zu Fleisch-typischen Muskelfasern, Fettzellsträngen und Blutkapillaren wachsen ließen (Abbildung 4).

Schritt 3: Die Fasern wurden schlussendlich zu Strukturen mit vergleichbarer Konsistenz und Struktur wie gewachsenes, "marmoriertes" Fleisch zusammengesetzt und durch Zugabe des auch in vivo präsenten Enzyms Transglutaminase miteinander "verklebt". Insgesamt ergaben 42 Muskelfasern, 28 Fettstränge und 2 Blutkapillaren ein etwa 1 x 1 x 0,5 cm marmoriertes Mini-Steak (Abbildung 4, unten).

Abbildung 4. Mittels einer speziellen 3D-Drucktechnik werden Muskel-, Fett- und Gefäßzellen zu fleischtypischen Strukturen geformt und zu einem etwa 1 cm langen, 0,5 cm dicken Steak zusammengebaut. Bild modifiziert nach Kang et al., (2021) [6]( Lizenz: cc-by). 3D-Printer und Fasern sind screenshots aus den Supplementary Movies 5, 6, 7 und 8. Der Zusammenbau im unteren Teil des Bildes stammt aus Figure 5: Die Anordnung der Fasern in kommerziellem Wagyu-Fleisch ist in der oberen Reihe links und Mitte (Färbung: Actinin dunkel, Laminin braun) gezeigt , darunter ist das Mini-Steak von oben und im Querschnitt (Muskelfleisch und Gefäße sind rot gefärbt, Fett ist ungefärbt; der weiße Balken ist 2mm lang).

Ein noch langer Weg bis zu einem ökonomisch akzeptablen Produkt

Das Mini-Steak kommt in Aussehen, Textur und Geschmack einem authentischen Fleischstück sicherlich sehr nahe und kann durch veränderte Relationen der Komponenten noch viel mehr an jeweilige Präferenzen angepasst werden. Ein solches zu 100 % aus Fleischzellen bestehendes Produkt könnte auch Akzeptanz bei vielen Fleischessern finden, denen pflanzenbasierter und/oder hybrider pflanzen- und tierbasierter Fleischersatz zu artifiziell erscheint.

Um derartiges Fleisch in industriellem Maßstab und zu einem akzeptablen Preis erzeugen zu können, ist allerdings noch ein sehr weiter Weg zu gehen, sehr viel an Entwicklungsarbeit zu leisten.

Nehmen wir an, dass das Upscaling vom Laborexperiment zur Produktion in größerem Maßstab bewältigt werden kann, so sind meiner Ansicht nach vor allem zwei massive Probleme hervorzuheben:

Zur Erzeugung des Wagyo-Steaks haben alle Prozesse, die zu Muskel-, Fett- und Endothelzellen, zu deren Vermehrung, Formgebung und schließlich Zusammenbau führten, in Nährlösungen stattgefunden, die neben Zell-spezifischen Wachstumsfaktoren und anderen Zusätzen immer auch fötales Kälberserum (FBS) und einen Mix aus Antibiotika (immer Penicillin, Streptomycin), in einigen Prozessen auch Amphotericin enthielten.

Fötales Kälberserum enthält eine Vielfalt von Hormonen und Wachstumsfaktoren, die für das Kultivieren von Zellen benötigt werden und ist enorm teuer (derzeit kosten 500 ml bei Sigma-Aldrich etwa 644 €). Es wird aus dem Blut von Kalbsföten gewonnen, die, aus dem Leib ihrer Mütter herausgeschnitten, durch Herzpunktion etwa 0,5 l Blut pro Fötus liefern. Um ausreichend Serum für eine großindustrielle Herstellung von Fleischersatz zur Verfügung zu haben, würden wohl Hunderttausende trächtige Rinder gebraucht. Es müssen also um Größenordnungen billigere, dennoch effiziente Nährmedien gefunden werden.

Ein weiteres Problem ist die doch längerdauernden Prozesse ohne Zusatz von Antibiotika/Antimykotika auszuführen (auch unter rigoroser Einhaltung antiseptischer Bedingungen plus Antibiotika Zugabe gab es in meinem Labor selten aber doch vor allem mit Mykoplasmen kontaminierte Zellkulturen).

Dazu kommt dann noch der Bedarf an speziellen kostspieligen Biomarkern, an Wachstumsfaktoren und vielen anderen Zusätzen, die zur Herstellung der Endprodukte benötigt werden und diese noch zunehmend verteuern.

Ist also eine industrielle Herstellung von derartigen Ministeaks möglich? Die Antwort ist: prinzipiell ja. Zuvor ist aber noch sehr viel an Entwicklungsarbeit zu leisten.


  [1] Crippa M. et al., (2021) Food systems are responsible for a third of global anthropogenic GHG emissions. Nature Food 2, 198 - 209

[2] Länder mit dem höchsten Anteil von Vegetariern an der Bevölkerung weltweit im Jahr 2020: https://de.statista.com/prognosen/261627/anteil-von-vegetariern-und-veganern-an-der-bevoelkerung-ausgewaehlter-laender-weltweit

[3] IFEU-Institut für Energie- und Umweltforschung Heidelberg: CO2-Rechner: https://www.klimatarier.com/de/CO2_Rechner

[4] Das steckt hinter einem Kilogramm Rindfleisch (2017)https://albert-schweitzer-stiftung.de/aktuell/1-kg-rindfleisch

[5]Global land use for food production. https://ourworldindata.org/environmental-impacts-of-food?country

[6] Kang, DH., Louis, F., Liu, H. et al. Engineered whole cut meat-like tissue by the assembly of cell fibers using tendon-gel integrated bioprinting. Nat Commun 12, 5059 (2021). https://doi.org/10.1038/s41467-021-25236-9


 

inge Sat, 11.09.2021 - 17:15

Das Privatleben der Braunalgen: Ursprünge und Evolution einer vielzelligen, sexuellen Entwicklung

Das Privatleben der Braunalgen: Ursprünge und Evolution einer vielzelligen, sexuellen Entwicklung

Do, 02.09.2021 — Susana Coelho

Icon Meere

Susana Coelho Braunalgen sind vielzellige Eukaryonten, die sich seit mehr als einer Milliarde Jahren unabhängig von Tieren und Pflanzen entwickelt haben. Sie haben eine faszinierende Vielfalt an Körpermustern und Fortpflanzungsmerkmalen erfunden, deren molekulare Basis noch vollkommen unerforscht ist. Dr.Susana Coelho, Direktorin am Max-Planck-Institut für Entwicklungsbiologie(Tübingen), und ihr Team nutzen den Reichtum an morphologischen und sexuellen Merkmalen dieser rätselhaften Organismen, um Licht in den Ursprung der Mehrzelligkeit und in die Evolution der Bestimmung des biologischen Geschlechts innerhalb des gesamten eukaryontischen Lebensbaums zu bringen.*

Vor der Küste gibt es magische Unterwasserwälder …

Eine Welt riesiger Braunalgen, bekannt als Kelp, lebt gemeinsam mit Tausenden anderer Arten von Rot-, Braun- und Grünalgen, alle als Seetang bezeichnet, und bietet ein Kaleidoskop an Farben und Mustern (Abbildung 1). Diese Unterwasserwälder sind eine der artenreichsten Umgebungen auf unserem Planeten, die eine Vielzahl unterschiedlicher Meereslebewesen beherbergen. Algen sind nicht nur wichtige Bestandteile der Ökosysteme unserer Erde, sondern sie produzieren auch die Hälfte des Sauerstoffs, den wir in Küstengebieten atmen, und spielen eine Schlüsselrolle bei der Kohlenstoffbindung im Meer. Seetang wurde zum Schlagwort für Futuristen und wird zunehmend als Nahrungsquelle und für die Kosmetik- und Pharmaindustrie sowie zur Herstellung biologisch abbaubarer Kunststoffe verwendet.

Abbildung 1. Abbildung 1. Eine Welt riesiger Braunalgen lebt gemeinsam mit Tausenden anderer Arten von Rot-, Braun- und Grünalgen und bietet ein Kaleidoskop an Farben und Mustern.© W. Thomas, Centre national de la recherche scientifique (CNRS), Frankreich

... aber wir wissen so wenig über diese erstaunlichen Organismen

Obwohl sie auf Sonnenlicht angewiesen sind, um Photosynthese zu betreiben, sind Braunalgen keine Pflanzen. Sie haben keine Wurzeln, Blätter oder Stängel, um Nährstoffe zu transportieren. Stattdessen bezieht jede Zelle das, was sie braucht, direkt aus dem Meerwasser. Braunalgen haben sich vor mehr als einer Milliarde Jahren unabhängig von Tieren und Landpflanzen entwickelt. Ihr letzter gemeinsamer Vorfahre war ein Einzeller, was bedeutet, dass Tiere, Pflanzen und Braunalgen die Mehrzelligkeit eigenständig erfunden haben.

Braunalgen sind die drittkomplexeste vielzellige Abstammungslinie auf unserem Planeten, wobei einige Arten eine Länge von mehr als 50 Metern erreichen und eine bemerkenswerte Vielfalt an Wachstumsgewohnheiten, Lebenszyklen und Geschlechtsbestimmungssystemen aufweisen. Während bisher enorme Anstrengungen unternommen wurden, die Entwicklungs- und Reproduktionsbiologie von Tieren und Landpflanzen zu verstehen, wurden Braunalgen fast vollständig ignoriert, und es ist nur sehr wenig darüber bekannt, wie diese Organismen auf molekularer Ebene funktionieren.

Meeresalgen helfen, grundsätzliche Fragen der Evolutions- und Entwicklungsbiologie zu beantworten

In unserer Abteilung widmen wir uns denjenigen Prozessen, die dem Übergang vom Einzeller zur komplexen Multizellularität zugrunde liegen - einem wichtigen evolutionären Ereignis, das bei Eukaryonten nur selten aufgetreten ist. Wir verwenden eine Reihe von computergestützten und experimentellen Ansätzen und nutzen die Vielfalt der morphologischen und reproduktiven Merkmale der Meeresalgen.

Wir haben Ectocarpus, eine kleine filamentöse Braunalge, als Modellorganismus gewählt, um die molekularen Grundlagen ihres Wachstumsprozesses zu untersuchen. Ectocarpus weist ein relativ einfaches Entwicklungsmuster mit wenig verschiedenen Zelltypen auf. Durch ultraviolette Bestrahlung wurden Entwicklungsmutanten erzeugt, und die betroffenen Gene wurden durch klassische genetische Analyse identifiziert. Danach wurden mehrere dieser Mutanten eingesetzt, um die Bildung bestimmter Entwicklungsmuster zu verstehen. So haben wir gefunden, dass Mutationen im Gen DISTAG (DIS) bei Dis-Mutanten zu architektonischen Anomalien in der keimenden Ausgangszelle führen, einschließlich einer Vergrößerung der Zelle, einer Desorganisation des Golgi-Apparats, einer Störung des Mikrotubuli-Netzwerks und einer anomalen Positionierung des Zellkerns. DIS kodiert TBCCd1, ein Protein, das eine zentrale Rolle bei der Zellorganisation auch bei Tieren, Grünalgen und Trypanosomen spielt - also über extrem entfernte eukaryotische Gruppen hinweg. Dieses Resultat könnte uns den Weg weisen, zu verstehen, wie der genetische Werkzeugkasten des letzten gemeinsamen Vorfahren aller Eukaryoten beschaffen war, und wie sich bestimmte Merkmale im vielzelligen Leben entwickelt haben.

Vögel tun es, Bienen tun es, und Algen tun es auch

Die Entwicklung des Geschlechts und geschlechtsbezogener Phänomene beschäftigt und fasziniert Biologen seit Jahrhunderten, und viele Fragen zur evolutionären Dynamik der sexuellen Fortpflanzung bleiben noch unbeantwortet. Wir verwenden unsere Braunalgen, um den Ursprung und die Entwicklung der Geschlechtschromosomen zu verstehen. Wir haben entdeckt, dass bei den meisten Braunalgen das weibliche Geschlecht durch ein einziges sogenanntes „U“-Geschlechtschromosom bestimmt wird, während das männliche Geschlecht durch ein einziges „V“-Geschlechtschromosom bestimmt wird. Diese Organisation steht im Gegensatz zum Geschlechtschromosomensystem vieler Tiere, bei dem die Männchen ein Y- und ein X-Chromosom und die Weibchen zwei X-Chromosomen tragen. Obwohl das U/V-System auf den ersten Blick sehr unterschiedlich zum tierischen – und menschlichen - XX/XY System scheint, hat unsere Arbeit gezeigt, dass alle diese Geschlechtschromosomen universelle Merkmale aufweisen, darunter die Unterdrückung der Rekombination, die Anhäufung repetitiver DNA, die Bewegung von Genen vom Geschlechtschromosom zu den anderen Chromosomen und das Vorhandensein eines Master-Switch-Gens, das das biologische Geschlecht innerhalb der sich nicht rekombinierenden Genomregion bestimmt.

Bei Eukaryonten wurden bislang nur wenige Hauptgene für die Bestimmung des biologischen Geschlechts identifiziert. Unter diesen Hauptgenen sind Proteine der High-Mobility-Group-(HMG)-Domäne in die Bestimmung des biologischen Geschlechts bei Wirbeltieren und Pilzen involviert. Bemerkenswerterweise haben wir ein HMG-Domänen-Gen auch im V-Chromosom von Ectocarpus und allen anderen männlichen Braunalgen, die wir untersucht haben, identifiziert. Dieses Gen ist daher ein Kandidat für das geschlechtsbestimmende Hauptgen in Meeresalgen, was wichtige Fragen über die Evolution der geschlechtsbestimmenden Gen-Netzwerke in den Eukaryonten insgesamt aufwirft.

Unsere Forschung an Braunalgen wird dazu beitragen, unser Wissen zu erweitern, wie Geschlechtschromosomen und die Bestimmung des biologischen Geschlechts funktionieren, indem sie evolutionären Modellen eine breitere phylogenetische Dimension verleiht.


*Der vorliegende Artikel von Susana Coelho ist in dem neuen Jahrbuch 2020 der Max-Planck-Gesellschaft unter dem Titel " Das Privatleben der Braunalgen: Ursprünge und Evolution einer vielzelligen, sexuellen Entwicklung" (https://www.mpg.de/16324504/eb_jb_20201?c=151755)erschienen und kann mit freundlicher Zustimmung der MPG-Pressestelle und der Autorin von ScienceBlog.at weiterverbreitet werden. Text und Abbildung wurden unverändert übernommen.


Weiterführende Links

Max-Planck-Institut für Entwicklungsbiologie, Abteilung für Algen-Entwicklung und Evolution: https://www.eb.tuebingen.mpg.de/de/department-of-algal-development-and-evolution/home/

usoceangov: Underwater Kelp Forests (2009). Video 3:13 min. https://www.youtube.com/watch?v=GcbU4bfkDA4

The Nature Conservancy in California: Virtual Dive: Kelp Forests off the California Coast (2020). Video 2:15 min. https://www.youtube.com/watch?v=8LZz7DJyA10

Erlendur Bogason: The Seaweed Jungle (2014). Video 3:16 min; https://www.youtube.com/watch?v=hQ6tNi3FLhU

Wikipedia: Brown algae  https://seaiceland.is/what/algae/brown-algae

--------------------------------------------------------

Algen im ScienceBlog:

Georg Pohnert, 14.11.2019: Plankton-Gemeinschaften: Wie Einzeller sich entscheiden und auf Stress reagieren

Christian Hallmann, 20.11.2015: Von Bakterien zum Menschen: Die Rekonstruktion der frühen Evolution mit fossilen Biomarkern


 

inge Wed, 01.09.2021 - 18:07

Weltweite Ausbreitung der Delta-Variante und Rückkehr zu Großveranstaltungen

Weltweite Ausbreitung der Delta-Variante und Rückkehr zu Großveranstaltungen

Do, 26.08.2021 — Ricki Lewis

Ricki LewisIcon Medizin Vor wenigen Tagen ist ein Bericht über ein Popkonzert-Experiment erschienen, das vor einem Jahr stattgefunden hat; das Ziel war das Risiko einer SARS-CoV-2 Verbreitung bei Massenveranstaltungen in geschlossenen Räumen zu evaluieren und gegebenenfalls zu reduzieren. Die Genetikerin Ricki Lewis fragt hier, inwieweit die aus dem Experiment gewonnenen Ergebnisse und erstellten Modelle zu Belüftungs- und Hygienemaßnahmen auch noch in der Welt der ansteckenderen und sich rascher verbreitenden Delta-Variante gelten und wie man weiteren noch kommenden Varianten begegnen sollte.*

Ein "Popkonzert-Experiment“ simuliert Virusausbreitung

Heute früh (d.i. am 19.August 2021; Anm. Redn) habe ich mich über eine neue Veröffentlichung gefreut, die unter dem Titel „Das Risiko von Hallensport- und Kulturveranstaltungen für die Übertragung von COVID-19“ im Journal Nature Communications erschienen ist [1]. Stefan Moritz und Kollegen in Deutschland haben im August 2020 „ein Popkonzert-Experiment“ veranstaltet (Abbildung 1) und festgestellt, dass bei guter Belüftung und „geeigneten Hygienemaßnahmen“ die virusverbreitenden Aerosole und Tröpfchen in Grenzen gehalten werden können.

Abbildung 1: Rückkehr zu Massenveranstaltungen in geschlossenen Räumen. (Symbolfoto von Redn eingefügt, Quelle: Pixabay, c 0)

Die 1.212 Besucher haben Monitore getragen, die ihre Bewegungen registrierten und waren jeweils einem „Hygiene-Szenario“ zugeordnet:

  • ohne Einschränkungen - d.i. Szenario wie vor der Pandemie
  • mit moderaten Einschränkungen (Schachbrettbestuhlung und Verdopplung der Eingänge)
  • mit starken Einschränkungen (Sitzplatzabstand 1,5 m und Vervierfachung der Eingänge).

Im Durchschnitt hatte jeder Konzertbesucher Kontakte mit neun anderen, zumeist beim Hinein- und Herausgehen. Personen im Szenario "ohne Einschränkungen" hatten während der gesamten Veranstaltung Kontakte von mehr als 5 Minuten, im Vergleich dazu gab es in den anderen Szenarien wenige und kurze Begegnungen.

Basierend auf diesen anfänglichen Ergebnissen entwickelten die Forscher ein Modell mit der Annahme, dass sich in einem geschlossenen Raum unter 4.000 Besuchern 24 infektiöse Personen befinden, wobei zwei Belüftungsszenarien mit unterschiedlichen Luftaustauschraten und Luftströmungen und das Tragen von Masken in das Modell eingingen. Bei einem schnelleren Luftaustausch gab jede infizierte Person das Virus im Durchschnitt an 3,5 andere Personen weiter. Bei langsameren Luftaustausch wurde das Virus auf 25,5 Menschen verbreitet – d.i. mehr als eine siebenfache Steigerung. Das Tragen von Masken reduzierte die Übertragung .

Die Schlussfolgerung der Forscher: „Das Infektionsrisiko bei Massenveranstaltungen in geschlossenen Räumen hängt maßgeblich von der Qualität des Lüftungssystems und den Hygienepraktiken ab. Unter der Voraussetzung eines effektiven Belüftungssystems haben Massenveranstaltungen in Innenräumen bei geeigneten Hygienepraktiken - wenn überhaupt - einen sehr geringen Einfluss auf die Ausbreitung der Epidemie“.

Das aber war damals. Vor einem Jahr.

Die Delta-Variante und das Popkonzert-Experiment

Das Konzert-Experiment in Deutschland hat für das Virus eine zu optimistische Reproduktionszahl R0 = 1 verwendet, das heißt, ein Infizierter gibt das Virus im Durchschnitt an einen anderen weiter. Tatsächlich hatte das ursprüngliche SARS-CoV-2 einen R0-Wert von 2,3 bis 2,7, die Alpha-Variante, die in Großbritannien ihren Ausgang nahm, hatte ein R0 von 4 bis 5 und die Delta-Variante, die jetzt auf der ganzen Welt stark ansteigt, ein R0 von 5 bis 8. (Abbildung 2)

Abbildung2: Die Delta-Variante verursacht höhere Infektionszahlen und verbreitet sich rascher als frühere Formen des SARS-CoV-2- Virus. (Bild von Redn. eingefügt. Quelle: US-Center for Disease Control and Prevention, update vom 19.8.2021: https://www.cdc.gov/coronavirus/2019-ncov/variants)/delta-variant.html.

Die Zeiten haben sich geändert und die Millionen (in den USA) von Nichtgeimpften haben es dem Virus ermöglicht, ausreichend umherzufliegen, um zu einer höheren Übertragbarkeit zu mutieren.

Aber wie haben sich frühere Inkarnationen des Virus in Delta verwandelt? Es stellt sich heraus, dass hinter der schnelleren Übertragbarkeit die allerkleinste Veränderung steckt – es ist nur eine RNA-Base, die in einem entscheidenden Teil des Spike-Proteins gegen eine andere ausgetauscht wird. Eine einzelne, einfache Mutation, eine der neun, welche die Delta-Variante ausmachen, findet globales Echo. (https://www.cdc.gov/coronavirus/2019-ncov/variants/delta-variant.html.)

Wie die Delta-Variante die Welt so schnell erobert hat

Die Viren sind mit Stacheln dekoriert, die sich an unseren Zellen festsetzen, wie Seeigel, die sich in Sand graben. Jedes Spike-Protein besteht aus zwei Teilen: S1, das den Spike mit der menschlichen Zelle fusioniert, und S2, das das Virus in die Zelle bringt. S1 und S2 müssen allerdings auseinander geschnitten werden, um ihre Aufgaben zu erfüllen.

Die Mutation, die den Eintritt von Delta in unsere Zellen beschleunigt, genannt P681R, verformt die Schnittstelle von S1 und S2 auf eine Weise, die das Schnippseln beschleunigt, wodurch das Virus viel schneller mit der Zelle fusioniert und eindringt (ein bisschen so, wie wenn im deutschen Rockkonzert-Szenario die Türen weiter geöffnet werden, damit mehr Personen schneller eintreten können). Wie dies alles abläuft, hat ein Team an der University of Texas Medical Branch in einer eleganten Reihe von Experimenten gezeigt; die Ergebnisse sind als Preprint verfügbar (https://www.biorxiv.org/content/10.1101/2021.08.12.456173v1)  Genetische Anweisungen des Virus infiltrieren dann die Wirtszelle, sodass sie neue Viren herstellt, verpackt und mit diesen schlussendlich explodiert.

(Nebenbei notiert: P681R bezieht sich auf den Austausch eines Arginins (R) gegen ein Prolin (P) an Position 681 im Spike-Protein und resultiert aus einer einzelnen RNA-Basenänderung. Das Spike-Protein ist eine Kette von 1273 Aminosäuren – daher stammt der ursprüngliche Name des Moderna-Impfstoffs, mRNA- 1273.)

Abbildung3: Die Struktur des SARS-CoV-2 Spike-Proteins in einer Präfusions-Konformation (Code 6VSB). Strukturanalyse mittels Kryoelektronenmikroskopie bei 3,46 Angstrom Auflösung.(Bild von Redn. eingefügt, Quelle: Datenbank  https://www.rcsb.org/3d-view/6VSB/1,)

DiePosition 681 im Spike-Protein ist auch deshalb von Interesse, weil sie ein Ziel für ein proteinschneidendes Enzym namens Furin ist. Abbildung 3. Die „Furin-Spaltungsstelle“ ist von zentraler Bedeutung für die „Laborleck“-Hypothese zum Ursprung des Virus.

Die 4 Aminosäuren lange Stelle in der Spitze, an der Furin schneidet, bildet eine Signatur, die mittels Algorithmen zwischen den verschiedenen Spezies verglichen wird, um daraus die Entwicklung des neuartigen Coronavirus abzuleiten. Furin-Spaltungsstellen wurden in bestimmten Typen von Coronaviren gefunden, die von Nagetieren oder Fledermäusen stammten, aber nicht in den nächsten bekannten Verwandten von SARS-CoV-2; so kam die Idee eines im Labor hergestellten Fledermaus-Coronavirus auf, das dann zu SARS-CoV-2 führte. Oder aber: wir haben die nächsten verwandten Virustypen nur noch nicht identifiziert. Die Wissenschaft bietet nie einen festen Beweis und häuft selten Befunde zu umfassenden Theorien an. Stattdessen untersuchen wir alternative Hypothesen - eine nach der anderen -, um Wissen zu vermehren und neue Fragen zu stellen.

Fazit

Gelten die in in der heutigen Publikation in Nature Communications beschriebenen Ergebnisse des Popkonzert-Experiments, die ausreichende Belüftungs- und Hygienemaßnahmen zur Eindämmung der Virusausbreitung bei Massenversammlungen in Innenräumen proklamierten, auch in der Welt der Delta-Variante? Wie werden es Maßnahmen im Bereich der öffentlichen Gesundheit für noch kommende Varianten halten? Was werden ähnliche Simulationen ergeben, wenn das Publikum nach dem Impfstatus analysiert wird, etwas, das vor einem Jahr noch nicht möglich war?

Wir wissen es nicht. Aber eines wissen wir mit Sicherheit: Mutation und Evolution sind Naturgewalten, die wir nicht kontrollieren können. Neue Mutationen werden aus Replikationsfehlern entstehen, sich zu sogenannten Varianten kombinieren und Populationen positiver natürlicher Selektion durchlaufen, wenn sie für das Virus von Vorteil sind, wie es für die P681R-Mutation in der Delta-Variante der Fall ist.

Da wir die Kräfte der Natur nicht ändern können, müssen wir mit den Waffen, die wir bereits haben, alles einsetzen, was möglich ist – Impfstoffe, Distanzierung, Masken. Aber um gesund zu bleiben, denke ich, dass es gut ist, ab und zu einen Hauch von Normalität zu erleben.

--------------------------------------------------

[1] Stefan Moritz et al., The risk of indoor sports and culture events for the transmission of COVID-19. Nat Commun 12, 5096 (19.8.2021). https://doi.org/10.1038/s41467-021-25317-9.


* Der Artikel ist erstmals am 19.August 2021 in PLOS Blogs - DNA Science Blog unter dem Titel "Returning to Live Music and How a Tiny Mutation Sent Delta All Over the World" https://dnascience.plos.org/2021/08/19/returning-to-live-music-and-how-a-tiny-mutation-sent-delta-all-over-the-world/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Passende Abbildungen und Legenden wurden von der Redaktion eingefügt.


Artikel zum Thema COVID-19 im ScienceBlog:

Vom Beginn der Pandemie an waren bis jetzt 36 Artikel (rund 50 % aller Artikel), darunter 5 Artikel von Ricki Lewis, diesem Thema gewidmet. Die Links zu diesen Artikeln finden sich im Themenscherpunkt Viren.


 

inge Thu, 26.08.2021 - 18:56

Klimawandel kann die Verbreitung von Pflanzenpathogenen steigern

Klimawandel kann die Verbreitung von Pflanzenpathogenen steigern

Do, 19.08.2021 — Redaktion

RedaktionIcon Klima

  Die globale Nahrungssicherung hängt in erster Linie von der Produktion von Kulturpflanzen und deren Ernteerträgen ab. Eine neue Studie untersucht die Auswirkungen des Klimawandels auf die Produktion wichtiger Pflanzensorten und findet zwar deren gesamthafte Intensivierung, zum Teil weil neue Anbaugebiete in höheren Breitegraden erschlossen werden. Allerdings deuten die Modelle auch darauf hin, dass die Erwärmung die Ausbreitung pathogener Erreger von Pflanzenkrankheiten (wie Pilzen und Oozyten) forcieren und damit potentielle Ertragssteigerungen beeinträchtigen wird.*

Prognosen zur landwirtschaftlichen Produktivität .......

Die Auswirkungen des Klimawandels auf die Landwirtschaft wären etwas weniger kompliziert, wenn sie sich in einer Welt abspielten, in der die Kulturpflanzen frei von ihren Mikroben wären. In solch einer hypothetischen Landschaft würden - laut einer eben veröffentlichten Studie - die steigenden globalen Temperaturen die gesamte landwirtschaftliche Produktivität intensivieren, zum Teil weil neue, den Polen nahe Anbaugebiete erschlossen werden, die zuvor zu kalt für die Landwirtschaft waren [1].

...müssen auch die Interaktion von Pflanzen mit ihren Krankheitserregern berücksichtigen

Die obige Folgerung vereinfacht aber zu stark, sagt Studienautor Dan Bebber, ein Ökologe an der University of Exeter in Großbritannien. Nach den Ergebnissen, die in derselben Studie im Journal Nature Climate Change veröffentlicht wurden, wird die globale Erwärmung auch die Ausbreitung von Pflanzenkrankheiten steigern [1]. Deren Erreger (d.i. Pflanzenpathogene) können potenzielle mit dem Klimawandel einhergehende Ertragssteigerungen beeinträchtigen. Abbildung 1.

Abbildung 1. Pilzinfektion einer Kaffeepflanze. Der Pilz Hemileia vastarix hat eine Pflanze auf der Kaffeeplantage in Costa Rica befallen. (Bild: Edwin Remsberg via Getty Images)

Die meisten Modell-Untersuchungen haben sich bis jetzt auf die Auswirkungen des Klimawandels auf landwirtschaftliche Produkte ohne deren ungebetene mikrobiellen Gäste beschränkt. Bebber und seine Kollegen haben die Verbreitung von 80 Arten virulenter Pilze und Oomyceten – Organismen, die als „Eipilze“ bekannt sind und Fäulnis und Verrottung verursachen - kartiert.

„Etwas, das (in den bisherigen Pflanzenmodellen) fehlt, ist die biologische Komponente – es sind die Schädlinge und Krankheitserreger“, sagt Bebber. „Es ist eines unserer langfristigen Ziele, eine Pathogen-Komponente einzubauen … so kommen wir zu einer besseren Einschätzung, wie die Zukunft wohl aussehen mag.“

Laut Jeremy Burdon, einem an der Studie unbeteiligten, pensionierten Evolutionsbiologen der Commonwealth Scientific and Industrial Research Organization (CSIRO) in Australien, bietet diese Studie den bisher umfassendsten Blick quasi aus der Vogelperspektive auf die Verbreitung von Krankheitserregern. „Dieses Studie ist meiner Meinung nach ein sehr wichtiger und wertvoller Beitrag zum … Verständnis der Interaktion zwischen Nutzpflanzen und ihren Krankheitserregern.“

Pflanzenkrankheiten gehören weltweit zu den Hauptursachen für Missernten. Schädlinge und Krankheitserreger verursachen schätzungsweise 10 bis 40 Prozent der landwirtschaftlichen Verluste bei fünf der weltweit wichtigsten Kulturpflanzen wie Weizen und Reis. Die Geschichte ist übervoll von Berichten über Hungersnöte, die durch Pflanzenkrankheiten verursacht wurden, wie die irische Hungersnot im 19.Jahrhundert (verursacht durch Kartoffelfäule, Anm. Redn.) und die bengalische Hungersnot in Indien, die im Jahr 1943 als Folge der Missernten von Reis ausgelöst wurde. Abbildung 2. Aufgrund eines sich ausbreitenden Pilzes steht aktuell die sonnengelbe Bananensorte Cavendish, die Dekoration von Lebensmittelgeschäften, am Rande einer Katastrophe [2].

Abbildung 2. Wie die durch die Kartoffelfäule ausgelöste Hungersnot die irische Bevölkerung im 19. Jahrhundert reduzierte (Bild von Redn. eingefügt aus: http://www.wesleyjohnston.com/users/ireland/maps/historical/pop_change_1841_1851.gif ; Lizenz: gemeinfrei)

 

Klimamodelle & Kulturpflanzenmodelle

Um die kollektive Bedrohung der landwirtschaftlichen Zukunft der Menschheit durch Pathogene angesichts des Klimawandels abzuschätzen, setzten Bebber und Kollegen vier verschiedene Klimamodelle und drei Kulturpflanzenmodelle ein. Die Forscher verglichen zunächst die prognostizierten Erträge von 12 Pflanzenarten zwischen 2011 und 2030 sowie zwischen 2061 und 2080. Die Modelle sagten für alle Pflanzen, von Zuckerrüben über Erbsen bis hin zu Sojabohnen, reichere Ernten in höheren Breitengraden voraus, während Regionen näher am Äquator entweder bescheidene Ertragssteigerungen oder -rückgänge erfahren würden. Gesamt gesehen haben die Ergebnisse gezeigt, dass der Klimawandel eine höhere landwirtschaftliche Produktivität für den gesamten Planeten bedeutet.

Simulierung von Infektionsraten

Werden allerdings Krankheitserreger in das Bild eingefügt, so ergibt dies ein düstereres Szenario. Um dies zu bewerkstelligen, haben die Forscher veröffentlichte Felddaten zur Temperaturtoleranz von Pilz- und Oomyceten-Erregern durchkämmt. Dann haben sie - basierend auf den vorhergesagten Temperaturen - das Risiko jedes Krankheitserregers, Pflanzen zu infizieren errechnet. Wie die Berechnungen zeigen, folgen Krankheitserreger, die einst an die wärmeren Zonen gebunden waren, nach, wenn sich die Grenze der Anbaugebiete polwärts verschieben. Dank des Klimawandels werden Länder, die näher an den Polen liegen, für Krankheitserreger schließlich ausreichend zuträglich sein, sodass sich mehr davon ansiedeln und die Pflanzen vernichten. Ernten weiter nördlich und südlich werden nicht nur anfälliger für Neuinfektionen sein als ihre äquatorialen Gegenstücke, sondern es wird mit höherer Wahrscheinlichkeit auch eine größere Vielfalt bösartiger Mikroben näher an den Polen auftauchen.

Ernteerträge kaum vorhersagbar

Derzeit kann Bebbers Team die Ernteertragszahlen aus den Infektionsraten mit den Krankheitserregern nicht vorhersagen, da der gleiche pathogene Stamm auf verschiedenen Böden ein unvorhersehbares Verhalten haben könnte. Als Beispiel nennt Bebber den Erreger des "plötzlichen Eichentods" – dieser hat die Eichenbestände an der US-Westküste dezimiert, britische Eichen jedoch unberührt gelassen; stattdessen hielt er sich an die japanischen Lärchen in Großbritannien. Darüber hinaus haben die Forscher nur die Temperatur als einzigen Treiber für die Ausbreitung von Krankheitserregern betrachtet; Die Realität hängt jedoch von einer Mischung verschiedener Faktoren ab, darunter die lokalen Veränderungen der Niederschläge, die Bereitschaft einer Gemeinde, neue Krankheiten zu bekämpfen, und Veränderungen in der künftigen Wahl der Pflanzen durch die Landwirte.

In den "Fängen des Klimawandels" könnten ortsansässige Bauern in Entwicklungsländern, die näher an den Tropen liegen, mehr leiden als andere, sagt Camille Parmesan, Klimabiologin am französischen National Centre for Scientific Research, die nicht an der Studie beteiligt war. „Diese Menschen werden jetzt schon sehr hart getroffen“, sagt sie. Aufgrund von Armut und veralteten Anbaumethoden dürften die Landwirte nicht darauf eingestellt sein, mit den neuen Folgen von Krankheitserregern umzugehen. Und diese lokalen Bauern können es sich möglicherweise nicht leisten, Lebensmittel aus dem globalen Norden oder Süden zu importieren. „Sie können nicht einfach plötzlich Lebensmittel aus Kanada kaufen“, sagt sie.

In Zukunft

muss sich die Gesellschaft darauf konzentrieren, Ernteverluste zu bekämpfen, um den ökologischen Fußabdruck der Landwirtschaft zu verringern, sagt Bebber. Die Landwirtschaft ist nach dem Energiesektor weltweit der zweitgrößte Verursacher von Klimaemissionen. „Die Bekämpfung von Schädlingen und Krankheiten ist eine Möglichkeit, die Landwirtschaft effizienter zu machen“, sagt er. Es wird jedoch kompliziert sein die Verbreitung von Parasiten einzudämmen. Gängige Strategien gehen oft mit Folgewirkungen einher, wie z. B. erhöhte Pilzresistenz durch übermäßigen Einsatz von Fungiziden. „Gesellschaften müssen Entscheidungen über die Bekämpfung von Krankheiten [und] Schädlingen treffen – was die Leute dafür auszugeben bereit sind und wie es bewerkstelligt werden soll“, sagt er.


 [1] T.M. Chaloner et al., Plant pathogen infection risk tracks global crop yields under climate change. Nature climate change (August 2021), 11: 710 - 715 (open access) https://doi.org/10.1038/s41558-021-01104-8

[2] Myles Karp: The banana is one step closer to disappearing. (12.8.2019). https://www.nationalgeographic.com/environment/article/banana-fungus-latin-america-threatening-future (abgerufen am 18.8.2021)


*Der vorliegende Artikel stammt von der Nanophysikerin und Journalistin Shi En Kim und ist unter dem Titel " New Study Shows Climate Change May Increase the Spread of Plant Pathogens" am 5. August 2021 im Smithsonian Magazin erschienen.https://www.smithsonianmag.com/science-nature/new-study-shows-climate-change-may-increase-spread-plant-pathogens-180978377/ Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch einige Untertitel und eine zusätzliche Abbildung (Abbildung 2) ergänzt.


 Im ScienceBlog zu dem Thema erschienen:

Redaktion, 12.08.2020: Handel und Klimawandel erhöhen die Bedrohung der europäischen Wälder durch Schädlinge


 

inge Thu, 19.08.2021 - 00:36

Die Chemie des Lebensprocesses - Vortrag von Vinzenz Kletzinsky vor 150 Jahren

Die Chemie des Lebensprocesses - Vortrag von Vinzenz Kletzinsky vor 150 Jahren

Do, 12.08.2021 - — Vinzenz Kletzinsky

Vinzenz KletzinskyIcon Wissenschaftsgeschichte Am 23. November 1871 hat der Mediziner und Chemiker Vinzenz Kletzinsky im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien" über die auch heute noch nicht eindeutig beantwortete Frage "Was ist Leben" gesprochen. Bereits in seinem 1858 erschienenen "Compendium der Biochemie"[1], das heute leider unter die forgotten books zählt, hatte er das Thema behandelt. Er hat damals als Erster den Begriff "Biochemie" geprägt und ist- bei dem mageren Wissensstand der damaligen Zeit - zu erstaunlichen Schlussfolgerungen gelangt. Wie im Compendium gliedert sich der Vortrag in zwei Teile: in die "Chemie der biochemischen Atome und in die Stofflehre der biochemischen Prozesse". Oder, wie es Kletzinsky auch ausdrückt: die Lehre vom Stoff des Lebens und die Lehre vom Leben des Stoffes. Der Artikel erscheint unter dem Namen des Autors, auf Grund der Länge aber in gekürzter Form*.

Vinzenz Kletzinsky, Compendium der Biochemie (1858), p.1

Die Chemie des Lebensprocesses

Ich habe die Ehre, den diesjährigen Zyklus der Vorträge mit der Chemie des Lebensprozesses zu eröffnen. Da tritt an uns die geheimnisvolle Frage heran:

               Was ist eigentlich Leben?

Das Leben im engeren Sinne des Wortes, nämlich das organische Leben, ist ein innerlicher Stoffwechsel unter äußerer Anregung im beharrenden Individuum. Jedes dieser Merkmale ist unerlässlich für den Begriff. Im weitesten Sinne des Wortes kann man Stoffwechsel überhaupt Leben nennen.

Abbildung 1. Vinzenz Kletzinsky (1826-1882), österreichischer Chemiker und Pathologe. Lithographie von Eduard Kaiser, 1861. (Bild:https://www.europeana.eu/en/item/92062/BibliographicResource_1000126190609). Rechts: Titelblatt des Vortrags im Jahrbuch in Schriften des Vereines zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien, 12, 1 - 18. https://www.zobodat.at/pdf/SVVNWK_12_0001-0018.pdf)

Dieses organische Leben hat schon durch Jahrtausende immer mit denselben Atomen gearbeitet; das, was der eigentliche Stoff ist, bleibt unzerstörbar und wandelt sich nur. Die Elemente, in welchen sich das organische Leben vollzieht sind ziemlich beschränkter Zahl (Abbildung 2); von den Elementen überhaupt, die heute bekannt sind, wird vielleicht die fortschreitende Wissenschaft einige streichen, andere Elemente wieder hinzufügen, jedoch so viel ist gewiss, dass die Zahl derselben heutzutage 60 übersteigt.

Abbildung 2. Mit der Analytik von 1858 ("und nach neuesten Bestimmungen corrigirten Äquivalentzahlen") war der Großteil, der im Organismus vorkommenden Elemente bereits nachgewiesen.(Bild von Redn. eingefügt ausCompendium der Biochemie (1858), p.20)

Kohlenstoff

Vor allen ist ein Element näher zu bezeichnen, welches den eigentlichen Impuls zur organischen Bildung gibt und dieses Element ist der Kohlenstoff. Derselbe ist vor allen übrigen Elementen mit der bewunderungswürdigen Eigenschaft begabt, äußerst lang gegliederte Ketten zu bilden, während dies bei übrigen Stoffen in weit minderem Maße der Fall ist, annähernd höchstens noch bei Stickstoff und Sauerstoff. Da sich nun diese Ketten der Kohlenstoffatome mit Wasserstoff, Sauerstoff, Stickstoff verbinden, so entsteht dadurch eine ungeheure Fülle von Permutationen und ein zahlloses Heer von organischen Verbindungen.

Außer den genannten Körpern nehmen an organischen Verbindungen noch Teil „Schwefel und Phosphor", welche, obwohl in untergeordnetem Maße, doch in den wichtigsten Körpern und Verbindungen vorkommen: bei jenen Verbindungen, in welchen sich das Geheimnis des Lebensprozesses vollzieht, bei jenen, welche am allerzersetzlichsten sind. Je minder stabil eine Verbindung ist, desto energischer dient sie dem Leben und gerade die unverwüstbaren Stoffe der Mineralchemie sind dem Leben feind.

Oxydation - Reduktion - Gärung

Was geschieht nun mit diesen Elementen? In dieser Beziehung müssen wir das Leben in zwei große Prozesse auseinanderhalten.

  Das Leben ist entweder ein fortlaufender Oxydationsprozess oder ein  Reduktionsprozess. In beide Prozesse aber spielt die Gärung hinein.

Die Oxydation ist das Prototyp des tierischen Lebens, die Reduktion das Urbild des Pflanzenlebens; die Gärung ist in beiden zu Hause. Aus dieser eigenen Durchdringung von Oxydation und Gärung entsteht das tierische Leben, aus der Durchdringung von Reduktion und Gärung entsteht das Pflanzenleben. (Anm. Redn.: Unter Gärung ist eigentlich enzymatische Katalyse zu verstehen. Louis Pasteur hatte 1862 die für die Gärung verantwortliche "vitale Kraft = Fermente" in der Hefezelle nachgewiesen. 1877 hat Wilhelm Kühne für Ferment den aus dem Griechischen stammenden Begriff für "in der Hefe" = "Enzym" geprägt.)

Oxydation ist nun die Verbindung organischer Stoffe mit Sauerstoff, welche wir speziell Verwesung (d.i. Verbrennung; Anm. Redn.) nennen. Reduktion ist der entgegengesetzte Prozess; es ist die Loslösung des Sauerstoffes aus den Oxyden und die Rückgewinnung von sauerstoffärmeren Verbindungen.

Während also der eine Prozess webt, trennt der andere wieder auf und beide ergänzen sich.

Man könnte den Lebensprozess ganz leicht studieren,

wenn man ganz genau im Stande wäre, die richtigen Faktoren in Bezug auf Quantität und Qualität zu treffen.

Denkt man sich ein Aquarium, mit allem Nötigen versehen, mit Kalk, Bittererde, Eisenoxyd, damit alle zum Leben unentbehrlichen Stoffe vorhanden sind und mit einer Fülle von Wasser versehen, über welchem eine Schichte atmosphärischer Luft ist, welche wieder Kohlensäure, Ammoniak und außer Staub und Sporen noch Stickstoff und Sauerstoff enthält. Setzen wir nun in dieses Aquarium eine Wasserpflanze, die leicht, rasch und sicher gedeiht. Diese Pflanze trifft alles, was sie braucht; sie zieht aus der Atmosphäre Wasser, Kohlensäure, Ammoniak, welche Stoffe die organische Nahrung der Pflanze sind; die Pflanze nimmt dieselben auf und reduziert daraus Stoffe, die weniger Sauerstoff haben als Kohlensäure.

Bei diesem Leben der Pflanze wird unter dem Einfluss des Lichtes, welches zum Gedeihen der organischen Schöpfung unentbehrlich ist, aus der Kohlensäure Sauerstoff zurückgegeben und darum ist die Pflanze eine reduzierende Potenz. Die Pflanze ist also in unserem Aquarium für ihr erstes Gedeihen gesichert.

Setzen wir nun in dasselbe etwa eine Schnecke, welche bekanntlich diese Pflanzen abweidet, so wird dieselbe auch alle Bedingungen ihres Gedeihens vorfinden, sie hat Sauerstoff zum Atmen, sie hat die von der Pflanze bereiteten Eiweißstoffe, Zucker, Gummi, mit einem Wort Proteine und Kohlenhydrate zur Nahrung, dadurch entsteht ein neuer Leib des Tieres, eine Partie des alten Leibes geht zu Grunde, wird ausgeworfen und lässt sich unter dem Titel „kohlensaures Ammoniak" (Ammoniumcarbonat, Anm. Redn.) summieren.

Die pflanzenfressenden Tiere ersetzen uns also vollständig, was die Pflanze verbraucht und Pflanzen ersetzen uns, was das Tier veratmet. "Wir müssen aber die weitere Entwicklung des Tieres zur Pflanze im richtigen Verhältnis halten; da sich aber die Tiere zu schnell vermehren und mehr verbrauchen würden, als die Pflanze liefert, so setzen wir in das Aquarium einen Fleischfresser, der die übermäßige Entwicklung des Pflanzenfressers im Zaume hält; könnte man die richtigen Verhältnisse genau einhalten, so würde man im Kleinen das erzielen, was die Natur im Großen zeigt.

Wie gesagt: es muss von der Pflanzenwelt das von der gesamten Tierwelt erzeugte kohlensaure Ammoniak aufgenommen werden und umgekehrt verarbeiten in demselben Verhältnisse die Tiere den von den Pflanzen hergegebenen Sauerstoff. Dadurch ist es erklärlich, dass sich im Laufe von Jahrtausenden in der Atmosphäre nichts geändert hat. Wenn man bedenkt, wie viele tausend und abertausend Tier- und Menschengenerationen über die Erde gegangen, wie viele Atmungsprozesse stattgefunden, welch' ungeheure Quantitäten von Sauerstoff verzehrt wurden, wenn man ferner in Betracht zieht, dass trotz alledem doch kein Abgang bemerkbar ist, so ist dies nur dadurch erklärlich, dass die Pflanze es ist, welche das, was Feuer und Tiere verzehren, wieder ersetzt, welche die Atmosphäre rein erhält.

Vor einer ungeheuren Anzahl von Jahren muss die Luft sehr kohlensäurereich gewesen sein, was uns die damals entstandenen Riesentange beweisen, eben dadurch wurde aber auch die Luft ungeheuer sauerstoffreich und dieser eigentümliche Reiz des Freiwerdens des Sauerstoffes hat auf eine uns unbekannte Weise die Tierzelle geboren, erzeugt und gestaltet. So ist das Thier allmählich auf die Welt gekommen, als es bereits die Bedingungen zu seinem Lebensprozesse vorfand.

CO2-Assimilation, Photosynthese & Atmung

Wenn man reines kohlensaures Gas, gleichviel auf welche Weise bereitet, in einem dünnen, durchsichtigen Zylinder auffängt, über Quecksilber absperrt, durch dieses ein Büschel frisch gepflückter Blätter hineinsteckt und diese Vorrichtung 6—12 Stunden dem direkten Sonnenlichte aussetzt, kann man entschieden Sauerstoff nachweisen. Der Sauerstoff ist aus Kohlensäure durch Vermittlung des lebenden Pflanzengrün's unter dem Einflüsse des Sonnenlichtes entstanden. Nur das grüne, blaue, violette Licht besitzt diese Fähigkeit.

Dass sämtliche Tiere Sauerstoff atmen; ist heute evident bewiesen, gleichviel, ob die Tiere durch Lungen, Kiemen, Tracheen oder durch die Haut atmen, immer wird Sauerstoff aufgenommen und Kohlensäure abgegeben. Jede Stelle unserer lebenden Haut gibt fortwährend Kohlensäure ab und nimmt dafür Sauerstoff ein; selbst der losgelöste Muskel, der auf den Hacken des Fleischers hängt, dunstet Kohlensäure aus und nimmt Sauerstoff auf. Es ist dies die echte, tierische Erbsünde, die allen Tieren anklebt.

Diese Sättigung mit Sauerstoff ist das eigentliche Triebrad des tierischen Lebens.

Dieser Sauerstoff, der auf immer welchem Wege die innere Bahn des Körpers betritt, wird zunächst von eigentümlichen Zellen aufgenommen, die im Allgemeinen „Blutkörperchen" heißen, welche namentlich bei höheren Tierklassen in ihrer einzelnen Form studiert sind; diese Zellen verschlucken den Sauerstoff und sind dazu bestimmt, den Sauerstoff in die inneren Körperbahnen überall hinzuführen. Das Zucken einer Muskelfaser ist nicht denkbar ohne gleichzeitige Gegenwart von Sauerstoff; sobald ein Nerv nicht mit Sauerstoff in Berührung kommt, kann er nicht mehr der Leiter des Willens und der Rückleiter der Empfindungen sein. Nimmt man auch nur momentan den Sauerstoff weg, so ist der Nerv taub, das Glied ist tot.

Dadurch lernen Sie eine neue Klasse furchtbarer Gifte für das tierische Leben kennen, nämlich solche Körper, welche im Stande sind, allen Vorrat an Sauerstoff unserem Körper zu entziehen. Wir Alle haben jetzt in unserem Körper einen gewissen Vorrat an Sauerstoff, mit dem wir auch ohne zu atmen, eine gewisse Zeit hindurch leben könnten, 3 Minuten wird wohl jeder Mensch aushalten, besonders glücklich organisierte Naturen könnten auch 10 Minuten leben, ohne eine neue Zufuhr an Sauerstoff. Würde nun nicht nur der vorhandene Vorrat verbraucht, sondern auch zugleich die Möglichkeit, neuen Sauerstoff anzuschaffen, abgebrochen sein, dann ist es mit dem Leben aus und nun stehe ich vor der erschreckenden Wirkung der Blausäure.

Diese Säure ist sehr flüchtig, sie eilt sehr rasch auf der Wanderung durch die ganze Blutbahn mit dem Blute in alle Provinzen des Körpers, nimmt den Sauerstoff, wohin sie kommt, für sich in Beschlag und vernichtet zunächst mit heimtückischer Gewalt die Fähigkeit der Blutkörperchen, neuen Sauerstoff aufzunehmen. Ohne Sauerstoff-Aufnahme kann kein Nerv empfinden und den Willen leiten, kein Muskel kann zucken, keine Zelle arbeiten, keine Drüse Saft bereiten. Alles ist gelähmt.

Pflanzen betreiben Photosynthese und atmen

Es ist merkwürdig, dass mit dieser für alles tierische Leben maßgebenden Potenz, nämlich mit der Oxydation, auch die Pflanze ihr dunkles Leben im Mutterschoß der Erde beginnt; während die entwickelte Pflanze, die mit der Axe zum Licht strebt, unter dem Einfluss des Lichtes gerade das entgegengesetzte treibt, nämlich Sauerstoff rückgibt und Kohlensäure einhaucht, ist ihr Same in der feuchten, dunklen Erde dazu verurteilt Sauerstoff aufzunehmen, Kohlensäure rückzugeben. Dies geschieht jedoch wie gesagt nur im Dunkeln; das Keimen der Pflanzensamen ist ein analoger Akt, wie das tierische Leben: ein Oxydationsprozess. Die Oxydation bildet also im tierischen Leibe die Hauptbedingung des Lebens, die Reduktion im Pflanzenleibe. In beide Prozesse bohrt sich die Gärung ein.

Die Gärung ist eine Spaltung großer, vielgliedriger Atomketten in kleinere Bruchteile,

welche Spaltung unter dem Einfluss der sogenannten Hefe erfolgt, einer eigentümlichen Zelle, die den Trieb hat, weiter zu wachsen unter fortwährender Aufnahme von Kohlensäure (Gärung = enzymatische Katalyse, siehe Kommentar Redn. oben). Ein wunderschönes Beispiel einer solchen komplizierten Gärung liefert uns die Leber. Vor Allem macht es die Gärung klar, wie es möglich ist, dass aus einem und demselben Blute die verschiedenartigsten Organe ernährt werden - die Niere, das Gehirn, die Milz, die Leber. Ebenso kann man aus einer und derselben Zuckerlösung: Weingeist durch Zugabe von Presshefe, Buttersäure durch Zusatz von Quark, Milchsäure durch Zusatz von Pflanzeneiweiß erzeugen; je nach der Verschiedenheit der Hefe wird derselbe Zucker anders gespalten, dieselbe Atomkette wird anders zerrissen.

Die Ursache, warum aus demselben Blut ganz andere Stoffe entstehen, beruht auf der Verschiedenheit der Zelle. Die Gehirnzelle ist eine Hefe, die sich selbst wieder aus Blut erzeugt; befindet sich dasselbe Blut unter dem Einfluss der Milzhefe, erzeugt sich Milzzelle. Auch sind die Nebenprodukte dieser Prozesse andere. Die Leberzelle erhält eigentümliches, dunkles, dickes Blut zur Vergärung; das sogenannte Pfortaderblut. Diese Ader verästelt sich in der Schleimhaut des Darmes und saugt den gleichsam rohen Nahrungssaft auf; was von diesem Saft die Milchsaftgefässe nicht aufnehmen, nimmt die Pfortader auf und damit die Masse nicht roh in den allgemeinen Kreislauf gerät, wird sie in die Leber geworfen; der Zelleninhalt der Leberzelle kommuniziert mit dem Pfortaderblut; dasselbe vergärt unter dem Einfluss der Leberzelle.

In jedem Organ müssen fortwährend neue Zellen gebildet werden, weil die alten zu Dutzenden vergehen; die Leber ernährt sich; geschieht dies nicht, so erfolgt der Schwund der Leber, eine furchtbare Krankheit. Alles Organische muss ewig vergehen und neu entstehen; das Leben besteht im Wechsel.

Die Leber ist ein zuckerbildendes Organ, wenn auch Ihre Nahrung keine Spur von Zucker enthält; Zucker ist dennoch ein Gärungsprodukt der Leber; ferner entsteht die Galle, welche ebenfalls eine Absonderung der Leber ist, sie ist eine gefärbte Seife, die bei der Verdauung eine wesentliche Rolle spielt. Endlich wird das Leber-Venenblut durch die Lebervene abgeführt, während die von der Leber erzeugte Galle in die Gallenblase zusammensickert, welche einen Ausführungsgang besitzt, der sich in den Dünndarm ergießt, allwo die Galle die wichtige Rolle der Verdauung der Fettstoffe erfüllt.

Wenn man einem Hunde die Gallenblase entfernt, geht alles Fett seiner Nahrung unverändert ab; er ist nicht im Stande, Fett zu verdauen.

Der Kreislauf des organischen Lebens

Aus dieser wunderbaren Durchdringung des Oxydationsprozesses und der Gärung im Tierreich und der Reduktion und Gärung im Pflanzenreiche entwickelt sich der große Prozess des organischen Lebens, der in der Jugend der Entwicklung mit der Massenvermehrung einhergeht, dann sich eine Weile auf dem Normale konserviert, und endlich, dem Gesetze alles Organischen folgend, abnimmt, wobei endlich seine Masse zum Anorganismus zurückkehrt als Staub, sich verflüchtigt als kohlensaures Ammoniak und neuerdings dienstbar wird dem Pflanzenleben; die Pflanze tritt wieder auf, erzeugt neuerdings Stoffe für's Tierleben und in dieser Weise ergänzt sich von selbst der Kreislauf.

Man hat die Pflanze als einen im Anorganismus wurzelnden Apparat zu betrachten, welcher die Fähigkeit besitzt, Nahrungsstoffe für das Tierleben zu erzeugen. Es gilt für alle Tiere als Gesetz, dass sie fertige Eiweißstoffe aufnehmen müssen, da kein tierischer Körper solche erzeugen, sondern nur umbilden kann; die Pflanzen müssen diese Stoffe aus dem Anorganismus, aus Luft und Boden schaffen. Selbst die Gewebebildung im Tierleibe ist nur eine Oxydation; und so ist das ganze Tierleben eine fortlaufende Oxydation, die mit der Rückgabe von Kohlensäure und Ammoniak an die Luft endet, von wo die Pflanzen wieder beginnen und den ewigen Kreislauf der organischen Schöpfung vollenden.

 

[1] Vinzenz Kletzinsky, Compendium der Biochemie, 1858, in dem erstmals der Begriff "Biochemie" aufscheint. ((https://www.digitale-sammlungen.de/en/view/bsb10073084?page=4,5, open access, C0, keine kommerzielle Nutzung)


* Abbildungen in dem gekürzten Artikel und Untertitel wurden von der Redaktion eingefügt; die ursprüngliche Schreibform wurde in die jetzt übliche geändert. Der Originaltext kann nachgelesen werden unter: KLETZINSKY Vinzenz Prof. (1872): Die Chemie des Lebensprocesses. — Schriften des Vereines zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien 12: 1-18.https://www.zobodat.at/pdf/SVVNWK_12_0001-0018.pdf


 Zum Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien:

Der Paläologe und Geologe Eduard Suess war maßgeblich an der Gründung des auch heute noch existierenden Vereins im Jahre 1860 beteiligt und dessen erster Präsident. Im Rahmen dieses Vereins wurden frei zugängliche, populäre Vorträge gehalten; diese waren „lediglich naturwissenschaftlichen Fächern entnommen, der Kreis von Vortragenden hat fast ausschließlich aus jüngeren Fachmännern bestanden.“

Dazu im ScienceBlog:

Redaktion, 26.12.2014: Popularisierung der Naturwissenschaften im 19. Jahrhundert.


 

inge Thu, 12.08.2021 - 18:54

Erdoberfläche - die bedrohte Haut auf der wir leben

Erdoberfläche - die bedrohte Haut auf der wir leben

Do, 05.08.2021 — Gerd Gleixner

Icon Biologie

Gerd Gleixner Das Überleben der Menschen auf der Erde hängt von der Funktionsfähigkeit der äußersten Schicht unseres Planeten, der „kritischen Zone“, ab. Im Anthropozän hat der Mensch durch sein Handeln in den Stoffaustausch zwischen Organismen und den Ökosystemsphären eingegriffen und bedroht dadurch die Funktionsweise der kritischen Zone. Wie verringern Biodiversitätsverluste die kontinentale Kohlenstoffspeicherung und beschleunigen so den Klimawandel? Die organische Bodensubstanz ist die letzte große Unbekannte im terrestrischen Kohlenstoffkreislauf. Prof. Dr. Gerd Gleixner, Forschungsgruppenleiter am Max-Planck-Institut für Biogeochemie (Jena) untersucht Ursprung, Umsatz und Stabilität der organischen Substanz in Böden mit speziellem Fokus auf die Welt der Bodenmikroorganismen, da hier der molekulare Antrieb der globalen Stoffkreisläufe verborgen ist.*

Das Leben der Menschen auf der Erde hängt von der Funktionsfähigkeit der äußersten Schicht unseres Planeten - ihrer Haut - ab. Sie reicht von den erdnahen Schichten der Atmosphäre über die verschiedenen Ökosysteme der Erdoberfläche bis hin zu den unterirdischen Grundwasserleitern und wird „kritische Zone“ genannt. In ihr geben sich die Kreisläufe der Bioelemente Wasserstoff, Kohlenstoff, Stickstoff, Sauerstoff, Phosphor und Schwefel ein Stelldichein. Angetrieben durch die Sonne, wird Wasser verdunstet und aufs Land transportiert, wo es als Grundlage allen Lebens benötigt wird.

Pflanzen nutzen die Sonne und das Wasser, um Kohlendioxid der Atmosphäre zu reduzieren und zusammen mit Nährstoffen wie Stickstoff und Phosphor Biomasse aufzubauen. Sie wird wieder durch Mikroorganismen zersetzt und steht so für einen neuen Kreislauf zur Verfügung. Der Mensch hat durch die Verbrennung fossiler Brennstoffe, Düngung, Landnutzung und Landnutzungsänderungen in die Kreisläufe der kritischen Zone eingegriffen. Die Folgen sind offensichtlich: Klimawandel und Biodiversitätsverlust sind zu Schlagworten unsere Zeit geworden. Erstmals in der langen Erdgeschichte tritt der Mensch als global entscheidender Faktor auf und leitet durch sein Handeln das neue Erdzeitalter des Anthropozäns ein. Wir untersuchen, wie die kritische Zone der Erde - ihre Haut - funktioniert, um ihre bedrohte Funktionsfähigkeit sicherzustellen.

Unsichtbare Helfer

Wie unsere menschliche Haut, ist auch die irdische kritische Zone von einer Gemeinschaft unterschiedlichster Mikroorganismen besiedelt. Während sie auf der menschlichen Haut vor Krankheiten schützen und wichtige Stoffumsetzungen durchführen, ist die Rolle der Mikroorganismen für Stoffkreisläufe in der kritischen Schicht der Erde bislang wenig untersucht. Den Mikroorganismen im Boden kommt jedoch eine entscheidende Rolle bei der Speicherung von Kohlenstoff als organische Bodensubstanz zu [1]. Bisher nahm man an, dass Mikroorganismen lediglich für den Abbau von organischer Bodensubstanz zuständig sind und die Speicherung von Kohlenstoff im Boden nur darauf beruht, dass er nicht vollständig abgebaut werden kann. Mithilfe natürlich vorkommender Isotope konnten wir nachweisen, dass aus den Resten der verdauenden Mikroorganismen organische Bodensubstanz gebildet wird. Der Boden funktioniert also wie das Verdauungssystem der kritischen Zone. Dabei werden die mikrobiellen Auf- und Abbauprozesse stark von den Bedingungen von Temperatur, Feuchte, Nahrungsangebot, Nährstoffangebot und Oberflächeneigenschaften der mineralischen Bodenbestandteile bestimmt. Ist zum Beispiel zu wenig Stickstoff im Boden vorhanden, wird dieser durch mikrobiellen Abbau aus organischer Bodensubstanz gewonnen. Wird aber zu viel davon erzeugt oder durch Düngung zugeführt, kann er mikrobiell in gasförmigen Stickstoff umgewandelt werden, der aus dem Boden entweicht und als Lachgas zur Erderwärmung beiträgt.

Dabei werden die Mikroorganismen durch Umweltreize aktiviert. Wir konnten zeigen, dass ein und derselbe Prozess von ganz verschieden Mikroorganismen durchgeführt wird [2]. Welcher Mikroorganismus und welche Kooperationspartner aktiviert werden, hängt von den Rahmenbedingungen ab. In unseren Versuchen wurden pflanzliche und mikrobielle Biomasse erwartungsgemäß von unterschiedlichen Bakterien abgebaut.

Abbildung 1. Mikrobielle Redundanz im System Pflanze-Mikroorganismen-Boden: Unterschiedliche Organismen stellen Stickstoff aus abgestorbenen Wurzeln, abgestorbenen Mikroorganismen und anorganischen Stickstoff für den Austausch mit pflanzlichem Kohlenstoff bereit, je nachdem, ob symbiontische Pilze oder saprophytische Pilze im System dominieren. AM: arbuskuläre Mycorrhiza - Pilze leben in Symbiose mit den Wurzelzellen; NM: Nicht-Mycorrhiza - Pilze leben saprophytisch = von abgestorbenen Material (© verändert nach Chowdhury et al. 2020; Lizenz: cc-by-nc-nd)

Je nachdem ob symbiotische oder nicht-symbiotische Pilze vorhanden waren (siehe Abbildung 1), waren unterschiedliche Bakterien bei demselben Abbauprozess involviert. Das funktionelle Zusammenspiel und die hier beschriebene funktionelle Redundanz der verschiedenen Mikroorganismen erklärt, warum Gemeinschaften von Bodenmikroorganismen in ihrer Funktionsweise kaum verstanden sind. Die Forschungslücke, welchen Einfluss diese unsichtbaren Helfer auf die kritische Zone haben, ist signifikant.

Ringelreihen, Tanz zu zweien, dreien, vielen

Nicht nur im Unsichtbaren spielen sich solche Interaktionen zwischen mikrobiellen Arten ab. Im weltweit größten Langzeit-Biodiversitätsexperiment, dem Jena Experiment, wurden im Jahr 2002 Versuchsflächen mit 1, 2, 4, 8, 16, 32 und 64 Pflanzen angelegt, um das Zusammenspiel zwischen Pflanzen, anderen Arten und den Stoffkreisläufen untersuchen. Das Experiment sollte klären, wie viele Arten notwendig sind, um die Funktionsfähigkeit des Systems aufrecht zu erhalten. Die Ergebnisse sind eindeutig:

    Mehr Arten sichern einerseits die Funktionsfähigkeit des Systems ab, da jede Art unterschiedliche Eigenschaften mitbringt. Diese helfen besonders nach extremen Ereignissen wie Überflutung oder Trockenheit bei der Regeneration des (Öko-)Systems.

    Andererseits ergänzen sich verschiedene Arten auch in ihren Funktionsweisen, und Artenmischungen erzeugen mehr Biomasse, speichern mehr Kohlenstoff und Stickstoff im Boden und erhalten größere Nahrungsnetzwerke als die entsprechende Summe aus Einzelkulturen ergeben würde (Buzhdygan et al. 2020).

Die Mischungen vieler Arten sind demnach nicht nur gefälliger, sie sichern auch die Funktionsweise der kritischen Zone ab.

Tiefer schauen, um mehr zu verstehen

Die fördernden Interaktionen zwischen den Arten finden im Verborgenen- unter der Erdoberfläche - statt und sind mit einfachen Methoden nicht zu ergründen. Mit ultrahoch-auflösender Massenspektrometrie verfolgten wir den Stoff- und Energieaustausch zwischen dem Boden, den Mikroorganismen und den Pflanzen.

Dank langjähriger Zusatzunterstützung durch Förderer der Max-Planck-Gesellschaft wie der Zwillenberg-Tietz Stiftung konnten wir neue Verfahren entwickeln (Roth et al. 2019) [4] und zeigen, dass gelöste organische Verbindungen im Bodenwasser – nicht wie bisher angenommen - Abfälle der Stoffumsätze sind, sondern ganz im Gegenteil das Kommunikationsmittel des Bodens darstellen und chemische Informationen über Pflanzen, Mikroorganismen und den Boden enthalten (siehe Abbildung 2). Derzeit verschneiden wir unsere und andere „omische“ Datensätze mit Stoffwechseldatenbanken, um den chemischen Code vollständig zu knacken.

Abbildung 2. Entschlüsselung des molaren Codes von gelöstem organischen Kohlenstoff: Die alte Theorie der Rekalzitranz ging vom Überbleib nicht abbaubarer Substanzen aus, wohingegen die neue Theorie der Persistenz von einem kontinuierlichen Ab-, Um- und Aufbau von Molekülen ausgeht. Identische Moleküle können aus verschieden Quellen wie Pflanzen oder Mikroorganismen stammen und so Stabilität beziehungsweise Rekalzitranz vortäuschen.© verändert nach (Roth et al. 2019).

Besondere Hoffnungen liegen auf Zusatzinformationen, die wir aus intakten Molekülen der mikrobiellen Zellmembranen gewinnen (Ding et al. 2020) [5], da sie, in Verbindung mit Isotopenuntersuchungen, Rückschlüsse auf die Beteiligung der einzelnen Arten am Stoff- und Energieaustausch ermöglichen und uns so erlauben, den Stoffwechsel der Kritischen Zone und seine Regulation zu verstehen.


Literaturhinweise

[1] Lange, M., et al., (2015) Plant diversity increases soil microbial activity and soil carbon storage. Nature Communications, 6: 6707. https://doi.org/10.1038/ncomms7707

[2] Chowdhury, S., et al., (2020) Nutrient Source and Mycorrhizal Association jointly alters Soil Microbial Communities that shape Plant-Rhizosphere-Soil Carbon-Nutrient Flows. bioRxiv:2020.2005.2008.085407.

[3] Buzhdygan, O. Y., et al., (2020) Biodiversity increases multitrophic energy use efficiency, flow and storage in grasslands.Nature Ecology & Evolution, 4, 393-405. https://doi.org/10.1038/s41559-020-1123-8

[4] Ding, S., et al., (2020) Characteristics and origin of intact polar lipids in soil organic matter. Soil Biology and Biochemistry, 151: 108045.  https://doi.org/10.1016/j.soilbio.2020.108045

[5]. Roth, V. N., et al., (2019) Persistence of dissolved organic matter explained by molecular changes during its passage through soil. Nature Geoscience, 12(9), https://doi.org/10.1038/s41561-019-0417-4


*Der vorliegende Artikel von Gerd Gleixner ist in dem neuen Jahrbuch 2020 der Max-Planck-Gesellschaft unter dem Titel "Die bedrohte Haut auf der wir leben" https://www.mpg.de/16312732/bgc_jb_2020?c=152885 erschienen und kann mit freundlicher Zustimmung der MPG-Pressestelle und des Autors von ScienceBlog.at weiterverbreitet werden. Text und Abbildungen wurden unverändert übernommen (in der Legende zu Abbildung 1 wurde eine kleine Ergänzung von der Redaktion eingefügt).


Weiterführende Links

Max-Planck-Institut für Biogeochemie, https://www.bgc-jena.mpg.de/index.php/Main/HomePage/

W2 Forschungsgruppe Molekulare Biogeochemie (Gerd Gleixner)  https://www.bgc-jena.mpg.de/www/uploads/Groups/MolecularBiogeochemistry/FactSheets_Gleixner_de_July2013.pdf

Das Jena Experiment (2017), Video 8:50 min, https://www.youtube.com/watch?v=yQSe6a2LBYM

Klima – der Kohlenstoffkreislauf. MaxPlanck Society, Video 5:25 min. https://www.youtube.com/watch?v=KX0mpvA0g0c

------------------------------------------------------------------------------

Einige Artikel zu verwandten Themen im ScienceBlog

Christian Körner, 29.07.2016: Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt

Knut Ehlers, 01.04.2016: Der Boden ein unsichtbares Ökosystem

Rattan Lal, 11.12.2015: Der Boden – die Lösung globaler Probleme liegt unter unseren Füßen

Rattan Lal, 04.12.2015: Der Boden – Grundlage unseres Lebens

Rattan Lal, 27.11.2015: Boden - Der große Kohlenstoffspeicher

Redaktion, 26.06.2015: Die Erde ist ein großes chemisches Laboratorium – wie Gustav Tschermak vor 150 Jahren den Kohlenstoffkreislauf beschrieb

Julia Pongratz & Christian Reick, 18.07.2014: Landwirtschaft pflügt das Klima um

Gerhard Glatzel, 04.04.2013 Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 2)


 

inge Thu, 05.08.2021 - 01:02

Biodiversität - Den Reichtum der Natur verteidigen

Biodiversität - Den Reichtum der Natur verteidigen

Do, 29.07.2021 — IIASA

IIASA Logo Icon Biologie

Mit den Fortschritten der Menschheit ist es zum Niedergang von Millionen anderer Spezies im Tier- und Pflanzenreich gekommen. An einem für die bedrängte Natur entscheidenden Zeitpunkt zeigen Forschungsergebnisse des IIASA, dass wir den Verlust der biologischen Vielfalt noch umkehren können. Dies wird allerdings einen groß angelegten Einsatz erfordern - darauf konzentriert, wo man den größten Nutzen erzielen kann. Zu dem enorm wichtigen Thema haben wir bereits im vergangenen September einen Bericht des IIASA gebracht [1]; hier folgt nun der aktualisierte Status zur Wiederherstellung der Biodiversität.*

Der Reichtum der Natur im Niedergang

Pflanzen und Tiere sind unsere Nahrung, sie stabilisieren das Klima, filtern Luft und Wasser, versorgen uns mit Treibstoff und Arzneimitteln. Abbildung 1.

Abbildung 1. Artenvielfalt und genetische Vielfalt in den Arten erhalten/wiederherstellen - fast alle Länder sind dem Übereinkommen über die biologische Vielfalt beigetreten, die Erfolge lassen auf sich warten.

 

Der Fortschritt der Menschheit hat den Rückzug von Millionen anderer Spezies mit sich gebracht. Lebensräume werden durchfurcht und zubetoniert; Umweltverschmutzung erstickt Ökosysteme; Überfischung durchkämmt die Meere; der Klimawandel bringt Dürren und durcheinander gebrachte Jahreszeiten. Selbst aus zynischer, menschenzentrierter Sicht zeichnet sich eine Katastrophe ab.

Jahrzehntelanger Einsatz für den Naturschutz hat nur begrenzten Erfolg erbracht. Fast jedes Land ist dem Übereinkommen über die biologische Vielfalt (Convention on Biological Diversity ; CBD) beigetreten, einem Vertrag, der 2010 zwanzig Biodiversitätsziele festlegte. Bis zum Stichtag 2020 wurden jedoch nur sechs dieser Ziele teilweise erreicht. Im 2019 IPBES Global Assessment Report on Biodiversity and Ecosystem Services heißt es: „Die Biodiversität ... nimmt schneller ab als je zuvor in der Geschichte der Menschheit.“

Die Kurve - den Trend - umdrehen

Die IIASA-Forschungsergebnisse lassen uns hoffen, dass wir die Dinge ändern können – allerdings wird dies nicht einfach sein. Eine richtungweisende Studie unter der Leitung des IIASA-Forschers David Leclère hat Modelle erstellt, wie verschiedene Strategien die Landnutzung verändern könnten und wie sich dies auf verschiedene Aspekte der biologischen Vielfalt, beispielsweise das Artensterben auswirken würde. Abbildung 2.

Ein Szenario nimmt an, dass die Schutzgebiete auf 40 % der Landfläche des Planeten (von aktuell 15 %) ausgeweitet und 5 Millionen km2 degradiertes Land wiederhergestellt sind. Laut Studie sollten sich die Trends der Biodiversität um die Mitte des Jahrhunderts verbessern – aber viele Regionen würden dann immer noch schwere Verluste und steigende Lebensmittelpreise verzeichnen und damit das Ziel der UN, den Hunger zu beenden, untergraben.

Ein optimistischeres Bild ergibt sich, wenn wir auch Angebot und Nachfrage nach Nahrungsmitteln einbeziehen, eine nachhaltige Steigerung der Ernteerträge und des Agrarhandels, sowie eine stärker pflanzenbasierte Ernährung und weniger Lebensmittelverschwendung einkalkulieren. Die Studie prognostiziert, dass dies die Biodiversitätstrends vor 2050 positiv verändern sollte, es würde mehr Land wieder hergestellt werden können, steigende Lebensmittelpreise verhindert, einschneidende Vorteile für das Klima erbracht und der Verbrauch von Wasser und Düngemitteln reduziert werden können.

Abbildung 2. Um den raschen Niedergang der terrestrischen Biodiversität umzukehren, bedarf es einer integrierten Strategie. Eine Abschätzung von gegenwärtigen und zukünftigen Trends der Biodiversität, die aus der Landnutzung resultieren; mit und ohne koordiniertem Einsatz von Strategien, um die Trends umzukehren. (Diese Abbildung wurde bereits in [1] gezeigt; Quelle: Leclère, et al. © Adam Islaam | IIASA.) >

Diese Informationen sind in erweiterter Form in einem Artikel aus dem Jahr 2020 zu finden [3]; Dutzende führende Forscher unter der Leitung von Sandra Diaz (Universität Cordoba, Argentinien) haben dazu beigetragen, darunter Piero Visconti, der die IIASA-Forschungsgruppe Biodiversität, Ökologie und Naturschutz leitet. Die Autoren schlagen unter anderem ergebnisorientierte Ziele für die Artenvielfalt und genetische Vielfalt innerhalb der Arten vor, zusammen mit Zielen, den Nettoverlust natürlicher Ökosystemflächen zu stoppen, deren Intaktheit sicherzustellen und, dass der Verlust eines seltenen Ökosystems nicht durch eine Zunahme in einem anderen Ökosystem ausgeglichen werden kann.

Plan B

Das Übereinkommen über die biologische Vielfalt (CBD) ist nun daran eine Strategie für das kommende Jahrzehnt zu entwickeln. Der Entwurf Global Biodiversity Framework (GBF) umfasst einige der Ideen, darunter ergebnisorientierte Biodiversitäts-Ziele, wie die Anzahl bedrohter Arten um einen bestimmten Prozentsatz zu reduzieren und die genetische Vielfalt zu erhalten. Fünf GBF-Aktionsziele für 2030 stimmen weitgehend mit den Maßnahmen im integrierten Szenario von Leclère überein [2]. Der GBF-Entwurf zitiert auch oft die Studie von Diaz et al.[3] – auch, wenn sich die Zielsetzungen noch nicht den Vorschlägen der Untersuchung entsprechend geändert haben, sagt Visconti. Laut Leclère muss der endgültige Rahmen, der im Oktober 2021 ratifiziert werden soll, sicherstellen, dass die nationalen Pläne mit den angestrebten globalen Zielen in Einklang stehen und Anstrengungen und Nutzen gerecht verteilt werden.

Der Entwurf könnte sich möglicherweise auch zu sehr auf gebietsbezogene Ziele stützen, wie etwa die Ausdehnung von Schutzgebieten auf 30 % der Land- und Meeresfläche. Geschützte Bereiche werden oft dort platziert, wo sie am wenigsten störend sind, anstatt dort, wo sie am effektivsten wären.

„Schauen Sie sich die durchschnittliche Höhenlage und Abgeschiedenheit der Nationalparks an. Diese tendieren dazu, hoch zu liegen und ausgedehnt zu sein; Fels und Eis“, bemerkt Visconti und fügt hinzu, dass für die Auswirkungen auf die biologische Vielfalt Qualität wichtiger als Quantität sei.

Konzentrierte Lösungen

Diese Einschätzung wird durch zwei aktuelle Studien unter Beteiligung von IIASA-Forschern bestätigt. Eine davon hat die Wiederherstellung von Ackerland und Weideland zurück in einen natürlichen Lebensraum untersucht [4]. Die Autoren haben umgewandeltes Land kartiert und die lokalen Auswirkungen der Renaturierung auf CO2 und das Risiko von Artensterben untersucht, wobei sie Felddaten von ähnlichen Standorten zugrunde legten. Anschließend haben sie die globalen Ergebnisse modelliert, wenn 15 % des gesamten umgewandelten Landes im Ausmaß von 4,3 Millionen km2 wiederhergestellt werden. Ein linearer Programmieralgorithmus hat die optimale Wahl von Standorten der Konversion bei verschiedenen Gewichtungen von Aussterberisiko, CO2 und Kosten getroffen. Das Szenario einer Renaturierung, das darauf abzielt, CO2 und Biodiversität zu optimieren, verhindert 60 % des ansonsten zu erwartenden Aussterbens und bindet fast 300 Gigatonnen CO2 - entsprechend etwa den globalen Emissionen von 7 Jahren bei der heutigen Rate.

Die zweite Studie unter der Leitung des IIASA-Forschers Martin Jung hat sich mit dem Naturschutz befasst und seine Auswirkungen auf die Artenvielfalt, den Kohlenstoff und die Bereitstellung von sauberem Wasser berechnet [5]. Im Gegensatz zu früheren Studien wurden hier nicht nur Tiere, sondern auch Pflanzen erfasst. Man kommt zu dem Schluss, dass die Bewirtschaftung von nur 10 % der weltweiten Landfläche den Erhaltungszustand von 46 % der Arten verbessern und 27 % des gespeicherten Kohlenstoffs und 24 % des sauberen Wassers bewahren kann. Eine detaillierte Karte der lokalen Vorteile zeigt, wo die Menschen den größten Nutzen aus ihrem Einsatz für den Naturschutz erzielen können. Abbildung 3.

Abbildung 3. Gebiete mit globaler Bedeutung für Biodiversität, CO2-Bindung und sauberes Wasser. Die drei Güter sind gleich gewichtet und nach höchster Priorität (1 - 10 %) bis niedrigster Priorität (90 -100 %) für die globale Erhaltung gereiht (Bild: Jung et al.,[5]; cc-by-nc-nd) >

Der Zustand der Natur

Daten zur Biodiversität sind für die Kampagne von wesentlicher Bedeutung, solche sind aber oft nur spärlich vorhanden. „Insbesondere für Afrika und Südamerika fehlt eine riesige Menge an Daten“, sagt Ian McCallum, Leiter der IIASA-Forschungsgruppe Novel Data Ecosystems for Sustainability. Diese Gruppe will die Situation verbessern, unter anderem durch Einbeziehen neuer Datenquellen wie Citizen Science, Aufzeichnungen durch Drohnen und LIDAR-Daten von Satelliten und Flugzeugen.

„Wir verwenden statistische Techniken, um Daten zu harmonisieren, um alles zusammenzuführen“, sagt McCallum.

McCallum leitet auch das Vorhaben Interessensgruppen in das EU-Projekt EuropaBON (Europa Biodiversity Observation Network: integrating data streams to support policy) einzubinden; dieses europäische Rahmenwerk zur Überwachung der biologischen Vielfalt hat das Ziel, kritische Lücken in den Daten zu identifizieren [6]. Auch wenn Europa diesbezüglich besser erfasst ist als der Großteil der Welt, gibt es immer noch viele weiße Flecken – insbesondere in aquatischen Lebensräumen – und dieses Projekt will dazu beitragen, Methoden zur Eingliederung von Daten voranzutreiben.

„In datenreichen Gebieten kann man Techniken entwickeln, die dann ausgebaut und global genutzt werden können“, bemerkt er.

Wurzeln der Biodiversität

Ein solides theoretisches Verständnis könnte Datenlücken schließen und politikorientierte Modelle realistischer machen. Ein Ziel ist es zu verstehen, warum manche Ökosysteme so artenreich sind.

„Alle Fragen nach dem "Warum" in der Biologie finden eine Antwort in der Evolution“, erklärt Ulf Dieckmann, Senior Researcher im IIASA Advancing Systems Analysis Program; Diekmann hat 25 Jahre am IIASA damit verbracht die adaptive dynamische Theorie zu entwickeln, eine Form der Systemanalyse, die Ökologie und Evolution verbindet.

Ein bemerkenswerter Erfolg dieses Ansatzes besteht darin, zu zeigen, wieso die Pflanzen des Regenwalds so vielfältig sein können. Nach der Nischentheorie adaptiert sich jede Art, um in eine spezifische Rolle/Position eines Ökosystem zu passen. Tiere konkurrieren um verschiedene Nahrungsmittel, was viele Nischen schafft; alle Pflanzen haben aber nur eine Nahrungsquelle, das Sonnenlicht. Nischenmodelle hatten deshalb voraussagt, dass Regenwälder nur wenige Baumarten und nur eine schattentolerante Spezies haben sollten. Echte Wälder haben jedoch viele Schattenbewohner, was die Nischentheorie in Frage stellt.

Dieckmann hat an einem realistischeren Modell gearbeitet, das Pflanzenphysiologie, Ökologie und Evolution kombiniert [7]. Für Arten ist es möglich, zwei variable Merkmale zu haben (Höhe bei Reife und Blattdicke). Wenn Baumfällungen oder Feuer ein neues Waldstück erschließen, wandern schnell wachsende Besiedler ein, gefolgt von langsam wachsenden. Im Modell führt die Evolution zu einer Vielzahl von schattentoleranten Baumarten mit leicht unterschiedlichen Eigenschaften. Es zeigt auch eine realistische Pflanzenvielfalt in Wäldern der gemäßigten Zone, in Buschland und bewaldeten Flussufern. Diese Art von Einblicken könnte die Naturschutzarbeit beeinflussen.

„Man könnte fragen, welche ökologischen Prozesse intakt bleiben müssen, um die Biodiversität zu erhalten?“ sagt Dieckmann. Pflanzen konkurrieren auch um Wasser, und der IIASA-Forscher Jaideep Joshi untersucht, wie sich dies auf die Artenvielfalt auswirkt. „Noch ambitioniertere öko-evolutionäre Modelle werden Topografie, Bodenmikrobiome und andere Faktoren berücksichtigen“, fügt Dieckmann hinzu.

Integrierte Modelle der Zukunft

Biodiversität ist nicht nur ein wünschenswertes Ergebnis an sich, sondern beeinflusst auch andere Systeme wie beispielsweise die Widerstandsfähigkeit der Wälder, die erhalten bleibt und damit die Bindung von CO2 generiert. IIASA baut ein neues integriertes Biosphärenmodell, iBIOM, auf, das einige dieser Effekte erfassen könnte, beispielsweise die Rolle der Insektenbestäubung in Hinblick auf die Ernteerträge.

Als Teil eines umfassenden Modellierungsrahmens, der derzeit am IIASA in Entwicklung ist, wird iBIOM dazu verwendet werden, um das komplexe Zusammenspiel zwischen Klima und Biodiversität zu erforschen.

„Das ist eine gewaltige Herausforderung“, sagt Leclère.

Zum einen müssen die Modelle die Landnutzung sehr detailliert erfassen, beispielsweise welche Wirkung der Anbau verschiedener Pflanzenarten auf die Speicherung von CO2 hat. Aber der Nutzen könnte auch enorm sein und aufzeigen, welche Optionen zum Klimaschutz die besten in Hinblick auf Biodiversität sind – eine Hilfe für uns die Vision der CBD 2050 zu erfüllen, im Einklang mit der Natur zu leben.


[1] IIASA, 10.09.2020: Verlust an biologischer Vielfalt - den Negativtrend umkehren

[2] Leclere, D., et al. (2020). Bending the curve of terrestrial biodiversity needs an integrated strategy. Nature 585 551-556. 10.1038/s41586-020-2705-y. (accepted version, Lizenz: cc-by-nc)

[3] Díaz, S. et al. (2020). Set ambitious goals for biodiversity and sustainability. Science 370 (6515) 411-413. 10.1126/science.abe1530

[4] Strassburg, B.B.N., et al. (2020). Global priority areas for ecosystem restoration. 10.1038/s41586-020-2784-9

[5] Jung, M.,  et al. (2020). Areas of global importance for terrestrial biodiversity, carbon, and water (Submitted)

[6] EuropaBON: Europa Biodiversity Observation Network: integrating data streams to support policy.  https://cordis.europa.eu/project/id/101003553/de

[7] Falster, D., et al., (2017). Multitrait successional forest dynamics enable diverse competitive coexistence. Proceedings of the National Academy of Sciences 114 (13) 2719-2728. 10.1073/pnas.1610206114 (accepted version, Lizenz: cc-by-nc)


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel von Stephen Battersby ist am 17. Juni 2021 im Option Magazin des IIASA unter dem Titel: "Defense of the natural realm" https://iiasa.ac.at/web/home/resources/publications/options/s21-defense-of-the-natural-realm.html erschienen. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Weiterführende Links

IIASA :  https://iiasa.ac.at/

Convention on Biological Diversity; homepage: https://www.cbd.int/

inge Thu, 29.07.2021 - 00:34

Komplexe Schaltzentrale des Körpers - Themenschwerpunkt Gehirn

Komplexe Schaltzentrale des Körpers - Themenschwerpunkt Gehirn

Do, 23.07.2021 — Redaktion

RedaktionIcon Gehirn

  Seit den Anfängen von ScienceBlog.at gehört das Gehirn zu unseren wichtigsten Themen. Rund 10 % aller Artikel - d.i. derzeit mehr als 50 Artikel - befassen sich mit unterschiedlichen Aspekten zu Aufbau, Funktion, Entwicklung und Evolution des Gehirns und - basierend auf dem Verstehen von Gehirnfunktionen - mit Möglichkeiten bisher noch unbehandelbare Gehirnerkrankungen zu therapieren. Die bisherigen Artikel sind nun in einem Schwerpunkt zusammengefasst, der laufend ein Update erfahren soll.  

Vor Verletzungen, Stößen und Erschütterungen durch starke Schädelknochen und die Einbettung ins Hirnwasser (Liquor cerbrosinalis) geschützt, ist das empfindliche, weiche Gehirn ununterbrochen damit beschäftigt Wahrnehmungen und Reize aus der Umwelt und aus dem Körper zu verarbeiten. Rund 86 Milliarden unterschiedliche Neuronen (die meisten davon im Kleinhirn) sind über 1000 Billionen Synapsen verkabelt; die entsprechenden Nervenfasern weisen insgesamt eine Länge von über 5 Millionen km auf. Sie bestimmen was wir wahrnehmen, was wir fühlen, was wir denken, woran wir uns erinnern, wie wir lernen und wie wir schlussendlich (re)agieren.

Die zweiten zellulären Hauptkomponenten des Gehirns-zahlenmäßig etwa gleich viele wie Neuronen - sind unterschiedliche Typen sogenannter Gliazellen. Ursprünglich als inaktiver Kitt zwischen den Neuronen betrachtet, weiß man nun, dass Gliazellen wesentlich in die Funktion des Gehirns involviert sind - Oligodendrozyten in die Ausbildung der Myelinscheide, die als Isolator die Axone ummantelt, Mikroglia fungieren als Immunabwehr, Astrozyten regulieren u.a. das Milieu im extrazellulären Raum.

Neue Verfahren

haben in den letzten Jahrzehnten der Hirnforschung einen außerordentlichen Impetus gegeben. Mit Hilfe bildgebender Verfahren und hochsensitiver Färbetechniken ist es nun möglich, den Verlauf einzelner Neuronen samt aller ihrer Verbindungen und dies auch dynamisch zu verfolgen. (Dazu im ScienceBlog: Das Neuronengeflecht entwirren - das Konnektom)

Abbildung 1. Reise durch das menschliche Gehirn - Visualisierung des Verlaufs von Nervenbahnen mittels Diffusions Tensor Traktographie (ein Kernspinresonanz-Verfahren, das die Diffusionsbewegung von Wassermolekülen in Nervenfasern misst). Oben: Nervenfaserbündel im Limbischen System (links) und visuelle Nervenfasern von den Augen zum Hinterhauptslappen (rechts).Unten: Nervenbündel des Corpus callosum (grün, links), die die Kommunikation zwischen den Hirnhälften ermöglichen und viele Nervenbündel, die kortikale und subkortikale Regionen verbinden (links, rechts). Screen Shots aus einem preisgekrönten Video. Die Farben zeigen den Verlauf der Nervenfasern(Hauptrichtung der Diffusion); rot: von links nach rechts, grün: von vorn nach hinten, blau: von oben nach unten. (Quelle: Francis S. Collins (2019) https://directorsblog.nih.gov/2019/08/20/the-amazing-brain-mapping-brain-circuits-in-vivid-color/*)

Beispielsweise ist die Diffusions Tensor Traktographie ein Kernspinresonanz-Verfahren, das die Diffusionsbewegung von Wassermolekülen in Nervenfasern, d.i. in den Axonen, misst und so deren Position und Verlauf dreidimensional abbilden kann, also von wo nach wo Informationen fließen können. Das nicht-invasive Verfahren liefert sowohl der Grundlagenforschung (u.a. im Connectome-Projekt) als auch der medizinischen Anwendung - hier vor allem zur präoperativen Bildgebung von Gehirntumoren und Lokalisierung von Nervenschädigungen - grundlegende Informationen. Abbildung 1.

Optogenetik - von der Zeitschrift Nature als Methode des Jahres 2010 gefeierte Strategie - benutzt Licht und genetisch modifizierte, lichtempfindliche Proteine als Schaltsystem, um gezielt komplexe molekulare Vorgänge in lebenden Zellen und Zellverbänden bis hin zu lebenden Tieren sichtbar zu machen und zu steuern. (Dazu im ScienceBlog: Optogenetik erleuchtet Informationsverarbeitung im Gehirn)

Mit Hilfe der Positronenemissionstomographie (PET) kann nichtinvasiv der Hirnstoffwechsel dargestellt und krankhafte Veränderungen mittels der gleichzeitig durchgeführten Computertomographie (CT) lokalisiert werden.

Internationale Großprojekte

Eine enorme Förderung hat die Hirnforschung durch längerfristige internationale Initiativen erfahren wie das von 2013 bis 2022 laufende europäische Human Brain Project , für das rund 1,2 Milliarden € veranschlagt sind und an dem mehr als 500 Wissenschafter von über 140 Universitäten und anderen Forschungseinrichtungen zusammenwirken (https://www.humanbrainproject.eu/en/about/overview/). Das Ziel ist das gesamte Wissen über das menschliche Gehirn zusammenzufassen und es mittels Computermodellen auf allen Ebenen von Molekülen, Genen, Zellen und Funktionen nachzubilden. In der nun angelaufenen letzten Phase des Projekts sollen vor allem die Netzwerke des Gehirns, deren Rolle im Bewusstsein und künstliche neuronale Netzwerke im Fokus stehen.

Abbildung 2. "Neuroscience Fireworks". Zur Feier des „Independence Day“ in den US am 4. Juli zeigt Francis S. ein Feuerwerk von Neuronen in verschiedenen Hirnarealen der Maus. Mittels Lichtscheibenfluoreszenzmikroskopie wird eine 3D-Auflösung in zellulärem Maßstab erreicht: man sieht die rundlichen Zellkörper und die davon ausgehenden Axone, welche die Signale weiterleiten. Links oben: Der Fornix - Nervenfasern, die Signale vom Hippocampus (Sitz des Gedächtnisses) weiterleiten. Rechts oben: Der Neocortex - Zellen im äußeren Teil der Großhirnrinde, die multisensorische, mechanische Reize weitergeben . Links unten: Der Hippocampus - die zentrale Schaltstelle des limbischen Systems. Rechts unten: Der corticospinale Trakt, der motorische Signale an das Rückenmark weiterleitet. (Quelle: Video von R. Azevedo, S. Gandhi, D. Wheeler in https://directorsblog.nih.gov/2021/06/30/celebrating-the-fourth-with-neuroscience-fireworks/*).

Eine weiteres, mit 1,3 Milliarden $ gefördertes 10-Jahres Programm ist The Brain Initiative https://braininitiative.nih.gov/ . Es wird von den US National Institutes of Health (NIH) realisiert und läuft von 2016 bis 2025. In den ersten Jahren wurde hier der Fokus auf neue Technologien gelegt, die nun angewandt werden, um die Aktivitäten aller Zellen im lebenden Hirn zu erfassen, die biologische Basis mentaler physiologischer und pathologischer Prozesse zu verstehen und darauf aufbauend therapeutische Anwendungen für bislang unbehandelbare Hirnerkrankungen zu schaffen.

Francis S. Collins, Direktor der NIH, hat in seinem Blog kürzlich ein faszinierendes Video gepostet, das Lichtscheibenfluoreszenzmikroskopie anwendet (für hohe Auflösung werden dabei nur sehr dünne Gewebeschichten ausgeleuchtet), um Neuronen in verschiedenen Gehirnarealen der Maus darzustellen. Abbildung 2 zeigt einige Screenshots dieser "Neuroscience Fireworks" (Collins).

Ein Meilenstein wurde kürzlich im Allen Institute for Brain Science in Seattle erreicht: Ein Kubikmillimeter Mäusehirn mit rund 100 000 Neuronen und 1 Milliarde Synapsen wurde anhand von mehr als 100 Millionen Bildern digitalisiert und kartiert.


*Die Wiedergabe von im NIH Director’s Blog erschienenen Artikeln/Inhalten von Francis S.Collins wurde ScienceBlog.at von den National Health Institues (NIH) gestattet.


Das Gehirn - Artikel im ScienceBlog

Komponenten

Susanne Donner, 08.04.2016: Mikroglia: Gesundheitswächter im Gehirn

Reinhard Jahn, 30.09.2016: Wie Nervenzellen miteinander reden

Inge Schuster, 13.09.2013: Die Sage vom bösen Cholesterin

Inge Schuster, 08.12.2016: Wozu braucht unser Hirn so viel Cholesterin?

Nora Schultz, 24.12.2020: Myelin ermöglicht superschnelle Kommunikation zwischen Neuronen

Hinein ins Gehirn und heraus

Redaktion, 06.02.2020: Eine Schranke in unserem Gehirn stoppt das Eindringen von Medikamenten. Wie lässt sich diese Schranke überwinden?

Redaktion, 19.10.2017: Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen

Informationsverarbeitung

Michael Simm, 06.05.2021: Das Neuronengeflecht entwirren - das Konnektom

Wolf Singer, 05.12.2019: Die Großhirnrinde verarbeitet Information anders als künstliche intelligente Systeme

Wolf Singer & Andrea Lazar, 15.12.2016: Die Großhirnrinde, ein hochdimensionales, dynamisches System

Gero Miesenböck, 23.02.2017: Optogenetik erleuchtet Informationsverarbeitung im Gehirn

Ruben Portugues, 22.04.2016: Neuronale Netze mithilfe der Zebrafischlarve erforschen

Nora Schultz, 20.02.2020: Die Intelligenz der Raben

Körper - Hirn

Francis S. Collins, 15.07.2016: Die Muskel-Hirn Verbindung: Training-induziertes Protein stärkt das Gedächtnis

Nora Schultz, 31.10.2019: Was ist die Psyche

Ilona Grunwald Kadow, 11.05.2017: Wie körperliche Bedürfnisse und physiologische Zustände die sensorische Wahrnehmung verändern

Francis S. Collins, 17.10.2019: Projektförderung an der Schnittstelle von Kunst und Naturwissenschaft: Wie trägt Musik zu unserer Gesundheit bei?

Jochen Müller, 19.11.2020: Warum essen wir mehr als wir brauchen?

Francis S. Collins, 25.01.2018: Primäre Zilien auf Nervenzellen- mögliche Schlüssel zum Verständnis der Adipositas

Nora Schultz, 02.06.2018: Übergewicht – Auswirkungen auf das Gehirn

Redaktion, 29.06.2017: Mütterliches Verhalten: Oxytocin schaltet von Selbstverteidigung auf Schutz der Nachkommen

Schmerz

Gottfried Schatz, 30.8.2012: Grausamer Hüter — Wie uns Schmerz schützt – oder sinnlos quält

Nora Schultz, 10.11.2016: Vom Sinn des Schmerzes

Manuela Schmidt, 06.05.2016: Proteinmuster chronischer Schmerzen entziffern

Susanne Donner, 16.02.2017: Placebo-Effekte: Heilung aus dem Nichts

Schlaf

Henrik Bringmann, 25.05.2017: Der schlafende Wurm

Niels C. Rattenborg, 30.08.2018: Schlaf zwischen Himmel und Erde

Sinneswahrnehmung

Dazu existiert ein eigenerSchwerpunkt: Redaktion, 25.04.2014: Themenschwerpunkt: Sinneswahrnehmung — Unser Bild der Aussenwelt

Susanne Donner, 11.01.2018: Wie real ist das, was wir wahrnehmen? Optische Täuschungen

Michael Simm, 24.01.2019: Clickbaits - Köder für unsere Aufmerksamkeit

Erkrankungen

Francis S. Collins, 14.02.2019: Schlaflosigkeit fördert die Ausbreitung von toxischem Alzheimer-Protein

Inge Schuster, 24.06.2016: Ein Dach mit 36 Löchern abdichten - vorsichtiger Optimismus in der Alzheimertherapie

Francis S. Collins, 27.05.2016: Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts

Gottfried Schatz, 03-07.2015: Die bedrohliche Alzheimerkrankheit — Abschied vom Ich

-----------------------------------------------

Redaktion, 22.03.2018: Schutz der Nervenenden als Strategie bei neuromuskulären Erkrankungen

Ricki Lewis, 02.11.2017: Ein modifiziertes Poliovirus im Kampf gegen bösartige Hirntumoren

Gottfried Schatz, 26.07.2012: Unheimliche Gäste — Können Parasiten unsere Persönlichkeit verändern?

Nora Schultz, 15.12.2017: Multiple Sklerose - Krankheit der tausend Gesichter

Francis S. Collins, 15.01.2021: Näher betrachtet: Auswirkungen von COVID-19 auf das Gehirn

Hans Lassmann, 14.07.2011: Der Mythos des Jungbrunnens: Die Reparatur des Gehirns mit Stammzellen

Entwicklung, Evolution

Nora Schultz, 11.06.2020: Von der Eizelle zur komplexen Struktur des Gehirns

Susanne Donner, 05.08.2016: Wie die Schwangere, so die Kinder

Nora Schultz, 19.08.2017: Pubertät - Baustelle im Kopf

Redaktion, 03.08.2017: Soll man sich Sorgen machen, dass menschliche "Mini-Hirne" Bewusstsein erlangen?

Georg Martius, 09.08.2018: Roboter mit eigenem Tatendrag

Nora Schultz, 25.10.2018: Genies aus dem Labor

IngeSchuster, 12.12.2019; Transhumanismus - der Mensch steuert selbst siene Evolution

--------------------------------------------------

Philipp Gunz, 24.07.2015: Die Evolution des menschlichen Gehirns

Philipp Gunz, 11.10.2018: Der gesamte afrikanische Kontinent ist die Wiege der Menschheit

Christina Beck, 20.05.2021: Alte Knochen - Dem Leben unserer Urahnen auf der Spur


 

Weiterführende Links

dasGehirn.info (https://www.dasgehirn.info/) eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Einige Videos von dieser Plattform:

  • Das Connectome. dasGehirnInfo. Video 7:08 min. 01.05.2021. https://www.youtube.com/watch?v=puiEfrzRTto
  • Neuron ≠ Neuron. das Gehirn.info. Video 4:41 min. 1.12.2020. https://www.youtube.com/watch?v=fel3lOrPXpQ&t=252s
  • Die Welt der Gliazellen. das Gehirn.info. Video 3:37 min. https://www.youtube.com/watch?v=BGUpadTW3DE

.

The Brain Research Through Advancing Innovative Neurotechnologies® (BRAIN) https://braininitiative.nih.gov/  Initiative is aimed at revolutionizing our understanding of the human brain


 

inge Fri, 23.07.2021 - 18:30

Glyphosat gefährdet lebenswichtige Symbiose von Insekten und Mikroorganismen

Glyphosat gefährdet lebenswichtige Symbiose von Insekten und Mikroorganismen

Do, 15.07.2021 — Martin Kaltenpoth Martin KaltenpothIcon Biologie

Das Unkrautvernichtungsmittel Glyphosat hemmt die Biosynthese der Aminosäuren Tyrosin, Phenylalanin und Tryptophan (den sogenannten Shikimatweg), die in Pflanzen und vielen Mikroorganismen, nicht aber in Tieren vorkommt. Insekten, die mit Bakterien in Symbiose leben, können von diese mit solchen Nährstoffen versorgt werden. In einer aktuellen Studie zeigt nun ein Team um Prof. Martin Kaltenpoth (Max-Plack-Institut für chem. Ökologie, Jena, Universität Mainz und AIST, Japan) am Beispiel des Getreideplattkäfers, dass Glyphosat indirekt über die Hemmung des bakteriellen Partners auch die Entwicklung des Insekts schädigt, dem nun die Bausteine zur Bildung des Außenskeletts (Kutikula) fehlen [1]. Auf diese Weise dürfte Glyphosat zum dramatischen Rückgang auch vieler anderer Insekten beitragen, die au f die Symbiose mit Bakterien angewiesen sind.* 

Zu Glyphosat: Fünf Fragen an Martin Kaltenpoth

Host Rösch: Herr Kaltenpoth, Sie haben in Ihrer Studie gezeigt, dass Glyphosat Getreideplattkäfern schadet. Einer anderen Studie zufolge wirkt sich die Substanz negativ auf Honigbienen aus. Welche Insekten konnten noch betroffen sein?

Martin Kaltenpoth: Im Detail wissen wir das noch nicht. Aber Glyphosat könnte vielen Insekten schaden, die auf Symbiosebakterien angewiesen sind. Dazu zählen Arten, die sich von Pflanzensäften ernähren, also zum Beispiel Blattläuse, Zikaden oder Wanzen. Aber auch viele Käfer-, Bienen- und Ameisenarten beherbergen Symbionten und könnten von Glyphosat betroffen sein.

H.R.: Glyphosat galt als ein reines Pflanzenvernichtungsmittel. Warum wirkt es auch auf Insekten?

M.K.: Es hemmt den sogenannten Shikimat-Stoffwechsel, mit dem Pflanzen unter anderem aromatische Aminosäuren herstellen. Abbildung 1.

Abbildung 1: Biosynthese der aromatischen Aminosäuren Tryptophan, Tyrosin und Phenylalanin ausgehend von Phosphoenolpyruvat (Metabolit der Glykolyse) und Erythrose-4-Phosphat (Metabolit des Pentosephosphatwegs) über den vielstufigen Shikimatweg. Links: Glyphosat blockiert den ersten Schritt dieses Wegs auf Grund seiner chemischen Ähnlichkeit mit Phosphoenolpyruvat. Rechts: der Wirtsorganismus liefert dem Symbionten Glukose-6-phosphat und versorgt diesen mit den aromatischen Aminosäuren (Bild von der Redn. eingefügt).

Aber nicht nur Pflanzen, sondern auch manche Bakterien und Pilze nutzen diesen Stoffwechselweg. Insekten, die ihren Bedarf an aromatischen Aminosäuren wie dem Tyrosin nicht mit ihrer Nahrung decken können, beherbergen Bakterien in speziellen Organen für die Aminosäure-Produktion. Sie leben mit diesen in Symbiose. Glyphosat wirkt auf diese Mikroben wie ein Antibiotikum: Nachdem die Insekten das Gift über die Nahrung aufgenommen haben, verteilt es sich im Körper und tötet die innerhalb der Zellen der Symbioseorgane lebenden Bakterien. Abbildung 2. Ohne ihre Partner fehlt den Insekten das Tyrosin für die Bildung des Außenskeletts. Die Folge ist, dass sie schneller austrocknen und leichter von Feinden gefressen werden können. Bei den Bienen schädigt das Mittel nicht Bakterien in Symbioseorganen, sondern in der Darmflora. Die Bienen werden dadurch anfälliger für Krankheitserreger.

Abbildung 2: Der Getreideplattkäfer (Oryzaephilus surinamensis), der in enger Symbiose mit Bakterien vom Stamm Bacteroidetes lebt. Unten: Längsschnitt durch die 5 Tage alte Puppe des Käfers zeigt Organe, welche die Symbionten enthalten (mit Fluoreszenzfarbstoff markiert, purpurfarben). Weiße Punkte: Dapi-markierte Zellkerne. (Bild von Redn, eingefügt; oben aus Wikipedia Clemson University - USDA Cooperative Extension Slide Series, Bugwood.org - http://www.insectimages.org/browse/detail.cfm?imgnum=1435099. Unten: aus [1], Kiefer et al., https://doi.org/10.1038/s42003-021-02057-6. Beide Bilder stehen unter cc-Lizenz).

H.R.: Glyphosat ist seit Jahrzehnten auf dem Markt. Worauf musste man in Zukunft bei der Zulassung von Pestiziden achten, um die Auswirkungen auf andere Organismen frühzeitig zu erkennen?

M.K.: Man sollte die Wirkung von Pestiziden in Zukunft an einer größeren Anzahl unterschiedlicher Arten testen. Insekten sind eben nicht alle gleich, und was die eine Art toleriert, kann der anderen massiv schaden. Außerdem wissen wir heute, dass die Fokussierung auf die mittlere letale Dosis – also die Konzentration, bei der die Hälfte der Testorganismen stirbt – nicht ausreicht. Die Hersteller von Pestiziden müssen Effekte stärker berücksichtigen, die nicht direkt zum Tod führen. Zum Glück findet diese Erkenntnis bei der Risikobewertung zunehmend Beachtung.

H.R.: Auch für uns Menschen sind die Mikroorganismen lebenswichtig. Welche Folgen könnten Rückstande des Pestizids für unsere Darmflora haben?

M.K.: Auch manche Bakterien im menschlichen Darm nutzen den Shikimat-Stoffwechsel. Sie könnten also durchaus von Glyphosat beeinträchtigt werden. Studien haben nachgewiesen, dass das Mittel die Darmflora von Mäusen und Ratten in für Menschen als akzeptabel angenommenen Konzentrationen beeinflussen kann. Ob eine Glyphosat-bedingte Veränderung der Darm-Mikrobiota möglicherweise auch für Menschen Folgen hat und, wenn ja, welche, ist noch unklar.

H.R.: Bislang ging man davon aus, dass sich Glyphosat allenfalls indirekt auf Insekten auswirkt, indem es zum Beispiel ihre Nahrungspflanzen vernichtet. Angesichts der neuen Erkenntnisse: Könnte das Mittel ein Grund für das grassierende Insektensterben sein?

M.K.; Das Insektensterben hat sicherlich verschiedene Ursachen. Klar ist aber, dass viele Insekten Symbiosebakterien zum Überleben brauchen. Ich befürchte daher, dass Glyphosat zum Rückgang der Insekten beitragen könnte. Deshalb halte ich den weiteren Einsatz auch für bedenklich. Wenn wir aber auf Pestizide verzichten wollen, dann müssen wir über Alternativen diskutieren, zum Beispiel über den Einsatz gentechnisch veränderter Pflanzen. Leider findet diese Diskussion derzeit kaum statt.

Das Gespräch hat Dr. Harald Rösch (Redaktion MaxPlanckForschung) geführt.


[1] Julian Simon Thilo Kiefer et al., Inhibition of a nutritional endosymbiont by glyphosate abolishes mutualistic benefit on cuticle synthesis in Oryzaephilus surinamensis. Communications Biology, https://doi.org/10.1038/s42003-021-02057-6


*Das Interview mit Martin Kaltenpoth ist im Wissenschaftsmagzin-MaxPlanckForschung 02/2021 https://www.mpg.de/17175805/MPF_2021_2 unter: „Fünf Fragen zu Glyphosat an Martin Kaltenpoth“ erschienen und kann mit freundlicher Zustimmung der MPG-Pressestelle von ScienceBlog.at weiterverbreitet werden. Der Text wurde unverändert übernommen, zwei Abbildungen (plus Legenden) wurden von der Redaktion eingefügt.


Weiterführende Links

Max-Planck-Institut für Chemische Ökologie (ice.mpg; Jena): https://www.ice.mpg.de/ext/index.php?id=home0&L=1

Ergänzung des Interviews (ice.mpg): "Die Achillesferse eines Käfers: Glyphosat hemmt symbiotische Bakterien von Getreideplattkäfern" (11.Mai 2021) https://www.ice.mpg.de/ext/index.php?id=1686&L=1


 

inge Wed, 14.07.2021 - 23:55

Phagen und Vakzinen im Kampf gegen Antibiotika-resistente Bakterien

Phagen und Vakzinen im Kampf gegen Antibiotika-resistente Bakterien

Do, 08.7.2021 — Redaktion

RedaktionIcon Medizin

  Die Entstehung von Antibiotika-resistenten Bakterien, die derzeit bereits rund 700 000 Menschen jährlich töten und der Mangel an neuen wirksamen Antibiotika hat das Interesse an einer Phagentherapie wieder aufleben lassen. Worum es dabei geht hat und dass diese Therapieform leider noch in den Kinderschuhen steckt, hat die renommierte Virologin Karin Moelling vor zwei Jahren im ScienceBlog berichtet [1, 2]. Nun entwickelt das französische Unternehmen Pherecydes Pharma - unterstützt durch das EU-Projekt PhagoProd – verbesserte qualitätskontrollierte Verfahren zur Selektion, Produktion und klinischen Anwendung von Phagen. Ein weiteres EU-Projekt BactiVax möchte Infektionen vorbeugen und Vakzinen gegen geeignete Zielproteine an der Bakterienoberfläche entwickeln.* 

Anlässlich seines Nobelpreisvortrags über die Entdeckung des Penicillins im Dezember 1945 hat Dr. Alexander Fleming davor gewarnt, dass Bakterien gegen das Medikament resistent werden könnten, sofern sie nicht tödlichen Mengen ausgesetzt würden. „Es ist nicht schwierig, Mikroben im Labor gegen Penicillin resistent zu machen, indem man sie Konzentrationen aussetzt, die nicht ausreichen, um sie abzutöten, und das gleiche ist gelegentlich im Körper passiert“, sagte er.

Seine Warnung erwies sich als weitblickend. Heutzutage sind viele Bakterien gegen mehrere Antibiotika resistent und damit infizierte Patienten daher schwer zu behandeln. Dies passiert, weil Bakterien bei Anwendung von Antibiotika Wege entwickeln, um deren Wirkung zu eliminieren, zu blockieren oder zu umgehen.

Die Folgen für die menschliche Gesundheit sind schwerwiegend. Jedes Jahr sterben schätzungsweise 700.000 Menschen an antibiotikaresistenten Keimen. Die Weltgesundheitsorganisation (WHO) prognostiziert, dass bis 2050 an die 10 Millionen Todesfälle pro Jahr erreicht werden, wenn sich nichts ändert [3].

Erschwerend kommt hinzu, dass wir neue Antibiotika nicht schnell genug entwickeln. Von 43 in der Entwicklung befindlichen Antibiotika handelt es sich laut einer aktuellen WHO-Überprüfung nicht um neuartige Medikamente, die eine Gruppe von prioritären arzneimittelresistenten Bakterien adäquat bekämpfen. Tatsächlich wurde seit den 1980er Jahren keine neue Klasse von Antibiotika auf den Markt gebracht, die die problematischsten Bakterien bekämpft, die meistens einer Gruppe von sogenannten Gram-negativen Bakterien angehören.

„Die niedrig hängenden Früchte sind bereits gepflückt. Jetzt wird es mehr und mehr schwierig neue Antibiotika zu entdecken“, sagte Dr. Guy-Charles Fanneau de la Horie, CEO von Pherecydes Pharma, einem Biotech-Unternehmen in Frankreich.

Eine Alternative zur Suche nach neuen Medikamenten ist die Verwendung von Viren, die als Bakteriophagen (oder Phagen) bezeichnet werden und deren Opfer Bakterien sind. Abbildung 1. Sobald Phagen auf Bakterien landen, injizieren sie diesen ihre DNA und replizieren sich in ihnen. Bald platzen daraus ganze Virushorden hervor, um weitere Bakterien zu infizieren.

Abbildung 1.Bakteriophagen (oder Phagen) erbeuten Bakterien. Sobald Phagen auf Bakterien landen, injizieren sie ihnen DNA und replizieren sich in ihnen. Bildnachweis - ZEISS Microscopy, lizenziert unter CC BY-NC-ND 2.0

Keimtötende Viren

Pherecydes, das Unternehmen von Dr. de la Horie, ist auf die Herstellung solcher Phagen fokussiert und deren Anwendung an Patienten, die mit arzneimittelresistenten Bakterien infiziert sind. Seine Phagen töten drei Bakterienarten, die für ihre Resistenz gegen sogenannte first-line Antibiotika bekannt sind – Staphylococcus aureus, Escherichia coli und Pseudomonas aeruginosa. Dies sind die Hauptverantworlichen für viele arzneimittelresistente Infektionen in Krankenhäusern, wo ja die gefährlichsten Keime leben, merkt Dr. de la Horie an.

Die Anwendung von Phagenviren an Patienten sollte absolut sicher sein, da diese menschliche Zellen ja nicht angreifen. Und im Gegensatz zu vielen Antibiotika, die gegen Massen von Bakterienarten wirken, sind Phagen gezielter und töten keine „freundlichen“ Mikroben in unserem Darm. „Sie sind sehr spezifisch“, sagt Dr. de la Horie. „Beispielsweise hat ein Phage, der S. aureus abtötet, keine Wirkung auf Pseudomonas.“

Damit er eine präzise Waffe zur Abtötung entsprechender Bakterien ist, muss ein passender Phage sorgfältig ausgewählt werden. Dementsprechend hat Pherecydes den Kriterien der Qualitätskontrolle unterliegende Labors ("GMP-Konformität) etabliert, um Patientenproben zu analysieren, Problemkeime zu prüfen und einen spezifischen Phagen auszuwählen, um diese abzutöten.

„Wir haben eine kleine Anzahl von Phagen entdeckt, die wir Superphagen nennen, weil sie gegen eine Vielzahl von Stämmen derselben Spezies aktiv sind“, sagt Dr. de la Horie. Wenn ein Patient Pseudomonas aeruginosa hat, einen bösartigen Keim, der Patienten an Beatmungsgeräten häufig infiziert, werden Phagen angewandt, die mehr als 80% der Stämme abtöten

Die Phagentherapie ist von der Europäischen Arzneimittel-Agentur (EMA) noch nicht zugelassen. Pherecydes hat allerdings Patienten nach der Option „compassionate use“ mit Phagen behandelt, die nach Knie- oder Hüftoperationen Infektionen mit arzneimittelresistenten Bakterien entwickelten und bei denen andere Behandlungsmöglichkeiten versagten. Es sind dies Infektionen, die besonders schwer mit Antibiotika zu behandeln sind und kein gerade kleines Problem darstellen. „Zwischen 2 % bis 5 % der Gelenkersatzteile für Hüfte und Knie infizieren sich“, erklärt Dr. de la Horie.

Bis jetzt hat das Unternehmen mehr als 26 Patienten mit Phagen behandelt, hauptsächlich im Hospices Civils de Lyon (der sehr großen, zweiten Universitätsklinik Frankreichs). Berichte zeigen beispielsweise, wie dort drei ältere Patienten mit einer S. aureus-Infektion der Knieprothesen sowie ein Patient mit persistierender Pseudomonas-Infektion behandelt wurden. Es ist geplant, noch in diesem Jahr eine Studie zu Gelenkinfektionen nach Hüft- und Knieoperationen zu starten.

Außerdem hat das Unternehmen – unterstützt durch das EU-Projekt PhagoProd  [4]– verbesserte Herstellungsverfahren für Phagen entwickelt. Nun werden Litermengen hergestellt, es ist aber geplant, dies auf Chargen von mehreren zehn Litern zu erhöhen. Ein Milliliter in einer Flasche kann 10 Milliarden Phagen enthalten.

Dazu kommt: Wenn Phagen einem Patienten injiziert oder auf infiziertes Gewebe aufgebracht werden, vermehren sie sich in den Zielbakterien, sodass später mehr von ihnen zum Abtöten von Bakterien zur Verfügung stehen. „Sobald man die Phagen mit Bakterien in Kontakt gebracht hat, braucht man keine Phagen mehr zuzufügen, da sie sich selbst vermehren“, sagt Dr. de la Horie.

Dr. de la Horie hofft, dass 2023 eine große Patientenstudie beginnen kann. „Wir glauben, dass unsere Produkte frühestens 2024 oder vielleicht 2025 auf den Markt kommen könnten“, sagt er.

Vorbeugen, nicht heilen

Mit der Herausforderung antibiotikaresistenter Infektionen befasst sich auch BactiVax [5], ein weiteres EU-Projekt, zu dessen Zielen u.a. einer der Problemkeime – Pseudomonas aeruginosa – gehört. Abbildung 2. Anstatt Phagen oder andere Methoden anzuwenden, um Infektionen in ihrer Entstehung zu behandeln, setzen die BactiVax -Forscher jedoch auf Impfstoffe.

Abbildung 2.Das EU-Projekt Bactivax - Impfungen gegen Problemkeime. https://www.bactivax.eu/the-project

Pseudomonas peinigt Patienten auf der Intensivstation, Patienten mit chronisch obstruktiver Lungenerkrankung (COPD) und Patienten mit Mukoviszidose.

Pseudomonas kann chronische Infektionen und auch schwere Infektionen verursachen. „Es ist ein ziemlich häufig vorkommender Keim, der manchmal auch nicht wirklich Schaden zufügt", sagt Irene Jurado, Doktorandin am University College Dublin in Irland, „aber für Menschen mit Grunderkrankungen kann er ein Problem sein.“

Wenn ein Kind mit Mukoviszidose im Alter von 5 oder 6 Jahren mit einigen solcher Stämme infiziert wird, kann der Keim ein Leben lang in der Lunge verbleiben, die Atmung schwierig machen und schwer krank machen, fügt sie hinzu.

Pseudomonas besitzt ein großes Genom, das ihm viel Flexibilität verleiht  sich an verschiedene Herausforderungen anzupassen (darüber hat Jurado kürzlich berichtet). Dies macht Pseudomonas besonders gewandt, um Antibiotikaresistenzen zu entwickeln. So haben Forscher zwar jahrzehntelang versucht, Impfstoffe gegen Pseudomonas zu entwickeln, sind aber erfolglos geblieben.

Jurado untersucht nun die Proteine, mit denen sich das Bakterium an Lungenzellen anheftet. Dies könnte entscheidende Komponenten für einen Impfstoff liefern - genauso wie das SARS-CoV-2-Spike-Protein in Covid-19-Impfstoffen ein Target für unser Immunsystem darstellt. Abbildung 3.

Abbildung 3.Pseudomonas aeruginosa besitzt ein großes Arsenal an Virulenz-Faktoren (hier nicht näher erläutert), die in die Pathogenese der Lungeninfektion involviert sind. Die mit Spritzen gekennzeichneten Komponenten wurden bereits als Vakzinen-Antigene evaluiert. (Quelle: Maite Sainz-Mejíaset al., Cells2020,9, 2617; doi:10.3390/cells9122617. Lizenz: cc-by)

„Wir versuchen herauszufinden, welche Immunantworten erforderlich sind, um Menschen vor Infektionen zu schützen“, erklärt Dr. Siobhán McClean, Immunologin am University College Dublin, Irland, die BactiVax leitet. Die Proteine, mit denen Bakterien an unseren Zellen andocken, sind oft gute Ziele für Vakzinen. Beispielsweise verwendet der Keuchhusten-Impfstoff fünf verschiedene Proteine, mit denen sich die Bakterien an den Zellen in unserem Rachen anheften.

Leider ist Pseudomonas ein härterer Feind als das Covid-19-Virus, da das Bakterium Dutzende von Proteinen an seiner Oberfläche aufweist. Damit ist es weniger offensichtlich, was in einen Impfstoff Eingang finden sollte, als beim Pandemievirus, bei dem das Spike-Protein das Ziel der Wahl ist.

Die Forscher finden jedoch, dass ein Impfstoff den Aufwand lohnt. „Falls wir einen Impfstoff zur Prävention von Infektionen bekommen, ist diese unserer Meinung nach besser als ständig zu versuchen, (problematische Infektionen) mit Antibiotika zu behandeln“, sagt Dr. McClean. "Wir sind auf eine eiserne Reserve an Antibiotika angewiesen, und wenn diese aufgebraucht sind, stecken wir fest."


  1.  Karin Moelling, 29.08.2019: Ein Comeback der Phagentherapie?
  2. Karin Moelling, 4.07.2019: Viren gegen multiresistente Bakterien. Teil 1: Was sind Phagen?
  3. WHO: https://www.who.int/news/item/29-04-2019-new-report-calls-for-urgent-action-to-avert-antimicrobial-resistance-crisis
  4. PhagoProd: GMP manufacturing & GLP diagnostic: Towards a personalised phage therapy against antimicrobial resistance. Project 01.11.2018 - 31.12.2021. https://cordis.europa.eu/project/id/811749  
  5.  BactiVax: anti-Bacterial Innovative Vaccine Training Network. Project 01.10.2019 - 30.09.2023.https://cordis.europa.eu/project/id/860325

* Dieser Artikel wurde ursprünglich am 28. Juni 2021 von Anthony King in Horizon, the EU Research and Innovation Magazineunter dem Titel "More bacteria are becoming resistant to antibiotics – here's how viruses and vaccines could help" publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Abbildung 2 und 3 plus Beschriftungen wurden von der Redaktion eingefügt.


 

inge Thu, 08.07.2021 - 00:05

Comments

Rita Bernhardt (not verified)

Fri, 24.09.2021 - 09:11

Ein (wie immer) zukunftsweisender, spannender und kluger Beitrag der Autorin Inge Schuster

Hyaluronsäure - Potential in Medizin und Kosmetik

Hyaluronsäure - Potential in Medizin und Kosmetik

So 04.07.2021.... Inge Schuster Inge SchusterIcon Medizin

Chemisch betrachtet ist Hyaluronsäure ein ganz einfaches Molekül: ein natürliches, in unseren Organismen vorkommendes Biopolymer, das aus zwei miteinander verknüpften, sich wiederholenden Zuckerresten (d.i. einem Disaccharid) besteht, die enorm viel Wasser binden können. Als eine wesentliche Komponente des extrazellulären Raums hält Hyaluronsäure unsere Gewebe - Haut, Knorpel, Gelenke - feucht und straff, eine Fähigkeit, die aber mit zunehmendem Alter leider abnimmt. Unterschiedlichste Anwendungen in der Medizin und vor allem im Kosmetiksektor boomen derzeit; für 2027 wird global ein Umsatz von mehr als16 Milliarden US $ prognostiziert.

Seit ihrer Entdeckung im Glaskörper von Kuhaugen vor fast 90 Jahren ist das Interesse an Hyaluronsäure und ihren möglichen Anwendungen in Medizin und Kosmetik enorm gestiegen. Unter dem Stichwort "hyaluronic acid" verzeichnet PubMed.gov - die US-Amerikanische Datenbank für Biomedizinische Publikationen - aktuell insgesamt 31 350 wissenschaftliche Artikel , wobei mehr als 2 000 Artikel jährlich dazukommen, die globale Datenbank https://clinicaltrials.gov/ nennt 519 klinische Studien, die von ästhetischer Medizin über Arthrosen bis hin zu Wundheilung reichen und Google schließlich listet unüberschaubare 50,9 Millionen Einträge und nahezu 2 Millionen Videos, die meisten davon bewerben Cremen, Seren und Haut-Füller, die eine faltenfreie jugendliche Haut versprechen. Sie lassen den an seriöser Information interessierten Laien einigermaßen ratlos zurück.

Hyaluronsäure boomt - dies spiegelt sich im Marktgeschehen wider. Neben zahlreichen kleineren Unternehmen sind auch "Big Player" in Pharma - beispielsweise Allergan, Galderma und Sanofi - am Hyaluron-Business beteiligt. Laut dem Marktforschungsunternehmen Grand View Research dürfte 2020 der globale Markt für medizinische Hyaluronsäure(produkte) bei etwa US $ 9,6 Mrd. liegen und bis 2027 wird eine Steigerung auf US $ 16,5 Mrd erwartet. Unter den Anwendungen dominieren derzeit Osteoarthritis (rund 41 % des Markts) und "Hautfüller" (rund 30 % des Markts). Die prognostizierten hohen Wachstumsraten sind auf den stark ansteigenden Anteil der älteren/geriatrischen Bevölkerung zurückführen, die sich von Hyaluronsäure, angewandt mit minimal invasiven Methoden, eine Besserung ihres Bewegungsapparats und eine Verjüngung ihres äußeren Erscheinungsbildes erhofft.

Was ist Hyaluronsäure?

Es ist ein langkettiges, lineares Biopolymer, das in allen Wirbeltieren produziert wird und in nahezu allen Teilen des Körpers vorhanden ist (s.u.). Hyaluronsäure setzt sich aus zwei sich wiederholenden, von Glukose abgeleiteten Einheiten, sogenannten Disacchariden - Glukuronsäure und Acetylglukosamin - zusammen. Die Säuregruppen der Glukuronsäure machen das Polymer zum Polyanion. Die Fülle an hydrophilen (d.i. mit Wasser wechselwirkenden) Gruppen (Hydroxyl-, Caboxyl- und Acetamidgruppen) kann über Wasserstoffbrücken in der Molekülkette selbst miteinander interagieren und im wässrigen Milieu enorme Mengen an Wassermolekülen anlagern (Abbildung 1). Das hochflexible Polymer bildet mit steigender Kettenlänge Knäuel ("random coils"), die über Wasserstoffbrücken temporäre netzförmige Strukturen ausbilden und ein bis zu mehr als Tausendfaches ihres Gewichts an Wasser zu speichern vermögen (1mg Hyaluronsäure bis 6 g Wasser).

Abbildung 1.Hyaluronsäure setzt sich aus sich wiederholenden Disaccharideinheiten - Glukuronsäure und N-Acetylglukosamin - zusammen. Das Disaccharid zeigt die Fülle an hydrophilen Gruppen - -OH-, COO--, C=O-, NH-, - die über Wasserstoffbrücken mit Gruppen in der Kette und auch mit H2O wechselwirken (unten). Rechts: Röntgenstruktur der linearen aus 3 Disacchariden bestehende Kette mit 3 Na-Ionen (lila) und einigen Wassermolekülen (rot). (Quelle links: modifiziert nach T.Kobayashi et al., Biomolecules 2020, 10, 1525; doi:10.3390/biom10111525; Lizenz cc-by und rechts: https://www.rcsb.org/3d-view/1HYA/1).

Diese netzförmigen Strukturen zeichnen sich durch hohe Viskoelastizität aus, d.i. sie können sich schnell neu konfigurieren und so an räumliche Gegebenheiten anpassen (Elastizität) aber auch zu ursprünglichen Konfigurationen zurückkehren (Viskosität). Von der Kettenlänge und Konzentration hängen die physikalischen, chemischen und physiologischen Eigenschaften der Hyaluronsäure ab und diese variieren in den unterschiedlichen Geweben. Die Kettenlänge reicht dabei von Oligomeren, die aus bis zu 20 Disacchariden (Molekulargewicht bis zu 7 600 Da) bestehen, bis hin zu hochmolekularen Polymeren mit über 10 000 Disaccharideinheiten (MW über 4 000 000 Da), wie sie beispielsweise in der Gelenksflüssigkeit (Synovia) vorkommen. Die lange Kettenlänge und hohe Konzentration in der Gelenksflüssigkeit (Abbildung 2) macht Hyaluronsäure zu einem hervorragenden Schmiermittel der Gelenke und bewirkt viskoelastische Eigenschaften bei Bewegungen.

Wo kommt Hyaluronsäure vor?

Insgesamt enthält der Körper eines Erwachsenen (mit rund 70 kg Körpergewicht ) etwa 15 g Hyaluronsäure, die einem raschen Turnover unterliegt: täglich wird etwa ein Drittel abgebaut und wieder neu synthetisiert. Hohe Konzentrationen finden sich (abgesehen von der Nabelschnur) in der Gelenksflüssigkeit, im Glaskörper des Auges und in der Haut (vor allem in der Dermis). Auf Grund ihrer Größe enthält die Haut etwa die Hälfte der im Körper vorhanden Hyaluronsäure. Abbildung 2.

Abbildung 2.Konzentration von Hyaluronsäure (in µg/g) in einigen Geweben des menschlichen Körpers. Angaben beziehen sich auf maximal gemessene Konzentrationen. Daten stammen aus P. Snetkov et al., Polymers 2020, 12, 1800; doi:10.3390/polym12081800 (Artikel steht unter cc-by Lizenz).

Hyaluronsäure ist ein Hauptbestandteil des extrazellulären Raums

und findet sich in nur geringen Mengen in den Körperzellen. In stark hydratisierter Form bildet sie - zusammen mit anderen Polysacchariden, Glykoproteinen und Proteoglykanen (s.u.) - die sogenannte Grundsubstanz, ein viskoses, gelartiges Milieu , das die Zellen umgibt, Wasser im extrazellulären Raum speichert und so die Diffusion von Nährstoffen und Stoffwechselprodukten von und zu den Zellen ermöglicht. Strukturiert durch Kollagenfasern und elastische Fasern wird die Grundsubstanz zur sogenannten extrazellulären Matrix. Aus Grundsubstanz, Faserproteinen und relativ wenigen darin lose liegenden und anhaftenden Zellen setzen sich dann die verschieden Arten der Bindegewebe zusammen. In straffen und lockeren Bindegewebstypen sind Fibroblasten die hauptsächlichen Zelltypen, daneben gibt es auch verschiedene (patrouillierende) Zelltypen des Immunsystems. Abbildung 3.

Abbildung 3.Zwei Typen des Bindegewebes unter dem Mikroskop. Links: Lockeres Bindegewebe, wie es in diversen Zwischenräumen im Körper vorkommt und auch das Gerüst vieler Organe bildet. Es überwiegt hier häufig die Grundsubstanz, die von Kollagenfasern (orangerot gefärbt) und elastischen Fasern (dunkelblau)durchzogen wird. Vereinzelte Zellen (dunkle Kerne) sind lose eingebettet. Rechts: Straffes Bindegewebe mit einem hohen Anteil an Kollagenfasern und weniger Grundsubstanz. Durch die parallele Anordnung in Sehnen und Bändern wird deren Zugfähigkeit erhöht. (Bild: https://en.wikipedia.org/wiki/Connective_tissue#/media/File:Illu_connective_tissues_1.jpg; gemeinfre).

Bindegewebe halten Körperorgane an ihren Positionen, stellen die Verbindung zwischen Blutgefäßen, Lymphgefäßen und Zellen und zwischen verschiedenen Gewebetypen her. Darunter fallen so unterschiedliche Typen wie man sie in der Haut - hier vor allem in der Dermis - findet, im Knorpel, im Gallertkern der Bandscheiben, in der Gelenksflüssigkeit, in den Sehnen, Knochen, in Muskel- und Fettgeweben, im Zahnfleisch, im Auge (Glaskörper), in den Hirnhäuten und im Gehirn. In all den verschiedenen Bindegeweben spielt Hyaluronsäure eine wesentliche Rolle, verleiht diesen (nicht komprimierbares) Volumen, Elastizität, viskoses Verhalten und fungiert u.a. als Stoßdämpfer und als Schmierung. Hyaluronsäure liegt dabei nicht nur als unmodifiziertes Polymer vor, sondern kann auch mit Glykoproteinen verknüpft sein und riesige Aggregate - sogenannte Proteoglykane - bilden (beispielsweise Aggrecan im Knorpel). Hirngewebe zeichnet sich durch geringe Steifigkeit aus - hier enthält die extrazelluläre Matrix nur geringe Mengen an Faserproteinen und hohe Konzentrationen an Hyaluronsäure und Proteoglycanen.

Physiologische Eigenschaften

Über lange Zeit beschränkte sich die Hyaluronsäure-Forschung im wesentlichen auf die biomechanischen, hydrodynamischen und chemischen Eigenschaften des Polymers. Hyaluronsäure vermag wesentlich mehr. Durch spezifische Bindung an Rezeptoren an Zelloberflächen aktiviert sie in den Zellen Signale, welche die dynamischen Eigenschaften von Zellen - wie Motilität, Adhäsion und Proliferation - regulieren können. Hyaluronsäure kann damit in physiologische Prozesse - von Wundheilung bis Morphogenese - involviert sein aber auch zu pathologischen Auswirkungen - Entzündung bis Tumorwachstum - beitragen. Der erste derartige, vor rund 30 Jahren charakterisierte Rezeptor - CD44 -, der auf vielen Zelltypen exprimiert wird aber auch durch einige andere Biomoleküle (z.B. Osteopontin) aktiviert werden kann, spielt u.a. eine wichtige Rolle in der Aktivierung von Lymphozyten. Daneben trägt CD44 wesentlich zum Abbau der Hyaluronsäure bei. Diese wird im Komplex mit CD44Komplex von den Zellen internalisiert ("receptor-mediated endocytosis") und in den Lysosomen enzymatisch von sogenannten Hyaluronidasen zu kleinen, niedermolekularen Bruchstücken abgebaut, die in den zellfreien Raum sezerniert werden. Derartige Abbauprodukte sind biologisch durchaus aktiv und können beispielsweise in Fibroblasten der Dermis und auch in Keratinocyten (den Hauptzellen der Epidermis) die Synthese neuer Hyaluronsäure stimulieren.

In der Folge wurden und werden weitere Rezeptoren für Hyaluronsäure identifiziert wie der Rezeptor für Hyaluronsäure-vermittelte Mobilität (RHAMM), der Endothelzell-Rezeptor der Leber, der Lymphendothelzell-Rezeptor (LYVE-1) u.a.m.

Das an und für sich einfach gestrickte Polymer zeigt eine mehr und mehr komplexe Fülle an Eigenschaften und physiologisch wichtigen Funktionen. Diese sind derzeit Gegenstand intensiver Forschung, versprechen sie doch ein tieferes Verstehen dieser Regulationsvorgänge und damit neue Konzepte und /oder verbesserte Voraussetzungen für medizinische Anwendungen.

Anwendungen

Molekülgröße und Konzentration der Hyaluronsäure sind für die Eigenschaften der extrazellulären Matrix in den verschiedensten Geweben ausschlaggebend und werden durch Synthese und Abbau feinreguliert. Innerhalb von 2 - 3 Tagen erfolgt so ein kompletter Austausch der gesamten Hyaluronsäure.

Mit zunehmendem Alter wird allerdings die Balance zwischen Synthese und Abbau gestört: die Synthese verlangsamt sich (reduzierte Enzymaktivitäten) und der Abbau (enzymatisch aber auch , durch bestimmte Umweltfaktoren verursacht) nimmt zu. Davon betroffen sind die Gelenksflüssigkeit ebenso wie Knorpel, Bandscheiben, Sehnen, Haut, etc. Um die gestörte Balance in der extrazellulären Matrix/ in den Bindegeweben wieder herzustellen, wird versucht die spärlich vorhandene Hyaluronsäure durch Präparate zu substituieren, die häufig biotechnologisch aus Streptokokken -Kulturen produziert werden. Da Hyaluronsäure auf natürliche Weise im Menschen vorkommt, ist mit guter Verträglichkeit zu rechnen.

Hyaluronsäure wird in verschiedensten medizinischen Indikationen eingesetzt, u.a. bei trockenen Augen und Schleimhäuten, in der Wundheilung und bei Verbrennungen. Am weitesten verbreitet sind Behandlungen von Arthrosen, vor allem Arthrosen des Kniegelenks.

Behandlung von Arthrosen

Wie weiter oben beschrieben verschaffen hohe Konzentrationen von hochmolekularer Hyaluronsäure die erforderlichen viskoelastischen Eigenschaften in den Gelenken. Nimmt altersbedingt die Hyaluronsäure in Gelenksflüssigkeit und Knorpeln ab, so führt dies zu Steifheit der Gelenke, eingeschränkter Beweglichkeit und Schmerzen. Eine von der FDA bereits seit den 1990er Jahren zugelassene Anwendung der Hyaluronsäure erfolgt bei Arthrosen, vor allem bei Kniearthrosen. Die Hyaluronsäure wird dabei mehrmals direkt ins Gelenk injiziert und soll über mehrere Monate (vielleicht auch ein ganzes Jahr) die Symptome lindern (auch wenn sie nur Stunden bis wenige Tage am Applikationsort verbleibt). Wie Metaanalysen zeigen, sind die Behandlungsergebnisse allerdings nicht durchgehend überzeugend, reichen von mangelnder Wirksamkeit in älteren Untersuchungen bis zu temporärer Schmerzhemmung bei milden/moderaten Arthrosen in neueren Analysen. Bei der Injektion ins Gelenk kann es zudem zu unerwünschten Nebenwirkungen kommen wie Beschädigungen des Knorpels, Infektionen im Gelenk - kommen.

Hautalterung

Im Vergleich zu einem Baby mit einer ganz prallen, faltenfreien Haut enthält die Dermis einer 50 Jahre alten Person im Mittel nur mehr halb so viel Hyaluronsäure und diese nimmt mit zunehmendem Alter noch weiter ab. Neben veränderten Synthese/Abbauaktivitäten sind vor allem Schäden durch Umwelt und Sonnenlicht (UV-Licht) für die Reduktion verantwortlich.

Abbildung 4 zeigt schematisch die Folgen der Sonneneinstrahlung. Die Hyaluronsäure ist reduziert und teilweise abgebaut, damit sinkt der Wassergehalt in der extrazellulären Matrix der Dermis, Wechselwirkungen mit den Kollagen- und Elastinfasern werden dezimiert und der Abbau der Fasern erleichtert. Die vormals straffe Haut ist nun erschlafft und zeigt Falten.

Abbildung 4.Vergleich einer lichtgeschützten Haut mit einer lichtgealterten Haut. Beschreibung im Text (Bild modifiziert nach: Hiroyuki Yoshida & Yasunori Okada, Int. J. Mol. Sci. 2019, 20, 5804; doi:10.3390/ijms20225804. Lizenz: cc-by).

Um dem Wunsch nach jugendlicher, faltenfreier Haut zu begegnen, verwenden Firmen seit rund 20 Jahren Hyaluronsäure als Feuchtigkeitsspender und Faltenglätter in ihren kosmetischen Produkten. Die meisten Hautcremen und Seren enthalten Hyaluronsäure in niedermolekularer bis hochmolekularer Form und auch in Form von Nanopartikeln. Werden diese Produkte aufgetragen, so dringen sie größenabhängig zwar unterschiedlich weit in die Haut ein, erreichen aber nicht die tieferen Schichten der Dermis, die ja zu wenig Hyaluronsäure enthält und zur Hauterschlaffung führt. Große Moleküle (Kettenlänge über 1 000 Disaccharideinheiten) bleiben auf der obersten Schichte - der Hornhaut - liegen, bilden eine Barriere, die Feuchtigkeit zurückhält und die Hornhaut etwas aufquellen lässt. Niedermolekulare Hyaluronsäure bringt Feuchtigkeit in die dichten Zellschichten der rund 0,15 mm tiefen Epidermis. Wie oben erwähnt hofft man an, dass kurzkettige Bruchstücke der Hyaluronsäure dort in den Keratinocyten die Synthese neuer Hyaluronsäure stimulieren können. Das Ergebnis ist bestenfalls eine geschmeidigere Haut und etwas flachere Fältchen.

Will man feinere Falten an Lippen und Augenpartien auffüllen, tiefe Falten, wie Nasolabialfalten, Zornesfalten und Augenpartien korrigieren, so wird Hyaluronsäure in unterschiedlicher Dichte als "Hautfüller" in die Dermis injiziert. Einige dieser Präparate wurden von der FDA zugelassen . Hautfüller kommen auch zur Schaffung von Volumen, Wiederherstellen von Gesichtskonturen in der plastischen Chirurgie zur Anwendung. Die Ergebnisse dieser minimal invasiven Behandlung sind sofort sichtbar und im Allgemeinen recht gut. Allerdings können Hautreizungen, Verformungen und Klumpenbildung und damit ein unerwünschtes Erscheinungsbild auftreten. Die straffende Wirkung ist allerdings nicht von Dauer; nach einem halben Jahr (vielleicht auch etwas später) sind Nachspritzungen erforderlich.

Fazit

Die physikalisch - chemischen und physiologischen Eigenschaften der im Menschen natürlich vorkommenden Hyaluronsäure weisen auf ein enormes Potential für gut verträgliche, minimal invasive medizinische Anwendungen und Korrekturen des äußeren Erscheinungsbildes hin. Einige dieser Anwendungen sind bereits etabliert und haben ein großes, stark steigendes Marktvolumen. Verbesserungen sind aber auch hier notwendig - beispielsweise in den Techniken und Produkteigenschaften der bis jetzt unbefriedigenden Therapie von Arthrose oder in der Verlängerung der Wirksamkeitsdauer. Die Forschung zu diesen Problemen aber auch zu völlig neuen Aspekten der Hyaluronsäure-Funktionen und -Anwendungen boomt und lässt auf innovative Produkte und Techniken nicht nur im Anti-Aging Sektor hoffen.


Literatur (open access), die dem Artikel zugrundeliegt, u.a.:

A.Fallacara et al., Hyaluronic Acid in the Third Millennium, Polymers 2018, 10, 701; doi:10.3390/polym10070701.

P. Snetkov et al., Hyaluronic Acid: The Influence of Molecular Weight on Structural, Physical, Physico-Chemical, and Degradable Properties of Biopolymer. Polymers 2020, 12, 1800; doi:10.3390/polym12081800

T. Kobayashi et al., Hyaluronan: Metabolism and Function. Biomolecules 2020, 10, 1525; doi:10.3390/biom10111525

A. Kaul et al., Hyaluronidases in Human Diseases. Int. J. Mol. Sci. 2021, 22, 3204. https://doi.org/10.3390/ijms22063204


Artikel zu verwandten Themen im ScienceBlog:

Georg Wick, 22.11.2012: Erkrankungen des Bindegewebes: Fibrose – eine häufige Komplikation bei Implantaten.

Inge Schuster, 17.07.2015: Unsere Haut – mehr als eine Hülle. Ein Überblick

Inge Schuster, 06.09.2018: Freund und Feind - Die Sonne auf unserer Haut


 

inge Sun, 04.07.2021 - 12:10

ScienceBlog.at ist 10 Jahre alt!

ScienceBlog.at ist 10 Jahre alt!

Do, 01.07.2021 — Redaktion

Redaktion

Wir feiern Geburtstag!

inge Sun, 04.07.2021 - 17:07

Comments

Karl L. Brunnbauer (not verified)

Mon, 19.07.2021 - 13:11

Herzliche Gratulation an die Herausgeber dieser wichtigen Webseite!
Besonders an Frau Dr. Inge Schuster!
Information auf aller höchstem Niveau!

Alles Gute und weiterhin viel Erfolg,
Karl

Was uns Facebook über Ernährungsgewohnheiten erzählen kann

Was uns Facebook über Ernährungsgewohnheiten erzählen kann

Do, 24.06.2021 IIASA

IIASAIcon Politik & Gesellschaft Änderungen des Lebensstils , die zur Eindämmung des Klimawandels beitragen können, gewinnen mehr und mehr an Bedeutung und Aufmerksamkeit. Eine neue , von IIASA-Forschern geleitete Studie hat sich zum Ziel gesetzt, das volle Potential von Verhaltensänderungen zu erfassen und was Menschen weltweit zu solchen Änderungen veranlasst. Die Studie basiert auf Daten von fast zwei Milliarden Facebook-Profilen.*

Moderne Konsumgewohnheiten und - insbesondere in der Landwirtschaft - die Tierproduktion zur Deckung des weltweit wachsenden Appetits auf tierische Produkte tragen dazu bei, dass miteinander verknüpfte Probleme wie Klimawandel, Luftverschmutzung und Verlust der biologischen Vielfalt weiter fortschreiten und sich beschleunigen. Unsere derzeitige Lebensweise ist einfach nicht nachhaltig. Es ist klar, dass Verhalten und Konsumgewohnheiten sich deutlich ändern müssen, wenn wir sicherstellen wollen, dass unsere Nachkommen noch einen gesunden Planeten vorfinden, der das Leben erhält und den sie ihr Zuhause nennen können. Es ist allerdings kein einfaches Unterfangen, eine große Zahl von Menschen mit sehr unterschiedlichen Überzeugungen und Wertebegriffen dazu zu bringen, ihre Konsumgewohnheiten und ihre Verhaltensweisen zu ändern.

Wenn viele frühere Studien untersucht haben, was die treibenden Kräfte zu einer CO2-reduzierten Lebensweise im Allgemeinen und zu einer nachhaltigen Ernährung im Besonderen sind, so beruhten die darin verwendeten Daten häufig auf einer limitierten Anzahl von Ländern oder einer begrenzten Anzahl von Umfrageteilnehmern, deren Angaben zuweilen von ihrem tatsächlichen Verhalten abwich. Nun haben die IIASA-Forscherin Sibel Eker und ihre Kollegen Online-Daten der Social Media, speziell anonyme Besucherdaten in Facebook, als eine globale Datenquelle genutzt, um das Online-Verhalten von Milliarden von Menschen aufzuzeigen und die eher traditionellen empirischen Untersuchungen zu ergänzen. Studien. Die Studie wurde im Journal Environmental Research Letters veröffentlicht [1].

„Wir wollten wissen, ob wir imstande wären anhand der auf der Social-Media-Plattform Facebook verfügbaren Daten das Interesse an nachhaltigen Ernährungsweisen, wie der vegetarischen Ernährung, in verschiedenen Ländern der Welt zu quantifizieren und feststellen könnten, ob die Online-Aktivitäten tatsächlich eine echtes Interesse an Vegetarismus und Konsumverhalten anzeigen“, erklärt Eker. „Darüber hinaus wollten wir sehen, welche anderen Faktoren wie Bildungsstand, Alter, Geschlecht oder das Pro-Kopf-BIP das Interesse der Menschen an einer nachhaltigen Ernährung in verschiedenen Ländern mitbestimmen.“

In diesem Zusammenhang erstellte das Team um Eker einen Datensatz von täglich und monatlich aktiven Nutzern, die ein Interesse an nachhaltigen Lebensstilen, insbesondere des Vegetarismus, bekundeten. Der Begriff Vegetarismus wurde auf Grund seiner Breite - verglichen mit anderen Begriffen wie „pflanzliche Ernährung“ oder „nachhaltige Ernährung“- gewählt und auch weil er als vordefinierte Interessenauswahl auf der Facebook-Werbeplattform vorhanden war.

„Unsere Wahl von Vegetarismus und nachhaltigem Lebensstil als Selektionsmöglichkeiten, die für einen CO2-armen Lebensstil von Relevanz sind, basiert auf einer Keyword-Suche in der Facebook Marketing API (API = application programming interface, Programmierschnittstelle; Anm.Redn.); dabei gingen diese Keywords unter den vorhandenen Selektionsmöglichkeiten als diejenigen mit der weltweit höchsten Größe an Zielgruppen hervor. Das Interesse einer Person am Vegetarismus kann von einer Reihe von Dingen herrühren, die vom Tierschutz über Gesundheit bis hin zu Religion reichen. Im Rahmen dieser Studie sahen wir den Vegetarismus insbesondere als Indikator für die Verbreitung von fleischloser Ernährung; dies hat für die Abschätzung des Nahrungsbedarfs mehr Relevanz, als für das Interesse der Menschen an einer an einer vegetarischen Lebensweise allein aus Gründen des Umweltschutzes“, bemerkt Eker.

Abbildung 1. Anteil der Facebook Zielgruppen in 115 Ländern, die sich für "nachhaltiges Leben" (oben) und für "Vegetarismus" (unten) interessieren. Die Farben geben den Prozentsatz (siehe Block rechts) der Interessierten in den jeweiligen Zielgruppen an. Länder, aus denen Daten fehlen, sind grau gefärbt. (Abbildung und Legende wurden von der Redaktion aus Ekers et al., 2021, [1] eingefügt; Die Abbildung steht unter einer cc-by- Lizenz)

Die öffentlich zugänglichen und anonymen Daten vom Facebook Marketing Application Programming Interface (API) wurden zwischen September 2019 und Juni 2020 zu mehreren Zeitpunkten für Keywords, Alter, Geschlecht, Bildungsniveau und Land jedes Benutzers abgerufen. Der verwendete Datensatz umfasst insgesamt 131 Länder und rund 1,9 Milliarden Menschen, von denen 210 Millionen ein Interesse an Vegetarismus und 33 Millionen ein Interesse an einer nachhaltigen Lebensweise bekundeten. Abbildung 1 gibt einen Überblick über den Anteil des an "nachhaltigem Leben" und an "Vegetarismus" Interessierten Facebook Publikums in den einzelnen Ländern. Eine interaktive Version dieser Karte ermöglicht den Vergleich der Facebook Daten mit der Häufigkeit der Suchanfragen zu den Keywords in Google Trends (https://trends.google.com/trends/?geo=AT) und vorhandenen Umfrageergebnissen zur tatsächlich vegetarisch lebenden Population. Abbildung 2 zeigt dazu einige Beispiele.

Abbildung 2.Vergleich der für "nachhaltiges Leben" (oben) und für "Vegetarismus" (unten) interessierten Facebook-Nutzer mit der Häufigkeit der Aufrufe dieser Keywords in Google Trends und der aus Umfrageergebnissen festgestellten vegetarischen Population in USA, China, Indien und Deutschland. (Interaktive Karte aus Ekers et al., 2021, [1] https://sibeleker.github.io/map.html und Legende von der Redaktion eingefügt. Lizenz cc-by)

Die Ergebnisse weisen darauf hin, dass der Anteil des an Vegetarismus interessierten Facebook-Publikums positiv mit der Rate des Rückgangs des Fleischkonsums auf Länderebene (in den Ländern mit hohem Vegetarismus-Interesse) korreliert – mit anderen Worten, je mehr Menschen an vegetarischer Ernährung interessiert sind, desto mehr nimmt der Trend zum Fleischkonsums in dem Land ab. Insgesamt war der Fleischkonsum in Ländern mit hohen Einkommen größer als in Ländern mit niedrigen Einkommen; allerdings scheint in diesen Ländern das Interesse an einer nachhaltigen Ernährung - soweit dies online geäußert wird - auch stärker zu sein. Nach Meinung der Forscher gibt dies Hoffnung auf Trends zu einem nachhaltigeren und faireren Fleischkonsum.

Bildung hat sich zuvor als Katalysator zur Erreichung der SDGs (Ziele der nachhaltigen Entwicklung) erwiesen und könnte auch hier ein Katalysator sein (sofern sie nicht durch ein hohes Einkommensniveau überlagert wird), da sie sich als der wichtigste Faktor herausgestellt hat, der das Interesse am Vegetarismus beeinflusst. Dieser Effekt war in Ländern mit niedrigem Einkommen stärker ausgeprägt. Auch das Geschlecht hat sich als sehr starkes Unterscheidungsmerkmal herausgestellt, wobei Frauen zu einem höheres Interesse am Vegetarismus tendieren als Männer. Das Pro-Kopf-BIP und das Alter folgten diesen beiden Indikatoren in Bezug auf ihre Wirkung auf das Interesse der Menschen an einem vegetarischen Lebensstil.

„Unsere Studie zeigt, dass Daten von Online-Social-Media tatsächlich nützlich sein können, um Trends beim Lebensmittelkonsum zu analysieren und abzuschätzen. Während aufgrund lokaler Studien die Bedeutung von Bildung, Einkommen und Geschlecht dafür bisher bekannt war, haben wir nun erstmals auf globaler Ebene eine Einstufung gemacht“, sagt Eker. „Maßnahmen, die darauf abzielen, eine nachhaltige Ernährung zu fördern, insbesondere auf Kommunikationsebene, sollten die soziale Heterogenität und bestehende Trends (diese könnten durchaus " niedrig hängende Früchte" sein) berücksichtigen. Auch die länderübergreifende Heterogenität spielt eine wichtige Rolle, und Studien wie unsere helfen, internationale Unterschiede zu verstehen und lokale maßgeschneiderte Maßnahmen zu entwerfen.“


[1] Eker, S., Garcia, D., Valin, H., van Ruijven, B. (2021). Using social media audience data to analyze the drivers of low-carbon diets. Environmental Research Letters 10.1088/1748-9326/abf770


*Die am 22.Juni 2021 erschienene Pressemiiteilung "What Facebook can tell us about dietary choices"  https://iiasa.ac.at/web/home/about/210622-facebook-and-sustainable-diets.html wurde von der Redaktion übersetzt und mit zwei Abbildungen aus der zugrundeliegenden Veröffentlichung [1] ergänzt. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.


Kommentar der Redaktion

Die Anzahl der vegetarisch und vegan lebenden Menschen ist langsam im Steigen begriffen und wird - auf Umfragen basierend - auf etwa 8 - 10 %  der Weltbevölkerung geschätzt (mehr als die Hälfte dieser Menschen lebt in Indien). https://en.wikipedia.org/wiki/Vegetarianism_by_country#Demographics.

Wenn in der Facebook-Studie aus 131 Ländern mit rund 1,9 Milliarden Menschen rund 210 Millionen ein Interesse an Vegetarismus bekundet haben, so entspricht das grob den obigen Schätzungen der tatsächlich so Lebenden. Bemerkenswert ist das geringe Interesse in den bevölkerungsreichsten Ländern - der Chinesen, aber vor allem der indischen Facebook-Nutzer, von denen nur 5 % interessiert sind, obwohl der Subkontinent den höchsten Anteil (29 %) an Vegetariern aufweist.

Es ist anzuzweifeln, ob intensivere/maßgeschneiderte Maßnahmen in den meisten Ländern kurzfristig eine wesentliche Änderung in den Ernährungsgewohnheiten bewirken können. Dass damit - zumindest im nächsten Jahrzehnt - nur marginal auf die Klimapolitik eingewirkt werden kann, erscheint offenkundig.


 

inge Thu, 24.06.2021 - 00:33

Die Infektion an ihrem Ausgangspunkt stoppen - ein Nasenspray mit Designer-Antikörper gegen SARS-CoV-2

Die Infektion an ihrem Ausgangspunkt stoppen - ein Nasenspray mit Designer-Antikörper gegen SARS-CoV-2

Do, 17.06.2021 — Francis S. Collins

Francis S. CollinsIcon MedizinZur Behandlung von COVID-19 sind derzeit bereits mehrere monoklonale Antikörper (dabei handelt es sich um identische Kopien eines in großer Zahl hergestellten therapeutischen Antikörpers) von den Behörden zugelassen worden. Im Kampf gegen die schlimme Seuche gibt es viel Raum für weitere Verbesserungen zur Behandlung von SARS-CoV-2-Infektionen. Francis S. Collins, ehem. Leiter des Human Genome Projects und langjähriger Direktor der US-National Institutes of Health (NIH), die zusammen mit dem Unternehmen Moderna den COVID-19-Impfstoff mRNA-1723 designt und entwickelt haben, berichtet über einen erfreulichen Fortschritt: mit NIH-Unterstützung wurde ein speziell designter therapeutischer Antikörper entwickelt, der sich mittels Nasenspray verabreichen lässt. Präklinische Studien deuten darauf hin, dass mit diesem neuen Antikörper sogar bessere Wirksamkeit gegen COVID-19 erzielt werden könnte als mit den bereits bestehenden Antikörper-Therapien und dies insbesondere in Hinblick auf die nun ansteigenden „besorgniserregende Varianten“ von SARS-CoV-2. *

Design eines neuen Antikörpers vom IgM-Typ

Es sind dies Ergebnisse, die von Zhiqiang An (Health Science Center der University of Texas; Houston), und Pei-Yong Shi (University of Texas Medical Brach, Galveston) und deren Kollegen stammen [1]. Das von den NIH unterstützte Team hat begriffen, dass alle derzeit verwendeten monoklonalen Antikörper eine zeitaufwendige, intravenöse Infusion in hohen Dosierungen erfordern, wodurch ihre Anwendung an Grenzen stößt. Dazu kommt, dass die Antikörper - da sie ja erst über den Blutkreislauf verteilt werden müssen - die primären Orte der Virusinfektion im Nasen-Rachenraum und in der Lunge nicht direkt erreichen können. Zudem mehren sich auch zunehmend Andeutungen, dass einige dieser therapeutischen Antikörper gegen die nun aufkommenden neuen SARS-CoV-2-Varianten weniger wirksam werden.

Von Antikörpern gibt es verschiedene Typen. Immunglobulin-G (IgG)-Antikörper sind beispielsweise die im Blut am häufigsten vorkommenden Antikörper und sie haben das Potential eine anhaltende Immunität zu verleihen. Immunglobulin-A (IgA)-Antikörper finden sich in Tränen, Mukus (Schleim) und anderen Körpersekreten, wo sie in unseren Körpern die feuchte innere Auskleidung (Mukosa, Schleimhaut) von Atemwegen und Magen-Darm-Trakt schützen. Immunglobulin-M (IgM)-Antikörper sind ebenso wichtig um die Oberflächen der Schleimhäute zu schützen und sie werden als Erste im Kampf gegen eine Infektion gebildet. Abbildung 1.

Abbildung 1.Verschiedene Typen von Antikörpern. Das Grundprinzip (IgG) besteht aus zwei schweren Ketten und zwei leichten Ketten, wobei variable Regionen an der Spitze der schweren und leichten Ketten selektiv ein Antigen nach dem "Schlüssel-Schloss-Prinzip" umschließen (links) . IgA besitzt 2 der IgG-Einheiten, das IgM der Säugetiere 5 IgG- Einheiten, die über Disulfidbrücken und eine verbindende Peptidkette miteinander verbunden sind. Verglichen mit IgG-Antikörpern können IgA-Antiköper somit mit der doppelten Anzahl von viralen Antigenen, IgM-Antikörper mit der fünffachen Anzahl reagieren.(Bild modifiziert nach https://commons.wikimedia.org/wiki/File:2221_Five_Classes_of_Antibodies_new.jpg. License cc-by. Bild und Text von der Redaktion eingefügt.)

IgA- und IgM-Antikörper unterscheiden sich zwar strukturell, können aber beide in einem inhalierten Spray verabreicht werden. Monoklonale Antikörper, wie sie derzeit zur Behandlung von COVID-19 verwendet werden, sind allerdings vom IgG-Typ, der intravenös infundiert werden muss.

In der neuen Studie haben die Forscher nun IgG-Fragmente mit bekannter Affinität zu SARS-CoV-2 zu den zuerst auftretenden IgM-Antikörpern zusammengesetzt. Der so designte IgM-Antikörper (sie bezeichnen ihn mit IgM-14) kann SARS-CoV-2 mehr als 230-mal besser neutralisieren als der IgG-Antikörper, von dem sie ursprünglich ausgegangen sind.

Wichtig ist, dass IgM-14 auch exzellente Aktivität in der Neutralisierung von besorgniserregenden SARS-CoV-2-Varianten besitzt. Dazu gehören die B.1.1.7 „Großbritannien“ Variante (jetzt auch Alpha genannt), die P.1 „brasilianische“ Variante (genannt Gamma) und die B.1.351 „südafrikanische“ Variante (genannt Beta). IgM-14 wirkt auch gegen 21 andere Varianten, die Veränderungen in der Rezeptorbindungsdomäne des besonders wichtigen viralen Spikeproteins aufzeigen. Dieses Protein, das es SARS-CoV-2 ermöglicht in menschliche Zellen einzudringen und diese zu infizieren, ist die hauptsächliche Zielstruktur für Antikörper. Man rechnet damit, dass viele dieser Veränderungen das Virus resistenter gegen die monoklonalen IgG-Antikörper machen, die jetzt von der FDA für den Notfallgebrauch zugelassen sind.

Wirksamkeit im Tierversuch

Würde der designte IgM-14 Antikörper ein lebendes Tier vor einer Coronavirus-Infektion schützen können? Die Forscher haben dies in einem Tierversuch an Mäusen geprüft. Dazu haben sie eine Einzeldosis des IgM-14-Antikörpers in die Nase von Mäusen gesprüht entweder prophylaktisch sechs Stunden vor einer Exposition mit SARS-CoV-2 oder als therapeutische Behandlung sechs Stunden nach der Infektion mit den Varianten P.1 (Gamma) oder B.1.351 (Beta).

Abbildung 2.Ein erfolgsversprechendes intranasales Spray zur Prävention und Therapie von COVID-19? Der pentavalente IgM - Antikörper (gelb) kann das Spikeprotein an der Virusoberfläche effizient abblocken. (Text von der Redn eingefügt.)

In allen Fällen erwies sich der so angewandte Antikörper als wirksam: zwei Tagen nach der Applikation war - im Vergleich zu den Kontrollgruppen - die Menge an SARS-CoV-2 in der Lunge drastisch reduziert. Dies ist ein wichtiger Befund: schwere Verläufe von COVID-19 und Todesfälle sind ja eng mit der Virusmenge im Atmungstrakt von Infizierten korreliert. Falls sich der neue therapeutische Antikörper beim Menschen als sicher und wirksam erweist, könnte er zu einem wichtigen Mittel werden, um die Schwere von COVID-19 zu reduzieren oder vielleicht sogar eine Infektion ganz zu verhindern. Abbildung 2.

Die Forscher haben diesen neuen Antikörper bereits an einen Biotechnologie-Partner namens IGM Biosciences, Mountain View, CA, für die weitere Entwicklung und künftige Tests in einer klinischen Studie auslizenziert. Wenn alles gut geht, können wir hoffen damit ein sicheres und wirksames Nasenspray zu haben, um als zusätzliche Verteidigungslinie im Kampf gegen COVID-19 zu dienen.


[1]Nasal delivery of an IgM offers broad protection from SARS-CoV-2 variants. Ku Z, Xie X, Hinton PR, Liu X, Ye X, Muruato AE, Ng DC, Biswas S, Zou J, Liu Y, Pandya D, Menachery VD, Rahman S, Cao YA, Deng H, Xiong W, Carlin KB, Liu J, Su H, Haanes EJ, Keyt BA, Zhang N, Carroll SF, Shi PY, An Z. Nature. 2021 Jun 3


*Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 15. Juni 2021) im NIH Director’s Blog unter dem Titel: "Could a Nasal Spray of Designer Antibodies Help to Beat COVID-19?"  https://directorsblog.nih.gov/2021/06/15/could-a-nasal-spray-of-designer-antibodies-help-to-beat-covid-19/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig für den Blog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

NIH: Covid-19 Research  https://covid19.nih.gov/

Zhiqiang An (The University of Texas Health Science Center at Houston)

Pei-Yong Shi (The University of Texas Medical Branch at Galveston)

IGM Biosciences (Mountain View, CA)

 Artikel von Francis S. Collins über COVID-19 im ScienceBlog

inge Thu, 17.06.2021 - 17:27

Medikamente in Abwässern - Konzepte zur Minimierung von Umweltschäden

Medikamente in Abwässern - Konzepte zur Minimierung von Umweltschäden

Do, 10.06.2021 — Redaktion

RedaktionIcon Medizin

 Nachdem Arzneimittel den Körper eines Patienten passiert haben, wird das, was noch an Wirkstoffen und daraus entstandenen Metaboliten vorhanden ist, in die Kanalisierung ausgeschieden und trägt damit wesentlich zur Wasserverschmutzung bei. Nur von einer Handvoll der insgesamt etwa 1900 Wirkstoffe ist das damit verbundene Risiko für Tierwelt und menschliche Gesundheit untersucht. Zwei neue Projekte wollen nun dazu wichtige Informationen erarbeiten. i) Das EU-finanzierte REMEDI-Projekt ist auf Röntgen-Kontrastmittel fokussiert, die gegen herkömmliche Abwasserbehandlung resistent sind; diese sollen herausgefiltert und - wenn möglich - einer Wiederverwendung zugeführt werden. ii) Das IMI-Projekt PREMIER hat zum Ziel Dossiers zur Risikobewertung der meisten - zum Teil schon recht alten - pharmazeutischen Wirkstoffe zu erstellen.*

In den letzten zwei Jahrzehnten ist die Besorgnis über die vielen Arzneimittel angestiegen, die mit dem Abfall in die Kanalisation gespült werden und in die Abwassersysteme gelangen. Abbildung 1.Zum Großteil stammen diese Substanzen aus dem Urin und dem Kot von Patienten, die Medikamente eingenommen haben. Auch wenn die Substanzen den menschlichen Körper und danach die Kläranlagen passiert haben, kann man sie noch in Flüssen und Seen und möglicherweise sogar in unseren Böden nachweisen. Arzneimittel wie u.a. Cholesterin-Senker, Betablocker, Antiepileptika, Entzündungshemmer und Antibiotika sowie illegale Substanzen wurden alle in Abwasserkanälen und nahegelegenen Wasserstraßen gefunden.

Abbildung 1: .Über die letzten zwei Jahrzehnte macht man sich zunehmend Sorgen über all die Medikamente, die über die menschlichen Ausscheidungen in die Kanalisation und von dort in die Gewässer und das Grundwasser gelangen (Bild: pixabay)

 

„Viele Menschen sind der Ansicht, dass Kläranlagen das Wasser sauber machen, allerdings wurden solche Anlagen gebaut, um Stickstoff und Phosphate zu entfernen, nicht aber Arzneimittel“, sagt Professor Ad Ragas, Umweltwissenschaftler an der Radboud University in den Niederlanden und Koordinator des PREMIER-Projekts (s.u.). „Diese Arzneimittel gelangen zusammen mit anderen Mikroverunreinigungen in die Umwelt.“

Mehr als 600 pharmazeutische Substanzen wurden weltweit in Gewässern identifiziert, weitere finden ihren Weg in terrestrische Ökosysteme. Zumindest von einigen dieser Verbindungen ist bekannt, dass sie unerwünschte Auswirkungen auf lebende Organismen haben.

Berühmt-berüchtigt ist das Beispiel, das sich Ende des letzten Jahrhunderts in Indien ereignete. Bis Ende der 1980er Jahre kreisten dort Millionen Geier am Himmel und hielten nach Kadavern Ausschau. In den 1990er Jahren brachen die Geierzahlen aber auf mysteriöse Weise ein, in einigen Populationen um mehr als 99%. Die Wissenschaftler waren vorerst ratlos, dann aber wurde 2004 entdeckt, dass die Vögel durch Diclofenac ("Voltaren", siehe dazu [1]; Anm. Redn.) getötet wurden, einem Arzneimittel, das routinemäßig aber auch an indische Nutztiere verfüttert wurde. Bei Rindern ist Diclofenac ein billiges entzündungshemmendes Mittel, bei Geiern verursachte es dagegen Nierenversagen und den Tod.

„Dieser Vorfall hat viele Diskussionen über die Auswirkungen von Arzneimitteln auf Tierwelt und Umwelt ausgelöst“, sagt Prof. Ragas. 2006 wurde die Verwendung von Diclofenac im Veterinärgebiet in Indien verboten. Nun, 15 Jahre später nimmt weltweit die Sorge um die Freisetzung von Arzneimitteln und deren Abbauprodukten in die Umwelt zu – und das aus gutem Grund.

Alljährlich steigt der Verbrauch von Arzneimitteln sowohl im Humansektor als auch im Veterinärgebiet, jedoch sind viele Fragen zu den Auswirkungen der nachgewiesenen Verunreinigungen mit Arzneimitteln sowohl auf die menschliche Gesundheit als auch auf die Ökosysteme unseres Planeten ungeklärt.

2013 haben das Europäische Parlament und der Rat der Europäischen Union eine Reihe von Arzneimitteln, darunter auch einige Antibiotika, auf eine Watchlist von Stoffen gesetzt, die in Gewässern der EU sorgfältig überwacht werden sollten. Dies war das erste Dokument, das Stoffe von unbestrittenem medizinischen Wert enthält, die eine potenzielle Bedrohung für empfindliche Ökosysteme darstellen.

Bildgebende diagnostische Verfahren

Krankenhäuser sind ein wesentliche Quelle von pharmazeutischen Wirkstoffen, und - wie Studien ergeben haben - werden viele der aus Krankenhäusern stammenden Chemikalien von Kläranlagen nicht vollständig entfernt. Abbildung 2. Besonders problematisch sind jodierte Röntgenkontrastmittel (iodinated contrast media - ICMs), die häufig vor einem diagnostischen Scan wie einem CT oder MRT in den Blutkreislauf eines Patienten injiziert werden, damit sich das Weichteilgewebe vom Untergrund abhebt.

Abbildung 2: Aus Krankenhäusern stammende Chemikalien können von Kläranlagen nicht vollständig entfernt werden. (Bild: Ivan Bandura/Unsplash)

ICMs werden im Körper nicht abgebaut (über 95 % verbleiben unmetabolisiert), so ausgeschieden und in das Abwassersystem gespült. Forscher sind der Ansicht, dass ICMs wesentlich zur Belastung durch persistierende Chemikalien im Abwasser beitragen. ICM-Nebenprodukte (wie sie beispielsweise in Gegenwart des Desinfektionsmittels Chlor entstehen, Anm. Redn) hat man – oft in erhöhten Konzentrationen – in Flüssen, Seen, Grundwasser und sogar im Trinkwasser gefunden. Sie kommen auch im Boden vor und stellen dort, wo landwirtschaftliche Flächen kontaminiert sind, ein potenzielles Risiko sowohl für den Menschen als auch für die Tierwelt dar. Organische Halogenverbindungen sind Nebenprodukte von Kontrastmitteln. Lässt man zu, dass sich diese Chemikalien im Boden und im Wasser in hohen Konzentrationen anreichern, so können sie toxische Wirkungen auslösen.

Professor Alberto Guadagnini vom Department für Bau- und Umweltingenieurwesen der Polytechnischen Universität Mailand sagt: „Wir haben noch keine Ahnung, wie groß das Risiko ist, wenn sich diese Stoffe in hohen Konzentrationen im Grundwassersystem anreichern.“

Die Daten zur Ausbreitung von ICMs – und dazu, was man tun kann, um sie sicher zu entfernen – sind lückenhaft. Mit dem steigenden Alter der Bevölkerung erwartet man eine Zunahme von chronischen und komplexen Begleiterkrankungen; dementsprechend wird die Zahl der weltweit durchgeführten Diagnosen mittels bildgebender Verfahren wahrscheinlich auch steigen. Aktuelle Schätzungen gehen davon aus, dass weltweit mehr als 45.000 klinische CT-Scanner in Betrieb sind. Allein in einem italienischen Krankenhaus – dem San Raffaele in Mailand – werden jährlich 30.000 solcher diagnostischer Tests durchgeführt.

Recyceln

Prof. Guadagnini hofft einige der Wissenslücken durch das kürzlich gestartete vierjährige EU-Projekt REMEDI (https://cordis.europa.eu/project/id/956384/de) zu schließen; das Projekt zielt darauf ab, neue Techniken zum Abfangen und Entfernen von Röntgenkontrastmitteln aus Wasser und Boden zu prüfen.

„Kontrastmittel herauszufiltern ist nur ein Teil der Herausforderung – wir möchten sie auch recyceln“, sagt Prof. Guadagnini. „Jod und Barium (die in Kontrastmitteln verwendet werden) sind wertvolle Substanzen. Es wäre vorzuziehen, dass sie von der Industrie wieder verwendet würden anstatt sich in der Umwelt anzureichern.“

Das Team von Prof. Guadagnini konzentriert sich auf Eisenoxide, deren Fähigkeit Kontrastmittel zu binden nachgewiesen ist. Eisenoxide können jedoch nicht direkt in Seen und Flüssen eingesetzt werden, um ICMs zu binden, da sie das Wasser saurer machen. Stattdessen werden die Forscher versuchen mit diesen Verbindungen ICMs abzufangen, bevor diese natürliche Gewässer erreichen.

"Die Grundidee Kontrastmittel aufzufangen besteht darin ein poröses Material zu entwickeln, welches das Sediment des Flussbettes nachahmt und Teil des Filtersystems ist, das Flusswasser filtert, um es trinkbar zu machen", sagt er. „Eine solche feste Matrix soll die Kontrastmittel abfangen. Sobald sie abgebunden sind, können wir sie herausholen und die Möglichkeit für eine Wiederverwendung prüfen.“

Aber auch mit diesen Maßnahmen wird ein Teil der ICM in Fließgewässer und damit ins Grundwasser gelangen. Wie gravierend diese unvermeidliche Einfließen für natürliche Gewässer sein wird, wollen die REMEDI-Forscher bestimmen. In einem parallelen Arm des Projekts wird versucht, die damit verbundenen Risiken zu bewerten und zu quantifizieren.

Auch wenn das Projekt noch ganz am Anfang steht, sieht sich Prof. Guadagnini durch eine wachsende öffentliche Diskussion über Verunreinigungen durch Pharmaka bestärkt. „Die Leute beginnen, dies als ein Problem zu sehen, das man angehen muss“, sagt er. „Sie sind besorgt, weil man über die Risiken für die Umwelt noch zu wenig weiß; auf Grund der wirtschaftlichen Vorteile, die Rückgewinnung und Wiederverwendung einiger dieser Verbindungen bringen könnten, gewinnt das Thema auch für die Industrie an Bedeutung.“

Risiken

Seit 2006 wird ein neues Arzneimittel in der EU nur noch zugelassen, wenn es mit einer Umweltrisikobewertung – einem Dossier zur Quantifizierung des voraussichtlichen Umweltrisikos eines Wirkstoffs – versehen ist. Dies kann für Krankenhäuser ein wichtiger Anstoß sein herauszufinden, wie die Risiken von Medikamenten und anderen Verbindungen, die sie Patienten verabreichen, am besten verringert werden können. Beispielsweise könnte entschieden werden, den Harn eines Patienten zu sammeln, anstatt ihn in die Toilette zu spülen.

Die Erstellung solcher Risikobewertungen ist jedoch kostspielig (etwa 500.000 € /Bewertung), und obwohl dies nur ein winziger Bruchteil der Gesamtkosten für die Markteinführung eines neuen Arzneimittels ist, summiert es sich zu den Gesamtkosten von Forschung und Entwicklung neuer Therapien. Das Gesetz gilt auch nur für neue Medikamente.

„Vor 2006 waren unserer Schätzung nach bereits zwischen 1.000 und 1.800 Medikamente auf dem Markt“, sagt Prof. Ragas. „Arzneimittel wie Paracetamol (im Jahr 2016 konsumierten die Europäer davon 48.400 Tonnen) sind nie systematisch auf ihre Umweltauswirkungen untersucht worden.“

Das vorrangige Ziel des PREMIER-Projekts ist es Dossiers zur Risikobewertung retrospektiv zu erstellen (PREMIER: Prioritisation and risk evaluation of medicines in the environment - Projekt der Innovative Medicines Initiative - IMI; https://www.imi.europa.eu/projects-results/project-factsheets/premier; Anm. Redn.). Die Forscher des Projekts verwenden Computermodelle, um intelligente und erschwingliche Vorhersagen sowohl über die Toxizität eines Arzneimittels als auch über die Wahrscheinlichkeit einer Exposition mit negativen Auswirkungen auf aquatische Ökosysteme zu treffen.

„Durch die Entwicklung kluger Verfahren wollen wir vermeiden, alle Medikamente testen zu müssen“, sagt Prof. Ragas. „Wenn wir ein Molekül und seine Eigenschaften kennen – zum Beispiel wie gut es abgebaut wird und in Wasser löslich ist – können wir Modelle erstellen, die vorhersagen, wie schnell es (aus der Umwelt) verschwinden wird.

„Wir hoffen, von unseren Modellen sagen zu können: „Diese 50 Chemikalien sind höchstwahrscheinlich die riskantesten“. Mit diesen Chemikalien können wir dann kostspieligere Tests durchführen und Schlussfolgerungen ziehen.

Prof. Ragas und sein Team wollen auch herausfinden, wie sich ein bestimmtes Arzneimittel auf verschiedene Spezies auswirkt. „Beispielsweise auf Fische“, so Prof. Ragas. „Wenn bekannt ist, dass ein Arzneimittel auf ein Molekül in menschlichen Nervenzellen abzielt, werden wir anhand einer genetischen Datenbank untersuchen, ob dieses Zielmolekül (Target) auch in Fischen vorhanden ist. Ist das Gen, das beim Menschen für das Zielmolekül kodiert, auch in Fischen vorhanden, wissen wir, dass Fische wahrscheinlich auf dieselbe Chemikalie empfindlich reagieren.“

Prof. Ragas hofft, dass diese Informationen die Bewertung der Risiken, die sowohl alte als auch neue Medikamente für die Umwelt darstellen, erleichtern können, und so Schritte unternommen werden können, um die schädlichsten zu kontrollieren.

„Wir müssen ein Gleichgewicht zwischen dem gesundheitlichen Nutzen von Arzneimitteln für den Menschen und den Folgen für die Umwelt finden“, sagt er. „Meine größte Hoffnung ist, dass wir den gesamten Bereich von Arzneimittelverbrauch und -entwicklung in eine Richtung lenken können, in der Menschen von den positiven gesundheitlichen Auswirkungen von Medikamenten profitieren können, ohne einen Schaden für die Umwelt zu verursachen.“


[1] Inge Schuster, 07.08.2020: Voltaren (Diclofenac) verursacht ein globales Umweltproblem


* Dieser Artikel wurde ursprünglich am 27. Mai 2021 von Vittoria D'Alessio in Horizon, the EU Research and Innovation Magazine unter dem Titel " Recovering drugs from sewers could reduce harm to wildlife" https://horizon-magazine.eu/article/recovering-drugs-sewers-could-reduce-harm-wildlife.html publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt und durch einige Anmerkungen (Anm. Redn.) ergänzt.


Weiterführende Links

Horizon: The EU Research and Innovation Magazine

imi - Innovatve Medicines Initiative - Europe’s partnership for health: https://www.imi.europa.eu/

Christian R. Noe, 09.01.2015: Neue Wege für neue Ideen – die „Innovative Medicines Initiative“


 

inge Thu, 10.06.2021 - 16:56

Verbesserung der Lebensmittelqualität - J.W. Knoblauch verfasste 1810 dazu die erste umfassende Schrift

Verbesserung der Lebensmittelqualität - J.W. Knoblauch verfasste 1810 dazu die erste umfassende Schrift

Do, 3.06.2021 - — Robert W. Rosner

Robert W. RosnerIcon Wissenschaftsgeschichte Das preisgekrönte monumentale, dreibändige Werk des erst 28-jährigen Joseph Wilhelm Knoblauch ist eine unglaubliche Pionierleistung. Einige Abschnitte erscheinen im Sinn der Systemwissenschaften auch heute hochaktuell ; auch, dass der Text für Laien nicht nur verständlich, sondern von diesen auch direkt anwendbar sein sollte, erfüllen bislang nur die wenigsten wissenschaftlichen Publikationen. Darüber hinaus gibt das Werk einen hervorragenden Einblick in die wissenschaftlichen Theorien der Zeit der Aufklärung. Der Chemiker und Wissenschaftshistoriker Robert Rosner fasst im Folgenden wesentliche Aspekte der Schrift zusammen, die auf der Europeana-website* frei zugänglich ist. Es lohnt sich drin zu schmökern!

Joseph Wilhelm Knoblauch, 1810

Die erste wissenschaftliche Gesellschaft im Habsburgerreich.....

Die Königlich Böhmische Gesellschaft der Wissenschaften war die erste wissenschaftliche Gesellschaft im Habsburgerreich. 1770 auf Initiative von Ignaz von Born in Prag als Privatgesellschaft gegründet , wurde sie 1785 in eine öffentliche Einrichtung umgewandelt. Ignaz von Born war Freimaurer und ebenso einige der anderen Gründungsmitglieder. Die Freimaurer waren zu der Zeit Vorkämpfer der Aufklärung im Kaiserreich. Sie interessierten sich nicht nur für theoretische wissenschaftliche Fragen, sondern diskutierten auch praktische Fragen, um Mittel und Wege zu finden, die bei der Modernisierung des Landes helfen könnten. So veröffentlichte die Gesellschaft 1800 ein Memorandum, in dem sie die Verwendung von Kohle anstelle von Holz als Energiequelle forderte und vor der Gefahr der Entwaldung Böhmens infolge der fortgesetzten Verwendung von Holz warnte.

Abbildung 1:Die Königlich Böhmische Gesellschaft der Wissenschaften in Prag, Festliche Sitzung mit Kaiser Leopold II, 1790 (Bild: Autor unbekannt; gemeinfrei)

..... setzt einen Preis für einen Bericht zur Verbesserung der Lebensmittelqualität aus

Auf Initiative des Prager Chemikers Johann Andreas Scherer (1755-1844) setzte die Gesellschaft 1804 einen Preis von 500 Gulden für die beste Veröffentlichung zur Verbesserung der Lebensmittelqualität aus. (Scherer interessierte sich u.a. für Fragen, die man heute als Umweltprobleme ansehen würde und hatte mehrere Bücher veröffentlicht, die gegen die zu dieser Zeit unter deutschen Chemikern noch weit verbreitete Phlogiston-Theorie auftraten). Dieser Bericht sollte so abgefasst werden, dass er normalen Bürgern und Bauern helfen würde, die Probleme der Verfälschung von Lebensmitteln zu verstehen und die Lebensmittelqualität zu kontrollieren, ohne selbst Experten zu sein.

Vorerst erhielt die Böhmische Gesellschaft der Wissenschaften keinen Bericht, der diese Anforderungen erfüllte, und so wurde der Preis 1806 auf 700 Florin erhöht (700 Fl. entsprachen der aktuellen Kaufkraft von etwa 14 000 €; Anm. Redn.). Dies führte dazu, dass nun zehn Berichte ankamen, von denen aber nur die Arbeit von Joseph Wilhelm Knoblauch in den meisten Punkten die strengen Anforderungen der Böhmischen Gesellschaft erfüllte - allerdings auch erst nachdem dieser einige Teile entsprechend abgeändert hatte.

... und vergibt ihn für die dreibändige Schrift des Joseph Wilhelm Knoblauch

Joseph Wilhelm Knoblauch (1789 - 1819) war als Apotheker ausgebildet mit einem Master-Abschluss in Philosophie und einem Bachelor-Abschluss in Medizin. Seine preisgekrönte Schrift mit dem Titel “Von den Mitteln und Wegen die mannichfaltigen Verfälschungen sämmtlicher Lebensmittel außerhalb der gesetzlichen Untersuchung zu erkennen, zu verhüten und möglichst wieder aufzuheben“ wurde 1810 in Leipzig veröffentlicht. Abbildung 2.

Abbildung 2:Joseph Wilhelm Knoblauch: Deckblatt von Teil 2 der preisgekrönten, dreibändigen Schrift (links) und Titel der 3 Bände (rechts) (Quelle: Národní knihovna České republiky, https://www.europeana.eu/en/item/92004/NKCR___NKCR__49D000050ABT16NH0P3_cs. cc: nc)

 

Wie der Autor einleitend betont, besteht das Hauptziel des Buches darin, dem Bauern, der die Lebensmittel produziert, und dem Händler, der diese lagert und transportiert, zu helfen die richtigen Mittel zu verwenden und jegliches Material zu vermeiden, das eine Verfälschung verursachen kann.

Der Begriff Verfälschung bezieht sich dabei nicht nur auf profitorientierte Manipulationen, die zur Verschlechterung von Lebensmitteln führen oder diese sogar giftig machen, sondern auch auf den Gebrauch von Werkzeugen oder Gefäßen, die zur Erzeugung eines Lebensmittels nicht geeignet sind oder auf eine Lagerung unter untauglichen Bedingungen.

Für Knoblauch erscheint es daher unumgänglich, dass der Leser nicht nur alle möglichen Vorgänge verstehen sollte, die Auswirkungen auf Lebensmittel haben könnten, sondern auch alle Faktoren kennen sollte, die das Leben auf der Erde beeinflussen, wie Licht, Wärme, Elektrizität, die verschiedenen Gase in der Luft und die Schwerkraft.

Da das Buch von normalen Bürgern und nicht von Wissenschaftlern gelesen werden sollte, beschrieb Knoblauch wiederholt Experimente, die jeder zu Hause ausführen konnte, um die Aussagen zu den von ihm erörterten Phänomenen zu untermauern. Um beispielsweise die Bedeutung des Lichts für das Wachstum von Pflanzen klar zu machen, zeigt er, dass aus Samen, die in einem dunklen Keller keine Änderung erfahren, Blätter sprießen, sobald sie etwas Sonnenlicht ausgesetzt wurden.

Aus all dem entstand ein äußerst umfangreiches Buch mit mehr als 2000 Seiten in 3 Bänden. Als eine Art populärwissenschaftlicher Schrift erhält man darin einen guten Überblick über die wissenschaftlichen Theorien dieser Zeit , welche zweifellos auch die wissenschaftlichen Ideen der damals wichtigsten Gelehrten-Gesellschaft der Monarchie und der den Preis verleihenden Juroren widerspiegeln.

"Von der wechselseitigen Einwirkung"

In einer 96 Seiten langen Einführung beschreibt Knoblauch die verschiedenen Faktoren, die das Leben von Menschen, Tieren und Pflanzen beeinflussen und wie diese Faktoren miteinander wechselwirken.

Dazu führt er verschiedene Lebensvorgänge an, einige davon recht ausführlich.

So zeigt er, dass Blut mit Hilfe von Eisen Sauerstoff aufnimmt, sich dabei hellrot färbt und hilft, den Körper warm zu halten.

In der Verdauung der Nahrung und der Gärung sieht er verwandte Vorgänge. Die Gärung in Gegenwart von Hefe vergleicht er wird mit der Gärung ohne Hefe etwa bei der Weinherstellung.

Ausführlich beschreibt er die Keimung von Samen, zeigt, wie man gekeimte Gerstensamen von nicht gekeimten Samen unterscheiden kann, da gekeimte Samen mehr wasserlösliche Inhaltsstoffe enthalten als nicht gekeimte Samen.

Dazu gibt es eine Reihe von Experimenten, die helfen sollen die Wirkung von Sauerstoff, Licht und Feuchtigkeit auf Grünpflanzen zu beobachten.

Eingehend untersucht Knoblauch Faktoren, die einen Einfluss auf den Zersetzungs- und Fäulnisprozess von Pflanzen und Fleisch haben. Nach seiner Meinung zersetzen sich Lebensmittel, die viel Stickstoff und viel Phosphor enthalten, schneller und riechen stärker. Dies gilt insbesondere für Lebensmittel mit hohem Phosphorgehalt wie Fisch.

Was sind Lebensmittel?

Knoblauch erweitert eingangs die Bedeutung des Wortes „Lebensmittel“. Es umfasst jetzt nicht nur Nahrung, sondern alles, was laut Autor für das Leben auf der Erde benötigt wird.

So wird also das Leben von drei Hauptfaktoren beeinflusst:

1. vom sogenannten "Dunstkreis "

2. von Getränken

3. von Nahrung

Das Wort "Dunstkreis" oder synonym Atmosphäre benutzt er für alle unsichtbaren Dämpfe und Kräfte, die uns umgeben.

Von der Atmosphäre

Atmosphäre (Dunstkreis) ist für Knoblauch alles, was die Erde umgibt und immer noch als Teil davon gesehen werden kann. Es besteht aus schwereloser Materie - d.i. Licht, Wärme, Elektrizität und Magnetismus - und Materie mit einem Gewicht - dies sind die Gase Sauerstoff, Stickstoff, Wasserdampf, Kohlendioxid und unter besonderen Umständen Wasserstoff. Schließlich zählt er auch Schwerkraft und Elastizität zur Atmosphäre.

In den Kapiteln, in denen Knoblauch sich mit „schwereloser“ Materie, Licht, Wärme und Elektrizität befasst, konzentriert er sich darauf, zu beschreiben, wie und wo diese Materie erzeugt wird und welche Auswirkungen sie auf die Umgebung hat, ohne aber detailliertere Erklärungen zu geben .

In den Abschnitten, die sich mit Licht befassen, erwähnt er nicht nur die bekannten Eigenschaften wie Brechung, Spektrum, Reflexion, Fokussierung usw., sondern erörtert auch die Bedeutung von Licht für die Absorption von CO2 durch grüne Blätter und das Wachstum von Pflanzen.

Wärme betrachtet er als eine Art Strahlung, die eng mit dem Licht verbunden ist, insbesondere mit dem roten Lichtspektrum.

Knoblauch spricht von „nicht wahrnehmbarer Wärme“, wenn er sich auf die Verdampfungswärme oder die Schmelzwärme bezieht.

Elektrizität gehört für ihn zum schwerelosen Teil der Atmosphäre und hat einen positiven und einen negativen Pol. Durch Reiben von Glas oder Bernstein kann positive Elektrizität, durch Reiben von Harzen negative Elektrizität erzeugt werden. Knoblauch erörtert die Unterschiede zwischen leitendem Material und Nichtleitern und beschreibt er verschiedene Verfahren zur Stromerzeugung, von denen einige leicht getestet werden könnten. Um zu zeigen, wie eine galvanische Batterie funktioniert, schlägt er vor, einen silbernen Löffel unter die Zunge zu legen und einen Zinkstab darauf zu legen.

Hinsichtlich der Gase werden mehrere Experimente beschrieben, die zeigen, wie Sauerstoff, Stickstoff und Kohlendioxid das Leben beeinflussen. Der Autor schildert auch Methoden zur Herstellung von Schwefelwasserstoff und Phosphin, um sie mit Gasen zu vergleichen, die im Fäulnisprozess von lebendem Material entstehen.

Wie bereits erwähnt, wird auch die Schwerkraft als Teil der Atmosphäre betrachtet. Es wird darauf hingewiesen, dass der Luftdruck, der einen großen Einfluss auf alle lebenden Materialien hat, auf die Schwerkraft zurückzuführen ist. Nach Knoblauch ist Elastizität eine der Schwerkraft entgegengesetzte Kraft. Er definiert Elastizität als Kraft, mit der Material in einem bestimmten Dichtezustand oder in seiner ursprünglichen Form bleiben will. Als Beispiele für Elastizität erwähnt er nicht nur, dass Druckluft versucht, sich auszudehnen, sondern auch, dass eine Metallfeder oder menschliches Haar bei Verformung wieder in ihre ursprüngliche Form zurückkehrt.

Nahrungsmittel - von der Quelle der Verfälschungen

Nach mehr als 300 Seiten in denen Knoblauch allgemein die verschiedenen Faktoren, die das Leben von Pflanzen, Tieren und Menschen beeinflussen, behandelt, beginnt er die Faktoren, die zu einer Verfälschung der Lebensmittel führen können, ausführlich zu erörtern.

Zur Zubereitung und Lagerung von Lebensmitteln werden unterschiedlichste Arten von Gefäßen benötigt, daher werden die verschiedenen Materialien untersucht, aus denen diese Gefäße bestehen.

Knoblauch beginnt mit möglichen Gefahren, wenn man Holzgefäße zur Lagerung von Lebensmitteln verwendet. So können giftige Pilze auf dem Holz wachsen und die in diesen Gefäßen gelagerten Lebensmittel schädigen. Um das Pilzwachstum zu verhindern empfiehlt er, die Oberfläche des Gefäßes zu verkohlen und zitiert dazu ein Testergebnis des französischen Chemikers Berthollet (1748 - 1822): dieser verglich Wasser, das unter identen Bedingungen 4 Monate in einem Holzgefäß mit einer verkohlten Innenfläche und einer naturbelassenen Oberfläche gelagert wurde. Nur das Wasser in dem Gefäß mit der karbonisierten Oberfläche erwies sich als trinkbar.

Verfälschungen durch schädliche metallene Werkzeuge

Im weiteren geht Knoblauch auf Gefahren ein, die die durch verschiedene Metalle in Koch- und Lagergefäßen verursacht werden, insbesondere von solchen, die Kupfer und Blei enthalten. Auch andere gefährliche Metalle wie Zink, Zinn, Antimon, Kobalt und Arsen finden sich gelegentlich In Legierungen.

Die Eigenschaften von Kupfer werden ausführlich diskutiert, zahlreiche Beispiele von Kupfervergiftungen erörtert und mehrere Tests zum Nachweis von Kupfer beschrieben.

Der einfachste Test besteht darin, ein Stück reines Eisen in einem Gefäß mit Wasser zu erhitzen; ist Kupfer anwesend, tritt Oxydation des Eisenstücks ein (roter Überzug; Redn.). Ein besserer Test ist es eine Ammoniaklösung zu verwenden (blaue Flüssigkeit. Anm. Redn.), der beste Test ist der sogenannte Hahnemann-Weintests, der aus einer verdünnten Lösung von Calciumsulfid in Weinsäure besteht, aus der Kupfer als schwarzbrauner Niederschlag ausfällt. Dieser Test wurde 1788 von Samuel Hahnemann, dem Begründer der Homöopathie, eingeführt, um zu überprüfen, ob der Wein mit dem sogenannten Bleizucker (Bleiacetat) gesüßt worden war. Dies muss ziemlich oft vorgekommen sein, da der Hahnemann-Weintest in allen Apotheken verfügbar sein musste.

Knoblauch diskutiert die Art der Vergiftung durch die verschiedenen Metalle in den Legierungen und wie die Legierungen mit dem Hahnemann-Weintest getestet werden können, die Farbe der verschiedenen Metallsulfide und wie die Sulfide unterschieden werden können. Das einzige Metall, das für Gefäße empfohlen wird, die zur Zubereitung von Speisen dienen, ist Eisen, glasbeschichtetes Eisen und mit einigen Vorbehalten verzinntes Eisen. Da dieses mit Blei kontaminiert sein könnte, wird empfohlen, verzinnte Gefäße auf das Vorhandensein von Blei zu prüfen.

Das Kapitel schließt mit einer Diskussion möglicher Gefahren durch die Verwendung von Gefäßen aus Ton - d. i. Keramik, Porzellan - oder Glas. Obwohl das Material allgemein zur Lagerung empfohlen wird, wird darauf hingewiesen, dass der Ton manchmal Bleioxide enthalten kann. Daher wird empfohlen, es nach der 1795 vom deutschen Chemiker Westrumb beschriebenen Methode zu überprüfen. Wasser oder Essigsäure wird nach Zugabe des Hahnemann-Weintests in Gegenwart von Bleioxid trüb.

Von thierischen Lebensmitteln

Der nächste Abschnitt befasst sich mit Lebensmitteln tierischer Herkunft und erörtert Gefahren, die durch falsche Lagerung verursacht werden. Dabei wird versucht, die chemischen Prozesse zu erklären, die zur Zersetzung von Fleisch infolge schlechter Lagerung führen. Es werden mehrere Tests beschrieben, die zeigen, wie der Fäulnisprozess abhängig von Temperatur und Feuchtigkeit fortschreitet. Knoblauch meint, dass Gallerte (Kollagen) - er nennt es Zellgewebe - der Teil des Fleisches ist, der sich am schnellsten zersetzt.

Da Gelatine durch Abkühlen einer Kollagenlösung erhalten wird, gibt die Menge der erhaltenen Gelatine einen Hinweis auf die Menge an Kollagen, die im Fleisch vorhanden ist.

Ausführlich wird beschrieben, wie der Chemiker Berthollet den Fäulnisprozess untersuchte, indem er Rindfleisch im Wasser erhitzte und das Filtrat auf das Vorhandensein von Gelatine überprüfte. Dies wurde solange wiederholt, bis das Filtrat keine Gelatine mehr aufwies. Dann wurde das feuchte Rindfleisch in einem geschlossenen Gefäß mit Luft erwärmt, um zu prüfen, ob der Fäulnisprozess weitergehen würde. Nach einigen Tagen konnte festgestellt werden, dass eine Reaktion stattgefunden hatte, der Sauerstoff war im geschlossenen Gefäß durch CO2 ersetzt worden und es wurde wieder Gelatine im Filtrat gefunden. Nach mehrmaligem Wiederholen des Vorgangs hatte das Material die Struktur von Fleisch verloren und enthielt viel weniger Stickstoff als das ursprüngliche Material. Dies wurde als Beweis dafür angesehen, dass das Material, das die Gelatine bildet, ursprünglich nicht Teil des Fleisches war, sondern ein Ergebnis der Fäulnis war.

In weiterer Folge werden Vor- und Nachteile verschiedener Methoden zur Lagerung von Fleisch wie Trockenräuchern, Einfrieren, Salzen, Beizen usw. diskutiert und erklärt, auf welche Weise diese den Zersetzungsprozess hemmen.

Von Nahrungsmitteln aus dem Pflanzenreiche

Wie man das Problem der Lagerung schaffen kann, ist auch Hauptthema bei den aus dem Pflanzenreiche stammenden Lebensmittel, Knoblauch führt eine Reihe von Methoden - Trocknen, Einsalzen, Einzuckern, Beizen - an und kommt dann auf Gärungsvorgänge zu sprechen, die er in vier unterschiedliche Arten einteilt:

  1. Zuckerfermentation, die Stärke in Zucker umwandelt
  2. Gärung des Weins
  3. Saure Gärung
  4. Die Fäulnis, die in Gegenwart von Proteinen stattfinden kann.

Ein weiteres Thema in diesem Abschnitt ist die Beschreibung von Giftpflanzen (beispielsweise von Schierling).

Von den Methoden der Prüfungskunde

Im letzten Band der Schrift werden die verschiedenen Tests zur Überprüfung der Lebensmittelqualität erörtert. Hierin versucht Knoblauch aufzuzeigen, wie viel Information zur Qualität man mit einfachen Methoden erhalten kann, dass aber zur endgültigen Sicherheit chemische Methoden erforderlich sind. Er schreibt: "Die chemische Untersuchung ist der ultimative Test, um die beste Sicherheit über die Qualität des zu untersuchenden Materials zu erhalten."

Er warnt jedoch vor den Schwierigkeiten der Interpretation und fordert: „Die erste Pflicht eines jeden, der den Mut hat, in das heilige Feld der Chemie einzutreten, ist Pünktlichkeit, Ruhe, eine Haltung, die frei von Vorurteilen und hoher Moral ist.“ Er fährt fort, indem er einige Vorgänge beschreibt, die für die qualitative Analyse erforderlich sind, und einfache Prozesse wie Fällungslösung usw. erklärt und die Herstellung der wichtigsten Reagenzien für verschiedene Tests beschreibt.

In dem Kapitel, in dem verschiedene Tests beschrieben werden, diskutiert Knoblauch die Giftstoffe, die häufig in verschiedenen Arten von Lebensmitteln vorkommen. Nicht nur Wein muss mit dem Hahnemann-Weintest überprüft werden, auch rote Fruchtsäfte können manchmal Kobaltsalze enthalten, um die Farbe zu intensivieren, oder Arsen kann in Suppen aus Kohl oder anderem Gemüse gefunden werden. Verschiedene Methoden beschreiben, wie die Metalle in Form ihrer Sulfide identifiziert werden. Quecksilbersulfid kann mit Kohle zum elementaren Quecksilber reduziert werden, Arsen-Sulfid kann in Gegenwart von Luft in Arsenoxid umgewandelt werden, das sublimiert.

Die detaillierte Beschreibung der Prüfung von Lebensmitteln auf giftige Metalle scheint darauf hinzudeuten, dass die Zugabe solcher Metalle zu Lebensmitteln zu Beginn des 19. Jahrhunderts ein häufig anzutreffendes Verbrechen war. Der Schwerpunkt, der auf die Erörterung des besten Materials für die Lagerung und den Transport von Lebensmitteln aller Art gelegt wurde, kann aber auch zeigen, dass zu einer Zeit, als es nicht mehr möglich war, die Bevölkerung in den wachsenden Städten mit Lebensmitteln aus den benachbarten landwirtschaftlichen Gebieten zu versorgen Die Verschlechterung der Lebensmittel während des Transports und der Lagerung zu einem immer wichtigeren Thema wurde.


* Von den Mitteln und Wegen die mannichfaltigen Verfälschungen sämmtlicher Lebensmittel außerhalb der gesetzlichen Untersuchung zu erkennen, zu verhüten, und wo möglich wieder aufzuheben. Europeana-Website: https://www.europeana.eu/en/item/92004/NKCR___NKCR__49D000050ABT16NH0P3_cs (cc 0, nc).Passende  Ausschnitte aus dieser Schrift (in Fraktur) wurden von der Redaktion eingefügt.


Artikel zu verwandten Themen im ScienceBlog

An der Schnittstelle von Naturwissenschaften und Geschichte: Robert W. Rosner im ScienceBlog


 

inge Wed, 02.06.2021 - 22:35

SARS-CoV-2: in Zellkulturen vermehrtes Virus kann veränderte Eigenschaften und damit Sensitivitäten im Test gegen Medikamente und Antikörper aufweisen

SARS-CoV-2: in Zellkulturen vermehrtes Virus kann veränderte Eigenschaften und damit Sensitivitäten im Test gegen Medikamente und Antikörper aufweisen

Do, 27.05.2021 — Redaktion

RedaktionIcon Medizin

 Um im Laborexperiment herauszufinden ob ein Medikament oder ein Impfstoff die Vermehrung von SARS-CoV-2 stoppen kann, benötigt man große Mengen des Virus, die üblicherweise in Zellkulturen hergestellt werden. Als Standard dienen hier häufig sogenannte Vero-Zellen der Grünen Meerkatze, an die sich das Virus allerdings durch Mutationen und Deletionen im essentiellen Spike-Protein anpasst. Bei den so entstehenden neuen Varianten können sich Pathogenität, Übertragungseigenschaften und Empfindlichkeit gegenüber antiviralen Arzneimitteln und Antikörpern von denen des Wildtyp-Virus unterscheiden und damit die Testergebnisse ungültig machen.. Eine eben im Journal e-Life erschienene Studie stellt eine aus dem menschlichen Atemwegstrakt hergestellte Zelllinie (Calu-3) vor, die zu keinen derartigen Veränderungen des Spike-Proteins führt und somit ein verbessertes System für die Produktion eines für Wirksamkeitstestungen dringend benötigten möglichst authentischen Virus darstellt .*

Rastlos sind Forscher auf der ganzen Welt bestrebt die Biologie verschiedener SARS-CoV-2-Varianten zu verstehen, um neue Therapeutika zu entwickeln und der COVID-19-Pandemie ein Ende zu setzen. Der Prozess beginnt im Labor mit sorgfältigen Experimenten, um zu beurteilen, ob ein Medikament die Replikation von SARS-CoV-2 in Zellen, die in Kulturflaschen angesetzt sind, stoppen kann oder ob ein Impfstoff die Krankheit in einem Tiermodell verhindern kann. Solche Experimente erfordern jedoch große Mengen des SARS-CoV-2 Virus und die Authentizität dieser Stamm-Menge an Virus (das normalerweise in tierischen Zelllinien kultiviert wird) ist von größter Bedeutung, um die Gültigkeit der Testergebnisse sicherzustellen.

Herstellung von SARS-CoV-2 in großen Mengen...........

Die Standard-Prozedur zur Herstellung von SARS-CoV-2-Beständen nützt die  Vero-Zelllinie (aus Nierenzellen, die vor fast 60 Jahren von einer afrikanischen Grünen Meerkatze isoliert wurden). Diese Zellen sind sehr anfällig für Viren, da ihnen sogenannte Interferon-Zytokine vom Typ I fehlen, d.i. einer wichtigen Gruppe von Signalproteinen, die von Zellen in Gegenwart von Viren freigesetzt werden. Verozellen werden bevorzugt für die Isolierung und Vermehrung vieler Viren gewählt, da sie gut charakterisiert und leicht zu halten sind, adhärente Kulturen bilden (d.i. an Kulturschalen haften) und bei Infektionen sichtbare strukturelle Veränderungen aufweisen. Wie Viren, die auf natürliche Weise in menschlichen Populationen zirkulieren, neigen allerdings auch im Labor gezüchtete Viren dazu, sich zu verändern und an die jeweilige Umgebung anzupassen, in der sie sich gerade befinden.

...........in Vero-Zellen kann zu Mutationen und Deletionen im Spike-Protein führen.......

Eine frühe Studie, die seitdem auch von Anderen repliziert wurde, hat ergeben, dass Stamm-Mengen von SARS-CoV-2, die in von Vero-Zellkulturen kultiviert wurden, häufig Mutationen oder Deletionen im Spike-Gen aufweisen (das entsprechende Spike-Protein ist für das Andocken des Virus an die Wirtszellen und das nachfolgende Eindringen in die Zellen verantwortlich; Anm. Redn). Diese Deletionen entfernen eine wichtige Region auf dem Spike-Protein, die als mehrbasige Spaltstelle bezeichnet wird und die Fähigkeit des Virus beeinflusst, menschliche Atemwegszellen zu infizieren. Derartige Viren verhalten sich daher in mehrfacher Hinsicht nicht wie ein authentisches SARS-CoV-2: Sie weisen eine niedrigere Pathogenität auf, sind nicht übertragbar und zeigen eine veränderte Empfindlichkeit auf die Hemmung durch antivirale Interferon-stimulierte Gene und Antikörper von Patienten.

.........und damit zu veränderten Sensitivitäten gegen Medikamente und Antikörper

Diese Eigenschaften können die Interpretation von Laborexperimenten erschweren, in denen von Vero-Zellen produzierte Viren zur Bestimmung der Wirksamkeit von experimentellen Arzneimitteln oder Impfstoffen verwendet werden. Bei Impfstoffen mit inaktiviertem SARS-CoV-2, das in Vero-Zellen hergestellt wurde, könnte die Fähigkeit zur Stimulierung richtiger Antikörperreaktionen ebenfalls teilweise beeinträchtigt sein (auch, wenn es dafür noch keine formelle Bestätigung gibt).

Nun berichten im Journal eLife Bart Haagmans und Kollegen vom Erasmus Medical Center (Rotterdam) und der Universität Illinois (Urbana-Champaign) mit Mart Lamers als Erstautor [1] über einfache Methoden zur Herstellung von SARS-CoV-2 Stamm-Mengen in menschlichen Zellen, die Mutationen und Deletionen im für das Spike-Protein kodierenden Gen verhindern (Abbildung 1).

Abbildung 1: Schematische Darstellung einer von einem Patienten stammenden SARS-CoV-2-Pprobe, die unter Verwendung der Vero-Zelllinie (die vor fast 60 Jahren aus einem afrikanischen Grünen Meeraffen isoliert wurde; oben) oder der Calu-3-Zelllinie (die eine menschliche Zelllinie ist; s.u.) passagiert wurde. Den Verozellen fehlt eine Serinprotease namens TMPRSS2, die benötigt wird, damit das Virus über die Plasmamembran in die Wirtszellen eindringen kann. Bestimmte SARS-CoV-2-Varianten mit Deletionen im Spike-Protein (rot dargestellt) können jedoch über einen anderen Weg in Vero-Zellen eindringen. Für diese Varianten wird daher selektiert und sie beginnen die Viruspopulation zu dominieren. Die Pathogenität, Übertragungseigenschaften und Empfindlichkeit der Varianten gegenüber antiviralen Arzneimitteln und Antikörpern unterscheiden sich von denen des Wildtyp-Virus. Calu-3-Zellen weisen keinen Mangel an TMPRSS2 auf, so dass die Authentizität des Spike-Gens erhalten bleibt, und Studien mit solchen Virusbeständen ahmen die Biologie des menschlichen Virus genauer nach. (Bild: aus [1], erzeugt mittels BioRender.com).

Vorerst haben Lamers et al. eine Methode namens Deep Sequencing verwendet, um zu bestätigen, dass wiederholtes Passagieren (Umsetzen) von SARS-CoV-2 in Vero-Zellen zu einer Zunahme von viralen Genomen führt, die Mutationen oder Deletionen in der wichtigen Region des Spike-Gens aufweisen. Werden weniger empfindliche Sequenzierungsmethoden benutzt oder verlässt man sich auf „Konsensus-Sequenzen“, so kann dies den falschen Eindruck erwecken, dass solche Deletionen fehlen.

In Folge haben Lamers et al. dann festgestellt, wie diese Spike-Deletionen für bestimmte SARS-CoV-2-Varianten einen replikativen Vorteil in Vero-Zellen verschaffen, der es ihnen ermöglicht, die Viruspopulation zu dominieren. Vero-Zellen fehlt eine Serinprotease, die SARS-CoV-2 aber benötigt, um durch die Plasmamembran in Zellen des menschlichen Atemwegs einzudringen. SARS-CoV-2-Varianten mit Deletionen im Spike-Gen nutzen jedoch einen anderen Weg (Endozytose genannt), um in Vero-Zellen einzudringen. Offenbar ermöglicht die Fähigkeit der Varianten diese zweite Eintrittsroute zu nutzen, dass sie dominieren, wenn Vero-Zellen verwendet werden.

Die Calu-3-Zelllinie, eine bessere Alternative

Als nächstes stellte sich die Frage, ob eine Zelllinie des menschlichen Atemwegs, Calu-3, eine bessere Alternative zur Kultivierung von SARS-CoV-2 sein könnte, da diese Zelllinie die notwendige Protease besitzt. Tatsächlich stellte es sich heraus, dass ein wiederholtes Passagieren von SARS-CoV-2 in Calu-3-Zellen die Akkumulation von Mutationen und Deletionen im Spike-Gen von SARS-CoV-2 verhinderte. (Dies war auch in Vero-Zellen der Fall, wenn sie durch genetische Manipulation zur Expression der Serinprotease befähigt wurden). Darüber hinaus eigneten sich Calu-3-Zellen genauso gut wie Vero-Zellen, um die für nachfolgende Experimente erforderlichen, großen Virusmengen zu produzieren. Dass durch deep sequencing die Authentizität der auf diese Weise hergestellten Stamm-Mengen von SARS-CoV-2 bestätigt wird, lässt die Interpretation nachfolgender Experimente verlässlich erscheinen.

Fazit

Die Ergebnisse dieser Studie sind ein überzeugendes Argument für SARS-CoV-2-Forscher, dass sie die Genomsequenzen der von ihnen produzierten Stamm-Mengen des Virus gründlich charakterisieren (und eine Sequenzierung von Konsensus-Sites vermeiden). Darüber hinaus sollten Forscher die Zellen, die Wachstumsmedien und die für die Virusproduktion verwendeten Additive berücksichtigen, um artifizielle Anpassungen von SARS-CoV-2 an die Kulturbedingungen zu verhindern, die sich auf die Beurteilung der Wirksamkeit von Arzneimitteln oder Impfstoffen auswirken könnten.

Zellkultursysteme zur Vermehrung von Viren sind der Dreh- und Angelpunkt der Virologie, dennoch haben sie seit den Anfängen des Fachgebiets keine wirkliche Abänderung erfahren. Die Anwendung moderner technologischer Neuerungen wie rationale Geneditierung in Zellen oder die Verwendung von in vivo-ähnlichen organoiden Gewebemodellen verspricht diesen kritischen Aspekt der Virologie zu transformieren. Dies sollte es Forschern ermöglichen, ihre Methoden auf den aktuellen Stand zu bringen, um Authentizität n ihren Experimenten beizubehalten.


[1] Mart M. Lamers et al., Human airway cells prevent SARS-CoV-2 multibasic cleavage site cell culture adaptation. eLife 2021;10:e66815. DOI: https://doi.org/10.7554/eLife.66815


*Der vorliegende Artikel von Benjamin G. Hale ist am 18. Mai 2021 unter dem Titel "COVID-19: Avoiding culture shock with the SARS-CoV-2 spike protein" im Journal eLife erschienen: https://doi.org/10.7554/eLife.69496, Der unter einer cc-by 4.0 stehende Artikel wurde möglichst wortgetreu von der Redaktion übersetzt.


Das Spike-Protein im ScienceBlog


inge Thu, 27.05.2021 - 18:38

Alte Knochen - Dem Leben unserer Urahnen auf der Spur

Alte Knochen - Dem Leben unserer Urahnen auf der Spur

Do, 20.05.2021 — Christina Beck Christina BeckIcon Gehirn

Der vor mehr als drei Millionen Jahren in Ostafrika lebende Australopithecus afarensis nimmt eine Schlüsselposition im Stammbaum der Homininen ein, von dem sich vermutlich alle späteren Homininen - einschließlich des Menschen - herleiten. Dieser Vorfahr (zu dieser Art gehörte auch die bekannte Lucy) ging aufrecht und hatte ein etwa 20 Prozent größeres Gehirn als Schimpansen. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft berichtet über den Fund und die Erforschung eines mehr als drei Millionen Jahre alten, weitgehend vollständig erhaltenen kindlichen Skeletts des Australopithecus afarensis ("Dikika-Kind), das neue Erkenntnisse zur Entwicklung des Gehirns und zur Humanevolution ermöglicht.*

Unser Studiengelände liegt im Nordosten Äthiopiens in der Region Dikika. Die weite, karge Landschaft von Dikika birgt Jahrmillionen altes Gebein. Seit fünf Jahren suchen wir die Böschungen entlang eines ausgetrockneten Flussbeckens ab und durchsieben den Boden nach Knochen, die das Wasser, das einst durch das Becken floss, bergab gespült hat. Mittagstemperaturen bis 50° Celsius lassen die Arbeit zur Qual werden; nirgends gibt es ein schattiges Plätzchen. Bisher besteht unsere Ausbeute aus einer Fülle fossiler Säugetiere, darunter Elefanten, Flusspferde und Antilopen. Menschliche Überreste sind nicht dabei.

Doch im Dezember 2000 wurden die Paläoanthropologen endlich fündig: In einer dicken Sandsteinlage stoßen sie auf die Teile eines Kinderskeletts. Das winzige Gesicht lugt aus einem staubigen Hang hervor. Es handelt sich um die fossilen Überreste eines Homininen: ein Australopithecus afarensis, wie die Forschung später feststellen wird. Damit gehört das Kind zur gleichen Art wie „Lucy“, jenes weltberühmte, rund 3,2 Millionen Jahre alte weibliche Skelett, das 1974 in der gleichen Region Afrikas ausgegraben wurde. Australopithecus afarensis nimmt eine Schlüsselposition im Stammbaum der Homininen ein – der heutige Mensch und die ausgestorbenen Vorfahren der Gattung Homo zählen zu dieser Gruppe – denn alle späteren Homininen stammen vermutlich von dieser Art ab.

Der neue Skelettfund ist der älteste und vollständigste, der jemals von einem kindlichen menschlichen Vorfahren gemacht worden ist, denn im Gegensatz zu „Lucy“ hat das Kind auch Finger, einen Fuß und einen vollständigen Rumpf. Und vor allem: es hat ein Gesicht (Abbildung 1).

Abbildung 1: Der Schädel gehört zu einem 3,3 Millionen Jahre alten Skelett eines 3-jährigen Mädchens, das im Jahr 2000 in der Region Dikika im äthiopischen Hochland gefunden wurde. Links © Zeray Alemseged; rechts © Philipp Gunz / CC BY-NC-ND 4.0

„Wir können die Milchzähne sehen und die bleibenden Zähne, die noch im Kiefer stecken. Wir haben fast alle Wirbel, Rippen und die Schulterblätter. Und wir haben Ellbogen, Hände, Beinknochen und fast einen kompletten Fuß, bei dem nur die Zehenspitzen fehlen“, beschreibt der aus Äthiopien stammende und zum damaligen Zeitpunkt in Leipzig arbeitende Projektleiter Zeresenay Alemseged den Fund. Sämtliche Knochen des oberen Skelettteils des Dikika-Kindes, von den Forschenden „Selam“ genannt, waren in einem kompakten Sandsteinblock eingeschlossen. Mit Hilfe eines Zahnarztbohrers wurde der harte Sandstein Korn für Korn aus den Rippenzwischenräumen und aus der Wirbelsäule entfernt.

Auf den Zahn gefühlt

Es dauerte mehr als vier Jahre, bis das gesamte Skelett geborgen werden konnte. Zahlreiche Forscherinnen und Forscher, u.a. vom Max-Planck-Institut für evolutionäre Anthropologie in Leipzig, und mehr als 40 Feldforschungsassistierende waren an der Ausgrabung beteiligt. Beim Dikika-Kind liegen die Kronen der bleibenden Zähne noch im Knochen, sind aber teilweise schon voll ausgebildet. „Wir können heute mit biochemischen Methoden, Gensequenzanalysen und Computertechnik immer mehr aus fossilen Knochen herauslesen und so etwas über die Lebensweise, die Lebensbedingungen und den Lebensverlauf der Frühmenschen erfahren“, erklärt Jean-Jacques Hublin, Direktor am Leipziger Max-Planck-Institut, die weitreichenden methodischen Umwälzungen in seinem Forschungsgebiet. So erlaubt die computertomografische Untersuchung von Zähnen zuvor unzugängliche Entwicklungsmerkmale virtuell freizulegen, ohne das Fundstück dabei zu zerstören. Zähne gehören zu den häufigsten und am besten erhaltenen fossilen Belegen und können über das Alter und das Geschlecht des Fossilienfundes Auskunft geben.

Die Größe des ersten Backenzahnes zeigt: bei dem Dikika-Kind handelte es sich wohl um ein kleines Mädchen. Die Zahnentwicklung beginnt bei Menschen und Menschenaffen vor der Geburt und dauert während des Heranwachsens an. Entwicklungsgeschwindigkeit und -zeit werden dabei fortwährend als Wachstumslinien – ähnlich wie die Jahresringe von Bäumen – im Zahnschmelz und im Zahnbein gespeichert und bleiben darin unverändert über Millionen von Jahren erhalten. Mit hochauflösender Synchrotron-Mikrotomographie am Europäischen Synchrotron (ESRF) im französischen Grenoble wurde so das Sterbealter des Dikika-Kindes ermittelt: Es wurde nur 861 Tage alt, also nicht einmal zweieinhalb Jahre. Vermutlich hat eine Flutwelle es vor etwa 3,3 Millionen Jahren mitgerissen und dann sehr schnell unter Kies und Sand begraben, so dass es vor Aasfressern und der Witterung geschützt war.

Auf dem Weg zu einer langen Kindheit

Aufgrund der versteinerten Schädelknochen (Abbildung 2) konnte das Team am Max-Planck-Institut dem Dikika-Kind auch Geheimnisse über die Evolution der Gehirnentwicklung entlocken.

Abbildung 2: Puzzle-Spiel für Anthropologen. Über mehrere Jahre arbeiteten die Forscher an der Rekonstruktion von fossilen Schädeln der Art Australopithecus afarensis. Gehirne versteinern zwar nicht, aber das Gehirn hinterlässt einen Abdruck im knöchernen Schädel, während es sich im Laufe der Kindesentwicklung ausdehnt. Entgegen früheren Behauptungen fanden Forscher in keinem Australopithecus afarensis Gehirnabdruck Hinweise auf eine menschenähnliche Neuorganisation des Gehirns. Links © Zeray Alemseged; rechts © Philipp Gunz / CC BY-NC-ND 4.0.

Gehirne versteinern zwar nicht, aber das Gehirn hinterlässt einen Abdruck im knöchernen Schädel, während es sich im Laufe der Kindesentwicklung ausdehnt. Basierend auf Abgüssen des inneren Schädels konnten die Leipziger das Gehirnvolumen schätzen und aus den sichtbaren Gehirnwindungen wichtige Aspekte der Gehirnorganisation ableiten. „Nach sieben Jahren Arbeit hatten wir endlich alle Puzzleteile, um die Evolution des Gehirnwachstums zu untersuchen“, erzählt der Max-Planck-Forscher Philipp Gunz: „Das Sterbealter des Dikika-Kindes und sein Gehirnvolumen, die Gehirnvolumina der am besten erhaltenen erwachsenen Australopithecus afarensis-Fossilien sowie Vergleichsdaten von mehr als 1600 modernen Menschen und Schimpansen.” Die Ergebnisse werfen ein neues Licht auf zwei viel diskutierte Fragen: Gibt es Hinweise auf eine menschenähnliche Organisation des Gehirns bei Australopithecus afarensis? Und: War das Muster des Gehirnwachstums bei Australopithecus afarensis dem von Schimpansen oder dem von Menschen ähnlicher?

Herunter von den Bäumen

Entgegen früheren Annahmen weisen die Gehirnabdrücke von Australopithecus afarensis auf eine affenähnliche Gehirnorganisation hin und zeigen keine menschenähnlichen Merkmale (Abbildung 3).

Abbildung 3: Wer hat was im Kopf? Ein markanter Unterschied zwischen den Gehirnen von Menschenaffen und Menschen ist die Lage des primären visuellen Kortex. Bei allen Affengehirnen liegt dieser am Rand einer gut sichtbaren halbmondförmigen Furche (rechtes Bild, rot eingefärbte Struktur). Bei Gehirnabdrücken moderner Menschen gibt es diese Furche nicht. Der Gehirnabdruck im fossilen Schädel des Australopithecus afarensis-Kindes besitzt eine affenähnliche Furche (linkes Bild, weiße Linien in der rot eingefärbten Struktur). © P. Gunz, MPI für evolutionäre Anthropologie / CC BY-NC-ND 4.0

„Weil die Gehirne von Australopithecus afarensis Erwachsenen etwa 20 Prozent größer waren als die von Schimpansen, deutet das kleine Gehirnvolumen des Dikika-Kindes auf ein längeres Gehirnwachstum als bei Schimpansen hin“, so Gunz. Bei Primaten hängen das Wachstumsmuster und die Fürsorge-Strategie für die Jungtiere miteinander zusammen. Die verlängerte Wachstumsphase des Gehirns bei Australopithecus afarensis könnte also möglicherweise auf eine lange Abhängigkeit der Kinder von den Eltern hindeuten. Alternativ könnte sie auch eine Anpassung an Umweltbedingungen sein: Bei Nahrungsmangel würde der Energiebedarf abhängiger Nachkommen so über viele Jahre verteilt. In beiden Fällen bildete das lange Gehirnwachstum bei Australopithecus afarensis eine Grundlage für die spätere Evolution des Gehirns und des Sozialverhaltens bei Homininen, und für die Evolution einer langen Kindheit.

Der Oberschenkelknochen, das Schienbein und der Fuß liefern den Beweis, dass Australopithecus afarensis aufrecht gegangen ist – jedoch auf eine andere Art und Weise als wir (erst Homo erectus entwickelt vor 1,7 Millionen Jahren eine Art des aufrechten Gangs, die im Wesentlichen mit der Fortbewegungsweise der modernen Menschen übereinstimmt). Die beiden vollständig erhaltenen Schulterblätter des Dikika-Kindes ähneln denen eines jungen Gorillas und erleichterten wahrscheinlich das Klettern. „Wir gehen davon aus, dass sich diese frühen Vorfahren noch gut in Bäumen fortbewegen konnten“, erklärt Gunz. Was auch nicht weiter verwundert: Verschiedene Strukturen und Organe evolvieren in der Regel unterschiedlich schnell, sodass ein Mosaik von ursprünglichen und abgeleiteten Merkmalen entsteht. Jene Selektionskräfte, die den aufrechten Gang hervorbrachten, haben zuerst auf die Hinterbeine und das Becken gewirkt; die Arme und die Schulterpartie waren zunächst weniger bedeutsam, „deshalb passt die untere Körperhälfte des Australopithecus gut zum aufrechten Gang, während Oberkörper und Arme altmodischer wirken“, sagt Jean-Jacques Hublin.

Ein besonders seltener und aufregender Teil des Dikika-Fundes ist das Zungenbein. Dieser zarte Knochen hält Zunge und Kehlkopf in Position. Er spielt vermutlich eine wichtige Rolle bei der Produktion menschlicher Sprache und könnte den Forschenden helfen, die Konstruktion und Evolution des menschlichen Sprechapparates besser zu verstehen. Die Beschaffenheit dieses Knochens bei ausgestorbenen Homininen-Arten ist weitgehend unbekannt. Das einzige bislang gefundene Neandertaler-Zungenbein sieht menschlich und nicht Schimpansen-ähnlich aus. Der Zungenbeinknochen des Dikika-Mädchens ähnelt dagegen dem afrikanischer Menschenaffen. Damit bestätigt dieser Fund Berechnungen der britischen Anatomin Margaret Clegg und ihrer Kollegin, der Anthropologin Leslie Aiello, die 2002 mittels statistischer Analyse von Affen- und Menschenschädeln versucht haben, Indikatoren für die Form des Zungenbeins zu finden. Ihren Voraussagen zufolge haben die Australopithecinen eine ähnliche Zungenbeinform wie Schimpansen und Gorillas gehabt. Doch schon bei den anatomischen Übergangsformen zwischen Australopithecus und der Gattung Homo soll sich das Zungenbein in die menschliche Richtung verändert haben – ein Hinweis dafür, dass der frühe Urmensch seinen Stimmapparat anders verwendete als seine Ahnen.

Homo sapiens - Fortschritt oder Anpassung?

Australopithecus afarensis gehört zu den Wurzeln des Stammbaumes von Homo sapiens – doch zwischen diesen frühen Homininen vor mehr als drei Millionen Jahren und den ersten bekannten Vertretern unserer eigenen Art vor ungefähr 300.000 Jahren liegt ein langer Zeitraum. Die Fossilüberlieferung beweist, dass in dieser Zeitspanne viele verschiedene Menschentypen gleichzeitig nebeneinander existierten (Abbildung 4). Der größte Teil der bekannten fossilen Frühmenschen gehörte nicht einem einzelnen, sich entwickelnden Stamm an. Es gab eine ganze Reihe getrennter Evolutionszweige, die meisten von ihnen waren Seitenzweige und Sackgassen, von denen keine Spur in die moderne Welt führt. So gleicht der menschliche Stammbaum einem sich verzweigenden Busch mit vielen abgestorbenen Zweigen. Dass die Entwicklung zum Homo sapiens nicht linear verlief, muss nicht erstaunen. Denn der zentrale Punkt bei der Evolution ist nicht der Fortschritt zu Höherem, sondern das Hervorbringen verschiedenartiger Formen, Varietäten wie Darwin sie nannte. „Die heutige Situation, dass wir seit dem Aussterben der Neandertaler vor etwa 30.000 Jahren die einzige Homininenart auf diesem Planeten sind, ist die Ausnahme“, sagt Philipp Gunz.

Abbildung 4: Ein bunter Haufen - die Homininen-Familie. Obere Reihe von links: Australopithecus afarensis, Kenyanthropus platyops, Paranthropus boisei, Homo neanderthalensis, H. habilis; untere Reihe von links: A. africanus, H. erectus, A. anamensis, H. rudolfensis. © W. Schnaubelt & N. Kieser – Atelier WILD LIFE ART für das Hessische Landesmuseum Darmstadt

Bei vielen Tiergruppen ist die stammesgeschichtliche Verzweigung in den unterschiedlichen Gattungen und Arten heute noch sichtbar, zum Beispiel bei den paarhufigen Wiederkäuern mit Hörnern, den Bovidae. Afrika ist ihr Hauptverbreitungsgebiet, aber sie sind auch auf allen anderen Kontinenten (mit Ausnahme von Australien) anzutreffen. Zu dieser Familie zählen die winzigen Dikdiks ebenso wie der massige Kaffernbüffel. Wollte man ihre Entwicklung als fortschreitende Stufenleiter betrachten, so käme man in erhebliche Schwierigkeiten. Denn die Merkmale der verschiedenen Bovidae sind keineswegs Kennzeichen einer evolutionären Weiterentwicklung, sondern resultieren aus der Anpassung an die jeweiligen Anforderungen der unterschiedlichen Lebensräume und des damit verbundenen Nahrungsangebots. Die meisten Tiergruppen sind insbesondere in den frühen Abschnitten ihrer Evolutionsgeschichte sehr unterschiedlich ausgestaltet, und es gibt keinen Grund, warum dies ausgerechnet bei der Humanevolution anders gewesen sein sollte.

So mancher sieht im aufrechten Gang viel lieber einen Fortschritt als eine Alternative zur vierfüßigen Fortbewegungsweise. Aber wir sollten uns fragen, ob nicht beispielsweise die unterschiedliche Gehirngröße bei den Homininen schlichtweg eine Anpassung an verschiedene Lebensräume sein könnte. Die Fossilienüberlieferung zeigt, was es mit der angeblichen Weiterentwicklung auf sich hat: Tatsächlich lebten, z.B.im Osten und Süden Afrikas zeitgleich Vertreter der Homininengattung Paranthropus mit ihren relativ kleinen Gehirnen zur gleichen Zeit wie Vertreter der menschlichen Gattung Homo mit ihren größeren Gehirnen. Die verschiedenen Homininen stellen nichts anderes dar als alternative Antworten auf die vielfältigen Umweltbedingungen (adaptive Radiation).

Und wenn sie überlebt hätten?

Vergegenwärtigt man sich dieses Muster, so drängt sich die Frage auf, welche Rolle dann noch die menschliche Einzigartigkeit spielt. Bei der Betrachtung von Menschen und Menschenaffen klafft eine vermeintlich große Lücke zwischen uns und unseren nächsten Verwandten. Doch dieser evolutionäre Raum war in der Vergangenheit kein Vakuum, sondern enthielt zahlreiche weitere Homininenformen. Hätten die robusten Paranthropus-Arten in Afrika überlebt, hätten sich die Neandertaler in Sibirien oder der Homo erectus auf Java erhalten, dann würden uns die Unterschiede zwischen Menschen und Schimpansen längst nicht so beeindrucken.


* Der Artikel ist erstmals unter dem Titel: " Virtueller Blick in alte Knochen. Dem Leben unserer Urahnen auf der Spur" in BIOMAX Ausgabe 24, Neuauflage Frühjahr 2021 erschienen. https://www.max-wissen.de/Fachwissen/show/5599  und wurde praktisch unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.


 Weiterführende Links

Abteilung für Human Evolution im Max-Planck-Institut für evolutionäre Anthropologie (MPI EVA)http://www.eva.mpg.de/evolution/index_german.htm

Lucy had an ape like brain | Science Snippet. MPI für Evolutionäre Anthropologie. Video 0,45 min. https://www.youtube.com/watch?v=auuxhsfUxbg

The Story of Selam: Discovery of the Earliest Child. Video 10:32 min. https://www.youtube.com/watch?v=8_qRSkzzDbU

Evolution des Gehirns http://www.geo.de/GEO/natur/tierwelt/das-gehirn-evolution-des-gehirns-57...


Artikel im ScienceBlog:

Philipp Gunz, 11.10.2018: Der gesamte afrikanische Kontinent ist die Wiege der Menschheit

Philip Gunz, 24.07.2015: Die Evolution des menschlichen Gehirns

Herbert Matis, 17.01.2019: Der "Stammbusch" der Menschwerdung


 

inge Wed, 19.05.2021 - 23:41

Die Sonne im Tank - Fusionsforschung

Die Sonne im Tank - Fusionsforschung

Do, 13.05.2021 — Roland Wengenmayr

Icon Physik

Roland WengenmayrDer globale Energieverbrauch - derzeit zu 85 % aus fossilen Energieträgern gedeckt - wird trotz verschiedenster Sparmaßnahmen bei wachsender Erdbevölkerung weiter ansteigen. Ein Umstieg auf ein neues Energiesystem ist vor allem auf Grund des Klimawandels, aber auch wegen der limitierten Brennstoff-Ressourcen und der politischen Abhängigkeiten unabdingbar. Mit einer Nutzung der Kernfusion, d.i. der Quelle, aus der die Sonne ihre Energie speist, könnte die Menschheit eine fast unerschöpfliche Energiequelle erschließen, die keine gefährliche Treibhausgase freisetzt. Der Physiker und Wissenschaftsjournalist DI Roland Wengenmayr gibt einen Überblick über die Grundlagen der Kernfusion und den Status der Kernfusionsforschung.*

Ohne Sonne gibt es kein Leben – das wussten schon unsere Vorfahren. Für die antiken Griechen schwang sich morgens ihr Gott Helios auf seinen Sonnenwagen, um für Licht und Wärme zu sorgen. Doch was lässt nun wirklich das Sonnenfeuer scheinbar ewig brennen? Darüber zerbrachen sich lange die klügsten Denker vergeblich den Kopf. 1852 kam Hermann von Helmholtz zu dem entsetzlichen Schluss, dass die Sonne schon nach 3021 Jahren ausgebrannt sein müsse. Dabei ging der berühmte Physiker von der Knallgasreaktion als Energiequelle aus, in der Wasserstoff chemisch mit Sauerstoff zu Wasser verbrennt. Erst 1938 löste der deutsch-amerikanische Physiker und spätere Nobelpreisträger Hans Bethe das Rätsel: Nicht chemische Verbrennungsprozesse sind die Quelle solarer Glut, sondern die Verschmelzung von Atomkernen – und zwar überwiegend von Wasserstoffkernen zu Heliumkernen. Abbildung 1.

Abbildung 1: Die Energieproduktion der Sonne erfolgt aus der Verschmelzung von Atomkernen. © SOHO-Collaboration, ESA & NASA

Diese Kernfusion setzt pro beteiligtem Wasserstoffatom rund vier Millionen mal mehr Energie frei als die Knallgasreaktion. Dank dieser enormen Effizienz wird die Sonne mit ihrem Brennstoffvorrat zum Glück noch weitere 4,5 Milliarden Jahre auskommen.

In ihrem Inneren laufen mehrere Fusionsreaktionen des leichten Wasserstoffs ab. Dabei dominiert eine Reaktion, die als „Proton-Proton-Reaktion 1“ bezeichnet wird (Abbildung 2): Vier Wasserstoff-Atomkerne, also Protonen, verschmelzen über Zwischenschritte zu einem Heliumkern aus zwei Protonen und zwei Neutronen. Die Neutronen entstehen aus Protonen. Dabei tragen Positronen, die Antimaterie-Gegenspieler der Elektronen, die überschüssige positive elektrische Ladung davon.

Abbildung 2: Die "Proton-Proton-Reaktion 1" in der Sonne. (Protonen: rot, Neutronen: blau).© R. Wengenmayr / CC BY-NC-SA 4.0

Diese Verschmelzungsreaktion braucht allerdings enorme Temperaturen. Für die Sonne kein Problem: In ihrem Zentrum herrschen etwa 15 Millionen Kelvin. Dabei trennen sich die Kerne der leichten Atome völlig von ihren Elektronen. Sie formen ein heißes Gas aus elektrisch geladenen Teilchen, ein Plasma. Zudem existiert im Sonneninneren aufgrund der gewaltigen Gravitation ein enormer Druck: Umgerechnet 200 Milliarden Erdatmosphären pressen das Plasma so zusammen, dass ein Kubikzentimeter davon auf der Erde fast so viel wiegen würde wie 20 gleich große Würfel aus Eisen.

Nur unter so extremen Bedingungen überwinden die Protonen ihren Widerstand gegen die Fusionshochzeit. Normalerweise stoßen sie sich nämlich wegen ihrer gleichen elektrischen Ladung gegenseitig stark ab. Doch im heißen Sonneninneren flitzen die Protonen so schnell umher, dass sie trotzdem kollidieren können – Wärme ist in der Mikrowelt nichts anderes als Bewegungsenergie. Sie nähern sich dabei bis auf 10–15 Meter an (d.i. ein Femtometer oder ein Billionstel von einem Millimeter), und an diesem „Umschlagspunkt“ beginnt die Kernkraft zu dominieren. Diese stärkste Kraft der Physik hat zwar nur eine geringe Reichweite, übertrifft innerhalb dieser jedoch die elektrische Kraft. Die Kernkraft kann deshalb auch die widerspenstigen Protonen zu Atomkernen verbinden; ohne sie gäbe es also weder Atome noch uns. Die Dichte des gepressten Sonnenplasmas sorgt überdies für ausreichend viele Zusammenstöße und hält so den solaren Fusionsofen warm.

In der griechischen Mythologie stahl ein gewisser Prometheus das Feuer von Helios’ Sonnenwagen, um es den Menschen zu schenken. Zu den modernen Nachfahren des Prometheus gehören Forscher wie der inzwischen verstorbene Lyman Spitzer. In einem Vortrag am 11. Mai 1951 umriss der amerikanische Astrononom von der Princeton University, wie sich das Sonnenfeuer auf die Erde holen ließe. Er hatte die entscheidende Idee, wie man das viele Millionen Grad heiße Plasma auf der Erde so einschließen kann, dass darin eine kontrollierte Kernfusion möglich wird. Denn der Kontakt mit einer materiellen Gefäßwand wäre fatal: Das Plasma würde schlagartig auskühlen und die empfindliche Fusionsreaktion sofort erfrieren. Spitzer schlug vor, das Plasma in einem magnetischen Käfig schweben zu lassen. Da Plasma aus elektrisch geladenen Teilchen besteht, ist das möglich, denn Magnetfelder üben auf elektrische Ladungen Kraft aus. Damit skizzierte Spitzer das Grundprinzip zukünftiger Fusionsreaktoren. Magnetische Kräfte haben allerdings den Nachteil, dass sie ziemlich schwach sind. Sie können nur ein extrem dünnes Plasma gefangen halten, etwa 250.000-fach dünner als Luft auf Meereshöhe. Deswegen wird das heiße Plasma auch in großen Reaktoren nie mehr Druck aufbauen als Luft in einem Fahrradreifen. So einfach lässt sich die Sonne also nicht kopieren.

Angeheizte Wasserstoffkerne

Das gilt auch für die Fusionsreaktion. In einem künstlichen Reaktor würde die solare Proton-Proton-Reaktion viel zu langsam ablaufen. Aber zum Glück erlaubt die Natur alternative Fusionsreaktionen, und eine davon eignet sich besonders gut für den technischen Einsatz. Damit gelang es Plasmaphysikern bereits in den 1990er-Jahren, die kontrollierte Kernfusion anlaufen zu lassen, und zwar an der europäischen Forschungsanlage JET, Joint European Torus, im englischen Abingdon und am Tokamak Fusion Test Reactor (TFTR) der amerikanischen Princeton University. Diese alternative Fusionsreaktion braucht zwei Arten von schwerem Wasserstoff als Brennstoffkomponenten: das ist das Wasserstoffisotop Deuterium, dessen Kern neben dem Proton ein Neutron enthält, und das noch schwerere Tritium mit einem Kern aus einem Proton und zwei Neutronen. Je ein Deuterium- und ein Tritiumkern verschmelzen zu einem Heliumkern (Abbildung 3).

Abbildung 3: Im Fusionsreaktor verschmilzt je ein Deuterium-Kern mit einem Tritium-Kern zu einem Heliumkern (Protonen: rot, Neutronen: blau). Dabei wird ein Neutron mit einer Energie von 14,1 Milliarden Elektronenvolt frei. © R. Wengenmayr / CC BY-NC-SA 4.0

Allerdings funktioniert das erst oberhalb von 100 Millionen Kelvin, ideal sind 300 Millionen Kelvin. Erst dann sind die schweren Wasserstoffkerne genügend in Fahrt, um effizient zu verschmelzen. Zehn bis zwanzigmal höhere Temperaturen als in der Sonne scheinen ein verrücktes Ziel zu sein. Doch sie sind in heutigen Plasmaexperimenten längst Routine geworden. Die Forschungsanlage ASDEX Upgrade am Max-Planck-Institut für Plasmaphysik in Garching erreichte schon über 250 Millionen Kelvin.

Bei der Fusion von Deuterium mit Tritium bekommt der entstehende Heliumkern rund zwanzig Prozent der freiwerdenden Energie mit. Damit heizt er das von Auskühlung bedrohte Plasma nach. Die restlichen achtzig Prozent der Fusionsenergie trägt das Neutron davon. Als elektrisch neutrales Teilchen entkommt es dem Magnetkäfig und trifft auf die Wand des Reaktorgefäßes. In einem zukünftigen Kraftwerk werden die Neutronen dort den überwiegenden Teil der Fusionswärme auf ein Kühlmittel übertragen, zum Beispiel Wasser oder Helium. Das befördert die Wärmenergie dann zu einer Turbinenanlage mit elektrischen Generatoren, genau wie bei konventionellen Kraftwerken (Abbildung 4).

Abbildung 4: Fusionskraftwerk © MPI für Plasmaphysik / CC BY-NC-ND 4.0

Die Energie des Neutrons entspricht 14,1 Millionen Elektronenvolt oder umgerechnet 2,3 x 10–12 Joule. Dieser scheinbar winzige Wert ist im Vergleich zur chemischen Verbrennung gigantisch: Ein Gramm Brennstoff kann in einem Fusionsreaktor rund 90 Megawattstunden Wärmeenergie produzieren. Dafür muss man acht Tonnen Erdöl oder elf Tonnen Kohle verfeuern.

Aber nicht nur die winzigen Brennstoffmengen wären ein Vorteil der Kernfusion: Sie setzt vor allem kein Klima schädigendes Kohlenstoffdioxid frei. Und ihre „Asche“ ist nur ungefährliches Helium.

Das Neutron hat aber noch eine Aufgabe: Es soll in der Wand des Reaktorgefäßes die zweite Brennstoffkomponente Tritium erbrüten. Tritium ist radioaktiv mit einer Halbwertszeit von 12,3 Jahren. Deshalb soll es der zukünftige Fusionsreaktor in einem geschlossenen Kreislauf herstellen und gleich wieder verbrauchen. Der „Rohstoff“ für das Tritium ist Lithium. Dieses dritte Element im Periodensystem und leichteste aller Metalle wird in die Reaktorwand eingebracht. Trifft dort ein Neutron den Kern des Lithium-6-Isotops, dann zerfällt dieser zu einem Heliumkern und dem erwünschten Tritiumkern.

Wettrennen um das beste Konzept

Abbildung 5: Die elektrisch geladenen Teilchen des Plasmas bewegen sich entlang der Magnetfeldlinien (schwarzer Pfeil) auf Spiralbahnen.; Der Radius der Spirale hängt von der Masse der Teilchen ab: Die schwereren Protonen umschreiben größere Spiralen als die Elektronen.© R. Wengenmayr / CC BY-NC-SA 4.0

Die große Herausforderung ist ein effizienter magnetischer Einschluss des aus den beiden Wasserstoffsorten Deuterium und Tritium bestehenden Plasmas. Beim Bau des Magnetfeldkäfigs für das Plasma nutzen die Fusionsforscher aus, dass die geladenen Plasmateilchen – die Protonen und Elektronen – von elektromagnetischen Kräften auf Spiralbahnen um die magnetischen Feldlinien gezwungen werden (Abbildung 5). Von einem geeignet geformten Magnetfeld wie auf Schienen geführt, können die Teilchen so von den Wänden des Plasmagefäßes ferngehalten werden. Für einen „dichten“ Käfig müssen die Feldlinien innerhalb des ringförmigen Plasmagefäßes geschlossene, ineinander geschachtelte Flächen aufspannen – wie die ineinander liegenden Jahresringflächen eines Baumstamms (Abbildung 6). Auf diesen Flächen ist der Plasmadruck jeweils konstant, während er von Fläche zu Fläche – vom heißen Zentrum nach außen – abnimmt.

Diese ineinander geschachtelten „Magnetröhren“ würden nun jedoch die Plasmateilchen an ihren Enden verlieren – mitsamt der kostbaren Wärmenergie. Deshalb werden sie zu einem Ring geschlossen. Allerdings wird dadurch das Magnetfeld auf der Innenseite des Rings stärker als auf der Außenseite, weil sich die Feldlinien dort dichter zusammendrängen. In der Folge würde das Plasma nach außen aus dem Ring schleudern. Um das zu verhindern, verdrillen die Physiker das Magnetfeld nochmals in sich.

Abbildung 6: Die magnetischen Flächen sind sauber ineinander geschachtelt – wie die Jahresringflächen eines Baumstammes. So werden nach außen weisende Feldkomponenten vermieden, die die Plasmateilchen auf die Wände führen würden. Die hohen Zündtemperaturen wären dann unerreichbar. © MPI für Plasmaphysik / CC BY-NC-ND 4.0 V

Die Feldlinien schrauben sich um die „Jahresringe“ herum: So führen sie die Plasmateilchen immer wieder vom schwächeren Magnetfeld auf der Ringaußenseite zurück ins dichtere Magnetfeld innen – das Plasma bleibt gefangen. Das erfordert jedoch eine komplizierte Anordnung der Magnetfeldspulen. Die Stellaratoren, die „Sternenmaschinen“ (lat. stella für Stern), an denen die Fusionsforscher in den 1950er- und 1960er-Jahren arbeiteten, scheiterten zunächst daran. Erst heute können Supercomputer die Geometrie der Spulen so genau berechnen, dass der Stellarator wieder im Rennen um das beste Konzept für einen Fusionsreaktor ist (Abbildung 7). Am Teilinstitut Greifswald des Max-Planck-Instituts für Plasmaphysik ging Ende 2015 der Stellarator Wendelstein 7-X in Betrieb. Er soll zeigen, dass Stellaratoren das heiße Plasma zuverlässig einschließen können.

Abbildung 7: (links): Stellarator; (rechts): Tokamak. © MPI für Plasmaphysik / CC BY-NC-ND 4.0

Die Nase vorn hat derzeit noch ein konkurrierendes Prinzip: der Tokamak (Abbildung 7). Der Name kommt aus dem Russischen „Toriodalnaya kamera s magnetnymi katuschkami“ und bedeutet auf Deutsch „ringförmige Kammer mit magnetischen Spulen“. Während Stellaratoren den Magnetfeldkäfig ausschließlich mit Hilfe äußerer Spulen aufbauen, stellen Tokamaks einen Teil dieses Feldes durch einen im Plasma fließenden elektrischen Strom her. Dieser „verdrillt“ das Magnetfeld, damit es das Plasma wie ein Schlauch zusammenhält. Zudem heizt er das Plasma auf. Der Tokamak ist einfacher aufgebaut als ein Stellarator. Deshalb verhalf er der Fusionsforschung zu hohen Temperaturen im Plasma und schließt es auch gut ein. Als Transformator induziert er im Plasma allerdings nur Strom, solange sich die Stromstärke in seiner Primärspule ändert. Er muss also im Gegensatz zum Stellarator mit Pulsen arbeiten. Für einen Kraftwerksbetrieb ist das nicht sehr praktisch, auch wenn sich ein Puls über Stunden ausdehnen lässt. Deshalb forschen die Plasmaphysiker an einer alternativen Betriebsweise: Zusätzliche elektromagnetische Hochfrequenzfelder sollen das Auf und Ab der Pulse so ausgleichen, dass im Plasma ein Gleichstrom fließt.

Wenig Radioaktivität

Entscheidend ist ein perfekter magnetischer Einschluss, der das heiße Plasma möglichst gut isoliert und nicht auskühlen lässt. Einige wichtige Ideen dazu haben die Garchinger Max-Planck-Wissenschaftler entwickelt. Sie fließen nun ein in den Bau des großen internationalen Forschungsreaktors ITER (lat. „der Weg“), der in Cadarache, Südfrankreich, entsteht. 2025 soll ITER das erste Plasma erzeugen, später „zünden“ und erstmals mehr Fusionsenergie erzeugen als seine Plasmaheizung verbraucht – und zwar zehnmal soviel. Im Anschluss könnte DEMO folgen: Dieser Prototyp eines Kraftwerks soll aus der Fusionswärme bereits elektrischen Strom erzeugen. Ab Mitte dieses Jahrhunderts wären die ersten kommerziellen Fusionskraftwerke möglich. Die Menschheit hätte sich dann eine fast unerschöpfliche Energiequelle erschlossen. Sie könnte den weltweit rasch wachsenden Bedarf an elektrischer Energie decken, ohne gefährliche Treibhausgase freizusetzen. Der Brennstoffvorrat wäre gigantisch, denn schon 0,08 Gramm Deuterium und 0,2 Gramm Lithium würden genügen, um den heutigen Jahresbedarf einer Familie an elektrischem Strom zu erzeugen. Das Deuterium steckt in schwerem Wasser (D2O), das in allen Ozeanen natürlicherweise vorkommt. Lithium ist Bestandteil von Mineralien, die fast überall in der Erdkruste existieren. Die Energieversorgung wäre kein Anlass mehr für geopolitische Konflikte.

Doch jede Form der Energiegewinnung hat ihren Preis: Kernkraftwerke enthalten sehr stark radioaktiv strahlende Brennelemente, der Einsatz fossiler Brennstoffe dreht gefährlich an der Klimaschraube, große Wasserkraftwerke oder Windparks verändern Landschaften. Bei der Kernfusion ist das Innere des Reaktorgefäßes radioaktiv. Die Brennstoffmengen sind jedoch vergleichsweise winzig, und die empfindliche Fusionsreaktion kann nicht „durchgehen“. Sie ist also anders als die Kettenreaktion der Kernspaltung selbstsichernd: Bricht das Magnetfeld zusammen, dann berührt das Plasma die Wand, kühlt schlagartig aus und die Fusionsreaktion stoppt. Die Wand übersteht das aufgrund der geringen Plasmadichte fast ohne Schaden. Der schlimmste denkbare Unfall wäre ein Entweichen des Tritiums aus dem Reaktor. Die Menge wäre zwar sehr klein, doch das schnell zerfallende Tritium kann Krebs verursachen. Diese Möglichkeit eines Unfalls nehmen die Planer eines zukünftigen Kraftwerks sehr ernst, auch wenn seine Folgen nicht im Entferntesten mit einem Kernkraft-GAU zu vergleichen wären. Der jahrelange Neutronenbeschuss wird allerdings einen Teil des Reaktorgefäßes radioaktiv „aktivieren“. Das gilt vor allem für bestimmte Stahllegierungen, in denen Spurenelemente sich in radioaktive Isotope umwandeln. Teile der Reaktorwand müssten einige hundert Jahre lang gelagert werden, bis diese Radioaktivität abgeklungen ist. Dieses Problem will die Forschung durch die Entwicklung neuer Materialien entschärfen. Und dafür hat sie ja noch einige Jahre Zeit.


 * Der Artikel ist erstmals unter dem Title: "Wie die Fusionsforschung das Sternenfeuer einfängt . Die Sonne im Tank " in TECHMAX 9 (aktualisiert 07. 2020) der Max-Planck-Gesellschaft erschienen  https://www.max-wissen.de/Fachwissen/show/5415 und steht unter einer CC BY-NC-SA 4.0 Lizenz. Der Artikel ist hier ungekürzt wiedergegeben.


Weiterführende Links

Blaupause für ein Fusionskraftwerk - Am 21. März 1991 erzeugte die Experimentieranlage Asdex Upgrade am Max-Planck-Institut für Plasmaphysik in Garching das erste Plasma 18.3.2021. https://www.mpg.de/16606538/30-jahre-asdex-upgrade

Energiequelle Fusion: https://www.ipp.mpg.de/7332/energiequelle

Fusionsreaktor ITER: https://www.iter.org/ ITER construction is underway now. On the ITER site, buildings are rising; abroad, machine and plant components are leaving factories on three continents. In the years ahead, over 4,000 workers will be required for on-site building, assembly and installation activities

Schwerpunkt Energie im ScienceBlog:

Energie zählt im ScienceBlog von Anfang an zu den Hauptthemen und zahlreiche Artikel von Topexperten sind dazu bereits erschienen.Das Spektrum der Artikel reicht dabei vom Urknall bis zur Energiekonversion in Photosynthese und mitochondrialer Atmung, von technischen Anwendungen bis zu rezenten Diskussionen zur Energiewende. Ein repräsentativer Teil dieser Artikel (derzeit sind es 40) ist nun im Themenschwerpunkt Energie zusammengefasst.


 

inge Wed, 12.05.2021 - 23:59

Comments

Kleines Detail am Rande: Die 15 Mio ° im Sonneninneren reichen an und für sich nicht aus, um zwei Kerne verschmelzen zu lassen! Rechnet man die kinietische Energie aus, so findet man schnell, dass sie nircht genügt, um die Abstoßung durch das elektrische Potenzial zu überwinden!

Und doch leuchtet die Sonne?!

Der Grund liegt in der Heisenbergschen Unschärferelation, derzufolge nicht nur der Physiker niemals Position und Impuls eines Teilchens gleichzeitig exakt feststellen kann, sondern auch die Natur selbst: Die Unschärferelation ist eine absolut universelle Gesetzmäßigkeit. Und hier begründet sich der "Tunneleffekt": Dann und wann kann ein Teilchen ein Potenzial überwinden, für das es zu wenig kinietische Energie hat. Es braucht dazu "nur" eine Position "hinter" dem Potenzial einnehmen. Im Klartext: Mitten in den Kern rein, und fertig ist die Fusion.

(Und wen es interessiert: Lyman Spitzer ist der Namensgeber des Spitzer-Weltraumteleskops.)

Das Neuronengeflecht entwirren - das Konnektom

Das Neuronengeflecht entwirren - das Konnektom

Do, 06.05.2021 - 16:54 — Michael Simm

Michael SimmIcon Gehirn

Für die Verbindungen zwischen den Zellen des Nervensystems interessierten sich bereits vor 140 Jahren Anatomen, aber erst raffinierte Färbetechniken ermöglichten es, den Verlauf und die Verbindungen einzelner Neurone nachzuzeichnen. Um Nervenbahnen und Netzwerke im Gehirn zu verfolgen, bedarf es ausgeklügelter Technologien, vor allem aber viel Geduld und Liebe zum Detail. Der deutsche Biologe und Wissenschaftsjournalist Michael Simm beschreibt im folgenden Artikel welche Methoden und Geräte es zur Darstellung des „Konnektoms“ – also sämtlicher Zellen und Zellbestandteile des Gehirns und ihrer Verbindungen bedarf.*

Die Aufgabe: Wir entwirren einen Haufen Spaghetti. Die Spielregeln: Die Lage jeder einzelnen Nudel und deren Verlauf sind feinsäuberlich zu erfassen, außerdem müssen alle Kontaktstellen mit den Nachbarn exakt kartiert werden.

Was bei einem kleinen Teller bereits eine gewaltige Herausforderung wäre, würde bereits bei einem Topf zur Strafe. Und wenn der Haufen nicht wie der Inhalt einer typischen Packung aus 500 oder 600 Spaghetti bestünde, sondern gleich ein ganzer Berg wäre?

Der Berg, um den es hier geht, ist das menschliche Gehirn mit seinen geschätzt 86 Milliarden Nervenzellen – was in etwa 15 Millionen Packungen Spaghetti entspricht. Was die Sache noch komplizierter macht: Wir haben nicht nur eine Sorte von Nervenzellen im Kopf, sondern Dutzende oder gar Hunderte verschiedene Typen. Wie also soll das gehen? Welche Methoden, welche Geräte braucht es zur Darstellung des „Konnektoms“ – also sämtlicher Zellen und Zellbestandteile des Gehirns und ihrer Verbindungen?

Unendliche Geduld, Liebe zum Detail, künstlerische Begabung und auch ein wenig Glück brachte der spanische Mediziner und Histologe Santiago Ramón y Cayal als Startkapital ein. Jeder Student der Neurowissenschaften kennt die Zeichnungen, die Cayal vor etwa 140 Jahren angefertigt hat: Ästhetisch und präzise zugleich zeigen sie Hirnzellen von Hühnern, Spatzen oder Tauben mit nie zuvor gesehenen Details. Abbildung 1.

Abbildung 1. Zeichnung des primären Sehzentrums (Tectum opticum) des Sperlings von von Santiago Ramón y Caja (Estructura de los centros nerviosos de las aves, Madrid, 1905.Das Bild ist gemeinfrei)

Was bis dato nur eine verschwommene Masse war, offenbarte sich dank einer von Cayals Konkurrenten, Camillo Golgi, entwickelten Technik zur „Versilberung“ von Nervenzellen unter dem Mikroskop als Ansammlung faszinierender und klar unterscheidbarer Strukturen.

Unsichtbare Verbindungen

Niemand weiß, warum die eingesetzten Silbersalze nur einzelne Nervenzellen sichtbar machten und aus der Masse der gleich gestalteten Nachbarn hervorhoben. Baumartig erschienen die Zellen aus einer Hirnregion, spinnenförmig die einer anderen. Manche sind mehr, andere weniger stark verästelt. Doch wie hängt das alles zusammen?

Während Golgi ein durchgängig miteinander verknüpftes Netzwerk zu sehen glaubte, postulierte Cayal, dass es zwar Kontaktstellen gäbe, diese aber nicht beständig seien und nur bei der Kommunikation genutzt würden. Cayal sollte recht behalten. Sehen konnte man dies damals allerdings nicht, da die Auflösung der Lichtmikroskope dafür nicht ausreichte. So erhielten beide Konkurrenten 1906 gemeinsam den Nobelpreis für Medizin „in Anerkennung ihrer Arbeit über die Struktur des Nervensystems“ .

Die Leistungsfähigkeit der Mikroskope hat sich seitdem beständig verbessert. Abbildung 2. Mit der Einführung der Elektronenmikroskopie vor etwa 75 Jahren stieg die Auflösung um das 1000-fache: auf etwa ein Zehnmillionstel Millimeter (0,1 Nanometer). Es folgten Laserstrahlen zur Verfolgung fluoreszierender Moleküle im Gewebe und Computer, mit denen diese Informationen in digitale Bilder und Datenbanken umgewandelt werden.

Abbildung 2.Sichtbarmachen von Nervenbahnen und Vernetzungen im Gehirn mittels Mikroskopie. (Bild aus [1], © 2021 www.dasGehirn.info; cc-by-nc-Lizenz)

Buchstäblich für mehr Durchblick sorgt heute auch die bereits 1914 in Leipzig von Werner Spalteholz entwickelte Technik zum Durchsichtigmachen von großen Gewebestücken oder ganzen Organen (CLARITY), die Spalteholz´ Nachfolger für hochaufgelöste 3D-Darstellungen nutzen.

Lange Zeit jedoch blieb das Gewirr der Nervenzellfortsätze (Neuropil) für Neuroanatomen und Histologen undurchdringlicher als jeder Dschungel. Gesucht wurde eine Methode, um einzelne Nervenzellfortsätze oder ganze Nervenstränge zu verfolgen. Die kam in den späten 1960er Jahren, als Zellbiologen mit radioaktiv markierten Aminosäuren arbeiteten, die sie in die Zellkörper von Neuronen injizierten. Als Bestandteil neu synthetisierter Proteine wanderten einige der Aminosäuren entlang der Axone zu den Nervenenden – und hinterließen eine schwarze Spur, wenn man die entsprechenden Gewebeschnitte mit Fotopapier bedeckte. Die Zellbiologen hatten somit nicht nur den schnellen axonalen Transport mit Geschwindigkeiten von bis zu einem Meter am Tag dokumentiert, sondern den Neuroanatomen auch ein neues Werkzeug an die Hand gegeben, so genannte Tracer, mit denen sich Nervenbahnen im Gehirn wie Spuren verfolgen lassen.

Meerrettich und Herpesviren

Auch der Gegenverkehr – also der retrograde axonale Transport – lässt sich verfolgen. Dazu wird das Enzym Meerrettich-Peroxidase ins Gehirn gespritzt, wo es von den Enden der Axone aufgenommen und zum Zellkörper transportiert wird. Später wird das Versuchstier geopfert, und die Meerrettich-Peroxidase in den Gewebeschnitten bildet unter Zugabe bestimmter Chemikalien bunt-farbige Reaktionsprodukte. So wird unter dem Mikroskop schließlich der Verlauf der Fasern durch das Gehirn und ein möglicher Zusammenhang einzelner Neurone sichtbar. Auch Herpesviren können – beispielsweise an Mund und Lippen – in Axone eindringen und wandern von dort zum Zellkörper. In Tierversuchen lassen sich bestimmte Stämme in ausgewählte Hirnregionen spritzen. Deren Wanderung durch benachbarte Neurone können Forscher dann nach einigen Tagen mit Hilfe von Antikörpern sichtbar machen . Ebenso wie die Gerätschaften wurden auch diese Tracer ständig weiterentwickelt, sodass den Laboren eine ganze Palette von synthetischen Molekülen für die verschiedensten Einsatzzwecke zur Verfügung steht, darunter die Carbozyanine, biotyniliertes Dextranamin und Fluorogold.

Abbildung 3.Das erste Konnektom: Sidney Brenner erstellte es 1986 im Fadenwurm C. elegans für dessen 302 Nervenzellen und deren rund 7000 Verbindungen. (Bild aus [1], © 2021 www.dasGehirn.info; cc-by-nc-Lizenz.)

Tatsächlich gelang es den Pionieren des Neurotracings Jahrzehnte bevor der Begriff „Konnektom“ überhaupt erfunden wurde, einige wenige neuronale Schaltkreise darzustellen. In den 1980er Jahren erreichten einige sehr geduldige Doktoranden einen Meilenstein, indem sie erstmals das vollständige Nervensystem eines Organismus kartierten. Es handelte sich dabei um das „Nervenkostüm“ des Fadenwurms Caenorhabditis elegans mit seinen rund 7.000 Verbindungen zwischen exakt 302 Nervenzellen. Abbildung 3.

Damit waren dann allerdings sowohl die Grenzen der damaligen Technik erreicht als auch der menschlichen Leidensfähigkeit, denn es ist eine furchtbare Arbeit, jeden Tag stundenlang durchs Mikroskop zu schauen und kaum sichtbare Details nachzuzeichnen.

Schnelle Computer und scharfe Messer

Klar war: Um selbst kleinste Gehirne komplett zu erfassen, bedurfte es völlig neuer Methoden. Und statt Hunderten von Doktoranden stupide Handarbeiten abzufordern, sollten diese Methoden möglichst weitgehend automatisiert werden. Nach Schätzungen liefert bereits ein Kubikmillimeter Hirngewebe eine Informationsmenge von mehreren Petabytes, also etwa das Tausendfache des Speichers eines modernen Heimcomputers. Dies zu verarbeiten, erfordert nicht nur Rechner mit entsprechend gewaltiger Geschwindigkeit und Speicherkapazität, sondern auch spezielle Programme, deren Algorithmen sowohl Muster in der Datenflut erkennen können, als auch diese Daten in anschaulicher Form darstellen.

Ebenfalls Teil des Geräteparks sind die wohl leistungsfähigsten Messer der Welt. Sie wurden von Kenneth J. Hayworth am Harvard Center for Brain Science entwickelt und haben Klingen aus synthetischen Diamanten. Die fortschrittlichsten dieser Schneidegeräte (Ultramikrotome) trennen Hirngewebe in Scheiben von weniger als 3 Millionstel Millimeter (30 Nanometer) Dicke und verfügen auch noch über einen Mechanismus, um die Schnitte automatisch einzusammeln und anzuordnen, sodass sie von Elektronenmikroskopen abgetastet werden können. Abbildung 4.

Abbildung 4. 3-Dimensionale Darstellung von Nervenbahnen und Vernetzungen im Hirngewebe. Die Oberfläche der Gewebeprobe wird mit dem Raster-Elektronenmikroskop abgetastet und ein 2D-Bild erstellt, sodann wird mit dem Ultramikrotom eine äußerst dünne Scheibe des Gewebes abgelöst, ein 2D-Bild der neuen Oberfläche erzeugt und dieser Vorgang über den gesamten Gewebeblock wiederholt. Die 2D-Bilder werden dann digital zu einem dreidimensionalen Bilddatensatz zusammengebaut. (Bild aus [1], © 2021 www.dasGehirn.info; cc-by-nc-Lizenz)

Elektronenmikroskopie am Fließband

Dieses Prinzip der Serien-Block-Elektronenmikroskopie (SBEM) bekam in den letzten Jahren Konkurrenz durch eine weitere Variante, bei der die Dünnschnitte entfallen. Stattdessen werden kleine Blocks von Hirngewebe direkt im Gerät montiert und schichtweise von oben erfasst. Ein Ionenstrahl trägt die oberste Schicht ab, und das Gerät analysiert die nächste Schicht. Der Vorgang kann an einem einzigen Präparat mehrere Tausend Male wiederholt werden. Die „FIB-SBEM“ abgekürzte Methode liefert also auf direkterem Wege perfekt ausgerichtete Stapel digitaler Elektronenmikroskopien, mit denen sich der Verlauf neuronaler Fortsätze verfolgen lässt. Fehler darf man dabei allerdings nicht machen. Schließlich wird jeder Schnitt nach der Aufnahme verdampft, sodass man ihn kein zweites Mal aufnehmen kann.

Geht alles gut, ist die Auflösung der FIB-SBEM jedoch besser als bei der „einfachen SBEM und die Schichtdicke sinkt nochmals um den Faktor 10 auf kaum vorstellbare zwei Nanometer. Der Preis dafür ist allerdings ein Sichtfeld, das wesentlich kleiner ist als bei der „Diamantmesser-SBEM“. Doch schon haben die zahlreichen Tüftler unter den Konnektom-Forschern die nächste Stufe erdacht, die die Ionen-Schichtmikroskopie mit den Diamantmessern kombiniert. Hier werden nun die Miniblocks von Hirngewebe mit Schwermetallen gefärbt und in Epoxidharz eingebettet. Erhitzte und mit einer speziellen Schmierflüssigkeit benetzte Diamantmesser vermögen diese harten Brocken zu schneiden – und die Vorteile beider Methoden zu kombinieren.

Auch die Lichtmikroskopie ist beim Konnektom-Projekt mit an Bord. Hier wurden ebenfalls technische Verbesserungen mit neuen Methoden kombiniert, um tiefer ins Gewebe einzudringen, Unschärfen zu eliminieren und die Auflösung zu verbessern. So liefert die Lichtscheibenmikroskopie eine Auflösung von 100–300 Nanometern. In Kombination mit den Klarifizierungstechniken, die dem Gewebe Lipide entziehen, um es durchsichtiger zu machen, reicht das aus, um nicht nur Zellen und Neurone zu erfassen, sondern sogar einzelne Synapsen.

Dennoch: Es würde mehrere tausend Jahre in Anspruch nehmen, wollten Wissenschaftler auf diese Weise die Daten eines Spatzen- oder Mäusehirns sammeln. Aber auch für dieses Problem gibt es eine Lösung: So arbeiten manche neuere Elektronenmikroskope statt mit einem einzigen Elektronenstrahl mit einer Vielzahl identischer Einheiten im gleichen Gehäuse. Bis zu 91 Einheiten sind es bei der jüngsten Gerätegeneration – und entsprechend viele Schnitte können sie in einem Arbeitsgang fotografieren und die Daten zur Weiterverarbeitung an den Rechner übergeben. Da man auch diese Maschinen wiederum gleich reihenweise ins Labor stellen könnte, wird Geld zum wichtigsten limitierenden Faktor.

Heiße Diamanten und neuronale Netze

Liegen die Daten erst einmal auf dem Computer, gilt es, diese auch richtig zu interpretieren. Hier kommen Forscher wie Winfried Denk ins Spiel, der mit seinen Kollegen am Max-Planck-Institut für Biomedizinische Forschung in Heidelberg eine Methode ersonnen hat, um miteinander verbundene Neurone zu erkennen und zu markieren. Und im Labor von Sebastian Seung am Massachussetts Institute of Technology haben die beiden Studenten Viren Jain und Srini Turaga ein Programm auf Basis der künstlichen Intelligenz (KI) geschrieben, das lernen kann, Synapsen zu erkennen, wenn es die Neurowissenschaftler eine Zeitlang bei der Arbeit verfolgt. Beide Wissenschaftler sind dem Konnektom treu geblieben und leiten inzwischen ihre eigenen Forschergruppen – Jain bei der KI-Abteilung von Google, und Turaga am berühmten Janelia Research Campus des Howard Hughes Medical Institute.

Die Software zur Rekonstruktion der Schaltkreise aus den Daten beruht ironischerweise selbst auf dem Prinzip neuronaler Netze. Hier könnten die besten Algorithmen es bezüglich der Fehlerquote mit durchschnittlich motivierten Forschern aufnehmen, schrieben der mittlerweile ans Max-Planck-Institut für Neurobiologie (bei München) umgezogene Winfried Denk und sein Postdoc Jörgen Kornfeld bereits 2018 in einer Übersichtsarbeit . Aber der Teufel steckt oftmals im Detail. Während nämlich menschliche Fehler zufällig passieren, und sich dadurch „ausmitteln“, sind Fehler in der Software systematischer Art. Die Maschinen scheitern häufig an einander ähnlichen Strukturen, die nur unter Einbeziehung der Umgebung und von Kontext-Wissen unterschieden werden können. „Zum Glück gibt es hochgradig motivierte und gebildete Menschen wie fortgeschrittene Studenten und Postdocs, die fast alle diese Fehler korrigieren können“, so Denk.

Mehrere Meilensteine hat Denk bereits erreicht, und – zusammen mit seinem Kollegen Moritz Helmstaedter – einige der bislang größten „Brocken“ von Hirngewebe mit den feinsten Details erfasst. Abbildung 5.

Abbildung 5.Nervenzellverschaltung der Großhirnrinde (Cortex). Von einer 500 000 µm3 (0,0005 mm3) großen Probe aus dem primären somatosensorischen Cortex einer Maus wurden 3420 Schnitte und daraus 30 780 2D- Bilder erstellt. Die 3D-Darstellung zeigt 89 Neuronen in einer extrem dichten Packung mit Axonen und Dendriten. (Bild aus [1], © 2021 www.dasGehirn.info; cc-by-nc-Lizenz)

Rekordhalter ist vermutlich das Allen Institute for Brain Science in Seattle, wo im April 2019 der erste Kubikmillimeter Mäusehirn gefeiert wurde. Etwa 100.000 Neuronen und 1 Milliarde Synapsen stecken in dem Gebilde, das etwa die Größe eines Sandkorns hat und anhand von mehr als 100 Millionen Bildern digitalisiert wurde. Das kartierte Volumen entspricht zwar nur einem Fünfhundertstel des Mäusegehirns, doch Denk ist Optimist: In der Summe seien die Fortschritte so groß, dass man erwarten dürfe, binnen zehn Jahren das Gehirn eines kleinen Säugers oder Vogels vollständig zu erfassen.

Der eingangs erwähnte Berg von Spaghetti wäre damit zwar erobert, doch der Hunger der Wissenschaftler ist längst nicht gestillt. Schon sprechen sie vom Synaptom – der Welt der Synapsen. Die liegt mehrere Größenordnungen unterhalb des eigentlichen Konnektoms, ist aber doch zu dessen Verständnis unentbehrlich, heißt es. Und wenn man alle Verbindungen hat, ist die Arbeit längst noch nicht getan, argumentierte bereits 2014 eine Gruppe Mathematiker von der Universität Boston. Das „Dynom“ müsse nämlich ebenfalls verstanden werden, indem man Momentaufnahmen der Aktivität des kompletten Nervensystems erstellt, sagten sie – und veröffentlichten auch gleich einen Forschungsrahmen mit Arbeitsvorschlägen für die Kollegen. Mehr als 100 Fachartikel verweisen bereits auf diesen Anstoß, und man darf gespannt sein, welches „…om“ das nächste Großprojekt der Hirnforschung sein wird.

-------------------------------------------------------------------------------------------

 [1] dasGehirnInfo: Das Connectome. Video 7:08 min. 01.05.2021. https://www.youtube.com/watch?v=puiEfrzRTto Der Inhalt steht unter einer cc-by-nc-Lizenz © 2021 www.dasGehirn.info


 * Der vorliegende Artikel ist auf der Webseite www.dasGehirn.info am 30.04.2021 zum Thema "Konnektom" unter dem Titel "Das Neuronengeflecht entwirren" erschienen,https://www.dasgehirn.info/grundlagen/das-konnektom/das-neuronengeflecht-entwirren. Der Artikel steht unter einer cc-by-nc-sa Lizenz; der Text wurde von der Redaktion unverändert übernommen, es wurden jedoch einige Abbildungen eingefügt.

"dasGehirn.info" ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).

 


 Links

  • Moritz Helmstaedter: Connectomics Video 36:01 min. 5.2019. https://www.youtube.com/watch?v=3BFynIPHnd0  Biologische Gehirne sind Computern an Effizienz und Komplexität ihrer Vernetzung deutlich überlegen. In der Analyse dieser Netzwerke ist noch viel zu tun und Moritz Helmstaedter ist einer der Pioniere dieses faszinierenden Forschungsfelds der Connectomics. Hier gibt er eine sehr gelungene und nachvollziehbare Einführung., einer Kooperation (in diesem Fall) mit dem Max-Planck-Institut für Hirnforschung, Frankfurt. Der Inhalt steht unter einer cc-by-nc-Lizenz © 2019 www.dasGehirn.info
  • Moritz Helmstaedter: Department of Connectomics, MPI Hirnforschung (Frankfurt/Main) https://brain.mpg.de/research/helmstaedter-department.html
  • Allen Institute for Brain Science https://alleninstitute.org/what-we-do/brain-science/research/research-highlights/
  • MICrONS Explorer: A virtual observatory of the cortex. https://microns-explorer.org/
  • Mapping the Brain: Johns Hopkins APL's CIRCUIT Program. video 2,11 min. https://www.youtube.com/watch?v=5u7N0Gq9q3w&t=124s  Researchers from the Johns Hopkins University Applied Physics Laboratory (APL) partnered with Johns Hopkins University students this summer on a pilot program called CIRCUIT (Connectomics Institute for Reconstructing Cortex: Understanding Intelligence Together).

 

inge Wed, 05.05.2021 - 23:36

Drei mögliche Szenarien zum Ursprung von SARS-CoV-2: Freisetzung aus einem Labor, Evolution, Mutator-Gene

Drei mögliche Szenarien zum Ursprung von SARS-CoV-2: Freisetzung aus einem Labor, Evolution, Mutator-Gene

Do, 22.04.2021 — Ricki Lewis

Ricki LewisIcon MedizinSeit Beginn der COVID-19 Pandemie versuchen Forscher herauszufinden, woher das SARS-CoV-2-Virus ursprünglich kommt und wie es auf den Menschen übersprungen ist. Nahe verwandte Vorläufer stammen offensichtlich von Fledermäusen, wurden aber auch in Schuppentieren gefunden und die geographische Verbreitung dieser Viren erstreckt sich über weite Teile Südostasiens. Die Genetikerin Ricki Lewis diskutiert hier drei mögliche Szenarien zu Ursprung und Entwicklung des Virus. Die Evolution geht weiter - um den Wettlauf zwischen Impfstoffen und neuen, möglicherweise gefährlicheren Varianten nicht zu verlieren, muss man die Evolution nachverfolgen und ihr ein Stück voraus sein.*

"Virusausbruch: Untersuchungen zufolge ist COVID-19 wahrscheinlich synthetisch entstanden", orgelte die Schlagzeile in der Taipei Times am 23. Februar 2020. Die Idee, dass das neuartige Coronavirus SARS-CoV-2 in einem Virenlabor in China entstand - durch Zufall oder als Biowaffe - hat seitdem eine Welle von Schuldzuweisungen und Erklärungen ausgelöst.

Das neueste Kapitel ist ein "offener Brief" in der New York Times vom 7. April 2021, in dem "eine umfassende Untersuchung der Ursprünge von COVID-19" gefordert wird. Die zwei Dutzend Wissenschaftler, die den Brief unterzeichnet haben, zitieren das kontinuierliche Fehlen eines „robusten Prozesses“ zur Untersuchung kritischer Aufzeichnungen und biologischer Proben. Ihr Argument reagiert auf die Presseveranstaltung der WHO am 20. März, bei der kaum ein anderer Ursprung als ein natürlicher Überlauf berücksichtigt wurde.

Zwei Arten neuer Informationen können jedoch der Hypothese eines aus dem Labor freigesetzten Virus entgegenwirken: das Füllen der Lücken von Säugetieren, die möglicherweise als „fehlende Glieder“ bei der Entwicklung der Krankheitsübertragung gedient haben, und der rasche Anstieg von Virusvarianten, welche eine Tendenz zur Mutation widerspiegeln, die dem plötzliche Auftauchen von SARS-CoV-2 aus dem Nichts zugrunde liegt.

Als Genetikerin möchte ich meine Ansicht zu drei möglichen Szenarios für den Ursprung von SARS-CoV-2 darlegen:

1. Szenario Biologischer Kampfstoff - ein gentechnisch veränderter Erreger oder die Freisetzung eines natürlichen Kandidaten aus dem Labor

2. Szenario Evolution - schrittweise evolutionäre Veränderung über zwischengeschaltete Tierwirte, wobei laufend Mutationen auftreten und das Virus virulenter werden lassen

3. Szenario "Mutator"-Gene - Gene, die Mutationen in anderen Genen auslösen und den Evolutionsprozess beschleunigen

Szenario Biowaffe

Die Vorstellung, dass SARS-CoV-2 als Biowaffe zurechtgemacht wurde, ging bis vor kurzem auf ein Vorgängervirus namens RaTG13 zurück, das in der Hufeisennase Rhinolophus affinis gefunden wurde. 2013 haben Forscher dieses RaTG13 im Fledermauskot in einem verlassenen Minenschacht in der Nähe einer Höhle in Yunnan (China) entdeckt, kurz nachdem sechs Bergleute erkrankt und drei von ihnen an einer nicht näher bezeichneten Lungenentzündung gestorben waren. (Fledermäuse beherbergen viele Viren, ohne krank zu werden [1])

Etwa 96,1% der Genomsequenz von RaTG13 stimmt mit der von SARS-CoV-2 überein. Zum Vergleich: das SARS-CoV-2-Genom weist nur etwa 80% Ähnlichkeit mit dem des ursprünglichen SARS-Coronavirus aus dem Jahr 2003 auf.

Ein wesentlicher Unterschied zwischen RaTG13 und SARS-CoV-2 besteht in einem Teil der Bindungsdomäne (RBD), mit der das Spike-Protein an menschliche Zellen bindet. Dieser unterschiedliche Teil entspricht nun der RNA-Sequenz von Coronaviren des malaiischen Schuppentiers, das ein Zwischenwirt zwischen Fledermäusen und Menschen in der Infektionskette sein könnte. Die Übertragung von Fledermaus zum Schuppentier könnte in der Nähe der Mine oder auf einem Nassmarkt ("wet market") mit rohem Fleisch oder an vielen anderen Orten stattgefunden haben, an denen Menschen in Gebiete anderer Tiere eindringen und wir einfach nicht hingeschaut haben.

Hinweise auf den Übergang vom Fledermausvirus RaTG13 zum menschlichen Virus SARS-CoV-2 können innerhalb der 4% der divergierenden Genomsequenzen liegen. Unter Annahme der bekannten natürlichen Mutationsraten viraler Genome schätzen Evolutionsbiologen, dass es mindestens 50 Jahre gedauert hätte, bis das Fledermausvirus zu SARS-CoV-2 mutiert wäre. Vermutlich ließe sich eine Biowaffe viel schneller herstellen (ebenso wie es schneller ist, ein neues Auto zu kaufen, als ein altes Teil für Teil zu reparieren). Allerdings haben wir gelernt, dass wir uns nicht auf das verlassen können, was wir über frühere Viren wissen. In anderen Worten, die Mutationsrate des Neulings könnte viel schneller sein als das, was wir zuvor gesehen haben.

Eine Veröffentlichung ("Yan-Bericht") behauptet, dass RaTG13 nie existiert hat [2]. Stattdessen argumentieren die Autoren, dass der angebliche SARS-CoV-2-Vorgänger eine fiktive RNA-Sequenz ist, die in die Gen-Datenbank hochgeladen wurde, um eine plausible natürliche Erklärung für den Ursprung zu liefern und die Aufmerksamkeit von der Idee einer Biowaffe abzulenken. Das Papier (es gibt eine erste und aktualisierte Version) fragt, warum über RaTG13, wenn es 2013 entdeckt wurde, erst am 3. Februar 2020 im Journal Nature berichtet wurde. Der Yan-Bericht hat es nie über den Status des Preprints (d.i . nicht überprüft) hinaus geschafft, Forscher haben ihn filetiert - Wikipedia bringt dazu Details (https://en.wikipedia.org/wiki/Li-Meng_Yan).

Ein kurzer Bericht, auf den ich immer wieder zurückkomme, erschien am 17. März 2020 in Nature erschienen, als die weltweite Zahl der an/durch COVID-Verstorbenen bei nur 4.373 lag: „Der proximale Ursprung von SARS-CoV-2.“ Die Autoren des „proximalen Ursprungs“ (Kristian G. Andersen et al.,) vergleichen wichtige Teile des neuen Pathogens mit entsprechenden Teilen anderer Coronaviren und schließen daraus „unsere Analysen zeigen deutlich, dass SARS-CoV-2 kein Laborkonstrukt oder ein gezielt manipuliertes Virus ist.“ Ein Teil ihrer Argumentation ist der gesunde Menschenverstand: Für eine Erfindung bindet das Virus nicht stark genug an unsere Zellen. Es ist eine unvollkommene Waffe. (Warum sollte ein neues iPhone schlechter funktionieren als seine Vorgänger? ) Es ist wahrscheinlicher, argumentieren sie, dass das neue Virus mit seinen Unterscheidungen (wie ein Dutzend zusätzliche RNA-Basen, die in den Bereich eingefügt wurden, der der Anlagerung der beiden Teile des Spike-Proteins entspricht) aus natürlicher Selektion entstanden ist. Das Virus hatte einen natürlichen Vorteil, so wurde es perpetuiert - nicht erfunden.

Was auch immer passiert ist, vorausblickend kamen die Forscher des „proximalen Ursprungs“ bereits im März 2020 zum Schluss: „Obwohl kein tierisches Coronavirus identifiziert wurde, das hinreichend ähnlich ist, um als direkter Vorläufer von SARS-CoV-2 zu dienen, ist die Vielfalt der Coronaviren bei Fledermäusen und anderen Arten viel zu wenig erfasst."

Das ändert sich nun. Langsam.

Evolution in einer Fäkaliensuppe

Ein Sprung vom 2013 im Fledermauskot gefundenen RaTG13-Virus zum Auftauchen von SARS-CoV-2 im Jahr 2019 ist wie das Lesen des ersten und letzten Kapitels eines Romans: Es gibt nicht genug Handlung, um eine Geschichte zu rekonstruieren . Aber, da nun weitere Kapitel enthüllt werden, sieht es so aus, als ob SARS-CoV-2 aus einer Kot-Suppe von Viren entstanden ist - und sich weiter entwickelt.

Es stellt sich heraus, dass RaTG13 nicht die einzige Station auf dem Evolutionspfad zu SARS-CoV-2 war. China war auch nicht die einzige Heimat neuartiger Coronaviren, obwohl sie dort weiterhin identifiziert werden. Betrachten Sie aktuelle Berichte:

Kambodscha, 26. Januar 2021. Exkremente und Speichel von zwei Hufeisennasen, die 2010 in Kambodscha gesammelt wurden, wiesen Coronaviren auf, die in ihren Genomsequenzen zu 92,6% mit SARS-CoV-2 übereinstimmten und sich an einem Ende des für das Spike-Protein kodierenden Gens unterscheiden. Fazit eines Vorabdrucks in bioRxiv: „Die Entdeckung dieser Viren in einer in China nicht vorkommenden Fledermausart, zeigt, dass SARS-CoV-2-verwandte Viren eine viel größere geografische Verbreitung aufweisen als bisher angenommen, und legt nahe, dass Südostasien ein Schlüsselgebiet darstellt, das in der weiteren Suche nach dem Ursprung von SARS-CoV-2 und der künftigen Beobachtung von Coronaviren berücksichtigt werden muss.“

Thailand, 9. Februar 2021. Blut von fünf Fledermäusen in einer Thailändischen Höhle wies Coronaviren auf, die einem in Yunnan, China, gefundenen Typ ähnlich waren sowie Antikörper gegen SARS-CoV-2. Laut einem Bericht im Fachjournal Nature wurden solche Antikörper auch in einem Schuppentier nachgewiesen [3]. Wenn auch diese Studie den Vorläufer von SARS-CoV-2 nicht aufzeigte, so erweitert sie doch das Gebiet von SARS-CoV-2-ähnlichen Viren über China hinaus. Abbildung 1.

Abbildung 1: Entdeckung von SARS-CoV-2-verwandten Coronaviren in Asien (links) und Verbreitung von Fledermäusen in diesen Regionen (rechts). Darunter die Hufeisennase (Bilder aus S. Wacharapluesadee et al., Nature Comm. https://doi.org/10.1038/s41467-021-21240-1; Lizenz cc- by)

 

China, 8. März 2021. Ein weiterer bioRxiv-Preprint beschreibt Genomsequenzen von 411 Coronavirus-Proben von 23 Fledermausarten, die von Mai 2019 bis November 2020 auf einem über 1000 Hektar großen Gebiet in der Provinz Yunnan gesammelt wurden. Der engste Verwandte von SARS-CoV-2, genannt RpYN06, stimmt mit diesem zu 94,5% überein. Die generelle Genomähnlichkeit ist jedoch nicht so wichtig wie die Entsprechung in einzelnen Genen, woraus die Wirkung eines neuartigen Virus auf den menschlichen Körper besser vorhergesagt werden kann.

RpYN06 ist tatsächlich der nächste, bis jetzt identifizierteVerwandte von SARS-CoV-2, basierend auf Schlüsselgenen, welche Werkzeuge zur Replikation (ORF1ab), zum Eindringen in unsere Zellen und zum Einklinken in unsere Proteinsynthesemaschinerie (ORF7a und ORF8) darstellen und für die Nucleocapsid (N) -Proteine kodieren, die das virale genetische Material schützen. Die Studie fand 3 weitere Coronaviren, deren Genome sehr ähnlich sind und denen in Schuppentieren ähneln.

Ist SARS-CoV-2 nun fröhlich in verschiedenen Arten von Fledermäusen herumgelungert, wer weiß wie lang, hat es sich mit anderen Coronaviren vermischt und sich dabei nicht verändert, weil das Genom ihm gut gedient hat? Erst nach dem Sprung zu einem neuen Wirt - uns - traten spontan Mutationen zur Anpassung auf und blieben bestehen, sofern sie von Vorteil waren. Dann begannen Mutationen in einzelnen Genen die Virusvarianten hervorzurufen, die jetzt über den Planeten fluten. Der Titel eines kürzlich erschienenen Artikels in PLoS Biology fasst die Kräfte zusammen, die das neuartige Coronavirus geformt haben: „Die natürliche Selektion im Evolutionsprozess von SARS-CoV-2 in Fledermäusen hat einen Generalisten und hochgradigen Erreger für den Menschen hervorgebracht.“ Abbildung 2.

Abbildung 2: Evolution der Coronagruppe (nCoV), die schlußendlich zur Variante SARS-CoV-2 führte auf den Menschen überging. Schematische Darstellung (Quelle: O.A. McLean et al., 2021, https://doi.org/10.1371/journal.pbio.3001115.g003 [3]; Lizenz: cc-by)

 

Die Mutator-Hypothese

Ein dritter Weg, wie SARS-CoV-2 schnell entstehen könnte, besteht darin, dass ein oder mehrere Gene als „Mutator“ fungiert haben und andere Gene zur Mutation provozieren.

Ich erinnere mich an dieses Phänomen aus meiner Ausbildung zur Drosophila-Genetikerin. Fruchtfliegen mit einer mutierten gelben Augenfarbe können Nachkommen haben, die zur normalen roten Farbe zurückkehren, nicht aufgrund einer Mutation in einem Augenfarbengen, sondern aufgrund einer Mutation in einem Gen, das als Mutator bezeichnet wird. Es bewirkt die Zerstörung anderer Gene. Und die Arten von Mutationen, die es mit sich bringt, ähneln denen der neuen Varianten von SARS-CoV-2.

Die Hälfte der Mutationen, die das Gen des Fruchtfliegen-Mutators verursacht, sind Deletionen - d.i es fehlen Genstücke. Eine solche Deletion findet sich bei der erstmals in Großbritannien nachgewiesenen Virusvariante B.1.1.7 : es fehlen zwei Aminosäuren im Spike-Protein In diesem Fall repliziert ein PCR-COVID-Test nicht die RNA, die für das Spike-Protein codiert, da zwei Aminosäuren fehlen, während die anderen viralen Gene repliziert werden.

Bei Fruchtfliegen verfünffacht der Mutator auch die Rate der Veränderungen der einzelnen Basen, die als Punktmutationen bezeichnet werden. Diese kommen auch in den neuen viralen Varianten vor.

Ich behaupte nun nicht, dass ein Fliegengen in Viren Amok gelaufen ist, aber könnte ein Mutator-ähnliches Gen die schnelle Diversifizierung von SARS-CoV-2 in eine Reihe von Varianten vorantreiben? In diesem Fall könnte schnelle Mutation erklären, wie das Virus entstanden ist und dann zu einem Gestaltwandler wurde, ohne sich das Szenarios eine verrückten Wissenschaftlers vorstellen zu müssen, der eine Biowaffe erschafft, oder eine Reihe unglückseliger Tiere, die einen Krankheitserreger weitergeben, der jährlich Millionen Menschen töten könne.

Die Identifizierung eines Mutators würde die Aufklärung von Gen-Gen-Interaktionen erfordern - dies hatte selbst bei der Analyse menschlicher Genome keine große Priorität. Vielleicht hat ein gut untersuchtes Gen von SARS-CoV-2 eine zweite Funktion, welche die Mutation eines anderen herbeiführt? Auch wenn mehr als eine Million SARS-CoV-2-Genomsequenzen in die Datenbank GISAID (https://www.gisaid.org/) hochgeladen wurden, weiß ich nicht, inwieweit Forscher untersuchen, wie die Gene miteinander interagieren.

Schlussbetrachtung

Wenn man über den Wettlauf zwischen Impfstoffen und Varianten spricht, so kehrt das diesen nicht um. Derzeit lösen die Impfstoffe eine ausreichend vielfältige Antikörperantwort aus, um die zirkulierenden Viren in den Griff zu bekommen. Aber die Evolution hört nie auf. Wenn Varianten entstehen, die geimpfte Körper befallen, sich festsetzen und dann verbreiten, werden diese Impfstoffe dann die älteren Varianten ausmerzen und gleichzeitig Nischen für die neuen schaffen? Das ist es, was die Experten derzeit beunruhigt. Und mich.

Deshalb müssen wir die Evolution voraussehen und ihr zuvorkommen - etwas, woran die Impfstoffhersteller bereits seit Monaten arbeiten. Wenn es in diesen verrückten Zeiten etwas Konstantes gibt, dann ist es, dass SARS-CoV-2 uns immer wieder überrascht. Im Moment erleichtert es mich über Alternativen nachzudenken, Alternativen zu der unvorstellbaren Idee, dass das Virus geschaffen wurde, um uns zu zerstören


 [1] Ricki Lewis, 20.08.2020: Wie COVID-19 entstand und sich über die Kette der Fleischversorgung intensivierte

[2] Ricki Lewis, 11.03.2021: On the Anniversary of the Pandemic, Considering the Bioweapon Hypothesis. https://dnascience.plos.org/2021/03/11/on-the-anniversary-of-the-pandemic-considering-the-bioweapon-hypothesis/

[3] S. Wacharapluesadee et al., Evidence for SARS-CoV-2 related coronaviruses circulating in bats and pangolins in Southeast Asia. Nature Comm. https://doi.org/10.1038/s41467-021-21240-1

[4] O.A. Mclean etal., Natural selection in the evolution of SARS-CoV-2 in bats created a generalist virus and highly capable human pathogen. 12.03.2021. https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.3001115#sec002


 * Der Artikel ist erstmals am 15.April 2021 in PLOS Blogs - DNA Science Blog unter dem Titel "3 Possible Origins of COVID: Lab Escapee, Evolution, or Mutator Genes?" https://dnascience.plos.org/2021/04/15/3-possible-origins-of-covid-lab-escapee-evolution-or-mutator-genes/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Die beiden Abbildungen und Legenden wurden von der Redaktion aus den im Artikel zitierten Publikationen [3] und [4] eingefügt.


COVID-19 im ScienceBlog

Vom Beginn der Pandemie an ist COVID-19 das dominierende Thema im ScienceBlog. 33 Artikel (mehr als 50 % aller Artikel) sind dazu bereits erschienen - von der Suche nach geeigneten Zielstrukturen für die Impfstoffentwicklung, nach möglichen Arzneimitteln zur Therapie Erkrankter bis zu ersten vielversprechenden klinischen Erfolgen mit innovativen Impfstoffen und schlussendlich deren Registrierung. 

Die Links zu diesen Artikeln sind im Themenschwerpunkt Viren zusammengefasst.

Daraus weitere Artikel von Ricki Lewis zu COVID-19:


 

 

inge Thu, 22.04.2021 - 01:23

Comments

Weißer als weiß - ein Farbanstrich, der die Klimaanlage ersetzen kann

Weißer als weiß - ein Farbanstrich, der die Klimaanlage ersetzen kann

Fr, 29.04.2021 — Redaktion

Redaktion

Icon Chemie

Forscher an der Purdue University haben eine neue ultraweiße Wandfarbe entwickelt, die 98,1 Prozent des einfallenden Sonnenlichts reflektiert und in der Mittagshitze Oberflächen um bis zu 4,5oC kühler als ihre Umgebung halten kann. Diese neue Farbe , die wahrscheinlich in den nächsten ein oder zwei Jahren auf den Markt kommen wird, könnte - auf den Fassaden aufgebracht - die urbanen Hitzeinseln mildern und dabei die Abhängigkeit von elektrisch betriebenen Klimaanlagen reduzieren. Im Smithonian Magazin berichtet Xiulin Ruan, der Leiter des Forschungsteams, über diese spektakuläre Erfindung, die einen Beitrag zur Energiewende und zum Kampf gegen die globale Erwärmung leisten wird können.*

Ein neuer Anstrich ist eine einfache Möglichkeit ein Haus attraktiver aussehen zu lassen. Demnächst kann ein solcher Anstrich aber auch dazu verhelfen, das Haus kühl zu halten.

Ein Durchbruch

Kürzlich hat ein Team von Wissenschaftlern an der Purdue-Universität (West Lafayette, Indiana, US) die Ergebnisse seiner Farbenforschung in der Zeitschrift ACS Applied Materials & Interfaces veröffentlicht [1]; finanziert wurden die Untersuchungen vom Forschungszentrum für Kühltechnologien der Purdue-Universität und vom Militärischen Forschungsinstitut der United States Air Force.

Unser Anstrich absorbiert nur 1,9 Prozent des einfallenden Sonnenlichts, kommerzielle Wandfarben dagegen 10 bis 20 Prozent des Sonnenlichts“, sagt Xiulin Ruan, Professor für Maschinenbau an der Purdue-Universität und einer der Koautoren der Studie. Abbildung 1.

Abbildung 1.Xiulin Ruan, Professor für Maschinenbau an der Purdue Universität zeigt eine Probe der weißesten Farbe. (Foto: Purdue University/Jared Pike)

Der Anstrich bedeutet eine markante Verbesserung gegenüber den derzeit auf dem Markt erhältlichen wärme-reflektierenden Farben. Trifft Sonnenlicht auf Oberflächen, die mit den heute verfügbaren weißen Farben beschichtet sind, so werden diese wärmer und nicht kühler. Solche wärme-abweisenden Farben können bestenfalls 80 bis 90 Prozent des Sonnenlichts reflektieren, sagt Ruan.

Reflexion der Sonneneinstrahlung und Emission von Infrarotwärmestrahlung

Die neue ultraweiße Farbe - nach Angaben der Forscher ist sie die kühlste von allen - reflektiert fast alle Sonnenstrahlen und sendet Infrarotwärme von der Oberfläche weg; daraus ergibt sich eine durchschnittliche Kühlleistung von 113 Watt pro Quadratmeter. Werden rund 90 m2 eines Hausdachs damit eingestrichen, so bedeutet dies eine Kühlleistung von 10 Kilowatt - dies ist leistungsfähiger als bei einer zentralen Klimaanlage, wie sie in den meisten Häusern verwendet werden, sagt Ruan.

In Untersuchungen, die während der Mittagshitze auf dem Dach eines Campusgebäudes in West Lafayette, Indiana, durchgeführt wurden, hielt der Farbanstrich die Außenflächen um 4,5oC kühler als die Umgebungstemperaturen. Nachts hielt die Farbe die Oberflächen 10,5oC kühler als ihre Umgebung. Abbildung 2.

Abbildung 2.Eine Infrarotkamera zeigt, wie eine Probe der weißesten weißen Farbe die umgebende Fläche abkühlt. Links: die an einer Wand angebrachte Probe. Rechts: mit der Infrarotkamera aufgenommen wird die Farbe dunkler je tiefer die Temperatur ist; die Probe - das dunkellviolette Quadrat in der Mitte - kühlt die Platte tatsächlich unter Umgebungstemperatur ab. Kommerzielle „wärmeabweisende“ Farben können das nicht. (Foto: Purdue University / Joseph Peoples)

„Unsere Farbe kann durch ihre eigene Emission Wärme verlieren - sie gibt Wärme an den Weltraum ab“, sagt Ruan. „Bei so geringer Absorption der Sonneneinstrahlung verliert unsere Farbe mehr an Wärme als sie absorbiert. Das ist für uns tatsächlich überaus aufregend. Bei Sonneneinstrahlung kühlt die beschichtete Oberfläche unter die Umgebungstemperatur ab und das ist schwer zu erreichen."

"Kommerzielle wärmeabweisende weiße Farben werden derzeit üblicherweise aus Titandioxid hergestellt; dieses reflektiert bestimmte Wellenlängen des Sonnenlichts - hauptsächlich das sichtbare Spektrum und Wellenlängen im nahen Infrarot - absorbiert aber die ultravioletten Strahlen des Sonnenlichts, was zur Erwärmung der Oberflächen führt," sagt Ruan.

"Kommerzielle weiße Farben sind kühler als die anderen, dunkleren Farben, aber sie sind immer noch wärmer als die Umgebungstemperatur", sagt Ruan.

Weißer als weiß durch winzige Bariumsulfatpartikel

Diese derzeit erhältlichen Farben sind sicherlich besser als gar nichts. Die Forscher wollten aber mit Materialien experimentieren, welche die UV-Strahlen der Sonne reflektieren aber nicht absorbieren können. In den letzten sieben Jahren haben sie mehr als 100 verschiedene Materialien getestet und schließlich ihre Auswahl auf Bariumsulfat eingeschränkt, eine bekannte UV-reflektierende Verbindung, die bereits in Kosmetika, reflektierendem Fotopapier, Ölfarben, Röntgenuntersuchungen und anderen Anwendungen eingesetzt wird. (In dem Versuchsprotokoll hatten sie zuvor bereitseine ultraweiße Farbe aus Kalziumkarbonat entwickelt, die 95,5 Prozent des Sonnenlichts reflektierte.)

Mit Bariumsulfat war zweifellos ein guter Ansatz gegeben; die Forscher inkludierten zwei neue Aspekte, um die Fähigkeit des Anstrichs zu erhöhen Licht zu reflektieren und Wärme zu emittieren: i) Der Anstrich enthielt eine hohe Konzentration an Bariumsulfatpartikeln - im Vergleich zu den typischen 10 Prozent in derzeitigen Anstrichen enthielt der neue Anstrich 60 % - und ii) die Partikel waren von unterschiedlicher Größe. Abbildung 3.

Abbildung 3.Die ultraweiße Bariumsulfatfarbe besteht zu 60 % aus winzigen 0,27 - 0,53 Mikrometer kleinen Bariumsulfatpartikeln, die einfallendes Sonnenlicht zu 98,1 % reflektieren und zudem Wärmestrahlung (Infrarotwärme) über die Atmosphäre hinaus abgeben. (Bild von Redaktion eingefügt)

„Wenn man unterschiedliche Partikelgrößen in den Anstrich einbringt, so kann - wie wir festgestellt haben, - jede Partikelgröße unterschiedliche Wellenlängen streuen und reflektieren. Insgesamt spiegeln sie das gesamte Wellenlängenspektrum des Sonnenlichts wider“, sagt Ruan.

Reduzierung urbaner Hitzeinseln

Die ultraweiße Farbe bietet zwei mögliche Vorteile. Indem Oberflächen kühl gehalten werden und der Einsatz von Klimaanlagen, die normalerweise mit Strom (u.a. aus nicht-erneuerbaren Quellen; Anm. Redn) betrieben werden, reduziert wird, kann die Farbe dazu beitragen, die Verbrennung fossiler Brennstoffe zu verringern. Darüber hinaus arbeiten Klimaanlagen in der Regel so, dass sie Wärme aus Innenräumen abführen und nach draußen leiten, ein Vorgang, der als Konvektion bezeichnet wird. Diese Wärmeübertragung kann zusammen mit anderen Ursachen zu urbanen Hitzeinseln beitragen, einem Phänomen, das auftritt, wenn Städte heißer als die umliegenden Gebiete werden und daher noch mehr Klimaanlagen erfordern. Die ultraweiße Farbe hingegen verwendet Strahlung, um Wärme wegzuleiten, elektromagnetische Wellen, die durch die Atmosphäre hindurch in den Weltraum gelangen können.

"Klimaanlagen können Ihr Haus kühlen, aber sie leiten die Wärme bloß von innen nach außen - die Wärme bleibt immer noch in der Stadt, immer noch auf der Erde, immer noch in unserer Luft", sagt Ruan. "Auch wenn ihnen die dafür zu bezahlenden Stromrechnungen egal sein mögen, es wird dennoch dadurch die Erde aufgewärmt. Unsere Farbe verbraucht keine Energie, aber was noch wichtiger ist, sie leitet die Wärme in den Weltraum. Die Hitze bleibt nicht auf der Erde, so dass damit ein Beitrag geleistet wird, um die Erde abzukühlen und den Erwärmungstrend zu stoppen".

Mithilfe statistischer Modelle haben die Forscher abgeschätzt, dass ihre ultraweiße Farbe den Bedarf an Klimaanlagen in heißen Städten wie Reno, Nevada und Phoenix, Arizona, um bis zu 70 Prozent reduzieren könnte. Ein ganz extremes Modell zeigt auf, dass eine Beschichtung von 0,5 bis 1 Prozent der Erdoberfläche - Gebäude, Straßen, ungenutztes Land, fast alles - mit der ultraweißen Farbe ausreichen würde, um den globalen Erwärmungstrend zu stoppen.

"Es ist sehr viel Fläche, aber sollten wir eines Tages diesen Ansatz nutzen müssen, um den Erwärmungstrend umzukehren, ist er immer noch erschwinglich - die Farbe ist nicht teuer", sagt Ruan.

Wie geht es weiter?

Die Forscher haben ein Patent angemeldet und führen nun weitere Untersuchungen durch, um die Langzeitbeständigkeit und Sicherheit der Farbe im Freien zu ermitteln sie wollen ja die Farbe den Verbrauchern zur Verfügung zu stellen. Derzeit haben sie noch keinen genauen Preis für die Farbe festgelegt, aber Ruan geht davon aus, dass die Farbe einen ähnlichen Preis wie die derzeit auf dem Markt befindlichen Farben haben wird - ungefähr 30 bis 40 US-Dollar pro Gallone (rund 3,8 l).

Welche zukünftigen Auswirkungen diese Erfindung haben kann, ist für Experten des nachhaltigen Bauens leicht auszumalen.

"Als ich zum ersten Mal davon hörte, dachte ich mir 'Wow, dies könnte sich für die unterschiedlichsten urbanen Bedingungen in den USA und auch international nutzen lassen' ", sagt Elizabeth Thompson, Vizepräsidentin des US-amerikanischen Green Building Council. „Es bietet so große und überzeugende Möglichkeiten. Es wird wunderbar sein die Entwicklung zu verfolgen und zu sehen wie die Forscher die Anwendungen erarbeiten können."

Das US-amerikanische Green Building Council , eine gemeinnützige Organisation, die das LEED-Bewertungssystem (Leadership in Energy and Environmental Design) für nachhaltige Gebäude entwickelt hat, bietet einen Wärmeinsel-Reduzierungs-Bonus für Gebäude an, die auf LEED-Zertifizierungsstufen hinarbeiten.

Eine Möglichkeit, wie Gebäude diesen Bonus erhalten können, besteht darin, Materialien oder Geräte mit einem anfänglichen Sonnenreflexionsgrad von 33 Prozent bei der Installation oder von 28 Prozent über drei Jahre zu verwenden, sagt Thompson. Mit einer Sonnenreflexion von 98,1 Prozent übertrifft die ultraweiße Farbe diese Anforderungen bei weitem.

"Dies ist eine ganz andere Dimension des Kühlens und sehr aufregend", sagt Thompson. "Dies stimmt zuversichtlich. Es ist genau das, was wir alle von Wissenschaftlern und Forschern erhoffen: dass sie uns helfen neue Möglichkeiten für ein nachhaltigeres Leben zu entdecken".


  [1] Xiangyu Li, Joseph Peoples, Peiyan Yao, Xiulin Ruan, Ultrawhite BaSO4 Paints and Films for Remarkable Daytime Subambient Radiative Cooling. ACS Appl. Mater. Interfaces 2021. https://doi.org/10.1021/acsami.1c02368


*Der vorliegende Artikel von Sarah Kuta ist unter dem Titel "This Ultra-White Paint May Someday Replace Air Conditioning" am 21. April 2021 im Smithsonian Magazin erschienen. https://www.smithsonianmag.com/innovation/ultra-white-paint-may-someday-replace-air-conditioning-180977560/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und durch mehrere Untertitel und eine zusätzliche Abbildung (Abbildung 3) ergänzt.


Links

Prof. Xiun Ruan, homepage: https://www.purdue.edu/discoverypark/birck/directory/profile.php?resource_id=29343

US-Green Building Council: https://www.usgbc.org/

Anton Falkeis & Cornelia Falkeis-Senn, 30.01.2020: Nachhaltige Architektur im Klimawandel - das "Active Energy Building


 

inge Thu, 29.04.2021 - 01:43

Asymptomatische Infektionen mit SARS-CoV-2. Wirkt der AstraZeneca Impfstoff?

Asymptomatische Infektionen mit SARS-CoV-2. Wirkt der AstraZeneca Impfstoff?

Fr 16.04.2021.... Inge Schuster Inge SchusterIcon Medizin

Um effizient die COVID-19 Pandemie bekämpfen zu können, sollten Impfstoffe sowohl vor schweren COVID-19 Erkrankungen schützen als auch die Infektion mit dem Virus selbst und damit die Ansteckung Anderer durch asymptomatisch und präsymptomatisch Infizierte möglichst unterbinden. Wie die initiale Infektionsphase abläuft, ob sie zu Symptomen führt oder asymptomatisch bleibt, ist noch ungeklärt. Neue Befunde weisen auf eine überragende Wirksamkeit der mRNA-Impfstoffe von Pfizer und Moderna gegen die durch die derzeit dominierende Virusvariante B.1.1.7 ausgelösten - symptomatischen und asymptomatischen Infektionen hin. Der AstraZeneca Impfstoff zeigt dagegen nur geringe Wirkung gegen asymptomatische Infektionen mit B.1.1.7. Geimpfte Personen können somit ansteckend sein.

Unsichtbare Gefahr

Bereits zu Beginn der COVID-19 Pandemie war es offensichtlich, dass das Virus auch von infizierten Personen übertragen wurde, die selbst (noch) keine Krankheitssymptome zeigten, also von asymptomatischen Menschen oder von präsymptomatischen Menschen, die knapp vor dem Ausbruch der Erkrankung eine fast schon maximale Viruslast aufweisen. Ohne Schutzmaßnahmen konnte also jeder für jeden ansteckend sein. Dies gilt auch heute noch - die üblichen Antigen-Tests können ja nur für einen stark limitierten Zeitraum Unbedenklichkeit bescheinigen.

Wieviele SARS-Infizierte bleiben nun symptomlos?

Trotz einer Fülle epidemiologischer und klinischer Untersuchungen und Laborexperimenten gibt es dazu keine klaren Antworten. Hatten frühe Studien angenommen, dass bis zu 80 % der SARS-CoV-2-Infektionen asymptomatisch verlaufen, so tendieren neuere Untersuchungen zu einem Anteil von 17 - 30 % [1]. In diesem Bereich liegen auch die Werte eines rezenten umfassenden PCR-basiertes Screening-Programms des Klinikpersonals am Cambridge University Hospital: von 3 252 nicht geimpften Personen wiesen 0,8 % einen positiven PCR-Test auf, blieben aber symptomlos und 1,7 % mit positivem PCR-Test zeigten Symptome von COVID-19 [2]. In anderen Worten: Der Großteil der SARS-Infizierten erkrankt an COVID-19, ist aber davor schon infektiös.

Wie erfolgt die Übertragung - welche Virusmenge löst eine Infektion aus?

Es sind dies Fragen, die für das Verstehen von COVID-19 von fundamentaler Bedeutung sind, bis jetzt aber unbeantwortet blieben. Erste Informationen soll eine in England von Dr.Chris Chiu (Imperial College London) geleitete, ethisch umstrittene "Human Challenge Studie" bringen. Es sollen insgesamt 90 junge gesunde Probanden mit dem SARS-CoV-2-Virus inokuliert werden und die frühesten Phasen der Infektion verfolgt werden. Das Virus wird dabei in Tröpfchen auf die Nasenschleimhaut aufgebracht und die niedrigste Virusmenge eruiert, die im Nasen/Rachenraum gerade noch eine Infektion auslöst. Verfolgt wird, wie das Virus sich in der Nase vermehrt, wie das Immunsystem darauf reagiert, wer Symptome entwickelt und wer nicht, d.i. wie es schließlich zu COVID-19 kommt. Die Studie findet in der Klinik unter Quarantänebedingungen statt, die Probanden bleiben rund um die Uhr unter medizinischer Aufsicht und werden danach noch ein Jahr lang auf ihre Gesundheit getestet [3].

Ein spezielles Research Ethics Committee hat im Feber die Studie gestattet, diese hat im März begonnen und die ersten drei Probanden haben bereits die Klinik verlassen [3]. In weiterer Folge denkt man daran einige Probanden mit vorhandenen Vakzinen zu impfen und dann mit neuen Virusvarianten zu inokulieren, um die jeweils wirksamsten Vakzinen herauszufinden

Generelle Forderungen an Impfstoffe…

Um gegen die Pandemie erfolgreich vorgehen zu können, sollte ein Impfstoff zwei Forderungen erfüllen:

  • er sollte zuverlässig gegen schwere, durch SARS-CoV-2 ausgelöste COVID-19 Erkrankungen schützen und
  • er sollte die Infektion selbst und damit die Ansteckung Anderer durch asymptomatisch und präsymptomatisch Infizierte und Weiterverbreitung des Virus möglichst unterbinden

…klinische Studien…

Das Ziel der klinischen Studien, die der Zulassung der Impfstoffe zugrunde liegen, war der Schutz vor COVID-19 Erkrankungen. In sehr großen, randomisierten Doppelblind-Studien wurde die Wirksamkeit einer Vakzine versus Plazebo an Hand der Inzidenz von charakteristischen COVID-19 Symptomen (z.B. Fieber, Husten, Atemnot , Geschmack- und Geruchsverlust; etc.) in Verbindung mit einem positiven Nachweis des Virus durch einen PCR-Test festgestellt.

Darüber ob eine Vakzine bereits Infektionen unterdrücken kann, konnten diese Studien nichts aussagen.

…PCR-basierte Screening-Programme…

Erst in den letzten Wochen haben neue umfassende PCR-basierte Screening-Programme an tausenden Geimpften versus Nicht-Geimpften erstmals Aussagen über die Wirksamkeit von Vakzinen gegen asymptomatische Infektionen ermöglicht.

Demnach zeigen die mRNA-Impfstoffe von Pfizer und Moderna über 90 % Wirksamkeit nicht nur bei der Reduktion der COVID-19-Inzidenz, sondern auch bei der Verhinderung asymptomatischer Infektionen [2]. Es besteht damit die Hoffnung, dass geimpfte Personen andere nicht mehr anstecken können und Infektionsketten so unterbrochen werden können

…und Wirksamkeit der AstraZeneca-Vakzine (AZD1222) gegen asymptomatische Infektionen

Praktisch zeitgleich mit den überaus positiven Befunden zu den mRNA-Vakzinen ist auch eine neue Analyse zu den in den England gelaufenen Phase 2/3 klinischen Studien erschienen [4]. (Anlässlich der Zulassung der Vakzine durch die EMA wurde über diese Studien bereits in [5] berichtet). Das Studienprotokoll hatte vorgesehen, dass die Probanden wöchentlich Abstriche aus dem Nasen/Rachenraum nahmen - ob sie nun Symptome einer COVID-19 Erkrankung hatten oder nicht - und einschickten. Abstriche, die positiv auf das Virus testeten, wurden sequenziert und auch in Hinblick auf die britische Virus-Variante B.1.1.7 evaluiert, die in England ab Dezember 2020 stark anstieg und derzeit die in vielen europäischen Ländern dominierende Form ist.

In Hinblick auf diese B.1.1.7-Variante und bei Probanden nach 2 Standarddosen des Impfstoffs zeigte dieser eine Wirksamkeit gegen symptomatische Infektionen von 66,7 % (95% CI 29,2 – 84,3). Die Wirksamkeit gegen asymptomatische Infektionen mit 8 Fällen in der Vakzine-Gruppe und 11 Fällen in der Placebo-Gruppe betrug dagegen nur 28,9 % (CI 95 -77 - 71,4). Zweifellos können diese Daten mit ihrem viel zu weitem Konfidenzintervall (CI) nur als Näherung einer sehr geringen klinischen Wirksamkeit angesehen werden. Sollte es zu einer weiten Normalisierung des öffentlichen Lebens und einer Rücknahme der Maßnahmen - Social Distancing, Mund/Nasenschutz, etc. - kommen, so können asymptomatische Virenträger das Virus weiter verbreiten und dabei neue Varianten auftauchen, die das Infektionsgeschehen wieder anfachen.


[1] AL Rasmussen & SV Popescu, SARS-CoV-2 transmission without symptoms. (19 March 2021) Science 371 (6535) 1207

[2] I.Schuster, 01.04.2021: Die mRNA-Impfstoffe von Pfizer und Moderna verhindern auch asymptomatische Infektionen mit SARS-CoV-2

[3] Ryan O'Hare, 25.03.2021: First volunteers on COVID-19 human challenge study leave quarantine. https://www.imperial.ac.uk/news/218294/first-volunteers-covid-19-human-challenge-study/

[4] KRW Emary et al., 30.03,2021: Lancet, Efficacy of ChAdOx1 nCoV-19 (AZD1222) vaccine against SARS-CoV-2 variant of concern 202012/01 (B.1.1.7): an exploratory analysis of a randomised controlled trial

[5] I.Schuster, 01.02.2021: Trotz unzureichender Wirksamkeitsdaten für ältere/kranke Bevölkerungsgruppen: AstraZeneca-Impfstoff für alle EU-Bürger ab 18 Jahren freigegeben


 

inge Fri, 16.04.2021 - 01:50

3D-Druck: Wie Forscher filigrane Formen aus Metall produzieren

3D-Druck: Wie Forscher filigrane Formen aus Metall produzieren

Do, 08.04.2021 — Roland Wengenmayr

Icon Chemie

Roland Wengenmayr Der 3D-Druck von Kunststoffteilen ist in vielen Bereichen Standard, bei Metallen ist noch einiges an Forschungsarbeit zu leisten. Es ist aber offensichtlich, dass die additive Fertigung, wie der Fachausdruck für diese Technik lautet, das Potenzial hat, die Metallverarbeitung zu revolutionieren und neue Anwendungsbereiche zu eröffnen. Eine Gruppe um Prof.Dr. Eric A. Jägle vom Max-Planck-Institut für Eisenforschung (Düsseldorf) entwickelt Verfahren, um das Design der Metalllegierungen für und durch den 3D-Druck zu verbessern. Der Physiker und Wissenschaftsjournalist DI Roland Wengenmayr hat Dr. Jaegle in seinem Düsseldorfer Labor einen Besuch abgestattet.*

Das dreidimensionale (3D) Drucken von Kunststoffen ist längst Alltag, das 3D-Drucken von Metallen keine Zukunftsvision mehr, sondern industrielle Realität. Wer kürzlich eine Krone als Zahnersatz bekam, beißt sehr wahrscheinlich mit einem 3D-gedruckten Metallteil unter der Keramik ins Brötchen. Immer, wenn es um Einzelanfertigungen oder kleine Stückzahlen geht, ist das 3D-Drucken von Metallteilen interessant. Vor allem kann es beliebig kompliziert geformte Werkstücke in einem Durchgang herstellen. Das ist auch ideal für verschachtelte Bauteile, die bislang aus vielen Einzelteilen zusammengeschweißt werden müssen. Anwendungsgebiete sind neben der Medizin die Luft- und Raumfahrt, Kraftwerksturbinen, Motorsport, Ersatzteile für Oldtimer, auch die Bahn nutzt diese Technik.

Gedruckte Raketen-Brennkammern

Da sich beliebige Formen 3D-drucken lassen, wird extremer Leichtbau möglich. Wie bei verästelten Pflanzenstrukturen befindet sich in solchen Leichtbauteilen nur dort Material, wo es Kräfte aufnehmen muss. „Deshalb kommen heute auch zum Beispiel komplette Raketen-Brennkammern für die Raumfahrt aus dem Drucker“, erklärt Jägle. Der Werkstoffwissenschaftler beantwortet zudem die Frage, warum das „3D-Drucken“ hier in Anführungszeichen geschrieben ist. Industrie und Forschung sprechen lieber von „Additiver Fertigung“ als vom Drucken. Es gibt nämlich viele verschiedene Verfahren, computergesteuert dreidimensionale Objekte aus Metall aufzubauen.

Als erstes erklärt Jägle, warum diese Technik „additiv" heißt, im Gegensatz zu „subtraktiv". „Subtraktiv ist zum Beispiel die Bildhauerei", erklärt er, „so wie Michelangelo seinen berühmten David aus einem Marmorblock herausgearbeitet hat." In der Industrie entspricht das dem computergesteuerten Herausfräsen eines Teils aus einem Metallblock. Additiv heißt hingegen, dass man etwas hinzufügt statt wegnimmt, also aufbaut. Allerdings trifft das auch auf das Gießen von geschmolzenem Metall in eine Gussform zu, was die Menschen seit der Bronzezeit beherrschen. Also fehlt noch etwas in der Definition. „Das Ganze muss man auch noch computergesteuert machen", zählt Jägle weiter auf, „und das ohne Werkzeug!"

Bei der Additiven Fertigung geht es also darum, ein im Computer entworfenes, dreidimensionales Teil möglichst formgetreu aus einem Material aufzubauen. Sie soll vollkommen flexibel beliebige Formen produzieren können. Heute gibt es verschiedene additive Techniken für Metalle, die unterschiedlich weit entwickelt sind. Am weitesten verbreitet sind die sogenannten Pulverbett-Verfahren, bei denen ein starker Infrarotlaser oder ein Elektronenstrahl Metallpulver verschweißt. Der Laserdrucker im Düsseldorfer Labor gehört dazu.

Abbildung 1: Bei der LPBF-Technik des 3D-Druckens von Metall verschweißt ein Laserstrahl feines Metallpulver zu einem Bauteil. Links und rechts von dem Volumen, in dem das Bauteil heranwächst, befinden sich Behälter für das Metallpulver (1). Schicht für Schicht fährt der Hubtisch (2) unter dem oben wachsenden Bauteil nach unten. Jedes Mal streicht ein Schieber oder eine Bürste (3) eine neue Pulverschicht aus einem der beiden Reservoirs über das Werkstück. Danach schweißt der Laser (4) über einen computergesteuerten Scannerspiegel (5) die für diese Schicht nötige Form auf.© R. Wengenmayr / CC BY-NC-SA 4.0

Das Prinzip ist einfach zu verstehen. Als Baumaterial dient feines Metallpulver, weshalb dieses Verfahren Laser Powder Bed Fusion, kurz L-PBF, heißt— also auf Deutsch Laser-Pulverbett-Schmelzen. Das Pulver erzwingt strenge Sicherheitsvorkehrungen, wenn der Drucker geöffnet wird. Schließlich kann das Pulver, wenn es sich als Staubwolke in der Luft verteilt, explodieren. Ursache ist die riesige Gesamtoberfläche aller Metallpartikel zusammengenommen, die im Kontakt mit dem Sauerstoff der Luft schlagartig oxidieren kann. Außerdem ist das Einatmen gefährlich. Deshalb darf man den Drucker nur öffnen, wenn man Schutzanzug und Atemmaske trägt, und man muss sehr sauber arbeiten.

Bauteil aus dem Pulverbett

Das L-PBF-Verfahren, bietet zwei Vorteile. Erstens kann es besonders feine Strukturen herstellen. Zweitens sind die damit gedruckten Metallteile enorm fest. Ihre Festigkeit entspricht der höchsten Qualitätsstufe, dem Schmiedestück. Metalle bestehen aus feinen Körnern, und das Schmieden presst diese besonders dicht und fest zusammen. Ein Schmiedestück ist damit viel zäher und härter als ein Gussteil.

Im L-PBF-Drucker befindet sich das Metallpulver in einem Pulverbett (Abbildung 1). Eine Schutzatmosphäre aus dem Edelgas Argon verhindert die Oxidation beim Verschweißen. Im ersten Schritt schiebt eine Bürste eine sehr dünne Schicht Pulver über eine Grundplatte. Dann schweißt der Laser die erste Schicht des Bauteils ins Pulver (Abbildung 2). Sein Strahl wird dafür von einem extrem schnell und präzise gesteuerten Scannerspiegel umgelenkt. Im Lichtfokus fährt ein kleines mobiles Bad aus geschmolzenem Metall durch das Pulver, das außerhalb des Fokus schlagartig abkühlt und fest wird. Ist eine Schicht fertig, fährt ein Hubtisch unter der Platte das Bauteil um exakt eine Schichthöhe nach unten, und die Prozedur wiederholt sich. Es gibt auch Geräte, die mit mehreren Laserstrahlen arbeiten, um schneller zu sein.

Abbildung 2: Der rasende Laserstrahl schweißt die neue Schicht eines Bauteils ins Metallpulver. ©Foto: Fraunhofer ILT Aachen / Volker Lannert

Die Höhe einer Schicht hängt davon ab, wie fein die Details sein sollen. Typisch sind zwanzig bis vierzig Mikrometer (Tausendstel Millimeter), was grob dem Durchmesser eines feinen Kopfhaars entspricht. Ein Werkstück kann so aus einigen Tausend Schichten aufgebaut sein. Der Laserstrahl bewegt sich wie ein Stift beim Schraffieren einer Fläche. Deshalb kann ein Bauteil am Ende aus mehreren Millionen kurzer Schweißbahnen mit vielen Kilometern Gesamtlänge bestehen. Wenn das Teil fertig ist, muss es aus dem Pulver herausgeholt, gereinigt (Abbildung 3) und von der Grundplatte abgetrennt werden.

Der Werkstoffwissenschaftler Jägle interessiert sich für die Vorgänge, die dabei tief im Inneren der geschmolzenen und wieder erstarrten Metalle ablaufen. Das ist Grundlagenforschung, also genau die Max-Planck-Welt. Deshalb sieht das, was Jägles Gruppe druckt, auch nicht so cool aus wie viele Beispiele im Netz. „Wir drucken Würfel", sagt Jägle und lacht: „Die schneiden wir auseinander und untersuchen sie."

Schwierige Metall-Legierungen

Beim Einsatz von Metalllegierungen in der Additiven Fertigung können nämlich viele grundlegende Probleme auftreten, und die wollen die Werkstoffwissenschaftler verstehen. Metallische Legierungen bestehen aus mindestens zwei chemischen Elementen, damit sie die gewünschten Eigenschaften bekommen. Die verschiedenen chemischen Elemente in einer Legierung reagieren aber auch unterschiedlich, wenn diese verflüssigt wird. Das erinnert an eine Schokolade, die einmal angeschmolzen wurde und danach nicht mehr so schön cremig-zart auf der Zunge zergeht: Das Erhitzen hat ihre „Mikrostruktur" verändert.

Abbildung 3: Das fertige Bauteil wird aus dem Metallpulver herausgeholt. © Foto: Fraunhofer ILT Aachen / Volker Lannert

Jägle zählt die beim 3D-Drucken von Metalllegierungen auftretenden Probleme auf: „Manche Materialien lassen sich gar nicht verarbeiten, andere sind voller Risse. Manche kommen zwar als Festkörper aus dem Pulverbett, sind aber sehr spröde." Einige 3D-gedruckte Werkstoffe ermüden bei mechanischer Belastung viel schneller als sie sollten. In der Hitze des Laserfokus können auch flüchtigere chemische Elemente aus der Legierung verdampfen, was deren Eigenschaften verschlechtert. Es kann zudem passieren, dass ein gedrucktes Werkstück in einer Zugrichtung fester ist als senkrecht zu dieser Richtung.

Eric Jägles Forschungsgruppe untersucht deshalb ihre gedruckten Würfel mit ausgeklügelten Methoden. Sie wollen damit enträtseln, was bei dem Aufschmelzen des Pulvers und anschließenden Erstarren zum Metallteil auf der mikroskopischen Skala passiert. Darauf sind die Düsseldorfer spezialisiert, und die Industrie ist an dieser Grundlagenforschung stark interessiert.

Risse in der Superlegierung

Jägle erzählt von einem aktuellen Forschungsprojekt, an dem mehrere größere und kleinere Unternehmen und verschiedene Universitäten und Forschungsinstitute beteiligt sind. Auch das Max-Planck-Institut für Eisenforschung ist dabei. „Warum kommen bestimmte Nickel-Basis-Superlegierungen mit Rissen aus dem L-PBF-Prozess heraus?", schildert Jägle die Fragestellung des Projekts. Solche Speziallegierungen werden für Turbinenschaufeln in Kraftwerken, Hubschraubern oder Flugzeugen verwendet. Beim Betrieb können diese Schaufeln über Tausend Grad Celsius heiß werden. Das dann fast weißglühende Metall darf aber nicht ermüden oder korrodieren. Genau das leisten Nickel-Basis-Superlegierungen.

Hinzu kommt, dass diese Turbinenschaufeln durch feine Kanäle gekühlt werden. Deshalb erfordert die Herstellung aufwändige Gießformen. Sie mit den Kanälen in einem Stück drucken zu können, wäre also attraktiv. Das wäre nicht nur billiger, man könnte die Schaufeln nach Bedarf drucken, auch als Ersatzteile.

„Deshalb nehmen mehrere Firmen Millionen in die Hand, um das spannende Projekt zu finanzieren", erzählt Jägle: „Ziel ist die Entwicklung einer neuen Legierung, die dieses Rissproblem nicht mehr hat." Solche Nickel-Basis-Superlegierungen werden in einer komplizierten Rezeptur mit bis zu 15 chemischen Elementen zusammengemixt und dann in speziellen Schmelz¬verfahren hergestellt. Grob die Hälfte der Mixtur entfällt auf Nickel, hinzu kommen Chrom, Kohlenstoff, Molybdän, Niob, Titan, Aluminium und weitere Elemente. Jedes Element hat eine bestimmte Funktion im Werkstoff.

Abbildung 4: Das Elektronenmikroskopbild zeigt die polierte und angeätzte Oberfläche einer Nickel-Legierung. Die Kristall¬körner sind gut erkennbar. © MPI für Eisenforschung

Um das Entstehen der feinen Risse verständlich zu machen, erklärt Jägle, wie eine Metalllegierung unter einem Lichtmikroskop aussieht. Wenn man sie poliert und mit einer Säure anätzt, dann sieht man so etwas wie metallisch glänzende Körner (Abbildung 4). „Das sind Kristalle", erklärt der Forscher, „und dass Metalle aus Kristallen bestehen, ist für viele eine Überraschung, schließlich denkt man erst mal an so etwas wie Diamant oder Bergkristall".

In der Regel sind die Kristalle mikroskopisch klein, in additiv gefertigten Legierungen sogar extrem fein. Typisch sind dann Abmessungen von einigen Hundert Nanometern (Milliardstel Meter). Sind die Legierungen so komplex wie eine Nickel-Basis-Superlegierung, dann sind die einzelnen Kristalle auch chemisch unterschiedlich zusammengesetzt. Das erinnert entfernt an ein Körnerbrot, in dessen Teig verschiedene Körnersorten stecken. Kühlt eine solche Legierung außerdem aus der Schmelze ab und geht in den festen Zustand über, dann werden ihre chemischen Bestandteile auch nicht alle zur gleichen Zeit fest. Für einen gewissen Moment des Abkühlens überzieht ein hauchdünner Flüssigkeitsfilm die Oberflächen der schon fest gewordenen Kristallkörner.

Überflüssige Übeltäter

Und dieser dünne Flüssigkeitsfilm kurz vor dem Erstarren ist der Übeltäter, der die Risse verursacht. Wenn die Kristallkörner abkühlen, schrumpfen sie nämlich. Metalle reagieren auf Temperaturänderungen durch relativ starkes Ausdehnen oder Zusammenziehen. Solange sich zwischen den Körnern in der Legierung flüssiges Material befindet, kann ein schrumpfendes Korn an seiner Kontaktfläche zum Nachbarkorn abreißen. Beim weiteren Schrumpfen klafft dann an dieser Stelle ein Riss auf (Abbildung 5). Das Forschungsziel der Düsseldorfer ist deshalb eine kleine, aber wirksame Änderung in der Rezeptur. Sie soll in Zukunft diesen schädlichen Flüssigkeitsfilm beim Abkühlen verhindern.

Abbildung 5: Das Elektronenmikroskopbild zeigt die Bruchstelle eines 3D-gedruckten Werk¬stücks aus einer Nickel-Legierung. Die dunklen Löcher sind unerwünschte Risse, die das Bauteil schwächen. © MPI für Eisenforschung

Allerdings würde es viel zu lange dauern, wenn Jägles Forschungsgruppe einfach herumprobieren würde. Mit einer Mischung aus Erfahrung, Computerprogrammen und der genauen Analyse der zersägten Würfel versuchen die Forscher, die beste Rezeptur möglichst effizient aufzuspüren. Eine Spezialität des Max-Planck-Instituts für Eisenforschung sind sogenannte Atomsonden. Damit können die Forscher im Extremfall bis auf Atome genau entschlüsseln, wie die Körner des gedruckten Materials räumlich aufgebaut sind.

 

An der Additiven Fertigung fasziniert, wie eng die Grundlagenforschung mit der industriellen Anwendung verknüpft ist. Jägle zitiert eine berühmte Feststellung von Max Planck, dem Namensgeber der Max-Planck-Gesellschaft: „Dem Anwenden muss das Erkennen vorausgehen." Das klingt fast so, als hätte Planck schon vor Jahrzehnten die Welt des 3D-Druckens vorausgesehen.


 * Der Artikel ist erstmals unter dem Title: " Drucken in drei Dimensionen. Wie Forscher filigrane Formen aus Metall produzieren" in TECHMAX 27 (Frühjahr2020) der Max-Planck-Gesellschaft erschienen  https://www.max-wissen.de/320185/3-d-druck-metalle und steht unter einer CC BY-NC-SA 4.0 Lizenz. Der Artikel wurde leicht gekürzt.


Weiterführende Links

Max-Planck-Institut für Eisenforschung https://www.mpie.de

D3-Metalldruck lockt Investoren | Wirtschaft. Video 2:48 min. https://www.youtube.com/watch?v=eZJHjEE5CDg

Damaszener Stahl aus dem 3D-Drucker: https://www.mpg.de/15017328/damaszener-stahl-3d-druck


 

inge Wed, 07.04.2021 - 21:15

Die mRNA-Impfstoffe von Pfizer und Moderna verhindern auch asymptomatische Infektionen mit SARS-CoV-2

Die mRNA-Impfstoffe von Pfizer und Moderna verhindern auch asymptomatische Infektionen mit SARS-CoV-2

Do 01.04.2021.... Inge Schuster Inge SchusterIcon Medizin

Schützt die Corona-Impfung bereits vor einer Ansteckung mit SARS-CoV-2 oder bloß vor der durch das Virus ausgelösten COVID-19 Erkrankung? Ergebnisse aus drei großen Studien in England, Israel und den US zeigen, dass die Impfstoffe auch einen sehr hohen Schutz vor asymptomatischen Infektionen bieten. Geimpfte können somit andere Personen nicht mehr anstecken, die Ausbreitung des Virus wird eingedämmt.

Basierend auf einer guten Verträglichkeit und auf ausgezeichneten Daten zur Wirksamkeit haben die mRNA-Impfstoffe von Pfizer/BioNTech und Moderna/NIAID bereits im Dezember 2020 die Notfall-Zulassung der US-Behörde FDA erhalten und kurz darauf hat die Europäische Behörde (EMA) die bedingte Zulassung beider Vakzinen empfohlen. Die Vakzinen nutzen dabei eine neue Technologie: die mRNA für das essentielle virale Spikeprotein wird als Bauanleitung in unsere Zellen injiziert, diese produzieren das Fremdprotein und unser Immunsystem reagiert darauf u.a. mit der Bildung von Antikörpern. Kommt es später zum Kontakt mit dem ganzen Virus, so soll dieses durch das aktivierte Immunsystem daran gehindert werden unsere Körperzellen zu infizieren.

Symptomatische Infektionen

In den klinischen Phase 3-Studien [1, 2] wurde die Wirksamkeit der Vakzinen an der Inzidenz der durch das Virus ausgelösten COVID-19- Erkrankungen gemessen, d.h. am Auftreten charakteristischer Symptome (z.B. Fieber, Husten, Atemnot , Geschmack- und Geruchsverlust; etc.) in Verbindung mit einem positiven Nachweis des Virus durch einen PCR-Test.

Symptomatische Infektionen: Wirksamkeit der beiden mRNA-Impfstoffe gemessen am Auftreten von COVID-19 Erkrankungen. Nach der zweiten Dosis erreicht der Impfschutz rund 95 % der Probanden. (Bild aus [3], Daten aus [1] und [2], Lizenz cc-by)

Sowohl bei der Pfizer- als auch bei der Moderna-Vakzine zeigte sich eine ausgeprägte Wirkung bereits rund 12 Tage nach der ersten Dosis - das entspricht dem Zeitraum, den das Immunsystem zur Antikörperbildung gegen das Corona-Spikeprotein benötigt: während die COVID-19 Fälle in der Placebogruppe ungebremst weiter anstiegen, flachte die Kurve bei den Geimpften stark ab und erreichte nach der 2. Impfung einen Schutz von 95 %. Abbildung 1 zeigt den sehr ähnlichen Zeitverlauf der Wirksamkeiten der beiden Vakzinen (eine ausführlichere Darstellung findet sich in [3], woraus auch die Abbildung stammt).

Asymptomatische Infektionen

Die für die behördliche Zulassung erhobenen exzellenten Wirksamkeiten geben keine Auskunft über symptomlos verlaufende Infektionen mit SARS-CoV-2 . Solcherart Infizierte können jedoch andere Personen anstecken und das Virus so weiter und weiter verbreiten. Eine ganz wesentliche Frage stellt sich daher: sind die Impfstoffe in der Lage auch vor symptomlosen Infektionen zu schützen? Drei groß angelegte Studien in den US, in UK und in Israel bejahen diese Frage eindeutig.

Die US-Studie der CDC

In einer am 29. März 2021 erfolgten Aussendung bestätigen die Centers for Disease Control and Prevention (CDC), - eine Behörde des US-amerikanischen Gesundheitsministeriums -, dass die Impfstoffe von Pfizer und Moderna auch vor symptomlosen Ansteckungen mit SARS-VCoV-2 schützen. Die Aussendung nennt zwar noch keine Details, die Aussagen sind dennoch äußerst ermutigend.

Die Studie: Es waren 3950 Personen involviert, die aus 6 Bundesstaaten stammten und auf Grund ihrer Tätigkeit (medizinisches Personal, Ersthelfer , essentielle Arbeitnehmer) stärker dem Virus ausgesetzt waren als die allgemeine Bevölkerung. Über einen Zeitraum von 13 Wochen (14. 12. 2020 bis 13. 3. 2021) sammelten die Teilnehmer jede Woche selbst Nasenabstriche für RT-PCR-Labortests, gleichgültig ob sie nun Krankheitssymptome entwickelt hatten oder nicht. Die Forscher der CDC konnten so mittels der PCR-Tests auch auf symptomlos verlaufende Infektionen mit SARS-CoV-2 prüfen.

Das Ergebnis: Zwei oder mehr Wochen nach der ersten Dosis des Pfizer- oder des Moderna-Impfstoffes hat sich das Risiko einer SARS-CoV-2 Infektion um 80 Prozent reduziert, zwei oder mehr Wochen nach der zweiten Impfstoffdosis um 90 Prozent. Die Studie zeigt, dass die beiden mRNA-Impfstoffe das Risiko aller SARS-CoV-2-Infektionen verringern können, nicht nur symptomatischer Infektionen.

Die Cambridge Studie in UK

In England hatten bereits am 8. Jänner 2021 Massenimpfungen mit der Pfizer-Vakzine begonnen, prioritär von Beschäftigten im Gesundheitswesen, die ein erhöhtes Risiko für eine SARS-VoV-2 Infektion haben und damit in gesteigertem Maße Patienten und Kollegen anstecken können. Ein umfassendes PCR-basiertes Screening-Programm des Klinikpersonals am Cambridge University Hospital hatte zuvor bereits während der ersten COVID-19-Pandemiewelle auf das häufige Auftreten von asymptomatischen und nur gering symptomatischen SARS-CoV-2- Infektionen hingewiesen. Nun hat ein Team des Cambridge University Hospitals die Auswirkung einer ersten Dosis des Pfizer-Impfstoffs auf das Auftreten asymptomatischer Infektionen mittels PCR-Test untersucht.

Die Studie: Während einer zweiwöchigen Zeitspanne (18 - 31.Jänner 2021) wurden vergleichbar viele Personen von geimpftem und nicht-geimpftem Krankenhauspersonal, das sich nach eigenen Angaben gesund fühlte, auf das Vorhandensein des Virus mittels PCR getestet (es waren ca. 4 400 PCR-Tests/Woche). Es wurde dabei die Zahl der positiven PCR-Tests von nicht-geimpften Personen mit den Zahlen von geimpften nach weniger als 12 Tagen nach der Impfung und länger als 12 Tage nach der Impfung verglichen (12 Tage sind etwa der Zeitraum, den das Immunsystem zur Antikörperbildung gegen das Corona-Spikeprotein benötigt; s.o.) [5].

Das Ergebnis: Es zeigte sich, dass 26 von 3 252 (0,8 %) nicht-geimpften, symptomlosen Personen einen positiven PCR-Test hatten. Weniger als 12 Tage nach der Impfung sank die Zahl der symptomlos Infizierten auf 13 von 3 535 (0,37 %) und länger als 12 Tage nach der Impfung testeten nur mehr 4 von 1 989 (0,2 %) positiv.

Abbildung 2.Wie viele Krankenhaus- Mitarbeiter im haben zwar keine Symptome von COVID-19, zeigen im PCR-Test aber Infektion mit dem Virus? Nach der ersten Dosis der Pfizer-Vakzine sank die Zahl der positiv Getesteten rasch auf die Hälfte ab und mehr als 12 Tage später - nachdem die Antikörperabwehr einsetzte - auf ein Viertel. Die cycle times (ct) auf der rechten Achse zeigen einen Trend zu höheren Werten, d.i. zu niedrigeren Viruslasten. (Bild aus Michael Weekes et al.,[5] Lizenz cc-by).

Bei Personen, die COVID-19 Symptome zeigten, lag die Inzidenz der Nicht-Geimpften höher bei 1,7 % und sank nach mehr als 12 Tagen nach der Impfung auf 0,4 %. PCR-Tests geben nicht nur die Antwort positiv oder negativ. An Hand der zur Detektion nötigen Zahl an Amplifíkationen (cycle times =ct) zeigt sich auch ein Trend zu höheren cycle times, d.i. zu niedrigeren Viruszahlen.

Die Israel-Studie

In diesem Land läuft wohl sicherlich die derzeit größte Studie zur Wirkung von Impfungen auf symptomatische und asymptomatische Infektionen mit SARS-CoV-2. Mit dem Ziel möglichst schnell alle Einwohner gegen COVID-19 zu immunisieren, hatten bis 5. März bereits rund 56 % der Bevölkerung eine Impfdosis erhalten und etwa 44 % die vollständige Immunisierung mit 2 Dosen. Geimpft wurde ausschließlich mit dem Pfizer/BionTech- Impfstoff ; der damals bereits dominierende Virusstamm war die britische Variante B .1.1.7.

Die Studie: Zur Auswertung kamen Daten zu allen Geimpften und zu nachfolgenden Infektionen im Zeitraum 17. Januar bis 6. März. Untersucht wurden PCR-Tests hinsichtlich der "cycle times", die ein Maß für die Virenlast im Organismus sind. Die Daten wurden vom israelischen Gesundheitsministerium erhoben, das regelmäßig Infektionen, Tests und den Impfstatus erfasst.

Das Ergebnis: Der Pfizer-Impfstoff bietet bereits 12 Tage nach der ersten Dosis einigen Schutz vor einer COVID-18 Erkrankung und erhöht diesen 7 Tage nach der zweiten Impfung auf 95 %. Asymptomatische Infektionen, die 12 - 28 Tage nach der ersten Impfung zu positiven PCR-Tests führen, zeigen bereits eine 4-fach reduzierte Virenlast auf und weisen damit auf eine niedrigere Infektiosität und damit Verbreitung des Virus hin.

Fazit

Die Impfstoffe von Pfizer und Moderna zeigen über 90 % Wirksamkeit bei der Verhinderung asymptomatischer Infektionen. Es besteht damit die Hoffnung, dass geimpfte Personen andere nicht mehr anstecken können und Infektionsketten so unterbrochen werden können.


[1] EMA Assessment Report: Comirnaty (21. December 2020). https://www.ema.europa.eu/en/documents/assessment-report/comirnaty-epar-public-assessment-report_en.pdf

[2] L.R.Baden et al., Efficacy and Safety of the mRNA-1273 SARS-CoV-2 Vaccine (30.December 2020) , at NEJM.org.DOI: 10.1056/NEJMoa2035389. https://www.nejm.org/doi/full/10.1056/NEJMoa2035389

[3] Inge Schuster, 21.01.2021: COVID-9-Impfstoffe - ein Update

[4] CDC Real-World Study Confirms Protective Benefits of mRNA COVID-19 Vaccines. 29.03.2021  https://www.cdc.gov/media/releases/2021/p0329-COVID-19-Vaccines.html

[5]Michael Weekes , Nick K Jones, Lucy Rivett, et al. Single-dose BNT162b2 vaccine protects against asymptomatic SARS-CoV-2 infection. Authorea. February 24, 2021. DOI: 10.22541/au.161420511.12987747/v1

[6]Matan Levine-Tiefenbrun et al., Decreased SARS-CoV-2 viral load following v accination, medRxiv preprint doi https://doi.org/10.1101/2021.02.06.21251283


 

inge Thu, 01.04.2021 - 19:05

Comments

Rita Bernhardt (not verified)

Tue, 18.05.2021 - 17:59

Wie immer, ein aufschlussreicher Beitrag der Autorin.
Danke!

Vom Wert der biologischen Vielfalt - was uns die Spatzen von den Dächern pfeifen

Vom Wert der biologischen Vielfalt - was uns die Spatzen von den Dächern pfeifen

Do, 25.03.2021 - 13:14 — Christina Beck Christina BeckIcon Biologie

Mao Zedong, Chinas „Großer Vorsitzender“, hatte den Spatz als einen von vier Volksschädlingen ausgemacht. Die Vögel, so verkündete er, seien Schädlinge, die dem Menschen Krankheiten brächten und Nahrung nähmen. Daher gehörten sie vernichtet. Millionen Menschen beteiligten sich an dieser landesweiten Jagd. Drei Tage lang scheuchten die Menschen in China mit Geschrei, Trommeln und bunten Fahnen die Spatzen in ihrem Land auf und ließen sie nicht zur Ruhe kommen, sodass sie tot oder erschöpft vom Himmel fielen. Zwei Milliarden Vögel, nicht nur Spatzen, fielen der Kampagne 1958 zum Opfer – von kleinen Meisen und Finkenvögeln bis hin zu großen Reihern, Kranichen, Greifvögeln. Die Auswirkungen auf das ökologische Gleichgewicht waren fatal: Der nahezu flächendeckenden Ausrottung der Vögel folgte im ersten „spatzenlosen“ Sommer eine Heuschreckenplage mit verheerenden Ernteausfällen. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, spannt einen weiten Bogen vom Vogelsterben und dem Verlust der für uns Menschen lebensnotwendigen Artenvielfalt bis hin zu Konzepten einer Renaturierung.*

Heute steht der Spatz in China auf der Liste der bedrohten Arten. Für „Wilderei bedrohter Vögel“ kann man jetzt sogar ins Gefängnis gehen. „Die „große Spatzen-Kampagne“ wirkt in China bis heute nach“, erzählt Peter Berthold, emeritierter Direktor am Max-Planck-Institut für Verhaltensbiologie. „Bei meinen Besuchen in China in den 1990er Jahren haben wir z. B. in Kunming in einer ganzen Woche gerade einmal zwei Feldsperlinge, zwei Haustauben und eine Bachstelze beobachten können, an manchen Tagen keinen einzigen Vogel.“ Um die Artenvielfalt der Vögel wieder zu erhöhen, werden in China immer noch Wiederansiedlungsprojekte mit Sperlingen, Trauerschnäppern und weiteren Arten durchgeführt.

Aber auch bei uns in Deutschland sieht es nicht gerade rosig aus für den Spatz, oder genauer den Haussperling (Passer domesticus). Und dabei begleiten uns die Vögel als sogenannte Kulturfolger schon seit über 10.000 Jahren. Sie haben sich dem Menschen angeschlossen, als dieser sesshaft wurde und die ersten Anfänge des Ackerbaus entwickelte. Seine Vorliebe für Getreidekörner hat ihm in der Vergangenheit den Ruf eines Schädlings eingebracht. Aber Spatzen jagen auch Insekten, insbesondere wenn sie ihre Jungen aufziehen. Im Zuge der Besiedlung anderer Kontinente durch die Europäer wurde der Spatz nahezu auf der ganzen Welt heimisch. Sein weltweiter Bestand wird auf etwa 500 Millionen Individuen geschätzt. Man sollte also meinen, so schnell kommt der Spatz nicht in Bedrängnis.

Am Bodensee beobachten Wissenschaftlerinnen und Wissenschaftler des Max-Planck-Instituts für Verhaltensbiologie und die ehrenamtlichen Mitarbeitenden der Ornithologischen Arbeitsgruppe seit 1980 die Bestandsentwicklungen der dort brütenden Vogelarten. Die Studie ist eine der wenigen in Deutschland, die die Brutvogelbestände über einen so langen Zeitraum mit derselben Methode dokumentiert. Bei der Datenerhebung von 2010 bis 2012 wurden sämtliche Vögel auf einer Fläche von rund 1.100 Quadratkilometern rund um den Bodensee gezählt. Die nächste Zählung soll von 2020 bis 2022 stattfinden.

Solche Langzeitstudien liefern einen wertvollen Datenschatz. Denn anders als bei der „großen Spatzenkampagne“ in China sind Veränderungen in einer Population oft schleichend und es fällt viel zu spät auf, wie dramatisch die Entwicklung bereits ist: Lebten am Bodensee 1980 noch rund 465.000 Brutpaare, waren es 2012 nur noch 345.000 – das heißt, jeder vierte Brutvogel ist verschwunden.

Und auch unser Hausspatz ist vom Rückgang betroffen. In Deutschland steht er schon seit einigen Jahren auf der Vorwarnliste der Roten Liste. Darauf kommen Arten, deren Bestand in den kommenden zehn Jahren gefährdet sein könnte. Zum Problem wird für den Spatz heute gerade seine Nähe zum Menschen und dessen Siedlungen: die dichte Bebauung, der Mangel an insektenfreundlichen Bäumen und Sträuchern, fehlende Fassadenbegrünung – Stadt und Dorf verändern sich so stark, dass ihm Nahrungs- und Nistmöglichkeiten genommen werden. Am Bodensee ist sein Bestand um fast die Hälfte eingebrochen (Abbildung 1).

Abbildung 1: Vogelbestände unter Druck. Der Studie am Bodensee zufolge gehen die Vögel vor allem in Landschaften zurück, die vom Menschen intensiv genutzt werden. Dazu gehört besonders die Agrarlandschaft: Das dort einst häufige Rebhuhn ist inzwischen ausgestorben. Das frühe und häufige Abmähen großer Flächen, der Anbau von Monokulturen, der frühzeitige Aufwuchs des Wintergetreides, Entwässerungsmaßnahmen und das Fehlen ungenutzter Brachflächen zerstören den Lebensraum. Hinzu kommt, dass die heutigen effizienten Erntemethoden kaum mehr Sämereien für körnerfressende Arten übrig lassen. Das wiederum trifft auch den Spatz. (Bild: © dpa für MPG )

Vogelsterben am Bodensee

Viele weitere Vogelarten kommen nur noch in geringen, oft nicht mehr überlebensfähigen Populationen und an immer weniger Orten rund um den Bodensee vor. Gerade die auf Wiesen und Feldern lebenden Arten verzeichnen zum Teil drastische Bestandseinbrüche. Das einst in der Agrarlandschaft häufige Rebhuhn ist rund um den Bodensee inzwischen ausgestorben (Abbildung 1). Sein Lebensraum wurde immer knapper, Insekten für die Aufzucht der Jungen fehlten. 75 Prozent der Vogelarten, die sich von Insekten ernähren, sind in ihrem Bestand rückläufig. „Dies bestätigt, was wir schon länger vermutet haben: das durch den Menschen verursachte Insektensterben wirkt sich massiv auf unsere Vögel aus“, sagt Peter Berthold.

Der Artenschwund tritt nicht nur bei uns in Deutschland auf, er ist ein weltweites Phänomen. Der Living Planet Index 2020 dokumentiert seit 1970 einen durchschnittlichen Rückgang um 68 Prozent der weltweit erfassten Bestände von Säugetieren, Vögeln, Amphibien, Fischen und Reptilien (und dabei sind die noch nicht beschriebenen oder wenig untersuchten Arten gar nicht berücksichtigt). Dieser Rückgang verläuft laut Weltbiodiversitätsrat (IPBES) bisher ungebremst. Nun ist der Verlust von Arten per se kein neues Phänomen. Im Verlauf der Erdgeschichte tauchten ständig neue Arten oder Gruppen verwandter Arten auf, während andere ausstarben. Die Evolution neuer Arten ist die Grundlage für biologische Vielfalt. Neu beim derzeitigen Artensterben ist aber, dass eine einzelne biologische Art unmittelbar oder mittelbar Ursache dieses dramatischen Rückgangs ist: der Mensch.

Sorge um die Natur

Biotopzerstörung oder -veränderung, übermäßige Bejagung und Befischung, chemische und physikalische Umweltbelastungen sowie der Eintrag invasiver Arten durch die wachsende globale Mobilität – all das trägt zum Rückgang der Artenvielfalt bei. In den 1980er Jahren hat die Wissenschaftsgemeinde aus Sorge um den Erhalt der Natur und das menschliche Überleben zunehmend intensiver darüber debattiert. Auf einer Konferenz der National Academy of Sciences (NAS) und der Smithsonian Institution 1986 in Washington wurde der Begriff Biodiversität erstmals öffentlichkeitswirksam eingeführt und in der Folge nicht zuletzt durch die Umweltkonferenz von Rio de Janeiro im Juni 1992 und die dort beschlossene „Konvention über die Biologische Vielfalt“ (CBD) zum Allgemeingut einer globalen Umweltpolitik. Biodiversität war daher nie ein rein naturwissenschaftlicher, sondern immer auch ein politischer Begriff.

In der Konvention heißt es: „biologische Vielfalt bedeutet [...] die Variabilität unter lebenden Organismen jeglicher Herkunft, darunter unter anderem Land-, Meeres- und sonstige aquatische Ökosysteme und die ökologischen Komplexe, zu denen sie gehören. Dies umfasst die Vielfalt innerhalb der Arten und zwischen den Arten und die Vielfalt der Ökosysteme.

Diese Definition umfasst so viel, dass wenig in der lebendigen Welt nicht unter sie fällt. Tatsächlich ist Vielfalt eine inhärente Eigenschaft des Lebens. Dabei sind Gene die kleinsten grundlegenden Einheiten, auf denen biologische Vielfalt fußt – sie sind der Motor der Evolution. Denn alle Arten benötigen eine gewisse, über eine Population verteilte Vielfalt an Genen, sollen sie ihre Fähigkeit beibehalten, sich an sich verändernde Umweltbedingungen anzupassen. Ein Gen, das zwar selten, aber dennoch vorhanden ist, könnte genau das richtige sein, wenn sich die Umgebung für eine Population maßgeblich verändert – es ist eine „Überlebensversicherung“.

Gene als Lebensversicherung

Ein hervorragendes Beispiel dafür liefert der Vogelzug: Dabei handelt es sich um ein polygenes, also durch eine Vielzahl von Genen gesteuertes Verhalten. So ist der Hausspatz in Europa fast ausschließlich Standvogel, in geringem Ausmaß auch Kurzstreckenzieher. Lediglich im Alpenraum verlässt er nicht dauernd von Menschen bewohnte Siedlungen im Spätherbst oder Winter. Bei einer Unterart des Hausspatz, Passer domesticus bactrianus, handelt es sich hingegen um einen Zugvogel, der bevorzugt in Zentralasien (Kasachstan, Afghanistan usw.) brütet und bei Zugdistanzen bis zu 2000 Kilometern in Pakistan und Indien überwintert. Die im Himalaya beheimatete Unterart Passer domesticus parkini wiederum ist Teilzieher. Von den rund 400 Brutvogelarten Europas sind derzeit 60 Prozent Teilzieher, d.h. nur ein Teil der Population verlässt im Winterhalbjahr das angestammte Brutgebiet und zieht gen Süden, während der Rest vor Ort bleibt. Teilzug ist eine ausgesprochen erfolgreiche, weil anpassungsfähige Lebensform. Beim Übergang von reinen Zugvögeln bis hin zu Standvögeln nimmt sie eine Schlüsselstellung ein. Unter extremen Bedingungen können Teilzieher, das haben Experimente von Wissenschaftlern des Max-Planck-Instituts für Verhaltensbiologie gezeigt, innerhalb weniger Generationen zu phänotypisch fast reinen Zug- oder Standvögeln selektiert werden (Abbildung 2). Der Temperaturanstieg in unseren Breiten infolge des Klimawandels wird – so die Prognose der Forscher – dazu führen, dass Vogelarten, die heute noch Teilzieher sind, bei uns zu Standvögeln werden.

Abbildung 2: Mikroevolution. In den 1990er Jahren konnten Peter Berthold (oben) und sein Team durch Untersuchungen an Mönchsgrasmücken nachweisen, dass die verschiedenen Formen des Vogelzugs tatsächlich unmittelbar genetisch gesteuert werden. Aus einer Population von 267 handaufgezogenen Vögeln konnten sie innerhalb von nur drei bis sechs Generationen (F3- F6) durch experimentelle Selektion – die der gerichteten Mikroevolution in der freien Natur entspricht – nahezu reine Zug- bzw. Standvögel züchten. Die Ausgangspopulation bestand zu 75 Prozent aus Zugvögeln und zu 25 Prozent aus Standvögeln. Von den rund 400 Brutvogelarten Europas sind derzeit 60 Prozent Teilzieher. Die Forscher vermuten jedoch, dass auch die restlichen 40 Prozent, die derzeit sehr hohe Zugvogelanteile besitzen, zumindest genotypische Teilzieher sind. Das heißt, die Vögel besitzen in ihrem Genom nach wie vor auch jene Gene, die Nichtziehen bewirken können.(Bild: © P. Berthold, MPI für Verhaltensbiologie/ CC BY-NC-SA 4.0)

Wer braucht biologische Vielfalt?

Die biologische Vielfalt ist Basis für vielfältige Leistungen der Natur, die als Ökosystemleistungen bezeichnet werden. Intakte Ökosysteme stellen dem Menschen lebenswichtige Güter und Leistungen zur Verfügung: Erdöl, Erdgas und Kohle liefern Energie. Holz, Leder, Leinen und Papier sind wichtige Werkstoffe. Wir ernähren uns von Tieren und Pflanzen, die angebaut, gehalten oder in freier Natur gesammelt oder gejagt werden. Unser kultureller Wohlstand (z. B. Erholung, Freizeitgestaltung) wie auch technische Entwicklungen sind in der einen oder anderen Art von Naturprodukten abhängig. Und diese hängen von natürlichen Prozessen ab, die ihrerseits von biologischer Vielfalt beeinflusst werden. Der Verlust an biologischer Vielfalt trifft also auch uns.

Könnte Technologie natürliche Vielfalt ersetzen?

Könnten wir beispielsweise aus einzelnen DNA-Abschnitten das Erbgut ausgestorbener Arten rekonstruieren und diese wieder zum Leben erwecken, um Artenvielfalt wiederherzustellen?

Die Fortschritte in der genomischen Biotechnologie lassen erstmals solche Gedankenspiele zu, seit langem ausgestorbene Arten – oder zumindest „Ersatz“-Arten mit Merkmalen und ökologischen Funktionen ähnlich wie die der ausgestorbenen Originale – wieder zum Leben zu erwecken. Aber die Hürden sind enorm [1]. Darüber hinaus profitiert der Mensch von mehreren tausend Heilpflanzen, die schon seit Jahrtausenden Wirkstoffe für Arzneien und Medikamente liefern. Können wir diese Vielzahl an Naturstoffen biotechnologisch herstellen? Acetylsalicylsäure, ein schmerzstillender Wirkstoff aus der Weidenrinde, wird heute tatsächlich technisch hergestellt. Bei anderen pharmazeutischen Wirkstoffen bleibt das aber schwierig. Und was noch viel entscheidender ist: Innerhalb der biologischen Vielfalt warten möglicherweise noch zahlreiche medizinische oder technologische Vorbilder für etwaige Heilmittel auf ihre Entdeckung, die in Jahrmillionen Evolution entwickelt wurden.

Es kommt also nicht von ungefähr, dass im Rahmen der „Konvention über Biologische Vielfalt“ auch Fragen der globalen Gerechtigkeit diskutiert werden: Wie kann der „Mehrwert“, der aus dem Schutz und der Nutzung von biologischer Vielfalt entsteht, fair verteilt werden, zwischen armen, aber biodiversitätsreichen und den wohlhabenden, aber biodiversitätsarmen Staaten?

Ein Beispiel einer solchen Nutzung sind die tropischen Regenwälder, die als Lieferant von aus Pflanzen gewonnenen Medikamenten oder als Kohlenstoffsenke zur CO2-Reduktion infrage kommen. Überhaupt zählt der tropische Regenwald zu den so genannten Biodiversitäts-Hotspots.

Begünstigt durch optimale Klimabedingungen und langes Bestehen bei gleichzeitig großer struktureller Vielfalt, hat hier die Evolution die größten Artenzahlen hervorgebracht. So findet sich in der Hotspot-Region Peru bei Säugetieren, Vögeln und höheren Pflanzen verglichen mit Deutschland eine fünf- bis siebenfache Artenzahl (Zahlen nach IUCN 2006). Die US-amerikanische Organisation Conservation International hat 34 Biodiversitäts-Hospots auf Kontinenten, Inseln und im Meer definiert, wo besonders viele endemische, also nur dort heimische Arten vorkommen und gleichzeitig eine besondere Bedrohungssituation vorliegt.

Zu diesen Hotspots gehört auch der seit Jahrtausenden dicht besiedelte und bewirtschaftete Mittelmeerraum, wo rund 11.500 endemische Pflanzenarten wachsen. Europa hat sich im Rahmen der Biodiversitätskonvention bis zum Jahr 2030 vorgenommen, jeweils 30 Prozent der Land- und Meeresgebiete unter Naturschutz zu stellen. Biolandwirtschaft und strukturreiche landwirtschaftliche Flächen mit ungenutzten Bereichen sollen Ökosysteme stärken. Der Verlust von Insekten soll gestoppt, Pestizide um 50 Prozent reduziert werden. Fließgewässer in der EU sollen auf mindestens 25.000 Kilometern wieder frei fließen und drei Milliarden Bäume angepflanzt werden. Eine Simulationsstudie zeigt, dass der Verlust an Biodiversität weltweit nur mit erheblichen Anstrengungen abzuschwächen ist. Dabei müssen Naturschutzmaßnahmen mit nachhaltiger Landnutzung und nachhaltigem Konsum kombiniert werden, um den rückläufigen Trend bis zum Jahr 2050 umzukehren (Abbildung 3).

Abbildung 3: Artenschutz. Naturschutzmaßnahmen (orange Kurve) wie die Flächen von Schutzgebieten zu vergrößern, reichen nicht aus, um den negativen Trend der terrestrischen Biodiversität (graue Kurve) zu stoppen. Hinzukommen müssen eine nachhaltige Land-, Forst- und Fischereiwirtschaft, nachhaltiger Handel und eine Ernährungsweise, die z. B. weniger Nahrung verschwendet und einen höheren pflanzlichen Anteil besitzt (grüne Kurve). (Bild: © Adam Islaam, IIASA).

Kehren wir noch einmal zurück zum Bodensee: Schon 1988 hat Peter Berthold einen neuen Weg zur Rettung der Artenvielfalt vorgeschlagen: Die Renaturierung von für die Landwirtschaft wenig ergiebigen Flächen auf den Gemarkungen aller rund 11.000 politischen Gemeinden Deutschlands. Neben den menschlichen Siedlungen könnte so Lebensraum für Tiere und Pflanzen auf rund 15 Prozent der Gemeindeflächen geschaffen werden. Auf diese Weise würde ein deutschlandweiter Biotopverbund entstehen. Die Abstände der einzelnen Lebensräume würden rund zehn Kilometer betragen – eine Distanz, die die meisten Tiere und Pflanzen überbrücken können, um vom einen zum anderen zu gelangen. Dadurch könnten sich stabile Populationen mit hoher genetischer Vielfalt bilden. Ein solcher Biotopverbund für Deutschland würde etwa 3000 Renaturierungsmaßnahmen erforderlich machen.

Jeder Gemeinde ihr Biotop

Im nördlichen Bodenseeraum wurden seit 2004 mit Unterstützung der Heinz Sielmann Stiftung über 131 Biotope an 44 Standorten neu geschaffen oder bestehende aufgewertet. Eine Vielzahl neu angelegter Weiher, Tümpel, Feuchtgebiete sowie aufgewerteter Viehweiden, Streuobstwiesen und Trockenrasen zeigt eine geradezu verblüffende Wiederbelebung der Artenvielfalt. Der Großversuch Biotopverbund Bodensee hat besonders eines ganz klar gemacht: Noch lohnt sich der Einsatz für den Erhalt von Biodiversität – viele der verbliebenen Restbestände wildlebender Pflanzen und Tiere sind noch regenerationsfähig. Aber: „Eile und enormer Einsatz sind dennoch geboten – denn mit jedem Tag verringert unsere derzeitige Raubbau-Gesellschaft die Regenerationsfähigkeit der Artengemeinschaft weiter“, sagt Peter Berthold.

Abbildung 4. Hilfe für den Spatz (Bild: © Robert Groß / animal.press; HN //)

Naturschutz ist darüber hinaus auch eine Investition in das menschliche Wohlbefinden, wie eine Untersuchung von Forschern u.a. des Senckenberg Museums auf Basis von Daten des 2012 European Quality of Life Survey bei mehr als 26.000 Erwachsenen aus 26 europäischen Ländern zeigt. Demnach steigern zehn Prozent mehr Vogelarten im Umfeld die Lebenszufriedenheit der Befragten mindestens genauso stark wie ein vergleichbarer Einkommenszuwachs. Dem Spatz können wir übrigens recht einfach helfen: durch die Anpflanzung heimischer Stauden und Sträucher in den Gärten, eine Ganzjahresfütterung sowie den Erhalt von Nischen und Mauerspalten als Nistplätze (Abbildung 4).


[1] Christina Beck, 23.04.2020: Genom Editierung mit CRISPR-Cas9 - was ist jetzt möglich?


* Der Artikel ist erstmals unter dem Titel: "Vom Wert der biologischen Vielfalt –oder was uns die Spatzen von den Dächern pfeifen" in BIOMAX 14, Neuauflage Frühjahr 2021 erschienen https://www.max-wissen.de/max-hefte/biomax-14-biodiversitaet/ und wurde praktisch unverändert in den Blog übernommen. Der Text steht unter einer CC BY-NC-SA 4.0 Lizenz.

 


Weiterführende Links

Max-Planck-Geselllschaft: Themenseite Biodiversität: https://www.mpg.de/biodiversitaet.html

Artenschutz - Biotopverbund Bodensee: https://www.mpg.de/1163524/

EU-Biodiversitätsstrategie für 2030: https://ec.europa.eu/info/strategy/priorities-2019-2024/european-green-deal/actions-being-taken-eu/eu-biodiversity-strategy-2030_de

Living Planet Report 2020: https://www.wwf.de/living-planet-report

IIASA, 08.11.2018: Der rasche Niedergang der Natur ist nicht naturbedingt - Der Living Planet-Report 2018 (WWF) zeigt alarmierende Folgen menschlichen Raubbaus.

IIASA, 10.09.2020: Verlust an biologischer Vielfalt - den Negativtrend umkehren


 

inge Wed, 24.03.2021 - 23:45

Faszinierende Aussichten: Therapie von COVID-19 und Influenza mittels der CRISPR/Cas13a- Genschere

Faszinierende Aussichten: Therapie von COVID-19 und Influenza mittels der CRISPR/Cas13a- Genschere

Do, 18.03.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin Die CRISPR-Gen-Editing-Technologie bietet enorme Möglichkeiten, um nicht vererbbare Veränderungen der DNA zu generieren, mit denen eine Vielzahl verheerender Erkrankungen - von HIV bis hin zu Muskeldystrophie - behandelt oder sogar geheilt werden kann. Kürzlich wurde nun in Tierexperimenten eine Studie durchgeführt, die auf ein andere Art der CRISPR-Genschere abzielt, nämlich auf eine, die virale RNA anstatt menschlicher DNA zerschneidet. Eine derartige Genschere könnte als ein zu inhalierendes antivirales Therapeutikum wirken, das vorprogrammiert werden kann, um potenziell fast jeden Grippestamm und viele andere Viren der Atemwege, einschließlich SARS-CoV-2, das Coronavirus, das COVID-19 verursacht, aufzuspüren und deren Auswirkungen zu vereiteln. Francis S. Collins, ehem. Leiter des Human Genome Projects und langjähriger Direktor der US-National Institutes of Health (NIH), die zusammen mit dem Unternehmen Moderna den eben zugelassenen COVID-19-Impfstoff mRNA-1723 designt und entwickelt haben, berichtet über neue Ergebnisse, die eine Revolution in der Therapie von Atemwegsinfektionen einläuten könnten.*

Die CRISPR/Cas13a-Genschere…

Andere CRISPR-Geneditierungssysteme basieren auf einer sequenzspezifischen Leit-RNA (Guide-RNA), mit deren Hilfe ein scherenartiges bakterielles Enzym (Cas9) genau an die richtige Stelle im Genom gelenkt werden kann, um dort krankheitsverursachende Mutationen auszuschneiden, zu ersetzen oder zu reparieren. Das neue antivirale CRISPR-System basiert ebenfalls auf einer solchen Leit-RNA. Allerdings wird hier nun ein anderes bakterielles Enzym namens Cas13a an die richtige Stelle im viralen Genom geleitet, um sodann an die virale RNA zu binden, diese zu spalten und damit die Vermehrung von Viren in Lungenzellen zu verhindern.

Die Ergebnisse solcher Versuche wurden kürzlich in der Zeitschrift Nature Biotechnology [1] veröffentlicht und stammen aus dem Labor von Philip Santangelo, Georgia Institute of Technology und der Emory University, Atlanta. Untersuchungen anderer Gruppen hatten schon früher das Potenzial von Cas13 aufgezeigt die RNA von Influenzaviren in einer Laborschale abzubauen [2,3]. In der aktuellen Arbeit haben Santangelo und Kollegen nun Mäuse und Hamster eingesetzt, um zu prüfen, ob dieses Enzym Cas13 tatsächlich im Lungengewebe eines lebenden Tieres wirken kann.

…eingeschleust in die Lunge von Versuchstieren…

Interessant ist, wie das Team von Santangelo dabei vorgegangen ist. Anstatt das Cas13a-Protein selbst in die Lunge zu transferieren, wurde eine Messenger-RNA (mRNA) mit der Bauanleitung zur Herstellung des antiviralen Cas13a-Proteins geliefert. Es handelt sich dabei um die gleiche Idee, die auch bei den auf mRNA basierenden COVID-19-Impfstoffen von Pfizer und Moderna realisiert ist: diese steuern die Muskelzellen vorübergehend in der Weise, dass diese virale Spike-Proteine produzieren, welche dann eine Immunantwort gegen diese Proteine auslösen. In aktuellen Fall übersetzen die Lungenzellen des Wirts die Cas13a-mRNA und produzieren das Cas13-Protein. Mit Hilfe der an dieselben Zellen abgegebenen Guide-mRNA baut Cas13a die virale RNA ab und stoppt die Infektion.

Da die mRNA nicht in den Zellkern gelangt, gibt es keine Interaktion mit der DNA und damit auch keinerlei mögliche Bedenken hinsichtlich unerwünschter genetischer Veränderungen.

Die Forscher haben Guide-RNAs entworfen, die für einen gemeinsamen, hochkonservierten Teil der Influenzaviren spezifisch waren, welche in der Replikation ihres Genoms und der Infektion anderer Zellen eine Rolle spielen. Sie haben auch ein weiteres Set von Guide RNAs für essentielle Teile von SARS-CoV-2 entworfen.

…wirkt sowohl gegen Influenza als auch gegen SARS-CoV-2-Infektion

Sodann haben die Forscher die Cas13a-mRNA mittels eines adaptierten Inhalators direkt in die Lunge von Tieren transferiert (dabei handelte es sich um ebensolche Inhalatoren, wie sie auch zur Abgabe von Medikamenten an die Lunge von Menschen verwendet werden). Waren die Mäuse mit Influenza infiziert, so baute Cas13a die Influenza-RNA in der Lunge ab und die Tiere erholten sich ohne erkennbare Nebenwirkungen. Die gleiche Strategie bei SARS-CoV-2-infizierten Hamstern limitierte die Fähigkeit des Virus, sich in Zellen zu vermehren, während sich die COVID-19-ähnlichen Symptome der Tiere verbesserten.

Abbildung 1. CRISPR/Cas13a, eine antivirale Genschere mit dem Potential diverse RNA-Viren (u.a. Influenza- und Coronaviren) im Lungengewebe zu zerstören.

Diese Ergebnisse zeigen erstmals, dass mRNA verwendet werden kann, um das Cas13a-Protein in lebendem Lungengewebe zu exprimieren und nicht nur in vitro in einer Zellkultur. Es wird auch erstmals demonstriert, dass das bakterielle Cas13a-Protein die Vermehrung von SARS-CoV-2 verlangsamt oder stoppt. Letzteres lässt hoffen, dass dieses CRISPR-System schnell angepasst werden kann, um jegliche Art neuer zukünftiger Coronaviren zu bekämpfen, welche für die Menschen gefährlich werden können. Abbildung 1.

Fazit

Nach Ansicht der Forscher hat die CRISPR/Cas13a Strategie das Potenzial, gegen die überwiegende Mehrheit (99 %) der im letzten Jahrhundert weltweit verbreiteten Grippestämme zu wirken. Gleichermaßen sollte die Strategie auch gegen die neuen und ansteckenden Varianten von SARS-CoV-2, die derzeit weltweit im Umlauf sind, wirksam sein. Zwar sind weitere Studien erforderlich, um die Sicherheit eines solchen antiviralen Ansatzes aufzuklären, bevor er noch am Menschen ausprobiert wird. Es ist jedoch klar, dass - wie in diesem Fall - Fortschritte in der Grundlagenforschung ein enormes Potenzial zur Bekämpfung aktueller und auch zukünftiger lebensbedrohender Viren der Atemwege erbringen können.


References:

[1] Blanchard EL, et al., Treatment of influenza and SARS-CoV-2 infections via mRNA-encoded Cas13a in rodents. Nat Biotechnol. 2021 Feb 3. [Published online ahead of print.]

[2] Freije CA et al., Programmable inhibition and detection of RNA viruses using Cas13Mol Cell. 2019 Dec 5;76(5):826-837.e11.

[3] Abbott TR,  et al., Development of CRISPR as an antiviral strategy to combat SARS-CoV-2 and influenza Cell. 2020 May 14;181(4):865-876.e12.


<p>*Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 16. März 2021) im NIH Director’s Blog unter dem Titel: "CRISPR-Based Anti-Viral Therapy Could One Day Foil the Flu—and COVID-19"  https://directorsblog.nih.gov/2021/03/16/crispr-based-anti-viral-therapy-could-one-day-foil-the-flu-and-covid-19/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig für den Blog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).</p>


Weiterführende Links

NIH: COVID-19 Research

National Institute of Allergy and Infectious Diseases/NIH: Influenza:

Santangelo Lab Georgia Institute of Technology, Atlanta

CRISPR/Cas im ScienceBlog

Redaktion, 08.10.2020: Genom Editierung mittels CRISPR-Cas9 Technologie - Nobelpreis für Chemie 2020 an Emmanuelle Charpentier und Jennifer Doudna

Christina Beck, 23.04.2020: Genom Editierung mit CRISPR-Cas9 - was ist jetzt möglich?

Francis S. Collins, 2.2.2017: Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie


 

inge Wed, 17.03.2021 - 19:11

Comments

Nachwachsende Nanowelt - Cellulose-Kristalle als grünes Zukunftsmaterial

Nachwachsende Nanowelt - Cellulose-Kristalle als grünes Zukunftsmaterial

Do, 11.03.2021 — Roland Wengenmayr

Icon Chemie

 

Roland Wengenmayr Cellulose, eines der häufigsten organischen Polymere auf unserer Erde, liegt in Pflanzenfasern in Form von Nanokristallen vor. Isoliert besitzen diese Nanokristalle faszinierende Eigenschaften, die sie für diverseste Anwendungen in Betracht kommen lassen - von Hydrogelen als Basis für biologisch abbaubare Kosmetika,Verdickungsmittel und Verpackungsmaterial von Lebensmitteln bis hin zu Leichtbauteilen. Der Physiker und Wissenschaftsjournalist Roland Wengenmayr wirft einen Blick in ein Max-Planck-Institut, wo an Cellulose als Ausgangsmaterial für eine nachhaltige Nanotechnologie geforscht wird.*

Die Nanowelt hat ganz eigene, manchmal magisch anmutende Gesetze. Der Name kommt vom altgriechischen Wort nános für Zwerg. Nanoobjekte bemessen sich in Milliardstel Metern, Nanometer genannt. Die kleinsten von ihnen sind grob zehnmal größer als Atome. Die größten messen bis zu hundert Nanometer. Auf der Rangfolge der Größenskalen liegt die Nanowelt also oberhalb der Atome, aber unterhalb der Mikrowelt. Dort ist der Mikrometer, als ein Millionstel Meter, das passende Maß (Abbildung 1).

Abbildung 1. Die Nanowelt reicht ungefähr von einem bis 100 Nanometer. Die gezeigten Beispiele sind nach der Größe ihres Querschnitts einsortiert. © R. Wengenmayr; MPG

Nanopartikel in der Natur

In der Natur gibt es viele Nanopartikel, etwa kleine Viren oder Antikörper im Blut. Zudem setzen wir Menschen immer mehr künstliche Nanopartikel frei, zum Beispiel in Imprägniersprays oder Kosmetika. Silbernanopartikel werden in medizinischen Wundauflagen benutzt, weil sie Keime abtöten.

In der Nanowelt regiert vor allem ein Gesetz, das aus der Geometrie stammt: Je kleiner zum Beispiel eine Kugel ist, desto größer ist ihre Oberfläche im Verhältnis zum Volumen. Deshalb besitzen Nanopartikel eine verhältnismäßig riesige Oberfläche. Diese bietet der Chemie eine große Spielwiese für Reaktionen, die auf verschiedenen Wechselwirkungen basieren. Zum Beispiel können Nanopartikel aus Eisen so heftig mit Luftsauerstoff oxidieren, dass sie von selbst in Flammen aufgehen. Auch als Katalysatoren, die auf ihrer Oberfläche Reaktionen beschleunigen, eignen sich Nanopartikel besonders gut.

Dank ihrer Eigenschaften kann die Nanowelt eine Vielfalt neuer Anwendungen hervorbringen. Nanopartikel können wegen ihrer Reaktionsfreudigkeit aber auch zum gesundheitlichen Risiko werden. Diese Sorge wächst mit der Menge an künstlich freigesetzten Nanopartikeln. Genau hier setzt das Forschungsgebiet von Svitlana Filonenko an. Die Chemikerin leitet eine Gruppe am Max-Planck-Institut für Kolloid- und Grenzflächenforschung in Potsdam, in der Abteilung des Direktors Markus Antonietti. Ihr Forschungsgebiet ist Nano-cellulose, die umweltverträglich und vielfältig einsetzbar ist.

Nachhaltige Cellulose für grüne Chemie

„Cellulose ist eines der häufigsten organischen Polymere auf unserem Planeten“, sagt Filonenko: „Und dieser Rohstoff wächst jedes Jahr nach!“ Schon ist sie bei der „grünen Chemie“ gelandet. Grüne Chemie soll umweltfreundliche Verfahren einsetzen, nachhaltige Rohstoffe verwenden und biologisch abbaubare Produkte hervorbringen. Dafür ist Cellulose ideal.

Cellulose begegnet uns im Alltag in vielfältiger Form, als Holz, Karton, Papier, Filter oder Kleiderstoffe aus Baumwolle und Viskose. Und wir essen sie, als Gemüse, Obst, Salat, aber auch in Form von lebensmittelchemischen Zusatzstoffen, etwa Verdickungsmittel.

Produziert wird Cellulose vor allem von Pflanzenzellen, aber auch von einigen Bakterien und sogar Tieren – die Manteltiere, zu denen die Seescheiden gehören.

Wie viele Naturmaterialien sind Pflanzenfasern komplex aufgebaut, die eigentliche Cellulose aber überraschend einfach. Ihr Grundbaustein ist das Traubenzucker-Molekül, die Glucose. Pflanzen produzieren es in der Photosynthese mit Hilfe von Sonnenlicht aus Wasser und CO2 (Kohlenstoffdioxid). Die Pflanzenzelle verknüpft die Glucose-Moleküle unter Einsatz eines Enzyms zu einer Polymerkette (Abbildung 2).

Abbildung 2- Cellulose ist wie eine Perlenkette aus einzelnen Bausteinen (Glucosemolekülen) aufgebaut, die sich immer wiederholen. Zwei Glucosemoleküle, die gegeneinander verdreht aneinandergeknüpft sind, bilden die kleinste Einheit des Polymers. Die grün gefärbten OH-Gruppen lassen sich chemisch modifizieren. Bild:© E. Jaekel, MPI für Kolloid- und Grenzflächenforschung / CC BY-NC-ND 4.0

Die Zelle produziert viele solcher Polymerketten gleichzeitig“, erklärt Filonenko. Daraus entsteht dann das eigentliche Forschungsobjekt der Chemikerin. Die Polymerketten werden schön ordentlich zu einem Kristall zusammengefügt. Kristalle zeichnen sich durch eine nahezu perfekte, dreidimensionale Anordnung ihrer Grundbausteine aus. Eigentlich sind Kristalle typisch für unbelebte Materie, doch auch lebende Organismen können welche herstellen. Allerdings sind Kristalle hart und oft spröde.

Wie kann daraus eine biegsame, zähe Pflanzenfaser entstehen?

Das verdankt sie einem Zusammenspiel mit weiteren Bestandteilen. Nachdem die Zelle den Cellulose-Kristall bis zu einer bestimmten Länge gebaut hat, fängt sie an, Fehler zu machen. „Diese Abschnitte sind amorph“, erklärt Filonenko. Amorph ist das Gegenteil kristalliner Ordnung. Wie in einer Perlenkette wechseln sich kristalline mit amorphen Abschnitten ab. In Letzteren können sich die Polymere gegeneinander verschieben, was die Fasern biegsam macht. Sie sind für Filonenkos Forschung auch wichtig, weil sich hier die Cellulose-Kristalle chemisch heraustrennen lassen.

Damit ist die Pflanzenfaser noch nicht fertig. Jetzt kommt ein anderes Biopolymer dazu: Lignin macht die Faser wasserfest. Reine Cellulose ist nämlich stark wasseranziehend, also hydrophil. Lignin hingegen ist wasserabweisend, hydrophob, und umhüllt das Cellulosepolymer. Außerdem sorgt das harte Lignin für die nötige Druckfestigkeit der Pflanzenzellwand. Allerdings lassen sich die wasserliebende Cellulose und das fettliebende Lignin nur schwer chemisch „verheiraten“. Dies übernimmt das dritte Element der Pflanzenzellwand, die Hemicellulose. Sie lagert sich um die Cellulosefibrille herum an und ermöglicht das Einbetten der Cellulosefaser in Lignin. Aber immer noch ist die Pflanzenfaser nicht fertig. Die eingebetteten Mikrofasern werden von der Pflanzenzelle nochmals zu einer Makrofaser gebündelt. Und mehrere Makrofasern bilden eine fertige Pflanzenfaser (Abbildung 3).

Abbildung 3. Vom Baum zum Cellulose-Nanokristall. Linkes Bild: Pflanzenfaser (rechts oben), Cellulosefaser und deren Aufbau bis zum Cellulose-Nanokristall. Rechtes Bild Die rot eingekreiste Struktur ist ein ungefähr 200 nm langer Cellulose-Nanokristall. (Links: © R. Wengenmayr / CC BY-NC-SA 4.0; Rechts: C2: © MPI für Kolloid- und Grenzflächenforschung / CC BY-NC-ND 4.0 )

Nanowelt trifft auf Mikrowelt

„Die Cellulose-Kristalle sind ungefähr fünf bis zwanzig Nanometer dick und können bis zu 300 Nanometer lang sein“, erklärt Svitlana Filonenko. Die genauen Maße hängen vom erzeugenden Organismus ab. Damit gehören diese Kristallnadeln im Querschnitt zur Nanowelt, in ihrer Länge dagegen schon zur Mikrowelt.

Die langgestreckte Form der Cellulose-Nanokristalle sorgt für faszinierende Eigenschaften. Mechanisch sind sie enorm stabil, vergleichbar mit Stahl, haben Experimente gezeigt. Auf ihrer Oberfläche konzentriert sich elektrische Ladung. Damit ziehen sie Wassermoleküle stark an, denn diese Moleküle haben bei den Wasserstoffatomen einen positiven, beim Sauerstoff einen negativen elektrischen Pol. Das macht die Cellulose enorm hydrophil.

„Schon ein Anteil von nur zwei Prozent Nanocellulose in Wasser erzeugt ein sogenanntes Hydrogel“, sagt Filonenko (Abbildung 4). Die langen Kristallnadeln bilden ein sehr lockeres Netzwerk, in dessen Lücken sich viel Wasser ansammelt. Dieser extreme Wasseranteil ist zum Beispiel interessant für biologisch abbaubare Kosmetika, an denen die Chemikerin forscht. „Mehr Feuchtigkeit in einer Creme geht nicht“, sagt sie lachend. Kosmetika benötigen allerdings auch einen Fettanteil. Wasser und Öl sind aber nicht mischbar. Für den Mix müssen normalerweise Emulgatoren sorgen. Das sind Moleküle, die einen wasser- und einen fettliebenden, also lipophilen, Teil haben. Damit können sie Wasser und Öl zu einer Emulsion verbinden.

Abbildung 4. Dieses Hydrogel besteht aus 98 Prozent Wasser und zwei Prozent Cellulose-Nanokristallen. © Dr. Nieves Lopez Salas

Sogenannte Pickering-Emulsionen kommen ohne klassische Emulgatoren aus. Hier sorgen allein feine, feste Partikel für die Verbindung zwischen Wasser und Öl. Mit Cellulose-Nanokristallen funktioniert das sehr gut. Zum Glück befinden sich auf den langen Nanokristallen auch Abschnitte ohne elektrische Ladung, erklärt Filonenko. Hier können die Moleküle von Fetten und Ölen andocken. Die Potsdamer Chemiker versuchen zusätzlich, die Cellulose-Nanokristalle an der Oberfläche chemisch zu optimieren. Das soll für eine stabilere Verbindung zwischen Öl und Wasser sorgen. Mit solchen Pickering-Emulsionen ließen sich umweltfreundliche, biologisch abbaubare Kosmetika herstellen. Das ist ein wichtiges Thema, da heute täglich Kosmetika-Rückstände von Milliarden von Menschen in die Umwelt gelangen.

Biologisch abbaubare Lebensmittelverpackungen

Ein anderes Forschungsgebiet der Potsdamer sind Verdickungsmittel für Lebensmittel. Die Nanocellulose verspricht, besser verträglich als manche heute eingesetzten Lebensmittelzusatzstoffe zu sein.

Doch auch die Papierverpackungen von Lebensmitteln hat Filonenko im Blick: „Ich denke an die jüngsten Skandale um Spuren von Mineralöl in Lebensmitteln.“ Das Problem erwächst hier sogar aus der Nachhaltigkeit, denn die Verpackungen werden aus Altpapier gemacht. Das kommt aus vielen Quellen und kann verschmutzt sein. Um die Lebensmittel zu schützen, werden die Verpackungen daher innen mit einer Kunststoffschicht abgedichtet. Die ist aber nicht biologisch abbaubar. Filonenkos Team will bei dieser Beschichtung den Kunststoff durch Cellulose-Nanokristalle ersetzen. Nach dem Aufbringen einer Flüssigkeit legen sich beim Trocknen die langen Kristallnadeln dicht geordnet aneinander. Die Lücken zwischen ihnen sind zu klein, um noch unerwünschte Stoffe durchzulassen. Diese Schichten sind zudem ein Augenschmaus. „Sie schillern in allen Regenbogenfarben“, sagt die Chemikerin begeistert. Der Grund: Die Kristallnadeln sortieren sich zu in sich verschraubten Helixstrukturen, und diese Mikrostrukturen brechen das Licht in unterschiedlichen Farben, je nachdem, aus welchem Winkel man sie anschaut. Es ist derselbe physikalische Effekt, der Schmetterlingsflügel schillern lässt.

Filonenko ist von Cellulose-Nanokristalle auch begeistert, weil jeder Glucose-Baustein drei funktionelle Gruppen besitzt (grün in Abbildung 2): „An diese drei Zentren kann man verschiedene Moleküle binden, um die Cellulose-Nanokristalle zu modifizieren.“

Trotz dieser chemischen Flexibilität ist die Gewinnung der Nanokristalle bislang eine harte Nuss. Die Cellulosefasern, in denen sie stecken, sind weder in Wasser noch in organischen Lösungsmitteln löslich. Ohne Lösung sind aber chemische Reaktionen schwierig. Daher zerlegt das heute etablierte Verfahren die Fasern in Schwefelsäure, um die Nanokristalle herauszutrennen. Hydrolyse heißt die Prozedur. Schwefelsäure ist aber stark ätzend und gefährlich handzuhaben. Grüne Chemie will sie daher vermeiden, und Filonenkos Team forscht an einer schonenderen Methode für die Zukunft.

Eutektische Flüssigkeiten

Das Zauberwort heißt „stark eutektische Lösungsmittel“. Damit lassen sich die Nanokristalle vergleichsweise sanft aus den Cellulosefasern herauslösen. Zuerst muss Filonenko erklären, was ein Eutektikum ist: „Wenn man zwei oder mehr feste Komponenten mit bestimmten Eigenschaften mixt, sinkt die gemeinsame Schmelztemperatur auf einen Tiefpunkt, das Eutektikum.“

Sie verdeutlicht das Prinzip an einem Beispiel, mit dem sie kürzlich eine kanadische Chemieprofessorin verblüfft hat: Ahornsirup ist ein natürliches eutektisches Gemisch. Die zwei Hauptbestandteile des Sirups sind Apfelsäure und Zucker, genauer Saccharose und Fructose. Bei Zimmertemperatur sind alles feste Substanzen. Man mischt sie als Pulver und träufelt ein wenig Wasser darauf, um die Komponenten in Kontakt zu bringen. „Jetzt geschieht etwas Faszinierendes“, erklärt die Chemikerin: „Das Pulver wird immer feuchter, bis es sich in eine klare Flüssigkeit verwandelt.“ Das Wasser wirkt hier nicht als Lösungsmittel, denn davon gibt es viel zu wenig, um die Pulver aufzulösen. Stattdessen ist die Flüssigkeit eine Schmelze bei Zimmertemperatur.

Eine solche eutektische Flüssigkeit kann ein sehr gutes Lösungsmittel für bestimmte Stoffe sein. Dazu gehört die Cellulose, für die Filonenkos Team ein eutektisches Lösungsmittel entwickelt hat. Die Chemie ist allerdings komplizierter als beim Ahornsirup. Das Team kann auch noch keine Details verraten, weil die Arbeit erst in einem wissenschaftlichen Fachblatt publiziert werden muss. Esther Jaekel, eine Doktorandin in Filonenkos Gruppe, führt aber im Labor vor, was damit passiert. Als Rohmaterial testet sie gerade verschiedene cellulosehaltige Abfälle, darunter Faserreste aus der Papierproduktion, sogar Holzspäne. Je bräunlicher das Material ist, desto mehr Lignin und Hemicellulose enthält es. Zum Herauslösen der Nanokristalle wird es mit einer klaren, wässrigen Flüssigkeit gemischt. Das ist das bereits fertige eutektische Lösungsmittel aus zwei Komponenten. Es zersetzt die amorphen Verbindungen zwischen Cellulose-Kristallen, nur die Nanokristalle bleiben übrig.

In einigen Experimenten soll das eutektische Lösungsmittel die Cellulose-Nanokristalle modifizieren. Das passiert in einem kleinen Reaktor, der wie ein robuster Schnellkochtopf funktioniert. Darin wird die Mischung zum Beispiel bei 140 Grad Celsius und dem fünfzigfachen Atmosphärendruck für eine Stunde „gegart“. In dieser Zeit läuft die erwünschte Veränderung ab. Hinterher bekommen die Chemikerinnen eine bräunliche Flüssigkeit, wobei die braune Farbe durch Röststoffe wie beim Braten entsteht. Diese werden anschließend herausgewaschen. Das Ergebnis ist eine milchige Flüssigkeit, die ausschließlich fein verteilte Cellulose-Nanokristalle enthält. „Das ist ein stabiles Kolloid“, erklärt Jaekel, und damit kommt noch ein wichtiges Fachwort ins Spiel. Das Wort Kolloid leitet sich aus dem Altgriechischem ab und bedeutet so viel wie „leimartiges Aussehen“. Die Kolloidchemie, der sich Markus Antoniettis Abteilung im Institut widmet, basiert auf Nanopartikeln in Flüssigkeiten. Solche extrem feine Partikel setzen sich nicht mehr unten im Gefäß ab, wenn die Flüssigkeit länger steht. Die Wärmebewegung der Moleküle kickt die kleinen Partikel immer zurück in die Flüssigkeit.

Abbildung 5. Ein dünner Film aus Cellulose-Nanokristallen irisiert im Licht. © Dr. Nieves Lopez Salas

Aus dem Nanocellulose-Kolloid lässt sich zum Beispiel eine Pickering-Emulsion machen. Jaekel zeigt ein Fläschchen mit einer milchig-weißen Flüssigkeit: „Das ist eine Emulsion von Öl in Wasser, also im Prinzip Salatsauce.

Die Chemikerinnen gefriertrocknen auch die gewonnene Flüssigkeit mit den Nanokristallen. Das ergibt ein weißes, fluffiges Pulver. „Damit könnte man zum Beispiel Leichtbauteile herstellen“, sagt Jaekel. Dann zeigt sie getrocknete Filme aus reiner Nanocellulose. Besonders bei kleinen Kristallen sieht der Film ganz klar aus. Im Licht schillert er in allen Regenbogenfarben (Abbildung 5). Schließlich führt die Chemikerin ein Stück Altpapier vor, wie es für Lebensmittelverpackungen verwendet wird. Es ist mit den Cellulose-Nanokristallen beschichtet. Seit Wochen steht nun schon eine kleine Ölpfütze darauf, ohne durchzusickern. Das zeigt: Diese biologisch abbaubare Beschichtung könnte Lebensmittel vor Mineralölspuren schützen.

„Holz hat unsere Kultur geprägt“, sagt Svitlana Filonenko. Seit Jahrtausenden ist es Brenn- und Baustoff. Bedrucktes Papier begründete unsere Informationskultur. Im 19. Jahrhundert kam mit Zelluloid der erste Kunststoff auf, und mit ihm der Film als neues Medium. Nun könnte aus Cellulose eine nachhaltige Nanotechnologie entstehen. Abbildung 6. Das ist das Ziel der Potsdamer Forscherinnen.

Abbildung 6.Cellulose-Nanokristalle - Ausgangsstoff für nachhaltige Nanotechnologie. © AdobeStock /HN; catalby/istock

 


 


* Der Artikel ist erstmals unter dem Title: "Nachwachsende Nanowelt – Cellulose-Kristalle werden zum grünen Zukunftsmaterial" in TECHMAX 28 (Winter 2020) der Max-Planck-Gesellschaft erschienen https://www.max-wissen.de/344532/nanomaterialien und steht unter einer CC BY-NC-SA 4.0 Lizenz. Der Artikel wurde praktisch unverändert in den Blog übernommen.


Links

Nanostrukturen im ScienceBlog


 

inge Wed, 10.03.2021 - 21:17

Trojaner in der Tiefgarage - wenn das E-Auto brennt

Trojaner in der Tiefgarage - wenn das E-Auto brennt

Fr 05.03.2021.... Inge Schuster Inge Schuster Icon Politik und Gesellschaft

Die Vision für die Zukunft sieht Elektro-Autos auf den Straßen dominieren, deren Strom aus erneuerbaren Quellen kommt. Solche Fahrzeugen bieten viele Vorteile, lösen aber auch ein gewisses Maß an Skepsis aus. Zwar selten, aber dennoch nicht weniger beängstigend kann das Kernstück des Autos, die Lithium-Ionen-Batterie spontan - etwa beim Parken, beim Aufladen - in Brand geraten, der trotz enormer Mengen an Löschwasser nur sehr schwer zu löschen ist und tagelang andauern kann. Insbesondere in Tiefgaragen, die nur durch einen Lift erschlossen werden, können solche Brände verheerende Folgen haben. Die Bekämpfung solcher Brände steckt noch in den Kinderschuhen. Solange hier geeignete Sicherheitsmaßnahmen ausstehen, sollte man die trojanischen Pferde(stärken) von solchen Tiefgaragen fernhalten.

Der bereits für alle uns spürbar gewordene Klimawandel verlangt eine rasche, effiziente und nachhaltige Reduzierung von Treibhausgasen, insbesondere von CO2, die durch den Ausstieg aus fossilen Brennstoffen und deren Ersatz durch erneuerbare Energieträger erfolgen soll. Ein derartiger elementarer Umbau des Energiesystem betrifft besonders den in vielen Ländern noch wachsenden Transportsektor, der derzeit zumindest in den OECD-Ländern mit 36 % der Endenergie der größte Energieverbraucher ist [1]. Abbildung 1.

Abbildung 1. Die CO2-Emissionen in der EU sind in den Sektoren Wohnen, Industrie und Landwirtschaft deutlich gesunken, nicht aber im Transportsektor. (Bild: Eric van der Heuvel (February 2020) :CO2 reductions in the transport sector in the EU-28 [2])

Aktuell sind weltweit auf den Straßen rund 1,42 Milliarden Fahrzeuge unterwegs (davon etwa 1,06 Milliarden PKWs), die noch zu 99 % von Verbrennungsmotoren angetrieben werden und damit zu den Hauptemittenten von CO2 gehören.

Es ist eine Vision für die Zukunft, dass elektrisch angetriebene Fahrzeuge dominieren, deren Strom natürlich aus erneuerbaren Quellen stammen soll.

E-Autos auf dem Vormarsch…

Um die Abhängigkeit des Verkehrs von fossilen Brennstoffen zu reduzieren und Klimaneutralität bis 2050 erreichen zu können, sind äußerst ambitionierte Maßnahmen nötig. Was Europa betrifft, so lag im Jahr 2019 der PKW-Bestand bei rund 330 Millionen Fahrzeugen [3], wovon 1,8 Millionen (0,5 %) E-Autos waren; 2020 stieg deren Anteil auf 1 % (s.u.). Nach einem neuen Strategiepapier will die EU nun bis 2030 mindestens 30 Millionen emissionsfreie PKWs auf Europas Straßen bringen und hofft damit ein Viertel der gesamten aus dem Verkehrssektor stammenden EU-Treibhausgasemissionen zu reduzieren; für den dazu nötigen Ausbau von Ladestationen , Wasserstofftankstellen, etc. sind entsprechende Finanzierungsmöglichkeiten vorgesehen [4]. Diverse Anreize für den Kauf von E-Autos gibt es bereits in praktisch allen EU-Staaten und im Zuge der während der Corona-Pandemie geschnürten Konjunkturpakete wurde diese erhöht. So können Käufer in Deutschland von Staat und Autoherstellern eine Umweltprämie von 9000 € für bis zu 40 000 € teure E-Autos erhalten. In Österreich gibt es eine Förderung von bis zu 5 000 € für Autos unter 60 000 € und zusätzliche Unterstützung für eine private Ladeinfrastruktur.

Es spricht auch sonst vieles für E-Autos. Abgesehen von der Unabhängigkeit von Erdölproduzenten, sind E-Autos im Betrieb umweltfreundlicher, da sie keine Emissionen von Abgasen verursachen und geräuscharm sind (ein Wohnen an vielbefahrenen Straßen gewinnt somit wieder an Wert). Die Unterhaltskosten - Stromkosten - sind prinzipiell günstiger als bei Verbrennern und ebenso die Wartungskosten, da viele der dort essentiellen Verschleißteile fehlen. Werden zumeist kürzere Strecken gefahren, erscheint überdies das bequeme (allerdings bei 11 kW Leistung lang dauernde) Home-Charging in der eigenen Garage oder an Ladesäulen von größeren Wohnbauten attraktiv (birgt aber Risiken, s.u.).

Die Anreize für den Kauf von Elektroautos und deren Vorteile zeigen Wirkung. Im Jahr 2020 waren weltweit von insgesamt 64 Millionen Neuzulassungen rund 3,24 Millionen Elektro-Autos - also circa 5 % [5]. Unter Elektro-Autos werden dabei - wie auch im gegenwärtigen Artikel - zumeist reine Batterie-E-Autos (die nur von einem Elektromotor angetrieben werden, wobei der Strom aus einer Traktionsbatterie kommt) und Plug-in-Hybride (PHEV, d.i. Fahrzeuge, die neben einem Elektromotor noch einen Verbrennungsmotor besitzen) zusammengefasst. Insbesondere Europa verzeichnete 2020 einen enormen Zuwachs (+ 137 %) und rangiert mit 1,4 Millionen neuen E-Fahrzeugen weltweit nun bereits knapp vor China, der vormaligen Nummer 1 der Weltrangliste. Mit einem Rekordwert von 328 000 E-Autos - 15,6 % der dort insgesamt zugelassenen PKW, - lag Deutschland bereits an dritter Stelle [5]. In Österreich war 2020 der Anteil der E-Autos - etwa 20 % aller Neuzulassungen - noch höher (laut Statistik Austria waren es rund 16 000 reine Batterie-Autos, 25 400 Benzin/Elektro- und 8 300 Diesel/Elektro-Hybride). Bei einem Bestand von insgesamt 5,09 Millionen PKW fallen damit 44 507 (0,9 %) auf Elektro-PKWs und 83 361 (1,7 %) auf Hybride.[6]

…derzeit aber noch ein Bruchteil des gesamten PKW-Bestands

Innerhalb der letzten 10 Jahre ist der weltweite Bestand an E-Autos zwar rasant - von rund 55 000 auf über 11 Millionen - gestiegen, macht aktuell aber doch erst rund 1 % der insgesamt 1,09 Milliarden PKWs aus. In Anbetracht des Plans der EU bis 2030 in Europa allein auf 30 Millionen E-PKWs zu kommen, sind dies ernüchternde Zahlen.

Viele Menschen zögern aber noch ein E-Auto zu kaufen.

Zu den Negativpunkten zählt zweifellos, dass - vor allem bei Modellen mit höherer Reichweite - die Kaufpreise noch wesentlich höher liegen als bei Verbrennern und es derzeit auch noch nicht ausreichend Ladestationen/Schnelladestationen gibt. Ein Problem sind auch die langen Ladezeiten. Viele Modelle können sehr hohe Ladeleistungen ja nicht verkraften, da der Akku (die Batterie) sonst überhitzen und Schaden nehmen könnte. (Allerdings dauert ein Aufladen bei 118 kW Ladeleistung, das u.a. verschiedene TESLA-Modelle erlauben, noch immerhin 35 min. (bei 80 %); bei 11 kW bis zu 7,5 h).

Schäden an der Batterie, die nicht durch Verkehrsunfälle, sondern in der Batterie selbst mehr oder weniger spontan - etwa beim Parken, beim Aufladen - entstehen und zur Entzündung/Explosion führen können, lösen ein gewisses Maß an Skepsis aus. Die Brandgefahr hat in letzter Zeit zu ausgedehnten Rückrufaktionen von großen und kleinen E-Autotypen mehrerer Hersteller (u.a. Ford, BMW, Opel, Hjundai, Nio, VW, Seat, Skoda Hjundai) geführt.

Von der Funktion der Lithium-Ionen-Batterie…

Vorweg eine grobe Beschreibung von Aufbau und Funktion der Lithium-Ionen-Batterie, eines wiederaufladbaren Energiespeichers (Akkumulators), der in der Elektromobilität Anwendung findet aber auch aus unserem Alltag - vom Handy, Notebook, Digitalkamera bis hin zum Staubsauger, Rasenmäher und  Heimspeicher für den aus Photovoltaik erzeugten Strom - nicht mehr wegzudenken ist. Die Erfolgsstory der Lithium-Ionen-Batterie begründet sich auf den Eigenschaften von Lithium, dem kleinsten und leichtesten Metall-Element, mit dem niedrigsten Atomgewicht und der höchsten elektrochemischen Aktivität. Dies machte es möglich immer mehr Energie, auf immer kleinerem Raum und leichterem Gewicht zu speichern.

Die Grundeinheit einer Batterie für E-Autos, die Lithium-Ionen-Batteriezelle besteht aus zwei ortsfesten Elektroden, der negativen Anode und der positiven Kathode, in einer nicht-wässrigen Ionen-leitenden Flüssigkeit (Elektrolyt), die Lithiumsalze enthält (ausführlich beschrieben in [7]). Eine Membran (Separator), die für die Ladungsträger - die positiv geladenen Lithiumionen (Li+) - durchlässig ist, trennt die Elektrodenräume und verhindert den direkten Kontakt zwischen den Elektroden und damit einen Kurzschluss. Abbildung 2.

Abbildung 2. Die Lithium-Ionen-Batterie. Links: die auf einer Kupferfolie mit Grafit (hellblau) beschichtete Anode, rechts: die Kathode mit Metalloxiden (grau) auf einer Aluminiumfolie. Lithium (gelb) ist als positiv geladene Ion (Li+) im Elektrolyt frei beweglich (Bild: modifiziert nach M. Ghiji et al., Energies 2020, 13, 5117; doi:10.3390/en13195117 . Lizenz: cc-by. [7])

Bei den Elektroden finden Dutzende unterschiedliche Aktivmaterialien Anwendung, welche Lithium in Form sogenannter Interkalationsverbindungen "einlagern". Bei der Kathode sind dies meistens Lithium-Metalloxide (mit variablen Anteilen von Kobalt-, Nickel-, Manganoxiden, Aluminium sogenannte NMC- oder NCA- Materialien), die auf einen Stromableiter (üblicherweise eine Aluminiumfolie) aufgebracht sind. Bei der Anode ist der zumeist aus einer Kupferfolie bestehende Stromableiter in der Regel mit Kohlenstoff (Grafit) beschichtet. Die Zusammensetzung der Elektroden bestimmt die Eigenschaften der Batterie wie Energiedichte, thermische Stabilität, Nennspannung (üblicherweise bei 3,7 Volt), speicherbare Energie und Lebensdauer, wobei deren jeweilige Optimierung auf Kosten einer der anderen Eigenschaften geht.

Der Elektrolyt besteht typischerweise aus wasserfreien, organischen Lösungsmitteln (Kohlensäure-dimethylester, -diethylester, Äthylencarbonat, etc.), die Lithiumsalze enthalten.

Beim Ladevorgang wird von außen eine Spannung angelegt und so ein Überschuss an Elektronen an der Anode erzeugt. Lithium löst sich von der Kathode, wo es in Metalloxiden interkaliert vorlag, wandert als Lithiumion (Li+) zur negativ geladenen Anode und lagert dort in die Grafitschicht ein. Beim Entladen werden Elektronen aus der Grafitschicht der Anode freigesetzt, die über den äußeren Stromkreis zur Kathode fließen, ebenso wie die Lithiumionen, die nun durch den Elektrolyten zurück zur Kathode wandern und in das Metalloxid einlagern. Die Elektroden bleiben dabei elektrisch neutral. Abbildung 2.

Die Antriebsbatterie (Traktionsbatterie) in einem E-Auto muss über einen großen Energieinhalt verfügen und setzt sich nun deshalb aus bis zu Tausenden solcher Zellen zusammen, die in Modulen und aus Modulen bestehenden Batteriepacks parallel (zur Erhöhung der Kapazität) und seriell (zur Erhöhung der Spannung) zusammengeschaltet sind. Beispielsweise enthält die 85 kW- Batterie des Tesla S-Modells 7617 Zellen in paraller/serieller Konfiguration (https://batteryuniversity.com/).

Um die Zellen im sicheren Betriebsbereich zu halten, wird ein Batteriemanagementsystem (BMS) eingesetzt, das den Ladezustand der einzelnen Zellen und des ganzen Systems kontrolliert und steuert und auch die Temperatur beim Laden und Entladen. Abbildung 3.

Abbildung 3. Schematischer Aufbau der Antriebsbatterie aus Tausenden einzelner, wie in Abb. 2 dargestellter Zellen. BMS: Batteriemanagementsystem. (Bild: modifiziert nach M. Ghiji et al., Energies 2020, 13, 5117; doi:10.3390/en13195117 . Lizenz: cc-by. [7])

…zur Brandgefahr,…

Ebenso wie der Verbrennungsmotor liefert die Lithium-Ionen-Batterie die Energie für den Antrieb des Autos und gleichzeitig auch den Brennstoff für mögliche Brände. Die Batteriezelle enthält ja brennbare Substanzen - den Elektrolyten, die Grafitbeschichtung der Anode und die Membran des Separators -, dazu ist der Abstand zwischen den Elektroden gering und auf kleinem Raum wird sehr viel chemische Energie generiert. Kommt es zum Kurzschluss in einer Zelle, so kann dies zur Explosion und einem Brand führen, der unter Umständen nicht mehr kontrolliert werden kann, einem sogenannten "Thermal Runaway" (thermischen Durchgehen) .

Kurzschlüsse können durch äußere mechanische Einflüsse ausgelöst werden, beispielsweise durch Unfälle, welche die Batterie so schwer beschädigen, dass in den Zellen die Elektroden in Kontakt kommen und Kurzschlüsse verursachen. Die Beschädigung kann aber auch auf Grund eines Produktionsfehlers entstanden sein. Man sollte natürlich auch das Risiko eines Sabotageaktes nicht unerwähnt lassen.

Die Batterie kann sich aber auch von innen heraus selbst entzünden [7, 8].

  • Dies kann durch unsachgemäßes Überladen/Entladen geschehen, da die Zellen nur für eine bestimmte Aufnahme/Abgabe von Energie pro Zeiteinheit konzipiert sind. Beim Aufladen wird ja Lithium an der Anode abgelagert (s.o.); bei wiederholtem Aufladen können sich an einzelnen Punkten die Ablagerungen verstärken und astartige Auswüchse, sogenannte Dendriten bilden. Gelangen diese Dendriten an die Gegenelektrode, so kommt es zum Kurzschluss und die Zelle kann in Flammen aufgehen.
  • Fällt die Temperaturregulierung aus, und wird die Zelle überhitzt, so können interne Komponenten der Zelle sich zersetzen und dabei weitere Wärme erzeugen (dies ist der Fall bei der Grafit-Elektrolyt-Interphase (SEI), welche die Anode vor dem direkten Kontakt mit dem Elektrolyten schützt).

Im Prinzip sollten derartige Brände durch ein funktionierendes Batterie-Managementsystem im Keim verhindert werden können.

…dem Thermal Runaway…

Bei Temperaturen, die über dem normalen Arbeitsbereich liegen (in der Regel zwischen - 25oC und + 75oC) , treten praktisch gleichzeitig (d.i. im Bereich von Millisekunden) komplexe (elektro)chemische Reaktionen auf, die jeweils zusätzliche Wärme generieren und die Temperatur in der Zelle noch schneller aufheizen: Es sind dies Prozesse, die zwischen Anode und Elektrolyt ablaufen, es ist das Schmelzen des Separators bei 69oC, es kommt zu internen Kurzschlüssen, eine Zersetzung des Elektrolyten und Bildung von Flusssäure und reaktiven chemischen Produkten tritt ein und schließlich die Zersetzung der Kathode unter Freisetzung von Sauerstoff. Das Ganze ist eine Kettenreaktion - ein sogenannter Thermal Runaway -, als Folge kann die Zelle schließlich explosionsartig platzen und brennen. [7, 8]. Abbildung 4.

Abbildung 4. Wie eine beschädigte, überhitzte Lithium-Ionen Zelle sich selbst entzündet. Schematische Darstellung eines Thermal Runaway Prozesses in einer Lithium-Kobaltoxid/Grafit-Zelle. (Bild: modifiziert nach M. Ghiji et al., Energies 2020, 13, 5117; doi:10.3390/en13195117 . Lizenz: cc-by [7])

Hier beginnt nun das eigentliche Problem der Lithium-Ionen- Batterie. Da sie aus vielen Modulen und Batteriepacks besteht, bleibt der Thermal Runaway nicht auf eine Zelle beschränkt. Die Nachbarzellen werden nun auch überhitzt/beschädigt, die Kettenreaktion breitet sich von Zelle zu Zelle aus bis schlussendlich die ganze Hunderte-Kilo schwere Batterie plus die Brandlast des Autos Feuer gefangen haben.

…und dem enormen Problem einen derartigen Brand zu löschen

Im Gegensatz zu Bränden von Verbrenner-Autos sind solche Batteriebrände nur sehr schwer zu löschen. Einerseits, weil die Batterie geschützt am Boden des Fahrzeugs und damit für die Brandbekämpfer schwer zugänglich angebracht ist. Andererseits, weil der Brand sich ja von Zelle zu Zelle fortfrisst und auch, wenn es offensichtlich gelungen ist das Feuer zu löschen, sich weitere Zellen entzünden und das Feuer wiederholt aufflackern lassen können. Für die Feuerwehr stellen solche Brände ein noch ungelöstes Problem dar. Abbildung 5.

Abbildung 5. Brand des E-Autos: kühlen, kühlen, kühlen - soferne überhaupt ausreichend Löschwasser verfügbar ist. (Symbolbild, Pixabay, gemeinfrei)

Es gibt nur die Möglichkeit das Feuer kontrolliert ausbrennen zu lassen und/oder die Batterie über Stunden/Tage effizient zu kühlen [9]. Bei großen Autos, wie dem Tesla S-Modell sind dazu 11 000 l Kühlwasser erforderlich, eine 6 - 8 mal größere Menge als Feuerwehrautos mit sich führen. Eine neue Möglichkeit besteht auch darin das brennende Auto in einem großen, mit Kühlwasser gefüllten Löschcontainer zu versenken.

…in Tiefgaragen ein noch völlig ungelöstes Problem

Solange ein Brand im Freien erfolgt oder es möglich ist das teilgelöschte Wrack ins Freie zu schleppen, kann es dort abbrennen. Allerdings kann es zur Selbstentzündung auch beim Parken in Garagen kommen, wo ein zusätzliches Risiko noch durch die Möglichkeit des Aufladens an Ladesäulen besteht. Dass dies nicht nur rein theoretisch eine Gefahr darstellt, zeigt eine- zweifellos unvollständige -Auflistung von rezenten, offensichtlich durch Selbstentzündung entstandenen Bränden beim Parken oder Aufladen; einige davon in Tiefgaragen.Tabelle 1.

Tabelle 1. Selbstentzündung von Lithium-Ionen-Batterien beim Parken oder Ladevorgang. Zusammenstellung von Beispielen aus [ 9] und [10]. ? bedeutet: nicht näher bezeichnete chinesische Hersteller

E-Autos der Type Kona EV waren in der letzten Zeit besonders oft von solchen Bränden betroffen - ein unglaublicher Imageverlust für den südkoreanischen Autohersteller Hyundai (Nummer 5 der globalen PKW-Herstellerliste). Hyundai hat daraufhin weltweit einen Rückruf von 82 000 Autos gestartet, um die Batterien auszutauschen.

Brände in Tiefgaragen bedeuten ein neues, völlig ungelöstes Problem. Überall - im verdichteten städtischen Wohnbereich ebenso wie in den im Zubetonierungsstatus befindlichen Stadträndern - entstehen Tiefgaragen. In vielen Fällen gibt es keine breitere Einfahrt; das Auto kann nur über einen Lift zu den dicht nebeneinander angeordneten, unterirdischen Stellplätzen gelangen. Dem "Luxus" mancher Bauten entsprechend gibt es Ladesäulen, an denen E-Autos "Feuer fangen" können. Aus solchen Garagen gibt es zwar einen schmalen Fluchtweg, aber keine Möglichkeit ein brennendes/partiell gelöschtes Wrack herauszuschleppen, um es im Freien/im Löschcontainer abbrennen zu lassen. Um die Brandausbreitung auf benachbarte Fahrzeuge zu unterbinden, muss also am Ort gekühlt werden, wobei für die lange Dauer der Brandbekämpfung enorm viel Wasser herangeschafft werden muss. Eine lange Branddauer und die damit verbundene Hitzeentwicklung kann sich natürlich auch auf den Beton und damit auf die Statik desr Tragwerks auswirken.

Dazu kommt, dass bei der Explosion/dem Brand Dämpfe und Rauch entstehen, die reaktive, z.T. hochgiftige Stoffe - Flusssäure (HF), freie Radikale, Schwermetallstäube (Kobaltoxid, Nickeloxid, Manganoxid) - enthalten (siehe Abbildung 4), welche Arbeit und Gesundheit der Feuerwehr enorm gefährden können. Diese Stoffe lagern sich an Wänden und Boden der Garage ab, welche nach dem Brand dekontaminiert/abgetragen werden müssen, finden sich aber auch sehr hohen Konzentrationen im Kühl- und Löschwasser. Es ist völlig ungeklärt wohin die enormen Mengen an kontaminiertem Wasser abfließen sollen.

Im Bewusstsein mit E-Autos in einer Tiefgarage ein nicht vertretbares Risiko einzugehen, hat vor wenigen Tagen die fränkische Stadt Kulmbach beschlossen E-Autos in Tiefgaragen zu verbieten: "Wir müssen mit dem arbeiten, was wir haben und die örtlichen Gegebenheiten ermöglichen es uns in keiner Weise, den Brand eines Lithium-Akkus in der Tiefgarage zu löschen oder zu kühlen." [11]

Fazit

Brennende E-Autos sind spektakulär, bei der derzeit geringen Dichte dieser Fahrzeuge und ihrem niedrigen Alter aber noch selten. Auch, wenn laufend Verbesserungen der Lithium-Ionen-Batterie und ihres Betriebsmanagements erfolgen, so wird mit der geplanten starken Zunahme der Elektroautos (deren zunehmender Brandlast und auch einsetzenden Alterung) sich auch das Risiko von Batteriebränden - Thermal Runaways - erhöhen, die ungleich schwerer zu löschen sind als es bei den Verbrennern der Fall ist. Die Brandbekämpfung von Batteriebränden steckt noch in den Kinderschuhen. Insbesondere in Tiefgaragen, die nur durch einen Lift erschlossen werden, können solche Brände verheerende Folgen haben. Solange hier geeignete Sicherheitsmaßnahmen ausstehen, sollte man dem Beispiel der Kulmbacher folgen und die trojanischen Pferde(stärken) von solchen Tiefgaragen fernhalten. 


 [1] Georg Brasseur, 24.9.2020: Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität.

[2] Eric van der Heuvel: CO2 reductions in the transport sector in the EU-28 (February 2020) [2]); https://ec.europa.eu/energy/sites/ener/files/documents/38._eric_van_der_heuvel.pdf. (Abgerufen am 3.3.2021)

[3] Statista: PKW Bestand in ausgewählten Europäoischen Länndern, https://de.statista.com/statistik/daten/studie/163405/umfrage/pkw-bestand-in-ausgewaehlten-europaeischen-laendern/ (Abgerufen am 3.3.2021)

[4 ]Elektro Auto News:   https://www.elektroauto-news.net/2020/eu-plant-mit-30-millionen-elektrofahrzeugen-bis-2030 (Abgerufen am 2.3.2021)

[5] EV Volumns.com: Global Plug-in Vehicle Sales Reached over 3,2 Million in 2020, https://www.ev-volumes.com/ (Abgerufen am 4.3.2021)

[6] Statistik Austria (2021): http://www.statistik.at/web_de/statistiken/energie_umwelt_innovation_mobilitaet/verkehr/strasse/kraftfahrzeuge_-_neuzulassungen/index.html (abgerufen am 2.3.2021)

[7] Mohammadmahdi Ghiji et al., A Review of Lithium-Ion Battery Fire Suppression. Energies 2020, 13, 5117. doi:10.3390/en13195117.

[8] P. Sun, R. Bisschop, H. Niu, X. Huang* (2020) A Review of Battery Fires in Electric Vehicles, Fire Technology, 56, Invited Review. https://doi.org/10.1007/s10694-019-00944-3

 

[9] Peter Ilg (29.November 2018) : Ein brennendes Elektroauto lässt sich nicht löschen. https://www.zeit.de/mobilitaet/2018-11/elektromobilitaet-elektroautos-motoren-feuerwehr-sicherheit (abgerufen am 4.3.2021)

[10] Wikipedia: Plug-in electric vehicle fire incidents (mit 129 Links, update am 23.2.2021). https://en.wikipedia.org/wiki/Plug-in_electric_vehicle_fire_incidents (abgerufen am 4.3.2021)

[11] Jens Meiners (25,02.2021): Im Zweifel für die Sicherheit - sind Tiefgaragen-Verbote für E-Autos richtig?https://www.focus.de/auto/news/tesla-und-co-muessen-draussen-bleiben-im-zweifel-fuer-die-sicherheit-sind-tiefgaragen-verbote-fuer-e-autos-richtig_id_13020719.html (abgerufen am 5.2.2021)


Weiterführende Links

Martin Seiwert und Stefan Hajek (28. Februar 2021): Brandgefahr fürs Elektroauto-Image https://www.wiwo.de/technologie/mobilitaet/rueckruf-bei-hyundai-brandgefahr-fuers-elektroauto-image/26957590.html  (abgerufen am 3.3.2021)

Die Li-ionen-Batterie. Wie funktioniert sie? nextmove, Video 11:34 min. (2019) https://www.youtube.com/watch?v=yYlNZqCJ9U4

Chemie-Nobelpreis für Entwicklung der Lithium-Ionen-Batterie. (2019). Video 7.33 min. https://www.youtube.com/watch?v=JhGelIC_CSM und https://www.nobelprize.org/uploads/2019/10/advanced-chemistryprize2019-2.pdf

Artikel im Scienceblog

mehrere Artikel zum Thema Elektromobilität sind unter dem Themenschwerpunkt Energie gelistet.


 

inge Fri, 05.03.2021 - 19:15

Comments

Die Studie konstatiert ganz klar:

"Of course, such a partially burnt wreck must be stored in a water basin or a special container so that it cannot reignite. But this is already known to the specialists and is being practiced".

Das Heranschaffen eines derartigen Containers  ist aber das Problem von Tiefgaragen, deren Zugang über den Autolift erfolgt.

Rita Bernhardt (not verified)

Tue, 18.05.2021 - 17:53

Ein sehr aufschlussreicher Beitrag

Ist eine Impfstoffdosis ausreichend, um vor einer Neuinfektion mit COVID-19-zu schützen?

Ist eine Impfstoffdosis ausreichend, um vor einer Neuinfektion mit COVID-19-zu schützen?

Do, 25.02.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin Weltweit haben sich bereits mehr als 112 Millionen Menschen mit dem Coronavirus infiziert, rund 2,5 Millionen sind daran gestorben. Diejenigen, die sich von einer COVID-19 Erkrankung wieder erholt haben, sollten auf jeden Fall geimpft werden, um einen möglichst hohen Schutz vor einer möglichen Neuinfektion zu erhalten. Neue Ergebnisse weisen darauf hin, dass bei diesen Personen eine Einzeldosis Impfstoff 10- bis 20-mal so hohe Immunreaktionen auslöst wie bei zuvor nicht infizierte Personen. Francis S. Collins, ehem. Leiter des Human Genome Projects und langjähriger Direktor der US-National Institutes of Health (NIH), die zusammen mit dem Unternehmen Moderna den eben zugelassenen COVID-19- Impfstoff mRNA-1723 designt und entwickelt haben, berichtet über diese Ergebnisse.*

Millionen Amerikaner haben jetzt Anspruch darauf sich mit den COVID-19-Vakzinen von Pfizer oder Moderna impfen zu lassen, und jeder sollte diese in Form von zwei Teilimpfungen erhalten. Die erste Dosis dieser mRNA-Impfstoffe trainiert das Immunsystem darauf, dass es das Spike-Protein auf der Oberfläche von SARS-CoV-2, dem COVID-19 verursachenden Virus, erkennt und attackiert. Die zweite Dosis, die einige Wochen später verabreicht wird, erhöht (boostet) die Menge an Antikörpern und bietet damit einen noch besseren Schutz.

Personen, die von einer COVID-19 Erkrankung wieder genesen sind, sollten auf jeden Fall geimpft werden, um einen möglichst hohen Schutz vor einer möglichen Neuinfektion zu erhalten. Allerdings besitzen sie schon etwas an natürlicher Immunität - würde da nun eine Impfstoffdosis ausreichen? Oder brauchen sie noch zwei?

Zu dieser wichtigen Frage bietet eine kleine, von den NIH unterstützte Studie erste Daten [1]. Die als Vorabdruck auf medRxiv veröffentlichten Ergebnisse zeigen, dass bei einer Person, die bereits COVID-19 hatte, die Immunantwort auf die erste Impfstoffdosis gleich oder in einigen Fällen noch besser ist als die Reaktion auf die zweite Dosis bei einer Person, die kein COVID-19 hatte. Zwar braucht es hier noch viel mehr an Forschung (und ich schlage sicherlich keine Änderung der aktuellen Empfehlungen vor), doch die Ergebnisse lassen vermuten, dass eine Dosis für jemanden ausreicht, der mit SARS-CoV-2 infiziert war und bereits Antikörper gegen das Virus gebildet hat.

Diese Ergebnisse stammen von einem Forscherteam unter der Leitung von Florian Krammer und Viviana Simon von der Icahn School of Medicine am Mount Sinai in New York. Die Forscher kamen zu dem Schluss, dass bei Menschen, die als Folge einer COVID-19-Infektion bereits Antikörper produziert hatten, die erste Impfdosis in ähnlicher Weise wirken dürfte wie eine zweite bei jemandem wirkt, der das Virus zuvor noch nicht hatte. Tatsächlich gab es einige anekdotische Hinweise darauf, dass zuvor infizierte Personen nach ihren ersten Schüssen stärkere Anzeichen einer aktiven Immunantwort (Armschmerzen, Fieber, Schüttelfrost, Müdigkeit) zeigten als niemals infizierte Personen.

Was haben die Antikörper nun gezeigt? Um dies zu beantworten, untersuchten die Forscher 109 Personen, die eine erste Dosis von mRNA-Impfstoffen (von Pfizer oder Moderna) erhalten hatten. Das Ergebnis war, dass diejenigen, die noch nie mit SARS-CoV-2 infiziert waren, innerhalb von 9 bis 12 Tagen nach ihrer ersten Impfstoffdosis Antikörper in nur geringen Mengen generierten.

Bei 41 Personen, die vor der ersten Impfung positiv auf SARS-CoV-2-Antikörper getestet worden waren, sah die Immunantwort jedoch deutlich anders aus. Innerhalb weniger Tage nach Erhalt des Impfstoffs erzeugten sie hohe Mengen an Antikörpern. Über verschiedene Zeitintervalle verglichen hatten zuvor infizierte Personen 10- bis 20-mal so hohe Immunreaktionen wie nicht infizierte Personen. Nach der zweiten Impfstoffdosis passierte dasselbe. Bei vormals infizierten Menschen waren die Antikörperspiegel etwa zehnmal höher als bei den anderen.

Beide Impfstoffe wurden im Allgemeinen gut vertragen. Da ihr Immunsystem jedoch bereits auf Hochtouren war, tendierten zuvor infizierte Menschen nach der ersten Impfung zu mehr Symptomen wie etwa Schmerzen und Schwellungen an der Injektionsstelle. Sie berichteten auch häufiger über andere seltenere Symptome wie Müdigkeit, Fieber, Schüttelfrost, Kopfschmerzen, Muskelschmerzen und Gelenkschmerzen.

Auch wenn es manchmal anders scheint, so sind COVID-19 und die mRNA-Impfstoffe noch relativ neu. Die Forscher konnten noch nicht untersuchen, wie lange diese Impfstoffe Immunität gegen die Krankheit verleihen, die inzwischen mehr als 500.000 Amerikanern das Leben gekostet hat. Die vorliegenden Ergebnisse legen jedoch nahe, dass eine Einzeldosis der Pfizer- oder Moderna-Impfstoffe eine schnelle und starke Immunantwort bei Menschen, die sich bereits von COVID-19 erholt haben, hervorrufen kann.

Wenn weitere Studien diese Ergebnisse stützen, könnte die US-amerikanische Food and Drug Administration (FDA) entscheiden zu erwägen, ob eine Dosis für Personen ausreicht, die zuvor eine COVID-19-Infektion hatten. Ein solches Vorgehen wird in Frankreich bereits geprüft und würde, falls sie umgesetzt wird, dazu beitragen, die Versorgung mit Impfstoff zu strecken und mehr Menschen früher zu impfen. Für jede ernsthafte Prüfung dieser Option sind jedoch mehr Daten erforderlich. Die Entscheidung liegt auch bei den Fachberatern der FDA und der Centers for Disease Control and Prevention (CDC).

Im Moment ist das Wichtigste, was wir alle tun können, um diese schreckliche Pandemie in den Griff zu bekommen, ist unsere Masken tragen, unsere Hände waschen, unseren Abstand zu anderen wahren - und die Ärmel für den Impfstoff hochkrempeln sobald er uns zur Verfügung steht.


*Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 9. Feber 2021) im NIH Director’s Blog unter dem Titel: Is One Vaccine Dose Enough After COVID-19 Infection? https://directorsblog.nih.gov/2021/02/23/is-one-dose-of-covid-19-vaccine-enough-after-covid-19-infection/ . Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig für den Blog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

COVID-19 Research (NIH) https://covid19.nih.gov/

Florian Krammer Laboratory https://labs.icahn.mssm.edu/krammerlab/dr-krammer/

Viviana Simon Laboratory https://labs.icahn.mssm.edu/simonlab/


 

inge Thu, 25.02.2021 - 01:34

Energie - der Grundstoff der Welt

Energie - der Grundstoff der Welt

Fr, 19.02.2021 — Redaktion

Redaktion

Icon Physik

Themenschwerpunkt Energie

Energie ist Ursprung aller Materie und auch das, was die Materie bewegt. Energieforschung und -Anwendung sind daher für unsere Welt von zentraler Bedeutung und beschäftigen Wissenschafter quer durch alle Disziplinen - Physiker, Chemiker, Geologen, Biologen, Techniker, etc., ebenso wie Wirtschafts- und Sozialwissenschafter. Mit dem bereits spürbaren Klimawandel steht Energie nun auch im Rampenlicht von Öffentlichkeit und Politik; das Ziel möglichst rasch fossile Energie durch erneuerbare Energie zu ersetzen, steht im Vordergrund. Energie ist auch im ScienceBlog von Anfang an eines der Hauptthemen und zahlreiche Artikel von Topexperten sind dazu bereits erschienen. Das Spektrum der Artikel reicht dabei vom Urknall bis zur Energiekonversion in Photosynthese und mitochondrialer Atmung, von technischen Anwendungen bis zu rezenten Diskussionen zur Energiewende. Ein repräsentativer Teil dieser Artikel findet sich nun in diesem Themenschwerpunkt.

Was versteht man überhaupt unter Energie?

Werner Heisenberg (1901 -1976), einer der bedeutendsten Physiker des 20. Jh, (Nobelpreis 1932) hat Energie so definiert: "Die Energie ist tatsächlich der Stoff, aus dem alle Elementarteilchen, alle Atome und daher überhaupt alle Dinge gemacht sind, und gleichzeitig ist die Energie auch das Bewegende."

Der Begründer der Quantenphysik Max Planck (1858 – 1947, Nobelpreis 1918) hat Energie beschrieben mit der Fähigkeit eines Körpers äußere Wirkungen hervorzubringen.

Richard Feynman (1918 - 1988), ebenfalls einer der ganz großen Physiker des 20. Jahrhunderts (und Nobelpreisträger) hat konstatiert: "Es ist wichtig, einzusehen, dass wir in der heutigen Physik nicht wissen, was Energie ist."

Auch, wenn wir, wie Feynman meint, nicht wissen was Energie ist, so sagt die etablierte kosmologische Schöpfungsgeschichte, dass sie am Beginn des unermesslich dichten und heißen Universums - also zur Zeit des Urknalls - bereits vorhanden war. (Abbildung 1). Energie wurde dann Ursprung aller Materie und blieb uns in Form von Energie und Masse erhalten.

UrknallAbbildung 1. Urknall-Modell: Entstehung und Expansion des Weltalls. Das anfänglich sehr dichte und heiße Universum enthielt im kosmischen Plasma Photonen, die vorerst an den geladenen Teilchen gestreut wurden, Nach der Abkühlung und Entstehung von Atomen konnten sich die Photonen nahezu ungehindert ausbreiten = Hintergrundstrahlung. Danach begann allmählich unter der Wirkung der Gravitation die Kondensation der Materie zu den Strukturen wie wir sie heute beobachten.

Wie Albert Einstein vor etwas mehr als einem Jahrhundert entdeckte, sind Energie (E) und Masse (m) ja nur zwei Seiten einer Medaille und können ineinander umgewandelt werden; dieses Naturgesetz wird durch die berühmte Formel E = mc2 ausgedrückt, wobei c eine Konstante ist und für die Lichtgeschwindigkeit steht. Einer derartigen Umwandlung von Masse in Energie - als Ergebnis einer Kernfusion - verdanken wir die Sonnenstrahlung: im Sonnenkern verschmelzen Wasserstoffkerne (Protonen) zu einem Heliumkern, der etwas weniger Masse hat als die ursprünglichen Protonen. Die Massendifferenz wird in Energie umgewandelt und abgestrahlt. Eine vollständige Umwandlung von Masse in Energie hat in der für die Nuklearmedizin sehr wichtigen Positronen-Emissions-Tomografie (PET) Anwendung gefunden: wenn das Elementarteilchen Elektron auf sein Antiteilchen, das Positron stößt (das von einem Radiopharmakon emittiert wird), werden beide Teilchen in einer sogenannten Vernichtungsstrahlung annihiliert und es können dafür zwei hochenergetischen Photonen detektiert werden, die die Position des Radionuklids im Körper anzeigen.

Landläufig versteht man unter Energie die Fähigkeit eines Systems, "Arbeit" zu verrichten, wobei "Arbeit" ein weit gefasster Begriff ist und besser als die Fähigkeit des Systems verstanden werden sollte, Veränderungen zu bewirken. Die Übertragung der Energie erfolgt über Kräfte, die auf das System einwirken. Energie wird indirekt, nämlich über diese "Arbeit" auch gemessen: Die Einheit 1 Joule (j) entspricht dabei der Energie, die bei einer Leistung (d.i. Energieumsatz pro Zeiteinheit) von einem Watt in einer Sekunde umgesetzt wird.

Energie schafft Veränderungen in unbelebter und belebter Welt

Energie ist nötig, um einen Körper zu bewegen, ihn zu verformen, zu erwärmen, um Wellen im Bereich des elektromagnetischen Spektrum zu erzeugen (von der kürzestwelligen Höhenstrahlung über den für den Menschen sichtbaren Bereich bis zu den niederfrequenten Wechselströmen), um elektrischen Strom fließen zu lassen oder um chemische Reaktionen ablaufen zu lassen.

In unserem Alltagsleben benötigen wir Energie aus physikalisch/chemischen Prozessen, um von einem Ort zum anderen zu gelangen, um Bedürfnisse des Wohnens zu befriedigen, um diverseste Wirtschaftsgüter zu produzieren und, um eine Vielfalt an Mitteln zur Kommunikation und Unterhaltung bereit zu stellen.

Um leben zu können brauchen wir, wie alle Lebewesen, externe Energie. Externe Energie bedeutet für Pflanzen, Algen und auch einige Bakterien Sonnenenergie. Um diese einzufangen, nutzen sie den Sonnenkollektor Chlorophyll und verwandeln mittels der sogenannten Photosynthese Lichtenergie in chemische Energie: das heißt, sie synthetisieren aus den ubiquitären, energiearmen Ausgangsstoffen CO2 und Wasser energiereiche Kohlehydrate und in weiterer Folge alle für Aufbau und Wachstum nötigen Stoffe - Proteine, Lipide, Nukleinsäuren und die Fülle an Intermediärmetaboliten. Abbildung 2.

Stoffkreislauf

Abbildung 2: Photosynthese und Stoffkreislauf  (modifiziert nach Amsel, Sheri: “Ecosystem Studies Activities.” Energy Flow in an Ecosystem.  https://www.exploringnature.org/)

Für uns und alle nicht Photosynthese-tauglichen Lebewesen besteht die externe Energie aus den durch Photosynthese entstandenen energiereichen Stoffen, die über die Nahrungskette zu unseren Lebensmitteln werden. Wir oxydieren ("verbrennen") diese energiereichen Stoffe schrittweise unter hohem Energiegewinn (in Form der metabolischen Energiewährung ATP) schlussendlich zu den energiearmen Ausgangsprodukten der Photosynthese CO2 und Wasser.

Diesen schrittweisen Prozess haben bereits in der Frühzeit bestimmte Bakterien entwickelt; es waren dies zelluläre Kraftwerke, die später als Mitochondrien in die Zellen höherer Lebewesen integriert wurden und nun über Citratcyclus und Atmungskette den Großteil der von den Zellen benötigten chemischen Energie liefern.

Energieerhaltungssatz, Energieumwandlung und Energieverbrauch

Energie charakterisiert den Zustand eines System, ist also eine sogenannte Zustandsgröße. Der 1. Hauptsatz der Thermodynamik (Energieerhaltungssatz) ist ein bewiesener, fundamentaler physikalischer Satz; er sagt aus, dass in einem geschlossenen System Energie weder verloren gehen noch erzeugt werden kann. Energie kann nur von einem Körper auf den anderen übertragen und von einer Form in die andere verwandelt werden.

Kinetische Energie (Bewegungsenergie), wie beispielsweise in der Windkraft, in den Gezeiten oder im fließenden Wasser, kann mittels Turbinen /Generatoren in elektrische Energie umgewandelt werden und diese wiederum in chemische, mechanische und thermische Energie. Potentielle Energie (Lageenergie), die ein System aus seiner Lage in einem Kraftfeld erhält (im Gravitationsfeld wie beispielsweise Wasser im Stausee, im elektrostatischen Feld von Kondensatoren, oder im magnetischen Feld) oder auch in der in Stoffen gespeicherten chemischen oder nuklearen Energie, wird ebenfalls in unterschiedliche Energieformen verwandelt.

Wenn Energie erhalten bleibt, wie kommt es aber zum Energieverbrauch?

Wird Energie von einem Körper zum anderen übertragen und oder von einer Form in die andere umgewandelt, so entsteht dabei immer etwas an Energie, die für uns nicht (direkt) nutzbar ist. Infolge von Reibung, Abstrahlung, Ohmschen Widerständen wird ein Teil der zu übertragenden Energie in Wärmeenergie verwandelt, die an die Umgebung abgegeben wird. Ein herausragendes Beispiel von ineffizienter Energiewandlung ist die nun nicht mehr verwendete Glühlampe, die Auer von Welsbach entwickelt hat. Diese nutzt nur 10 % der elektrischen Energie zur Erzeugung von Strahlung (d.i. den Glühdraht zum Leuchten zu bringen), die 90 % restliche Energie heizen Lampe und Umgebung auf. Verlorene thermische Energie verteilt sich (man denke an die Aufnahmen der infraroten Strahlung von Häusern) und wird schlussendlich als IR-Strahlung in den Weltraum emittiert.

Auch, wenn in Summe die übertragenen/umgewandelten Energien konstant geblieben sind, ist ein Verbrauch an nutzbarer Energie entstanden.

Energieverbrauch und Klimawandel

Wachsender Wohlstand einer in den letzten Jahrzehnten unverhältnismäßig stark gewachsenen Weltbevölkerung bedeutet natürlich höheren Energiebedarf. Nach wie vor stammt der bei weitem überwiegende Teil (85 %) der globalen Primärenergie noch aus fossilen Quellen. Abbildung 3. Die Umwandlung der chemischen Energie in diesen fossilen Brennstoffen hat mit dem Anstieg des Energieverbrauchs zu einem rasanten Anstieg der CO2-Emissionen in allen Sparten geführt, die wiederum kausal für den nun nicht mehr wegdiskutierbaren Klimawandel stehen.

Abbildung 3. Der globale Verbrauch von Primärenergie ist seit 1965 stetig gestiegen und speist sich zum überwiegenden Teil aus fossilen Energieträgern. Solar- und Windenergie spielen eine minimale Rolle. Primärenergie: Energie, die aus natürlich vorkommenden Energieformen/-quellen zur Verfügung steht. In einem mit Verlusten behafteten Umwandlungsprozess (z.B. Rohöl zu Benzin) entsteht daraus die Sekundärenergie/Endenergie. (Grafik modifiziert nach: BP Statistical Review of World Energy, 67th ed. June 2018)

Um atmosphärisches CO2 zu reduzieren, ist ein Umbau des Energiesystems unabdingbar - weg von fossiler Energie, hin zu erneuerbarer Energie, wobei hier die Erzeugung von elektrischer Energie durch Windkraft, Solarenergie, Wasserkraft und Biomasse im Vordergrund steht. Ob ein solcher Umbau allerdings rasch erfolgen kann, ist fraglich. Auch bei Akzeptanz durch politische Entscheidungsträger, vorhandener Finanzierung und Zustimmung der Bevölkerung fehlen nicht nur in Europa ausreichend große, für den Ausbau von Windkraft und Solarenergie geeignete Flächen.

Der Schlüssel für eine sofort wirksame globale CO2-Reduktionsstrategie ist Energieeinsparung: d.i. ohne Einbußen mit weniger Primärenergie auskommen, indem man den Energieverbrauch senkt, d.i. die Umwandlung zu nicht nutzbarer Energie reduziert. Dies ist u.a. möglich durch thermische Isolation, industrielle Verbesserungen, Wärmepumpen für Kühlung & Heizung, etc.

 


Energie - Themenschwerpunkt im ScienceBlog

Von Anfang an gehört Energie zu unseren Hauptthemen und zahlreiche Artikel von Topexperten sind dazu bereits erschienen. Das Spektrum der Artikel reicht dabei vom Urknall bis zur Energieumwandlung in Photosynthese und mitochondrialer Atmung, von technischen Anwendungen bis zu rezenten Diskussionen zur Energiewende. Ein repräsentativer Teil dieser Artikel ist nun in einem Themenschwerpunkt "Energie" zusammengefasst. Derzeit sind die Artikel unter drei Themenkreisen in chronologische Reihenfolge gelistet.

Energie, Aufbau der Materie und technische Anwendungen

Francis S. Collins, 27.8.2020: Visualiserung des menschlichen Herz-Kreislaufsystems mittels Positronen-Emissions-Tomographie (PET)

Claudia Elisabeth Wulz, 18.1.2018: Die bedeutendsten Entdeckungen am CERN

Robert Rosner, 13.7.2017:Marietta Blau: Entwicklung bahnbrechender Methoden auf dem Gebiet der Teilchenphysik

Stefan W.Hell, 7.7.2017: Grenzenlos scharf — Lichtmikroskopie im 21. Jahrhundert

Josef Pradler, 17.6.2016: Der Dunklen Materie auf der Spur

Manfred Jeitler, 21.2.2013: Woraus unsere Welt besteht und was sie zusammenhält. Teil 2: Was ist das Higgs-Teilchen?

Manfred Jeitler, 7.2.2013: Woraus unsere Welt besteht und was sie zusammenhält — Teil 1: Ein Zoo aus Teilchen

Michael Grätzel, 18.10.2012,Der Natur abgeschaut: Die Farbstoffsolarzelle

Peter Christian Aichelburg, 16.08.2012: Das Element Zufall in der Evolution

Energie und Leben

Inge Schuster, 10.10.2019: Wie Zellen die Verfügbarkeit von Sauerstoff wahrnehmen und sich daran anpassen - Nobelpreis 2019 für Physiologie oder Medizin

Antje Boetius, 13.05.2016: Mikrobiome extremer Tiefsee-Lebensräume

Peter Lemke, 30.10.2015: Wie Natur und Mensch das Klima beeinflussen und wie sich das auf die Energiebilanz der Erde auswirkt

Gottfried Schatz, 08.11.2013: Die Fremden in mir — Was die Kraftwerke meiner Zellen erzählen

Gottfried Schatz, 14.03.2013: Der lebenspendende Strom — Wie Lebewesen sich die Energie des Sonnenlichts teilen

Gottfried Schatz, 01.11.2012: Grenzen des Ichs — Warum Bakterien wichtige Teile meines Körpers sind

Gottfried Schatz, 27.09.2012: Sonnenkinder — Wie das atomare Feuer der Sonne die Meerestiefen erhellt

Energieformen, Energiewende

Georg Brasseur, 10.12. 2020: Die trügerische Illusion der Energiewende - woher soll genug grüner Strom kommen?

Georg Brasseur, 24.09.2020: Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität"

Anton Falkeis & Cornelia Falkeis-Senn, 30.01.2020: Nachhaltige Architektur im Klimawandel - das "Active Energy Building"

Redaktion, 19.09.2019: Umstieg auf erneuerbare Energie mit Wasserstoff als Speicherform - die fast hundert Jahre alte Vision des J.B.S. Haldane

Robert Schlögl,26.09.2019: Energiewende (6): Handlungsoptionen auf einem gemeinschaftlichen Weg zu Energiesystemen der Zukunft

Robert Schlögl,22.08.2019: Energiewende(5): Von der Forschung zum Gesamtziel einer nachhaltigen Energieversorgung.

Robert Schlögl,08.08.2019: Energiewende (4): Den Wandel zeitlich flexibel gestalten.

Robert Schlögl,18.07.2019: Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen.

Robert Schlögl, 27.06.2019: Energiewende (2): Energiesysteme und Energieträger

Robert Schlögl, 13.06.2019: Energie. Wende. Jetzt - Ein Prolog">

Robert Rosner, 20.12.2018: Als fossile Brennstoffe in Österreich Einzug hielten

IIASA, 08.02.2018: Kann der Subventionsabbau für fossile Brennstoffe die CO₂ Emissionen im erhofften Maß absenken?

IIASA, 11.03.2016: Saubere Energie könnte globale Wasserressourcen gefährden

IIASA, 08.01.2016: Klimawandel und Änderungen der Wasserressourcen gefährden die weltweite Stromerzeugung

Niyazi Serdar Sariciftci, 22.05.2015: Erzeugung und Speicherung von Energie. Was kann die Chemie dazu beitragen?

Gerhard Glatzel, 18.04.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 3 – Zurück zur Energie aus Biomasse

Gerhard Glatzel, 05.04.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 2

Gerhard Glatzel, 21.03.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 1 – Energiewende und Klimaschutz

Erich Rummich, 02.08.2012: Elektromobilität – Elektrostraßenfahrzeuge

Gottfried Schatz, 19.04.2012, Die lange Sicht - Wie Unwissen unsere Energiezukunft bedroht

Helmut Rauch, 04.08.2011: Ist die Kernenergie böse?


 

inge Fri, 19.02.2021 - 20:30

Kartierung von Coronavirus-Mutationen - Virusvarianten entkommen der Antikörper-Behandlung

Kartierung von Coronavirus-Mutationen - Virusvarianten entkommen der Antikörper-Behandlung

Do, 11.02.2021 — Francis S. Collins

Francis S. CollinsIcon Medizin In den letzten Tagen überstürzen sich die Pressemeldungen über neue Varianten von SARS-CoV-2 - dem Verursacher von COVID-19 -, die in anderen Teilen der Welt aufgetreten sind und auch bei uns bereits entdeckt werden. Insbesondere bei der erstmals in Südafrika identifizierten, mit B.1.351 bezeichneten Variante, wächst die Besorgnis inwieweit deren Mutationen dem Virus helfen könnten den derzeit aktuellen Behandlungen mit Antikörpern und hochwirksamen Impfstoffen zu entkommen. Francis S. Collins, ehem. Leiter des Human Genome Projects, ist langjähriger Direktor der US-National Institutes of Health (NIH), die zusammen mit dem Unternehmen Moderna den eben zugelassenen COVID-19- Impfstoff mRNA-1723 designt und entwickelt haben. Er berichtet über NIH-geförderte Untersuchungen, welche aus der Kartierung der Mutationen am Strukturmodell des viralen Spike-Proteins Aussagen zu Wirksamkeit von Antikörpern und Vakzinen ermöglichen.*

Im Laborversuch ist es bereits möglich vorherzusagen, welche Mutationen dem SARS-CoV-2 Virus dazu verhelfen werden, unseren Therapien und Impfstoffen zu entkommen, und sich sogar auf das Auftreten neuer Mutationen vorzubereiten, noch bevor diese auftreten. Eben dies hat eine NIH-finanzierte Studie gezeigt, die ursprünglich im November als bioRxiv-Vorabdruck erschien und kürzlich, von Experten begutachtet, in Science veröffentlicht wurde. In dieser Studie haben die Forscher alle möglichen Mutationen kartiert, die es SARS-CoV-2 ermöglichen würden, einer Behandlung mit drei verschiedenen monoklonalen Antikörpern zu widerstehen, welche für die Behandlung von COVID-19 entwickelt wurden [1].

Unter der Leitung von Jesse Bloom, Allison Greaney und Tyler Starr vom Fred Hutchinson Cancer Center in Seattle hat sich die Untersuchung auf die Schlüsselregion des Spike-Proteins, die sogenannte Rezeptorbindungsdomäne (RBD), konzentriert. Mit dieser RBD dockt das an der Virusoberfläche sitzende Protein an den ACE2-Rezeptor menschlicher Zellen an, um dann in die Zellen einzudringen und sie zu infizieren. Das macht die RBD zu einem Hauptangriffspunkt für Antikörper, die unser Körper erzeugt, um sich gegen das Virus zu verteidigen. Abbildung 1.

Abbildung 1. Die Rezeptorbindungsdomäne (grau) des Spike-Proteins mit Regionen, an die 4 unterschiedliche Antikörpertypen binden. Kryoelektronenmikroskopische Untersuchungen. Mit Sars-CoV-2 (oder anderen Erregern) infizierte Menschen generieren Tausende unterschiedliche Antikörper um den Eindringling abzuwehren. (Bild aus F.S.Collins https://directorsblog.nih.gov/2020/12/03/caught-on-camera-neutralizing-antibodies-interacting-with-sars-cov-2/credit:Christopher Barnes, California Institute of Technology, Pasadena)

Mutationen in der RBD…

Um herauszufinden, welche Mutationen einen positiven oder negativen Einfluss auf die Bindung der RBD an den Rezeptor ACE2 haben und /oder Antikörper daran hindern auf ihr Ziel am Spike-Protein zu treffen, haben die Forscher eine Methode namens Deep Mutational Scanning angewandt. Diese funktioniert folgendermaßen: Statt auf das Auftreten neuer Mutationen zu warten, haben die Forscher eine Bibliothek von RBD-Fragmenten generiert, von denen jedes eine Änderung in einem einzelnen Nukleotid-„Buchstaben“ enthielt und zum Austausch einer Aminosäure durch eine andere führte. Es stellt sich heraus, dass mehr als 3.800 solcher Mutationen möglich sind, und das Team von Bloom hat es geschafft, alle bis auf eine Handvoll dieser Versionen des RBD-Fragments herzustellen.

…und Auswirkungen auf Antikörper-Erkennung und -Bindung

Das Team hat dann mittels einer Standardmethode systematisch analysiert, wie jeder dieser Einzelbuchstaben die Fähigkeit von RBD veränderte, an ACE2 zu binden und menschliche Zellen zu infizieren. Sie haben auch bestimmt, wie sich diese Veränderungen auf die Erkennung und Bindung von drei verschiedenen therapeutischen Antikörpern an die virale RBD auswirkten. Zu diesen Antikörpern gehören zwei von Regeneron entwickelte Antikörper (REGN10933 und REGN10987), die gemeinsam als Cocktail die Genehmigung der Notfallanwendung zur Behandlung von COVID-19 erhalten hatten. Es wurde auch ein von Eli Lilly entwickelter Antikörper (LY-CoV016) untersucht, der sich derzeit in klinischen Phase-3-Studien zur Behandlung von COVID-19 befindet.

"Flucht"karten

Basierend auf den Ergebnissen haben die Forscher vier Mutationskartierungen erstellt (Abbildung 2), die darstellen, wie SARS-CoV-2 jedem der drei therapeutischen Antikörper, sowie dem REGN-COV2-Cocktail entkommen kann. Die meisten Mutationen, die es SARS-CoV-2 ermöglichen würden, der Behandlung zu entkommen, waren bei beiden Regeneron-Antikörpern verschieden. Dies ist ermutigend, da es darauf hinweist, dass das Virus wahrscheinlich mehr als eine Mutation benötigt, um gegen den REGN-COV2-Cocktail resistent zu werden. Es scheint jedoch einen Punkt zu geben, an dem eine einzelne Mutation es dem Virus ermöglichen könnte, der REGN-COV2-Behandlung zu widerstehen.

Abbildung. Die Rezeptorbindungsdomäne des Spike-Proteins, an die Antikörper (blass lila) gebunden sind. Diese „Fluchtkarte“ zeigt an, wo in der viralen RBD neue Mutationen die Antikörper am wahrscheinlichsten weniger wirksam machen (rot). Es zeigt auch Orte, an denen Mutationen die Antikörperbindung am wenigsten beeinflussen (weiß) und an denen Mutationen nicht fortbestehen können, weil sie die Funktionsfähigkeit der RBD beeinträchtigen würden (grau). (Bildnachweis: Nach TN Starr, Science, 2021 [1]).

Die Fluchtkarte für LY-CoV016 zeigte ebenfalls eine Reihe von Mutationen, die es dem Virus ermöglichen könnten, zu entkommen. Während einige dieser Änderungen die Infektionsfähigkeit des Virus beeinträchtigen könnten, schienen die meisten von ihnen mit geringem bis keinem Nachteil für die Reproduktion des Virus verbunden zu sein.

Evolution des Virus bei langdauernder Antikörperbehandlung

In welcher Beziehung stehen diese Labordaten zur realen Welt? Um diese Frage zu untersuchen, haben sich die Forscher mit Jonathan Li (Brigham and Women's Hospital, Boston) zusammengetan. Sie haben den Fall eines immungeschwächten Patienten angesehen, der ungewöhnlich lange an COVID-19 litt und 145 Tage lang mit dem Regeneron-Cocktail behandelt wurde, was dem Virus Zeit gab sich zu replizieren und neue Mutationen zu erwerben.

Die viralen Genomdaten des infizierten Patienten zeigten, dass die Mutationskarten tatsächlich verwendet werden können, um wahrscheinliche Wege der viralen Evolution vorherzusagen. Im Verlauf der Antikörperbehandlung zeigte SARS-CoV-2 Veränderungen in der Häufigkeit von fünf Mutationen, welche die Konformation des Spike-Proteins und seiner RBD verändern dürften. Basierend auf den neu erstellten "Flucht"karten lässt sich erwarten, dass drei dieser fünf Mutationen die Wirksamkeit von REGN10933 verringern und eine der beiden anderen die Bindung an den anderen Antikörper, REGN10987.

Die Forscher haben auch Daten aller bekannten zirkulierenden SARS-CoV-2-Varianten (bis 11. Januar 2021) untersucht, um Hinweise auf "Flucht"mutationen zu erhalten. Sie fanden heraus, dass es insbesondere in Teilen Europas und Südafrikas bereits eine beträchtliche Anzahl von Mutationen gibt, die das Potential haben der Antikörperbehandlung zu entkommen.

Ausblick

Es ist allerdings zu beachten, dass die "Flucht"Karten nur drei wichtige Antikörperbehandlungen widerspiegeln. Nach Blooms Aussagen wird das Team weiterhin Mutationskarten für andere vielversprechende therapeutische Antikörper erstellen. Man wird auch weiterhin untersuchen, wo Veränderungen des Virus es ermöglichen könnten, den vielfältigeren Antikörpern zu entkommen, die unser Immunsystem nach einer COVID-19-Infektion oder -Impfung produziert.

Wenn es auch möglich ist, dass einige COVID-19-Impfstoffe weniger Schutz gegen einige dieser neuen Varianten bieten - und die jüngsten Ergebnisse deuten darauf hin, dass der AstraZeneca-Impfstoff möglicherweise nicht viel Schutz gegen die südafrikanische Variante bietet -, geben die meisten anderen aktuellen Impfstoffe immer noch genügend Schutz, um einen schweren Verlauf, eine Krankenhauseinweisung und den Tod zu verhindern. Um SARS-CoV-2 daran zu hindern, dass es neue Wege findet, auf denen es unseren laufenden Anstrengungen zur Beendigung dieser schrecklichen Pandemie entkommt, besteht der beste Weg darin , alles zu verdoppeln, was wir tun können, um zu verhindern, dass sich das Virus überhaupt vermehrt und verbreitet.

Jetzt sollte uns alle das Auftreten dieser neuen Varianten anspornen, Schritte zu unternehmen, um die Ausbreitung von SARS-CoV-2 zu verlangsamen. Das bedeutet: eine Maske tragen, auf die Distanz achten, die Hände häufig waschen. Es bedeutet auch, die Ärmel hochzukrempeln, um sich impfen zu lassen, sobald sich die Gelegenheit ergibt.


[1] Prospective mapping of viral mutations that escape antibodies used to treat COVID-19. Starr TN, Greaney AJ, Addetia A, Hannon WW, Choudhary MC, Dingens AS, Li JZ, Bloom JD. Science. 2021 Jan 25:eabf9302.


*Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 9. Feber 2021) im NIH Director’s Blog unter dem Titel: "Mapping Which Coronavirus Variants Will Resist Antibody Treatments " https://directorsblog.nih.gov/2021/02/09/mapping-which-coronavirus-variants-will-resist-antibody-treatments/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig (mit einigen Untertiteln) für den Blog adaptiert. Abbildung 1 stammt aus einem früheren Artikel von FS Collins (zitiert), Abbildung 2 aus [1]. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Artikel von Francis S. Collins zu COVID-19 im ScienceBlog

 

Bloom Lab ((Fred Hutchinson Cancer Center, Seattle) https://research.fredhutch.org/bloom/en.html


 

inge Wed, 10.02.2021 - 23:59

Comments

Rita Bernhardt (not verified)

Thu, 18.02.2021 - 17:40

Ein sehr interessanter Beitrag. Ich gehe davon aus, dass die diskutierten Arbeiten auch Ausgangspunkt für die Herstellung veränderter (an Mutanten angepasster) Impfstoffe sein wird.

Der russische COVID-19 Impfstoff Sputnik V zeigt gute Verträglichkeit und exzellente Wirksamkeit auch bei der älteren Bevölkerung

Der russische COVID-19 Impfstoff Sputnik V zeigt gute Verträglichkeit und exzellente Wirksamkeit auch bei der älteren Bevölkerung

Do 04.02.2021.... Inge Schuster Inge SchusterIcon Medizin

Vorgestern ist der Zwischenbericht zu Wirksamkeit und Sicherheit des russischen Corona-Impfstoffes Gam-COVID-Vac ("Sputnik V") im Fachjournal Lancet erschienen und die Daten sind beindruckend [1]. In der noch laufenden klinischen Phase 3 Studie wurden rund 20 000 Probanden im Abstand von 21 Tagen mit 2 Serotypen des Adenovirus-basierten Vektor-Impfstoffs geimpft. Die Impfung zeigte über alle Altersgruppen (18 bis über 60 Jahre) hinweg Wirksamkeiten von 91,6 % und keine limitierenden Nebenwirkungen.

Seit März 2020 ist die Corona-Pandemie das Hauptthema im ScienceBlog. Anschliessend an eine kurze Darstellung der neuen Daten zu Sputnik V findet sich eine Liste der 25 bis jetzt erschienenen Artikel.

Wie im Falle der drei, bereits in der EU registrierten COVID-19 Vakzinen, konnte auch der Vektor-Impfstoff Sputnik V auf dem Boden langjähriger Expertise beschleunigt designt und entwickelt werden. Unter dem Leiter der aktuellen Studie Denis Y. Logunow (Gamaleya Nationales Forschungszentrum für Epidemiologie und Mikrobiologie, Moscow, Russia) war bereits ein Ebola-Impfstoff erfolgreich entwickelt und (in Russland) registriert worden und ein Impfstoff gegen das MERS-Coronavirus bis in die klinische Phase 2 gebracht.

Sputnik V

baut auf diesen Erfahrungen auf. Sputnik V basiert auf dem Prinzip eines modifizierten, nicht vermehrungsfähigen humanen Adenovirus, in den das kodierende Gen für das Spike-Protein eingeschleust wurde, dem Protein mit dem SARS-CoV-2 an die Wirtszellen andockt (siehe dazu [2]). Um eine robuste Immunantwort zu erhalten, werden 2 Dosen Sputnik im Abstand von 21 Tagen appliziert; die erste Dosis besteht aus dem modifizierten Adenovirus Typ 26 (rAd26-S) und die zweite, zur Steigerung ("Boosten") der Reaktion aus dem modifizierten Adenovirus Typ 5 (rAd5-S)). (Da die zweifache Impfung mit einem Vektor zum Aufbau einer massiven Immunantwort gegen Komponenten des Vektors selbst führen kann, welche die erwünschte Immunantwort gegen das Spike-Protein schwächen könnte, hofft man eine solche Reaktion mit zwei unterschiedlichen Vektoren zu minimieren.)

Die Phase 3-Studie

In der noch weiterlaufenden klinischen Phase 3 Studie - randomisiert, Plazebo-kontrolliert und doppelt-blind - wurden bis jetzt rund 20 000 freiwillige Probanden untersucht. 75 % der Probanden wurden dabei mit der Vakzine, 25 % mit dem Placebo geimpft. Die Probanden gehörten den Altersgruppen 18 - 30 Jahre, 31 - 40 Jahre, 41 - 50 Jahre, 51 - 60 Jahre und über 60 Jahre an. (Zur letzten Altersgruppe gehörten immerhin mehr als 2100 Probanden, rund 18 % waren 70 - 84 Jahre alt.)

Insgesamt litt ungefähr ein Viertel der Probanden unter Begleiterkrankungen, bei den über 60-Jährigen waren es mehr als 46% (Bluthochdruck, , koronare Herzerkrankungen, Adipositas, u.a.)

Der Schutzeffekt der Impfung gegen COVID-19 wurde ab etwa dem 18. Tag nach der ersten Sputnik-Dose evident.

Bei einer gleich guten Verträglichkeit, wie sie auch in den Untersuchungen mit den mRNA-Impfstoffen von Pfizer /BionTech und Moderna/NIAID und dem Vektor-Impfstoff von AstraZeneeca beobachtet wurde, erzielte Sputnik V ab dem 21. Tag nach der ersten Impfung eine sehr hohe Wirksamkeit von 91,6 % in allen Altersgruppen: COVID-19 wurde bei 62 (1•3%) der 4902 Personen in der Placebo-Gruppe und  bei 16 (0•1%) der 14 964 Personen in der Vakzine-Gruppe festgestellt. (In der Gruppe der über 60-Jährigen befanden sich immerhin 1611 Probanden in der Vakzine Gruppe und 533 in der Plazebogruppe: 2 COVID-19 Fälle wurden in der Vakzine-Gruppe, 8 in der Placebogruppe nachgewiesen.)

Fazit

Sputnik V scheint über alle Altersstufen hinweg verträglich und hochwirksam zu sein. Während für den wesentlich schwächer wirksamen, ebenfalls auf Adenoviren basierenden Impfstoff von AstraZeneca noch verlässliche Daten zur Wirksamkeit bei der älteren Bevölkerung (d.i. ab 55 Jahren) und bei Menschen mit Begleiterkrankungen - trotz Freigabe durch die EMA - fehlen, sind solche Daten in der Sputnik V Studie zweifelsfrei erhoben. Darüber hinaus zeichnet sich Sputnik V - im Vergleich zu den gleich exzellenten mRNA-Impfstoffen - durch hohe Stabilität und Lagerfähigkeit (in gefrorenem oder lyophilisiertem Zustand) aus.

Sputnik V ist somit eine wertvolle Bereicherung des Arsenals an Impfstoffen zur Eindämmung der COVID-19. Pandemie.


[1] D.Y.Logunow et al.,: Safety and efficacy of an rAd26 and rAd5 vector-based heterologous prime-boost COVID-19 vaccine: an interim analysis of a randomised controlled phase 3 trial in Russia. Published Online February 2, 2021 https://doi.org/10.1016/ S0140-6736(21)00234-8

[2] Inge Schuster, 22.01.2021: COVID-19-Impfstoffe - ein Update


Zur Corona-Pandemie bis jetzt erschienene Artikel im ScienceBlog


 

inge Thu, 04.02.2021 - 18:54

Comments

Rita (not verified)

Fri, 05.02.2021 - 07:04

Wie aktuell die Autorin ist, zeigt wieder einmal dieser Beitrag.
Es ist für mich beschämend, mit wieviel Kritik und gar Häme die Entwicklung und Testung des russischen Impfstoffs Sputnik V zuvor in Westeuropa (zumindest in Deutschland) begleitet wurde. Nun können wir vielleicht froh sein, wenn er in Dessau produziert werden kann, um uns danach zur Verfügung zu stehen und das europäische Portfolio zu füllen. Obige Kritiker sollten nachdenken und sich vielleicht auch hier und da entschuldigen.

Rita Berrnhardt

Trotz unzureichender Wirksamkeitsdaten für ältere/kranke Bevölkerungsgruppen: AstraZeneca-Impfstoff für alle EU-Bürger ab 18 Jahren freigegeben

Trotz unzureichender Wirksamkeitsdaten für ältere/kranke Bevölkerungsgruppen: AstraZeneca-Impfstoff für alle EU-Bürger ab 18 Jahren freigegeben

Mo 01.02.2021.... Inge Schuster Inge SchusterIcon Medizin

Am 29. Jänner 2021 hat die European Medicines Agency (EMA) die bedingte Zulassung des COVID-19 Impfstoffs von AstraZeneca/University Oxford empfohlen [1], die noch am selben Tag von der Europäischen Kommission (EC) erteilt wurde [2]. In der Praxis viel leichter anwendbar als die bereits zugelassenen mRNA-Impfstoffe und wesentlich billiger , ist der Impfstoff auch für entlegenere Regionen tauglich und für ärmere Gesundheitssysteme leistbar. Das Problem dabei: die eingereichten klinischen Studien weisen insgesamt nur einen geringen Anteil an Risiko-Probanden - also ältere und/oder vorerkrankte Personen auf, dennoch wurde der Impfstoff für alle Altersstufen ab 18 Jahren zugelassen. Diese, auf unzureichender Datenlage basierende Entscheidung spielt zweifellos Impfkritikern in die Hände.

Vor wenigen Tagen ist im ScienceBlog ein Artikel erschienen, der wesentliche Daten zu den klinischen Studien mit den drei COVID-19 Impfstoffen von Pfizer/BionTech, Moderna/NIAID und AstraZeneca/University Oxford zusammenfasst [3]. Der heutige Bericht beschäftigt sich im Wesentlichen mit der aktuellen Zulassung des AstraZeneca Impfstoffes (CHAdOx1 oder AZD1222) für alle EU-Bürger ab 18 Jahren trotz unzureichender Datenlage zur Wirksamkeit bei älteren und oder kranken Bevölkerungsgruppen (Details in [4] samt Appendix).

Was bedeutet bedingte Zulassung?

Bedingte Zulassungen sind in den EU-Rechtsvorschriften speziell für Notfälle im Bereich der öffentlichen Gesundheit vorgesehen. Ein Arzneimittel kann dann zugelassen werden, auch wenn noch nicht alle für eine normale Zulassung erforderlichen Daten vorliegen. Aus den vorhandenen Daten muss jedoch hervorgehen, dass der Nutzen der sofortigen Verfügbarkeit des Arzneimittels die Risiken im Zusammenhang mit der unvollständigen Datenlage deutlich überwiegt und es den EU-Standards entspricht. Nach der Erteilung einer bedingten Zulassung muss ein Unternehmen dann innerhalb bestimmter Fristen weitere Daten vorlegen, zum Beispiel aus laufenden oder neuen Studien, um zu belegen, dass der Nutzen die Risiken nach wie vor überwiegt [2].

Das Prinzip des Vektor-Impfstoffs

Wie bereits früher beschrieben handelt es sich dabei um einen sogenannten Vektor-Impfstoff, der auf der Immunantwort gegen das an der Oberfläche des SARS-CoV-2 Virus lokalisierte Spike-Protein beruht, mit dem das Virus an die Wirtszellen andockt und in diese eindringt [3]. Als Vektor dient ein im Menschen nicht vermehrungsfähiges (und für diesen damit ungefährliches) Adenovirus des Schimpansen, in dessen Genom das Gen für das Spike-Protein (in einer nicht-spaltbaren, stabilisierten Form) eingeschleust ist. Wenn bei der Impfung der Vektor in die Wirtszellen eindringt, gelangt das Spike-Gen in den Zellkern und wird dort in seine mRNA übersetzt (transkribiert). Daraus wird dann im Zellsaft das Spike-Protein synthetisiert, welches das Immunsystem als fremd erkennt; es produziert spezifische Antikörper dagegen und aktiviert weiße Blutzellen (T-Zellen), die im Fall einer späteren Infektion mit SARS-CoV-2 das Virus attackieren und eliminieren. Auch im Fall der beiden bereits zugelassenen Impfstoffe von Pfizer/BionTech und Moderna/NIAID richtet sich die Immunantwort gegen das Spike-Protein, hier wird allerdings die für das Spike-Protein kodierende mRNA geschützt in Lipidpartikeln direkt eingesetzt.

Kein repräsentativer Querschnitt der Bevölkerung in klinischen Studien mit der AstraZeneca Vakzine

Bereits vom Beginn der Corona-Pandemie an war es offensichtlich, dass ältere Personen und/oder solche mit schwereren Grunderkrankungen (wie Herz-Kreislauferkrankungen, Diabetes, Asthma, etc...) ein erhöhtes Risiko haben an COVID-19 schwer zu erkranken. Während solche Risikogruppen in den klinischen Studien der mRNA-Impfstoffproduzenten Pfizer/BionTech und Moderna/NIAID voll berücksichtigt wurden (6000 und mehr Probanden wurden in der Altersklasse 65 - 74 Jahre und immerhin noch 1300 -1500 über 75-Jährige rekrutiert und bis über 46 % aller Probanden verzeichneten zum Teil schwere Begleiterkrankungen), war die Gruppe solcher Probanden in den AstraZeneca Studien klein [3]: In den von der EMA-Entscheidung berücksichtigen Studien in UK (COV002) und Brasilien (COV003) gab es gerade einmal 1074 Personen (jeweils zur Hälfte Vakzine- oder Placebo-Gruppe) im Alter von 56 - 69 Jahren und rund 440, die 70 Jahre und älter waren [3]. Für eine statistisch signifikante Evaluierung der Wirksamkeit in diesen Altersgruppen, waren diese Zahlen zweifellos zu klein. (In einer UK-Studie an ausschließlich 18 - 55-Jährigen mit insgesamt rund 2 700 Probanden war in der Placebo-Gruppe eine COVID-19-Inzidenz von 1,6 % nachgewiesen worden. Eine ähnliche Inzidenz in der Placebo-Gruppe der 56 - 69-Jährigen würde 8 - 9 Fällen ergeben und 3,5 in der Placebo Gruppe der 70+-Jährigen). Wie oben erwähnt wurden Personen mit schwereren Begleiterkrankungen nicht in die Studien aufgenommen (Ausschlusskriterien waren beispielsweise auch COPD, Asthma, Autoimmunerkrankungen, die chronische Einnahme von Blutverdünnern, Tumorbehandlungen).

Darüber hinaus gab es in diesen klinischen Studien eine Reihe an Ungereimtheiten wie versehentlich falsche Dosierungen, unterschiedliche Intervalle zwischen den einzelnen Dosen und eine Analyse, welche die Ergebnisse aus eigentlich nicht kompatiblen Studien einfach poolte [3].

Mit einer Wirksamkeit von rund 60 % übersteigt der AstraZeneca-Impfstoff den von der WHO geforderten Mindestwert von 50 %, liegt aber weit unter der Wirksamkeit der mRNA-Impfstoffe von Pfizer und Moderna (um 94 % und das auch für die alte Bevölkerung) [3].

Die Entscheidung der EMA

Wie oben erwähnt hat die EMA den Einsatz des AstraZeneca-Impfstoffs ohne Altersobergrenze für alle Bürger ab 18 empfohlen. Allerdings hat sie darauf hingewiesen, dass es noch nicht genügend Daten gibt, um über die Wirksamkeit bei älteren Menschen (laut EMA "über 55 Jahre alte Personen") zu urteilen. Und fährt fort: "Allerdings erwartet man einen Schutz, da man in dieser Altersgruppe eine Immunantwort beobachtet und auf Erfahrungen mit anderen Impfstoffen fußt. Da es verlässliche Daten zur Sicherheit in dieser Population gibt, waren die wissenschaftlichen Experten der EMA der Ansicht, dass der Impfstoff bei älteren Erwachsenen angewendet werden kann. Mehr Daten werden aus laufenden Studien erwartet, an denen ein höherer Anteil älterer Teilnehmer teilnimmt."

Die zitierte "beobachtete Immunantwort" leitet sich aus einer kleineren Phase 2/3 Studie her, in der Ramasamy et al. (University Oxford) Probanden unterschiedlichen Alters (18 bis über 70 Jahre) und ohne schwerere Erkrankungen auf die Entstehung neutralisierender Antikörper und aktivierter T-Zellantwort gegen das Spike-Protein untersuchten und solche auch in allen Altersgruppen fanden [5]. Dass mit zunehmendem Alter eine Schwächung des Immunsystems eintritt - die sogenannte Immunoseneszenz -, ist ein Faktum. Ob und in welchem Ausmaß die Präsenz neutralisierender Antikörper mit der Wirksamkeit gegen COVID-19 bei alten, gebrechlichen und oft auch an mehreren Krankheiten leidenden Menschen korreliert, muss erst klinisch bewiesen werden.

Die von Ramasamy et al., zitierten Erfahrungen mit anderen Vektor-Vakzinen gegen respiratorische RSV-Viren [5] beziehen sich jedenfalls auf kleine Studien an Impfstoffkandidaten, in denen ebenfalls nur auf Immunogenität - d.i, Antikörperbildung und T-Zellantwort - getestet wurde.

Es sollte vielleicht auch erwähnt werden, dass Vektor-Vakzinen eine Immunantwort nicht nur gegen das eingeschleuste Target, sondern auch gegen Komponenten (Proteine) des Vektors selbst erzeugen. Ob sich diese nun positiv oder negativ auf die Immunantwort gegen das Spike-Protein auswirken, ist fraglich. (Zu den Ausschlusskriterien an den Phase-3-Studien der AstraZeneca-Vakzine gehören jedenfalls andere Impfungen 30 Tage, resp. 7 Tage im Falle von Influenza oder Meningokokken, vor jeder Dosis des COVID-19 Impfstoffs. Appendix zu [4], p. 135).

Die Ansicht der EMA-Experten: "Da es verlässliche Daten zur Sicherheit in dieser Population gibt, waren die wissenschaftlichen Experten der EMA der Ansicht, dass der Impfstoff bei älteren Erwachsenen angewendet werden kann." klingt merkwürdig, eher nach einer Umschreibung von: "wenn's nichts hilft wird's auch nicht schaden.

Fazit

Gerade für die prioritär vor COVID-19 zu schützenden Gruppen, der alten, gebrechlichen und/oder an schwereren Krankheiten leidenden Menschen fehlen ausreichende Wirksamkeitsdaten. Ein schwächeres Immunsystem in diesen Populationen könnte die bei Jüngeren (18 - 55 -Jährigen) bestimmte Wirksamkeit der AstraZeneca-Vakzine von 60 % auch unter das von der WHO geforderte Limit von 50 % bringen. Bis aus laufenden, weiteren Studien signifikante Ergebnisse zur Wirksamkeit an den vulnerablen Gruppen vorliegen, sollte man die Anwendung der Vakzine nur in der Altersgruppe 18 - 55 Jahren erwägen.

Die Zulassung für alle Altersstufen ab 18 Jahren konterkariert wohl auch das Vertrauen in ein wissenschaftlich-basiertes Vorgehen der EMA und bietet gleichzeitig den Impfgegnern Munition: zu schnell entwickelt, ohne ausreichende Daten zugelassen.


 [1] EMA recommends COVID-19 Vaccine AstraZeneca for authorisation in the EU (29.01.2021) https://www.ema.europa.eu/en/news/ema-recommends-covid-19-vaccine-astrazeneca-authorisation-eu

[2] Europäische Kommission erteilt dritte Zulassung für sicheren und wirksamen Impfstoff gegen COVID-19. Pressemitteilung. https://ec.europa.eu/commission/presscorner/detail/de/ip_21_306

[3] Inge Schuster, 22.01.2021: COVID-9-Impfstoffe - ein Update

[4] M.Voysey et al., Safety and efficacy of the ChAdOx1 nCoV-19 vaccine (AZD1222) against SARS-CoV-2: an interim analysis of four randomised controlled trials in Brazil, South Africa, and the UK. Lancet. 2021 Jan 9; 397(10269): 99–111. doi: 10.1016/S0140-6736(20)32661-1

[5] M.N. Ramasamy et al., Safety and immunogenicity of ChAdOx1 nCoV-19 vaccine administered in a prime-boost regimen in young and old adults (COV002): a single-blind, randomised, controlled, phase 2/3 trial. Lancet 2020; 396: 1979–93


 

inge Mon, 01.02.2021 - 12:31

Comments

Rita (not verified)

Fri, 05.02.2021 - 07:04

Der Artikel zur Zulassung des AstraZeneca Impfstoffs trifft den Nagel auf den Kopf.
Die Autorin hat hier und im vorigen Beitrag klar die Vor- und Nachteile der verschiedenen Impfstoffe dargelegt.
Ihre Ausführungen sollten Pflichtlektüre der politischen Entscheidungsträger sein.
Ich bin froh, dass die deutsche Ständige Impfkommission Stiko den Impfstoff vorerst nur für jüngere Leute zugelassen hat.
Und wie die Autorin richtig bemerkt: es ist schade, dass durch die EMA Entscheidung Impfgegnern Argumente präsentiert werden.

Rita Bernhardt

Transformationen auf dem Weg in eine Post-COVID Welt - Stärkung der Wissenschaftssysteme

Transformationen auf dem Weg in eine Post-COVID Welt - Stärkung der Wissenschaftssysteme

Do, 28.01.2021 IIASA

IIASAIcon Politik & Gesellschaft Trotz vergangener Warnungen vor einer Infektionskrankheit, die in eine "globale Katastrophe" münden könnte, ist die Welt von COVID-19 überrascht worden. Bereits In der Anfangsphase der Pandemie haben das Internationale Institut für Angewandte Systemanalyse (IIASA) und der Internationale Wissenschaftsrat (ISC) eine IIASA-ISC-Consultative Science Platform geschaffen. Das Ziel war aus den Lehren der Pandemie Empfehlungen für strukturelle Transformationen abzuleiten, welche eine nachhaltigere und widerstandsfähigere Zukunft ermöglichen sollten. Eines der vier Themen der Plattform war die Stärkung der Wissenschaftssysteme, um damit eine effektivere Reaktion auf künftige globale Krisen zu gewährleisten. Der Report "Strengthening Science Systems" ist eben erschienen; der folgende Text enthält die übersetzte Zusammenfassung.*

Das Internationale Institut für Angewandte Systemanalyse (IIASA) und der Internationale Wissenschaftsrat (ISC) haben auf ihrer Plattform IIASA-ISC Consultative Science Platform “Bouncing Forward Sustainably: Pathways to a post-COVID world”  wichtige Interessensvertreter aus den Bereichen Wissenschaft, Politik und Zivilgesellschaft zusammengebracht, um über systemische Ansätze zu vier Schlüsselthemen zu beraten, die eine langfristige Nachhaltigkeit und Widerstandsfähigkeit gegen globale Krisen gewährleisten sollen. Diese vier Themen betreffen i) eine verbesserte Governance der Nachhaltigkeit, ii) eine Stärkung der Wissenschaftssysteme, iii) neue Lösungen des Energieproblems und iv)Resiliente Ernährungssysteme.  Die Schirmherrschaft über diese Initiative hat der ehemalige UNO-Generalsekretär Ban-Ki-moon übernommen.

Die Empfehlungen der Plattform liegen nun in Form von Berichten vor (siehe Links) und wurden in einer virtuellen Veranstaltung (25. - 26. Jänner 2021) vorgestellt.

Der folgende Text ist die Zusammenfassung des Reports zur "Stärkung der Wissenschaftssysteme" (Abbildung 1).

Abbildung 1. Der Report: Strengthening Science Systems. Transformations within reach:Pathways to a sustainable and resilient world. (Jänner 2021).

Die Wissenschaft hat in der andauernden COVID-19-Krise eine zentrale Stellung eingenommen. Die Wissenschaft war gefordert, Lösungen auf einer sehr breiten Front anzubieten - nicht nur für die unmittelbaren gesundheitlichen Bedrohungen, sondern auch für die vielen sozialen und wirtschaftlichen Herausforderungen, die sich aus der Pandemie ergeben. Wissenschaftler aus verschiedenen Disziplinen haben schnell reagiert, indem sie ihre Forschung auf diese neuen Probleme umorientierten, und die COVID-19-Krise hat Zusammenarbeit und Kooperation zwischen Wissenschaftlern deutlich beschleunigt. Digitale Kommunikation wird weltweit in großem Maßstab angewandt, obwohl viele der Vorteile verloren gehen, die physische Besprechungen bieten, wie z. B. ein face-to-face Netzwerken oder spontane Unterhaltungen.

Die COVID-19-Krise hat das Funktionieren des Wissenschaftssystems beeinträchtigt...

Die Anpassung der Lehre in einem virtuellen Format hat zusätzlichen Druck auf Forscher an Universitäten ausgeübt und die für die Forschung zur Verfügung stehende Zeit reduziert. Arbeiten in Labors, Feldversuche und Expeditionen mussten verschoben oder abgesagt werden. Die Schließung von Kinderbetreuungseinrichtungen und anderen Dienste stellte zusätzliche Anforderungen an die Wissenschaftler. Indem sie ihre Familien unterstützten und betreuten, wurde die Zeit und Energie, die sie für die Forschung aufwenden konnten, weiter reduziert. COVID-19 hat offensichtlich auch bestehende Ungleichheiten in der Wissenschaft verschärft. Wissenschaftlerinnen und insbesondere solche mit kleinen Kindern haben eine erhebliche Reduktion der Zeit verzeichnet, in der sie sich der Forschung widmen konnten.

COVID-19 hat gezeigt, dass die Reaktion von Wissenschaftlern auf eine neue Krise durch Überlegungen hinsichtlich der Sicherheit ihres Arbeitsplatzes und ihres beruflichen Aufstiegs Grenzen erfährt. Dies ist besonders wichtig für Nachwuchswissenschaftler, deren zukünftige Beschäftigung entscheidend davon abhängt, dass ihre Arbeiten in Fachzeitschriften veröffentlicht werden. Es gibt kein System zur Anerkennung und Belohnung von Beiträgen zur Bewältigung einer dringlichen Krise wie COVID-19, und dies hindert Wissenschaftler erheblich daran, solche Forschungen durchzuführen. Finanzierungsanreize sind auch erforderlich, um Wissenschaftler zu ermutigen, ihre Forschung neu auszurichten, sich auf krisenbezogene Themen zu konzentrieren. Die Fördereinrichtungen haben allerdings nur begrenzte Möglichkeiten, neue Prioritäten festzulegen und die Finanzierung rasch an diese umzuleiten.

…einige Schwächen darin aufgezeigt und Trends beschleunigt

COVID-19 hat einige der Schwächen des Wissenschaftssystems aufgezeigt und eine Reihe von Trends beschleunigt. Die Verbreitung von Preprints als eine schnellere Möglichkeit, Wissen auf völlig offene Weise zu verbreiten, hat die Grenzen des Systems der Veröffentlichung in Fachzeitschriften und der Begutachtung durch Fachkollegen in ihren derzeitigen Formen deutlich gemacht. Es gab jedoch weit verbreitete Bedenken hinsichtlich der Qualität von Informationen, die ohne Peer Review öffentlich zugänglich gemacht wurden. In den frühen Phasen einer Krise sind Daten und Expertenwissen zu den Grundlagen des Phänomens natürlich sehr limitiert. Es ist daher entscheidend, vorhandenes Wissen effektiv nutzen zu können.

Das Wissenschaftssystem und die Forschungsplanung und Bewertung widmen derzeit wenig Aufmerksamkeit der Wichtigkeit, welche das Generieren von für zukünftige Krisen anwendbares Wissen haben kann.

Der Privatsektor bildet einen großen Teil des Forschungsökosystems. Auch wenn in vielen Bereichen eine effektive Zusammenarbeit zwischen öffentlich finanzierter Wissenschaft und privatwirtschaftlicher Wissenschaft besteht, ist viel mehr Zusammenarbeit erforderlich.

Diskussionen über Vertrauen in die Wissenschaft

Bereits seit langem gibt es Diskussionen über Vertrauen in die Wissenschaft und dessen mögliche Unterminierung. Mit dem Aufkommen von COVID-19 wurden diese Diskussionen beträchtlich intensivier. COVID-19 sieht sich einer erhöhten Flut falscher Nachrichten - fake news - gegenüber. Die Öffentlichkeit ist einem Tsunami an Fehlinformationen und Pseudowissenschaften ausgesetzt, die das Vertrauen in die Wissenschaft untergraben. Eine wichtige Lehre aus COVID-19 ist, dass eine Maßnahme mehr oder weniger effektiv gesetzt werden kann, je nachdem, wie viel Vertrauen die Öffentlichkeit in die Wissenschaft und in die Regierung hat.

COVID-19 hat die Wissenschaft ins Rampenlicht der öffentlichen Aufmerksamkeit gerückt und dabei das mangelnde Verständnis der Öffentlichkeit dafür aufgezeigt, wie Wissenschaft funktioniert und was Wissenschaft kann und was nicht. Viele Wissenschaftler betrachten die Wissenschaftskommunikation nicht als Teil ihrer Arbeit. Darüber hinaus legt das Leistungsbewertungssystem für Wissenschaftler sehr wenig Wert auf die Kommunikation wissenschaftlicher Erkenntnisse und Ergebnisse.

Die COVID-19-Pandemie hat es uns deutlich gezeigt: Krisen sind nicht zweidimensional. Zweifellos ist COVID-19 weitaus mehr als bloß ein medizinisches Problem; es gibt vielfache Auswirkungen auf Gesellschaft, Wirtschaft und Politik. Maßnahmen zur Bekämpfung von COVID-19 sollten daher mehrere wissenschaftliche Disziplinen einbeziehen. Berater-Gremien und Task Forces, die in das Design öffentlicher Maßnahmen für den Umgang mit COVID-19 involviert sind, setzen jedoch häufig nur ein begrenztes Spektrum an Fachwissen ein. Einem systembasierten Ansatz zur Bewältigung einer komplexen Krise wie COVID-19 wurde nicht ausreichend Priorität eingeräumt.

COVID-19 hat gezeigt, wie schwierig es für schlechtausgestattete und geringgeförderte Institutionen in Forschung und Beratung ist, auf plötzliche Bedrohungen flexibel zu reagieren. Für eine rasche und qualitativ erstklassige Reaktion sind starke und robuste Institutionen eine wesentliche Voraussetzung Es ist von entscheidender Bedeutung, dass Institutionen, die strategische Forschung betreiben und wissenschaftlich fundierte Maßnahmen zu globalen Risiken anbieten, angemessene, verlässliche und fortlaufende öffentliche Mittel erhalten.

COVID-19 hat die Bedeutung internationaler Zusammenarbeit klar aufgezeigt. Manche Länder mit wissenschaftlich sehr limitierten Kapazitäten konnten auf Erfahrungen anderer Länder und internationaler Organisationen zurückgreifen, um wirksame und zeitnahe politische Maßnahmen gegen COVID-19 zu entwickeln. In einigen Ländern gab es allerdings einen Gegentrend in Richtung "Nationalisierung der Wissenschaftssysteme".

Erforderliche Verbesserungen in drei Richtungen…

Die Analyse der COVID-19-Krise zeigt, dass Verbesserungen in drei Achsenrichtungen erforderlich sind, damit das Wissenschaftssystem effizienter auf zukünftige globale exogene Bedrohungen reagieren kann:

  • Erhöhte Agilität. Erstens muss die Fähigkeit des Wissenschaftssystems, schnell auf neu auftretende und sich schnell entwickelnde Probleme - ob auf nationaler oder internationaler Ebene - zu reagieren, erheblich verbessert werden.
  • Höhere Zuverlässigkeit. Das Wissenschaftssystem muss die Qualität seines Outputs weiter verbessern.
  • Höhere Relevanz. Das Wissenschaftssystem muss effektiver mit Politik und Öffentlichkeit verknüpft werden. Das Ziel ist es sicherzustellen, dass das Wissenschaftssystem auf allen drei Achsen gleichzeitig Fortschritte erzielt und eine neue Marke der Agilität, Zuverlässigkeit und Relevanz für die Gesellschaft erreicht.

…und Empfehlungen zu Transformationen im Wissenschaftssystem

Die gleichzeitige Verbesserung entlang aller drei Achsen bringt notwendigerweise viele Änderungen am bestehenden Wissenschaftssystem mit sich. Dementsprechend haben wir hier 38 Empfehlungen vorgelegt, die unter fünf miteinander verbundenen wesentlichen transformativen Änderungen wie folgt zusammengefasst sind (Abbildung 2):

Abbildung 2. Transformative Änderungen zur Stärkung der Wissenschaft, um effizienter auf zukünftige globale exogene Bedrohungen reagieren zu können

1. Stärkung der transdisziplinären Forschung und Vernetzung in Bezug auf kritische Risiken und Systemstabilität

Es sollte eine umfassendere Definition von globaler und nationaler Sicherheit zugrunde gelegt werden, die Naturkatastrophen und anthropogene Katastrophen als relevante Bedrohungen einschließt. Nationale und internationale Kapazitäten zu transdisziplinärer Erforschung kritischer Risiken und Systemstabilität (insbesondere wo diese sehr begrenzt ist), sollten verbessert werden. Um den Kapazitätsmangel auszugleichen, sollten Netzwerke und Mechanismen weiterentwickelt werden, über die Wissenschaftler Wissen aus anderen Ländern oder auf internationaler Ebene angesammeltes Wissen nutzen können. Um den wissenschaftlichen Fortschritt zu beschleunigen, sollten internationale Forschernetzwerke mit ergänzendem Fachwissen in wichtigen Risikobereichen gestärkt werden.

2. Gesteigerte Kapazität der Wissenschaft, um auf Krisen schnell mit Qualitätsforschung zu reagieren

Institutionen, die Risikoforschung betreiben, müssen entwickelt und aufrechterhalten werden. Die Möglichkeiten eines Systems von "Notfall"-Experten-Teams sollte geprüft werden, die als Reaktion auf eine Krise aktiviert werden können. Um die Forschung zu nicht vorhergesehenen und dringenden Herausforderungen zu finanzieren, muss ein System von leicht zugänglichen Förderungen eingerichtet werden. Das Bewertungssystem muss angepasst werden, um den Beitrag der Wissenschaftler zur Bewältigung von Krisen anzuerkennen. Besonderes Augenmerk sollte auf Anreize für junge Forscher gelegt werden. Die Entwicklung leicht wiederverwendbarer Forschungsmodelle und -daten sollte priorisiert und die Verwendung von Universal-Modellen erweitert werden. Es sollten neue Mechanismen zur Verbesserung der internationalen wissenschaftlichen Zusammenarbeit entwickelt werden, um rasch auf Krisen reagieren zu können. Es ist wichtig, in Krisenzeiten Standards guter wissenschaftlicher Praxis zu fördern und die Institutionen, die einen wissenschaftlichen Verhaltenskodex durchsetzen, erheblich zu stärken. Möglichkeiten zur Verbesserung der Zusammenarbeit zwischen Wissenschaft des öffentlichen und des privaten Sektors sollten untersucht werden. Der Privatsektor muss Anreize erhalten, Technologieplattformen zur Verfügung zu stellen und Daten und Wissen auszutauschen.

3. Verbesserung der Wissensverbreitung innerhalb des Wissenschaftssystems

Eine Reihe von Verbesserungen des Review-Systems von Publikationen sollten umgesetzt werden. Dazu gehören i) ein System zum schnellen Peer-Review von Preprints nach der Veröffentlichung; ii) eine Reihe von materiellen und immateriellen Anreizen für die Erstellung von Reviews; iii) die Möglichkeit einer offenen Kommunikation zwischen Autoren und Reviewern; iv) die Anpassung verschiedener Forschungskulturen und starke Peer-Review-Systeme für Daten. Zur Durchführung von Reviews sollten Schulungen für Wissenschaftler gefördert werden, insbesondere für Reviews in der interdisziplinären Forschung. Die Forscher sollten auch dazu angeregt werden, wissenschaftliche Übersichten und Artikel aus ihrer Perspektive zu erstellen, die vorhandenes, für eine Krise und ihre Auswirkungen relevantes Wissen zusammenfassen. Um den Zugang zu bestehender Forschung und die Navigation dort zu erleichtern, sollten Forscher Anreize erhalten, um Daten, Modelle und Computercodes offen und leicht zugänglich zu machen. Allgemeine Standards für Daten sowie die Verwendung von Open-Source-Software sollten gefördert werden. Man sollte ein System prüfen, wo Wissenschaftler die Zwischenprodukte der Forschung (Forschungsprotokolle, negative Ergebnisse usw.) zur Verfügung stellen. Ablagen für Daten und vorhandene Forschung sowie Plattformen, auf denen Forschung zu einem bestimmten Thema zusammengefasst wird, sollten entwickelt und verwendet werden. Die Effektivität von Algorithmen zur automatischen Synthese von Wissen und zu deren Kontrolle sollte untersucht werden.

4. Verbesserte Kommunikation wissenschaftlicher Erkenntnisse, gesteigertes Verständnis der Öffentlichkeit und erhöhtes Vertrauen in die Wissenschaft

Um der Öffentlichkeit verlässliche Informationen zu liefern, sollten leicht zugängliche Quellen der wissenschaftlichen Ergebnisse und Informationen geschaffen werden. Wissenschaftler sollten in der Vermittlung wissenschaftlicher Erkenntnisse geschult und motiviert werden und aktiver gegen Wissenschaftsleugner und Falschinformation eintreten. Die Kapazität und Integrität des Wissenschaftsjournalismus und der Wissenschaftsmedien sollten verbessert werden. Automatische Systeme zur Überprüfung wissenschaftlicher Fakten sollten entwickelt werden und weite Verbreitung finden. Aktives Engagement zwischen Wissenschaft und Bürgern sollte in geeigneten Forschungsphasen erleichtert werden, um die Relevanz und Legitimität der wissenschaftlichen Forschung zu verbessern. Die wissenschaftlichen Kenntnisse der Bürger sollte verbessert werden.

5. Verbesserung von Qualität und Effizienz an der Schnittstelle von Wissenschaft und Politik auf nationaler, regionaler und globaler Ebene

Es sollten robuste nationale und multinationale Institutionen entwickelt werden, die sich mit wissenschaftspolitischer Beratung befassen, ebenso wie eine wirksame Vernetzung zwischen diesen Institutionen. Die sozialen Auswirkungen der verschiedenen politischen Optionen müssen vor der Umsetzung bewertet werden, zusammen mit den wahrscheinlichen Reaktionen auf diese Optionen in verschiedenen Gemeinschaften und Interessengruppen. Die politischen Entscheidungsträger sollten die Möglichkeit haben, mit einer breiteren akademischen Gemeinschaft in Kontakt zu treten, um Fragen zu stellen und verschiedene Ratschläge zu integrieren. Wissenschaftliche Beratung sollte eine Vielzahl wissenschaftlicher Disziplinen einbeziehen. Ein systemischer Ansatz für die Politikberatung sollte gewählt werden. Die Regierungen sollten das gesamte Spektrum der angebotenen wissenschaftlichen Beratung berücksichtigen und die Gründe für die getroffenen Entscheidungen transparent machen.


*Der Blogartikel ist die von der Redaktion übersetzte und für den Blog gerinfügig adaptierte Executive Summary aus dem Report: E. Rovenskaya et al,: Strengthening Science Systems. Transformations within reach: Pathways to a sustainable and resilient world. Jänner 2021. https://council.science/wp-content/uploads/2020/06/IIASA-ISC-Reports-Science-Systems.pdf. Der Report steht unter einer cc-by Lizenz. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.


Links zu den Reports der IIASA-ISC-Consultative Science Platform

Srivastava, L., Echeverri, L. G., Schlegel, F., et al. (2021). Transformations within reach-Pathways to a sustainable and resilient world: Synthesis Report. IIASA Report. IIASA-ISC [pure.iiasa.ac.at/16818]

Mechler, R., Stevance, A.-S., Deubelli, T., Scolobig, A., Linnerooth-Bayer, J., Handmer, J., Irshaid, J., McBean, G., et al. (2021). Transformations within reach-Pathways to a sustainable and resilient world: Enhancing Governance for Sustainability. IIASA Report. IIASA-ISC [pure.iiasa.ac.at/16819]

Rovenskaya, E., Kaplan, D., & Sizov, S. (2021). Transformations within reach-Pathways to a sustainable and resilient world: Strengthening Science Systems. IIASA Report. IIASA-ISC [pure.iiasa.ac.at/16821]

Sperling, F., Havlik, P., Denis, M., Valin, H., Palazzo, A., Gaupp, F., & Visconti, P. (2020). Transformations within reach-Pathways to a sustainable and resilient world: Resilient Food Systems. IIASA Report. IIASA-ISC [pure.iiasa.ac.at/16822]

Zakeri, B., Paulavets, K., Barreto-Gomez, L., Gomez Echeverri, L., Pachauri, S., Rogelj, J., Creutzig, F., Urge-Vorsatz, D., et al. (2021). Transformations within reach-Pathways to a sustainable and resilient world: Rethinking energy solutions: Energy demand and decentralized solutions. IIASA Report. IIASA-ISC [pure.iiasa.ac.at/16820]


inge Thu, 28.01.2021 - 01:42

COVID-9-Impfstoffe - ein Update

COVID-9-Impfstoffe - ein Update

Fr 22.01.2021.... Inge Schuster Inge SchusterIcon Medizin

Ein vor 8 Wochen erschienener ScienceBlog-Artikel hat einen Überblick über die rasante Entwicklung von COVID-19 Impfstoffen gegeben [1]. Zu diesem Zeitpunkt wurden bereits 58 Impfstoff-Kandidaten in der Klinik untersucht, 11 davon befanden sich in der entscheidenden Phase 3. Drei Kandidaten - von Pfizer/BioNTech, Moderna/NIAID und AstraZeneca/University Oxford - standen kurz vor der behördlichen Zulassung durch die FDA und EMA . Zu deren Wirksamkeit und Sicherheit erfuhr man - allerdings nur in Form von Presseaussendungen der produzierenden Unternehmen - phantastische Angaben. Seit Kurzem liegen nun die Ergebnisse der klinischen Studien in publizierter Form vor. Der folgende Artikel fasst wesentliche Daten zusammen.

Das vergangene Jahr 2020 wird als Jahr der Corona-Pandemie in die Geschichte eingehen, einer Pandemie, die sich mit rasantem Tempo über den gesamten Erdball, bis in die Antarktis hin, ausgebreitet hat und bereits mehr als 96 Millionen Menschen mit dem Virus infiziert und über 2 Millionen Todesfälle hervorgerufen hat (dashboard der John-Hopkins-University:  https://www.arcgis.com/apps/opsdashboard/index.html#/bda7594740fd40299423467b48e9ecf6be. Innerhalb kürzester Zeit hat das Virus das gewohnte Leben, die sozialen Kontakte lahmgelegt, die Wirtschaft auf ein Mindestmaß reduziert und Staaten, die Rettungsschirme für die stillgelegten Betriebe und das Heer an beschäftigungslosen Menschen aufspannten, bis in die dritte Generation hinein in Schulden gestürzt.

Wissenschaft, die erfolgreiche Waffe gegen COVID-19

Die bis dato nie gekannte Notsituation machte 2020 aber auch zu einem Jahr, welches die Wissenschaft zu einer bisher ungeahnten Hochform der globalen Zusammenarbeit auflaufen ließ. Wissenschafter aus den verschiedensten Disziplinen der Naturwissenschaften und der Medizin, aus akademischen Institutionen ebenso wie aus kommerziellen Unternehmen gingen globale Partnerschaften ein und tauschten freizügig ihre Forschungsergebnisse aus, welche eine Reihe von Verlagen temporär für jedermann öffentlich zugänglich machte. Auf der Suche nach dringendst benötigten Mitteln zu Prävention und Therapie der neuen Infektionskrankheit fanden die Forscher bei den puncto Wissenschaft ansonsten äußerst sparsamen Regierungen und internationalen Organisationen großzügige Unterstützung. Das in der Öffentlichkeit bisher wenig beachtete Fach der Virologie lieferte nun täglich Headlines in Presse und Unterhaltungsmedien.

Die Investition in die Wissenschaft hat zum Erfolg geführt. Aufbauend auf den Ergebnissen jahrelanger Grundlagenforschung wurde es möglich Impfstoffe schneller als erhofft zu designen und zu entwickeln. Derzeit befinden sich 291 Kandidaten in der Entwicklung, davon 221 in der präklinischen Entwicklung und bereits 70 in der klinischen Prüfung, in der Wirksamkeit und sichere Anwendung untersucht werden [2]. 20 Impfstoffkandidaten sind in der letzten, entscheidenden Phase 3  (COVID-19 vaccine tracker:  https://vac-lshtm.shinyapps.io/ncov_vaccine_landscape/)

Zwei dieser Impfstoffe - BNT162b2 von Pfizer/BioNTech und mRNA-1723 von Moderna/NIAID -, die das neue Prinzip der mRNA-Vakzinen realisieren, haben die US-Behörde für Lebens- und Arzneimittel (FDA) als Notfallzulassung und die Europäische Arzneimittel Agentur (EMA) als bedingte Zulassung bereits anerkannt. Die Entscheidung über die Zulassung eines dritten, auf dem Vektorprinzip beruhenden Impfstoffs ChAdOx1 von AstraZeneca/Oxford University (in UK bereits eine Notfallzulassung) wird in der EU Ende Jänner erfolgen. Der ungemein schnellen Entwicklung war es zuzuschreiben, dass man die phantastisch anmutenden Ergebnisse der klinischen Studien vorerst nur aus Pressemeldungen der Unternehmen vernehmen konnte [1]. Nun sind die Ergebnisse seit Kurzem publiziert und öffentlich zugänglich [2], [3], [4]. Im Folgenden sollen wesentliche Daten zu Wirksamkeit und Sicherheit der drei Impfstoffe zusammengefasst werden.

Wie funktionieren die 3 Impfstoffe?

Die mRNA-Impfstoffe

Sowohl der Pfizer/BioNTech-Impfstoff BNT162b2 ("Tozinameran") als auch der Moderna/NIAID-Impfstoff mRNA-1723 sind erste Vertreter einer neuen Technologie, der sogenannten mRNA-Impfstoffe. Diese enthalten nicht das (inaktivierte) Virus selbst oder Komponenten des Virus sondern nutzen die mRNA als Bauanleitung für Virus-Proteine, gegen die eine Immunantwort zu erwarten ist. Im konkreten Fall der beiden Impfstoffe ist es die Bauanleitung für das Spike-Protein, mit dem das Virus an die Wirtszellen andockt. Da die mRNA ein physikalisch, thermisch und biologisch sehr instabiles Molekül ist, würde sie - direkt injiziert - bereits abgebaut sein, bevor sie in die Körperzellen aufgenommen wird und dort in das Spike-Protein übersetzt werden kann. Um dies zu verhindern, wurden winzige Lipidkügelchen - Lipid-Nanopartikel - designt, in welchen die mRNA geschützt vorliegt und - in den Oberarmmuskel injiziert- die Aufnahme in die umliegenden Zellen ermöglicht wird. In den Zellen braucht die mRNA nicht in den Zellkern vorzudringen; sie verbleibt im Cytosol der Zelle und wird dort an den Ribosomen in das Spike-Protein übersetzt. Dieses Protein kann dann in seiner nativen Form an die Zelloberfläche gelangen und sezerniert werden. Es kann aber auch vom Abbauapparat der Zelle degradiert, in Form von Peptiden an der Zelloberfläche präsentiert werden, die dann von den Zellen des adaptiven Immunsystems als fremd erkannt werden und deren Reaktion auslösen. Diese Reaktion führt zur Bildung von Antikörpern und zur Aktivierung von T-Zellen (weißen Blutkörperchen) gegen den Fremdstoff. Die mRNA selbst ist kurzlebig und wird in den Zellen schnell abgebaut.

Eine kürzlich von der Royal Society of Chemistry herausgegebene Grafik fasst die Natur der mRNA-Vakzinen und ihre Wirkungsweise zusammen. Abbildung 1.

Abbildung 1. Was sind mRNA-Impfstoffe und wie wirken sie? (Quelle: Andy Brunning for the Royal Society of Chemistry, www.compoundchem.com. Da das Bild unter einer cc-by.nc-nd-Lizenz steht, musste von einer Übersetzung abgesehen werden.)

Sowohl der Pfizer-Impfstoff als auch der Moderna-Impfstoff basieren auf der mRNA-Sequenz, die für das Spikeprotein kodiert und zwar (durch Austausch zweier Aminosäuren) in der stabilisierten Konformation, die dieses vor der Fusion mit der Zellmembran einnimmt (womit auch seine Immunogenität gesteigert wird).

Ein wesentlicher Unterschied der beiden Vakzinen besteht aber in der Zusammensetzung der Lipid-Nanopartikel und daraus resultierend in deren Stabilität. Während der unverdünnte Pfizer-Impfstoff bei Temperaturen von -80oC bis -60oC gelagert werden muss, nach der Verdünnung bei Raumtemperatur maximal 6 Stunden haltbar ist, nicht geschüttelt werden darf und vorsichtig pipettiert werden muss (um Scherkräfte zu vermeiden) und dazu möglichst dunkel gehalten werden sollte, ist der Moderna-Impfstoff wesentlich stabiler. Ungeöffnete Ampullen können bei Kühlschranktemperaturen bis zu 30 Tagen gelagert werden und bis zu 12 Stunden bei 8o - 25oC. Impfungen mit dem Pfizer-Impfstoff sind damit auf Impfzentren und mobile Teams, die in Pflegeeinrichtungen kommen, beschränkt .

Der Vektor-Impfstoff

Bei CHAdOx1 von AstraZeneca/Oxford University handelt es sich um einen sogenannten Vektorimpfstoff. Dieser basiert auf einem im Menschen nicht vermehrungsfähigen Adenovirus des Schimpansen, in dessen Genom das Gen für das Spike-Protein von SARS-CoV-2 eingebracht ist. Bei der Impfung dringt der Vektor in einige Wirtszellen ein, das Spike-Gen gelangt in den Zellkern, wo es in seine mRNA und dann in das Spike Protein übersetzt wird, welches - ebenso wie im Fall der mRNA-Vakzinen - die Immunantwort auslöst. (Natürlich werden auch Teile des Vektorgenoms übersetzt und lösen ebenfalls eine Immunantwort aus.)

Abbildung 2 fasst Art und Wirkungsweise dieses Impfstofftyps zusammen.

Abbildung 2. Was sind Vektorimpfstoffe und wie funktionieren sie? (Quelle: Andy Brunning for the Royal Society of Chemistry, www.compoundchem.com. Da das Bild unter einer cc-by.nc-nd-Lizenz steht, musste von einer Übersetzung abgesehen werden.)

ChAdOx1 ist Im Vergleich zu den mRNA-Impfstoffen wesentlich billiger (die EU hat angeblich um rund 1,8 €/Dosis geordert) und kann bei Kühlschranktemperaturen lange gelagert werden . Dies erleichtert die Lieferung und Anwendung auch in ländlichen Gebieten.

Zur Wirksamkeit der Impfstoffe

Die Ergebnisse der (noch laufenden) randomisierten Phase 3 Studien (Doppel-Blind, Impfstoff gegen Placebo) mit den beiden mRNA-Impfstoffen sind phantastisch [2, 3]. Geimpft wurden jeweils zwei Dosen, die im Abstand von drei Wochen (Pfizer) oder 4 Wochen (Moderna) verabreicht wurden. Bei den Probanden handelte es sich um Erwachsene im Alter von 16/18 - über 65 Jahren - etwa gleich viele Frauen und Männer - , darunter auch solche mit gesundheitlichen Risikofaktoren (inklusive HIV). Die Wirksamkeit wurde auf Grund des Auftretens von mindestens 2 charakteristischen COVID-19 Symptomen plus bestätigendem PCR-Test ermittelt.

Der Pfizer-Impfstoff

Rund 18 900 Probanden wurden jeweils für die mRNA-Gruppe (30 µg in Lipid-Nanopartikeln verpackt) und die Placebo-Gruppe rekrutiert, darunter auch eine Gruppe von jeweils rund 800 Personen, die 75 - 85 Jahre alt waren. Die Probanden erhielten 2 Dosen des Impfstoffs/Placebos im Abstand von 21 Tagen. Eine Analyse der COVID-19 Fälle, die nach der 1. Dosis auftraten, zeigt an, wann der Impfschutz zu wirken begann. Etwa 12 Tage nach der 1. Dosis begann die Inzidenz von COVID-19 in der mRNA-Gruppe(39 Fälle) stark abzuflachen, während sie in der Placebo-Gruppe (82 Fälle) linear weiter anstieg (Abbildung 3 oben). In der Woche nach der 2.Dosis wurden 2 Fälle in der mRNA-Gruppe und 21 Fälle in der Placebo-Gruppe beobachtet, in der darauffolgenden Zeit bis zum Ende der Beobachtung (105 Tage) 9/172 Fälle in mRNA-/Placebo-Gruppen. Über die Probanden gemittelt ergibt dies ein Wirksamkeit von rund 95 %.

Erfreulicherweise zeigte sich die sehr hohe Wirksamkeit in allen Altersstufen (bestimmt 7 Tage nach Dosis 2): 95,1 % bei den 16 - 64-Jährigen. 92,7 % bei den 65 - 74-Jährigen; bei den relativ kleinen Gruppen der über 75-Jährigen trat kein Fall in der mRNA-Gruppe auf, 5 Fälle dagegen in der Placebo-Gruppe.

Der Moderna-Impfstoff

wurde an Probanden im Alter von 18 - > 65 Jahren getestet; rund 14 600 erhielten die Vakzine (100 µg mRNA in Lipid-Nanopartikeln eingeschlossen), etwa ebenso viele Placebo [3]. Bereits 14 Tage nach der 1. Dosis konnte eine fast 70 % Reduktion der COVID-19 Fälle in der mRNA-geimpften Gruppe (5/16 COVID-19 Fälle) gegenüber der Placebo-Gruppe beobachtet werden. In den folgenden 2 Wochen bis zur Impfung der 2. Dosis gab es in der mRNA-Gruppe 2/37 Fälle, in den darauf folgenden 14 Tagen 0/19 Fälle und sodann bis zum derzeitigen Ende der Beobachtungszeit (25.November 2020; 120 Tage) 12/216 Fälle. Über alle Probanden gemittelt ergab dies ein Wirksamkeit von 94,1 %.

Nach Altersgruppen analysiert lag die Wirksamkeit bei Probanden unter 65 Jahren (rund 10 500) bei 95,6 %, bei der kleineren Gruppe der über 65-Jährigen (rund 3 500 ) bei 86,4 %.

Abbildung 3 vergleicht die Wirksamkeiten der beiden mRNA-Impfstoffe gemessen an der Inzidenz von COVID-19 Erkrankungen beginnend von der 1. Dosis über die 2. Dosis bis zum gegenwärtigen Ende der Beobachtungszeit.

Abbildung 3. Wirksamkeit der beiden mRNA-Impfstoffe gemessen am Auftreten von COVID-19 Erkrankungen. In beiden Fällen werden rund 95 % der Probanden durch die Impfung geschützt. Schwere COVID-19 Erkrankungen traten bei der Pfizer-Impfstoffstudie mit einer Ausnahme nur in der Placebo-Gruppe auf (schwarze Punkte), bei der Moderna-Impfstoffstudie gab es 30 schwere Erkrankungen ausschließlich in der Placebo-Gruppe. (Bilder für den Blog adaptiert aus [2 und 3], diese stehen unter einer cc-by-Lizenz)

Der Vektor-Impfstoff

Die publizierten Zwischenergebnisse stammen von rund 11 600 Probanden in England und Brasilien [4]. Der Vektorimpfstoff ChAdOx1 - ein nicht vermehrungsfähiger Adenovirus des Schimpansen, in dessen Genom das Gen für das Spike-Protein von SARS-CoV-2 eingebracht ist - wurde in Standarddosen von 50 Milliarden Viruspartikeln angewandt, als Kontrolle fungierte anstelle einer Kochsalzlösung die Meningokokken-Vakzine MenACWY. Zum Unterschied zu den Studien mit den mRNA-Impfstoffen wurden hier ausschließlich gesunde Erwachsene rekrutiert, der überwiegende Teil (86,7 %) im Alter von 18 - 55 Jahren. Diese sollten jeweils 2 Standarddosen im Abstand von 28 Tagen erhalten; allerdings, sowohl die Dosierungen als auch das Impfintervall variierte.

Für eine der beiden in England laufenden Studien (mit kleinerer Probandenzahl, ausschließlich im Alter 18 - 55 Jahre) enthielten die Ampullen irrtümlich nur die Hälfte des Vektorimpfstoffs. AstraZeneca veränderte darauf das Studienprotokoll in der Form, dass die Probanden nach der 1. halben Dosis die Standarddosis als zweite Impfung erhielten. (Die Behörden stimmten zu.)

Im Vergleich zu den mRNA-Impfstoffen war die Wirksamkeit des Vektorimpfstoffs niedriger. Mehr als 14 Tage nach der zweiten Standarddosis wurde sowohl in der englischen als auch in der brasilianischen Studie eine COVID-19-Inzidenz von 0,6 % bei den mit ChAdOx1 behandelten Probanden gegenüber 1,6 % der mit dem Kontrollimpfstoff behandelten festgestellt, entsprechend einer Wirksamkeit von 62 %. Erstaunlicherweise erbrachte die oben erwähnte Studie mit zuerst halber Dosis und dann Standarddosis bei 3 COVID-19-Fällen gegenüber 30 Fällen in der Kontrollgruppe eine Wirksamkeit von 90 %.

AstraZeneca hat die Ergebnisse aus den 3 offensichtlich unterschiedlichen Studien gepoolt und ist daraus schlussendlich zu einer Wirksamkeit von 70 % gelangt. Wieweit ein solches Vorgehen lege artis ist, soll hier nicht beurteilt werden. AstraZeneca will jedenfalls der Frage nachgehen ob eine erst niedrigere Impfstoffdosis gefolgt von einer höheren tatsächlich zu einer besseren Wirksamkeit führt. Abbildung 4 zeigt die Inzidenz von COVID-19 Erkrankungen nach der Impfung mit ChAdOx1.

Abbildung 4. Kumulierte Inzidenz von symptomatischer COVID-19 Erkrankung. Links: nach der zweiten Dosis des Vektorimpfstoffs ChAdOx1, wobei die 1. Impfung mit der halben Dosis( LD) oder vollen Standarddosis (SD) , die 2. Impfung mit der Standarddosis erfolgt ist. Rechts: nach der ersten Dosis bei Probanden, die nur Standarddosen erhielten. Als Kontrolle fungierte die Meningokokken-Vakzine MenACWY. (Bild aus [4] Lancet. 2021 Jan 9; 397(10269): 99–111. Lizenz cc-by 4.0)

Nebenwirkungen

treten bei allen drei Impfstoffen auf und sind zum größten Teil mild oder moderat und vorübergehend.

Lokale Reaktionen an der Einstichstelle wie Schmerz, Rötung, Schwellung (Verhärtung) treten in der Gruppe der Geimpften wesentlich häufiger als in der Placebo/Kontrollgruppe und können auch als ein Anspringen der Immunantwort gesehen werden. Hier, in den Muskelzellen findet ja die Umsetzung der mRNA in das Spike-Protein statt, gegen welches das Immunsystem nun massiv auffahren soll! Die beiden mRNA-Vakzinen ebenso wie die Vektorvakzine können bei an die 80 % der Probanden solche Reaktionen hervorrufen. 

Allgemeine Nebenwirkungen wie Müdigkeit, Muskelschmerzen, Kopfschmerzen, Fieber, Schüttelfrost Übelkeit sind bei 30 - 60 % der Probanden etwa 24 Stunden nach beiden Impfdosen aufgetreten und haben im Durchschnitt einen Tag angehalten.

Lokale ebenso wie allgemeine Nebenwirkungen der mRNA-Impfstoffe waren bei jüngeren Probanden (d.i. 18 - 55 Jahre in der Pfizer-Studie und 18 - 65 Jahre in der Moderna-Studie) stärker ausgeprägt als bei älteren und nahmen von Dosis 1 zu Dosis 2 zu. Ein sehr ähnliches Bild - allerdings bei einer wesentlich kleineren Probandenzahl - zeigte sich auch mit dem Vektorimpfstoff von AstraZeneca (die bessere Verträglichkeit bei älteren Personen könnte vielleicht infolge einer schwächeren Immunantwort resultieren?).

Fazit

Alle drei Impfstoffe können vor COVID-19 schützen und haben zumeist milde bis moderate, vorübergehende Nebenwirkungen. Die beiden mRNA-Impfstoffe von Pfizer und Moderna weisen eine phänomenale Wirksamkeit von über 90 % auf, bei jungen und älteren gesunden Menschen und auch bei älteren Personen, die wegen u.a. Herzerkrankungen, Diabetes, Adipositas ein höheres Risiko haben an COVID-19 schwer zu erkranken. Ein nicht unerhebliches Problem des Pfizer-Impfstoffs ist seine Instabilität, die eine Anwendung nur in geeigneten Impfzentren zulässt.

Der Vektorimpfstoff von AstraZeneca ist zwar stabil und vergleichsweise sehr billig, aber weniger wirksam als die beiden anderen Vakzinen. Die Phase 3 Studie wirft auch eine Reihe Fragen auf, da dafür nur gesunde Personen rekrutiert wurden und der Anteil an älteren Menschen gering ist, also wenig über die Wirksamkeit in der vulnerablen Bevölkerung ausgesagt werden kann.

Wegen der kurzen Entwicklungsdauer ist zur Zeit noch Vieles unklar: u.a. wie lange der Impfschutz anhält, ob asymptomatische Infektionen mit SARS-CoV-2 und die Übertragung des Virus verhindert werden können, ob schwere seltene und/oder verzögerte Nebenwirkungen auftreten. Die Phase 3-Studien aller drei Impfstoffhersteller laufen weiter (insgesamt bis 24 Monate nach ihrem Beginn) und werden zusammen mit den nun millionenfach erfolgenden Impfungen diese Fragen voraussichtlich lösen können.


[1] I.Schuster, 28.11.2020: Impfstoffe zum Schutz vor COVID-19 - ein Überblick

[2] EMA Assessment Report: Comirnaty (21. December 2020). https://www.ema.europa.eu/en/documents/assessment-report/comirnaty-epar-public-assessment-report_en.pdf

[3] L.R.Baden et al., Efficacy and Safety of the mRNA-1273 SARS-CoV-2 Vaccine (30.December 2020) , at NEJM.org.DOI: 10.1056/NEJMoa2035389. https://www.nejm.org/doi/full/10.1056/NEJMoa2035389 [

4] M.Voysey et al., Safety and efficacy of the ChAdOx1 nCoV-19 vaccine (AZD1222) against SARS-CoV-2: an interim analysis of four randomised controlled trials in Brazil, South Africa, and the UK. Lancet. 2021 Jan 9; 397(10269): 99–111. doi: 10.1016/S0140-6736(20)32661-1


 

inge Thu, 21.01.2021 - 23:37

Comments

Näher betrachtet: Auswirkungen von COVID-19 auf das Gehirn

Näher betrachtet: Auswirkungen von COVID-19 auf das Gehirn

Fr, 15.01.2021 — Francis S. Collins

Francis S. CollinsIcon Gehirn

Covid-19 Patienten weisen häufig neurologische Beschwerden auf, die neben Störungen des Geruchs- und Geschmacksinns u.a. zu Verwirrtheit und lähmender Müdigkeit führen und auch nach Abklingen der akuten Infektion lange bestehen bleiben können. Mit Hilfe von hochauflösender Magnetresonanztomographie haben NIH-Forscher am National Institute of Neurological Disorders and Stroke (NINDS) postmortales Hirngewebe von COVID-19 Patienten untersucht und Entzündungen festgestellt, die zu undichten Blutgefäßen und Gerinnseln führten. Dafür, dass das Virus SARS-CoV-2 selbst in das Hirngewebe eingedrungen war, konnten sie allerdings keinen Hinweis finden. Francis Collins, Direktor der US-National Institutes of Health (NIH), die zusammen mit dem Unternehmen Moderna den eben zugelassenen COVID-19- Impfstoff  mRNA-1723 designt und entwickelt haben, berichtet über diese Untersuchungen.*

COVID-19 ist zwar in erster Linie eine Erkrankung der Atemwege, kann aber auch zu neurologischen Problemen führen. Als erstes solcher Symptome dürfte der Verlust des Geruchs- und Geschmackssinns auftreten; manche Menschen können später auch mit Kopfschmerzen, lähmender Müdigkeit und Schwierigkeiten klar zu denken zu kämpfen haben, die manchmal als „Gehirnnebel“ ("Brain Fog") umschrieben werden. Bei all diesen Symptomen fragen sich Forscher, was genau das COVID-19 verursachende Coronavirus SARS-CoV-2, im menschlichen Gehirn bewirkt.

Auf der Suche nach Anhaltspunkten haben NIH-Forscher am National Institute of Neurological Disorders and Stroke (NINDS) nun die ersten eingehenden Untersuchungen an Gewebeproben von Gehirnen durchgeführt, die von verstorbenen COVID-19 Patienten stammten. Die Ergebnisse wurden im Fachjournal New England Journal of Medicine veröffentlicht und legen nahe, dass die vielen neurologischen Symptome von COVID-19 wahrscheinlich durch die weit ausufernde Entzündungsreaktion des Körpers auf die Infektion und die damit einhergehende Verletzung der Blutgefäße erklärt werden können und nicht auf Grund einer Infektion des Gehirngewebes selbst [1].

Unter der Leitung von Avindra Nath hat das NIH-Team postmortales Hirngewebe von 19 COVID-19 Patienten mit einem leistungsstarken Magnetresonanztomographen (MRT) untersucht (das bis zu zehnmal empfindlicher als ein übliches MRT-Gerät war).Es handelte sich dabei um Patienten, die zwischen 5 und 73 Jahre alt waren; einige von ihnen hatten bereits bestehende Erkrankungen wie Diabetes, Fettleibigkeit und Herz-Kreislauf-Erkrankungen.

Das Team konzentrierte sich auf die Riechkolben des Gehirns, die unsere Fähigkeit zu riechen steuern, und auf den Hirnstamm, der die Atmung und die Herzfrequenz reguliert. Basierend auf früheren Erkenntnissen nimmt man an, dass beide Regionen für COVID-19 sehr anfällig sind.

Tatsächlich zeigten die MRT-Bilder in beiden Regionen eine ungewöhnliche Anzahl heller Flecken, ein Merkmal einer Entzündung. Sie zeigten auch dunkle Flecken, die auf Blutungen hinweisen. Abbildung 1.

Abbildung 1. Magnetresonanz Mikroskopie des unteren Teils des Hirnstamms eines an COVID-19 verstorbenen Patienten. (Der gezeigte Ausschnitt misst etwa 20 x 15 mm ; Anm. Redn.) Die Pfeile markieren helle und dunkle Flecken, die auf Schäden an den Blutgefäßen hindeuten, jedoch ohne Anzeichen einer Infektion mit SARS-CoV-2 . (Credit: National Institute of Neurological Disorders and Stroke, NIH)

Ein genauerer Blick auf die hellen Flecken zeigte, dass winzige Blutgefäße in diesen Bereichen dünner als normal waren und in einigen Fällen Blutproteine in das Gehirn austreten ließen. Diese Durchlässigkeit schien offensichtlich eine Immunreaktion auszulösen, welche sich auf T-Zellen aus dem Blut und die Mikroglia des Gehirns erstreckte. Die dunklen Flecken zeigten ein anderes Muster mit undichten Gefäßen und Gerinnseln, aber ohne Anzeichen einer Immunreaktion.

Diese Ergebnisse sind zweifellos interessant, ebenso bemerkenswert ist aber auch das, was Nath und Kollegen in diesen Proben menschlichen Gehirns nicht gesehen haben. Sie konnten in den Proben keine Hinweise darauf finden, dass SARS-CoV-2 selbst in das Hirngewebe eingedrungen war. Tatsächlich lieferten mehrere Methoden zum Nachweis von genetischem Material oder von Proteinen des Virus negative Ergebnisse.

Die Ergebnisse sind besonders aufregend, da aufgrund von Studien an Mäusen Hinweise darauf vorliegen, dass SARS-CoV-2 die Blut-Hirn-Schranke passieren und in das Gehirn eindringen könnte. So hat ein kürzlich von NIH-finanzierten Forschern im Journal Nature Neurosciences veröffentlichter Bericht gezeigt, dass das virale Spike-Protein, wenn es Mäusen injiziert wurde, neben vielen anderen Organen leicht in das Gehirn gelangt ist [2].

Ein weiterer, kürzlich im Journal of Experimental Medicine veröffentlichter Bericht, in dem Gehirngewebe von Mäusen und Menschen untersucht wurde, legt nahe, dass SARS-CoV-2 tatsächlich das Zentralnervensystem einschließlich des Gehirns direkt infizieren kann [3]. Bei Autopsien von drei Personen, die an den Folgen von COVID-19 starben, stellten die vom NIH-geförderten Forscher Anzeichen von SARS-CoV-2 in Neuronen der Hirnrinde des Gehirns fest. Diese Arbeit wurde mit Hilfe der Immunhistochemie durchgeführt, einer mikroskopischen Methode bei der Antikörper verwendet werden, um an ein Zielprotein - in diesem Fall das Spike-Protein des Virus - zu binden.

Es ist klar, dass hier noch mehr Forschung erforderlich ist. Nath und Kollegen setzen ihre Untersuchungen fort, auf welche Weise COVID-19 auf das Gehirn einwirkt und die bei COVID-19-Patienten häufig auftretenden neurologischen Symptome auslöst. Während wir mehr über die vielen Wege erfahren, auf denen COVID-19 Verwüstungen im Körper anrichtet, wird das Verständnis der neurologischen Symptome entscheidend sein, um Menschen - einschließlich der Kranken mit dem sogenannten Long Covid (Langzeit-Covid ) Syndrom - auf dem Weg der Besserung von dieser schrecklichen Virusinfektion zu helfen.


[1] Microvascular Injury in the Brains of Patients with Covid-19. Lee MH, Perl DP, Nair G, Li W, Maric D, Murray H, Dodd SJ, Koretsky AP, Watts JA, Cheung V, Masliah E, Horkayne-Szakaly I, Jones R, Stram MN, Moncur J, Hefti M, Folkerth RD, Nath A. N Engl J Med. 2020 Dec 30.

[2] The S1 protein of SARS-CoV-2 crosses the blood-brain barrier in mice. Rhea EM, Logsdon AF, Hansen KM, Williams LM, Reed MJ, Baumann KK, Holden SJ, Raber J, Banks WA, Erickson MA. Nat Neurosci. 2020 Dec 16.

[3] Neuroinvasion of SARS-CoV-2 in human and mouse brain . Song E, Zhang C, Israelow B, et al. J Exp Med (2021) 218 (3): e20202135.


 * Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am14. Jänner 2021) im NIH Director’s Blog unter dem Titel: " Taking a Closer Look at COVID-19’s Effects on the Brain" https://directorsblog.nih.gov/2021/01/14/taking-a-closer-look-at-the-effects-of-covid-19-on-the-brain/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Artikel von Francis S. Collins zu COVID-19 im ScienceBlog


 

inge Thu, 14.01.2021 - 21:56

Comments

Covid (not verified)

Mon, 08.02.2021 - 11:24

Reinfection reports are as yet uncommon yet consistently developing around the globe, and they're likely underreported. Individuals can get COVID-19 twice. That is the arising agreement among wellbeing specialists who are becoming familiar with the likelihood that those who've recuperated from the Covid can get it once more.

Wer hat das Alphabet erfunden?

Wer hat das Alphabet erfunden?

Do, 07.01.2021 — Redaktion

Redaktion

Icon Politik & Gesellschaft

Neue Erkenntnisse weisen auf ein Paradoxon von historischem Ausmaß hin: Unser Schriftsystem wurde von Menschen entwickelt, die nicht lesen konnten! Die Anfänge unseres Alphabets finden sich auf der Halbinsel Sinai; es wurde offensichtlich von kanaanitischen Minenarbeitern erfunden. Lydia Wilson, wissenschaftliche Mitarbeiterin am Computerlabor der University of Cambridge, hat kürzlich die BBC-Serie "Die Geheime Geschichte des Schreibens" moderiert und in diesem Zusammenhang u.a. die Ägyptologin Orly Goldwasser interviewt. Wilson berichtet nun im Smithsonian Magazine über die Erfindung des Alphabets. *

Hunderte Jahre bevor Moses in der „großen und schrecklichen Wildnis“ der Sinai-Halbinsel wanderte, hat dieses zwischen Afrika und Asien liegende Wüstendreieck Abenteurer angezogen, verlockt von den reichen Mineralienvorkommen in den Felsen. Auf einer dieser Expeditionen vor etwa 4.000 Jahren trug es sich zu, dass eine unbekannte Person oder Gruppe einen mutigen Schritt unternahm, der sich im Nachhinein als revolutionär herausstellte. In die Wand einer Mine geritzt findet sich der allererste Ansatz zu etwas, das wir täglich anwenden: das Alphabet.

Das Fundstück, das auch 116 Jahre nach seiner Entdeckung noch weiter untersucht und neu ausgelegt wird, befindet sich auf einer, den Winden ausgesetzten Hochfläche in Ägypten namens Serabit el-Khadim, einem, selbst für Sinai-Verhältnisse abgelegenen Ort. Dieser war für die alten Ägypter allerdings nicht allzu schwer zu erreichen, wie die Existenz eines Tempels dort zeigt. Als ich (d.i. Lydia Wilson; Anm. Redn.) 2019 dort war, schaute ich von der Anhöhe auf die einsame, schöne Landschaft und stellte fest, dass ich die gleiche Ansicht sah, welche die Erfinder des Alphabets jeden Tag gesehen hatten. Abbildung 1.

Abbildung 1. Ausblick von Serabit el-Khadim, dem Zentrum des Türkisabbaus im alten Ägypten (Bild: Lydia Wilson)

Tempel der Hathor

Der aus dem natürlichen Felsen herausgehauene Tempel ist Hathor, der Göttin der Türkise (und anderer Dinge) geweiht. Stelen mit eingemeißelten Hieroglyphen säumen die Wege zum Schrein, wo archäologische Funde darauf hindeuten, dass es einst einen ausgedehnten Tempelkomplex gab. Abbildung 2. Etwa eine Meile südwestlich des Tempels liegt der Grund für all das alte Interesse an dieser Gegend: eingebettet in den Felsen finden sich Klumpen aus Türkis, einem Mineral, das die Wiedergeburt symbolisierte - ein wichtiges Motiv in der ägyptischen Kultur - und die Farbe, welche die Wände ihrer prunkvoll ausgestatteten Gräber schmückte. Die Türkisvorkommen waren der Grund, warum die ägyptische Oberschicht Expeditionen hierher schickte, ein Unternehmen, das um 2.800 v. Chr. begann und mehr als tausend Jahre andauerte. In der Hoffnung, eine reiche Ausbeute mit nach Hause zu nehmen, brachten die Expeditionen der Hathor Opfergaben dar.

Abbildung 2. Tempel der Hathor in Serabit el-Chadim (Bild von Redn. eingefügt; Quelle: Einsamer Schütze - Eigenes Werk, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=30087485)

Rosetta-Stein des Alphabets

1905 grub ein Ehepaar, die Ägyptologen Sir William und Hilda Flinders Petrie, den Tempel aus und wies dort Tausende von Votivgaben nach.  An der Wand einer Mine entdeckte das Paar merkwürdige Zeichen und fing dann an solche auch an anderen Stellen, an Wänden und kleinen Statuen, zu sehen. Einige Zeichen waren eindeutig mit Hieroglyphen verwandt, aber sie waren einfacher als die schöne ägyptische Bildschrift an den Wänden des Tempels. Die Petries erkannten bald, dass diese Zeichen ein Alphabet darstellten, auch wenn das Entschlüsseln der Buchstaben ein weiteres Jahrzehnt dauern würde und das Verfolgen des Ursprungs der Erfindung noch weitaus länger .

Viele von den Schätzen, die sie ausgegraben hatten, brachten die Flinders Petries nach London. Darunter war eine kleine Sphinx aus rotem Sandstein, die auf der Seite die gleiche Handvoll an Buchstaben zeigte, welche sie in den Minen gesehen hatten. Nachdem der Ägyptologe Sir Alan Gardiner die Beschriftungen zehn Jahre lang untersucht hatte, veröffentlichte er 1916 seine Transkription der Buchstaben und ihrer Übersetzung: Die Inschrift auf der kleinen Sphinx, geschrieben in einem semitischen Dialekt, lautete „Geliebte von Ba'alat“ und bezog sich auf die Kanaanitische Göttin, Gemahlin von Ba'al, dem mächtigen kanaanitischen Gott. Abbildung 3.

Abbildung 3. "Rosetta Stein des Alphabets" - so nennt Goldwasser die bei Serabit entdeckte Sphinx (British Museum)

"Für mich wiegt ihr Wert all das Gold in Ägypten auf", sagte die israelische Ägyptologin Orly Goldwasser über diese kleine Sphinx, als wir diese Ende 2018 im British Museum betrachteten. Goldwasser war nach London gekommen, um für eine BBC-Dokumentation über die Geschichte des Schreibens interviewt zu werden (Der Link zu dem BBC-Video findet sich im Anhang; Anm. Redn.). In dem hohen, mit Bücherschränken gesäumten Ägypten- und Sudan-Studienraum, der von den öffentlichen Sälen durch abgeschlossene Türen und Eisentreppen getrennt war, holte ein Kurator die Sphinx aus ihrer Box und stellte sie auf einen Tisch, an dem Goldwasser und ich (d.i. Lydia Wilson; Anm.Redn.) sie bestaunten. "Jedes Wort, das wir lesen und schreiben, hat damit begonnen." Goldwasser erklärte, wie die Arbeiter in den Minen des Sinai eine Hieroglyphe in einen Buchstaben verwandelt haben dürften: „Nennen Sie das Bild beim Namen, nehmen Sie davon nur den ersten Laut und vergessen Sie dann das Bild.“ So verhalf die Hieroglyphe für einen Ochsen, Aleph, dem Buchstaben "a" eine Form zu geben, während "b" von der Hieroglyphe für "Haus", bêt, abgeleitet wurde. Diese ersten beiden Zeichen gaben dem System seinen Namen: Alphabet. Einige Buchstaben wurden aus Hieroglyphen entlehnt, andere stammten aus dem Leben, bis alle Laute der Sprache, die sie sprachen, in schriftlicher Form dargestellt werden konnten.

Ägypten - das Amerika der alten Welt

Der Tempelkomplex gab detaillierte Hinweise auf die Menschen, die in den ägyptischen Türkisminen am Sinai gearbeitet haben. Die Stelen, die die Pfade säumen, haben jede Expedition aufgezeichnet, einschließlich der Namen und Jobs aller Personen, die auf dem Gelände gearbeitet haben. Die bürokratische Veranlagung der ägyptischen Gesellschaft liefert heute ein klares Bild von den Migranten, die vor vier Jahrtausenden nach Ägypten strömten, um Arbeit zu suchen. Ägypten war, wie Goldwasser es ausdrückt, „das Amerika der alten Welt“. Wir können darüber im Buch Genesis der Bibel lesen, als Jakob, „der im Land Kanaan wohnte“ - das heißt an der Küste der Levante östlich von Ägypten - nach Ägypten reiste, um sein Glück zu suchen. Zusammen mit Hirten wie Jakob haben andere Kanaaniter in Serabit, etwa 210 Meilen südöstlich von Memphis, dem Sitz der pharaonischen Machthaber, in den Minen für ägyptischen Eliten geschürft.

Religiöse Rituale spielten eine zentrale Rolle, um ausländische Arbeiter zum Schreibenlernen anzuregen. Nach einem Arbeitstag dürften die kanaanitischen Arbeiter die Rituale ihrer ägyptischen Kollegen im prachtvollen Tempelkomplex von Hathor beobachtet und sich über die Tausenden von Hieroglyphen gewundert haben, die verwendet wurden, um der Göttin Gaben zu opfern. Nach Goldwassers Ansicht waren sie jedoch nicht entmutigt, weil sie die Hieroglyphen um sie herum nicht lesen konnten. Stattdessen begannen sie, die Dinge auf ihre eigene Weise zu schreiben und erfanden ein einfacheres, vielseitigeres System für ihre eigenen religiösen Beschwörungen.

Das Alphabet blieb bis sechs Jahrhunderte oder länger nach seiner Erfindung auf die kulturelle Peripherie des Mittelmeers beschränkt; sichtbar nur in Worten, die in Gegenstände - Dolche, Töpferwaren - wie sie im gesamten Nahen Osten gefunden wurden, eingeritzt waren, nicht aber nicht in irgendeiner Schrift der Verwaltung oder der Literatur. Aber dann, um 1200 v. Chr. kam es zu großen politischen Umwälzungen, die als Zusammenbruch der späten Bronzezeit bekannt sind. Die großen Reiche des Nahen Ostens - das mykenische Reich in Griechenland, das hethitische Reich in der Türkei und das alte ägyptische Reich - lösten sich in Bürgerkriegen, Invasionen und Dürren auf. Mit dem Aufkommen kleinerer Stadtstaaten begannen die lokalen Machthaber, lokale Sprachen für ihre Regierung zu verwenden. Im Land Kanaan waren dies semitische Dialekte, die mit Alphabeten aus den Sinai-Minen niedergeschrieben wurden.

Die Phönizier

Die kanaanitischen Stadtstaaten blühten auf, und ein emsiger Seehandel verbreitete ihr Alphabet zusammen mit ihren Waren. Variationen des Alphabets - heute als phönizisch bekannt, vom griechischen Wort für die kanaanitische Region - wurden von der Türkei bis nach Spanien gefunden und sind bis heute in Form der von den Griechen und Römern verwendeten und weitergegebenen Buchstaben erhalten.

In dem Jahrhundert seit der Entdeckung dieser ersten eingeritzten Buchstaben in den Sinai-Minen herrschte der akademische Konsens vor, dass hochgebildete Menschen das Alphabet geschaffen haben müssten. Goldwassers Forschung kommt zum gegenteiligen Schluss. Sie argumentiert, dass es tatsächlich eine Gruppe ungebildeter kanaanitischer Bergleute war, die den Durchbruch geschafft haben, ohne Hieroglyphen und unfähig, ägyptisch zu sprechen, aber inspiriert von der Bildschrift, die sie um sich herum sahen. Nach dieser Sichtweise stammte eine der tiefgreifendsten und revolutionärsten intellektuellen Schöpfungen der Zivilisation nicht von einer gebildeten Elite, sondern von Analphabeten, die in der Geschichtschreibung normalerweise keinen Platz finden.

Pierre Tallet, ehemaliger Präsident der Französischen Gesellschaft für Ägyptologie, unterstützt Goldwassers Theorie: "Natürlich macht [die Theorie] Sinn, da klar ist, dass wer auch immer diese Inschriften auf dem Sinai schrieb, keine Hieroglyphen kannte", sagte er mir. "Und die Wörter, die sie schreiben, sind in einer semitischen Sprache, also müssen es Kanaaniter gewesen sein, von denen wir aus den ägyptischen Aufzeichnungen hier im Tempel wissen, dass sie da waren."

Es gibt allerdings Zweifler. Christopher Rollston, ein hebräischer Gelehrter an der George Washington University, argumentiert, dass die mysteriösen Schreiber wahrscheinlich Hieroglyphen kannten. "Es wäre unwahrscheinlich, dass Menschen, die nicht schreiben konnten, fähig oder verantwortlich gewesen wären, das Alphabet zu erfinden", sagt er. Dieser Einwand scheint jedoch weniger überzeugend als Goldwassers Version - wenn ägyptische Schreiber das Alphabet erfanden, warum war es dann sofort für ungefähr 600 Jahre aus ihren Schriften verschwunden?

Abgesehen davon dürfte - laut Goldwasser - die enge Verbindung zwischen Piktogrammen und Text überall um uns herum offensichtlich sein - in unserer Zeit in Form von Emojis . Sie verwendet Emojis großzügig in ihren E-Mails und Textnachrichten und argumentiert, dass sie ein soziales Bedürfnis erfüllen, das die alten Ägypter verstanden hätten. "Emojis haben der modernen Gesellschaft tatsächlich etwas Wichtiges gebracht: Wir spüren den Verlust von Bildern, wir sehnen uns nach ihnen und mit Emojis haben wir ein bisschen von den alten ägyptischen Spielen in unser Leben gebracht."


 *Der vorliegende Artikel von Lydia Wilson ist unter dem Titel "Who Invented the Alphabet?" in der Jänner/Feber Ausgabe des Smithsonian Magazine erschienen.  https://www.smithsonianmag.com/history/inventing-alphabet-180976520/ .Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und es wurden einige Untertitel und eine Abbildung (Abbildung 2) eingefügt.

 


Weiterführende Links

BBC Four - The Secret History of Writing (Presenter: Lydia Wilson), October 2020); Video 2:56:36. Wie die Erfindung des Schreibens die Welt, in der wir leben, geprägt hat, in drei aufeinander folgenden Teilen:  1. From Pictures to Words - 00:00 2. Words on a Page - 59:03 3. Changing the Script - 1:57:57. https://www.youtube.com/watch?v=B9mmojTDgDg

Smithsonian Institution (Smithsonian, https://www.si.edu/):  bedeutende US-amerikanische Forschungs- und Bildungseinrichtung, die auch zahlreiche Museen, Galerien und den Nationalzoo betreibt.  Das Smithsonian stellt seine komplette Sammlung nach und nach in elektronischer Form (2D und teilweise 3D) unter der freien CC-0-Lizenz kostenlos zur Weiterverbreitung zur Verfügung. Das Smithsonian Magazine (aus dem der obige Artikel stammt) bringt eine Fülle faszinierender, leicht verständlicher Artikelaus allen Bereichen der Natur und der Gesellschaften. https://www.smithsonianmag.com/?utm_source=siedu&utm_medium=referral&utm_campaign=home


 

inge Thu, 07.01.2021 - 00:49

2020

2020 mat Fri, 27.12.2019 - 10:04

PCR, Antigen und Antikörper - Fünf Dinge, die man über Coronavirus-Tests wissen sollte

PCR, Antigen und Antikörper - Fünf Dinge, die man über Coronavirus-Tests wissen sollte

Do, 31.12.2020 — Redaktion

RedaktionIcon Medizin Tests sind von entscheidender Bedeutung, um das Coronavirus zu diagnostizieren und seine Ausbreitung einzudämmen. Es gibt zwei Arten von Covid-19-Tests: solche, mit denen festgestellt werden soll, ob Sie jetzt an der Infektion leiden, oder solche, mit denen überprüft werden soll, ob Sie zuvor mit dem Krankheit verursachenden Virus - SARS-CoV-2 - infiziert wurden. Wie jedes andere Produkt weisen diese Tests unterschiedliche Genauigkeits- und Zuverlässigkeitsgrade auf und können verwendet werden, um unterschiedliche Ziele zu erreichen. Das EU Research and Innovation Magazine "Horizon" zeigt kritische Punkte auf.*

Wir brauchen Technologien, die schnell sind, genau sind, einen hohen Durchsatz erlauben und keine teuren, komplexen Laborgeräte oder das Fachwissen hochqualifizierter Mitarbeiter erfordern. Zur Zeit gibt es aber nichts, das all diese Kriterien erfüllt, sagt Professor Jon Deeks, ein Biostatistiker und Testexperte von der Universität Birmingham, UK. "Wir besitzen noch keinen derart perfekten Test, aber einige, die in manchen Aspekten gut sind, in anderen aber nicht."

Hier sind nun fünf Punkte, die man über Coronavirus-Tests wissen sollte:

1. Am gebräuchlichsten sind PCR- und Antigen-Tests; diese funktionieren aber auf unterschiedliche Weise

Um das Vorhandensein des Virus festzustellen suchen Antigentests nach Proteinen (Proteinfragmenten) auf seiner Oberfläche. PCR-Tests (Polymerasekettenreaktionen) wurden entwickelt, um genetisches Material des Virus - d.i. die RNA - festzustellen, welches die Anweisung zur Herstellung dieser Proteine enthält.

Als Probe benötigen beide Tests einen Abstrich aus dem tiefen Nasenraum (Abbildung 1) oder der hinteren Rachenwand. Ist das Ergebnis positiv, können aber beide Testarten keine Aussage treffen, ob man auch ansteckend ist. Und hier enden auch schon die Ähnlichkeiten.

Abbildung 1. Um einen optimalen Abstrich durch die Nase zu erhalten, muss das Wattestäbchen bis zur Hinterwand des Nasen/Rachenraums geführt werden. (Bild: Collecting a nasopharyngeal swab Clinical Specimen; US Center of Disease Control and Prevention (CDC); Screenshot. von der Redaktion eingefügt)

Im Falle des PCR-Tests wird die Probe an ein Labor geschickt, wo unter Verwendung spezieller Reagenzien die RNA des Virus in DNA (sogenannte c-DNA) umgeschrieben und - zur Identifizierung des Pathogens - in einer Serie von Kühl-und Erwärmungsschritten millionenfach vervielfacht wird. Dieser Prozess kann Stunden dauern, erfordert hochentwickelte Laborgeräte und ausgebildete Techniker; normalerweise wird jede Probe jeweils einzeln untersucht; allerdings gibt es Maschinen, die mehrere Proben gleichzeitig verarbeiten können. Der zeitaufwändige Prozess zahlt sich aus, da infizierte Personen mit fast 100% Präzision erkannt werden, sofern sich Viren in dem Abstrich befinden.

Im Gegensatz dazu funktionieren Antigentests - oft als Schnelltests bezeichnet -, indem die Abstrichs-Probe mit einer Lösung gemischt wird, die bestimmte virale Proteine freisetzt. Diese Mischung wird dann auf einen Papierstreifen aufgebracht, der einen maßgeschneiderten Antikörper für diese Proteine enthält, und diese bindet, falls sie vorhanden sind. Wie bei einem Schwangerschaftstest zu Hause spiegelt sich das Ergebnis als Bande auf dem Papierstreifen wider. Abbildung 2.

Abbildung 2. Der Antigentest-Kit (links). Der Nasen- oder Rachenabstrich wird mit der Testflüssigkeit vermischt auf einen Papierstreifen aufgetragen (Mitte) und kurz danach kann das Ergebnis abgelesen werden (rechts). (Quelle: Wikipedia dronepicr - Safe Corona Rapid Test Diagnostic; Lizenz cc-by-2.0. Bild von Redn. eingefügt.)

Dieser Prozess erfordert kein Labor und kann in bis zu 30 Minuten durchgeführt werden. Die Schnelligkeit geht jedoch zu Lasten der Empfindlichkeit. Obwohl diese Tests zuverlässig sind, wenn eine Person eine hohe Viruslast aufweist, sind sie weitaus anfälliger für falsch negative Ergebnisse, wenn jemand geringe Mengen des Virus im Körper hat.

2. Sensitivität und Spezifität sind Kriterien für die Brauchbarkeit eines Tests

Diese beiden Kriterien werden verwendet, um die Aussagekraft eines Tests zu bestimmen: "Wie gut erkennt dieser Test Krankheiten und wie gut erkennt er die Abwesenheit von Krankheiten", erklärt Prof. Deeks.

Die Sensitivität ist definiert als der Anteil an mit Covid-19 infizierten Personen, die korrekt ein positives Ergebnis erzielen, während die Spezifität der Anteil der nicht-infizierten Personen ist, welche der Test korrekt als negativ identifiziert.

Ein hochsensitiver Test weist im Allgemeinen eine niedrige Falsch-Negativ-Rate auf, birgt jedoch das Risiko von falsch-positiven Ergebnissen, wenn seine Spezifität nicht auf dem neuesten Stand ist. Auf der anderen Seite besteht bei einem hochspezifischen Test das Risiko von falsch negativen Ergebnissen, wenn die Sensitivität des Tests gering ist; im Allgemeinen wird es eine niedrige falsch positive Rate geben. PCR-Tests gelten als Goldstandard, da sie im Allgemeinen hochsensitiv und hochspezifisch sind.

3. Wenn es um Schnelltests geht, kann von entscheidender Bedeutung sein, wer den Test ausführt

Im Rahmen der Pläne der britischen Regierung zur Durchführung von Massenimpfungen wurde in Liverpool ein Antigentest namens Innova Lateral Flow Test eingeführt. Das Ziel war Arbeitnehmern damit die Rückkehr in die Büros zu ermöglichen und Familien ihre Angehörigen in Pflegeheimen wieder umarmen zu können, stellt Prof. Deeks fest.

Dieses Freitesten („Test to Enable“ -Strategie) schlug jedoch fehl; Wissenschaftler fanden heraus, dass in einer Population von Menschen, die zum überwiegenden Teil Symptome aufwiesen, die Sensitivität des Tests auf etwa 58% sank, wenn dieser von selbstgeschultem Personal durchgeführt wurde. Im Gegensatz dazu stieg die Sensitivität auf 73%, wenn der Test von qualifizierten Krankenschwestern ausgeführt wurde und auf 79%, wenn Laborwissenschaftler testeten. In einer Studie an asymptomatischen Menschen fiel die Sensitivität im Vergleich zu PCR-Tests auf etwa 49%.

"Man kann also von einem Trend sprechen, je erfahrener die Leute im Ausführen des Tests sind, desto weniger Fälle werden übersehen", sagt er. Es gibt einige Schritte, die sehr sorgfältig erfolgen müssen, wie beispielswise das genaue Ablesen. "Manchmal ist es schwer zu sagen, ob es sich um eine Bande oder um eine Verunreinigung handelt", sagt Prof. Deeks.

PCR-Tests werden im Labor durchgeführt, das Risiko für Fehler ist viel geringer, fügt er hinzu.

Die Produzenten versuchen auch Tests für zu Hause zu entwickeln. Angesichts der von uns gesammelten Erfahrungen, wie die Genauigkeit von Schnelltests davon abhängt, wer diese ausführt, ist dies ein Problem, meint Prof. Deeks.

"Wenn die Leute Tests einfacher durchführen können, werden mehr Leute getestet ... ich glaube aber nicht, dass wir den Test haben, um dies schon zu tun", sagt er. Und fügt hinzu, dass es keine guten Studien gibt, die untersuchen, welchen Nutzen diese zusätzlichen Tests haben würden, beispielsweise welche Auswirkungen wiederholte falsch-negative Ergebnisse auf das Verhalten haben könnten.

In einem am 18. Dezember veröffentlichten Proposal für gemeinsame Regeln bei Antigen-Schnelltests erklärte die Europäische Kommission, dass Antigen-Schnelltests von geschultem medizinischem Personal oder anderen geschulten Kräften durchgeführt werden sollten (1)

 4. Bevor Schnelltests genauer werden, sollten negative Testergebnisse nicht zur Förderung riskanter Aktivitäten dienen

Wenn ein Test wie der Innova-Test bis zur Hälfte der Fälle falsch liegt, kann man wirklich niemand als frei von dem Risiko betrachten infiziert zu sein oder die Infektion zu verbreiten, bemerkt Prof. Deeks.

"Man wird immer einen kleinen Prozentsatz an Leute haben, die bei allen Tests herausfallen", sagt Gary Keating, Chief Technology Officer von HiberGene, einem in Irland ansässigen Unternehmen, das einen Covid-19-Test vertreibt. Der Test verwendet die LAMP-Technologie, eine billige Alternative zur PCR-Technologie.

"Ich denke, es ist immer gefährlich, einen einzelnen diagnostischen Test isoliert durchzuführen und diesen als Grundlage zu verwenden, um eine sehr wichtige Entscheidung in Hinblick auf Gesundheit oder Lebensstil zu treffen", sagt Keating.

In großem Maßstab angewandt könnten solchen Ergebnisse zu einem falschen Sicherheitsgefühl führen, meint Prof. Deeks.

Regierungen sind daran interessiert, Schnelltests zu verwenden, da diese billiger sind und schneller für Kampagnen zur Massenimpfung eingesetzt werden können. Da sie jedoch hinsichtlich der Genauigkeit limitiert sind, ist es wichtig, negative Testergebnisse nicht dazu zu verwenden, um riskantere Aktivitäten wie das Treffen mit älteren oder schutzbedürftigen Angehörigen zu ermöglichen, sagt er.

Einige Länder, wie die Vereinigten Staaten, empfehlen einen PCR-Test, wenn Personen mit Symptomen mit einem Antigen-Schnelltest negativ getestet werden, um das Ergebnis zu bestätigen.

Wenn Schnelltests auch gut dazu geeignet sind, Menschen mit hoher Viruslast zu erfassen, so ist es noch nicht klar, bis zu welchem Grenzwert an Viren keine Ansteckung erfolgt. Bei Covid-19 weisen die Infizierten in der frühen Phase der Infektion einen Spitzenwert der Viruslast, aber die virale RNA kann Wochen oder sogar Monate lang bestehen bleiben. Abbildung 3.

Abbildung 3. Nachweis von SARS-CoV-2 mittels PCR-Test in Nasen-Abstrichen von Patienten mit mildem bis moderatem Krankheitsverlauf. 4 Wochen nach Einsetzen der Symptome trugen die Patienten noch rund 30 % der maximalen Virenlast. (Quelle: Dr Ai Tang Xiao - https://www.cdc.gov/coronavirus/2019-ncov/community/strategy-discontinue-isolation.html https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7. Lizenz cc-by 4.0. Das Bild wurde von der Readktion eingefügt.)

 

5. Antikörpertests könnten nützlich sein, um die Dauerhaftigkeit von Impfreaktionen zu messen

Antikörper sind Soldaten, die vom Immunsystem als Reaktion auf einen fremden Eindringling - in diesem Fall SARS-CoV-2 - eingesetzt werden. „Ursprünglich bestand die Hoffnung, dass Antikörpertests es uns ermöglichen könnten, die Krankheit schnell und einfach zu diagnostizieren. Es stellt sich jedoch heraus, dass die Tests noch zwei bis vier Wochen lang (nach der Infektion) kein positives Ergebnis zeigen“, sagt Prof. Deeks.

Und es kommt noch ärger, denn selbst wenn Sie positiv auf Antikörper getestet werden, bringt Ihnen diese Information nicht viel, außer einer hohen Wahrscheinlichkeit, dass Sie in der Vergangenheit Covid-19 gehabt haben. "Wir haben keine Ahnung, welche Konzentrationen an Antikörpern zum Schutz vor der Krankheit führen und welcher Antikörpertyp am wichtigsten ist. Ich bin mir nicht sicher, ob auch darüber Konsens besteht", sagt er.

Es ist auch unklar, wie lange Covid-19-Antikörper im Körper verbleiben oder ob jemand, der positiv auf Antikörper getestet wurde, sich das Virus nicht wieder einfängt.

Wofür diese Tests nützlich sein könnten, ist die Ausbreitung von Covid-19 populationsweit abzuschätzen - zum Beispiel, wie viel Prozent der Bevölkerung und welche ethnischen Gruppen sich Covid-19 zugezogen haben, sowie um die Dauerhaftigkeit von Impfreaktionen zu messen, fügt Prof. Deeks hinzu.


(1)  Proposal for a common framework for the use, validation and mutual recognition of COVID-19 rapid antigen tests in the EU).


 *Der Artikel ist am 18. Dezember 2020 im Horizon, the EU Research and Innovation Magazine unter dem Titel: " PCR, antigen and antibody: Five things to know about coronavirus tests" https://horizon-magazine.eu/article/pcr-antigen-and-antibody-five-things-know-about-coronavirus-tests.html (Autorin: Natalie Grover). Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Drei Abbildungen wurden von der Redaktion eingefügt.


Weiterführende Links

WHO's Science in 5 on COVID-19 - Tests, Video 4:49 min. (Englisch) https://www.who.int/emergencies/diseases/novel-coronavirus-2019/media-resources/science-in-5/episode-14---covid-19---tests

Michael Wagner: COVID-19 Faktencheck: Welche COVID-19 Testverfahren gibt es? Video 7:37 min. https://www.youtube.com/watch?v=6IsrIO9RT3w

Jon Deeks, Prof.of Biostatistics, Institute of Applied Health Research, University Birmingham. https://bit.ly/37X6wBP


 

inge Wed, 30.12.2020 - 22:12

Myelin ermöglicht superschnelle Kommunikation zwischen Neuronen

Myelin ermöglicht superschnelle Kommunikation zwischen Neuronen

Do, 24.12.2020 - 07:43 — Nora Schultz

Nora SchultzIcon Gehirn

Nervenzellen kommunizieren, indem sie elektrische Signale (Aktionspotentiale) auf eine lange Reise bis zu den Synapsen am Ende ihres Axons schicken – ein aufwändiger und verhältnismäßig langsamer Prozess. Mit der Hilfe der Oligodendrozyten - eine Art von Gliazellen - wird das Axon zum Super-Highway. Diese Zellen umwickeln mehrere Axone abschnittsweise, versorgen sie mit Energie und isolieren die ummantelten Stücke mit ihrer als Myelin bezeichneten Biomembran elektrisch. Innerhalb der umwickelten Abschnitte kann sich das Aktionspotential viel schneller fortpflanzen. Die Entwicklungsbiologin Nora Schultz gibt einen Überblick über den Vorgang der Myelinisierung.*

Neuronen, die „grauen Zellen“ im Gehirn, haben ihren guten Ruf als Rechenmeister zu Recht. Doch erst in weiße Gewänder gehüllt, verbringen sie auch Kommunikationswunder. Damit Nervenzellen sich mit vielen, vielen weiteren Kolleginnen austauschen können, braucht es Axone. Abbildung 1.

Abbildung 1. Wie ein Neuron aussieht. Ein Neuron besteht aus einem Zellkörper und seinen Fortsätzen. Signal-empfangende Fortsätze nennen sich Dendriten, sendende Axone. Axone sind durch eine Myelin-Ummantelung elektrisch isoliert. (Bild: https://www.dasgehirn.info/grundlagen/kommunikation-der-zellen/bild-aufbau-eines-neurons. Lizenz: cc-by-nc)

Über diese Datenkabel treten sie in Kontakt miteinander und knüpfen weitläufige Netzwerke. Dabei überbrücken sie Entfernungen von bis zu mehreren Metern – für den Zellkosmos eine riesige Distanz. Um das zu bewerkstelligen, benötigen Axone entweder einen beachtlichen Durchmesser oder eine gute Isolierung. Die Lösung der Wirbeltiere heißt Isolierung durch Myelin, Dabei handelt es sich um eine besonders fetthaltige und daher weiß erscheinende, elektrisch isolierende Biomembran. Sie umwickelt die Axone.

Doch wie gelangt die Myelinscheide um die Axone? Und was genau bewirkt sie dort?

Von wegen langweilige Hülle

Was auf den ersten Blick wie eine langweilige Hülle wirkt, entpuppt sich bei genauerer Betrachtung als eine spannende, dynamische und hochkomplexe Angelegenheit. Direkt nach der Geburt ist im Gehirn des Neugeborenen noch vieles grau in grau. Die Myelinisierung der Axone, der die „weiße Substanz“ im Gehirn und Rückenmark ihren Namen verdankt, beginnt zwar bereits während der Schwangerschaft, setzt sich jedoch während der Kindheit fort und wird auch in der Pubertät noch einmal stark verfeinert. Und sogar darüber hinaus findet noch Myelinisierung statt – wenn auch in weit geringerem Maße.

Verantwortlich für die Isolationsarbeiten sind spezialisierte Helfer, die Oligodendrozyten. Jede dieser Zellen, die zu den Gliazellen zählen, kann mehrere Axonabschnitte auf verschiedenen Axonen mit Zellausstülpungen umwickeln, wie mit einem Verband. Abbildung 2. Damit fungieren die Oligodendrozyten zusätzlich auch noch als Kabelbinder, die mehrere Axone bündeln. Außerdem versorgen sie das Axon und seine vielen energiehungrigen Ionenpumpen mit Nährstoffen.

Abbildung 2. Isolierung der Axone per Myelin. Die Ummantelung übernehmen im Gehirn Oligodendrozyten, die auch mehrere Axone gleichzeitig umwickeln können. Die Zwischenräume werden als Ranviersche Schnürringe bezeichnet. Der Prozess der Myelinisierung kann bis zu 25 Jahre dauern. (Bild: https://www.dasgehirn.info/grundlagen/kommunikation-der-zellen/interaktiv-das-neuron-form-und-funktion. Lizenz cc-by-nc)

Geschwindigkeitsupgrade durch Isolation

Die Myelin-Verbände verleihen den elektrischen Signalen, den Aktionspotentialen, die entlang des Axons vom Zellkörper bis zu den Synapsen am anderen Zellende reisen, ein wahrlich sprunghaftes Geschwindigkeitsupgrade. Ohne Myelin pflanzt sich ein solches Aktionspotential fort, indem es die Spannung an der Zellmembran Schritt für Schritt über die Gesamtlänge des Axons verändert. Wird ein bestimmter Schwellenwert überschritten, öffnen sich spannungsgesteuerte Membrankanäle, die schlagartig viele positiv geladene Natriumionen ins Zellinnere strömen lassen. Dadurch schnellt das Membranpotential an dieser Stelle noch weiter nach oben und schubst auch die weiter flussabwärts liegende Region über den Schwellenwert, sodass sich dort ebenfalls die spannungsgesteuerten Kanäle öffnen. Das Aktionspotential fließt so per Kettenreaktion bis zum Ende des Axons. Abbildung 3, oben.

Dieser Prozess läuft allerdings relativ langsam ab, mit einer Geschwindigkeit von rund einem Meter pro Sekunde. Wärmere Temperaturen oder ein größerer Axondurchmesser, bei dem pro Einheit Membranoberfläche mehr elektrisch leitendes Innenvolumen – und damit ein reduzierter Längswiderstand – vorhanden ist, vermögen die Reise zu beschleunigen. Manche Weichtiere wie Tintenfische und Meeresschnecken nutzen diese Strategie, um mit ganz besonders dicken Axonen von bis zu einem Millimeter Durchmesser besonders schnelle Signale zu verschicken, auch ohne Myelinisierung.

Bei Wirbeltieren und somit auch im menschlichen Gehirn hingegen sorgt das Myelin für mehr Geschwindigkeit – bei gleichzeitig großer Platzersparnis im hochkomplexen Zentralnervensystem. Es erlaubt dem elektrischen Signal vor allem, umwickelte Axonabschnitte einfach zu überspringen. Dank der Isolierwirkung kann das lokal entstandene Aktionspotential sich vergleichsweise ungestört im Inneren des Axons als elektrisches Feld fortpflanzen. Dieses reicht aus, um an der nächsten Lücke, wo die Zellmembran freiliegt, dem Ranvierschen Schürring, den Schwellenwert für die Öffnung der spannungsgesteuerten Kanäle zu erreichen. Das Aktionspotential springt nun rasend schnell von einem Ring zum nächsten und ermöglicht so eine enorme Leitgeschwindigkeit – von bis zu 100 Metern pro Sekunde. Abbildung 3, unten.

Abbildung 3.Die Erregungsleitung - Geschwindigkeit des Aktionspotentials - im Axon. Im nicht-myelinisierten Axon (oben) pflanzt sich das elektrische Signal kontinuierlich mit einer Geschwindigkeit von 2 - 3 m/sec fort. Im myelinisierten Axon (unten) springt das Aktionspotential von einem Ranvier'schen Schnürring zum nächstenund erreicht Geschwindigkeiten bis zu 100 m/sec. ((Bild: https://www.dasgehirn.info/grundlagen/kommunikation-der-zellen/interaktiv-das-neuron-form-und-funktion. Lizenz cc-by-nc)

Trotz der raffinierten Isolationsstrategie gilt bei der Übertragungsgeschwindigkeit: „size matters“. Sie hängt von der Dicke des Axons unter dem Myelin ab sowie seiner Dicke an den dazwischen liegenden Schnürringen. Außerdem zählen die Dicke der Myelinscheide selbst und die Länge der umwickelten Abschnitte.

Benedikt Grothe von der Ludwig-Maximilians Universität München erforscht die Signalübertragung im Hörsystem, wo es oft auf Millisekunden ankommt, um feine Unterschiede zwischen Tönen auseinanderzuhalten. In Versuchen und Modellierungen hat er herausgefunden, dass die schnellstmögliche Signalübertragung stattfindet, wenn der Axondurchmesser groß und die Myelinsegmente kurz sind . Die Höchstgeschwindigkeit hat allerdings ihren Preis, da bei vielen kurzen isolierten Segmenten auch die Zahl der Schnürringe im Verlauf der Faser steigt, an denen das Aktionspotential aktiv weiterspringen muss – ein Prozess, der viel Energie benötigt. „In der Praxis beobachten wir daher oft einen Kompromiss zwischen Schnelligkeit und den metabolischen Kosten“, sagt Grothe. “Aber wenn der Schaltkreis es verlangt, kann die Geschwindigkeit ausgereizt werden.“ Auch entlang eines einzelnen Axons können die Faktoren variieren. Zum Ende des Axons hin beobachten die Forscher etwa eine zunehmende Optimierung von Axondurchmesser und Myelinsegmentlänge ausgerichtet auf Schnelligkeit. Vermutlich dient das der Absicherung, damit das Aktionspotential die Synapse zuverlässig erreicht.

Myelinisierung als Bestandteil der Plastizität

Die Myelinschicht ist also mehr als nur Isolation. Vielmehr handelt es sich um eine sehr präzise Konfiguration von Axon und umwickelnden Oligodendrozyten. Und diese ist bei Weitem nicht starr. „Veränderungen in der Myelinisierung haben viel mit neuronaler Plastizität gemeinsam, auch wenn die Prozesse Monate statt Tage dauern“, sagt Tim Czopka, der mit seiner Arbeitsgruppe derzeit von der Technischen Universität München an die University of Edinburgh umzieht. Er untersucht mit seinem Team bei Zebrafischen, wie sich die Myelinisierung in Abhängigkeit von den Aktivitäten und Erfahrungen einzelner Nervenzellen wandelt. Auch beim Menschen lässt sich beobachten, dass sich intensive und längerfristige Lernprozesse auf die weiße Substanz im Gehirn auswirken. Lernt man beispielsweise Jonglieren oder ein neues Instrument, nimmt die weiße Substanz im manchen Regionen zu; bestimmte Schaltkreise werden verstärkt myelinisiert, um die Signalübertragung dort zu verbessern. “Die Verschaltungen zwischen Neuronen über Synapsen sind nur eine Ebene der Kommunikation innerhalb eines Netzwerks, aber damit die Impulse auch zur richtigen Zeit am richtigen Ort ankommen, muss auch die Myelinisierung angepasst werden“, so Czopka.

Ist ein Axon erst einmal vollständig umwickelt, kann es gemeinsam mit seinen Oligodendrozyten zwar noch einige Feinjustierungen vornehmen, beispielsweise seinen Durchmesser verändern oder die Länge der myelinisierten Abschnitte und die Position der Schnürringe anpassen. Andere Formen der Plastizität sind dann aber nicht mehr möglich. Axonabzweigungen etwa kann es aus seinem Korsett heraus wohl nicht mehr bilden. Czopka vermutet daher, dass die besonders spannenden Ereignisse überall dort stattfinden, wo Axonteile noch nicht – oder gerade nicht mehr – umwickelt sind. Dann gibt es viele Möglichkeiten für Neuronen und Oligodendrozyten, im Austausch miteinander und in Reaktion auf die Aktivitäten im System ihre individuelle Konfiguration zu finden.

Lernen vom Zebrafisch

Die Kommunikation beginnt damit, dass die Vorläuferzellen der Oligodendrozyten auf Partnersuche gehen. Inspiriert von bislang größtenteils unbekannten Signalen tasten die Zellen dann ihr Umfeld nach geeigneten Neuronen ab. „Sie versuchen, alles Mögliche mit Stummelfortsätzen zu umwickeln, wie kleine Spinnen“, erzählt Czopka, der diese Vorgänge in den transparenten Larven von Zebrafischen live filmt. Je nach den Signalen, die sie im Umfeld eines bestimmten Axons finden, stabilisieren sie die Fortsätze oder ziehen sie wieder zurück.

Bereits jetzt zeichnet sich ab, dass der Austausch zwischen beiden Zelltypen sehr fein aufeinander abgestimmt ist. Oligodendrozyten und ihre Vorläufer haben selbst viele Rezeptoren für Neurotransmitter und spannungsabhängige Ionenkanäle, mit denen sie der Aktivität von Neuronen „zuhören“ können. Ist eine Nervenzelle sehr aktiv, verändert sich auch die metabolische Aktivität der sie umwickelnden Oligodendrozyten: Sie teilen und differenzieren sich stärker. Die genaue Identität und Dynamik dieser Signale zu verstehen, ist eines der Forschungsziele von Czopka und seinem Team.

Hinter diesen Forschungsaktivitäten steckt auch der Wunsch, die Zusammenarbeit zwischen Neuronen und Oligodendrozyten in Zukunft wieder besser ins Lot bringen zu können, nachdem sie etwa durch Krankheit oder Verletzung gestört wurde. Bei der Multiplen Sklerose zum Beispiel greifen fehlgeleitete Immunzellen die Oligodendrozyten an und zerstören die Myelinscheide so, zumindest vorübergehend. Das gefährdet sowohl die Energieversorgung der Neuronen als auch ihre Kommunikation mit anderen Nervenzellen. Je nach Krankheitsverlauf kann sich das System jedoch wenigstens teilweise erholen und zerstörte Myelinscheiden neu bilden. Die Hoffnung ist, eines Tages durch gezieltes Eingreifen in das Entstehen und die Aktivität von Oligodendrozyten die Funktion neuronaler Netze passgenau reparieren zu können.


Zum Weiterlesen:

  • Ford MC et al: Tuning of Ranvier node and internode properties in myelinated axons to adjust action potential timing. Nature Communications, 2015, 6:8073. https://www.nature.com/articles/ncomms9073 
  • Marisca R et al: Functionally Distinct Subgroups of Oligodendrocyte Precursor Cells Integrate Neural Activity and Execute Myelin Formation. Nat Neurosci. 2020 Mar; 23(3): 363–374.  10.1038/s41593-019-0581-2

* Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Der vorliegende Artikel ist am 1.Dezember 2020 unter dem Titel: "Highspeed dank Myelin" erschienen (https://www.dasgehirn.info/grundlagen/struktur-und-funktion/highspeed-dank-myelin). Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog gestellt und mit einigen Abbildungen von der Webseite Neurone - Bausteine des Denkens: https://3d.dasgehirn.info/#highlight=grosshirnrinde&sidebar=1 ergänzt.


Artikel im ScienceBlog


 

inge Wed, 23.12.2020 - 20:59

Warum ergeht es Männern mit COVID-19 schlechter? Dreifarbige Katzen geben einen Hinweis

Warum ergeht es Männern mit COVID-19 schlechter? Dreifarbige Katzen geben einen Hinweis

Do, 17.12.2020 — Ricki Lewis

Ricki LewisIcon MedizinEine neue, auf mehr als 3 Millionen Infektionen mit SARS-CoV-2 basierende Metaanalyse zeigt weltweit zwar eine vergleichbare Ansteckungsrate von Männern und Frauen, allerdings landen Männer fast drei Mal so oft in der Intensivstation und haben eine 1,4 Mal höhere Sterblichkeitsrate [1]. Wie bei der dreifarbigen, stets weiblichen Katze, deren Farben durch Gene auf dem X-Chromosom kodiert werden, könnte - nach Meinung der Genetikerin Ricki Lewis - der den Verlauf von COVID-19 beeeinflussende Geschlechtsunterschied u.a. durch die Position einiger für die Erkrankung relevanter Gene auf dem X-Chromosom bedingt sein. Männer besitzen nur ein X-Chromosom, Frauen jedoch 2, wovon eines im weiblichen Embryo stillgelegt wird. Da die Auswahl des zu inaktivierenden X-Chromosom von jeder Zelle zufällig getroffen wird, entsteht ein chromosomales Mosaik - in Hinblick auf X-verknüpfte Gene der Immunabwehr und auch auf die Menge des auf den Zellen exprimierten ACE-2-Rezeptors, der Andockstelle des Coronavirus.*

Bereits zu Beginn der Pandemie zeigte sich, dass das männliche Geschlecht unserer Spezies schlechter in der Klinik abschnitt. Eine Mitte Mai von italienischen Forschern veröffentlichte Studie lieferte frühe Statistiken, die von der WHO und chinesischen Wissenschaftlern stammten: diese zeigten eine Sterblichkeitsrate von 1,7% für Frauen und 2,8% für Männer. In weiterer Folge berichteten Krankenhäuser in Hongkong, dass 15% der Frauen und 32% der Männer mit COVID-19 eine Intensivpflege benötigten oder daran gestorben waren.

Im Juli stellte eine im Fachjournal Nature Reviews Immunology veröffentlichte Perspektive von Forschern der Johns Hopkins University und der University of Montreal eine, ähnliche „männlichen Trend“ für andere Virusinfektionen fest, einschließlich SARS und MERS. Bis dahin zeigten die breiten Community-Tests in Südkorea und Daten aus den USA eine 1,5-fach höhere Mortalität bei Männern. Das Muster wiederholte sich in 38 Ländern und zwar für Patienten jeden Alters.

Jetzt weitet eine neue in Nature Communications veröffentlichte Studie das erhöhte Risiko für diejenigen aus, die nur ein X-Chromosom haben - also für Männer. [1] Forscher vom University College London haben nun eine Metaanalyse durchgeführt, in der Ergebnisse von Untersuchungen an insgesamt 3.111.714 Fällen inkludiert waren. Was die Ansteckungsrate mit SARS-CoV-2 betrifft, haben sie dabei keinen Geschlechtsunterschied ausgemacht. Allerdings besteht bei Männern eine fast dreifache Wahrscheinlichkeit, dass sie Intensivpflege benötigen, und eine etwa 1,4-mal höhere Sterblichkeitsrate als bei Frauen. Abbildung 1 (von der Redn. eingefügt).

„Mit wenigen Ausnahmen ist der geschlechtsabhängige Trend von COVID-19 ein weltweites Phänomen. Zu verstehen, wie das Geschlecht den Verlauf von COVID-19 beeinflusst, wird wichtige Auswirkungen auf das klinische Management und die Strategien zur Milderung dieser Krankheit haben “, schließen sie.

Abbildung 1. SARS-VoV-2-infizierte Männer (m) landen wesentlich häufiger in Intensivstationen (ICU) und weisen höhere Mortalitätsraten (M) auf als Frauen (f). Die Grafik wurde nach den Daten in H. Peckham et al., Tabellen 3 und 4 [1] von der Redaktion erstellt. Die Veröffentlichung steht unter einer cc-by-Lizenz.

Um die offensichtliche Diskrepanz in der Schwere von COVID-19 zu erklären, haben einige Leute vorerst nach geschlechtsabhängigen Stereotypen gesucht, wie einer höheren Risikobereitschaft oder bestimmten Berufen und Aktivitäten von Männern (den Trägern eines X und eines Y-Chromosoms). Aber als der "männliche Trend" von Nation zu Nation auftauchte, ließ sich die schuldige Ursache an den biologischen Geschlechtsunterschieden festmachen, genauer ausgedrückt an den Unterschieden in den Geschlechtschromosomen.

Eine klassische genetische Erklärung, basierend auf dem Phänomen dreifarbiger Katzen

Eine dreifarbige Katze (Kaliko Katze) weist große farbige Flecken auf einer weißen Grundfläche auf, eine Schildpattkatze ein Mosaik aus Orange und Braun ohne Weiß. Abbildung 2. Fast alle Kalikos und Schildpattkatzen sind weiblich, da das Pigmentmuster aus der Expression von nur einem der beiden X-Chromosomen in jeder Zelle resultiert. (Genexpression bezieht sich auf die Zelle, die eine mRNA-Kopie eines Gens erstellt und die Informationen in eine Aminosäuresequenz eines bestimmten Proteins übersetzt. Das Protein bestimmt das zugehörige Merkmal.)

Abbildung 2. Die dreifarbige Katze Butters Lewis.

 

Für alle weiblichen Säugetiere ist die Inaktivierung eines der beiden X-Chromosmen ("X-Inaktivierung") charakteristisch. Damit werden unsere beiden X-Chromosomen zum funktionellen Äquivalent des nur einen X-Chromosoms des Mannes (technisch ausgedrückt: eine Dosis-Kompensierung). Das winzige Y-Chromosom ist im Vergleich dazu mickrig, auch, wenn es das Hauptgen enthält, das bestimmt, ob wir biologisch männlich oder weiblich sind.

Je früher in der Entwicklung eines weiblichen Embryos ein X-Chromosom in jeder Zelle ausgeschaltet ist, desto größer werden die Flecken (was immer deren Merkmale sind), da die Zellen sich weiter teilen und einfach mehr Zeit zum Teilen bleibt. Bei einem Kätzchen mit großen Flecken wurde ihr X-Chromosom als früher Embryo stillgelegt, wie bei Butters in Abbildung 1 (aufgrund ihrer blassen Farben ein „verdünntes“ Kaliko). Das zweite X-Chromosom schaltet sich bei Schildpattkatzen etwas später aus und erzeugt kleinere Flecken. Der weiße Untergrund bei dreifarbigen Katzen rührt von einem Gen auf einem anderen Chromosom her.

Das Phänomen ist epigenetisch. Das heißt, die zugrunde liegende DNA-Sequenz eines X-Chromosoms ändert sich nicht, aber Methylgruppen (CH3-Gruppen) klammern sich an Genabschnitte und schalten diese vorübergehend effizient aus. Diese epigenetischen Veränderungen bleiben in den Geschlechtszellen erhalten und drücken den Zellen erneut ihren Stempel auf, wenn der nachkommende Embryo weiblich ist.

Auf diese Weise macht die X-Inaktivierung jedes weibliche Säugetier zu einem chromosomalen Mosaik. Klinische Auswirkungen ergeben sich aus der Tatsache, dass es mehr oder weniger zufällig ist, welches X-Chromosom still gelegt wird.

So kann das stillgelegte X-Chromosom in einer Hautzelle dasjenige sein, das vom Vater einer Frau geerbt wurde, in einer Leberzelle das von der Mutter der Frau geerbte. Wenn eine Frau Trägerin von Hämophilie ist, ein normales X-Chromosom von ihrem Vater und ein Hämophilie tragendes X-Chromosom von ihrer Trägermutter erbt und das betroffene Gerinnungsfaktor-Gen in den meisten ihrer Leberzellen stillgelegt ist, wird sie leicht bluten (ein Phänomen, das als "heterozygote Manifestation" bezeichnet wird) .Das Gleiche gilt für Muskeldystrophie, die ebenso an das X-Chromosom geknüpft ist

Der Bezug zu COVID-19

SARS-CoV-2 greift gerne bestimmte Zellen an, nämlich solche, die ACE-2-Rezeptoren tragen. Solche Rezeptoren tragen viele Zelltypen, das Virus klammert sich bekanntlich aber an Zellen, welche die Atemwege auskleiden und die Alveolen bilden, jene winzigen ballonartigen Stellen an denen der Austausch zwischen Kohlendioxid im Blutkreislauf und eingeatmetem Sauerstoff stattfindet. Ein anderes Protein, TMPRSS2 (transmembrane Serinprotease-2), hilft dem Virus, in die Zelle einzudringen, und sich dort zu vermehren.

Das Gen, das für den ACE-2-Rezeptor codiert, befindet sich auf dem X-Chromosom.

Wenn also die beiden X-Chromosomen einer Frau unterschiedliche Varianten für Gene tragen, welche die Immunabwehr gegen Viren beeinflussen, kann das Inaktivierungsmuster dazu führen, dass ihre Zellen weniger ACE2-Rezeptoren tragen, was dann weniger Viren eintreten lässt und zu einem milderen Krankheitsverlauf führt. Ein Mann würde dagegen die gleiche Menge an ACE-2-Rezeptoren auf allen Zellen aufweisen, weil sein X -Chromosom niemals ausgeschaltet wird.

Darüber hinaus können zwei X-Chromosomen, auch wenn eines abschaltet, positiv auf die Immunabwehr wirken, indem mehr Optionen angeboten werden. Beispielsweise können Genvarianten auf einem X-Chromosom für Proteine codieren, die Viren erkennen, während Genvarianten auf dem anderen X -Chromosom eine Rolle bei der Abtötung viral infizierter Zellen oder der Auslösung von Entzündungen spielen. Einige Muster der X-Inaktivierung bieten möglicherweise genug von jeder Abwehr, um Infektionen in Schach zu halten. (Beispiele für solche Gene sind CD40LG und CXCR3, die beide für Proteine auf aktivierten T-Zellen kodieren, welche einen Großteil der Immunabwehr kontrollieren).

Einige Gene auf dem X-Chromosom entgehen der Inaktivierung. Zum Glück für uns als das „schwächere“ Geschlecht ist wiederum, dass eines davon das Gen ist, das für den Toll-like-Rezeptor 7 (TLR7) codiert.

Das „TLR7“ -Protein ist eine Art Torsteher, der zunächst das Vorhandensein des Virus erkennt. Anschließend startet es die angeborene Immunantwort, die breiter ist und der spezifischeren adaptiven Immunantwort vorausgeht, bei der B-Zellen - gelenkt von T-Zellen - Antikörper auswerfen. Frauen machen also doppelt so viel aus dem schützenden TLR7-Rezeptor wie Männer.

Einige von uns XX-Trägerinnen zahlen jedoch den Preis für unsere robuste Immunantwort mit Autoimmunerkrankungen, die wir mit höherer Wahrscheinlichkeit entwickeln.

Weitere Faktoren liegen den Unterschieden zwischen den chromosomalen Geschlechtern in Bezug auf Morbidität und Mortalität von COVID-19 zugrunde. Einige Unterschiede ergeben sich aus hormonellen Einflüssen sowie aus den Auswirkungen der wenigen Gene auf dem Y-Chromosom, welche die Immunität beeinflussen.

Natürlich können wir unsere Chromosomen nicht verändern. Das Erkennen von Risikofaktoren und das Verstehen, wie sie sich auf den Verlauf einer Infektionskrankheit auswirken, bei der die Zeit entscheidend ist und die Ressourcen begrenzt und überfordert sind, kann möglicherweise die Handlungsweise lenken und Ärzten bei Triage-Bemühungen helfen, wenn unsere Krankenhäuser überfordert sind.


[1] Hannah Peckham et al., Male sex identified by global COVID-19 meta-analysis as a risk factor for death and ITU admission. NATURE COMMUNICATIONS | (2020) 11:6317. https://doi.org/10.1038/s41467-020-19741-6


*Der Artikel ist erstmals am 10.Dezember 2020 in PLOS Blogs - DNA Science Blog unter dem Titel "Why Do Males Fare Worse With COVID-19? A Clue From Calico Cats" https://dnascience.plos.org/2020/12/10/why-do-males-fare-worse-with-covid-19-a-clue-from-calico-cats/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt.  Abbildung 1 wurde von der Redaktion eingefügt.


Weiterführende Links

Robin Ball: Secrets of the X chromosome (2017) TED-Ed. Video 5:05 mim (Englisch) https://www.youtube.com/watch?v=veB31XmUQm8

Gottfried Schatz, 26.09.2013: Das grosse Würfelspiel — Wie sexuelle Fortpflanzung uns Individualität schenkt


 

inge Thu, 17.12.2020 - 00:13

Die trügerische Illusion der Energiewende - woher soll genug grüner Strom kommen?

Die trügerische Illusion der Energiewende - woher soll genug grüner Strom kommen?

Georg BrasseurIcon Politik und GesellschaftDo, 10.12.2020 — Georg Brasseur

Europa ist in gewaltigem Ausmaß von Energieimporten abhängig und diese bestehen noch zum weitaus überwiegenden Teil aus fossilen Energieträgern. Der Umbau des Energiesystems auf erneuerbare Energien wird den Bedarf an grünem Strom enorm steigen lassen und weit überschreiten, was in Europa an Wind- und Solarenergiekapazitäten erzielbar ist. Auf Grund ihrer geographischen Lage haben u.a. die Staaten des mittleren Ostens und Nordafrikas (MENA-Staaten) ein sehr hohes Potenzial für erneuerbare Energien. Europäische Investitionen in diesen Ländern, Transfer von Know-How, Technologien bis hin zur Installation von betriebsfertigen Anlagen zur Kraftstoffsynthese aus grünem Strom können einerseits Energieimporte nach Europa sichern, andererseits nachhaltige berufliche Perspektiven und wirtschaftliches Wachstum für die Bevölkerung der MENA-Staaten und anderer Regionen schaffen und damit dort auch Fluchtursachen reduzieren.

Wie in dem vorangegangenen Artikel "Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität" dargestellt, gehen Maßnahmen zur generellen Senkung des heutigen Weltenergiebedarfs und damit der Treibhausgasemissionen mit einer starken Steigerung des Bedarfs an elektrischer Energie einher [1]. Derzeit deckt die elektrische Energie rund 16 % des globalen Energiebedarfs und sie wird noch zum überwiegenden Teil aus fossilen Energieträgern hergestellt. Zur Erzeugung von grünem Strom stehen außer Atomkraft, Biomasse, Wasserkraft und Geothermie nur volatile Quellen zur Verfügung.

Wenn in allen Sektoren - Wohnen, Industrie, Transport - von fossiler Energie auf elektrische Energie umgestellt werden soll, wobei noch ein exponentiell wachsender Informations- und Kommunikationsbereich (IKT-Bereich) hinzukommt, woher soll/kann dann Strom kommen, der nicht aus fossilen Quellen stammt?

Dass ein Ausfall der Stromversorgung - ein Blackout - in allen hochindustrialisierten Ländern katastrophale Folgen haben würde, ist evident, dass die Elektrizitätsversorgung gesichert sein muss, ist daher oberstes Gebot.

Europas Bedarf an grünem Strom

Europa ist in enormem Ausmaß von Energieimporten abhängig und dabei handelt es sich derzeit zum allergrößten Teil um fossile Energieträger. Es stellt sich die Frage: Sind bei einem Umbau des Energiesystems die in Europa erzielbaren erneuerbaren Energien ausreichend, um den künftigen Bedarf an elektrischer Energie zu decken?

Das Beispiel Deutschland

Dies lässt sich am Beispiel der Bundesrepublik Deutschland abschätzen. Abbildung 1.

Im Jahr 2018 betrug der Bedarf an Primärenergie in Deutschland insgesamt 3650 TWh, davon wurden 35 % (1293 TWh) für die Stromerzeugung eingesetzt und damit Brutto 644 TWh Strom erzeugt (inklusive 34 TWh Eigenverbrauch der Kraftwerke). Nur 18 % der Primärenergie Deutschlands ist Strom und dieser wird zu 29 % aus Braunkohle erzeugt. 90 % der in 2018 in Deutschland geförderten Braunkohle dienen der Stromerzeugung. 30 % der Primärenergie wurden aus dem Inland bereitgestellt (gelb), und 70 % importiert (orange) [4].

Abbildung 1. Primärenergieverbrauch 2018 im Inland nach Energieträgern: Aus dem Inland bereitgestellte Energie (gelb) und importierte Energie (orange) in Petajoule und TWh (1 TWh = 3,6 PJ). Erneuerbare Energie: Biomasse/Bioabfälle/Biokraftstoffe (60 %), Windkraft (22 %), Photovoltaik/Solarthermie (11 %), Wasserkraft (4 %),. Datenstand 6. Dezember 2020; Quelle: https://www.ag-energiebilanzen.de/10-0-Auswertungstabellen.html

Deutschland deckt bereits 13,7% (500,6 TWh) des Primärenergiebedarfs durch erneuerbare Energien ab. 2018 lag die installierte Leistung von Windkraftwerken (29 000 Onshore und 1 350 Offshore) bei 59 GW, von Solarkraftwerken bei 45 GW (ca. 600 km2). Trotz der hohen installierten Leistungen lieferten die Kraftwerke „nur“ ein Drittel der erneuerbaren Energie, da die Einsatzzeiten und erzielbaren Leistungen volatil sind.

Inwieweit lassen sich aber die importierten fossilen Energieträger durch inländische Erneuerbare ersetzen?

Wollte man nur den Energieträger Steinkohle (396,7 TWh) durch erneuerbare Windenenergie ersetzen, so wären bei Betrieb mit der installierten Windkraftleistung von 59 GW im Jahr (d.i. in 8760 Stunden) theoretisch 517 TWh elektrischer Energie zu erzielen. Tatsächlich werden von Onshore Windrädern nur 15 % und von Offshore Windrädern nur 24 % der installierten Nennleistung erreicht. Um also allein Steinkohle zu ersetzen, müsste man die Zahl der Windräder um das 3,2 bis 5,1-fache erhöhen (für das Jahr 2018 war der Faktor 3,6). Ein Ersatz durch Photovoltaik ist noch problematischer, da zufolge der ungünstigen geographischen Lage nur 10 -13 % der Nennleistung erzielt werden. Um allein Steinkohle zu ersetzen, bräuchte man eine 7,7 bis 10-fache Erhöhung der Photovoltaikflächen (für das Jahr 2018 war der Faktor 8,7).

Wollte man nun auch Braunkohle durch Erneuerbare Energien ersetzen, so müsste man die bereits erhöhte Zahl an Windrädern/Photovoltaikflächen verdoppeln, bei Ersatz von Erdgas zusätzlich um das 2,2-fache erhöhen und für den Ersatz von Erdöl zusätzlich um das 3,1-fache erhöhen (insgesamt um das 6,3-fache erhöhen). Man müsste also insgesamt rund 20 bis 32 mal mehr Windräder oder 49 bis 63 mal größere Photovoltaikflächen errichten. Dass dies in Deutschland und Europa wohl nicht durchsetzbar sein wird, ist evident.

Generell lässt sich das angestrebte Null CO2 Szenario mit Strom als alleinige Ersatzenergiequelle nicht lösen, da viele Prozesse gasförmige und flüssige Energieträger benötigen. Damit sind die vorstehenden Angaben zur Anzahl an benötigten Windrädern und Photovoltaikflächen immer noch viel zu gering, da der Wirkungsgrad der Syntheseanlagen für gasförmige und flüssige Energieträger gering ist. Dadurch fallen zusätzliche hohe Investitionen für die Herstellung und Errichtung dieser Anlagen an. Allerdings böte dieser Weg auch große Vorteile, da man auf bestehende Transport-, Verteil- und Nutzungsinfrastruktur zurückgreifen könnte, wenn die Chemie der synthetischen Energieträger kompatibel zu den bestehenden fossilen Energieträgern – sogenannte „Drop-in Fuels“ gewählt würde.

Fakt ist, dass Deutschland, ja ganz Europa, nicht energieautonom sein kann und daher mindestens einen speicherfähigen und leicht transportierbaren Energievektor benötigt, um den grünen Primärenergiebedarf zu decken und damit das null CO2 Ziel in 2050 zu erreichen.

Das Beispiel Österreich

Zahlen des Bundesministerium für Landwirtschaft, Regionen & Tourismus für das Jahr 2018 gehen von einem Bruttoenergiebrauch von rund 508 TWh aus, rund 69 % basierten auf fossilen Energieträgern [2]. Abbildung 2.

Abbildung 2. Bruttoinlandsverbrauch in Österreich nach Energieträgern: Im Inland erzeugte Energie (gelb) und importierte Energie (orange) in Petajoule und TWh (1 TWh = 3,6 PJ). Erneuerbare Energie: Wasser-, Windkraft, Photovoltaik, Biomasse, erneuerbare Abfälle. Quelle: Zahlen entnommen aus [2].

27,3 % der Energie wurden im Inland generiert und bestanden zu rund 82 % aus erneuerbaren Formen, der Großteil (88,8 %) davon stammte aus festen biogenen Brenn- und Treibstoffen (63,06  TWh) und Wasserkraft (37,5 TWh). Windkraft (6,1 TWh) trug etwa 5,4 % zu den Erneuerbaren bei, Photovoltaik (1,4 TWh) rund 1,2 %.

Das österreichische Regierungsprogramm sieht bis 2030 einen Ausbau der Erneuerbaren um 27 TWh vor; insbesondere soll Photovoltaik um 11 TWh (auf rund das 6,5-fache) erhöht werden, Windkraft von 7,4 auf 17,4 TWh, die bereits weit ausgebauten Formen Wasserkraft und Biomasse um 5 TWh und 1 TWh [3]. Österreichs Strombedarf (2018 63,1 TWh [3]) soll dann damit zu 100 % mit erneuerbaren Energien bestritten werden. In Ermangelung ausreichend großer elektrischer Energiespeicher wird Österreich bei wenig Wind und Sonne („kalte Dunkelflautentage“) elektrische Energie aus dem Ausland importieren (aus Atomkraftwerken oder fossil betriebenen Kraftwerken) und, wenn volatile Energie in Österreich im Überfluss vorhanden ist, diese an die umliegenden Länder exportieren müssen. Damit erreicht Österreich nur „am Papier“ einen zu 100 % grünen Strom. Die notwendigen Stromimporte werden weiterhin – wenn auch in abgeschwächter Form – die CO2 Emissionen des österreichischen Stroms bestimmen. Was bedeutet das aber in Hinblick auf einen generellen Ausstieg aus fossilen Energieträgern?

Um Steinkohle (31,7 TWh) nur durch die bis 2030 angepeilte Photovoltaik zu ersetzen, müssten die Photovoltaikflächen (bei 11,8 % Ausnützung (Mittelwert 2016 - 2018) der installierten Nennleistung) nochmals auf das 22-fache gesteigert werden. Der Ersatz nur durch Windenenergie würde die Zahl der Windräder in 2030 (bei 23,3 % Ausnützung der installierten Nennleistung) noch um das 5,2-fache erhöhen. Soll auch Erdgas ersetzt werden, würde dies die Photovoltaikflächen oder Zahl der Windräder dann nochmals um etwa das 97-fache, der Ausstieg aus Erdöl nochmals auf das 130-fache respektive 30-fache erhöhen.

Ein derartiger Umbau des Energiesystems würde zweifellos die Möglichkeiten im Land weit übersteigen.

Woher soll nun grüner Strom kommen?

Die Ressource Wind

In seiner neuesten Ausgabe gibt der Global Wind Atlas 3.0 (https://globalwindatlas.info/) einen Überblick über Größe und Verteilung der weltweiten Wind-Ressourcen und bietet damit die Möglichkeit, Orte mit günstigen Bedingungen für Windkraft schnell zu identifizieren. Ein Farbcode von blau bis rot-violett steht für die umzusetzende Windleistung, die in den einzelnen Regionen per m2 Fläche eines Rotorblattkreises gesammelt werden kann: hellblau mit weniger als 25 W/m2 und grün mit 300 W/m2 bis zu rotviolett mit 1300 W/m2 und mehr. Abbildung 3.

Abbildung 3. Günstige Bedingungen für Windkraft in Europa gibt es in Küstenregionen und auf Bergspitzen, in weiten Teilen ist die umzusetzende Windleistung dagegen niedrig - im Gegensatz zu Ländern des Mittleren Ostens und Nordafrika (MENA-Region). (Bild: Global Wind Atlas, DTU Wind Energy; https://globalwindatlas.info/. Lizenz: open access)

In Europa überwiegen leider blaue und grüne Regionen. Nur auf Bergspitzen und in Küstenregionen kann man Energien bis zu 1300 W/m2 gewinnen. (Offshore Kraftwerke kommen aber in Bau, Betrieb und Wartung wesentlich teurer als solche am Festland.)

Wesentlich günstigere Bedingungen für Windkraft bestehen dagegen in den MENA-Regionen (Staaten des Mittleren Ostens und Nordafrikas) und generell an zahlreichen Küstenstreifen weltweit.

Im Osten Österreichs gibt es Regionen, die im gelben Bereich der Windkraft liegen, wie beispielsweise das Marchfeld. Abbildung 4. Allerdings: mit der gleichen Investition in ein Windkraftwerk im Marchfeld oder an eines an der norwegischen Küste könnte man dort bedeutend mehr elektrische Energie erzielen.

Abbildung 4. Höhere Windleistung gibt es auf den Bergkämmen und im Osten des Landes. (Bild: Global Wind Atlas, https://globalwindatlas.info/. Lizenz: open access)

Die Ressource Sonnenenergie

Gleiches wie für die Windkraft gilt auch für die Photovoltaik. Dies wird aus den interaktiven Landkarten des Global Solar Atlas (GSA 2.2., https://globalsolaratlas.info/download)  ersichtlich, welche die Sonneneinstrahlung und das Potenzial für Photovoltaik visualisieren. Abbildung 5 zeigt die auf Europa, Nordafrika und mittleren Osten eingestrahlte Sonnenenergie in einem Farbcode, der von blau (pro Jahr 700 kWh/m2) bist rot-violett (>2800 kWh/m2) reicht.

Dem Sonnenstand entsprechend nimmt die Sonnenenergie vom Norden nach Süden hin zu; in Österreich, (Süd-)Deutschland und der Schweiz liegen wir im gelben Bereich, d.i. bei 1200 kWh/m2. In der MENA-Region gibt es dagegen mehr als das Doppelte an Sonnenenergie. Es sind Länder, aus denen mangels Arbeitsmöglichkeiten viele Menschen zu uns einwandern (wollen). Kluge Investitionen in diesen Gegenden könnten dort Beschäftigung und damit Lebensgrundlage für die Bevölkerung schaffen.

Abbildung 5. Entsprechend dem Sonnenstand liegt die eingestrahlte Energie in weiten Teilen Europas im gelben Bereich. d.i. um 1 200 kWh/m2 pro Jahr- Länder des Mittleren Ostens und Nordafrikas (MENA-Region) sowie Wüstengebiete innerhalb eines breiten Bands um den Äquator haben mehr als die doppelte Sonneneinstrahlung. (Bild: Global Solar Atlas, https://globalsolaratlas.info/download) Lizenz: open access)

Erkenntnisse aus den Wind- und Solarenergiekarten

Europa ist gezwungen Energie zu importieren und wird bei einem Umbau des Energiesystems auf erneuerbare Energien keine völlige Unabhängigkeit von Importen erreichen können.

Produktion grüner Energieträger an wirkungsvollen Standorten…

Verglichen mit Europa gibt es in der MENA-Region - weltweit aber auch in vielen anderen Gebieten - wesentlich wirkungsvollere Standorte für Solar- und Windkraftwerke. Warum also sollte man nicht daran denken dort Solar- und Windkraftwerke zu errichten, um die in Europa notwendigen Energieträger (Methan und auch synthetische Kraftstoffe) herzustellen? Methan und auch synthetische Kraftstoffe sind ja unabdingbar um eine „kalte Dunkelflaute“ (wenn kein Wind weht und die Sonne nicht scheint) und Jahreszeitschwankungen zu überbrücken; dazu muss ein mit volatiler Energie versorgtes Netz ca. 15 -20 % der jährlichen Primärenergie speichern können, damit die Energieversorger, immer dann wenn die grüne Energie ausfällt, mit Hilfe von synthetischem grünen Methan und vorhandenen kalorischen Gaskraftwerken, den benötigten Strom bereitstellen.

…bringt Vorteile für Europa…

  • In Europa würde eine Vervielfachung von Photovoltaikflächen und Windparks, für deren Errichtung ja enorme Hürden - Platzmangel, langwierige Genehmigungsverfahren, Bürgerproteste - überwunden werden müssen, vermieden. Und die Zeit läuft ja davon.
  • An den außereuropäischen Standorten kann bei gleicher installierter Leistung ein doppelter Ertrag erzielt werden und ebendort die Primärenergie in die für uns wichtigen Energieträger (Methan und auch synthetische Kraftstoffe) umgewandelt und in vorhandenen Lagern (zwischen)gespeichert werden.
  • Dies bedeutet Absatzmärkte für Solar- und Windkraftwerke und für Syntheseanlagen.
  • Der Transport von flüssigem grünen Methan und grünen Kraftstoffen kann auf der Straße, der Schiene und auf dem Wasser erfolgen (hier unter Nutzung der vorhandenen Tanker); Transportverluste von Kohlenwasserstoffen sind bezogen auf den Energieinhalt nahezu vernachlässigbar.

…und Chancen für außereuropäische Standorte

  • Die Produktion grüner Kraftstoffe würde Arbeitsplätze und damit eine Lebensgrundlage für viele Menschen schaffen. Grünes Methan und grüne Kraftstoffe könnten dann am freien Markt zu erschwinglichen Preisen offeriert werden.
  • In Wachstumsregionen würde dies die Zunahme eines bescheidenen Wohlstands unterstützen ohne, dass es parallel dazu zu einem Anstieg von CO2 kommt (siehe "Energiebedarf - Wohlstand - CO2-Emissionen" in [1]).
  • Die verbesserte wirtschaftliche Grundlage könnte einen Beitrag zur Friedenssicherung leisten und auch zur Eindämmung von Fluchtursachen aus vielen dieser Länder.

Zu den Nachteilen eines solchen Vorgehens

zählt vor allem der niedrige Wirkungsgrad der Synthese von Methan und flüssigen Kraftstoffen; das bedeutet einen sehr hohen Bedarf an Primärenergie und hohe Prozesskosten.

Dazu ein Beispiel:

Nehmen wir an, wir haben einen 2 GW Windpark installiert. Dieser wäre damit etwa 4 mal so groß wie die derzeit größten offshore Windparks in Deutschland; in Windrädern ausgedrückt wären es 286 Stück zu je 7 MW und einer Ausdehnung von rund 160 km2. Bei 24 % Auslastung (siehe oben "Das Beispiel Deutschland") liefert ein solcher Park mit Nennleistung betrieben 4,2 TWh im Jahr (zum Vergleich: Österreich verbraucht im Jahr 60 - 65 TWh elektrische Energie). Wenn wir nun den Strom verwenden, um Flüssigmethan oder Diesel herzustellen ("power to X") und damit Tanker beladen, so liegt der Wirkungsgrad der Umwandlung je nach Verfahren bei 43 - 71 %. Von den 4,2  TWh bleiben somit 1,8 - 3,1 TWh übrig. Um einen LNG-Tanker (LNG: Liquid Natural Gas; verflüssigtes Methan) mit einer Kapazität von 250 Millionen Liter zu füllen, muss der 2GW-Windpark 6 - 9 Monate in Betrieb sein; für die Füllung eines Dieseltankers mit 350 Millionen Liter Kapazität wären 1,35 - 2,1 Jahre Laufzeit notwendig. Gelöscht wird diese Ladung innerhalb von weniger als 24 Stunden.

Dies zeigt, wie mühsam es ist grüne Energie einzuführen und wie unwahrscheinlich hoch die Energiedichte fossiler Energie, die wir chemisch perfekt nachbilden können, ist. Und das muss auch das Ziel sein!

Eine so importierte grüne Energie wird man dringend brauchen, um unsere Netze zu stützen, da man ja in verstärktem Maß auf fossiles Erdgas verzichten wird müssen. Zweifellos werden die Importe nicht primär dazu dienen, dass man Autos damit betreibt.

Das Ziel: Elektrizität frei von fossiler Energie

Fossile Brennstoffe sind nach wie vor die dominante Energiequelle weltweit, eine Tatsache, die sich nur langsam (vielleicht zu langsam?) ändern wird.

  • Fast alle derzeit diskutierten Wege für eine signifikante CO2-Reduktion erfordern Strom aus CO2-neutralen Quellen: Geothermie, Wind, Photovoltaik & sichere Kernenergie. Auf globaler Ebene wird es Jahrzehnte dauern, bis CO2-freier Strom Realität wird.
  • Die CO2-Reduktion ist ein globales Thema, kein lokales. Wo die Bevölkerung wächst und wohlhabend wird, wachsen die CO2-Emissionen. Die Entkopplung der Energie von den CO2-Emissionen ist entscheidend (siehe [1]).
  • Auch die armen, wachsenden Nationen bestimmen zufolge der großen Anzahl, die Erreichung der Paris-Ziele und nicht nur die reichen und technologisch führenden Länder (Ausnahme China).

Es besteht also dringender Handlungsbedarf …

Der Schlüssel für eine sofort wirksame globale CO2-Reduktionsstrategie ist Energieeinsparung: d.i. ohne Einbußen mit weniger Primärenergie auskommen. Dies ist möglich durch Thermische Isolation, Wärmepumpen für Kühlung & Heizung und industrielle Verbesserungen [1].

Gleichzeitig ist der Ausbau von grünen Kraftwerken, Netzen und Energiespeichern zu forcieren. Dadurch können BIP & fossiler Energieverbrauch entkoppelt werden, der Wohlstand steigen bei sinkendem fossilem Energieverbrauch und damit auch sinkendenTreibhausgas-Emissionen.

Anlagen zum Synthetisieren von Methan/Kraftstoffen aus volatiler Energie sollten außerhalb Europas zur Stromerzeugung in Europa errichtet werden. Es ist eine Verpflichtung der technologisch führenden Länder, global einsetzbare CO2-Reduktionstechnologien unter Berücksichtigung der lokalen Infrastruktur zu entwickeln und anzubieten. Wir könnten vielen Ländern Miniraffinerien schlüsselfertig zur Verfügung stellen - viele Tausende Anlagen über die ganze Welt verteilt. Damit würden wir dort neue Arbeitsmöglichkeiten und Wege zum Wohlstand bieten und gleichzeitig die Abhängigkeit von den Erdöl fördernden Nationen verlieren.

…wo aber bleibt die Elektromobilität?

Der Umbau des Energiesystems wird viel mehr elektrische Energie benötigen als derzeit verbraucht wird. Dazu kommt ein weltweit geradezu explodierender Bedarf des IKT-Bereichs, der nur mit Strom funktioniert [1].

Für die nächsten 10-20 Jahre ist daher kaum Elektrizität für den Verkehr verfügbar. Die Menge an elektrischer Energie ist hierbei nicht der Flaschenhals, sondern die hohen Ladeleistungen – weil es schnell sein muss – der Elektroflotten. Diese Netzleistungen können nicht ohne signifikanten Netzausbau erbracht werden. Es bleibt also nur Energie zu sparen, um Zeit für den Infrastrukturaufbau zu gewinnen. Das ist einerseits schlecht für die Elektromobilität, aber der Verkehr hat auch andere Optionen.

Wasserstoff kann vielleicht die Mobilitätslösung der Zukunft werden: derzeit ist aber kein grüner Strom für die H2-Produktion verfügbar. Steamreforming (Umsetzung von kohlenstoffhaltigen Energieträgern, vor allem von Erdgas, und Wasser unter Zuführung der Reaktionswärme) schadet der Umwelt. Für eine globale grüne H2-Zukunft werden große Mengen an grünem Strom benötigt, es sind noch hohe Investitionen zu tätigen und viel Zeit wird erforderlich sein.

Elektro-Hybridkonzept als Brückentechnologie

Um CO2 zu reduzieren, wird es in den kommenden Jahrzehnten für den Verkehrssektor der einzige global realistische Weg sein, Energie zu sparen; also Verbrennungskraftmaschinen (Vkm) nur in einem Punkt bei optimalem Wirkungsgrad als Fuel-Converter (Kraftstoffwandler) zu betreiben. Abbildung 6.

Abbildung 6. Ein neues Hybridkonzept ermöglicht signifikante Kraftstoff- und CO2-Reduktion

Man benötigt dazu ein Elektro-Hybridkonzept, das den rein elektrischen Antriebsstrang aus einem Powertank (elektrischem Hochleistungsspeicher) versorgt, und die Vkm stellt mittels eines mit der Vkm verbundenen Generators sicher, dass der elektrische Energiespeicher nicht leer wird [5].

Ein Hybridkonzept mit einem Fuel-Converter und Powertank basiert auf bewährten Technologien ist weltweit nutzbar und schnell im globalen Markt einzuführen. Arme, aber wachsende Nationen könnten ohne Investitionen die bestehende Versorgung mit flüssigen Kraftstoffen weiterhin verwenden und durch Beimischung synthetischer Kraftstoffe CO2 weiter senken.

Europa könnte mit dem Hybridkonzept zum Weltmarktführer in der Elektromobilität werden - allerdings nur als Brückentechnologie bis global grüner Strom und daraus produzierte synthetische Kraftstoffe in ausreichendem Maß zur Verfügung stehen.

In 20 – 30 Jahren wird dann vielleicht ausreichend Überschussstrom für die Elektromobilität oder die Wasserstoffmobilität zur Verfügung stehen und auch, um synthetische Kraftstoffe für Land-, See-und Flugverkehr bereit zu stellen. 


[1] Georg Brasseur, 24.9.2020: Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität.

[2] Bundesministerium für Landwirtschaft Regionen & Tourismus, bmlrt, Energie in Österreich 2019, access 21.3.2020, https://www.bmlrt.gv.at/dam/jcr:3c2b8824-461c-402e-8e1d-da938d6ece8b/BMNT_Energie_in_OE2019_Barrierefrei_final.pdf

[3] Land am Strom, Jahresbericht Österreichs Energie 2020. https://oesterreichsenergie.at/jahresmagazin-land-am-strom.html

[4] BDEW, Bundesverband der Energie- und Wasserwirtschaft e.V.: Gesamtstromverbrauch in Deutschland, https://www.bdew.de/media/documents/20190107_Zahl-der-Woche_Gesamtstromverbrauch.pdf, access 29.11.2020

[5] G. Brasseur, Hochwirkungsgrad Hybridantrieb für nachhaltige Elektromobilität, ÖAW-Verlag, 11.2.2020, https://epub.oeaw.ac.at/0xc1aa5576_0x003b46cd.pdf


Artikel zur Energiewende im ScienceBlog

Robert Schlögl, Serie: Energie - Wende - Jetzt

Redaktion, 19.09.2019: Umstieg auf erneuerbare Energie mit Wasserstoff als Speicherform - die fast hundert Jahre alte Vision des J.B.S. Haldane

Erich Rummich, 02.08.2012; Elektromobilität – Elektrostraßenfahrzeuge

Niyazi Serdar Sariciftci, 22.05.2015: Erzeugung und Speicherung von Energie. Was kann die Chemie dazu beitragen?


 

inge Wed, 09.12.2020 - 23:55

Comments

Sehr aufschlussreich ist auch ein Vortrag von Prof. Hans-Werner Sinn zum Thema. (Den ich schätze, weil er sich darin jeglicher Polemik – Stichwort ›Zappelstrom‹ – enthält!)

Anti-Antibiotikum - zusammen mit Antibiotikum angewandt - kann die Entwicklung von Antibiotika-resistenten Bakterien stoppen

Anti-Antibiotikum - zusammen mit Antibiotikum angewandt - kann die Entwicklung von Antibiotika-resistenten Bakterien stoppen

Fr, 04.12.2020 — Redaktion

RedaktionIcon Medizin Antibiotika sind für die Behandlung bakterieller Infektionen unentbehrlich. Ihre Anwendung kann jedoch zur Entwicklung und Übertragung von resistenten Bakterien führen. Infektionen mit solchen Bakterien machen eine Behandlung schwierig oder gar aussichtslos. Angesichts des massiven Problems von akquirierten resistenten Keimen in Krankenhäusern und vor allem in Intensivstationen, ist die Suche nach Wegen zur Verhinderung der Resistenzentstehung vordringlich. In einer eben erschienenen Studie [1] wird eine derartige Strategie vorgestellt, nämlich, dass gleichzeitig mit Antibiotka angewandt Adjuvantien - hier das bereits lange als Cholesterinsenker angewandte Colestyramin - die Entwicklung von Resistenzen - hier gegen das derzeit potenteste Antibiotikum Daptomycin - verhindern können.*

Der erste Globale Sepsis-Report der WHO

Im September d.J. ist der erste Globale Sepsis Report "On the Epidemiology and Burden of Sepsis" der Weltgesundheitsorganisation (WHO) erschienen. Sepsis ("Blutvergiftung") wird dabei als eine lebensbedrohende Fehlfunktion von Organen definiert, die durch eine fehlregulierte Antwort des Wirtes auf eine Infektion ausgelöst wird. Erste Abschätzungen der weltweiten Sepsis-Erkrankungen und -Todesfälle wurden für das Jahr 2017 erstellt und bieten ein erschreckendes Bild: etwa 49 Millionen Menschen (davon 40 % Kinder und Jugendliche) waren in diesem Jahr an Sepsis erkrankt, etwa 11 Millionen starben daran. Mit rund 20 % aller Todesfälle ist Sepsis damit eine der Haupttodesursachen; nach Ansicht der WHO wären sehr viele dieser Todesfälle vermeidbar. Aus dem Report ist ein globaler Überblick über Inzidenz und Mortalität von Sepsis in Abbildung 1 dargestellt.

Abbildung 1. Weltweite Inzidenz von Sepsis pro 100 000 Personen (A) von und Mortalitäten in % aller Todesfälle (B) nach Altersgruppen. (Quelle: WHO: Global Report on the Epidemiology and Burden of Sepsis (September 2020) [2]; das Bild steht unter einer cc-by-nc-Lizenz)

Sepsis ist insbesondere für Krankenhäuser und Pflegeeinrichtungen ein sehr ernstes Problem. Eine systematische Analyse der WHO für den Zeitraum 2000 - 2018 zeigt, dass in 1 von 4 aller in den Spitälern behandelten Sepsis-Fällen und in 1 von 2 Fällen in den Intensivstationen, diese dort selbst akquiriert wurden [2]. Bis zu ein Drittel der Infektionen wurden durch Antibiotika-resistente Bakterien verursacht. Die Mortalität auf Grund solcher erworbenen Infektionen lag insgesamt bei 24 %, auf den Intensivstationen bei 52,3 %.

Zur Entwicklung resistenter Bakterien im Darm

Antibiotika sind das Um und Auf in der Behandlung bakterieller Infektionen. Allerdings kann ihre Verwendung - ohne dass man es will - zur Entwicklung von Bakterien führen, die nicht mehr auf Antibiotika ansprechen, die dagegen resistent geworden sind. Infektionen mit solchen Bakterien machen eine Behandlung schwierig oder gar aussichtslos. Um die Wirksamkeit von Antibiotika bewahren zu können, muss man daher nach Wegen suchen die Entstehung von Resistenzen gegen Antibiotika zu verhindern.

Viele Bakterienstämme, die in Krankenhäusern Infektionen verursachen, leben im Darm, wo sie an sich harmlos sind. Gelangen diese Bakterien allerdings in den Blutkreislauf, so können sie lebensbedrohliche Infektionen verursachen. Wenn an Sepsis-Patienten nun Antibiotika verabreicht werden - intravenös, intramuskulär, topisch oder auch peroral -, so sind auch die Bakterien in ihrem Darm diesen Medikamenten ausgesetzt. Die Antibiotika können dort dann alle Bakterien, die für diese Antibiotika sensitiv sind, abtöten und nur solche zurücklassen, welche auf Grund von Mutationen die Medikamente überleben. Solche arzneimittelresistenten Bakterien können sich dann (u.a. durch fäkale Schmierinfektionen; Anm. Redn.) auf andere Patienten ausbreiten und in Folge schwerst behandelbare Infektionen verursachen.

Ein wichtiger Erreger von Antibiotika-resistenten Infektionen in Krankenhäusern ist der bereits gegen das Antibiotikum Vancomycin resistente Keim Enterococcus faecium (VR E. faecium). Das derzeit potenteste Antibiotikum Daptomycin (Abbildung 2, oben) ist eine der wenigen verbleibenden Primärtherapien bei VRE-Infektionen. Allerdings beginnt sich auch Resistenz gegen Daptomycin in Enterococcus-Populationen auszubreiten; wesentlicher Treiber dafür dürfte dessen derzeitige therapeutische Anwendung sein.

Abbildung 2. Oben: das Antibiotikum Daptomycin ist ein cyclische Lipopeptid, das aus einem Ring aus Aminosäuren und einer angehängten Fettsäurekette (links im Bid) besteht. Der Wirkungsmechanismus (gegen gram-positive Bakterien) ist von dem anderer Antibiotika verschieden und  in den 17 Jahren seit der Markteinführung sind  bislang wenige Resistenzen aufgetreten. Unten: Colestyramin ist ein stark basisches, aus Styrolgruppen bestehendes Polymer mit eingefügten Trimethylammoniumgruppen. Das sehr große Molekül bindet u.a. Cholesterin, Gallensäuren und viele andere Biomoleküle und - da es nicht aus dem Darm in den Organismus aufgenommen werden kann - wird es mit den assoziierten Stoffen über den Kot ausgeschieden (Quelle: Wikipedia, beide Bilder sind gemeinfrei). 

E. faecium ist ein opportunistischer Erreger, der den menschlichen Verdauungstrakt besiedelt ohne dabei Symptome hervorzurufen; er kann sich aber auch über eine fäkal-orale Übertragung ausbreiten und symptomatische Infektionen verursachen, wenn er beispielsweise an Stellen des Blutkreislaufs oder der Harnwege Eingang in Gewebe/Organe findet. Zur Behandlung von Infektionen mit Krankheitserregern wie VRE und Staphylococcus aureus wird Daptomycin intravenös verabreicht. Das im Darm sitzende E. faecium kann während einer solchen Therapie dem Daptomycin ausgesetzt sein, was möglicherweise zur Übertragung von Daptomycin-resistentem E. faecium beiträgt. Dies lässt sich auf Grund der Pharmakokinetik (d.i. dem Schicksal eines Wirkstoffs im Organismus) von Daptomycin erklären: Daptomycin wird vorwiegend in unveränderter Form hauptsächlich über die Nieren ausgeschieden, 5–10% der Dosis gelangen aber über die Gallenausscheidung in den Darm. Es ist dies eine therapeutisch völlig unnötige Daptomycin-Exposition des Darms, welche dort die Resistenzentwicklung von E. faecium treiben könnte; diese Keime werden dann zu Quellen für nosokomiale Infektionen (im Zuge des Aufenthalts oder der Behandlung in einem Krankenhaus erworbene Infektionen) und für eine Übertragung von Patient zu Patient.

Ein Anti-Antibiotikum kann die Resistenzentwicklung im Darm blockieren

Wenn eine unvorhergesehene Daptomycin-Exposition des Darms die Resistenzentwicklung bei E. faecium antreibt, so bietet dies die Chance hier einzugreifen. Es ist eine Chance, die aus einem wesentlichen Merkmal dieses Systems resultiert: Die Bakterien, die eine Infektion (im Blutkreislauf) verursachen, sind physisch von der Population im Darm separiert, die zur Übertragung beiträgt. Könnte man also das in den Darm gelangende Daptomycin inaktivieren ohne die erforderlichen, antibiotisch wirksamen Konzentrationen im Blutkreislauf zu verändern, so könnte Daptomycin verwendet werden, um Bakterien an dem Zielort der Infektion abzutöten, ohne dabei die Entstehung von Resistenz in Populationen außerhalb dieser Stellen zu erhöhen. Die Verhinderung der Resistenzentwicklung in diesen Reservoirpopulationen könnte Patienten vor dem Akquirieren resistenter Infektionen schützen und die Verbreitung resistenter Stämme und damit die Übertragung auf andere Patienten limitieren.

Ein Forscherteam der Penn-State University und der University Michigan hat nun die Hypothese aufgestellt, dass die Entstehung von Daptomycin-Resistenz verhindert werden kann, wenn während der intravenösen Behandlung mit Daptomycin gleichzeitig ein orales Adjuvans gegeben wird, welches die Wirksamkeit des Antibiotikums im Darm verringert [1]. Unter Verwendung von Colestyramin (Abbildung 2, unten ) als Adjuvans haben die Forscher diese Hypothese in einem E. faecium Darm-Kolonisierungsmodel an der Maus getestet.

Colestyramin ("Cubicin") ist ein altes, bereits vor mehr als 50 Jahren eingeführtes Agens zur Senkung hoher Cholesterinspiegel, das vor dem Aufkommen der Statine viel verwendet wurde. Colestyramin ist ein stark basisches Polymeres aus Styrolketten mit eingefügten Aminogruppen, das zahlreiche Biomoleküle (u.a. Cholesterin, Gallensäuren Vitamine A und D) bindet und auf Grund seiner Größe (Molekulargewicht um 1 000 kD) und seines hydrophilen Charakters aus dem Darm nicht in den Organismus aufgenommen werden kann. Wie in vitro Untersuchungen im Labor ergeben hatten, bindet Colestyramin auch das Antibiotikum Daptomycin sehr fest und kann dessen Konzentration und Wirksamkeit enorm verringern [1].

Vorerst haben die Forscher nun an der Maus die Resistenzentwicklung von E. faecium gegen Daptomycin untersucht. Dazu haben sie die Substanz in unterschiedlichen Dosierungen den Tieren subcutan injiziert. Wie Analysen des ausgeschiedenen Kots zeigten, gelangte Daptomycin in ausreichenden Konzentrationen in den Darm, um dort die Bildung resistenter Formen von E. faecium auszulösen. Wachstum und entsprechende Ausscheidung der resistenten E. faecium Keime konnten nur durch enorm hohe Dosen Daptomycin unterdrückt werden. Wurde jedoch Colestyramin (oral) und Daptomycin (subcutan) gleichzeitig an die Mäuse appliziert, so konnte das Wachstum von Antibiotika-resistenten Bakterien im Darm der Mäuse (gemessen an resistenten Keimen im Kot) um das 80-fache reduziert werden ohne die wirksamen Konzentrationen des Antibiotikums im Blut zu beeinflussen. Diese Ergebnisse sind eine vorläufige Bestätigung, dass Colestyramin als eine Art Anti-Antibiotikum eingesetzt werden könnte. Bei gleichzeitiger Gabe mit einem Antibiotikum (nicht nur von Daptomycin) könnte es dazu beitragen die Entstehung von Arzneimittelresistenzen im Mikrobiom des Darms zu verhindern/reduzieren und damit deren Verbreitung über fäkale Kontaminationen. Abbildung 3.

                                                                     

Abbildung 3. Das Adjuvans Colestyramin, peroral gegeben,  gleichzeitig mit dem intravenös applizierten Antibiotikum Daptomycin könnte die Entstehung von resistenten Bakterien im Darm unterbinden  ohne die wirksamen Antibiotikum-Konzentrationen im Blut zu beeinflussen.

Natürlich sind weitere Studien erforderlich, um festzustellen, ob Colestyramin Darmbakterien vor systemisch applizierten Antibiotika schützen und auch bei Menschen Antibiotikaresistenzen verhindern kann. Für Colestyramin, das bereits seit Jahrzehnten therapeutisch zur Senkung des Cholesterinspiegels bei Menschen eingesetzt wird, wäre dies eine Neuanwendung, ein sogenanntes "drug repurposing": ohne zahlreiche präklinische Studien und Verträglichkeitsstudien könnte eine Zulassung in der neuen Indikation in verkürzter Entwicklungszeit und mit reduzierten Kosten erfolgen.


[1] Valerie J. Morley et al., "An adjunctive therapy administered with an antibiotic prevents enrichment of antibiotic-resistant clones of a colonizing opportunistic pathogen" eLife 2020;9:e58147. DOI: https://doi.org/10.7554/eLife.58147

[2] WHO: GLOBAL REPORT ON THE EPIDEMIOLOGY AND BURDEN OF SEPSIS (September 2020) https://www.who.int/publications/i/item/9789240010789


* Dem Artikel liegt die von Valerie J. Morley et al., stammende Publikation "An adjunctive therapy administered with an antibiotic prevents enrichment of antibiotic-resistant clones of a colonizing opportunistic pathogen" zugrunde, die am 1. Dezember 2020 in eLife 2020;9:e58147. DOI: https://doi.org/10.7554/eLife.58147 erschienen ist. Der Digest, Teile der Einleitung und der Ergebnisse wurden von der Redaktion ins Deutsche übersetzt und für ScienceBlog.at adaptiert (Untertitel, Abbildungen).Zusätzlich wurde ein Abschnitt über den im September erschienenen Globalen Sepsis Report der WHO von der Redaktion eingefügt. eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz.

 


Weiterführende Links

Wachsende Bedrohung durch Keime und gleichzeitig steigende Antibiotika-Resistenzen? Video 7:18 min (aus der Uniklinik Bonn - stimmt auch für Österreich) Standard YouTube Lizenz. https://www.youtube.com/watch?v=lEoLh0ZBt34

Zahlreiche ScienceBlog-Artikel beschäftigen sich mit resistenten Keimen, u.a:


 

inge Fri, 04.12.2020 - 03:04

Impfstoffe zum Schutz vor COVID-19 - ein Überblick

Impfstoffe zum Schutz vor COVID-19 - ein Überblick

Fr 28.11.2020 Inge Schuster Inge SchusterIcon Medizin

Die COVID-19 Pandemie kennt keine territorialen Grenzen. In der stärkeren "zweiten Welle" dieser Pandemie erleben wir nun die verheerenden Auswirkungen auf Leben und Gesundheit so vieler Mitmenschen und ebenso auf den Zusammenbruch unserer Lebensweise und wir fragen uns, wie weit unsere ökonomischen Systeme noch belastbar sind. Ein Lichtblick in dieser globalen Krise sind die enormen weltweiten Anstrengungen von Wissenschaftern in Forschung und Entwicklung, die in kürzester Zeit zu vielversprechenden Impfstoffkandidaten geführt haben; drei solcher Impfstoffe stehen kurz vor der behördlichen Zulassung. Diese und eine Fülle weiterer Kandidaten, deren Entwicklungsstatus zum Teil schon recht weit fortgeschritten ist, geben Hoffnung auf wirksame und sichere Vakzinen, welche die Ausbreitung des Virus unterbinden/eindämmen werden.

Für uns alle ist es eine noch nie dagewesene Situation - COVID-19 hat die Gesundheitssysteme weltweit an ihre Grenzen gebracht oder diese bereits überschreiten lassen. Aktuell gibt es laut dashboard der John-Hopkins-University https://www.arcgis.com/apps/opsdashboard/index.html#/bda7594740fd40299423467b48e9ecf6 bereits über 60 Millionen mit SARS-CoV-2 Infizierte, über 1, 4 Millionen, die daran bereits verstorben sind und täglich kommen derzeit über 600 000 Neuinfektionen und 12 000 Tote dazu .

Abgesehen von den hinter diesen Zahlen stehenden, unbeschreibbaren menschlichen Tragödien, verursacht die Pandemie auch ungeheure ökonomische Schäden an unseren Gesellschaften: laut Internationaler Weltwährungsbank (IMF) beziffert sich bei andauernder Pandemie der ökonomische Schaden auf monatlich 500 Milliarden Dollar. Dabei sind die durch Lockdowns ausgelösten Beeinträchtigungen der Bevölkerung noch gar nicht mit einbezogen.

Die Suche nach wirksamen Impfstoffen…

Die am Beginn von 2020 losgetretene COVID-19 Pandemie hat die gesamte Welt in Angst und Schrecken versetzt und die globale Suche nach Lösungen intensiviert, insbesondere die Suche nach wirksamen, die Pandemie eindämmenden Impfungen beschleunigt. Binnen kürzester Frist sind dazu weltweit weit mehr als 200 Projekte angelaufen: die letzte Angabe der Weltgesundheitsorganisation WHO (Aufstellung vom 12.11.2020) zählte schon 225 Impfstoffkandidaten, die sich in präklinischer und klinischer Entwicklung befinden. Der wöchentlich aktualisierte COVID-19 vaccine tracker (https://vac-lshtm.shinyapps.io/ncov_vaccine_landscape/; basierend auf den neuesten Informationen der WHO, dem Milken Institute und der US-Datenbank clinicaltrials.gov.) listet insgesamt 261 Impfstoffkandidaten, von denen sich 203 in der präklinischen Entwicklung befinden und 58 in den unterschiedlichen Phasen klinischer Studien (siehe unten).

Das Ziel all der darin involvierten Wissenschafter in Forschung und Entwicklung sind Impfstoffe, die für verschiedene Bevölkerungsgruppen einen möglichst weitreichenden, langandauernden Schutz vor Ansteckungen bieten und dabei möglichst wenige und dann nur milde Nebenwirkungen auslösen.

Wie man sich generell den Entwicklungsweg einer COVID-19- Vakzine vorstellen sollte, ist in Abbildung 1 dargestellt.

Abbildung 1. Die Stufen einer Impfstoffentwicklung. (Bild: Die Forschenden Pharmaunternehmen: https://www.vfa.de/de/arzneimittel-forschung/woran-wir-forschen/impfstoffe-zum-schutz-vor-coronavirus-2019-ncov)

In den Stufen 1 - 3 sind die Phasen präklinischer Forschung und Entwicklung zusammengefasst, in Stufe 4 die gesamte klinische Entwicklung, die in 3 Phasen abläuft. Phase 1 an einer relativ kleinen Zahl junger, gesunder Freiwilliger dient zur Bestimmung des Dosierungsschemas und der Entdeckung von möglicherweise limitierenden Nebenwirkungen. In Phase 2 an einer größeren Zahl von Probanden gibt es dann weitere Informationen zu Nebenwirkungen und erstmals grobe Informationen zur Wirksamkeit. In Phase 3 an einer großen Population, quer durch die Bevölkerung, werden dann in Doppel-Blind-Studien - Impfstoff versus Placebo - Wirksamkeit und Nebenwirkungen getestet.

Wenn diese Studien erfolgreich verlaufen, werden nach Abschluss die Ergebnisse analysiert und dokumentiert. Bei positivem Ausgang wird dann eine Impfstoffanlage gebaut, um große Chargen des Impfstoffs zu produzieren, wie sie für die Versorgung der Bevölkerung gebraucht werden. Dann wird die gesamte Dokumentation bei den Behörden (EMA für die EU, FDA für Amerika) eingereicht und um die Zulassung angesucht.

War bis vor wenigen Jahren ein Zeitraum von rund 15 Jahren für den Forschungs- & Entwicklungsprozess eines neuen Impfstoffes üblich, so verläuft bei COVID-19 nun alles viel schneller: Vorerfahrungen mit verwandten Viren (SARS-CoV-1 und MERS), verbesserte Technologien und parallele Durchführung verschiedener Aktivitäten können den Prozess enorm beschleunigen. In der Phase 3 Studie gibt es zwar keine Zeitersparnis, dafür läuft in zahlreichen Unternehmen bereits während dieser Phase die Produktion des Impfstoffs an und dieser ist nach positivem Abschluss der Studie bereits verfügbar - bei negativem Ausgang ist allerdings viel Geld in den Sand gesetzt worden.

Zeit gespart wird auch durch den Abbau bürokratischer Hürden im Einreichungs-/Registrierungsverfahren: Forschungsinstitutionen/Firmen können frühzeitig mit den Zulassungsbehörden in Kontakt treten und diesen die Studienergebnisse laufend übermitteln; die EMA bietet an die Daten in einem "Rolling-Review-Verfahren" so schnell wie möglich zu überprüfen.

…führte bereits zu drei vor der Zulassung stehenden Kandidaten …

Für drei Impfstoffkandidaten, die in abschließenden Phase 3 Studien an 30 000 bis 43 600 freiwilligen Probanden Schutz vor COVID-19 bei nur milden Nebenwirkungen gezeigt hatten, ist so eine rasche Zulassung - vielleicht noch in diesem Jahr - in den Bereich der Möglichkeit gerückt.

Tabelle 1 fasst Hersteller, Informationen zur Phase 3-Studie und - bei erfolgreicher Registrierung - die geplante Produktion von Dosen (in Millionen) und deren voruaussichtlichen Preis  zusammen.

Tabelle 1. Drei erfolgversprechende Impfstoffkandidaten. Nach zweimaliger intramuskulärer Applikation im Abstand von 28 Tagen boten die beiden mRNA-Vakzinen einen Schutz von über 90 % , die Vektorvirenvakzine von bis zu 90 % vor COVID-19 (laut Pressemitteilung der Firmen). Impfstofftypen werden weiter unten erklärt.


 

Firmen/Institutionen


 

Impfstofftyp

       Phase 3 (Doppelblind-Studie)

Impfstoff (Planung)

   Kandidat

  Probanden

  Dosen

Dosen [Mio]

2020/21

Preis [€]

Moderna/NIAID

mRNA

mRNA-1273

30 000

    2x i.m.       (d 0, 28)

20 /bis 1000

28

BioNTech/Pfizer/Fosun

mRNA

BNT162b2

43 661

     2x, i.m. (d 0, 28)

50/bis 1300

17

Univ. Oxford/Astra Zeneca

Vektorviren

ChAdOx1

30 000

     2x, i.m. (d 0, 28)

4/bis 100

3

 

Bei den Studien handelte es sich um Doppelblind-Studien, d.h. die Hälfte der Probanden hat den Impfstoff erhalten, die andere Placebo. Die ersten Zwischenergebnisse (an 50 oder weniger % der Probanden) wurden vergangene Woche vorerst nur in Presseausendungen mitgeteilt: diese gaben für die Studie von Moderna/NIAID  95 Infektionsfälle an, wobei 90 auf die Placebogruppe entfielen und für die Studie von BioNTech/Pfizer/Fosun 170 Infektionsfälle mit 162 in der Placebogruppe. Die Schutzwirkung der beiden mRNA-Impfstoffe lag damit bei über 90 %. In der Studie von Univ. Oxford/Astra Zeneca waren (aus Versehen) zwei unterschiedliche Dosierungsschemata angewandt worden: eine der so geimpften Gruppen (N = 2741 Probanden) war zu 90 % geschützt, die andere (N = 8895 Probanden) zu 62 %.

Kurz nach Aussendung der vielversprechenden Zwischenergebnisse haben BioNTech/Pfizer und AstraZeneca bei den Behörden (FDA rsp. EMA) um die Notzulassung angesucht; das Ansuchen von Moderna wird in Kürze erwartet. Vieles ist allerdings noch unklar, u.a. ob die Impfung nicht nur vor der Erkrankung COVID-19 sondern auch vor der (asymptomatischen) Infektion mit dem Virus schützt, ob die unterschiedlichen Altersgruppen und ob chronisch Kranke gleich gut geschützt werden, wie lange der Impfschutz anhält (die Probanden waren ja nur 2 Monate nach der zweiten Injektion beobachtet worden), ob  später unerwünschte Nebenwirkungen auftreten.

Wollen wir hoffen, dass die Studien nach ihrer Endauswertung überzeugende Antworten auf diese Fragen geben werden!

...und zu einer vollen Pipeline weiterer Impfstoffkandidaten ...

Wie bereits oben erwähnt gibt es derzeit 261 Impfstoffkandidaten von denen sich 203 in der präklinischen Forschung & Entwicklung befinden und bereits 58 in den unterschiedlichen Phasen klinischer Studien; von diesen haben schon 11 die Hürden zur entscheidenden Phase 3 genommen. Abbildung 2.

Abbildung 2. Der weltweite Stand in der COVID-19 Impfstoffentwicklung - Pipeline der Impfstoffkandidaten und Impfstofftypen. Eine Erklärung der Impfstofftypen findet sich im nächsten Abschnitt. V. inaktiviert/abgeschwächt bedeutet inaktiviertes/abgeschwächtes Virus, Vektorviren r/nr = Vektorviren replizierend/nicht replizierend (Die Grafiken wurden aus den Daten des COVID-19 vaccine tracker vom 23.11.2020 erstellt. https://vac-lshtm.shinyapps.io/ncov_vaccine_landscape/).

An den Impfstoffprojekten arbeiten weltweit vor allem viele Industrieunternehmen - große Konzerne wie Pfizer, Janssen, GlaxoSmithKline, Sanofi oder AstraZeneca mit Erfahrung in der Impfstoffentwicklung sind dabei, ebenso wie viele kleine Unternehmen, die zur Entwicklung ihrer Kandidaten Kooperationen eingehen. Rund 30 % der Projekte werden von akademischen Institutionen, staatlichen Einrichtungen und non-Profit Organisationen geleitet. Der Großteil dieser Aktivitäten findet in Nordamerika statt, gefolgt von Asien (hier vor allem von China) und Europa.

Was bedeutet die Fülle an potentiellen Impfstoffen für die Zahl der Produkte, die tatsächlich den Markt erreichen?

Langjährige Erfahrung mit Virus-Vakzinen zeigt, dass etwa 7 % der Impfstoffkandidaten in der Präklinik den Übergang in die Klinik schaffen und von diesen dann 20 % die klinischen Phasen erfolgreich durchlaufen und registriert werden (siehe Weiterführende Links:  WHO: What we know about COVID-19 vaccine development).

Aus der aktuellen Pipeline  könnten somit an die 15 Impfstoffe hervorgehen!

… mit unterschiedlichen Impfstofftypen

Unser Immunsystem funktioniert, indem es etwas als fremd erkennt und darauf reagiert. Impfstoffe provozieren die Reaktion des Immunsystems indem sie ein Pathogen, also einen Krankheitserreger präsentieren, der in einer modifizierten, nicht krankmachenden Form vorliegt oder nur in Form von Bruchstücken des Erregers.

Die Reaktion des Immunsystem auf das Fremde ruft dann spezialisierte weiße Blutzellen auf den Plan: Makrophagen, die den Erreger attackieren und "verdauen". Gegen dabei übrig bleibende Bruchstücke des Erregers (Antigene) produzieren sogenannte B-Lymphocyten (B-Zellen) neutralisierende Antikörper. T-Lymphozyten schließlich attackieren Zellen, die bereits infiziert sind. Einige T-Zellen bleiben als Gedächtniszellen bestehen. Ist man dann tatsächlich dem aktiven Virus ausgesetzt, entdeckt das Immunsystem ihm bekannte Antigene, ist bereits vorbereitet und kann den Erreger rasch eliminieren.

Wie in Abbildung 2 gezeigt, werden gegen COVID-19 verschiedene Impfstofftypen eingesetzt; nach Komplexität gereiht sind das:

  • das ganze SARS-CoV-2 Virus in inaktivierter Form oder in abgeschwächter Form
  • Virenvektoren in replizierender und nicht replizierender Form
  • Viren-ähnliche Partikel
  • Virenproteine (unmodifiziert, modifiziert) oder Bruchstücke davon
  • DNA
  • mRNA

Die derzeit am häufigsten untersuchten Kandidaten gegen COVID-19 gehören zu drei Typen: zu Virenproteinen (insgesamt 97 , davon 17 in der Klinik), zu Vektorviren (insgesamt 70, davon 13 in der Klinik) und zu mRNA-Vakzinen (insgesamt 40, davon 7 in der Klinik). Abbildung 3 zeigt schematisch wie diese drei Typen funktionieren.

Abbildung 3. Die drei am häufigsten untersuchten Impfstofftypen zur Produktion von neutralisierenden Antikörpern gegen SARS-CoV-2. (Das gemeinfreie Bild stammt aus einem U.S. GAO Report: www.gao.gov/products/GAO-20-583SP und wurde von IS deutsch beschriftet.)

Virenprotein

Der Impfstoff besteht aus einem Protein von SARS-CoV-2 oder einem ausgewählten Teil davon (einem Peptid). Vorzugsweise wird hier das an der Virusoberfläche sitzende Spike-Protein gewählt, das die Schlüsselrolle im Andocken und Eindringen in die Wirtszelle spielt (Abbildung 3, Typ 2). Unser Immunsystem erkennt das Antigen als fremd, beginnt B-Zellen und T-Zellen dagegen zu produzieren. Bei einer Begegnung mit dem Erreger erkennen die Gedächtniszellen das Virus und bekämpfen es.

Die Herstellung von Protein-Impfstoffen ist eine bereits seit langem bewährte Technologie, sehr viele zugelassene Impfstoffe beruhen auf diesem Prinzip und auch die meisten COVID-19 Projekte zielen darauf ab.

Vektorviren

basieren auf einem harmlosen anderen Virus als SARS-CoV-2, beispielsweise auf einem modifizierten ungefährlichen Adenovirus (das in aktiver Form Schnupfen hervorrufen würde). Derartige Viren können sich in unserem Organismus vermehren (replizieren) ohne dabei krank zu machen. In dieses Virus wird nun genetisches Material von SARS-CoV-2 eingefügt, das als Bauanleitung für die Produktion eines oder mehrerer seiner Proteine dient (Abbildung 3; Typ 3). Mit diesem Transportmittel (Vektor) gelangt das SARS-CoV-2 Material in unsere Zellen und wird von diesen zu den entsprechenden Proteinen umgesetzt (vorzugsweise zielt man auch hier auf das Spike-Protein ab).

Das Prinzip des Vektorvirus wurde bereits bei den Impfstoffen gegen Ebola und gegen Denguefieber erfolgreich angewandt.

RNA-Impfstoffe

enthalten ein ausgewähltes Gen von SARS-CoV-2 (auch hier vorzugsweise das Spike-Protein) allerdings nicht in Form des DNA-Abschnitts sondern als bereits in die RNA -transkribierte Form , die sogenannte mRNA (Abbildung 3, Typ 1). Eingehüllt in Lipid-Nanopartikel gelangt diese mRNA nach einer Injektion in den Muskel in die umliegenden Zellen, welche dann die mRNA in das entsprechende Virusprotein übersetzen. Wie die Zwischenergebnisse von Moderna/NIAID und Biontech/Pfizer zeigen, wird damit eine robuste Antwort des Immunsystems ausgelöst, die offensichtlich vor COVID-19 schützt .

Bis jetzt gibt es noch keinen auf Impfstoff auf dem Markt, der auf dem mRNA-Prinzip basiert. Allerdings gibt es auf diesem Gebiet schon jahrelange Erfahrung: in Zusammenarbeit mit dem NIH hat das Unternehmen Moderna dieses Prinzip gegen eine Reihe anderer Virusinfektionen MERS, Zikavirus, RSV, Epstein-Barr Virus, H7N9-Influenzavirus) angewandt.

Ein mRNA-Impfstoff bietet eine Reihe von Vorteilen (nicht nur bei COVID-19).

Die mRNA ist nicht infektiös und kann (wie auch die DNA) sehr schnell für erste Testungen in die Klinik gebracht werden. Bereits innerhalb weniger Tage nachdem im Jänner 2020 das SARS-CoV-2-Genom publiziert worden war, konnte eine entsprechende mRNA hergestellt werden.

Die mRNA braucht nicht in den Zellkern gelangen (wie dies bei DNA-Impfstoffen der Fall ist) und kann somit die Gen-Expression nicht beeinflussen. mRNA-Moleküle sind überdies kurzlebig und binnen weniger Stunden aus dem Organismus verschwunden. Allerdings sind mRNAs auch außerhalb des Organismus instabil und müssen bei tiefen Temperaturen gelagert und transportiert werden.

Ein mRNA-Impfstoff kann auch "Bauanleitungen" für mehrere unterschiedliche Proteine eines Virus enthalten oder für unterschiedliche Viren und damit gegen verschiedene Infektionen immunisieren.

DNA-Impfstoffe

Diese können wie auch die mRNA-basierten Impfstoffe rasch in größeren Mengen produziert werden, weisen aber wesentlich höhere Stabilität auf und benötigen keine Kühlung. Allerdings ist es schwierig die DNA in Körperzellen zu bringen, und es müssen Methoden wie die Elektroporation dazu eingesetzt werden.

Für einen Impfstoff wird das für ein Virusprotein kodierende Gen in ein nicht replizierendes Plasmid (d.i. ein kleines, ringförmiges doppelsträngiges DNA-Molekül) eingefügt. Nach Applikation muss das Plasmid dann in den Zellkern gelangen, wird dort in mRNA umgeschrieben (transkribiert) und an den Ribosomen im Zytoplasma in das Virusprotein übersetzt, gegen das dann die Immunantwort ausgelöst wird.

Ein mögliches Risiko von DNA-Impfstoffen könnte darin bestehen, dass sich die Fremd-DNA in das Wirts-Genom einlagert.

Wie auch im Fall des RNA-Typs sind bis jetzt keine DNA-basierten Impfstoffe für die Humananwendung zugelassen. In der Entwicklung von COVID-19 Vakzinen spielen DNA-Impfstoffkandidaten eine beträchtliche Rolle: 7 befinden sich in Phase 1 und 1/2 der klinischen Prüfung, 22 in der Präklinik.

Ganzvirus-Impfstoffe

bestehen aus abgeschwächten oder inaktivierten Formen des Erregers und stellen - seit den Tagen als Edward Jenner die Pockenimpfung einführte - den klassischen Typ von Impfstoffen dar. Sie lassen sich in Kulturen züchten, schnell herstellen und lösen sehr starke Immunantworten aus

Inaktivierte Impfstofftypen werden durch chemische oder physikalische Methoden inaktiviert und enthalten keine vermehrungsfähigen Viren mehr. Sie sind damit auch nicht imstande Zellen zu infizieren. Stattdessen werden sie von Antigen-präsentierenden Zellen (Makrophagen, dendritische Zellen, ...) inkorporiert, abgebaut und die Protein-Fragmente an der Zelloberfläche dem Immunsystem präsentiert, welches mit der Bildung von Antikörpern und T-Helferzellen antwortet. Derzeit befinden sich 22 inaktivierte Viren in der Entwicklung: 7 in der klinischen Phase, darunter 4 in Phase 3, und 15 Kandidaten in der Präklinik.

Abgeschwächte ("attenuierte") Virusimpfstoffe (sogenannte Lebendimpfstoffe) können sich im Wirt zwar noch vermehren, lösen aber keine Krankheitssymptome aus. Dadurch, dass sich derartige Viren noch über einen langen Zeitraum replizieren und damit laufend ihre Komponenten und damit Antigene produzieren, lösen sie eine sehr starke Immunantwort aus. Bekannte nach diesem Prinzip wirkende Vakzinen richten sich gegen Masern, Röteln, Mumps, Gelbfieber und Pocken. Die abgeschwächten Viren wurden dabei in langdauernden Selektionsprozessen (durch wiederholtes in vitro Passagieren unter suboptimalen Bedingungen) generiert. Ohne hier näher darauf einzugehen, lassen sich attenuierte Viren nun auch durch Mutation oder Deletion von Virulenz-Genen oder durch sogenannte Codon-Deoptimierung erzeugen. Insgesamt befinden sich 6 attenuierte SARS-CoV-2-Viren in der Entwicklung, 2 davon in der Klinik.

Virus-ähnliche Partikel sind ein verwandter Ansatz. Die Partikel ahmen das Virus in Form und Aufbau aus Virusproteinen nach, enthalten aber keine funktionellen Nukleinsäuren. 2 dieser Typen sind in klinischer Entwicklung, 16 in der Präklinik.

Fazit

Unterschiedliche Strategien mit verschiedenen Typen von Impfstoffen haben in unglaublich kurzer Zeit eine Fülle an Entwicklungskandidaten generiert, die zum Teil schon in weit fortgeschrittenen Entwicklungsstatus sind. Es besteht somit Hoffnung , dass wir in naher Zukunft wirksame und sichere Vakzinen im Kampf gegen COVID-19 zur Verfügung haben werden. Und zwar auch für unterschiedliche Gruppen in der Bevölkerung - für Kinder und für Alte, für immunsupprimierte Patienten ebenso wie für schwangere Frauen.


 Weiterführende Links

COVID-19 vaccine tracker, https://vac-lshtm.shinyapps.io/ncov_vaccine_landscape/

WHO: What we know about COVID-19 vaccine development (6.October 2020). https://www.who.int/docs/default-source/coronaviruse/risk-comms-updates/update37-vaccine-development.pdf?sfvrsn=2581e994_6

Centers for Disease Control and Prevention: Understanding How Covid-19 Vaccines Work (2. November 2020). https://www.cdc.gov/coronavirus/2019-ncov/vaccines/different-vaccines/how-they-work.html?CDC_AA_refVal=https%3A%2F%2Fwww.cdc.gov%2Fcoronavirus%2F2019-ncov%2Fvaccines%2Fabout-vaccines%2Fhow-they-work.html

Pfizer: All COVID-19 Updates. https://www.pfizer.com/health/coronavirus/updates

Moderna:    Moderna’s Work on a COVID-19 Vaccine Candidate. https://www.modernatx.com/modernas-work-potential-vaccine-against-covid-19

AstraZeneca: Covid-19 Information Hub. https://www.astrazeneca.com/

Artikel zu COVID-19 Impfstoffen im ScienceBlog


 

inge Fri, 27.11.2020 - 23:27

Comments

Warum essen wir mehr als wir brauchen?

Warum essen wir mehr als wir brauchen?

Do, 19.11.2020 — Jochen Müller

Jochen MüllerIcon Gehirn

Die krankhafte Fettleibigkeit (Adipositas) ist weltweit auf dem Vormarsch. Weltweit leben über 1,9 Milliarden Menschen mit Übergewicht, davon über 650 Millionen mit Adipositas. Die Zahlen nehmen seit 30 Jahren zu, vor allem unter Männern, Jugendlichen und Kindern. Experten sehen Adipositas als Gehirnerkrankung an. Grund ist ein fehlreguliertes Gleichgewicht (Homöostase) zwischen Energieverbrauch und Nahrungsaufnahme. Der Neurowissenschafter und Wissenschaftsjournalist Jochen Müller gibt auf der Seite "dasgehirn.info" einen Überblick, wie die Achse zwischen Gehirn und Verdauung funktioniert und was bei Diabetes und Adipositas schief läuft in Kopf und Körper.*

 

Was hat ein Artikel zu Übergewicht auf der Seite "dasgehirn.info" zu suchen? Falls Sie aus Versehen hier gelandet sind: Selbstoptimierung und Superfoods bleiben Ihnen erspart. Hier geht es darum, wieso erstmals in der Geschichte mehr Menschen an Über- als an Unterernährung leiden. Und wie es sein kann, dass Lebensmittel Leben verkürzen. Die Antwort auf die letzten beiden Fragen wird auch die erste beantworten.

Beginnen wir mit Definitionen. Der Körper-Masse- oder Body-Mass-Index gibt Auskunft darüber, ob ein Mensch unter-, normal- oder übergewichtig ist. Er teilt Masse durch das Quadrat der Größe: BMI=kg/m2. Über einem BMI von 25 gelten Menschen als übergewichtig, Adipositas beginnt ab einem BMI von 30. Abbildung 1.Der Autor verteilt 85 Kilogramm auf 1,84 Meter, er ist mit seinem BMI von 25,1 zur eigenen Überraschung leicht übergewichtig.

Abbildung 1. Der Body-Mass-Index (Bild: Wikipedia, https://de.wikipedia.org/wiki/Body-Mass-Index#/media/Datei:BodyMassIndex.svg; gemeinfrei)

Doch Prof Dr. Martin Heni, wissenschaftlicher Koordinator des Instituts für Diabetesforschung und Metabolische Erkrankungen an der Universität Tübingen, betont, dass einfache Zahlen nicht das Problem sind. Es ist unser komplexes Verhalten.

Genau dieses Verhalten gerät bei immer mehr Menschen in Schieflage.

Die Weltgesundheitsorganisation WHO zählte 2016 1,6 Milliarden Menschen mit Übergewicht. 650 Millionen davon galten als adipös. Abbildung 2.

Abbildung 2. Seit 1975 hat der Anteil adipöser Menschen (BMI: gleich oder größer 30) enorm zugenommen. (Bild: https://ourworldindata.org/obesity; Lizenz cc-by).

Nahrungsaufnahme und Energieverbrauch passen nicht zusammen

In Deutschland sind laut einer Studie des Robert-Koch-Instituts (RKI) aktuell mehr als die Hälfte der Erwachsenen übergewichtig, fast ein Viertel adipös. Laut WHO und RKI steigen die Zahlen seit zwanzig Jahren stetig an. Mit weitreichenden Auswirkungen. Übergewichtige Menschen leiden an psychosozialen Folgen wie sozialer Diskriminierung sowie an verringerter Lebensqualität und Selbstwertgefühl. Noch schwerwiegender sind biologische Folgen. Übergewicht trägt zu diversen Erkrankungen bei. Kurz gesagt senkt Fettleibigkeit die Lebenserwartung.

Der Endokrinologe und Diabetologe Heni erklärt, dass Übergewicht entsteht, wenn "Nahrungsaufnahme und Energieverbrauch nicht zusammenpassen". Wir müssen uns nicht mehr körperlich anstrengen, um an Brot, Braten oder Bratling zu kommen. Warum essen wir mehr, als wir brauchen? Verantwortlich ist das Gehirn, wie Martin Heni betont: "Die meisten Wissenschaftler gehen heute davon aus, dass Adipositas eine Gehirnerkrankung ist."

Zwei Arten von Essverhalten

Es gibt zwei Arten von Essverhalten. Das homöostatische Essverhalten stellt ein Gleichgewicht zwischen Hunger und Sättigung ein und hält das Körpergewicht aufrecht. Im Idealfall hören wir auf zu essen, wenn mechanische und chemische Reize aus dem Magen-Darm-Trakt dem Gehirn signalisieren, dass der Magen voll ist und im Inhalt ausreichend Glukose, Aminosäuren und Fette vorhanden sind. Vereinfacht gesagt kommen dafür aus dem Pankreas Insulin, aus der Schleimhaut des Dünndarms Neuropeptide und aus den Fettzellen oder Adipozyten Leptin. Diese Signalstoffe regulieren, wie die Substrate verwertet werden, indem sie an Rezeptoren ihrer Zielzellen binden und dort Stoffwechselvorgänge bewirken. Und sie binden an Insulin- und Leptin-Rezeptoren von Neuronen im Magen-Darm-Trakt. Deren Signale erreichen zuerst Zentren im verlängerten Rückenmark (Medulla oblongata), unter anderem den Nucleus tractus solitarii. Er ist synaptisch eng mit zwei Teilen des Zwischenhirns verschaltet, dem Thalamus und dem Hypothalamus. Der Hypothalamus reguliert viele homöostatische Vorgänge im ganzen Körper, und über die erwähnte Verschaltung auch die Nahrungsaufnahme. Je mehr Insulin und Leptin, umso satter der Mensch. Eigentlich. Denn satt sein und Sättigung spüren sind zwei verschiedene Dinge.

Mikroben als heimliche Influencer

Auch das in den letzten Jahren viel diskutierte Mikrobiom spielt für Essverhalten und Sättigung eine Rolle. Die kleinen bakteriellen Helfer in uns erhalten ihren Anteil an der Nahrung, und sie versorgen uns mit Stoffen, die wir alleine nicht bilden könnten. Es gibt Hinweise darauf, dass sie auch Substanzen ausschütten, die das Verhalten modifizieren. In Nagern lässt sich die Nahrungsaufnahme direkt beeinflussen, indem man die beteiligten Peptide spritzt. Allerdings ändert sich das Mikrobiom mit jeder Mahlzeit. Es ist noch unverstanden, wie sich das auf das Körpergewicht auswirkt. Denn Menschen sind keine Nager.

Uns kommt ein zweites System in die Quere. Es regelt das hedonistische Essverhalten und ist ungleich komplizierter als das homöostatische. Hedonismus bedeutet soviel wie Genuss. Der Begriff bezieht sich auf die starke soziale und damit erlernte Komponente menschlichen Essverhaltens. Es interagiert im Gehirn mit anderen Prozessen wie Belohnung und Emotionen. Die Regulierung hedonistischen Essverhaltens beinhaltet das limbische System, den präfrontalen Cortex und dazwischen komplexe neuronale Schaltkreise, deren Rolle noch nicht endgültig geklärt ist. Im Ergebnis kann das hedonistische System, das gar nicht an der Homöostase beteiligt ist, das homöostatische System kontrollieren. Geruch, Erwartung, selbst die Vorstellung der Lieblingsspeise kann Sättigungsprozesse überspielen. Abbildung 3.

Abbildung 3. Das Gehirn und das Essen. Hirnregionen, die involviert sind, wenn der Mensch Essbares beurteilt: Wahrnehmungsprozesse, Emotionen, Erinnerungen, Motivationen, aber auch sprachliche Aspekte spielen dabei eine Rolle. Die linke Spalte zeigt, über welche Sinneskanäle Speisen auf uns wirken- Die mittlere und rechte Spalte veranschaulichen, wie das "Geschmackssystem" im umfassenden Sinne unser Essverhalten steuert. Grüne Regionen modulieren dabei unbewusste Regelungsprozesse.(Bild: https://www.dasgehirn.info/wahrnehmen/riechen-schmecken/bild-das-gehirn-und-das-essen).

Krankheitsursache: fehlregulierte Homöostase

Hier zeigt sich, dass Adipositas ebenso wie die Magersucht biologische und psychologische Ursachen hat. Beide Krankheiten beruhen auf einer fehlregulierten Homöostase. Und die ist erlernt. Tatsächlich hat sich gezeigt, dass Gehirne adipöser Menschen auf die Sättigungssignale Insulin und Leptin weniger sensibel reagieren. Die Menschen merken zu spät, dass sie satt sind und essen über das Maß hinaus.

Das haben sie auch der Plastizität ihrer Zellen zu verdanken. Plastizität beschreibt die Fähigkeit eines Systems, sich an veränderte Umweltbedingungen anzupassen. Es erlaubt zu lernen. Aber manchmal lernt das System eine falsche Lektion. Sind Insulin- und Leptin-Konzentrationen nach einer Geburtstagskuchenorgie kurzfristig erhöht, ist das unproblematisch. Findet die Sause täglich statt, sind Signalwirkstoffe dauerhaft erhöht und ihre Zielneuronen dauerhaft erregt. Um nicht an Übererregung einzugehen, regulieren die Nervenzellen die verantwortlichen Rezeptoren herunter. So entsteht eine Insulin- bzw. Leptin-Resistenz, die bei den meisten adipösen Menschen vorliegt. Der Körper passt sich auch diesem Zustand an und regelt die Produktion der Signalstoffe hoch. Bis er das nicht mehr kann. Erst wenn die Beta-Zellen in der Bauchspeicheldrüse die Insulinproduktion nicht weiter hochregulieren können, entsteht Diabetes. Die Frage, warum nicht alle adipösen Menschen eine Diabetes entwickeln, beantwortet der Diabetologe Heni mit diesem System: "Entscheidend ist dann die Fähigkeit der Bauchspeicheldrüse, auf die Insulin-Resistenz zu reagieren".

Diese Fähigkeit ist uns nur zu einem kleinen Teil in die Wiege gelegt. DAS Adipositas-Gen gibt es nicht. Stattdessen zählt das Weißbuch Adipositas über 600 Erbanlagen auf, die darauf einen Einfluss haben können. Auch epigenetische Faktoren, also Umwelteinflüsse, die die Ablesbarkeit von Genen beeinflussen, spielen einzeln betrachtet eher eine untergeordnete Rolle. Es sei denn, sie vollziehen ihr Werk bereits im Mutterleib. Dort findet die so genannte fötale Programmierung statt. Faktoren wie Mangel- oder Überernährung haben Einfluss auf die Entwicklung. Ist der Fötus in einer sensiblen Entwicklungsphase Überernährung ausgesetzt, kann dies dazu führen, dass die Betazellen in der Bauchspeicheldrüse dauerhaft fehleingestellt werden. Das zeigt auch, wie Krankheiten wie Diabetes angeboren sein können, ohne durch Gene vererbbar sein zu müssen. Weil die Anpassungsfähigkeit auch fehlerhafte Anpassung ermöglicht, noch bevor wir geboren sind.

Niedrigschwellige Entzündungen im Fettgewebe

Auch das Fettgewebe spielt eine Rolle. Davon gibt es zweierlei Typen: braunes und weißes Fett. Weißes Fett reguliert den Fettstoffwechsel und speichert Energie. Für ersteres schütten die Fettzellen oder Adipozyten Hormone wie Leptin oder Adiponectin aus. Für letzteres nehmen sie Fett in sich auf. Bis nichts mehr reingeht. Dann laufen die Speicherzellen über und das Fett lagert sich an, wo es nichts zu suchen hat. Zwischen den Zellen, irgendwo im Gewebe, wo es Immunzellen wie Monozyten und Makrophagen aktiviert. Sie schütten gemeinsam mit den Adipozyten Stoffe aus, die niederschwellige Entzündungsprozesse bewirken. So befördern sie Insulin- und Leptinresistenz und spielen eine ursächliche Rolle bei der Entstehung von Diabetes Typ 2 und anderen Folgeerkrankungen.

Wie soll man einem solch komplexen, emotional gesteuerten und in unsere Biologie eingeprägten System mit einer Diät beikommen? Wenn die Gründe für Übergewicht in veränderten Gehirnprozessen liegen, müsste eine kausal wirkende Therapie auch dort angreifen. Was Diäten nicht tun. Zwar schaffe es Heni zufolge fast jeder Mensch durch eine Diät kurzfristig abzunehmen. Aber "was kaum jemand schafft, ist das niedrige Körpergewicht langfristig zu halten. Diäten sind im Alltag selten langfristig umsetzbar, und der Drang des Organismus, in alte Verhaltensmuster zurück zu fallen, extrem stark".

Nur wer Ess- und Lebensgewohnheiten nachhaltig verändert, wird sein Idealgewicht halten können. Dazu können Ernährungsberatungen ebenso beitragen wie verhaltenstherapeutische Maßnahmen, medikamentöse Therapien und in gravierenden Fällen gar chirurgische Maßnahmen. Beim Stichwort Idealgewicht kommt der Mediziner noch einmal auf die BMI Einteilung zurück: "Epidemiologische Studien zeigen zwar immer wieder, dass starkes Unter- oder Übergewicht langfristig ungünstig auf die Gesundheit wirkt. Es leben aber nicht diejenigen aus der Mitte des Normmaßes am längsten, sondern die leicht Übergewichtigen. Das biologische Ideal liegt also vielleicht etwas über einem BMI von 25."


*Der von Prof. Dr. Ingo Bechmann wissenschaftlich betreute Artikel erschien am 17.09.2020 unter dem Titel "Wenn Hunger und Genuss aus dem Gleichgewicht geraten" https://www.dasgehirn.info/krankheiten/gestoerter-stoffwechsel/wenn-hunger-und-genuss-aus-dem-gleichgewicht-geraten und steht unter einer cc-by-nc -sa Lizenz. Die Webseite www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe. Der Artikel wurde von der Redaktion geringfügig gekürzt und es wurden 3 Abbildungen eingefügt.


Weiterführende Links

Artikel zum Thema im ScienceBlog


 

inge Wed, 18.11.2020 - 22:53

COVID-19, Luftverschmutzung und künftige Energiepfade

COVID-19, Luftverschmutzung und künftige Energiepfade

Do, 12.10.2020 — IIASA

IIASAIcon Geowissenschaften Vor dem Hintergrund tiefgreifender Beeinträchtigungen und Ungewissheiten, die durch die COVID-19-Pandemie verursacht wurden, sind gut konzipierte Energiestrategien unerlässlich, um ein resilientes Energiesystem zu entwickeln, das  sowohl die globalen Klimaziele als auch die Standards der Luftqualität zu erfüllen vermag. Die Internationale Energieagentur (IEA) hat kürzlich ihren alljährlichen Report, den World Energy Outlook (WEO) 2020 veröffentlicht. Zu den von der IEA entwickelten Energieprognosen haben Forscher am International Institute of Applied Systems Analysis (IIASA, Laxenburg bei Wien) beigetragen, indem sie eine quantitative Abschätzung der wichtigsten Luftschadstoffe und deren entsprechende nachteilige gesundheitliche Auswirkungen erstellt haben.*

Es war ein stürmisches Jahr für das globale Energiesystem. Die durch COVID-19 verursachte Krise hat mehr Beeinträchtigungen verursacht als jedes andere Ereignis in der jüngeren Vergangenheit und Narben hinterlassen, die noch jahrelang weiterbestehen werden. Inwieweit diese Umbruchsituation aber die Bemühungen einer Wende zu sauberer Energie und zur Erreichung der internationalen Energie- und Klimaziele letztendlich fördern oder behindern wird, hängt davon ab, wie die Regierungen auf die gegenwärtigen Herausforderungen reagieren werden.

Analysen des World Energy Outlook 2020

Der World Energy Outlook 2020 (WEO 2020, [1]), das Flaggschiff der Internationalen Energieagentur (IEA), untersucht verschiedene Szenarios, die aus der Krise führen können, wobei der Schwerpunkt auf dem nächsten Jahrzehnt liegt. Zu diesem letzten Report haben IIASA-Forscher einen Beitrag geleistet, indem sie die von der IEA entwickelten Energieprognosen hinsichtlich der Konzentrationen der wichtigsten Luftschadstoffe und der entsprechenden, nachteiligen gesundheitlichen Auswirkungen quantitativ ausgewertet haben. Nach Meinung des IIASA-Teams ist es für fundierte politische Strategien in vielen Ländern entscheidend, dass ein klares Verständnis aufgebaut wird, wie Luftverschmutzung und deren gesundheitliche Auswirkungen mit den beschriebenen IEA-Szenarien korrelieren.

Der aktuelle WEO enthält unter anderem die neueste IEA-Analyse zu den Auswirkungen der COVID-19 Pandemie:

     So soll 2020 der weltweite Energiebedarf um 5% sinken, die energiebedingten CO2-Emissionen um 7% und die Investitionen in Energie um 18%.

Der bereits etablierte Ansatz des WEO - man vergleicht  verschiedeneSzenarien, die angeben, wie sich der Energiesektor entwickeln könnte - ist in diesen unsicheren Zeiten wichtiger denn je. Die Kernaussage daraus ist ernüchternd: Es wird nicht genug getan, um die Welt auf die richtige Bahn zur Erreichung der nachhaltigen Entwicklungsziele zu bringen.

„Die derzeitige Entwicklung von Maßnahmen zur Verbesserung der Luftqualität allein dürfte  keinen signifikanten Rückgang der Emissionen oder der vorzeitigen Todesfälle garantieren. Wenn wir saubere Luft erzielen wollen - was die Senkung der Schadstoffkonzentrationen und die Erreichung der Luftqualitätsstandards von Weltgesundheitsorganisation (WHO) oder von nationalen Standards betrifft -, müssen wir Strategien zur Verbesserung der Luftqualität mit Klimapolitik und auch mit Maßnahmen die Zugang zu sauberer Energie ermöglichen, kombinieren “, erklärt Peter Rafaj, Forscher im IIASA-Programm für Luftqualität und Treibhausgase.

Luftschadstoffe und vorzeitige Todesfälle

„Derzeit sterben jährlich etwa 6 Millionen Menschen vorzeitig aufgrund der Luftverschmutzung in Innenräumen und Außenräumen, und bis 2030 ist der weltweite Trend steigend. Abbildung 1. Wie unsere Auswertung der IEA-Prognosen zeigt, können in den nächsten zehn Jahren in Summe fast 12 Millionen vorzeitige Todesfälle vermieden werden, wenn mehr "Sustainable Development Goals" (nachhaltige Entwicklungsziele) in Angriff genommen werden. Man muss koordinierte politische Maßnahmen ergreifen, die das Problem von mehreren Seiten aus angehen “, sagt Peter Rafaj.

Abbildung 1. Prognostizierte Änderung von Schadstoffemissionen und von vorzeitigen Todesfällen für zwei Szenarien bis 2030. Stated Policies Scenario (STEPS) geht davon aus, dass COVID-19 nächstes Jahr unter Kontrolle gebracht und die Weltwirtschaft Vorkrisenniveau erreicht; Sustainable Development Scenario (SDS) bedeutet die Einhaltung des Pariser Abkommens bis 2050. Die Emissionen im STEPS-Szenario sinken zwar leicht, auf Grund der wachsenden Bevölkerung in den Städten und der dortigen Luft kommt es aber zu einem Anstieg vorzeitiger Todesfälle.

Auswirkungen von COVID-19

Die Auswirkungen von COVID-19 sind einschneidend, doch einige von ihnen haben zu positiven Umweltveränderungen geführt.

Ein solches Beispiel ist, dass in vielen Teilen der Welt die Luftverschmutzung zurückgegangen ist. Diese Rückgänge waren allerdings nur vorübergehend; als die Lockdowns aufgehoben wurden, stiegen die Luftschadstoffe wieder auf Konzentrationen an, die mit denen des letzten Jahres vergleichbar waren und in einigen Regionen der Welt wurden sie sogar noch höher. Viele der aufgrund der Lockdowns erfolgten, kurzfristigen Verbesserungen der Luftqualität waren nicht nur schnell wieder vorbei, sie gingen auch mit hohen Kosten für das Wohl der Bürger und die Gesundheit der Weltwirtschaft einher. Es ist klar, dass wir uns nicht auf globale Pandemien verlassen sollten, um dauerhaft positive Umweltveränderungen herbeizuführen. Was wir stattdessen brauchen, sind systemische und tiefgreifende Transformationen.

„Trotz eines Rekordrückgangs der globalen CO2-Emissionen in diesem Jahr ist die Welt weit davon entfernt, genug zu tun, um ein entscheidendes Absinken hervorzurufen. Der wirtschaftliche Abschwung hat die Emissionen vorübergehend reduziert, aber ein niedriges Wirtschaftswachstum ist keine Strategie für niedrige Emissionen- es ist eine Strategie, die nur dazu führen kann, dass die bedürftigsten Bevölkerungsgruppen der Welt noch mehr verarmen“, erklärt IEA-Direktor Fatih Birol.

Ein deutlicher Umschwung hin zu Investitionen in saubere Energie bietet eine Möglichkeit, das Wirtschaftswachstum anzukurbeln, Arbeitsplätze zu schaffen und Emissionen zu reduzieren. Weitere Anstrengungen müssten sich in den kommenden Jahren auch auf die Reduzierung der Emissionen aus bestehenden Energie-Infrastrukturen wie Kohlekraftwerken, Stahlwerken und Zementfabriken konzentrieren. Fehlen solche Änderungen zur Bekämpfung dieser „gebundenen“ Emissionen - und dies unabhängig von Maßnahmen zur Förderung des Wachstums sauberer Energie - werden internationale Klimaziele unerreichbar bleiben.

[1] World Energy Outlook 2020, https://www.iea.org/reports/world-energy-outlook-2020


*Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 29. Oktober 2020 auf der Webseite des IIASA unter dem Titel: " Air pollution implications of re-shaping future energy pathways" erschienen. https://iiasa.ac.at/web/home/about/news/201027-World_Energy_Outlook_.html. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt.

 


Links zu Luftschadstoffen

Bert Brunekreef (Institut für Risikoforschung, Universität Utrecht): Luftschadstoffe und Gesundheit, Video 21:28 min. https://vimeo.com/107579920

Romain Lacombe (Etalab; data.gouv.fr): Global Pandemic - Air Pollution, TEDxAthens. Video 19:06 min. https://www.youtube.com/watch?v=FKBVwX8dVhI. Standard-YouTube-Lizenz

 

Artikel im ScienceBlog

IIASA. 23.07.2020: Es genügt nicht CO₂-Emissionen zu limitieren, auch der Methanausstoß muss reduziert werden. https://scienceblog.at/methan-ausstoss-muss-reduziert-werden.

Francis S. Collins, 27.09.2018: Erkältungen - warum möglichweise manche Menschen häufiger davon betroffen sind. https://scienceblog.at/erk%C3%A4ltungen-warum-m%C3%B6glichweise-manche-menschen-h%C3%A4ufiger-davon-betroffen-sind.

Inge Schuster, 16.11.2017: Einstellung der EU-Bürger zur Umwelt (Teil 1) – Ergebnisse der ›Special Eurobarometer 468‹ Umfrage. https://scienceblog.at/eurobarometer468.

IIASA, 18.05.2017: Überschreitungen von Diesel-Emissionen — Auswirkungen auf die globale Gesundheit und Umwelt . https://scienceblog.at/%C3%BCberschreitungen-von-diesel-emissionen-%E2%80%94-auswirkungen-auf-die-globale-gesundheit-und-umwelt.

 

IIASA, 25.09.2015:Verringerung kurzlebiger Schadstoffe – davon profitieren Luftqualität und Klimahttps://scienceblog.at/verringerung-kurzlebiger-schadstoffe.  

Johannes Kaiser & Angelika Heil, 31.07.2015: Feuer und Rauch: mit Satellitenaugen beobachtet. http://scienceblog.at/feuer-und-rauch.

Inge Schuster, 12.12.2014: Was macht HCB so gefährlich? http://scienceblog.at/was-macht-hcb-so-gef%C3%A4hrlich.


inge Thu, 12.11.2020 - 01:20

Comments

Können manche Antikörper die Infektion mit SARS-CoV-2 verstärken?

Können manche Antikörper die Infektion mit SARS-CoV-2 verstärken?

Do, 05.11.2020 — Ricki Lewis

Ricki LewisIcon MedizinAntikörper haben von vornherein ein positives Image. Allerdings: dieselben Mechanismen, mit denen Antikörper und damit Impfungen uns vor Infektionen schützen, bergen auch das potentielle Risiko das Infektionsgeschehen verschlimmern zu können, indem sie den Eintritt von Viren in unsere Zellen erleichtern. Es ist ein Virus- und Wirts-spezifisches Phänomen, das nur unzureichend verstanden wird. In vitro Modelle im Labor und Tiermodelle sind für die Situation am Menschen wenig aussagekräftig und für ein Auftreten infektionsverstärkender Antikörper in klinischen Studien an Impfstoffkandidaten gibt es (noch) keine Biomarker und keine spezifischen Symptome - außer dem Befund, dass mehr mit Impfstoff behandelte Teilnehmer krank werden als solche, die ein Placebo erhalten. Basierend auf einer jüngst im Fachjournal Nature veröffentlichten Studie [1] führt die Genetikerin Ricki Lewis Beispiele für infektionsverstärkende Antikörper und Impfungen an und diskutiert das Problem in Hinblick auf die Impfstoffentwicklung gegen COVID-19.*

Antikörper haben von vornherein ein positives Image. Diese, aus charakteristischen Y-förmigen Stücken bestehenden Proteine strömen aus Plasmazellen heraus und gelangen bereits in der frühen Phase einer Infektion in den Blutkreislauf. Sie heften sich dann an Moleküle, welche die Oberflächen von Krankheitserregern "dekorieren" und alarmieren natürliche Killerzellen, die wiederum einen Strom von Zytokinen und von Komplement freisetzen, welche die biochemischen Waffen einer Immunantwort sind.

Die Bekämpfung von Infektionen - ein komplexer Vorgang

In einem mysteriösen Phänomen, das als " infektionsverstärkende Antikörper " (ADE: Antibody-Dependent Enhancement) bezeichnet wird, verschlimmern manche Antikörper allerdings den Zustand und verstärken die Krankheitssymptome. Wenn ein Impfstoff die Bildung solcher abartigen Antikörper verursacht, werden die Folgen als "Impfstoff- ausgelöste Verstärkung der Infektion" bezeichnet. Man weiß, dass solche Vorgänge existieren, versteht sie aber nur unzureichend.

Die konträr wirkenden Antikörper lassen sich zwar im Laborversuch feststellen, bei einem Patienten, dessen Zustand sich verschlimmert, sind sie aber schwer zu fassen. Das heißt, es gibt in der Klinik keine Möglichkeit zwischen Folgen von infektionsverstärkenden Antikörpern und einem schweren Fall einer Infektionskrankheit zu unterscheiden. Und das kann die Evaluierung eines Impfstoffkandidaten erschweren. Eine Impfstoff- ausgelöste Verstärkung der Infektion würde sich In einer klinischen Studie so manifestieren, dass mehr mit dem Impfstoff behandelte Teilnehmer krank werden als solche, die ein Placebo erhielten.

Angeblich soll dies bei den COVID-19-Impfstoffkandidaten nicht der Fall sein, die entsprechenden Daten werden allerdings erst nach Abschluss der Phase-3-Studien veröffentlicht werden.

In den frühen klinischen Phasen war das schnelle Auftreten neutralisierender Antikörper im Blutplasma der behandelten Teilnehmer ein gutes Zeichen, ein Vorbote einer noch stärker einsetzenden Immunantwort (weil T-Zellen die Antikörperproduktion kontrollieren und darüber hinaus noch mehr tun). Aber werden Infektionsverstärkende Antikörper bemerkt werden, wenn Zehntausende Menschen an den Phase-3-Studien teilnehmen?

Während früherer Epidemien sind Infektionsverstärkende Antikörper in drei Situationen aufgetreten:

  • bei von früheren Infektionen mit verwandten Krankheitserregern noch vorhandenen Antikörpern
  • bei schwach wirksamen Antikörpern aus dem Plasma rekonvaleszenter Patienten (von Spendern, die sich erholt hatten) 
  • bei durch einen Impfstoff ausgelösten schwach wirksamen Antikörpern

Unabhängig vom Szenario verstärken Antikörper die Infektion, indem sie den Eintritt von Viren in unsere Zellen erleichtern - so als ob sie Burgtore öffneten anstatt sie zu befestigen.

Beispiele von infektionsverstärkenden Antikörpern

In einem kürzlich erschienenen, faszinierenden Artikel im Fachjournal Nature haben Ann Arvin und Herbert Virgin von Vir Biotechnology und ihre Kollegen vergangene Fälle von infektionsverstärkenden Antikörpern untersucht [1]. Angesichts der Komplexität fanden sie es „eine frustrierende Herausforderung vorhersagen zu wollen ob die durch SARS-CoV-2 verursachte Krankheit eine antikörperabhängige Verstärkung erfährt“.

Dazu Beispiele infektionsverstärkender Antikörper; es beginnt mit Katzen.

Das Feline Coronavirus

Für bestimmte Viren-Familien besteht eine höhere Wahrscheinlichkeit, dass sie eine Infektionskrankheit verstärken. Dazu gehören Lentiviren (HIV gehört dazu), Flaviviren (wie die Erreger von Dengue-Fieber, das West-Nil-Virus, Zika- und Gelbfieber-virus) und Coronaviren.

Das Feline Coronavirus macht Katzen normalerweise nicht sehr krank. Ein Stamm kann jedoch eine schmerzhafte infektiöse Peritonitis bei Katzen auslösen, wenn böse Antikörper die Viren nicht nur in Oberflächen auskleidende Zellen (wohin sie normalerweise gelangen) lotsen, sondern auch in die Makrophagen, die den Körper durchstreifen und "Abfall" umschlingen und verdauen. Die infizierten Makrophagen übertragen die Viren dann an viele Organe und verursachen schwere Symptome. Die Forscher haben nun Plasma von Katzen, welche die Peritonitis überlebt hatten, in kleine Kätzchen injiziert, die in Folge sehr schwer erkrankten.

Die Antikörper in den kranken infizierten Kätzchen banden an die Spikes des Virus und transportierten die Viren dann zu Makrophagen, in welche die Viren eindrangen. Anstatt eine Immunantwort auszulösen, verstärkten die Antikörper die Infektion.

Denguefieber

Wie die Coronavirus-Infektion bei Katzen verläuft die Dengue-Infektion bei Menschen normalerweise mild oder asymptomatisch. In seltenen Fällen verursacht Denguefieber jedoch ein hämorrhagisches Fieber, das tödlich sein kann. Vier Typen (Serotypen) des Virus verursachen Dengue-Fieber (DEN 1-4).

Denguefieber ist ein klassisches Beispiel für infektionsverstärkende Antikörper, da eine zweite Infektion manchmal ärger und nicht milder ausfällt.

In Gegenden, in denen Denguefieber endemisch ist, haben etwa 0,5% der Bevölkerung einen niedrigen Spiegel an Antikörpern, die von früheren Infektionen stammen. Denguefieber ist in vielen Teilen der Welt verbreitet. In den USA wurde 2005 der letzte Fall registriert. Infektionsverstärkende Antikörper können auftreten, , wenn eine Person anfänglich an einem Dengue- Serotyp erkrankt und dann mit einem anderen Serotyp infiziert wird. Die an das Virus angedockten Antikörper binden mit dem Stammteil ihrer Y-förmigen Komponenten an einen Rezeptor (Fc) auf Makrophagen und können diese infizieren, sodass diese nun Viren produzieren, anstatt die Immunantwort auszulösen, um sie zu zerstören.

Dengvaxia, ein Impfstoff gegen alle vier Dengue-Serotypen, hat Millionen von Menschenleben gerettet. Kontroversen kamen 2016 auf, nachdem auf den Philippinen der Impfstoff an kleinen Kindern getestet worden war, die seronegativ (d.i. noch nie infiziert) gewesen waren, und 14 starben. Diese Zahl stieg bis Ende 2019 auf 600 an. WHO-Forscher untersuchten dies, konnten jedoch nicht unterscheiden, ob die Kinder an infektionsverstärkenden Antikörpern gestorben waren oder an schwerem Denguefieber, weil der Impfstoff nicht gewirkt hatte. Auch das Alter kann ein Faktor für die schweren Verläufe gewesen sein. Heute wird der Impfstoff in 20 Ländern eingesetzt und an Menschen im Alter von 9 bis 45 Jahren verabreicht.

Die Forscher gehen auch davon aus, dass eine Impfung gegen Denguefieber das Risiko von infektionsverstärkenden Antikörpern gegen ein verwandtes Virus wie das Gelbfieber- oder Zika-Virus erhöhen könnte.

Humanes Respiratorisches Synzytial-Virus (HRSV)

Ein weiteres bemerkenswertes Beispiel für eine Impfstoff- ausgelöste Verstärkung der Krankheit gibt es bei HRSV, das typischerweise nur leichte Erkältungssymptome verursacht. Bei immungeschwächten Personen, Menschen mit Herz- oder Lungenerkrankungen, Frühgeborenen und älteren Personen kann der Verlauf schwer sein.

Eine alte Studie aus dem Jahr 1969 zeigte, dass Kinder im Alter von 6 bis 11 Monaten, die einen Impfstoff gegen RSV erhalten hatten, im Krankenhaus wegen schwerer Entzündungen der Lunge (Lungenentzündung) oder der Atemwege (Bronchiolitis) schlechter abschnitten als nicht geimpfte Kinder. 10 von 101 der geimpften Kinder hatten schwere Atemwegserkrankungen im Vergleich zu 2 von 173, die nicht geimpft waren. Unerwartet! Die kranken Kinder produzierten ungewöhnliche Antikörper, die sich an ein Fusionsprotein auf den Oberflächen der Viren anhefteten und offensichtlich einen schwereren Verlauf der Krankheit auslösten.

Die Forscher nannten die Reaktion "Impfstoff-assoziierte verstärkte Atemwegserkrankung". Bei dem Impfstoff handelte es sich damals um ein mit Formalin inaktiviertes HRSV. Neuere HRSV-Impfstoffe auf Basis monoklonaler Antikörper erweisen sich als sicher.

Influenza

Einige Personen, die im Jahr 2009 einen Impfstoff gegen einen neuartigen H1N1-Influenza-Stamm erhalten hatten, entwickelten eine schwere Atemwegserkrankung, die dem Impfstoff zugeschrieben wurde. Die Lungen von sechs verstorbenen Personen mittleren Alters zeigten klebrige Immunkomplexe, die darauf hinwiesen, dass geringe Mengen an Antikörpern aus früheren Grippeschutzimpfungen an die Stammteile der Hämagglutinin-Proteine gebunden waren, welche aus der Virusoberfläche herausragen. Die weitere Impfung war dann ausschlaggebend, dass die Antikörper die Infektion verstärkten.

Fazit

Infektionsverstärkende Antikörper und Impfungen sind schwierig zu untersuchen. Abgesehen davon, dass sie klinisch nicht von schweren Fällen der Infektionskrankheit zu unterscheiden sind, gibt es keine Biomarker, keine spezifische Kombination von Anzeichen und Symptomen, die diese Reaktion anzeigen. Es bleibt nichts anderes übrig als abzuwarten, ob in den Impfstoffstudien zu COVID-19 eine Verstärkung der Krankheit erfolgt. Eine beruhigende Beobachtung ist, dass SARS-CoV-2 an einen anderen Rezeptortyp - ACE2 - andockt als es die auf Makrophagen vorkommenden.Rezeptoren sind.

Die Möglichkeit - obwohl unwahrscheinlich - die Krankheit durch Impfstoffe zu verstärken, ist ein weiterer Grund, die Entwicklung von COVID-19-Impfstoffen nicht zu beschleunigen.

------------------------------------------------------------------------------

[1] Ann M. Arvin et al., A perspective on potential antibodydependent
enhancement of SARS-CoV-2. Nature 584353 - 363  (20.08.2020), https://doi.org/10.1038/s41586-020-2538-8


 *Der Artikel ist erstmals am 22.Oktober 2020 in PLOS Blogs - DNA Science Blog unter dem Titel " Can Some Antibodies Worsen COVID-19? The Odd Situation of Enhancement" https://dnascience.plos.org/2020/10/22/can-some-antibodies-worsen-covid-19-the-odd-situation-of-enhancement/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt. 


Weiterführende Links:

Paul-Ehrlich Institut: Was sind infektionsverstärkende Antikörper (ADE) und sind sie ein Problem? https://www.pei.de/DE/service/faq/faq-coronavirus-inhalt.html

Neue Studie: Was wir über Corona-Immunität wissen. 13.10.2020. https://www.dw.com/de/neue-studie-was-wir-%C3%BCber-coronavirus-reinfektionen-wissen/a-55242712

Celerion: Development of an Antibody Dependent Enhancement(ADE) Assay to Support SARS-CoV2 Vaccine Development. 7.7.2020; Video 15:54 min. https://www.celerion.com/resource/development-of-an-antibody-dependent-enhancementade-assay-to-support-sars-cov2-vaccine-development

Artikel zur Impfstoffentwicklung gegen COVID-19 im ScienceBlog

inge Thu, 05.11.2020 - 16:24

Elektronische Haut-Patches zur Wiederherstellung verlorener Sinnesempfindung und Erkennung von Krankheiten

Elektronische Haut-Patches zur Wiederherstellung verlorener Sinnesempfindung und Erkennung von Krankheiten

Do, 29.10.2020 — Redaktion

RedaktionIcon Medizin Elektronische Haut (E-Skin) ist ein Hot-Topic. Es handelt sich um flexible, dehnbare Pflaster, die nachahmen, wie Haut aussieht und sich anfühlt und die über Sensoren Informationen über den Träger sammeln. Hier werden zwei von der EU finanzierte Projekte vorgestellt. i) Im Projekt PepZoSkin wird eine flexible, sich selbst versorgende elektronische Haut entwickelt, die auf peptidbasierten piezoelektrischen Materialien basiert und sichere tragbare und implantierbare Anwendungen verspricht. ii) Das Projekt A-Patch will über Sensoren in elektronischen Haut-Patches Krankheits-spezifische Moleküle erkennen und damit eine rasche, effiziente, einfache und kostengünstige Diagnose ermöglichen - als Beispiel wird Tuberkulose angeführt - es kommt aber auch COVID-19 in Betracht.*

Stellen Sie sich Folgendes vor: jahrelang waren Ihre Arme ab den Handgelenken gefühllos, nun legt ein Arzt eine dünne, flexible Membran über Ihre Hand und - wie durch Zauberei - können Sie nun spüren, wie Wasser durch Ihre Finger rinnt. Abbildung 1.

Abbildung 1. Forscher in Europa arbeiten an elastischen Pflastern, die nachahmen, wie Haut aussieht und sich anfühlt und über Sensoren Informationen über den Träger sammeln. (Bild: Aaron Lee/Unsplash)

Dies mag nach einem seltsamen Szenario klingen, es ist es aber nicht. In ganz Europa machen Forscher rasche Fortschritte in der Entwicklung elastischer Pflaster, d.i. von Membranen welche die menschliche Haut in Aussehen oder Funktionalität oder in beiden Charakteristika nachahmen.

Elektronische Haut (E-Skin) wird als „tragbare Elektronik“ ("electronic wearable") eingestuft, d.h. als intelligentes Gerät, das auf oder nahe der Hautoberfläche getragen wird, um Informationen über den Träger zu erfassen und zu analysieren. Ein besser bekanntes elektronisches Wearable ist der Fitness-Tracker, der üblicherweise Bewegungen oder Vibrationen erfasst, um Feedback zur Leistung eines Benutzers zu geben. Weiter entwickelte Wearables sammeln Daten zur Herzfrequenz und zum Blutdruck einer Person.

Entwickler von E-Skins setzen sich aber höhere Ziele. Sie wollen dehnbare, robuste und flexible Membranen herzustellen, die hochentwickelte Sensoren enthalten und die Fähigkeit haben sich selbst zu heilen. Die möglichen Auswirkungen auf Medizin und Robotik sind enorm.

Zentrales Nervensystem

Bereits im Umlauf sind hautähnliche Membranen, die an der Körperoberfläche haften und Druck, Belastung, Verschiebung, Kraft und Temperatur erfassen; andere Typen werden entwickelt, um biochemische Veränderungen zu erkennen, die auf eine Krankheit hinweisen. Abbildung 2.

Abbildung 2. Eine Zusammenfassung der derzeitigen Entwicklung von tragbarer Elektronik, ausgerichtet zur Erfassung und Überwachung von Informationen zur menschlichen Gesundheit. (Bild aus: Yieding Gu et al., Nanoscale Res Lett. 2019; 14: 263. doi: 10.1186/s11671-019-3084-x; von der Redn. eingefügt. Lizenz: cc-by-4.0)

Eine Reihe von Projekten beschäftigt sich mit Hautformen, die Roboter oder menschliche Prothesen einhüllen sollen und diesen Maschinen und Apparaten die Möglichkeit geben Dinge zu manipulieren und ihre Umgebung mit einem hohen Maß an taktiler Empfindlichkeit wahrzunehmen. Und der Traum ist natürlich, eine E-Skin zu entwickeln, die sich mit dem Zentralnervensystem des Trägers (zum Beispiel einer gelähmten Person) verbinden kann, um so den durch Krankheit oder Trauma erlittenen Verlust der Sinnesempfindung wiederherzustellen.

Mit ihrem Projekt PepZoSkin (Biocompatible Self-powered Electronic Skin - https://cordis.europa.eu/project/id/875586) befinden sich Forscher der Universität Tel Aviv in Israel auf einem Weg, von dem sie glauben, dass er diesen Traum irgendwann Wirklichkeit werden lässt. Innerhalb eines Jahrzehnts glauben sie, dass künstliche Hautpflaster weit genug fortgeschritten sein werden, um die Träger auf Gefahren aufmerksam zu machen, die sie auf natürliche Weise nicht wahrnehmen können.

"Ich habe einen Freund im Rollstuhl, der kein Gefühl in den Beinen hat - er hat keine Ahnung, ob heißer Kaffee auf seine Beine verschüttet wurde", meint die wissenschaftliche Mitarbeiterin Dr. Sharon Gilead. „Die Idee ist, dass ein Pflaster auf seinem Bein ein Signal gibt - vielleicht ein rotes Licht -, das ihm sagt, wenn etwas nicht stimmt und ihn so vor einer schweren Verbrennung bewahrt."

"Dies wird nur der Anfang sein. In der Weiterführung dieses Projekts wollen wir die dünne Schicht (E-Skin) dazu bringen mit dem Nervensystem zu sprechen und das fehlende Gefühl zu ersetzen. Auch wenn dies noch ein wenig weit weg liegt, ist es definitiv die Richtung in die wir uns bewegen."

Das Team in Tel Aviv entwickelt eine Haut, die Gesundheitsinformationen erfassen und analysieren soll, ohne dass dazu eine externe Stromquelle gebraucht wird. Die Membran soll als Selbst-Versorger fungieren dank eines als Piezoelektrizität bekannten Phänomens. In bestimmten Materialien (dazu gehören Knochen, DNA und bestimmte Proteine) akkumuliert elektrische Ladung als Reaktion auf mechanische Verformung. Kurz gesagt: drückt man auf eine E-Skin aus piezoelektrischem Material, selbst wenn dies sehr sanft geschieht, so wird diese eine elektrische Ladung erzeugen. Schließt man einen Stromkreis an, kann dieser Strom verwendet werden - beispielsweise, um einen Herzschrittmacher mit Strom zu versorgen.

Bei einer gelähmten Person würde das heiße verschüttete Getränk eine Verformung der E-Haut erzeugen, die von dieser als mechanischer Druck gedeutet würde, und dies würde wiederum in ein elektrisches Signal umgewandelt werden. Dieses Signal kann dann das Warnlicht oder einen Warnton auslösen.

Ungiftig

Derzeit besteht die Herausforderung darin, piezoelektrische Materialien zu finden, die für den Körper untoxisch sind. „Die heute verwendeten piezoelektrischen Materialien enthalten Blei und rufen schädliche Auswirkungen auf den Körper hervor. Wir konzentrieren uns auf Biomoleküle und von der Biologie inspirierte Moleküle (d.h. synthetisch hergestellte Moleküle, welche die im Körper vorkommenden nachahmen), “sagt Gal Fink, Doktorand und PepZoSkin Forscher.

Wie wichtig es ist, piezoelektrische Materialien zu finden, die zu sicheren Produkten entwickelt werden können, erklärt der Projektleiter Professor Ehud Gazit. "Unsere derzeitige Arbeit an piezoelektrischen Peptid-basierten Materialien wird sehr bald zu bleifreien Produkten führen, die wie die jetzt erhältlichen giftigen, bleigefüllten Produkte funktionieren, natürlich mit dem Unterschied, dass unsere neuen Materialien weitaus besser sein werden, weil ihre Anwendung am menschlichen Körper und sogar als Implantate sicher sein wird."

Das Team um Prof. Gazit erwartet, dass mit Anfang des kommenden Jahres das Projekt in die nächste Phase übergeht. Bis dahin hoffen sie, ihr organisches Molekül ausgewählt und für die piezoelektrische Aktivität optimiert zu haben. Sodann planen sie, das Molekül zu funktionellen Nanobausteinen zu entwickeln. Sie glauben, dass diese mit der Zeit in großem Umfang in biologischen und medizinischen Anwendungen eingesetzt und als Energy Harvester und Biosensoren dienen werden, die wichtige Informationen direkt vom menschlichen Gewebe an den Benutzer oder an einen Dritten übermittelt werden.

Krankheit

Biosensing ist auch das Kernstück von A-Patch (Autonomous Patch for Real-Time Detection of Infectious Disease - https://cordis.europa.eu/project/id/824270), einem weiteren E-Skin-Projekt. Mit ihrem Team am Israel Institute of Technology (Technion) in Haifa hat die wissenschaftliche Projektleiterin Dr. Rotem Vishinkin einen Patch entwickelt, der auf einer „verrückten Idee“ basiert, die der Projektkoordinator Professor Hossam Haick, vor fast einem Jahrzehnt hatte: nämlich, dass man Infektionskrankheiten schnell und zuverlässig über die Haut erkennen könnte.

"Wir hatten bereits einen Weg gefunden, um mithilfe der Atemanalytik zwischen Krankheiten zu unterscheiden. So dachten wir, dass es auch möglich wäre, ein Pflaster auf der Haut zu verwenden, um den Körper auf bestimmte Zustände hin zu "riechen", erklärt sie.

Vishinkin war besonders daran interessiert, einen schnellen, nicht-invasiven Weg zu finden, um auf Tuberkulose (TB) zu testen - eine hoch ansteckende Krankheit, die insbesondere in Entwicklungsländern verbreitet ist. An TB erkranken jährlich 10 Millionen Menschen und 1,4 Millionen sterben daran. Eine Früherkennung ist wichtig, da nach erfolgter Diagnose die Übertragung eingedämmt werden kann, und Antibiotika am wirksamsten sind, wenn die Infektion frisch ist.

Normalerweise wird TB aus dem Sputum diagnostiziert, das ein Patient aushustet. Untersuchungen haben jedoch ergeben, dass viele Menschen nicht in der Lage sind, die Probe in einer, für ein genaues Ergebnis erforderlichern Qualität zu produzieren. Darüber hinaus kann es bis zu zwei Wochen dauern, bis ein Testergebnis geliefert wird, insbesondere in abgelegenen Gemeinden, wo Proben weite Distanzen überwinden müssen, um ein Labor zu erreichen - die Krankheit gewinnt so zusätzliche Tage oder sogar Wochen, um sich auszutoben.

A-Patch zielt darauf ab eine kostengünstige und effiziente Alternative zum Sputum-Test zu entwickeln. Das ultradünne, flexible Pflaster verwendet chemische Sensoren, um Veränderungen in (flüchtigen) organischen Verbindungen des Körpers zu detektieren, die ausgelöst werden, wenn sich das TB-Bakterium einnistet. Wie Dr. Vishinkin ausführt, werden die in Kürze veröffentlichten Forschungsergebnisse (die von der Bill and Melinda Gates Foundation finanziert werden), zeigen, dass das A-Patch - eine Stunde lang getragen - eine TB-Diagnose mit einer Genauigkeit von 90% liefert. Das Team hofft, die Tragedauer auf fünf Minuten zu reduzieren, wobei das Pflaster auf den Arm aufgebracht wird.

Ein Einweg-A-Patch wird ein bis zwei US-Dollar kosten und keine andere Laborausrüstung benötigen als ein elektronisches Lesegerät, mit dem ein Arzt das Patch aktivieren und die Ergebnisse interpretieren kann. Um das Produkt auf den Markt zu bringen erhält das Technion-Team Unterstützung von einem auf diagnostische Kits spezialisierten Industriepartner. Dr. Vishinkin ist zuversichtlich dass innerhalb der nächsten Jahren ein brauchbarer Test eingeführt wird.

"Wir schätzen, dass der vorhandene Markt für diese Kits 71 Millionen Tests pro Jahr beträgt", sagt sie. "Und da ein Pflaster zu Hause verwendet werden kann, braucht man keine, mit dem Gang eine TB-Klinik zur Testung, verbundene Stigmatisierung befürchten  Dies bedeutet, dass die Menschen eher bereit sein werden, diesen Schritt zu machen.“

Die genaue Vorgangsweise in der Übertragung von Patch-Ergebnissen vom Patch zum Lesegerät wird noch ausgearbeitet. "Wir haben Partner in den Bereichen elektronische Schaltungen, Sensoren und Datenanalytik, die uns bei den einzelnen Gesichtspunkten des Projekts helfen", sagte Dr. Vishinkin.

Im Laufe der Zeit rechnet Dr. Vishinkin damit ein Pflaster für längerfristige Anwendungen zu entwickeln, beispielsweise um die Wirksamkeit eines TB-Behandlungsprotokolls über mehrere Wochen hinweg zu überwachen. Allerdings besteht eine hohe Wahrscheinlichkeit, dass ein Patch bei längerer Verwendung eingerissen oder beschädigt wird, wodurch er unwirksam wird. Um dieses Risiko zu vermindern, haben die Wissenschaftler einen Mechanismus zur Selbstreparatur von Pflastern entwickelt, der es der Matrix der Peptidbindungen in einer Membran ermöglicht, nach Erkennung von Schäden neue Netzwerke zu bilden und die Integrität der E-Haut wiederherzustellen.

"Jeder Tag bringt uns unserem Ziel näher, ein schnelles, zuverlässiges und einfaches Diagnosewerkzeug für TB zu entwickeln", sagte Dr. Vishinkin. "Und wir werden hier nicht aufhören. Was wir schaffen, ist eine Plattform zur Erkennung von Krankheiten, nicht nur ein Kit für eine bestimmte Krankheit.

Wir könnten als nächstes leicht zu Covid-19 wechseln. “


Dieser Artikel wurde ursprünglich am 28. Oktober 2020 von Vittoria D'Alessio in Horizon, the EU Research and Innovation Magazine  unter dem Titel "Electronic skin patches could restore lost sensation and detect disease "publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Abbildung 2 und Beschriftung wurden von der Redaktion eingefügt.


Artikel zu verwandten Themen im ScienceBlog:

Inge Schuster, 12.12.2019:Transhumanismus - der Mensch steuert selbst seine Evolution

Norbert Bischofberger, 16.08.2018: Mit Künstlicher Intelligenz zu einer proaktiven Medizin

Georg Martius, 09.08.2017:Roboter mit eigenem Tatendrang

Inge Schuster, 17.07.2015: Unsere Haut – mehr als eine Hülle. Ein Überblick.

Ilse Kryspin-Exner, 31.01.2013: Assistive Technologien als Unterstützung von Aktivem Altern.


 

inge Thu, 29.10.2020 - 01:27

Schützende Antikörper bleiben nach überstandener SARS-CoV-2-Infektion monatelang bestehen

Schützende Antikörper bleiben nach überstandener SARS-CoV-2-Infektion monatelang bestehen

Do, 22.10.2020 — Francis S. Collins

Francis S. CollinsIcon Medizin Die USA sind ein Hotspot für SARS-CoV-2 verursachte Infektionen: über 8,2 Millionen Menschen wurden dort bis jetzt positiv auf das Virus getestet, über 221 000 sind an/mit der Erkrankung COVID-19 gestorben. Häufig wird die Frage gestellt, ob bei Personen, die sich von der Krankheit wieder erholt haben, die einmal erfolgte Abwehr von SARS-CoV-2 dazu geführt hat, dass das Immunsystem sie nun vor einer erneuten Infektion schützt. Und, sollte dies der Fall sein, wie lange diese „erworbene Immunität“ anhalten wird. Zwei neue Studien geben darauf eine positive Antwort. Francis S. Collins berichtet über diese Ergebnisse. Collins, ehem. Leiter des "Human Genome Project" ist langjähriger Direktor der US-National Institutes of Health (NIH), die in Zusammenarbeit mit der Biotech-Firma Moderna (Cambridge, MA) in Rekordzeit einen spezifischen Impfstoff gegen das Coronavirus entwickelt haben, dessen klinische Testung in Phase 3 in den nächsten Monaten zu Ende gehen wird.*

Schützt eine einmal überstandene SARS-CoV-2-Infektion vor einer Neuinfektion?

Frühe, bereits Ende April publizierte Befunde haben Anlass zur Hoffnung gegeben, dass eine gegen das Virus erworbene Immunität möglich wäre. Allerdings gab es dann einige nachfolgende Studien, die darauf hindeuteten, dass der Immunschutz nur von kurzer Dauer sein könnte. Zwei kürzlich in der Fachzeitschrift Science Immunology veröffentlichte neue Studien stützen die frühen Befunde und bieten - auch wenn weitergehende Untersuchungen erforderlich sind - einen besseren Einblick in die Art der menschlichen Immunantwort auf dieses Coronavirus [1,2].

Wie die neuen Ergebnisse zeigen, produzieren Menschen, die eine COVID-19-Infektion überstehen, noch mindestens drei bis vier Monate nach dem Auftreten der ersten Symptome schützende Typen von Antikörpern gegen wesentliche Bausteine des Virus. Einige andere Antikörpertypen nehmen dagegen schneller ab. Die Ergebnisse lassen hoffen, dass mit dem Virus infizierte Menschen einen anhaltenden Antikörperschutz gegen eine erneute Infektion haben werden, wobei noch zu bestimmen ist, wie lange dieser Schutz andauert. 

Abbildung 1. Künstlerische Darstellung eines SARS-CoV-2 Virus (orange), der an seiner Oberfläche mit Antikörper bedeckt ist (weiß), die von einer B-Immunzelle (grau, am unteren linken Rand) produziert werden. Credit: iStock/selvanegra

Entwicklung von Antikörpertypen nach Infektion mit SARS-CoV-2

Eine der beiden, teilweise von den NIH finanzierten Studien fand unter der Leitung von Richelle Charles vom Massachusetts General Hospital in Boston statt. Die Forscher versuchten hier besser zu verstehen, wie eine Antikörperantwort auf die Infektion mit SARS-CoV-2 erfolgt. Dazu rekrutierten sie 343 Patienten, von denen die meisten schwer an COVID-19 erkrankt waren und einer stationären Krankenhausbehandlung bedurften. In den Blutproben dieser Patienten untersuchten sie dann die Antikörperantwort, die diese bis zu 122 Tage nach Auftreten der Symptome entwickelten und verglichen sie mit Antikörpern in mehr als 1.500 Blutproben, die vor Beginn der Pandemie gesammelt worden waren.

In den Blutproben beschrieben die Forscher die Entstehung von drei Typen von Antikörpern gegen die Domäne des viralen Spikeproteins, mit dem dieses an den Rezeptor der Wirtszelle (ACE2-Rezeptor) andockt. Der erste Antikörper-Typ war ein Immunglobulin G (IgG), welches das Potenzial hat, eine anhaltende Immunität zu verleihen. Der zweite Typ war Immunglobulin A (IgA), das vor Infektionen auf den Schleimhautoberflächen des Körpers schützt, wie sie in den Atemwegen und im Magen-Darm-Trakt zu finden sind, und das in hohen Mengen in Tränen, Schleim und anderen Körpersekreten enthalten ist. Der dritte Typ war ein Immunglobulin M (IgM), das der Körper als erstes produziert, wenn er eine Infektion bekämpft.

Alle drei Antikörper-Typen konnten etwa 12 Tage nach der Infektion nachgewiesen werden. Die IgA- und IgM-Antikörper gegen das Spike-Protein waren allerdings kurzlebig und innerhalb von etwa zwei Monaten verschwunden.

Die gute Nachricht: bei denselben Patienten hielten die länger andauernden IgG-Antikörper bis zu vier Monate an, also solange die Forscher diese verfolgen konnten. Die Spiegel dieser IgG-Antikörper dienten im Labor auch als Indikator für das Vorhandensein von schützenden Antikörpern, die SARS-CoV-2 neutralisieren können. Die noch bessere Nachricht: die neutralisierende Wirkung nahm während 75 Tagen nach Auftreten der Symptome nicht ab. Wenn hier auch längerdauernde Studien erforderlich sind, so stützen die Ergebnisse den Nachweis, dass schützende Antikörperantworten gegen das neue Virus bestehen bleiben.

Die zweite Studie kam zu sehr ähnlichen Ergebnissen. Das Team unter der Leitung von Jennifer Gommerman und Anne-Claude Gingras, Universität von Toronto, Kanada, beschrieb die gleichen drei Arten von Antikörperantworten gegen das SARS-CoV-2-Spike-Protein. Die Antikörper-Profile waren aus Blut- und Speichelproben von 439 Personen erhalten worden, die 3 bis 115 Tage zuvor COVID-19-Symptome entwickelt hatten; allerdings mussten nicht alle stationär im Krankenhaus behandelt werden. Das Team verglich dann die Antikörperprofile der COVID-19-Patienten mit denen von Personen, die COVID-19-negativ waren.

Die Forscher fanden heraus, dass die Antikörper gegen SARS-CoV-2 in Blut und Speichel leicht nachgewiesen werden konnten. Die IgG-Spiegel erreichten etwa zwei Wochen bis einen Monat nach der Infektion einen Höchstwert und blieben dann länger als drei Monate stabil. Ähnlich wie beim Bostoner Team sanken auch bei der kanadischen Gruppe die IgA- und IgM-Antikörperspiegel rapide.

Ausbreitung von SARS-CoV-2 durch Antikörpertests verfolgt

Die Ergebnisse legen nahe, dass Antikörpertests als wichtiges Instrument zur Verfolgung der Ausbreitung von SARS-CoV-2 in unseren Gesellschaften dienen können. Im Gegensatz zu Tests auf das Virus selbst bieten Antikörpertests ein Mittel zum Nachweis von Infektionen, die irgendwann in der Vergangenheit aufgetreten sind, einschließlich solcher, die möglicherweise asymptomatisch verliefen.

Die Ergebnisse des kanadischen Teams legen ferner nahe, dass Tests von IgG-Antikörpern im Speichel ein bequemer Weg sein können, um die erworbene Immunität einer Person gegen COVID-19 zu verfolgen.

Da IgA- und IgM-Antikörper schneller abnehmen, könnte ein Testen auf diese unterschiedlichen Antikörpertypen auch dazu beitragen, um zwischen einer Infektion innerhalb der letzten zwei Monate und einer, die sich noch früher ereignete, zu unterscheiden. Solche Details sind wichtig, um Lücken in unserem Verständnis von COVID-19-Infektionen zu füllen und deren Ausbreitung in unseren Gesellschaften zu verfolgen.

Dennoch, es gibt einige wenige Berichte von Personen, die den Kampf mit COVID-19 überstanden haben und einige Wochen später mit einem anderen SARS-CoV-2-Stamm infiziert wurden [3]. Die Seltenheit solcher Berichte legt jedoch nahe, dass die nach einer SARS-CoV-2-Infektion erworbene Immunität im Allgemeinen schützend ist.

Es bleiben noch viele Fragen offen; um diese zu beantworten müssen ausgedehntere Studien mit einer größeren Diversität an Personen, die COVID-19 überstanden haben, durchgeführt werden. Es freut mich daher, dass das National Cancer Institute (NCI) der NIH kürzlich das NCI Serological Sciences Network für COVID19 (SeroNet) ins Leben gerufen hat, das nun das größte koordinierte Vorgehen des Landes zur Charakterisierung der Immunantwort auf COVID-19 darstellt [4].


[1] Persistence and decay of human antibody responses to the receptor binding domain of SARS-CoV-2 spike protein in COVID-19 patients. Iyer AS, Jones FK, Nodoushani A, Ryan ET, Harris JB, Charles RC, et al. Sci Immunol. 2020 Oct 8;5(52):eabe0367.

[2] Persistence of serum and saliva antibody responses to SARS-CoV-2 spike antigens in COVID-19 patients. Isho B, Abe KT, Zuo M, Durocher Y, McGeer AJ, Gommerman JL, Gingras AC, et al. Sci Immunol. 2020 Oct 8;5(52):eabe5511.

[3] What reinfections mean for COVID-19 . Iwasaki A. Lancet Infect Dis, 2020 October 12. [Epub ahead of print]

[4] NIH to launch the Serological Sciences Network for COVID-19, announce grant and contract awardees. National Institutes of Health. 2020 October 8.


*Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 20. Oktober 2020) im NIH Director’s Blog unter dem Titel: "Two Studies Show COVID-19 Antibodies Persist for Months" https://directorsblog.nih.gov/2020/10/20/two-studies-show-covid-19-antibodies-persist-for-months/. Er wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig (mit einigen Untertiteln) für den ScienceBlog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

NIH: Coronavirus (COVID-19) https://www.nih.gov/coronavirus

National Cancer Institute/NIH: NCI Serological Sciences Network for COVID-19 (SeroNet) https://www.cancer.gov/research/key-initiatives/covid-19/coronavirus-research-initiatives/serological-sciences-network

Artikel von Francis S. Collins zu COVID-19 im ScienceBlog:


 

inge Wed, 21.10.2020 - 23:28

Wie lange bleibt SARS-CoV-2 auf Oberflächen infektiös?

Wie lange bleibt SARS-CoV-2 auf Oberflächen infektiös?

Fr 16.10.2020 Inge Schuster Inge SchusterIcon Medizin

Wenn auch die überwiegende Zahl der SARS-CoV-2 Infektionen über Atemtröpfchen erfolgen dürfte, ist bei den nun wieder stark steigenden Infektionszahlen eine Ansteckung über kontaminierte Oberflächen durchaus denkbar. Eine neue Studie australischer Forscher zeigt  die überraschend hohe Stabilität von SARS-CoV-2 Viren auf Oberflächen und Gegenständen des täglichen Gebrauchs. Häufiges Reinigen von Oberflächen, Mund-Nasenschutz, Händewaschen und Abliegenlassen von potentiell kontaminiertem Material erweisen sich als effiziente Mittel eine Infektion mit dem Virus zu verhindern.

Die derzeit gängige Ansicht zur Ausbreitung von SARS-CoV-2 geht davon aus, dass die Infektion überwiegend über Atemtröpfchen erfolgt, die von infizierten Personen beim Husten, Niesen, Sprechen oder auch Singen ausgestoßen werden und von anderen, in der Nähe befindlichen Personen in Nase, Mund, Atemtrakt, Lunge eingeatmet werden. Während große Tröpfchen schnell auf den Boden sinken, können kleine Tröpfchen sich als Aerosole verflüchtigen und eine beträchtliche Zeit in der Luft verbleiben, wobei die Infektiosität des darin eingeschlossenen Virus über Stunden erhalten bleibt.

Infektion über kontaminierte Oberflächen?

Virenhaltige Sekrete können aber auch auf sogenannten Fomiten, das sind unbelebte Oberflächen und Gegenstände, landen. Berührt man solche kontaminierte Stellen mit den Händen, so können diese Viren auf Augen und Schleimhäute von Nase und Mund übertragen. Die Möglichkeit einer Schmierinfektion über kontaminierte Gegenstände und Oberflächen wurde auch von der WHO explizit angeführt. Ausschlaggebend dafür, dass es zu einer Infektion kommen kann, ist vor allem die Konzentration des Virus und wie lange es auf welchen Oberflächen infektiös bleibt.

Bisherige Untersuchungen haben gezeigt, dass die meisten den Atmungstrakt infizierenden Viren, wie Influenza-, Corona- und Rhinoviren, auf unbelebten Oberflächen auch noch nach mehreren Tagen nachgewiesen werden können [1].

Zur Stabilität von SARS-CoV-2 auf einzelnen Oberflächen gibt es widersprüchliche Angaben. Dabei muss man berücksichtigen, dass viele der diesen Aussagen zugrunde liegenden Versuchsansätze wenig Relevanz für realistische Situationen haben dürften: diese sind ja abhängig von der Zahl der Viren, die in einem schleimhaltigen Medium ausgehustet, ausgeniest, ausgespuckt werden, von der Beleuchtung (Anteile von UV-Licht inaktivieren Viren), Temperatur, Luftfeuchtigkeit und einem eventuellem Austrocknen des Inokulums auf den Oberflächen. Die längste Nachweisbarkeit von infektiösem SARS-CoV-2 wurde mit einem anfänglich sehr großen Inokulum (10 Millionen Viren auf der zu testenden kleinen Oberfläche) erzielt.

Wie riskant ist es also durch Anfassen von kontaminierten Oberflächen an Schmierinfektionen zu erkranken?

Ein Ansatz, um reale Gegebenheiten besser nachzuahmen

Eine australische Forschergruppe der Commonwealth Scientific and Industrial Research Organization (CSIRO) hat nun vor wenigen Tagen eine Studie veröffentlicht, in der sie die Überlebensrate infektiöser SARS-CoV-2-Viren auf einer Reihe von im Alltag gebräuchlichen Oberflächen - Edelstahl, Plastik, Glas, Papier und Baumwollstoff - unter möglichst realistischen Bedingungen bestimmte [2].

Um Sekrete des Nasen-/Rachenraums nachzuahmen wurde das Virus in einer Albumin und Mucin (Schleimsubstanz) enthaltenden Lösung suspendiert und auf die einzelnen zu untersuchenden Oberflächen in einer Dosis aufgetragen, die ein stark infektiöser Patient beim Husten abgeben würde (350 000 Partikel in 10 Mikroliter).

Um vor etwaigen UV-bedingten Inaktivierungen des Virus zu schützen, wurden die kontaminierten Oberflächen dann im Dunkeln, in einer Klimakammer bei Raumtemperatur (20oC), bei 30oC und 40oC und 50 % Luftfeuchtigkeit bis zu 28 Tage lang inkubiert. Nach bestimmten Zeitintervallen wurde die auf einzelnen Oberflächen verbliebene Infektiosität mit Hilfe von infizierbaren Zellkulturen bestimmt. Als Modell dienten dabei Vero E6-Zellen, eine etablierte Zelllinie aus Nierenzellen von grünen Meerkatzen, die von vielen Viren infizierbar ist. Abbildung 1.

Abbildung 1. Eine Vero E6- Zelle (blau), die massiv mit SARS-CoV-2 (braun) infiziert ist. Kolorierte Aufnahme mit Rasterelektronenmikroskop. (Quelle: NIAID - https://www.flickr.com/photos/niaid/49680384436/ ; cc-by-2.0 Lizenz)

SARS-CoV-2 ist auf kontaminierten Oberflächen robuster als angenommen

Generell erwies sich das Virus bei Raumtemperatur (20oC) stabiler als bei höheren Temperaturen (30oC und 40oC) und auf glatten Oberflächen stabiler als auf porösen Oberflächen wie beispielsweise Baumwollstoff. (Eigentlich hätte man höhere Stabilität auf raueren Oberflächen angenommen.)

Bei Raumtemperatur (20oC) wurde auf Edelstahl, Glas und auf Banknoten (aus glattem Papier und auch aus Kunststoff) infektiöses Virus auch noch nach 28 Tagen festgestellt (im Vergleich dazu konnte man infektiöses Influenza A Virus nur 17 Tage lang finden). Besonders beeindruckend erscheint die Stabilität von SARS-CoV-2 auf Banknoten. Auf porösem, rauem Untergrund wie Baumollstoff erfolgte die Inaktivierung dagegen wesentlich rascher. Auf allen Oberflächen war bei 20oC eine zehnfache Reduktion des aktiven Virus in einem Zeitraum von 5,6 bis 9,1 Tagen festzustellen.

Mit zunehmender Temperatur sank die Stabilität des Virus; bei 40oC überlebte es auf einigen Oberflächen nicht einmal 24 h. Abbildung 2 fasst die Überlebenszeit von SARS-CoV-2 auf einigen der getesteten Oberflächen zusammen.

Abbildung 2. Infektiosität von SARS-CoV.2-kontaminierten Oberflächen, die bei 50 % Luftfeuchtigkeit und verschiedenen Temperaturen gelagert wurden. Nach 24 h bei 40oC wurden in Baumwollstoff keine infektiösen Partikel mehr nachgewiesen. TCID50-Daten (Tissue-Culture Infection Doses - Quantifizierung der vermehrbaren Viren, hier im Vero- E6 Modell) sind in log10-Schritten gezeigt; der Grenzwert der Detektierbarkeit lag bei 0,8 log10TCID50. (Quelle: Shane Riddell et al.,2020, Lizenz: cc-by. [2])

Fazit

Offensichtlich bleibt die Infektiosität von mit SARS-CoV-2 kontaminierten, im Alltag gebräuchlichen Oberflächen länger erhalten als ursprünglich angenommen. Insbesondere erscheint die lange Persistenz auf rasch zirkulierenden Banknoten (die dann in der dunklen Geldbörse aufbewahrt werden) von besonderer Bedeutung. Eine erhöhte Ansteckungsgefahr könnte auch von glatten, häufig von verschiedensten Personen frequentierten Oberflächen wie den Touchscreens von Bankautomaten, Supermarkt-Kassen, Check-in-Schaltern etc. ausgehen, die ja nicht ständig in ausreichendem Ausmaß desinfiziert werden können.

Was man dagegen machen kann?

Zur Verminderung einer Schmierinfektion Mund-Nasen-Masken - möglichst aus Baumwollstoffen - tragen, nach Kontakt mit möglicherweise infizierten Oberflächen Hände desinfizieren und verdächtige erworbene Gegenstände für einige Zeit im Licht abliegen lassen.


 [1] Shi-Yan Ren et al., Stability and infectivity of coronaviruses in inanimate environments. World J Clin Cases 2020 April 26; 8(8): 1391-1399. DOI: https://doi.org/10.12998/wjcc.v8.i8.1391.

[2] Shane Riddell et al., The effect of temperature on persistence of SARS‑CoV‑2 on common surfaces. Virol J (2020) 17:145. https://doi.org/10.1186/s12985-020-01418-7


 

inge Thu, 15.10.2020 - 19:08

Genom Editierung mittels CRISPR-Cas9 Technologie - Nobelpreis für Chemie 2020 an Emmanuelle Charpentier und Jennifer Doudna

Genom Editierung mittels CRISPR-Cas9 Technologie - Nobelpreis für Chemie 2020 an Emmanuelle Charpentier und Jennifer Doudna

Do, 08.10.2020 — Redaktion

RedaktionIcon Chemie

Der Chemie-Nobelpreis 2020 ging je zur Hälfte an die französische Biologin Emmanuelle Charpentier und an die US-amerikanische Biochemikerin Jennifer Doudna. Basierend auf CRISPR-Cas, dem Verteidigungsmechanismus von Bakterien gegen Viren (Phagen) haben die Laureaten eine Genschere entwickelt, die präzise, effizient und kostengünstig jede beliebige DNA ansteuert und an einer vorbestimmten Stelle schneidet und verändert. CRISPR-Cas ermöglicht die Genome von Mikroorganismen, Pflanzen und Tieren gezielt zu verändern und hat innerhalb kürzester Zeit die biologisch/medizinischen Labors in aller Welt revolutioniert.

Wie rasant der Fortschritt in den Biowissenschaften verläuft, bislang Unvorstellbares zu etablierten, breitest angewandten Technologien werden kann, lässt sich aus einem kurzen Absatz erkennen, den der berühmte Molekularbiologe und Nobelpreisträger Jaques Monod vor 50 Jahren in seinem Buch "Zufall und Notwendigkeit" so formuliert hat:

"Die moderne molekulare Genetik bietet uns keine wie immer gearteten Mittel um auf unser Erbmaterial einzuwirken, um es mit neuen verbesserten Eigenschaften zu versehen - einen Supermenschen zu erzeugen. Ganz im Gegenteil, sie zeigt uns dass diese Hoffnung vergeblich ist: die mikroskopischen Eigenschaften des Genoms lassen heute und vermutlich auch in der Zukunft eine derartige Manipulation von Genen als unwahrscheinlich erscheinen."

Nun, die Geschichte hat Monod wiederlegt; gezielte Genveränderungen (Genom Editierung) gibt es bereits seit einem Jahrzehnt. Die von Emmanuelle Charpentier und Jennifer Doudna entwickelte CRISPR-Cas Technologie ist ein noch besseres, einfaches und kostengünstiges Verfahren, das die gesamten Biowissenschaften revolutioniert hat.

Als Emmanuelle Charpentier in einem Vortrag über "The revolution of CRISPR-Cas Genome engineering - lessons learned from bacteria" im Mai 2016 in Wien Monod's Ausspruch zitierte, war sie selbst bereits berühmt, international weitesten Kreisen bekannt und mit Auszeichnungen überhäuft. Ein Jahrzehnt zuvor hatte sie an den Max-Perutz Laboratories in Wien (und später an der Universität von Umea/Schweden) über das adaptive Immunsystem CRISPR-Cas9 gearbeitet, mit dem sich Bakterien und Archaea vor infizierenden Viren (Phagen) schützen, indem sie deren DNA zerschneiden. Dabei entdeckte sie in dem Abwehrsystem eine essentielle Komponente (die sogenannte tracrRNA), welche die zu schneidende DNA identifiziert. 2011 veröffentlichte sie diese Entdeckung.

Als Charpentier im selben Jahr auf einer Konferenz die US-amerikanische Biochemikerin Jennifer Doudna (University Berkeley),eine Expertin auf dem RNA- und Cas-Gebiet kennenlernte, startete sie mit ihr eine Zusammenarbeit. Diese führte zur Vereinfachung des CRISPR-Cas Systems und programmierte es um, sodass es nun nicht nur Viren-DNA sondern jede beliebige DNA ansteuert und präzise an einer vorbestimmten Stelle schneidet.

Die erste Publikation über diese revolutionäre Technologie im Jahr 2012 hat eine Welle der Begeisterung ausgelöst - man erkannte das ungeheure Anwendungspotential in unterschiedlichsten Disziplinen von der Synthetischen Biologie, der Humanmedizin bis hin zur Landwirtschaft. Dazu kommt, dass es eine billige Methode ist, leicht und universell anwendbar. Eine nicht abebbende Flut an Untersuchungen war die Folge: die US-amerikanische Datenbank listet über 10 000 Veröffentlichungen und jährlich kommen über 2000 hinzu.

Dass verschiedene Aspekte von CRISPR-Cas auch im ScienceBlog Thema sind, ist nur zu verständlich. Im Folgenden sind mehrere Artikel (in Form von Abstracts) angeführt: i) ein leicht verständlicher Überblick über Entstehung und Anwendungen der Methode, ii) über das Potential in der Gentherapie, iii) das Potential in der Validierung von Wirkstoffen, iv) das Potential in der Therapie der Schmetterlingskrankheit und v) über die Anwendung zur Freisetzung genetisch modifizierter Organismen.


Genom Editierung mit CRISPR-Cas9 - was ist jetzt möglich?

Christina Beck, 23.4.2020 Genom Editierung mit CRISPR-Cas9 - was ist jetzt möglich? .

Christina BeckIcon BiologieBakterien haben gelernt sich gegen die sie infizierenden Viren, die sogenannten Bakteriophagen, zu schützen. Auf diesem Schutzmechanismus basiert die CRISPR-Cas9 Technik, eine einfache, billige Methode, mit der man innerhalb weniger Stunden die DNA präzise schneiden und nach Wunsch verändern kann. Die Methode funktioniert bei jedem Organismus, an dem sie ausprobiert wurde, – vom Fadenwurm über Pflanzen bis hin zum Menschen - und hat die biologisch-medizinischen Wissenschaften revolutioniert. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, gibt einen Überblick über Entstehung und Anwendung der Methode und spannt einen Bogen von Programmen zur Wiederbelebung bereits ausgestorbener Tiere bis zur Genchirurgie von Erbkrankheiten beim Menschen.

Was bedeutetübrigens CRISPR? Wir blicken zurück in das Jahr 1987: Bei der Untersuchung von E. coli-Bakterien stoßen japanische Mikrobiologen unter Mojica zum ersten Mal auf ungewöhnliche, sich wiederholende DNA-Sequenzen im Erbgut eines Bakteriums. Diese Sequenzen werden als Clustered Regularly Interspaced Short Palindromic Repeats – oder kurz CRISPR bezeichnet. 2005 entdeckt Mojica dass sie mit Ausschnitten aus dem Genom eines Bakteriophagen, eines für Bakterien schädlichen Virus, übereinstimmen. Erstmals äußert er die Vermutung, dass CRISPR in Bakterien die Funktion eines adaptiven Immunsystems haben könnte.


Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie

Francis.S.Collins, 02.02.2017: Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie.

Francis S. Collins 2.2.2017

Francis S. CollinsIcon MedizinIn der Forschung zur Gentherapie gibt es eine immerwährende Herausforderung: Es ist die Suche nach einem verlässlichen Weg, auf dem man eine intakte Kopie eines Gens sicher in relevante Zellen einschleusen kann, welches dann die Funktion eines fehlerhaften Gens übernehmen soll. Mit der aktuellen Entdeckung leistungsfähiger Instrumente der Genchirurgie ("Gene editing"), insbesondere des CRISPR-Cas9 Systems - beginnen sich nun die Chancen einer erfolgreichen Gentherapie zu vergrößern. Francis Collins, Direktor der US National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project" berichtet hier von einer zukunftsweisenden Untersuchung , die nicht nur Fortschritte in der Heilung der seltenen Erbkrankheit "septische Granulomatose" verspricht, sondern auch von vielen anderen Erbkrankheiten.

Das CRISPR/Cas9 System ermöglicht Mutationen gezielt aus einem Gen zu entfernen und durch eine korrekte Version zu ersetzen. Das ursprünglich in Bakterien entdeckte Enzym Cas9 (Kristallstruktur, hellblau) kann eine DNA (gelb) an der gewünschten Stelle durchschneiden. Die präzise Positionierung der Schnittstelle wird durch ein an Cas9 gebundenes kurzes Gegenstück zur zu schneidenden DNA - einer "guide RNA" (rot) - ermöglicht. (Credit: Bang Wong, Broad Institute of Harvard and MIT, Cambridge, MA)

 


Wenn das angepeilte Target nicht das tatsächliche Target ist - ein Grund für das klinische Scheitern von Wirkstoffen gegen Krebs

Ricki Lwis, 28.11.2019 Wenn das angepeilte Target nicht das tatsächliche Target ist - ein Grund für das klinische Scheitern von Wirkstoffen gegen Krebs

Ricki LewisIcon MedizinDer Entwicklung neuer Arzneimittel geht die Suche nach Zielstrukturen - Targets - voraus, die essentiell in das Krankheitsgeschehen involviert sind und gegen die dann Wirkstoffe designt werden können. Der allergrößte Teil der solcherart gegen Krebserkrankungen entwickelten Stoffe scheitert aber in der klinischen Prüfung, wobei mangelnde Wirksamkeit einer der Hauptgründe ist. Eine neue Studie an einer Reihe von klinischen Entwicklungssubstanzen wendet die CRISPR-Cas Technologie nun an, um das postulierte Target zu entfernen - falls ein Wirkstoff dann immer noch wirkt, so war das angenommene Target nicht das wirkliche Target. Damit deckt die Studie auf, dass zahlreiche der postulierten Targets und damit deren Wirkungsmechanismen unrichtig sind und eine bereits in der Präklinik erfolgende Validierung der echten Targets die Zahl unwirksamer klinischer Studien reduzieren könnte. Die Genetikerin Ricki Lewis berichtet über diese Studie.


Gentherapie - Hoffnung bei Schmetterlingskrankheit

Eva Maria Murauer, 02.03.2017: Gentherapie - Hoffnung bei Schmetterlingskrankheit.

Eva Maria MurauerIcon Medizin

Die Schmetterlingskrankheit - Epidermolysis bullosa (EB) - ist eine derzeit (noch) nicht heilbare, seltene Erkrankung, die durch Mutationen in Strukturproteinen der Haut hervorgerufen wird und in Folge durch eine extrem verletzliche Haut charakterisiert ist. Dr. Eva Maria Murauer vom EB-Haus Austria zeigt, dass sich derartige Mutationen in den Stammzellen von Patienten mittels Gentherapie korrigieren lassen und aus den so korrigierten Zellen Hautäquivalente produziert werden können, welche die Haut von EB-Patienten stückweise ersetzen und (langfristig) die Charakteristik einer stabilen, gesunden Haut bewahren können.

Erste Versuche zur Korrektur des Kollagen VII-Gens mittels der CRISPR Cas9 Technologie Bei dieser neuen Technologie wird kein zusätzliches Gen in die Hautzelle eingebracht, sondern die Mutation wird im defekten Gen direkt und bleibend korrigiert. Sind dominant vererbte Erkrankungen durch ein falsch funktionierendes Protein bedingt, so ist dies zweifellos gegenüber der oben beschriebenen Methode von Vorteil - es wird kein zusätzliches, fehlerhaftes Protein mehr produziert. Ein weiterer wichtiger Vorteil besteht darin, dass kein Virusvektor notwendig ist, um die Genreparatur zu bewerkstelligen und damit kein, wenn auch geringes, Risiko einer Tumorentstehung eingegangen wird.


Zur Freisetzung genetisch veränderter Organismen in die Natur 

Guy Reeves, 09.05.2019: Zur Freisetzung genetisch veränderter Organismen in die Natur

Guy ReevesIcon Politik und GesellschaftDas Umweltprogramm der Vereinten Nationen (UNEP) zeigt mit seinem alljährlichen Bericht „Environment Frontiers“ Herausforderungen auf, welche die natürlichen Lebensgrundlagen auf unserem Planeten künftig maßgeblich mitbestimmen werden. Im Report 2018/2019 wird fünf neu auftretenden Themen besondere Bedeutung zugemessen. Am Beginn steht die "Synthetische Biologie", in welcher das Erbgut von Organismen so verändert wird, dass für den Menschen nützliche Eigenschaften entstehen.

Dank neuer Techniken wie der Genschere Crispr/Cas9 und des sogenannten Gene Drive können Forscher das Erbgut sehr viel schneller verändern und diese Veränderungen in kurzer Zeit selbst in großen Populationen verbreiten. Im Labor werden genetisch veränderte Organismen schon seit einiger Zeit erfolgreich eingesetzt, zum Beispiel in der Grundlagenforschung oder in der Produktion von Medikamenten. Nun sollen genetisch veränderte Organismen auch in die Natur entlassen werden. Im folgenden Interview sieht Dr.Guy Reeves (Max-Planck-Institut für Evolutionsbiologie in Plön) vor allem die Freisetzung genetisch veränderter infektiöser Viren mit Sorge.

Forschungsprogramm mit Potenzial für militärischen Einsatz: Wissenschaftler befürchten, dass das US-amerikanische Programm andere Länder dazu verleiten könnte, selbst Biowaffen zu entwickeln. © MPG/ D. Duneka


Weiterführende Links

  • Nobelpreis in Chemie 2020: https://www.nobelprize.org/prizes/chemistry/2020/press-release/
  • Scientific Background on the Nobel Prize in Chemistry 2020. A TOOL FOR GENOME EDITING. https://www.nobelprize.org/uploads/2020/10/advanced-chemistryprize2020.pdf
  • Akademie der Naturwissenschaften, Schweiz: Gene Drives - Wundermittel? Biowaffe? Hype? (Fast Forward Science 2018). 6:19 min. (Quelle: https://naturwissenschaften.ch/topics/synbio/applications/gene_drive)

https://www.youtube.com/watch?time_continue=3&v=ezR3CzOi8j8

  • Gen-editing mit CRISPR/Cas9 Video 3:13 min (deutsch) , Max-Planck Gesellschaft (2016) (Standard-YouTube-Lizenz )
inge Thu, 08.10.2020 - 01:02

Das geklonte Przewalski-Pferd und die Aussicht auf Wiederbelebung ausgestorbener Tierarten

Das geklonte Przewalski-Pferd und die Aussicht auf Wiederbelebung ausgestorbener Tierarten

Do, 01.10.2020 Ricki Lewis Ricki LewisIcon Biologie

Weltweit ist ein dramatischer Rückgang der Biodiversität zu beobachten. Przewalski-Pferde, einst die natürlichen Bewohner der asiatischen Steppen, haben strengere Winter, übermäßiges Bejagen und Vordringen des Menschen in ihren Lebensraum nach dem zweiten Weltkrieg praktisch völlig verschwinden lassen. Basierend auf wenigen, zuvor auf freier Wildbahn gefangenen Tieren (insgesamt 12) wurde in Zoos ein Zuchtprogramm aufgebaut, das schon rund 2 000 Tiere hervorgebracht hat, allerdings das Problem der Inzucht in sich birgt. Mit einem bereits 40 Jahre alten, in der genetischen Datenbank "San Diego Frozen Zoo" konservierten genetischen Material eines Przewalski-Hengstes konnte nun ein erstmals ein gesundes Hengstfohlen geklont werden. Dass das genetische Material so langfristige Stabilität zeigt, lässt Hoffnung für die Wiederbelebung auch anderer aussterbender Spezies aufkommen. Die Genetikerin Ricki Lewis berichtet über dieses erfolgreiche Projekt.*

Am 6. August wurde Kurt, das erste geklonte Przewalski-Pferd, in Texas geboren. Abbildung 1.

Abbildung 1. Kurt, das geklonte Przewalski-Pferd.

Am Anfang von Kurt stand ein Zellkern, der vor 40 Jahren von einem anderen Artgenossen im San Diego Zoo eingefroren worden war; ein gewöhnliches Hauspferd war seine Leihmutter. Das Klonierungsprojekt geht auf den San Diego Zoo Global (https://www.sandiegozooglobal.org/), auf Revive & Restore (einer führenden Organisation, die natürliche Lebensformen bewahren möchte und dazu auch biotechnologische Praktiken anwendet; Anm. Red.) und auf Viagen Equine (ein auf das Klonen von Pferden spezialisiertes erfolgreiches Unternehmen; Anm. Redn.) zurück.

Shawn Walker, Chief Science Officer bei ViaGen kommentierte: „Das neue Przewalski-Hengstfohlen wurde völlig gesund und reproduktiv normal geboren. Es versetzt Kopfstöße, schlägt aus, wenn sein Platz streitig gemacht wird und verlangt Milch von seiner Leihmutter “.

Diese Nachricht hat mich begeistert, weil diese letzten überlebenden Wildpferde bei mir in meiner Jugend einen dauerhaften Eindruck hinterlassen hatten.

Wilde Wildpferde

Die Catskill Wildfarm war in den 1960er Jahren ein zauberhafter Ort für eine angehende Biologin. Meine Erfahrungen mit Wildtieren in der Stadt beschränkten sich auf Tauben, Eichhörnchen und gelegentliche Kaulquappen, die im Brooklyn Botanical Gardens aus dem Teich gesfischt wurden.

Stadtkinder wie ich konnten auf der Wildfarm in einem riesigen, eingezäunten Gebiet umherwandern zwischen Ziegen, Schafen, Schweinen, Hirschen, Kaninchen und Gänsen und sogar einem Elefantenbaby, die dort umherstreiften, dahinwatschelten und herumhüpften. Die weitläufige Menagerie, etwa zwei Autostunden nördlich von New York, verzauberte Tierliebhaber von 1933 bis 2006. Der Besitzer Roland Lindemann nahm auch „exotische“ Kreaturen auf, insgesamt waren es 150 Arten. Das US-Landwirtschaftsministerium (USDA) beurteilte 1958 den Ort offiziell als Zoo, allerdings als Streichelzoo. Im Laufe der Jahre lebten hier mehr als 2 000 Tiere.

Meine Lieblingsinsassen waren drei ruhige Przewalski-Pferde. Sie standen in ihrem Gehege, kindshoch, hinter Tafeln, die ihre faszinierende Geschichte erklärten und wie die Wildfarm die Paarung unterstütze, um die Herde der ernsthaft gefährdeten Pferde zu vergrößern.

Die Website des San Diego Frozen Zoos hat mir geholfen, Lücken in meinen Erinnerungen zu füllen. Die Pferde Roland, Belina und Bonnette waren 1966 auf der Catskill Wildfarm angekommen. Bonnette brachte 1969 Bolinda zur Welt und Belina ein Jahr später dann Belaya. Belina und Bonnette hatten sich offenbar mit ihrem Vater gepaart. Glücklicherweise hatten sie Nachwuchs bekommen, denn solch eine enge Inzucht kann auf Grund des gepaarten Auftretens rezessiver Mutationen die Fortpflanzung zum Scheitern verurteilen.

Ich nehme an, Roland hätte seine Töchter und Enkelinnen nicht für immer schwängern können. Also wurden die fünf Bewohner von Catskill in den San Diego Zoo umgesiedelt, um sich bald nach der Geburt weiteren Artgenossen anzuschließen.

Die traditionelle Züchtung ließ die Herde im Laufe der Jahrzehnte allmählich wachsen, was ziemlich oft zu Blutsverwandtschaften geführt haben muss. Seit der Ankunft der Catskill-Tiere wurden dort 149 weitere Przewalski-Pferde geboren, von denen leben jetzt etwa ein Dutzend in San Diego. Die Tiere lieben es sich im Staub zu wälzen, zu fressen und gegenseitige Fellpflege zu betreiben.

Einiges zum Przewalski-Pferd....

Das Przewalski-Pferd, auch bekannt als asiatisches oder mongolisches Wildpferd, ist nach dem Offizier Nikolai Przewalski benannt, der 1881 Wissenschaftlern in einem Museum in St. Petersburg Haut und Schädel des Pferdes vorführte. Aber dies war wahrscheinlich nicht die erste Beschreibung, da die Tiere Pferden ähneln, wie sie vor 30.000 Jahren in Höhlenmalereien in Frankreich und Spanien dargestellt wurden. Das Tier war kaum ein noch nicht benanntes Pferd.

Das Przewalski-Pferd und die Hauspferde sind, gemeinsam mit Zebras und wilden Eseln, Unterarten der Familie Equidae. Das Tier ist klein und stämmig mit einem gelblich-braunen Fell. Der Kopf ist groß, der Hals dick, mit einem dunklen Streifen am Rücken und einem gefiederten Schwanz. Der Bauch ist blass und die Hinterbeine gestreift wie die eines Zebras oder eines somalischen Wildesels. Es gibt keine Mähne, aber an Kinn und Nacken wächst im Winter die Behaarung. Abbildung 2.

Abbildung 2. Ausgewachsene Przewalski-Pferde (Bild von Redn. eingefügt aus: https://de.wikipedia.org/wiki/Equidae#/media/Datei:PrzewalskiHerde.jpg, Lizenz: gemeinfrei)

Das Wildpferd ist fast 210 cm lang, 120 - 150 cm hoch und wiegt 200 bis 300 kg. Es lebt 25 bis 30 Jahre. Przewalski-Pferde fressen Gräser in der Wildbahn und Luzerne, Heu und Karotten im San Diego Zoo.

Stuten bringen nach einer elfmonatigen Tragezeit ein einzelnes Fohlen zur Welt, das etwa 30 kg wiegt. Weibliche Tier sind mit 3 Jahren geschlechtsreif, männliche Tier zwei Jahre später.

Obwohl Przewalski-Pferde 66 Chromosomen haben und Hauspferde 64, können sie fortpflanzungsfähige Nachkommen haben, die dann 65 Chromosomen besitzen. Diese Hybriden sehen dem Przewalski-Pferd so ähnlich, dass eine Untersuchung der Chromosomen erforderlich ist, um eine Unterscheidung zu treffen. Während der Evolution der Equidae verschmolzen wahrscheinlich die zwei kleinen Chromosomen der Przewalski 's zu einem großen Chromosom der Hauspferde.

... und seinem Genom

Der Vergleich von Pferdegenomen kann künftige Züchtungsbemühungen leiten und auch Einblicke in die ferne Vergangenheit gewähren.

Forscher des Zentrums für GeoGenetik am Naturhistorischen Museum Dänemarks haben das Genom eines Pferdes sequenziert, das vor 700.000 Jahren gelebt hat; sie isolierten es aus Zellen in einem Fragment eines Beinknochens, das aus dem Yukon-Permafrost herausragte, und verglichen es mit modernen Pferdegenomen.

„Nach unserer Schätzung haben sich vor 38.000 bis 72.000 Jahren die Populationen von Przewalski's und Hauspferden voneinander getrennt, und wir finden keine Hinweise darauf, dass in jüngster Zeit eine Vermischung zwischen den Hauspferderassen und dem Przewalski-Pferd stattgefunden hätte. Dies stützt die strittige Annahme, dass Przewalski-Pferde die letzte überlebende Population von Wildpferden darstellen. Wir finden bei Przewalski 's und Hauspferdpopulationen ähnliche Level genetischer Variationen, was darauf hinweist, dass erstere genetisch stabil sind und Schutzbemühungen verdienen “, schrieben sie im Fachjournal Nature.

Schwindende Zahlen

Przewalski-Pferde gab es einst in großer Zahl auf den weiten Graslandschaften, die von Ostasien bis nach Spanien und Portugal reichten. Als aber vor ungefähr 15.000 Jahren die Gletscher zurückgingen und die Steppen sich bewaldeten, litten die Tiere darunter und das Verbreitungsgebiet schrumpfte.

Ein Zeitsprung an das Ende des 18. Jahrhunderts zeigt nur mehr wenige Tiere, die in der Mongolei, in Polen und in Südrußland übergeblieben waren. Dann trieb die Landwirtschaft die Pferde in noch kleinere Lebensräume. Einige wurden auch als Haustiere gehalten.

Mehrere Literaturverweise geben an, dass alle heutigen Przewalski-Pferde von nur 12 oder 14 Tieren abstammen, die in der Zeit von 1910 bis 1960 in der Wildnis gefangen wurden, wobei vier Hauspferde zu dem Genpool hinzukamen.

1977 wurde die Stiftung zur Erhaltung und zum Schutz des Przewalski-Pferdes gegründet und erleichterte den Austausch von Tieren zwischen den Zoos. In den 1980er Jahren verblieben in der Mongolei nur noch wenige in freier Wildbahn, und die Unterart wurde bald für ausgestorben erklärt. Die Züchter erhöhten aber die Anzahl langsam, beginnend mit der Freilassung von 16 Pferden im Jahr 1992.

Heute gibt es weltweit eine Population von etwa 2.000 Tieren, die Hälfte davon in Freilandhaltung. Sie durchstreifen mit Gazellen und Rotwild Reservate in der Mongolei, in Kasachstan und in Nordchina. Die Tiere werden in der Mongolei "Takhi" genannt, was "Geist" bedeutet.

Ein Klon zu sein

Die Paarung von reinen Przewalski-Pferden oder der Versuch ein Przewalski-reiches Genom durch die Paarung von Hybriden aufzubauen, die aufgrund ihrer genetischen Vielfalt ausgewählt wurden, geht nur langsam voran. Aber die Biotechnologie beschleunigt die Dinge. Das Klonen erzeugt eine genetische Nachbildung eines Individuums, während die Paarung genetisches Material von zwei Individuen kombiniert.

In fiktiven Geschichten haben Wissenschaftler bereits Nazis, Politiker, Dinosaurier, Kinder und Organspender geklont. Die TV-Show Orphan Black hat von 2013 bis 2017 das verwirrende Leben einer Frau mit vielen Klonen durchleuchtet. Tatsächlich haben echte Wissenschaftler Schafe, Mäuse, Ratten, Katzen, Schweine, Affen, Hunde, Hirsche, Kaninchen und Ochsen geklont.

Wer ausreichend Mittel zur Verfügung hat, kann seine Haustiere klonen lassen. Ein Unternehmen berechnet 35.000 USD für Katzen, 50.000 USD für Hunde und 85.000 USD für Pferde. Das Katzen- und Pferdegenom ist ungefähr gleich groß und jeweils größer als ein Hundegenom. Das Klonen von Katzen ist also entweder ein Schnäppchen oder die Spezies wird von den bestimmenden Personen völlig unterbewertet.

Das Klonen von Haustieren ist ein falscher Weg, da es Umwelteinflüsse auf Verhalten und Persönlichkeit ignoriert. Das Klonen zur Wiederbelebung/Wiederherstellung von Populationen stark gefährdeter Arten ist jedoch eine andere Sache.

Der San Diego Frozen Zoo ist führend im Einsatz von Fortpflanzungstechnologien, um mitzuhelfen Artenpopulationen, die im Aussterben begriffen sind, wieder herzustellen. Der Frozen Zoo beherbergt mehr als 10.000 Zellkulturen, Eizellen, Spermien und Embryonen, die fast 1.000 Arten von Organismen repräsentieren. Bei den Zellen lagern Hunderte potenzieller zukünftiger Przewalski-Pferde auf Eis.

Der Prozess des Klonens,

technisch als "somatischer Zellkerntransfer" bezeichnet, beginnt mit Zellen der gewünschten Spezies oder Subspezies - in Kurts Fall waren es Fibroblasten aus der 40 Jahre lang tiefgefronenen Haut.

Nach dem Auftauen der Zellen werden ihre Kerne abgetrennt und in Eizellen von weiblichen Hauspferden transferiert, deren Zellkerne entfernt worden waren. (Abbildung 3, von Redn. eingefügt). Es sind keine Spermien notwendig: Die transferierten Zellkerne besitzen ja bereits zwei Kopien jedes Chromosoms (anstelle einer aus einem Sperma und einer aus einer Eizelle bei einer normalen Befruchtung).

Die so behandelten Eizellen teilen sich in Glasschalen einige Male und bilden und falten sich zu winzigen Embryonen, die dann in normale Pferde als Leihmütter überführt werden. Die transferierten Genome treiben dann die Entwicklung. Die Leihmutter trägt nur ihre Mitochondrien bei, die einige Gene tragen, und das Zytoplasma aus ihrer gespendeten, entkernten Eizelle. Ihre Gene sind ansonsten vollständig ersetzt worden.

Abbildung 3. Das Klonen eines ganzen Organismus durch Nukleustransfer in eine entkernte Eizelle und Überführung des mehrzelligen Klons in die Leihmutter. (Bild von Rednn. eingefügt; Ausschnitt aus: Schorschski / Dr. Jürgen Groth in https://de.wikipedia.org/wiki/Klonen#/media/Datei:Cloning_diagram_deutsch.png. Lizenz: cc-by-sa 3.0

Der biologische Vater des Hengstfohlens Kurt wurde 1975 in Großbritannien geboren und 1978 in die USA gebracht. Seine Hautzellen wurden 1980 gespeichert. Er starb 1998. Der Klon Kurt ist nach einem Gründer des Frozen Zoos, Kurt Benirschke, benannt.

Wenn Kurt älter ist, wird er sich einer Zuchtherde im San Diego Zoo Safari Park anschließen. Man erwartet von ihm, "dass er eines der genetisch wichtigsten Individuen seiner Spezies ist. Wir hoffen, dass er die für die Zukunft der Population von Przewalski-Pferden wichtigen genetischen Variationen zurückbringen wird“, sagte Bob Wiese, Chief Life Sciences Officer bei San Diego Zoo Global.


 * Der Artikel ist erstmals am 17. September 2020 in PLOS Blogs - DNA Science Blog unter dem Titel "A Cloned Przewalski’s Horse Evokes Memories of the Catskill Game Farm" https://dnascience.plos.org/2020/09/17/a-cloned-przewalskis-horse-evokes-memories-of-the-catskill-game-farm/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit den Übersetzungen ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Der gegenständliche Text wurde geringfügig gekürzt (es fehlt der letzte Absatz) und durch zwei passende Abbildungen plus Legenden von der Redaktion ergänzt.


Weiterführende Links

San Diego Zoo Global: https://www.sandiegozooglobal.org/

Kurt, the cloned Przewalski's foal, August 31, 2020, Video 0:15 min. https://www.youtube.com/watch?time_continue=4&v=JJ0oh7Al0HI&feature=emb_logo

Przewalski-Pferde: Die letzten echten Wildpferde. Video 4:04 min. https://www.youtube.com/watch?v=HgLpSpLAxqw

Artikel zu verwandten Themen im ScienceBlog


 

inge Thu, 01.10.2020 - 00:04

Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität

Energiebedarf und Energieträger - auf dem Weg zur Elektromobilität

Georg BrasseurIcon Politik und GesellschaftDo, 24.09.2020 — Georg Brasseur

Welche Energie brauchen wir, um mobil zu sein, und wie sieht nachhaltige Mobilität aus? Welche Energieträger haben wir, und was muss getan werden, um die 2015 in Paris vereinbarten Ziele der CO2-Neutralität bis 2040 oder 2050 zu erreichen? Diese Fragen lassen sich an Hand vorhandener Fakten beantworten. In einer mehrteiligen Serie zeigt der Elektrotechnik-Experte Georg Brasseur (o.Univ.Prof. für Elektrische Messtechnik und Sensorik an der TU Graz) den globalen Primärenergiebedarf auf und die Problematik, welche bei einem Umbau des Energiesystems auf Elektrizität aus erneuerbaren Energien mit dem raschen Ausstieg aus fossilen Brennstoffen verbunden ist. Im vorliegenden ersten Teil geht es um den weiter steigenden globalen Primärenergieverbrauch, der (noch) zu 85 % auf fossilen Brennstoffen basiert und um den Bedarf an elektrischer Energie, der im IKT-Bereich geradezu explodieren wird.

Der globale Energiebedarf

ist in den vergangenen Jahrzehnten stetig gestiegen und der bei weitem überwiegende Teil der Energie stammt auch heute noch aus fossilen Quellen (Abbildung 1).

Abbildung 1. Der globale Verbrauch von Primärenergie ist seit 1965 stetig gestiegen und speist sich zum überwiegenden Teil aus fossilen Energieträgern. Solar- und Windenergie spielen eine minimale Rolle. Primärenergie: Energie, die aus natürlich vorkommenden Energieformen/-quellen zur Verfügung steht. In einem mit Verlusten behafteten Umwandlungsprozess (z.B. Rohöl zu Benzin) entsteht daraus die Sekundärenergie/Endenergie. (Grafik modifiziert nach: BP Statistical Review of World Energy, 67th ed. June 2018)

Im Jahr 2017 wurden global bereits 157 000 TWh (1 Terawattstunde = 1 Mrd kWh) Primärenergie benötigt:

  • 85 % der Energie kamen dabei aus fossilen Brennstoffen: aus Rohöl (34 %), Erdgas (23 %) und Kohle (28 %).
  • Nur 15 % stammten aus Quellen, die kein (zusätzliches) CO2 emittieren: hier ist mit 4 % auch die Kernkraft enthalten, mit 7 % die Wasserkraft, mit 1 % Energie aus Geothermie und Biomasse.

Sonnenenergie und Windenergie - worüber wir in Europa seit vielen Jahren reden, wofür riesige Investitionen getätigt und Kraftwerke errichtet werden,-  decken global gesehen nur 1 % resp. 2 % des Energiebedarfs.

Bis zum Jahr 2050 soll laut Prognosen der globale Energieverbrauch um etwa 50 % weiter ansteigen. Abbildung 2.

Abbildung 2. Der globale Energieverbrauch wird bis 2050 auf fast das Doppelte ansteigen; im Wesentlichen auf Grund des steigenden Bedarfs der non-OECD Länder. British thermal units (BTU):1 BTU = Wärmeenergie, die benötigt wird, um ein britisches Pfund Wasser um 1 Grad Fahrenheit zu erwärmen. 1 quad = 1015 BTU. Bild: US Energy Information, International Energy Outlook, 2019 www,eia.gov/outlooks/ieo/pdf/ie02019: Lizenz: cc-by)

Dieses prognostizierte Wachstum ist erschreckend, da zur Klimazielerfüllung von „Null CO2 Emissionen“ im Jahr 2050 neben der Defossilisierung der Primärenergie auch eine signifikante Reduktion des weltweiten Energieverbrauches notwendig ist; für Deutschland beträgt diese Reduktion 40 % bezogen auf das Jahr 2015 (siehe Abb. 7) [1].

Energiebedarf - Wohlstand - CO2-Emissionen

Zugang zu Energie ist ein Grundpfeiler für Wohlstand. Wachsender Wohlstand bedeutet höheren Energiebedarf, und der Anstieg des Energieverbrauchs ist mit dem Anstieg der CO2-Emissionen gekoppelt. Es ist ein gefährlicher Trend: In Ländern, in denen der Wohlstand wächst, wie in China ab dem Jahr 2000, oder im "Rest der Welt" explodieren die Treibhausgasemissionen geradezu, auch im mit China bevölkerungsmäßig vergleichbaren Indien steigen die Emissionen (Abbildung 3).

Abbildung 3. Trends in den globalen Treibhausgasemissionen (in Gigatonnen CO2-Äquivalenten). Quelle: JGJ Olivier and JAHW Peters. Trends in Global CO2 and Total Greenhouse Emissions. Summary of the 2019 Report EUR 29849 EN, 4. Dec.2019. https://www.pbl.nl/sites/default/files/downloads(pbl-2019-trends-in-global-co2-and-total-greenhouse-emissions-summary-of-the-2019-report 4004.pdf.

Länder, wie die OECD-Länder USA, EU-Staaten und Japan, haben gelernt, dass der Umstieg von Kohle und Erdöl auf Erdgas bei gleicher Energiemenge beträchtlich CO2 einsparen hilft; es stagnieren dort die Treibhausgasemissionen und gehen sogar schwach zurück.

Das BIP ist also an den Energieverbrauch gekoppelt.

Wenn wir daher CO2-Emissionen senken wollen, müssen wir den Energieverbrauch vom BIP entkoppeln und damit Wohlstand zulassen. Wenn dies nicht geschieht, sind Unruhen die Folge und dann denkt kein Mensch mehr darüber nach CO2 zu sparen, sondern nur daran, seine Familie am Leben zu erhalten.

Energieverbrauch der OECD-Länder

Kommen wir nun auf den Energieverbrauch der OECD-Länder zurück - es sind dies insgesamt 36 hochindustrialisierte Mitgliedsländer (europäische und nordamerikanische Staaten, Australien, Neuseeland, Japan, Südkorea und Türkei), die rund 17 % der Weltbevölkerung - also etwa so viele Menschen wie in China oder Indien leben - repräsentieren; die meisten Länder auf drei Kontinenten gehören nicht dazu.

Auf https://www.electricitymap.org kann man sich in Echtzeit ein Bild der bei der Stromerzeugung anfallenden CO2 Emissionen, der primärenergieabhängigen installierten Kraftwerksleistungen sowie der Stromexporte/-importe eines Landes machen.

Von dem in Abbildung 1 gezeigten Primärenergieverbrauch von 157 000 TWh im Jahr 2017 haben die OECD-Länder einen Anteil von 40 % (62 488 TWh) konsumiert. Während 85 % der globalen Energie aus fossilen Brennstoffen stammte, war deren Anteil in der OECD mit 79 % geringer (im Wesentlichen aber bedingt durch den höheren Anteil an Kernenergie).

Abbildung 4. Energieträger und Primärenergieverbrauch der OECD-Länder von 1971 – 2018. (Daten: The International Energy Agency; https://www.iea.org/statistics/kwes)

Verglichen mit dem globalen Energieverbrauch, der sich von den 1960er Jahren bis heute mehr als verdoppelte (Abbildung 1), erfolgte der Anstieg in den OECD-Staaten aber wesentlich flacher und stagniert seit 2005, bzw. nimmt sogar etwas ab (Abbildung 4).

Bei den fossilen Energieträgern sieht man den Umstieg von Kohle und Erdöl auf Erdgas, der - wie oben erwähnt - eine schwache Reduktion der Treibhausgas-emissionen zur Folge hat.

Wofür wird Energie benötigt und in welcher Form?

Laut International Energy Agency (IEA) war in den OECD-Ländern im Jahr 2017 der größte Endenergieverbraucher der Transport (36 %), gefolgt von Industrie (30 %), Wohnen (20 %) und Dienstleistungen (14 %).

Der globale Energieverbrauch des Transportsektors (zusammengefasst in Abbildung 5) ist von 1973 bis 2016 auf rund das 2,5 fache gestiegen (von 1 100 Mtoe auf 2 748 Mtoe) und zwei Drittel der Energie wurden letzthin für PKWs verbraucht. Wurden 1973 rund 65 % der Energie für die Straße verwendet, so sind es nun 75 %, wobei 94 % dieser Energie aus dem Rohöl kommen. Luft- und Seefahrt benötigen zu 100 % Rohöl. Elektrizität verwendet nur die Eisenbahn - allerdings sind die meisten Strecken noch nicht elektrifiziert.

Abbildung 5. Die Primärenergie für den Transportsektor kommt heute zum weitaus überwiegenden Teil aus dem Rohöl.

Auch in den Sektoren Industrie, Wohnen und Dienstleistungen dominieren fossile Energieträger. Elektrizität - derzeit zum überwiegenden Teil ebenfalls aus fossilen Brennstoffen produziert (siehe nächstes Kapitel) - spielt hier aber eine größere Rolle. Beispielsweise ging im Sektor Wohnen die Hälfte des Energiebedarfs in großteils elektrisch betriebene Heizung/Kühlung und Warmwasser; in unseren Ländern wird Strom in steigendem Maße auch für den Betrieb von Wärmepumpen benötigt.

Elektrizität - wie wird sie produziert…

Vom globalen Primärenergieverbrauch im Jahr 2017 (157 000 TWh) gingen rund 16 % (25 606 TWh) auf den Elektrizitätsbedarf zurück; davon rund 43 % (11 025 TWh) auf den Verbrauch in den OECD-Ländern.

Abbildung 6. Fossile Energieträger haben in den letzten Jahrzehnten die Stromerzeugung der OECD-Länder dominiert (Bild modifiziert nach: The International Energy Agency https://www.iea.org/statistics/kwes/)

Strom wird dabei zum überwiegenden Teil (noch) aus fossilen Energieträgern erzeugt: 2018 waren es global 65 %, in den OECD-Ländern 56 %. Die globale Produktion aus Kohle und aus Erdgas hat sich seit 1990 mehr als verdoppelt und ebenso ist auch die Erzeugung aus den erneuerbaren Energien (vor allem aus Wasserkraft) gestiegen. Strom aus Kernkraft ist dagegen mit 10 % in etwa konstant geblieben (einige Länder sind aus der Nuklearenergie ausgestiegen, andere bauen diese auf). Auch in den OECD-Ländern hat die Stromerzeugung aus Erdgas und erneuerbaren Energien stark zugenommen, dagegen sinkt im letzten Jahrzehnt Kohle als Primärenergiequelle ab. Abbildung 6.

…und welcher Bedarf besteht

Der globale Elektrizitätsbedarf nimmt immer stärker zu und explodiert geradezu im IKT- (Informations-/ Kommunikations Technologie) Bereich. Gingen 2018 rund 10 % des globalen Stromverbrauchs in diesen Bereich, so wird für 2030 bereits der dreifache Bedarf prognostiziert [2], wobei der Löwenanteil auf den Verbrauch durch Netzwerke und Datenzentren fällt. Für diese und ebenso für Internet, Computer, Handys, TV und Streamingdienste gibt es keine Alternative, sie können nur mit Strom betrieben werden.

Der Internetverkehr ist in den letzten 30 Jahren auf das Tausendfache angewachsen, der Internet-Riese Google verbraucht heute gleich viel Strom im Jahr, wie die Stadt Graz, Unterhaltungsdienste wie der Streaming-Dienst Netflix (einer unter vielen Streamingdiensten) verursacht 30 % des gesamten Internetverkehrs in den US. Block Chain Technologien wie Bitcoin benötigen derzeit so viel Strom wie ganze Staaten (z.B. Irak oder Singapur).

In Österreich wird bis 2030 eine Zunahme des Stromverbrauchs im IKT-Bereich von 8 auf 14 TWh prognostiziert, d.i. fast ein Viertel des gesamten derzeitigen Stromverbrauchs von 60 TWh (zum Vergleich: die gesamte Donaukraftwerkskette liefert heute 13 TWh jährlich).

Woher soll also die Elektrizität kommen, wenn zusätzlich noch der Umstieg auf E-Mobilität forciert werden soll, wenn Industrie Handel und Wohnen elektrifiziert werden sollen?

Es wird in Zukunft zweifellos heftige Kämpfe der einzelnen Anwendungen um die Elektrizität geben, wobei ein Ausfall der Stromversorgung - ein Blackout - nicht nur in Europa sondern auch in allen hochindustrialisierten Ländern katastrophale Folgen haben würde. Die Sicherstellung der Elektrizitätsversorgung ist daher oberstes Gebot.

Woher soll die - heute noch vorwiegend aus fossilen Quellen generierte - Elektrizität kommen, wenn wir CO2 reduzieren müssen, um die Klimaziele zu erreichen?

Ein fundamentaler Umbau des Energiesystems

ist unabdingbar, wenn wir CO2 reduzieren und damit die Klimaziele erreichen wollen. Trotz wachsender Bevölkerung und Bewahrens/Steigerung des Wohlstands ist dies nur möglich, wenn neben der CO2 Reduktion zusätzlich Energie eingespart wird. Am Beispiel Deutschland sind rund 40 % Einsparung der heute angewandten Primärenergie (siehe Abb. 7) und die Bindung von bereits freigesetztem CO2 aus der Luft erforderlich.

Abbildung 7. Durch Ausstieg aus fossiler Primärenergie CO2-Emissionen senken und zusätzlich Energie sparen

Die Einsparung fossiler Energieträger führt allerdings zu einer kritischen Grenze, die bei einer CO2-Reduktion von etwa 85 % erreicht ist: wenn weniger als 15 - 20 % fossile Energie zur Verfügung stehen [3], also eine Primärenergie, die immer dann eingesetzt werden kann, wenn man sie zur Deckung des Strombedarfs benötigt, sind die Netze nicht mehr stabil zu halten. Man braucht mindesten 15 - 20 % flüssige oder gasförmige synthetische Kraftstoffe, um die Netze über kalorische Kraftwerke immer dann zu stützen, wenn es die Dunkelflautentage gibt (d.i. kein Wind und keine Sonne) und um den Jahreszyklus Sommer-Winter auszugleichen.

Maßnahmen, die zur Senkung der CO2 Emissionen führen, bedeuten aber gleichzeitig eine Steigerung des Elektrizitätsbedarfs: 

  • Wenn Gebäude thermisch isoliert werden und Heizung/Kühlung über Wärmepumpen erfolgt, steigt der Strombedarf.
  • Wenn in der Industrie, beispielsweise in Stahlwerken von Kohle- auf elektrische Schmelzöfen umgestellt wird, steigt der Strombedarf. (In der VOEST rechnet man dann mit einem Stromverbrauch, der fast in der Größenordnung des heutigen Stromverbrauchs von ganz Österreich liegt.)
  • Wenn Herstellungsprozesse für mineralische Produkte (z.B. Zement) und für Grundchemikalien verändert werden, steigt der Strombedarf.

Fazit

Der globale Primärenergieverbrauch - heute noch zu 85 % fossiler Energie gespeist - nimmt weiter zu. Auch wohlhabende Länder der OECD verwenden zu 75 % fossile Brennstoffe, obwohl sie sich mehr erneuerbare Energieformen leisten könnten. In diesen Ländern ist der Verkehr der größte Rohölverbraucher.

Derzeit deckt Elektrizität, die zum überwiegenden Teil noch aus fossilen Energieträgern produziert wird, nur 16 % des Weltenergiebedarfs. Der Bedarf wird aber durch den Umbau des Energiesystems auf Elektrizität stark steigen, insbesondere im geradezu explodierenden IKT-Bereich, für den es keine Alternativen zum Strombetrieb gibt.

Die Frage ist: woher soll ausreichend grüner, d.i. nicht aus fossilen Quellen produzierter Strom, kommen?

Darüber mehr in Teil 2  Die trügerische Illusion der Energiewende - woher soll genug grüner Strom kommen?


  [1] Hans-Martin Henning, Andreas Palzer, Was kostet die Energiewende? Wege zur Transformation des deutschen Energiesystems bis 2050, Fraunhofer ISE, Nov. 2015. Access 4.8.2020: https://www.ise.fraunhofer.de/content/dam/ise/de/documents/publications/studies/Fraunhofer-ISE-Studie-Was-kostet-die-Energiewende.pdf

[2] Nature 561, The information Factories, https://www.nature.com/articles/d41586-018-06610-y

[3] U. Kramer et al., FVV, Defossilisierung des Transportsektors, R586-2018, Tab. 10, access 11.1.2020. https://www.fvv-net.de/fileadmin/user_upload/medien/materialien/FVV__Kraftstoffe__Studie_Defossilisierung__R586_final_v.3_2019-06-14__DE.pdf


Artikel zur Energiewende im ScienceBlog

Robert Schlögl, Serie: Energie - Wende - Jetzt

Redaktion, 19.09.2019: Umstieg auf erneuerbare Energie mit Wasserstoff als Speicherform - die fast hundert Jahre alte Vision des J.B.S. Haldane

Niyazi Serdar Sariciftci, 22.05.2015: Erzeugung und Speicherung von Energie. Was kann die Chemie dazu beitragen?


 

inge Wed, 23.09.2020 - 20:53

Comments

Spermidin - ein Jungbrunnen, eine Panazee?

Spermidin - ein Jungbrunnen, eine Panazee?

Fr 18.09.2020 Inge Schuster Inge SchusterIcon Medizin

Polyamine kommen in allen Organismen der Biosphäre vor und sind für das Leben essentiell. Die kleinen, flexiblen, stark positiv geladenen Moleküle sind in unterschiedlichste physiologische Vorgänge involviert, inklusive Genregulierung, Zellwachstum, Zellproliferation und Zelldifferenzierung. Altersbedingt sinken die Polyamin Konzentrationen im Organismus. Supplementierung mit dem Polyamin Spermidin löst Autophagie in Körperzellen aus, leitet damit deren Erneuerung ein und erhöht ihre Fitness; als Folge konnte Spermidin die Lebenspanne unterschiedlichster Organismen verlängern und Schutz vor altersbedingten Defekten bieten. Wird Spermidin auch am Menschen eine solche verjüngende Wirkung zeigen?

Betritt man heute eine Apotheke, so fällt einem vor allem das Arsenal an TV-beworbenen Mitteln gegen Verdauungsprobleme auf, daneben aber auch Nahrungsergänzungsmittel, die Spermidin enthalten. Was man sich von der Supplementierung mit Spermidin erhofft, ist ein Hinauszögern des Alterungsprozesses und damit eine Schutzwirkung gegen die meisten altersbedingten Krankheiten, die von metabolischen Defekten, über Herz-Kreislauferkrankungen, neurodegenerativen Krankheiten bis hin zu Krebserkrankungen reichen. Diesen Erwartungen liegen jahrelange Untersuchungen des Molekularbiologen Frank Madeo (Univ.Prof., Institut für molekulare Biowissenschaften, Uni Graz) zu Alterung, Zelltod und Autophagie zugrunde. Als Autophagie wird dabei ein Prozess verstanden, in dem überschüssige und/oder beschädigte Proteine und Zellorganellen abgebaut und daraus neue für das Überleben essentielle Bausteine erzeugt werden (für die Aufklärung dieses Prozesses erhielt Yoshinori Ohsumi 2016 den Nobelpreis für Physiologie oder Medizin) [1].

In einer großangelegten, international besetzten Studie konnte das Team um Madeo 2009 zeigen, dass Spermidin (wie auch Fasten oder anderer Stress ) die Autophagie in Körperzellen induzieren kann und damit deren Erneuerung einleitet; als Folge hat Spermidin die Lebenspanne unterschiedlichster Organismen (von Hefezellen, Fliegen bis zu Würmern) und auch von menschlichen Immunzellen verlängert [2, siehe auch Video "Iss Dich jung, in Weiterführende Links].

Was ist nun Spermidin?

Spermidin gehört neben Putrescin und Spermin zu den Hauptvertretern der sogenannten Polyamine, einer Klasse von kleinen, flexiblen Molekülen mit stark basischen Eigenschaften. Polyamine sind essentielle Metaboliten in allen Organismen der Biosphäre, in Prokaryoten ebenso wie in Eukaryoten. Selbst Mykoplasmen - Bakterien, die parasitär leben und ein stark geschrumpftes Genom aufweisen - enthalten hohe Konzentrationen an Polyaminen und die zu ihrer Synthese und zum Abbau nötigen Enzyme. Darauf, dass Polyamine über die Evolution hinweg bereits von frühen Lebensformen an wichtig waren, deutet die hohe Konservierung der Enzyme hin, die Polyamine metabolisieren und die strenge Regulierung ihrer Aktivität und Expression. Ein stark vereinfachtes, kanonisches Schema der schrittweisen Bildung der oben genannten Polyamine und ihres Abbaus ist in Abbildung 1 dargestellt.

Die Biosynthese

der Polyamine beginnt mit der Aminosäure Arginin (nicht gezeigt). Aus dieser entsteht Ornithin, das decarboxyliert (über die Ornithindecarboxylase - ODC) zum Putrescin wird, welches zwei positiv geladene Aminogruppen aufweist. Aus Putrescin entsteht (durch Addition einer Aminopropylgruppe) Spermidine mit nun drei positiv geladenen Aminogruppen, aus Spermidin (durch Addition einer Aminopropylgruppe) Spermin mit 4 positiv geladenen Aminogruppen.

Eine spezifische, enorm wichtige Reaktion des Spermidins ist die Synthese der ungewöhnlichen Aminosäure Hypusin, die nur in dem Protein EIF5A (eukaryotischer Initiationsfaktor 5A) vorkommt und für dessen Funktion unabdingbar ist: EIF5A bindet Messenger-RNAs (mRNAs) und ist in die Initiation und Elongation ihrer Übersetzung (Translation) in Proteine essentiell involviert. Darüber hinaus spielt EIF5A eine Rolle in anderen mRNA-bezogenen Prozessen wie im Turnover der mRNA, in der Transkription von Genen in mRNA und im Transport vom Zellkern ins Cytoplasma.

Der Abbau

via Acetylierung führt zur Reduktion der positiven Ladung, das Produkt - N-Acetylspermin oder N-Acetylspermidin verliert seine Bindungsfähigkeit an bestimmte Biomoleküle und wird eliminiert oder durch Oxidation in ein um eine Aminopropylgruppe verkleinertes Polyamin umgewandelt (aus N-Acetylspermin entsteht wieder Spermidin, aus N-Acetylspermidin Putrescin). Diese Reaktionen werden von der Entstehung reaktiver Produkte (Aldehyde und H2O2) begleitet. Spermin kann aber auch direkt zu Spermidin oxidiert werden und Spermidin zu Putrescin, dabei entstehen das hochreaktive Acrolein und H2O2.

Abbildung 1. Stark vereinfachte Darstellung von Biosynthese und Abbau der Hauptverteter der Polyamine Putrescin, Spermidin und Spermin, die in den Zellen aller Spezies in hohen Konzentrationen vorliegen. Beim Abbau werden reaktive, potentiell toxische Produkte (reaktive Aldehyde, H2O2, Acrolein) freigesetzt. Mit Ausnahme des geschwindigkeitsbestimmenden Enzyms Ornithindecarboxylase (ODC) in der Biosynthese sind keine anderen Enzyme angeführt.

Dass der Metabolismus der Polyamine über alle Spezies weitgehend konserviert blieb, weist , wie bereits erwähnt, auf seinen sehr frühen Ursprung in der Evolution hin und darauf, dass es auf die kritische Regulierung der Konzentrationen einzelner Polyamine ankommt, die in den Zellen in hohen (bis zu millimolaren) Konzentrationen vorliegen. Diese Regulierung resultiert aus dem Zusammenspiel von biosynthetischen Enzymen, abbauenden Enzymen und Polyamin-Transportern. Spermidin, Spermin können rasch aus anderen Metaboliten gebildet werden, ebenso aber auch zu Eliminationsprodukten/anderen Polyaminen umgewandelt werden.

Wenn rasch wachsende Zellen erhöhte Polyamin-Konzentrationen benötigen, wird die Biosynthese angekurbelt und der Transport aus dem extrazellulären Raum (aus der Nahrung) in die Zellen wird verstärkt. Tumorzellen sind dafür ein klassisches Beispiel; die Ornithindecarboxlase (ODC) ist erhöht und die Zellen enthalten besonders hohe Polyamin-Konzentrationen. Eine intensiv bearbeitete Antitumor-Strategie ist die Reduzierung der Polyaminspiegel durch Verbindungen, welche die Synthese der Polyamine inhibieren, deren Abbau aktivieren oder deren Transporter blockieren. Leider hatten diese Bemühungen bis jetzt nur wenig Erfolg.

Viele der beschriebenen physiologischen Wirkungen von Polyaminen stammen aus Untersuchungen mit Spermin und/oder Spermidin. Da unter Versuchsbedingungen aus Spermidin Spermin und aus Spermin Spermidin entstehen kann, wird im Folgenden für beide häufig nur der Ausdruck Polyamine synonym verwendet.

Wofür setzt die Natur Polyamine ein?

Polyamine sind für das Leben essentiell. Werden in Tiermodellen die Gene zur Synthese von Putrescin oder Spermidin inaktiviert, so sind diese Knockouts nicht lebensfähig. Die kleinen, flexiblen, stark positiv geladenen Moleküle sind in unterschiedlichste physiologische Vorgänge involviert, inklusive Genregulierung, Zellwachstum, Zellproliferation und Zelldifferenzierung.

Auf Grund ihrer positiv geladenen Aminogruppen können Polyamine mit negativ geladenen Regionen diversester Biomoleküle wechselwirken, mit großen Molekülen wie der DNA, den RNAs und mit Proteinen ebenso wie mit kleineren Verbindungen wie Phospholipiden oder Nukleotiden. Damit können sie Struktur und Funktion ihrer Bindungspartner massiv beeinflussen: beispielsweise bewirkt die Bindung an das Phosphat-Backbone der DNA deren Kondensierung, was einerseits Schutz vor schädigenden Agentien bietet, anderseits den Zugang zu Genabschnitten erschwert. Durch die Bindung von Polyaminen werden Enzyme, Ionenkanäle, Rezeptorproteine und Transportproteine moduliert, Proteine aggregiert (wie beispielsweise  alpha-Synuclein, das mit der Parkinsonerkrankung assoziiert ist oder das mit Alzheimer assoziierte beta-Amyloid) oder auch Proteine irreversibel modifiziert wie das oben erwähnte EIF5A oder neuronales Tubulin.

Störungen in Synthese, Abbau und Transport können ein Zuviel oder auch ein Zuwenig an Polyaminen hervorrufen; das zelluläre Geschehen reagiert darauf mit Änderungen in der Regulierung der Genexpression, der Translation von mRNA in Proteine bis hin zum Stressverhalten oder zur Autophagie.

Mit Spermidin den Alterungsprozess aufhalten

Mit zunehmendem Alter sinken die Polyaminspiegel in den Organen von Modellorganismen und auch im Menschen - vermutlich zumindest zum Teil auf Grund einer nachlassenden Biosynthese. Wie eingangs erwähnt, führt Supplementierung mit dem Polyamin Spermidin zur Induktion der Autophagie in Körperzellen und so zur Verbesserung der Fitness der Zellen; darüber hinaus wird die Lebenspanne verschiedener Spezies (Hefe, Nematoden, Fliegen) verlängert [2].

Trifft eine solche Verjüngung und Lebensverlängerung auch für Menschen zu, wenn sie mit Spermidin supplementiert werden?

Supplementierung über die Nahrung

Da alle Lebensformen Polyamine enthalten, wird Spermidin üblicherweise auch mit pflanzlichen und tierischen Nahrungsmitteln zugeführt. Es wird über Transportproteine rasch aus dem Darmtrakt resorbiert, in die Organe verteilt und in die Zellen aufgenommen. In vielen Lebensmitteln pflanzlichen Ursprungs ist Spermidin in hohen Konzentrationen enthalten: in Hülsenfrüchten, Cerealien (besonders in Weizenkeimen mit 24 mg Spermidin/100 g), in Gemüsen, Nüssen und Obst. In tierischen Produkten ist - mit Ausnahme einiger weniger Käsesorten (z.B. altem Cheddar mit rund 20 mg Spermidin/100 g und Blauschimmelkäse) - der Spermidin-Gehalt wesentlich niedriger (für eine rezente Zusammenstellung der Polyamingehalte in Nahrungsmitteln siehe [3]).

Entsprechend den Ernährungsgewohnheiten in verschiedenen Ländern differiert die Spermidin Aufnahme: in einigen EU-Ländern und Japan werden täglich etwa 10 - 15 mg aufgenommen; in der Türkei ist mit etwa 5 mg und den US mit rund 8 mg die Aufnahme niedriger [3]. Da Nahrungsmittel ebenso Spermin und Putrescin enthalten, die im Organismus zu Spermidin umgewandelt werden, trägt der Darm schlussendlich noch mehr zur Spermidin Konzentration in den Organen bei.

Supplementierung durch das Mikrobiom des Darms

Polyamine, die aus dem Darm in den Organismus gelangen, stammen nicht nur aus Lebensmitteln, sondern auch aus der Produktion durch das Mikrobiom des Darms; dies ist insbesondere in den unteren Darmabschnitten der Fall, wo eine hohe Dichte an Mikroorganismen vorherrscht. Die Rolle des Darms als Quelle der Supplementierung mit Polyaminen ist in Abbildung 2 zusammengefasst.

Abbildung 2. Polyaminreiche Ernährung und Produktion von Polyaminen durch das Mikrobiom im Darm können die Funktion von Polyaminen in peripheren Organen (Fettgewebe, Gehirn, Leber, Herz, Pankreas) beeinflussen. Beschreibung siehe Text . (Bild: übernommen aus B. Ramos-Molia et al., 2019 [4]. Lizenz: cc-by-4.0)

Die Zusammensetzung der Darmflora - diverse Arten von Bakterien, Archaeen und auch Pilzen - und deren Produktion von Polyaminen hängt von vielen Faktoren ab, u.a. von der Art der Ernährung (ausgewogen, nicht ausgewogen), von einer möglichen Anwendung von Antibiotika und von der Gegenwart von Präbiotika (Ballaststoffen) und Probiotika (supplementierten Mikroorganismen). Eine Erhöhung der Polyamin Konzentrationen im Darm durch Zugabe von Probiotika hat zumindest im Tierversuch an der Maus zur Verjüngung der Zellen und Erhöhung der Lebensdauer geführt. Störungen des mikrobiellen Polyamin-Metabolismus werden mit der Entstehung des Colon-Carcinoms und anderer Tumoren in Zusammenhang gebracht (Reviewed in [4]).

Haben nun Menschen mit höherem Spermidin Konsum auch eine höhere Lebenserwartung?

Die Bruneck-Studie

Eine rezente Studie an 829 Frauen und Männern im Südtiroler Ort Bruneck scheint dies zu bestätigen [5]. Die anfangs 40 - 79 Jahre alten Personen wurden in einem Zeitraum von 20 Jahren alle 5 Jahre zu ihren Ernährungsgewohnheiten in Hinblick auf Spermidin-reiche Nahrungsmittel befragt. Aus den Angaben der Probanden wurde dann die tägliche Spermidin Aufnahme abgeschätzt und ein Zusammenhang zur Mortalitätsrate hergestellt. Am Ende der Studie nach 20 Jahren waren 341 von den ursprünglich 829 Probanden verstorben; 50 % davon mit einer relativ Spermidin-armen Ernährung, signifikant weniger, nämlich 30 % mit einer relativ Spermidin-reichen Ernährung.

Dieses Ergebnis ist allerdings mit Vorsicht zu betrachten. Wenn Spermidin-arme Kost mit unter 9,1 mg Spermidin/Tag und Spermidin-reiche Kost mit über 11,7 mg Spermidin/d definiert wurde, so wiegen schon individuelle Unterschiede in Aufnahme, Verteilung und Auswirkungen von Spermidin die relativ geringen Konzentrationsunterschiede auf. Dazu kommt, dass die breite Palette an Spermidin-reichen Lebensmitteln auch viele andere Gesundheit fördernde Inhaltstoffe aufweist und Personen, die solche Nahrung bevorzugen, andere sozioökonomische Grundlagen haben können und einen anderen Lebensstil bevorzugen. Wie die Autoren der Studie auch selbst betonen, besteht auch ein großer Bias darin, dass die Probanden ihre Ernährungsgewohnheiten selbst berichtet haben und den Spermidingehalt beeinflussende Lagerungsbedingungen und Zubereitungen der Speisen, nicht berücksichtigt wurden.

Supplementierung mit den derzeit vermarkteten Spermidinkapseln?

Diese Kapseln enthalten pro Stück etwa 1 mg Spermidin, das aus Weizenkeimextrakt gewonnen wird. Im Vergleich zu dem Angebot, das durch diverse Nahrungsmittel verfügbar ist, erscheint dies sehr wenig: immerhin bietet eine Portion Champignons von 200 g bereits rund 17 mg Spermidin, 100 g gereifter Cheddar rund 20 mg Spermidin. Eine nennenswerte Erhöhung zellulärer Spermidinkonzentrationen durch solche Kapseln erscheint fraglich.

Fazit

Polyamine werden in allen Organismen gebildet und können ein unglaublich breites Spektrum an Wechselwirkungen mit Biomolekülen eingehen. Die daraus resultierenden vielfältigen Funktionen dieser Moleküle sind bis jetzt nur teilweise verstanden (trotz mehr als 100 000 Veröffentlichungen und jährlich bis zu 3000 neu dazukommende Veröffentlichungen über Polyamine). Neuere Erkenntnisse weisen darauf hin, dass Spermidin den Prozess der Autophagie und damit die Zellerneuerung stimuliert und als Folge in diversen Spezies die Lebensdauer verlängert und u.a. vor Herz-Kreislaufkrankheiten, metabolischen Defekten, Krebserkrankungen und Neurodegeneration schützt. Da im alternden Organismus die Polyaminspiegel sinken, erscheint eine Supplementierung mit exogenem Spermidin als logische Strategie. Diese kann vor allem über polyaminreiche Lebensmittel erfolgen, die besonders in pflanzenbasierter Nahrung zu finden sind und auch über die Produktion von Polyaminen durch eine gesunde Darmflora. Ein Caveat dabei: schnell wachsende Zellen - und dazu gehört nicht nur das gesunde Darmepithel sondern auch maligne Entartungen - benötigen ein Mehr an Polyaminen und können diese aus dem Angebot im Darmlumen in die Zellen transportieren.


 [1] Redaktion, 07.10.2016: Autophagie im Rampenlicht - Zellen recyceln ihre Bausteine. Nobelpreis für Physiologie oder Medizin 2016. https://scienceblog.at/autophagie-nobelpreis-2016-i#.

[2] Frank Madeo, Tobias Eisenberg, Federico Pietrocola, Guido Kroemer: Spermidine in health and disease. Science 26 Jan 2018: Vol. 359, Issue 6374, eaan2788, DOI: 10.1126/science.aan2788

[3] Nelly C. Munoz-Esparza et al., Polyamines in Food, Front. Nutr., 11 July 2019 | https://doi.org/10.3389/fnut.2019.00108

[4] B. Ramos-Molina et al., Dietary and Gut Microbiota Polyamines in Obesity- and Age-Related Diseases. Front. Nutr., 14 March 2019 | https://doi.org/10.3389/fnut.2019.00024

[5] Stefan Kiechl et al., Higher spermidine intake is linked to lower mortality: a prospective population-based study. Am J Clin Nutr 2018;108:371–380.
 


Weiterführende Links

Videos

  • Frank Madeo (2015): Iss Dich Jung. TEDxGraz, Video, 19:32 min. https://www.youtube.com/watch?v=N-dsHgOl00M
  • John Cryan: Feed Your Microbes - Nurture Your Mind. TEDxHa'pennyBridge.. Video 16:10 min. YouTube Licence. https://www.youtube.com/watch?v=vKxomLM7SVc

Artikel im ScienceBlog


 

inge Fri, 18.09.2020 - 19:10

Verlust an biologischer Vielfalt - den Negativtrend umkehren

Verlust an biologischer Vielfalt - den Negativtrend umkehren

Do, 10.09.2020 — IIASA

IIASA Logo Icon Biologie

Weltweit verschwinden Pflanzen- und Tierarten  permanent infolge menschlicher Aktivitäten . Eine wichtige neue Untersuchung unter der Leitung des IIASA (International Institute of Applied Systems Analysis; Laxenburg bei Wien) kommt zu dem Schluss, dass bis 2050 (oder früher) der Niedergang der biologischen Vielfalt nur durch ambitionierte, integrierte Aktionen rückgängig gemacht werden kann, indem Schritte zur Erhaltung und Wiederherstellung der Natur mit einer Umgestaltung des Ernährungssystems verbunden werden.*

Die Biodiversität - d.i. die Vielfalt und Fülle der Arten zusammen mit der Größe und der Beschaffenheit der Ökosysteme, welche sie Heimat nennen - nimmt seit vielen Jahren mit besorgniserregender Geschwindigkeit ab. Verständlicherweise können wir nicht zulassen, dass sich der aktuelle Trend fortsetzt. Wenn es doch dazu kommt, wird ganz einfach nicht mehr genug Natur vorhanden sein, um künftigen Generationen eine Grundlage zu geben. Dazu wurden ehrgeizige Ziele vorgeschlagen - allerdings können praktische Probleme (wie die Frage nach der Ernährung einer wachsenden menschlichen Erdbevölkerung) das Erreichen solcher Ziele zu einer Herausforderung werden lassen.

Die vom IIASA geleitete Studie "Bending the curve of terrestrial biodiversity needs an integrated strategy" wurde im Fachjournal Nature veröffentlicht [1] und ist Teil des neuesten Living Planet Report des World Wide Fund for Nature (WWF) [2]. Die Studie hat sich zum ersten Mal mit der Erforschung von Biodiversitätszielen befasst, die den Ehrgeiz haben die globalen Biodiversitätstrends umkehren zu wollen und sie zeigt auf, was integrierte künftige Wege zur Erreichung dieses Ziels erfordern könnten.

„Wir wollten auf robuste Weise abschätzen, ob es möglich wäre den  Negativtrend der (aufgrund der gegenwärtigen und künftigen Landnutzung) sinkenden terrestrischen Biodiversität umzukehren ohne aber gleichzeitig unsere Chancen zur Erreichung anderer Ziele für nachhaltige Entwicklung (Sustainable Development Goals - SDGs)  zu gefährden“, erklärt der Hauptautor der Studie , IIASA-Forscher David Leclère. "Sofern dies tatsächlich möglich ist, wollten wir auch untersuchen, wie man dorthin gelangen kann, insbesondere, welche Art von Maßnahmen erforderlich sind und wie eine Kombination verschiedener Arten von Maßnahmen die Kompromisse zwischen Zielvorstellungen verringern und stattdessen Synergien nutzen kann."

Die Studie hat eine Reihe von Modellen und neu entwickelte Szenarien eingesetzt, um zu untersuchen wie die einzelnen Aspekte beitragen die Ziele der Biodiversität zu erreichen und sie liefert daraus essentielle Informationen über Wege, welche die Vision der UN-Konvention von einer biologischen Vielfalt im Jahr 2050 verwirklichen könnten: „Leben im Einklang mit der Natur ”.

Um die globalen Abwärtstrends der von veränderter Landnutzung betroffenen, terrestrischen Biodiversität zu stoppen und bis 2050 oder schon früher eine Erholungsphase einzuleiten, sind nach Meinung der Forscher Maßnahmen in zwei Schlüsselbereichen erforderlich:

  • Mutige Schritte zur Erhaltung und Wiederherstellung der Natur sowie eine höhere Effizienz des Managements müssen rasch intensiviert werden. Die Studie geht davon aus, dass Schutzgebiete schnell 40% der globalen terrestrischen Gebiete erreichen. Dies sollte mit großen Anstrengungen zur Wiederherstellung von degradiertem Land (das in den Studienszenarien bis 2050 etwa 8% der Landflächen erreicht) einhergehen und mit Planungen der Landnutzung, welche die Ziele von Produktion und Schutz auf allen bewirtschafteten Flächen in Einklang bringen. Ohne solche Bemühungen könnte der Rückgang der biologischen Vielfalt nur verlangsamt aber nicht gestoppt werden, und jedwede potentielle Erholung würde nur langsam vonstattengehen.

 

  • Umgestaltung des Ernährungssystems: Da mutige Bemühungen zur Erhaltung und Wiederherstellung der Natur wahrscheinlich allein nicht ausreichen, sind zusätzliche Maßnahmen erforderlich, um dem globalen Druck auf das Ernährungssystem zu begegnen. Zu den Maßnahmen den Abwärtstrend der globalen terrestrischen Biodiversität umzubiegen, gehören eine Reduktion der Verschwendung von Lebensmitteln, Ernährungsweisen mit geringeren Auswirkungen auf die Umwelt sowie eine weitere  Intensivierung der Nachhaltigkeit und ein nachhaltiger Handel.

In beiden Bereichen müssten jedoch gleichzeitig integrierte Maßnahmen ergriffen werden, um  bis 2050 oder früher den Negativtrend der Biodiversität umzukehren.

„In einem Szenario, das nur vermehrte Anstrengungen zur Erhaltung und Wiederherstellung der Natur beinhaltet, konnte fast die Hälfte der im Business-as-usual-Szenario geschätzten Verluste an biologischer Vielfalt nicht vermieden werden. Ein Umbiegen des Negativtrends wurde nicht in allen Modellsimulationen beobachtet, und wenn dies auftrat, kam es häufig erst in der zweiten Hälfte des 21. Jahrhunderts dazu. Darüber hinaus haben wir festgestellt, dass mutige Bemühungen zur Erhaltung und Wiederherstellung der Natur allein betrachtet den Preis für Lebensmittelprodukte erhöhen und damit künftige Erfolge im Kampf gegen den Hunger möglicherweise beeinträchtigen können “, sagt Michael Obersteiner, IIASA-Forscher und Direktor des Environmental Change Institute an der Universität Oxford.

Szenarien, in denen verstärkte Bemühungen zur Erhaltung und Wiederherstellung der Natur mit Maßnahmen zur Umgestaltung des Ernährungssystems kombiniert wurden, zeigten dagegen, dass nun bessere Möglichkeiten für ehrgeizige Bemühungen zur Erhaltung und Wiederherstellung der Natur bestanden und potenzielle nachteilige Auswirkungen auf die Ernährungssicherheit entschärft wurden. Damit wurde ein Aufwärtstrend der durch veränderte Landnutzung betroffenen Biodiversität sichergestellt. Schlussendlich kann eine solche tiefgreifende Änderung der Ernährungs- und Landnutzungssysteme auch erhebliche Vorteile mit sich bringen, wie einen wesentlichen Beitrag zu ehrgeizigen Klimaschutzzielen, einen verminderten Druck auf die Wasserressourcen, ein reduziertes Ausmaß s an reaktivem Stickstoff in der Umwelt und gesundheitliche Vorteile.

Die wesentlichen Ergebnisse der Studie sind in Abbildung 1 dargestellt.

Abbildung 1. Der bislang rasche Niedergang der Biodiversität setzt sich fort im "Business as usual", wird zum Stoppen gebracht im Szenario 1 "Erhaltung und Wiederherstellung der Natur" und führt zur Erholung der Biodiversität, wenn Szenario 1 mit einer Änderung des Ernährungssystems kombiniert wird.

Indem sie auf den Niedergang der Biodiversität in Zusammenhang mit dem Klimawandel eingehen, meinen die Autoren, dass eine echte Umkehrung des Niedergangs wahrscheinlich ein noch breiteres Spektrum von Maßnahmen erforderlich macht.

„Wachsende Bedrohungen für die biologische Vielfalt wie Klimawandel und biologische Invasionen können - falls sie nicht gemindert werden - in Zukunft genauso wichtig werden wie Änderungen der Landnutzung, die bislang die größte Bedrohung der biologischen Vielfalt ist. Ein echtes Umkehren der Verluste an biologischer Vielfalt erfordert einen ehrgeizigen Klimaschutz, der Synergien mit der biologischen Vielfalt nutzt, anstatt die biologische Vielfalt weiter zu untergraben “, sagt Andy Purvis, Professor am Imperial College London und Forscher am National History Museum in Großbritannien. Da der Strategieplan für Biodiversität 2011-2020 mit uneinheitlichen Ergebnissen endet, sind die Ergebnisse der Studie direkt relevant für die laufenden Verhandlungen zum Übereinkommen der Vereinten Nationen über die biologische Vielfalt.

„Diese Studie zeigt, dass die Welt den Verlust der Natur möglicherweise noch stabilisieren und rückgängig machen kann. Um dies jedoch bereits 2030 tun zu können, müssen wir die Art und Weise, wie wir Lebensmittel produzieren und konsumieren ändern, sowie mutigere und ehrgeizigere Bemühungen zum Umweltschutz ausüben“, sagt Mike Barrett, Executive Director für Wissenschaft und Naturschutz beim WWF -UK und Mitautor der Studie. "Wenn wir dies nicht tun und wie gewohnt weitermachen, werden wir einen Planeten haben, der für gegenwärtige und zukünftige Generationen von Menschen keine Grundlage bieten kann." Nie zuvor war ein „New Deal für Natur und Menschen“ nötiger, der den Verlust der biologischen Vielfalt stoppt und rückgängig macht. “


[1] Leclere D, Obersteiner M, Barrett M, Butchart SHM, Chaudhary A, De Palma A, DeClerck FAJ, Di Marco M, et al. (2020). Bending the curve of terrestrial biodiversity needs an integrated strategy. Nature DOI: 10.1038/s41586-020-2705-y

 

[2] Living Planet Reports 2020 (Kurzfassung, in Deutsch) https://www.wwf.ch/sites/default/files/doc-2020-09/WWF_LPR_2020_summary_D_WEB.pdf


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 10. September 2020 auf der IIASA Webseite unter dem Titel: " Bending the curve of biodiversity loss" https://iiasa.ac.at/web/home/about/news/200910-biodiversity.html erschienen. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt.


Weiterführende Links

IIASA : https://iiasa.ac.at/

Fragen und Antworten: EU-Biodiversitätsstrategie für 2030 – Mehr Raum fürdie Natur in unserem Leben. https://ec.europa.eu/commission/presscorner/detail/de/QANDA_20_886


 

inge Thu, 10.09.2020 - 00:43

Telearbeit wird bleiben. Was bedeutet das für die Zukunft der Arbeit?

Telearbeit wird bleiben. Was bedeutet das für die Zukunft der Arbeit?

Do, 03.09.2020 — Redaktion

RedaktionIcon Politik & Gesellschaft

Die Coronavirus-Pandemie hat die Welt stark verändert und dabei die zentrale Stellung von Wissenschaft, Forschung und Innovation im Kampf gegen das Virus aufgezeigt. Maßnahmen, die als Reaktion auf das Virus getroffen wurden, haben unsere Gesellschaften in vielen Bereichen umgeformt und dabei auch manche Prozesse - wie den Übergang zur Telearbeit - beschleunigt. Der Anteil der Europäer, die nun außerhalb ihrer Arbeitsstätte tätig sind, ist von 5% auf 40% gestiegen und laut Expertenmeinung ist es unwahrscheinlich, dass die Situation wieder auf das Niveau von vor der Pandemie zurückkehrt. Abgesehen davon, dass Pendeln und Bürotratsch ausfallen, wie wird dies unsere Arbeitsweise verändern? Das EU Research and Innovation Magazine "Horizon" berichtet darüber.*

Telearbeit hat im Jahr 2020 explosionsartig zugenommen. Schätzungen zufolge haben infolge der Pandemie EU-weit fast 40% der Beschäftigten angefangen im Home Office in Vollzeit zu arbeiten. "Was ein grundlegender, aber langsam fortschreitender Trend zu sein schien, wurde nun in kürzester Zeit beschleunigt", sagt Xabier Goenaga von der Gemeinsamen Forschungsstelle (JRC), dem wissenschaftlichen Dienst der Europäischen Kommission; Goenaga ist Mitautor eines Berichts aus dem Jahr 2019 wie sich Art der Arbeit und Qualifikationen im digitalen Zeitalter verändern [1].

Vor dem heurigen Jahr haben in der EU etwa 5 % der Menschen regelmäßig von zu Hause aus gearbeitet, ein Prozentsatz, der sich seit 2009 nicht wesentlich geändert hatte. Einige Berufssparten hatten mehr Erfahrung mit Telearbeit als andere. Telearbeit ist häufiger bei hochqualifizierten Arbeitskräften anzutreffen; am meisten bei Lehrern, IKT(Informations-Kommunikationstechnologie)-Fachleuten und Managern [2].

Es bestehen auch regionale Unterschiede. Im Jahr 2019 war Telearbeit in nordeuropäischen Ländern wie Schweden, Finnland und Dänemark häufiger anzutreffen - in diesen Ländern hat auch der Großteil der Arbeitnehmer während der Pandemie mit der Telearbeit begonnen. Teilweise liegt dies daran, dass es dort mehr Arbeitsplätze in Berufen gibt, in denen Telearbeit möglich ist. Laut Goenaga spielen jedoch auch kulturelle Unterschiede eine Rolle, da in Südeuropa viele Arbeitsplätze noch in gewohnter Weise etabliert sind.

"Sie stellen sich möglicherweise nicht auf Home Office um, weil ihren Mitarbeitern nicht in gleichem Maße vertrauen, wie manche Unternehmen in Nordeuropa", sagt er. "Das wird sich meiner Meinung nach in Zukunft aufgrund der Pandemie erheblich ändern."

Home Office - Vorteile, Risiken

Ein Wechsel zum Home-Office kann für Mitarbeiter Vorteile bringen. Durch den Wegfall des täglichen Pendelns können sie mehr Freizeit und eine bessere Vereinbarkeit von Beruf und Privatleben erreichen. Und es gibt den Nachweis, dass die Produktivität in normalen Zeiten nicht beeinträchtigt wird, sondern sogar gesteigert werden kann.

Man muss natürlich auch die Risiken ansprechen. Ein kürzlich veröffentlichter Bericht deutet an, dass Menschen im Home Office möglicherweise länger arbeiten und weniger Pausen einlegen als von den EU-Richtlinien empfohlen, da es schwieriger ist, Kontrolle über die Arbeitszeit zu haben. Und soziale Isolation kann ebenfalls ein Problem sein.

"Wir haben gesehen, dass sich Menschen einsam und depressiv fühlen und soziale Interaktion brauchen, um ein ausgeglicheneres Leben zu führen", sagte Goenaga. Sein Team untersucht derzeit das Problem, um herauszufinden, wie man Abhilfe schaffen kann.

Aufgrund von Schulschließungen während der Pandemie musste Fernarbeit häufig mit Kinderbetreuung in Einklang gebracht werden - mehrere Rollen, die häufig Frauen angelastet werden. Eine kürzlich in Frankreich durchgeführte Umfrage ergab, dass hauptsächlich Frauen berichteten Telearbeit wirke sich negativ auf ihre psychische Gesundheit aus. Dies wird auf die zusätzliche familiäre Verantwortung zurückgeführt, die während der Pandemie auf ihren Schultern lag.

"Wir sollten uns gemeinsam damit befassen und herausfinden, welche Maßnahmen wir ergreifen müssen, damit Frauen nicht erneut bestraft werden, weil sie Frauen sind", sagt Goenaga.

Nach der Pandemie

Wenn die Pandemie endet, wird Telearbeit wahrscheinlich fortgesetzt. Technologie Unternehmen wie Google haben bereits angekündigt, dass ihre Mitarbeiter bis zum Sommer 2021 von zu Hause aus arbeiten werden. Laut George Tilesch, einem globalen KI-Berater (KI: künstliche Intelligenz; Anm. Redn.) und Autor von Between Brains, einem Buch über die gegenwärtigen und zukünftigen Auswirkungen von künstlicher Intelligenz, werden kleine Unternehmen bald nachziehen.

Telearbeit ist für Unternehmen attraktiv, da sie Kosten senkt. Eine Umfrage hat ergeben, dass manche Mitarbeiter sogar bereit wären, eine Lohnkürzung in Kauf zu nehmen, wenn sie von zu Hause aus arbeiten könnten. "Ich denke, die menschliche Natur neigt dazu, an einer Sache festzuhalten, nachdem sie erkannt hat, dass diese funktioniert", sagte Tilesch.

Viele Unternehmen werden beim Übergang zum Telearbeiten möglicherweise Künstliche Intelligenz einsetzen, insbesondere mittels Echtzeitsystemen, mit denen Mitarbeiter im Home Office kontrolliert werden können. Es gibt bereits Überwachungstechnologien, die verfolgen, was Mitarbeiter tun, die beispielsweise E-Mails überwachen und wer auf Dateien zugreift und diese bearbeitet. Diese Methoden können aber noch verbessert und weiter verbreitet werden.

Unternehmen müssen auch die Cybersicherheit überdenken. Während der Pandemie haben viele Mitarbeiter externe Plattformen zur Kommunikation via Videokonferenzen genutzt, und einige waren anfällig für Hacking. "Unternehmen müssen bei der Auswahl der von Telearbeitern verwendeten Videokonferenzeinrichtungen vorsichtig sein, um das Risiko gehackt zu werden und sensible Informationen zu verlieren zu minimieren", sagt Goenaga.

Digitale Kompetenzen

Umschulung ist ebenfalls ein Problem, da viele Menschen nicht über die erforderlichen Fähigkeiten verfügen, um im Home Office zu arbeiten. In einem kürzlich veröffentlichten EU-Bericht wurde beispielsweise festgestellt, dass ein Drittel der Arbeitnehmer in der EU nur sehr begrenzte oder gar keine digitalen Kompetenzen besitzt. In Zukunft erfordern jedoch die meisten Jobs zumindest mittelmäßige Computerkenntnisse.

Abbildung 1. Arbeiten im Home Office kann höhere Produktivität bedeuten aber auch zu Isolation und längerer Arbeitszeit führen. (Bild: PickPik)

Große Unternehmen haben bereits einen Schritt gesetzt, um Arbeitslosen beim Erwerb digitaler Kenntnisse zu helfen. Im Juni hat Microsoft ein Covid-19-Wiederaufbau Programm in Zusammenarbeit mit LinkedIn gestartet, um Jobs, für die Bedarf besteht und welche Kenntnisse dafür erforderlich sind zu ermitteln. Sie wollen dann allen Interessierten freien Zugang zu relevanten Lernmaterialien anbieten.

"Diese Art von Initiativen, die von der Industrie ausgehen und an die sich hoffentlich die Regierungen anschließen, sind der Weg in die Zukunft", sagt Tilesch.

Goenaga geht davon aus, dass die EU im Rahmen des Wiederaufbaus nach Corona in den nächsten 18 Monaten auch Schulungen anbieten wird. "Ich denke, es wird viele Programme geben, die auf die Umschulung von Arbeitslosen und die Weiterbildung der arbeitenden Bevölkerung abzielen", sagt er.

Wenn Arbeit im Home Office bestehen bleiben soll, kann dies tiefgreifende Auswirkungen auf die regionale Verteilung von Arbeitsplätzen haben. Derzeit gibt es in Hauptstädten viel mehr hochbezahlte Arbeitsplätze als in anderen Regionen eines Landes. Goenaga glaubt jedoch, dass Telearbeit zu einer Umkehrung dieses Trends führen könnte. "In Unternehmen entscheiden sich möglicherweise viele Mitarbeiter dafür, dass sie ihre Arbeit von einem weiter entfernten Ort aus erledigen, der auch am Land sein kann", meint er.

Unternehmen können auch beschließen, ihre Büroflächen zu verkleinern. Seit der Aufhebung der Lockdowns wurde die Bürokapazität in manchen Fällen um 30% bis 50% reduziert. Wenn auch derzeitige Beschränkungen weitgehend eingeführt wurden, um die Richtlinien zur räumlichen Distanzierung zu befolgen, dürften Unternehmen feststellen, dass sie die Anzahl der intern arbeitenden Mitarbeiter dauerhaft reduzieren können. Laut Tilesch würden Büros nicht vollständig verschwinden, sondern nur genügend Raum benötigen, um etwa 30% der Mitarbeiter gleichzeitig aufzunehmen.

Auf lange Sicht sollte die Adaptierung an Telearbeit von Vorteil sein, wenn eine andere Gesundheitskrise oder vergleichbare Situation eintritt. "Organisationen, die bereits weitgehende Telearbeit eingeführt haben, werden imstande sein diese - noch effizienter und erfolgreicher - wieder einzuführen", sagt Goenaga.


*Der Artikel ist am 1.September 2020 im Horizon, the EU Research and Innovation Magazineunter dem Titel: "Teleworking is here to stay – here’s what it means for the future of work" erschienen (Autorin: Sandrine Ceurstemont). Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Zahlreiche Literaturangaben können im Original nachgesehen werden.


 [1] The changing nature of work and skills in the digital age.  EU Science Hub. 2019. https://ec.europa.eu/jrc/en/publication/eur-scientific-and-technical-research-reports/changing-nature-work-and-skills-digital-age

[2] Telework in the EU before and after the COVID-19: where we were, where we head to. https://ec.europa.eu/jrc/sites/jrcsh/files/jrc120945_policy_brief_-_covid_and_telework_final.pdf

inge Wed, 02.09.2020 - 23:53

Visualiserung des menschlichen Herz-Kreislaufsystems mittels Positronen-Emissions-Tomographie (PET)

Visualiserung des menschlichen Herz-Kreislaufsystems mittels Positronen-Emissions-Tomographie (PET)

Do, 27.08.2020 — Francis S. Collins

Francis S. CollinsIcon Medizin Die Positronen-Emissions-Tomographie ist zu einer unentbehrlichen Methode vor allem in Onkologie, Kardiologie und Neurologie aber auch in vielen Aspekten der Grundlagenforschung geworden. Indem die Verteilung einer injizierten, schwach radioaktiv markierten Substanz (Radiotracer) im Körper verfolgt wird, können physiologische und pathologische Zustände funktionell abgebildet werden. Eine bahnbrechende Neuerung ist nun der an University of California in Davis entwickelte Ganzkörper-PET-Scanner EXPLORER, der- kombiniert mit Computertomographie (CT) - bei gesteigerter Sensitivität und in kürzesten Intervallen - den gesamten Körper gleichzeitig scannen und die Dynamik der Tracer-Verteilung in 3D-Bildern und Videos abbilden kann. Wie am Beispiel des menschlichen Herz-Kreislaufsystems ersichtlich, hat die völlig neue Möglichkeit Vorgänge in verschiedenen Organen gleichzeitig zu visualisieren ein ungeheures Potential für Forschung und klinische Anwendung. Francis S. Collins, Direktor der US-National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project" berichtet darüber.*

Wenn man dieses kurze Video anschaut, denkt man vielleicht eine animierte Strichzeichnung zu sehen, die nach und nach zu einer filigranen Darstellung eines wohlbekannten Systems führt, nämlich in die inneren Strukturen des menschlichen Körpers. Dieses Video fängt jedoch nicht das Werk eines talentierten Zeichners ein. Es wurde mit dem ersten 3D-Ganzkörper-Scanner mittels Positronen-Emissions-Tomographie (PET) erzeugt.

Das Gerät trägt die Bezeichnung EXPLORER-Ganzkörper-PET-Scanner (EXtreme Performance LOng Axial Research Scanner). In Kombination mit einer verbesserten Methode der Bildrekonstruktion aus riesigen Datenmengen ermöglicht der Scanner Videos zu erzeugen.

Eine dynamische Erfassung des Herz-Kreislaufsystems in Echtzeit

In dem hier gezeigten Video haben die Forscher kleine Mengen eines kurzlebigen radioaktiven Tracers - ein wesentlicher Bestandteil aller PET-Scans (im gegenständlichen Fall 18F-Fluodeoxyglucose; Anm. Redn.) - in den rechten Unterschenkel einer freiwilligen Probandin intravenös injiziert. Sie haben sich dann zurückgelehnt und zugesehen, wie der Scanner Bilder vom Weg des Tracers aufzeichnete: dieser wandert im venösen Blutstrom das Bein hinauf in den Körper und ins Herz hinein. Von der rechten Herzkammer fließt der Tracer zur Lunge,(Blut wird dort mit Sauerstoff beladen, Anm. Redn) und als arterielles Blut zurück durch die linke Herzkammer (von der aus arterielles Blut in den ganzen Organismus gepumpt wird; Anm. Redn.) und bis ins Gehirn. Abbildung 1 zeigt einige repräsentative Screenshots des Videos (von der Redaktion eingefügt).

Abbildung 1. PET-Scan des Wegs des Tracers 18F-Deoxyglucose von der Injektionsstelle in das Herz-Kreislaufsystem und Verteilung in die Organe. (Screenshots von dem oben gezeigten Video von der Redaktion eingefügt)

Ab etwa der 30-Sekunden-Marke sieht man dann vergrößert ein beeindruckende Bilderfolge des schlagenden Herzens.

Die gleichzeitige Visualisierung des ganzen Körpers ...

Dieser bahnbrechende Scanner wurde von Jinyi Qi, Simon Cherry, Ramsey Badawi und deren Kollegen an der University of California in Davis entwickelt und getestet [1]. Wie die vom NIH finanzierten Forscher kürzlich im Fachjournal Proceedings der National Academy of Sciences berichteten, kann der neue Scanner dynamische Veränderungen im Körper erfassen, die in einer Zehntelsekunde stattfinden [2]. Das ist schneller als ein Wimpernschlag!

Das Video ist aus Bildern zusammengesetzt, die in Intervallen von 0,1 Sekunden aufgenommen wurden. Es weist deutlich auf die Eigenschaft hin, die diesen Scanner so einzigartig macht: es ist seine Fähigkeit, den gesamten Körper auf einmal zu visualisieren. Andere medizinische Bildgebungsverfahren, einschließlich MRT, CT und herkömmlicher PET-Scans, können verwendet werden, um beispielsweise schöne Bilder des Herzens oder des Gehirns aufzunehmen. Sie können jedoch nicht zeigen, was im Herzen und im Gehirn gleichzeitig passiert.

....eröffnet ein neues Fenster zur Biologie des Menschen

Die Fähigkeit, die Dynamik radioaktiver Tracer in mehreren Organen gleichzeitig zu erfassen, eröffnet ein neues Fenster zur Biologie des Menschen. Das EXPLORER-System ermöglicht es beispielsweise, Entzündung zu messen, die in vielen Körperteilen nach einem Herzinfarkt auftritt, sowie Wechselwirkungen zwischen Gehirn und Darm bei Morbus Parkinson und anderen Erkrankungen zu untersuchen.

Der EXPLORER bietet auch andere Vorteile. Auf Grund seiner besonders hohen Sensitivität kann er Bilder aufnehmen, die anderen Scannern entgehen würden - und das bei einer geringeren Strahlungsdosis. Er ist auch viel schneller als ein normaler PET-Scanner; das ist besonders von Vorteil, wenn quirlige Kinder gescannt werden. Und er erweitert den Bereich der Forschungsmöglichkeiten für PET-Bildgebungsstudien. Beispielsweise können Forscher eine Person mit Arthritis im Laufe der Zeit wiederholt scannen, um Veränderungen zu erkennen, die auf Behandlungen oder körperliche Betätigung zurückzuführen sein könnten.

........und zu klinischen Anwendungen

Derzeit arbeitet das UC Davis-Team mit Kollegen an der University of California in San Francisco zusammen, um mithilfe von EXPLORER unser Verstehen der HIV-Infektion zu verbessern. Erste Ergebnisse zeigen, dass der Scanner es einfacher macht zu erfassen, wo das humane Immundefizienzvirus (HIV), die Ursache von AIDS, im Körper lauert, weil er Signale erfasst, die zu schwach sind, um in herkömmlichen PET-Scans gesehen zu werden.

Das Potential, das der Scanner für die Forschung hat, ist riesig, er ist aber auch für den klinischen Einsatz vielversprechend. Tatsächlich wurde eine kommerzielle Version des Scanners mit dem Namen uEXPLORER bereits von der FDA zugelassen und ist in der University of California im Einsatz [3]. Die Forscher haben herausgefunden, dass seine erhöhte Sensitivität die Erkennung von Krebserkrankungen bei übergewichtigen Patienten erheblich erleichtert, mit konventionellen PET-Scannern jedoch schwieriger zu erfassen ist.

Sobald der COVID-19-Ausbruch so weit abgeklungen ist, dass die klinische Forschung wieder aufgenommen werden kann, wollen die Forscher Krebspatienten in eine klinische Studie aufnehmen, in der herkömmliche PET- und EXPLORER-Scans direkt verglichen werden sollen.

Wenn diese und andere Forscher auf der ganzen Welt beginnen, diesen neuen Scanner einzusetzen, können wir uns darauf freuen, viele weitere bemerkenswerte Videos wie diesen zu sehen. Stellen Sie sich vor, was diese alles aufdecken werden!


[1] First human imaging studies with the EXPLORER total-body PET scanner Badawi RD, Shi H, Hu P, Chen S, Xu T, Price PM, Ding Y, Spencer BA, Nardo L, Liu W, Bao J, Jones T, Li H, Cherry SR. J Nucl Med. 2019 Mar;60(3):299-303.

[2] Subsecond total-body imaging using ultrasensitive positron emission tomography Zhang X, Cherry SR, Xie Z, Shi H, Badawi RD, Qi J. Proc Natl Acad Sci U S A. 2020 Feb 4;117(5):2265-2267.

[3] “United Imaging Healthcare uEXPLORER Total-body Scanner Cleared by FDA, Available in U.S. Early 2019 ” Cision PR Newswire. January 22, 2019.


*Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am20. August 2020) im NIH Director’s Blog unter dem Titel: " See the Human Cardiovascular System in a Whole New Way";  https://directorsblog.nih.gov/2020/08/20/see-the-human-cardiovascular-system-in-a-whole-new-way/?fbclid=IwAR1ZA6F4ttWAh0wbOItHFgWqboeex66vOJBbM_lMnoYDGb4sUgKjfz3NE2w. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und mit einigen Screenshots aus dem gezeigten Video und  Untertiteln ergänzt. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


 

inge Wed, 26.08.2020 - 23:55

Wie COVID-19 entstand und sich über die Kette der Fleischversorgung intensivierte

Wie COVID-19 entstand und sich über die Kette der Fleischversorgung intensivierte

Do, 20.08.2020 — Ricki Lewis

Ricki LewisIcon MedizinViele der vom Tier auf den Menschen überspringenden Infektionskrankheiten (sogenannte Zoonosen) haben ihren Ursprung in Ostasien und hängen mit den dortigen Essgewohnheiten zusammen. Eine vietnamesische Forschergruppe hat an Fleischproben aus den Jahren 2013 und 2014 mittels Gentests festgestellt, dass vor allem Fledermäuse und Ratten bis zu 75 % , resp. 34 % mit verschiedenen Coronaviren infiziert waren. Interessanterweise steigerte sich der Anteil infizierter Ratten über die Versorgungskette vom Tier bis zum Endkonsumenten auf etwa das Doppelte. Die Genetikerin Ricki Lewis berichtet über wesentliche Erkenntnisse der Studie, die uns verstehen helfen, wie für den Menschen tödliche Virusinfektionen in Asien entstehen und wie man diese abwehren könnte. *

Früh in diesem denkwürdigen Jahr hat sich ein Wet Market in Wuhan, China als Ursprungsort der Pandemie von COVID-19 oder zumindest als mögliche Station auf dem Weg zum Ausbruch herausgestellt (Wet Market - Nassmarkt; lt. Wikipedia ein traditioneller Ort, wo lebendige oder frisch geschlachtete Tiere verkauft werden und die Böden vom häufigen Abspritzen/Reinigen durchnässt sind; Anm. Redn.). Noch vor diesem Ausbruch haben Forscher Fleischproben, die sie in den Jahren 2013 und 2014 gesammelt hatten, untersucht, um mithilfe von Gentests nachzuvollziehen, was nun neuerdings wieder passiert sein dürfte: die Verstärkung der Durchseuchung auf dem Weg vom Fleisch von Wildtieren oder Zuchttieren über große Märkte bis hin zu Restaurants. Der Bericht ist eben in PLoS ONE erschienen [1].

„Diese Studie zeigt, dass die Versorgungskette der lebenden Wildtiere vom Händler zum Konsumenten das Risiko des Überspringens verdoppelt. Man weiß, dass damit die Kontakthäufigkeit zwischen Wildtieren und Menschen erhöht wird, und wir zeigen hier, wie die Anzahl infizierter Tiere auf dem Weg stark steigt“, schreibt das Team um Amanda E. Fine von der Wildlife Conservation Society in Hanoi.

Für niemanden, der Viren kennt, war COVID-19 eine Überraschung. Viele Leute haben halt nicht zugehört, auch wenn sie wiederholt gewarnt wurden.

Einsammeln von Tieren

Genetische Tests (PCR-Tests) zeigten klar RNAs von sechs Arten von Coronaviren in drei Settings:

  • in wilden, freillebenden Feldratten
  •  in kommerziellen Wildtierfarmen, die Großmärkte und Restaurants mit Bambusratten und malaiischen Stachelschweinen beliefern
  • in Guano-Farmen.

Guano-Farmen sehen aus wie Reihen umgedrehter Besen (Abbildung 1). Es sind im Hinterhof angesiedelte Fledermausbehausungen, die gefördert von der kambodschanischen Regierung seit 2004 geschaffen wurden, um Geld zu verdienen, die Bodenfruchtbarkeit zu verbessern, Schädlinge zu bekämpfen, den Einsatz chemischer Düngemittel zu reduzieren und gefährdete Fledermäuse zu schützen.

Unter den mit Exkrementen verkrusteten Rändern befinden sich Gartenbeete, Vieh wandert durch und Kinder spielen. Die Tatsache, dass Fledermäuse voller Viren sind, war nicht Teil des Plans - persönliche Schutzmaßnahmen wurden nicht vorgeschlagen.

Abbildung 1. Fledermaus-Guanofarmen in der Provinz Soc Trang (October 2013. Bild aus [1] https://doi.org/10.1371/journal.pone.0237129.g003

In den Jahren 2013 und 2014 haben die Forscher Tiere gesammelt „in Gegenden, die als Hochrisiko-Plätze für das Überspringen von Viren von Wildtieren auf Menschen identifiziert wurden“ da in den letzten zwei Jahrzehnten neuartige Coronaviren auftauchten. Vietnam ist eine solcher Ort.

Insgesamt haben die Forscher 2.164 Gewebeproben von 1.506 Tieren analysiert (von 702 Feldratten, von 429 gezüchteten Nagetieren und von 375 Fledermäusen). Die Tiere stammten von 70 Standorten in den Provinzen Dong Thap, Soc Trang und Dong Nai im Süden Vietnams nahe dem Mekong-Delta.

Feldratten sind beliebt. In Vietnam und Kambodscha stehen sie mindestens einmal pro Woche auf dem Speiseplan. Geschätzt werden Geschmack und niedriger Preis und es herrscht die Meinung, dass Fleisch von Nagetieren „gesund, nahrhaft, natürlich und krankheitsfrei“ ist. Tausende Tonnen Feldratten werden jährlich zum Verzehr gefangen.

An den abgetrennten Köpfen der Feldratten und auch der Zuchtratten haben die Forscher nun Proben aus dem Rachenraums entnommen und neben Kot und Urin auch Gewebeproben, hauptsächlich aus dem Dünndarm, manchmal aber auch aus dem Gehirn, der Niere oder der Lunge, gesammelt. Sie bemerkten, dass alle drei Orte, an denen geschlachtet wurde - bei Händlern, Großmärkten und in Restaurants - nur sporadisch gereinigt wurden.

Zunehmende Durchseuchung und Veränderung von Coronaviren kann eine Pandemie auslösen

Die Ergebnisse der Studie erzählen, wie eine Coronavirus-Pandemie beginnt.

Von 702 Feldratten hatten 239 (34%) Coronaviren. Aber sehen wir die Zahlen im Detail an. Wie die Forscher berichten "stieg die Wahrscheinlichkeit eines positiven RNA-Tests auf ein Coronavirus entlang der Verkaufskette signifikant an, von Feldratten, die von Händlern verkauft wurden (20,7%) über Feldratten, die auf großen Märkten gehandelt wurden (32,0%), bis zu Feldratten, die in Restaurants serviert wurden (55,6%)". Abbildung 2.

Abbildung 2. Die Durchseuchung von Ratten mit Coronaviren nimmt in der Versorgungskette vom Händler bis zum Kosumenten im Restaurant zu. Bild aus [1]: https://doi.org/10.1371/journal.pone.0237129.g005 (von Red. eingefügt)

Tiere vom Bauernhof scheinen sicherer zu sein. Ungefähr 6% der Bambusratten und der malaiischen Stachelschweine, die in 17 von 28 untersuchten Wildtierfarmen für den menschlichen Konsum aufgezogen wurden, hatten Coronaviren.

Besonders beunruhigend waren die Ergebnisse aus den Guano-Farmen. In einer unmittelbar an menschliche Behausungen angrenzenden Guano-Farm trugen 234 (74,8%) von 313 Fledermäusen Coronaviren.

Die Steigerung der Durchseuchung ist nicht das einzige Problem. Vielleicht noch Besorgnis erregender ist die natürliche Tendenz von Viren, Teile ihres Genoms auszutauschen. Diese Rekombination kann im Wirtsorganismus auftreten, in ihren Reservoirs und sogar in Haufen von Fledermausdung oder Vogelkot. Das Mischen und Anpassen von genetischem Material kann leicht einen neuartigen Erreger hervorbringen, der auf den Menschen überspringt. Genau das ist es, was 2019 in Wuhan geschehen sein kann.

Warum China?

Ein Rückblick lässt uns verstehen, wie es zu SARS-CoV-2 gekommen ist. Nach SARS (China; 2003), MERS (Naher Osten; 2012) und dem Akuten Schweine Durchfall-Syndrom (China; 2017) haben viele Wissenschaftler darauf hingewiesen, dass es nur eine Frage der Zeit sei, bis ein anderes Coronavirus (CoV) von Fledermäusen auf Menschen überspringen würde. In einem Bericht in der Fachzeitschrift Virology haben im März 2019 vier Forscher des CAS Key Laboratory of Special Pathogens and Biosafety am Wuhan-Institut für Virologie davor gewarnt, dass eine solche Zoonose wahrscheinlich wäre, wenn nicht unmittelbar bevorstünde:

„Es wird allgemein angenommen, dass durch Fledermäuse übertragene CoVs wieder auftauchen und den nächsten Krankheitsausbruch verursachen werden. China ist ein wahrscheinlicher Hotspot. Die Herausforderung besteht darin, vorherzusagen, wann und wo, damit wir so gut wir können derartige Ausbrüche verhindern. …. Die Untersuchung von Coronaviren in Fledermäusen wird zu einem vorrangigen Thema, um frühe Warnzeichen zu erkennen; dies wiederum reduziert die Auswirkungen solcher künftiger Ausbrüche in China. “

Diejenigen, die für die Kürzung der NIH-Mittel für ein Fledermaus-Coronavirus-Projekt im April 2020 verantwortlich waren, waren sich offensichtlich der Warnungen vor neu auftretenden Viruserkrankungen in der wissenschaftlichen Literatur nicht bewusst. Sie reagierten möglicherweise auf politischen Druck, basierend auf dem Glauben - nicht auf Fakten - dass das Virus aus dem Wuhan-Labor stammte (wie man in einem Artikel im Fachjournal Science lesen kann).

Man braucht keine Verschwörungstheorie aufzustellen, um zu vermuten, wie und warum in China virale Zoonosen auftreten könnten.

China bietet dafür eine perfekte biologische Bühne. Es ist das Land mit den meisten Menschen und einem Klima, das eine große Vielfalt an Fledermäusen samt deren Viren fördert. Die Menschen leben in engem Kontakt mit Fledermäusen und/oder deren Ausscheidungen und wie in Vietnam und Kambodscha essen sie gerne Arten wie Ratten, Stachelschweine (Abbildung 3) und vielleicht auch Schuppentiere. "Die chinesische Esskultur behauptet, dass frisch geschlachtete Tiere nahrhafter sind, und dieser Glaube kann zu einer verstärkten Übertragung von Viren führen", schrieben die Forscher 2019.

Abbildung 3. Malayische Stachelschweinfarm in der vietnamesischen Provinz Dong Nai ; November 2013. Bild aus [1] https://doi.org/10.1371/journal.pone.0237129.g002

Es war daher keine große Überraschung, dass der nächste Verwandte des neuartigen Coronavirus ein Fledermausvirus, RaTG13, ist. Die beiden Genome sind zu 96% ident, viel näher verwandt als es SARS-CoV-2 zu SARS-CoV, dem Virus aus dem Jahr 2003, ist. Wir wissen dies, weil Forscher in China am 11. Januar die erste Genomsequenz des neuen Virus veröffentlicht haben.

Der früh als Quelle des Ausbruchs erwähnte Wet Market war eher der Ort eines „Zwischenwirtes, der die Entstehung des Virus beim Menschen erleichtert“, schrieb ein großes Team aus China in der Zeitschrift The Lancet am 30. Januar 2020.

Die Zukunft: ein Ende für Wet Markets

Um das Auftreten pathogener Viren zu minimieren, fordern Dr. Fine und ihre Kollegen globale „Vorsichtsmaßnahmen, die das Töten, die kommerzielle Züchtung, den Transport, den Kauf, den Verkauf, die Lagerung, die Verarbeitung und den Verzehr von Wildtieren einschränken“.

Sie fordern auch den Aufbau und die Verbesserung von Kapazitäten zur Erkennung von Coronaviren; Kontrollen, um Coronaviren bei Menschen, Wildtieren und Nutztieren zu identifizieren und beschreiben; und sich mit menschlichen Verhaltensweisen zu befassen, welche die Übertragung von Viren von Tieren auf uns erleichtern.

„Je mehr Möglichkeiten wir dem Menschen bieten, in direkten Kontakt mit einer Vielzahl von Wildtierarten zu kommen, desto höher ist die Wahrscheinlichkeit, dass ein weiteres Überspringen stattfindet. Der Preis für ein Nicht-Handeln ist astronomisch hoch und wir müssen sicherstellen, dass die zukünftige Nahrungsmittelproduktion und -sicherheit nachhaltig und gerecht ist und die globale Gesundheit fördert. “

Es könnte ein guter Zeitpunkt sein, eine Pflanzen-basierte Ernährung in Betracht zu ziehen.


 [1] N.Q.Huong et al., Coronavirus testing indicates transmission risk increases along wildlife supply chains for human consumption in Viet Nam, 2013-2014,PLoS ONE, 10.08.2020. https://doi.org/10.1371/journal.pone.0237129


 * Der Artikel ist erstmals am 13.August 2020 in PLOS Blogs - DNA Science Blog unter dem Titel " How COVID-19 Arose and Amplified Along the Meat Supply Chain " https://dnascience.plos.org/2020/08/13/how-covid-19-arose-and-amplified-along-the-meat-supply-chain/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Abbildung 2 und die Legende wurden von der Redaktion aus [1] eingefügt.


Bisherige Artikel zu COVID-19 im ScienceBlog

 

Diese und weitere 24 Artikel über Viren sind zusammengefasst in: Redaktion 04.06.2020:Themenschwerpunkt Viren


 

inge Thu, 20.08.2020 - 00:01

Handel und Klimawandel erhöhen die Bedrohung der europäischen Wälder durch Schädlinge

Handel und Klimawandel erhöhen die Bedrohung der europäischen Wälder durch Schädlinge

Do,13.08.2020 Redaktion

Redaktion

Icon Wald

Europas Wälder sehen sich aufgrund des Welthandels und des Klimawandels einer wachsenden Bedrohung durch Schädlinge ausgesetzt. Jedes Jahr vernichten Schädlinge weltweit 35 Millionen Hektar Wald. Allein im Mittelmeerraum ist nach Angaben der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO) jährlich ein Gebiet von der Größe der Slowakei - fünf Millionen Hektar - von Schädlingen betroffen. In von der EU unterstützten Projekten ("HOMED"," MySustainableForest") entwickeln Wissenschaftler Techniken, die frühzeitig vor Befall warnen können, um schädliche Insekten und Krankheiten zu bekämpfen.*

Europas Wälder sind aufgrund von Welthandel und Klimawandel einer wachsenden Bedrohung durch Insekten und Krankheitserreger ausgesetzt. Der Klimawandel ermöglicht es einigen einheimischen Schädlingen sich häufiger zu vermehren, während der internationale Handel exotische Insekten und Krankheitserreger weiter verbreitet.

Eingeschleppte Baumschädlinge

Nur ein kleiner Bruchteil der exotischen Schädlinge, die in Europa ankommen, schädigen Bäume. "Aber diese sind sehr zerstörerisch und es werden immer mehr", sagte Dr. Hervé Jactel, Forschungsdirektor für Waldentomologie und Biodiversität am französischen Nationalen Forschungsinstitut für Landwirtschaft, Ernährung und Umwelt (Paris). Im Mittel werden jedes Jahr sechs neue Arten von Baumschädlingen in Europa eingeschleppt, in den 1950er Jahren waren es jährlich bloß zwei, sagt Dr. Jactel. Diese kommen in Topfpflanzen und Holzprodukten an oder in Verpackungsmaterialien.

Der asiatische Eschenprachtkäfer

Viele der für die Wälder Europas entstehenden Bedrohungen haben in Asien ihren Ursprung. Beispielsweise hat sich der Asiatische Eschenprachtkäfer von Asien aus in die USA verbreitet, wo er mehr als 150 Millionen Bäume vernichtete und in den letzten zehn Jahren mehr als 10 Milliarden US-Dollar Schaden angerichtet haben dürfte. Abbildung 1.Das Insekt pocht nun an Europas Tür.

Abbildung 1. Der Asiatische Eschenprachtkäfer (Agrilus planipennis, links) hat in den letzten zehn Jahren in den USA mehr als 150 Millionen Bäume vernichtet (rechts durch Larvenfrass verursachte Gänge in der Rinde einer Esche) und ist nun eine potenzielle Bedrohung für die Wälder Europas. (Bildnachweis: links: Wikipedia, Pennsylvania Dept Conservation and Natural Resources - Forestry Archive ,cc-by 3.0; rechts: Pikist, gemeinfrei)

"Wir wissen, dass alle oder zumindest die meisten Eschen vernichtet werden", sagt Dr. Jactel; er koordiniert das HOMED-Projekt [1], das neue Wege entwickelt, um solche exotischen Schädlinge frühzeitig zu erkennen.

Der Teezweigbohrer

ist eine weitere große Bedrohung. Es kann praktisch alle Arten von Laubbäumen in Europa befallen, sagt Dr. Jactel. Abbildung 2.

Abbildung 2. Der Teezeweigbohrer (Euwallacea fornicatus) kann praktisch alle Laubbäume befallen und wurde im April d.J. erstmals in Europa gesichtet. (Bild: Ken Walker, Lizenz cc.3.0).

"Es ist ein sehr, sehr gefährlicher kleiner Käfer", sagte er. "Dies ist wahrscheinlich das nächste große Problem für Europa." Dieses kleine Insekt stammt ursprünglich aus Asien und hat sich in Israel, Kalifornien und dann in Südafrika verbreitet, wo es Hunderttausende Bäume vernichtet hat. Im April dieses Jahres wurde es zum ersten Mal in einem tropischen Garten in Italien entdeckt. Bis jetzt gibt es noch keine Anzeichen dafür, dass es sich irgendwo anders in Europa verbreitet hat.

Obwohl alle vom Käfer betroffenen Länder davor gewarnt waren, konnte ihn keines entdecken bevor er bereits Schaden angerichtet hatte, sagt Dr. Jactel. Das Problem besteht darin, exotische Schädlinge und Krankheitserreger zu entdecken, noch bevor sie Bäume befallen können.

Tagtäglich kommen Hunderttausende mit Waren gefüllte Container in Europas Häfen und Flughäfen an. Winzige Insekten oder Sporen von pathogenen Pilzen können in Sendungen mit Holzprodukten, Paletten oder Verpackungen oder lebenden Pflanzen verborgen sein. Die bloße Zahl der Sendungen überfordert die Mittel der gesundheitlichen Prüfer zur Entdeckung von Insekten und Sporen, sagt Dr. Jactel.

"Es ist, als wolle man eine Nadel im Heuhaufen finden."

Lösungsansätze

Sobald die Container geöffnet werden, können Schädlinge leicht zu umliegenden Bäumen entkommen. Ein guter Anfang ist damit gemacht, dass Bäume, die rund um Häfen und Flughäfen wachsen, besser kontrolliert werden, sagt Dr. Jactel.

Lösungsansätze gegen solche Schädlinge zu finden, ist unabdingbar. Wälder bedecken 43% der Landfläche der EU - insgesamt 182 Millionen Hektar. Der Forstsektor steht für etwa 1% des EU-BIP und bietet rund 2,6 Millionen Menschen Arbeitsplätze. Wenn sich die Schädlinge unkontrolliert verbreiten dürfen - ohne die natürlichen Feinde, die sie in ihren ursprünglichen Lebensräumen hatten und an Bäumen, die keine Abwehrkräfte gegen sie entwickelt haben -, könnten dies verheerende Folgen haben.

Zusätzlich werden aber auch neue Hilfsmittel benötigt, um die Inspektoren auf das Vorhandensein von Schädlingen in Containern aufmerksam zu machen, bevor diese entkommen können, fügt er hinzu. Das Team des HOMED-Projekts (siehe [1]) entwickelt ganz generelle Fallen, um eine Vielzahl von Insekten anzulocken. Diese Fallen werden in Container vor dem Abschicken aus dem Herkunftsland gelegt werden sowie auf Flughäfen, Häfen und Bahnhöfen, an denen die Importe ankommen. Abbildung 3.

Abbildung 3. Lichtfallen, die in Fracht-Container gelegt werden, können helfen nach Europa eingeschleppte, neue Insekten erfassen (Bild: Matteo Marchioro).

Die Teams entwickeln auch Fallen für Pilzsporen sowie DNA-Tools und Datenbanken von Arten, um festzustellen, ob eine Spore einheimisch oder importiert ist.

Das HOMED-Projekt pflanzt auch europäische Bäume als "Wächter" in Asien, Nordamerika und anderswo, um frühzeitig erkennen zu können, welche Schädlinge eine besondere Bedrohung für europäische Bäume darstellen könnten.

Für Schädlinge, die bereits in Europa Fuß gefasst haben, besteht eine mögliche Lösung darin, die natürlichen Feinde dieses Schädlings aus seinem Herkunftsland zu importieren, sagt Dr. Jactel. Wissenschaftler in Frankreich und der Schweiz untersuchen, ob die natürlichen Feinde des zerstörerischen Buchsbaumzünslers, der sich aus China kommend in ganz Europa verbreitet hat, importiert und zur Eindämmung verwendet werden können. Die Freisetzung dieser parasitären Wespe gegen den Zünsler könnte jedoch andere Probleme mit sich bringen.

"Wir müssen sehr vorsichtig sein zu prüfen, ob die chinesischen Parasiten nicht Auswirkungen auf europäische Arten haben könnten", sagte Dr. Jactel.

Einheimische Schädlinge

Viele Bedrohungen für die Wälder Europas sind jedoch eher hausgemacht. In vielen Regionen trägt die Klimaerwärmung dazu bei, dass nun einige einheimische Schädlinge häufiger auftreten.

Der Borkenkäfer ist einer der übelsten Schädlinge, die derzeit die Wälder Europas befallen und die Fichten in Mitteleuropa zerstören. In den letzten Jahren musste die Tschechische Republik so viele infizierte Bäume fällen, dass der Holzpreis abgestürzt ist, als das resultierende Schadholz verkauft wurde, sagt Dr. Julia Yagüe, Projektmanagerin von My Sustainable Forest (MSF), das die Gesundheit der Wälder Europas überwacht ([2]). Es dauert an die 140 Jahre, bis Fichten völlig ausgewachsen sind; der Verlust so vieler Bäume wird noch lange spürbar sein.

Dies liegt hauptsächlich daran, dass die wärmeren Temperaturen den Käfern ermöglichten mehrere Generationen hervorzubringen. "Vor ungefähr 20 Jahren hatten wir einen Generationszyklus pro Sommer, aber heute haben wir in der Tschechischen Republik und in Süddeutschland bis zu vier Zyklen von Borkenkäfern", sagte Dr. Yagüe.

...und wärmeres Klima

Dazu kommt, dass in wärmeren, längeren und trockeneren Sommern Bäume auch anfälliger für Angriffe sind, aufgrund der Bedingungen weniger in der Lage sind, der Schädlinge Herr zu werden, sagt sie.

Wissenschaftler schaffen nun Variationen einheimischer Fichten, von denen sie hoffen, dass sie widerstandsfähiger gegen höhere Temperaturen und Trockenheit sind und so Angriffe von Schädlingen besser abwehren können. Bis es soweit ist, müssen die Wälder dringend genauer überwacht werden, sagt Dr. Yagüe. Forstverwalter führen in der Regel alle fünf bis zehn Jahre eine Bestandsaufnahme durch. "Weil der Klimawandel so starken Druck ausübt, müssen wir unsere Daten über Wälder viel häufiger aktualisieren", sagte sie.

Überwachung der Wälder

Die effizienteste Methode zur Überwachung großer Waldgebiete sind Satellitenbeobachtungen, mit deren Hilfe frühe Warnzeichen von Bäumen erkannt werden können, die unter Wassermangel oder Hitzestress stehen und daher anfälliger für Angriffe sind. Diese können Forstmanagern es auch ermöglichen, die ersten Anzeichen eines Befalls zu erkennen, wie Trockenheit, Laubverlust oder Absterben.

"Mit der Fernerkundung von Satelliten aus können wir solche Krankheiten erkennen, bevor noch das menschliche Auge sie entdecken kann", sagte Dr. Yagüe, Fernerkundungsexpertin beim spanischen Luft- und Raumfahrtunternehmen GMV.

Die Aufgabe von My Sustainable Forest Daten zu sammeln, wurde durch den Start der europäischen Copernicus-Satelliten im Jahr 2014 und die Entwicklung von Technologien zur Verarbeitung großer Informationsmengen erleichtert. MSF erhält jetzt alle fünf Tage Schnappschüsse der europäischen Wälder anstatt alle 15 bis 30 Tage vor Copernicus. "Wir erhalten diese Informationen kostenlos", sagte Dr. Yagüe.

Es gibt jedoch noch ein weiteres entscheidendes Element zur Verbesserung der Gesundheit der Wälder in Europa, und dieses liegt bei uns.

Viele Wälder Europas wurden vernachlässigt. Während sie einst sorgfältig verwaltete Landschaften waren, "ist das Wissen um das Zusammenleben mit der Natur verloren gegangen, als die Menschen in die Städte zogen", sagte Dr. Yagüe. "Dies wiederherzustellen ist sehr wichtig."


* Dieser von Alex Whiting verfasste Artikel wurde ursprünglich am 5.August 2020 in Horizon, the EU Research and Innovation Magazine unter dem Titel: ‘Trade and climate change increase pest threat to Europe’s forests" publiziert. https://horizon-magazine.eu/article/trade-and-climate-change-increase-pest-threat-europe-s-forests.html . Der unter einer cc-by-4.0 Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt und geringfügig (mit einigen Untertiteln und einer Abbildung) für den Blog adaptiert.


[1] HOMED Projekt: HOlistic Management of Emerging forest pests and Diseases. Laufzeit: 10.2018 - 9.2022. https://cordis.europa.eu/project/id/771271

[2] MySustainableForest: Operational sustainable forestry with satellite-based remote sensing. Laufzeit: 22.2017 - 10.2020. https://cordis.europa.eu/project/id/776045


 

inge Wed, 12.08.2020 - 21:11

Voltaren (Diclofenac) verursacht ein globales Umweltproblem

Voltaren (Diclofenac) verursacht ein globales Umweltproblem

Fr 07.08.2020 Inge Schuster Inge SchusterIcon Medizin

Diclofenac (ursprüngliche Markenbezeichnung Voltaren) ist einer der weltweit am meisten angewandten Wirkstoffe gegen Entzündungen und Schmerzen und dies vor allem im Bereich des Bewegungsapparates. Da auf Grund des Wirkungsmechanismus auch zahlreiche unerwünschte Nebenwirkungen auf Leber, Niere, Verdauungstrakt und Herz-Kreislaufsystem auftreten können, verspricht man sich eine signifikante Reduktion solcher Risiken durch die sogenannte topische Anwendung, d.i. durch auf die Haut aufgetragene Wirkstoff enthaltende Cremen, Salben oder Gele (darüber wurde vor Kurzem im ScienceBlog berichtet [1]). Der Nutzen solcher Anwendungen ist allerdings meistens bescheiden, die Gefahr für die Umwelt - der überwiegende Teil des Wirkstoffs gelangt über das Abwasser in den Wasserkreislauf - dagegen groß.

Massensterben von Geiern

Als ich vor rund 30 Jahren das erste Mal in Indien war, gehörten Geier zum gewohnten Straßenbild. Sie hockten in Massen auf Bäumen und warteten darauf, dass ein Tier verendete, dass ein Tier überfahren wurde und ihnen dann für einige Zeit reichlich Nahrung garantierte. Abbildung 1.

Abbildung 1. Entlang der Straße von Agra nach Fatehpur Sikri (Uttar Pradesh, Indien) waren 1991 Geier in großer Zahl anzutreffen (Bild I.Schuster)

Aus anfangs unerklärlichen Gründen begannen in den darauffolgenden Jahren die Geier-Populationen zu schrumpfen - 2007 gab es von einzelnen Stämmen nur mehr 0,1 bis 3 % der Tiere. Als offensichtliche Ursache für das Aussterben entdeckte man Diclofenac (der Wirkstoff von Voltaren), das in Indien nicht nur am Menschen sondern auch in der Veterinärmedizin an Rindern gegen verschiedenste Erkrankungen - von Pneumonie bis Arthritis - angewandt wurde. Da Rinder in Indien nicht der menschlichen Nahrung dienen, bleiben ihre Kadaver auf den Straßen liegen und wurden bis in die 1990er-Jahre üblicherweise von den Geiern "entsorgt". Diclofenac-Rückstände in behandelten Tiere erwiesen sich dann aber als hochtoxisch für die Vögel, die an Nierenversagen verendeten. (Nierentoxizität gehört u.a. auch zu den unerwünschten Nebenwirkungen von Diclofenac in der Humananwendung).

Die Auswirkungen auf das Ökosystem waren massiv. Die verrottenden Kadaver - eine ideale Brutstätte für verschiedenste infektiöse Keime - wurden nun von wilden Hunden und Ratten gefressen, welche Infektionen (von Anthrax über Tollwut bis hin zur Pest) weiter verbreiteten. Schlussendlich wurde 2006 dann in Indien, Nepal und Pakistan die Anwendung von Diclofenac in der Tiermedizin verboten (und als Äquivalent das für Geier angeblich ungiftige Meloxicam erlaubt).

In der EU wurde allerdings Diclofenac 2014 für veterinärmedizinische Anwendungen zugelassen. Für Spanien, das die größte Geier-Population Europas beherbergt, wird nun ein ähnliches Schicksal der Tiere wie in Indien befürchtet.

Geier sind ein zwar markanter Indikator für Diclofenac-verursachte Schädigungen, stellen aber nicht einmal die Spitze des Eisbergs ökologischer Risiken dar. Zahlreiche ökotoxikologische Studien weisen darauf hin, dass Diclofenac schädliche Auswirkungen auf aquatische Lebensgemeinschaften und ebenso auf Tiere und Pflanzen an Land haben kann. In verschiedenen Säugetiersystemen wurden toxische Effekte auf Herz-Kreislauf, Leber, Niere, Nervensystem u.a. aufgezeigt.

Diclofenac gehört zu den weltweit populärsten Mitteln gegen Entzündungen und Schmerzen

und wird in oraler Form (Tabletten), in Form von Injektionen und in topischer Form (Salben und Gele) angewandt. Der Bedarf für Diclofenac am Weltmarkt belief sich 2018 auf mehr als 2000 Tonnen (https://topicsonchemeng.org.my/paper/ICNMIM080.pdf) und steigt weiter an. Auch, wenn das Patent auf diesen Wirkstoff bereits vor langer Zeit abgelaufen ist und darauf basierende Arzneimittel billig sind, wird für 2025 ein Umsatz von 5,6 Milliarden $ US prognostiziert.

Haupteinsatzgebiet sind dabei Schmerzen im Bewegungsapparat, die man durch Einreiben der Haut mit Salben und Gelen zu lindern versucht (siehe [1]). Allein in Deutschland lag der Verbrauch von Diclofenac bei rund 85 Tonnen im vergangenen Jahr, in Österreich bei rund 5,6 Tonnen im Jahr 2014 (Zahlen vom Deutschen resp. Österreichischen Bundesumweltamt).

Diclofenac im Wasserkreislauf

Der weitaus überwiegende Teil dieser Wirkstoffmengen landet schlussendlich im Abwasser. Aus oral verabreichtem oder injiziertem Diclofenac entstehen im Organismus mehrere (z.T. biologisch wirksame) Metabolite, die neben unveränderter Substanz vorwiegend über den Urin ausgeschieden werden. Von dem in Salben/Gelen topisch aufgebrachten Wirkstoff gelangen nur wenige Prozente in den Organismus, die dann - wie im Fall des oral oder durch Injektion verabreichten Diclofenac -metabolisiert und ausgeschieden werden; bis zu 95 % (und mehr) verbleiben in unveränderter Form auf der Haut und werden abgewaschen.

Abbildung 2. Der Weg des Diclofenac vom Patienten in die Fliessgewässer. Auch eine effiziente Kläranlage hält nur einen Teil des im Abwasser vorhandenen Wirkstoffs zurück. (Bild modifiziert nach[2]: C.Font et al., https://doi.org/10.5194/gmd-12-5213-2019 [2]; Lizenz: cc-by 4.0)

Tausende Tonnen Wirkstoff werden also laufend über das Abwasser in die Flusssysteme, von dort ins Grundwasser, Trinkwasser in die Seen und schlussendlich ins Meer geleitet. Abbildung 2 skizziert diesen Weg in vereinfachter Form.

Die in Abbildung 2 dargestellten Schritte sind Basis des GLOBAL-FATE Modells, eines ersten Modells das darauf hinzielt weltweit aus dem Verbrauch von Arzneimitteln deren Eintrag undin die Gewässersysteme zu simulieren. Input sind Parameter wie Bevölkerungsdichte, Arzneimittelverbrauch pro Kopf, Metabolisierungs- und Ausscheidungsrate im Menschen und morphologische und hydrologische Parameter des Gewässersystems. Als Output wird angestrebt die Konzentration des Fremdstoffs und seine Verweilzeit in Gewässern zu prognostizieren. Die Leistungsfähigkeit des Modells wird am Beispiel des Diclofenac dargestellt: Die Simulierung für die Fluss-Systeme in Zentral- und Südeuropa und in anderen Ländern im Mittelmeerraum zeigt in weiten Bereichen mittlere Diclofenac-Konzentrationen, die über O,1 µg/l liegen - Ergebnisse, die mit direkten Messungen korrelieren (siehe unten) Abbildung 3.

Abbildung 3. Mit dem GLOBAL-FATE Modell erstellte Simulation der mittleren jährlichen Diclofenac-Konzentrationen in europäischen Gewässern und Ländern des Mittelmeerraums. An vielen Stellen überschreitet Diclofenac die Konzentration von 0,1 µg/l (= 100ng/l; rot). (Bild aus [2]: C.Font et al., https://doi.org/10.5194/gmd-12-5213-2019 [2]; Lizenz: cc-by 4.0)

Dieses benutzerfreundliche Multi-Platform Modell sollte es Wissenschaftern und auch Politikern ermöglichen die Auswirkungen eines veränderten Arzneimittelverbrauchs und/oder verbesserter Kläranlagen auf den Eintrag von Wirkstoffen in die Umwelt zu simulieren und Maßnahmen zu begleiten.

2015 hat die Europäische Kommission eine erste Watchlist für Arzneistoffe mit erheblichem Gefährdungspoteial für die aquatische Umwelt herausgegeben  und Bewerungskriterien festgelegt.  Diclofenac ist in dieser Liste vertreten, daneben u.a. 3 Antibiotika und ebenso viele Steroidhormone.

Basierend auf experimentell gemessenen Konzentrationen (über 120 000 Messwerten) aus insgesamt 1016 Publikationen und Datenquellen hat das Deutsche Umweltbundesamt 2016 eine Analyse und Bewertung des weltweiten Vorkommens von Arzneimitteln in der Umwelt herausgegeben [3].

Insgesamt wurden  713 Substanzen (plus 142 Metabolisierungsprodukte) geprüft. Von allen Substanzen wurde Diclofenac am häufigsten (nämlich in insgesamt 50 Ländern) in der Umwelt - d.i. im Oberflächen-, Grund- und Trinkwasser - nachgewiesen. Länderbasierte Mittelwerte zeigten in vielen Regionen Konzentrationen über 0,1 µg/l (die sogenannte Predicted No Effect Concentration, siehe unten). Die höchste Durchschnittskonzentration - 1,55 µg/l - trat in Pakistan auf. Betrachtet man die höchsten, in jeweiligen Regionen gemessenen Konzentrationen, so übersteigen diese - wie Abbildung 4 zeigt - in einer Reihe von Ländern die 1µg/l Marke.

Abbildung 4. Höchste Konzentrationen von Diclofenac in Oberflächenwässern übersteigen in einigen Ländern 1µg/l. Dies kann auf ökotoxikologische Probleme an diesen Messstellen hinweisen. (Bild aus Bericht des Deutschen Umweltbundesamtes, Texte 67/2016 [3])

Diclofenac findet sich auch in österreichischen Gewässern. Eine rezente Studie des Österreichischen Umweltbundesamtes hat 90 verschiedene Arzneimittel-Wirkstoffe in insgesamt 2o repräsentativen Fließgewässern und Abwässern aus allen Bundesländern  analysiert, wobei die Probennahme zu jeweils zwei Zeitpunkten erfolgte.

Diclofenac konnte in allen Wasserproben nachgewiesen werden, in 9 der Gewässer in Konzentrationen um und über 0,1 µg/l. Besonders hohe Konzentrationen - um 1,0 µg/l traten an der Messstelle der Wulka (Burgenland) auf, die einen hohen Anteil an Abwasser mit sich führt. Abbildung 5.

Abbildung 5. Diclofenac Konzentrationen in österreichischen Fließgewässern. An den einzelnen Messstellen wurden 2 mal Proben genommen: im Herbst/Winter 2017 und im Frühjahr 2018. Die hohe Konzentration um 1,0 µg/l in der Wulka erklärt sich aus deren hohen Abwasseranteil. Die Bewertung eines No-Toxic-Effect Levels (rote Linie) wurde hier bei 0,05 µg/l festgesetzt.(Bild aus [4], GZÜV Sondermessprogramm 2017/2018)

Können diese Konzentrationen ein ökotoxikologisches Risiko darstellen?

Aus standardisierten Laborexperimenten mit Organismen wie z.B. Daphnien, Fischen oder Pflanzen wurde eine sogenannte Predicted No Effect Concentration (PNEC) von 0,1 µg/l für Diclofenac bestimmt (EU 2013), d.i. eine Konzentration bei deren Einhaltung man davon ausgehen kann, dass keine Schädigung des aquatischen Ökosystems zu erwarten ist.

Sowohl die Simulierung des GLOBAL-FATE Modells (Abbildung 3) als auch die Messwerte aus den 50 Ländern (Abbildung 4, 5)  zeigen, dass in vielen Ländern die No Effect Konzentration von 0,1 µg/l überschritten wird und es an den entsprechenden Messstellen zu einer Gefährdung der Ökosysteme kommen kann.

Der Eintrag von Diclofenac in Abwasser und Fließwasser führt in weiterer Folge zu messbaren Konzentrationen im gesamten Wasserkreislauf - in Grundwasser, Trinkwasser, Seen- und Meereswasser und im Sediment. Aus dem Wasser gelangt Diclofenac in Meerestiere - in diversen Fischen und in Muscheln wurden Konzentrationen bis über 20 µg/kg nachgewiesen [5]. Aus dem Boden /Wasser dringt Diclofenac in Pflanzen ein - in Tomaten aus Zypern wurden rund 12 µg/kg gemessen, in Melanzani aus Jordanien waren es < 20 µg/kg [5]. Über die Nahrungskette kann sich Diclofenac dann über die gesamte Biosphäre ausbreiten und sensitive Spezies und Ökosysteme negativ beeinflussen.

Es ist offensichtlich, dass der Eintrag von Diclofenac in die Umwelt verringert werden soll. Am einfachsten kann dies durch eine reduzierte Anwendung des Schmerzmittels erfolgen, vor allem in der Form von Salben und Gelen, die ja bei bescheidener Wirksamkeit [1] einen besonders hohen Eintrag in das Wassersystem verursachen.


[1] Inge Schuster, 27.06.2020: Auf die Haut geschmiert - wie gelangt Voltaren ins schmerzende Gelenk?

[2] C.Font et al., GLOBAL-FATE (version 1.0.0): A geographical information system (GIS)-based model for assessing contaminants fate in the global river network. Geosci. Model Dev., 12, 5213–5228, 2019. DOI:10.5194/gmd-12-5213-2019

[3] Tim aus der Beek et al., Pharmaceuticals in the environment: Global occurrence and potential cooperative action under the Strategic Approach to International Chemicals Management (SAICM). Umweltbundesamt Texte 67/2016

[4] Manfred Clara, Christina Hartmann und Karin Deutsch: Arzneimittelwirkstoffe und Hormone in Fließgewässern. GZÜV Sondermessprogramm 2017/2018 (Bundesministerium für Nachhaltigkeit und Tourismus, Herausgeber)

[5] Palanivel Sathishkumar et al., Occurrence, interactive effects and ecological risk of diclofenac in environmental compartments and biota - a review. Science of the Total Environment 698 (2020) 134057


 

inge Thu, 06.08.2020 - 23:46

Das Puzzle des Lebens: Vom Bau einer synthetischen Zelle

Das Puzzle des Lebens: Vom Bau einer synthetischen Zelle

Do, 30.07.2020 - 05:13 — Kerstin Göpfrich

Kerstin GöpfrichIcon BiologieDie Entstehung von Leben auf der Erde beweist: Belebte Materie kann aus unbelebten Bausteinen hervorgehen. Doch ist es möglich, diesen Prozess im Labor nachzuvollziehen? Können einzelne Moleküle zu einer künstlichen Zelle zusammengesetzt werden? Die Biophysikerin Dr. Kerstin Göpfrich (Gruppenleiterin am MPG für Medizinische Forschung, Heidelberg) und ihr Team entwerfen mit DNA-Origami, der Faltkunst in der Nanowelt, zelluläre Komponenten. Anschließend setzen sie diese und andere Molekularbausteine in zellähnlichen Kompartimenten zusammen. Stück für Stück soll so eine künstliche Zelle entstehen, die zukünftig auch im lebenden Organismus wichtige Aufgaben übernehmen könnte.*

„Was ich nicht nachbauen kann, kann ich nicht verstehen.“ Was der Nobelpreisträger Feynman über physikalische Systeme sagt, gilt auch für lebende Zellen. Doch der Bau einer künstlichen Zelle aus unbelebten Bausteinen blieb lange Gegenstand philosophischer Spekulation – zu komplex erschien das Experiment.

Vereinfachung heißt das Erfolgsrezept der synthetischen Biologie. In dem sogenannten Bottom-up Ansatz werden nur die wichtigsten zellulären Bausteine isoliert und je nach Funktion in zellähnlichen Kompartimenten zusammengesetzt. So entstehen minimale Funktionseinheiten, die eine einzelne Eigenschaft einer lebenden Zelle nachahmen. Sie können beispielsweise Licht in chemische Energie umwandeln, auf Reize reagieren oder sich fortbewegen [1]. Doch der Zusammenbau der Module zu einer voll funktionsfähigen synthetischen Zelle bleibt bislang Vision – zu schwierig ist die Isolation einiger Bauteile, zu komplex ihre Wechselwirkung und ihr Zusammenbau.

De novo synthetische Biologie

Vielleicht hilft es, die Perspektive zu wechseln: Natürlich können wir versuchen, wie Archäologen die Bruchstücke akribisch zusammenzusetzen, um das Original bestmöglich zu rekonstruieren. Tatsächlich mag es aber einfacher sein, neue Werkzeuge und neue Materialien zu verwenden. Aus einem Replikat wird eine Eigenkonstruktion, die die Grundeigenschaften der Zelle nachahmt. Abbildung 1.

Abbildung 1. Stück für Stück setzten wir das Puzzle des Lebens neu zusammen. Nicht jedes Teil passt – deshalb verwenden wir neben natürlichen auch künstliche Bausteine für den Bau einer synthetischen Zelle. © Max-Planck-Institut für medizinische Forschung/Göpfrich & Gödel.

Denn Leben, so definiert wenigstens die NASA, ist Selbst-Replikation mit Evolution. Beschrieben werden also Funktionen und nicht die chemische Natur der Bausteine. Das gibt Freiraum für kreative Lösungen, wie wir sie verfolgen:

Mit einem de novo Ansatz wollen wir eine synthetische Zelle von Grund auf neu aufbauen. Das Ergebnis wären zelluläre Roboter, die ihre Umgebung wahrnehmen, eine Antwort berechnen und ausführen – als Bindeglieder zwischen der belebten und der unbelebten Welt.

Doch welche Werkzeuge und welche Materialien eignen sich für den Bau zellulärer Komponenten?

Programmierbare Präzisionswerkzeuge müssen es sein, die flexibel hohe Stückzahlen an molekularen Maschinen bereitstellen können, passgenau für eine Vielzahl verschiedener Funktionen. Ein geeignetes Werkzeug, glauben wir, ist DNA-Origami, die Faltkunst mit DNA.

DNA-Origami

DNA-Origami verwendet DNA nicht als Erbinformationsspeicher, wie die Natur, sondern als Baumaterial. Die spiralförmige DNA-Doppelhelix wird entwunden und in Einzelstränge zerlegt. Ein langer Einzelstrang DNA kann nun durch viele kurze, eigens hergestellte DNA-Sequenzen in die gewünschte Form gefaltet werden. Tatsächlich werden aus einer 3D-Zeichnung am Computer die nötigen DNA Sequenzen errechnet und schließlich im Labor zusammengemischt. In einem Tropfen Wasser entstehen nach Erhitzen Billionen von nanoskaligen Kopien der entworfenen Form. Was nach Magie klingt, ist einfache Physik – Energieminimierung. Die DNA findet sich so zusammen, wie sie am besten zusammenpasst. Abbildung 2.

Abbildung 2. DNA-Origami verwendet einen langen Einzelstrang DNA (schwarz), der durch kurze DNA Fragmente (blau) in die gewünschte Form gefaltet wird. © Max-Planck-Institut für medizinische Forschung / Göpfrich

Durch präzise chemische Funktionalisierung werden passive Formen zu funktionalen Einheiten. So haben wir unter anderem künstliche Membranporen aus DNA hergestellt - Komponenten, die sich oft nur schwer aus Zellen isolieren lassen [2].

DNA als Bindeglied

Doch nicht immer müssen es komplizierte Bauwerke sein: Schon eine einzelne DNA-Doppelhelix mit chemischer Modifikation genügt, um zwei zelluläre Komponenten miteinander zu verknüpfen. Das ist hilfreich, denn oft verwendet die Natur nicht ein oder zwei, sondern Hunderte von Bindegliedern, zum Beispiel, um das Zellskelett an die Zellmembran anzuheften. Alle zu isolieren und in synthetische Zellen einzubringen, scheint schier unmöglich. Deshalb haben wir – im wahrsten Sinne des Wortes – eine Abkürzung gewählt und DNA als künstliches Bindeglied verwendet [3]. Die Bindung über die DNA-Doppelhelix lässt sich als Reaktion auf äußere Einflüsse, zum Beispiel eine Änderung der Temperatur, kontrolliert anheften oder lösen.

Zusammenbau in einer zellartigen Hülle

Schließlich gilt es, die verschiedenen konstruierten Komponenten innerhalb eines membranumschlossenen Kompartiments zusammenzusetzen. Klar ist: Der Prozess bestimmt das Ergebnis. Geschüttelt, nicht gerührt – wie beim guten Cocktail.

Das Vorgehen beim Zusammenbau der Komponenten einer synthetischen Zelle will gut überlegt sein, denn besonders die Zellhülle ist fragil. Wenn die dünne Fettschicht einmal ausgebildet ist, gestaltet sich der Einbau von Komponenten schwierig. Deshalb haben wir eine Methode entwickelt, die dem Cocktail-Shaking zumindest augenscheinlich gleicht: Alle Komponenten werden in ein Reagenzglas geschichtet, durch Schütteln entsteht eine Tröpfchenemulsion, die die zellulären Komponenten einkapselt. An der Grenzschicht der Tröpfchen bildet sich eine künstliche Zellhülle aus, durch Aufbrechen der Emulsion können die synthetischen Zellen in eine wässrige Umgebung überführt werden. Auf diese relativ einfache Art und Weise gelingt der Einbau von vielzähligen verschiedenen Komponenten [4]. Auch Mikrofluidik und 3D-Druck erweisen sich als hilfreiche Werkzeuge. Mit diesen an der Hand können wir uns der nächsten Funktion annehmen: einem Informationsspeicher für künstliche Zellen.

Ausblick

Wann gelingt das Kunststück Leben, Selbstreplikation mit Evolution?

Auf der Erde dauerte es Milliarden Jahre. Anstatt auf eine Verkettung glücklicher Zufälle zu warten, verfolgt die synthetische Biologie klare Ziele. Das lässt hoffen, dass die Konstruktion eines lebendigen Modellsystems nicht mehr lange Vision bleibt.

Eine alte Frage erlangt neue Bedeutsamkeit: Was ist Leben und könnte es auch anders sein?


1. Göpfrich, K.; Platzman, I.; Spatz, J. P. Mastering Complexity: Towards Bottom-up Construction of Multifunctional Eukaryotic Synthetic Cells. Trends in Biotechnology 36(9), 938–951 (2018), open access.

2. Göpfrich, K.; Li, C.-Y.; Ricci, M.; Bhamidimarri, S. P.; Yoo, J.; Gyenes, B.; Ohmann, A.; Winterhalter, M.; Aksimentiev, A.; Keyser, U. F. Large-Conductance Transmembrane Porin Made from DNA Origami. ACS Nano 10(9), 8207-8214 (2016), open acces (cc-by livense)

3. Jahnke, K.; Weiss, M.; Frey, C.; Antona, S.; Janiesch, J.-W.; Platzman, I.; Göpfrich, K;*, Spatz, J. P.* Programmable Functionalization of Surfactant-Stabilized Microfluidic Droplets via DNA-Tags. Advanced Functional Materials 29 (2019)

4. Göpfrich, K.; Haller, B.; Staufer, O.; Dreher, Y.; Mersdorf, U.; Platzman, I.; Spatz, J. P. One-Pot Assembly of Complex Giant Unilamellar Vesicle-Based Synthetic Cells. ACS Synthetic Biology 8, 937–947 (2019). open access (cc-by license)


*Der im Jahrbuch 2019 der Max-Planck Gesellschaft unter dem Titel " Das Puzzle des Lebens: Vom Bau einer synthetischen Zelle" erschienene Artikel https://www.mpg.de/14230029/mpimf_jb_2019?c=153095) wurde mit freundlicher Zustimmung der Autorin und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt und erscheint in praktisch unveränderter Form.


Weiterführende Links

Max-Planck-Institut für medizinische Forschung (Heidelberg): https://www.mpg.de/forschung/institute/medizinische-forschung

Kerstin Göpfrich, Ilia Platzman & Joachim P. Spatz: Aus dem Baukasten der molekularen Ingenieure. Auf dem Weg zur synthetischen Zelle, erschienen im Forschungsmagazin Ruperto Carola der Universität Heidelberg (2019).

Kerstin Göpfrich: Microfluidics for bottom-up assembly of synthetic cells. Video 2:01 min. (2018). https://www.youtube.com/watch?v=cO3AVYF1Fpc&feature=youtu.be. Nach: K. Göpfrich, I. Platzman, J. P. Spatz: Mastering Complexity: Towards Bottom-up Construction of Multifunctional Eukaryotic Synthetic Cells, Trends in Biotechnology, 26, 2018, https://doi.org/10.1016/j.tibtech.201...

Petra Schwille, 22.08.2017: Zelle 0:0 – Was braucht es, um zu leben? Video 13 min. https://www.br.de/mediathek/video/prof-dr-petra-schwille-zelle-00-was-braucht-es-um-zu-leben-av:584f8f883b46790011a483ea

Artikel im ScienceBlog:


 

inge Wed, 29.07.2020 - 20:35

Es genügt nicht CO₂-Emissionen zu limitieren, auch der Methanausstoß muss reduziert werden

Es genügt nicht CO₂-Emissionen zu limitieren, auch der Methanausstoß muss reduziert werden

Do, 23.07.2020 — IIASA

IIASA LogoIcon GeowissenschaftenEin internationales, im Rahmen des Global Carbon Project arbeitendes Forscherteam, an dem auch Forscher des IIASA beteiligt sind, hat festgestellt, dass die globalen Methanemissionen im letzten Jahrzehnt um 9% (oder ungefähr 50 Millionen Tonnen) gestiegen sind und dass für den größten Teil dieses Anstiegs vom Menschen verursachte Emissionen verantwortlich sind. Diese Emissionen werden insbesondere durch die Landwirtschaft und durch die Verwendung fossiler Brennstoffe verursacht.*

Methan (CH4) ist nach Kohlendioxid (CO2) das am zweithäufigsten vorkommende anthropogene Treibhausgas. Seine Treibhauswirkung ist - bezogen auf einen Zeitraum von 100 Jahren - pro kg 28-mal höher als die von CO2. Seit Beginn der industriellen Revolution sind die Methankonzentrationen in der Atmosphäre um mehr als auf das Zweieinhalbfache gestiegen. Die Ursache für diesen Anstieg der Emissionen hängt weitgehend mit menschlichen Aktivitäten zusammen.

Nach einer Phase der Stabilisierung in den frühen 2000er Jahren haben internationale Messstationen einen weiteren kontinuierlichen Anstieg der Methankonzentrationen beobachtet, der sich dann ab 2014 zu beschleunigen begann. Abbildung 1.

Abbildung 1. Global gemittelter Anstieg von Methan in der Atmosphäre. Daten von 4 Messprogrammen: National Oceanic and Atmospheric Administration (NOAA), Advanced Global Atmospheric Gases Experiment (AGAGE), Commonwealth Scientific and Industrial Research Organisation (CSIRO) und University of California, Irvine (UCI). Abb. aus [1] "The Global Methane Budget 2000–2017"; https://doi.org/10.5194/essd-12-1561-2020 (Lizenz: cc-by 4.0)

Derzeit steigen die Methankonzentrationen mit einer Rate von etwa 8 - 12 ppb/Jahr (1 ppb = 1Teilchen pro 1 Milliarde Teilchen; zum Vergleich CO2 -Konzentrationen werden in ppm - parts per Million - angegeben; Anm. Redn.). In den Jahren 2017 und 2018 lag die Zunahme von Methan in der Atmosphäre bei 8,5 und 10,7 ppb /Jahr, dies machte sie zu den stärksten Jahren seit 2000 .

Sofern in den kommenden Jahren nicht dringend Maßnahmen zur Reduzierung von Methan ergriffen werden, so wird - laut dem umfassenden Bericht des Global Carbon Project [1]- dieser Trend uns künftig Szenarien bringen, die mit den Zielen des Pariser Abkommens unvereinbar sind. Die im Bericht dargelegte Einschätzung basiert auf dem gesamten aktuellen Wissen über alle Methanquellen, von den größten (den Feuchtgebieten) bis zu den kleinsten (den Hydraten) Quellen. Die Arbeit stützte sich auf die Beiträge von mehr als 80 Wissenschaftlern aus verschiedenen Institutionen, einschließlich des IIASA; eine große Anzahl wissenschaftlicher Fachgebiete sind darin vertreten, um die Vielfalt der Quellen von Methanemissionen in geeigneter Weise behandeln zu können.

Quellen und Senken

„Die Identifizierung der Quellen bottom-up (d.i. die Summe aller Quellen, die aus Inventaren und Modellen geschätzt wurden; Anm. Redn.) und die Verifizierung dieser Quellen top-down durch atmosphärische Messungen ist ein wichtiger erster Schritt, um wirksame zukünftige Strategien zur Minderung der Methanemissionen zu finden“, erklärt die Koautorin Lena Höglund-Isaksson, eine Forscherin des IIASA "Programms für Luftqualität und Treibhausgase".

Dem Bericht zufolge sind rund 60% der Methanemissionen auf menschliche Aktivitäten zurückzuführen. Die Autoren betonen allerdings, dass diese 60% ein ungefährer Wert sind, da Beiträge aus natürlichen Methanquellen (aus überfluteten Gebieten, Seen, Stauseen, geologischen Formationen, von Termiten hervorgerufen, aus Hydraten, etc.) immer noch ziemlich schwierig kalkulierbar sind. Abbildung 2 gibt eine Übersicht über das globale Methan Budget im Jahr 2017.

Abbildung 2. Eine Abschätzung des globalen Methanbudgets für das Jahr 2017 in Tg/Jahr (1 Tg = 1 Million Tonnen; Anm. Redn.). Anthropogene (rot) und natürliche (grün) Quellen und Senken von Methan. Chemische und biologische Prozesse in Luft und Boden verbrauchen Methan, sind also Senken, wobei etwa 90 % des Methans durch Oxidation mit dem Hydroxyl-Radkal. aus der Atmosphäre entfernt wird. (Bild: http://www.globalcarbonproject.org/methanebudget; Lizenz cc-by-sa)

Art der anthropogenen Methan Emissionen

Die anthropogenen Methan Emissionen nehmen jedoch weiter zu und teilen sich in den globalen Emissionsinventaren (d.i. den Bestandsaufnahmen der Emissionssituation; Anm. Redn.) in folgender Weise auf:

  • 30% gehen auf die Tierhaltung zurück
  • 22% auf die Förderung von Erdöl und Erdgas
  • 18% auf die Entsorgung fester und flüssiger Abfälle
  • 11% auf den Kohlebergbau
  • 8% auf den Anbau von Reis
  • 8% auf das Verbrennen von Biomasse und Biokraftstoffen
  • plus ein Restbetrag, der sich auf Verkehr und Industrie bezieht.

Regionale Unterschiede

Die Methanemissionen unterscheiden sich auch regional.

Abbildung 3 gibt einen globalen Überblick über die wichtigsten Quellen von Methanemissionen.

Abbildung 3. Weltkarte mit den größten natürlichen und anthropogenen Quellen der Methanemissionen (Bild: Saunois et al. 2020, ESSD (Fig 3). Lizenz cc-by 4.0 )

60% des Anstiegs der Methanemissionen sind auf tropische Regionen zurückzuführen und der Rest auf mittlere Breiten. In der Arktis führen steigende Temperaturen dazu, dass der nördliche Permafrost schmilzt und Tauwasserseen entstehen, was laut Modellergebnissen zu erhöhten Methanemissionen im 21. Jahrhundert führen sollte. Die Forscher kommen allerdings zu dem Schluss, dass mit den auf Messungen der atmosphärischen Konzentrationen basierenden Methoden bis jetzt noch kein Anzeichen in diese Richtung detektiert wird.

Die drei hauptsächlich für den Anstieg von Methan verantwortlichen Regionen sind Afrika, Asien und China mit einem Anstieg von jeweils 10-15 Mt. Nordamerika dürfte etwa 5-7 Mt beitragen, wovon 4-5 Mt aus den Vereinigten Staaten stammen. Afrika und Asien (ohne China) tragen maßgeblich zum Anstieg der aus Landwirtschaft und Abfallswirtschaft stammenden Emissionen bei. In China und Nordamerika dominiert der Anstieg der Emissionen aus dem Sektor der fossilen Brennstoffe. Europa ist die einzige Region der Welt, in der die Emissionen anscheinend gesunken sind: je nach verwendeter Schätzmethode zwischen -4 und -2 Mio. t. Dieser Rückgang ist hauptsächlich auf die Entwicklungen im Agrarsektor und auf die Verlagerung des Abfalls weg von den Deponien zurückzuführen.

Die Autoren betonen, dass es wichtig ist, den Anstieg der Methankonzentrationen in der Atmosphäre weiterhin genau zu überwachen und die Emissionsquellen besser zu verstehen.

„Es ist unbedingt erforderlich, die Anstrengungen zur Quantifizierung der globalen Methanbilanz in denselben regelmäßigen Intervallen wie für CO2 fortzusetzen, da die Reduzierung der Methanemissionen dem Klima schnell zugute kommen kann. Wenn wir deutlich unter 2° C Temperaturerhöhung bleiben und die Ziele des Pariser Abkommens erreichen wollen, sollten wir uns nicht damit zufrieden geben, nur die CO2-Emissionen zu begrenzen, sondern auch Methan reduzieren “, schließt die Hauptautorin Marielle Saunois, eine Forscherin am Labor für Klima und Umweltwissenschaften (LSCE, CEA-CNRS-UVSQ) in Frankreich.

Zusätzlich zu dem vom Global Carbon Project erstellten Bericht wurden zwei Forschungsarbeiten in den Zeitschriften Environmental Research Letters und Earth System Science Data veröffentlicht.


[1] Saunois M, Stavert AR, Poulter B, Bousquet P, Canadell JG, Jackson RB, Raymond PA, et al. (2020). The Global Methane Budget 2000–2017. Earth System Science Data DOI: 10.5194/essd-12-1561-2020


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 15. Juli 2020 auf der IIASA Webseite unter dem Titel: " Limiting CO2 emissions is not enough, methane must also be reduced" erschienen (https://iiasa.ac.at/web/home/about/news/200715-the-global-methane-budget.html). IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch passende Abbildungen aus [1] und Legenden ergänzt.


Einige Artikel über Methan Emissionen im ScienceBlog


 

inge Thu, 23.07.2020 - 00:00

Fortschritte auf dem Weg zu einem sicheren und wirksamen Coronaimpfstoff - Gepräch mit dem Leiter der NIH-COVID-19 Vakzine Entwicklung

Fortschritte auf dem Weg zu einem sicheren und wirksamen Coronaimpfstoff - Gepräch mit dem Leiter der NIH-COVID-19 Vakzine Entwicklung

Do, 16.07.2020 — Francis S. Collins

Francis S. CollinsIcon MedizinBereits am Beginn der COVID-19 Pandemie, im März d.J., hat Francis S. Collins, Direktor der US-National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project", über die Aktivitäten der NIH zur Entwicklung von Impfstoffen gegen SARS-CoV-2 berichtet [1]. Basierend auf der Strukturanalyse des Spike-Proteins, mit dem das Virus an die Wirtszellen andockt, haben die NIH in Zusammenarbeit mit der Biotech-Firma Moderna (Cambridge, MA) in Rekordzeit einen spezifischen Impfstoff entwickelt, dessen klinische Testung in Phase 1 bereits im März begonnen hat [2]. Die Ergebnisse geben Anlass zu (vorsichtigem) Optimismus: der Impfstoff ist verträglich und hat in allen Probanden die gewünschte Immunantwort erzeugt. Nun soll in wenigen Tagen die klinische Testung dieses Impfstoffes - in Phase 3 - an etwa 30 000 Probanden beginnen. Zahlreiche Fragen zu diesem und auch zu anderen Impfstoffen werden im Gespräch mit John Mascola, Direktor am NIH-Vaccine Research Center (VRC) und Leiter der COVID-19 Vakzine Entwicklung beantwortet.*

Ein sicherer und wirksamer Impfstoff ist unabdingbar, um die durch COVID-19 verursachte Pandemie zu beenden. Auf dem Weg zu einem solchen Impfstoff macht die biomedizinische Forschung täglich Fortschritte, ob es sich um die in der Entwicklung innovativer Technologien handelt oder um die Suche nach schnelleren Testungen im Menschen. Erst in dieser Woche hat das NIH-National Institute of Allergy and Infectious Diseases (NIAID) ein neues Netzwerk für klinische Studien eingerichtet, das Zehntausende von Freiwilligen rekrutieren wird, um an diesen in groß angelegten klinischen Studien verschiedene COVID-19-Impfstoff-Kandidaten zu testen.

Unter den Impfstoffen, die den Entwicklungsprozess schnell durchlaufen, gibt es einen, der vom Dale and Betty Bumpers Vaccine Research Center (VRC) des NIAID in Zusammenarbeit mit Moderna, Inc., Cambridge, MA, entwickelt wurde. Um einen schnellen Überblick über die COVID-19-Impfstoffforschung zu geben, kann ich mir Niemanden besseren vorstellen als Dr. John Mascola vom NIH, der Direktor des VRC ist. Unser aktuelles Gespräch hat per Videokonferenz stattgefunden - John war dabei in seinem Haus in Rockville, MD und ich an meinem Platz im nahe gelegenen Chevy Chase. Abbildung 1.

Im Folgenden ist ein komprimiertes Transkript unseres Gesprächs (Anm. Redn.: zur Gliederung des sehr langen Gesprächs wurden von der Redn. einige Untertitel eingefügt.).

Abbildung 1.Gespräch per Videokonferenz. Links: Francis S. Collins, Direktor der NIH. Rechts: John Mascola, Direktor des Vaccine Research Center (VRC) des NIAID (NIH).

Von der Funktion von Impfstoffen…

Collins: Impfstoffe gibt es seit Edward Jenner und den Pocken im späten 18. Jahrhundert. Wie aber funktioniert ein Impfstoff, um jemanden vor Infektionen zu schützen?

Mascola: Das Immunsystem funktioniert, indem etwas als fremd erkennt und darauf reagiert. Impfstoffe sind von dem Faktum abhängig, dass das Immunsystem, wenn es einmal ein fremdes Protein, einen fremden Stoff gesehen hat, bei einer zweiten Begegnung viel rascher reagiert. Diesen Prinzipien entsprechend impfen wir mit einem Teil eines viralen Proteins, das vom Immunsystem als fremd erkannt wird. Die Reaktion auf dieses virale Protein oder Antigen ruft spezialisierte T- und B-Zellen - sogenannte Gedächtniszellen - auf den Plan, die sich an die Begegnung erinnern. Ist man dem Virus dann tatsächlich ausgesetzt, ist das Immunsystem bereits vorbereitet. Es reagiert so schnell, dass das Virus beseitigt ist, bevor man erkrankt.

…zu ihrer Entwicklung

Collins: Welche Schritte gibt es in der Entwicklung eines Impfstoffs?

Mascola: Ganz allgemein: man kann keinen Impfstoff herstellen, ohne etwas über das Virus zu wissen. Wir müssen seine Oberflächenproteine kennen. Wir müssen verstehen, wie das Immunsystem das Virus sieht. Sobald dieses Wissen vorhanden ist, können wir ziemlich schnell einen Impfstoffkandidaten im Labor herstellen.

Anschließend transferieren wir den Impfstoff in eine Produktionsanlage, eine sogenannte Pilotanlage, die Material in klinischer Reinheit für Testungen herstellt. Sobald ausreichend Testmaterial verfügbar ist, führen wir eine Erststudie am Menschen durch, häufig in unserer Impfklinik im NIH Clinical Center.

Wenn diese Tests erfolgversprechend aussehen, besteht der nächste große Schritt darin, einen Partner aus der Pharmaindustrie zu finden, um den Impfstoff in großem Maßstab herzustellen, die Zulassung durch die Behörde einzuholen und ihn kommerziell zu vertreiben. Normalerweise benötigt dies einige Zeit - vom Anfang bis Ende des Prozesses sind es oft fünf oder mehr Jahre.

Collins: Bei der jetzigen globalen Krise können wir offensichtlich keine fünf Jahre zuwarten. Erzählen Sie uns, bitte, welche Aktivitäten das VRC gestartet hat, sobald man von dem Ausbruch in Wuhan, China, Kenntnis erhielt.

Ein neuartiger Impfstoff auf Nukleinsäurebasis…

Mascola: Das ist eine faszinierende Geschichte. Wir hatten mit NIAID-Direktor Dr. Anthony Fauci und unseren Kollegen darüber gesprochen, wie wir uns auf die nächste Pandemie vorbereiten können. Weit oben auf unserer Liste standen Coronaviren, über die wir bereits bei früheren Ausbrüchen von SARS und MERS [anderen durch Coronaviren verursachten Atemwegserkrankungen] gearbeitet hatten. Also untersuchten wir Coronaviren und konzentrierten uns auf das einzigartige Spike-Protein, das ihre Oberflächen krönt. Wir haben einen Impfstoff entwickelt, der das Spike-Protein dem Immunsystem präsentiert. Abbildung 2.

Abbildung 2. Mit dem Spike-Protein , das seine Oberfläche "krönt", dockt das SARS-CoV-2 Virus an die Wirtszellen im menschlichen Organismus an und infiziert diese. Im Hintergrund ein Virusmodell mit dem Spikeprotein (rot), im Vordergrund die 3D- Struktur des Spikeproteins. (Bild: NIH-Image Gallery)

Collins: Mit dem Wissen, dass das Spike-Protein wahrscheinlich Ihr Antigen sein kann, wie sind Sie bei der Entwicklung des Impfstoff vorgegangen?

Mascola: Unser Ansatz war ein Impfstoff auf Nukleinsäurebasis. Eine solcher, auf genetischem Material - entweder DNA oder RNA - basierender Typ eines Impfstoffs kann besonders schnell für erste Testungen in die Klinik gebracht werden.

…der für das Spike-Protein kodiert

Als wir von dem Ausbruch in Wuhan erfuhren, haben wir einfach auf die Nukleinsäuresequenz von SARS-CoV-2, dem neuartigen COVID-19 verursachenden Virus, zugegriffen. Der Großteil der Sequenz befand sich auf einem Server chinesischer Forscher. Wir haben uns die für das Spike-Protein kodierende Sequenz angesehen und diese in einen RNA-Impfstoff eingebaut (ein sogenanntes in silico Impfstoffdesign). Aufgrund unserer Erfahrung mit dem ursprünglichen SARS-Virus in den 2000er Jahren wussten wir, dass ein solcher Ansatz funktionierte. Wir haben das Impfstoffdesign einfach nur der Sequenz des Spike-Proteins von SARS-CoV-2 entsprechend verändert. Buchstäblich innerhalb weniger Tage haben wir begonnen den Impfstoff im Labor herzustellen.

Gleichzeitig haben wir mit dem Biotechnologieunternehmen Moderna zusammengearbeitet, das personalisierte Krebsimpfstoffe herstellt. Von der Verfügbarkeit der Sequenz Anfang Januar bis zum Beginn der ersten Studie am Menschen hat es dann etwa 65 Tage gedauert. 

Collins: Wow! Wurde jemals ein Impfstoff in 65 Tagen entwickelt?

Mascola: Ich glaube nicht. Es gibt Vieles, was erstmalig bei COVID ist - die Entwicklung von Impfstoffen gehört dazu.

Collins: Was war eigentlich in der Spritze, welche in der Phase-1-Studie die Freiwilligen erhielten?

Mascola: Die Spritze enthielt die Messenger-RNA (mRNA) des Spike-Proteins - d.i. die kodierte Anweisungen zu seiner Biosynthese - verpackt in eine Lipid-Nanopartikel-Hülle. Diese Verpackung schützt die mRNA, die weniger stabil als DNA ist und im Proberöhrchen von Enzymen abgebaut werden kann. Darüber hinaus ermöglicht dieses Schutzpartikel die Injektion in den Muskel und erleichtert die Aufnahme der mRNA in die Muskelzellen. Die Zellen übersetzen die mRNA dann in Spike-Proteine, das Immunsystem erkennt diese und löst eine Immunantwort aus. Abbildung 3.

Abbildung 3. Der Impfstoffkandidat des NIH-Vaccine Research Centers in Zusammenarbeit mit dem Biotechunternehmen Moderna. Ein nicht-infektiöses Stück mRNA, das für das virale Spike Protein kodiert, wird in den Muskel injiziert, löst die Produktion des Spike-Proteins aus, welches die Produktion von neutralisierenden Antikörpern triggert. (Bild: https://twitter.com/nih/status/1278697208548782081 )

Collins: Wissen Muskelzellen, wie sie dieses Protein auf ihre Zelloberflächen bringen können, wo das Immunsystem es sehen kann? Mascola: Mit einer richtig konstruierten mRNA machen sie das. Wir haben mit der DNA diesbezüglich lange Erfahrung. Verglichen mit der DNA hat die mRNA den Vorteil, dass sie nur in die Zelle gelangen muss und nicht in den Zellkern. Es hat uns jedoch etwa ein Jahrzehnt gekostet, um herauszufinden, wie die Zelle die mRNA sehen kann, ohne sie zu zerstören und tatsächlich wie ein Stück normaler mRNA zur Umwandlung in ein Protein benutzt. Da dies geklärt ist, ist es nun ziemlich einfach, jeden spezifischen Impfstoff herzustellen.

Collins: Das ist wirklich ein bemerkenswerter Zug der Wissenschaft. Während es so aussieht, als ob dies alles in einem Augenblick, in 65 Tage, geschehen ist, ist das Verstehen wie Zellen mit mRNA umgehen, aus jahrelanger Grundlagenforschung hervorgegangen.

Wie ist der aktuelle Status des Impfstoffs?

Mascola: Vorläufige Ergebnisse aus der Phase-1-Studie sind sehr ermutigend. Eine in Vorbereitung befindliche Veröffentlichung wird in Kürze aufzeigen, dass der Impfstoff sicher war und eine sehr robuste Immunantwort auf das Spike-Protein ausgelöst hat. Wir haben speiziell nach neutralisierenden Antikörpern gesucht, die sich an den Spike anlagern und verhindern, dass das Virus an eine Zelle bindet. In der Impfstoffentwicklung gibt es ein allgemeines Prinzip: Wenn das Immunsystem neutralisierende Antikörper erzeugt, ist dies ein sehr gutes Zeichen.

Collins: Auch wenn dies gute Anzeichen sind, beweist dies noch nicht, dass dieser Impfstoff auch funktionieren wird. Was muss man noch wissen?

Mascola: Die einzige reale Möglichkeit herauszufinden, ob ein Impfstoff funktioniert oder nicht funktioniert, besteht darin, ihn an Menschen zu testen. Die klinischen Studien sind in die Phasen 1, 2 und 3 unterteilt.

Phase 1 zur Beurteilung der Sicherheit wurde bereits durchgeführt.

Phase 2 ist eine umfassendere Evaluierung von Sicherheit und Immunantwort. Diese Studie läuft noch und hat 500 oder 600 Personen rekrutiert.

Der Beginn der Phase-3-Studie ist im Juli geplant. Auch das ist unglaublich schnell, wenn man bedenkt, dass wir bis Januar überhaupt nicht wussten, dass dieses Virus existiert. Collins: Wie viele Personen brauchen Sie für die Phase-3-Studie? Mascola: Wir denken an 20.000 oder 30.000.

Collins: Und eine Hälfte erhält den Impfstoff und die andere Hälfte ein Placebo?

Mascola: Manchmal kann es anders gemacht werden, aber der klassische Ansatz ist halb Placebo, halb Impfstoff.

Andere Impfstoffe

Collins: Wir haben nun über den Nukleinsäure-Impfstoff von VRC-Moderna gesprochen. Aber es gibt auch andere, die ziemlich schnell unterwegs sind. Welche anderen Strategien werden angewendet und wie sind ihre Zeitpläne?

Mascola: Viele Dutzende Impfstoffe befinden sich in der Entwicklungs-Pipeline. Es hat ein außergewöhnliches Echo bei akademischen Gruppen, Biotech-Unternehmen, Pharmaunternehmen und der NIH-ACTIV Partnerschaft (Accelerating COVID-19 Therapeutic Interventions and Vaccines) gegeben. Ich glaube nicht, dass ich jemals so viel Aktivität und ein solches Tempo in einem Impfbereich erlebt habe.

Um in fortgeschrittene klinische Studien eintreten zu können, gibt es nur eine Handvoll Impfstoff-Kandidaten und es handelt sich dabei um verschiedene Typen. Mindestens drei Nukleinsäure-Impfstoffe befinden sich in klinischen Studien. Es gibt auch zwei Impfstoffe, die Proteine verwenden, was ein üblicherer Ansatz ist.

Darüber hinaus gibt es mehrere Impfstoffe, die auf einem viralen Vektor basieren. Dafür baut man die Gene für das Spike-Protein in ein Adenovirus (ein harmloses Erkältungsvirus) ein und injiziert dieses in die Muskeln.

Was Phase-3-Studien betrifft, wird es im Herbst möglicherweise drei oder vier Impfstoffe in solchen Testungen geben.

Zur beschleunigten Entwicklung

Collins: Wie ist es möglich, dies so viel schneller als in der Vergangenheit zu tun, ohne dabei Risiken einzugehen?

Mascola: Das ist eine wirklich wichtige Frage. Anders als normalerweise üblich, wird nun eine Reihe von Aktivitäten parallel ausgeführt. Dank zeitsparender Technologien können wir einen Impfstoff viel schneller in eine Studie am Menschen einbringen.

Tatsächlich entscheidend ist aber, dass es für die Phase-3-Studie keine Zeitersparnis gibt. Man muss 30.000 Menschen rekrutieren und sie über Monate in einem sehr strengen, placebokontrollierten Ambiente beobachten. Das NIH hat für alle Versuche ein sogenanntes Data Safety Monitoring Board eingerichtet. Dies ist eine unabhängige Gruppe von Forschern, die regelmäßig alle Daten aus Impfstoffversuchen überprüfen. Sie können auf die Daten reagieren: Sollte die Studie vorzeitig abgebrochen werden, weil der Impfstoff wirkt? Gibt es ein Besorgnis erregendes Signal hinsichtlich Sicherheit?

Während die Phase-3-Studie läuft, wird die US-Regierung auch die Herstellung des Impfstoffs in großem Maßstab finanzieren. Üblicherweise würde man die Impfstoffstudie durchführen, warten, bis alles abgeschlossen ist, und dann die Ergebnisse analysieren. Bei positivem Ausgang würde man dann eine Impfstoffanlage bauen, um ausreichend Material herzustellen, was zwei oder drei Jahre dauert, und dann für die behördliche Zulassung durch die Food and Drug Administration (FDA) einreichen.

Hier wird nun alles parallel gemacht. Wenn der Impfstoff funktioniert, ist er bereits lieferbar. Und die FDA gibt uns Feedback in Echtzeit. Das spart viel Zeit.

Collins: Ist es möglich, dass wir eine ganze Menge von Impfdosen herstellen, die weggeworfen werden müssen, wenn der Impfstoff nicht funktioniert?

Mascola: Das ist sicherlich möglich. Man tendiert zur Annahme, dass Impfstoffe bei Coronaviren wahrscheinlich wirken, weil diese durch die natürliche Immunantwort beseitigt werden. Menschen erkranken schwer an COVID-19, schlussendlich beseitigt aber das Immunsystem das Virus. Wenn wir das Immunsystem also mit einem Impfstoff primen können, gibt es Grund zu der Annahme, dass Impfstoffe funktionieren sollten.

Zur Dauer der Immunität

Collins: Wenn der Impfstoff wirkt, wird dies lebenslange Prävention von COVID-19 bedeuten? Oder wird es wie die Grippe sein, bei der sich das Virus ständig ändert und jedes Jahr neue Versionen des Impfstoffs benötigt werden?

Mascola: Nach allem, was wir über Coronaviren wissen, denken wir, dass COVID-19 wahrscheinlich nicht wie die Grippe ist. Coronaviren mutieren zwar, die Daten legen aber nahe, dass sie nicht so schnell mutieren wie Influenza. Wenn wir Glück haben, braucht der Impfstoff nicht geändert zu werden. Es stellt sich jedoch die Frage, ob die Immunität ein Jahr, fünf Jahre oder zehn Jahre anhält. Dazu brauchen wir weitere Daten.

Collins: Können wir sicher sein, dass jemand, der COVID-19 hatte, es einige Monate später nicht wieder bekommen kann?

Mascola: Das wissen wir noch nicht. Um dies zu beantworten, müssen wir den natürlichen Zeitverlauf untersuchen, ehemals infizierte Personen beobachten und prüfen, ob ihr nunmehriges Infektionsrisiko viel geringer ist. Klassisch in der Virologie ist: wenn das Immunsystem neutralisierende Antikörper gegen ein Virus zeigt, ist es sehr wahrscheinlich, dass man ein gewisses Maß an Immunität hat.

Etwas schwierig ist, dass es Menschen gibt, die sehr milde Symptome von COVID-19 bekommen. Bedeutet das, dass ihr Immunsystem nur wenig vom viralen Antigen gesehen hat und nicht sehr robust reagiert hat? Wir sind uns nicht sicher, ob jeder, der eine Infektion bekommt, gleichermaßen geschützt ist. Dies erfordert eine Verlaufsstudie, die etwa ein Jahr dauern wird, bis die Antworten vorliegen.

Teilnehmer an der Phase 3 Studie

Collins: Kehren wir zu den Versuchen zurück, die diesen Sommer stattfinden müssen. Sie haben von 20.000 bis 30.000 Menschen gesprochen, die sich für den einen Impfstoff freiwillig melden müssen. Welche Freiwilligen möchten Sie haben?

Mascola: Eine Phase-3-Studie sieht ein breites Spektrum an Teilnehmern vor. Die Durchführung eines Versuchs mit 30.000 Personen ist eine enorme logistische Herausforderung, die jedoch für die Rotavirus- und HPV-Impfstoffe stattgefunden hat. Wenn man in Phase 3 eintritt, möchte man nicht nur gesunde Erwachsene rekrutieren. Man möchte Personen dabei haben, die für die Vielfalt der Bevölkerung repräsentativ sind, die man schützen möchte.

Collins: Möchten Sie einen höheren Anteil an Hochrisikopopulationen? Dazu gehören diejenigen, von denen wir den den größten Nutzen eines Impfstoffs erwarten: ältere Menschen mit chronischen Krankheiten, Afroamerikaner und Hispanics.

Mascola: Auf jeden Fall. Wir möchten sicherstellen, dass wir mit ruhigem Gewissen den Impfstoff gefährdeten Bevölkerungsgruppen empfehlen können.

Sind Human Challenge Studien derzeit angebracht?

Collins: Einige Leute haben eine andere Möglichkeit aufgebracht. Sie fragen, warum wir teure klinische Langzeitstudien mit Zehntausenden von Menschen brauchen. Könnten wir nicht eine sogenannte Human-Challenge-Studie durchführen, in der wir den Impfstoff einigen gesunden, jungen Freiwilligen geben, ein paar Wochen warten und sie dann absichtlich dem SARS-CoV-2 aussetzen. Wenn sie nicht krank werden, haben wir es geschafft. Sind Challenge-Studien eine gute Idee für COVID-19?

Mascola: Im Moment noch nicht. Zunächst muss ein Challenge-Vorrat von SARS-CoV-2 angelegt werden, der nicht zu pathogen ist. Wir wollen im Labor ja nichts machen, was zu einer schweren Lungenentzündung führt. Für Challenge-Studien wäre es auch vorzuziehen, eine sehr wirksame Behandlung mit synthetischen Arzneimitteln oder Antikörpern zur Hand zu haben. Wenn jemand krank wird, kann man sehr schnell mit den Behandlungen gegen die Infektion beginnen. Wir haben keine kurativen Behandlungen, daher sind wir derzeit noch nicht für COVID-19-Challenge-Studien gerüstet [3]. Wenn Sie sich unseren beschleunigten Zeitplan ansehen, sind formelle Impfstoffversuche möglicherweise immer noch der schnellste und sicherste Weg, um Antworten zu erhalten.

Collins: Ich bin froh, dass Sie es anders machen, John. Es wird sehr mühsam sein. Man muss irgendwo hin gehen, wo das Virus sich noch verbreitet, sonst weiß man ja nicht, ob der Impfstoff wirkt. Das wird schwierig.

Mascola: Ja. Wie wissen wir, wo wir den Impfstoff testen müssen? Wir verwenden Predictive Analytics - wir versuchen, vorherzusagen, wo im Land  fortlaufende Übertragungen stattfinden werden. Wenn wir das wirklich gut können, bekommen wir Echtzeitdaten zur Übertragung in einer bestimmten Region. Wir können dort impfen und zugleich die am stärksten gefährdeten Menschen schützen.

Wann wird ein Coronaimpfstoff verfügbar sein?

Collins: John, dieses Gespräch war sehr informativ. Was ist Ihre optimistischste Meinung darüber, wann wir möglicherweise einen COVID-19-Impfstoff haben werden, der sicher und ausreichend wirksam ist, um an die Bevölkerung verteilt zu werden?

Mascola: Ein optimistisches Szenario wäre, dass wir gegen Ende dieses Jahres aus der Phase-3-Studie eine Antwort erhalten. Parallel zur Studie haben wir die Produktion hochgefahren, daher sollte der Impfstoff in großer Menge verfügbar sein. Wir benötigen aber noch den Review der Daten durch die FDA und das Einverständnis mit der Lizenzierung des Impfstoffs. Dann müssen wir ein wenig Zeit für die Verteilung und Werbung der Impfung einplanen.

Collins: Nun, es ist wunderbar, dass jemand mit Ihren Fähigkeiten, Erfahrungen und Visionen zusammen mit Ihren vielen Kollegen im Impfstoffforschungszentrum eine so führende Rolle spielt. Leute wie Kizzmekia Corbett, Barney Graham und all die anderen, die Teil dieses großartigen Teams sind, das Sie zusammengestellt haben und das von Dr. Fauci gemanagt wird.

Wenn auch noch ein langer Weg vor uns liegt, können wir stolz darauf sein, wie weit wir seit dem Erscheinen dieses Virus vor etwa sechs Monaten gekommen sind. In meinen 27 Jahren am NIH habe ich so etwas noch nie erlebt. Es gab eine Bereitschaft der Menschen  alle anderen Sorgen zur Seite zu schieben. Sie sind an einem Tisch zusammengekommen, haben an Design und Implementierung von Impfstoffen gearbeitet und sind schließlich in die reale Welt getreten, um klinische Studien zu starten.

John, vielen Dank für das, was Sie rund um die Uhr tun, um diese Art von Fortschritt zu ermöglichen. Wir alle beobachten, hoffen und beten, dass dies die Antwort sein wird, die die Menschen nach einer so schrecklich schwierigen Zeit im Jahr 2020 dringend brauchen. Ich glaube, dass 2021 eine ganz andere Art von Erfahrung sein wird, vor allem aufgrund der Impfwissenschaft, über die wir heute gesprochen haben.

Mascola: Vielen Dank, Francis. Und danke für die Anerkennung aller Menschen hinter dem Vorhang, die dies möglich gemacht haben. Sie arbeiten wirklich hart!


[1] Francis S. Collins, 05.03.2020: Strukturbiologie weist den Weg zu einem Coronavirus-Impfstoff

[2] Redaktion, 18.03.2020:Experimenteller Impfstoff gegen SARS-CoV-2 bereits in klinischer Phase 1-Testung

[3] Deming ME, Michael, NL, Robb M., Cohen MS, Neuzil KM. Accelerating Development of SARS-CoV-2 Vaccines—The Role for Controlled Human Infection Models . N Engl J Med. 2020 1. Juli. [Epub vor Druck].


* Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 9. Juli 2020) im NIH Director’s Blog unter dem Titel: " Meet the Researcher Leading NIH’s COVID-19 Vaccine Development Efforts";

https://directorsblog.nih.gov/2020/07/09/meet-the-researcher-leading-nihs-covid-19-vaccine-development-efforts/. Der Artikel wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig (mit einigen Untertiteln, um den überlangen Text zu gliedern und mit zwei zusätzlichen Abbildungen) für den ScienceBlog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Artikel zu COVID-19 im ScienceBlog:


 

inge Thu, 16.07.2020 - 14:41

Wir stehen erst am Anfang der Coronavirus-Pandemie - Interview mit Peter Piot

Wir stehen erst am Anfang der Coronavirus-Pandemie - Interview mit Peter Piot

Do, 09.07.2020 — Redaktion

RedaktionIcon Medizin Der weltweit anerkannte Virologe Professor Dr.Peter Piot, hat die letzten 40 Jahre damit verbracht Viren aufzugspüren und zu bekämpfen. Zusammen mit Kollegen hat er 1976 das Ebolavirus entdeckt, ab den 1980er Jahren den Kampf gegen HIV/AIDS geleitet (dabei den Übertragungsmodus entschlüsselt) und war u.a. Direktor des Anti-HIV Programms der UNO. Der nunmehrige Direktor der Londoner Schule für Hygiene und Tropenmedizin (UK) und Sonderberater der Präsidentin der Europäischen Kommission, Ursula von der Leyen, für Coronavirus hat sich Anfang dieses Jahres mit dem Coronavirus selbst infiziert. In dem Interview mit dem EU Research and Innovation Magazine Horizon spricht er darüber, wie Covid-19 seine Sicht auf die Krankheit verändert hat, warum wir einen Impfstoff brauchen und über die langfristigen Auswirkungen der Pandemie.*

"Wir stehen erst am Anfang der Coronavirus-Pandemie, obwohl die zweite Welle einen anderen Verlauf nehmen kann als die erste", sagt der renommierte Virologe Prof. Peter Piot (Abbildung 1).

Abbildung 1. Prof. Dr. Peter Piot, Direktor der London School of Hygiene and Trpical Medicine.

Horizon (H): Das wichtigste zuerst. Nach 40 Jahren, in denen Sie Jagd auf Viren gemacht hatten, kamen Sie kürzlich selbst in engen Kontakt mit dem Coronavirus. Wie geht es Ihnen jetzt?

Peter Piot (P.P.): Vom Beginn der Erkrankung bis, dass ich wiederhergestellt war, hat es drei Monate gedauert; jetzt bin ich wieder mehr oder weniger gesund. Was ich erlebt habe, hat mir aber gezeigt, dass Covid-19 mehr ist als nur ein bisschen Grippe oder dass 1% auf die Intensivstation kommen und sterben. Da liegen Welten dazwischen.

Die Erkrankung hat mir aber zu neuen Einsichten verholfen. Jetzt kenne ich das Virus auch von Innen her - nicht bloß von der Seite des Untersuchens oder Bekämpfens. Der Blickwinkel ist ein völlig anderer geworden..

H: Inwiefern?

PP: Vor allem, weil es in dieser Krise um Menschen geht. Im Großteil der offiziellen Covid-19-Kommunikation geht es um die Abflachung der Kurve und kaum um Menschen. Was dann die Einsichten betrifft, ist esTatsache, dass es hier keine Frage "Grippe oder Intensivpflege" ist. Es wird viele Menschen mit Langzeitfolgen geben.

Meine persönliche Motivation gegen das Virus zu kämpfen ist nun doppelt so hoch geworden. Nachdem ich den größten Teil meines Lebens gegen Viren gekämpft habe, haben sie mich jetzt eingeholt; einen gewaltigen Unterschied macht meiner Meinung aber die menschliche Erfahrung. In Holländisch bezeichnen wir das mit ervaringsdeskundige - aus Erfahrung ein Experte geworden. Ein Begriff, der aus der Sozialpolitik kommt. Man hat also nicht nur Experten, die den Leuten sagen, was für sie gut ist. Man spricht auch mit den Betroffenen. Ich komme ja aus der AIDS-Bewegung. Bei HIV würden wir nicht im Traum daran denken, Forschung zu designen, zu entwickeln oder sogar zu betreiben, ohne Menschen mit HIV einzubeziehen. Das ist eben meine Meinung.

H: Derzeit gibt es weltweit mehr als 9 Millionen Fälle (12,04 Millionen; update Redn. am 9.7.2020 ), und die Pandemie hat Einzug in Lateinamerika gehalten. Wie sehen sie die aktuelle Situation?

P.P.: Ehrlich gesagt sind diese Zahlen zuallererst sicherlich unterschätzt, da es sich ja nur um bestätigte Fälle handelt. Wir sind also wahrscheinlich Zahlen von mehr als 20 Millionen weit näher und erreichen bald eine halbe Million Todesfälle (am 9.7.2020 waren es bereits knapp 550 000 Todesfälle; Anm. Redn.).

Neben HIV, einer stillen Epidemie, an der jedes Jahr immer noch 600.000 Menschen sterben, und der spanischen Grippe ist das Coronavirus sicherlich die größte nicht nur epidemische, sondern auch gesellschaftliche Krise in Friedenszeiten.

Denken wir an Europa, so ist es fast jedem Land gelungen die Ausbreitung des Virus einzudämmen - das sind gute Nachrichten. Die Gesellschaften machen nun kehrt und lockern verschiedene Maßnahmen.

Jetzt müssen wir uns auf eine sogenannte zweite Welle vorbereiten. Ich hoffe, dass es kein Tsunami werden wird, sondern eher in der Art der Ausbrüche, die wir bereits sahen, wie beispielsweise in einer Fleischverarbeitunggsanlage in Deutschland oder im Bereich von Nachtclubs in Korea. Auch in Großbritannien gibt es immer noch Ausbrüche in einigen Pflegeheimen. Ich denke, wir müssen uns jetzt darauf vorbereiten.

Die Wahrheit ist: Wir stehen erst am Anfang dieser Pandemie. Solange es Menschen gibt, die für Infektionen anfällig sind, wird uns das Virus liebend gerne infizieren -  es benötigt unsere Zellen ja zum Überleben.

H: Gibt es Grund zum Optimismus?

P.P.: Die gute Nachricht ist eine bisher beispiellose wissenschaftliche Zusammenarbeit. Es ist schwierig, mit all den neuen Informationen und wissenschaftlichen Erkenntnissen Schritt zu halten, die über etwas herauskommen, das - man glaubt es kaum - erst fünf Monate alt ist.

Manchmal sage ich: "Mein Gott, wie kann ich mit all den Veröffentlichungen Schritt halten?" Andererseits ist es gut damit ein Problem zu haben, da in früheren Epidemien Informationen nicht ausgetauscht wurden. Bisher ebenfalls beispiellos ist, dass Industrie und Länder enorm in die Entwicklung von Impfstoffen, Therapeutika u.a. investieren. Es gibt also einen Silberstreifen.

H: Wenn wir erst am Anfang der Pandemie stehen, wie lange könnte diese dauern?

P.P.: Ich habe meine Kristallkugel nicht mit; es könnte sich aber um mehrere Jahre handeln. Kurz- oder mittelfristig könnte meiner Meinung nach ein Impfstoff einen großen Unterschied machen, obwohl ich meine Zweifel habe, dass es ein 100% wirksamer Impfstoff sein wird. Es wurde versprochen, dass möglicherweise bis Oktober Hunderte Millionen Impfstoffdosen verfügbar sein werden. In der Praxis wird es eher 2021 werden; damit könnte die Epidemie tatsächlich weitgehend unter Kontrolle gebracht werden.

Die geänderte Art und Weise, wie wir miteinander umgehen, werden wir aber weiterhin beibehalten müssen. Sehen Sie sich zum Beispiel Japan an: dort tragen Menschen seit Generationen Gesichtsmasken, auch wenn sie nur erkältet sind, um andere zu schützen. Wir zählen auf einen Wunderimpfstoff, daneben besteht auch die Notwendigkeit einer breiten Verhaltensänderung.

H: Der von der Europäischen Kommission veranstaltete Spendenmarathon hat Zusagen in Höhe von fast 10 Mrd. EUR mobilisiert, die für Impfstoffe, Behandlungen, Tests und eine Stärkung der Gesundheitssysteme aufgeteilt werden (Abbildung 2). Was sind aus Ihrer Sicht die Prioritäten für die Vergabe dieses Geldes - und reicht das Geld?

P.P.: Das Spendensammeln ist aus zwei Gründen notwendig: um sicherzustellen, dass Geld vorhanden ist und, um einen für alle gleichberechtigten Zugang zu Impfstoffen und anderen Ressourcen zu gewährleisten. Den höchsten Bedarf gibt es in der Entwicklung und Produktion von Impfstoffen.

Enorm wichtig ist jedoch, dass die Mittel nicht nur für Forschung und Entwicklung da sind, sondern auch für die Einsetzung von Mechanismen, damit auch Länder Zugang zu Impfstoffen haben, die diese entweder nicht selbst herstellen oder sehr arm sind.

Insgesamt könnte man sagen, es ist ein Menge Geld, aber es ist nicht genug.

Abbildung 2. "Die Welt wird diese Pandemie erst dann überwinden, wenn Impfstoffe, Tests und die richtige medizinische Versorgung für alle verfügbar und erschwinglich sind, die sie brauchen" (Ursula Van der Leyen; 27.6.2020). Weltweite Coronavirus-Krisenreaktion, eine Geberkampagne der EU, die bisher 9,8 Mrd. € gesammelt hat . (Quelle: https://global-response.europa.eu/system/files/2020-06/CGRS_United_final.pdf)

 

H: Warum nicht?

P.P.: Was auch noch nie da war, ist, dass wir über Milliarden und nicht über Millionen Menschen sprechen, die geimpft werden müssen. So etwas wurde noch nie versucht. Etwa 4 oder 5 Milliarden Menschen werden Zugang zu dem Impfstoff benötigen. Und das bedeutet auch Milliarden von Glasfläschchen, die mit dem Impfstoff befüllt werden müssen - es sind grundlegende Dinge, um die man sich kümmern muss.

Unternehmen und Regierungen müssen das Risiko eingehen in die Produktion einer Vakzine zu investieren, ohne zu wissen, ob diese dann tatsächlich wirksam sein wird. Das ist eine enorme Herausforderung; dass auch öffentliche Gelder benötigt werden, ist darin begründet, dass damit ein öffentliches Gut entstehen wird.

Es gibt dann das Thema „Impfstoff-Nationalismus“. Begonnen hat es damit damit, dass die USA sagten, dass in den USA hergestellte Impfstoffe für Amerikaner bestimmt sind. Wenn jedes Land genau so verfährt, wird die Mehrheit der Menschen auf der Welt ausgeschlossen, da nur sehr wenige Länder Impfstoffe herstellen.

H: Wie stellen wir also sicher, dass niemand zurückgelassen wird?

Das ist eine wichtige Frage. Ich denke, dass das letztendlich ein politisches Problem sein wird. Deshalb betone ich, dass bei der von der Kommission veranstalteten Spendeninitiative der gleichberechtigte Zugang zur Vakzine ein integraler Bestandteil ist. Es geht nicht nur darum, Geld für die Entwicklung eines Impfstoffs zu sammeln. Es geht darum, Geld für die Entwicklung eines Impfstoffs zu sammeln, der für alle verfügbar ist, die ihn brauchen. Dies ist ein ziemlich großer Unterschied.

H: In einem Interview im Mai haben Sie gesagt: wir "lernen während wir segeln" und "ohne Impfstoff kann keine Rückkehr in ein normales Leben erfolgen." Ist dies heute noch Ihre Meinung?

P.P.: Es ist jetzt etwas nuancierter geworden. Nun sage ich, "wir lernen, während wir Rennen fahren", weil das Segeln ziemlich langsam ist. Derzeit fahren alle Rennen. Und ja, ich denke immer noch, dass es ohne Impfstoff extrem schwierig sein wird, zu einer normalen Gesellschaft zurückzukehren.

Es wird viel davon abhängen, ob Impfstoffe vor Übertragung schützen. Anders ausgedrückt: wenn ich geimpft bin, kann ich die Krankheit nicht bekommen, oder - wie im Fall der Influenza - der Impfstoff ist speziell geeignet, um schwere Erkrankung und Mortalität zu verhindern.

Es gibt viele Unbekannte.

Für mich haben Wissenschaft und Ansprechen auf den Impfstoff oberste Priorität, denn ohne diesen bedeutet es, dass wir jahrelang mit dem Virus leben müssen.

H: Gibt es einen Impfstoff-Kandidaten, der sie überzeugt und den Sie herausstellen können?

P.P.: Es gibt deren ein paar. Das Schöne aber ist momentan, dass es sehr unterschiedliche Ansätze zur Herstellung eines Impfstoff gibt. Man nutzt vollkommen neue Ansätze mittels der Messenger- RNAs und dann solche die traditioneller sind. Ich persönlich bin diesbezüglich Agnostiker.

H: Selbst wenn ein Impfstoff verhindern könnte, dass Menschen krank werden, haben Sie erwähnt, dass viele Menschen Langzeitfolgen haben werden. Wie sollen längerfristige Perspektiven gestaltet werden?

Wir sind alle mit der akuten Krise beschäftigt und - obwohl wir jetzt etwas Zeit haben, uns auf Ausbrüche einer zweiten Welle vorzubereiten - brauchen auch eine langfristige Perspektive. Für die wirtschaftlichen und sozialen Auswirkungen ist das ganz offensichtlich. Auswirkungen auf die psychische Gesundheit, nicht nur infolge der Epidemie, sondern auch infolge der Gegenmaßnahmen - isoliert zu sein, Kinder, die nicht zur Schule gehen können u. a. - können soziale Ungleichheiten und Ungerechtigkeiten verschärfen. Epidemien decken oft die Verwerfungslinien in der Gesellschaft auf und verstärken Ungleichheiten. Das geht weit über die biologischen und medizinischen Aspekte hinaus; das ist aber, was wir jetzt planen müssen.


 * Dieses Interview mit Prof. Peter Piot wurde von Annette Ekin geführt und am 26. Juni 2020 in Horizon, the EU Research and Innovation Magazine unter dem Titel Q&A: ‘"We are only at the beginning of the coronavirus pandemic’ – Prof. Peter Piot" publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt .


Artikel zu COVID-19 im ScienceBlog:


 

inge Wed, 08.07.2020 - 23:53

Der erste Artikel vor neun Jahren im ScienceBlog: Hat die Menschheit bereits den Boden unter den Füßen verloren?

Der erste Artikel vor neun Jahren im ScienceBlog: Hat die Menschheit bereits den Boden unter den Füßen verloren?

Do, 2.07.2020 (ursprünglich 28.6.2011)- 06:00 — Gerhard Glatzel

Icon BiologieGerhard GlatzelVor genau 9 Jahren erfolgte der Start von ScienceBlog.at. Seitdem sind 463 Artikel aus dem gesamten Gebiet der Naturwissenschaften bis hin zur molekularen Medizin und inklusive Mathematik, Informationstechnologie erschienen, die zum überwiegenden Teil von renommierten Experten in den einzelnen Disziplinen stammen. Der Großteil dieser Artikel hat noch nichts an Aktualität eingebüßt. Ein Beispiel ist Artikel Nummer 1, mit dem der Blog gestartet wurde. Darin zeigt der international angesehene Experte für Waldökosysteme emer. Univ. Prof. Gerhard Glatzel auf, dass die Ressource „Boden“, als Grundlage der Biomasseproduktion auf dem Festland ein kritischer Engpass für die Ernährung der wachsenden Weltbevölkerung und deren Versorgung mit pflanzlichen Rohstoffen geworden ist. Aus Anlass des 9 jährigen Bestehens von ScienceBlog.at bringen wir nun nochmals diesen Artikel, der nichts an Brisanz verloren hat.

Sechs, acht oder in wenigen Jahrzehnten vielleicht mehr als neun Milliarden Menschen zu ernähren und mit pflanzlichen Rohstoffen zu versorgen, ist keine einfache Aufgabe. Bisher war es möglich, zumindest in der entwickelten Welt, die wachsende Bevölkerung mit Nahrungsmitteln zu versorgen, weil Pflanzenzüchtung, Pflanzenschutz, Düngung und Mechanisierung der Pflanzenproduktion in Großbetrieben eine Vervielfachung der Produktivität je Flächeneinheit Boden ermöglichten. Durch Umwandlung von Wald in Weide- und Ackerland sowie durch Bewässerung von Trockengebieten und Entwässerung von Sumpfland konnten scheinbar unbegrenzte Mengen an Nahrungsmitteln und pflanzlichen Rohstoffen erzeugt werden.

Überschüsse stellten die Agrarpolitik vor die schwierige Aufgabe, die Grundlagen der Agrarproduktion in den ländlichen Räumen der entwickelten Länder trotz extrem niedriger Weltmarktpreise für Agrargüter zu sichern. In vielen Entwicklungsländern hingegen konnte die Agrarproduktion mit dem Bevölkerungswachstum nicht Schritt halten, und Hunger, Brennholzmangel sowie dadurch begünstigte Krankheiten sind für fast eine Milliarde Menschen nach wie vor drückende Realität.

Die steigenden Preise von Lebensmitteln und pflanzlichen Rohstoffen wie Baumwolle zeigen, dass die Zeiten agrarischer Überproduktion und Überschüsse vermutlich vorüber sind, und dass wir uns in Zukunft immer mehr anstrengen werden müssen, um genügend pflanzliche Biomasse für Ernährung, Industrie und verstärkt auch für die energetische Nutzung bereitstellen zu können. Man kann natürlich einwenden, dass einiges an der Verknappung auf Spekulation oder Agrarpolitik zurückgeführt werden kann.

Es fällt aber auch auf, dass in der Diskussion um Energie aus Biomasse immer mehr die Energiesicherheit im Vordergrund steht und nicht mehr der Klimaschutz, der oft als Feigenblatt dafür diente, dem ländlichen Raum zusätzliche, aus öffentlichen Mitteln geförderte Einkommensmöglichkeiten zu erschließen. Besonders nach dem Nuklearreaktorunfall von Fukushima und der Abschaltung von Atomkraftwerken in Deutschland wird der Anbau von Energiepflanzen energisch gefordert und gefördert, auch wenn dessen Wirksamkeit hinsichtlich des Klimaschutzes oft umstritten ist und negative ökologischen Folgen in Kauf genommen werden müssen.

Die alles entscheidende Frage für eine Zukunft ohne Hunger und Rohstoffmangel ist, ob mit den klassischen Ansätzen der „grünen Revolution“ der stetig steigende Bedarf an Biomasse beherrschbar sein wird. Die massiven Investitionen in Agrarland seitens der internationalen Agrarindustrie und anderer Investoren („Land Grabbing“) zeigen, dass der Verfügbarkeit von Boden eine Schlüsselrolle eingeräumt wird. Daher soll im Folgenden über Boden als knappe Ressource diskutiert werden.

Die FAO (Food and Agricultural Organisation) der Vereinten Nationen veröffentlicht regelmäßig globale und regionale Übersichten über die Landnutzung und deren Veränderung (http://www.fao.org/landandwater/agll/landuse/). Die Daten zeigen, dass laufend landwirtschaftlich genutzter Boden durch Erosion, Versalzung, Wüstenbildung, Inanspruchnahme für Siedlungen sowie industrielle und Verkehrsinfrastruktur verloren geht, dass aber auch nach wie vor neues Land für die agrarische Produktion erschlossen wird.

Erschließung neuer Nutzflächen durch Rodung von Waldboden

Gobal nutzbare AckerbauflächenAbbildung 1. Gobal nutzbare Ackerbauflächen.

Anhand einer groben Übersicht über die globale Bodennutzung (Abbildung „Soil limits agriculture“) kann man die Möglichkeiten und Grenzen der Urbarmachung des bisher nicht für den Ackerbau genutzten Landes aufzeigen. Nur ein sehr kleiner Teil der Böden der Erde, nämlich gerade einmal 11 Prozent, sind ohne Einschränkungen für acker-bauliche Pflanzenproduktion, also für den Anbau von Getreide, Kartoffeln, Gemüse oder Faserpflanzen nutzbar.

Ursprünglich war ein Teil dieses Landes Steppe, ein erheblicher Teil aber auch Wald auf tiefgründigen Böden, welche nach der Rodung fruchtbares Ackerland ergaben. Die Rodung von Wald zur Gewinnung von Acker- und Weideland hat in allerjüngster Zeit einen neuen Höhepunkt erreicht. In Brasilien hat die Waldrodung im März und April 2011 gegenüber dem gleichen Zeitraum des Vorjahres um 473 Prozent zugenommen (The Economist, Sunday, June 5th, 2011). Brasilien hat im Mai dieses Jahres weitere Rodungen im Regenwald des Amazonas legalisiert. Die negativen Auswirkungen auf die Biodiversität und das Weltklima sind unbestritten, werden aber aus ökonomischen und politischen Gründen in Kauf genommen.

Die Satellitenbilder, die man sich in Google Earth ansehen kann, zeigen aber auch eine neue Dimension der Landnutzung nach der Rodung des Regenwaldes. Während man rechts im Bild die traditionelle Umwandlung in Weideland erkennen kann, die legal und illegal von Kleinbauern durch Brandrodung betrieben wird (achten Sie auf die gut erkennbaren Rauchfahnen), finden sich links die ausgedehnten Betriebe der Großgrundbesitzer und der Agrarindustrie. Umwandlung des Regenwalds im Amazonasgebiet in Weideland und AgrarlandAbbildung 2. Umwandlung des Regenwalds im Amazonasgebiet in Weideland und Agrarland.

Der immer weiter wachsende Markt für Rindfleisch, für den die OPIC (International Meat Organisation) bis 2050 eine Verdoppelung vorhersagt (Merco Press, September 28, 2010), führt zu diesem Boom. Da die Produktion von qualitativ hochwertigem Rindfleisch eine Mästung mit Kraftfutter voraussetzt, werden auf den besseren Böden zunehmend Getreide sowie Hülsen- und Ölfrüchte angebaut.

In Südostasien wurden riesige Regenwaldflächen in Ölpalmenplantagen umgewandelt. Zunächst hat man das naiven Europäern als Beitrag zum Klimaschutz verkauft, in der Zwischenzeit ist der Schwindel längst aufgeflogen, aber die Plantagen werden weiter ausgebaut, weil sich der Markt für Pflanzenöl günstig entwickelt hat.

Eine in der Öffentlichkeit weniger beachtete Umwandlung ist die Rodung von Naturwald für Holzplantagen. Im Urwald sterben die Bäume eines natürlichen Todes und ihr Holz ist oft morsch und von minderer Qualität. In Plantagen werden die Bäume, lange bevor sie altersschwach werden, geerntet. Durch Mechanisierung und Verwendung besonders wüchsiger Zuchtsorten, kann die Produktivität sehr wesentlich gesteigert werden. Auf der Strecke bleibt die Biodiversität, weil nur einige wenige Baumarten, wie Eukalyptus-, Akazien- oder Kiefernarten verwendet werden. Auch auf diesem Sektor hat massiv steigende Nachfrage an Holz für die Papier- und Zellstoffindustrie, insbesondere aus China und Indien, zu stark steigenden Investitionen in Forstplantagen geführt. Die WBCSD (World Business Council for Sustainable Development) sagt bis 2050 weltweit eine Verdreifachung der Holzplantagenflächen voraus. (http://www.internationalforestindustries.com/2011/05/23/fierce-competition-over-worlds-wood-supply/).

In Mitteleuropa haben sich Forstbetriebe nach der durch die Industrialisierung ausgelösten Energiekrise des 19. Jahrhunderts und der Ablöse des Holzes durch Kohle, Erdöl und Erdgas als thermische Energieträger zu Veredelungsbetrieben entwickelt, die darauf spezialisiert sind, den Zuwachs an Holzbiomasse in möglichst wertvolle Holzsortimente umzuwandeln. Ob unsere hochentwickelte, naturnahe Forstwirtschaft langfristig dem Trend zu vollmechanisierten Plantagen raschwüchsiger Baumarten widerstehen kann, wird sich zeigen. Massive Subvention von Energieholz nach Fukushima könnte den Trend verstärken, denn Forstbetriebe sind letztendlich auch nur Wirtschaftsbetriebe, die am Ende Ausgaben für die Waldbewirtschaftung mit den Erlösen vergleichen. Natürlich wird die Nachhaltigkeit der forstlichen Produktion weiterhin beachtet werden, aber negative Auswirkungen auf die Biodiversität, den Erholungswert und den Wasserhaushalt wird man wohl in Kauf nehmen müssen.

Erschließung anderer Böden durch Trockenlegung oder Bewässerung

Wie steht es um Möglichkeiten, andere als Waldböden für die Befriedigung des Hungers nach Biomasse der weiter wachsenden und anspruchsvoller werdenden Weltbevölkerung zu erschließen? Sieht man von den Permafrostböden und den Böden mit schwer änderbaren chemischen Problemen ab, sind die größten Tortenstücke im FAO-Kuchen die zu trockenen Böden (28%), die zu seichten Böden (22%) und die zu nassen Böden (10%).

In Mitteleuropa war die Entwässerung von Mooren ein probates Mittel, um der Landwirtschaft bislang nicht genutztes Land zu erschließen. Das Oderbruch, unter dem preußischen König Friedrich II. im 16. Jahrhundert entwässert und urbar gemacht, ist ein klassisches Beispiel für erfolgreiche technische Maßnahmen zur Erschließung von Neuland für die wachsende Bevölkerung mit militärisch strategischer Perspektive. Die Trockenlegung von Feuchtgebieten wurde in Mitteleuropa bis nach dem Zweiten Weltkrieg gefördert.

Heute weiß man, dass dabei riesige Mengen an CO2 freigesetzt wurden, der Landschaftswasserhaushalt oft massiv verschlechtert und die Biodiversität sowie der Erholungswert extrem geschmälert wurden. Daher erfolgte in den letzten Jahrzehnten oft ein Rückbau der Drainagen, und nicht zuletzt aus Klimaschutzgründen ist die Trockenlegung von Sümpfen zur Zeit kein Thema und wird auch in Entwicklungsländern international kaum gefördert.

Ganz anders sieht es hinsichtlich der trockenen Böden aus. Weltweit werden Bewässerungsprojekte gefördert und es gibt eine starke Zunahme der bewässerten Agrarflächen. Die FAO berichtet, dass während der vergangenen vier Jahrzehnte die künstliche Bewässerung den wesentlichsten Beitrag zur Steigerung der Nahrungsmittelproduktion leistete. Gegenwärtig werden 30 bis 40 Prozent der global konsumierten Nahrungsmittel auf bewässertem Land erzeugt. Während der vergangenen 50 Jahre hat sich die Fläche an Agrarland, das bewässert wird, verdoppelt (http://www.paristechreview.com/2011/03/03/hungry-land-potential-availability-arable-land-alternative-uses-impact-climate-change/). Bodenbewässerung mit Wasser aus Gletscherregionen in NeuseelandAbbildung 3. Bodenbewässerung mit Wasser aus Gletscherregionen in Neuseeland.

Ein neuerer Trend ist die Bewässerung von Weideland, wie sie beispielsweise in Neuseeland (Google Bild) betrieben wird. Mit Wasser aus Gletscherregionen kann sommerliche Trockenheit überbrückt werden, und für den Ackerbau zu seichtgründige Böden können bewässert und als Weideland genutzt werden. Tiefgründigere Böden im selben Bewässerungssystem können für den Anbau von Mastfutter genutzt werden.

Ein kritisches Problem wird in Zukunft der Rückgang der Gletscher im Gefolge der globalen Erwärmung sein. Bestehende Probleme sind die Verminderung der sommerlichen Wasserführung der Flüsse und die Grundwasserverschmutzung durch Düngemittel und Agrarchemikalien.

Besonders bedenklich ist die nicht nachhaltige Nutzung von Grundwasser für die Bewässerung von Ackerland. In vielen Gegenden der Welt, insbesondere in Nordafrika, in Indien und in Arabien wird Grundwasser aus dem Boden gepumpt, das durch Niederschläge nicht oder nicht hinreichend ergänzt wird. Wasser ist unter diesen Bedingungen genauso erschöpflich wie Erdöl. Bevölkerungswachstum, das sich auf begrenzte und zu Ende gehende Grundwasserreserven stützt, verschiebt derzeit unlösbare Probleme in die Zukunft und verstärkt sie. Defizite in der Grundwasserneubildung sind aber auch in Teilen Europas ein Problem und müssen in der Diskussion über die Steigerung der Biomasseproduktion zur Absicherung der Energieversorgung berücksichtigt werden.

Zusammenfassend ist festzuhalten, dass die Ressource „Boden“, als Grundlage der Biomasseproduktion auf dem Festland ein kritischer Engpass für die Ernährung der wachsenden Weltbevölkerung und deren Versorgung mit pflanzlichen Rohstoffen geworden ist. Wir sind tatsächlich dabei, den Boden unter den Füßen zu verlieren. Über Biomasse aus der Retorte oder aus den Meeren nachzudenken ist geboten, auch wenn sich befriedigende Lösungen noch nicht klar abzeichnen.


Weitere Artikel von Gerhard Glatzel im ScienceBlog


 

inge Wed, 01.07.2020 - 19:13

Auf die Haut geschmiert - wie gelangt Voltaren ins schmerzende Gelenk?

Auf die Haut geschmiert - wie gelangt Voltaren ins schmerzende Gelenk?

Sa, 27.06.2020 Inge Schuster Inge SchusterIcon Medizin

Arthrosen sind weltweit die häufigsten Gelenkserkrankungen und betreffen etwa zwei Drittel der über 65-Jährigen. Zur Schmerzlinderung werden vielfach Substanzen aus der Klasse der "Nicht-steroidalen anti-entzündlichen Wirkstoffe" (NSAID) - und hier insbesondere Voltaren (Diclofenac) - verwendet. Da dieses in oraler Form eine Reihe von ernsten Nebenwirkungen auslösen kann, wird es nun in rezeptfreien Salben und Gele genutzt unter der Vorstellung, dass der Wirkstoff von der Haut direkt in das darunterliegende Gelenk gelangt ohne den restlichen Organismus zu belasten. Wie eine Reihe von Studien zeigt, dürfte dies allerdings nicht der Fall sein.

"Toooniiii... Ja?! Spazieren Gehen?" Den TV-Werbespots für Voltaren (Diclofenac) enthaltende Salben, Gele, Pflaster, die man auf die Haut über schmerzenden Gelenken aufträgt und im Nu Beschwerdefreiheit erreicht, kann man nicht entgehen. War es vor kurzem ein Kater, der über die -dank des Schmerzgels - neu erlangte Beweglichkeit seines Frauchens sinnierte, die nun mit Enkeln Fußball spielte und abends auf wilden Partys tanzte, so beschwert sich aktuell nun der Hund Toni (in Deutschland Bruno), dass er von der Couch aufgescheucht wird, um mit dem Frauchen spazieren zu gehen - um dem Tatendrang seines Frauchens zu entgehen, vergräbt er das Schmerzmittel im Garten. (https://www.voltadol.at/Services/Werbung-2019 ).

Werbewirksam werden also Hunde, Katzen und - als Hauptabnehmer - jugendlich wirkende Omas ins Spiel gebracht, um den bereits jetzt enormen Verbrauch von Voltaren in der auf die Haut aufzutragenden Form, d.i. in topischer Form, noch weiter zu erhöhen. Im Bereich topische Schmerzlinderung ist Voltaren ja bereits zur Nummer 1 geworden. Ein Überblick aus dem Jahr 2012 nennt für Deutschland allein einen Verbrauch von knapp 15 Millionen Packungen Voltaren enthaltenden Salben, entsprechend einem Gehalt von mehr als 50 Tonnen des Wirkstoffs.

Der Wirkstoff wurde in den 1960er Jahren von dem Schweizer Pharmaunternehmen CIBA-Geigy entwickelt, unter dem Namen Diclofenac (Abbildung 1) patentiert und ab der Mitte der 1970er Jahre als Schmerzmittel zur Behandlung rheumatischer Beschwerden zugelassen - vorerst in Tablettenform für die orale Anwendung. Rund ein Jahrzehnt später kam das (noch rezeptpflichtige) Voltaren enthaltende Emulgel für die topische Anwendung auf den Markt; als Indikationen waren nun u.a. auch Zerrungen und Prellungen angegeben. Rezeptfreie Salben und Gele zur Selbstanwendung gibt es seit 1999, diese enthalten eine niedrige Konzentration des Wirkstoffs (25 mg pro g Salbe oder Gel).

Aktuellen Schätzungen für 2020 zufolge liegt Deutschland mit einem geschätzten Umsatz von 518 Mio € an 8. Stelle des globalen Marktvolumens für Schmerzmittel (4,68 Mrd €) und - mehr als für andere Schmerzmittel - präferieren 20 % der Befragten Voltaren. In Österreich wird das Schmerzmittelsegment auf 111 Mio € geschätzt. Die Tendenz ist in beiden Ländern steigend. (https://de.statista.com/outlook/18010000/137/schmerzmittel/).

Wie wirkt Voltaren (Diclofenac)?

Diclofenac (Abbildung 1) gehört zur Gruppe der sogenannten NSAIDs (non-steroidal anti-inflammatory drugs) - nicht-steroidalen anti-entzündlichen Wirkstoffe- , d.h. zu Entzündungshemmern, die nicht in die Substanzklasse der Corticoide oder deren Analoga fallen. Diclofenac ist ein kleines, synthetisches Molekül (Molekulargewicht: 296 D); es ist lipophil, löst sich in organischen Lösungsmitteln rund 35 000 mal besser als in Wasser. Seine entzündungs- , schmerz- und fiebersenkende Wirkung beruht auf der Hemmung von zwei nahe verwandten Enzymen, der Cyclooxygenase 1 (COX-1), die in vielen Gewebetypen vorkommt und der Cyclooxygenase 2 (COX-2), die durch Entzündungsstimuli vor allem auch in Gelenkkapseln vermehrt gebildet wird. Es sind dies Enzyme, welche die in Lipiden vorhandene Arachidonsäure in ein Prostglandin (PGH2) umwandeln, als ersten Schritt in einer Kaskade von Prostaglandinen - Signalmolekülen, die eine Vielzahl biologischer Vorgängen steuern, u.a. in Schmerz- und Entzündungsreaktionen involviert sind, in die Blutgerinnung, die Regulation des Blutdrucks und in Kontraktions- und Sekretionsprozesse de Verdauungstrakts. Unterschiedliche Prostaglandine können dabei gegenläufige Wirkungen zeigen: gefäßerweiternd oder gefäßkontrahierend wirken, Blutdruck senkend oder erhöhend. Abbildung 1.

Abbildung 1. Aus Arachidonsäure entstehen Hunderte bioaktive Signalmoleküle: vereinfachtes Schema. Via Cyclooxygenasen entstehen Prostaglandine, über den Lipoxygenaseweg Leukotriene und über verschiedene Cytochrome P450  Hydroxyeicosatetraensäuren (HETEs) und Epoxyeicosatriensäuren (EETs). Über die Wirkungen vieler dieser Signalmoleküle wissen wir noch zu wenig.

Diclofenac blockiert beide Typen der Cyclooxygenasen und wirkt damit auf Entzündungsgeschehen und Schmerz; es unterdrückt aber auch positive Effekte einiger Prostaglandine, wie z.B. die gefäßerweiternde Wirkung von Prostacyclin oder den magenschützenden Effekt von Prostglandin E2. Ein wichtiger weiterer Effekt, den die Inhibierung des COX-Weges mit sich bringt, ist dass nun mehr Arachidonsäure für die anderen Metabolismuswege zur Verfügung steht, vermehrt Leukotriene, HETSs und EETs entstehen können und nun u.a. ebenfalls in Entzündungsprozesse und Allergien involviert sein können.

Dass die Anwendung von Diclofenac unerwünschte Nebenwirkungen mit sich bringen kann, ist also nicht verwunderlich. Orale Einnahme führt zu einer breiten Verteilung im Organismus und zu relativ hohen, transienten Konzentrationen vor allem in Leber, Niere und Verdauungstrakt. Insbesondere über längere Zeit angewandt, sind Nebenwirkungen auf den Magen-Darm-Trakt (von Verdauungsbeschwerden bis hin zu Blutungen, peptischen Ulcera und Perforationen) in signifikantem Ausmaß aufgetreten und ein erhöhtes Risiko für Herzinfarkte und Schlaganfälle, Nierenprobleme und allergische Reaktionen wurde festgestellt.

Von der oralen zur topischen Anwendung

Diclofenac hat ein sehr weites Anwendungsspektrum von Fieber bis hin zu Kopfschmerzen, den bei weitem überwiegenden Anteil machen aber Gelenkschmerzen infolge von rheumatoider Arthritis, Arthrosen, Zerrungen und Prellungen aus. Von der rheumatoiden Arthritis (ein Autoimmundefekt?) sind quer über alle Altersstufen bis zu 1 % der Bevölkerung betroffen, von Arthrose (degenerativem Gelenkabbau) etwa zwei Drittel der über 65 Jahre alten Bevölkerung.

Muss die Behandlung dieser häufigsten Erkrankungen mittels oral verabreichtem Voltaren erfolgen, das über den ganzen Organismus bis hin zum schmerzenden Gelenk verteilt wird und zahlreiche Organe beeinträchtigt? Oder kann man dieselbe therapeutische Wirkung erzielen, wenn man den Wirkstoff topisch, d.i. auf die Haut direkt über der schmerzenden Stelle aufträgt, ohne damit den gesamten Organismus mit der Substanz überfluten zu müssen?

Wie bereits erwähnt wurden schon früh Cremen, Salben und Gele entwickelt, die eine solche Wirkung versprechen und bis heute massenhaft vertrieben werden.

Wie gelangt Voltaren von der Haut ins Gelenk?

Vorweg einige grundlegenden Fakten zur Permeation durch die Haut (In Abbildung 2 schematisch dargestellt). Diese bildet ja eine überaus effiziente Barriere zur Umwelt und verhindert weitestgehend, dass schädliche oder auch unschädliche Substanzen, die auf ihre Oberfläche treffen, in den Organismus eindringen.

Abbildung 2. Die Haut bildet eine effiziente Barriere gegen das Eindringen von Fremdstoffen: Nur etwa 9 % de aufgetragenen Diclofenac (orange) gelangen in den Organismus. Für tiefe Schichten der dicken Subcutis und der noch darunter liegenden Faszien, Sehnen und Knochen bleibt wohl kaum etwas übrig. (Bild aus Moriz Kaposi: Pathologie und Therapie der Hautkrankheiten in Vorlesungen für praktische Ärzte und Studierende“ (5. Auflage (1899), Urban & Schwarzenberg, Wien).

Die hauptsächliche Barriere ist dabei die oberste Hautschichte, das aus abgestorbenen, in eine Lipidmatrix eingebetteten Hautzellen (Keratinozyten) bestehende Stratum corneum. Durch diese Schichte können nur einige wenige % eines auf die Haut aufgetragenen Wirkstoffs permeieren und in die darunter liegenden Schichten der sogenannten Epidermis, die im Mittel insgesamt 150 µm dick ist, eindringen. Die aus zahlreichen Schichten von Keratinozyten bestehende Epidermis reduziert das weitere Vordringen in die Dermis.

Was in der Dermis ankommt und durch diese permeiert, wird bereits im oberen Teil und vor allem im unteren Teil von Blutkapillaren und Lymphgefäßen aufgenommen und in den systemischen Blutkreislauf transportiert, sodass kaum mehr Substanz übrigbleibt um in die Subcutis zu gelangen. Diese aus lockerem Bindegewebe und Fettgewebe bestehende Schichte kann bis 3 cm (und auch mehr) dick sein und wird von Blutgefäßen durchzogen (Substanzen, welche sich bis dorthin verirrt haben sollten, werden in diesen in den systemischen Kreislauf geführt). Für tiefe Schichten der dicken Subcutis und für die noch darunter liegenden Faszien, Sehnen und Knochen bleibt wohl kaum etwas übrig.

Um aber bis in ein Gelenk und in die entzündete Gelenkskapsel zu gelangen und dort das Targetenzym Cyclooxygenase zu blockieren, ist noch ein sehr, sehr weiter Weg. Abbildung 3 zeigt dies für das Kniegelenk (in der TV-Werbung das erklärte Ziel für topisches Voltaren). Von der mehr oder weniger dicken Subcutis weg müsste der Wirkstoff ja noch durch Faszien, Sehnen, Muskelstränge diffundieren bis er - und das in ausreichender Konzentration, um das Enzym zu blockieren - am Zielort im Gelenk oder am Gelenk ankommt.

Abbildung 3. Mit Voltaren wird sehr häufig die Haut über einem schmerzenden Kniegelenk eingerieben. Kann der Wirkstoff dort überhaupt hingelangen? Links: Aufbau des Kniegelenks. Die rosa Kontur würde der Hautbarriere - Epidermis, Dermis - entsprechen (Bild aus: https://openstax.org/details/books/anatomy-and-physiology, open access). Rechts: Magnetresonanztomographie eines rechten Kniegelenks (Wikipedia, Knie mr.jp; cc-by-sa 3.0)

Eine Reihe von Studien hat dieses Problem untersucht. Kann Diclofenac direkt von der Haut ins Gelenk permeieren oder ist es vielmehr die aus der Haut in die systemische Zirkulation geleitete Substanz, die über die Zirkulation dorthin verteilt wird? Zwei meiner Meinung nach sehr gründlich ausgeführte Versuche geben eine eindeutige Antwort:

In einer der Studien wurden sogenannte Mikrodialyse Kapseln in die Subcutis von Versuchspersonen eingebracht und untersucht wieviel von dem topisch aufgetragenen Voltaren in diese Kapseln diffundierte [1]. Das Ergebnis: praktisch nichts war detektierbar, d.i. kein Wirkstoff war bis in die Subcutis vorgedrungen.

In einer anderen in-vivo-Studie an Patienten vor einer Knieoperation wurde mehrere Tage lang vor dem Eingriff Voltaren auf das kranke Knie aufgetragen und Placebo auf das andere Knie [2]. Bei der Operation wurde dann Gelenksflüssigkeit (Synovialflüssigkeit) aus beiden Knien entnommen. Es konnte gezeigt werden, dass die lokale Diclofenac Konzentration in der Synovialflüssigkeit des Voltaren-behandelten Knies gleich hoch war, wie die des Placebo-behandelten Knies, das die Substanz ja nur aus dem Blutkreislauf hatte erhalten können. Das Ergebnis: topisch aufgetragenes Voltaren gelangt nicht direkt in darunterliegende Gelenke, sondern über die systemische Zirkulation.

Wie wirksam ist nun topisches Diclofenac?

Auch, wenn der Wirkstoff von der Haut nicht direkt an die schmerzende Stelle gelangen dürfte, so kann er doch aus dem Blutkreislauf dorthin verteilt werden und bei länger dauernder Anwendung ausreichende therapeutische wirksame Spiegel erreichen.

Wie sieht nun die Evidenz für eine derartige Wirksamkeit aus? Der letzte Cochrane-Review über "Topische nichtsteroidale entzündungshemmende Medikamente bei chronischen muskuloskelettalen Schmerzen bei Erwachsenen" kommt zu einer ernüchternden Erkenntnis [3]:

"Diclofenac und Ketoprofen waren die einzigen beiden Wirkstoffe, die in hochwertigen und langfristigen Studien untersucht wurden, überwiegend an Patienten über 40 Jahren mit schmerzhafter Kniearthrose. Verglichen wurde topisches Diclofenac oder Ketoprofen in Form einer Lösung oder eines Gels mit der Lösung oder dem Gel ohne Wirkstoff (topisches Placebo). Bei Diclofenac und Ketoprofen kam es bei etwa 6 von 10 Teilnehmern mit Arthrose zu stark verringerten Schmerzen nach 6 bis 12 Wochen im Vergleich zu 5 von 10 Teilnehmern, die ein topisches Placebo erhielten (Evidenz von moderater Qualität)."

Das Placebo ist also fast so gut wie Diclofenac.


[1] B.Falk Riecke et al., A microdialysis study of topically applied diclofenac to healthy humans: Passive versus iontophoretic delivery. Results in Pharma Sciences 1 (2011) 76–79

[2] J. Radermacher et al., Diclofenac concentrations in synovial fluid and plasma after cutaneous application in inflammatory and degenerative joint disease. Br. J. clin. Pharmac. (1991), 31, 537-541

[3] https://www.cochrane.org/de/CD007400/SYMPT_topische-nichtsteroidale-entzundungshemmende-medikamente-nsaids-bei-chronischen-muskuloskelettalen


Artikel zu verwandten Themen im ScienceBlog


inge Fri, 26.06.2020 - 23:53

Comments

G. Bosch (not verified)

Thu, 08.12.2022 - 19:30

Wie kann es eigentlich sein, dass solche Produkte verkauft werden dürfen?
Wenn jemand Butter mit dem Aufdruck 500gr verkauft, welche aber signifikant weniger wiegt, kriegt er rechtliche Probleme.
Einfluß? Lobbying? Aufwändiger Nachweis?

Von der Eizelle zur komplexen Struktur des Gehirns

Von der Eizelle zur komplexen Struktur des Gehirns

Do, 11.06.2020 — Nora Schultz

Nora SchultzIcon Gehirn

Aus einer einzigen befruchteten Eizelle wächst eine der komplexesten Strukturen überhaupt – das menschliche Gehirn. Dafür braucht es viel Faltkunst und etliche Schicksalsschritte. Die Entwicklungsbiologin Nora Schultz gibt einen Überblick über die Entstehung der Nervenzellen aus dem Ektoderm des Embryos und wie diese zu ihren Bestimmungsorten im Gehirn wandern, dort ihre endgültige Gestalt annehmen und sich mit anderen Nervenzellen vernetzen.*

Am Anfang ist das befruchtete Ei. Fast jeder hat schon Fotos gesehen, in denen es rund und gleichförmig im Bild ruht wie ein riesiger Mond. Kaum vorstellbar, dass dieses fade Gebilde alle Informationen enthält für einen schicksalhaften Tanz, der so komplex ist, dass es auch mit den gesammelten Anstrengungen der Biologie bis heute nicht gelungen ist, seine Choreografie vollständig zu entschlüsseln. Die Kür des Opus: die Bildung des Gehirns . Was sich hier filigran ineinander faltet und Netze aus Billionen von Synapsen knüpft, lässt Origami-Experten und Spitzenklöpplerinnen gleichermaßen vor Neid erblassen.

Doch zurück zum Start: Die Gleichförmigkeit des Eis verliert sich schon im Laufe der ersten Zellteilungen. Anfangs kaum messbare Unterschiede in der Verteilung von Botenstoffen, die zufällig oder durch die Binnenarchitektur im Zellinnern entstehen, verstärken sich nach und nach, begünstigt durch äußere Reize, wo Zellen sich etwa gegenseitig berühren. Bald begeben sich die Zellen des Embryos auf verschiedene Pfade. Nur ein kleiner Teil von ihnen wird zum Baby; aus dem Rest bilden sich Teile der Plazenta sowie die Eihäute der Fruchtblase.

Die wichtigste Zeit im Leben

Die Zellen des eigentlichen Embryos organisieren sich anfangs in zwei Schichten – bis dann einige Zellen aus der äußeren Schicht in die Mitte wandern. Mit diesem ersten großen Faltprozess, Gastrulation genannt, entstehen die drei Keimblätter, das Ektoderm, Mesoderm und Endoderm. Gemeinsam bilden sie das Ausgangsmaterial für die gesamte spätere Organentwicklung. „Weder Geburt, Hochzeit noch Tod, sondern die Gastrulation ist die wahrhaft wichtigste Zeit in Deinem Leben“, sagte der Entwicklungsbiologe Lewis Wolpert dereinst.

Das Nervensystem entsteht aus Zellen des Ektoderms. Und auch dieser Vorgang, die so genannte Neurulation, beginnt mit Faltkunst: In der anfangs noch gleichmäßigen Schicht säulenförmiger Zellen entsteht in der Mitte eine Rille, die sich bald zu einem Graben mit erhobenen Rändern vertieft. Die Ränder bewegen sich aufeinander zu, bis sie sich in der Mitte treffen und verschmelzen – das Neuralrohr ist entstanden, der Vorläufer von Gehirn und Rückenmark. In seinem vorderen Bereich bilden sich bald drei Ausstülpungen, die Hirnbläschen. Sie werden später zum Vorder-, Mittel- und Hinterhirn. Auch im Querschnitt des Neuralrohrs stehen die Zeichen auf Veränderung. Als Antwort auf Signalstoffe, die von oben nach unten unterschiedlich verteilt sind, starten in den Zellen entlang der Rücken-Bauch-Achse verschiedene Genprogramme. Ganz unten produziert die Bodenplatte gemeinsam mit noch tiefer liegenden Zellen des Mesoderms zum Beispiel das nach einem Videospielcharakter benannte Molekül Sonic Hedgehog. Seine Konzentration bestimmt in einem komplexen Wechselspiel mit anderen Molekülen das Schicksal der Zellen im Neuralrohr.

Videospielcharakter mit formender Rolle

Je weiter die Zellen von der Bodenplatte entfernt sind, desto weniger Sonic Hedgehog kommt bei ihnen an, und sie entwickeln sich entsprechend unterschiedlich. Die der Bodenplatte am nächsten gelegenen Zellen werden etwa auf der Höhe des sich entwickelnden Rückenmarks zu Interneuronen, die als Schaltelemente zwischen zwei oder mehr Nervenzellen dienen. Es folgen Motorneurone, die sich zu den Muskeln erstrecken und deren Bewegungen kontrollieren; und danach drei weitere Schichten unterschiedlicher Interneurone. Im oberen Teil des Neuralrohrs orchestrieren andere Signalmoleküle, die von Zellen der Dachplatte ausgeschieden werden, ebenfalls eine Feinaufteilung. Sie führt zur Bildung verschiedener sensibler Neuronen. Die Grundstruktur des späteren Rückenmarks ist somit schon erkennbar, lange bevor sich die ersten Neuronen differenzieren. Im werdenden Gehirn läuft diese Musterbildung ebenfalls ab. Sie gestaltet sich allerdings aufgrund der Abknickungen, Ausstülpungen und Einbuchtungen in den verschiedenen Gehirnregionen komplizierter und variabler.

Die Geburt und Reifung junger Nervenzellen folgen ungeachtet solcher regionalen Unterschiede überall einer ähnlichen Dramaturgie in drei Akten: Zuerst kommt die Zellvermehrung. Wenn das Neuralrohr ab der dritten Entwicklungswoche entsteht, ist der Embryo erst wenige Millimeter groß. Das reicht nicht für viel Hirn. In den folgenden Wochen läuft die Produktion von Nervenvorläuferzellen daher heiß. Aktuellen Schätzungen zufolge entstehen zur Hochzeit der Neurogenese im Neuroektoderm ungefähr 4,6 Millionen Zellen pro Stunde. Ab der fünften Entwicklungswoche verwandeln sich die Neuroepithelzellen im Neuralrohr nach und nach in radiale Gliazellen.

Vom Helferlein zur Quelle neuer Neuronen

Noch bis zur Jahrtausendwende galten radiale Gliazellen lediglich als Helferlein, deren kabelartige Fortsätze junge Neurone zu ihren Bestimmungsorten geleiten. Doch inzwischen wissen wir, dass radiale Gliazellen im werdenden Gehirn als Stammzellen funktionieren. Das heißt, die meisten Neuronen stammen direkt oder indirekt von ihnen ab. Das wollte lange kaum jemand glauben. „Das schwierigste an so einem unkonventionellen Befund ist nicht die Datensammlung, sondern das Aufbrechen eines etablierten Dogmas“, schreibt die Münchner Neurobiologin Magdalena Götz, die mit an der Entdeckung der neurogenen Funktion der radialen Gliazellen beteiligt war.

Radiale Gliazellen teilen sich an der Innenwand des Neuralrohrs. Eine der Töchter bleibt radiale Gliazelle. Die andere entwickelt sich entweder direkt zu einem Neuron oder zu einem anderen Vorläuferzelltyp, aus dem erst später Neurone entstehen. Radiale Gliazellen können sich aber auch direkt symmetrisch in zwei Neurone oder Vorläuferzellen teilen – oder sie reifen zu anderen Gliazelltypen weiter. Welchen Pfad Vorläuferzellen einschlagen, hängt von der Region im Nervensystem und dem Entwicklungsstadium ab, sowie von den damit jeweils verbundenen Signalcocktails. Die Reifung zu Gliazellen etwa passiert vor allem später in der Entwicklung, wenn die Neurogenese weitgehend abgeschlossen ist. Und manche Neuronen, etwa im Rückenmark, entstehen direkt aus Neuroepithelzellen, ohne das Zwischenstadium der radialen Gliazelle zu durchlaufen.

Jungneuronen auf Wanderschaft

Einmal geborene Neurone teilen sich nicht mehr. Sie haben aber häufig noch einen weiten Weg vor sich, bis sie ihren Bestimmungsort erreichen und ihre ausgewachsene Gestalt und Funktion annehmen. Und so beginnt der zweite Akt der Reifung. Aus ihrer Geburtsstätte tief im Zentrum des Gehirns, nahe den Ventrikeln – dort wo einst die Innenwand des Neuralrohrs lag – wandern die neuen Neuronen hinaus in die weite Welt des wachsenden Gehirns. Dabei hangeln sie sich häufig entlang der langen Fortsätze ihrer benachbarten radialen Gliazellen. Die ersten Neuronen haben den kürzesten Weg, da ihre Zellkörper die inneren Hirnschichten bilden. Die Nesthäkchen hingegen müssen weiter wandern. Sie ziehen an ihren früher geborenen Geschwistern vorbei in immer weiter außen liegende Regionen des Gehirns. Etliche Zellen haben zudem noch weitere Strecken zu bewältigen, um zu ihrem Ziel zu gelangen, nach vorne, hinten, links oder rechts. Als Wegweiser dienen den jungen Pfadfindern dabei Signalmoleküle – ausgeschieden von bereits etablierten Nerven- und Gliazellen oder auch von anderen Geweben.

Rein optisch haben frische Neuronen zunächst nur wenig mit ihren reifen Geschwistern gemein. Sie ähneln eher Teletubbies oder Minions: Anstelle eines Axons haben sie mehrere kürzere Fortsätze, Neurite genannt, von denen sich einer schließlich zum Axon entwickelt, während andere zu Dendriten reifen oder wieder eingezogen werden. In ihrem Innern sind die jungen Nervenzellen allerdings schon viel spezialisierter, als ihr unreifes Äußeres es vermuten lässt. „Das Schicksal des Neurons – zu welchem genauen Zelltyp es einmal wird – steht bald nach seinem Austritt aus dem Zellzyklus fest“, sagt Leanne Godinho von der Technischen Universität München, die die Reifung von Nervenzellen im Zebrafisch studiert. „Die Zellen wandern also keinesfalls naiv los und legen erst auf dem Weg oder nach der Ankunft ihre Identität fest.“ Stattdessen empfangen die Zellen einen Großteil der identitätsstiftenden Signale schon im Neuralrohr, wenn die Verteilung von Signalmolekülen wie Sonic Hedgehog mit breiten Pinselstrichen grundlegende Schicksalsmuster skizziert. Diese Voreinstellungen fixieren zwar noch nicht das genaue Zellschicksal, aber sie machen junge Neuronen empfänglich für unterschiedliche Signalmoleküle – und geleiten sie so auf jeweils spezifische Wanderwege.

Des Epos dritter Akt: Partnersuche und Vernetzung

Hat der Zellkörper sein Ziel erreicht, beginnt der dritte Akt, in dem die Zelle in ihre endgültige Gestalt hineinwächst und sich vernetzt: Das Axon und die Dendriten bilden sich und gehen auf Partnersuche. Anfangs besitzen alle Neuriten einer neuen Nervenzelle an ihrer Spitze einen so genannten Wachstumskegel. Er funktioniert wie Sinnes- und Fortbewegungsorgan zugleich. Seine Membran enthält zahlreiche Rezeptoren, die physikalische, chemische und elektrische Signale aus der Umgebung aufnehmen und integrieren. Im Zellplasma des Kegels sorgt eine Fülle von Skelett- und Motormolekülen sowie eine üppige Ausstattung mit energieproduzierenden Mitochondrien dafür, dass der Neurit auf diese Signale auch reagieren kann, etwa mit Vorwärts- oder Ausweichbewegungen. Vor allem der Kegel des knospenden Axons zieht dabei eine ungeheure Wachstumskolonne nach sich: Menschliche Axone können bis zu einem Meter lang werden. Am Ende ihrer Suchbewegungen vernetzen sich die Spitzen von Axon und Dendriten über Synapsen mit anderen Nervenzellen. Die Wachstumskegel verwandeln sich beim Axon in präsynaptische Endknöpfchen, mit denen ein Neuron Signale in den synaptischen Spalt weitergibt. Bei Dendriten wird der Wachstumskegel zu dendritischen Dornen, mit denen die Zelle Signale aus Synapsen empfängt. Das Schicksal der Zelle ist nun -–zumindest im Groben – besiegelt und der große Entwicklungstanz ist vorbei. Abbildung 1.

Abbildung 1. Jungneuronen wachsen in ihre endgültige Gestalt hinein und beginnen sich zu vernetzen.

Kein Ende in Sicht – doch es wird ruhiger

Das Drama jedoch geht ein Leben lang weiter. Noch lange nach der Geburt entwickelt sich das Gehirn fort. Synapsen werden zuerst massenhaft neu gebildet und später dann, vor allem in der Pubertät, gezielt wieder abgebaut, um neuronalen Netzen den Feinschliff zu geben. Myelinzellen ummanteln Neurone, um die Signalübertragung effizienter zu machen. Und sogar neue Nervenzellen entstehen, wandern und reifen gelegentlich noch im erwachsenen Gehirn: in der Nase, wo lebenslang Riechzellen nachwachsen, und im Hippocampus, wo neue Erinnerungen verarbeitet werden. „Hier geht es nicht mehr darum, rasant riesige Neuronenmengen zu produzieren, um ein ganzes Gehirn zu bauen, sondern um den Erhalt von Entwicklungspotenzialen“, sagt Jovica Ninkovic vom Helmholtz Zentrum München, der Regenerationsmöglichkeiten im erwachsenen Gehirn untersucht. Ihm gelang kürzlich in Experimenten der Nachweis, dass neuronale Stammzellen im erwachsenen Gehirn der Maus durch andere molekulare Mechanismen in ihrer Entwicklung „eingefroren“ werden als im Fetus. Diese Mechanismen könnten besonders sensibel auf Entzündungen oder Verletzungen im Gehirn reagieren – um so frische Neuronen gezielt bereit zu stellen, wenn der Bedarf da ist.

Ob, wie und in welchem Umfang adulte Neurogenese auch beim Menschen stattfindet, ist derzeit zwar noch umstritten, aber das Interesse der Regenerationsmedizin ist riesig. „Die Chancen stehen gut, dass wir lernen können, die Neurogenese selbst dort zu aktivieren, wo sie vielleicht gar nicht von alleine geschieht“, sagt Ninkovic. Das Team um Magdalena Götz bewies zum Beispiel , dass embryonale Neuronen ihr Entwicklungsprogramm auch nach einer Transplantation in ein erwachsenes Gehirn erfolgreich abspulen können. Und auch Leanne Godinho hofft auf den großen Brückenschlag: „Wenn es uns gelingt, die Erkenntnisse aus der Entwicklungsbiologie auf die Regenerationsmedizin zu übertragen, könnten wir eines Tages Neuronen, die durch Verletzung oder Krankheit zerstört wurden, ersetzen und Funktionen wiederherstellen.“


Zum Weiterlesen:

  • Silbereis, John C et al.: The Cellular and Molecular Landscapes of the Developing Human Central Nervous System. Neuron 2016; 89(2): 248–268. ( zum Volltext )
  • Paridaen, Judith TML und Huttner, Wieland B: Neurogenesis during development of the vertebrate central nervous system. EMBO Report 2014; 15(4): 351–364. ( zum Volltext )
  • Online-Embryologiekurs für Studierende der Medizin. Entwickelt von den Universitäten Fribourg, Lausanne und Bern (Schweiz). ( zur Webseite )

* Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Im Fokus der Monate Mai/Juni stehen "Struktur und Funktion neuronaler Netzwerke ". Der vorliegende Artikel ist am 30.4.2020 erschienen unter dem Titel: Vom Schicksal der Zelle.  Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde unverändert in den Blog gestellt.


Weiterführende Links: 

Geburt des Gehirns (Hagemanns Bildungsmedien); Video 1:39 min. https://www.youtube.com/watch?v=btA9K39W3aw

Artikel von Nora Schultz auf ScienceBlog.at


 

inge Wed, 10.06.2020 - 22:55

Ökonomie des Klimawandels

Ökonomie des Klimawandels

Do, 18.06.2020 — IIASA IIASA

Icon Klima

Der Klimawandel stellt nicht nur eine Bedrohung für den Planeten und die Menschheit dar, sondern wirkt sich auch auf die Stabilität der Wirtschaft aus. Um zu untersuchen, wie man diese Probleme angehen kann und was es kosten wird, entwickeln IIASA-Forscher Modelle, welche unter den sich verschärfenden Klimabedingungen Aspekte der Landwirtschaft, des Anstiegs der Meeresspiegel und der Wirtschaftsentwicklung simulieren.*

Vor einem Jahrzehnt wurden im selben Jahr drei der weltweit größten Weizen anbauenden Regionen von unterschiedlichen Wetterkatastrophen getroffen. Russland erduldete eine Hitzewelle, von der über ein Drittel seiner Anbaufläche betroffen war. Regen in der Erntezeit ließ die Qualität von Kanadas Weizen zu der von Tierfutter absinken, übermäßige Trockenheit in Westaustralien die Weizenproduktion dahinschwinden.

Abbildung 1. Wetterkatastrophen verringern die Ernten. (© Buurserstraat386 | Dreamstime)

Normalerweise puffern sich Regionen gegenseitig ab. Dieses Mal führten aber vielfache Fehlschläge zu Exportverboten. Die Preise stiegen. Hunger, bereits selbst eine Katastrophe, kann Folgewirkungen wie politische Unruhen und Migration haben. Es wäre daher zweckdienlich zu erfahren, ob in Folge des Klimawandels extreme Wettersituationen in steigendem Maße mehrere Orte gleichzeitig betreffen werden. Abbildung 1.

Klimawandel bedroht die globalen Brotkörbe

Die IIASA-Forscherin Franziska Gaupp hat gezeigt, dass dies bereits geschieht. Gaupps Forschung ist Teil einer wachsenden Zahl von IIASA-Untersuchungen, die politischen Entscheidungsträgern und Gemeinden helfen können die richtigen Maßnahmen zu ergreifen, um auf den Klimawandel zu reagieren, wenn dieser an Fahrt zunimmt, zunehmend Druck auf die Systeme ausübt und das Überleben bedroht.

Gaupp hat Daten zu Niederschlägen, Temperaturen und Sonnenschein bis ins Jahr 1967 zurück gesammelt und ebenso Daten zu Soja-, Mais-, Weizen- und Reiserträgen in den wichtigsten landwirtschaftlichen Brotkörben der Welt. Sie hat dabei festgestellt, dass im Laufe der Zeit die Wahrscheinlichkeit gestiegen ist, dass das Wetter schlecht genug ist, um die Ernteerträge an mehr als einem Ort zu beeinflussen.

Beispielsweise betrug die Wahrscheinlichkeit, dass in von ihr ausgewählten Brotkörben die Weizenernte gleichzeitig scheiterte, 0,3% vor 1990 und danach 1,2%; dagegen stieg die Wahrscheinlichkeit , dass der Weizen in drei oder vier Brotkörben im selben Jahr ausfiel, um 16%.

Es waren jedoch nicht alles schlechte Nachrichten. Ein gleichzeitiges Mehr an Sonnenschein erhöhte die Reisernten auf der ganzen Welt zwischen den beiden Zeiträumen und verringerten die Wahrscheinlichkeit von mehrfachen Ausfällen von 21% auf 12%.

Dieser Trend dürfte sich fortsetzen. Gaupp modellierte die Wahrscheinlichkeit gleichzeitiger Ausfälle bei globalen Temperaturanstiegen von 1,5 ° C und 2 ° C. Eine Begrenzung bei 1,5 ° C reduzierte das Risiko mehrfacher Ausfälle für jede Ernte um etwa ein Viertel.

Laut Gaupp sollte die Arbeit Regierungen und Unternehmen helfen, Risiken zu identifizieren und Notfallpläne zu verbessern.

„Das Klima wirkt sich auf die Erträge aus, und dies hat dann Auswirkungen auf die Preise. Preise können politische Implikationen wie Handelsverbote oder geänderte Strategien der Erntespeicherung nach sich ziehen, wobei enorme Spitzenpreise zu einer humanitären Krise werden können “, sagt sie.

Wirtschaftliche Konsequenzen des Anstiegs der Meeresspiegel

Die Auswirkungen des Klimawandels können nicht immer in wirtschaftlichen Begriffen ausgedrückt werden. Eine Abschätzung der finanziellen Auswirkungen hat jedoch den Vorteil, dass man feststellen können wird, ob es billiger kommt, Emissionen zu senken und Anpassungsmaßnahmen zu ergreifen - oder nichts zu tun und nur die Kosten des Schadens auf sich zu nehmen.

Um hier eine Antwort zu finden, müssen die Forscher ein Modell erstellen, in das sie die Kosten für die Reduzierung der CO2-Emissionen, für die Anpassung und den Aufbau der Widerstandsfähigkeit gegen den Klimarwandel ebenso einbeziehen wie die Kosten für die Schäden, die entstehen, wenn man nichts dergleichen tut und für den Schaden, der verbleibt, sogar wenn man handelt.

Der IIASA-Forscher Thomas Schinko hat ein internationales Forscherteam geleitet, das die wahrscheinlich enormen finanziellen Auswirkungen abschätzte, welche Überschwemmungen in Küstenregionen aufgrund steigender Meere verursachen können. Das Problem ist, dass die Kosten für den Kampf gegen Überschwemmungen von Küstenland auch im Hinblick auf die Reduzierung der Emissionen sowie den Aufbau von Schutzvorrichtungen und eine widerstandsfähige Infrastruktur hoch sind.

„Der Anstieg des Meeresspiegels ist eines der höchsten klimabedingten Risiken, da so viele Auswirkungen damit verbunden sind, wie Küstenerosion, Überschwemmungen, Sturmfluten und das Eindringen von Salzwasser in landwirtschaftliche Gebiete“, sagt Schinko.

Das Team hat verschiedene Wirtschaftsmodelle angewandt, um zwei Szenarien zu vergleichen: die Kosten von Überschwemmungen der Küsten und von Sturmfluten für das globale BIP, i) wenn die Welt investiert, um den Temperaturanstieg unter 2 ° C zu begrenzen; und, ii) wenn die derzeitige Politik fortgesetzt wird und die Temperatur weiter steigt. Gleichzeitig haben sie auch die Auswirkungen des Baus von Deichen entlang der Weltküsten auf das BIP berücksichtigt. Abbildung 2.

Abbildung 2. Auswirkungen des Meeresspiegelanstiegs (Sea Rise level - SLR) auf die BIPs von G20 Ländern unter verschiedenen Szenarien in den Jahren 2050 und 2100 (Bild von der Redn. eingefügt aus: T.Schinko et al., 2020, Environmental Res Comms 2 (1): e015002. DOI:10.1088/2515-7620/ab6368. Lizenz cc-by)

In der ersten Hälfte dieses Jahrhunderts wirkt sich die Begrenzung des Temperaturanstiegs kaum auf die wirtschaftliche Belastung durch Überschwemmungen der Küsten aus. Anpassung zahlt sich jedoch mehr als aus. Das BIP leidet mehr darunter, wenn wir uns nicht anpassen, als wenn wir es tun. Das Bild ändert sich jedoch dramatisch nach 2050, wenn wir durch eine starke Milderung des Temperaturanstiegs und durch Anpassung in den Jahrzehnten vor 2100 wirtschaftlich besser dran sind, als wenn wir nichts tun. Ausgedrückt in BIP steht ein globaler Verlust von 0,5% einem Verlust von 4% gegenüber.

Klimapolitik und Wirtschaft in der Zukunft

"Das Problem mit dieser Art von Schlussfolgerung ist, dass davon ausgegangen wird, dass sich die Menschen von heute um die Menschen von 2100 kümmern. Ist man kurzfristig orientiert und sagt: Der Klimawandel nach 2050 ist mir egal, dann hat man einen hohen Abzinsungssatz und ist blind für die Notwendigkeit den Temperaturanstieg abzuschwächen. Ist man um die Zukunft besorgt, dann hat das, was im Jahr 2100 passiert, im äußersten Fall das gleiche Gewicht wie das, was im nächsten Jahr passiert. Die meisten Menschen liegen in ihren Ansichten irgendwo dazwischen “, kommentiert der IIASA-Forscher Fabian Wagner.

Es ist dies ein wichtiger Punkt, weil er politische Entscheidungen zur Bekämpfung des Klimawandels beeinflusst. Modellierer können helfen, indem sie in ökonomische Modelle einbeziehen, wie weit der durchschnittliche Mensch gesellschaftlich die Zukunft abtut. Beispielsweise könnte man an ein Modell die Frage stellen, was jetzt getan werden muss, um sicherzustellen, dass die Menschen von 2100 ausreichend Nahrung haben.

Wagner und sein Team haben in den aktuellen Modellen einige Mängel festgestellt. So haben Bevölkerungsprognosen die aufkommende Erkenntnis nicht berücksichtigt, dass die Fruchtbarkeit nicht so schnell abnimmt wie man für die Sub-Sahara Region erwartet hatte.

Durch die Verbesserung solcher Inputs hat die Gruppe gezeigt, dass wir, um sogar nur ein minimales wirtschaftliches Wohlergehen für die Menschen von 2100 zu gewährleisten, unsere Emissionen weitaus aggressiver senken, die menschliche und wirtschaftliche Entwicklung beschleunigen und das Fertilitätsniveau senken müssen.

"Wenn wir den demografischen Wandel schnell vollziehen", sagt Wagner, "können wir weniger für den Klimaschutz ausgeben."


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikelerscheint am 23. Juni 2020 im Options Magazine auf der IIASA Webseite unter dem Titel: " Exploring the economics of climate change". https://iiasa.ac.at/web/home/resources/publications/options/s20_Exploring_the_economics_of_climate_change.html. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt.

Links zu den dem Artikel zugrundeliegenden Originalarbeiten finden sich auf der Webseite.


 

inge Thu, 18.06.2020 - 01:22

Durch Spiele verstehen: warum es uns immer noch nicht gelingt die Entwaldung zu stoppen

Durch Spiele verstehen: warum es uns immer noch nicht gelingt die Entwaldung zu stoppen

Do, 28.05.2020 — IIASA

IIASA Logo Icon Biologie

Klimawandel und veränderte Landnutzung bringen die Wälder weltweit in Gefahr. Trotz vielfach verstärkter nationaler und internationaler Bemühungen schreitet die Entwaldung fort. In den Strategien zur Wiederbewaldung wurde bis jetzt außer Acht gelassen, wie Menschen die Welt sehen und ihre Wahl zwischen Wäldern und ihrem Lebensunterhalt treffen. Speziell designte Spiele sollen zu einem besseres Verständnis des menschlichen Agierens verhelfen und es Interessensvertretern und Entscheidungsträgern auch bei kontroversen Wertvorstellungen ermöglichen ihre „Stärken aufeinander abzustimmen“ und zu praktikablen Lösungen zu gelangen.*

Die Entwaldung schreitet fort

Abbildung 1.

Abbildung 1. Entwaldung im Maranhao Staat (Brasilien) 2016 (Bild von Redn. eingefügt; Quelle: Wikipedia, File:Operação Hymenaea, Julho-2016 (29399454651).jpg CC BY 2.0)

Während sich in den letzten Jahren nationale und internationale Anstrengungen vervielfacht haben den Trend zur Entwaldung umzukehren, gibt es noch keine eindeutigen Hinweise darauf, dass diese Initiativen tatsächlich funktionieren. Ein neuer, im Fachjournal One Earth veröffentlichter Artikel fordert einen radikal anderen Ansatz: dessen Schwerpunkt liegt darin zu verstehen, wie Individuen ihre Wahl zwischen dem Bestand von Wäldern und dem ihre Existenz sichernden Lebensunterhalt treffen [1].

Abbildung 2. Trotz nationaler und internationaler Initiativen verlangsamt sich die Entwaldung nicht. Rückgang der Baumkronen-Dichte und Zeitpläne internationaler Initiativen. (Daten von der Global Forest Watch. Adapted from a press release prepared by CIRAD.)

An der Studie waren insgesamt 23 Forscher, Berater und NGO-Aktivisten aus 13 verschiedenen Ländern in Europa und Nordamerika beteiligt. Ihrer Meinung nach müssen die Strategien zur Entwaldung und Wiederaufforstung ebenso komplexen Charakter haben, wie die davon betroffenen Menschen. Die Studie betont dabei, dass in den letzten Jahren trotz der Fülle an nationalen, internationalen, öffentlichen und kommerziellen Initiativen die Ziele verfehlt wurden und die Trends zur Entwaldung fortdauern. Abbildung 2.

Initiativen zur Wiederbewaldung.......

Die großen Konzerne Nestlé und Procter & Gamble gaben beispielsweise im September 2019 bekannt, dass sie ihre selbst auferlegten Ziele einer Null Abholzung nicht einhalten würden. Von den  an der an der Bonn Challenge [2] beteiligten Ländern haben sich 10 %  das unmögliche Ziel gesetzt, eine Fläche aufzuforsten, die erheblich über das hinausgeht, was innerhalb ihrer Landesgrenzen zur Restaurierung zur Verfügung steht. Erst neulich, während der COVID-19-Krise, gab es in Brasilien einen Anstieg der Entwaldung. Bestimmender Faktor in all diesen Fällen ist die Art und Weise, wie Menschen Entscheidungen treffen.

.........haben bislang vernachlässigt, wie betroffene Menschen agieren

Um überhaupt einen Zugang dazu zu finden, warum Strategien versagen, muss man nach Meinung der Forscher zu einem besseren Verständnis kommen, wie von der Wiederbewaldung betroffene Menschen agieren und zu „mentalen Modellen“ - anders ausgedrückt, wie Individuen die Welt sehen und wie sie Entscheidungen treffen. Dieser Teil des Puzzles wurde bis jetzt weitgehend vernachlässigt, und dies könnte erklären, warum Verhandlungen in Pattsituationen enden und Zusagen und Strategien sich als unwirksam erweisen.

Speziell designte Spiele ermöglichen aufeinander abgestimmte Entscheidungsfindungen

Um dieses Problem anzugehen, sollte man nach Ansicht der Autoren die Annahme verwerfen, dass jeder auf ein gemeinsames Ziel hinarbeiten muss. Stattdessen schlagen sie vor, speziell designte Brettspiele zu verwenden, die es Interessensvertretern und Entscheidungsträgern ermöglichen, ihre „Stärken aufeinander abzustimmen“ ("align forces"), auch wenn sie unterschiedliche und manchmal sogar gegensätzliche Wertvorstellungen und Weltanschauungen haben. Es ist dies eine Methode, die nachweislich geholfen hat- ob in Gemeindesälen oder in Vorstandsetagen - Voreingenommenheit erfolgreich zu überwinden und aus Sackgassen heraus zu kommen. Die Forscher hoffen, dass Chefverhandler bei wichtigen internationalen Gesprächen wie der COP15 (der 15. Vertragsstaatenkonferenz des Übereinkommens über die biologische Vielfalt, die im Oktober 2020 in Kunming, China stattfinden soll ) und der 26. UN-Klimakonferenz (COP26; die für 2021 inGlasgow, Großbritannien geplant ist) auch bereit sein werden hier mit zu spielen.

„Wir haben bereits ein Vierteljahrhundert über das Problem gesprochen und sind weit davon entfernt, die aktuellen Trends umzukehren. Vielleicht ist es an der Zeit, etwas Neues auszuprobieren“, sagt Claude Garcia, Ökologe am französischen Agrarforschungszentrum für internationale Entwicklung (CIRAD) und Erstautor des Artikels.

Mit Hilfe der Spiele können die Teilnehmer sich ihrer Möglichkeiten und der Prozesse, die zur Entscheidungsfindung führen, bewusst werden - dies gibt Raum für Überlegungen und zur Identifizierung von aufeinander abgestimmten Zielen. Dabei können Teilnehmer ihre eigene Rolle spielen oder in die Rolle eines anderen schlüpfen, um die Erfahrung der Entscheidungsfindung und der hypothetischen Konsequenzen zu durchleben; dies verleiht gewonnenen Erkenntnissen mehr Eindruck. Bereits 2018 hat sich die Methode als besonders erfolgreich erwiesen, als nach zwei Jahren Leerlauf ein solches Spiel den Teilnehmern half, eine Einigung über das Management der intakten Forstlandschaft im Kongobecken zu erzielen [3].

„Derzeit lassen alle unsere Modelle dieses menschliche Agieren außer Acht. Während wir in der Lage sein können schlechteste Szenarios zu eruieren und die Politik entsprechend zu beraten, gelingt es uns nicht ein Bild einer Zukunft zu geben, wie es sie bisher noch nicht gegeben hat. Dieses menschliche Handeln mit seinem Anpassungsverhalten, den sich ändernden Ansichten und die Entscheidungskriterien in unsere Modelle einzubeziehen, ist der logische nächste Schritt. Anstatt gerade nur das Worst-Case-Szenario vermeiden zu wollen, wird dieser Ansatz ein besseres Verständnis dafür ermöglichen, wie das Anthropozän gestaltet werden kann, um eine bessere Zukunft für alle zu gewährleisten “, schließt Studienkoautor Stephan Pietsch, Forscher im IIASA Ecosystems Services and Management Program.


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 25. Mai 2020 auf der IIASA Webseite unter dem Titel: " Why are we still failing to stop deforestation?" https://iiasa.ac.at/web/home/about/news/200525-global-forest-transitions.html  erschienen. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt.


[1] Garcia CA, Savilaakso S, Verburg RW, Gutierrez V, Wilson SJ, Krug CB, Sassen M, Robinson BE, et al. (2020). The Global Forest Transition as a human affair. One Earth DOI: 10.1016/j.oneear.2020.05.002

[2] Bonn Challenge: ein 2011 gestartetes globales Projekt zur Wiederherstellung entwaldeter und erodierter Flächen mit dem Ziel 150 Millionen Hektar bis zum Jahr 2020 und 350 Millionen Hektar bis 2030 zu renaturieren. https://www.bonnchallenge.org/

[3] Wicked games: using games to resolve environmental conflicts | Claude Garcia | TEDxZurich. Video 14 min. https://www.youtube.com/watch?v=v362bMWL0Yw&feature=emb_title


Artikel zu verwandten Themen im ScienceBlog

IIASA, 10.01.2019. Die Wälder unserer Welt sind in Gefahr.  http://scienceblog.at/die-w%C3%A4lder-unserer-welt-sind-gefahr#.

IIASA, 22.07.2016: Kann Palmöl nachhaltig produziert werden? http://scienceblog.at/kann-palm%C3%B6l-nachhaltig-produziert-werden#.

Rupert Seidl, 18.03.2016: Störungen und Resilienz von Waldökosystemen im Klimawandel. http://scienceblog.at/st%C3%B6rungen-und-resilienz-von-wald%C3%B6kosystemen-im-klimawandel#.

Julia Pongratz & Christian Reick, 18.07.2014: Landwirtschaft pflügt das Klima um. http://scienceblog.at/landwirtschaft_pfluegt_klima_um#. .

Gerhard Glatzel, 28.06.2011: Hat die Menschheit bereits den Boden unter den Füßen verloren? http://scienceblog.at/hat-die-menschheit-bereits-den-boden-unter-den-f%C3%BC%C3%9Fen-verloren#.


 

inge Wed, 27.05.2020 - 23:55

Kann Vitamin D vor COVID-19 schützen?

Kann Vitamin D vor COVID-19 schützen?

Fr, 22.05.2020 Inge Schuster Inge SchusterIcon Medizin

In den letzten Wochen sind mehrere Untersuchungen erschienen, die zeigen, dass Schwere der COVID-19 Erkrankung und Mortalitätsrate offensichtlich mit niedrigen Spiegeln von Vitamin D korreliert sind, Personen mit adäquaten Spiegeln dagegen nur leichte Symptome aufweisen. Kann also Supplementierung mit Vitamin D  den Krankheitsverlauf positiv beeinflussen?

Vitamin D ein Prohormon

Das vor rund 100 Jahren als antirachitisch wirksam entdeckte Vitamin D ist kein Vitamin - der Körper kann es ja selbst herstellen - sondern ein Prohormon. Vitamin D entsteht in der Haut aus der unmittelbaren Vorstufe des Cholesterin durch eine photochemische Reaktion, wenn Sonnenlicht mit genügend hohem UVB-Anteil (Wellenlänge 280 - 315 nm) darauf trifft. In zwei darauffolgenden enzymatischen Aktivierungsschritten wird das Prohormon erst in das hydroxylierte Produkt 25-Hydroxyvitamin D3 (25(OH)D3) und dann in das biologisch wirksame Hormon Calcitriol (1,25 (OH)2D3) umgewandelt.

Calcitriol funktioniert in derselben Weise wie die strukturell nahe verwandten Steroidhormone: es bildet mit seinem sogenannten nukleären Rezeptor einen Komplex, der im Zellkern in spezifischer Weise an DNA-Regionen ("response elements") von sensitiven Genen bindet und deren Expression steuert. Es sind dies vor allem Gene, die im Calciumhaushalt - Aufnahme von Calcium aus dem Darm und Mineralisierung der Knochen - eine essentielle Rolle spielen. Die Folgen eines Vitamin D Mangels (siehe unten) sind altbekannt und unübersehbar: Rachitis bei Kindern, Osteomalazie bei Erwachsenen.

Abbildung 1. Stark vereinfachte Darstellung der hormonellen Funktionen von Calcitriol. Neben der Expression einer Vielzahl von Genen, die für Schlüsselfunktionen in wichtigen physiologischen und pathologischen Vorgängen kodieren, reguliert das Hormon seine Wirkdauer, indem es seinen Abbau zu inaktiven Produkten induziert (rot).

Darüber hinaus kann Calcitriol die Expression einer Fülle anderer Gene (von 900 oder auch mehr Genen) regulieren, die Schlüsselfunktionen in wichtigen physiologischen und pathologischen Vorgängen innehaben. Es sind u.a. Gene, die Wachstum und Differenzierung von Zellen steuern, Gene, die in der angeborenen und erworbenen Immunantwort essentiell sind und in der Abwehr von Infektionen eine wesentliche Rolle spielen, erforderliche Gene in neurophysiologischen Prozessen und in vielen weiteren Vorgängen im Organismus (Details dazu in [1]). Abbildung 1.

Potential für therapeutische Anwendungen

Eine Vielzahl unterschiedlicher ("pleiotroper") Funktionen wurde in zahllosen in-vitro Experimenten und Tierversuchen nachgewiesen und ließ die Erwartung aufkommen mit dem Hormon und auch mit dem im Körper zum Hormon umgewandelten Vitamin D eine Panacaea gegen die unterschiedlichsten Erkrankungen - Krebserkrankungen, kardiovaskuläre Erkrankungen, verschiedenste Autoimmunerkrankungen, Infektionskrankheiten, neurophysiologische Defekte hin bis zu Autismus - zu besitzen. Diese Erfolgsaussichten wurden in zahlreichen epidemiologischen Studien und Metaanalysen untermauert, die einen Zusammenhang zwischen einem Mangel an Vitamin D und dem Auftreten verschiedenster Krankheiten herstellten. Allerdings, eine direkte Evidenz aus randomisierten, Placebo-kontrollierten klinischen Studien konnte bislang nicht erbracht werden:

      ein direkter Einsatz von Calcitriol in einer beispielsweise für die Krebstherapie ausreichenden hohen Dosierung war durch die spezifischen Nebenwirkungen auf die Freisetzung von Calcium und damit dem Risiko einer lebensbedrohenden Hypercalcämie stark limitiert.

     Eine langfristige Supplementierung mit hohen Dosen Vitamin D3 hatte wiederum den Nachteil, dass die hier notwendige Kontrollgruppe mit Vitamin D Mangel ethisch nicht vertretbar war.

So endete 2018 auch die erste großangelegte Placebo kontrollierte klinische Studie zur Prävention von Krebs- und von Herz-Kreislauferkrankungen an über 25 000 eingangs gesunden Menschen mit einem ernüchternden Ergebnis [2]. In dieser sogenannten VITAL-Studie hatten die Versuchspersonen - ältere Männer und Frauen (ab 50 resp. 55 Jahren), die einen repräsentativen Querschnitt der amerikanischen Bevölkerung darstellten - über rund 5 Jahre täglich eine relativ hohe Dosis an Vitamin D3 (2000IU = 50 Mikrogramm) oder Placebo erhalten. Weder in der Inzidenz von Tumorerkrankungen (vor allem der häufigsten Formen von Prostata-, Brust- und Colon Ca) noch in der von kardiovaskulären Erkrankungen konnte ein signifikanter Unterschied zwischen Vitamin D-Supplementierung und Placebo beobachtet werden. Allerdings wies die Placebo-Gruppe über die Versuchsdauer einen Vitamin D Status auf, der im Normalbereich (gemessen am Standard 25(OH)D3: 30,8 ng/ml) lag - ein Mehr an Vitamin D3 in der supplementierten Gruppe (die Blutspiegel stiegen im Mittel auf 42 ng/ml) mochte bereits keine Steigerung potentieller Vitamin D Effekte bewirken.

Vitamin D Mangel

Das im menschlichen Organismus vorhandene Vitamin D ist überwiegend auf seine Synthese in der Haut und nur zum kleinen Teil auf zugeführte Nahrung - außer man ernährt sich überwiegend von fettem Fisch - zurückzuführen; zusätzlich kann Supplementierung mit synthetischem Vitamin D erfolgen.

Der Vitamin D-Status einer Person wird an Hand des Blutspiegels seines Metaboliten 25(OH)D3 bestimmt. Konsens besteht darüber, was als schwerer Mangel anzusehen ist und etablierte Auswirkungen auf die Calcium-Homöostase und damit vor allem auf das Knochen-/Muskelsystem hat - d.i. Blutspiegel unter 10 - 12,5 ng/ml (25 - 30 nM). Hinsichtlich adäquater, für die Gesundheit erstrebenswerter Spiegel, ist man unterschiedlicher Ansicht; häufig wird ein Status von > 30 ng/ml (d.i. > 75 nM) genannt.

Voraussetzung für die natürliche Synthese in der Haut ist ein ausreichender Anteil von UVB-Strahlung im Sonnenlicht und dies ist in der nördlichen Hemisphäre etwa vom 40 Breitengrad an nur in den Frühling- und Sommermonaten der Fall. Sofern es die Lebensumstände in dieser Zeit erlauben genügend Sonne an die Haut zu lassen, reicht das während dieser Zeit gebildete Prohormon im Mittel bis zum Herbst; zu Winterbeginn können bereits Spiegel unter 30 ng/ml bis hin zu schwerem Mangel vorliegen. Mit zunehmendem Alter sinkt die Kapazität zur Vitamin D Synthese; zusammen mit einem reduzierten Aufenthalt im Freien können die Vitamin D Speicher im Organismus noch früher geleert sein.

COVID-19 - relevante Funktionen von Vitamin D…

Das im Organismus zirkulierende 25(OH)D3 kann in den Epithelzellen des Atmungstrakts und in den dort vorhandenen Immunzellen in das aktive Hormon Calcitriol umgewandelt werden. Dort findet sich überall auch sein Rezeptor, an den gebunden Calcitriol die Expression relevanter Gene der angeborenen und der adaptiven Immunabwehr induzieren kann.

Vitamin D sensitive Gene der angeborenen Immunabwehr sind vor allem solche, die für antimikrobiell wirksame Peptide - Canthelicidin und Defensine - kodieren. Es sind dies kleine, aus bis zu 47 Aminosäuren bestehende Peptide, die einen hohen Anteil basischer Aminosäuren (Arginin und Lysin) enthalten. Diese Peptide üben eine unspezifische Breitbandwirkung auf Bakterien, Pilze und auch auf behüllte Viren aus, indem sie mit den negativ geladenen Phospholipidgruppen in den Membranen der Mikroorganismen interagieren und so deren Struktur (zer)stören. Darüber hinaus wirken die Peptide chemotaktisch auf Immunzellen und auf die Produktion von Cytokinen.

Hinsichtlich der adaptiven Immunabwehr kann Calcitriol wesentliche Entzündungsmediatoren wie Interleukin-2 und Interferon gamma unterdrücken und insgesamt in den Entzündungsprozess ("Cytokin-Sturm") eingreifen, der die späte schwere Phase von COVID-19 dominiert.

…und Korrelationen von Vitamin D-Mangel und Schwere des COVID-19 Verlaufs

Die COVID-19 Pandemie hat die Länder der Nordhalbkugel in den Wintermonaten getroffen. Aus Bestimmungen des Vitamin D-Status in europäischen Ländern geht hervor, dass bis über 50 % der gesamten Bevölkerung in den Wintermonaten moderaten bis schweren Vitamin D-Mangel aufweisen. In einer rezenten Studie in den von COVID-19 besonders betroffenen Regionen China, Iran, Italien, Spanien, Frankreich und UK weisen bis zu 94 % der alten Personen Spiegel unter 20 ng/ml (< 50 nM) auf [3]. Eine Reihe weiterer Studien, vor allem eine statistische Analyse der klinischen Daten aus China, Frankreich, Italien, Deutschland, Spanien, UK, Iran und Türkei, zeigt, dass die Schwere der COVID-19 Erkrankung - insbesondere der durch eine überaktives Immunsystem hervorgerufene Cytokin-Sturm - und die Mortalitätsrate offensichtlich mit niedrigen Spiegeln von Vitamin D korreliert sind, während Personen mit adäquaten Spiegeln nur leichte Symptome aufweisen [4].

Ist also der Vitamin D-Status entscheidend für den Verlauf der Erkrankung?

Die bis jetzt vorliegenden Daten korrelieren Vitamin D Mangel, wie er insbesondere in der alten Bevölkerung auftritt, mit einem schwerem Verlauf von COVID-19. Dies ist zweifellos beeindruckend, sollte aber mit Vorsicht interpretiert werden. Mit zunehmendem Alter treten ja auch grundlegende Änderungen in unserem Stoffwechsel ein, wesentliche Prozesse der hormonellen Regulierung hören zu arbeiten auf, das Immunsystem wird schwächer und die Anfälligkeit für diverse Erkrankungen nimmt zu. All dies kann zu Inzidenz und Verlauf von COVID-19 beitragen.

Betrachtet man die globale Inzidenz von COVID-19 und die Mortalitätsrate (% der Todesfälle pro registrierte Infektionen), so ergibt sich ein komplexes Bild. Abbildung 2. Es sticht vor allem der COVID-19-Hotspot Europa mit der weltweit ältesten Bevölkerung (Durchschnittsalter 43 Jahre [5]) hervor, gefolgt von Nordamerika (Durchschnittsalter 39 Jahre [5]). Die Inzidenz auf dem gesamten afrikanischen Kontinent ist dagegen sehr niedrig (die Anzahl der Testungen ist jedoch ungleich niedriger als in den meisten anderen Staaten [5]). Afrika weist die weltweit jüngste Bevölkerung mit einem Durchschnittsalter von 20 Jahren [5]auf und der Vitamin D-Status ist zweifellos gut; allerdings ist die Mortalitätsrate unter den als infiziert Gemeldeten vergleichbar mit der vieler anderer Staaten mit wesentlich älterer Bevölkerung und vermutlich wesentlich schlechterem Vitamin D-Status. Gilt hier die inverse Korrelation von Vitamin D-Spiegel zu Schwere der COVID-Erkrankung?

Ebenso fraglich: Auf gleichen Breitegraden wie in Afrika lebende Menschen in Lateinamerika (Durchschnittsalter 31 Jahre [5]) dürften ebenfalls gute Vitamin D Werte haben, ihre Corona Inzidenz und damit auch die Zahl der Todesfälle sind aber höher.

Abbildung 2. Oben: Globale Inzidenz von COVID-19 (bestätigte Fälle/100 000 Einwohner). Unten: Mortalitätsrate (Prozent Todesfälle/bestätigte Fälle). (Quelle: COVID-19 Dashboard by the Center for Systems Science and Engineering (CSSE) at Johns Hopkins University. Copyright 2020 John Hopkins University)

 

Es wäre zweifellos höchst wünschenswert, wenn Vitamin D die Corona-Infektion und den Krankheitsverlauf positiv beeinflussen könnte. Die darauf hinweisenden Korrelationen haben zahlreiche Forscher auf den Plan gerufen, welche nun die Hypothese in klinischen Studien prüfen wollen. Seit April wurden bereits 14 solcher klinischer Studien in der Datenbank https://clinicaltrials.gov/  gemeldet, die in Spanien, Portugal, UK, US, Iran,  Türkei und Frankreich laufen sollen. (Als Beispiel eine Multicenter-Studie in Frankreich: COvid-19 and Vitamin D Supplementation: a Multicenter Randomized Controlled Trial of High Dose Versus Standard Dose Vitamin D3 in High-risk COVID-19 Patients (CoVitTrial)).

Wie auch immer diese Studien ausgehen werden, eine Behebung von Vitamin D Magel durch Supplementierung oder besser noch, indem man Sonnenlicht an die Haut lässt, ist auf jeden Fall empfehlenswert


[1] Inge Schuster, 10.05.2012: Vitamin D — Allheilmittel oder Hype? http://scienceblog.at/vitamin-d-%E2%80%94-allheilmittel-oder-hype# .

[2] Inge Schuster, 15.11.2018: Die Mega-Studie "VITAL" zur Prävention von Herz-Kreislauferkrankungen oder Krebs durch Vitamin D enttäuscht. http://scienceblog.at/die-mega-studie-vital-zur-pr%C3%A4vention-von-herz-kreislauferkrankungen-oder-krebs-durch-vitamin-d-entt%C3%A4#.

[3] M Ebadi und A.J. Montano-Loza Perspective: improving vitamin D status in the management of COVID-19. Eur J Clin Nutr (01.05.2020) https://doi.org/10.1038/s41430-020-0661-0

[4] A Daneshkah et al., The Possible Role of Vitamin D in Suppressing Cytokine Storm and Associated Mortality in COVID-19 Patients. medRxiv preprint (18.05.2020) https://doi.org/10.1101/2020.04.08.20058578

[5] https://www.worldometers.info/world-population


Weitere Artikel zu Vitamin D im ScienceBlog

inge Fri, 22.05.2020 - 01:17

Comments

Außergewöhnliche Langlebigkeit: Wie haben die Cammalleri-Schwestern gelebt, um 106 und 113 Jahre alt zu werden?

Außergewöhnliche Langlebigkeit: Wie haben die Cammalleri-Schwestern gelebt, um 106 und 113 Jahre alt zu werden?

Do, 14.05.2020 — Ricki Lewis

Ricki LewisIcon MedizinWas führt zu einer extrem langen Lebensdauer? In einer Aufsehen erregenden Untersuchung an zwei über 100 Jahre alten Schwestern wird deren Phänotyp an Hand von demographischen, klinischen, anamnestischen, kognitiven und funktionellen Daten sowie biochemischen und genetischen Parametern charakterisiert. Besonders bemerkenswert sind Daten, die u.a. auf das Vorhandensein von oxydativem Stress und stetiger Entzündung, ungesunden Cholesterinspiegeln und von der Norm nicht abweichende Längen von Telomeren hinweisen. Die Genetikerin Ricki Lewis berichtet über diese Untersuchung, deren Aussage auch ist, dass eine "one-size-fits-all" - eine für alle einheitliche - Medizin nicht immer der beste Weg ist, um Gesundheit zu beurteilen und Langlebigkeit zu prognostizieren.*

Kürzlich stieß ich auf einen neuen Artikel , welcher die Gesundheit von zwei italienischen Schwestern analysierte, die ein bemerkenswert hohes Alter erreicht hatten. "Die phänotypische Charakterisierung der Cammalleri-Schwestern, ein Beispiel für außergewöhnliche Langlebigkeit" stammt von Calogero Caruso und Kollegen von der Universität Palermo, Italien, und wurde in Rejuvenation Research veröffentlicht [1].

Filippa, geboren am 12. Dezember 1911 und verstorben am 6. Juli 2018,war mit 106 Jahren beinahe eine Supercentenarianerin (Person , die mindestens 110 Jahre alt ist; Anm. Redn). Ihre Schwester Diega, geboren am 23. Oktober 1905 und gestorben am 15. Juni 2019, war eine Supercentenarianerin , die 113 Jahre alt wurde. Von den Hundertjährigen schafft es nur 1 von 1.000 110 Jahre alt zu werden. Weltweit sind nur 27 Supercentenarier bekannt

Ein kürzlich in The New Yorker veröffentlichter Artikel: "War Jeanne Calment die älteste Person, die jemals gelebt hat - oder ein Betrug?" erzählte die Geschichte der berühmten Französin, die 1997 angeblich im Alter von 122 Jahren starb. Als jedoch historische Unstimmigkeiten auftauchten, stellten die Ermittler fest, dass die verstorbene Frau möglicherweise eine Tochter war, welche die Identität angenommen hatte. Lauren Collins schrieb: „Jeanne Calment… war eine zufällige Ikone, ihre Berühmtheit das Ergebnis einer Form von Passivität. Einhundertundzwanzig Jahre, fünf Monate und vierzehn Tage lang gelang es Calment, nicht zu sterben."

Aber Filippa und Diega Cammalleri waren real - und untersucht.

Anti-Aging-Industrie nach dem Schema "One-Size-Fits-All"

Im Juli 2017 überreichten die Forscher den Schwestern einen detaillierten Fragebogen, nahmen alle möglichen Messungen vor und führten Blutanalysen und in begrenzten Ausmaß genetische Analysen durch. Was ihre Erkenntnisse über die Physiologie der Schwestern aufzeigen, steht in mehrfacher Hinsicht im Widerspruch zu dem, wofür die „Anti-Aging“ -Industrie wirbt, um uns angeblich länger leben zu lassen.

Es stellt sich heraus, dass die super-alten Schwestern wahrscheinlich aufgrund des hohen Anteils an Prooxidantien und des niedrigen Anteils an Antioxidantien sowie der stetigen mäßigen Entzündung so lange lebten. Filippa hatte ungesunde Cholesterinwerte und beide Schwestern teilten offenbar einen Vorliebe für Süßigkeiten.

"Altern" bedeutet biologisch gesehen "sich im Laufe der Zeit zu verändern". Die einzige Anti-Aging-Strategie besteht daher darin, sein Leben zu beenden oder mit einer Zeitmaschine eine Reise zu unternehmen. Wie jedoch in dieser Zeit der Pandemie klar ist, sind populäre Ideen nicht immer wissenschaftlich sinnvoll. Abbildung 1.

Abbildung 1. Wie man sich Anti-Aging m 16. Jahrhundert vorstellte: "Der Jungbrunnen" von Lucas Cranach d. Ä (1546), Gemäldegalerie Berlin.

Nehmen Sie Sephora, die Kette von Kosmetikprodukten und Superstores für Hautpflege. Zu deren Anti-Aging-Elixieren gehören Peelings, Seren, Polypeptid-Feuchtigkeitscremes, Öle, das völlig nutzlose Kollagen (ein zu großes Molekül, um unter die Oberhaut zu gelangen), Pitera-Essenz (ein aus Sake gebrautes „Wundermittel“; so schnell, wie ich es gegoogelt hatte, versuchte Facebook es mir bereits zu verkaufen), Milchsäure, Retinolcreme, Litschi Früchte, Hyaluronsäure und natürlich die allgegenwärtigen Antioxidantien.

Fragen und Messungen

Die Schwestern haben ihr ganzes Leben in Canicattì, Sizilien, verbracht. Was hat ihre Herzen so lange schlagen lassen?

Sie beantworteten weitreichende Fragen. Woran war jede der Schwestern erkrankt? Welche Medikamente hatten sie genommen? Hatten sie geraucht? Tests beurteilten Depressionen, den kognitiven Status, Aktivitäten des täglichen Lebens, die Fähigkeit zur Ausführung komplexer Aufgaben sowie Schlaf- und Essgewohnheiten. Eine Erwähnung körperlicher Übungen ist mir nicht aufgefallen.

Zu den Messungen gehörten der Body-Mass-Index und die Analyse der bioelektrischen Impedanz (diese bestimmt Fettgehalt und Muskelmasse mittels eines schwachen elektrischen Stroms, der durch den Handrücken und einen Fuß fließt.)

Die Familiengeschichte war unkompliziert und wies auf Langlebigkeit und Darmkrebs hin.

Filippas und Diegas Vater Calogero Cammalleri war im Alter von 97 Jahren verstorben - Ursache nicht bekannt - und ihre Mutter Maria Di Pasquale im Alter von 73 Jahren an Krebs. Von deren drei Söhnen starben die Zwillinge an Darmkrebs und ein Sohn bei einem Unfall.

Diega hat an einer Grundschule unterrichtet; Filippa hat die Grundschule abgeschlossen. Die Schwestern haben nie geheiratet und in einer Wohnung gemeinsam gelebt. Sie waren ausreichend situiert, um sich eine Pflegekraft leisten zu können.

Die Schwestern haben nie geraucht, 5 bis 6 Stunden pro Nacht geschlafen und nahmen an Medikamenten Blutdrucksenker, Diuretika und Blutverdünner ein. Diega hatte Makuladegeneration und Filippa hatte Grauen Star. Beide litten an Arthrose (ein Abbau des Gelenkknorpels ohne Entzündung) und Osteoporose.

Filippa wurde im Alter von 100 Jahren mit einem Bruch des Oberschenkelknochen und fünf Jahre später wegen Verstopfung ins Krankenhaus eingeliefert. Sie hatte eine leichte Demenz. Die Krankengeschichten der beiden Schwestern waren also wenig bemerkenswert.

Erst in ihrem letzten Jahrzehnt brauchten die Schwestern Hilfe beim Anziehen, bei der Hygiene, beim Toilettengang, beim Umhergehen und beim Essen. Während dieser letzten 10 Jahre konnten sie auch keine Mahlzeiten zubereiten, sich nicht um ihre Finanzen kümmern, den Haushalt führen, das Telefon benutzen und ihre Medikamente verwalten.

Was die Essgewohnheiten angeht, haben sich die Cammalleri-Schwestern nicht sehr an die viel gepriesene mediterrane Ernährung gehalten. Sie liebten Nudeln, Olivenöl extra vergine, Milch und Obst, haben aber nur zwei- oder dreimal pro Woche Gemüse gegessen. Die Schwestern konsumierten zweimal täglich Kuchen und / oder Kekse, einmal Eier und Kartoffeln. Ein- oder zweimal im Monat aßen sie rotes oder gepökeltes Fleisch, mochten aber weißes Fleisch, Hühner und Blaubarsch.

Zu den Daten

Die Schwestern waren klein und mager, die Bezeichnung „Wasting-Syndrom“ - tauchte auf. Beide Frauen waren kaum größer als 1,50 m, Filippa wog 50 kg, Diega 53 kg. Einer der physiologischen Tests (für PHA, auch bekannt als Polyhydroxyalkanoate) schreibt den Kleinwuchs einem Flüssigkeitsverlust aus ihren Zellen zu.

Ich habe die vier Tabellen mit Testergebnissen analysiert, um festzustellen, ob meine Interpretation mit den Schlussfolgerungen der Forscher übereinstimmt. Und dies war der Fall

Die Tabellen enthalten:

  • Anthropometrische Werte und Werte für die Körperzusammensetzung
  • Bluttests
  • Tests auf oxidativen Stress und Entzündung
  • In limitiertem Ausmaß Gentests (einige Gene und microRNAs)

 

Die Tabellen bieten eine gute visuelle Möglichkeit, um die Ergebnisse zu präsentieren. Jede Tabelle hat vier Spalten. Die Spalte ganz links enthält den Test, dann gibt es jeweils eine Spalte für die Werte jeder Schwester, dann eine Spalte für den Normalbereich der Werte von gesunden italienischen Frauen im Alter von 50 bis 65 Jahren. Fettdruck zeigt an, wo sich jede Schwester außerhalb des Normbereichs befindet, also musste ich mich zum Glück nicht mit irgendeiner Mathematik befassen.

Insgesamt wurden nur wenige Messungen in Fettdruck angezeigt; Ausnahme waren Bestimmungen von „oxidativem Stress und Entzündung“. Von den Dutzend Marker-Werten lagen die Zwillinge meilenweit entfernt.

Paradoxe Muster von Antioxidantien und MicroRNAs weisen auf Entzündung hin

Die Schwestern hatten niedrige Spiegel an Antioxidantien wie Paraoxonase und Glutathion sowie an den schwefelhaltigen Aminosäuren, die für deren Synthese benötigt werden. Sie hatten jedoch einen hohen Gehalt an Malondialdehyd, einem Marker für oxidativen Stress. Erhöhtes Kynurenin spiegelte eine körperweite Entzündung wider, ein Teil der angeborenen Immunantwort.

Die Ergebnisse für MicroRNAs waren ebenso aussagekräftig. MicroRNAs sind winzige RNA-Moleküle, die unterschiedliche Kombinationen von Genen an- und ausschalten und einige davon blockieren, transkribiert und in Protein übersetzt zu werden. Sie werden als "Dimmschalter" für das Genom bezeichnet. Kombinationen der rund 2.500 microRNAs im menschlichen Genom überwachen und optimieren die Proteinproduktion.

Die Spiegel von drei Arten der in den Blutkreisläufen der Schwestern zirkulierenden microRNAs entsprachen einem sogenannten „Langlebigkeitsphänotyp“ - einem Entzündungsgrad, der für eine viel jüngere Person normal ist.

Durfte ein Immunsystem, das für ein langes Leben ohne Infektionskrankheiten verantwortlich war, auf kleiner Flamme köcheln?

Genetische Informationen in limitiertem Ausmaß

Die genetische Analyse erfasste bloß einige wenige Marker für das Altern und keineswegs eine genomweite Landschaft von Single-Base- (SNP-) Markern oder Sequenzen des Exoms oder gesamten Genoms.

Die Forscher zogen zwei mit dem Altern verbundene Gene: FOXO3A und ApoE in Betracht.

An einer bestimmten Stelle des FOXO3A Gen kann eine Person nun zwei DNA-Basen "GG", zwei "TT" oder jeweils eine "TG" haben. Ein „G“ zu haben wurde mit Langlebigkeit verbunden. Filippa war TG und Diega TT. Es stellt sich also heraus, dass diese Assoziation nur für einige Bevölkerungen gilt, allerdings nicht für Sizilianer.

Die Varianten ε2, ε3 und ε4 des ApoE-Gens standen ebenfalls auf der Speisekarte. Dieses Gen ist weithin bekannt für seinen Zusammenhang mit dem Alzheimer-Risiko: Die ε4-Variante erhöht das Risiko, ε2 senkt es und die häufigste ε3-Variante ist neutral. Die Schwestern hatten öde ε3-Varianten.

Auch hier gelten die genetischen Assoziationen nicht für Sizilianer. Wenn wir nun zum Stoffwechsel zurückkehren, der ja unter genetischer Kontrolle steht, so hatten die Schwestern grenzwertig ungesunde Cholesterinspiegel. Diega hatte ein niedriges HDL und Filippa hatte einen niedriges HDL und dazu ein hohes LDL.

Es wurden auch Telomere bestimmt (Abbildung 2). Dies sind die Chromosomenenden, die normalerweise mit zunehmendem Alter reduziert werden. Bei langlebigen Menschen würde man längere Telomere erwarten - die Schwestern zeigten jedoch keine Abweichungen von den Normalwerten.

Abbildung 2. Menschliche Chromosomen, (grau) deren Enden Telomere (weiß) bedecken. (Bild: http://science.nasa.gov, cc 0)

Für den Befund, dass leichte Entzündungen manche Menschen lange am Leben halten, gibt es einen Präzedenzfall. Forscher des Zentrums für Überhundertjährigen-Forschung der Keio University School of Medicine in Tokio haben dies 2015 in einem Artikel mit dem Titel „“Inflammation, But Not Telomere Length, Predicts Successful Ageing at Extreme Old Age: A Longitudinal Study of Semi-supercentenarians,” berichtet; es war eine Gemeinsamkeit unter den meisten der 1.554 sehr alten Leute, die sie analysierten.

Sie schrieben: "Wir schließen daraus, dass Entzündungen ein wichtiger plastischer Treiber für ein Altern bis zum extrem hohen Alter beim Menschen sind".

Was kann man daraus schließen?

Bei beiden Schwestern, die bei relativ guter Gesundheit ihren 100. Geburtstag überschritten hatten, gab es:

  • Erhöhtes LDL-Cholesterin
  • Mäßige persistierende Entzündungswerte
  • Oxydativen Stress
  • Zweimal täglichen Verzehr von Süßigkeiten
  • Begrenzten Verzehr von Gemüse
  • Keine gegen Alzheimer schützenden ApoE-Gene

Diega und Filippa waren sicherlich außergewöhnliche Menschen. Ihr Fall zeigt aber, dass eine "one-size-fits-all" - eine für alle einheitliche - Medizin nicht immer der beste Weg ist, um Gesundheit zu beurteilen. Artikel in Fachzeitschriften feiern die Präzisionsmedizin, aber es ist unwahrscheinlich, dass der durchschnittliche Konsument im Gesundheitswesen darauf stößt.

Meine Hausärztin hat mich nie etwas zur Gesundheitsgeschichte meiner Familie gefragt. Hätte sie es getan, so würde sie erfahren haben, dass es da überhaupt keine Herz-Kreislauf-Erkrankungen gibt, trotz ungesunder Cholesterinwerte. Sie möchte mich auf ein Statin setzen. Nun, das wirklich nicht. Sie verschreibt mir weiterhin Naproxen, auch wenn es mich krank macht, weil Versicherer und Protokolle es als Mittel erster Wahl empfehlen, da Ibuprofen die Darmschleimhaut reizt. Ibuprofen macht das aber nur bei einem Prozent der Bevölkerung, und da bin ich nicht darunter.

Diega und Filippa hatten Glück - wir wissen nicht, ob sie aktiv etwas unternommen haben, um ihr Leben zu verlängern. Was wir aus dem Studium biologisch außergewöhnlicher Menschen lernen ist, dass wir mehr darüber erfahren, in welcher Weise wir uns unterscheiden. Und Dienstleister im Gesundheitswesen sollten in Betracht ziehen, dass ihre Patienten Ausnahmen von den medizinischen Regeln sein können.


[1] G. Accardi etal., The Phenotypic Characterization of the Cammalleri Sisters, an Example of Exceptional Longevity. Rejuvenation Research, Ahead of Print. 11 May 2020 https://doi.org/10.1089/rej.2019.2299 (open access)


* Der Artikel ist erstmals am 7. Mai 2020 in PLOS Blogs - DNA Science Blog unter dem Titel " Meet the Cammalleri Sisters: How Did They Live to Be 106 and 113? " https://blogs.plos.org/dnascience/2020/05/07/meet-the-cammalleri-sisters-how-did-they-live-to-be-106-and-113/ erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen. Abbildung 1 und die Legenden zu beiden Bildern wurden von der Redaktion eingefügt .


 

inge Thu, 14.05.2020 - 00:30

Die wichtigsten zellulären Ziele für das neuartige Coronavirus

Die wichtigsten zellulären Ziele für das neuartige Coronavirus

Do, 07.05.2020 — Francis S. Collins

Francis S. CollinsIcon MedizinBasierend auf den Daten im Human Cell Atlas hat ein großes internationales Forscherteam die Zelltypen im Atmungstrakt und im Darm identifiziert, welche das Andockprotein ACE2 und die Protease TMPRSS2 enthalten und damit die primären Angriffsziele des SARS-CoV-2 Virus darstellen. Francis S. Collins, Direktor der US-National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project", gibt einen Überblick über diese Aktivitäten.*

Über das neuartige, COVID-19 verursachende Coronavirus SARS-CoV-2 gibt es noch eine Menge zu lernen. Beeindruckend und erfreulich ist es aber, wie nun Forscher aus der ganzen Welt sich zusammen finden und ihre Zeit, ihre Expertise und ihre mühsam erarbeiteten Daten miteinander teilen, in dem vordringlichen Bestreben dieses verheerende Virus unter Kontrolle zu bringen.

Ein solcher Geist des Zusammenarbeitens ist in einer kürzlich durchgeführten Arbeit voll zum Ausdruck gekommen: diese Studie hat die spezifischen menschlichen Zellen gekennzeichnet, welche SARS-CoV-2 offensichtlich für eine Infektion auswählt [1]. Dieses Wissen kann nun angewandt werden, um genau zu untersuchen, wie jeder Zelltyp mit dem Virus interagiert. Letztendlich kann dies erklären helfen, warum manche Menschen für SARS-CoV-2 anfälliger sind als andere und wie man zielgerichtet auf das Virus mit Medikamenten, Immuntherapien und Impfstoffen losgehen kann, um Infektionen zu verhindern oder zu behandeln.

Diese Untersuchung wurde von den großteils geschlossenen Labors von Alex K. Shalek (Massachusetts Institute of Technology, Ragon Institute of MGH, MIT, and Harvard sowie dem Broad Institute of MIT and Harvard, Cambridge) und Jose Ordovas-Montanes im Boston Children’s Hospital vorangetrieben. Am Ende brachte sie (wenn auch nur aus der Entfernung) Dutzende ihrer Kollegen im "Lung Biological Network" des Human Cell Atlas und andere Forscher in den USA, Europa und Südafrika zusammen.

ACE2 und TMPRSS2 - ein roter Teppich für das Virus

Das Projekt nahm seinen Ausgang als Shalek, Ordovas-Montanes und andere lasen, dass SARS-CoV-2 vor dem Eindringen in menschliche Zellen an einen Proteinrezeptor namens Angiotensin-Converting-Enzym 2 (ACE2) andockt. Es handelt sich dabei um ein Enzym, das bei der Aufrechterhaltung des Blutdrucks und des Flüssigkeitshaushalts des Körpers eine Rolle spielt.

Das Interesse des Teams war geweckt, insbesondere als es von einem zweiten Enzym erfuhr, welches das Virus nutzt, um in die Zellen einzudringen. Dieses Enzym trägt das lange Akronym TMPRSS2 (Type II transmembrane serine protease, Anm. Redn.) und wird "überlistet", die Spike-Proteine auf der Oberfläche von SARS-CoV-2, für den Angriff auf die Zelle zu formatieren. Es ist die Kombination dieser beiden Proteine, die einen roten Teppich für das Virus auslegen.

Suche im Human Cell Atlas

Shalek, Ordovas-Montanes und ein internationales Team aus Doktoranden, Post-Docs, wissenschaftlichen Mitarbeitern und leitenden Forschern beschlossen, etwas tiefer in die Materie einzudringen, um herauszufinden, wo genau im Körper Zellen zu finden sind, welche diese beiden Gene gemeinsam exprimieren. Ihr Wissensdrang führte sie zu der großen Fülle von Daten, die sie selbst und andere Forscher an Modellorganismen und Menschen generiert hatten, letztere als Teil des Human Cell Atlas [2]. Dieser ist ein internationales Kooperationsprojekt, das eine umfassende Karte aller menschlichen Zellen erstellen will. Der erste Entwurf des Human Cell Atlas zielt darauf ab Informationen über mindestens 10 Milliarden Zellen zusammen zu tragen.

Abbildung 1. Zellen in der Nasenschleimhaut, in den Lungenbläschen (Alveolen) und in der Darmschleimhaut , die ACE2 und TMPRSS2 exprimieren, werden von SARS-CoV-2 infiziert. (Bild: Credit NIH; Legende: Redn.)

Um diese Informationen zu sammeln, stützt sich das Projekt teilweise auf relativ neue Möglichkeiten zur Sequenzierung von RNA in einzelnen Zellen. Erinnern wir uns daran, dass prinzipiell jede Zelle im Körper das identische DNA-Genom aufweist. Unterschiedliche Zellen verwenden jedoch unterschiedliche Programme, um zu entscheiden, welche Gene aktiviert werden sollen. Sie exprimieren diese Gene in Form von RNA-Molekülen, die dann in Proteine übersetzt werden können. Mittels der Einzelzellanalyse der RNA ist es möglich die Expression von Genen und Aktivitäten innerhalb jedes einzelnen Zelltyps zu charakterisieren.

Basierend auf dem, was über das Virus und die Symptome von COVID-19 bekannt war, konzentrierte sich das Forscherteam auf die Hunderten Zelltypen, die sie in Lunge, Nasengängen und Darm identifizierten. Die Ergebnisse sind im Fachjournal Cell berichtet [1]. Abbildung 1.

Abbildung 2. In den Lungenbläschen findet der Austausch von Sauerstoff und Kohledioxid zwischen den ausgefüllten Hohlräumen und dem Blut in den Lungenkapillaren statt. (Bild und Legende von Redn. eingefügt. Bild modifiziert nach Katherinebutler1331 cc-by-sa-4.0. https://en.wikipedia.org/ )

Ein Filtern der Daten nach Zellen, die ACE2 und TMPRSS2 gemeinsam exprimieren, ließ die Forscher die Liste der Zelltypen in den Nasengängen auf die schleimproduzierenden sekretorischen Becherzellen (Goblet Zellen) eingrenzen. In der Lunge konnte die Aktivität dieser beiden Gene in Zellen nachgewiesen werden, die als Typ-II-Pneumozyten bezeichnet werden; diese Zellen säumen kleine Luftbläschen, sogenannte Alveolen, und helfen, diese offen zu halten. Abbildung 2.

Im Darm waren es die absorbierenden Enterozyten, die eine wichtige Rolle für die Aufnahme von Nährstoffen in den Körper spielen.

Interferon steigert die Expression von ACE2…

Die Daten erbrachten einen unerwarteten weiteren und möglicherweise wichtigen Aspekt. In den beschriebenen Zellen - alle davon befinden sich in Epithelgeweben, welche Körperoberflächen bedecken oder auskleiden -, steigert das ACE2-Gen seine Expression offenbar gleichzeitig mit anderen Genen, von denen bekannt ist, dass sie von Interferon stimuliert werden, einem Protein, das der Körper als Reaktion auf Virusinfektionen produziert.

Im Labor behandelten die Forscher dann Zellkulturen, von Zellen, welche die Atemwege in der Lunge auskleiden, mit Interferon (Interferon alpha, Anm. Redn.). Tatsächlich erhöhte die Behandlung die Expression von ACE2.

Frühere Studien haben gezeigt, dass ACE2 der Lunge hilft, Schäden zu tolerieren. Dass hier eine Verbindung zur Antwort auf Interferon besteht, wurde völlig übersehen. Dies könnte nach Meinung der Forscher daran liegen, dass zuvor noch nicht an diesen spezifischen menschlichen Epithelzellen untersucht wurde.

…dies könnte vermehrtes Andocken des Virus an die Lungenzellen bewirken

Die Entdeckung legt nahe, dass SARS-CoV-2 und möglicherweise andere Coronaviren, die über ACE2 andocken, einen Vorteil aus der natürlichen Abwehrreaktion des Immunsystems ziehen könnten. Wenn der Körper auf die Infektion reagiert, indem er mehr Interferon produziert, führt dies wiederum zur Produktion von mehr ACE2, was die Fähigkeit des Virus erhöht, sich besser an Lungenzellen zu binden. Wenn hier auch noch viel mehr Untersuchungen nötig sind, weist der Befund darauf hin, dass jedwede mögliche Anwendung von Interferon zur Behandlung von COVID-19 eine sorgfältige Überwachung erfordert, um festzustellen, ob und wann es Patienten helfen könnte.

Die neuen Erkenntnisse - aus Daten stammend, die ursprünglich nicht in Hinblick auf COVID-19 erstellt wurden - enthalten mehrere potenziell wichtige neue Anhaltspunkte. Es ist wieder eine Demonstration für den Wert der Grundlagenforschung. Wir können auch sicher sein, dass die Fortschritte an diesen und vielen anderen Fronten angesichts der Bemühungen von Mitgliedern der wissenschaftlichen Gemeinschaft auf der ganzen Welt, sich dieser neuen Herausforderung zu stellen, in beachtenswertem Tempo fortgesetzt werden.


[1] Ziegler, CGK et al. Cell. April 20, 2020. SARS-CoV-2 receptor ACE2 is an interferon-stimulated gene in human airway epithelial cells and is detected in specific cell subsets across tissues

[2] Human Cell Atlas (Broad Institute, Cambridge, MA) https://www.humancellatlas.org/  Siehe dazu : Human Cell Atlas - Reading biology. Video 1,4 min. https://www.youtube.com/watch?time_continue=98&v=nkGeWvLm9Mc&feature=emb_logo


* Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 5. Mai 2020) im NIH Director’s Blog unter dem Titel: " The Prime Cellular Targets for the Novel Coronavirus." https://directorsblog.nih.gov/2020/05/05/the-prime-cellular-targets-for-the-novel-coronavirus/ Er wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig (mit einigen Untertiteln) für den ScienceBlog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

  • National Institute of Allergy and Infectious Diseases/NIH: Coronaviruses
  • Shalek Lab (Harvard Medical School and Massachusetts Institute of Technology, Cambridge)
  • Ordovas-Montanes Lab (Boston Children’s Hospital, MA)

 

inge Thu, 07.05.2020 - 00:25

COVID-19: NIH-gesponserte Klinische Studie zeigt Überlegenheit von Remdesivir gegenüber Placebo

COVID-19: NIH-gesponserte Klinische Studie zeigt Überlegenheit von Remdesivir gegenüber Placebo

Do, 30.04.2020 — Redaktion

RedaktionIcon Medizin Remdesivir, ein Analogon des Nukleosids Adenosin, hemmt die virale Polymerase und damit die Replikation des viralen Genoms. Die vom Pharmakonzern Gilead ursprünglich gegen Ebola entwickelte Substanz wirkt gegen ein breites Spektrum unterschiedlicher Viren. Nach ersten positiven Testungen gegen SARS-CoV-2 Infektionen in den USA und in China wurde Remdesivir in einer NIH-gesponserten randomisierten, kontrollierten Studie an 1063 COVID-19- Patienten getestet und zeigte schnellere Wiederherstellung und niedrigere Letalität als das Placebo.*

Krankenhauspatienten mit schwerer COVID-19-Erkrankung und nachgewiesener Involvierung der Lunge, die Remdesivir erhielten, erholten sich schneller als vergleichbare Patienten, die Placebo erhielten. Dies ergab eine vorläufige Datenanalyse aus einer randomisierten, kontrollierten Studie an 1063 Patienten, die am 21. Februar begann. Die Studie (die sogenannte adaptive COVID-19-Behandlungsstudie - ACTT), die vom National Institute of Allergy and Infectious Diseases (NIAID), einem Teil der National Institutes of Health, gesponsert wird, ist die erste klinische Studie, die in den USA gestartet wurde, um eine experimentelle Behandlung für COVID-19 zu evaluieren.

Ein unabhängiges Gremium der Daten- und Sicherheitsüberwachung (DSMB), das die Studie beaufsichtigt, kam am 27. April zusammen, um die Daten zu überprüfen und teilte die Zwischenanalyse mit dem Studienteam. Basierend auf ihrer Überprüfung der Daten stellten sie fest, dass aus Sicht des primären Endpunkts, der Zeit bis zur Wiederherstellung - ein Maßstab , die häufig in Influenza-Studien verwendet wird -, Remdesivir dem Placebo überlegen ist. Wiederherstellung wurde in dieser Studie als gesund genug definiert, um aus dem Krankenhaus entlassen zu werden oder zum normalen Aktivitätsniveau zurückzukehren.

Vorläufige Ergebnisse zeigen, dass Patienten, die Remdesivir erhielten, eine um 31% schnellere Genesungszeit hatten als Patienten, die Placebo erhielten (p <0,001). Speziell betrug die mediane Zeit bis zur Genesung 11 Tage bei Patienten, die mit Remdesivir behandelt wurden, verglichen mit 15 Tagen bei Patienten, die Placebo erhielten. Die Ergebnisse deuteten auch auf einen Überlebensvorteil hin, mit einer Sterblichkeitsrate von 8,0% für die Gruppe, die Remdesivir erhielt, gegenüber 11,6% für die Placebogruppe (p = 0,059).

Detailliertere Informationen zu den Versuchsergebnissen, einschließlich umfassenderer Daten, werden in einem demnächst folgenden Bericht verfügbar sein. Im Rahmen der Verpflichtung der US-amerikanischen Food and Drug Administration (FDA), die Entwicklung und Verfügbarkeit potenzieller COVID-19-Therapien zu beschleunigen, hat die FDA dauernde und fortlaufende Gespräche mit Gilead Sciences geführt, um Remdesivir für Patienten so schnell wie möglich zur Verfügung zu stellen. Die Studie wurde am 19. April für Neuanmeldungen geschlossen. NIAID wird auch ein Update zu den Plänen für die Weiterführung der ACTT-Studie bereitstellen. Diese Studie war eine adaptive Studie, ausgerichtet um zusätzliche experimentelle Behandlungen zu inkorporieren.

Der erste Studienteilnehmer an der ACTT-Studie war ein Amerikaner, der zurückgeholt wurde, nachdem er auf dem in Yokohama, Japan, angedockten Kreuzfahrtschiff Diamond Princess unter Quarantäne gestellt worden war, und sich im Feber 2020 freiwillig zur Teilnahme an der Klinischen Studie am ersten Studienort, dem Medical Center der University of Nebraska/ Nebraska Medicine gemeldet hatte. Insgesamt 68 Standorte nahmen schließlich an der Studie teil - 47 in den USA und 21 in Ländern in Europa und Asien.

Remdesivir, entwickelt von Gilead Sciences Inc., ist eine experimentelles antivirales Breitband-Agens, das 10 Tage lang über eine tägliche Infusion verabreicht wird. Es hat sich in Tiermodellen als vielversprechend für die Behandlung von SARS-CoV-2-Infektionen (dem Virus, das COVID-19 verursacht) erwiesen und wurde in verschiedenen klinischen Studien untersucht.


* Die eben in News releases ( April 29, 2020) veröffentlichten preliminären Ergebnisse: NIH Clinical Trial Shows Remdesivir Accelerates Recovery from Advanced COVID-19. https://www.niaid.nih.gov/news-events/nih-clinical-trial-shows-remdesivir-accelerates-recovery-advanced-covid-19 wurden von der Redaktion möglichst wortgetreu übersetzt.

Zur Beschreibung der Studie: NIH Clinical Trial of Remdesivir to Treat COVID-19 Begins - Study Enrolling Hospitalized Adults with COVID-19 in Nebraska. https://www.niaid.nih.gov/news-events/nih-clinical-trial-remdesivir-treat-covid-19-begins


 Artikel zu COVID-19 im ScienceBlog:

Redaktion, 19.04.2020. COVID-19: Exitstrategie aus dem Lockdown ohne zweite Infektionswelle. http://scienceblog.at/covid-19-exitstrategie-aus-lockdown

Francis S. Collins, 16.04.2020: Können Smartphone-Apps helfen, Pandemien zu besiegen? http://scienceblog.at/smartphone-apps-helfen-pandemien-besiegen>

Redaktion, 08.04.2020: SARS-CoV-2 – Zahlen, Daten, Fakten zusammengefasst. http://scienceblog.at/sars-cov2-zahlen-daten-fakten

Matthias Wolf, 06.04.2020: "Extrablatt": Ein kleines Corona – How-to. http://scienceblog.at/corona-howto

IIASA, 02.04.2020: COVID-19 - Visualisierung regionaler Indikatoren für Europa. http://scienceblog.at/covid-19-visualisierung-regionaler-indikatoren-für-europa

Inge Schuster, 27.03.2020: Drug Repurposing - Hoffnung auf ein rasch verfügbares Arzneimittel zur Behandlung der Coronavirus-Infektion. http://scienceblog.at/drug-repurposing-arzneimittel-zur-behandlung-der-coronavirus-infektion

Experimenteller Impfstoff gegen SARS-CoV-2 bereits in klinischer Phase 1-Testung. http://scienceblog.at/impfstoff-gegen-sars-cov-2-in-klinischer-phase-1

Strukturbiologie weist den Weg zu einem Coronavirus-Impfstoff. http://scienceblog.at/strukturbiologie-weist-weg-zu-coronavirus-impfstoff

inge Wed, 29.04.2020 - 23:16

Genom Editierung mit CRISPR-Cas9 - was ist jetzt möglich?

Genom Editierung mit CRISPR-Cas9 - was ist jetzt möglich?

Do, 23.04.2020 — Christina Beck

Icon Molekularbiologie

Christina BeckBakterien haben gelernt sich gegen die sie infizierenden Viren, die sogenannten Bakteriophagen, zu schützen. Auf diesem Schutzmechanismus basiert die CRISPR-Cas9 Technik, eine einfache, billige Methode mit der man innerhalb weniger Stunden die DNA präzise schneiden und nach Wunsch verändern kann. Die Methode funktioniert bei jedem Organismus, an dem sie ausprobiert wurde, – vom Fadenwurm über Pflanzen bis hin zum Menschen - und hat die biologisch-medizinischen Wissenschaften revolutioniert. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, gibt einen Überblick über Entstehung und Anwendung der Methode und spannt einen Bogen von Programmen zur Wiederbelebung bereits ausgestorbener Tiere bis zur Genchirurgie von Erbkrankheiten beim Menschen.*

Die Fortschritte in der genomischen Biotechnologie bieten erstmals vielleicht die Möglichkeit, lang ausgestorbene Arten – oder zumindest „Ersatz“-Arten mit Merkmalen und ökologischen Funktionen ähnlich wie die der ausgestorbenen Originale – zurückzubringen.

Ein Team unter der Leitung von George Church an der Harvard University versucht, bereits ausgestorbene Mammuts wieder zum Leben zu erwecken, indem es das Erbgut seines heute noch lebenden Verwandten, des asiatischen Elefanten, Buchstabe für Buchstabe umschreibt. Abbildung 1. Das ist möglich seit Forschern der Pennsylvania State University 2008 die erste nahezu vollständige Sequenzierung des Erbguts eines ausgestorbenen Wollhaarmammuts gelungen ist und damit theoretisch der Zugriff auf die Information für alle seine Eigenschaften. Mehr als vier Milliarden DNA-Basen wurden dafür dekodiert.

Abbildung 1. Das bereits ausgestorbene Wollhaarmammut soll wiederbelebt werden. (Bild © MPG, HN //)

Das Mammut eignet sich wie kaum ein anderes ausgestorbenes Wirbeltier zur Analyse seines vorzeitlichen Erbguts. Denn die Fossilien der eiszeitlichen Elefanten stammen vorwiegend aus dem Permafrostboden Sibiriens, wo sie relativ gut erhalten bleiben. Der nächste lebende Verwandte des Wollhaarmammuts ist der asiatische Elefant. Nach Erbgutanalysen von Svante Pääbo und seinem Team vom Max-Planck-Institut für evolutionäre Anthropologie haben sich der asiatische Elefant und das Wollhaarmammut vor etwa 440.000 Jahren in verschiedene Arten aufgespalten. Das Genom des Wollhaarmammuts und des asiatischen Elefanten unterscheidet sich daher „nur“ um etwa 1,4 Millionen Mutationen: Ein asiatischer Elefant besteht also praktisch bereits zu 99,96 Prozent aus Wollhaarmammut.

Jurassic Park – von der Fiktion zur Realität?

Das Harvard Woolly Mammoth Revival-Team hat 2015 zunächst das Erbgut eines Wollhaarmammuts analysiert und dann von bestimmten Mammutgenen exakte Kopien künstlich hergestellt. Diese wurden erfolgreich in Fibroblasten-Zelllinien des asiatischen Elefanten eingebaut. „Wir haben vor allem Gene genommen, die etwas mit der Kälteresistenz zu tun haben – also Gene für langes Fell, kleinere Ohren, die Einlagerung von Unterhautfett und vor allem für Mammut-Hämoglobin“, erklärte George Church gegenüber den Medien. Es ist ein erster Erfolg, der sich aber schnell relativiert. Denn selbst wenn man sich auf das Wesentliche beschränkt: Um ein dem Mammut stark gleichendes Genom zu erhalten, müssten die Forscher schon ein paar hunderttausend Erbgutabschnitte ersetzen, so die vorsichtige Schätzung. Hinzu kommt: Noch kennen sie gar nicht alle Sequenzen, die für die mammuttypischen Merkmale relevant sind.

Ungeachtet dessen wollen die US -amerikanischen Wissenschaftler aber auch die Expression von Mammut-Mutationen in lebenden Elefantenzellen untersuchen, um Vorhersagen über die Genfunktion zu testen. Wie formt die Evolution dasselbe Gen, um es in einer Linie an tropische Lebensräume anzupassen, während eine alternative Version dieses Gens an kalte Lebensräume angepasst wird? Diese Forschung bildet nicht nur die Grundlage für die Wiederbelebung („de-extinction“) des Mammuts, sondern liefert potenziell wertvolle Einblicke in die Evolution unter verschiedenen Klimabedingungen. Die Erkenntnisse könnten neue Ansätze für die genetische Biotechnologie aufzeigen, um die Anpassung an vom Klimawandel bedrohte wildlebende Tiere zu erleichtern. Aber zum jetzigen Zeitpunkt ist das alles noch Zukunftsmusik.

Eine Waffe gegen Bakteriophagen

Um was für eine Technik handelt es sich eigentlich, die die Möglichkeiten der Molekularbiologie in den vergangenen Jahren so grundlegend erweitert hat und die Fantasie der Wissenschaftler beflügelt?

Wir blicken zurück in das Jahr 1987: Bei der Untersuchung von E. coli-Bakterien stoßen japanische Mikrobiologen zum ersten Mal auf ungewöhnliche, sich wiederholende DNA-Sequenzen im Erbgut eines Bakteriums. „Die biologische Bedeutung dieser Sequenzen ist vollkommen unbekannt“, schreiben sie. Wenig später nimmt der spanische Mikrobiologie Francisco Mojica an der Universität von Alicante diese Sequenzen genauer unter die Lupe. Sie lassen sich vorwärts wie rückwärts lesen, wie die Palindrom-Worte „Rentner“ oder „Lagerregal“ in der menschlichen Sprache. Während diese Worte aber durchaus eine Bedeutung haben, ergeben Palindrome im Wortschatz der Genetik keinen Sinn: Sie lassen sich nicht in funktionstüchtige Proteine übersetzen.

Mojica nennt diese Sequenzen Clustered Regularly Interspaced Short Palindromic Repeats – oder kurz CRISPR. 2005 entdeckt er, dass sie mit Ausschnitten aus dem Genom eines Bakteriophagen, eines für Bakterien schädlichen Virus, übereinstimmen. Erstmals äußert er die Vermutung, dass CRIS PR in Bakterien die Funktion eines adaptiven Immunsystems haben könnte.

Zwei Jahre später gelingt einem französischen Wissenschaftler der Firma Danisco, dem weltweit größten Hersteller von Nahrungsmittelzusätzen, bei der Untersuchung von Streptokokken, die zur Herstellung von Joghurt eingesetzt werden, tatsächlich der experimentelle Nachweis: Philippe Horvath und seine Kollegen integrieren Ausschnitte der Phagen-DNA in den CRIS PR-Abschnitt und können so tatsächlich die nächste Phagen-Attacke bekämpfen.

Bakterien sind ständigen Angriffen durch Bakteriophagen ausgesetzt. Denn diese sind nicht in der Lage, sich eigenständig zu vermehren. Sie müssen einen anderen Organismus kapern, in den sie ihr Erbgut einschleusen können. Die vom Phagen eingeschleusten Fremdgene programmieren das Genom des Wirtes um: Das Bakterium produziert nun keine Proteine mehr für sich selbst, sondern wird zu einer kleinen „Phagenfabrik“. Sie arbeitet so lange auf Hochtouren bis die Bakterienzelle voller Phagen ist und platzt, sodass die Phagen freigesetzt werden. (Abbildung 2)

Abbildung 2. Infektion einer Bakterienzelle durch einen Phagen. Der Bakteriophage koppelt an passende Rezeptoren an der Oberfläche des Bakteriums an (a) und injiziert die phageneigene DNA bzw. RNA (b). Dann beginnt die Transkription des Virusgenoms und es kommt zur Produktion der Virusbestandteile (c). Diese werden zu reifen Phagen zusammengebaut (d). Die fertigen Phagen werden durch Auflösung der Wirtszelle befreit (e). Die Zelle platzt und etwa 200 infektiöse Phagen werden frei.

Aber Bakterien haben Abwehrmechanismen entwickelt, um sich gegen solche Infektionen zu wehren. Wenn die Enzyme eines Bakteriums es schaffen, die injizierte Virus-DNA in kleine Stücke zu schneiden, dann kommen andere Enzyme hinzu und bauen diese Fragmente in den CRIS PR-Abschnitt im bakterieneigenen Genom ein. Die seltsam aufgebauten Sequenzen stellen somit eine „Erinnerung“ an zurückliegende Virusinfektionen dar. Es ist eine Art Bibliothek sämtlicher Erreger, mit der das Bakterium schon konfrontiert worden ist. Und diese Bibliothek kann es sogar an seine Nachkommen weitergeben.

Das letzte Puzzle-Teil im CRISPR-CAS-System

Im Jahr 2011 rätselt die französische Mikrobiologin Emmanuelle Charpentier an der Universität Umeå in Schweden darüber, wie der dahinterliegende Mechanismus der Immunabwehr funktioniert.

Charpentier findet das letzte Puzzleteil im CRISPR-Cas-System, indem sie eine RNA-Sequenzierung bei einem Streptococcus-Bakterium durchführt und dabei auf zwei kurze RNAs stößt: Das Bakterium schreibt nämlich die Fremd-DNA im CRIS PR-Abschnitt in ein RNA-Molekül um, CRISPR-RNA (crRNA) genannt. Diese CRISPR-RNA ist quasi ein molekularer Steckbrief, sie liefert die Erkennungssequenz, mit der das Enzym namens Cas9, eine Nuklease, die entsprechende DNA-Sequenz des eingedrungenen Virus aufspürt. Damit Cas9 aktiv werden kann, bedarf es jedoch einer zweiten kleinen RNA, die die Mikrobiologin als trans-aktivierende CRISPR-RNA (tracrRNA) bezeichnet. Erst der Komplex aus crRNA und tracrRNA führt das Cas-Enzym zum Ziel: Indem Cas9 beide Stränge der Virus-DNA zerschneidet, verhindert es eine erfolgreiche Infektion durch den Bakteriophagen Abbildung 3.

Abbildung 3. Wie sich Bakterien vor einer Zweitinfektion mit Bakteriophagen schützen - ein adaptives Immunsystem (Bild: © MPG, HN //)

Zusammen mit Jennifer Doudna von der University of California in Berkeley gelingt Emmanuelle Charpentier, die heute die Max-Planck-Forschungsstelle für die Wissenschaft der Pathogene in Berlin leitet, ein Jahr später der entscheidende technologische Durchbruch: Sie fusionieren die beiden RNA-Moleküle crRNA und tracrRNA im Labor zu einem einzigen Molekül, einer sogenannten Single Guide RNA. Für den Einsatz der CRISPR/Cas-Methode muss nur noch eine RNA kloniert werden. Die beiden Wissenschaftlerinnen haben damit das Funktionsprinzip von CRISPRCas9, in der Öffentlichkeit gerne als Gen-Schere bezeichnet, radikal vereinfacht.

2013 adaptiert der Biochemiker Feng Zhang, der am Broad Institute des MIT und der Harvard University forscht, CRISPR-Cas9 erfolgreich für die Genom-Editierung in eukaryotischen Zellen. Zhang und seinem Team gelingt die gezielte Genom-Editierung in kultivierten Zellen der Maus und des Menschen. Sie zeigen, dass das CRISPR-Cas-System so programmiert werden kann, dass es verschiedene genomische Abschnitte verändert. George Church, der das Wollhaarmammut wieder zum Leben erwecken will, berichtet in der gleichen Ausgabe des Fachmagazin Science über ähnliche Ergebnisse.

Grundsätzlich ist Genom-Editierung nicht neu – verschiedene Techniken dafür gibt es schon seit Jahren. Was CRISPR so revolutionär macht, ist seine Präzision. Und es ist unglaublich billig und einfach. Mussten Forscher früher Tausende von US -Dollar und Wochen oder Monate im Labor einsetzen, um ein Gen zu verändern, so kostet es heute noch etwa 75 US -Dollar und dauert lediglich ein paar Stunden. Und diese Technik hat bei jedem Organismus, an dem sie ausprobiert wurde, funktioniert – vom Fadenwurm über Pflanzen bis hin zum Menschen.

CRISPR ist heute das heißeste Forschungsgebiet. 2011 gab es weniger als 100 Veröffentlichungen über CRISPR, 2018 waren es schon mehr als 17.000. Und es werden immer mehr, mit neuen Techniken zur Manipulation von Genen, Verbesserungen in der Präzision sowie weiteren Arten von CRIS PR-Proteinen, die ebenfalls als Gen-Editoren arbeiten. Cas13, zum Beispiel, kann RNA statt DNA editieren. „Wir sind an dem Punkt angelangt, an dem die Effizienz der Genbearbeitung auf einem Niveau liegt, das eindeutig sowohl therapeutisch als auch für eine Vielzahl anderer Anwendungen nützlich sein wird“, sagt Jennifer Doudna in einem Interview.

Und genau deshalb gibt es schon seit einigen Jahren einen intensiven Rechtsstreit darüber, wem die potenziell lukrativen Patentrechte für die CRISPR-Technologie zugesprochen werden sollen. Im September 2018 wies ein US -Bundesberufungsgericht die Einwände der University of California in Berkeley zurück und bestätigte die Patente des Broad Institute für einige CRISPR-Anwendungen. Die europäischen Regulierungsbehörden wiederum haben der Universität grundlegende Patente in Europa erteilt. Diese decken die Single Guide RNA für CRISPR-Cas9 in allen Bereichen, einschließlich eukaryotischer Zellen, weitgehend ab. 2019 hat die University of California in USA neue Dokumente vorgelegt und ficht damit die Entscheidung der US -amerikanischen Behörden an. Die Patentschlacht geht also weiter.

Genom-Editierung – Chancen und Risiken

Viele Mediziner sind überzeugt, dass sie durch das Editieren von Genen zum Beispiel Erbkrankheiten behandeln können, bei denen ein oder mehrere Gene nicht richtig funktionieren. Sie wollen es bei Mutationen anwenden, die beispielsweise die Huntington-Krankheit oder Mukoviszidose auslösen. Versuche an Mäusen haben gezeigt, dass fehlerhafte Genabschnitte, wie sie auch bei menschlichen Erbkrankheiten auftreten, durch das Editieren von Genen entfernt und die entsprechenden Krankheitsbilder behandelt werden können.

Eines der größten Probleme beim Versuch, die menschliche DNA zu verändern, besteht in den sogenannten Off-Target-Effekten. Diese entstehen, wenn Cas9 ein Stück DNA schneidet, auf das es nicht programmiert wurde. Das ist wie bei der Programmierung des Navigationsgerätes im Auto beispielsweise mit der Adresse „Restaurant“. In jeder Stadt führt diese Suche zu mehreren individuellen Standorten. Aber welcher Standort ist der richtige? In der gleichen Weise wird Cas9 durch die Guide RNA zu seinem DNA-Ziel geleitet. Wenn die von der Guide RNA angegebene Adresse nicht eindeutig ist – was bei lediglich 20 Basenpaaren leicht möglich ist –, wird Cas9 an mehrere Stellen geführt, wo es die DNA schneidet. Das könnte zu unerwünschten und schwerwiegenden Nebenwirkungen, einschließlich Krebs, führen. Für jede therapeutische Anwendung beim Menschen mit Hilfe von CRISPR ist die Minimierung dieser Off-Target-Effekte daher von größter Bedeutung.

Es gibt aber auch schon erste erfolgversprechende Ansätze. So wurden zwei Patientinnen mit Beta-Thalassämie bzw. Sichelzellanämie mit der CRISPR-Technik behandelt. Bei beiden Krankheiten ist die Herstellung des Blutfarbstoffs Hämoglobin gestört, beide konnten bislang nur mit häufigen Bluttransfusionen behandelt werden, die lebensverkürzende Nebenwirkungen haben. Nun kommen die Patientinnen seit Monaten ohne Bluttransfusionen aus, wie das Bostoner Online-Magazin STAT im November 2019 vermeldete. Die Gentherapien wurden von den Biotech-Firmen Vertex Pharmaceuticals und CRISPR Therapeutics entwickelt. Emmanuelle Charpentier hat CRISPR Therapeutics gegründet und zeigt sich gegenüber der Presse glücklich, „dass CRISPR-basierte Gentherapien nach einer einzigen Behandlung einen heilsamen Effekt für Patienten mit Beta-Thalassämie und Sichelzellanämie haben.“ Aber noch ist die Studie nicht abgeschlossen, insgesamt 45 Patienten sollen in deren Rahmen therapiert werden. Bei vielen von ihnen hat die Behandlung noch nicht einmal begonnen. Und noch kann man nicht sagen, ob die Therapie für immer wirkt und ob sie – ggf. zu einem viel späteren Zeitpunkt – Nebenwirkungen zeigt.


* Der Artikel ist erstmals unter dem Title: Genome Editing mit CRIPR-Cas9" in BIOMAX 35 (Winter 2019/2020) der Max-Planck-Gesellschaft erschienen https://www.max-wissen.de/318686/BIOMAX-35-web.pdf und wurde freundlicherweise von der Autorin ScienceBlog.at zur Verfügung gestellt. Der Artikel wurde praktisch unverändert in den Blog übernommen.


Weiterführende Links

Gen-editing mit CRISPR/Cas9 Video 3:13 min (deutsch) , Max-Planck Gesellschaft (2016) (Standard-YouTube-Lizenz ) https://www.youtube.com/watch?v=ouXrsr7U8WI

Ricki Lewis, 28.11.2019: Wenn das angepeilte Target nicht das tatsächliche Target ist - ein Grund für das klinische Scheitern von Wirkstoffen gegen Krebs. http://scienceblog.at/wenn-das-angepeilte-target-nicht-das-tats%C3%A4chliche-target-ist

 

Francis S. Collins, 02.02.2017: Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie. http://scienceblog.at/finden-und-ersetzen-genchirurgie-mittels-crispr-cas9-erscheint-ein-aussichtsreicher-weg-zur-genthera#.

 

Artikel von Christina Beck im ScienceBlog:

Christina Beck, 05.04.2018: Endosymbiose - Wie und wann Eukaryonten entstanden http://scienceblog.at/endosymbiose-wie-und-wann-eukaryonten-entstanden#.  

Christina Beck, 29.03.2018:Ursprung des Lebens - Wie Einzeller kooperieren lernten. http://scienceblog.at/ursprung-des-lebens-wie-einzeller-kooperieren-lernten#.

 

inge Wed, 22.04.2020 - 13:25

COVID-19: Exitstrategie aus dem Lockdown ohne zweite Infektionswelle

COVID-19: Exitstrategie aus dem Lockdown ohne zweite Infektionswelle

Do, 19.04.2020 — Redaktion

RedaktionIcon Medizin Eine Lockerung des Lockdowns bringt zwar vorübergehende Erleichterung, kann jedoch zu einer rückkehrenden Welle der COVID-19-Epidemie führen. Eine zweite Infektionswelle wird dann ein erneutes vollständiges Lockdown zur Folge haben mit schwerwiegenden wirtschaftlichen, gesundheitlichen und sozialen Konsequenzen. Basierend auf dem bereits verstandenen Ablauf der Infektion schlägt ein transdisziplinäres Team von Wissenschaftern intermittierendes Arbeiten als Übergangsstrategie vor: diese ermöglicht eine sofortige Rückkehr zu Wirtschaftstätigkeit und Ausbildung und verhindert gleichzeitig eine zweite Welle der Epidemie.

Weltweit habe viele Länder Lockdowns eingeführt, die zwar helfen die Ausbreitung von COVID-19 zu unterdrücken, jedoch verheerende, nicht nur die Wirtschaft betreffende Folgen haben. Ein transdisziplinäres Team israelischer Wissenschafter schlägt nun Ausstiegsstrategien aus der Sperrung vor, die eine nachhaltige, wenn auch reduzierte Wirtschaftstätigkeit ermöglichen.[1]

Die Wissenschafter - es sind dies die Systembiologen Prof. Uri Alon und Prof.Ron Milo mit ihren Mitarbeitern (Computational Biology, Weizmann Institut), der Technologieleiter von Applied Materials (Rehovot) Boaz Dudovich, Prof. Nadav Davidovich (Health Systems Management, Ben-Gurion University), Prof. Amos Zahavi (Political Science, Tel Aviv University), Prof. Eran Yashiv (The Eitan Berglas School of Economics, Tel Aviv University) und Dr. Hagit Olanowski (Health and Environmental Risk Management, SP Interface) - wenden mathematische Modelle an, um zu zeigen, dass intermittierendes Arbeiten - ein zyklischer Zeitplan von 4-tägigem Arbeiten und 10-tägiger Sperre oder ähnlichen Varianten - unter bestimmten Bedingungen sowohl die Epidemie unterdrücken als auch gleichzeitig eine Teilzeitbeschäftigung ermöglichen kann.

Dieser Zyklus orientiert sich an dem für das Virus charakteristischen zeitlichen Ablauf der Infektion und ist damit gegen das Virus selbst ausgerichtet. Durch eine Kombination aus reduzierter Expositionszeit und einem Anti-Phasen-Effekt wird die Reproduktionszahl R (diese gibt an, wie viele Infektionen auf direktem Weg übertragen werden) verringert: Diejenigen, die an Arbeitstagen infiziert werden, erreichen an Sperrtagen - also zuhause - eine maximale Infektiosität und können je nach Verlauf in Quarantäne bleiben oder wieder an den Arbeitsplatz zurückkehren.

Die Zahl der Arbeitstage lässt sich dabei an die Beobachtungen anpassen. Währenddessen müssen epidemiologische Maßnahmen in vollem Umfang fortgesetzt werden; diese schließen Hygiene, physische Distanzierung, räumliche Trennung, sowie umfassende Testung und Kontaktverfolgung ein.

Das Wissenschafter-Team hat nun eine kurze Zusammenfassung der Vier-Tage-Arbeit/Zehn-Tage-Sperrstrategie verfasst und dem ScienceBlog zur Verbreitung zur Verfügung gestellt [2]. Wir haben diesen Text möglichst wortgetreu übersetzt und durch einige Abbildungen aus [1 - 3] ergänzt:

---------------------------------------------

Intermittierendes Arbeiten: Eine sofortige und praktikable Strategie für die Rückkehr zur Wirtschaftstätigkeit, die eine zweite Welle von COVID-19 verhindert [2]

Autoren: Uri Alon, Ron Milo, Nadav Davidovich, Amos Zahavi und Hagit Ulanovsky

Das Problem: Eine Lockerung des Lockdowns bringt zwar vorübergehende Erleichterung, kann jedoch zu einer rückkehrenden Welle der COVID-19-Epidemie führen. Eine zweite Infektionswelle wird ein erneutes vollständiges Lockdown zur Folge haben mit schwerwiegenden wirtschaftlichen, gesundheitlichen und sozialen Konsequenzen. Abbildung 1.

Die Lösung: Intermittierendes Arbeiten.Diese Strategie sollte zu bestehenden epidemiologischen Maßnahmen hinzugefügt werden, einschließlich physischer Distanzierung, Hygiene, weit verbreiteter Verwendung von Testungen und Kontaktverfolgung, Beachtung von Hochrisikoregionen und Schutz gefährdeter Bevölkerungsgruppen.

Abbildung 1. Eine Lockerung des Lockdowns kann zu einer erneuten Infektionswelle führen. A: schematisch dargestellt (Bild aus [1]), B: Die zweite Infektionswelle in der Influenza-Pandemie 1918/19 hat zu einem massiven Anstieg der Todesfälle geführt (Bild : US National Museum of Health and Medicine; Wikimedia)

Intermittierendes Arbeiten in Wirtschaft und Schulsystem

Im Zentrum der Strategie steht die Rückkehr des Schulsystems zum Unterricht in zwei Gruppen, die ein intermittierendes Arbeiten in der Wirtschaft ermöglichen. Zu diesem Zweck wird die Bevölkerung in zwei Gruppen von Haushalten aufgeteilt:

Jede Gruppe arbeitet an vier Tagen von Montag bis Donnerstag und beginnt dann mit einer 10 tägigen Sperrzeit. Dieser Zyklus wiederholt sich. Während des Lockdowns einer Gruppe arbeitet die andere Gruppe. Der spezifische Zeitplan von vier Arbeitstagen und dann zehn Sperrtagen wird ausgewählt, da er die Epidemie unterdrückt und die Anzahl der Fälle verringert, wie nachstehend erläutert wird. Abbildung 2.

Abbildung 2. Die Exitstrategie 4 Tage Arbeiten/10 Tage Sperrzeit (A) orientiert sich an der Zeitskala des Infektionsverlaufs (B) (Bild A aus [2], Bild B stammt aus "SARS-CoV-2 – Zahlen, Daten, Fakten zusammengefasst" [3])

Dem Schulsystem wird aufgrund seiner Bedeutung für Bildung und Arbeit zentrale Bedeutung zugemessen: Solange Kinder zu Hause sind, können viele Eltern nicht zur Arbeit gehen. Das Schulsystem beginnt mit einer Routine, in der die Hälfte der Schüler von Montag bis Donnerstag und die andere Hälfte am folgenden Montag bis Donnerstag lernt. Dies ermöglicht auch kleinere Klassen, welche eine physische Distanzierung erleichtern.

Während des gesamten Zeitraums arbeiten unabkömmliche Mitarbeiter wie gewohnt weiter. Ausgewählte Berufszweige mit niedrigem Infektionsrisiko können auch kontinuierlich arbeiten. Alle ersetzbaren Arbeitnehmer schließen sich ihrer Haushaltsgruppe an und arbeiten nur während der 4 Tage ihrer Gruppe.

Eindämmung der Epidemie

Es wird erwartet, dass mit dieser Strategie die Replikationszahl unter eins reduziert wird. Dies führt zu einem exponentiellen Rückgang der Anzahl neuer Fälle und verhindert ein Wiederauftreten der Epidemie.

Die Strategie greift das Virus auf drei Arten an:

(i) Sie reduziert die Zeit zur Infektion außerhalb des Hauses um etwa 70% im Vergleich zu einer vollständigen Aufhebung des Lockdowns.

(ii) Sie verringert das Infektionsrisiko, da aufgrund der Verwendung von zwei Gruppen die Anzahl der Personen an Arbeitstagen um die Hälfte verringert wird.

(iii) Sie wendet die Zeitskalen des Infektionsablaufs gegen das Virus selbst an. Eine mit Korona infizierte Person ist an den ersten drei Tagen - der Latenzzeit - nicht infektiös. Somit erreichen diejenigen, die während der 4 Arbeitstage infiziert wurden, während ihrer nachfolgenden Sperrtage eine maximale Infektiosität, wodurch neue Infektionen bei der Arbeit verhindert werden. Abbildung 2b. Somit werden nur die im gleichen Haushalt lebenden Personen dem Risiko ausgesetzt; treten Symptome bei einem  Haushaltsmitglied auf, kann der gesamte Haushalt unter Quarantäne gestellt werden. Abbildung 3.

Abbildung 3.Gestaffelte zyklische Strategie von 4 Tage Arbeit: 10 Tage Sperre; die Bevölkerung ist in zwei Haushaltsgruppen geteil, die abwechselnd arbeiten. (Modell: deterministisches SEIR Erlang Modell mit einer mittleren Latenzzeit von 3 Tagen und einer darauf folgenden Dauer der Infektiosität von 4 Tagen; Bild aus [1])

Anmerkung: die Analyse basiert auf mathematischen Modellen und der wissenschaftlichen Literatur und sollte gemeinsam mit der lokalen epidemiologischen Analyse betrachtet werden.

Wann kann intermittierendes Arbeiten beginnen?

Mit intermittierendem Arbeiten kann begonnen werden, sobald durch den Lockdown die Zahl neuer Fälle konstant zurückgeht. Das Konzept ist allerdings bis jetzt (20. April 2020) noch nicht umgesetzt; es erscheint ratsam, das Programm erst in bestimmten Regionen durchzuführen, bevor man es im ganzen Land startet. Nach einem Monat intermittierender Arbeit kann man dann die Ergebnisse überprüfen und entscheiden, ob man die Zahl der Arbeitstage verändert und an sich verändernde Bedingungen anpasst. Das Programm kann mit der vollständigen Rückkehr zur Arbeit enden, sobald wirksame Maßnahmen (wie in Südkorea) entwickelt sind, einschließlich Schnelltests und Kontaktisolierung.

Wir betonen, dass wir diese Strategie nicht für sich allein umgesetzt wissen wollen, sondern in Kombination mit anderen Maßnahmen zur Bekämpfung der Epidemie, um vielen Wirtschaftszweigen den Beginn einer vorhersehbaren Perspektive zu bieten.

Positive Auswirkungen auf die Wirtschaft

Der Plan bietet 40% Teilzeitbeschäftigung (4 von 10 Arbeitstagen im zwei Wochen Rhythmus) für Millionen von Arbeitslosen. Dies erhöht das Einkommen der Arbeitnehmer und verringert das Risiko einer Minderung von Qualifikationen aufgrund längerer Arbeitslosenzeiten, wie sie für schwere Wirtschaftskrisen charakteristisch sind. Der Plan bietet vorhersehbare und nahezu kontinuierliche, wenn auch reduzierte wirtschaftliche Aktivitäten. Vorhersehbarkeit reduziert Stress und stärkt das Vertrauen in die Wirtschaft, das für die Erholung unerlässlich ist. Zur Steigerung der Prodktivität können Arbeitstage auch längere Arbeitszeiten und Schichtarbeit enthalten. Während der Arbeitstage kann die Bevölkerung medizinische Untersuchungen und Behandlungen durchführen lassen, die derzeit unterbunden werden, um den kumulativen „nicht COVID-bedingten“ Gesundheitsschaden des Lockdowns zu verringern.

Fazit

Intermittierende Arbeit ist eine sofortige und praktikable Strategie für die Rückkehr zur Wirtschaftstätigkeit, die eine zweite Infektionswelle von COVID-19 verhindert.


 

[1]Omer Karin et al.,  (07.04.2020): Adaptive cyclic exit strategies from lockdown to suppress COVID-19 and allow economic activity. https://medium.com/@urialonw/adaptive-cyclic-exit-strategies-from-lockdown-to-suppress-covid-19-and-allow-economic-activity-4900a86b37c7                                      

[2] Uri Alon et al.,(19.04.2020): Intermittent work: An immediate and feasible strategy for a return to economic activity that prevents a second wave of COVID-19. https://docs.google.com/document/d/1uWimqAgOf0624IWkwCzi4e1VFU7OOpKXeZ4UncfaEOU/edit

 

[3] Redaktion, (08.04.2020): SARS-CoV-2 – Zahlen, Daten, Fakten zusammengefasst. http://scienceblog.at/sars-cov2-zahlen-daten-fakten

---------------------------------------------------------

Uri Alon: homepage https://www.weizmann.ac.il/mcb/UriAlon/homepage

Ron Milo: homepage https://www.weizmann.ac.il/plants/Milo/home


 

inge Sat, 18.04.2020 - 16:22

Können Smartphone-Apps helfen, Pandemien zu besiegen?

Können Smartphone-Apps helfen, Pandemien zu besiegen?

Do, 16.04.2020 — Francis S. Collins

Francis S. CollinsIcon MedizinSolange es keine wirksamen Medikamente , keine vorbeugende Impfung gegen COVID-19 gibt, ist das öffentliche Leben weltweit enormen Einschränkungen unterworfen und gravierende soziale, wirtschaftliche und psychologische Auswirkungen sind die Folge. Mobile Apps zur Kontaktverfolgung infizierter Personen können dazu beitragen, die Übertragung der Infektion einzudämmen und damit die Ausgangsbeschränkungen zu lockern. Dabei ist aber eine richtige Balance zwischen dem Schutz der öffentlichen Gesundheit und der Wahrung der Persönlichkeitsrechte zu finden. Francis S. Collins, Direktor der US-National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project", gibt einen Überblick über diese Aktivitäten.*

Die meisten von uns haben In den letzten Wochen viel Zeit damit verbracht, sich mit der durch das neue Coronavirus hervorgerufenen Krankheit (COVID-19) zu befassen und darüber nachzudenken, was erforderlich ist, um diese und auch zukünftige pandemische Bedrohungen zu bekämpfen. Wenn es Zeit wird, dass die Menschen aus ihrer häuslichen Isolation herauskommen, wie können wir dann eine zweite Infektionswelle vermeiden? Ein entscheidender Aspekt ist hier die Entwicklung besserer Methoden, um die rezenten Kontakte von Personen zu verfolgen, die positiv auf den Krankheitserreger getestet wurden - im aktuellen Fall ein hochinfektiöses, neuartiges Coronavirus.

In der üblichen Verfolgung von Kontakten ist ein Team von Mitarbeitern im öffentlichen Gesundheitswesens involviert, die telefonisch oder in persönlichen face-to-face Gesprächen sich mit einzelnen Personen unterhalten. Es ist dies ein zeitaufwändiger methodischer Prozess, der normalerweise nach Tagen bemessen wird und in komplexen Situationen mit Vielfach-Kontakten sogar Wochen dauern kann. Forscher schlagen nun vor, die digitale Technologie zu nutzen, um die Kontaktverfolgung viel schneller, vielleicht in nur wenigen Stunden durchzuführen.

Kontaktverfolgung mittels digitaler Technologie

Die meisten Smartphones sind mit drahtloser Bluetooth-Technologie ausgestattet, die ein Protokoll aller in der Nähe aktiven mobilen Opt-In-Apps erstellt - einschließlich der Opt-In-Apps auf den Telefonen von Personen in der Nähe. Dies hat eine Reihe von Forschungsteams auf die Idee gebracht eine App zu erstellen, um Einzelpersonen über ihr Expositionsrisiko zu informieren. Insbesondere wenn ein Smartphone-Benutzer heute positiv auf COVID-19 getestet wird, wird jeder in seinem aktuellen Bluetooth-Protokoll anonym benachrichtigt und der Rat erteilt, sich zu Hause aufzuhalten. In einem kürzlich in der Fachzeitschrift Science veröffentlichten Artikel hat eine britische Forschungsgruppe darauf hingewiesen, dass eine solche digitale Verfolgung in den kommenden Monaten wertvoll sein könnte, um unsere Chancen zu verbessern COVID-19 unter Kontrolle zu halten [1].

Unter Verwendung der bereits veröffentlichten Daten zu den COVID-19-Ausbrüchen in China, Singapur und an Bord des Kreuzfahrtschiffes Diamond Princess hat das britische Team unter der Leitung von Luca Ferretti, Christophe Fraser und David Bonsall (Universität Oxford) seine Analysen begonnen. Mit einem Schwerpunkt auf Prävention haben die Forscher die verschiedenen Übertragungswege verglichen, von Menschen mit und ohne Symptome der Infektion.

Basierend auf diesen Daten kamen sie zu dem Schluss, dass die herkömmliche Kontaktverfolgung zu langsam war, um mit den sich schnell ausbreitenden COVID-19-Ausbrüchen Schritt zu halten. Während der drei untersuchten Ausbrüche hatten die mit dem neuen Coronavirus infizierte Personen eine mittlere Inkubationszeit von etwa fünf Tagen bevor sie Symptome von COVID-19 zeigten. Zwischen einem Drittel und der Hälfte aller Übertragungen während der Inkubationszeit dürfte nach Schätzung der Forscher von symptomlosen Individuen gekommen sein. Traten letztendlich Symptome auf, wurde eine infizierte Person dann getestet wurde und erhielt eine COVID-19-Diagnose, so hätte ein Gesundheitsteam noch mindestens einige zusätzliche Tage benötigt, um die Kontaktverfolgung mit herkömmlichen Mitteln durchzuführen. Bis dahin hätte es kaum eine Chance gegeben, den Ausbruch zu überholen, indem man die Kontakte der infizierten Person isoliert hätte, um die Übertragungsrate zu verlangsamen.

Als die Forscher die Situation in China untersuchten, stellten sie fest, dass die verfügbaren Daten einen Korrelation zwischen der Einführung von Smartphone-Apps zur Kontakt-Verfolgung und der Entstehung einer offensichtlich anhaltenden Eindämmung der COVID-9-Infektion aufweisen. Ihre Analysen zeigten, dass dies auch in Südkorea der Fall war, wo Daten, die über eine Smartphone-App gesammelt wurden, verwendet wurden, um eine Quarantäne anzuempfehlen.

Ethische, rechtliche und soziale Probleme einer Kontaktverfolgung

Trotz der möglichen Vorteile im Bekämpfen oder sogar im Abwenden von Pandemien haben die britischen Forscher zugegeben, dass die digitale Kontakt-Verfolgung einige wichtige ethische, rechtliche und soziale Probleme aufwirft. In China mussten die Menschen die digitale Rückverfolgungs-App auf ihren Handys installieren, wenn sie sich aus ihrer unmittelbaren Nachbarschaft hinaus wagen wollten. Die App hat auch ein farbcodiertes Warnsystem aufgezeigt, um die Bewegungen einer Person in einer Stadt oder Region einzuschränken oder zu lockern. Die chinesische App leitete außerdem die Informationen, die sie über die Bewegungen der Telefonbenutzer und den COVID-19-Status gesammelt hatte, an eine zentrale Datenbank weiter, was ernsthafte Bedenken hinsichtlich der Datensicherheit und des Datenschutzes personenbezogener Daten aufwirft.

In dem neuen Artikel spricht sich das Oxford-Team, zu dem auch ein Bioethiker gehörte, für einen verstärkten sozialen Dialog darüber aus, wie Digital Tracing am besten zum Nutzen der menschlichen Gesundheit eingesetzt werden kann. Dies ist eine weitreichende Diskussion mit Auswirkungen, die weit über die Zeit der Pandemie hinausgehen. Das Team hat zwar Daten zur digitalen Kontaktverfolgung für COVID-19 analysiert, die Algorithmen, die diese Apps steuern, können jedoch angepasst werden, um die Ausbreitung anderer häufiger Infektionskrankheiten - beispielsweise der saisonalen Influenza - zu verfolgen.

Die Autoren der Studie haben noch einen weiteren wichtigen Punkt angesprochen. Selbst die fortschrittlichste digitale Tracing-App ist keine große Hilfe, wenn Smartphone-Benutzer sie nicht herunterladen. Ohne eine weitreichende Installation können die Apps nicht genügend Daten erfassen, um eine effektive digitale Nachverfolgung zu ermöglichen. Tatsächlich schätzen die Forscher, dass etwa 60 Prozent der neuen COVID-19-Fälle in einer Gemeinde entdeckt werden müssten - und ungefähr der gleiche Prozentsatz der zurückverfolgten Kontakte -, um die Ausbreitung des tödlichen Virus zu unterdrücken.

Bei solchen Zahlen arbeiten App-Designer hart daran, die richtige Balance zwischen dem Schutz der öffentlichen Gesundheit und der Wahrung der Persönlichkeitsrechte zu finden. Dazu gehört der NIH-Stipendiat Trevor Bedford vom Fred Hutchinson Cancer Research Center in Seattle. Er und seine Kollegen haben gerade NextTrace gestartet, ein Projekt, das darauf abzielt, eine Opt-In-App-Community für die „digitale partizipative Kontaktverfolgung“ von COVID-19 aufzubauen. Hier bei NIH haben wir ein Team, das sich aktiv mit der Technologie befasst, mit der die Vorteile erzielt werden können, ohne die Privatsphäre übermäßig zu beeinträchtigen.

Bedford betont, dass er und seine Kollegen nicht versuchen, bereits laufende Bemühungen zu wiederholen. Sie möchten vielmehr mit anderen zusammenarbeiten, um eine wissenschaftlich und ethisch fundierte Grundlage für die digitale Verfolgung zu schaffen, die auf die Verbesserung der Gesundheit der gesamten Menschheit abzielt.


[1] Quantifying SARS-CoV-2 transmission suggests epidemic control with digital contact tracing. Ferretti L, Wymant C, Kendall M, Zhao L, Nurtay A, Abeler-Dörner L, Parker M, Bonsall D, Fraser C. Science. 2020 Mar 31. [Epub ahead of print]


* Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 9. April 2020) im NIH Director’s Blog unter dem Titel: "Can Smart Phone Apps Help Beat Pandemics?" https://directorsblog.nih.gov/2020/04/09/can-smart-phone-apps-help-beat-pandemics/. Er wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig (mit einigen Untertiteln) für den ScienceBlog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


 

 

inge Thu, 16.04.2020 - 00:39

SARS-CoV-2 – Zahlen, Daten, Fakten zusammengefasst

SARS-CoV-2 – Zahlen, Daten, Fakten zusammengefasst

Mi, 08.04.2020 — Redaktion

RedaktionIcon MedizinBereits vor drei Jahren haben wir über die Datenbank "BioNumbers" (- "database of key numbers in molecular and cell biology") berichtet [1,2], auf der quantitative biologische Daten in allen Details schnellstens aufgerufen werden können. Der Biologe Ron Milo (Professor am Weizmann-Institut, Rehovot), einer der Gründer der Datenbank, hat nun zusammen mit dem Biophysiker Rob Phillips (Professor am Caltech, Pasadena) und ihren Studenten Yinon Bar-On und Avi Flamholz die Datenbank erweitert: Sie haben Hunderte Studien - vor allem aus jüngster Zeit- zu Coronaviren kritisch durchgesehen und aus diesen die wichtigsten Informationen zur Biologie des Sars-CoV-2 Virus selbst und zur Infektion mit dem Virus zusammengefasst [3]. Von der Infektion über die Ausbreitung des Virus bis hin zu Ansätzen für Prävention und Therapie bieten die quantitativen Daten eine überaus wertvolle Basis für alle, die an der Eindämmung der Pandemie arbeiten.*

Die derzeitige SARS-CoV-2-Pandemie ist eine schmerzliche Erinnerung an die Tatsache, dass die Virendynamik - ob bei einem einzelnen menschlichen Wirt oder auch bei einer, die Kontinente überziehenden Infektionswelle - meist eine Geschichte der Zahlen ist. In der folgenden Zusammenfassung wird eine kuratierte grafische Quelle über die wichtigsten Zahlen bereitgestellt, die helfen soll, das Virus zu verstehen, das zu unserer aktuellen globalen Krise führte. Die Zusammenfassung dreht sich um zwei große Themen:

  1. die Biologie des Virus selbst und
  2. die Merkmale der Infektion eines einzelnen menschlichen Wirts.

Die Zusammenfassung enthält die Schlüsselzahlen für SARS-CoV-2, die hauptsächlich auf von Experten geprüfter Literatur (peer-reviewed) basieren (und im Originaltext [3] mit den entsprechenden Referenzen belegt sind). Die Leser sollen sich jedoch daran erinnern, dass noch viel Unsicherheit besteht und sich das Wissen über diese Pandemie und das Virus, das diese antreibt, rasch weiterentwickelt.

In den folgenden Abschnitten sind vereinfachte Berechnungen vorgestellt, welche die Einblicke veranschaulichen, die sich aus der Kenntnis einiger Schlüsselzahlen und der Verwendung quantitativer Logik ergeben. Diese Berechnungen dienen dazu, unsere Einsicht zu verbessern, ersetzen jedoch keine detaillierte epidemiologische Analyse.

1.Wie lange dauert es bis eine infizierte Person eine Million Infizierter generiert?

Wenn sich alle so wie gewohnt verhalten, wie lange würde es dauern, bis sich von einer Person ausgehend die Pandemie auf eine Million infizierter Opfer ausbreitet?

Die Basisreproduktionszahl R​0 gibt an, dass jede Infektion auf direktem Weg 2 bis 4 weitere Infektionen erzeugt, sofern keine Gegenmaßnahmen wie beispielsweise soziale Distanzierung getroffen werden. Sobald man infiziert ist, dauert es eine gewisse Zeit, die sogenannte Latenzzeit, bevor man das Virus übertragen kann. Die derzeit beste Schätzung der mittleren Latenzzeit sind ungefähr 3 Tage, darauf folgen ca. 4 Tage der nahezu maximalen Infektiosität. Die genaue Dauer variiert bei den einzelnen Patienten und einige sind wesentlich länger ansteckend. Abbildung 1.

Abbildung 1. Zeitlicher Verlauf der von einem Patienten ausgehenden Infektion. Die Schätzungen sind an Parametern des Bevölkerungsdurchschnitts in China angepasst und beschreiben nicht die interindividuelle Variabilität

Bei Verwendung von R​0 ​≈ 4 vervierfacht sich die Anzahl der Fälle ca. alle 7 Tage oder verdoppelt sich alle ≈3Tage. Ein 1000-faches Wachstum (von einem Fall auf 10​3​) erfordert 10 Verdopplungen (210 = 1024); 3 Tage × 10 Verdopplungen = 30 Tage oder ungefähr ein Monat. Wir erwarten also ein 1000-faches Wachstum in einem Monat, ein Wachstum auf eine Million (10​6​) in zwei Monaten und auf eine Milliarde (10​9​) in drei Monaten.

Auch wenn diese Berechnung stark vereinfacht ist und die Auswirkungen von „Superverbreitern“, Herden-Immunität und unvollständigen Testungen dabei ignoriert werden, zeigt sie doch ganz deutlich, dass sich Viren in einem enormen Tempo verbreiten können, wenn keine Gegenmaßnahmen ergriffen werden. Dies veranschaulicht, warum es entscheidend ist, die Verbreitung des Virus durch Maßnahmen einer sozialen Distanzierung einzudämmen.

Was ist die Berstgröße (burst size) und die Replikationszeit des Virus?

Zwei wichtige Merkmale des viralen Lebenszyklus sind die Zeit, die er benötigt, um neue infektiöse Nachkommen zu produzieren, und die Anzahl der Nachkommen, die jede infizierte Zelle produziert. Die Ausbeute an neuen Virionen, die pro infizierter Zelle freigesetzt werden - die Berstgröße -, ist in vivo sehr schwierig zu bestimmen. Daher greifen Forscher normalerweise auf das Messen dieser Werte in Gewebekulturen zurück. Abbildung2.

Abbildung 2.Innerhalb von 10 Stunden produziert eine infizierte Zelle rund 1000 neue Virionen. (* bedeutet größenordnungsmäßig; die Experimente wurden in Zellkulturen ausgeführt).

2. Wie wirkt sich soziale Distanzierung aus?

Ein stark vereinfachtes, quantitatives Beispiel verdeutlicht die Notwendigkeit sozialer Distanzierung:

Angenommen, Sie sind infiziert und treffen im Laufe eines Arbeitstages, auf dem Weg zur Arbeit, im privaten Umgang oder bei Besorgungen auf 50 Personen. Um die Zahlen rund zu machen, nehmen wir weiter an, dass Sie bei jeder dieser Begegnungen eine 2%-ige Chance haben, das Virus zu übertragen, sodass Sie wahrscheinlich jeden Tag eine neue Person infizieren. Wenn Sie 4 Tage lang infektiös sind, infizieren Sie durchschnittlich 4 andere Personen, was ungefähr dem höheren R​0​-Werten für SARS-CoV-2 entspricht, wenn keine soziale Distanzierung besteht. Wenn Sie jedoch aufgrund von sozialer Distanzierung jeden Tag auf 5 Personen (noch besser auf weniger) treffen, infizieren Sie 0,1 Personen pro Tag oder 0,4 Personen, bevor Sie weniger infektiös werden. Der gewünschte Effekt der sozialen Distanzierung besteht darin, dass jede vorliegende Infektion weniger als 1 Neuinfektion hervorruft.

Eine effektive Reproduktionszahl (R​e​) kleiner als 1 wird sicherstellen, dass die Anzahl der Infektionen letztendlich zurückgeht. Es ist von entscheidender Bedeutung, schnell R​e​ <1 zu erreichen und dies ist wesentlich besser erreichbar ist, als R​e​ durch Maßnahmen im öffentlichen Gesundheitswesen auf nahe Null zu bringen

3. Warum beträgt die Quarantänezeit zwei Wochen?

Der Zeitraum von der Infektion bis zum Auftreten von Symptomen wird als Inkubationszeit bezeichnet. Die mittlere SARS-CoV-2-Inkubationszeit wird auf rund 5 Tage geschätzt. Dennoch gibt es von Mensch zu Mensch große Unterschiede. Etwa 99% derjenigen, die Symptome zeigen, zeigen diese vor dem 14. Tag, was die zweiwöchige Isolationszeit erklärt (Abbildung 1).

Was hier wichtig ist: bei dieser Analyse fallen infizierte Personen, die keinerlei Symptome zeigen, unter den Tisch. Da asymptomatische Menschen normalerweise nicht getestet werden, ist es immer noch nicht klar, wie viele solcher Fälle es gibt oder wie lange asymptomatische Menschen infektiös bleiben.

4. Wie blockieren N95-Masken SARS-CoV-2?

N95-Masken sind so konzipiert, dass sie mehr als 95% aller Partikel mit einem Durchmesser von mindestens 0,3 µm (Mikrometern = ⅟₁₀₀₀ mm) abhalten (NIOSH 42 CFR Part84). Tatsächlich zeigen Messungen zur Effizienz der Filtration von N95-Masken,dass sie in der Lage sind, 99,8% der Partikel mit einem Durchmesser von ~0,1 μm zu filtern. SARS-CoV-2 ist ein behülltes Virus mit einem Durchmesser von ~0,1 μm. Daher können N95-Masken die meisten freien Virionen filtern, aber sie leisten mehr als das.

Wie?

Viren werden häufig durch Atemtröpfchen übertragen, die durch Husten und Niesen entstehen. Wie viele Viren in den Sekreten enthalten sein können, ist in Abbildung 3 dargestellt.

Abbildung 3. Targetzellen für SARS-CoV-2 im respiratorischen Trakt und maximale Virenkonzentration im Nasenrachenraum, Sputum und Stuhl von COVID-19 Patienten. (Anm. Redn.: Ein großes, durch Niesen erzeugtes Tröpfchen könnte demnach bis zu100 000 Viren enthalten; allerdings überschätzt die RNA-Bestimmung die Zahl aktiver Virionen - siehe Punkt 8.)

Atemtröpfchen werden normalerweise in zwei Größen unterteilt, große Tröpfchen (>5 μm – Mikrometer=1/1000mm – im Durchmesser),die schnell auf den Boden fallen und daher nur über kurze Entfernungen übertragen werden, und kleine Tröpfchen (≤5 μm im Durchmesser). Kleine Tröpfchen können sich als Aerosole („Tröpfchenkerne“) verflüchtigen, bleiben über einen beträchtlichen Zeitraum in der Luft und können eingeatmet werden. Einige Viren wie Masern können durch Tröpfchenkerne übertragen werden. Derzeit gibt es keine direkten Hinweise auf eine SARS-CoV-2-Übertragung durch Tröpfchenkerne. Es wird vielmehr angenommen, dass größere Tröpfchen der Hauptvektor derSARS-CoV-2-Übertragung sind, üblicherweise durch Absetzen auf Oberflächen, die von Händen berührt und dann auf Schleimhäute wie Augen, Nase und Mundtransportiert werden (Details hier).

Der charakteristische Durchmesser großer Tröpfchen, die durch Niesen erzeugt werden, beträgt ~100 μm, während der Durchmesser von Tröpfchenkernen, die durch Hustenerzeugt werden, in der Größenordnung von ~1 μm liegen. Daher schützen N95-Masken wahrscheinlich vor verschiedenen Arten der Virusübertragung.

5. Wie ähnlich ist SARS-CoV-2 den Erkältungs- und Grippeviren?

SARS-CoV-2 ist ein Beta-Coronavirus, dessen Genom ein einzelner ≈​30-kB (30 000 Basen)-RNA-Strang ist. Die Grippe (Influenza) wird durch eine völlig andere Familie von RNA-Viren verursacht, die Influenzaviren genannt werden. Grippeviren haben kleinere Genome (≈14 kB), die in 8 verschiedenen RNA-Strängen kodiert sind und sie infizieren menschliche Zellen auf andere Weise als Coronaviren.

Die „Erkältung“ wird durch eine Vielzahl von Viren verursacht, darunter einige Coronaviren und Rhinoviren. Erkältung verursachende Coronaviren (z. B. OC43- und 229E-Stämme) sind SARS-CoV-2 in der Länge des Genoms (innerhalb 10%) und der Zahl der Gene ziemlich ähnlich, sie unterscheiden sich jedoch in der Sequenz der Nukleotide von SARS-CoV-2 (​≈50% Identität der Nukleotide) und im Schweregrad der Infektion.

Eine interessante Facette von Coronaviren ist, dass sie das größte Genom aller bekannten RNA-Viren haben (≈30 kb). Diese großen Genome haben Forscher veranlasst das Vorhandensein eines „Korrekturmechanismus“ zur Reduzierung der Mutationsrate und Stabilisierung des Genoms zu vermuten. Tatsächlich besitzen Coronaviren einen Korrekturmechanismus in Form einer Exonuklease namens ExoN, was ihre sehr niedrigen Mutationsraten (~10-6 pro Position und Replikationszyklus) im Vergleich zur Influenza (≈3×10-5 pro Position und Zyklus) erklärt​.

Diese relativ niedrige Mutationsrate wird für künftige Studien von Interesse sein, die vorhersagen, mit welcher Geschwindigkeit Coronaviren unseren Bemühungen zur Immunisierung entgehen können

6. Wie viel ist über das Genom und Proteom von SARS-CoV-2 bekannt?

SARS-CoV-2 besitzt ein Genom, das aus einem Einzelstrang RNA (mit positiver Polarität) besteht, das für 10 Gene kodiert, die letztendlich 26 Proteine ​​ produzieren (entsprechend einer NCBI-Annotation NC_045512​).

Wie kommt es, dass 10 Gene für mehr als 20 Proteine ​​kodieren?

Ein langes Gen (​orf1ab), kodiert für ein Polyprotein, das von Proteasen, die selbst Teil des Polyproteins sind, in 16 Proteine ​​gespalten wird. Zusätzlich zu den Proteasen kodiert das Polyprotein eine RNA-Polymerase und zugehörige Faktoren, um das Genom, eine Korrektur-Exonuklease und mehrere andere Proteine, die keine Struktur-Proteine sind, ​​zu kopieren. Die verbleibenden Gene kodieren überwiegend für Struktur-Proteine des Virus: (i) das Spike-Protein, das an den zugehörigen Rezeptor an einer menschlichen oder tierischen Zelle andockt; (ii) ein Nukleoprotein, welches das Genom verpackt; und (iii) zwei membrangebundene Proteine. Abbildung 4.

Abbildung 4. Aufbau von SARS-CoV-2. Das Virus hat einen Durchmesser von ca. 100 nm (Nanometer – 0,1 µm) und ein Volumen von 106 nm3.

Obwohl sich viele aktuelle Arbeiten auf das Verständnis der Rolle von „akzessorischen“ Proteinen im viralen Lebenszyklus konzentrieren, schätzen wir, dass es derzeit nur möglich ist, etwa der Hälfte der SARS-CoV-2-Genprodukte klare biochemische oder strukturelle Funktionen zuzuschreiben.

7. Was können wir aus der Mutationsrate des Virus lernen?

Bei der Untersuchung der Virusentwicklung verwenden die Forscher üblicherweise zwei Messgrößen, welche die Geschwindigkeit der genomischen Veränderung beschreiben.

Die erste ist die Evolutionsrate, die als die durchschnittliche Anzahl von Substitutionen definiert ist, die pro Jahr in Stämme des Virus fix eingebaut werden, angegeben in Einheiten von Mutationen pro Position und Jahr.

Die zweite ist die Mutationsrate, das heißt die Anzahl der Substitutionen pro Position pro Replikationszyklus. Wie können wir diese beiden Werte in Beziehung setzen?

Betrachten Sie eine einzelne Position am Ende eines Jahres. Die einzige Messung einer Mutationsrate in einem β-Coronavirus legt nahe, dass diese Position in jeder Replikationsrunde ungefähr 1 Millionstel (~10-6) Mutationen akkumuliert. Jede Runde des Replikationszyklus dauert ~10 Stunden. Es gibt also 1000​ Zyklen pro Jahr. Multipliziert man die Mutationsrate mit der Anzahl der Replikationen und vernachlässigt man die möglichen Auswirkungen der evolutionären Selektion und des Drifts, so erhält man 1 Tausendstel (10​-3) Mutationen pro Position und Jahr, was mit der, von den aussequenzierten Coronavirus-Genomen abgeleiteten Evolutionsrate übereinstimmt.

Da unsere Schätzung mit der gemessenen Rate übereinstimmt, schließen wir, dass sich das Virus in freier Wildbahn nahezu kontinuierlich repliziert und ständig neue Mutationen erzeugt, die sich im Laufe des Jahres ansammeln.

Mit unserem Wissen über die Mutationsrate können wir auch Rückschlüsse auf einzelne Infektionen ziehen. Da beispielsweise die Mutationsrate ~10​-6​ Mutationen / Stelle / Zyklus beträgt und ein ml Sputum möglicherweise mehr als 10​7​ virale RNAs enthält, schließen wir, dass jede Stelle in solchen Proben mehr als einmal mutiert ist.

8. Wie stabil und wie ansteckend ist das Virion auf Oberflächen?

Abbildung 5.

Abbildung 5.Wie stabil ist SARS-CoV in der Umwelt? Die Relevanz für den persönlichen Schutz ist (noch) unklar. Die Daten beruhen auf messbaren infektiösen Virionen. Virale RNA ist selbst nach Wochen auf Oberflächen noch nachweisbar.

SARS-CoV-2-RNA wurde noch mehrere Wochen nach einem letzten Kontakt auf verschiedenen Oberflächen nachgewiesen. (Der Nachweis von viraler RNA in einer Probe impliziert nicht notwendigerweise das Vorhandensein von infektiösen Virionen; diese könnten defekt sein (z. B. durch Mutation) oder durch Umweltbedingungen inaktiviert worden sein.)

Die Wahrscheinlichkeit einer Infektion des Menschen durch eine solche Exposition ist noch nicht erhoben, da Experimente zur Durchführung dieser Bestimmung äußerst problematisch sind. Dessen ungeachtet müssen Vorsichts- und Schutzmaßnahmen getroffen werden.

Wir schätzen, dass während der Infektionsperiode eine nicht diagnostizierte infektiöse Person mehrere Dutzend Oberflächen berührt. Diese Oberflächen werden anschließend von Hunderten anderen Personen berührt. Aus der Basisreproduktionszahl R​0​ ≈2-4 können wir ableiten, dass nicht jeder, der diese Oberflächen berührt, infiziert wird.

Genaue Abgrenzungen des Infektionsrisikos bei Berühren von Oberflächen müssen dringend untersucht werden.


[1] Redaktion, 29.12.2020: Wie groß, wie viel, wie stark, wie schnell,… ? Auf dem Weg zu einer quantitativen Biologie.

[2] Redaktion, 22.12.2016: Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?

[3] Yinon M. Bar-On, Avi Flamholz, Rob Phillips, and Ron Milo: SARS-CoV-2 (COVID-19) by the numbers . eLife, March 32, 2020.

https://elifesciences.org/articles/57309.

http://book.bionumbers.org/wp-content/uploads/2020/04/german_translation_0408.pdf


*Der Artikel von Yinon M. Bar-On et al.: SARS-CoV-2 (COVID-19) by the numbers (in der der deutschen Übersetzung von Lars Albert Eicholt, Vanessa Pahl: http://book.bionumbers.org/wp-content/uploads/2020/04/german_translation_0408.pdf) steht unter einer cc-by Lizenz. Er wurde im Wesentlichen unverändert übernommen (allerdings ohne den Großteil des Glossars). Die meisten Bilder aus der grafischen Zusammenfassung wurden in den Text eingefügt, die Legenden dazu stammen aus dem hier nicht angehängten Glossar. Wegen der besseren Lesbarkeit fehlen die zahlreichen, den Daten zugrundeliegen Literaturstellen in der ScienceBlog Version - diese können von der Originalversion [3] aus aufgerufen werden.


Zu SARS-CoV-2 im ScienceBlog erschienen:

Matthias Wolf, "Extrablatt" v. 06.04.2020: Ein kleines Corona – How-to.

IIASA, 02.04.2020: COVID-19 - Visualisierung regionaler Indikatoren für Europa.

Inge Schuster, 26.03.2020: Drug Repurposing - Hoffnung auf ein rasch verfügbares Arzneimittel zur Behandlung der Coronavirus-Infektion

Redaktion, 18.03.2020: Experimenteller Impfstoff gegen SARS-CoV-2 bereits in klinischer Phase 1-Testung

Francis S. Collins, 05.03.2020: Strukturbiologie weist den Weg zu einem Coronavirus-Impfstoff


 

Redaktion Wed, 08.04.2020 - 18:30

"Extrablatt": Ein kleines Corona – How-to

"Extrablatt": Ein kleines Corona – How-to

Mo, 06.04.2020 — Matthias Wolf

Matthias WolfIcon MedizinWill man auf der wissenschaftlichen Seite bei Corona am Laufenden bleiben, so ist das nicht nur hochinteressant, es ergeben sich daraus auch einige praktische Folgen, die ich hier einmal zusammenfassen möchte. Üblicherweise hört man immer nur zwei oder drei Tipps, die meistens ganz unterschiedliche Aspekte betreffen und es ist etwas schwierig, sich einen Überblick zu verschaffen und daraus einen persönlichen Maßnahmenkatalog abzuleiten. Ein Versuch.

Allgemeines

(Anm: Eilige können gleich zum Punkt ›Zusammengefasst…‹ springen; hier stehen ›nur‹ ein paar grundsätzliche Anmerkungen.)

Was AGES und WHO immer noch wenigstens ›nicht sagen‹, ist, dass eine durch-die-Luft-Infektion mittlerweile zumindest als plausibel betrachtet werden muss. Das läuft über Mikrotröpfchen (<10µm), die sich bis zu 3h oder noch länger in der Luft halten können. Man spricht von sogenannten ›Aerosolen‹, die auch beim normalen Sprechen und Atmen ausgestoßen werden! Das wäre eine üble Sache. Der Sager ›das Virus hat keine Flügel‹, den Franz Allerberger (AGES)  anlässlich einer Pressekonferenz im Frühjahr äußerte und seither nie revidiert hat, ist rundheraus unbrauchbar. Flügel hat das Virus keine, aber es kann womöglich reiten. Völlig unverständlich auch, dass er Masken immer noch (Oktober) den mittlerweile vielfach untersuchten und bestätigten Nutzen abspricht. Das ist schlichtweg in der Sache falsch.

Die Aussage ›bei Exposition unter 15 Minuten besteht keine Gefahr‹ ist zwar auch Quatsch (wie lang braucht man zum Husten? 16 Minuten?), aber durch die Aerosol-Infektion bekommt sie auch wieder Sinn: es gibt eine kritische Grenze an Viren, die man aufnehmen kann ohne sich zu infizieren. Natürlich ist das nicht nur bei jedem individuell, sondern hängt auch von Parametern wie Temperatur, Luftfeuchtigkeit und vor allem vorhandenen Konzentration in der Luft ab. Eine objektiv richtige Zahl, wie lang eine Exposition andauern darf, gibt es nicht.

Abbildung 1. Ein normaler Mund-Nasen-Schutz (Bild: Wikipedia)

Was die ›Masken‹ (korrekt: MNS – Mund-Nasen-Schutz) betrifft: zwar wird immer wieder gesagt, dass die ein Schutz für die Personen in der Umgebung sind und nicht für einen selbst, was freilich stimmt – aber ganz auch wieder nicht: Natürlich bilden Masken gegen Tröpfchen eine Barriere, deswegen werden sie ja empfohlen, aber eine gewisse auch gegen Aerosole. (Warum wohl tragen alle Ärzte einen Mundschutz?) Auch der zu dünne Pullover ist im Winter besser als gar kein Pullover. Aber die Maske ist kein Ersatz für irgendeine der anderen Maßnahmen, allen voran die Abstandsregel! (Die Rede ist hier übrigens von den ›normalen‹ Masken (Abbildung 1), wie sie beispielsweise auch im OP getragen werden, wie sie vor Supermärkten verteilt werden oder wie man sie leicht auch selbst anfertigen kann. Wenn man das möchte, unbedingt mehr als 1 Lage eines Baumwollstoffes vernähen, den man bei 80° und heißer waschen kann! Es ist nicht die Rede von klassifizierten FFP2- (in den USA: N95-) und -3-Masken (die man an ihrer festen Form erkennt). Diese schützen einen zwar selbst (besser), aber dafür u.U die Umgebung nicht, zumindest die mit Ausatemventil.)

Zusammengefasst, es empfiehlt sich also…

  • Sich impfen und boostern zu lassen.
  • Abstand halten. (In geschlossenen Räumen gibt es keinen Sicherheitsabstand gegen die Aerosolübertragung. Aber wegen der Tröpfcheninfektion gilt auch dort die Regel. Generell wird 1m als Mindestabstand genannt, aber im Freien würde ich den offen gesagt je nach Windrichtung auch vergrößern. Ebenfalls wichtig: Beim Sport sind auch 2m Abstand – bspw. zum oder zur vor Ihnen Laufenden – nicht genug, wie eine belgisch-dänische Studie ergeben hat! Die einzig wirklich mit Sicherheit sichere Empfehlung lautet, auf Sport im Freien - sofern nicht ärztlich verordnet! - derzeit zu verzichten, wenn man nicht wirklich mutterseelenalleine dabei ist. Man muss sich keine Sorgen über gesundheitliche Folgen machen, wenn man wenige Wochen aussetzt oder sich einschränkt. Auch in der Wohnung kann man bei offenem Fenster Bewegung an der frischen Luft machen.)
  • Hände waschen. (Seife wäscht das Virus nicht nur weg, sondern knackt es auch chemisch) Man findet Youtube-Videos, in denen gezeigt wird, wie man das richtig (wie Ärzte) macht. Nur(!) so sind die Hände zuverlässig desinfiziert. (Ein diesbezügliches Video findet sich auch bei den ›Weiterführenden Links‹ ganz unten.)
  • Maske tragen und nach Möglichkeit nicht anfassen. (Mit normalem Waschmittel durchwaschen sollte eigentlich genügen; dabei auch noch 80° oder mehr einstellen und eventuell einen Hygienespüler verwenden, wie man ihn im Drogeriemarkt erhält. Das wirkt dann wie Gürtel+Hosenträger+mit beiden Händen den Bund festhalten, wenn man seine Hosen nicht verlieren will.)
  • Den Griff ins Gesicht vermeiden. Leichter gesagt als getan, greifen wir uns doch etwa 10× pro Stunde ins Gesicht – meistens, ohne es zu merken. Ist es unvermeidlich, versuchen, nicht die Finger zu benützen, sondern beispielsweise mit der Außenseite des Handgelenks kratzen.
  • Die Maske selbst nur an den Bändern anfassen und nach jedem Abnehmen sofort Hände waschen.
  • Vor dem nächsten Tragen desinfizieren, am besten gleich nach dem Abnehmen. Auch Einwegmasken, die sich nicht oder nur schlecht waschen lassen, kann man mit dem Bügeleisen oder im Backrohr gut desinfizieren. Beim Backrohr empfiehlt sich aus Vorsichtsgründen keine ›Heißluft‹ zu benützen; das könnte noch nicht inaktivierte Viren mit der Abluft in die Raumluft verfrachten.
  • Aufenthalte in geschlossenen Räumen (fremde Büros, Besprechungsräume, Geschäfte, Lager, Werkstätten, öffentliche Verkehrsmittel, Taxis etc.) so kurz wie möglich halten
  • Oft lüften (wenn das geht. Es dürfte etwas schwierig sein, den Supermarkt zu lüften. Aber das Büro zum Beispiel. Oder im Taxi kann man das Fenster aufmachen. Auch, wenn man einen Raum betritt und/oder alleine ist! Es könnte genügen, wenn ein Überträger bis zu 3h oder länger vorher drin war.) Damit drückt man die Aerosolbelastung schnell auf praktisch 0.
  • In der kalten Jahreszeit ist das Lüften mit dem Problem verbunden, die Luft auszutrocknen – was die Schleimhäute austrocknet und so die Infektionsgefahr wiederum erhöht. Dem sollte und kann man mit einem Luftbefeuchter entgegen wirken.
  • Aufzüge meiden. Auch Solofahrten eher unterlassen. Einerseits ist das gut, weil man eine möglicherweise vorhandene Aerosolbelastung so im wahrsten Wortsinn umgeht, aber andererseits auch, weil man dadurch Bewegung macht. (So weit mir bekannt ist, wurden bisher keine Infektionen durch Aufzugkabinen nachgewiesen – was in gewisser Weise eine gute Nachricht ist, weil Corona zwar hoch- aber eben nicht höchstansteckend ist. Aber Vorsicht ist bekanntlich die Mutter der Porzellankiste! Und ich plane nicht, jener Fall zu werden, mit dem man den Aufzug als Übertragungsweg nachweist.) Ist eine Aufzugfahrt unvermeidlich, nicht einsteigen, solange man außer Atem ist!
  • Handschuhe. Schmierinfektion ist möglich, wenn auch unwahrscheinlich. Aber wenn etwas direkt angespuckt/-niest/-hustet wurde, kann es ›klappen‹. Stehen keine Handschuhe zur Verfügung, kann man versuchen, eine ›saubere‹ und eine ›nicht saubere‹ Hand zu praktizieren. (Z.B.: Einkaufswagen nur mit einer Hand schieben, nur mit der anderen Hand die Brille zurechtrücken.) Und freilich so schnell wie möglich Hände waschen. Sollten Einweghandschuhe gerade nicht erhältlich sein, werfen Sie einen Blick in Ihre Autoapotheke! Auch die lassen sich übrigens 1× problemlos bei 80° desinfizieren (dann beginnt sich der Gummi aufzulösen). Und natürlich ganz wichtig: Der Handschuh verhindert nur eine direkte Ansteckung über die Hände (was bei gesunder Haut ohnehin sehr unwahrscheinlich erscheint). Aber selbst ist er genauo infektiös wie die ungeschützte Hand wäre und man muss sich auch behandschuht den Griff ins Gesicht verkneifen!
  • Den Umgang mit Bargeld meiden. Schmierinfektion ist zwar unwahrscheinlich, aber Bargeld geht durch viele und unbekannte Hände. Bankomatkarten mit dem "Wellensymbol" kann man zum berührungslosen Bezahlen an der Bankomatkasse, durch einfaches davor Halten ohne Codeeingabe, benützen. Denken Sie daran, dass auch jede Bankomaten- und -kassentastatur als kontaminiert betrachtet werden sollte.
  • Ein ›Protokoll‹ zum Ablegen der Schutzausrüstung zurechtlegen (und einhalten!): Erst die Handschuhe infektionsfrei abstreifen, dann die Maske lösen und vom Gesicht weg abnehmen; desinfizieren. (Entsprechende Videos unten bei den ›Weiterführenden Links‹) Hände waschen! Einen eigenen Platz zum Ablegen der Ausrüstung vorsehen, den man als kontaminiert betrachtet. Den immer wieder desinfizieren. Die Glasplatte eines Herdes könnte gut geeignet sein: meistens frei, leicht zu reinigen, Backrohr in unmittelbarer Nähe, desinfiziert sich bei Benützung von selbst, falls es einmal vergessen oder nicht ordentlich gemacht wurde. (Hinweis: Ganz am Ende der Seite, nach dem Artikel, beschreibe ich in einem Kommentar, wie mein Protokoll aussieht.)
  • Flächen desinfizieren. Die keimbelastetsten Flächen im Haushalt sind mit Abstand die PC-Tastatur und die Maus! Denn ein neues (X/2020) Ergebnis zeigt, dass das Virus auch monatelang infektiös sein kann. Das eröffnet einen Weg: beim Heimkommen schnell Mails abgeholt und auf's Händewaschen vergessen und schon hat man es auf die Tastatur gebracht, von der man es anderntags aufnimmt und sich ins Auge reibt. Dann und wann mit Desinfektionsmittel besprühen kann nicht schaden. Die Tastatur, nicht das Auge. (71%-iges Ethanol killt das Virus innerhalb einer Minute.)
  • Ob man die ›Stopp Corona‹-App des Roten Kreuzes installieren möchte, muss jeder für sich entscheiden. Dateschutzbedenken halte ich für völlig aus der Luft gegriffen. (Und das sage ich nicht nur so dahin.) Seit der am 10.4. ausgerollten Release kann sie Kontakte automatisch registrieren, wodurch sie im Sinne der Seuchenbekämpfung, aber auch zum Schutz des unmittelbaren eigenen Umfelds jedenfalls sinnvoll erscheint. Ein länderübergreifendes System für die gesamte EU ist ebenfalls in Vorbereitung. Die Ausrollung ist für die nächsten Wochen angekündigt; ein Update auf dem eigenen Smartphone wird nötig sein. (Stand: Anfang Oktober 2020)

    Update: Mittlerweile haben Apple und Google eine gemeinsame Kontaktbibliothek für ihre mobilen Betriebssysteme heraus gebracht, auf die Stopp Corona umgestellt wurde. Wichtiger Hinweis: Machen Sie kein Update, sondern installieren Sie die alte Version ab und die neue frisch aus dem Store! (Das geht völlig problemlos und schnell.) Sie erleben sonst womöglich Dauerabstürze.
     
  • Und last, but not least gilt immer noch: Stay home. Ein einziges falsch in Deine Richtung gesprochenes Wort kann genügen. Das gilt leider auch bei schönem Wetter. Sprechen Sie keine Einladungen aus und nehmen Sie keine an. Auch nicht zu den Osterfeiertagen; das Virus ist nach aktuellem Kenntnisstand völlig atheistisch und respektiert keine religiösen Feiertage. Und übrigens: Einkäufe sind keine Familienevents! Betrachten Sie den Einkauf als notwendiges, einzugehendes Risiko, halten Sie ihn so selten und so kurz wie möglich (was einander widerspricht; wie man das auflösen kann, weiß ich auch nicht) und gehen Sie alleine.
  • Update ›Restaurantbesuch‹: Auch, wenn es nicht ›vorgeschrieben‹ ist, dürfte es ratsam sein, auch als Gast Maske zu tragen, die man nur zum Essen abnimmt. Denken Sie auch daran, dass ein Huster schnell eine Speisekarte treffen kann; ich für mein Teil werde daher bis zum Essen auch Handschuhe tragen bzw. nach dem Bestellen die Hände waschen gehen. Von Geschirr und Besteck sollte eigentlich keine Gefahr ausgehen.

Aber man kann präventiv auch die Abwehr stärken

  • Vitamin D, so wird vermutet, dürfte dem Virus das Andocken erschweren. (Vitamin D entsteht auf natürliche Weise in der obersten Hautschicht durch Einstrahlung des UVB-Anteils im Sonnenlicht. Allerdings ist das in unseren Breiten nur circa von Mai bis August der Fall. Die dann gebildeten Vitamin D-Depots im Organismus sind bereits zu Winterbeginn erschöpft - unter anderem könnte dies auch zur Grippewelle im Winter beitragen. Hier hilft dann die Supplemetierung mit käuflichem Vitamin D, da man den Vitamin D-Bedarf aus Nahrung kaum decken kann. Außer, man isst viel fetten Fisch (und zwar recht viel). Aber, wie die Ameise schon sagte: »Jedes Bisschen hilft!« (und dann pinkelte sie in die Donau). )
  • Vitamin C und Zink geben dem Immunsystem, was es zum Arbeiten braucht. (Die beste Vitamic C-Quelle sind bei unserer Ernährungsweise – Trommelwirbel – Fleischprodukte und vor allem Wurstwaren. Denn Vitamin C – Ascorbinsäure – ist ein Antioxodans, das das Grauwerden verhindert. Wenn's also im Hals kratzt: ein anständiges Wurstbrot! Beim Obst hängt es nämlich leider sehr davon ab, wie lang es gelagert wurde.)
  • Ausreichend Bewegung und Schlaf

Das sollte einen eigentlich aus dem Gröbsten halbwegs zuverlässig heraus halten. Die Liste kann natürlich jederzeit ergänzt werden und ist KEINE GARANTIE! Eine solche gibt es nicht.

Xund bleim!

P.S. Noch ein kleiner Tipp zum Abschluss: Sie möchten vielleicht von Zeit zu Zeit wieder hier vorbeischauen. Nicht nur um ›aufzufrischen‹, sondern weil sich dann und wann neue Details ergeben können, die wir natürlich einpflegen. Vielleicht wollen Sie sich ein ›Bookmark‹ im Browser setzen (bei vielen mit Strg+D).


Disclaimer

Die Information im Artikel wurde vom Autor nach bestem Wissen und Gewissen sorgfältig zusammengestellt und wurde gegengelesen. Dennoch können weder IScO noch der Autor irgendeine Garantie für die Richtigkeit oder Vollständigkeit der dargestellten Empfehlungen übernehmen oder etwaige Haftungsansprüche daraus anerkennen. Die Befolgung oder Nichtbefolgung einzelner oder aller genannten Ratschläge erfolgt auf eigene Verantwortung.


Weiterführende Links

22.05.2020: Kann Vitamin D vor Corona schützen?

mat Mon, 06.04.2020 - 16:20

Comments

  • Vor dem Verlassen der Wohnung Backrohr öffnen, Lade mit Rost heraus ziehen. Türen, welche man zu sich hin öffnen muss, offenstehen zu lassen verhindert, dass man beim Heimkommen Klinken anfassen muss.
  • Beim Heimkommen 1. Weg zum Herd
  • Handschuhe und Maske ausziehen und auf den Rost legen (dadurch erspar ich mir auch die o.a. Herdplatte)
  • Hände waschen!
  • Fenster auf, Herd an bei ≥80°, keine Heißluft, eher 2 als 1h drin lassen. (Die Energie rennt sowieso größtenteils ins Aufheizen, kaum ins Halten der Temperatur.) Meine Faustregel: wenn ich mich frag ›ob's wohl schon reicht?‹, lautet die Antwort ›nein‹. (Festgestellt wurde, dass 30 Minuten bei 65-70° genügen. Aber zum einen isoliert Maskenmaterial hervorragend, zum anderen will ich mich nicht auf den Thermostat eines Haushaltsgeräts verlassen).

So ist auch ausgeschlossen, dass Klappe und/oder Knebel infiziert werden – so unwahrscheinlich eine Schmierinfektion auch sein mag.

Immer dran denken: Der Teufel holt dich verkleidet als Schlendrian!

Xund bleim!

(Es gilt derselbe Disclaimer wie unter dem Artikel.)

Etwas skeptisch macht mich, dass mein Herd auch ohne Heißluft einen Abluftstrom ausleitet!

Das kann eigentlich nur von der Geräteaußenseite stammen, um nicht zu viel Hitze an die Küchenzeile abzugeben und sollte harmlos sein.

Wie auch immer: zu viele Konjunktive. Ich mache das bei geöffnetem Fenster.

Neue Ergebnisse zeigen, dass weltweit signifikant weniger Raucher unter den Covid-19-Patienten sind als im Bevölkerungsdurchschnitt (bis zu 80%)! Wir haben die Empfehlung, mit dem Rauchen aufzuhören, daher entfernt. (Was natürlich andererseits ausdrücklich keine Empfehlung zu rauchen ist!)

COVID-19 - Visualisierung regionaler Indikatoren für Europa

COVID-19 - Visualisierung regionaler Indikatoren für Europa

Do, 02.04.2020 — IIASA

IIASA LogoIcon MedizinDie weltweite Ausbreitung der COVID-19-Pandemie lässt uns schnell erkennen, dass niemand von ihren zerstörerischen Folgen verschont bleibt. Länder und Regionen konkurrieren um knappe Ressourcen medizinischer, technischer und finanzieller Art. Als Unterstützung für die im Gesundheitssektor Tätigen, für Politiker und Regierungen in ihrer strategischen Entscheidungen Ressourcen besser zu nutzen, arbeiten Forscher am International Institute of Applied Systems Analysis (IIASA, Laxenburg bei Wien) daran, wesentliche demografische und sozioökonomische Informationen zu visualisieren und bereitzustellen.*

Die COVID-19-Pandemie hat die Welt aus heiterem Himmel getroffen und zeigt eine beispiellose Übertragungsrate. Warum sich das Virus so rasch weltweit ausbreiten konnte, liegt zum Teil in der Natur des Virus selbst begründet, in seinem Erscheinungsbild (Symptome treten erst verspätet nach der Infektion auf) und auch in der hochkomplexen, vernetzten Welt, in der wir heute leben.

Ein ebenso wichtiger Beitrag resultiert aber auch aus unserer, sich jetzt offenbarenden Unfähigkeit: wir sind nicht imstande mit einer rasch auftretenden globalen Bedrohung zusammen als Gemeinschaft -  über Ländergrenzen und Kontinente hinweg - umzugehen. Unsere bestehenden multilateralen Systeme sind einfach noch nicht darauf ausgerichtet, dass sie zeitnah und in angemessener Form auf eine solche aufkommende globale Herausforderung reagieren. Die Mehrzahl der von den Nationalstaaten getroffenen Maßnahmen haben sich als unzureichend erwiesen.

COVID-19 in Europa

Seit die ersten Fälle von COVID-19 gegen Ende 2019 in China registriert wurden, hat sich die Krankheit über die gesamte Welt ausgebreitet und Europa ist zu einer der am stärksten davon betroffenen Regionen geworden. Abbildung 1.

Abbildung 1. Die Infektion mit SARS-CoV-2 hat sich in ganz Europa ausgebreitet. Die Zahlen der getesteten infizierten Personen stammen vom 30. März 2020. Die Größe der Kreise entspricht der Zahl der Infizierten. (Source: John Hopkins University Coronavirus Resource Center (https://coronavirus.jhu.edu/map.html)

Die ersten Statistiken zur Pandemie deuten darauf hin, dass die Altersgruppe der über 65-Jährigen und insbesondere der über 80-Jährigen dem höchsten Erkrankungsrisiko ausgesetzt ist. Dies ist besonders besorgniserregend, da in der EU der Anteil der alternden Bevölkerung hoch ist; dazu kommen erhebliche Unterschiede in der wirtschaftlichen Entwicklung der Regionen. Eine Kombination dieser beiden Aspekte impliziert, dass verschiedene Regionen unterschiedlichen Herausforderungen gegenüberstehen was die Ausbreitung des Virus, die Belastung der landesweiten öffentlichen Gesundheits- und Sozialversicherungssysteme und die wirtschaftlichen Einbrüche betrifft.

IIASA-Maps

IIASA-Forscher haben die Ausbreitung der Pandemie über die Regionen hinweg verfolgt und Landkarten zur Verfügung gestellt, in denen wichtige demografische und bevölkerungsbezogene Informationen visualisiert werden [1]. Diese IIASA-Maps sollen der schnellen Verbreitung dieser Informationen dienen und den in den Gesundheitsberufen Tätigen, Politikern und Regierungen Unterstützung in ihrer Entscheidungsfindung bieten.

 

Abbildung 2. Alter ist ein Indikator für ein erhöhtes Risiko an COVID-19 zu erkranken. Europa ist ein alternder Kontinent. In einigen Regionen kommen 2 Personen im Erwerbsalter auf eine Person im Alter von 65 + Jahren.

Asjad Naqvi, Projektleiter und Forscher im Advanced Systems Analysis Program der IIASA erklärt dazu: „Die rasche Verbreitung des Virus hat viele Länder gezwungen, drastische Maßnahmen zu ergreifen wie die Schließung öffentlicher Räume, Schulen und Unternehmen, um damit die Mobilität und menschliche Interaktionen einzuschränken. Diese Maßnahmen werden zusammenfassend als „soziale Distanzierung“ bezeichnet. Sie basieren auf der Annahme, dass je weniger Interaktionen zwischen Menschen bestehen, desto langsamer wird sich das Virus ausbreiten und desto besser ist das Gesundheitssystem dann in der Lage die Situation zu bewältigen. Um zu wissen, ob derartige Maßnahmen wirken und wie lange sie aufrecht erhalten werden müssen, benötigen Entscheidungsträger jedoch Informationen. In der beispiellosen Situation, in der wir uns nun befinden, sind solche Informationen nicht immer schnell zur Hand. Dieses Projekt soll dazu beitragen, solche Lücken zu füllen“.

Abbildung 3. Das mittlere jährliche Haushaltseinkommen [€ ] ist ein Indikator wie gut Situationen bewältigt werden können. Die Unterschiede zwischen dem Kern-Europa und der östlichen und südlichen Peripherie sind enorm.

Es sind nun eine Reihe benutzerfreundlicher Karten verfügbar, in denen verschiedene demografische, sozioökonomische und gesundheitsbezogene Indikatoren grafisch dargestellt sind. Im Folgenden sind einige Beispiele dargestellt (Abbildungen 2 - 4).

Indikatoren sind auch Migration und Veränderungen in der Bevölkerungstruktur, durchschnittliche Haushaltseinkommen [Abbildung 3] sowie die Anzahl der in jedem EU-Land verfügbaren Ärzte und Krankenhausbetten. [Abbildung 4.]

 

 

Abbildung 4. Indikator Ärzte und Krankenhausbetten. In Regionen mit dunkleren Farben kommen mehr Personen im Alter von 65+ Jahren auf einen Arzt/ ein Krankenhausbett (Daten stammen aus dem letzten weitgehend kompletten Datenset 2015)

Die Visualisierungen sind anhand ausgewählter Indikatoren aus der öffentlich zugänglichen Eurostat-Datenbank zusammengestellt und werden regelmäßig aktualisiert, um Änderungen Rechnung zu tragen. Bemüht um ein besseres Verständnis der sozioökonomischen und demografischen Kontexte, in denen sich die aktuelle COVID-19-Krise abspielt, plant das Team weitere Indikatoren in die aktuelle Liste aufzunehmen. Derzeit wird auch an einer interaktiven Website gearbeitet, die als Archiv für alle IIASA-Forschungsarbeiten zu COVID-19 und als Plattform dienen soll, um die neuesten Updates anzusehen und zu durchsuchen und ebenso ältere Versionen der Karten.

Das Ausmaß unserer Vernetzung hat uns erkennen lassen, dass wir in einem globalen Dorf leben, und diese Pandemie hat jeden noch vorhandenen Zweifel daran beseitigt. Allerdings kann die zugrunde liegende globale Ordnung von ausgedehntem Tourismus, Handel, Wirtschaft und Bildungswesen zu Schwachpunkten führen. Gleichzeitig bietet sie auch die Möglichkeit, kritische Sektor-spezifische Informationen zu generieren, die man systematisch nutzen kann, um schnelle und effektive globale und nationale Reaktionen auf Risiken zu ermöglichen.


[1] Naqvi A (2020). COVID-19: Visualizing regional socioeconomic indicators for Europe. International Institute for Applied Systems Analysis (IIASA), Laxenburg, Austria [pure.iiasa.ac.at/16395] Der Artikel sreht unter einer cc-by-nc Lizenz


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 30. April auf der IIASA Webseite unter dem Titel: "COVID-19: Visualizing regional indicators for better decision making" erschienen. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch einige Sätze und Abbildungen aus [1] und Legenden ergänzt.


Artikel zu COVID-19 im ScienceBlog


 

Redaktion Thu, 02.04.2020 - 06:17

Drug Repurposing - Hoffnung auf ein rasch verfügbares Arzneimittel zur Behandlung der Coronavirus-Infektion

Drug Repurposing - Hoffnung auf ein rasch verfügbares Arzneimittel zur Behandlung der Coronavirus-Infektion

Fr, 27.03.2020 — Inge Schuster

vIcon Medizin Die Coronavirus-Pandemie breitet sich mit rasanter Geschwindigkeit aus, kaum ein Land, das davon noch nicht betroffen ist. Über eine halbe Million Infizierte wurden weltweit nachgewiesen, rund 23 000 Menschen sind bereits an der Krankheit gestorben. Nach wie vor gibt es keine vorbeugende Impfung gegen das Virus, kein wirksames Medikament zur Behandlung der Erkrankten. In dieser bedrohlichen Situation starten nun mehr und mehr klinische Prüfungen, viele mit dem Ziel eines Drug Repurposing, d.i. aus dem Fundus bereits vorhandener Arzneistoffe ein gegen das Coronavirus wirkendes Mittel zu finden, das dann möglichst rasch angewandt werden kann.

In wenigen Wochen hat sich unser gewohntes Leben grundlegend verändert. Erstmals wurde die WHO Ende Dezember 2019 über den Ausbruch einer "durch einen unbekannten Erreger hervorgerufenen Lungenentzündung" in der chinesischen 11 Millionen Stadt Wuhan informiert und als Ursache bereits am 10. Jänner ein neuartiges Coronavirus - SARS-CoV-2 - identifiziert. Reisende aus dem betroffenen Gebiet haben das Virus in andere Regionen verschleppt und das Virus breitet sich seitdem mit rasanter Geschwindigkeit über den ganzen Erdball aus. Bereits über einer halbe Million Menschen wurden positiv auf das Virus getestet (die Dunkelziffer dürfte ein Mehrfaches sein), davon sind rund 120 000 wieder genesen; schwere Verläufe haben zu mehr als 23 000 Todesfällen geführt [1]. Die Behandlung der schweren Fälle erstreckt sich dabei auf bloße Linderung der Symptome - es gibt zur Zeit ja weder eine vorbeugende Impfung noch ein spezifisch gegen das Virus wirkendes Arzneimittel.

Um die Ausbreitung des Virus durch Übertragung von Mensch zu Mensch zu verlangsamen/einzudämmen, hat die WHO "Soziale Distanzierung" anempfohlen, Regierungen setzen Ausgangsbeschränkungen/-Sperren um - inzwischen sind bereits mehr als 3 Milliarden Menschen davon betroffen. Noch zu Faschingsende gab es ein überschäumend fröhliches gesellschaftliches Miteinander, nun sind wir zu Einsiedlern in unseren Behausungen geworden, voll von Sorgen, wie und wann nach der Pandemie das Leben weitergehen wird.

Wirksame Mittel gegen COVID-19 dringendst benötigt

Klar ist, es werden dringendst wirksame Mittel zur Prävention der Infektion und Behandlung der durch das Coronavirus SARS-CoV-2 ausgelösten Erkrankung - COVID-19 - benötigt und demzufolge gibt es einen rasanten Anstieg klinischer Studien, die Behandlungsmöglichkeiten evaluieren. Das weltweit größte Register von sowohl aus öffentlicher Hand als auch von privaten Sponsoren finanzierten klinischen Studien - die von der US National Library of Medicine (NIH) betriebene Datenbank ClinicalTrials.gov - verzeichnet unter dem Stichwort "COVID-19 " derzeit 178 klinische Studien - um 20 mehr als am Vortag und um 25 mehr als 2 Tage zuvor -, die rund um den Erdball stattfinden (werden), die meisten davon in China. Eine Reihe dieser Studien läuft bereits, viele rekrutieren gerade Probanden/Patienten, wobei von einigen wenigen Probanden bis zu mehreren Tausend Probanden ausgegangen wird. [2]

Zahlreiche Studien befassen sich mit klinischen Charakteristika der Infektion, die unser Verstehen des Verlaufs und der Risiken bereits bestehender  Erkrankungen und Behandlungen verbessern sollen. Evaluiert werden rasch aussagekräftige, für die breiteste Anwendung geeignete Diagnostika und Schutzvorrichtungen, die vor allem auch den Risikogruppen der im Gesundheitsbereich Beschäftigten dienen können.

Impfstoffe sind - mit Ausnahme von zwei bereits in klinischer Prüfung befindlichen Produkten (die Vaccine mRNA-1273 von NIH/Moderna und eine Vaccine von CanSino Biologics) - alle noch in der präklinischen Phase und daher noch nicht in der Datenbank ClinicalTrials.gov enthalten. In die Richtung der Prävention gehen auch Studien, die aus dem Blut von genesenen COVID-19 Patienten isolierte Antikörper evaluieren.

Der Großteil der Studien beschäftigt sich jedoch mit der Evaluierung der Sicherheit und Wirksamkeit von potentiellen Therapeutika, wobei drei Wege verfolgt werden:

  1. Die Blockierung der Virusvermehrung im Patienten. Hier wird eine Palette von bereits gegen andere Krankheiten zugelassenen Arzneimitteln geprüft (siehe unten); einige Studien evaluieren auch Rezepturen aus der Trditionellen Chinesischen Medizin (TCM). Auf Basis des eben aufgeklärten Virusgenoms sind auch innovative, durchaus aussichtsreiche Ansätze dabei. Allerdings muss für derartige Entwicklungen eine bis zu 13 Jahre dauernde Entwicklungszeit veranschlagt werden - für eine Anwendung in der jetzigen Pandemie käme dies viel zu spät.Eine vom österreichischen Forscher Josef Penninger initierte chinesische Studie, die am Targetprotein des Virus - Angiotensin Converting Enzyme 2 (ACE-2) - , über welches es in die Wirtszelle eindringt, ansetzt, ist zurückgezogen worden.   
  2. Die Regulierung/Dämpfung eines überschießendenden Immunsystems, das einen sogenannten Cytokin-Sturm auslösen kann, der das infizierte Gewebe der Lunge weiter schädigt und schließlich zu multiplem Organversagen  und letalen Ausgang führen kann.Hier werden bereits zugelassene Immunsuppressiva u.a. Corticosteroide und diverse Biologica  - beispielsweise der in der CAR-T-cell Therapie erfolgreich eingesetzte IL-6-Antikörper Tocilizumab oder das Cytokin Interferon beta - geprüft.

  3.  Die Regeneration geschädigten Lungengewebes durch mesenchymale Stammzellen

Drug Repurposing, wenn es möglichst rasch gehen soll

Viele Arzneimittel sind kleine, flexible Moleküle, die nicht nur mit der ursprünglich bestimmten Zielstruktur (ihrem Target) - zumeist einem Protein - wechselwirken, sondern auch mit anderen biologischen Strukturen interagieren können. Solche "Nebenwirkungen" haben bereits in zahlreichen Fällen zur Identifizierung neuer Anwendungsmöglichkeiten geführt. Werden derartige Substanzen für neue Indikationen wiederverwendet, so sind wesentliche Daten zur Sicherheit im menschlichen Organismus bereits vorhanden und eine Zulassung kann bei minimaler Entwicklungszeit und Entwicklungskosten realisiert werden [siehe 3].

Aus dem reichen Fundus bereits zugelassener Arzneimittel lassen sich (hoffentlich) schnell gegen Sars-CoV-2 wirksame Substanzen identifizieren.((Coloured etching by H. Heath, 1825. Iconographic Collections Keywords: Henry Heath.)

Drug Repurposing wird nun auch im Fall von Coronavirus-Infektionen versucht. Bei einigen der potentiellen Kandidaten handelt es sich um schon sehr lange bekannte Wirkstoffe, welche - da nicht mehr unter Patentschutz stehend - billig sind und für eine breite Anwendung schnell verfügbar gemacht werden können.

Thalidomid…

Beispielsweise laufen mehrere klinische Untersuchungen zu Thalidomid, einem in den 1980er Jahren auch für Schwangere häufig verschriebenen Schlafmittel, da sich als schweres Morphogen herausstellte und an vielen missgestalteten Babies die Schuld trug. Das Mittel stellte sich später als hochaktiv u.a. gegen Fibrosen, Gefäßneubildung und Entzündung heraus und wird nun erfolgreich in einigen Krebserkrankungen und auch in Lepra eingesetzt. Thalidomid wirkt zwar nicht direkt gegen das Virus, man geht aber davon aus, dass es die schweren Folgeschäden der durch das Virus verursachten Lungenentzündung mildern könnte.

…Antimalaria-Mittel Chloroquin und Hydroxychloroquin…

Es sind dies kleine synthetische Moleküle, die bereits vor Jahrzehnten gegen Malaria eingeführt wurden aber auch gegen einige Autoimmunerkrankungen wirksam sind. Ihre Anwendung geht mit zum Teil schweren Nebenwirkungen einher und die Malaria-Erreger haben gegen diese Substanzen bereits Resistenzen entwickelt. Während der 2002/3-Epidemie mit SARS-CoV, das dem neuen SARS-CoV-2 nahe verwandt ist und ebenso schwere Lungendefekte hervorruft, fand man heraus, dass Chloroquin die Produktion neuer Viren in Humanzellen unterdrückt. Neue Untersuchungen mit dem SARS-CoV-2 Virus kommen zu dem gleichen Schluss: in Labortests sind die beiden Malariawirkstoffe bereits in niedrigen, klinisch erzielbaren Dosierungen gegen das Virus hochwirksam. Ausgehend von einem positiven Ergebnis an chinesischen COVID-19-Patienten, wurde nun auch eine kleine Zahl französischer Patienten mit Chloroquin behandelt; im Vergleich zu unbehandelten Kontrollen erfolgte eine rasche Reduktion der Virenkonzentration im Nasen-Rachenraum.

Zweifellos ist der antivirale Angriffspunkt ein anderer als im Fall der Malariaerreger, wo Chloroquin in den Abbau der für den Erreger essentiellen Nährstoffquelle Hämoglobin eingreift. Im Fall der Coronaviren dürfte die Wirkung des Chloroquin auf einer Erhöhung des pH-Wertes in den Endosomen beruhen, wodurch die Ausschleusung des Virus aus der Wirtszelle verhindert wird.[4]

…antivirale Wirkstoffe…

Lopinavir in Kombination mit Ritonavir wurde im Jahr 2000 gegen HIV-Infektionen zugelassen. Es blockiert nicht nur die Protease des HIV-Virus sondern auch die Protease von Coronaviren. In der SARS-Epidemie am Beginn des 21. Jahrhunderts wurde das Kombinationspräparat vereinzelt eingesetzt und brachte positive Ergebnisse. Zahlreiche Studien evaluieren nun die Wirksamkeit gegen das neue Coronavirus. Eine rezente Untersuchung an 199 schwerstkranken COVID-19 Patienten lieferte allerdings ein enttäuschendes Ergebnis: das Mittel senkte weder die Morbidität noch Mortalität der Patienten im Vergleich zur Kontrollgruppe unter Standardtherapie.

Favipiravir, ein Analogon der Base Guanin, ist ein falscher "Buchstabe", der bei Einbau in die neu entstehende Nukleinsäure des Virus die weitere Replikation des viralen Genoms unterbindet. Favipiravir wirkt gegen ein sehr breites Spektrum unterschiedlicher Viren, sollte ursprünglich in Japan als Influenza-Medikament vermarktet werden, wurde aber auf Grund teratogener (fruchtschädigender) Eigenschaften schließlich nur für Virusinfektionen zugelassen, für die kein anderes Arzneimittel existiert. Das Mittel erregte Aufsehen als 2014 während der Ebola-Epidemie eine damit behandelte Krankenschwester gesundete.

In einer vor wenigen Tagen präsentierten chinesischen Studie zur Sicherheit und Wirksamkeit von Favipiravir hat das Mittel nun hohe Wirksamkeit bei gleichzeitig relativ geringen Nebenwirkungen gezeigt: insgeamt wurden 80 COVID-19 Patienten mit Favipiravir oder Lopinavir/Ritonavir in der Kontrollgruppe behandelt. Bereits nach 2 Tagen war das Fieber bei rund drei Viertel der Favipiravir Patienten zurückgegangen (bei rund ein Viertel der Kontrolle), das Virus wurde fast drei Mal so schnell eradikiert als in der Kontrollgruppe und das Thorax-Röntgen zeigte entscheidende Verbesserungen.

Favipiravir wurde von der chinesischen Regierung in die Liste der "wichtigen Materialien für die Epidemie-Bekämpfung" aufgenommen; es wird von dem chinesischen Unternehmen Zhejiang Hisun Pharmaceutical produziert und exportiert.

Remdesivir, ein Analogon des Nukleosids Adenosin, wurde vom Pharmakonzern Gilead ursprünglich gegen Ebola entwickelt, befindet sich aber noch in der letzten klinischen Phase des Entwicklungsprozesses. Wie bei Favipiravir hemmt der falsche Baustein die virale Polymerase und damit die Replikation des viralen Genoms; ebenso wirkt die Substanz gegen ein breites Spektrum unterschiedlicher Viren, u.a Ebola, das Marburg Virus und Coronaviren. Während der Ebola-Epidemie hat Gilead die Substanz an infizierten Primaten getestet und konnte in allen Fällen die Replikation des Virus unterdrücken; die Tiere blieben am Leben. In klinischen Studien an Ebola-Patienten erwies sich Remdesivir allerdings wenig wirksam.

Nach ersten positiven Testungen in den USA und in China wird Remdesivir nun in mehreren großangelegten internationalen Studien auf Sicherheit und Wirksamkeit gegen SARS-CoV-2 geprüft: an 400 Patienten mit schwerer COVID-19 Erkrankung und an 600 Patienten mit moderater Erkrankung. Die Ergebnisse dieser Studien werden im April erwartet. Auch bei positivem Ausgang wird es dann noch einige Zeit bis zur Zulassung der Substanz und der Verfügbarkeit für eine breite Anwendung dauern.

Die SOLIDARITY Studie der WHO

In dem Bewusstsein, dass ein Impfstoff gegen SARS-CoV-2 in diesem Jahr wohl kaum mehr zur Verfügung stehen wird, hat der Direktor der WHO, Tedros Adhanom Ghebreyesus, in der vergangenen Woche eine multinationale Megastudie "SOLIDARITY" ins Leben gerufen, um möglichst rasch ein wirksames, breit verfügbares Arzneimittel bereitstellen zu können. An Tausenden Patienten sollen vier Therapien mit insgesamt 6 Wirkstoffen - alles repurposed drugs - getestet werden . Es sind dies :

  •  Remdesivir
  •  die Malariamittel Chloroquin und Hydroxychloroquin
  •  die Kombination von Lopinavir/Ritonavir
  • Lopinavir/Ritonavir plus Interferon beta

Wie bereits oben erwähnt hat eine klinische Studie mit  Lopinavir/Ritonavir an schwerkranken Patienten ein enttäuschendes Ergebnis erbracht, möglicherweise reichte die antivirale Wirkung nicht aus um das  überschiessende Immunsystem einzubremsen. Es sollen daher nun Studien mit der Wirkstoff-Kombination plus dem Immunsuppressivum Interferon beta durchgeführt werden.

Zahlreiche Länder haben bereits ihre Teilnahme an dieser Studie zugesagt.

Fazit

Niemals zuvor hat eine Seuche in so kurzer Zeit den ganzen Erdball erfasst und das gewohnte gesellschaftliche Miteinander zum Erliegen gebracht. In vielen Ländern steht ein vernachlässigtes und nun völlig überfordertes Gesundheitssystem nun hilflos vor der rasant wachsenden Zahl Schwerkranker und kann - da es gegen das Virus ja noch keine wirkenden Mittel gibt - bestenfalls bei einem Teil der Patienten die Symptome lindern.

Niemals zuvor haben aber auch Forscher so rasch derart umfassende Projekte und weltweite Kooperationen auf die Beine gestellt, um in kürzestmöglicher Zeit - vorerst aus dem Fundus von bereits für andere Indikationen zugelassenen Arzneimitteln - Wirkstoffe gegen das Virus zu identifizieren und für die breite Öffentlichkeit verfügbar zu machen.

Wir müssen erkennen, wie fragil unsere Gesellschaften gegenüber neuen Erregen sind, die jederzeit zu verheerenden Pandemien führen  können. Wir sehen aber auch, dass nur intensive Gundlagen- und Angewandte Forschung hier Hilfe bringen können! 


[1] Coronavirus COVID-19 Global Cases by the Center for Systems Science and Engineering (CSSE) at Johns Hopkins University (JHU), abgerufen am 26.03.2020 , 20:00 https://www.arcgis.com/apps/opsdashboard/index.html#/bda7594740fd40299423467b48e9ecf6

[2] ClinicalTrials.gov. https://clinicaltrials.gov/ct2/results?cond=covid-19&term=&cntry=&state=&city=&dist= (abgerufen 26.3.2020; 18:00)

[3] Inge Schuster, 27.03.2020: Neue Anwendungen für existierende Wirkstoffe: Künstliche Intelligenz entdeckt potentielle Breitbandantibiotika. http://scienceblog.at/k%C3%BCnstliche-intelligenz-entdeckt-potentielle-breitbandantibiotika

[4] Manli Wang et al., Remdesivir and chloroquine effectively inhibit the recently emerged novel coronavirus (2019-nCoV) in vitro. Cell Research (2020) 30:269–271; https://doi.org/10.1038/s41422-020-0282-0


Artikel im ScienceBlog

Francis S Collins, 05.03.2020: Strukturbiologie weist den Weg zu einem Coronavirus-Impfstoff. http://scienceblog.at/strukturbiologie-weist-weg-zu-coronavirus-impfstoff

Redaktion, 18.03.2020:Experimenteller Impfstoff gegen SARS-CoV-2 bereits in klinischer Phase 1-Testung.  http://scienceblog.at/impfstoff-gegen-sars-cov-2-in-klinischer-phase-1


 

inge Fri, 27.03.2020 - 01:20

Experimenteller Impfstoff gegen SARS-CoV-2 bereits in klinischer Phase 1-Testung

Experimenteller Impfstoff gegen SARS-CoV-2 bereits in klinischer Phase 1-Testung

Mi, 18.03.2020 — Redaktion

RedaktionIcon Medizin

Vor wenigen Tagen haben wir im ScienceBlog einen Bericht von Francis S. Collins, Direktor der US-National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project", über die Aktivitäten der NIH zur Entwicklung von Impfstoffen und antiviralen Agentien gegen SARS-CoV-2 gebracht [1]. Basierend auf der Strukturanalyse des sogenannten Spike-Proteins, mit dem das Virus an die Wirtszellen andockt, haben die NIH in Zusammenarbeit mit der Biotech-Firma Moderna (Cambridge, MA) in Rekordzeit einen spezifischen Impfstoff entwickelt: Eine Impfung mit der mRNA des Spike-Proteins soll den Organismus dazu bringen das Spike-Protein so zu produzieren, dass es eine Immunantwort auslöst. Die im Tierversuch vielversprechende Vakzine mRNA-1273 befindet sich laut Meldung der NIH schon seit vorgestern in Phase 1 der klinischen Prüfung [2]. Dabei wird auf Sicherheit und Erzeugung einer Immunantwort an gesunden Freiwilligen wird getestet.*

Die durch SARS-CoV-2 ausgelöste Pandemie hat zu einer bis dato beispiellosen Kooperation geführt. Weltweit tauschen nun Forschergruppen ihr Wissen und ihre neuesten Ergebnisse zu SARS-CoV-2 aus; der für seine Kostenplanung vielfach verfemte Pharma-Konzern Gilead hat China sein möglicherweise auch gegen SARS-CoV-2 wirksames Mittel Remdesivir für klinische Testungen zur Verfügung gestellt und rund 3 Dutzend von aus Hochschulen und Akademie stammende Forschergruppen befinden sich im Wettstreit, wer den ersten, gegen das Virus effizienten Impfstoff auf den Markt bringen kann. Derzeit gibt es ja keinen zugelassenen Impfstoff und auch kein Arzneimittel zur Verhinderung einer Infektion mit SARS-CoV-2.

Beispiellos ist auch die Geschwindigkeit mit der neue behandlungsrelevante Ergebnisse erzielt werden. Erst vor etwa 2 Monaten hatten chinesische Wissenschafter das Genom des SARS-CoV-2 entschlüsselt und kurz danach hatte auf dieser Basis ein NIH-finanziertes Forscherteam in Rekordzeit die erste 3D-Struktur eines für die Impfstoffentwicklung erfolgversprechenden Zielproteins in atomarer Auflösung erstellt [1]. Es ist dies das sogenannte Spike-Protein, das für die Andockung des Virus an die Wirtszellen verantwortlich ist. Abbildung 1.

Abbildung 1. Das Spike-Protein des Coronavirus SARS-CoV-2 - das Zielprotein gegen das Immunisierung erfolgen soll - in atomarer Auflösung. Mit den grünen Ketten im oberen Bereich dockt das Virus an die Wirtszellen an (siehe [1])in atomarer Auflösung. (Credit: McLellan Lab, University of Texas at Austin) Anm.Redn.: Die Struktur ist in der PDB Datenbank unter 6VSB hinterlegt (DOI: 10.2210/pdb6VSB/pdb)

Gegen dieses Protein wurde nun in Rekordgeschwindigkeit ein experimenteller Impfstoff entwickelt, der sich nun seit vorgestern in Phase 1 der klinischen Prüfung befindet.

Der experimentelle Impfstoff mRNA-1273....

Der Prüfimpfstoff - mRNA-1273 - wurde von Wissenschaftlern des zum NIH gehörenden Nationalen Instituts für Allergien und Infektionskrankheiten (NIAID)und dessen Mitarbeitern beim Biotechnologieunternehmen Moderna, Inc. mit Sitz in Cambridge, Massachusetts, entwickelt.

Wissenschaftler des NIAID Vaccine Research Center (VRC) und von Moderna konnten mRNA-1273 aufgrund früherer Studien zu verwandten Coronaviren, die SARS (Severe Acute Respiratory Syndrome) und MERS (Middle East Respiratory Syndrome) verursachen, schnell entwickeln. Coronaviren sind kugelförmig und haben Spitzen - Spike-Proteine - , die aus ihrer Oberfläche herausragen und den Partikeln ein kronenartiges Aussehen verleihen. Der Spike bindet an menschliche Zellen und ermöglicht dem Virus den Eintritt. Wissenschaftler von VRC und Moderna hatten bereits an einem MERS-Impfstoff gegen das Spike-Protein gearbeitet. Dies ergab einen Vorsprung für die Entwicklung eines Impfstoffkandidaten gegen das neue Corona-Virus. Sobald die genetische Information von SARS-CoV-2 verfügbar wurde, wählten die Wissenschaftler schnell eine Sequenz aus, um das stabilisierte Spike-Protein des Virus in der vorhandenen mRNA (Messenger-RNA) -Plattform zu exprimieren.

Applikation der mRNA des Spike-Proteins weist unsere Körperzellen an, das Virusprotein zu exprimieren und man hofft, dass dieses eine robuste Immunantwort auslöst. In Tiermodellen hat sich der Impfstoff bereits als erfolgversprechend erwiesen; dies ist nun der erste Versuch, der ihn beim Menschen untersucht.

... in Phase 1 der klinischen Prüfung

Diese hat gestern am Kaiser Permanente Washington Health Research Institute (KPWHRI) in Seattle begonnen. Geleitet wird die Studie von Lisa A. Jackson, Senior Investigator bei KPWHRI, finanziert wird die Studie vom NIAID. Als Teilnehmer werden 45 gesunde erwachsene Freiwillige im Alter von 18 bis 55 Jahren über einen Zeitraum von ungefähr 6 Wochen teilnehmen. Die erste Teilnehmerin erhielt gestern den Prüfimpfstoff.

Die Studie testet den experimentellen Impfstoff in verschiedenen Dosierungen auf Sicherheit und seine Fähigkeit, bei den Teilnehmern eine Immunantwort auszulösen. Die Studienteilnehmer erhalten im Abstand von ca. 28 Tagen zwei Dosen des Impfstoffs durch intramuskuläre Injektion in den Oberarm. Bei 15 Personen in jeder Dosisgruppe erhält jeder Teilnehmer bei beiden Impfungen jeweils eine Dosis von 25, 100 oder 250 Mikrogramm (mcg). Dabei erhalten die jeweils ersten vier Teilnehmer einer Gruppe die entsprechende Dosis und die restlichen Teilnehmer erst nach überprüfter Sicherheit.

Die Teilnehmer werden gebeten, für Nachuntersuchungen zwischen den Impfungen und für zusätzliche Besuche innerhalb eines Jahres nach der zweiten Impfung in die Klinik zurückzukehren. Die Ärzte überwachen die Teilnehmer auf häufig auftretende Impfsymptome wie Schmerzen an der Injektionsstelle oder Fieber sowie andere medizinische Probleme. Ein Protokollteam wird sich regelmäßig treffen, um Sicherheitsdaten zu überprüfen, und ein Sicherheitsüberwachungsausschuss wird außerdem regelmäßig die Versuchsdaten überprüfen und NIAID beraten. Die Teilnehmer werden außerdem gebeten, zu bestimmten Zeitpunkten für Blutabnahmen bereitzustehen; diese Proben werden dann im Labor getestet, um festzustellen ob und in welchem Ausmaß eine Immunantwort auf den experimentellen Impfstoff erfolgt ist.

Fazit

Mit mRNA-1273 wird ein neuer Weg beschritten: der Impfstoff besteht nicht aus einem abgeschwächten/ inaktivierten Virus oder Viruskomponenten, sondern aus der mRNA des Spike-Proteins, welches dann der Wirtsorganismus daraus bildet und - so hofft man - mit einer Immunreaktion und der Bildung von Antikörpern darauf reagieren wird. Die Phase-1-Studie mit mRNA-1273 ist in Rekordgeschwindigkeit gestartet worden. Es ist der erste Schritt im klinischen Entwicklungsprozess, der - bei positivem Ausgang - in weiteren Phasen mit einer großen Zahl an Probanden schlussendlich zu einem sicheren und wirksamen Impfstoff gegen eine Infektion mit SARS-CoV-2 führen soll. Bis ein solcher Impfstoff im besten Fall für die breite Anwendung zur Verfügung steht, wird es mindestens ein Jahr dauern.


*Der größtenteils von der NIH-News-Seite: NIH clinical trial of investigational vaccine for COVID-19 begins [2] stammende Text wurd von der Redaktion überstzt. 

Weiterführende Links

NIAID: Coronaviruses. https://www.niaid.nih.gov/diseases-conditions/coronaviruses

WHO: Coronavirus disease (COVID-19) outbreak. https://www.who.int/emergencies/diseases/novel-coronavirus-2019

Francis S.Collins, 27.09.2018: Erkältungen - warum möglichweise manche Menschen häufiger davon betroffen sind..


 

inge Wed, 18.03.2020 - 00:17

Molekularbiologie im 21. Jahrhundert

Molekularbiologie im 21. Jahrhundert

Fr, 12.03.2020 — Peter Schuster Peter SchusterIcon Molekularbiologie

Seit der Jahrtausendwende ist die Zahl sequenzierter Genome aus unterschiedlichsten Organismen enorm rasch angestiegen, und es wurde bald klar, dass niedere Organismen (Prokaryoten) zwar denselben genetischen Code wie höhere Organismen (Eukaryoten) nutzen, dass aber in der Verwaltung und Verarbeitung der Genome grundlegende regulatorische Differenzen bestehen. Dazu können sich Eukaryoten auch eines erweiterten Repertoires der Vererbung - mittels epigenetischer Modifikationen - bedienen, wobei die RNA eine tragende Rolle spielt. Das dynamische Zusammenwirken von Chemie und Biologie konnte die zugrundeliegenden Mechanismen klären und wird - wie der theoretische Chemiker Peter Schuster (emer. Univ Prof an der Universität Wien) meint - auch weiterhin der Molekularbiologie faszinierende Erfolge garantieren. *

Die zweite Hälfte des zwanzigsten Jahrhunderts war geprägt durch die grandiosen Erfolge der Molekularbiologie, die dann schlussendlich in der Sequenzierung des menschlichen Genoms gipfelte. Für die grundlegenden zellulären Prozesse hat die Chemie mit ihrer molekularen Sichtweise Erklärungen bereitgestellt.

Manche Wissenschaftler gewannen so den Eindruck, dass damit auch der Großteil der Biologie verstanden wäre.

Die bevorzugten Untersuchungsobjekte der Molekularbiologie des 20. Jahrhunderts waren überwiegend Prokaryoten - insbesondere Bakterien - gewesen und Viren. Es ist daher auch nicht falsch anzunehmen, dass die Biologie dieser einfachen Organismen im Wesentlichen bekannt und verstanden ist. Aus der Tatsache, dass auch alle höheren Organismen (= Eukaryoten) denselben genetischen Code benützen und ganz ähnlich aufgebaute Ribosomen verwenden, konnte man versucht sein zu schließen, dass auch die übrigen Prozesse in der Eukaryotenzelle denen der Bakterien entsprechen würden.

Eukaryoten sind keine Riesenbakterien…

Die breiten Sequenzierungen unterschiedlicher Genome brachten dann aber große Überraschungen: sie zeigten, dass Pilze, Pflanzen und Tiere inklusive Menschen auch hinsichtlich ihrer Genetik keine Riesenbakterien sind.

Bereits eine einfache quantitative Überlegung weist auf grundlegende regulatorische Differenzen in der Genetik von Viren, Prokaryoten und Eukaryoten hin.

…die DNA kodiert zum Großteil nicht für Proteine…

Dies zeigt der Vergleich der Zahl von Genen, die tatsächlich für Proteine kodieren (Gene) mit einer geschätzten maximalen Zahl der auf dem Genom Platz findenden möglichen Protein-kodierenden Gene (GMax), wobei eine mittlere Genlänge von 1000 Nukleotiden angenommen wird; die folgende Tabelle vergleicht die Zahlen der Gene für Viren (hellgrau), Prokaryoten (beige) und Eukaryoten (bunt).

Tabelle: Zahl der tatsächlich Protein kodierenden Gene verglichen mit der Zahl der maximal möglichen Protein-kodierenden Gene (GMax) in Viren, Bakterien und Eukaryoten. (Daten: Ron Milo & Rob Phillips (2016) Cell Biology by the Numbers. Garland Science, Taylor & Francis. New York)

Der Quotient aus den beiden Zahlen, Gene/GMax, ist einsichtigerweise kleiner als eins. Eine Ausnahme bildet nur der Bakteriophage λ, welcher überlappende Gene aufweist. Dies bedeutet das einzelne DNA-Stücke gleichzeitig für zwei (oder mehrere) Proteine kodieren. Dieser Quotient ist bei Viren recht variabel, bei Prokaryoten sehr nahe an eins und bei Eukaryoten kleiner als eins. Dabei ist ein klarer Trend zu erkennen: je komplexer der Organismus, desto niedriger wird der Quotient, d.i. umso weniger Teile des Genoms kodieren für Proteine.

John Mattick ist ein australischer Molekularbiologe, der versucht die Funktionen nicht-kodierender DNA zu entschlüsseln. Er hat die Zahl der Gene untersucht, die in Prokaryoten für Regulatorproteine kodieren und herausgefunden, dass diese Zahl mit dem Quadrat der Gesamtzahl der Gene ansteigt [1]. In anderen Worten heißt dies, dass der Prozentsatz der Gene, welche für die Regulation benötigt werden, mit steigender Genomlänge immer größer wird. Er zieht daraus die Schlussfolgerung, dass Bakterien eine bestimmte Genomgröße - im Bereich von 10 Millionen Basenpaaren, entsprechend 10 000 Genen - nicht überschreiten können, da sonst die Regulation der Genaktivitäten zu aufwendig werden würde.

…und liegt in enorm kompakter Form im Zellkern vor

In ausgestreckter Form ist die DNA viel länger als der Durchmesser der Zelle, in welcher sie sich befindet. Durch Supercoil wird die DNA in eine kompaktere Form überführt. Supercoil ist die Methode der Kompaktifizierung der DNA bei Prokaryoten. Für die bei höheren Organismen sehr viel größeren eukaryotischen Genome reicht jedoch der Supercoil bei weitem nicht aus, um eine kompakte, in die Zelle passende Form zu erzeugen. In der Tat umfasst der Prozess von der DNA bis zum fertigen Chromosom mehrere Schritte, in welcher die DNA auf Histonen aufgewickelt, zum Chromatin und weiter zu Nukleosomen gepackt, und schließlich in mehreren Schritten zu einem Chromosom kondensiert wird. Es ist verständlich, dass die Expression eines Genes durch diese Packung sehr viel komplizierter wird und viele Schritte umfassen muss. Abbildung 1.

Abbildung 1.Die Kompaktifizierung der DNA in der Zelle von Prokaryoten (links) und von Eukaryoten (rechts: http://csma31.csm.jmu.edu/chemistry/faculty/mohler/chromatin.htm; cc-by license)

Epigenetik - neue Funktionen für die RNA

Seit der Entdeckung, dass nicht nur Proteine sondern auch RNA-Moleküle als Katalysatoren wirken können,, wurde schrittweise erkannt, dass die RNA im zellulären Geschehen eine viel wichtigere Rolle spielt als ursprünglich angenommen. In der Tat kodiert nur ein verschwindend kleiner Teil des menschlichen Genoms, nach dem heutigen Wissensstand 1.5 %, für Proteine aber vom Rest der DNA werden über 90 % auch transkribiert. Welche Aufgaben die so transkribierten RNA-Moleküle erfüllen ist nur zu einem geringen Teil bekannt. Man kann jedoch davon ausgehen, dass nicht kodierende RNA wichtige Funktionen hat und für molekulare Überraschungen durch Entdeckungen ist in diesem Zusammenhang gesorgt [2]. Schon bekannt und einigermaßen gut untersucht sind einige Mechanismen der epigenetischen Vererbung. Der Begriff der Epigenetik ist noch nicht sehr präzise aber eine gute Arbeitshypothese könnte die folgende Definition darstellen:

„Der Begriff Epigenetik definiert alle meiotisch und mitotisch vererbbaren Veränderungen der Genexpression, die nicht in der DNA-Sequenz selbst codiert sind." [3]

Die Epigenetik wirkt auf die Genexpression und das Expressionsmuster kann teilweise von einer Generation an die Folgegenerationen weitergegeben werden. Abbildung 2.

Abbildung 2. Die vererbbare Schaltung von Genen durch RNA-Interferenz, DNA-Methylierung und Histon-Modifizierung. Chemische Modifizierung der Histone - Methylierung, Acetylierung, Phosphorylierung, Ubiquitinierung.- kann eine veränderte Chromatinstruktur und damit Genaktivierung/Genstilllegung bewirken- (Bild modifiziert nach G. Egger et al., (2004) Nature 429:457-463)

Drei Mechanismen der vererbbaren Abschaltung von Genen sind (i) RNA-Interferenz, (ii) Histon Modifikation und (iii) DNA-Methylierung. Zum Unterschied von Veränderungen an der Nukleotidsequenz der DNA verblasst das „epigenetische Gedächtnis“ zumeist nach einigen wenigen Generationen [4]. Die erblichen epigenetischen Modifikationen werden unabhängig von der DNA-Replikation in das Transkriptions-Translationssytem der Zelle eingeführt und können daher zu allen Lebzeiten auftreten. Es wird daher auch möglich, dass Lebensstil und Umwelteinflüsse durch ein sogenanntes „epigenetisches Gedächtnis“ an die Nachfahren weitergegeben werden. In diesem Sinne tritt über das Genaktivitätsmuster eine epigenetische Vererbung erworbener Eigenschaften ein.

Die schon lang bekannte und nunmehr durch chemisches und molekularbiologisches Wissen untermauerte Möglichkeit einer Vererbung erworbener Eigenschaften wurde vor allem in der populär- und pseudowissenschaftlichen Literatur als „Neo-Lamarckismus“ gefeiert [5,6] und sogar ideologisch missbraucht [7]. In der seriösen Wissenschaft bietet die Epigenetik eine entscheidende Bereicherung der genetischen Vererbung [8]: Durch die Möglichkeit, dass Teile der Lebenserfahrungen direkt an die Nachkommen weitergegeben werden können, wird der evolutionäre Anpassungsprozess schneller und unmittelbarer als die konventionelle Genetik, die mit ungerichteten Mutationen arbeiten muss. Die Evolution der höheren Lebewesen, insbesondere die der Pflanzen und Tiere, verwaltet und verarbeitet nicht nur größere Genome, sie kann sich auch eines erweiterten Repertoires der Vererbung bedienen. In den zusätzlichen Prozessen spielt die RNA eine tragende Rolle.

Typisch für die Entwicklung einer dynamischen Wissenschaft wie der mit der Chemie vereinigten Biologie ist, dass die meisten Regeln ihre Gültigkeit verlieren und durch neue ersetzt werden müssen. Gerade diese Tatsache macht die Molekularbiologie der Zukunft so faszinierend.


[1] Larry J. Croft, Martin J. Lercher, Michael J. Gagen, John S. Mattick. 2003. Is prokaryoric complexity limited by accelerated growth in regulatory overhead? Genome Biology 5:P2.

[2] Thomas R. Cech, Joan A. Steitz, 2014. The Noncoding RNA Revolution – Trashing Old Rules to Forge New Ones. Cell 157(1):77-94.

[3] Gerda Egger, Gangning Liang, Ana Aparicio, Peter A. Lones. 2004. Epigenetics in Human Disease and Prospects for Epigenetic Therapy. Nature 429(6990):457-463.

[4] Agustina D’Urso, Jason H. Bricker. 2017. Epigenetic Transcriptional Memory. Curr.Genetics 63(3):435-439.

[5] Vorarlberger Bildungsserver. 2007. http://www.bio.vobs.at/gen-mol/g-epigenetik.php. Retrieved 29.02.2020.

[6] Vorarlberger Bildungsserver. 2007. http://www.bio.vobs.at/evolution/e06-lamarckismus_epigenetik.php. Retrieved 29.02.2020.

[7] Edouard I. Kolchinsky, Ulrich Kutschera, Uwe Hossfeld, Georgy S. Lewit. 2017. Russia’s New Lysenkoism. Curr.Biology 27(19):R1042.

[8] Étienne Danchin, Arnaud Pocheville, Phillipe Huneman. 2018. Early in Life Effects and Heredity: Reconciling Neo-Darwinism with Neo-Lamarckism under the Banner of the Inclusive Evolutionary Synthesis. 2018. Phil.Trans.Roy.Soc.B 374:e20180113.


*Der vorliegende Artikel ist der Schlussteil des Vortrags "Chemische Aspekte der Evolution", den der Autor im Rahmen einer Veranstaltung der Gesellschaft der Freunde der ÖAW in Kooperation mit der TU Wien am 3.März 2020 gehalten hat. Der vollständige, mit vielen Literaturzitaten und Abbildungen versehene Vortrag findet sich auf der Homepage des Autors: https://www.tbi.univie.ac.at/~pks/Presentation/wien-oeaw20text.pdf und https://www.tbi.univie.ac.at/~pks/Presentation/wien-oeaw20.pdf


Artikel zu verwandten Themen im ScienceBlog

Redaktion Thu, 12.03.2020 - 08:53

Strukturbiologie weist den Weg zu einem Coronavirus-Impfstoff

Strukturbiologie weist den Weg zu einem Coronavirus-Impfstoff

Do, 05.03.2020 — Francis S. Collins

Francis S. CollinsIcon MedizinVoraussetzung für eine Infektion mit dem neuen, COVID-19 verursachenden Coronavirus ist, dass es an menschliche Zellen im Atemtrakt andockt und in diese eindringt. Das Andocken erfolgt über das an der Oberfläche des Virus exprimierte Spike-Protein, das dann auch die Fusion von viraler mit menschlicher Zellmembran auslöst und somit eine erstrangige Zielstruktur für antivirale Strategien darstellt. Mit Hilfe der Kryo-Elektronenmikroskopie konnte nun die 3D-Struktur des Spike-Proteins und damit auch die der andockenden Stelle in atomarer Auflösung entschlüsselt werden. Dieses Wissen bietet eine Basis für die Entwicklung von Impfstoffen und antiviralen Agentien. Francis Collins, NIH-Direktor und ehem. Leiter des "Human Genome Project", gibt einen Überblick über diese Aktivitäten.*

Der gegenwärtige Ausbruch von COVID-19, verursacht durch einen neuen Typ des Coronavirus mit Ursprung in China, hat weltweit enorme Anstrengungen ausgelöst, um die Ausbreitung der Infektion einzudämmen und zu verlangsamen. Allen Bemühungen zum Trotz hat das Virus (Abbildung 1) begonnen sich während des letzten Monats außerhalb Chinas in zahlreichen Ländern und Gebieten zu verbreiten.

Abbildung 1. Das neue Coronavirus - SARS-CoV-2 - , das COVID-19 verursacht. Links: Elektronenmikroskopische Aufnahme von Viren, die von einem US-Patienten isoliert wurden, in einer Zellkultur. Spikes, welche kronenartig die Oberfläche des Virus säumen, haben zur Bezeichnung Coronavirus geführt (Credit: NIAID RML). Rechts: Graphische Darstellung des Coronavirus in der Lunge. Das Virus ist von einer Membran umschlossen, aus welcher das für die Anheftung an und das Eindringen in die Körperzellen verantwortliche Spike-Protein (lila) herausragt.. Ein Kanal-Protein in der Membran (rosa) ist in die Abschnürung des Virus involviert. Im Innern findet sich die genomische RNA (weiße Stränge), daran gebunden viele Kopien des Nucleocapsid-Proteins (blau). Das Virus ist vom Abwehrsystem der Lunge umringt: Mukus (grüne Bänder), sezernierten Antikörpern (gelb) und verschiedenen kleineren Proteinen des Immunsystems (Bild von David S. Goodsell, RCSB Protein Data Bank; doi: 10.2210/rcsb_pdb/goodsell-gallery-019). Beide Bilder wurden von der Redaktion eingefügt.

In den USA sind inzwischen Fälle von infizierten Personen aufgetreten, die kürzlich weder im Ausland gewesen waren noch sich eines Kontakts zu anderen Personen bewusst waren, die kurz zuvor aus China oder anderen Ländern, in denen sich das Virus verbreitet, angekommen wären. Die National Institutes of Health (NIH) und andere US-amerikanische Gesundheitsbehörden sind in höchster Alarmbereitschaft und haben die erforderlichen Ressourcen mobilisiert, um nicht nur zur Eindämmung des Virus beizutragen, sondern auch bei der Entwicklung lebensrettender Maßnahmen zu helfen.

Das virale Spike-Protein als Target für die Impfstoff-Entwicklung und…

Was die Behandlung und Prävention betrifft, gab es kürzlich einige ermutigende Neuigkeiten Ein NIH-finanziertes Forscherteam hat in Rekordzeit die erste 3D-Struktur eines für die Impfstoffentwicklung erfolgversprechenden Zielproteins in atomarer Auflösung erstellt [1]. Es handelt sich dabei um das sogenannte Spike-Protein des neuen Coronavirus, das COVID-19 verursacht. Abbildung 2.

Abbildung 2. Das Spike-Protein des Coronavirus SARS-CoV-2 in atomarer Auflösung. (Credit: McLellan Lab, University of Texas at Austin) Anm.Redn.: Die Struktur ist in der PDB Datenbank unter 6VSB hinterlegt (DOI: 10.2210/pdb6VSB/pdb)

Ein Teil dieses stacheligen Oberflächenproteins (oben im Bild: grüne Ketten) ermöglicht es dem Virus an einen Rezeptor auf menschlichen Zellmembranen zu binden wodurch dann andere Teile des Spikes die Fusion von viralen und menschlichen Zellmembranen auslösen. Dieser Prozess ist die Voraussetzung, dass das Virus in Zellen eindringen und diese infizieren kann.

…ein Impfstoffkandidat

auf Basis dieses Spike-Proteins wird in präklinischen Studien an Mäusen bereits im Impfstoff-Forschungszentrum (VRC) des NIH getestet, das Teil des Nationalen Instituts für Allergien und Infektionskrankheiten (NIAID) ist. Eine frühe klinische Phase-I-Studie am Menschen wird mit diesem Impfstoff voraussichtlich in wenigen Wochen beginnen. Anschließend werden allerdings noch viele weitere Schritte erforderlich sein, um die Sicherheit und Wirksamkeit des Impfstoffs zu testen und dann die Produktion hochzufahren, um Millionen von Dosen zu produzieren.

Auch wenn dieser Zeitplan möglicherweise alle bisherigen Geschwindigkeitsrekorde brechen wird, wird es mindestens ein weiteres Jahr dauern, bis ein sicherer und wirksamer Impfstoff für einen umfassenden Einsatz bereit steht.

Coronaviren sind eine große Familie von Viren darunter gibt es einige, die bei gesunden Menschen eine „Erkältung“ verursachen. Tatsächlich sind diese Viren auf der ganzen Welt verbreitet und bei Erwachsenen für bis zu 30 Prozent der Infektionen der oberen Atemwege verantwortlich.

Der Ausbruch von COVID-19 markiert nun das dritte Mal in jüngster Zeit, dass ein Coronavirus aufgetaucht ist, das bei manchen Menschen schwere Erkrankung und Tod verursacht. Zu den vorhergegangenen Ausbrüchen von Coronaviren gehörten SARS (schweres akutes respiratorisches Syndrom), das Ende 2002 auftrat und zwei Jahre später verschwand, und MERS (nahöstliches respiratorisches Syndrom), das 2012 auftrat und noch weiterhin Menschen in geringer Anzahl infiziert.

Die Strukturanalyse des Spike-Proteins

Rasch nach dem Ausbruch von COVID-19 wurde das neue, eng mit dem SARS-Erreger verwandte Coronavirus, als Ursache erkannt. NIH-finanzierte Forscher, darunter Jason McLellan, ein ehemaliger Student am VRC und jetzt an der University of Texas in Austin tätig, standen schon bereit. Sie hatten jahrelang in Zusammenarbeit mit NIAID-Forschern Coronaviren untersucht, mit besonderem Augenmerk auf die Spike-Proteine.

Gerade einmal zwei Wochen nachdem chinesische Wissenschaftler die erste Sequenzierung des Virusgenoms berichtet hatten [2], designten McLellan und seine Kollegen nach dieser Bauanleitung Proben des Spike-Proteins. Entscheidend war, dass das Team zuvor eine Methode entwickelt hatte, mit der Coronavirus-Spike-Proteine ​​in eine stabile Konformation gebracht werden können, die sowohl eine Strukturanalyse mithilfe der hochauflösenden Kryo-Elektronenmikroskopie erleichtert als auch eine Anwendung zur Entwicklung von Impfstoffen.

Nachdem die Forscher das Spike-Protein in der Konformation stabilisiert hatten, die es einnimmt, bevor es mit einer menschlichen Zelle fusioniert und diese infiziert, rekonstruierten sie in nur 12 Tagen seine 3D-Struktur im atomarer Auflösung. Ihre in Science veröffentlichten Ergebnisse bestätigen, dass das Spike-Protein auf dem COVID-19 verursachenden Virus und das auf seinem nahen Verwandten, dem SARS-Virus, ziemlich ähnlich sind. Das neue Virus scheint an menschliche Zellen fester zu binden als das SARS-Virus; dies könnte erklären, warum es sich leichter von Person zu Person - hauptsächlich durch Übertragung über die Atemwege - zu verbreiten scheint.

Präklinische und Klinische Studien

Das Team um McLellan und seine Kollegen vom NIAID VRC planen auch, das stabilisierte Spike-Protein als Sonde zu verwenden, um natürlich produzierte Antikörper von Menschen zu isolieren, die von der COVID-19 Erkrankung wieder genesen waren. Solche Antikörper könnten die Grundlage für eine Behandlung von Personen bilden, die dem Virus ausgesetzt waren, beispielsweise von Beschäftigten im Gesundheitswesen.

Das NIAID arbeitet jetzt mit dem Biotechnologieunternehmen Moderna (Cambridge, MA) zusammen, um anhand der neuesten Erkenntnisse einen Impfstoffkandidaten zu entwickeln und zwar unter Verwendung der Messenger-RNA (mRNA) des Spike-Proteins, d.i. des Moleküls, das als Vorlage für die Herstellung desProteins dient. Das Ziel dabei ist es, den Körper dazu zu bringen, ein Spike-Protein so zu produzieren, dass es eine Immunantwort und die Produktion von Antikörpern auslöst. Eine frühe klinische Studie mit dem Impfstoff am Menschen wird voraussichtlich in den kommenden Wochen beginnen. Andere Impfstoffkandidaten befinden sich ebenfalls in der präklinischen Entwicklung.

Mittlerweile läuft bereits die erste klinische Studie in den USA zur Evaluierung einer experimentellen Behandlung von COVID-19 (Biosicherheitslabor des University of Nebraska Medical Centers) [3]. Die von NIH gesponserte Studie wird die Sicherheit und Wirksamkeit des experimentellen antiviralen Arzneimittels Remdesivir an stationär aufgenommenen Erwachsenen mit der Diagnose COVID-19 evaluieren. Der erste Teilnehmer ist ein Amerikaner, der nach der Quarantäne auf dem Kreuzfahrtschiff Diamond Princess in Japan heimgeholt worden war.


Das Risiko, in den USA an COVID-19 zu erkranken, ist derzeit gering, aber die Situation ändert sich rasch. Eine der großen Herausforderungen, die das Virus mit sich bringt, ist seine lange Latenzzeit, bevor sich das charakteristische grippeähnliche Fieber, Husten und Atemnot manifestieren. Tatsächlich können mit dem Virus infizierte Personen möglicherweise bis zu zwei Wochen lang keine Symptome zeigen, es inzwischen aber an andere übertragen. (Die gemeldeten Fälle in den USA kann man auf der Website des Centers for Disease Control and Prevention verfolgen.)

Wenn der COVID-19 Ausbruch in den kommenden Wochen und Monaten andauert, können Sie sicher sein, dass das NIH und andere US-amerikanische Gesundheitsorganisationen auf Hochtouren daran arbeiten, dieses Virus zu verstehen und bessere Diagnosen, Behandlungen und Impfstoffe zu entwickeln.


[1] Cryo-EM structure of the 2019-nCoV spike in the prefusion conformation. Wrapp D, Wang N, Corbett KS, Goldsmith JA, Hsieh CL, Abiona O, Graham BS, McLellan JS. Science. 2020 Feb 19. [2] A new coronavirus associated with human respiratory disease in China. Wu F, Zhao S, Yu B, Chen YM, Wang W, Song ZG, Hu Y, Tao ZW, Tian JH, Pei YY, Yuan ML, Zhang YL, Dai FH, Liu Y, Wang QM, Zheng JJ, Xu L, Holmes EC, Zhang YZ. Nature. 2020 Feb 3. [3] NIH clinical trial of remdesivir to treat COVID-19 begins. NIH News Release. Feb 25, 2020.


* Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 3. März 2020) im NIH Director’s Blog unter dem Titel: "Structural Biology Points Way to Coronavirus Vaccine" https://directorsblog.nih.gov/2020/03/03/structural-biology-points-way-to-coronavirus-vaccine/ . Er wurde von der Redaktion möglichst wortgetreu übersetzt und geringfügig (mit einigen Untertiteln und einer zusätzlichen Abbildung) für den ScienceBlog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).

 


Weiterführende Links

NIAID: Coronaviruses.

https://www.niaid.nih.gov/diseases-conditions/coronaviruses

WHO: Coronavirus disease (COVID-19) outbreak.

https://www.who.int/emergencies/diseases/novel-coronavirus-2019

Francis S.Collins, 27.09.2018: Erkältungen - warum möglichweise manche Menschen häufiger davon betroffen sind.


 

Redaktion Thu, 05.03.2020 - 10:00

Neue Anwendungen für existierende Wirkstoffe: Künstliche Intelligenz entdeckt potentielle Breitbandantibiotika

Neue Anwendungen für existierende Wirkstoffe: Künstliche Intelligenz entdeckt potentielle Breitbandantibiotika

Sa, 27.02.2020 — Inge Schuster

vIcon MedizinAuf dem Antibiotikagebiet dürfte ein großer Durchbruch erfolgt sein: Mithilfe von Künstlicher Intelligenz haben Forscher am Massachusetts Institute of Technology (MIT) und am Broad Institute aus einer Sammlung existierender Arzneimittel(kandidaten)  ein hocheffizientes Antibiotikum identifiziert, das einen neuartigen Wirkungsmechanismus aufweist. Diese, Halicin genannte Substanz tötete in vitro viele der weltweit problematischsten pathogenen Bakterien, einschließlich einiger Stämme, die gegen alle bekannten Antibiotika resistent sind. In vivo Untersuchungen an der Maus in zwei unterschiedlichen Infektionsmodellen bestätigten die in vitro Wirksamkeit.

"Der Mangel an neuen Antibiotika gefährdet die weltweiten Bemühungen, arzneimittelresistente Infektionen einzudämmen" So übertitelt die WHO eine Aussendung vom 17.Jänner 2020.

Infektionen mit arzneimittelresistenten Keimen und damit verbundene Morbidität und Mortalität sind weltweit auf dem Vormarsch und alle Länder sind davon betroffen. In Europa rechnet man jährlich mit rund 33 000 Todesfällen, in den US mit über 35 000 Toten bei mehr als 2,8 Millionen an Antibiotika-resistenten Infektionen Erkrankten (1). Derartige Infektionen bedeuten zudem eine enorme Gefahr für die moderne Medizin, für die wirksame Antibiotika ja eine Grundvoraussetzung sind, um komplizierte chirurgische Eingriffe, Transplantationen und Chemotherapien durchführen zu können.

Wie war es zu diesem Antibiotika Mangel gekommen?

Die Entdeckung des Penicillins hatte einen Boom in der Antibiotika-Forschung und Entwicklung ausgelöst, der bis in die 1980er Jahre anhielt. Praktisch alle großen Pharmakonzerne investierten damals in Infektionskrankheiten und generierten eine breite Palette an Wirkstoffen mit unterschiedlichen Wirkungsmechanismen, wie beispielsweise β-Laktame, Tetracycline, Aminglykoside oder Makrolide. Damit waren dann aber offensichtlich die "low hanging fruits" gepflückt und trotz intensiver Bemühungen wurden weitere Substanzklassen mit neuartigem Wirkmechanismus kaum noch entdeckt. Unter den vorhandenen Antibiotika herrschte zudem ein großer Konkurrenzdruck und man glaubte über ein ausreichend großes Arsenal an Wirkstoffen bereits zu verfügen, um für alle Eventualitäten  gerüstet zu sein. Die langdauernde, enorm teure Entwicklung neuer Wirkstoffe, die den vorhandenen dann wohl kaum überlegen sein würden, erschien finanziell nicht tragbar. So zogen sich die Pharmakonzerne aus der Antibiotikaforschung zurück.

Noch problematischer erschien später – mit dem Aufkommen der Resistenzentwicklung gegen die gängigen Antibiotika – ein Wiedereinstieg in das Gebiet. Um gegen ein neues Mittel nicht zu schnell Resistenzen entstehen zu lassen, darf es ja nur in äußersten Notfällen eingesetzt werden. In anderen Worten: enorm hohe Entwicklungskosten stehen der Aussicht auf einen minimalen Absatz gegenüber.

So kam es, dass in den letzten Jahrzehnten nur sehr wenige neue Antibiotika entwickelt wurden , wobei diese größtenteils nur geringfügig veränderte Varianten vorhandener Wirkstoffe sind.

Der aktuelle Stand der Antibiotikaforschung

Vorhandene und potentielle neue Antibiotika, welche bereits in klinischer Prüfung sind und diese erfolgreich durchlaufen müssen, reichen nicht aus, um die steigende und sich ausbreitende Resistenzentwicklung zu bewältigen. Zwei aktuelle Berichte der WHO zeigen dies auf (1, 2):

So sind seit Juli 2017 zwar 8 neue Wirkstoffe zugelassen worden, deren klinischer Nutzen ist allerdings begrenzt. Wie auch die Mehrheit der 50 Antibiotika-Kandidaten, die sich zur Zeit in Phase 1 bis Phase 3 der klinischen Prüfung befinden, sind es Abwandlungen bereits existierender Antibiotika, die im Vergleich zu diesen kaum Vorteile bringen. Nur 2 Substanzen zielen auf die problematischsten resistenten (Gram-negativen) Keime ab.

Die präklinische Pipeline - das sind Substanzen am Beginn der Entwicklung - sieht besser aus (2): Diese enthält 252 Wirkstoffe, die innovativeren Charakter haben und größere Diversität aufweisen. Erfahrungsgemäß scheitert der überwiegende Teil der präklinischen Kandidaten dann in der Testung auf Wirksamkeit und Sicherheit am Menschen. Vielleicht schaffen es 2, vielleicht auch 5 der präklinischen Substanzen schlussendlich zur Anwendung zugelassen werden; bis es soweit ist, kann es noch ein Jahrzehnt dauern.

Akteure in dem Geschehen sind nicht die großen Konzerne, sondern zum überwiegenden Teil kleine und mittelgroße Firmen und auch non-profit Organisationen wie die Global Antibiotic Research and Development Partnership (GARDP).

(Information zum Prozess der Arzneimittel-Forschung und -Entwicklung:  Insgesamt braucht es heute im Durchschnitt 12 - 13 Jahre, um ein neues Medikament auf den Markt zu bringen, die dafür aufzubringenden Forschungs-und Entwicklungskosten liegen im Mittel um 2,6 Milliarden US $ und nur etwa 5 % der in die klinische Prüfung gelangenden Kandidaten erreichen die Zulassung.)

Neuanwendungen bereits vorhandener Wirkstoffe (Drug Repurposing)…

oder eine Nebenwirkung wird zur Hauptwirkung.

Dass Arzneimittel nicht nur mit ihrer Zielstruktur (ihrem Target) wechselwirken und damit die erwünschte Wirkung hervorrufen, sondern auch mit anderen Strukturen im Organismus interagieren und damit Nebenwirkungen auslösen können, ist hinlänglich bekannt. Derartige Nebenwirkungen haben in bereits zahlreichen Fällen zur Identifizierung neuer Anwendungsmöglichkeiten geführt. Ein Beispiel ist hier das in den 1960er Jahren millionenfach verkaufte Beruhigungsmittel Contergan (Thalidomid), das schwerste Missbildungen bei Neugeborenen auslöste, nun aber bei Lepra und bestimmten Krebserkrankungen (u.a. Myelomen) erfolgreich zum Einsatz kommt. Viagra, das gefäßerweiternd wirkt, wurde ursprünglich gegen Bluthochdruck und Angina pectoris geprüft; die recht offensichtliche Nebenwirkung hat es zum Blockbuster bei erektiler Dysfunktion werden lassen. Das klassische, seit mehr als 50 Jahren erfolgreich angewandte Antidiabetikum Metformin wird nun in hunderten klinischen Versuchen in verschiedensten Indikationen von Neoplasmen bis hin zu Anti-Aging getestet. Ein Beispiel aus eigener Erfahrung war eine bei Sandoz für Herz-Kreislauferkrankungen synthetisierte Substanz, die sich in unserem Wiener Sandoz-Forschungsinstitut als hochaktiv gegen pathogene Pilze erwies; nach Optimierung entstand daraus der Blockbuster Terbinafin, der gegen Haut-und Nagelpilz angewandt wird.

Je nachdem, ob es sich um ein bereits zugelassenes Medikament oder um eine Entwicklungssubstanz handelt, können Daten zu Aufnahme, Verteilung, Metabolismus und Ausscheidung im menschlichen Organismus und zu Sicherheit und Nebenwirkungen bereits vorliegen und der Wirkmechanismus bekannt sein. Bei einer Neuanwendung in einer anderen Indikation lassen sich daher Dauer und Kosten der Entwicklung erheblich reduzieren.

…und eine Datenbank vorhandener Wirkstoffe (Drug Repurposing Hub)…

Das Broad Institute des MIT (Massachusetts Institute of Technology) und der Harvard University wurde 2004 gegründet u.a. um die Biologie humaner Erkrankungen besser zu verstehen und eine Basis für neue Therapien zu schaffen. Forscher haben hier mit Drug Repurposing Hub eine open access Datenbank errichtet, die derzeit mehr als 6000 Substanzen enthält, wobei es sich bei etwa zwei Drittel davon um von der FDA bereits zugelassene Stoffe handelt oder um Entwicklungssubstanzen, die bereits in der klinischen Prüfung sind. Ein Drittel sind Substanzen vorwiegend in der präklinischen Phase. Von allen Substanzen sind Bezeichnung, chemische Struktur, Entwicklungsstatus, Wirkungsmechanismus, Targets im Organismus undIndikationen eingetragen.

…in der Künstliche Intelligenz ein neues Antibiotikum entdeckt...

Um zu vollkommen neuen antibiotisch wirksamen Substanzen zu gelangen, hat ein großes Team von der Harvard University, dem MIT und dem Broad-Institut unter der Leitung von Regina Barzilay und James Collins sogenannte neuronale-Netzwerk-Modelle des Maschinellen Lernens angewandt. Diese lassen sich trainieren Molekülstrukturen zu analysieren und mit bestimmten Eigenschaften - wie der Fähigkeit Bakterien zu töten - zu korrelieren und zu Algorithmen umzusetzen. Der wesentliche Punkt: Der Algorithmus lernt ohne irgendeine Ahnung wie Substanzen nun wirken.

Im konkreten Fall haben die Forscher nach chemischen Merkmalen gesucht, welche Molekülen die Fähigkeit verleihen das Bakterium E.coli zu töten. Dazu haben sie das Modell mit empirischen Daten zur Wachstumshemmung von E coli durch insgesamt 2 500 Moleküle mit unterschiedlichsten Strukturen und biologischen Aktivitäten trainiert; 1700 dieser Verbindungen waren von der FDA zugelassene Arzneimittel und 800 waren Naturstoffe .

Nachdem das Modell trainiert war, haben die Forscher dann damit auf potentielle antibiotisch aktive Verbindungen im Drug Repurposing Hub getestet. Aus den rund 6000 Verbindungen selektierte das Modell dann eine Verbindung, für die es hohe antibiotische Aktivität prognostizierte und die strukturell völlig anders war als die bisherigen Antibiotika. Es war dies eine Substanz, die gegen Diabetes getestet worden war, in der klinischen Prüfung aber wegen mangelnder Wirksamkeit durchfiel. Mit einem unterschiedlichen Modell prognostizierten die Forscher geringe Toxizität für menschliche Zellen.

...Halicin

Die Forscher nannten diese Verbindung Halicin und testeten sie in vitro an einer Reihe von E.coli Stämmen, die Resistenzgene gegen Antibiotika wie Poymyxine, Chloramphenicol, β-Laktame, Aminglycoside und Fluoroquinoline trugen und sodann an Dutzenden Bakterienstämmen und Isolaten von infizierten Patienten. Mit Ausnahme des die Lunge befallenden Keims Pseudomonas aeruginosa konnte Halicin viele resistente Keime abtöten (darunter Clostridium difficile, Acinetobacter baumannii und Mycobacterium tuberculosis). Abbildung 1.

Abbildung 1. Halicin, ein möglicher Durchbruch in der Antibiotikaforschung. Das kleine Molekül (rechts), das ursprünglich gegen Diabetes getestet worden war, wurde von MIT-Forschern mithilfe von Künstlicher Intelligenz aus einer Sammlung existierender Wirkstoffe als hochwirksames Antibiotikum identifiziert, das viele Bakterienstämme abtötet. Links: Untersuchung an E.coli Kulturen. Links oben (Bild 1,2): Kulturen mit Halicin. Links unten (Bild 1,2) Kulturen mit Ciprofloxacin. Gegen Halicin entwickeln E.coli Bakterien auch nach 30 Tagen (Bild 2) keine Resistenz - E.coli wird abgetötet, die Platten bleiben klar. Gegen das Antibiotikum Ciprofloxacin tritt Resistenz bereits nach drei Tagen auf und erreicht nach 30 Tagen (Bild 2) den 200 fachen Wert; die Kulturplatte is von Keimen überwuchert.  (Bild: courtesy of the Collins Lab at MIT; CC-by-nc-sa)

Auch im Wirkungsmechanismus unterscheidet sich Halicin von den bisherigen Antibiotika. Halicin dürfte  Bakterien abtöten, indem es verhindert, dass die Bakterienzelle über ihre Zellmembran ein elektrochemisches Potenzial aufrecht erhält, das u.a. zur Bildung des essentiellen Energielieferanten ATP unabdingbar ist.

Halicin zeigte auch außergewöhnliche Aktivität in vivo, im Infektionsmodell in der Maus. Die Tiere wurden dazu mit einem gegen alle Antibiotika resistenten Keim (Acinetobacter baumannii) infiziert, unter dem auch viele US Soldaten im Irak und in Afghanistan gelitten hatten. Unter Halicin-Behandlung war der Keim innerhalb von 24 Stunden aus dem Körper der Maus verschwunden.

Nach der Entdeckung von Halicin erprobten die Forscher ihr Modell an einer Datenbank - ZINC15 -, die mehr als 1,5 Milliarden Verbindungen erfasst. Die Testung eines Pools von mehr als 100 Millionen Molekülen benötigte nur drei Tage und führte zu 23 Treffern (Hits); im nachfolgenden Test an mehreren Bakterienstämmenzeigten 8 Verbindungen antibakterielle Wirkung. (Die Arbeiten sind in (3) beschrieben)

Outlook

Der erfolgreiche Einsatz von Künstlicher Intelligenz zur Auffindung neuer Wirkstoffe in großen Kollektionen bereits existierender Arzneimittel bedeutet zweifellos  einen gewaltigen Durchbruch und kann nicht nur das Antibiotikagebiet revolutionieren. Werden alte Substanzen für neue Indikationen wiederverwendet, so können diese ja viel schneller den Entwicklungsprozess durchlaufen und - in vielleicht 3 - 4 Jahren - zu ungleich geringeren Kosten den Markt erreichen als es im  konventionellen Prozess der Fall ist. 

Es ist zu hoffen, dass Halicin diesen Prozess erfolgreich besteht. Nebenwirkungen sind nicht auszuschließen, da sein Target  im menschlichen Stoffwechsel eine wichtige Rolle spielt. Es könnte auch sein, dass Halicin unser gesamtes Mikrobiom  (temporär) auslöscht. Derartige potentielle Probleme sind gegen die Möglichkeit abzuwägen ein Arzneimittel anzuwenden, das hilft, wenn sonst nichts mehr hilft.


1. World Health Organization: 2019 ANTIBACTERIAL AGENTS IN CLINICAL DEVELOPMENT - an analysis of the antibacterial clinical development pipeline. https://apps.who.int/iris/bitstream/handle/10665/330420/9789240000193-eng.pdf

2. World Health Organization: ANTIBACTERIAL AGENTS INPRECLINICAL DEVELOPMENT - an open access database. https://apps.who.int/iris/bitstream/handle/10665/330290/WHO-EMP-IAU-2019.12-eng.pdf

3. JM Stokes et al., A Deep Learning Approach to Antibiotic Discovery.Cell 180, 688–702, February 20, 2020


Weiterführende Links:

The Drug Repurposing Hub at the Broad Institute. (13.11.2019) Video 2,5 min.

Halicin is a powerful new antibiotic drug discovered by AI algorithm of MIT. (21.02.2020) Video 4:17 min.

Artikel im ScienceBlog:

Zu künstlicher Intelligenz:

Zu Antibiotika:


 

inge Thu, 27.02.2020 - 11:43

Die Intelligenz der Raben

Die Intelligenz der Raben

Do, 20.02.2020 — Nora Schultz

Nora SchultzIcon Gehirn

Viele unserer tierischen Mitspieler im Parcours der Evolution zeigen unerwartete Eigenschaften, von denen zwar in Mythen und Anekdoten berichtet wird, die aber erst in den letzten Jahrzehnten wissenschaftlich untersucht werden. So stellt sich bei Rabenvögel heraus, dass sie beachtliche kognitive Leistungen erbringen, sich sehr gut in ihre Artgenossen einfühlen können und soziale Beziehungen gezielt für sich nutzen oder sogar manipulieren. Zu diesen Forschungsergebnissen hat Thomas Bugnyar (Prof. für Kognitive Ethologie und Leiter des Instituts für Kognitionsbiologie. Univ. Wien) Wesentliches beigetragen. Die Entwicklungsbiologin Nora Schultz interviewt hier den "Rabenvater".*

Nora Schultz: Herr Bugnyar, wie sind Sie dazu gekommen, die Intelligenz von Rabenvögeln zu untersuchen?

Thomas Bugnyar: Ich habe mich schon immer für die Evolution von Intelligenz interessiert, besonders von sozialer Intelligenz. Während meines Studiums forschten alle noch an Affen – ich auch. Über die Intelligenz von Vögeln wusste man sehr wenig. Durch Zufall bekam ich das Angebot, in meiner Doktorarbeit zu erforschen, ob Raben wirklich so gescheit sind, wie viele Mythen und Anekdoten es vermuten lassen.

Nora Schultz: Was sind das für Mythen und Anekdoten?

Thomas Bugnyar: Rabenvögel spielen eine wichtige Rolle in den Sagen ganz unterschiedlicher Kulturen, zum Beispiel bei den indigenen Völkern Nordamerikas, im alten Rom oder in der nordischen Mythologie. In letzterer treten Raben als Boten des Gottes Odin auf, die dieser immer wieder auf die Erde schickt, damit sie ihm berichten, was dort geschieht. Abbildung 1 (von Redn eingefügt)

Abbildung 1. Der nordische Göttervater Odin (links) hört von seinen Raben Hugin und Munin die Weltnachrichten, der griechische Gott Apollo (rechts) erfährt ihm unangenehme Neuigkeiten von seinem Raben (beide Bilder aus Wikipedia; links: aus Manuskript des 17. Jh, gemeinfrei; rechts: weißgrundige Schale um 460 v.Chr. im Museum von Delphi, Foto Fingalo.)

Nora Schultz: Aber galten Vögel im Vergleich zu Säugetieren nicht lange als weniger schlau? Im Englischen verwendet man den Ausdruck „bird brain“ ja sogar analog zu „Dummkopf“.

Thomas Bugnyar:Das Vogelhirn ist nicht leistungsschwächer als das Säugerhirn! Die Hirnstrukturen sind sehr unterschiedlich, aber die Funktionen auf der Zellebene und die kognitiven Kompetenzen sind es nicht. 

Nora Schultz: Stimmt es, dass Vögel kein Großhirn haben?

Thomas Bugnyar: Die Grundannahme, dass Raben sehr schlau sind, fußt auf jahrtausendealten Beobachtungen durch Menschen, dass solche Vögel Erstaunliches leisten. In der Verhaltensforschung hat man sich dafür nur lange nicht interessiert. Einer meiner Mentoren, Bernd Heinrich, hat in den 90er Jahren eine der ersten experimentellen Studien zur Rabenkognition durchgeführt und hatte zunächst Probleme, diese zu veröffentlichen. Er hat dann eine große Literaturrecherche gemacht und über 1.000 Einträge zur Rabenintelligenz gefunden, aber nur einen davon aus einer wissenschaftlichen Studie. Alles andere waren Anekdoten.

Nora Schultz: Was hat Ihre eigene Forschung über die Intelligenz von Raben ergeben?

Thomas Bugnyar: Es hat sich herausgestellt, dass Raben ein ganz wunderbares Modell zur Erforschung von Intelligenz sind. Sie können einander zum Beispiel meisterhaft manipulieren und täuschen. Damit das klappt,  muss man in der Lage sein, die Perspektive anderer Individuen richtig einzuschätzen. Das ist ein Element der sogenannten Theory of Mind. (siehe: Im Kopf der anderen [https://www.dasgehirn.info/denken/im-kopf-der-anderen])  Eine solche Fähigkeit im Experiment mit Tieren zweifelsfrei nachzuweisen, ist allerdings nicht leicht. Wir haben dazu eine ganze Serie von Versuchen durchgeführt und konnten am Schluss wirklich eindeutig nachweisen, dass Raben in der Lage waren, sich vorzustellen, was ein anderer Rabe wahrnehmen kann.

Nora Schultz: Wie ist Ihnen das gelungen?

Thomas Bugnyar: Wir wussten bereits, dass Raben Nahrung verstecken, damit andere sie nicht finden, und dass sie sich besondere Mühe geben, dabei nicht entdeckt zu werden, wenn andere Raben in der Nähe sind. Sie verstecken ihre Beute dann zum Beispiel besonders schnell oder hinter einem nicht einsehbaren Hindernis. Oder sie warten mit dem Verstecken, bis die Konkurrenz wieder weg ist.  Um zu zeigen, dass bei solchen Tricks auch eine direkte Vorstellung über das mentale Innenleben der Konkurrenten im Spiel ist, haben wir Raben zuerst beigebracht, dass sie das Geschehen in einem Nachbarraum durch ein Guckloch beobachten können. Als dieselben Raben später Futter bekamen, haben sie es viel schneller versteckt, wenn sie im Nachbarraum Tonbandaufnahmen eines anderen Raben hörten, obwohl das Fenster, mit dem man sonst von Raum zu Raum blicken kann, verdeckt war. Bevor die Raben vom Guckloch wussten, hatten sie solche Rabengeräusche von nebenan nicht gestört, wenn das Fenster zu war – weil sie sich unbeobachtet wähnten. Dass sie sich nach Entdeckung des Gucklochs anders verhalten haben, zeigt also, dass sie sich wirklich vorstellen können, was ein anderer Rabe durch das Guckloch sehen kann.

Nora Schultz: Was können Raben noch besonders gut?

Thomas Bugnyar: Raben sind große Politiktalente. Wir haben in den letzten Jahren Erstaunliches darüber herausgefunden, was Raben über andere Raben wissen, und wie sie dieses Wissen einsetzen. Bevor Raben mit einem lebenslangen Partner in die Familiengründung einsteigen, leben sie oft mehrere Jahre in losen Gruppen zusammen. Hier treffen von Konservativen, die immer am gleichen Ort bleiben, bis hin zu regelrechten Weltenbummlern ganz unterschiedliche Typen aufeinander. So können sich sehr spannende und flexible soziale Beziehungen entwickeln.  Raben haben zum Beispiel ein phänomenales Gedächtnis für Beziehungen und wissen auch nach drei Jahren Trennung noch, wer früher ihr Freund war. Oder, wenn wilde Raben streiten, schreit der unterlegene Rabe auf übertriebene Weise, wenn unter den Zuschauern enge Verwandte oder Freunde sind, um Hilfe zu bekommen. Besteht das Publikum aus Freunden des Angreifers, verhält er sich dagegen still. Raben merken auch, wie Beziehungen sich verändern. Befreundete Raben gewinnen mehr Konflikte, weil sie sich gegenseitig helfen. Wenn die Bindung zwischen zwei Tieren enger wird, gehen verstärkt dominante Raben dazwischen, um die beiden am Kraulen oder Spielen zu hindern. Wir vermuten, dass Konkurrenz durch neue Teams so im Keim erstickt werden soll.

Nora Schultz: Ist die Intelligenz von Raben etwas Besonderes in der Vogelwelt?

Thomas Bugnyar: Von den meisten Vögeln wissen wir bislang wenig über ihre kognitiven Leistungen. Ich vermute, dass es ausgeprägte soziale Intelligenz wahrscheinlich bei vielen anderen Vögeln gibt, die in Paaren und Gruppen leben, das ist aber noch kaum untersucht worden. Das große Talent zur Manipulation könnte hingegen rabenspezifisch sein – wegen ihrer Futterpräferenzen. Raben essen am liebsten frisches Aas. Einen so großen Futterfund kann man am besten gemeinsam erobern und gegen andere Tiere verteidigen, sodass sich die Zusammenarbeit in Gruppen lohnt. Gleichzeitig entsteht aber innerhalb der Gruppe großer Konkurrenzdruck, der Täuschungsmanöver und Tricks zum Aushebeln der Rivalen begünstigt. Andere Rabenvögel haben in eine ganz andere Richtung beachtliche kognitive Leistungen entwickelt: Neukaledonische Krähen zum Beispiel können Werkzeuge auf hoch komplexe Weise nutzen und sogar selbst herstellen, um damit Insekten aus Ästen zu pulen. Und auch viele Papageien bringen Topleistungen. Die haben genau wie Raben große Gehirne und leben ebenfalls sehr lange. Ihr Sozialleben ist ähnlich komplex, aber sie sind weniger scheu gegenüber Neuem. Papageien sind nicht nur zu Recht berühmt für ihr Talent, Stimmen nachzuahmen. Sie verstehen in Experimenten sogar abstrakte Konzepte, wie Farben oder Zahlen.  Wenn man sich anschaut, wie viele Jahre uns die Primatologie voraus ist, brauchen wir einfach noch mehr Zeit, um die Intelligenz von Vögeln besser zu verstehen.

Nora Schultz: Wie wirkt sich die Intelligenz der Vögel auf die Interaktion mit den Menschen aus, die sie erforschen?

Thomas Bugnyar: Sobald man mit den Tieren zusammenarbeitet, entwickelt man Beziehungen zu ihnen, weil sie auch sehr unterschiedliche Persönlichkeiten haben. Abbildung 2.

Abbildung 2. Der "Rabenvater" Thomas Bugnyar (Copyright: Thomas Bugnyar)

Es gibt einige Raben, die bei allen beliebt sind, und andere, die nur mit bestimmten Personen können. Man muss versuchen, diese Präferenzen einerseits auszuschalten, damit die Forschung objektiv bleibt. Aber andererseits kann man manchmal die persönliche Beziehung auch dazu nutzen, um die Tiere überhaupt erst zum Mitmachen zu bewegen.

Nora Schultz: Herr Bugnyar, herzlichen Dank für das Gespräch!


*Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Im Fokus des Monats Feber stehen "Tiergedanken", zu denen der vorliegende Text unter dem Titel "Raben sind politische Talente" am 14. Feber 2020 erschienen ist: https://www.dasgehirn.info/denken/tiergedanken/raben-sind-politische-talente

Der unter einer cc-by-nc-sa Lizenz stehende Artikel wurde von der Redaktion geringfügig für den Blog adaptiert (Titel und Überschriften) und es wurden Abbildungen eingefügt.


Weiterführende Links

Forscherportrait Thomas Bugnyar (2015) Video 2;42 min. https://vimeo.com/173365636

Thomas Bugnyar - Testing bird brains Raven politics. Video 34:29 min (Englisch) The Royal Physiographic Siciety of Lund (2017)

Redaktion Thu, 20.02.2020 - 12:33

Das Genom des Riesenkalmars birgt Überraschungen

Das Genom des Riesenkalmars birgt Überraschungen

Do, 13.02.2020 — Ricki Lewis

Ricki LewisIcon BiologieSchauergeschichten über Meeresungeheuer, die mit ihren Fangarmen ganze Schiffe samt Besatzung umschlingen, haben Seeleute früherer Epochen in Schrecken versetzt. Tatsächlich wurde die Existenz enorm großer Kephalopoden - der Riesenkalmare - im 19. Jahrhundert nachgewiesen. Da die scheuen Tiere in ihrem Lebensraum aber nur selten gesichtet werden, müssen sich Forscher auf Analysen der Funde von toten Tieren beschränken - so ist über Biologie und Verhalten der Tiere noch wenig bekannt. Einer dänischen Forschergruppe ist es nun gelungen das Genom des Riesenkalmars zu entschlüsseln. Die Genetikerin Ricki Lewis berichtet über die Organisation des Genoms und die für diese Tierart spezifischen Gene.*

Ich habe in letzter Zeit oft über Wirbellose nachgedacht und war sehr erfreut zu erfahren, dass das Genom des Riesenkalmars sequenziert wurde. Ich werde nie müde, neue Genompapiere zu lesen.

Als eines der größten Tiere, die wir kennen, ist der Riesenkalmar auch eines der am schwersten zu fassenden. Er tritt hauptsächlich in Form von ans Land gespülten Körperteilen in Erscheinung, die mit augenfälligen Saugnäpfen bestückt sind. Ein ausgewachsener Riesenkalmar lässt sich nicht einfach in ein Aquarium setzen. Also kennen ihn die meisten von uns bloß aus Erzählungen.

Von Legenden umwobene Tiere

Das als Kraken titulierte riesige Meeresungeheuer der skandinavischen Sagen hat entlang der Küstengewässer Norwegens und Grönlands die Seeleute auf ihren Schiffen in Schrecken versetzt. Dabei hat es sich dabei wahrscheinlich um den Riesenkalmar gehandelt, ebenso wie bei der mit Fangarmen versehenen Skylla in Homers Odyssee. Jules Vernes hat in seinem 1869 geschriebenen Roman "20.000 Meilen unter dem Meer" das Tier berühmt gemacht. Abbildung 1.

Abbildung 1. Der Riesenkalmar. Links: in einer von Alphonse-Marie-Adolphe de Neuville stammenden Illustration aus dem 1870 erschienen Roman "20 000 Meilen unter dem Meer" von Jules Verne. Rechts: Die Besatzung der Alecton versucht 1861 einen Riesenkalmar 120 Meilen nordöstlich von Teneriffa zu harpunieren. Illustration von Henry Lee (1884) (Beide Bilder stammen aus Wikipedia und sind gemeinfrei)

In jüngster Zeit ruft der aus dem Jahr 2005 stammende Film "Der Tintenfisch und der Wal" das Bild eines Riesenkalmar wach, wie er in einem faszinierendenden Diorama gegen einen Pottwal kämpfend im American Museum of Natural History dargestellt ist. Der Regisseur Noah Baumbach hat sich das Bild als Metapher für die kämpfenden Eltern seiner jungen Protagonisten geborgt.

Wahre Geschichten vom Riesenkalmar sind ebenso faszinierend

Die erste Beschreibung stammte vom Kapitän der HMS Daedalus, Peter M’Quhae. An einem Augustnachmittag im Jahr 1848 segelte das Schiff zwischen dem Kap der Guten Hoffnung und der Insel St. Helena vor der Küste Afrikas, als eine riesige Seeschlange aus den Tiefen auftauchte. Viele Männer waren Zeugen des Ereignisses, und ihre Geschichten fanden Eingang in die Zeitungen.

Laut Kapitän und Besatzung war das Tier 60 Fuß lang und dem Schiff ziemlich nahe gekommen. Der Kapitän machte eine Skizze und die Zeitungsleser fanden verschiedene Erklärungen. Hatten die Seeleute einen Dinosaurier gesehen, einen ungewöhnlich langen Aal, einen riesigen Seehund oder eine gigantische Schlange, die sich verirrt hatte?

Japetus Steenstrup, ein Zoologe an der Universität von Kopenhagen, sammelte 1857 Hinweise verschiedenen Urprungs zur Identität des Riesen: von den kleineren Tintenfischverwandten, welche Menschen zur Nahrung dienten, von den schleimigen an Land gespülten Tentakeln, von einem geheimnisvollen braunen Riesenschnabel und von den vermutlich übertriebenen Geschichten der Seeleute.

In einem völlig anderen Gebiet, der Neurologie, sind Riesenkalmar-Axone berühmt geworden: ihre gigantischen Axone messen bis 1,5 Millimeter im Durchmesser und fast einen Meter in der Länge und sind damit groß genug sind, um sichtbar zu sein und sich daher hervorragend für Experimente zur Nervenleitung eignen.

Anatomie eines Riesen

Der wissenschaftliche Name des Riesenkalmars lautet Architeuthis dux. Er ist ein Kephalopode - Kopffüßer- aus der Gruppe der Weichtiere. Zu den rund 800 Kopffüßer-Arten gehören Tintenfische, Oktopoden sowie einige Nautilusse. Die meisten sind weich und matschig.

Kephalopode bedeutet "Kopf und Fuß" und das ist eine ziemlich gute Beschreibung. Der Fuß des Tintenfischs ist das Gegenstück zu dem einer Schnecke, ist aber zu Armen und Fangarmen (Tentakeln) entwickelt. Das Tier hat einen markanten Kopf.

Tintenfische haben große, komplexe Gehirne und Verhaltensweisen und sie können denken; als wirbellose Tiere haben sie aber kein Rückgrat. Sie leben in der Tiefe der Weltmeere ausgenommen die polnahen arktischen und antarktischen Gewässer. Tintenfische wachsen schnell, sterben bald und werden von viele Arten gefressen. Sie sind eine gute Proteinquelle.

Unterschiedliche Arten variieren in der Größe. Pygmäenkalmare sind etwas weniger als einen Zentimeter, Riesenkalmare durchschnittlich 14 Meter lang und der kolossale 500 kg schwere Kalmar Mesonychoteuthis hamiltoni ist noch ein paar Meter länger. Abbildung 2.

Abbildung 2. Der Riesenkalmar in Relation zur Größe eines Menschen.

Ein Tintenfisch hat acht Arme und zwei Tentakeln, mit denen er nach Beute greift. Der Kopf zoomt aus einem muskulösen Kegel - dem sogenannten Mantel - heraus, der sich kontrahiert um das Tier voran zu treiben. Unter dem Mantel befindet sich eine harte Schicht, an der die Muskeln ansetzen. Ein Schnabel - das Ding, das an Land gespült wird oder sich im Bauch eines Wals findet - liegt in der Mitte eines Rings, von dem die mit Saugnäpfen besetzten Arme ausgehen. Das Tier benutzt den Ring, um - was immer an unglücklichem Getier sich in den Tentakeln windet - wie Salami zu zerschneiden.

Eines der auffälligsten Merkmale der Tintenfische ist ihre Wandlungsfähigkeit, mit der sie Farbe, Textur, Muster und Helligkeit ihrer Haut schnell verändern können. Die Tiere nutzen diese Verwandlungen, um zu kommunizieren und um sich zu tarnen und zu imitieren. In Sichtweite, können sie so unbemerkt effektiv jagen, ohne selbst gefressen zu werden.

Das Genom des Riesenkalmars - mit Hilfe von verwandten Kopffüßern entschlüsselt

Es ist schwierig, genügend Überreste frischer Riesenkalmare zu erhalten, um deren DNA untersuchen zu können. Anhand der Analyse der mitochondrialen DNA haben Forscher jedoch festgestellt, dass alle Riesenkalmaren derselben Art angehören. Das sind allerdings nur einige wenige Gene. Um ein Genom vollständig aufzuklären sind viele Kopien eines ganzen Genoms nötig. Mit Museumsproben klappt dies im Allgemeinen nicht; die dem Abbau und den Konservierungsmitteln ausgesetzte DNA ist schwer zu extrahieren und intakt zu halten.

Zum Glück konnten Fischer an Bord eines Schiffes in der Nähe von Neuseeland eine frisch gefrorene Gewebeprobe eines Riesenkalmars an das multinationale Forscherteam senden, das an der Aufklärung des Genoms arbeitete. Über die unter Leitung von Rute da Fonseca (Center for Macroecology, Evolution and Climate at the Globe Institute, University of Copenhagen) erhaltenen Ergebnisse wird nun in der Fachzeitschrift GigaScience berichtet [1].

Leider waren aber viele der Tintenfischgene kaputt. Die Forscher änderten ihre Strategie und gingen daran die Transkripte der Gene - die Messenger-RNAs (mRNAs) - und dann die Proteine von leichter zu handhabenden Verwandten zu analysieren. (Dazu ist anzumerken: Ein Genom entspricht einer hard copy, einer Bedienungsanleitung, die in jeder Zelle des Körpers vorhanden ist. Im Gegensatz dazu unterscheiden sich die Kollektionen von RNAs und Proteinen in verschiedenen Zelltypen, bilden so die Funktionen eines lebenden Organismus ab.) Die RNA ist ja empfindlicher als die DNA und würde nicht in einem Klumpen verrottenden Kalmarfleisch Bestand haben. So sammelten die Forscher mRNAs aus Gehirnen, Lebern und Sexualorganen von verwandten Arten - vom Gemeinen Hakenkalmar, vom Humboldt-Kalmar und vom violetten Flugkalmar. Sie sammelten auch Proteine ​​aus den muskulösen Mänteln von Museumsexemplaren der kalifornischen Zweipunktkrake, der Pazifischen Auster und der Großen Eulen-Napfschnecke.

Aus Vergleichen von RNAs und Rückschlüssen von den Aminosäuresequenzen der Proteine ​​auf die DNA-Sequenzen konnten die Forscher schließlich das Genom des Riesenkalmars ableiten.

Proteinfamilien

Das Genom des Riesenkalmars enthält 33.406 Gene, die für Proteine kodieren, verteilt auf 2,7 Milliarden DNA-Basen. (Im Vergleich dazu besitzt der Mensch rund 20.000 Gene in einem aus 3,2 Milliarden-Basen bestehenden Genom). Etwa die Hälfte seines Genoms besteht aus repetitiven Sequenzen (sich wiederholende DNA-Abschnitte; Anm. Redn.), von denen die meisten "springende Gene" sind (d.i. ihre Position im Genom verändern können; Anm. Redn.). Dies ist nicht überraschend. Beispielsweise sind die Genome so unterschiedlicher Spezies wie Mais, Insekten und Menschen ebenfalls mindestens zur Hälfte repetitiv und die Gene springen auch hier. Derartige repetitive Sequenzen - möglicher Rohstoff für eineEvolution - sind zum überwiegenden Teil für die unterschiedliche Genomgröße der Arten verantwortlich - die Größe ist also nicht wirklich ein entscheidender Parameter.

Das Genom des Riesenkalmars ähnelt dem anderer Tiere auch darin, dass es Genfamilien - Gruppen von Genen mit verwandten Funktionen - enthält. So enthält es ein Dutzend sogenannter WNT-Gene, die man in allen Weichtieren findet. Diese Genfamilie kodiert für Wachstumsfaktoren, die an der Signalübertragung von Zelle zu Zelle beteiligt sind und in der frühen Entwicklung die Zellproliferation und später die Erhaltung von Geweben steuern. Menschen haben 19 WNT-Gene.

Massiv vermehrt sind bei Kopffüßern Gene, die für sogenannte Protocadherine ​​kodieren. Es sind dies Proteine, welche die Zell-Zell-Adhäsion kontrollieren, die für das Funktionieren des Nervensystems unerlässlich ist. Solche Gene finden sich auch im Genom von Wirbeltieren. Dass sie in Clustern auftreten deutet darauf hin, dass sie sich aus einem ursprünglichen Gen durch wiederholte Duplizierung entwickelt haben.

Spezifisch für Kopffüßer sind sogenannte Reflektine, wie sie im Hawaii-Zwergtintenfisch gefunden wurden. Diese Proteine ​​bilden flache, das Licht reflektierende Strukturen, welche das charakteristische "Scheinwerfer"Leuchten eines Tintenfischs erzeugen, der sich optisch angleicht und kommuniziert. In Tintenfischen und Octopussen findet sich ein Cluster von neun Reflektin-Genen auf einem Chromosom.

Das Editieren der RNA und ein explodierter Cluster homöotischer Gene

Zwei Merkmale im Genom des Riesenkalmars sind von weitreichender Bedeutung.

Das riesige Tier ist offensichtlich Experte in der Editierung seiner RNA  (RNA-Editierung bedeutet, dass nach der Transkription von DNA in mRNA in dieser eine oder mehrere Nukleotidbasen ausgetauscht werden; derartige Modifikationen führen im anschliessenden Translationsvorgang zu einer größeren Vielfalt an Proteinen. Anm. Redn.). Diese Fähigkeit macht es den Genomen der Tiere möglich Varianten von Proteinen zu erzeugen, insbesondere von solchen, die am Funktionieren des Nervensystems beteiligt sind. Derartige RNA-editierte Regionen liegen im Genom an zehntausenden Stellen innerhalb „hochkonservierter“ DNA-Sequenzen. Dies bedeutet, dass sie bei vielen Arten identisch oder nahezu identisch sind - die natürliche Selektion hat sie über einen langen Zeitraum beibehalten, weil sie offensichtlich etwas Wesentliches zur erfolgreichen Reproduktion beitragen.

Auf die Gefahr hin menschliche Beweggründe zu unterstellen: es ist eine faszinierende Strategie, die mit einer derartigen Genom-Organisation verfolgt wird. Die konservierten Sequenzen gewähren Stabilität unter dem Einfluss einer positiven natürlichen Selekektion, gleichzeitig bietet aber das Editieren der RNA eine Flexibilität, von der Aufbau, Anordnung,  Venetzungen und Erregbarkeit von Neuronen profitieren. Die Genom-Organisation entspricht dem Ausprobieren von etwas Neuem, wobei das Alte beibehalten wird - dies ist ein roter Faden in der Evolution.

Das andere faszinierende Merkmal des Genoms des Riesenkalmars ist die Dispersion seiner homöotischen (Hox) Gene. Hox-Gene sind Gene, welche die Morphogenese steuern, also an welcher Stelle von Organismen - von Blumen über Fliegen bis hin zu Pilzen und komplexeren Einzellern - sich Körperteile  in Relation zueinander ausbilden.

Eine Mutation in Hox-Genen bringt Körperteile durcheinander und steckt hinter einigen Krankheiten des Menschen. In meiner Doktorarbeit habe ich über den Antennapedia-Komplex homöotischer Gene bei Fliegen gearbeitet, insbesondere über Mutationen, welche Beine auf dem Kopf und Antennen auf dem Mund wachsen lassen. Kurz nach der Fertigstellung (1980, Anm. Redn.) wurde von Thomas Kaufmann in meinem Labor an der Indiana University die sogenannte Homöobox entdeckt, eine charakteristische 180 Basen-Paare lange Sequenz innerhalb der Homöobox-Gene, welche den „Köperplan“ steuert.

Das Erstaunlichste an den homöotischen Genen ist, dass sie in den Genomen all der verschiedenen Arten auf einem Chromosom in genau der Reihenfolge angeordnet sind, in der sie in der Entwicklung eingesetzt werden (wie Basketball-Spieler, die auf der Bank sitzend auf ihren Einsatz warten).

Im Genom des Riesenkalmars ist dies aber nicht der Fall. Stattdessen finden sich die homöotischen Gene auf den Chromosomen verstreut. Könnte dies der Grund sein, warum der Körper so riesig und klumpig ist und offensichtlich die Andeutungen eines Gesichts, die Komplexität einer Blume oder sogar die fächerartigen Filamente eines Pilzes fehlen?

„Der Zugewinn und der Verlust von Hox-Genen wurden auf grundlegende Veränderungen in den Tierkörperplänen zurückgeführt“, schreiben die Forscher. Der Verlust eines wichtigen Hox-Gens bei Spinnmilben verringert die Anzahl der Segmente. Hat also ein vor langer Zeit eingetretenes Mutationsereignis im Riesenkalmar oder ein ausgestorbener Vorfahr die geordneten Homöobox-Gene zu neuen Adressen im Genom explodieren lassen, während gleichzeitig ausreichend Funktionsfähigkeit blieb, um einen Körper zu formen?

Hat der Riesenkalmar einen Platz in unserer Welt?

Es ist schwer zu sagen, ob eine Population, die wir nicht wirklich beobachten können, bedroht ist. Jedoch weisen die Forscher darauf hin, dass die Erwärmung und Versauerung der Ozeane, deren Verschmutzung inklusive Quecksilber und Flammschutzmittel, der Sauerstoffmangel und die Fischerei eine Bedrohung für den Riesenkalmar,wie auch für viele andere Arten darstellen.

„Folglich ist es dringend notwendig die Biologie dieser wichtigen, aber kaum beobachtbaren Tiere besser zu verstehen, um ihre Erhaltung zu unterstützen und ihren Fortbestand sicherzustellen. Mit der Veröffentlichung des annotierten Genoms des Riesenkalmars haben wir die Voraussetzungen für die zukünftige Erforschung der Rätsel geschaffen, welche diese beeindruckende Kreatur umgeben und Generationen zu Geschichten über den sagenumwobenen Kraken angeregt haben“, schließen die Forscher.


[1]R.R. da Fonseca et al., A draft genome sequence of the elusive giant squid, Architeuthis dux. GigaScience, Volume 9, Issue 1, January 2020, giz152, https://doi.org/10.1093/gigascience/giz152


Der Artikel ist erstmals am 6. Feber 2020 in PLOS Blogs - DNA Science Blog unter dem Titel "The Giant Squid Genome Holds Surprises" erschienen und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.


Weiterführende Links:

NeugierZone - Wissenschaft gewissenhaft: Riesenkalmar und Mensch: Die Begegnungen (1857-2019), Video (12.10.2019) 7:10 min. https://www.youtube.com/watch?v=CyfqtvDIOsc

Tina Heinz: Riesenkalmare, https://www.planet-wissen.de/natur/tiere_im_wasser/tiere_der_tiefsee/pwiegibtesindertiefseewirklichriesenkalmareoderistdasseemannsgarn100.html 


Redaktion Thu, 13.02.2020 - 08:48

Eine Schranke in unserem Gehirn stoppt das Eindringen von Medikamenten. Wie lässt sich diese Schranke überwinden?

Eine Schranke in unserem Gehirn stoppt das Eindringen von Medikamenten. Wie lässt sich diese Schranke überwinden?

Do, 06.02.2020 — Redaktion

RedaktionIcon Gehirn

Die Blut-Hirn-Schranke ist eine hoch entwickelte Barriere aus verschiedenen Zelltypen, die den Durchtritt von Molekülen - beispielsweise von Arzneimitteln gegen neurodegenerative Erkrankungen oder Hirnverletzungen - vom Blut ins Gehirn stoppen. Mit dem Ziel diese Barriere für bestimmte Substanzen selektiv durchlässig zu machen, laufen zwei EU-Projekte: i) es soll ein in vitro-Modell der Blut-Hirn-Schranke aufgebaut werden, das verlässlichere Vorhersagen zur in vivo Wirksamkeit hirnaktiver Substanzen erlaubt, ii) Leuchtende Nanopartikeln sollen als Sonde das Durchqueren der Blut-Hirn-Schranke direkt in Echtzeit sichtbar machen.*

Ein neues Medikament gegen Alzheimer, Schlaganfall oder Hirnverletzungen mag unter Laborbedingungen vielleicht gut funktionieren, entscheidend ist aber die Untersuchung, ob es dort hinkommt, wo es hinkommen muss. (Abbildung 1)

Abbildung 1. Forscher streben an, die schützende Blut-Hirn-Schranke für therapeutisch wirksame Moleküle durchlässig zu machen, um so Erkrankungen und Verletzungen des Gehirns behandeln zu können. (Bild: Hellerhoff, licensed under CC BY-SA 3.0)

"Es ist in der Tat eine frustrierende Herausforderung, denn wir haben Entwicklungssubstanzen, die gute Wirkung zeigen könnten, wenn wir sie nur ins Gehirn brächten", sagt Professor Maria Tenje, ausgebildete Physikerin und Ingenieurin an der Universität Uppsala, Schweden.

Das Gehirn besitzt eine schützende Barriere - die sogenannte Blut-Hirn-Schranke -, die so aufgebaut ist, dass sie das Eindringen gefährlicher Moleküle und Zellen verhindert. Diese Schranke wirkt als Filter zwischen dem Gehirn und den Blutgefäßen: sie lässt wichtige Nährstoffe - wie Sauerstoff - passieren, während Moleküle ferngehalten werden, welche die empfindlichen, komplexen Prozesse im Gehirn stören könnten. Nun gut, fast alle.

"Wenn man ein Bier trinkt, kann man die angenehme Wirkung spüren, weil das Ethanol im Gehirn angekommen ist", sagt Prof. Tenje. „Könnte allerdings alles durch die Gefäßwand hindurch ins Gehirn gelangen, so würde das für uns das Ende bedeuten; wir haben ja viele Toxine, Nanopartikel und Chemikalien, die nicht ins Gehirn gelangen sollten.

"Aus der Sicht des Technikers ist es ein interessantes Problem - wie können wir etwas designen, das ausschließlich spezifische Moleküle passieren lässt, und wie können wir dies kontrollieren? Das ist, was wir herauszufinden versuchen.“

Vorhersagen

Im Rahmen eines EU-Projekts namens SONGBIRD [1] nützt Prof. Tenje ihre technische Expertise, um ein Modell der Blut-Hirn-Schranke zu erstellen. Damit sollen andere Forscher bessere Vorhersagen treffen können, welche Medikamente beim Menschen wahrscheinlich wirken. Die Barriere besteht aus vielen verschiedenen, dicht zusammen gepackten Zellen. (Abbildung 2). Modelle wurden dafür bereits in der Vergangenheit designt, die Schwierigkeit besteht aber darin das Gerüst zwischen den Zellen herzustellen.

Abbildung 2. Querschnit durch die schützende Barriere um eine zerebrales Blutgefäß. Die Blutkapillare wird von Endothelzellen (türkis) gebildet, die keine Öffnungen haben und miteinander (über Tight Junctions) fest verbunden sind. Astrozyten (Makrogliazellen)bedecken mit ihren Gliederfüßchen (orange) die Endothelzellen, induzieren in diesen die Barrierefunktion und versorgen sie selektiv mit Nährstoffen. Perizyten sind fest an Endothelzellen verankert und weisen u.a. Immunfunktionen auf. (Bild und Text von der Redaktion eingefügt. Das Bild stammt aus Wikipedia: Zerebrale Kapillare; Armin Kübelbeck, Lizenz: cc-by)

Dieses Gerüst - die sogenannte extrazelluläre Matrix - ist laut Prof. Tenje ein "klebriges Zeug". Es besteht aus Kollagen und Glykoproteinen um den Zellen strukturelle Stützung zu bieten. Um die extrazelluläre Matrix herzustellen, verwendet Prof. Tenje Hydrogel - ein Material, das zu etwa 90% aus Wasser besteht und durch Ketten von Polymeren zusammengehalten wird, die das Wasser an Ort und Stelle halten. Sie hofft, dass es ihr damit möglich sein wird, ein lebensechteres Modell zu schaffen. Die Herausforderung besteht jedoch darin, aus etwas, das weich ist, eine feste, stabile Struktur zu schaffen. Tenje und ihr Team testen verschiedene Möglichkeiten das Hydrogel zusammenzuhalten, ohne dass die Bewegungsfreiheit der Zellen beeinträchtigt wird.

"Will man diese Art von Material verwenden, um damit etwas zu bauen, so wird man Probleme haben, weil es zusammenfällt." Wir versuchen, die richtigen Methoden für den Bau von Strukturen mit weichem Material zu entwickeln “, sagte sie. Prof. Tenje hofft, dass dieses Modell uns einer zu einer besseren Vorhersage verhelfen könnte, ob ein Medikament die Barriere passieren wird, bevor es in klinischen Studien scheitert. Derzeit sind wir darauf angewiesen die Medikamente an Tieren zu testen, um festzustellen, wie gut sie wirken und ob sie sicher sind, bevor sie an Menschen getestet werden. "Wir sind Ratten zwar ähnlich, aber nicht so ähnlich", sagt sie.

Neues Modell

Dr. Igor Khalin vom Institut für Schlaganfall- und Demenzforschung an der Universität München sieht den erzielbaren Vorteil, den ein neues Modell für die Blut-Hirn-Schranke in der Forschung hat. "Wenn wir zwischen einer einfachen Zellkultur und Tierstudien etwas haben, ein Modell, das die Blut-Hirn-Schranke nachahmt, wird man die Zahl der Moleküle reduzieren, die man an Tieren testen muss", meint er.

„Allerdings kann das Modell nicht alle Probleme lösen. Man kann den Einsatz von Tieren nicht völlig vermeiden, da die nächste Stufe normalerweise die Forschung am Menschen ist. Wenn wir bei Tieren etwas übersehen, kann es für den Menschen böse enden.“

Dr. Khalin versucht besser zu verstehen, was im Gehirn passiert, wenn ein Arzneimittel die Barriere passiert. Im Rahmen eines Projekts namens NEUROTARGET entwickelt er ein System, um ein einzelnes Teilchen im Gehirn in Echtzeit zu verfolgen. „Bisher hat das niemand direkt gezeigt, nur indirekt. Ich möchte das Durchqueren der Blut-Hirn-Schranke direkt messen (sichtbar machen)“, sagt er.

Khalin verwendet Nanopartikel, die ein helles Licht abgeben, das unter dem Mikroskop sichtbar ist. Ein normales Lichtmikroskop kann Zellen sehen, aber keine Details von Objekten, die kleiner als 200 Nanometer sind. Die von Dr. Khalin verwendeten Nanopartikel sind nur 70 nm breit, aber dank des Lichts können sie gesehen werden. Er kombiniert diese Nanopartikel mit einer Technik namens Zwei-Photonen-Mikroskopie, mit der er das Gehirn einer Maus in Echtzeit abbilden kann.

Bei den von ihm verwendeten Nanopartikeln handelt es sich um Material, das von der Europäischen Arzneimittel-Agentur bereits für den Einsatz beim Menschen zugelassen wurde. Es kann die Blut-Hirn-Schranke passieren und zum Transport von Arzneimitteln verwendet werden. Es ist biologisch abbaubar, kann also von Enzymen im Körper abgebaut und absorbiert werden.

Änderungen

Dr. Khalin hofft, dass dieser Ansatz nicht nur zur Behandlung von Krankheiten beiträgt, sondern auch ein tieferes Verständnis dafür vermittelt, wie sich das Gehirn bei Verletzungen verändert.

"Wir können diese Partikel möglicherweise als Sonde verwenden und diese Sonde kann uns Informationen über die Pathophysiologie der Krankheit geben", sagt er. "Ich hoffe, wir können bei Schlaganfall und traumatischer Hirnverletzung helfen (heilen)."

Eines der Probleme bei Hirnverletzungen ist die langfristige Auswirkung kleinerer Stöße auf den Kopf. "Hirntrauma ist eine stille Epidemie", sagt er. 'Wenn jemand beispielsweise einen Zusammenstoß hat, bei dem er am Kopf getroffen wird und meint: "Ich brauche nicht zum Arzt zu gehen, mir geht es gut." Was derjenige nicht weiß, ist, dass viele Prozesse im Gehirn ablaufen. Am Ende wird dies die kognitive Funktion vermindern.

“Sowohl er als auch Prof. Tenje hoffen, dass ihre Forschung zu besseren Ergebnissen für die Patienten führen wird, sie sind sich jedoch bewusst, dass die Forschung noch im Anfangsstadium ist. Sie hoffen, ihre Expertisen so einzusetzen, dass andere darauf aufbauen können.

„Die Blut-Hirn-Schranke ist eine recht komplexe biologische Struktur. Sie besser zu verstehen ist unser Endziel und, um dies zu erreichen, betreiben wir technische Grundlagenforschung“, sagt Prof. Tenje. „Es sind große Herausforderungen, die mit  der Biologie allein nicht gelöst werden können. Wir müssen zusammenarbeiten und unsere Anstrengungen bündeln.“


[1] SONGBIRD: SOphisticated 3D cell culture scaffolds for Next Generation Barrier-on-chip In vitro moDels. EU-Projekt (1 January 2018 - 31 December 2022) https://cordis.europa.eu/project/id/757444

[2] NEUROTARGET: Treatment of traumatic brain injury using dye-loaded polymeric nanoparticles. EU-Projekt (1.Dezember 2018 - 30. Novemner 2020) https://cordis.europa.eu/project/id/794094


Dieser Artikel wurde ursprünglich am 30. Jänner 2020 von Ian Le Guillo in Horizon, the EU Research and Innovation Magazine unter dem Titel Our brain has a barrier that stops drugs. How do we get past it? publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt. Abbildung 2 und Beschriftung wurden von der Redaktion eingefügt.


Weiterführende Links

Blood Brain Barrier on a Chip. (11.07.2019) LabTube Video 1:40 min. Wyss Institute Harvard University. https://www.technologynetworks.com/drug-discovery/videos/blood-brain-barrier-on-a-chip-321662

Auf dem ScienceBlog

Susanne Donner, 08.04.2016: Mikroglia: Gesundheitswächter im Gehirn.

Inge Schuster, 08.12.2016: Wozu braucht unser Gehirn so viel Cholesterin.


 

Redaktion Thu, 06.02.2020 - 08:03

Nachhaltige Architektur im Klimawandel - das "Active Energy Building"

Nachhaltige Architektur im Klimawandel - das "Active Energy Building"

Do, 30.01.2020 — Anton Falkeis & Cornelia Falkeis-Senn

Anton FalkeisCornelia Falkeis-SennIcon MINTDas "Active Energy Buildung", ein Apartmentwohnhaus in Vaduz (Liechtenstein), ist hinsichtlich Energietechnik und Gebäudekonstruktion ein Meilenstein umfassend nachhaltiger Architektur: das Haus i) nutzt ausschließlich erneuerbare Energieformen, ist energieautonom und versorgt auch noch umliegende Gebäude mit Energie und ii) es ermöglicht eine höchstmögliche Adaptierbarkeit der Grundrisse über die gesamte Lebensdauer des Gebäudes ohne dabei die tragenden Strukturen zu beeinträchtigen. Der von intensiver transdisziplinärer Forschung (mit Anleihen aus der Natur) begleitete Bau hat überaus innovative Elemente realisiert u.a. zur Effizienzsteigerung der Energieproduktion, zur Klimaregulierung des Gebäudes, zur Konstruktion eines leichten Tragwerks und einer textilen Gebäudehülle zur Beschattung. Die Architekten Anton Falkeis und Cornelia Falkeis-Senn (falkeis2architects, Wien und Vaduz) beschreiben das von ihnen konzipierte und realisierte visionäre Projekt, das international ein enormes Echo gefunden hat.

In den letzten Jahrzehnten haben städtische Ballungsräume die wachsende Weltbevölkerung äußerst effektiv absorbiert und ländliche Bevölkerung angezogen. Heute beherbergen diese Ballungsräume bereits mehr als die Hälfte der Weltbevölkerung, sind für 75 % des globalen Energieverbrauchs verantwortlich und für 80 % der von Menschen verursachten CO2 Emissionen.

Weit über ihre ursprüngliche Bestimmung hinaus gewachsen, stellen Städte der Gegenwart die erfolgreichsten, vom Menschen selbst geschaffenen Umwelten dar. Diese Städte können aber nicht länger als räumliche Einheiten verstanden werden, sie verhalten sich vielmehr wie lebende Organismen: je nach den sich ständig verändernden Bedingungen dehnen sie sich wie Amöben aus oder ziehen sich zusammen.

Bis jetzt hat eine derartige "biologische" Sichtweise in unsere derzeitige Städteplanung nicht Einzug gehalten. Modelle für urbanes Wachstum haben in den Planungen des 20. Jahrhunderts die sich ergebenden Wechselwirkungen nicht berücksichtigt, dem System mangelte es an Flexibilität und versagte dabei widersprüchliche Elemente mit einzubeziehen. Dass es um eine evolutionäre Entwicklung geht, wurde überhaupt nicht ins Kalkül gezogen.

Wir haben versucht urbane Entwicklungen zu analysieren und haben dann daraus einige Tools entwickelt, die beim Entwerfen zeitgemäßer Städte eingesetzt werden können:

Städte der Zukunft müssen i) ihren Energiebedarf lokal produzieren und ii) auf allen Ebenen nachhaltig sein.

Das Energie-Konzept

Das Konzept der "Active Energy Buildings" ("aktiven Energiegebäude") bietet eine neue Strategie, die sowohl CO2-Emissionen als auch den Energieverbrauch senkt.

"Active Energy Buildings" sind energieautonome Strukturen, die ausschließlich erneuerbare Energiequellen nutzen. Fokussiert wird auf Geothermie sowie auf die passive und aktive Nutzung der Solarenergie. Aktive Solarnutzung bedeutet, dass mittels Photovoltaik elektrische Energie erzeugt wird und mittels einer neu entwickelten, patentierten Gebäudetechnologie dem Gebäude direkt - ohne vorherige Konversion in elektrische Energie - Wärme oder Kälte zugeführt wird.

Ziel ist es ein energieautarkes Gebäude zu realisieren, das vernetzt innerhalb eines Gebäudeverbunds - einem lokalen Energiecluster - eine aktive Rolle als Energieproduzent und Versorger einnimmt. Abbildung 1.

Abbildung 1. "Active Energy Buildings". In einer amöbenartigen, dynamischen urbanen Struktur arbeiten "Aktive Gebäude" als lokale Solarkraftwerke. Die erzeugte Energie wird primär im Gebäude verwendet, E-Autos in der Tiefgarage dienen als Zwischenpuffer. Energieüberschüsse werden dann im Cluster verteilt - für Zwecke des Wohnens und Arbeitens - und zum Auffüllen der Speicher von Wasserkraftwerken genutzt. (Bild: falkeis2architects)

Das "Active Energy Building" - der Prototyp

Basierend auf transdisziplinärer Forschung und Entwicklung, welche parallel zu einem über sechs Jahre dauernden Planungs- und Realisierungsprozess liefen und auf diesen einwirkten, wurde das "Active Energy Building" in Vaduz (Liechtenstein) 2017 fertiggestellt. Es war als Siegerprojekt aus einem internationalen Wettbewerb hervorgegangen.

Involviert in den Forschungs- und Entwicklungsprozess waren interdisziplinäre Teams aus Physikern, Physikochemikern, Informatikern, Robotikingenieuren, Tragwerkplanern, Gebäude- und Energietechnikern. Das Ziel war ein Gebäude nach einem holistischen Konzept der Nachhaltigkeit zu realisieren: Es sollte nachhaltig sein in Hinblick auf die ausschließliche Nutzung erneuerbarer Energien, auf die Effizienzsteigerung der Energieproduktion, auf neue Methoden zur Raumklimatisierung und auf innovative Strukturen, welche die Gebäudekonstruktion an zukünftige Bedürfnisse adaptierbar machen sollte.

Entstanden ist daraus der erste Prototyp einer urbanen, dezentralen Energieversorgung, der ausschließlich erneuerbare Energiequellen - Sonnenenergie und Geothermie - nutzt und auch hinsichtlich der Konstruktion Vorstellungen realisiert, die man mit dem Begriff Nachhaltigkeit verbindet (s.u.). Abbildung 2. Einige der Innovationen sind von der Natur inspiriert.

Abbildung 2. Das "Active Energy Building" in Vaduz. Oben: von Südosten. Unten: von Südwesten. Ein Großteil der Dachfläche und die Südseite sind mit nachgeführten Photovoltaik-Paneelen bestückt. In die Fassaden der Ost- und Westseite sind sogenannte Klimaflügel (pat.) integriert, die über Phasenwechsel-Materialien als latente Wärmspeicher fungieren. (Fotos: Roland Korner)

Das "Active Energy Building" streckt seine Flügel - Solarflügel und Klimaflügel - in Richtung Himmel. Photovoltaikzellen und Phasenwechsel-Materialien (Phase Change Materials - PCM) als Teil einer beweglichen Gebäudehülle gewinnen Sonnenstrahlung zur Erzeugung von Strom und zum Heizen des Gebäudes und nutzen Weltraumstrahlung zur Kühlung. Um die Solareinstrahlung maximal zu nutzen, wurde in dem Nord-Süd ausgerichteten Bauwerk die Ost-Seite aufgefächert terrassiert, eine breite geneigte Südseite generiert und in der Westseite ein Canyon-artiger Einschnitt geschaffen.

Solar-Tracker steigern die Effizienz der Photovoltaik-Elemente

Die Flächen, die am meisten der Sonne ausgesetzt sind - die verbreiterte Südseite und die gesamte Dachfläche - werden zur Stromerzeugung herangezogen. Für die gebäudeintegrierten Photovoltaik-Elemente wurde ein sogenannter Solar-Tracker entwickelt, der - basierend auf einem astronomischen Programm und den Daten einer Wetterstation - die "Solarflügel" kontinuierlich der Sonne nachführt. Abbildung 3.

Damit konnte die Effizienz der Solarstromerzeugung fast dreifach gesteigert werden.

Abbildung 3. Die in die Dachfläche integrierten, bis zu 14 m2 großen Solarflügel liegen in Ruheposition flach in der Dachstruktur. Mit Sonnenaufgang heben sie sich und werden durch einen Solartracker kontinuierlich der Sonnenposition nachgeführt. Dies führt zu einer fast dreifachen Effizienzsteigerung. (Foto: Wössner)

Innovative Raumklimatisierung via Klimaflügel

Neben Photovoltaik und Geothermie werden latente Wärmespeicher- Klimaflügel - eingesetzt, um Räume zu klimatisieren. Als mögliche Speichermaterialien werden sogenannte Phasenwechselmaterialien (Phase Change Materials - PCM) untersucht und Paraffine auf Grund ihrer physikalisch-chemischen Eigenschaften als besonders geeignet befunden. Paraffine können beim Phasenübergang auf kleinem Raum extrem hohe Energiedichten einlagern.

Das je nach Verwendung unterschiedlich schmelzende Phasenwechselmaterial befindet sich Im Inneren sogenannter Klimaflügel, brandsicher eingekapselt in lamellenförmig angeordneten Aluminiumprofilen. Insgesamt ist das Gebäude mit sieben großflächigen Klimaflügeln ausgestattet: vier auf der Westseite werden zu Speicherung von Wärme verwendet (Abbildung 2, unten), drei Flügel auf der Ostseite zur Speicherung von Kälte.

Die Heizflügel kommen in der kühlen Jahreszeit zum Einsatz. Bei Sonnenaufgang öffnen sich die Flügel, folgen dem Sonnenlauf, das PCM absorbiert die Sonnenstrahlung, und speichert Wärme. Sind die Speicher vollgeladen, schließen sich die Flügel, hängen sich in das Lüftungssystem des Gebäudes ein und dieses gibt die gespeicherte Wärme an die Frischluft ab. Im Sommer bleiben die Flügel geschlossen und tragen zum Schutz gegen sommerliche Überwärmung bei.

Wenn in den Sommermonaten und bei Föhnlage die Außentemperatur hoch ist, werden die Kühlflügel als Alternative zu Kühlaggregaten eingesetzt. In der Nacht geöffnet, strahlen sie Wärme in den Himmel ab. Beim Entladen der Flügel über das Lüftungssystem wird die kühle Luft direkt in die Räume abgegeben. Abbildung 4.

Abbildung 4. Insgesamt ist das Gebäude mit sieben großflächigen Klimaflügeln ausgestattet: vier auf der Westseite werden zu Speicherung von Wärme verwendet (Abbildung 2, unten), drei Flügel auf der Ostseite zur Speicherung von Kälte. (Foto: Michael Zanghellini)

Durch Klimaflügel wird Wärme als Wärme und Kälte als Kälte genutzt ohne eine Konversion in eine andere Energieform dazwischen.

Eine nachhaltige Gebäudekonstruktion

Nachhaltigkeit wird zweifellos über die Adaptabilität eines Gebäudes definiert: Während seiner gesamten Lebensdauer soll man es an die jeweilige Funktion anpassen, neue Raumprogramme über die gesamte Nutzungsdauer realisieren können, ohne die tragenden Strukturen zu beeinträchtigen.

Ein evolutionär optimiertes Tragwerk

Adaptierbarkeit setzt ein optimiertes Tragwerk voraus, das eine höchstmögliche Grundriss-Flexibilität ermöglicht. Als "intelligente" Stützstruktur, die neben den Vertikallasten der Stockwerke auch Horizontallasten (infolge von Erdbeben oder Windlasten) aufnehmen kann, wurden A- und V-förmige Stützelemente entwickelt, die wie Bäume durch das Gebäude wachsen. Um eine möglichst hohe Flexibilität in den Raumprogrammen realisieren zu können, musste die Zahl der Stützen jedoch auf ein Minimum beschränkt werden. Dazu wurde die Position der Stützen am Rechner nach einem, dem evolutionären Optimierungsgedanken entlehnten, sogenannten genetischen Algorithmus ermittelt; nach 5000 Iterationen ergab sich die evolutionär optimierte Verteilung im Gebäude. Abbildung 5.

Abbildung 5. Die Tragstruktur ist ein Skelettbau, der aus Betongeschoßplatten und Fertigteil-Stützen besteht. Links: Die optimierten Positionen der A-und V-förmigen Stahl-Beton-Stützen (grau) und der wabenförmigen Struktur des Voronoi-Skeletts (braun, 3D Modell: Bollinger & Grohmann). Rechts die Stützen im Rohbau. (Foto: Roland Korner)

Tragskelett nach dem Vorbild der Natur

Um die Energietechnik in das Gebäude zu integrieren, wurde ein hochfunktionales leichtes Tragskelett konstruiert, das Anleihen bei der Natur nimmt. Es ist eine Geometrie, wie man sie beispielsweise an einem Libellenflügel sieht oder wie sie durch Aggregation von Zellen entsteht. Dahinter steckt ein präzise definiertes mathematisches System, das der Mathematiker Voronoi bewiesen hat. Mittels des nach ihm benannten Voronoi - Algorithmus wurde ein hochfunktionales leichtes Tragskelett aus Zellen mit optimalem Verhältnis von Tragleistung zu Materialstärke generiert, in welche die Energietechnik eingebettet wurde. Dieses Skelett bildet Teile der Ostfassade, überspannt das Gebäude über die gesamte Länge und bildet das Dachgeschoß mit einer südseitigen Auskragung. Abbildung 6.

Abbildung 6. Das Voronoi-Tragwerk. Oben links: Polygonale 3D-Struktur nach dem Vorbild der Natur. Oben rechts: Modell des Voronoi-Skeletts (falkeis2architects). Unten links: das Voronoi-Skelett zieht sich wabenförmig über Teile der Ostseite, in welche die Kühlflügel (gelb) eingebettet sind und das Dach mit 13 integrierten Solarflügeln. Unten rechts: Die Voronoi Dachstruktur zur Aufnahme der Solarflügel. (Rendering: falkeis2architects, Foto: Roland Korner)

Eine textile Hülle und eine nachhaltige Inneneinrichtung

Für die Verschattung des Gebäudes wurde eine textile, freitragende Hülle entwickelt. Es ist eine Lamellenstruktur aus Textilbändern, die sich aus dem Gebäude heraus entwickelt und lamellenförmig um den Gebäudekörper gezogen wird. Geschlossene Lamellenbänder treten aus dem Gebäude hervor, werden hochgezogen und bilden Schutzdächer gegen die hochstehende Mittagssonne über den Terrassen, bevor sie sich an der Westseite wieder langsam schließen um die tiefstehende Abendsonne zu verschatten. Abbildung 7 oben.

Abbildung 7. Oben: eine innovativ textile Beschattung, die aus dem Gebäude herauswächst und Schutzdächer über den Terrassen bildet, rechts Teile der Westfassade (Foto: Roland Korner). Unten: Das 5- geschoßige Mehrfamilienhaus im Längsschnitt (falkeis2architects) und ein Beispiel für einen Wohnraum. (Foto: Roland Korner)

Das Gebäude selbst ist ein fünf Stockwerke hohes Mehrfamilienhaus mit 12 Wohneinheiten. (Abbildung 7 unten). Die zwölf Einheiten selbst sind hochwertig ausgestattet, wobei Einbaumöbel Stauraum schaffen und gleichzeitig Wände bilden. Ausgesuchtes Material und Lüftungssystem verhindern Schadstoffemissionen (beispielsweise von Formaldehyd). Dadurch kann eine Reduktion der Lüftungsraten erzielt und Heiz- und Lüftungsenergie eingespart werden. Auch bei den Beleuchtungskörpern wurden die zur Zeit energie-effizientesten LED-Leuchten am Markt eingebaut.

Fazit

Mit dem "Active-Energy-Building" ist der Prototyp eines neuen urbanen, dezentralen Energieerzeugungssystems entwickelt worden, das ein demokratischeres Modell der Energiegewinnung wie auch der Energieverteilung bereitstellt. Das Gebäude geht von einem umfassenden Nachhaltigkeitsbegriff aus, der sowohl für die Ausformulierung des Baukörpers als auch für die Konstruktion des Tragwerks gilt und von der Entwicklung der Energietechnik bis hin zur Gestaltung der Innenräume reicht. In dem Bau stecken eine ganze Reihe von, zum Teil von der Natur inspirierten Innovationen, welche Möglichkeiten aufzeigen den großen Herausforderungen unserer Gesellschaft - Reduktion von CO2-Emissionen im Kampf gegen Klimawandel, Energieknappheit und Verknappung von Ressourcen - wirksam zu begegnen.

Bereits während der Bauphase ist das Gebäude auf sehr große internationale Resonanz gestoßen; viele Medien haben darüber ausführlich berichtet und aus der Fachwelt sind zahlreiche Einladungen zu Vorträgen an akademischen Institutionen und zu Ausstellungen erfolgt - u.a am Massachusetts Institute of Technology in Boston, dem Archtober in New York, in Nanjing, Costa Rica, Bergen, Washington, Los Angeles, Toronto, Vancouver, Berlin, Luzern, Bozen und auch in Graz und Wien.


Weiterführende Links

falkeis2architects: http://www.falkeis.com/

falkeis2architects: active energy building – MAK FUTURE LAB (2018). Video 1:10:35. Vortrag und Gespräch mit Anton Falkeis (deutsch) am Museum für Angewandte Kunst in Wien.

Anton Falkeis: Building Innovation for an Architecture in Motion (16.10.2019). Vortrag am 2019 Green Building Festival in Toronto (englisch). Video 55:31 min.

Prof. Anton Falkeis: Interview in FL1 TV: http://www.1fl.li/article.php?artid=prof-anton-falkeis


 

Redaktion Thu, 30.01.2020 - 16:38

Der Kampf gegen die erfolgreichste Infektionskrankheit der Geschichte

Der Kampf gegen die erfolgreichste Infektionskrankheit der Geschichte

Do, 23.01.2020 — Bill & Melinda Gates Foundation

Bill & Melinda Gates FoundationIcon MedizinSeit den 1990er Jahren ist die Tuberkulose weltweit wieder im Vormarsch, bedingt u.a. durch erhöhte Mobilität und Leichtfertigkeit bei Vorbeugung und Behandlung der Krankheit. Weltweit Tuberkulose vorzubeugen und zu behandeln ist im 21. Jahrhundert weiterhin problematisch. Die großen Herausforderungen bestehen in dem Anstieg der gegen TB-Medikamente multiresistenten Fälle, in Koinfektionen mit Tuberkulose und AIDS, sowie in unzureichender Finanzierung für Prävention und Behandlung. Die Bill & Melinda Gates Foundation investiert jährlich rund 100 Millionen US-Dollar in die Entwicklung von Mitteln gegen Tuberkulose, davon rund 50 % in Impfstoffe. Huan Shitong (Projektleiter der Gates Foundation für TB in Peking) hat auf der chinesischen Plattform Yixi für Wissenschaftskommunikation (entsprechend der TED-Plattform im Westen) über den Status der Tuberkulose - global und in China - und den Kampf gegen diese häufigste Infektionskrankheit berichtet *.

Wäre eine Infektionskrankheit mit menschlicher Vernunft begabt, so würde sie wahrscheinlich danach trachten, das „Alpha“ unter ihren Artgenossen zu werden. Ihr Kriegsruf wäre "keine Gefangenen machen". Mit anderen Worten, sie wäre die Art von Attentäter, der spurlos verschwindet, nachdem er seine Opfer getötet hat. Eine Beschreibung, die meiner Meinung nach am besten auf die Tuberkulose passt.

Ein kaltblütiger Killer

Dazu einige Zahlen:

1,7 Millionen Menschen - das ist die Zahl der jährlich durch Tuberkulose verursachten Todesfälle - dies macht Tuberkulose zur tödlichsten aller Infektionskrankheiten. Auch wenn man alle Todesfälle aufgrund von Herz-Kreislauf-Erkrankungen, zerebralvaskulären Erkrankungen, Lungenkrebs und Leberkrebs auflistet, so bleibt Tuberkulose immer noch unter den Top 10 der Todesursachen.

10 Millionen - dies ist die Anzahl der jährlich neu diagnostizierten Fälle von Tuberkulose.

2 Milliarden - das  sind fast 30 % der aktuellen Weltbevölkerung - sind mit Tuberkulose-Bakterien infiziert, was medizinisch als latente Infektion bezeichnet wird.

Für China liegen aus unterschiedlichen Untersuchungen verschiedene Schätzungen vor. Einigermaßen sicher ist, dass die Zahl der Menschen mit einer latenten Tuberkulose-Infektion zwischen 200 und 550 Millionen liegt, also mindestens, 200 Millionen Menschen in China die Bakterien in sich tragen.

5.000 Jahre - so lange lebt der Mensch schon mit der Tuberkulose; in seinen Fokus rückte sie aber erst in den letzten zwei Jahrhunderten. Man begann sich dafür zu interessieren, weil zahlreiche berühmte Persönlichkeiten - Percy Shelley, Kaiserin Sissi, Lu Xun, Lord Byron - sich eine eigenartige „verzehrende“ Krankheit zuzogen. Diese Krankheit - die Tuberkulose - war nicht nur bei dem historischen Äquivalent unserer heutigen Internet-Stars weit verbreitet, sie überschattete auch die gesamte Gesellschaft.

Robert Koch (1843-1910), der den Erreger der Tuberkulose entdeckte, meinte, dass Tuberkulose eine größere Bedrohung für den Menschen darstelle als selbst die schrecklichsten Infektionskrankheiten wie die schwarze Pest oder die Cholera. Seiner Statistik zufolge konnte man davon ausgehen, dass in Europa damals eine von sieben Personen an Tuberkulose erkrankte und daran starb.

Ende des neunzehnten Jahrhunderts, nach der industriellen Revolution, als Wirtschaftswachstum und Kultur in Europa noch nie dagewesene Höhen erreichten, begannen Länder auf dem gesamten Kontinent, Statistiken über Tuberkulose zu erstellen. Wie der Großteil der übrigen Welt verfügt China über keine quantitativen Daten für diesen Zeitraum, sondern nur über einige qualitative Indikatoren. Beispielsweise gibt es in dem Film Fist of Fury (Faust des Rächers) eine Stelle, in der die Darsteller ein Schild mit den Worten "Kranker Mann in Ostasien" zerschlagen. Viele Menschen interpretieren dies als Hinweis auf eine der häufigsten Infektionskrankheiten in China zu der Zeit: Tuberkulose.

Wie ist der Mensch diesem kaltblütigen Mörder in den letzten 5.000 Jahren begegnet?

Wenn in der Vergangenheit etwas mit der Lunge nicht stimmte, dachte man die Lösung wäre ins Freie zu gehen und saubere Luft zu atmen. Als beste Heilmethode galt an einen Ort mit schöner Lage geschickt zu werden, um dort etwas Sonnenschein zu bekommen.  Davos in der Schweiz wurde so berühmt - als Ziel zur Behandlung für Tuberkulosekranke. Abbildung 1.

Abbildung 1. Davos Platz. Das Sanatorium Schatzalp auf 1864 m. Jedes Zimmer verfügt über Außenbetten, damit die Patienten in der Sonne liegen können. (Bild von der Redaktion angefügt.)

Allerdings erforderte diese Art der Behandlung einigen Wohlstand, war eine Therapie der Reichen.

Was ist aber mit armen Menschen passiert, die an Tuberkulose erkrankten? Nach ihrer religiösen Überzeugung, glaubten die Menschen, dass ihre Krankheit eine Bestrafung wäre, weil sie gesündigt hatten und, dass sie nun die Hilfe Gottes bräuchten.

Ab dem fünften Jahrhundert nach Christus kam in Westeuropa der Brauch auf, dass Monarchen einen Tag im Jahr festlegten, an dem sie die Kranken durch Handauflegen segneten. Abbildung 2.

Abbildung 2. Der französische König Heinrich IV bei dere Zeremonie des "königlichen Handauflegens" (Stich aus einem medizinischen Fachbuch 1609, Bild: Wikipedia. Das gemeinfreie Bild wurde von der Redaktion eingefügt.)

Auch wenn dieses Ritual keinerlei Wirkung hatte, hatte es vom fünften bis zum fünfzehnten Jahrhundert Bestand und dies hängt mit einer der Eigenschaften von Tuberkulose zusammen:

Ein Drittel der TB-Kranken starb üblicherweise innerhalb von zwei Jahren. Ein zweites Drittel lebte weitere fünf bis zehn Jahre, in deren Verlauf der Körper schwach - als würden er von innen „aufgezehrt“ - und die Krankheit chronisch wurde; währenddessen übertrugen die Kranken den Erreger auf weitere Menschen in ihrer Umgebung Das letzte Drittel erholte sich für gewöhnlich, vielleicht weil die anfängliche Infektion nur leicht war oder weil ihr Immunsystem stärker war. Dass damit ein Drittel der vom Monarchen Gesegneten sich erholte, schuf den Glauben, dass die Monarchen von Gott heilende Kräfte erhalten hatten.

Was können wir heute tun, um diese Krankheit zu bekämpfen? Impfung! Und…

Die primäre Waffe gegen die Krankheit ist die Prävention. Jedem heute in China geborenen Kind werden zwei Injektionen verabreicht: eine gegen virale Hepatitis B und eine als BCG--Stich bekannte (BCG: Bacillus Calmette-Guérin - aus dem Wildtyp entwickeltes, abgeschwächtes Mykobakterium; Anm.Redn.).

Die BCG Impfung bei der Geburt schützt Kinder vor Tuberkulose und erhöht ihre Abwehrkraft gegen Tuberkulöse Meningitis oder Tuberkulose an anderen Körperstellen. Allerdings bietet BCG Kindern keinen perfekten Schutz gegen Tuberkulose, sondern  stärkt nur das Immunsystem.

Abgesehen von Impfungen wurden in den 1940er bis 1960er Jahren bedeutende Fortschritte im Antibiotika-Gebiet erzielt und einige neue wirksame Präparate gegen Tuberkulose gefunden. Die Ärzte konnten schließlich 90 Prozent der TB-Patienten heilen und die anfängliche Behandlungsdauer von einem Jahr auf sechs Monate verkürzen. Schließlich glaubte ein jeder, dass dies nun zur Ausrottung der Tuberkulose führen würde. Wie man heute sieht, wurde Krankheit aber nicht ausgerottet. Dies ist wiederum auf drei Besonderheiten der Tuberkulose zurückzuführen.

Die erste ist die Übertragung der Keime durch die Luft. Ein Infizierter kann durch Niesen oder Husten die Bakterien in die Luft schleudern und die Menschen um sich herum anstecken.

Das zweite Merkmal ist die Latenz. Wenn der TB-Keim in einen Wirt eindringt und einen gesunden Körper mit einem robusten Immunsystem erkennt, wechselt er automatisch in den Schlafmodus, ohne Schaden zu verursachen. In diesem Fall sieht das Immunsystem den Keim nicht als schädlichen Organismus an und lässt ihn im Körper überleben. Wird das körpereigene Immunsystem zu irgendeinem Zeitpunkt aber schwach, erkennt der Keim die dementsprechenden Signale, erwacht, beginnt sich zu vermehren und verursacht den Wirt zu husten und ihn in die Luft auszustoßen, damit er nun einen neuen Wirt suchen kann.

Das dritte Merkmal ist die Iteration. Es gibt heute zahlreiche Medikamente zur Bekämpfung der Tuberkulose. Um die Keime abzutöten, sind jedoch mindestens drei oder vier Medikamente über eine Behandlungsdauer von sechs Monaten erforderlich. Verwendet man nur ein Medikament, so wird das Bakterium innerhalb eines Monats eine Resistenz gegen das Medikament entwickelt haben, die nächste Generation von Keimen wird daher gegen diese Behandlung resistent sein. Aufgrund dieser Fähigkeit zur Iteration ist eine neue Form der Tuberkulose entstanden, die als Medikamenten-resistente Tuberkulose (drug resistant TB: DRTB) bezeichnet wird. Abbildung 3.

Abbildung 3. Das Problem der Medikamente-resistenten Tuberkulose (DRTB). Bild aus dem aktuellen globalen Tuberkulose Report 2019 der WHO; von Redn. eingefügt.

Die Zahl der DRTB-Patienten liegt bei rund 500.000, davon 70.000 allein in China. Da DRTB über die Luft übertragen werden kann, kann ein unbehandelter DRTB-Träger innerhalb eines Jahres bis zu fünfzehn andere Menschen infizieren.

Es ist nicht möglich, DRTB mit nur einem Medikament zu eliminieren. Selbst, wenn man drei bis vier neue Wirkstoffe entdeckte, würde es noch sechs Monate bis zur Eliminierung der Keime dauern. Patienten mit DRTB müssen daher eine zweijährige Behandlung einhalten, die eine Erfolgsquote von nur 50% aufweist (und in China 10 000 -12 000 € kostet). Erschwerend kommt hinzu, dass es einen Bakterien-Stamm gibt, der eine außergewöhnlich hohe Arzneimittelresistenz aufweist und selbst mit einem breiten Cocktail von Arzneimitteln nicht geheilt werden kann. Es ist keine Übertreibung festzustellen, dass diese Art von DRTB, wenn sie nicht unter Kontrolle gehalten wird, zu einer Art von "übertragbarem Krebs" werden kann, für den jeder anfällig wäre.

Was können wir tun? Vor Angst zittern?

Die Kontrolle von Infektionskrankheiten beruht immer auf einem zweigleisigen Ansatz. Die erste Angriffsstrategie ist die Impfung. Im Fall der bereits erwähnten Geißel der Virushepatitis B sind Kinder durch die Impfung heute gut geschützt.

Bei der Entwicklung eines Tuberkulose-Impfstoffs gibt es allerdings ein Problem. Bei anderen Krankheiten wie den Pocken produziert der Körper nach der Inokulation Antikörper, die lebenslangen Schutz bieten. Bei TB ist das nicht der Fall. Auch nach der Genesung von TB kann man erneut infiziert werden und wieder erkranken.

Die Bill & Melinda Gates Foundation stellt jedes Jahr rund 100 Millionen US-Dollar für die Entwicklung von Mitteln gegen Tuberkulose zur Verfügung. Etwa die Hälfte davon entfällt auf die Entwicklung von neuen, effizienteren Impfstoffen.

Wir brauchen aber auch den zweiten Ansatz, der länger und schwieriger ist: so viele Infizierte wie möglich zu identifizieren und zu heilen. Dieser Ansatz erfordert auch die Entwicklung einer ganzen Reihe neuer Mittel und Medikamente. Heute verfügen wir über eine molekulare Diagnostik, um neue TB-Fälle schnell zu erkennen und innerhalb von zwei Stunden festzustellen, ob die TB arzneimittelresistent ist. Dies verkürzt die Diagnose- und Behandlungszeit erheblich. Im Rahmen dieser Initiative haben wir berechnet, dass die Zeit zwischen der Probenahme von einem Patienten bis zur Mitteilung, dass es sich um DRTB handelt und dem Beginn der Behandlung nur 7 Tage beträgt.

Ausblick

Fast ein Drittel der heutigen Menschheit, das sind ungefähr 2 Milliarden Menschen, ist Träger des schlafenden, aber immer noch lebenden Erregers. Kein Grund zur Panik - nur 5 Prozent dieser Menschen werden tatsächlich an Tuberkulose erkranken. Die restlichen 95 Prozent müssen nur auf ihre Gesundheit achten, fit bleiben und sich richtig ausruhen, um die Erkrankung zu vermeiden.

Es gibt einige Aspekte der Krankheit, die wir noch nicht verstehen:

  • Wie genau wird Tuberkulose übertragen?
  • Welche Beziehung besteht zwischen der Bakterienkonzentration in der Luft, der tatsächlichen Infektion und dem Auftreten der Krankheit?
  • Wie lang genau dauert die Inkubationszeit?
  • Wie können im Patienten vorkommende, ruhende Bakterien getötet werden?
  • Wie ist es möglich zu wissen, ob jemand vollständig von TB genesen ist?

Zur Beantwortung all dieser Fragen ist ein Mehr an Forschung und Investitionen erforderlich. Um effiziente wissenschaftliche Forschung auf diesem Gebiet zu betriben, wären jährliche Investitionen in Höhe von 2 Mrd. USD nötig. Es wären öffentliche Güter, die der gesamten Bevölkerung zugute kommen.

Im Jahr 2015 haben die Vereinten Nationen eine Resolution zur Annahme von 17 nachhaltigen Entwicklungszielen (Sustainable Development Goals - SDGs) verabschiedet, die u.a. eine Verpflichtung zur Eliminierung der Tuberkulose bis 2030 beinhalten. Abbildung 4. Dies lässt uns hoffen eines Tages die beruhigende Gewissheit zu haben, dass die seit Tausenden Jahren uns plagende Infektionskrankheit endgültig Geschichte geworden ist.

Abbildung 4. WHO: The End TB Strategy. (Bild von Redn eingefügt)


*Der Artikel basiert auf dem Vortrag " ‘The Most Successful Infectious Disease in the History" von Huan Shitong, den dieser am 19. Oktober 2019 in Yixi (der TED-Diskussionsplattform Chinas )in Peking gehalten hat. Der Vortrag erschien in editierter Form erstmals auf der Website der Gates Foundation https://www.gatesfoundation.org/theoptimist/articles/tuberculosis-successful-disease-in-history?utm_source=alw&utm_medium=em&utm_campaign=wc&utm_term=lgc und wurde mit freundlicher Zustimmung der Gates Foundation der Website der Stiftung entnommen, von der Redaktion in Deutsch übersetzt und etwas gekürzt.(u.a. wurde der China-spezifische Teil am Schluss des Artikels weggelassen). Zum Text wurden passende Abbildungen von der Redaktion eingefügt.

Huan Shitong, Projektleiter für TB der Gates Foundation in Peking, hat an Mediziinischen Universität Peking studiert und war am Beijing Tuberculosis and Thoracic Tumor Research Institute und im Chinesischen Gesundheitsministerium tätig.


Weiterführende Links

WHO Global Tuberculosis Report 2019. https://www.who.int/tb/global-report-2019

Tuberculosis (TB) Explained (06.2019). Video 1:13 min. https://www.youtube.com/watch?time_continue=63&v=kAbujxt5FCU&feature=emb_logo

Das ABC des Dr Robert Koch. Tuberkulose. Video 2:56 min http://www.youtube.com/watch?v=FYRyoAPhH8E  Tetanus und Tuberkulose - Dokumentation über die Entdeckung der Bakterien, die Tetanus und Tuberkulose verursachen : Teil 1 14:31 min.

Ärzte ohne Grenzen: Vernachlässigte Krankheiten - Multiresistente Tuberkulose. Video 6:20 min. https://www.youtube.com/watch?v=AJmGPeLV3sA&feature=emb_title

Bill and Melinda Gates Foundation, 09.05.2014: Der Kampf gegen Tuberkulose. http://scienceblog.at/der-kampf-gegen-tuberkulose.

Gottfried Schatz, 08.05.2015: Tuberkulose und Lepra – Familienchronik zweier Mörder. http://scienceblog.at/tuberkulose-und-lepra-%E2%80%93-familienchronik-zweier-mörder.


 

Redaktion Thu, 23.01.2020 - 06:02

Können wir die Erde mit einer eisfreien Arktis kühlen?

Können wir die Erde mit einer eisfreien Arktis kühlen?

Fr, 16.01.2020 — IIASA

IIASA Logo

Icon Klima

Die Arktis erwärmt sich schneller als jeder andere Ort auf der Erde, und da jedes Jahr mehr Meereis verloren geht, spüren wir bereits jetzt die Auswirkungen. Forscher am International Institute of Applied Systems Analysis (IIASA, Laxenburg bei Wien) haben Szenarien eines, auch während des Winters eisfreien Polarmeeres analysiert, in welchem die Wärmeabstrahlung in den Weltraum größer sein würde als die Albedo- bedingte Wärmeabsorption. Mit Strategien, die zur Erhöhung des Salzgehaltes in den oberflächlichen salzarmen Schichten des Polarmeeres führen, könnten die wärmeren Wassermassen des Nordatlantiks an die Oberfläche des Polarmeeres fließen, durch Wärmeabstrahlung abkühlen und langfristig möglicherweise auch eine globale Abkühlung bewirken.*

 

Wissenschaftler rechnen damit, dass das sommerliche Meereis im Nordpolarmeer innerhalb einer Generation weitgehend verschwunden sein wird. Für die Welt ist dies eine schlechte Nachricht, da Eis und Schnee einen hohen Anteil der Sonnenenergie in den Weltraum reflektieren und so den Planeten kühl halten. Wenn die Arktis Schnee und Eis verliert, werden nacktes Gestein und Wasser freigelegt und absorbieren in zunehmendem Maße Sonnenenergie; dadurch wird es wärmer - ein Vorgang, der als Albedo-Effekt bekannt ist.

Dass es sehr schwierig sein würde, diesen Trend umzukehren, selbst wenn wir es schaffen, das im Pariser Abkommen festgelegte Ziel von 1,5 ° C Erwärmung zu erreichen, ist eine Tatsache. Angesichts dessen haben IIASA-Forscher nun untersucht, was passieren würde, wenn wir die Kausalität umdrehten und die Arktis zu einer Region machten, die einen Nettobeitrag zur Abkühlung der Weltmeere und damit auch der Erde erbringt. In ihrem neuen Artikel, der in der Springer-Fachzeitschrift SN Applied Sciences veröffentlicht wurde [1], haben die Autoren analysiert, welchen Beitrag die Arktis zur globalen Erwärmung leisten würde, wenn es sogar während der Wintermonate keine Eisdecke gäbe. Sie haben auch nach Möglichkeiten gesucht, wie sich die Welt an die daraus resultierenden neuen Klimabedingungen anpassen könnte.

„Das Eis des Arktischen Ozeans wirkt als starker thermischer Isolator, der verhindert, dass die Wärme des Ozeans unterhalb der Eisdecke die darüber liegende Atmosphäre (im Mittel bei - 20 °C) aufwärmt. Würde diese Eisschicht jedoch entfernt, so würde sich die Temperatur der Atmosphäre im Winter um bis zu 20 °C erhöhen. Dieser Temperaturanstieg würde wiederum die in den Weltraum abgestrahlte Wärme erhöhen und damit die Ozeane abkühlen “, erklärt Studienleiter Julian Hunt, der derzeit als Postdoc am IIASA arbeitet. Abbildung 1.

Abbildung 1. Die Eisdecke des Arktischen Ozeans wirkt als starker thermischer Isolator. Berechnungen zeigen, dass im offenen Meer die Wärmeabstrahlung in die Atmosphäre und den Weltraum höher ist als die solare Absorption durch den Albedo-Effekt. (Bild aus Hunt et al., 2019 [1]).

Für den Bestand der Eisdecke in der Arktis ist - nach Meinung der Autoren - hauptsächlich der Umstand verantwortlich, dass an der Oberfläche des Meeres (d.i, in den obersten 100 Metern) ein Salzgehalt vorliegt, der um 5 Gramm pro Liter niedriger ist als im Atlantik. Dies verhindert, dass der wärmere Atlantik über das kalte arktische Gewässer strömt.

Die Autoren erörtern nun, dass bei einem Anstieg des Salzgehalts in der obersten Schichte des Arktischen Ozeans der wärmere und dann weniger salzhaltige Nordatlantische Ozean die Oberfläche des Arktischen Ozeans überschichten könnte; dadurch würde sich die Temperatur in der arktischen Atmosphäre erheblich erhöhen und die unter dem Eis eingeschlossene Ozeanwärme freigesetzt werden. Abbildung 2.

Abbildung 2. Die Oberfläche (bis in 100 m Tiefe) des Arktischen Ozeans hat - bedingt durch den stetigen Süßwasserzufluss grosser Ströme (Ob, Yenissei, Lena, Mackenzie) einen niedrigeren Salzgehalt (a) und schwimmt auf den einströmenden dichteren und wärmeren Schichten des Nordatlantik (b). An den Übergangszonen entsteht eine Salzgehaltssprungschicht (Halokline). (Bild aus Hunt et al., 2019 [1]).

Um dies zu bewerkstelligen, schlagen die Forscher drei Strategien vor:

  • Die erste Strategie impliziert, dass der Einstrom der großen Flüsse aus Russland und Kanada in die Arktis reduziert wird, indem das Wasser in Regionen in den USA und Zentralasien gepumpt wird, wo es in südlicheren, wasserarmen Gebieten zur Steigerung der landwirtschaftlichen Produktion verwendet werden könnte.
  • Als zweite Strategie nennen die Forscher die Errichtung von Dämmen und treibenden Barrieren vor den grönländischen Gletschern, um den Kontakt mit wärmerem Meerwasser und das Abgleiten und Abschmelzen der Eisschilde zu verringern.
  • Die dritte Strategie besteht darin, Wasser von der Oberfläche des Arktischen Ozeans in die Tiefsee zu pumpen, sodass es mit dem salzigeren Wasser unten vermischt wird. Die Pumpen in einem solchen Projekt würden mit Strom aus intermittierenden Solar- und Windquellen betrieben, was eine reibungslosere Implementierung dieser Technologien ermöglichen würde.

Die Analyse der Forscher ergab, dass diese Strategien bei einer durchschnittlichen Energie von 116 GW während eines 50-jährigen Betriebs den Salzgehalt der oberflächlichen Gewässer des Arktischen Ozeans um 2 g / l steigern könnten. Dies würde die Strömung des Nordatlantiks in die Arktis erhöhen und die Eisbedeckung der Arktis im Winter erheblich verringern.

Trotz der Bedenken über den Verlust von Meereis in der Arktis weisen die Autoren darauf hin, dass ein eisfreies Szenario in der Arktis mehrere Vorteile hat: beispielsweise könnte Schiffe das ganze Jahr den Arktischen Ozean befahren, wodurch sich die Entfernung für den Warentransport von Asien nach Europa und Nordamerika verringert. Darüber hinaus würde die Temperatur in der Arktis in den Wintermonaten ansteigen, was den Heizbedarf in Europa, Nordamerika und Asien im Winter verringern würde. Die Häufigkeit und Intensität von Wirbelstürmen im Atlantik könnte auch aufgrund der Temperatursenkung in den Gewässern des Atlantiks verringert werden. Darüber hinaus könnte das eisfreie Wasser dazu beitragen, mehr CO2 aus der Atmosphäre aufzunehmen.

Hunt rät zu Vorsicht; während es zwar Vorteile für eine eisfreie Arktis gibt, ist es aber schwierig die Auswirkungen auf die globalen Meeresspiegel vorherzusagen, da die höheren Temperaturen in der Arktis dazu führen würden, dass die grönländische Eisdecke stärker schmilzt. Es ist auch schwierig, die Veränderungen des Weltklimas vorherzusagen.

„Obwohl es wichtig ist, die Auswirkungen des Klimawandels durch die Reduzierung der CO2-Emissionen zu mildern, sollten wir uns auch überlegen, wie wir die Welt an die neuen Klimabedingungen anpassen können, um einen unkontrollierbaren, unvorhersehbaren und zerstörerischen Klimawandel zu vermeiden, der zu einem sozioökonomischen und ökologischen Zusammenbruch führt. Der Klimawandel ist ein zentrales Thema; wenn man sich damit auseinandersetzt sollten alle Optionen sollten in Betracht gezogen werden “, schließt Hunt.


[1] Hunt J et al., (2019). Cooling down the world oceans and the earth by enhancing the North Atlantic Ocean current. SN Applied Sciences DOI: 10.1007/s42452-019-1755-y. Der Artikel steht unter einer Creative Commons CC BY license.


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 10. Dezember 2019 auf der IIASA Webseite unter dem Titel: " Could we cool the Earth with an ice-free Arctic?" erschienen (https://www.iiasa.ac.at/web/home/about/news/191206-cooling-the-oceans.html ). IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch passende Abbildungen  aus [1] und Legenden ergänzt.


Weiterführende Links

Maribus (2019): „World Ocean Review“ (WOR 6) Arktis und Antarktis – extrem, klimarelevant, gefährdet

Artikel zu verwandten Themen im ScienceBlog:


 

Redaktion Wed, 15.01.2020 - 21:12

Neutrophile: Zwischen Zellteilung und Zelltod

Neutrophile: Zwischen Zellteilung und Zelltod

Do, 02.01.2020 — Arturo Zychlinsky

Arturo ZychlinskyIcon MedizinEin Organismus wird tagtäglich mit einer Vielzahl von Krankheitserregern konfrontiert. Das Immunsystem hat daher im Laufe der Evolution viele ausgeklügelte Abwehrmechanismen entwickelt. Das Team um Prof. Arturo Zychlinsky (Direktor am Max-Planck-Institut für Infektionsbiologie, Berlin) hat 2004 einen bis dahin unbekannten Mechanismus beschrieben: Neutrophile Granulozyten als Zellen des Immunsystems können schädliche Mikroorganismen in Netzen fangen. Interessanterweise sind diese Netze im Wesentlichen nicht nur aus den gleichen Bestandteilen wie die Erbsubstanz aufgebaut, bei der Netzbildung laufen auch Schritte ab, die sonst nur bei der Zellteilung stattfinden.

Krankheitserreger gehen ins Netz

Neutrophile Granulozyten, kurz Neutrophile genannt, sind die am häufigsten vorkommenden weißen Blutzellen im menschlichen Organismus. Sie gehören zu denjenigen Zellen, die als erstes vor Ort sind, um eingedrungene Pathogene unschädlich zu machen. Sie haben dazu hauptsächlich drei Strategien entwickelt.

Sie können Pathogene phagozytieren und in ihrem Zellinneren verdauen.

Sie können aber auch antimikrobielle Proteine aus den Granula in den Zellzwischenraum ausscheiden und den Pathogenen damit eine unwirtliche Umgebung bereiten.

Ein in unserem Labor vor rund 15 Jahren im Detail beschriebenes Phänomen ist die Bildung von Neutrophil Extracellular Traps, kurz NETs.

NETs sind netzartige Strukturen, die Neutrophile bei Kontakt mit Pathogenen auswerfen. Dabei sterben die Neutrophilen einen speziellen Zelltod, NETosis genannt. Bemerkenswert ist der Aufbau der Netze. Sie werden aus der DNA der Neutrophilen gebildet und sind wie mit Perlen über und über mit Proteinen aus den Granula und mit Histonen besetzt. Histone sind Proteine aus dem Zellkern, die dafür sorgen, dass die DNA in Chromatin aufgewickelt vorliegt. Zusätzlich können Histone Bakterien effizient abtöten. In den NETs werden die eingefangenen Pathogene unter anderem durch elektrische Ladungsunterschiede festgehalten und nachfolgend von Granulaproteinen und Histonen abgetötet.

Viele Wege führen zur Bildung von NETs

Die genauen molekularen Mechanismen der NETosis und NET-Bildung sind noch nicht verstanden. Dies liegt vor allem daran, dass Neutrophile experimentell schwer zu untersuchen sind. Einerseits sind diese Zellen leicht zu aktivieren, andererseits haben sie außerhalb des Körpers nur eine Lebensdauer von wenigen Stunden.

Unserem Labor gelang es, standardisierte experimentelle Bedingungen für vergleichbare und quantifizierbare Untersuchungen zu erzeugen. Unter diesen Bedingungen stimulierten wir Neutrophile mit zwei Pathogenen - dem Hefepilz Candida albicans und Streptokokken der Gruppe B - sowie mit Ionophoren, also Substanzen, die den Ionenhaushalt in den Neutrophilen beeinflussen [1]. Alle diese Stimuli induzierten die Bildung von NETs, die vergleichbare Eigenschaften zeigten (Abbildung 1).

Abbildung 1. Candida albicans induzierte NETosis in humanen primären Neutrophilen. Die Neutrophilen wurden mit dem blauen Fluoreszenzfarbstoff Draq5, der Zellmembranen passieren kann, und dem grünen Fluoreszenzfarbstoff Sytox Green, der Zellmembranen nicht passieren kann, gefärbt. Das Auftreten der grünen Fluoreszenz zeigt das Auftreten von NETosis an. (Die Bilder sind Screenshots aus einem kurzen Video, das im Original https://www.mpg.de/13489596/mpiib-berlin_jb_2018?c=15261 0 gesehen werden kann; Anm. Redn)

Setzten wir Substanzen ein, die mögliche Signalwege während der NETosis blockieren könnten, zeigten sich Unterschiede. Für die NET-Bildung nach Stimulierung mit den Pathogenen etwa spielen reaktive Sauerstoffspezies, sogenannte Sauerstoffradikale, eine Rolle, nach der Stimulierung mit Ionophoren dagegen nicht. Auf der Basis dieser und weiterer Ergebnisse konnten wir einen Atlas von Signalwegen erstellen, der zeigt, dass je nach Stimulus ein anderer Signalweg für die Bildung von NETs eingeschlagen wird.

Zellteilung mit Abzweigung in Richtung NETs?

DNA und Histone aus dem Zellkern und Proteine aus den Granula müssen sich vor der NET-Bildung im Zellplasma mischen können. Dies setzt den Abbau der Kern- und Granulamembranen voraus. Die Kernmembran wiederum wird auch während der Zellteilung, der Mitose, aufgelöst. Daher fragten wir uns, ob NET-Bildung und Mitose eventuell Parallelen aufweisen.

Zunächst untersuchten wir stimulierte Neutrophile auf Merkmale, die für bestimmte Phasen der Mitose typisch sind. So konnten wir zeigen, dass Lamine, spezielle Proteine der Kernmembran, in den Neutrophilen phosphoryliert vorliegen. Dadurch wird die Festigkeit der Kernmembran aufgehoben und sie kann sich auflösen. Die Replikation der DNA, typisch für die Mitose, konnten wir dagegen nicht nachweisen.

Besonders interessant war die Beobachtung, dass sich in stimulierten Neutrophilen Zentrosomen bilden und auseinanderdriften (Abbildung 2). Zentrosomen sind Strukturen aus Mikrotubuli, die während der Mitose an die gegenüberliegenden Pole der sich teilenden Zelle wandern. An den Zentrosomen ist die mitotische Spindel aufgehängt, die die Chromosomen auseinanderzieht. In den untersuchten Neutrophilen konnten wir allerdings keine mitotische Spindel beobachten.

Abbildung 2. Verdoppelung und Trennung der Zentrosomen während der NET-Bildung. In stimulierten Neutrophilen wurden Zentrosomen mit Hilfe eines anti-Tubulin-Antikörpers rot gefärbt. Die DNA ist mit einem blauen Farbstoff markiert. Drei Stunden nach der Stimulation (rechtes Bild) werden NETs beobachtet.© Max-Planck-Institut für Infektionsbiologie/Amulic; Brinkmann

Der Zellzyklus in sich teilenden Zellen durchläuft mehrere sogenannte Checkpoints. DNA-Schäden, Zellgröße, Zelldichte und viele andere Faktoren werden an den Checkpoints überwacht und können zur Unterbrechung der Zellteilung oder zum programmierten Zelltod, der sogenannten Apoptose, führen. Spezialisierte Zellzyklusproteine wie Zykline und Zyklin-abhängige Kinasen steuern diesen Prozess. In unseren Experimenten bewirkte die Stimulierung der Neutrophilen eine Aktivierung von CDK4/6-Kinasen, die in ruhenden Zellen zum Eintritt in die Mitose führen. Es bleibt offen, wie diese Zyklin-abhängigen Kinasen in Neutrophilen einen Teil der Mitose-Maschinerie anwerfen können.

Löcher im Immunsystem

In den letzten Jahren wurden NETs immer häufiger mit autoinflammatorischen und Autoimmunerkrankungen in Verbindung gebracht. Bei der Autoimmunkrankheit Lupus beispielsweise werden gegen die sich in den NETs befindende DNA Antikörper gebildet, die zu Nierenschäden führen können.

Lupus scheint darüber hinaus mit einer überschießenden NET-Produktion verbunden zu sein. Für uns war es daher von Interesse herauszufinden, wie beziehungsweise mit welchen Substanzen die NET-Bildung inhibiert werden kann. In Kooperation mit dem Lead Discovery Center (LDC), einer Ausgründung der Max-Planck-Gesellschaft, starteten wir ein großangelegtes Screening; annähernd 200.000 Substanzen wurden dabei auf ihre Fähigkeit getestet, NETs zu inhibieren. Für eine Substanz gelang es, ihren Wirkungsmechanismus näher zu untersuchen und ihr Target, also ihren Wirkort, zu identifizieren: Gasdermin D. Diese Entdeckung war besonders interessant, da es sich bei Gasdermin D um ein porenbildendes Protein handelt. Unsere Experimente mit dem neu identifizierten Gasdermin D-Inhibitor lassen vermuten, dass Gasdermin D dazu beiträgt, die Neutrophilen-Zellmembran derart z Max-Planck-Institut für Infektionsbiologie, Berlin u perforieren, dass NETs durch die entstandenen Löcher ausgeworfen werden können.

Dies bietet neue Ansätze für die klinische Forschung an Krankheiten, die mit einer Überproduktion von NETs einhergehen.


* Der vorliegende Artikel ist im Jahrbuch 2018 der Max-Planck-Gesellschaft unter identem Titel "Neutrophile: Zwischen Zellteilung und Zelltod" https://www.mpg.de/13489596/mpiib-berlin_jb_2018?c=15261 0 erschienen und wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel wurde unverändert übernommen, allerdings ohne Literaturzitate - diese können im Original nachgesehen werden.


Weiterführende Links

Max-Planck-Institut für Infektionsbiologie, Berlin

ESDR2019 Celgene Lecture: Arturo Zychlinsky "NETs in health and disease" Video 23:32 min.

Redaktion Fri, 27.12.2019 - 10:06

Bäume und Insekten emittieren Methan - wie geschieht das?

Bäume und Insekten emittieren Methan - wie geschieht das?

Do, 09.01.2020 — Redaktion

RedaktionIcon BiologieMethan ist nach CO2 das zweitwichtigste Treibhausgas und seine atmosphärische Konzentration steigt im letzten Jahrzehnt stark an. Rund die Hälfte der Emissionen ist anthropogen verursacht, die andere Hälfte stammt aus natürlichen Quellen. Wie diese zum Gesamtbudget von Methan beitragen, ist noch wenig erforscht. Bäume und Insekten dürften eine wichtige Rolle in der Methanemission spielen. Ein besseres Verständnis dessen, wie dies geschieht, könnte dazu beitragen, Senken für Methan und damit effizientere Wege zur Bekämpfung der globalen Erwärmung aufzufinden.*

Da Methan ein Vielfaches des Potenzials von Kohlendioxid als globales Treibhausgas aufweist, können die von Bäumen ausgehenden Methanemissionen - und jede durch den Klimawandel bedingte Änderung in diesen - erhebliche Auswirkungen auf das Erdklima haben.

"Wir haben aerobe (von Baumkronen ausgehende) Emissionen von Methan beobachtet, und diese zeigen im Tagesverlauf ausgeprägte Muster", erklärte Dr. Mari Pihlatie, außerordentliche Professorin am Institut für Agrarwissenschaften der Universität von Helsinki, Finnland. Im Rahmen des MEMETRE-Forschungsprojekts weist sie mit ihrem Team Methan nach, um festzustellen, ob es in den Blättern bei der Photosynthese entsteht oder ob es sich um ein im Boden gebildetes Gas handelt, das durch den Stamm nach oben strömt oder von anderen Vorgängen im Stamm selbst herrührt.

"Anscheinend emittieren die Kronen borealer Bäume tagsüber Methan und nicht in der Nacht und diese Emissionen folgen der photosynthetischen Aktivität und Einstrahlung des Sonnenlichts", sagte Dr. Pihlatie.

Mit den Jahreszeiten variierende Emissionen

Es gibt Hinweise darauf, dass Baumstammemissionen nicht mit der Photosynthese, sondern eher mit der Produktion von Methan im Boden zusammenhängen, das durch die Bäume in die Atmosphäre transportiert wird. Eine andere Möglichkeit besteht darin, dass Methan auf mikrobiellem Wege in den Stämmen selbst entsteht.

Die Methanflüsse von Baumstämmen variieren auch mit den Jahreszeiten, sie steigen an in den nordischen Sommern und sinken in den kalten, dunklen Wintern ab. Diese saisonale Variabilität wirft Fragen auf, wie sich der Beitrag der Bäume zum Methanbudget angesichts der Veränderungen des globalen Klimas in Zukunft auswirken könnte.

Dr. Pihlaties hat ihre Untersuchungen an Kiefern, Fichten und Birken ausgeführt, Bäumen die in den borealen Wäldern von Finnland und Schweden vorkommen und für die hohen nördlichen Breiten in Europa, Asien und Nordamerika typisch sind. Ihr Team führt Feldversuche durch und Experimente unter kontrollierten Laborbedingungen und verwendet stabile Kohlenstoffisotope, um die Herkunft des von Bäumen emittierten Methans zu bestimmen. Indem die Forscher einen umhüllten Baum mit Kohlendioxid aus Kohlenstoff-13 versorgen, wollen sie feststellen, ob der Kohlenstoff, der in den Methanemissionen aufscheint, schnell durch die Photosynthese von den Blättern oder Nadeln der Koniferen fixiert wurde oder ob es sich um "älteren" Kohlenstoff handelt, der von einem anderen Prozesse im Baum stammt.

Untersuchungsmethoden

Um Emissionen in der Baumkrone zu verfolgen, haben die Forscher neue Methoden entwickelt, indem sie einen Zweig in eine luftdichte Box einzuschließen, die mit Lasern ausgestattet ist, um Änderungen der Gasströme und Konzentrationen während der täglichen und jahreszeitlichen Zyklen kontinuierlich und automatisch zu messen.

"Auf diese Weise wollen wir den Zusammenhang zwischen der Methanproduktion und der physiologischen Aktivität des Baumes wie Photosynthese und Transpiration verstehen lernen", sagte Dr. Pihlatie.

Die Aufklärung des Methanprozesses in Bäumen - und die bedeutende Rolle borealer Wälder - könnte ein klareres Bild ihres Beitrags zum globalen Methanhaushalt liefern, in welchen die Methanquellen und -senken (-speicher) zusammengefasst sind. Dies könnte auch dazu beitragen, die zukünftigen Auswirkungen des Klimawandels auf diese Methanprozesse selbst zu bewerten. "Basierend auf unseren Messungen verringern die Methanemissionen von Bäumen in den borealen Wäldern die Bindungskapazität der Bäume für Kohlenstoff nicht signifikant", sagte Dr. Pihlatie und fügte hinzu: "Diese wachsenden Bäume wirken immer als Kohlenstoffsenke, egal wie viel Methan sie emittieren."

Ansteigende Methan-Konzentrationen

Die globalen Methanemissionen - mit rund 1870 ppb (2018) viel niedriger als die von Kohlendioxid (2018: 407.8 ppm; Anm Redn) - sind in den letzten Jahren stetig gestiegen wie Abbildung 1( vom November 2019) deutlich zeigt. Es gibt noch keine gültigen Erklärungen, warum dies der Fall ist, einige Untersuchungen weisen aber darauf hin, dass das Fracking zur Schiefergasgewinnung ein Hauptverdächtiger für die dramatische Steigerung in den letzten zehn Jahren ist. Was nun aber genau auf den Methanhaushalt einwirkt und wie sich dieser verändert, muss noch besser verstanden werden.

Abbildung 1. Atmosphärische Methankonzentrationen im globalen Mittel von 1985 bis 2018. Messungen von 127 Stationen. (Konzentrationen in parts per billion - ppb- ; im Vergleich dazu werden CO2 Konzentrationen in 1000 fach höheren ppm - parts per million- angegeben) (Bild von Redaktion aus https://public.wmo.int/en/media/press-release/greenhouse-gas-concentrations-atmosphere-reach-yet-another-high eingefügt)

Beispielsweise wirken gut durchlüftete Böden als Senken für Methan: sie absorbieren jährlich etwa 4% der weltweiten Methanemissionen, wobei unterirdische Mikroorganismen als Methanverbraucher wohlbekannt sind. Jüngste Untersuchungen haben jedoch gezeigt, dass dieser Senkeneffekt zurückgehen kann, da der Klimawandel die Niederschläge in gemäßigten und tropischen Regionen erhöht und eine Einbeziehung von Methanemissionen in die Abschätzungen zu einer weiteren Abnahme des Senkeneffekts führen kann.

Unter den im Boden lebenden Tieren sind Termiten wichtige Emittenten von Methan; diese fließen bereits in das globale Methanbudget ein. Zur Rolle, welche andere Bodenbewohner wie Käfer oder Tausendfüßer im Methankreislauf in gut belüfteten Hochlandböden spielen, liegen noch kaum sorgfältige Untersuchungen vor.

Engerlinge

Das von Insektenlarven emittierte Methan, kann genügend wichtig sein, um in den terrestrischen Methanzyklus einbezogen zu werden, sagte Dr. Carolyn-Monika Görres, Bodenökologin am Institut für angewandte Ökologie der Hochschule Geisenheim in Deutschland.

Ihr CH4ScarabDetect-Projekt enthält die ersten Feldversuche zu Methanemissionen von Engerlingen, Larven von Maikäfern aus der Familie der Skarabäiden. Diese Feldstudien am gemeinen Feldmaikäfer Melolontha melolontha - einem beträchtlichen Schädling in der Landwirtschaft und am Waldmaikäfer M. hippocastani zeigten signifikant höhere Methankonzentrationen als unter Laborbedingungen erhalten wurden. Abbildung 2.

Abbildung 2. Die "Belauschen" von Engerlingen zeigt wie deren Aktivitäten mit der Methanproduktion zusammenhängen (Image credit - Carolyn-Monika Görres)

Während erwachsene Tiere nur etwa vier bis sechs Wochen existieren, leben ihre Larven drei bis vier Jahre im Untergrund, fressen an Wurzeln - und produzieren Methan. Dr. Görres entwickelte mit ihrem Team ein System von akustischen Sensoren, mit denen sie die unterirdischen Engerlinge überwachten und aufzeichneten, wenn sich diese bewegten, fraßen und kommunizierten. Das Ziel war es, die Larven "abzuhören", ohne sie zu stören, um zu sehen, wie sich ihre Aktivitäten auf die Messung des Methanflusses auswirken.

Es dürfte vielleicht nicht ganz so einfach sein zu behaupten, dass Engerlinge indem sie Methan emittieren, die Kapazität des Bodens als Methansenke reduzieren. sagte Dr. Görres.

Die Larvenemissionen schaffen günstige Bedingungen für methanverbrauchende Mikroorganismen. Und sie ist der Meinung, dass der Boden längerfristig ein bessere Methansenke werden könnte, wenn Larven entfernt würden oder, wenn sie ihre Methanemissionen in bestimmten Phasen ihres Lebenszyklus verringerten, da die Mikroorganismen dann auf atmosphärisches Methan als Nahrungsquelle umschalten würden.

"Betrachtet man das gesamte Methanbudget, so gibt es keinen großen Unterschied zwischen den (gesamten) globalen Methanemissionen und dem (gesamten) globalen Methanverbrauch. Wenn wir also die Kapazität von (Hochland-) Böden als Senken erhöhen können, bekommen wir die Möglichkeit die Methankonzentration in der Atmosphäre zu reduzieren“, sagte Dr. Görres.

Eine Zusammenfassung woher die globalen Methanemissionen stammen ist in Abbildung 3 dargestellt.

Abbildung 3. Globale Methanemissionen zwischen 2003 und 2012 haben 730 Teragramm (1000 Milliarden Gramm) im Jahr erreicht. Unsicherere Angaben sind in einem helleren Farbton dargestellt. (Image Credit Horizon).


* Dieser Artikel wurde ursprünglich am 7. Jänner 2020 von Rex Merrifield in Horizon, the EU Research and Innovation Magazine unter dem Titel Trees and doodlebugs emit methane – the question is, how? publiziert. Der unter einer cc-by-Lizenz stehende Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt.


Weiterführende Links

Artikel im ScienceBlog:


 

Redaktion Thu, 09.01.2020 - 07:43

2019

2019 Redaktion Wed, 20.03.2019 - 01:05

Die Klimadiskussion – eine, die nirgendwo hinführt.

Die Klimadiskussion – eine, die nirgendwo hinführt.

Do, 26.12.2019 — Matthias Wolf

Matthias WolfIcon Politik & GesellschaftDie Klimadiskussion wird, nicht zuletzt befeuert durch die FFF- (Fridays for Future) Bewegung, immer hitziger. Zwei ›Lager‹ haben sich gebildet, die einander gegenseitig unterstellen, in allem, was sie sagen, daneben zu liegen; Wörter wie ›Grabenkampf‹ und ›Gesellschaftsspaltung‹ drängen sich auf. Exemplarisch für die gesamte öffentliche Debatte kann eine jüngst auf ServusTV geführte Diskussion im Talk im Hangar-7 stehen, die hier besprochen wird. Was keiner Seite in den Sinn kommt: sie können durchaus beide recht haben mit ihren Vorhaltungen, denn beide können daneben liegen – was nach Meinung des Autors der Fall ist und hier nachzuweisen versucht werden soll. Der folgende Text nimmt Bezug auf die Fernsehdiskussion, die man hier nachschauen kann (aber nicht unbedingt muss, um folgen zu können).

Der jüngste Talk im Hangar-7 unter dem Titel ›Politik verschläft Klimaschutz: Wachstum um jeden Preis?‹, hatte eine Gruppe von Klimabewegten auf der einen sowie Vertreter von Liberalismus und Wirtschaft auf der anderen Seite geladen; er kann stellvertretend für die gesamte gesellschaftliche Debatte als mahnendes Beispiel dienen: sie führt nirgendwohin.

Kurzzusammenfassung: Die Fraktion der Klimabewegten argumentiert immer wieder, dass wir das Gesellschaftssystem ›umbauen‹ müssten – und zwar rasch! – und insbesondere, dass der Kapitalismus an der Misere schuld sei. Die (selbstgefühlten) ›Realos‹ halten dagegen, dass einzig der Kapitalismus in der Lage wäre, das Problem zu lösen.

Spoiler: Beide Lager vermengen unterm Strich im Eifer des Gefechts munter Richtiges mit Halbrichtigem und Falschem und greifen letztendlich zu kurz.

Die Argumente

Analysieren wir zuerst, wo die Argumentationslinien richtig liegen und wo nicht.

Die Klimabewegten

Insbesondere eine junge Jus-Studentin argumentiert mit Herzblut für die Demokratie, die allerdings Lösungen hervorbringen müsse. Die vom Moderator immer wieder gestellte Frage, was, wenn sich keine Mehrheiten fänden, scheint ihr so unvorstellbar, dass sie ihr völlig sinn- und inhaltsleeres Ausweichen bzw. die dann doch von ihr angedeutete Entsorgung eben jener von ihr selbst hochgelobten Demokratie selbst nicht erkennt. Bei aller Sympathie: Studenten sind eben keine erfahrenen Krisenmanager mit Überblick und Sachkenntnis. Leuchtmittel und Staubsauger leistungszubegrenzen, um den Stromverbrauch zu senken, aber gleichzeitig die Gesellschaft ins E-Auto Abbildung 1: Prognose des weltweiten Energieverbrauchs. (Quelle: Energy Information Administration) setzen zu wollen, ist ein Widerspruch in sich, auch wenn das als nur scheinbar hingestellt werden soll. (Abbildung 1)

Durchaus richtig liegt sie mit dem Appell, eigenes Zögern nicht mit der Inaktivität anderer begründen zu können. Allein, sie zieht die falschen Schlüsse daraus: es geht nicht darum (und ist dem Planeten völlig egal!), aktiv zu werden um des aktiv Werdens Willen – es muss schon auch das Richtige getan werden!

Gänzlich falsch ist die Forderung nach einem Umbau der Gesellschaft: So etwas würde – selbst, wenn man Erfolgsaussichten unterstellte! – Jahrzehnte dauern. Zeit, die wir nicht haben; somit stellt sich die Frage auch nicht. Die Situation ist vergleichbar mit der eines Kapitäns, der feststellt, dass er mit seinem Containerfrachter 100sm von der Kurslinie abgekommen ist: Er kann nicht dorthin ›springen‹, wo er sein müsste. Er kann nur eine Kurskorrektur anordnen, damit das Ziel von der jetzigen Position aus noch erreicht wird. Ähnlich geht es uns: den ›entwickelten‹ Gesellschaften einen Totalumbau bis, bildlich gesprochen, 31.12. verordnen zu wollen ist nichts anderes als der Versuch, den Frachter 100sm zu versetzen. Vielleicht sogar aus der richtigen Motivation, das mag schon sein, aber nichtsdestotrotz völlig sinnlos, weil es aus prinzipiellen Gründen nicht einmal ansatzweise gelingen kann. Und schlimmer noch: schon der Versuch würde dringend benötigte Kapazitäten binden.

Die Gegenseite

Die Vertreter von Wirtschaft und Liberalismus halten dagegen, die Erfahrung lehre, dass nur der Kapitalismus in der Lage sei, derartige Probleme überhaupt zu stemmen. Insoweit liegen sie richtig: alles Oktroyierte führte in der Vergangenheit auf die eine oder andere Weise letztendlich ins Desaster. Und zwar egal, wie ›edel‹ die jeweilige Anfangsidee auch war. Völlig richtig ist, dass so oder so in die Bewältigung des Klimawandels gewaltige Summen fließen werden müssen, die jemand erwirtschaften muss, was ausschließlich und nur dem Kapitalismus überhaupt zugetraut werden kann. So weit, so stimmig.

Wo sie nicht richtig liegen, ist, den Vorschlag einer CO₂-Besteuerung als ›Planwirtschaft‹ zu bezeichnen. Eine CO₂-Steuer hat mit Planwirtschaft, wo Produktionsmengen und Preise bis auf Betriebsebene hinunter von oben dekretiert werden, nicht einmal in Ansätzen zu tun und die Vorhaltung soll lediglich das Konzept schon im Vorfeld diskreditieren. Leider eine zutiefst unseriöse Argumentattrappe.

Ebenfalls falsch (das ist jetzt weniger auf die Fernsehdiskussion als auf die allgemeine Debatte bezogen) liegt die gesamte Fraktion damit, ständig den wissenschaftlichen Erkenntnisstand in Zweifel zu ziehen. Es ist, im Gegenteil, sogar bestürzend ›schlicht‹, weltweite Jahrzehnte-Verschwörungen 100 000er zu unterstellen, Ergebnisse zu leugnen und/oder völlig Irrelevantes ins Treffen zu führen. (Um ein Beispiel zu nennen: ›Klimawandel gab es immer; er hat natürliche Ursachen.‹ Ja, und? Selbst wenn, was würde das am aktuellen Problem ändern? Aber ich kann Sie beunruhigen: die aktuelle Erwärmung ist, nach allem, was wir sagen können, von uns Menschen verursacht.)

Persönlich stimmt es mich zutiefst traurig, dass insbesondere Liberale – die sich selbst, sprechen wir's doch aus, intellektuell und an Informationsbereitschaft und -fähigkeit für überlegen halten – auch den dümmsten Schmonzes unhinterfragt weiterverbreiten, ohne irgendetwas dabei zu merken. Es ist geradezu verblüffend, in welch simpel gestrickte Konstruktionen sie sich mitunter versteigen, wenn man in Diskussionen beginnt, ihre Antithesen wissenschaftlich zu zerlegen. Motto: Es kann nicht sein, was nicht sein darf.

Und das bringt mich zum Hauptkritikpunkt: Dass von allen Pfeilen im Köcher nur der Kapitalismus das Problem erfolgreich angehen kann, stimmt. Was aber nicht stimmt, ist, dass sich die angesprochene Klimaproblematik im Kapitalismus bzw. seiner Wirtschaftsform ›Markt‹ sozusagen ›von selbst‹ regeln würde – es kann gar nicht stimmen.

Was leistet der Markt – und was nicht?

Und zwar, weil es das Wesen des Marktes in seinem Kern verkennt: Markt ist geeignet, ein Wirtschaften unter dem Diktat der ›knappen Ressource‹1 zu gewährleisten, weil sich ein Preis bildet, der sicherstellt, dass die zu einem Zeitpunkt zur Verfügung stehenden Ressourcen jeweils den ›höchstwertigen‹ Verwendungen zugeführt werden.

Nash-Gleichgewichte

Definiert von John Forbes Nash jr. (dessen Leben in ›A Beautiful Mind‹ verfilmt wurde. Sehenswert!)

Nash-Gleichgewichte, ein Begriff aus der Spieletheorie, stellen sich ein, wenn Gleichgestellte Eigeninteressen verfolgen. Es handelt sich um selbststabilisierende, suboptimale Gleichgewichtszustände, die nur noch schwer oder gar nicht verlassen werden können. Die Wikipedia nennt das ›Gefangenen-Dilemma‹ als Beispiel, aber ein anderes ist vielleicht viel griffiger:

Szenario: ein Strand, zwei Eisverkäufer. Optimal für alle wäre, wenn ein Verkäufer bei ¼ der Strandlänge stünde, der andere bei ¾. Abbildung 2a: Optimale Konstellation. (Bild: Autor) Dann würden beide gleich viel ver­kau­fen, kein Weg wäre für einen Eis­käufer länger als ¼ der Strandlänge.

Schnell kommt einer auf die Idee, sich 2m nä­her zur Mitte zu stellen, weil er da­durch dem anderen etwas von seinem ›Einzugsgebiet‹ abzwackt. Der andere merkt das, denkt sich ›nicht mit mir‹ und rückt 4m näher zur Mitte. Ende vom Lied: Abbildung 2b: Konstellation nach Erreichen des Nash-Gleichgewichts. (Bild: Autor)beide stehen Rücken an Rücken in der ½ des Strandes und verkaufen wieder gleich viel Eis (selbststabilisierend). Aber weniger als vorher, weil vielen Gästen an den Enden des Strandes der Weg jetzt zu lang wurde und sie lieber auf das Eis verzichten (suboptimal).

Für diese Entdeckung erhielt Nash 1994 den Alfred-Nobel-Gedächtnispreis für Wirtschaftswissenschaften3. Er erklärt spieletheoretisch, wieso eine Allmende (Gemeinschaftsalm) unausweichlich zur Übernutzung bis zur Zerstörung führt: weil jeder Spieler sein Ergebnis optimieren muss und keiner das Gesamtergebnis ›auf dem Schirm‹ hat.

Ist eine Ressource aber nicht ›knapp‹ – oder scheint es nicht zu sein – kann das Regelinstrument Markt nur versagen, weil die unbegrenzte (›freie‹) Ressource keinen Preis hat; sie ist gratis. Ohne hier allzusehr ins Detail gehen zu wollen: dieses Versagen wird in der ›Tragödie der Allmende‹ [1] sichtbar. Was sich einstellt – einstellen muss! – sind so genannte ›Nash-Gleichgewichte‹, die selbststabilisierend aber suboptimal sind. (Siehe Kasten.) Das ist, was wir auf oberster Ebene, jener der Staaten, beobachten und der Grund, warum ein Klimagipfel nach dem anderen scheitert.

Was wäre das Richtige?

Weder kann noch will der Autor versuchen, die Frage endrichtig zu beantworten. Aber ein paar Punkte seien skizzenhaft genannt – frei angelehnt an das ›Pareto-Prinzip‹ [2], nach dem man mit 20% des Aufwandes 80% des Effekts erzielt.

Es kann nicht darum gehen, die Gesellschaft zu verändern. Gesellschaften verändern sich zwar, aber jeder Eingriff von oben oder außen kann nur zu sozialen Unruhen führen – die sofort alles lähmen und so wieder das Ergebnis gefährden würden. (Aktuelles Beispiel: die ›gilets jaunes2 in Frankreich.) Es muss darum gehen, der Gesellschaft ihre materiellen Grundlagen auf nachhaltige Weise bereitzustellen – selbst, wenn das für Manche ein Reizwort ist. Bildlich gesprochen müssen wir die Bobbahn umbauen, nicht den Bob.

Der Ansatzpunkt

Der Hebel wäre also, die Atmosphäre von einer freien in eine knappe Ressource zu verwandeln. Übersetzt auf das Kapitalismus-Instrument Markt: sie muss einen Preis bekommen!

Das wurde in der Vergangenheit bereits mit der Etablierung eines Marktes von CO₂-Zertifikaten (leider handwerklich kurz gegriffen) versucht [3]; in diesem Punkt liegen die Klimabewegten also grundsätzlich richtig. Aktuell wird eine Erhöhung der Preise angestrebt [4] (was natürlich wieder ein Eingriff ist und somit aus liberaler Sicht eine Niederlage. Allein, a) mir fällt auch nichts Besseres ein und b) müssen wirtschaftlich Berufenere beurteilen, ob das in der angedachten Weise funktionieren kann. Ich bin da überfragt; ich kann nur sagen: grundsätzlich halte ich den Gedanken für richtig.)

Raus aus Kohlenstoff – und zwar mit oberster Priorität.

Insbesondere heißt Klimaschutz CO₂-Emissionen abzusenken. Zuerst müssten die Kohlekraftwerke vom Netz (siehe Abbildung 3), dann Gaskraftwerke. Wenn das bedeutet, dass wir Kernkraftwerke laufen lassen müssen, um die Grundlast bereit zu stellen, dann ist das zur Kenntnis zu nehmen [5]. Das verschafft uns die Zeit, die wir benötigen, um den Ausbau der Erneuerbaren, der Netze, der Speicher und der dezentralen Versorgung vorzunehmen. Abbildung 3: Absolute und relative Anteile der einzelnen Energieerzeugungsarten. (Bild: Wikimedia)(Natürlich spricht nichts dagegen, den Ausbau sofort anzugehen. Aber die Hoffnung, in wenigen Jahren 75 oder so Prozent der (weiter wachsen müssenden! – siehe Abbildungen 1 & 3) Energieversorgung so bereitstellen zu können, ist völlig unbetamt und von Sachkenntnis ungetrübt.)

Energie

Andere Energiequellen müssen erschlossen werden, wie Fusion und/oder alternative Kernkraftkonzepte (langfristig). Selbstverständlich auch völlig dezentrale Energieerzeugung, wie beispielsweise, dass alle neu errichteten Gebäude sich so weit es geht selbst mit Energie versorgen und sich intelligent mit einander vernetzen.

Obwohl das Meiste davon natürlich nur langfristig wirkt, würde es uns insgesamt in die Lage versetzen, Schwellenländern dann fertige Technologien in die Hand zu geben, wenn diese sie brauchen. Wer, außer uns, die ›1. Welt‹, hätte denn die Kapazitäten dazu? Denn ein weiterer, in der öffentlichen Debatte gern übersehener Punkt ist ja, dass aufstrebende Gesellschaften auch einen geradezu unersättlichen Energiehunger entwickeln. Auch das ist eine tickende Bombe, die es zu entschärfen gilt. Und am Beispiel Indien, wo sich aktuell 370 Kohlekraftwerke in Planung oder Bau befinden  [6], sieht man, dass das Hemd immer noch das ist, was es immer war: näher als der Rock.

Verkehr

Ein Spezialfall ist der Sektor Verkehr (bei uns immerhin verantwortlich für 25% der Emissionen): Viel sinnvoller als nur auf E-Autos (die schmutziger sind, als die Befürworter das wahrhaben wollen) zu setzen wäre es, CO₂-neutrale Kraftstoffe Abbildung 4: Klimarelevante Auswirkungen von C.A.R.E Diesel. Allerdings sind nicht alle Auswirkungen gleich. Zum Beispiel geht man davon aus, dass Aerosole (Feinstaub) kühlend auf die Atmosphäre wirken. (Bild: Toolfuel GmbH)zu entwickeln (was das atmosphärische CO₂ zwar nicht senken, aber wenigstens nicht noch weiter befeuern würde) und so den gesamten Verkehr zu neutralisieren. Das sollte für Schiff / Straße / Flugverkehr gleichermaßen in relativ kurzer Zeit machbar sein (was immer noch eher ›Jahrzehnte‹ als ›Jahre‹ heißt, denn so etwas will erst einmal im großen Maßstab ausgerollt werden). Das würde, nebenbei erwähnt, auch die Transport-Bombe entschärfen, die die Globalisierung im Kofferraum liegen hat.

Entwicklung alternativer Techniken sind mit Hochdruck voranzutreiben, aber man darf dabei nicht auf den Überblick vergessen! Das batteriegestützte E-Auto wird vermutlich seinen Platz haben (bei der aktuellen Akku-Technik habe ich Zweifel daran, dass es das sollte. Aber auch hier wird die Technik nicht stehenbleiben.) Aber auf diese einzige Karte zu setzen scheint mir mit an Sicherheit grenzender Wahrscheinlichkeit kontraproduktiv. Zu begrenzt ist (wenigstens derzeit) der sinnvolle Einsatzbereich. Auch Wasserstoff wird seinen Platz haben – wobei ich nicht der Meinung bin, dass ausschließlich elektrolytische Herstellung infrage kommt. Vielmehr gilt es, CO₂-Abscheidetechniken zu entwickeln, sodass wir auch katalytisch aus fossilen Trägern Wasserstoff gewinnen können (Das würde auch schlagartig H₂ von einer reinen, verlustbehafteten Speicherform in eine Energiequelle verwandeln. Das dabei – ebenso wie bei anderen Prozessen! – entstehende CO₂ können wir abzuscheiden und im Boden einzulagern lernen.)

Fazit

Die Liste möglicher und sinnvoller Ansatzpunkte ließe sich schier endlos fortsetzen. Leider zeigt bereits diese kurze auf, wie verengt der Blick der Spitzenpolitik, aber auch der Interessensvertreter zu sein scheint, die sich darin gefallen, operative Hektik vorzutäuschen und sich auf punktuelle Maßnahmen konzentrieren. Im guten Fall bringen sie wenig (E-Auto), im schlechten sind sie dem Ziel abträglich (Energiewende – jedenfalls so, wie von Deutschland auf Schiene gesetzt). Oft sind sie einfach auch nur ein Schwindeletikett: Stichwort ›Klimanotstand‹ in der EU – einer der gar nicht so vielen Regionen weltweit, in denen es mit an Sicherheit grenzender Wahrscheinlichkeit gar keinen geben können wird.

Trotz alledem bin ich bin unerschütterlicher Optimist und behaupte, wir stecken mitten im Lösungsprozess – es sieht nur nicht für alle danach aus. Für völlig verkehrt halte ich das Panikschüren von beiden Seiten: Die Einen, die behaupten, dass nichts getan würde und in den Raum stellen, dass wir in 10 Jahren gegrillt würden ebenso wie die Anderen, die business as usual fordern und den Rückfall ins Mittelalter an die Wand malen.

Was wir brauchen, ist Aufbruchsstimmung, nicht Resignation. Und schon gar nicht eine weitere Gesellschaftsspaltung.


Endnoten

1 Von einer ›knappen Ressource‹ spricht der Wirtschafter, wenn zu einem Zeiptunkt nicht genügend einer Ressouce zur Verfügung steht, um alle Anfragen gleichzeitig zu bedienen.

2 Die ›Gelbwesten-Bewegung‹ in Frankreich, die nach massiven Treibstoffpreiserhöhungen begann, das Land durch Demonstrationen und Streiks regelrecht ins Chaos zu stürzen.

3 Landläufig ›Wirtschaftsnobelpreis‹.


Nachweise und weiterführende Links

[1] Peter Schuster: Die Tragödie des Gemeinguts

[2] Peter Schuster: Wie erfolgt eine Optimierung im Fall mehrerer Kriterien? Pareto-Effizienz und schnelle Heuristik

[3] Wikipedia: Emmissionsrechtehandel

[4] t-online – AFP: Ein Preis für CO2 – was kostet uns das Klima?

[5] Helmut Rauch: Ist die Kernenergie böse?

[6] natur.de – Nadja Podbregar: Setzt Indien weiter auf Kohle?


 

mat Wed, 25.12.2019 - 08:55

Comments

Alternsforschung: Proteine im Blut zeigen Ihr Alter an

Alternsforschung: Proteine im Blut zeigen Ihr Alter an

Do, 19.12.2019 — Francis S. Collins

Francis S. CollinsIcon MedizinAltern dominiert als Risikofaktor für eine Reihe chronischer Krankheiten, welche verkürzend auf die Lebenszeit wirken. Die an Mäusen erhobene Hypothese, dass Proteine im Blut auf den Alterungsprozess einwirken, wurde in einer neuen Studie an Blutproben von mehr als 4 200 Personen im Alter von 18 - 95 Jahren untersucht und charakteristische altersabhängige, in Schüben erfolgende Veränderungen im Proteom (d.i die Gesamtheit der Proteine im Blut) beobachtet. Auf Basis von 373 (von insgesamt 3000) altersabhängigen Proteinen wurde eine Proteom-Uhr erstellt , die eine genaue Altersbestimmung von Testpersonen erlaubt. Francis S. Collins - Pionier der Genforschung und seit 10 Jahren Direktor der US-National Institutes of Health ( NIH) - berichtet über diese NIH-unterstützte Studie.*

Wie verändern sich im Alterungsprozess die Spiegel der Proteine im Blut?

Wie lässt sich feststellen, wie alt jemand ist?

Natürlich kann man in dessen Führerschein nachsehen oder nach Anzeichen von Gesichtsfalten und grauem Haar suchen. Wie allerdings Forscher in einer eben veröffentlichten neuen Studie herausgefunden haben, kann man der richtigen Antwort auch durch eine Blutuntersuchung ziemlich nahe kommen.

Das mag überraschend erscheinen. In einer kürzlich durchgeführten Studie, die im Journal Nature Medicine veröffentlicht wurde [1], gelang es einem NIH-geförderten Forscherteam jedoch, das Alter von Personen recht zuverlässig zu bestimmen, indem sie Blutproben auf die Konzentration von einigen hundert Proteinen untersuchten. Die Ergebnisse bieten wichtige neue Einblicke in das, was geschieht, wenn wir älter werden. Beispielsweise weist das Team darauf hin, dass der biologische Alterungsprozess nicht gleichförmig verläuft, sondern sich zeitweise zu beschleunigen scheint - wobei die größten Schübe im Durchschnitt im Alter um die 34, 60 und 78 Jahre auftreten.

Diese Ergebnisse deuten darauf hin, dass es eines Tages könnte möglich werden könnte mit Hilfe einer Blutuntersuchung Personen zu identifizieren, die biologisch schneller altern als andere (Abbildung 1). Solche Menschen wären bereits in jüngeren Jahren einem Risiko für Herz-Kreislauf-Erkrankungen, für Alzheimer-Krankheit, degenerative Gelenksveränderungen und andere altersbedingte Gesundheitsprobleme ausgesetzt.

Abbildung 1. Aus einer Blutprobe das Alter bestimmen. (Credit: Adapted from iStock/jarun011)

Darüber hinaus erweckt diese Studie die Hoffnung auf Behandlungen, welche die Proteom-Uhr (Proteom bedeutet hier die Gesamtheit der Proteine im Blut; Anm. Redn.) verlangsamen und Menschen helfen biologisch vielleicht jünger zu sein als es ihrem chronologischen Alter entspricht. Ein solches Szenario mag sich wie reine Phantasie anhören, aber die Forschergruppe der derzeitigen Studie hat schon vor einigen Jahren gezeigt, dass es tatsächlich möglich ist, eine ältere Maus zu verjüngen, wenn man ihr Blut von einer viel jüngeren Maus infundiert.

Die Proteom-Uhr

Diese und frühere Ergebnisse aus dem Labor von Tony Wyss-Coray (Stanford School of Medicine;(Palo Alto, Kalifornien), hatten auf die reizvolle Möglichkeit hingedeutet, dass im Blut junger Individuen bestimmte Substanzen vorhanden sind, die das alternde Gehirn und andere Körperteile verjüngen können. Auf der Suche nach weiteren Hinweisen untersuchte das Wyss-Coray-Team nun, wie sich die Zusammensetzung der Proteine im Blut mit steigendem Alter der Menschen ändert.

Zu diesem Zweck isolierten sie Plasma von mehr als 4.200 gesunden Personen im Alter von 18 bis 95 Jahren. Die Daten von mehr als der Hälfte der Teilnehmer verwendeten die Forscher dann, um eine Proteom-Uhr des Alterns zu erstellen. Diese Uhr konnte das chronologische Alter der verbleibenden 1.446 Studienteilnehmer innerhalb gewisser Grenzen genau vorhersagen. Die besten Vorhersagen basierten dabei auf nur 373 der insgesamt fast 3.000 mit der Uhr korrelierten Proteine.

Als weitere Validierung konnte die Proteom-Uhr auch das korrekte chronologische Alter von vier Personengruppen zuverlässig vorhersagen, die nicht an der Studie teilgenommen hatten. Interessanterweise war es möglich, eine vernünftige Aussage über das Alter bereits auf Grundlage von nur neun der aussagekräftigsten Proteine ​​der Uhr zu treffen.

Rolle im Alterungsprozess

Die Ergebnisse zeigen, dass mit dem Alter charakteristische Veränderungen im Proteom auftreten und wahrscheinlich wichtige und bisher unbekannte Auswirkungen auf die Gesundheit haben. Die im Blutkreislauf zirkulierenden Proteine stammen ​​schließlich nicht nur aus Blutzellen, sondern auch aus Zellen im gesamten Körper. Interessanterweise berichten die Forscher, dass Menschen, die aufgrund ihrer Blutproteine ​​biologisch jünger als ihr tatsächliches chronologisches Alter erschienen, auch bei kognitiven und physischen Tests bessere Ergebnisse erzielten.

Die meisten von uns betrachten das Altern als einen graduellen, linearen Prozess. Die Ergebnisse der Proteomstudie legen jedoch nahe, dass biologisch gesehen das Altern einem komplexeren Muster folgt. Einige Proteine ​​stiegen mit der Zeit allmählich auf fast lineare Weise an oder nahmen ab. Aber die Spiegel vieler anderer Proteine ​​veränderten sich mit der Zeit wesentlich stärker. Beispielsweise blieb ein neuronales Protein im Blut bis zum Alter von etwa 60 Jahren konstant und stieg dann an. Warum das so ist, muss noch geklärt werden.

Wie bereits erwähnt, konnten die Forscher zeigen, dass der Alterungsprozess in einer Reihenfolge von drei Schüben abläuft. Wyss-Coray sagte, es sei besonders interessant, dass der erste Schub in der frühen Lebensmitte um das 34. Lebensjahr stattfindet, noch lange bevor sich die üblichen Anzeichen des Alterns und die damit verbundenen Gesundheitsprobleme bemerkbar machen.

Dass Männer und Frauen unterschiedlich altern, ist allgemein bekannt; die Proteomstudie ergänzt die diesbezüglichen Beweise. Rund zwei Drittel der Proteine, die sich mit dem Alter veränderten, zeigten auch Geschlechtsunterschiede. Der Effekt des Alterns auf die wichtigsten Proteine ​​der Uhr ist jedoch viel stärker ist als die geschlechtsspezifischen Unterschiede, daher kann die proteomische Uhr das Alter bei allen Menschen genau vorhersagen.

Fazit

Insgesamt zeigen die Ergebnisse, dass Proteine im Blut ein brauchbares Maß für das chronologische und biologische Alter einer Person darstellen können und dass - zusammen mit früheren Studien von Wyss-Coray - diese Proteine eine aktive Rolle im Alterungsprozess spielen können. Wie Wyss-Coray sagt, will sich sein Team nun intensiver mit den Befunden befassen, um mehr über die Herkunft bestimmter Proteine ​​im Blutkreislauf zu erfahren, darüber was sie für unsere Gesundheit bedeuten und wie man die Proteom-Uhr möglicherweise zurückdrehen kann.


[1] Lehallier B, et al., Undulating changes in human plasma proteome profiles across the lifespan. Nat Med. 2019 Dec;25(12):1843-1850. (Das Paper ist nicht frei zugänglich; Anm. Redn.)


* Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 17. Dezember 2019) im NIH Director’s Blog unter dem Titel: "Aging Research: Blood Proteins Show Your Age" https://directorsblog.nih.gov/2019/12/17/aging-research-plasma-proteins-show-your-age/ und wurde geringfügig für den ScienceBlog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

Die Horvath'sche Uhr zur Altersbestimmung: Norbert Bischofberger, 24.05.2018: Auf dem Weg zu einer Medizin der Zukunft.


 

Redaktion Thu, 19.12.2019 - 05:51

Transhumanismus - der Mensch steuert selbst seine Evolution

Transhumanismus - der Mensch steuert selbst seine Evolution

Do, 12.12.2019 — Inge Schuster

vIcon Gehirn

Unter der Bezeichnung Transhumanismus sind In den letzten Jahrzehnten mehrere, von einander nicht scharf abgegrenzte weltanschauliche Strömungen vor allem im angelsächsischem Raum entstanden, die mit Hilfe von Wissenschaft und Technologie die Grenzen des biologischen Menschen überwinden und seine Fähigkeiten erweitern möchten. Alle diese Ideologien verbindet die Erwartung, dass damit die Chancen auf ein erfülltes Leben erhöht werden. Dies reicht von Gen-Verbesserung, Umkehrung des Alterungsprozess bis zur Verschmelzung von Mensch und Maschine (Cyborg) und darüber hinaus zu einer nichtbiologischen neuen posthumanen Spezies. Der folgende Überblick gibt meine Sicht als Biowissenschafter - jedoch ohne ethische Wertung - wieder.*

Im Verlauf der Evolution hat der Mensch großartige physische und geistige Fähigkeiten erworben - dass diese noch verbesserbar sind, ist unbestritten. Unter dem Begriff "Transhumanismus" sind In den letzten Jahrzehnten vor allem im angelsächsischem Raum mehrere, von einander nicht scharf abgegrenzte weltanschauliche Strömungen entstanden, die - an die Antike und später an den Renaissance-Humanismus und die Aufklärung anknüpfend - in Summe die Verbesserung des Menschen - das Human Enhancement - zum Ziel haben.

Nach Meinung der Transhumanisten ist der Mensch die erste Spezies, welche die eigene Evolution nicht mehr dem Zufall zu überlassen braucht, sondern - quasi im Zeitraffer - selbst planen und steuern kann.

Ziele der selbstgesteuerten Evolution

Basierend auf den Erkenntnissen der modernen (Natur)Wissenschaften und unter Einsatz bereits etablierter, noch zu realisierender oder auch erst in Zukunft denkbarer Technologien sollen die Grenzen der physischen und intellektuellen Möglichkeiten des Menschen erweitert und damit seine Chancen auf ein erfülltes Leben erhöht werden. Es geht um das Erreichen

  • einer höchstmöglichen Intelligenz,
  • einer höchstmöglichen Lebensdauer und
  • eines größtmöglichen Wohlbefindens.

Für eine derartige Optimierung und - nach eigenen Vorstellungen erfolgenden - Umformung des menschlichen Organismus, sehen Transhumanisten gezielte technische und genetische Eingriffe vor. Sie wollen damit den Alterungsprozess stoppen, degenerative Krankheiten ausmerzen, die mentale Leistungsfähigkeit steigern und insgesamt das Leben verbessern und verlängern. Das sind Vorhaben, welche zweifellos weitgehende Zustimmung finden; die weltweite Forschung hat dazu bereits eine Fülle neuer Erkenntnisse, Konzepte und Anwendungsmöglichkeiten geliefert.

Dubioser sind Pläne der sogenannten Kryoniker:

Menschen, die nicht auf lebensverlängernde Praktiken warten können, weil sie vorher an heute noch nicht heilbaren Krankheiten sterben, wird eine Zwischenlösung in Aussicht gestellt. Nach Meinung der Kryoniker tritt der Tod ja nicht mit dem Aufhören von Herzschlag und Gehirntod ein, sondern erst dann, wenn die Zellen des Körpers bereits irreversibel geschädigt sind. Um dies zu verhindern, werden "Patienten" unmittelbar nach ihrem klinischen Tod in flüssigem Stickstoff bei -196 °C (vitrifiziert) gelagert, mit der Zusage wieder "geweckt" zu werden, wenn der Fortschritt der Wissenschaft eine Heilung von der einst tödlichen Krankheit verspricht. Für dieses Verfahren existieren bereits mehrere Anbieter. Im größten dieser Unternehmen, der bereits 1972 in Arizona gegründeten Alcor Life Extension Foundation, lagern aktuell 171 solcher "Patienten" und 1269 Personen haben die legalen und finanziellen Vorkehrungen für den - nach ihrer Überzeugung - Zwischenzustand "nicht lebendig - nicht tot" getroffen.

Völlig utopisch

muten Visionen an, wohin sich der Mensch schließlich entwickeln soll. Insgesamt soll die Natur des Menschen - sein störungsanfälliger Körper, sein verbesserungsfähiges Gehirn - technisch überwunden werden, Mensch und Maschine zum hybriden Mensch-Maschine Wesen, einem sogenannten Cyborg (cybernetic organism) verschmelzen (Abbildung 1).

Abbildung1. Die Verschmelzung von Mensch und Maschine (Bild: pixabay, gemeinfrei)

Mit dem sich exponentiell beschleunigendem technologischen Fortschritt soll - optimistischen Schätzungen führender Transhumanisten zufolge - Künstliche Intelligenz in wenigen Jahren/Jahrzehnten die Leistungsfähigkeit der menschlichen Intelligenz erreicht haben und mit dieser dann zur Super-Intelligenz fusionieren. Ab diesem, als Singularity bezeichneten Zeitpunkt wird sich das menschliche Leben unvorhersehbar, irreversibel verändern. Radikale Transhumanisten gehen davon aus, dass das Gehirn dann in all seinen Funktionen samt dem emergenten Bewusstsein erforscht sein wird, alle seine Inhalte gescannt werden können und mittels eines sogenannten Mind-Upload auf einen anderen, nicht-biologischen Träger (z.B. ein elektronisches Netzwerk) hochgeladen werden können. Am Ende dieser Transformation steht dann ein posthumanes Wesen, eine digitale Kopie, die -losgelöst vom Körper - virtuell praktisch "ewig" weiterexistieren kann.

Das Transhumanismus Manifest

Die unterschiedlichen Strömungen moderater bis radikaler Transhumanisten haben schließlich zu einer gemeinsamen Deklaration zusammengefunden. Der britische Philosoph Nick Bostrom verfasste 1999 zusammen mit dem schwedischen Informatiker und Neurowissenschafter Anders Sandberg das Transhumanistische Manifest, welches von weltweiten Transhumanisten-Gruppen mehrmals umformuliert und in letzter Fassung 2009 von Humanity+ - dem Dachverband der Transhumanisten (siehe nächstes Kapitel) - angenommen wurde. Darin wird die Wahlfreiheit des Einzelnen betont sein Leben nach seinen Vorstellungen zu optimieren, aber auch die Risiken angesprochen, die neue Technologien mit sich bringen können und die moralische Verantwortung gegenüber künftigen Generationen berücksichtigt [1].

Wer sind die Akteure des Transhumanismus?

Den Traum die Grenzen der menschlichen Natur mittels innovativer Technologien zu überschreiten dürfte es seit Anbeginn der Menschheit gegeben haben. Mythen erzählen von Daidalos, der für seine Flucht ein - zumindest für ihn selbst - funktionierendes Fluggerät gebaut hat, vom Titanen Prometheus der das - für die Menschheitsentwicklung essentielle - Feuer zur Erde brachte. Im Mittelalter träumte man vom Jungbrunnen, der dem Altern ein Ende machen sollte, in der Renaissance hat Leonardo da Vinci eine unglaubliche Vielfalt neuartiger Maschinen zur Erweiterung der Tätigkeitsfelder des Menschen entworfen. Die Liste ließe sich noch sehr lange fortsetzen.

Den Begriff Transhumanismus selbst hat der Evolutionsbiologe, Eugeniker und Philosoph Julian Huxley, (Bruder von Aldous Huxley, dem Verfasser der "Brave New World") 1957 in seinem Buch "New Bottles for New Wine" geprägt. Er versteht darunter den Menschen,

"der Mensch bleibt, aber seine Grenzen überschreitet, indem er neue Möglichkeiten seiner menschlichen Natur und für diese Natur realisiert" [2].

Transhumanistische Vorstellungen blieben lange Spielplatz von Philosophen und Science-Fiction Autoren. Mit den bahnbrechenden Erkenntnissen der Molekularbiologie, mit neuen Technologien der Biotechnologie, bildgebenden Verfahren, neuen Methoden der regenerativen Medizin und insbesondere mit der exponentiellen Steigerung von Computerleistung und immer aussagekräftigeren Algorithmen setzte in den frühen 1980er Jahren die eigentliche Entwicklung des Transhumanismus ein. Kalifornien war das Zentrum, der Einzugsbereich der University of Los Angeles und des Hotspots für Innovationen und Startups, Silicon Valley.

Daraus sind weltweite, sehr einflussreiche ideologische Strömungen geworden; die Zahl der Aktivisten - eine heterogene Mischung u.a. aus Mathematikern, IT-Experten, Physikern, Technologen, Biowissenschaftern und Medizinern ebenso wie aus Philosophen, Ethikern, Ökonomen und auch Journalisten und Science-Fiction Autoren - ist stark gewachsen. (Details dazu in [3]).

Der Dachverband der Transhumanisten,

die World Transhumanist Association (WTA) wurde 1998 von den britischen Philosophen Nick Bostrom und David Pearce gegründet mit dem Ziel: i) die Öffentlichkeit mit neu aufkommenden Technologien vertraut zu machen, ii) die Rechte derer zu verteidigen, die solche Technologien für ihr Human Enhancement in Anspruch nehmen wollen und iii) mögliche Konsequenzen von aufkommenden Technologien vorweg zu nehmen und Lösungen vorzuschlagen. Diese rasch wachsende Einrichtung wurde später in Humanity+ umbenannt und zählt heute rund 6000 Mitglieder. Geschäftsführerin ist derzeit Natasha Vita- More, die Künstlerin, Designerin und Alternsforscherin, Pionierin des Transhumanismus und Professorin an der University of Advancing Technology ist. In ihrer Forschung an dem Modellorganismus Caenorhabditis elegans hat sie kürzlich ein für das Kryonik-Gebiet aufregendes Ergebnis gefunden: die Erinnerung des mikroskopisch kleinen Wurms an antrainiertes Verhalten blieb nach dem Kryokonservieren (Vitrifizieren) und Wiederauftauen erhalten.

Singularity University

Zu den prominentesten und schillerndsten Vertretern der Szene gehört der IT-Experte Ray Kurzweil, der durch Dutzende Erfindungen - u.a. des Flachbett-Scanners, des ersten Sprach-Synthesizers, von Lesegeräten für Blindenschrift und von Bilderkennungssoftware - berühmt und reich geworden ist. Als einer der radikalsten Transhumanisten vertritt Kurzweil die Vision einer schon bald eintretenden Singularität - der Verschmelzung von künstlicher mit menschlicher Intelligenz (siehe oben). Singularität trägt auch die von ihm 2008 gegründete Singularity University im Titel. Diese, in unmittelbarer Nachbarschaft zur Raumfahrtbehörde NASA und zum Mega-Unternehmen Google gelegene Privatuniversität wurde zum Zentrum transhumanistischer Ideologien, zu dem Führungskräfte und Startup-Unternehmer hin pilgern - trotz exorbitanter Gebühren und ohne einen akademischen Abschluss zu erhalten. Diskutiert wird hier mit Wissenschaftern und erfolgreichen Unternehmern aus dem Silicon Valley u.a. über Künstliche Intelligenz, Robotik , Synthetische Biologie, Virtual Reality und es werden Zukunftsideen entwickelt, welche die Welt verändern sollen. Die Singularity University wurde lange Jahre mit Millionenbeiträgen von Google-Alphabet unterstützt. Google, das Unsummen in die Entwicklung der Künstlichen Intelligenz investiert, hat Kurzweil 2012 als Chefingenieur für technische Entwicklung eingesetzt.

Thinktanks wie die Singularity Universität sind auch andernorts entstanden. Dank großzügiger Unterstützungen werden Hunderte transhumanistische Projekte auch an hoch renommierten Universitäten bearbeitet. Fördergelder kommen vor allem von Branchen die von transhumanistischen Visionen zu profitieren hoffen, insbesondere von IT-Branchen (die von diversesten implantierbaren Chips träumen) und auch von Pharmafirmen.

Auf dem Weg zum Cyborg

Wenn der Transhumanismus eine Verbesserung des Menschen durch technische und genetische Eingriffe vorsieht, so ist einiges davon schon heute realisiert. Die Optimierung des menschlichen Körpers durch Medizin und Technologie ist ja nichts Neues. Hilfsmittel zur Milderung/Behebung körperlicher Einschränkungen wie z. B. die Brille gibt es seit Jahrhunderten, Arm- und Beinprothesen reichen in die vorchristliche Zeit zurück.

Neben äußerlich angebrachten Prothesen finden sich im menschlichen Körper zunehmend diverse Ersatzteile - Implantate genannte Endoprothesen - und auch Chips:

Hüft- und Knieprothesen sind besonders bei älteren Personen häufig anzutreffen, künstliche Linsen und Netzhautimplantate geben die Sehkraft zurück, Cochleaimplantate können das Hörvermögen wieder herstellen, Zahnimplantaten ermöglichen wieder fest zubeißen zu können. Herzklappen können durch künstliche Klappen, beschädigte Gefäße durch Kunststoff- und Knorpelgewebe-prothesen ersetzt werden, Herzschrittmacher regen den Herzmuskel zur Kontraktion an, Hirnschrittmacher stimulieren bestimmte Hirnareale und werden u.a. bei Parkinson-Kranken angewandt. Dazu kommen Implantate in der plastischen Chirurgie, wie sie nach Unfällen aber auch für kosmetische Zwecke eingesetzt werden. Implantiert werden auch Depots von Arzneimitteln, die dann den Wirkstoff kontinuierlich über lange Zeit abgeben.

Transplantationen von Organen sind heute an der Tagesordnung. Aus Mangel an Spenderorganen arbeiten Forscher weltweit daran Organe wie Herz und Leber aus Stammzellen eines Patienten zu züchten (und auch im 3D-Drucker aufzubauen). Für Hauttransplantate funktioniert dies bereits seit längerer Zeit.

Ohne weiter darauf einzugehen: durch Genmanipulation und Genselektion wird ein Großteil der Krankheiten und auch Alterungsprozesse verhindert werden können; gentechnische Eingriffe (wenn auch noch nicht in die Keimbahn) sind bereits Realität geworden.

Schon lange Realität sind künstliche Befruchtung, Präimplantationsdiagnostik, Geschlechtsumwandlungen, etc. Mit Hilfe von Arzneimitteln können Gedächtnisleistungen und Lernvorgänge verbessert werden, kognitive Störungen gemildert.

Bereits eingesetzt werden direkte Gehirn-Computer- und Gehirn-Maschine-Schnittstellen. Körperlich behinderte Menschen können so durch Gedanken Geräte steuern und Prothesen bewegen. Einen Schritt weiter geht der Unternehmer Elon Musk (CEO von Tesla, Gründung/Beteiligung u.a. bei PayPal, dem privaten Raumfahrtsunternehmen SpaceX und SolarCity): er hat das Unternehmen Neuralink gegründet, das daran arbeitet Gehirnwellen direkt mit Künstlicher Intelligenz zu verbinden.

Chips, wie sie üblicherweise zur Identifizierung von Haustieren implantiert werden, stehen wegen Sicherheitsrisiken und möglichen Nebenwirkungen bei Anwendung am Menschen unter heftiger Kritik. Auf der positiven Seite stehen Nano-Chips, welche die Körperfunktionen überwachen und rechtzeitig Alarm schlagen, um Therapien zu ermöglichen. Der erste CHIP (RFID-Transponder) wurde übrigens bereits 2002 von der US-amerikanischen Food and Drug Administration (FDA) zugelassen. Unter die Haut am Arm implantiert kann dieser beispielsweise den Zutritt zu Räumen ermöglichen.

Einige der aufgezählten Anwendungen sind in Abbildung 2 zusammengefasst.

Abbildung 2. Neurotechnologien der Rehabilitierung, die auch zum "Enhancement" typischer menschlicher Fähigkeiten nützlich sein können. (Das Bild stammt aus: EP Zehr: The Potential Transformation of Our Species by Neural Enhancement. J Motor Behavior, (2015). 47, 73 -78.und steht unter einer cc-by-nc - Lizenz).

Viele Menschen könnten also auch als Cyborgs bezeichnet werden.

Cyborg nennt sich zumindest der von Geburt an farbenblinde Brite Neil Harbisson, der durch Auftritte in Talk-Shows populär geworden ist. Er zeigt sich dort mit einer am Kopf befestigten Antenne samt Farbsensor, der über einen implantierten Chip Farben aber auch Bilder in Töne umwandelt; damit erweitert er auch die naturgegebene menschliche Wahrnehmung.

Die Verschmelzung von Mensch und Technik ist also bereits voll im Gang. Technologien dienen nicht mehr nur behinderten und/oder kranken Menschen, sie erweitern auch die Fähigkeiten gesunder Menschen. Wir sind also bereits auf dem Weg in eine transhumanistische Gesellschaft.

Was ist machbar?

Vieles, was vor kurzem noch als reine Utopie gegolten hat, ist heute bereits realisiert worden oder in den Bereich des Realisierbaren gerückt. Wenn von der zunehmenden Verschmelzung Mensch-Maschine, Gehirn-Maschine die Rede ist, so sehen wir diese in vielen Aspekten bereits in Gang gebracht.

Die eingangs dargelegten Ziele des Human Enhancement - Erreichen einer höchstmöglichen Intelligenz, einer höchstmöglichen Lebensdauer und eines größtmöglichen Wohlbefindens - werden als realisierbar angesehen, lassen aber viele Fragen offen. Der Mensch als hochkomplexes, dynamisches System ist ja noch kaum verstanden.

Wie werden sich welche Eingriffe auf den Einzelnen, auf die Gesellschaft langfristig auswirken, welche Rückkopplungen können entstehen? Werden mehrere Klassen von Menschen entstehen - unverändert gebliebene, partiell veränderte und stark veränderte, die den anderen dann in allen Belangen haushoch überlegen sind?

Zu diesen Fragestellungen wird weltweit intensiv geforscht, als essentiell betrachtet man dabei die interdisziplinäre Zusammenarbeit, das Zusammenwachsen der neuen Disziplinen Nanotechnologie (Grundlage für alle Techniken auf der atomaren und molekularen Ebene), Biotechnologie (inklusive Gentechnik), Informationstechnologie (mit Elektronik, Robotik, Künstlicher Intelligenz) und Neurowissenschaften (mit dem Endziel des vollen Verstehens der Gehirnfunktion). In die Forschung dieser sogenannten Converging Technologies investieren die USA mehrere Milliarden Dollar auch in Europa erhalten sie milliardenschwere Förderung.

Ist Lebensverlängerung über ein physiologisch determiniertes Limit hinaus möglich?

Auch ein höchstmöglich optimierter Organismus ist den fehlerbehafteten biochemischen Prozessen in seinen Zellen und auch Schadstoffen aus der Umwelt ausgesetzt, die zu Mutationen im Erbmaterial, zu defekten Proteinen, zu gestörten Signalfunktionen, geschädigten Organellen, Zellen und Organen führen. Alle diese Prozesse unterbinden zu wollen, erscheint auch aus dem heutigen physiologisch, biochemischen Wissen kaum machbar.

Ist die kryonische "Zwischenlösung" machbar?

Ist das Vitrifizieren und Wiedererwecken toter Körper mit allen ihren früheren Funktionen machbar?

Was für einzelne intakte Zellen - wie Ei - und Samenzellen - und auch für den früher erwähnten Fadenwurm gilt, der im Besitz seiner Erinnerung erweckt wurde, ist zumindest in naher Zukunft wohl kaum auf den Vielzellenorganismus des Menschen übertragbar. Insbesondere nicht auf die Funktionsfähigkeit des ungemein komplexen Gehirns, mit der ungeheuren Zahl gealterter - da kaum erneuerbarer - Neuronen, die infolge der Vitrifizierung (zur Vermeidung von Kristallbildung) toxischen Kälteschutzmitteln ausgesetzt werden.

Mind Uploading

Einige Transhumanisten träumen davon den mentalen Inhalt des Gehirns auf ein externes Medium zu übertragen - das Mind Uploading -, das dann "ewig" weiterbestehen kann.

Auch, wenn Mammutprojekte wie das Europäische Human Brain Project die Funktionsweise des Gehirns aufklären und mit Hilfe von Modellen das gesamte Hirn simulieren wollen, so reicht das nicht als Basis für den Upload. Die ungeheure Komplexität unserer Denkfabrik resultiert ja nicht nur aus der Architektur und Vernetzung der Nervenzellen (inklusive Wechselwirkungen mit Glia- und anderen Zellen), sondern auch aus der Dynamik mit der elektrische und chemische Signale erzeugt und weitergeleitet werden. Zu den Inhalten des Gehirns gehören auch die Informationen, die es aus Rückenmark und peripherem Nervensystem erhält und schließlich auch die Signale, die unsere Mitbewohner - das Mikrobiom - in das Hirn senden.

Dies alles quantitativ in seiner Dynamik zu erfassen und modellieren zu wollen, erscheint - auch bei weiterhin exponentiell zunehmender Rechnerleistung - ein vielleicht in sehr ferner Zukunft diskutierbares Vorhaben.


[1] Transhumanist Declaration. https://humanityplus.org/philosophy/transhumanist-declaration/ abgerufen am 13.9.2019

[2] Huxley Julian, New Bottles for New Wine, Chatto & Windus, London (1957) https://archive.org/details/NewBottlesForNewWine/page 17 abgerufen am 16.9.2019

[3 ] More Max und Vita-More Natasha (eds),The Transhumanist Reader: Classical and Contemporary Essays on the Science, Technology, and Philosophy of the Human Future. John Wiley & Sons. (2013). https://books.google.at/books?id=YeFo_20rfz0C&dq=Daedalus%3B+or,+Science+and&hl=de&source=gbs_navlinks_s


*Dies ist die verkürzte Version des Artikels "Transhumanismus – Selbstgesteuerte Evolution des Menschen", der eben in Imago Hominis 26 (3) 131 – 140 · ISSN 1021-9803 erschienen ist. https://www.imabe.org/index.php?id=2662


 

inge Wed, 11.12.2019 - 20:18

Die Großhirnrinde verarbeitet Information anders als künstliche intelligente Systeme

Die Großhirnrinde verarbeitet Information anders als künstliche intelligente Systeme

Do, 05.12.2019 — Wolf Singer

Wolf SingerIcon Gehirn

Bereits heute übertreffen künstliche intelligente Systeme in einigen Bereichen die Leistungen des menschlichen Gehirns. In natürlichen Systemen, vor allem in der Großhirnrinde, sind jedoch Verarbeitungsstrategien verwirklicht, die sich in wesentlichen Aspekten von denen künstlicher Systeme unterscheiden. Ein besseres Verständnis natürlicher intelligenter Systeme kann zur Aufklärung der Ursachen von krankheitsbedingten Störungen beitragen und zudem die Konzeption wesentlich effizienterer künstlicher Systeme erlauben. Diese natürlichen intelligenten Systeme besser zu verstehen ist das zentrale Anliegen eines der renommiertesten Hirnforscher Prof. Dr.Dr.hc.mult Wolf Singer (Max-Planck-Institut für Hirnforschung und Ernst Strüngmann Institut für Neurowissenschaften, Frankfurt)*

Bereits heute übertreffen in manchen Bereichen die Leistungen künstlicher intelligenter (KI-) Systeme die von biologischen Systemen. Viele der effizientesten KI-Algorithmen orientieren sich an neuronalen Systemen, doch die Hirnforschung liefert Hinweise dafür, dass in natürlichen Systemen, vor allem in der Großhirnrinde, zusätzliche Verarbeitungsstrategien Anwendung finden, die sich von denen derzeitiger KI-Systeme grundlegend unterscheiden. Die meisten KI-Systeme beruhen auf den in den achtziger Jahren des letzten Jahrhunderts eingeführten „neuronalen Netzen“. Deren Architektur ist in Abbildung 1 skizziert.

Abbildung 1. Architektur eines „deep learning networks“: Die Knoten dieser Netze bestehen aus Schaltelementen, die gewisse Merkmale von Nervenzellen aufweisen - sie summieren die Aktivität der Eingangsverbindungen und geben das Ergebnis an die Knoten nachfolgender Verarbeitungsschichten weiter. © Ernst-Strüngmann-Institut/Singer

Jeder Knoten der Eingangsschicht ist mit vielen Knoten der nächsthöheren verbunden. Die ersten KI-Systeme umfassten nur drei Schichten: eine Eingangsschicht, eine mittlere Schicht („hidden layer“ genannt), deren Aktivität nicht direkt zugänglich sein muss, und eine Ausgangsschicht, die die Aktivitätsverteilung der mittleren Schicht ausliest. Heute sind die leistungsstärksten Netze bis zu hundert Schichten tief. Die besondere Schwierigkeit besteht darin, die Gewichtung der Verbindungen über Millionen von Lernschritten so einzustellen, dass jedes der zu unterscheidenden Eingangsmuster in der Ausgangsschicht zu einem leicht klassifizierbaren Erregungsmuster führt.

Damit solche Netzwerke z. B. zur Mustererkennung eingesetzt werden können, muss man dafür sorgen, dass ein bestimmtes Erregungsmuster der Eingangsschicht zur bevorzugten Erregung eines ganz bestimmten Knotens der Ausgangsschicht führt. Hierzu werden an der Eingangsschicht viele Muster erzeugt und es wird versucht, die Effizienz der Verbindungen zwischen den Schichten durch wiederholte Justierung schrittweise zu verbessern. Je nach Anzahl der zu unterscheidenden Muster und deren Ähnlichkeit kann dies viele Millionen von Justierungs- bzw. Lernschritten erfordern. Hierbei werden die Verbindungen ermittelt, deren Aktivität zu dem gewünschten Ergebnis beiträgt. Diese werden dann verstärkt und die anderen abgeschwächt. Es wird also die Abweichung vom gewünschten Ergebnis, der Fehler, in das Netzwerk zurückgemeldet. Dieser Prozess (back propagation genannt) ist extrem aufwändig und hat in biologischen Systemen keine Entsprechung.

Heutige künstliche Systeme beruhen auf dem gleichen Grundprinzip, umfassen jedoch bis zu 100 Schichten und werden deshalb als „deep learning networks“ bezeichnet. Beherrschbar ist diese riesige Zahl von Verbindungen zwischen den Schichten dank ausgeklügelter Algorithmen, welche die Justierung vornehmen, und dank riesiger Rechenkapazitäten und Datenbanken, die es erlauben, die Systeme mit Millionen von Beispielen zu trainieren.

In natürlichen Systemen sind Netzwerkknoten innerhalb einer Schicht und zwischen den Schichten reziprok miteinander verbunden

Charakteristisch für diese künstlichen Netze ist, dass es keine Verbindungen zwischen den Knoten innerhalb der gleichen Schichten gibt und der Aktivitätsfluss stets nur von den niederen zu den hohen Schichten erfolgt. Wie jedoch Abbildung 2 zeigt, unterscheiden sich künstliche Systeme von den natürlichen in genau diesen Aspekten: Die Knoten einer Schicht stehen über Myriaden von Verbindungen miteinander in Wechselwirkung und der Aktivitätsfluss zwischen den Schichten erfolgt in beiden Richtungen.

Abbildung 2. Stark vereinfachtes Diagramm der Verschaltung von Nervenzellen in der Großhirnrinde. Hier bestehen die Knoten des Netzwerkes aus Modulen von bereits sehr komplexen Schaltkreisen. Diese sind ihrerseits über Myriaden von rekurrierenden Verbindungen (rot) untereinander und über Rückkopplungsschleifen mit den Knoten der vorherigen Schicht gekoppelt. Somit erfolgt der Aktivitätsfluss sowohl horizontal wie vertikal in beiden Richtungen. © Ernst-Strüngmann-Institut/Singer

In biologischen Systemen wird die Effizienz der Verbindungen nach lokalen Regeln justiert. Nervenzellen dienen als Knoten, die viel mehr leisten, als Eingangsaktivitäten zu summieren. Ihre integrativen Eigenschaften werden durch komplizierte hemmende Schaltkreise und zudem durch eine Vielzahl modulierender Eingänge abhängig von der jeweiligen Aufgabenstellung verändert. Auch können die Knoten oszillieren und sich wegen der wechselseitigen Koppelungen in unterschiedlichen Frequenzbereichen synchronisieren. Auf Grund dieser Eigenschaften entwickeln die Neuronen-Netze der Großhirnrinde eine hochkomplexe, nicht-lineare Dynamik, die es erlaubt, sehr hochdimensionale Zustandsräume zu erschließen.

Mit diesen Eigenschaften natürlicher Neuronen-Netze können Rechenoperationen verwirklicht werden, die in bisherigen KI-Systemen nur mit sehr großem Aufwand zu realisieren sind: zeitlich aufeinander folgende Ereignisse lassen sich problemlos miteinander verrechnen, Bezüge zwischen bestimmten Mustermerkmalen können sehr flexibel kodiert werden und wegen der hohen Dimensionalität der Netzwerkdynamik kann mit relativ geringem Aufwand eine sehr große Menge an Information gespeichert werden. Auf diese Weise kann über die aktivitätsabhängige Justierung der Effizienz der reziproken Verbindungen eine riesige Menge von Informationen gespeichert und dasselbe Netzwerk dann zur Interpretation von Sinnessignalen verwendet werden.

Um unser Konzept zu überprüfen, müssen wir die Aktivität einer möglichst großen Zahl von Netzwerkknoten erfassen, Kenngrößen für deren dynamische Wechselwirkungen berechnen und bestimmen, wie diese sich verhalten, wenn gespeichertes „Vorwissen“ mit der jeweils verfügbaren Sinnesinformation verglichen wird. Wir nehmen diese Messungen an nicht-menschlichen Primaten vor, die gelernt haben, visuelle Muster zu unterscheiden, zu erinnern und uns durch Tastendruck das Ergebnis mitzuteilen – ähnlich wie Computerspieler. Während die Tiere die Aufgaben erledigen, erfassen wir mit dauerhaft implantierten Elektroden die Aktivität von Neuronen der Sehrinde. Die Implantation erfolgt in Vollnarkose und läuft genau wie die Implantation von Elektroden bei menschlichen Patienten ab. Die Messungen selbst sind für die Tiere nur wenig belastend und können in der Regel über viele Jahre hinweg ohne weitere Eingriffe vorgenommen werden.

Ausblick

Wir erhoffen uns von diesen Arbeiten ein tieferes Verständnis der neuronalen Prozesse, die unseren kognitiven und exekutiven Leistungen zu Grunde liegen. Unsere Überzeugung ist, dass diese Erkenntnisse den Schlüssel für das Verständnis der Ursachen gestörter neurologischer und psychischer Funktionen und für zukünftige therapeutische Ansätze bergen. Um hier Fortschritte zu erzielen, bedarf es jedoch noch erheblicher Anstrengungen in der Grundlagenforschung. Auch ist zu erwarten, dass ein tieferes Verständnis der Großhirnrindenfunktion dazu beitragen wird, energieeffizientere und flexiblere KI-Systeme zu entwickeln.  Hierfür sind jedoch neue Technologien erforderlich. Es genügt nicht, neuronale Prozesse mit gewaltigem Aufwand digital zu simulieren. Sie müssen direkt in geeigneten Hardware-Modulen implementiert werden, die auch analoge Rechenvorgänge verlässlich bewältigen können.


*Der unter dem Titel "Informationsverarbeitung in der Großhirnrinde" im Jahrbuch der Max-Planck Gesellschaft 2018 erschienene Artikel (https://www.mpg.de/12587759/esi-frankfurt_jb_2018?c=917421 DOI 10.17617/1.7M ) wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier ungekürzt aber ohne Literaturzitate, die im Original nachgesehen werden können


Weiterführende Links

Artikel im ScienceBlog


 

Redaktion Thu, 05.12.2019 - 09:28

Wenn das angepeilte Target nicht das tatsächliche Target ist - ein Grund für das klinische Scheitern von Wirkstoffen gegen Krebs

Wenn das angepeilte Target nicht das tatsächliche Target ist - ein Grund für das klinische Scheitern von Wirkstoffen gegen Krebs

Do, 28.11.2019 — Ricki Lewis

Ricki LewisIcon MedizinDer Entwicklung neuer Arzneimittel geht die Suche nach Zielstrukturen - Targets - voraus, die essentiell in das Krankheitsgeschehen involviert sind und gegen die dann Wirkstoffe designt werden können. Der allergrößte Teil der solcherart gegen Krebserkrankungen entwickelten Stoffe scheitert aber in der klinischen Prüfung, wobei mangelnde Wirksamkeit einer der Hauptgründe ist. Unter Anwendung der CRISPR-Cas Technologie deckt eine neue Studie an einer Reihe von klinischen Entwicklungssubstanzen nun auf, dass deren postulierte Targets und damit die Wirkungsmechanismen unrichtig sind und eine bereits in der Präklinik erfolgende Validierung der echten Targets die Zahl unwirksamer klinischer Studien reduzieren könnte. Die Genetikerin Ricki Lewis berichtet über diese Studie.*

Siebenundneunzig Prozent der potenziellen neuen Krebsmedikamente erreichen nie den Markt; sie fallen in den klinischen Studien durch, wenn sie die Kriterien für Sicherheit oder Wirksamkeit nicht erfüllen.

"Wir haben keine Ahnung, warum das so ist. Die extrem hohe Ausfallsrate deutet aber meiner Meinung darauf hin, dass einige grundlegende Probleme in der Art und Weise bestehen, wie neue Zielstrukturen (Targets) für Wirkstoffe untersucht und neue Wirkstoffe charakterisiert werden “, meinte der Molekularbiologe Jason Sheltzer (Fellow am Cold Spring Harbor Laboratory, Long Island, NY) und beschloss diesbezüglich Untersuchungen anzustellen.

CRISPR - ein präzises Instrument

In der Zeitschrift Science Translational Medicine vom September 2019 berichten Sheltzer und sein Team, dass man die "Genschere"( Gen-Editing-Tool) CRISPR-Cas9 eingesetzt habe, um zu prüfen, ob 10 experimentelle Krebsmedikamente genau so wirken, wie ihre Entwickler es angekündigt hatten [1] (Abbildung 1). Und sie fanden, dass die Art und Weise, wie diese Substanzen für Targets gesucht hatten, mit einem Tunnelblick erfolgt war, was erklären könnte, warum bestimmte Patienten nicht so wie erhofft reagieren.

Wie ein Pfeil, der in einem Baum landet anstatt im Zentrum der Schießscheibe, können manche Krebsmedikamente ihre Targets tatsächlich nicht erreichen- allerdings waren viele Studien nicht dazu angelegt dies aufzudecken. Sehen Ergebnisse erfolgversprechend aus, so durchläuft die Entwicklungsverbindung das Labyrinth bis zur FDA-Zulassung.

Abbildung 1. Die CRISPR-Cas Technologie führt gezielt Doppelstrangbrüche in der DNA ein und ermöglicht ein präzises Manipulieren - Löschen, Korrigieren oder Ersetzen - von Genen in jeder Zelle.

Die Strategie von Sheltzer war einfach: Man wendet CRISPR an, um das Target der Wahl zu entfernen. Falls das Medikament dann immer noch wirkt, ist dieses Target nicht das wirkliche Target. Die Forscher testeten Wirkstoffe, die sich in klinischen Studien befinden oder einst befunden haben oder in präklinischen Studien (an Tieren oder menschlichen Zellen) - jedoch keine Krebsmedikamente, die derzeit auf dem Markt sind. Die Experimente wurden an von Krebspatienten stammenden Standardzelllinien durchgeführt.

„Das Konzept bei vielen dieser Wirkstoffe ist, dass sie die Funktion eines bestimmten Proteins in Krebszellen blockieren. Wir konnten allerdings zeigen, dass die meisten dieser Medikamente nicht dadurch wirken,dass sie die Funktion des als Target angegebenen Proteins blockieren“, erklärte Sheltzer.

Mit Hilfe von CRISPR wird eine genauere Bestimmung potenzieller Wirkstofftargets möglich als mit der älteren Methode, der RNA-Interferenz (RNAi). RNAi unterbindet die Genexpression, anstatt wie CRISPR ein Gen auszuschneiden.

Könnte ein kleines Molekül an mehr als eine Art von Targets binden, so wie wenn man Pfeile losschießt, die auf Bäume, Büsche und auch in das Zentrum der Schießscheibe treffen? Was in vitro ein validiertes Target für einen Wirkstoff darstellt, ist manchmal nicht gerade das, was in einem Körper passiert.

Allerdings kann ein Medikament zugelassen werden, ohne dass irgendjemand genau weiß, wie es wirkt. Dies trifft auf Antidepressiva zu, welche die Wiederaufnahme von Serotonin selektiv hemmen (SSRI). Bilder in Inseraten zeigen neuromuskuläre Synapsen, in denen das Medikament an die Wiederaufnahmeproteine ​​bindet und so Serotonin länger verfügbar in Synapsen hält und damit vermutlich ein die Symptomatik auslösendes Defizit ausgleicht. Googelt man aber nach SSRI, so erhält man die Antwort: "der genaue Wirkungsmechanismus von SSRIs ist nicht bekannt".

Vom "Brandroden" zum Treffen von Targets

Einige der neuen Krebsmedikamente zielen auf Moleküle ab, die für Krebszellen spezifisch sind (Abbildung 2) Unter diesen finden sich:

  • Rezeptoren von Wachstumsfaktoren oder Hormonen
  • Enzyme, die in der Zellteilung eine entscheidende Rolle spielen - wie Cycline und Kinasen
  • Immun-Checkpoint-Hemmer, welche die von Krebszellen verursachte Unterdrückung der Immunantwort aufheben.

Abbildung 2. Medikamente, die zielgerichtet ihr Target treffen.

Diese zielgerichteten Medikamente bieten eine Alternative oder Ergänzung zu herkömmlichen Medikamenten, die nicht nur die Krebszellen zerstören sondern ganz allgemein viele Typen von sich schnell teilenden Zellen.

Den Anfang der auf Targets abzielenden Medikamente hat 1998 Herceptin gemacht; seine Erfinder wurden kürzlich mit dem Lasker-Preis geehrt. Ein weiteres ungemein erfolgreiches Krebsmedikament, Gleevec, wurde 2001 in nur wenigen Monaten nach der Einreichung von der FDA zugelassen. Heute wird in Inseraten salbungsvoll das neue Arsenal an Krebstherapien vorgestellt: Zelboraf, Tafinlar, Keytruda, Opdivo.

Auf ein Target zugeschnittene Medikamente können allerdings versagen, wenn eine neue Mutation das Target verändert oder wenn Krebszellen einen alternativen Weg finden, der die Zellteilungsrate erhöht.

Zurück zum Sheltzer-Experiment

Die Forscher verfolgten einen zweifachen experimentellen Ansatz basierend auf den Überlegungen:

  1. Man entfernt das Target (beispielsweise ein Protein an der Zelloberfläche) in Krebszellen. Wenn sich die Zellen dennoch weiter teilen, war das Target nicht essentiell.
  2. Man fügt Krebszellen, in denen das Target entfernt worden war, den Wirkstoff zu. Wenn die Zellen trotzdem sterben, dann trifft die Substanz irgendetwas anderes.

Das erste getestete Medikament

Bereits früher hatte Sheltzer ein Protein namens MELK (“maternal embryonic leucine zipper kinase”) untersucht, gegen welches das Unternehmen, OncoTherapy Science, einen Inhibitor mit der Bezeichnung OTS167 entwickelt. Da MELK in vielen Tumorarten reichlich vorkommt, nahm man an, dass es für deren Wachstum essentiell und damit ein Target für Medikamente ist. Als aber nun mit CRISPR das für das MELK-Protein kodierende Gen entfernt wurde, passierte gar nichts.

"Zu unserer großen Überraschung starben die Krebszellen nicht ab, als wir diese Proteine ​​eliminierten, Im Gegensatz zu früheren Veröffentlichungen wuchsen die Krebszellen lustig weiter. MELK war ihnen einfach egal“, sagte Sheltzer.

Die Sheltzer-Gruppe veröffentlichte die Ergebnisse zu MELK im Jahr 2017 [2] und wies dabei auf die Möglichkeit hin, dass OTS167 möglicherweise den falschen Baum anbellt. Die Entwicklungsverbindung befindet sich nun in einer klinischen Phase-1-Studie (Sicherheitsprüfung) für solide Tumoren und rekrutiert Patienten für eine Phase-1-Studie bei dreifachnegativem und metastasiertem Brustkrebs.

Die MELK-Geschichte inspirierte die Gruppe, ihre „Strategie zur genetischen Target-Abklärung“ anzuwenden, um herauszufinden ob 10 weitere Wirkstoffe ihre mutmaßlichen Targets tatsächlich erreichen. In klinischen Studien erhalten insgesamt an die tausend Krebspatienten eines dieser Präparate verabreicht.

Eine andere Fehlannahme führt zur Entdeckung eines neuen Targets

In der erwähnten neuen Veröffentlichung [1] prüften die Forscher einen weiteren Wirkstoff - OTS964 - , der zur Behandlung bestimmter Lungen- und Brustkrebserkrankungen entwickelt wurde. Dabei haben sie ein neues Target für Krebsmedikamente entdeckt. Abbildung 3.

Abbildung 3. Auf Targets abzielende Krebstherapien basieren auf Mutation des Targets und nicht auf seine Lokalisierung in einem Organ (Bild: NHGRI)

Versuche mit Interferenz-RNA hatten darauf hingewiesen, dass die Zielstruktur von OTS964 ein Protein namens PBK ist. Aber CRISPR hat dann eine andere Geschichte erzählt- "es stellte sich heraus, dass die Wechselwirkung mit PBK nichts damit zu tun hat, wie der Wirkstoff tatsächlich Krebszellen abtötet", sagte Sheltzer.

Um herauszufinden, wie die auf PBK abzielende Substanz wirkt, versetzten die Forscher die Krebszellen mit einen hohen Überschuss davon und ließen den Zellen dann Zeit Mutationen zu generieren, die es ihnen ermöglichen würden, resistent gegen den Wirkstoff zu werden. Krebsgenome sind von Natur aus instabil und mutieren häufig. Wenn eine Mutation eine Zelle resistent gegen ein Medikament macht, so hat diese Zelle einen Vorteil und beginnt bald den Tumor zu dominieren.

Zu entdecken, wie eine Zelle gegen ein Medikament resistent wird, ist unbezahlbare Information.

Die Resistenz-Experimente haben gezeigt, dass die Verwundbarkeit der Krebszellen durch den Wirkstoffkandidaten OTS964, nicht PBK zuzuschreiben ist, sondern einem Gen, welches für das Protein CDK11 codiert. Dies ist eine sogenannte "Cyclin-abhängige Kinase", ein Enzym, das eine Komponente des Pfades ist, der zur Zellteilung führt.

Beginnend mit Ibrance im Februar 2015 hat die FDA hat bereits Inhibitoren der Cyclin abhängigen Kinase CDK4/6 zugelassen, um bestimmte Formen von Brustkrebs zu behandeln. CDK11 ist ein brandneues und möglicherweise bedeutendes Target.

Was kommt als nächstes?

Auf einer Pressekonferenz sind die Forscher auf Befürchtungen eingegangen, dass sich ihre Ergebnisse auf Menschen auswirken werden, die bereits auf Targets abzielende Krebsmedikamente einnehmen. Ihr Argument war, dass ihre Untersuchungen keine zugelassenen Medikamente betrafen, die auf Bäume statt auf Schießscheiben zielten.

Wie sieht es aber mit laufenden klinischen Studien an Krebswirkstoffen aus?

Sheltzer hat versucht die Leute, welche die Studien durchführen, aufmerksam zu machen. „Ich habe einen FOIA (Freedom of Information Act) bei der FDA eingereicht, um zu versuchen zusätzliche Informationen zur Sicherheit und Wirksamkeit dieser Prüfsubstanzen zu erhalten. Die FDA lehnte es ab, diese Daten weiterzugeben, und sagte, dass diese bis zur Zulassung der Medikamente durch sie geheim bleiben müssten.“

Sheltzer wandte sich auch an die Unternehmen, welche als Sponsoren der klinischen Studien auftraten; auch diese gaben keinerlei Information weiter.

„Ich denke, dass Geheimhaltung und Intransparenz in diesem Abschnitt der Arzneimittelentwicklung den wissenschaftlichen Fortschritt wirklich beeinträchtigen. Viele der an Krebspatienten getesteten Medikamente bringen diesen tragischerweise keine Hilfe. Würde man entsprechende Evidenz routinemäßig sammeln, bevor Entwicklungsprodukte in klinische Studien eintreten, wären wir besser in der Lage den Patienten Therapien zuzuweisen, welche diesen höchstwahrscheinlich einigen Nutzen bringen. Mit derartigem Wissen können wir meines Erachtens das Versprechen einer Präzisionsmedizin besser erfüllen “, sagte Sheltzer.

Die Pharmaunternehmen würden gut daran tun auf Grundlagenforscher mehr zu hören, die herausfinden, wie Dinge funktionieren oder eben nicht funktionieren (wie beispielsweise Shelzer). Die CRISPR-Technologie ermöglicht Forschern "eine verbesserte Suche nach den zentralen Genen im Krebsgeschehen und eine bessere Validierung des Wirkungsmechanismus eines Arzneimittels an seinem Target. Wir glauben, dass eine derartige präklinische Grundlage den Klinikern helfen wird, bessere klinische Studien zu designen, um die Ausfallrate neuer Medikamente zu senken “, schloss Sheltzer.


[1] Ann Lin et al., Off-target toxicity is a common mechanism of action of cancer drugs undergoing clinical trials. Science Translational Medicine  (2019): 11, 509, eaaw8412. DOI: 10.1126/scitranslmed.aaw8412

[2] Ann Lin et al., CRISPR/Cas9 mutagenesis invalidates a putative cancer dependency targeted in on-going clinical trials. eLife. 2017; 6: e24179. doi: 10.7554/eLife.24179


* Der Artikel ist erstmals am 24. Oktober 2019 in PLOS Blogs - DNA Science Blog unter dem Titel "When the Target Isn’t Really the Target: One Way Cancer Drugs Fall Out of Clinical Trials " erschienen (https://blogs.plos.org/dnascience/2019/10/24/when-the-target-isnt-really-the-target-one-way-cancer-drugs-fall-out-of-clinical-trials/) und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.


Weiterführende Links

Gen-editing mit CRISPR/Cas9 Video 3:13 min (deutsch) , Max-Planck Gesellschaft (2016) (Standard-YouTube-Lizenz )

Francis.S.Collins, 02.02.2017: Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie.


 

Redaktion Thu, 28.11.2019 - 12:30

Von Erwin Schrödingers "Was ist Leben" zu "Alles Leben ist Chemie"

Von Erwin Schrödingers "Was ist Leben" zu "Alles Leben ist Chemie"

Do, 21.11.2019 — Peter Schuster

Peter SchusterIcon wissenschaftsgeschichteAls Begründer der Wellenmechanik, die eine mathematische Beschreibung atomarer Vorgänge ermöglicht, war der österreichische Physiker Erwin Schrödinger berühmt und 1933 mit dem Nobelpreis ausgezeichnet worden. Bestrebt ein alles umfassendes Weltbild zu schaffen hat er vor 75 Jahren einen schmalen Band "Was ist Leben? Die lebende Zelle mit den Augen des Physikers betrachtet" herausgegeben, der ungemein populär wurde, viele der bedeutendsten Naturwissenschafter inspirierte (aber auch ernstzunehmende Kritik erhielt) und den Boden für eine molekulare Betrachtungsweise biologischer Vorgänge bereitete. Der theoretische Chemiker Peter Schuster (emer. Univ Prof an der Universität Wien) spannt hier den Bogen von diesen Anfängen der Molekularbiologie hin zu ihrem aktuellen Status. *

Von Schrödinger's "Was ist Leben?"…

Basierend auf drei öffentlichen Vorlesungen, die Schrödinger in seiner Dubliner Zeit am Trinity College gehalten hatte, erschien 1944 „Was ist Leben“ [1] Abbildung 1. Das schmale Bändchen war enorm erfolgreich, inspirierend und einflussreich: „Bis 1948 wurden 65 Rezensionen verfasst und etwa 100.000 Exemplare verkauft“ , schreibt Max Perutz 1987. Für die enorm positive Bewertung des Büchleins durch die Öffentlichkeit, die für eine wissenschaftliche Veröffentlichung, ja sogar für eine populärwissenschaftliche Schrift außergewöhnlich ist, sehen Historiker drei Gründe: (i) Das Heft ist in einer eleganten, lebendigen und fast dichterischen Form verfasst , (ii) Die Zeit war reif für ein Überdenken der wissenschaftlichen Wurzeln, auf denen die Biologie aufbaute und (iii) Fragen nach dem Ursprung des Lebens oder auch nach dem Ursprung des Universums sind nach wie vor von großem öffentlichen Interesse, da sie ja Antworten auf die brennende Frage bieten : "Woher kommen wir Menschen?"

Abbildung 1. Erwin Schrödinger (1887 -1961) um 1933 - als er den Nobelpreis erhielt und sein bahnbrechendes, 1944 erschienenes kleines Büchlein "What is Life". (Beide Bilder sind gemeinfrei)

„Was ist Leben?“ erschien unmittelbar bevor die Revolution in der Biologie - das Denken in molekularen Strukturen - einsetzte. Zahlreiche der berühmtesten Forscher - darunter die Entdecker der Doppelhelix-Struktur der DNA, James Watson, Francis Crick, Maurice Wilkins, der Genetiker Max Delbrück, der Phagenforscher Gunter Stent und der Neurophysiologe Seymour Benzer - äusserten durch Schrödingers Buch maßgeblich inspiriert und zu ihren Arbeiten ermutigt worden zu sein.

Die Begeisterung für „Was ist Leben?“ und sein starker Einfluss auf junge Wissenschaftler, insbesondere auf Physiker, stehen allerdings in krassem Gegensatz dazu, wie einige Top-Experten den wissenschaftlichen Inhalt bewerteten. Der für seine Arbeiten zur "Natur der chemischen Bindung" berühmte Linus Pauling, Max Perutz, der die Kristallstruktur des Hämoglobins aufklärte und der oben erwähnte Francis Crick - alle drei waren für ihre Arbeiten mit dem Nobelpreis ausgezeichnet worden - äußerten sich sehr kritisch. So regte sich Linus Pauling über Schrödingers Metapher von Organismen auf, die sich von „Negentropie“ ernähren, d.i. dass diese - anstatt in einen Zustand wachsender Unordnung zu geraten (beschrieben durch die Zustandsgröße "Entropie") und schlussendlich zu zerfallen - sich selbst strukturieren und diese Ordnung auch an die Nachkommen weitergeben, indem sie "Ordnung aus der Umgebung" aufnehmen. Pauling's Hauptargument war, dass das energetische und entropische Gleichgewicht der lebenden Zelle bereits verstanden wurde, als Schrödinger seine Vorlesungen hielt, dass die durch das zelluläre Adenosintriphosphat (ATP) - die „energetische Währung des Lebens" - bereitgestellte freie Energie eine viel größere energetische als entropische Komponente hat, und damit Freie Energie anstelle von Entropie in isothermen Systemen eine geeignete thermodynamische Funktion darstellt.

Max Perutz und Francis Crick kritisierten insbesondere Schrödinger's Verwendung des Begriffs „aperiodischer Kristall“. Makromoleküle und Polymere waren ja bereits seit Anfang der zwanziger Jahre durch die Arbeiten von Hermann Staudinger, Hermann Mark und anderen bekannt und sind keine Kristalle in dem Sinne, dass sie flexibel sind und keine Festkörperstruktur aufweisen. Laut dem Wissenschaftshistoriker Horace Judson erschienen Francis Crick einige Details von Schrödingers Wissenschaft „in ihrer Unbeholfenheit fast peinlich", er ätzte: "ich nehme an, der Mann hatte noch nie von einem Polymer gehört!"

Ein wichtiges Thema, auf das Schrödinger richtig hinwies: Wann immer eine Sequenz mittlerer Länge vorliegt, die aus mehreren Arten von Monomeren aufgebaut ist, kann aufgrund der „kombinatorischen Komplexität“ die Zahl möglicher Kombinationen das Universum leicht füllen. Wie wir aus dem Morse-Alphabet oder den Computercodes wissen, reichen zwei Symbole aus.

Wichtig und einflussreich war auch Schrödingers Ansicht, dass das Chromosom die Informationen für die nachkommenden Zellen der Zukunft in codierter Form zusammen mit der Maschinerie zur Herstellung der Zelle enthält. Damit formulierte Schrödinger hier erstmals das Konzept eines genetischen Codes; er irrte aber - wie es der britische Evolutionsbiologe Sidney Brenner ausdrückte "insofern als Chromosomen zwar die Information über den zukünftigen Organismus und eine Beschreibung der Mittel enthalten, um diese umzusetzen, aber nicht die Mittel selbst".

…zu Strukturen biologischer Makromoleküle…

Vor der Möglichkeit die Schrödinger-Gleichung auf Probleme in der Quantenchemie anzuwenden wurden Strukturen von Molekülen im Wesentlichen mittels "Haken und Ösen"-Modellen aufgebaut, wobei die Bindungseigenschaften der Atome aus empirischen Beobachtungen und dem Periodensystem abgeleitet wurden. Schrödingers Wellengleichungen erwiesen sich als sehr nützlich für die Analyse und Beschreibung chemischer Bindungen in kleinen und mittelgroßen Molekülen. Forscher wie Linus Pauling (s.o.) und der theoretische Chemiker Charles Coulson machten die Quantenchemie populär und der Erfolg in den Anwendungen führte zu den berühmten Aussagen:

"Es besteht kein Zweifel, dass die Schrödinger-Gleichung die theoretische Grundlage der Chemie darstellt.“ (Linus Pauling)

"Die grundlegenden Gesetze, die für die mathematische Behandlung eines großen Teils der Physik und der gesamten Chemie erforderlich sind, sind somit vollständig bekannt, und die Schwierigkeit liegt nur in der Tatsache, dass die Anwendung dieser Gesetze zu Gleichungen führt, die zu komplex sind, um gelöst zu werden." (Paul Dirac)

Die Natur chemischer Bindungen wurde korrekt als quantenmechanische Eigenschaft verstanden. Da Chemiker Struktur mit Reaktivität und Funktion korrelieren, wurden und werden viele und große Anstrengungen unternommen, um präzise molekulare Strukturen zu bestimmen. Die im Zentrum der zellulären Biologie stehenden Moleküle, insbesondere Proteine ​​(später auch Nukleinsäuren), wurden als lineare Polymere mit einem periodischen Molekülgerüst und Seitenketten erkannt, die aus mehreren Klassen von Monomeren - d.i. aus 20 Aminosäuren bereitgestellt wurden. Anfangs wurden bekannte, aus kleinen Untereinheiten bestehende Strukturen mittels Modellen zusammengesetzt: der erste Triumph der Strukturvorhersage durch Modellierung war Paulings α-Helix, die später in Polypeptiden und Proteinen nachgewiesen wurde (s.u.).

Die Anfänge der Molekularbiologie sind eng mit der Strukturaufklärung von Biomolekülen in kristallisierter Form mittels Röntgenanalyse verbunden. Die einflussreichste und spektakulärste Strukturvorhersage für ein Biopolymer - der DNA - gelang Watson und Crick aus den Daten der Röntgenbeugung und löste eine wahre Revolution in der Biologie aus. Die postulierte Struktur der DNA in Form einer Doppelhelix weist auf mögliche Mechanismen für zwei biologische Schlüsselprozesse hin (Abbildung 2):

(i) wie genetisches Material dupliziert wird (dazu Watson und Crick (1953): "Es ist unserer Aufmerksamkeit nicht entgangen, dass die von uns postulierte spezifische Paarung, einen möglichen Kopiermechanismus für das genetische Material nahelegt.)" und

(ii) die einfachste Art von Mutationen, sogenannter Punktmutationen, durch Ersatz eines einzelnen Nukleotids.

Abbildung 2 . Die von Watson und Crick postulierte Basenpaarung von Adenin (A)-Thymin (T) und von Guanin (G) - Cytosin (C) legt einen möglichen Kopiermechanismus für das genetische Material nahe und macht Punktmutationen (roter Stern) verständlich (die Replikation erfolgt hier mit Hilfe der Polymerase-Kettenreaktion unter Verwendung der bakteriellen Taq-Polymerase).

Etwa zur gleichen Zeit wie die DNA-Struktur wurden die ersten vollständigen Proteinstrukturen in molekularer Auflösung veröffentlicht - eine übliche Unterstruktur globulärer Proteine waren die von Pauling vorhergesagten α-Helices. Der schnelle technische Fortschritt in der Kristallstrukturanalyse, insbesondere als bald Computer für die umfassende Berechnung der Beugungsspektren eingesetzt wurden, machte nur das Wachstum ausreichend großer Einkristalle zum zeitlich limitierenden Schritt in der Bestimmung von immer mehr Proteinstrukturen.

…und wie ihre Funktionen zusammenhängen

Nicht zuletzt von Schrödingers „Was ist Leben?“ inspiriert suchten Molekularbiologen nach einem Code, mit welchem die in der DNA gespeicherten Informationen in Proteine übersetzt werden. Ein derartiger Code wurde bald identifiziert : eine Kombination von jeweils drei der vier Nukleobasen - Adenin (A), Thymin (T), Guanin (G) und Cytosin (C) - kodieren für jeweils eine Aminosäure; die Zuordnung dieser Triplettcodons zu den zwanzig einzelnen Aminosäuren wurde in wenigen Jahren entschlüsselt .

Die nächste wichtige Erkenntnis war, dass der Code für alle Organismen universell ist (eine kleine Zahl von Modifikationen ausgenommen, die später in den Standardcode aufgenommen wurden) . Jede Nachricht kann von der genetischen Maschinerie interpretiert werden: Drei „Nonsense Triplets“ kodieren für das Ende der Polypeptidkette.

Mit der Entdeckung der Genregulation in Bakterien durch François Jacob und Jacques Monod war ein zunächst noch vereinfachte, aber dennoch vollständiges dynamisches Bild der primitiven Zelle fertiggestellt.

Alle Strukturen und Prozesse konnten und können mit Hilfe der Chemie vollständig verstanden und interpretiert werden (Abbildung 3): Proteine ​​wirken als vielseitige und enorm spezifische Katalysatoren für die verschiedenen Reaktionen in der Zelle, die Nukleinsäurechemie erklärt den Zusammenhang zwischen Genetik und Proteinsynthese.

Abbildung 3. Zentrale Vorgänge in der lebenden Zelle: Replikation (pink), die exakte Verdoppelung des Informationsträgers DNA, Proteinsynthese (gelb), die in zwei Gruppen von Prozessen abläuft i) der Transkription, in der von einem DNA-Abschnitt eine komplementäre RNA-Kopie erstellt wird und ii) die Translation welche die RNA-Sequenz entsprechend dem genetischen Code in eine Proteinsequenz übersetzt, Metabolismus (blau), der die Bausteine zur Synthese der Biopolymeren herstellt.

Sowohl von der wissenschaftlichen Gemeinschaft als auch von der Öffentlichkeit wurde die neue Disziplin Molekularbiologie mit großer Begeisterung aufgenommen. Ein anschauliches Beispiel ist eine österreichische Fernsehproduktion in zehn Teilen im Jahr 1978 mit dem Titel "Alles Leben ist Chemie", die von dem Historiker Hellmut Andics produziert und dem berühmten, bereits erwähnten Polymerenchemiker Herrmann Mark vorgestellt wurde und enormes öffentliches Interesse erweckte.

Was ist anders in Chemie und Biologie?

Schrödingers Traum von neuen physikalischen Gesetzen, die in der Biologie zu entdecken wären, ist zumindest bis jetzt nicht Wirklichkeit geworden.

Ist Biologie also nichts anderes als Chemie mit größeren Molekülen, die aus einer Gruppierung von Atomen des Periodensystems aufgebaut sind?

Ist die Zelle eine viel komplexere chemische Fabrik - im Sinne der Theorie des sich selbst reproduzierendem Automaten, die der Mathematiker John von Neumann entwickelte?

Oder gibt es in der Biologie grundlegende Merkmale, die in der Chemie unbekannt oder zumindest ungewöhnlich sind? Zweifellos könnte man eine große Anzahl solcher Merkmale aufzählen, aber ich werde mich hier auf drei beschränken, die mit Schrödingers "Was ist Leben?" zusammenhängen: (i) biologische Evolution, (ii) Komplexität molekularer Strukturen, und (iii) Digitalisierung chemischer Informationen:

Biologische Evolution

Die erste charakteristische Eigenschaft biologischer Einheiten - Viren, Bakterien, Zellen und höhere Organismen - ist ihre Fähigkeit zur Evolution. Zwangsläufig hat die Biologie eine historische Komponente, nicht aber die Chemie. Jeder Organismus ist Träger von Informationen über seine Phylogenese und der Vergleich von DNA-Sequenzen hat sich bei der Rekonstruktion von genetischen Stammbäumen als äußerst nützlich erwiesen. Abbildung 4.

Abbildung 4. Ein hypothetischer phylogenetischer Baum der Lebewesen (basierend auf den ribosomalen RNA-Genen) zeigt die drei Domänen Bakterien, Archaea und Eukaryoten (Bild: aus Wikipedia, gemeinfrei)

Basis für die Evolution ist das Zusammenspiel von Variation und Selektion in einem über viele Generationen gehenden Multiplikationsprozess.

Variation in der Natur ist das Ergebnis zweier Prozesse: (i) Mutation- d.i. eine Änderung der Nukleotidsequenz und (ii) Rekombination - d.i. Mischen von Genvarianten.

Für Selektion ist allein die Anzahl der Nachkommen in den kommenden Generationen - die sogenannte Fitness - maßgeblich. Natürliche Selektion kann in Form von zwei Prozessen leicht mathematisch dargestellt werden: als Reproduktion unter begrenzten Ressourcen(Verhulst-Gleichung) und als chemische Kinetik der einfachen Replikation in einer Population.

Häufig wird nach der Optimalität der durch einen evolutionären Prozess erzeugten Entitäten, gefragt. Diese ist für das Überleben zukünftiger Generationen als solche nicht erforderlich. Erfolgreicher Wettbewerb muss nur besser sein, d. i. mehr Nachkommen als die Konkurrenten erzeugen. Im Gegensatz zu Ingenieuren kann die Natur nicht von Grund auf neu designen, sondern muss mit oder ohne geringfügige Modifikationen aus den vorhandenen Materialien bauen. Der Genetiker François Jacob hat dies so ausgedrückt: „Die Evolution entwirft nicht mit den Augen eines Ingenieurs, die Evolution arbeitet wie ein Bastler.“

Komplexität molekularer Strukturen

Das zweite Merkmal von zellulären Katalysatoren - Proteinen oder RNA-Molekülen - ist eine enorme strukturelle Komplexität, die sonst in der Chemie nicht anzutreffen ist. Zwei natürliche "molekulare Maschinen", die biologische Kernprozesse ausführen, können hier als Beispiele dienen: i) Die ungemein effiziente DNA-Replikationsmaschinerie der Zelle, welche Enzyme aus mindestens sechs Klassen umfasst, RNA-Primer und Einzelstrang-Bindungsproteine (Abbildung 5a) und ii) die Proteinsynthese-Fabrik des Ribosoms, ein großer Komplex von RNA-Molekülen und Proteinen, die durch Übersetzung (Translation) einer kodierenden Messenger-RNA mittels sogenannter Transfer-RNAs eine neue Polypeptidkette synthetisieren. (Abbildung 5b)Die katalytische Aktivität des Ribosoms wird von den ribosomalen RNA-Molekülen ausgeübt, während die Proteine ​​die Aufgabe erfüllen, die RNA in präzisen räumlichen Positionen zu halten.

Abbildung 5. Hochkomplexe molekulare Maschinen, die Schlüsselfunktionen in der Zelle innehaben: A) die Replikation der DNA und B) die Peptid/Proteinsynthese am Ribosom. (Beide Bilder stammen aus Wikipedia und sind gemeinfrei.)

Digitalisierung chemischer Informationen

Die Unterschiede welche die Stärke von Molekül-Wechselwirkungen in der Chemie bewirken, können in der Biologie durch Ja-Nein-Entscheidungen ersetzt werden. Als Beispiel diene die Basenpaarung in der DNA-Doppelhelix: Die Stärke mit der die beiden Basenpaare A - T (über zwei Wasserstoffbrücken) und G -C (über drei Wasserstoffbrücken) binden, unterscheidet sich um eine Größenordnung (Abbildung 6). Dennoch erscheinen die beiden Paare in der Doppelhelix mehr oder weniger äquivalent. Die Wasserstoffbindungen bestimmen zwar die Geometrie der Doppelhelix, haben aber fast keinen Einfluss auf ihre Stabilität, da in den Einzelsträngen Wasserstoffbrücken zum Wasser gebildet werden. Fazit: zwei Nukleotide bilden ein Basenpaar oder bilden eben kein Basenpaar.

Abbildung 6: Ausschnitt aus der DNA-Doppelhelix: Die Bindung des Guanin-Cytosin Basenpaares über 3 Wasserstoffbrücken ist um eine Größenordnung fester als die Bindung des Adenin-Thymin Basepaares über 2 Wasserstoffbrücken. (Bild: gemeinfrei)


[1] Erwin Schrödinger (1944): What is Life? The Physical Aspect of the Living Cell. http://www.whatislife.ie/downloads/What-is-Life.pdf (open access)


*Der vorliegende Artikel ist eine stark gekürzte, vereinfachte Fassung des Vortrags , den der Autor anlässlich des 75 jährigen Jubiläums von Schrödingers "What is Life?" am 18.11.2019 im Erwin Schrödinger Institut (Wien) gehalten. Eine reich bebilderte und mit vielen Literaturzitaten versehene ausführliche Fassung (in Englisch) findet sich auf der Homepage des Autors: https://www.tbi.univie.ac.at/~pks/Presentation/wien-esi19text.pdf und https://www.tbi.univie.ac.at/~pks/Presentation/wien-esi19.pdf .


Weiterführende Links

  • Erwin Schrödinger - Unsere Vorstellungen von der Materie (Originalvortrag 1952). Video 1:10: 53 h.
  • What is Life? Hommage an Erwin Schrödinger von Sir Paul Nurse (Nobelpreis 2001 für die Entdeckung von Schlüsselregulatoren der Zellteilung und -reifung). Imperial College, London, Video (2011) 1:05:25 h.
  • The Double Helix: Aufklärung der Struktur durch Crick & Watson, alte Archivaufnahmen und Interviews; 16:53 min.
  • Entstehung des Lebens – Abiogenese (10 minütige Diashow in deutsch; dies ist eine Übersetzung von "The Origin of Life - Abiogenesis"

Artikel zu verwandten Themen im ScienceBlog

Artikel von Peter Schuster

04.01.2018: Charles Darwin - gestern und heute.

23.05.2014: Gibt es einen Newton des Grashalms?

30.11.2013: Recycling & Wachstum — Vom Ursprung des Lebens bis zur modernen Gesellschaft.

12.04.2012: Wie universell ist das Darwinsche Prinzip?

16.02.2012: Zum Ursprung des Lebens — Konzepte und Diskussionen.


 

Redaktion Thu, 21.11.2019 - 06:58

Plankton-Gemeinschaften: Wie Einzeller sich entscheiden und auf Stress reagieren

Plankton-Gemeinschaften: Wie Einzeller sich entscheiden und auf Stress reagieren

Do, 14.11.2019 — Georg Pohnert

Georg Pohnert Icon Meere Einzellige Algen sind im Plankton und den Biofilmen unserer Ozeane allgegenwärtig. Georg Pohnert (Max-Planck Fellow und Univ.Prof) und seine Teams am Max-Planck-Institut für Chemische Ökologie (Jena) und an der Friedrich-Schiller Universität (Jena) erforschen wie chemische Signale mikrobielle Gemeinschaften steuern, seien es die weiträumigen Ansammlungen von Algen im Plankton der Ozeane oder temporäre Biofilm-Gemeinschaften. Sie konnten zeigen, dass sowohl Mikroalgen als auch Bakterien im Plankton eine bislang unbekannte Schwefelverbindung produzieren und damit sowohl mikrobielle Interaktionen als auch den weltweiten Schwefelkreislauf grundlegend beeinflussen.*

Kieselalgen können gelöste Silikate im Wasser „riechen“

Kieselalgen (Diatomeen) sind ein Hauptbestandteil des Meeresphytoplanktons, wo sie freischwimmend im offenen Wasser verbreitet sind. Aber auch an Ufern und Stränden kann man sie als Biofilm auf Steinen und anderen Oberflächen finden. Die Algen sind nicht nur Nahrungsgrundlage vieler Meerestiere, sondern auch für eine überaus wichtige Ökosystemleistung verantwortlich: Sie tragen ganz erheblich zur globalen Photosynthese und somit zur Produktion von Sauerstoff in der Erdatmosphäre bei.

Die Kieselalge Seminavis robusta (Abbildung 1) eignet sich gut als Modellorganismus, um im Labor Verhaltensuntersuchungen im Biofilm durchzuführen: Sie kann sich sexuell vermehren und reagiert empfindlich auf unterschiedliche Umweltbedingungen. Zum Aufbau ihrer stabilen mineralischen Zellwände benötigen Kieselalgen das Baumaterial Silikat, das sie sich in ihrer Umgebung suchen müssen.

Abbildung 1. Ein ca. 40 µm langes Exemplar der einzelligen Kieselalge Seminavis robusta mit ihrer reich ornamentierten biomimeralischen Zellwand. Seminavis robusta ist zu einer bemerkenswerten Differenzierung von Signalstoffen fähig: Sie kann sich sowohl in Pheromon-Gradienten ihrer Artgenossen orientieren als auch Nährstoffquellen anorganischer Salze aufspüren. Sogar eine Priorisierung von Verhaltensmustern (der Suche nach dem Sexualpartner oder nach Nahrung) kann der Einzeller leisten. ©http://www.diatomloir.eu/

Unsere Experimente zeigten, dass sich die Einzeller im Zickzack-Kurs auf Silikat-Quellen zubewegen und dann an den Stellen verbleiben, an denen der Silikat-Gehalt besonders hoch ist. Während die Kieselalgen rund zwei Mikrometer pro Sekunde zurücklegen, werden sie ausschließlich vom „Duft“ der Silikate angezogen. Ersetzten wir das Mineralsalz durch strukturell sehr ähnliche Salze, die für die Algen giftig sind, bewegen sie sich von der Mineralquelle weg. Erstmals konnte so eine rezeptorvermittelte Suche von Mikroorganismen nach mineralischen Nährstoffquellen beobachtet werden. Die oft beobachtete Heterogenität von Biofilmen lässt vermuten, dass dieses Verhalten unter den Diatomeen weiter verbreitet sein könnte.

Essen oder Sex? Kieselalgen können sich zwischen Partner- oder Nahrungssuche entscheiden

In erster Linie vermehren sich die Algen ungeschlechtlich durch Zellteilung, episodisch ist aber auch die sexuelle Paarung überlebensnotwendig, denn die Zellen werden nach fortlaufender Teilung immer kleiner. Nur durch sexuelle Paarung können sie wieder die ursprüngliche Zellgröße erreichen. Um paarungsbereite Partner zu finden, folgen sie Pheromonspuren, die diese hinterlassen.

Unsere Experimente mit S. robusta ergaben, dass die Einzeller sogar in der Lage sind, ihr Verhalten flexibel an die Umweltbedingungen anzupassen und je nach Erfordernis der sexuellen Vermehrung unterschiedlich zu reagieren. Das heisst: Je nach Vermehrung oder Nahrungsknappheit lassen sich die Algen entweder von Sexualpheromonen oder Nährstoffen anlocken und zeigen damit tatsächlich eine primitive Verhaltensbiologie.

Für den Nachweis des priorisierten Verhaltens kultivierten wir die Zellen unter verschiedenen Bedingungen; insbesondere konfrontierten wir sie mit unterschiedlichen Mengen von Silikat sowie dem ersten für Kieselalgen beschriebenen Sexualpheromon di-L-Prolyl-Diketopiperazin, auch „Diprolin“ genannt. Wir konnten beobachten, dass die Einzeller sich zu Pheromonen oder Nahrungsquellen hinbewegen, je nachdem wie „hungrig“ sie nach Sex oder Nährstoffen waren. Diese Art von Entscheidungsfindung wurde bislang nur höheren Organismen zugeschrieben.

Mittels mathematischer Modelle konnten wir die komplexen Wechselwirkungen in den Gemeinschaften nachvollziehen und damit belegen, dass tatsächlich chemische Signale die Lebensgemeinschaften organisieren. Ein Verständnis davon, wie die Einzeller, die über kein Nervensystem verfügen, diese Reize verarbeiten, stellt nun die nächste große Herausforderung dar. Die Entscheidungen einzelner Algen erklären auch Aspekte der Dynamik von Biofilmen, in denen sich unzählige Kieselalgen zu Lebensgemeinschaften zusammenschließen.

Der Metabolismus von Einzellern hat Konsequenzen für globale Stoffkreisläufe

Abbildung 2. Selbst aus dem Weltall (hier ein Satellitenbild der NASA) lässt sich die Masse der einzelligen Algen (im Bild die Kalkalge Emiliania huxleyi) des Planktons erkennen. Mit ihrer hohen Produktivität tragen sie zu knapp der Hälfte der globalen Photosyntheseleistung bei. Aber auch der weitere Stoffwechsel der Algen beeinflusst unser Weltklima. Wir konnten z.B. eine neue schwefelhaltige Verbindung identifizieren, welche die Algen in Mengen von mehreren Millionen Tonnen jährlich produzieren. © NASA

Dass Mikroalgen in unglaublichen Mengen im Plankton vorhanden sind (Abbildung 2) und fast die Hälfte der globalen Photosyntheseleistung beitragen, macht sie auch zu Schlüsselspielern in globalen Stoffkreisläufen. Die Entdeckung von neuen Stoffwechselwegen in planktonischen Algen hat somit direkte Konsequenzen für unser Verständnis von globalen Prozessen.

Das konnten wir eindrucksvoll für den Schwefelkreislauf zeigen. Schwefel findet sich in ganz unterschiedlichen Verbindungen überall auf der Erde, und für marine Prozesse gibt es einen allgemein bekannten Kreislauf, bei dem Sulfat durch Algen reduziert und der reduzierte Schwefel bei osmotischem Stress oder Zelltod ins Wasser freigesetzt wird. Von dort gelangt der Schwefel in Form von Dimethlysulfid in die Atmosphäre, wird an der Luft oxidiert und regnet als gelöstes Sulfat wieder ab. Den Geruch des Dimethylsulfids verbinden wir Menschen mit „Meer“.

Mit einer ausgeklügelten Analytik konnten wir jetzt die wenig verstandenen hochpolaren Naturstoffe aus Mikroalgen untersuchen und fanden dabei das bislang unbekannte schwefelhaltige Stoffwechselprodukt Dimethylsulfoxoniumpropionat (DMSOP). Viele einzellige Algen, aber auch Bakterien, die ebenfalls im Plankton des Meeres dominieren, produzieren diese Schwefelverbindung. Sie spielt nicht nur eine wichtige Rolle in der Stressantwort der Algen, sondern trägt auch global zum Schwefelkreislauf bei: Von der Arktis bis zum Mittelmeer fanden wir in allen Planktonproben DMSOP. Überall in den Meeren sind die Produzenten der schwefelhaltigen Verbindung zu finden und die Verbindung stellt eine Abkürzung im etablierten Schwefelkreislauf dar. Auch wenn eine Mikroalge nur verschwindend kleine Mengen der Verbindung abgibt, sind das in der Summe mehrere Milliarden Kilogramm pro Jahr. Die Stressantwort der einzelligen Algen hat also globale klimarelevante Konsequenzen.

Fazit

Die Organisation von mikrobiellen Gemeinschaften im Ozean ist von globaler Bedeutung. Wir beginnen zu verstehen, wie chemische Signale in Biofilmen und im Plankton des offenen Meeres organisierend wirken. Unsere Forschung zeigt, wie die Physiologie und sogar eine primitive Verhaltensbiologie von Einzellern unsere Welt beeinflussen.


* Der vorliegende Artikel ist im Jahrbuch 2018 der Max-Planck-Gesellschaft unter identem Titel "Plankton-Gemeinschaften: Wie Einzeller sich entscheiden und auf Stress reagieren" erschienen https://www.mpg.de/12639353/ice_jb_2019?c=155396 und wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel wurde unverändert übernommen, allerdings ohne Literaturzitate - diese können im Original nachgesehen werden.


Weiterführende Links

Max-Planck-Institut für chemische Ökologie www.ice.mpg.de

Georg Pohnert homepage: https://www.ice.mpg.de/ext/index.php?id=hopa&pers=gepo2404 und https://www.ice.mpg.de/ext/index.php?id=plankton-interaction#header_logo

Artikel zu verwandten Themen in ScienceBlog.at


 

Redaktion Thu, 14.11.2019 - 13:57

Permafrost - Moorgebiete: den Boden verlieren in einer wärmer werdenden Welt

Permafrost - Moorgebiete: den Boden verlieren in einer wärmer werdenden Welt

Do, 07.11.2019 — Redaktion

RedaktionIcon GeowissenschaftenIn dem am 4. März 2019 erschienenen Bericht „Frontiers 2018/19: Emerging Issues of Environmental Concern“ [1] hat die Umweltorganisation der Vereinten Nationen (UNEP) vor fünf drohenden und bisher unterschätzten Umweltgefahren gewarnt, darunter vor dem infolge des Klimawandels drohenden Auftauen der arktischen Permafrostböden. Gefrorene Moore in diesen Zonen speichern etwa die Hälfte allen Kohlenstoffs, der weltweit in Böden festgehalten ist. Beim Auftauen würde Kohlenstoff in Form von Kohlendioxid und Methan freigesetzt werden und damit ein Kippelement für eine beschleunigte Erderwärmung darstellen.*

Wegen ihrer bedeutenden Rolle in der Speicherung von Kohlenstoff und der Abschwächung des Klimawandels erhalten die in den Tropen liegenden Moorgebiete viel Aufmerksamkeit. Sie speichern fast 120 Gigatonnen Torfkohlenstoff, dies sind aber nur etwa 20% des gesamten Kohlenstoffs, der in den Moorgebieten der Erde insgesamt eingeschlossen vorliegt. Die größten Mengen lagern in den nördlichsten Gebieten unseres Planeten, wobei die nördliche Polarregion fast die Hälfte des weltweiten organischen Bodenkohlenstoffs in Form von dauerhaft gefrorenem Torf enthält.

Ein Großteil des Bodens auf der Nordhalbkugel friert und taut den Jahreszeiten entsprechend auf; ein Teil bleibt dagegen das ganze Jahr über gefroren. Unter rund 23 Millionen Quadratkilometern des Nordens liegt Permafrost - d.i. ein Boden, der in mindestens zwei auf einander folgenden Jahren auf Minustemperaturen verbleibt. Arktische und subarktische Moore existieren in den Permafrostzonen von Kanada, Dänemark / Grönland, Finnland, Norwegen, Russland, Schweden und den USA. Permafrost-Moorgebiete mit einer Torfschicht von mehr als 40 Zentimetern Dicke bedecken 1,4 Millionen km2 und ein noch größeres Gebiet hat niedrigere Torfschichten. Abbildung 1.

Abbildung 1.Verteilung der Permafrost-Moorgebiete. (Quelle: „Permafrost Peatlands: Losing ground in a warming world“; UNEP-Report [1]; deutsche Beschriftung von Redn. Lizenz cc-by)

Ausgedehnte Permafrost-Moorvorkommen finden sich auch außerhalb der Arktis und Subarktis, beispielsweise in der Mongolei und auf der Qinghai-Tibet-Hochebene, wo Gebirgszüge verhindern, dass warme Meeresluft ins Landesinnere fließt und die Wintertemperaturen sehr niedrig sind.

Permafrost-Moore unterliegen einem raschen Wandel. Die Arktis erwärmt sich jetzt doppelt so schnell wie im globalen Durchschnitt. In den letzten Jahrzehnten sind die südlichen Permafrostgrenzen um 30 bis 80 km nach Norden zurückgewichen, was einen erheblichen Verlust an Bodenbedeckung bedeutet. Die mit dem Abbau des Permafrosts verbundenen Risiken bestehen darin, dass die Mobilisierung und mikrobielle Zersetzung von zuvor eingegrabenem, gefrorenem organischem Material zur Freisetzung von erheblichen Mengen Kohlendioxid und Methan führen kann, welche wiederum die globale Erwärmung bedeutend verstärken könnten. Ein weitgehender Abbau des Permafrosts hätte auch enorme direkte Auswirkungen auf die Ökosysteme, die Hydrologie und die Infrastruktur der Regionen.

Obwohl über Permafrost seit über einem Jahrhundert intensiv geforscht wurde, sind weitere Untersuchungen zu seiner Verbreitung, seinen Eigenschaften und seiner Dynamik erforderlich, um besser verstehen zu können, wie er auf den Klimawandel und Störungen durch den Menschen reagiert. Bei Moorgebieten mit Permafrost sind die Kenntnisse noch unvollständiger. Wie Permafrost-Moore auf ein sich erwärmendes Klima reagieren und welche Rolle sie insgesamt im globalen Klimawandel spielen, ist weit davon entfernt klar verstanden zu werden, da das Zusammenspiel von Permafrost, Ökosystemen und Klima äußerst komplex ist. Obwohl beispielsweise gefrorene (trockene) und aufgetaute (feuchte) Torfgebiete ähnliche Kohlenstoffabscheidungsraten aufweisen und als Kohlenstoffsenke wirken, weisen sie üblicherweise völlig unterschiedliche Fließeigenschaften für Treibhausgase auf und können als Netto-Emissionsquelle wirken. Darüber hinaus können gefrorene und aufgetaute Moorgebiete sich zeitlich und räumlich rasch ändern.

Das Auftauen des Permafrosts wird als eines der "Kippelemente" angesehen, das einen "galoppierenden Treibhauseffekt" oder ein unkontrollierbares "Treibhaus Erde" auslösen kann. Um solch ein zerstörerisches Szenario zu vermeiden, ist es entscheidend, dass der Permafrost der Welt und deren Torfgebiete gefroren bleiben und ihre Kohlenstoffeinlagerungen behalten.

Auftauen von Permafrost, Verrottung von Torf und komplexe Wechselwirkungen

Jedes Jahr des letzten Jahrzehnts war in der Arktis wärmer als das wärmste Jahr im 20. Jahrhundert. Weltweit sind die Temperaturen des Permafrosts in den letzten Jahrzehnten weiter gestiegen. Die stärksten Anstiege der mittleren Jahrestemperaturen des Permafrosts wurden in den kältesten Gegenden der Arktis beobachtet, wohingegen der Anstieg in "wärmeren" Permafrostzonen und in diskontinuierlichen Permafrostzonen viel geringer war. An einigen Orten sind die Temperaturen des Permafrosts aufgrund der jüngsten kalten Winter geringfügig gesunken.

Mit steigenden Temperaturen führt das Auftauen von eisreichem Permafrost oder das Abschmelzen von Grundeis zu ausgeprägten Einsenkungen in der Landschaft, die als Thermokarst bezeichnet werden. In den letzten Jahrzehnten scheint sich die Thermokarstbildung in Moorgebieten in den diskontinuierlichen Permafrostzonen beschleunigt zu haben. Langzeitbeobachtungen in der gesamten Arktis lassen jedoch auf keine einheitlichen, auf die globale Erwärmung zurückzuführenden Trends bei der Thermokarstentwicklung schließen.

Wenn vormals gefrorener Boden aufgrund des Tauens einbricht, ermöglicht das Einsinken die Entstehung kleiner, neuer Gewässer, die sich später zu Seen entwickeln können. Die Bildung von Thermokarstseen beschleunigt das Auftauen des Permafrosts - es wird noch schneller und geht tiefer. Andererseits könnte die Ausbreitung dieser Seen auch die Konnektivität von Entwässerungsnetzen verbessern und den Abfluss von Seen, das Nachwachsen der Vegetation, die Torfbildung und die Wiederherstellung des Permafrosts fördern. Diese gegensätzliche Dynamik verdeutlicht, dass es dringend notwendig ist die möglichen Auswirkungen des Trends der Erwärmung besser zu verstehen. Abbildung 2.

Abbildung 2. Moorgebiete und Permafrost: die Rolle von Torf, Pflanzen und Wasser (Quelle: „Permafrost Peatlands: Losing ground in a warming world“; UNEP-Report [1]; deutsche Beschriftung von Redn. Lizenz cc-by)

Der Klimawandel und erhöhte Temperaturen haben die Häufigkeit von Waldbränden in der Arktis dramatisch erhöht, wobei sich die Feuer in den Grenzregionen von Tundra und Wald-Tundra ausbreiten. Angefacht durch die Torfablagerungen setzen Brände enorme Mengen an Kohlenstoff frei, zerstören Vegetation und isolierende Bodenschichten und verringern die Albedo des Bodens (das Lichtreflexionsvermögen). Dies führt zu einer erhöhten Verletzlichkeit durch den Klimawandel und ausgedehnter Entwicklung von Thermokarst. Die Auswirkungen von beiden, wärmeren Temperaturen und Waldbränden, werden selbst unter den konservativsten Szenarien als besonders schwerwiegend für die diskontinuierlichen Permafrostzonen vorhergesagt, wobei die klimatischen Bedingungen für den Permafrost insgesamt ungünstig werden. Dies kann zu Veränderungen der Vegetationsarten und deren Ertrag führen, was wiederum größere und häufigere Waldbrände auslösen kann.

Ein weiterer Effekt der durch den Klimawandel verursachten Erwärmung besteht darin, dass das Auftauen des Permafrost beträchtliche Mengen an Methan, einem starken Treibhausgas, in die Umwelt freisetzen kann. Auch wenn es große Unterschiede in den Schätzungen der arktischen Methan-Emissionen gibt, so scheinen die aktuellen globalen Klimamodelle auf einen nur geringfügigen Anstieg der Methan-Emissionen aus den nördlichen Permafrost-Regionen zu schließen. Allerdings beinhalten die meisten Modelle keine adäquate Darstellung der Auftau-Prozesse.

In einer kürzlich durchgeführten Modellstudie wurden die langfristigen klimatischen Folgen des Permafrost-Abbaus untersucht, wobei die auf kürzlich gebildete Thermokarstseen bezogenen abrupten Auftauprozesse berücksichtigt wurden. Das Ergebnis lässt darauf schließen, dass innerhalb dieses Jahrhunderts die Freisetzung von Kohlenstoff in Form von Methan einen geringen Anteil an der gesamten Kohlenstoff-Freisetzung aus neu aufgetautem Permafrost ausmacht, jedoch bis zu 40% der zusätzlichen Erwärmung auf neu aufgetauten Permafrost zurückzuführen ist.

Der Klimawandel ist nur einer von vielen Faktoren, welche die Veränderungen in Permafrost-Mooren direkt beeinflussen. Jegliche Störung des Oberflächenbodens kann zu einer Degradation des Permafrosts führen, dazu gehören natürliche Prozesse wie Wald- oder Tundrabrände und anthropogene Störungen wie Entwicklung und Bau von Industrie- und städtischen Infrastrukturen, Bergbau, Tourismus und Landwirtschaft. Diese vielen Formen der Entwicklung in Permafrost-Torfgebieten lassen häufig die Besonderheiten der Gebiete außer Acht und verursachen eine Zerstückelung der Landschaft und eine Störung des Wasserkreislaufs. In Russland wurden 15% des Tundra-Territoriums durch Transportaktivitäten zerstört, was zum Auftauen von Permafrost, Erosion, Absinken und zur Entwicklung von Thermokarst führte. Etwa 45% der Erdöl- und Erdgasfördergebiete in der russischen Arktis befinden sich in den ökologisch empfindlichsten Gebieten, häufig in Moorgebieten, dazu gehören die Region Petschora, der Polarural sowie Nordwest- und Mittelsibirien. Der steigende Bedarf an natürlichen Ressourcen und die aufgrund der wärmeren Bedingungen verbesserte Erreichbarkeit von Frostgebieten können in Zukunft zu einer Zunahme der industriellen und infrastrukturellen Aktivitäten führen und die Störung von Mooren und Permafrost verstärken. Die daraus resultierenden Veränderungen werden sich auch auf die dort heimische Bevölkerung auswirken, die seit Generationen von der Nutzung eines Landes wie den Mooren für Nahrungsmittel, Rentiere, Wild und Fisch abhängig waren.

Die Wahrnehmung von Permafrost-Mooren wächst

Seit mehr als einem Jahrhundert und in zunehmendem Maße in den letzten Jahrzehnten sind Permafrostregionen Gegenstand von Forschung und technologischer Entwicklung geworden, um sich mit deren besonderen wissenschaftlichen und technischen Herausforderungen auseinander zu setzen. Trotz der Leistungen der Internationalen Permafrost-Vereinigung und des Global Terrestrial Network for Permafrost bleiben große Lücken im regional-und habitatspezifischen Wissen bestehen, nicht zuletzt aufgrund extremer klimatischer Bedingungen, eingeschränkter Zugänglichkeit und eines komplexen geopolitischen Umfelds. Ein aktueller (aus 2018 stammender) Überblick weist darauf hin, dass in der wissenschaftlichen Literatur 30% aller Zitate über Feldversuche in der Arktis primär aus der direkten Umgebung von nur zwei Forschungsstationen stammen: Toolik Lake in Alaska und Abisko in Schweden. Dies könnte den wissenschaftlichen Konsens beeinflussen und zu ungenauen Vorhersagen über die Auswirkungen des Klimawandels in der Arktis führen.

Mit dem wachsenden Bewusstsein für Klimawandel und Eisschmelze in der Arktis versuchen die jüngsten Assessments Aspekte wie den sozial-ökologischen Wandel, Regimewechsel und die Rolle menschlichen Handelns bei Anpassung und Umgestaltung in zunehmendem Maße einzubeziehen. Um die Auswirkungen von Auftauen und Abbau des Permafrosts zu untersuchen, werden Großforschungsprojekte entwickelt. Dazu gehört die Initiative "Arctic Development and Adaptation to Permafrost in Transition" (ADAPT), die mit 15 Laboratorien in ganz Kanada und anderen Forschergruppen zusammenarbeitet, um ein integriertes Rahmenwerk für Erdsystemwissenschaften in der kanadischen Arktis zu entwickeln. Gesetze wie der "Ontario's 2010 Far North Act" gehen zusammen mit neuen Planungsinitiativen zur Erschließung und zum Schutz des hohen Nordens durch einen Planungsprozess der Landnutzung in Absprache mit den Ureinwohnern (First Nations).

Der Arktische Rat ist ein Beispiel für eine starke internationale Zusammenarbeit, die besonders dazu beigetragen hat, Wissen für die nationale und internationale Politik zu generieren und zu vertiefen, wie etwa mit dem 2017 Bericht über Schnee, Wasser und Permafrost in der Arktis. Zwar wird anerkannt, dass die arktischen Staaten eine Schlüsselrolle als Verwalter der Region spielen, doch sind auch Anstrengungen anderer Akteure erforderlich, um Permafrost-Torfgebiete zu schützen und dafür zu sensibilisieren. Eine Reihe internationaler Organisationen, wie das Intergovernmental Panel on Climate Change (IPCC) - durch seinen IPCC-Special Report on the Ocean and the Cryosphere in a Changing Climate -, die World Meteorological Organization und das International Science Council durch das Internationale Arktis-Wissenschaftskomitee, haben sich zunehmend engagiert, um Bewusstsein und Verständnis für die Auswirkungen der arktischen Veränderungen zu erhöhen.

Wissenserwerb und Erweiterung von Netzwerken

Darüber, wie schnell sich Permafrost-Moore verändern und welche Auswirkungen diese Veränderungen auf lokaler und globaler Ebene haben werden, besteht große Unsicherheit. Um weitere Forschung langfristig zu finanzieren und praktikable Strategien zur Reduzierung von Schwachstellen zu entwickeln, bedarf es internationaler Zusammenarbeit. Die Nationen müssen bei einer Reihe umsetzbarer Maßnahmen kooperieren, die traditionelles und lokales Wissen anerkennen und anwenden, den Austausch mit Interessengruppen erleichtern und wirksame Beobachtungsnetzwerke aufbauen. Gleichzeitig werden Öffentlichkeitsarbeit und Aufklärung über die Risiken, die wahrscheinlichen Auswirkungen und möglichen Optionen zur Anpassung der Schlüssel zur Entwicklung einer "informed governance" und Politik sein.

Obwohl es ein Netzwerk von Beobachtungsstationen gibt, die Informationen über allgemeine Trends der Änderungen des Permafrosts liefern, ist die räumliche Verteilung der Standorte sehr ungleichmäßig. Es bestehen große Lücken im Netzwerk insbesondere in der zentralen Kanadischen und zentralen Sibirischen Arktis, in Grönland, im russischen Fernen Nordosten, auf dem tibetischen Plateau und in der subarktischen Region. Die rechtzeitige Beurteilung des globalen Zustands von Permafrost erfordert die Erweiterung bestehender Forschungs-Netzwerke zu einem umfassenderen Überwachungsnetz. Dieses erweiterte Netzwerk sollte für alle Beteiligten, von Klimaforschern bis zur allgemeinen Öffentlichkeit, optimal nutzerfreundlich gestaltet sein und die Verwendung standardisierter Messungen und leicht zugänglicher Datenbanken einschließen. Länder mit ausgedehnten Permafrostzonen würden von der Ausarbeitung von Anpassungsplänen profitieren, welche die potenziellen Risiken abschätzen und Strategien zur Minderung der Schäden und Kosten des Permafrostabbaus enthalten. Abbildung 3 zeigt das Beispiel eines russischen Permafrost-Moorgebietes.

Abbildung 3. Permafrost Moorgebiet mit zahlreichen Seen in Einsenkungen, Cape Bolvansky, Russland. Photo Credit; Hans Joosten (Quelle: „Permafrost Peatlands: Losing ground in a warming world“; UNEP-Report [1]; Lizenz cc-by)

Permafrost-Moore als Kohlenstoff-Hotspots stellen ein besonderes, sehr vielfältiges und dynamisches Umfeld dar, das komplexe Zusammenhänge zwischen Kohlenstoff im Boden, Hydrologie, Permafrost, Vegetation und Menschen umfasst. Die größten Wissenslücken liegen im begrenzten Verständnis der Wechselbeziehungen zwischen den Prozessen und in der Unzulänglichkeit aktueller Studien und Modelle. Weitere Forschungen sind erforderlich, um die genaue Lage der Permafrost-Torfgebiete, ihre Veränderung und ihr Freisetzungspotential zu untersuchen. Klimamodelle müssen Kohlenstoffemissionen aus der Mobilisierung von Permafrostkohlenstoff berücksichtigen. Um die Reaktion und das Feedback von Permafrost-Torfgebieten auf den Klimawandel besser zu charakterisieren, ist es wichtig, über disziplinübergreifende Untersuchungen hinauszugehen. Dies erfordert eine Annäherung an eine Integration und Feldbeobachtungen sowie retrospektive - oder paläo-umweltbezogene - Studien, Fernerkundung und dynamische Modellierung. Die physikalische Komplexität von Permafrost-Mooren und das signifikante Risiko ihrer möglichen Verschlechterung und Störung erfordern auch einen ganzheitlicheren Ansatz für die Planung der Landnutzung und Bewirtschaftung, der ein besseres integriertes Wissen für Planer und Entscheidungsträger erfordert.

Die Arktis hat bereits begonnen, sich erheblich zu verändern. Selbst bei vollständiger Umsetzung des Pariser Übereinkommens gemäß der Klimarahmenkonvention der Vereinten Nationen ist es wahrscheinlich, dass sich die arktische Umwelt bis zum Ende des Jahrhunderts erheblich von der heutigen unterscheidet. Die nahezu unvermeidliche Beschleunigung der Auswirkungen verstärkt den dringenden Bedarf an lokalen und regionalen Anpassungsstrategien, die auf diese kohlenstoffdichten nördlichen Ökosysteme abzielen. Die umsichtige Bewirtschaftung von Permafrost-Mooren wird der Schlüssel zu Treibhausgasemissionen, zur Verringerung der menschlichen und ökologischen Gefährdung und zum Aufbau einer langfristigen Klimaresilienz sein.


[1] Umweltorganisation der Vereinten Nationen (UNEP) „Frontiers 2018/19: Emerging Issues of Environmental Concern“ (4. März 2019) . https://wedocs.unep.org/bitstream/handle/20.500.11822/27538/Frontiers1819.pdf?sequence=1&isAllowed=y

Anmerkung der Redaktion:

Ein kürzlich (am 21.10.2019) in Nature Climate Change erschienener Artikel  (Large loss of CO2 in winter observed across the northern permafrost region; https://www.nature.com/articles/s41558-019-0592-8) hat die Ergebnisse an 100 arktischen Permafrost-Prüfstellen untersucht: im Mittel scheinen hier doppelt so hohe Kohlenstoffmengen in die Umwelt emittiert zu werden und so zur Klimaerwärmung beizutragen als man ursprünglich schätzte.

 Ein nicht zu überhörender Warnruf, auch wenn Zahl und Lokalisierung der Meßpunkte  nicht repräsentativ für den arktischen Permafrostbereich sein dürften!


* Der Artikel "Permafrost Peatlands: Losing ground in a warming world“ stammt aus dem unter [1] angeführten UNEP-Report „Frontiers 2018/19: Emerging Issues of Environmental Concern“ (4. März 2019). Der Text des unter einer cc-by Lizenz stehenden Artikels wurde von der Redaktion vollständig und möglichst wortgetreu aus dem Englische übersetzt und durch 3 Bilder aus dem Original ergänzt.


Weiterführende Links

Permafrost – Was ist das? Video (2016) 13:04 min
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung .

Ambarchik: Permafrost-Forschung an der sibirischen Eismeerküste. Video (2018) 4:25 min.
Max-Planck-Institut für Biogeochemie.

Russland: Das Ende des Permafrosts | Weltspiegel (2019) Video 7:05 min.


Artikel im ScienceBlog:

Auf die im UNEP-Report 2018/19 genannten fünf wichtigsten Herausforderungen, welche die natürlichen Lebensgrundlagen auf unserem Planeten künftig maßgeblich mitbestimmen werden - Synthetische Biologie, Ökologische Vernetzung , Permafrostmoore im Klimawandel (aktueller Artikel), Stickstoffkreislaufwirtschaft und Fehlanpassungen an den Klimawandel  - nehmen im ScienceBlog folgende Artikel Bezug:


 

Redaktion Thu, 07.11.2019 - 08:19

Was ist die Psyche?

Was ist die Psyche?

Do, 31.10.2019 — Nora Schultz

Nora SchultzIcon Gehirn

Die Psyche und ebenso ihre Erkrankungen sind stofflich solide verankert. Die Entwicklungsbiologin Nora Schultz gibt einen Überblick wie Neurotransmitter, neuronale Netze und Genvarianten Aufschluss über psychiatrische Mechanismen und Risiken geben, und wie auch das Immunsystem und die Darmflora dabei mitmischen. *

 

René Descartes kannte noch zwei klar unterscheidbare Zutaten des Menschen: das Körperliche, die res extensa oder „ausgedehnte Substanz“, und das Geistige, die res cogitans oder „denkende Substanz“, zu der er neben den Gedanken auch alle weiteren Aspekte der Psyche zählte. Dieser auch als Dualismus bezeichnete Denkansatz hallt bis heute nach. Noch immer werden Körper und Psyche vielfach als getrennte Sphären wahrgenommen – Erkrankungen der Psyche gelten infolge als stofflich kaum begreifbar oder sogar als reine Einbildung.

Tatsächlich wissen wir inzwischen, dass die Psyche keineswegs in einem körperlichen Vakuum schwebt. Descartes‘ ursprüngliche Idee, dass Körper und Geist exklusiv über die Zirbeldrüse miteinander in Austausch stehen, hat sich zwar inzwischen als falsch herausgestellt. Doch über die echten stofflichen Wurzeln und Blüten des menschlichen Geistes – und somit auch seiner Erkrankungen – wird immer mehr bekannt.

Lehrreiche Nebenwirkungen

Die ersten großen Durchbrüche gelangen in den 1950er und 1960er Jahren, als Forscher erstmals zu ahnen begannen, wie manche Chemikalien sich auf das Gemüt auswirken. Die Tuberkulosepatienten in der Sea View Klinik auf Staten Island etwa erholten sich 1952 nach Einnahme des neuen Medikaments Iproniazid nicht nur von ihrer Infektionskrankheit, sondern tanzten plötzlich euphorisch durch die Gänge. Das ursprünglich als allergielinderndes Antihistaminikum entwickelte Medikament Chlorpromazin wurde, nachdem Ärzten seine beruhigende Wirkung aufgefallen war, 1952 mit dramatischen Erfolgen zur Behandlung von manischen und schizophrenen Patienten eingesetzt. Erst im folgenden Jahrzehnt entdeckten Forscher wie der Schwede Arvid Carlsson, der dafür 2000 den Nobelpreis erhielt, die Botenstoffe im Gehirn, deren Wirkung von diesen Medikamenten beeinflusst wurde, allen voran Dopamin, Serotonin und Glutamat.

Vor allem zwischen Serotonin und Dopamin und wichtigen psychischen Erkrankungen wurden bald Zusammenhänge entdeckt. Abbildung 1. Die Beobachtungen, dass eine Depression oft von einem Mangel an Serotonin begleitet wird und Schizophrenie von Dopaminüberschüssen, haben bis heute Bestand. Allerdings erweist sich die Sache als wesentlich komplexer, wie die Forschung in den nachfolgenden Jahrzehnten aufgedeckt hat [1].

Abbildung 1. Zu den wichtigsten Neurotransmittern zählen Dopamin (links oben) und Serotonin (rechts oben); Mangel oder Überschuss können zu psychiatrischen Krankheitsbildern führen.(Das von Pixabay stammende Bild ist gemeinfrei und wurde von der Redaktion modifiziert und. eingefügt).

So bestätigte sich zwar, dass ein Dopaminüberschuss etwa im limbischen System zu Reizüberüberflutung und dadurch zu den sogenannten pychotischen Plussymptomen des schizophrenen Krankheitsbilds beitragen kann, also etwa Wahnvorstellungen oder Halluzinationen. Für die ebenfalls auftretenden Minussymptome – emotionaler oder sozialen Rückzug zum Beispiel – wird hingegen inzwischen eine verminderte Dopaminübertragung mitverantwortlich gemacht, vor allem im Stirnhirn. Auch eine reduzierte Übertragung des Neurotransmitters Glutamat im präfrontalen Cortex und in den Verbindungen zu tiefer gelegenen Kerngebieten wie dem Striatum, spielen wahrscheinlich eine Rolle. Zudem beeinflussen sich das Dopaminsystem und das Glutamatsystem gegenseitig.

Auch der Zusammenhang zwischen Serotonin und Depressionen hat sich längst nicht als so eindeutig entpuppt, wie ursprünglich angenommen. Selektive Serotonin-Wiederaufnahme-Hemmer (SSRI) wie der bekannte Wirkstoff Fluoxetin wirken zwar bei vielen Betroffenen gut gegen Depressionen. Oftmals stellt sich der Effekt jedoch erst nach vielen Wochen der Behandlung ein. Würde sich eine erhöhte Serotoninkonzentration in den Synapsen direkt auf die Stimmung auswirken, wäre dagegen ein viel schnellerer Effekt zu erwarten.

Neurogenese durch Antidepressiva?

Inzwischen deutet vieles darauf hin, dass Serotonin seine heilsame Wirkung dadurch entfaltet, dass es neuronale Wachstumsprozesse beeinflusst. Häufig ist in den Gehirnen von Menschen mit Depression ein verkleinerter Hippocampus zu finden – eine Hirnregion, die eine wichtige Rolle bei vielen Emotionen und Lernprozessen spielt. Unter dem Einfluss von Serotonin modellieren hier Neuronen ihre Synapsen beim Bilden von Gedächtnisinhalten besonders intensiv um. Und möglicherweise entstehen auch im Erwachsenenalter noch neue Nervenzellen. Genetisch veränderte Mäuse, denen der molekulare Kanal fehlt, mit dem Serotonin recycelt wird, reagierten trotzdem weniger depressiv auf chronischen Stress, wenn sie SSRI-Medikamente erhielten. Auch die vor einigen Jahren entdeckte antidepressive Wirkung des Schmerzmittels Ketamin beruht wohl darauf, dass die Substanz die neuronale Plastizität (d.i. die Fähigkeit von Synapsen, Nervenzellen und ganzen Hirnarealen, sich abhängig vom Grad ihrer Nutzung zu verändern) stimuliert. Das Wachstum neuer Nervenzellen ebenso wie das Entstehen frischer Verknüpfungen von Nervenzellen helfen dabei, der Depression zu entkommen – vermutlich, weil sie es erleichtern, einen besseren Umgang mit Stressfaktoren zu erlernen.

Neuronale Plastizität spielt auch bei der Schizophrenie eine Rolle. Fachleute betrachten die Krankheit inzwischen weitgehend als Entwicklungsstörung des Gehirns, bei der synaptische Umbauarbeiten im Jugendalter schief laufen. Es werden zu viele Verbindungen zwischen Nervenzellen wieder abgebaut und die Feinjustierung der Botenstoffsysteme während dieser Entwicklungsphase wird gestört. Doch was verursacht die Ungleichgewichte in den Signalsystemen? Die hohe Plastizität im jugendlichen Gehirn mag es anfälliger für zufällige Fehler machen, aber auch empfindlicher für intensive Eindrücke und Erlebnisse, die ihre Spuren in den Netzwerken und Transmittersystemen hinterlassen können. Jugenderfahrungen bleiben nachweislich besonders intensiv im Gedächtnis haften und haben einen großen Einfluss darauf, wie sich Persönlichkeit und Verhaltensmuster ausformen. Jugendliche reagieren auch mit größerer Wahrscheinlichkeit heftig oder nachhaltig auf die Einnahme psychoaktiver Drogen wie Cannabis: Das Schizophrenie-Risiko steigt.

Auch bei Erwachsenen können intensiver Stress und emotionale Belastungen sowie Drogenkonsum psychiatrische Erkrankungen begünstigen. So treten Depressionen, Schizophrenie und Angststörungen häufig infolge besonders herausfordernder Lebensereignisse auf, seien es Komplikationen während Schwangerschaft und Geburt oder traumatische Erlebnisse wie Todesfälle, Gewalt oder Missbrauch. Studien zeigen, dass Stress genau entgegengesetzt zu Antidepressiva auf die Neubildung von Nervenzellen und synaptischen Verbindungen wirkt – er behindert beides. Abbildung 2.

Abbildung 2. Auswirkungen auf die Psyche durch Entzündungsprozesse, Stressreaktionen und auch durch die Darmflora.

Gestörte Konnektivität

Mithilfe funktioneller Magnetresonanz-Bildgebung lassen sich die neuronalen Verknüpfungen eines Gehirns als „Konnektom“ darstellen. Eine Untersuchung solcher Konnektome von über 1.000 Menschen mit und ohne psychiatrische Erkrankungen ergab, dass sowohl bei Patienten mit psychotischen Symptomen als auch bei solchen mit Depressionen im Vergleich zu Gesunden die neuronalen Verknüpfungen im frontoparietalen Netzwerk reduziert sind. Je massiver die Störung des Netzwerks, desto schwerer sind die Symptome. Die Details unterscheiden sich jedoch je nach Krankheitsbild. So finden sich im Gehirn von Menschen, die „nur“ an Depressionen oder einer bipolaren Störung leiden, vor allem Auffälligkeiten in den frontoparietalen und limbischen Netzwerken. Wer an psychotischen Symptomen leidet, zeigt hingegen oft breiter gestörte Konnektivität, die auch das Ruhezustandsnetzwerk betrifft.

Die Psyche ist aber auch jenseits der neuronalen Netze viel intensiver und komplexer körperlich verankert, als ursprünglich angenommen. So häufen sich mittlerweile die Hinweise darauf, dass auch Entzündungsprozesse und die Darmflora Auswirkungen auf die Psyche haben können. Entzündungen entstehen z. B. in Reaktion auf Infektionen oder Verletzungen, aber auch Stress, und dienen eigentlich dazu, durch erhöhte Temperatur und Immunaktivitäten Erregern den Garaus zu machen. Betrifft die Entzündungsreaktion den gesamten Körper, schlägt sie sich auch in typischen Krankheitssymptomen wie Abgeschlagenheit, Gliederschmerzen, Müdigkeit und Appetitlosigkeit nieder, die dazu verleiten, sich ins Bett zu verkriechen und sich auszukurieren.

Bleiben Entzündungswerte und -symptome dauerhaft erhöht, z.B. durch chronischen Stress oder chronische entzündliche Erkrankungen wie Diabetes oder Rheuma, können sich diese Symptome zu einer depressiven Dauerverstimmung auswachsen. Chronische Entzündungen und Depressionen treten häufig gemeinsam auf. Es gibt Hinweise darauf, dass die an Entzündungsprozessen beteiligten Botenstoffe die Blut-Hirn-Schranke überwinden und sich direkt auf Neurotransmittersysteme auswirken. Entzündungsfördernde Zytokine können zum Beispiel die Produktion von Serotonin mindern oder die Aktivität von Serotonin-Transportern erhöhen und so die Serotonin-Ungleichgewichte begünstigen, die sich bei vielen Depressionen zeigen. Zudem haben Wissenschaftler beobachtet, dass Entzündungsstoffe neurotoxisch wirken oder die Neurogenese im Hippocampus hemmen können.

Vom Darm ins Gehirn

Dass auch Darmbakterien sich auf die Psyche auswirken können, ist eine relativ neue Erkenntnis. Sie wirken offenbar über das Immunsystem, indem sie etwa spezialisierte Abwehrzellen auf den Plan rufen und Entzündungen fördern. Tatsächlich kann dies Immunzellen im Darm dazu anregen, Chemikalien zu produzieren, die bis ins Gehirn gelangen und dort psychiatrisch relevante Effekte entfalten. Einige Darmbakterien produzieren aber auch selbst psychiatrisch wirksame Substanzen oder stimulieren den Vagusnerv, der Signale aus dem Darm direkt ins Gehirn weiterleitet. Schraubt man am Gleichgewicht der Darmflora, kann das therapeutische Effekte haben. Sowohl die direkte Gabe erwünschter Mikroorganismen (Probiotika) als auch ein Plus an bestimmten Ballaststoffen in der Nahrung, die das Wachstum solcher Organismen im Darm fördern (Präbiotika), vermögen etwa Angststörungen positiv zu beeinflussen.

Ob eine psychiatrische Störung auftritt oder sich durch gezielte Eingriffe in die bislang bekannten biologischen Mechanismen beeinflussen lässt, hängt allerdings auch von genetischen Faktoren ab. Liegen risikofördernde Genvarianten vor, kann dies das Entstehen psychiatrischer Erkrankungen begünstigen und das therapeutische Bemühen erschweren. Genomweite Assoziationsstudien haben bereits Zusammenhänge zwischen etlichen Genvarianten und dem Auftreten von Störungen wie Schizophrenie oder Depression entdeckt. Sie betreffen zum Beispiel Proteine, die am Dopamin- oder Glutamatsystem beteiligt sind oder eine Rolle in der synaptischen Funktion und der neuronalen Entwicklung spielen. Eine Variante des Gens für den Wachstumsfaktor BDNF zum Beispiel produziert eine weniger verfügbare Form des Proteins, was vermutlich Einschränkungen bei der Neurogenese und synaptischen Plastizität nach sich zieht. Träger der Variante haben einen kleineren Hippocampus und entwickeln infolge starker Stressbelastungen, wie sie etwa nach einem Trauerfall oder einer Scheidung auftreten können, eher Depressionen oder Angststörungen als Menschen ohne diese Genvariante.

400 Jahre sind vergangen, seit René Descartes versuchte, die Wechselwirkungen zwischen Körper und Geist zu ergründen. Seine Nachfahren mögen voller Stolz auf den enormen Wissensschatz verweisen, den Wissenschaftler seitdem zusammengetragen haben, sowie auf die unzähligen Details, die auf die stofflichen Grundlagen von Gemütserkrankungen verweisen. Noch immer aber ist das Puzzle nicht komplett. Und mit der Umsetzung ihrer Erkenntnisse steht die moderne psychiatrische Forschung womöglich gerade erst am Anfang.

[1] O. Howes et al., Glutamate and dopamine in schizophrenia: an update for the 21st century. J Psychopharmacol. 2015 February ; 29(2): 97–115. doi:10.1177/0269881114563634


*Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Im Fokus des Monats Oktober steht die "Zukunft der Psychiatrie", zu dem auch der vorliegende, unter einer cc-by-nc-sa Lizenz stehende Text unter dem Titel "Die Substanz der Psyche" erschienen ist. Der Artikel wurde von der Redaktion geringfügig für den Blog adaptiert und es wurden Abbildungen eingefügt.


Weiterführende Literatur

  • Dinan TG, Stanton C, Cryan JF: Psychobiotics: A Novel Class of Psychotropic.Biological Psychiatry. 2013 Nov; 74(10): 720–726 (zum Abstract).
  • Amodeo G, Trusso MA, Fagiolini A: Depression and Inflammation: Disentangling a Clear Yet Complex and Multifaceted Link.Neuropsychiatry. 2017. 7(4): 448-457 (zum Volltext).
  • Durstewitz D, Koppe G, Meyer-Lindenberg A: Deep Neural Networks in Psychiatry. Molecular Psychiatry. 2019. doi: 10.1038/s41380-019-0365-9 (zum Volltext).

 

Redaktion Wed, 30.10.2019 - 18:16

Die Digitale Revolution: Chancen und Herausforderungen für eine nachhaltige Entwicklung

Die Digitale Revolution: Chancen und Herausforderungen für eine nachhaltige Entwicklung

Do, 24.10.2019 — IIASA

IIASAIcon Politik & GesellschaftDie Digitale Revolution hat zu einem raschen technologischen Wandel geführt, der die Art und Weise verändert, wie Gesellschaften funktionieren und wie der Mensch auf die Erde einwirkt. Ein neuer Bericht der Initiative "Die Welt im Jahr 2050" (TWI2050-Bericht), unter Federführung des International Institute of Applied Systems Analysis (IIASA, Laxenburg bei Wien) ist auf dem hochrangigen politischen Forum der Vereinten Nationen in New York am 12. Juli 2019 veröffentlicht worden [1]. Der Bericht beschreibt, wie sich digitale Technologien nutzen lassen, um die 2015 von allen UN-Mitgliedsländern beschlossenen Ziele für Nachhaltige Entwicklung bis 2030 zu erreichen und darüber hinaus die Welt in eine nachhaltige Zukunft zu führen.*

Die Digitale Revolution – ein Begriff, der häufig verwendet wird, um den tiefgreifenden technologischen Wandel zu beschreiben – ist weltweit zum Thema der öffentlichen Diskussion geworden, und es zeichnet sich immer deutlicher ab, dass der digitale Wandel eine wesentliche treibende Kraft für eine gesellschaftliche Transformation ist. Dennoch ist Digitalisierung in den 2015 von den Vereinten Nationen beschlossenen "Agenda 2030 für nachhaltige Entwicklung" mit ihren 17 nachhaltigen Entwicklungszielen (Sustainable Development Goals, SDGs; siehe Abbildung 1), die bis 2030 umgesetzt werden sollen, kaum erwähnt. Gleiches gilt für den Pariser Weltklimavertrag, in dem die Digitalisierung nur marginal enthalten ist.

Nachhaltige Entwicklungsziele

Tatsächlich kann die Digitalisierung die Verwirklichung der nachhaltigen Entwicklungsziele aber erheblich unterstützen oder aber auch beeinträchtigen. Ein neuer Bericht -„The Digital Revolution and Sustainable Development: Opportunities and Challenges“ - beschreibt, wie die Digitalisierung die Welt verändern kann und wie diese Veränderungen für die Zeit bis 2030 und darüber hinaus geplant werden können.

Abbildung 1. Agenda 2030 für nachhaltige Entwicklung: Die 17 Ziele (und 169 Unterziele, nicht gezeigt) für nachhaltige Entwicklung (Sustainable Development Goals, SDGs) sollen bis 2030 global und von allen 193 UNO-Mitgliedstaaten erreicht werden. (Bild: WP:NFCC#7 Wikipedia, deutsche Version: © Bundeskanzleramt Österreich; Bild und Text von der Redaktion eingefügt.)

„Der digitale Wandel verändert in radikaler Weise alle Dimensionen globaler Gesellschaften und Volkswirtschaften und wird wahrscheinlich auch unsere Auffassung des Paradigmas der Nachhaltigkeit selbst verändern. Gemeinschaften für nachhaltige Entwicklung und digitale Technologie sind noch nicht ausreichend miteinander verbunden, um diese Probleme voll angehen zu können. Der Wandel zur Nachhaltigkeit muss mit Gefahren, Chancen und Dynamik der Digitalen Revolution, den Zielen der Agenda 2030 und dem Pariser Klimaabkommen in Einklang gebracht werden. Digitalisierung ist nicht nur ein Werkzeug um Herausforderungen der Nachhaltigkeit zu bewältigen, sondern auch ein wesentlicher Faktor für umwälzende ("disruptive") Veränderungen auf vielen Ebenen “, sagt Nebojsa Nakicenovic, Executive Director der Forschungsinitiative The World in 2050 (TWI2050).

In dem kürzlich unter dem Titel "Digitale Revolution und nachhaltige Entwicklung: Chancen und Herausforderungen" veröffentlichten TWI2050-Bericht, der vom IIASA, dem Institut für Umwelt und menschliche Sicherheit (United Nations University, UNU (UNU-EHS), und von Partnern mit herausgegeben wurde, haben mehr als 45 Autoren und Mitarbeiter aus 20 Institutionen die wichtigsten Chancen und Herausforderungen untersucht, welche digitale Technologien für die Erreichung der Nachhaltigkeitsziele darstellen. Sie umreißen neun wichtige Überlegungen zu den Verknüpfungen zwischen den Revolutionen der Digitalisierung und der Nachhaltigkeit - sowohl positive als auch negative - und welche kritischen Themen angegangen werden müssen, um die Chancen der Digitalisierung für eine nachhaltige Zukunft für uns alle zu maximieren und die Risiken zu minimieren. Abbildung 2.

Abbildung 2. "Die Welt im Jahr 2050": Wesentliche Interventionen, um die Nachhaltigkeitsziele (SDGs) zu erreichen, sind in ein Set von 6 Transformationen zusammengefasst. (Bild von der Redaktion eingefügt:.aus TWI2050 - The World in 2050 (2019)[1]; Lizenz: cc-by-nc;)

„Die Mobilisierung des enormen Potenzials einer digitalen nachhaltigen Transformation ist kein automatischer Prozess. In den letzten ein oder zwei Jahrzehnten hat die Digitalisierung als Beschleuniger wirtschaftlicher Prozesse gewirkt, die nach wie vor überwiegend auf fossiler Energie und Gewinnung von Rohstoffen beruhen. Wenn Kurskorrekturen jedoch erfolgreich sind, können die disruptiven Auswirkungen der Digitalisierung auf die Nachhaltigkeit genutzt werden, um eine Nachhaltigkeitstransformation zu beschleunigen und zu verbessern. Wir zeigen im Bericht, wie die "fehlenden Verbindungen" zwischen Digitalisierung und Nachhaltigkeit hergestellt werden können ", erklärt Dirk Messner, Direktor von UNU-EHS.

Das digitale Anthropozän

Der Bericht weist darauf hin, dass wir uns in einer neuen Ära der Menschheitsgeschichte befinden, die durch digitale Systeme wie künstliche Intelligenz und Deep Learning gekennzeichnet ist, welche die kognitiven Fähigkeiten des Menschen in bestimmten Bereichen verbessern und letztendlich ergänzen oder möglicherweise übertreffen werden. Die Autoren fordern, dass Transformationen zur Nachhaltigkeit in diesem neuen Kontext entwickelt, umgesetzt und überdacht werden müssen und dass die Nachhaltigkeitsziele als zentrale Punkte auf dem Weg zu einer nachhaltigen Zukunft für alle bis 2050 und darüber hinaus und nicht als Selbstzweck betrachtet werden sollten.

Eine weitere Überlegung betrifft die Möglichkeit, dass digitale Technologien eine disruptive Revolution in Richtung einer nachhaltigen Zukunft ermöglichen können. Dem Bericht zufolge können diese Technologien in vielerlei Hinsicht Vorteile bringen, beispielsweise indem sie die Dekarbonisierung in allen Sektoren ermöglichen und Kreislaufwirtschaft und "Shared Economies" fördern. Dies wird jedoch nicht von selbst geschehen und wahrscheinlich eine radikale Umkehrung der aktuellen Trends erforderlich machen, um die disruptiven Potentiale der Digitalisierung mit den Wegen zur Nachhaltigkeit zu harmonisieren. In diesem Zusammenhang wird in dem Bericht hervorgehoben, dass ein enormer Bedarf für entsprechende Regulierungsmaßnahmen, Anreize und Änderungen der Perspektiven besteht, die es derzeit nur in einer kleinen Anzahl von Sektoren und in einer begrenzten Anzahl von Ländern gibt. Eng damit verbunden ist die dringende Notwendigkeit einer Steuerung, um den Auswirkungen der disruptiven Dynamik der Digitalisierung entgegenzuwirken, welche die Aufnahmekapazitäten unserer Gesellschaften in Frage stellt und die bereits beunruhigenden Trends der Erosion des sozialen Zusammenhalts möglicherweise vervielfacht.

Die Autoren postulieren ferner, dass die Digitale Revolution den Weg für einen Quantensprung für die menschliche Zivilisation selbst auf einer Vielzahl von Fronten ebnet, medizinische Fortschritte mit eingeschlossen, welche im Verlauf des letzten Jahrhunderts die menschliche Lebenserwartung sich verdoppeln gesehen haben. Darüber hinaus werden autonome technische Systeme und Entscheidungsfindungssysteme, die auf maschinellem Lernen und künstlicher Intelligenz beruhen, künftig alle Bereiche der Gesellschaft und der Wirtschaft grundlegend verändern. Einige davon, wie die aktuellen Wettervorhersagesysteme, Spamfilterprogramme und Googles Suchmaschine, die alle mit künstlicher Intelligenz betrieben werden, sind bereits zu einem unverzichtbaren Bestandteil unseres täglichen Lebens geworden.

Der neue Bericht macht auf die Notwendigkeit aufmerksam, dass Entscheidungsträger, Forscher, Unternehmen und zivilgesellschaftliche Akteure ihre Bemühungen verstärken, um die vielfältigen Auswirkungen digitaler Systeme zu verstehen und weitreichende Strukturveränderungen vorsehen, um eine Grundlage für den Wandel zur Nachhaltigkeit zu schaffen. Die Autoren warnen aber zur Vorsicht: es gibt ja keine "Silberkugel" (d.i. magische Lösung), um die digitale Revolution in Richtung Nachhaltigkeit zu gestalten und zu steuern, da die Zukunft von Natur aus ungewiss ist - die Herausforderung besteht darin, verantwortungsbewusste, belastbare, anpassungsfähige und integrative Wissensgesellschaften aufzubauen.


[1] TWI2050 - The World in 2050 (2019). The Digital Revolution and Sustainable Development: Opportunities and Challenges. International Institute for Applied Systems Analysis (IIASA), Laxenburg, Austria. [pure.iiasa.ac.at/15913]


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 11. Juli 2019 auf der IIASA Webseite unter dem Titel: "The Digital Revolution: Opportunities and challenges for sustainable development" erschienen. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch passende Abbildungen  und Legenden ergänzt.


Weiterführende Links

Bundeskanzleramt: Nachhaltige Entwicklung – Agenda 2030 / SDGs

Umweltbundesamt: Die AGENDA 2030 für nachhaltige Entwicklung

Bundesrat Schweiz: 17 Ziele für nachhaltige Entwicklung (Video)

Verwandtes Thema im ScienceBlog

IIASA, 26.07.2018: Herausforderungen für die Wissenschaftsdiplomatie


 

Redaktion Thu, 24.10.2019 - 06:40

Projektförderung an der Schnittstelle von Kunst und Naturwissenschaft: Wie trägt Musik zu unserer Gesundheit bei?

Projektförderung an der Schnittstelle von Kunst und Naturwissenschaft: Wie trägt Musik zu unserer Gesundheit bei?

Do, 17.10.2019 — Francis S. Collins

Francis S. CollinsIcon Gehirn

Musik kann uns mobilisieren, unsere Stimmung aufheitern, sogar Erinnerungen wachrufen. Kann Musik aber auch unsere Gesundheit positiv beeinflussen? Zur Untersuchung dieser Frage haben vor zwei Jahren die US-National Institutes of Health (NIH) zusammen mit dem National Symphony Orchestra (NSO) das Projekt "Sound Health" ins Leben gerufen; dessen Umfang soll nun gemeinsam mit dem John F. Kennedy Center für darstellende Künste erweitert werden. 20 Millionen US$ sollen über 5 Jahre in Projekte investiert werden, welche mittels moderner biomedizinischer Methoden untersuchen, wie und mit welchen Regionen des Gehirns die Musik wechselwirkt und wieweit sie eine Reihe von (neurologischen) Erkrankungen positiv beeinflussen kann. Francis S. Collins, seit 10 Jahren Direktor der NIH, hat nicht nur die Genforschung revolutioniert (er war u.a. Leiter des "Human Genome Project" und hat eine Reihe Krankheiten verursachender Gene entdeckt), er ist auch ein unermüdlicher Prediger für die Macht, die Musik auf unser Leben hat.*

Es ist nicht alltäglich zusammen mit einer der besten Stimmen der Welt auf der Bühne zu stehen. Was war es doch für eine Ehre anlässlich der J.Edward Rall Cultural Lecture am NIH im Mai die berühmte Opernsängerin Renée Fleming bei der Interpretation von "How can I keep from singing?" (Wie kann ich mich am Singen hindern?") begleiten zu dürfen. Abbildung 1. Unser Duett bedeutete aber so viel mehr. Zwischen der zeitlosen Botschaft des Liedes und Renées unvergleichlichem Sopran erfüllte mich die Musik mit einem tiefen Gefühl der Freude, so als ob ich für einen kurzen Moment aus mir selbst an einen Ort der Schönheit und des Wohlbefindens entführt würde. Wie kann so etwas geschehen?

Abbildung 1. Francis S.Collins und Renée Fleming interpretieren ein altes aus 1864 stammendes Lied: "How can I keep from singing?" Die Aufnahme kann auf Youtube hier abgehört werden. Der Text des Liedes findet sich im Anhang.

Tatsächlich ist der Nutzen der Musik für die Gesundheit und das Wohlbefinden des Menschen seit langem anerkannt. Die biomedizinische Wissenschaft hat aber bis jetzt nur eine sehr limitierte Vorstellung davon wie die Musik auf das Gehirn einwirkt und welches Potential sie besitzt, um die Symptome einer Reihe von Erkrankungen zu lindern, wie beispielsweise der Parkinsonkrankheit, des Schlaganfalls oder auch posttraumatischer Belastungsstörungen (PTBS).

Die Sound Health Initiative

Die NIH haben nun einen wesentlichen Schritt getan, um mittels strenger Wissenschaft zu erfassen, welches Potenzial die Musik zur Förderung der menschlichen Gesundheit besitzt: dafür wurden gerade 20 Millionen US-Dollar bereitgestellt, die über einen Zeitraum von fünf Jahren zur Förderung der ersten Forschungsprojekte der Sound Health-Initiative dienen sollen. Abbildung 2. Sound Health wurde 2017 ins Leben gerufen und ist eine Partnerschaft zwischen den NIH und dem John F. Kennedy Center für darstellende Künste, in Zusammenarbeit mit der Nationalstiftung für Künste.

Abbildung 2. Sound Health: Die NIH unterstützen mit 20 Millionen US $ über einen Zeitraum von 5 Jahren Projekte, die Musiktherapie und Neurowissenschaften zusammenbringen (Bild: https://www.nih.gov/research-training/medical-research-initiatives/sound-health, von Redn. eingefügt)

Unterstützt von 10 NIH-Instituten und -Zentren werden die durch Sound Health-Grants geförderten Wissenschafter unter anderem untersuchen, wie Musik die motorischen Fähigkeiten von Parkinson-Patienten verbessern kann. Frühere Untersuchungen haben gezeigt, dass der Schlag eines Metronoms den Gang von Parkinson-Patienten stabilisieren kann. Es sind jedoch weitere Untersuchungen erforderlich, um genau zu bestimmen, warum dies geschieht.

Untersuchungen an der Schnittstelle von Musik und Biomedizin

Zu weiteren faszinierenden Gebieten, die mittels Sound Health-Förderung erkundet werden, zählen:

  • Wie beeinflussen aktive Musikinterventionen, oft Musiktherapien genannt, eine Reihe von Biomarkern, die mit einer Verbesserung des Gesundheitszustands korrelieren? Ziel ist es, ein umfassenderes Verständnis zu erhalten, wie solche Interventionen dazu dienen können, krebsbedingten Stress abzubauen und möglicherweise sogar die Immunfunktionen zu verbessern.
  • Wie wirkt Musik auf das sich entwickelnde Gehirn von Babies, wenn sie sprechen lernen? Eine solche Untersuchung kann besonders für Kleinkinder hilfreich sein, die mit einem hohen Risiko für Rede- und Sprachstörungen behaftet sind.
  • Untersuchungen zur Synchronisation des musikalischen Rhythmus als Teil der sozialen Entwicklung. Diese Forschung wird untersuchen, wie dieser Prozess bei Kindern mit Autismus-Spektrum-Störungen beeinträchtigt ist und möglicherweise Wege aufzeigen, musikbasierte Interventionen zur Verbesserung der Kommunikation zu entwickeln.
  • Welche Auswirkungen auf das Gedächtnis hat es, wenn man wiederholt einem bestimmten Lied oder einer musikalischen Phrase ausgesetzt ist, einschließlich derjenigen „Ohrwürmer“, die in unseren Köpfen haften bleiben? Diese Studie könnte uns mehr darüber erzählen, wie Musik manchmal als Anhaltspunkt für das Abrufen assoziierter Erinnerungen dient, selbst bei Menschen, deren Erinnerungsvermögen durch die Alzheimer-Krankheit oder andere kognitive Störungen beeinträchtigt ist.
  • Wie formt Musik das Gehirn über die Zeit der Entwicklung hin - von der Kindheit bis zum Erwachsenenalter? Dazu gehört, dass untersucht wird, wie das Musiktraining an verschiedenen Punkten dieser Zeitspanne Aufmerksamkeit, ausführende Tätigkeiten, soziale und emotionale Funktionen und sprachliche Fähigkeiten beeinflussen kann.

Fazit

Wir haben das Glück, in einer Zeit zu leben, die außergewöhnlich ist, was die Entdeckungen in den Neurowissenschaften betrifft und ebenso außergewöhnlich hinsichtlich der Kreativität in der Musik. Die Sound Health-Förderungen sind - so hoffe ich - nur der Anfang einer langen und produktiven Partnerschaft, die diese kreativen Bereiche zusammenbringt. Ich bin davon überzeugt, dass die Macht der Wissenschaft enorme Möglichkeiten bietet, um die Wirksamkeit musikbasierter Interventionen zu steigern und deren Reichweite auszudehnen mit dem Ziel Gesundheit und Wohlbefinden von an verschiedensten Krankheiten leidenden Menschen zu verbessern.


* Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am 19. September 2019) im NIH Director’s Blog unter dem Titel: "New Grants Explore Benefits of Music on Health" und wurde geringfügig für den ScienceBlog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH). Die Abbildungen stammen von den unter Weiterführende Links angegebenen Seiten und wurden von der Redaktion eingefügt.


Weiterführende Links

National Institutes of Health. https://www.nih.gov/

NIH awards $20 million over five years to bring together music therapy and neuroscience (19. September 2019)

Renée Fleming's Brain Scan: Understanding Music and the Mind (2017). Video 2:59 min.

How Can I Keep From Singing

Text von Enya; https://www.songtexte.com/songtext/enya/how-can-i-keep-from-singing-5bd32758.html

My life goes on in endless song
Above earth´s lamentations,
I hear the real, though far-off hymn
That hails a new creation.

Through all the tumult and the strife
I hear its music ringing,
It sounds an echo in my soul.
How can I keep from singing?

While though the tempest loudly roars,
I hear the truth, it liveth.
And though the darkness 'round me close,
Songs in the night it giveth.

No storm can shake my inmost calm,
While to that rock I´m clinging.
Since love is lord of heaven and earth
How can I keep from singing?

When tyrants tremble in their fear
And hear their death knell ringing,
When friends rejoice both far and near
How can I keep from singing?

In prison cell and dungeon vile
Our thoughts to them are winging,
When friends by shame are undefiled
How can I keep from singing?


 

mat Thu, 17.10.2019 - 10:36

Wie Zellen die Verfügbarkeit von Sauerstoff wahrnehmen und sich daran anpassen - Nobelpreis 2019 für Physiologie oder Medizin

Wie Zellen die Verfügbarkeit von Sauerstoff wahrnehmen und sich daran anpassen - Nobelpreis 2019 für Physiologie oder Medizin

Do, 10.10.2019 — Inge Schuster

vIcon WissenschaftsgeschichteDen diesjährigen Nobelpreis für Physiologie oder Medizin erhalten drei Forscher - die US-Amerikaner William G. Kaelin Jr. und Gregg L. Semenza und der Brite Sir Peter J. Ratcliffe -, die einen der für unser Leben wichtigsten Anpassungsprozesse aufgeklärt haben. Es ist der überaus komplexe Mechanismus mit dem sich Körperzellen in ihrem Metabolismus und ihren physiologischen Funktionen an unterschiedliche Sauerstoffgehalte adaptieren. Auf der Basis dieser Mechanismen lassen sich auch neue therapeutische Strategien entwickeln: zur Behandlung von Anämien gibt es bereits ein am Markt zugelassenes Produkt, erfolgversprechende Möglichkeiten im Bereich von Krebserkrankungen befinden sich erst am Anfang der Entwicklung.

Als auf unserer Erde vor rund 3,8 Milliarden Jahren Leben in Form einfachster einzelliger Organismen (Bakterien und Archäa) entstand, lag Sauerstoff zunächst in Form von Wasser gebunden in den Meeren vor. Erst vor etwa 2 Milliarden Jahren kam es zu einem unglaublichen Anstieg des Sauerstoffgehalts in der Atmosphäre - dem „Great Oxidation Event“ -, der vermutlich auf die Entstehung von Cyanobakterien zurückzuführen ist, die zur Energiegewinnung Photosynthese betrieben und dabei Sauerstoff freisetzten. Gegen das reaktionsfreudige, für damalige Lebensformen toxische Gas entwickelten diese  einerseits Entgiftungsmechanismen, andererseits begannen einige Bakterien Sauerstoff zur Energiegewinnung zu verwenden, indem sie Nahrungsmoleküle unter hohem Energiegewinn (in Form der metabolischen Energiewährung ATP) oxydierten - "verbrannten". Es waren dies zelluläre Kraftwerke, die später als Mitochondrien in die Zellen höherer Lebewesen integriert wurden und nun über Citratcyclus und Atmungskette den Großteil der von den Zellen benötigten Energie liefern.

Alle Zellen sind somit auf ausreichende Sauerstoffzufuhr angewiesen; ein Mangel an Sauerstoff - Hypoxie - kann zur energetischen Unterversorgung und bis zum Zelltod führen: ein Umschalten auf die anaerobe Glykolyse liefert pro abgebautem Glukosemolekül ja nur ein Sechzehntel der Energie, wie die Zellatmung. Wie die Zellen aber selbst Veränderungen der Sauerstoffzufuhr wahrnehmen und darauf reagieren, blieb bis zu den Untersuchungen der drei neuen Nobelpreisträger ein Rätsel. Ausgangspunkt dieser Untersuchungen war das Hormon Erythropoietin .

Von Erythropoietin (EPO) zum Hypoxie induzierendem Faktor (HIF)

Bei niedrigem Sauerstoffpartialdruck im Blutkreislauf - beispielsweise nach Blutverlust oder bei Aufenthalten in größeren Höhen - springt die Synthese von Erythropoietin (EPO) vor allem in der Niere an. Erythropoietin wirkt als Wachstumsfaktor auf die Bildung von Erythrozyten, die dann in höherer Zahl  vorliegen und via Hämoglobin insgesamt mehr Sauerstoff transportieren.

Wodurch dieses Anspringen der Erythropoietin Expression ausgelöst wird, hat Gregg Semenza (John Hopkins University, Baltimore) in den frühen 1990er Jahren herausgefunden. In Tierversuchen konnte er einen DNA-Abschnitt in der Nähe des EPO-Gens identifizieren, der bei Hypoxie den Response auslöst (von Semenza als Hypoxie Response Element (HRE) bezeichnet). In Leberzellkulturen fand er an diesen DNA-Abschnitt zwei Signalproteine gebunden vor: ein bereits bekanntes, konstitutiv vorhandenes Protein ARNT (aryl hydrocarbon receptor nuclear translocator) - und ein anderes, unter Hypoxie vermehrt gebildetes Protein, das er mit Hypoxie induzierbarer Faktor (HIF; jetzt  HIF-1α genannt) bezeichnete.

In weiterer Folge haben Semenza und davon unabhängig Peter Ratcliffe (University of Oxford, UK) eine Induktion von HIF durch Hypoxie nicht nur in EPO-produzierenden Nierenzellen sondern in einer Vielzahl tierischer Zelltypen aufgefunden - ein Hinweis, dass man möglicherweise einem universellen Steuermechanismus auf der Spur war.

Labilität von HIF-1α spielt zentrale Rolle

Wie aus anderen Untersuchungen hervorgegangen war, werden HIF-1α-Spiegel nicht über die Synthese sondern über den Abbau reguliert. HIF-1α ist ein labiles Protein, das unter normalen Sauerstoffdruck sehr rasch mit Ubiquitin markiert und dann über die Maschinerie des Proteasoms abgebaut wird. Solange also der Sauerstoffspiegel hoch ist, enthalten Zellen nur sehr wenig HIF-1α.

Sinkt der Sauerstoffspiegel aber, so steigt die HIF-1α-Konzentration im Cytosol, das Protein wandert in den Zellkern, bildet mit ARNT einen Komplex, der an HRE-Abschnitte der DNA bindet und die Expression von EPO (und vielen anderen Genen) auslöst.

Was aber kontrolliert den HIF-1α-Spiegel?

Hier kam die entscheidende Antwort von dem Krebsforscher William Kaelin (Dana-Farber Cancer Institute, Boston), der die seltene erbliche von-Hippel-Lindau-Krankheit untersuchte (VHL-Krankheit verursacht gutartige Angiome im Bereich der Netzhaut des Auges und des Kleinhirns) und zufällig einen Zusammenhang zwischen dem VHL-Gen und der Hypoxie-Regulierung fand: der Wildtyp des Gens VHL kodiert für ein Tumor-Suppressor Protein, Tumorzellen, die mutiertes - funktionsloses - VHL enthalten, weisen enorm hohe Konzentrationen an Proteinen auf , die durch Hypoxie induziert werden. Diese Level normalisieren sich, wenn in die Zellen intaktes VHL eingebracht wird. Die Suche nach Proteinen, die mit VHL interagieren ergab, dass es Teil des Komplexes ist, welcher Proteine mit Ubiquitin für den nachfolgenden Abbau im Proteasom markiert.

Der Sauerstoff-Schalter

Als letzten Teil des Puzzles zeigten nun Ratcliffe und Kaelin, dass VHL direkt mit HIF-1α interagieren kann. Voraussetzung dafür ist die Modifizierung von HIF-1α  durch Prolin-Hydroxylasen, die bei normalem Sauerstoffdruck an zwei spezifischen Stellen (Prolinresten) von HIF-1α Sauerstoff einführen; dieses nun hydroxylierte Protein bindet mit hoher Affinität an VHL und tritt damit in den Pfad zum Abbau ein.

Bei Sauerstoffmangel fehlt den die Prolin-Hydroxylasen das Substrat Sauerstoff, HIF-1α bleibt unverändert, bindet nun nicht an VHL und wird in Folge nicht abgebaut. HIF-1α akkumuliert und wirkt im Komplex mit ARNT als Transkriptionsfaktor für eine Vielzahl von Genen, welche - über Hypoxie-Response-Elements reguliert - die Zelle an die veränderte Situation anzupassen versuchen.

Eine Zusammenfassung der zellulären Anpassung an Sauerstoffmangel ist in Abbildung 1 vereinfacht dargestellt.

Abbildung 1. HIF-1α ist der zentrale Player in der Anpassung an Veränderungen in der Sauerstoffversorgung. Unter normaler Sauerstoffversorgung der Zelle (oben) wird HIF-1α durch Prolin-Hydroxylasen modifiziert, wodurch es mit VHL interagieren kann, das als Teil des Ubiquitierungskomplexes HIF-1α, für den Abbau im Proteasom markiert. Unter Sauerstoffmangel (unten) bleibt HIF-1α intakt, akkumuliert und induziert im Komplex mit ARNT die Bildung zahlreicher Proteine, welche die Zelle an die veränderten Bedingungen anzupassen versuchen (Bild leicht modifiziert nach: Wikipedia, Dr. Guido Hegasy , cc-by-sa Lizenz)

HIF-1α, Target-Gene…

Unter Hypoxie reguliert HIF-1α die Expression Hunderter Gene, welche ein HRE-Motiv enthalten. Es sind dies Gene, welche bei vielen Krankheiten, insbesondere bei Krebserkrankungen eine wesentliche Rolle spielen.

Hypoxie ist ja ein wesentliches Merkmal solider Tumoren, diese exprimieren vermehrt HIF-1α, das nun wiederum Gene induziert, welche den Tumor aggressiver machen und die Prognose verschlechtern. Es sind dies Gene, die für die Proliferation der Zellen wesentlich sind, für den zellulären Stoffwechsel (wo u.a. auf die anaerobe Glykolyse geschalten wird) , für die Neubildung von Gefäßen (Angiogenese), für Aspekte von Entzündung und Immunität, für Invasion und Metastasierung von Tumorzellen, für die Resistenzentstehung gegen therapeutische Strategien (Chemotherapie, Bestrahlung, Immunotherapie) und für das Überleben von Cancer-Stammzellen (aber auch von normalen Stammzellen).

Abbildung 2 soll einen ganz groben Eindruck über die Vielfalt der regulierten Gene geben.

Abbildung 2. Target Gene von HIF und ihre Rolle in der Progression und Therapieresistenz von Krebserkrankungen (Die Abkürzungen bedeuten in alphabetischer Reihenfolge: ALDA, aldolase A; ALDC, aldolase C; ADM, adrenomedullin; ABCG2, ATP-binding cassette sub-family G mem­ber 2; CATHD, cathepsin D; CCL, chemokine (C-C motif) ligand; CTLA-4, cytotoxic T-lymphocyte-associated protein 4; CXCL, chemokine (C-X-C motif) ligand; ENG, endoglin; ET1, endothelin-1; FN1, fibronectin 1; FOXP3, forkhead box P3; GAPDH, glyceraldehyde-3-P-dehydrogenase; GITR, glu­cocorticoid-induced TNFR-related protein; GLUT, glucose transporter; HK, hexokinase; HIF, hypoxia-inducible factor; HLA-G, human leukocyte antigen G; IGF2, insulin-like growth factor 2; IGF-BP, insulin-like growth factor binding protein; LDHA, lactate dehydrogenase A; LRP1, LDL-recep­tor-related protein 1; MDR1, multidrug resistance 1; MMP2, matrix metal­loproteinase 2; NF-κB, nuclear factor kappa-light-chain-enhancer of acti­vated B cells; NOS2, nitric oxide synthase 2; OCT4, octamer-binding transcription factor 4; PD-L1, programmed death-ligand 1; PFKBF3, 6-phosphofructo-2-kinase/fructose-2,6-biphosphatase-3; PFKL, 6-phos­phofructokinase, liver type; PGK1, phosphoglycerate kinase 1; PKM, pyru­vate kinase M; TGF, transforming growth factor; VEGF, vascular endothe­lial growth factor; VEGFR, VEGF receptor.) Das Bild stammt aus: Tianchi Yu et al., Development of Inhibitors Targeting Hypoxia-Inducible Factor 1 and 2 for Cancer Therapy,Yonsei Med J 2017 May;58(3):489-496 , https://doi.org/10.3349/ymj.2017.58.3.489 . Es steht unter einer cc-by-nc 4.0 Lizenz.

…und therapeutische Strategien

Auf Basis der von Semenza, Rathcliffe und Kaelin erarbeiteten molekularen Grundlagen, welche eine umfassende Beschreibung von HIF geben - seine Bildung, seine Funktion als Transkriptionsfaktor und die Schritte, die zum Abbau führen - können therapeutische Strategien entwickelt werden, die einerseits die Blockierung der HIF-Funktion und andererseits deren Steigerung zum Ziel haben.

Eine Steigerung der HIF-Funktion kann bei unterschiedlichen Krankheiten von Vorteil sein. Dazu gehören neben chronischen Nierenerkrankungen, die zur Anämie führen beispielsweise auch Wundheilung, Knorpelbildung und ein Reihe immunologischer Defekte. Unter den therapeutischen Ansätzen sind hier besonders Inhibitoren der Prolylhydroxylasen zu erwähnen. Mehrere Substanzen befinden sich in fortgeschrittenen Phasen der klinischen Entwicklung. Mit Roxadustat, das FibroGen gemeinsam mit Astellas und AstraZeneca entwickelte, wurde heuer das erste oral wirksame Produkt  global zugelassen; die Indikationen sind Anämien ausgelöst durch chronische Nierenerkrankungen und myelodysplastisches Syndrom.

Die Blockierung der HIF-Funktionen kann vor allem bei Tumorerkrankungen aber auch bei Herz-Kreislauferkrankungen (Ischämien bei Schlaganfall und Herzinfarkt) oder bei Lungenhochdruck neue wirksame Therapien eröffnen. Hier gibt es auch eine Fülle von Ansatzpunkten, die von einer Blockierung der Expression der HIF-1a--mRNA, über eine Inhibierung der Dimeren-Bildung mit ARNT und Bindung an die DNA bis hin zur Inhibierung der Akkumulation von HIF-1α reichen. Bis jetzt haben allerdings nur ganz wenige dieser Inhibitoren Eingang in klinische Pilotstudien gefunden, die meisten Projekte sind noch in frühen präklinischen Phasen. Auf ein HIF-1α-basiertes Krebstherapeutikum wird man wohl noch sehr lange warten müssen. 


Weiterführende Links

MLA style: Press release: The Nobel Prize in Physiology or Medicine 2019. NobelPrize.org. Nobel Media AB 2019. Wed. 9 Oct 2019.

The Nobel Prize in Physiology or Medicine 2019: How cells sense and adapt to oxygen availability. Advanced Information.

2016 Albert Lasker Basic Medical Research Award Video 5:54 min.

William Kaelin, Peter Ratcliffe, and Gregg Semenza are honored for the discovery of the pathway by which cells from humans and most animals sense and adapt to changes in oxygen availability – a process essential for survival.

Noble Prize, Physiology or medicine 2019 | How cells, sense and adapt to oxygen availability. Quick Biochemistry Basics , Video 4:01 min.

Redaktion Thu, 10.10.2019 - 10:56

Gentherapie - ein Update

Gentherapie - ein Update

Do, 03.10.2019 — Ricki Lewis

Ricki LewisIcon MedizinAls 1990 erste klinische Versuche zur Gentherapie stattfanden, hoffte man sogenannte monogenetische - d.i. durch ein schadhaftes Gen ausgelöste - Krankheiten durch das Einschleusen funktionsfähiger Gene in Kürze heilen zu können. Tragische Zwischenfälle, insbesondere der Tod des jungen Jesse Gelsinger vor 20 Jahren brachten jedoch schwere Rückschläge für das Gebiet. Erst nach und nach bekamen die Forscher die Risiken in den Griff, die mit den als Genfähren verwendeten Viren verbunden sind. Seit Kurzem gibt es nun einige zugelassene  - allerdings horrend teure - Therapeutika; dazu ist eine Vielzahl klinischer Versuche zur Behandlung verschiedenster, durch Gendefekte ausgelöster Krankheiten im Laufen. Die Genetikerin Ricki Lewis hat sich über die Jahre intensiv mit den Fortschritten der Gentherapie befasst; sie gibt hier einen Überblick über den gegenwärtigen Status der Gentherapie.*

Der 17. September markiert den Tag, an dem vor 20 Jahren der 19-jährige Jesse Gelsinger im Verlauf einer Gentherapie-Studie verstarb. Diese Tragödie bedeutete einen Stopp für das noch in den Kinderschuhen steckende Gebiet und die Aussichten verschlechterten sich weiter, als bald darauf - in einer aus der Kontrolle geratenden Gentherapie - Buben mit einer angeborenen Immunschwäche Leukämie entwickelten. Die Fahrt, die das Gebiet seit der ersten klinischen Studie im Jahr 1990 langsam aufgenommen hatte, verlief im Sande.

Ein langsames Comeback…

…mit Luxturna,

In der Folge haben Forscher die Viren, welche als Genfähren funktionsfähige Kopien von Genen einschleusen, umgebaut und nach und nach wurden klinische Studien wieder aufgenommen. Es sollte jedoch bis Ende 2017 dauern, bis die erste Zulassung für eine Gentherapie durch die U. S. Food and Drug Administration (FDA) erteilt wurde: für Luxturna gegen Blindheit, die durch Mutation eines Gens namens RPE65 verursacht wird. Abbildung 1.

Abbildung 1. Die erste Gentherapie (gegen Blindheit) wurde Ende 2017 von der FDA zugelassen, die ersten klinischen Versuche fanden 1990 statt (NHGRI)

Mein 2012 erschienenes Buch "The Forever Fix: Gene Therapy and the Boy Who Saved It" [1], erzählt die Geschichte der Gentherapie als Hintergrund der Luxturna-Story. Als der darin beschriebene Bub Corey Haas 2008 behandelt wurde, war er 8 Jahre alt. Er hat seitdem erstaunliche Fortschritte gemacht.

Sieben Jahre später berichtete Amy Reif, dass ihre Tochter, die im Juli 2018 im Alter von 7 Jahren behandelt worden war, nun in einem schwach beleuchteten Raum sehen kann, wo sie zuvor überhaupt nichts sehen konnte. „Sie kann viel länger im Freien bleiben und abends in der Dämmerung spielen als vor der Luxturna Therapie. Sie kann den Regenbogen, Sterne und Glühwürmchen sehen. Sie kommt insgesamt einfach besser zurecht, zeigt mehr Selbstvertrauen und Selbstbewusstsein.“

…mit Zolgensma

Die zweite, erst kürzlich zugelassene Gentherapie mit Zolgensma, ist für die Behandlung der spinalen Muskelatrophie (SMA) vorgesehen, d.i. eine Erkrankung im Kleinkindalter, die typischerweise tödlich verläuft. Die FDA genehmigte Zolgensma für den US-Markt im Mai 2019, nachdem Novartis den Hersteller - das Biotech-Unternehmen AveXis, das wiederum auf den Forschungsergebnissen des Nationwide Children’s Hospital aufbaute - übernommen hatte. Es ist dies ein üblicher Pfad im Entwicklungsprozess von Arzneimitteln, der von Akademie über kleine Biotech-Firmen zu Big Pharma führt.

Die Zulassung der Gentherapie für SMA erfolgte drei Jahre nach der Zulassung eines anderen Biotech-Ansatzes, der Antisense-Oligonukleotide einsetzt, die eine normalerweise stummgeschaltete Kopie des mutierten Gens wieder anschalten. (Siehe [2])

Die Opfer, die Jesse Gelsinger und andere Teilnehmer in gentherapeutischen Studien erbrachten, haben die jüngsten Fortschritte ermöglicht. Wie einst der mythologische Vogel Phönix hat sich die Gentherapie nun aus der Asche erhoben und ist daran ihre Flügel auszubreiten. Abbildung 2. Die klassische Gentherapie fügt mittels viraler Vektoren funktionsfähige Gene hinzu. Die Gen-Editierung (über die hier nicht berichtet wird) korrigiert zielgerichtet eine Mutation.

Die Vektoren haben sich weiterentwickelt, man ging von dem Adenovirus ab, das mit Jesses Tod in Zusammenhang stand und rüstete die Retroviren um, die das Leukämieverursachende Onkogen angeschaltet hatten. Dutzende von Unternehmen und die meisten klinischen Studien verwenden heute die viel sichereren Adeno-Assoziierten Viren (AAVs), die in diesem Beitrag von DNA Science beschrieben werden [3].

Abbildung 2. Wie einst der mythologische Vogel Phönix hat sich die Gentherapie nun aus der Asche erhoben und ist daran ihre Flügel auszubreiten.

Gentherapie: Klinische Studien

Weil ich wissen wollte, gegen welche Krankheiten gentherapeutische Untersuchungen laufen, habe ich die Seite der klinischen Studien - clinicaltrials.gov [4]- durchgesehen (Abbildung 3); allerdings habe ich die Daten nicht mit einem modischen Algorithmus analysiert, sonder nur eine Liste erstellt. (Diese Website ist zwar eine großartige Informationsquelle, allerdings kann hier aber jeder irgendetwas registrieren. Und wie E-Mails, die seit langem nicht mehr kuratiert wurden, enthält clinicaltrials.gov viele Studien, die vor Jahren abgeschlossen wurden. Man muss also darauf achten, was noch relevant ist.)

Das Durchsuchen von clinicaltrials.gov nach „Gentherapie“ unter „Krankheiten oder Lebensbedingungen“ (Conditions or Diseases) führte zu 564 Einträgen, unter „anderen Begriffen“ jedoch zu 4.080 Treffern. Das ist ungefähr doppelt so viel wie die Liste enthielt, als ich das letzte Mal, vor ungefähr einem Jahr nachgesehen habe; allerdings sind nun viele Krebsstudien darunter. Wenn ich an Gentherapie denke, so habe ich die monogenetischen (durch ein defektes Gen verursachten), selten vorkommenden Erkrankungen im Auge.

Abbildung 3. Die Homepage der Datenbank ClinicalTrials.gov

Trends, Tipps und Therapien

1. Alte Ziele der Gentherapie

Die Liste der klinischen Studien enthält weiterhin die „üblichen Verdächtigen“, das heißt Krankheiten, welche die Gentherapie bereits seit Jahren in Angriff nimmt. Dass Immunschwächen hier überrepräsentiert sind, ist darauf zurückzuführen, dass diese einem „ex vivo“ -Ansatz zugänglich sind: Die Zellen eines Patienten werden außerhalb des Körpers modifiziert und anschließend re-infundiert. Hier sind einige Beispiele:

  • Adenosin-Deaminase-Mangel (ADA-Mangel ), ein Immundefekt, mit dem das Forschungsgebiet 1990 seinen Anfang nahm.
  • Schwerer kombinierter Immundefekt X1 (SCID X1)
  • X-chromosomale chronische Granulomatose (XCG); 5 Kinder erhielten im Dezember 2018 in Deutschland eine Gentherapie
  • Alpha-Antitrypsin-Mangel (AAT), löst eine Form des erblichen Emphysems aus
  • Hämophilie A in den USA und in Großbritannien und Hämophilie B

2. Einige neuere Ansätze

(eingereicht im Jahr 2019), die im Gentherapie-Verzeichnis erscheinen sollen, sind:

  • Die infantile neuronale Ceroid-Lipofuszinose (CLN1), eine Form der Batten-Krankheit. Die Bewilligung für den Start einer klinischen Studie fiel im Mai. Diese Studie ist dem Einsatz der Familie von Taylor King, die vor einem Jahr, im Alter von 20 Jahren verstarb und von Steve Gray (Southwestern University, Texas), dem Guru für Adeno-Assoziierten Viren (AAVs), zu verdanken und sie wird von Abeona Therapeutics gesponsert. In "Run to the Light" erzählt Taylors Schwester,Laura King Edwards, ihre Geschichte.
  • Morbus Fabry, eine Krankheit, bei der sich in kleinsten Blutgefäßen ein Glykolipid (Fettzucker) ansammelt und in Folge Herz- und Nierenversagen und andere Symptome auslöst. Eine intravenöse Einzeldosis AAV liefert das Gen, das für das fehlende Enzym (Alpha-Galactosidase A) kodiert. Sangamo Therapeutics (Richmond, Cf) sponsert die Studie.
  • Alzheimer-Patienten, die zwei Kopien einer Mutation im ApoE4-Gen tragen. Die Teilnehmer an der Studien weisen Amyloidplaques auf und leichte kognitive Beeinträchtigung bis hin zur vollständigen Demenz . Die Behandlung erfolgt am Weill Medical College (Cornell University, NY) mit dem Gen, das für ApoE2 codiert und direkt in das Gehirn appliziert wird.
  • Die Danon-Krankheit schwächt das Herz und die Skelettmuskulatur. Die Behandlung besteht aus einer einzelnen intravenösen Infusion des Gens, LAMP2b, mit einem AAV-Vektor (von Rocket Pharmaceuticals) als Genfähre. Die Danon-Krankheit befindet sich auf dem X-Chromosom und betrifft daher auch Männer.

3. Forscher lernen

Klinische Studien helfen nicht nur Patienten, auch die Forschung lernt daraus. Eine in der Liste aufscheinende Gentherapie gegen Choroiderämie, eine Form der Blindheit, zitiert einen Artikel, in dem Janet Davis (Bascom Palmer Eye Institute, University Miami) beschreibt, wie man die viralen Genfähren vorsichtig unter die Retina platziert und dabei deren Dosis kontrolliert ohne, dass benachbarte Strukturen beschädigt werden. Es ist dies eine wertvolle Information, die bei verschiedenen Arten von Netzhauterkrankungen anwendbar ist.

4. Protokolle aus präklinischer Forschung

Die präklinische Forschung arbeitet weiterhin die Protokolle aus, die in klinische Studien einfließen. James Wilson, der für den Tod von Jesse Gelsinger verantwortlich gemacht wurde, entdeckte im Jahr 2018 dass hoch dosiertes AAV Affen schädigen und töten kann [3]. Er äußerte die Besorgnis, dass die Gentherapie von Muskelerkrankungen systemisch erfolgt und gefährlich hohe Dosen von AAVs erfordern könnte, da ja ein so großer Anteil des Körpers zu behandeln ist. (Wilsons Unternehmen Passage Bio (in Philadelphia) entwickelt Therapien für monogenetische Erkrankungen des Zentralnervensystems.)

5. Die Kosten Stellen weiterhin ein Problem DAR.

Eine in Europa zugelassene Gentherapie (Glybera im Jahr 2012; es war dies die weltweit erste zugelassene Gentherapie; Anm. Redn), für die ein Preis von über 1 Million US-Dollar angestzt war, wurde aufgrund einer minimalen Zahl an Patienten wieder vom Markt genommen [5].

Für die Augentherapie mit Luxturna, die pro Patient 850.000 US-Dollar kostet, war zum 30. Juni 2019 eine Versicherung für alle 137 behandelten Patienten abgeschlossen worden. Der Hersteller Spark Therapeutics übernahm die Kosten für Zuzahlungen und Reisekosten.

Die SMA-Gentherapie Zolgensma mit Kosten von 2,1 Millionen US-Dollar pro Patient ruft nun Widerstand hervor. Die Kehrseite ist der Vergleich der Kosten einer „einmaligen“ Behandlung mit den Alternativen: lebenslange Tests und Therapien, Behinderung, chronische Krankheit oder sogar früher Tod. Man muss in die Bechnungen ja die ansonsten anfalllenden Kosten einbeziehen. Im Falle der Hämophilie B kosten konventionelle Behandlungen etwa 270.000 USD pro Jahr und können - wenn Komplikationen auftreten - auch 1 Million USD übersteigen. Eine einmalige oder sogar eine einmal pro Jahrzehnt durchgeführte Gentherapie würde auf lange Sicht Einsparungen bringen.

6. Welche Gentherapien werden demnächst auf den Markt kommen?

Dazu einige Anwärter:

  • Die Eltern von Hannah Sames und Eliza O’Neill, die 2016 wegen einer Riesenaxon-Neuropathie und eines Sanfilippo-Syndroms Typ A behandelt wurden, können noch nicht viel sagen, wenn sie Fortschritte ihrer Kinder beobachten. Es wird Jahre dauern, um festzustellen, ob und inwieweit die Gentherapie den Verlauf dieser neurologischen Erkrankungen verlangsamt.
  • Buben mit myotubulärer Myopathie (MTM), die ansonsten bewegungslos und auf ein Beatmungsgerät angewiesen sind, können sich nach der Gentherapie selbstständig bewegen und atmen. Die Zeit wird zeigen, ob die Effekte anhalten. Audentes Therapeutics (San Francisco, Cf) hat die Gentherapie entwickelt (ich habe sie in einem Essay beschrieben [6]). Ebenso wie die erste zugelassene Gentherapie, Luxturna, nahm die Geschichte der MTM-Gentherapie mit einer natürlichen Mutation bei Hunden ihren Ausgang.
  • Kindern, die eine Gentherapie für metachromatische Leukodystrophie erhielten, geht es in einer an sich bejammernswerten Situation gut. Die klinischen Studien in Europa haben die noch nicht betroffene jüngeren Geschwister von Kindern behandelt, die an der Krankheit gestorben waren oder bald sterben würden. Die älteren Kinder haben es möglich gemacht, die Diagnose für die jüngeren in einem Alter zu erstellen, in dem die Behandlung helfen sollte. (Ich habe ihre Geschichte erzählt [7].)
  • Die Gentherapie hilft „Schmetterlingskindern“, die an einer rezessiven Epidermolysis bullosa (RDEB) leiden; die Fragilität der Haut solcher Patienten wird durch Mutation in einem Kollagen-Gen verursacht. Die geringste Berührung ruft schmerzhafte Blasen und schälende Haut hervor, und die täglichen Verbandwechsel sind qualvoll. Mit der von Abeona Therapeutics entwickelten Gentherapie heilten in einer klinischen Studie Wunden von Patienten im Alter von über 18 Jahren.

Ich bin begeistert, dass die Gentherapie nun voranschreitet. Über betroffene Familien und deren Geschichten schreibe ich seit Jahren - sicherlich habe ich viele ausgelassen. Bitte, Sollten Sie weitere Erfolgsgeschichten in der Gentherapie kennen, so bitte, kontaktieren Sie mich.


[1] Ricki Lewis (2012): The Forever Fix: Gene Therapy and the Boy Who Saved It. (St Martin's Press), https://www.amazon.com/dp/1250015774/ref=rdr_ext_tmb

[2] Ricki Lewis (2017):Two New Ways to Treat A Deadly Disease: Spinal Muscular Atrophy. https://blogs.plos.org/dnascience/2017/11/02/two-new-ways-to-treat-a-deadly-disease-spinal-muscular-atrophy/

[3] Ricki Lewis (2018): A Hiccup in Gene Therapy Progress? https://blogs.plos.org/dnascience/2018/03/29/a-hiccup-in-gene-therapy-progress/

[4] ClinicalTrials.gov: a database of privately and publicly funded clinical studies conducted around the world. https://clinicaltrials.gov/

[5] Ricki Lewis (2017): Pulling the Plug on the First Gene Therapy Drug . https://blogs.plos.org/dnascience/2017/04/27/pulling-the-plug-on-the-first-gene-therapy-drug/

[6] Ricki Lewis (2019): How this promising gene therapy for a rare neuromuscular disease was fueled by passionate parents and a dog. https://geneticliteracyproject.org/2019/05/07/how-this-promising-gene-therapy-for-a-rare-neuromuscular-disease-was-fueled-by-passionate-parents-and-a-dog/

[7] Ricki Lewis (2018): Celebrating The Moms of Gene Therapy . https://blogs.plos.org/dnascience/2018/05/10/celebrating-the-moms-of-gene-therapy/


*Der Artikel ist erstmals am 26. September 2019 in PLOS Blogs - DNA Science Blog unter dem Titel "Gene Therapy Update: Remembering Jesse Gelsinger " erschienen (https://blogs.plos.org/dnascience/2019/09/26/gene-therapy-update-remembering-jesse-gelsinger/) und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgen.


Weiterführende Links

Artikel im ScienceBlog

Eva Maria Murauer, 02.03.2017: Gentherapie - Hoffnung bei Schmetterlingskrankheit.

Francis.S.Collins, 02.02.2017: Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie.


 

Redaktion Thu, 03.10.2019 - 15:14

Energiewende (6): Handlungsoptionen auf einem gemeinschaftlichen Weg zu Energiesystemen der Zukunft

Energiewende (6): Handlungsoptionen auf einem gemeinschaftlichen Weg zu Energiesystemen der Zukunft

Do, 26.09.2019 — Robert Schlögl

Robert SchlöglIcon Politik und GesellschaftIm letzten Teil seines Eckpunktepapier „Energie. Wende. Jetzt“ weist Prof. Dr. Robert Schlögl (Direktor am Max-Planck-Institut für Chemische Energiekonversion; Mülheim a.d.R.) darauf hin, dass der Umbau des Energiesystems die breite Unterstützung einer Gesellschaft benötigt, die hinreichende, nicht-ideologische Information erhält, um auch bereit zu sein „schmerzhafte“ Maßnahmen mitzutragen. Es muss somit ein beständiger, über den derzeitigen Hype andauernder Dialog zwischen Gesellschaft, Politik und Wirtschaft hergestellt werden, der auch den systemischen Charakter der Energieversorgung klar herausstellt. Hinsichtlich der an die Politik gestellten Erwartungen schlägt Schlögl ein Bündel an systemisch wirkenden Vorabmaßnahmen vor, welche zu deutlich sichtbaren Ergebnissen führen und als Teile einer dauerhafteren Strategie für den langfristig anzulegenden Umbau des Energiesystems dienen können.*

Der Umbau des Energiesystems ist eine Revolution und nicht nur ein Impuls. Bis heute hat diese Idee aber noch nicht gezündet. Erfolgreiche Revolutionen benötigen breite Unterstützung. Zu viele Brüche im Zusammenwirken der Akteure, die es zahlreich gibt, verhindern eine konzertierte Aktion. In keinem Fall kann der Umbau des Energiesystems als staatlicher Plan mit sektoralen Zielen, mit spezifischen Vorschriften für einzusetzende Technologien und zeitlichen Taktungen funktionieren. Die Rolle des Staates ist es vielmehr, stabile und allgemein gültige Rahmenbedingungen zu schaffen und deren Einhaltung zu garantieren. Anreize aus staatlichen oder Umlagemittel (wie das Erneuerbare-Energien-Gesetz - EEG) bewirken keine relevante Änderung für das gesamte System, wenn sie punktuell angelegt sind (technologisch fixiert), zu lange gewährt werden und nicht automatisch bei Erreichen vorher bestimmter Ziele auslaufen.

Es braucht den Dialog zwischen Gesellschaft und Politik/Wirtschaft

Erfolgreiche Revolutionen setzten in der Regel die Aufklärung der Revolutionäre voraus. In puncto Energiewende wurde es bisher versäumt, in einem umfassenden Dialog zwischen Gesellschaft und Politik/Wirtschaft eine vertrauensvolle Basis der Zusammenarbeit auf der Grundlage einer verbindlichen Definition der Ziele des Umbaus der Energieversorgung zu schaffen. Damit fehlt der Revolution namens „Energiewende“ die gemeinsame Richtung, die Akteure arbeiten teils gegeneinander oder verharren in abwartender Stellung.

Ein breites Bewusstsein von den Charakteristiken des Energiesystem Umbaus zu schaffen ist die allererste und wichtigste Aufgabe. Dadurch wird der Fortschritt dieses Prozesses, der bisher nur in Zielen aber kaum in Wegen definiert wurde, wesentlich beschleunigt. Von großer Bedeutung ist die Vermittlung der subsidiären Struktur der Energieversorgung und damit der Ausweitung des Raumes für Optionen von regionalen Lösungen über die nationale Ebene hin zur internationalen und vor allem europäischen Dimension. Auf der untersten Ebene der individuellen Befassung mit Energie wird damit eine breite Teilhabe erreicht und die Abstraktheit der Problematik aufgelöst. Dass nationale und internationale Aktionen mühevoll und langwierig sind, darf nicht davon abhalten, solche Architekturen mit Nachdruck anzustreben. Nationale vorbereitende Lösungen können Teile des subsidiären Systems schneller realisieren. Sie sind dann willkommen, wenn sie automatisch internationalen Regelungen weichen Dies ist besonders einfach, wenn die internationale Dimension von Anfang an mitgedacht wird, selbst wenn sie erst später realisiert wird.

Der Weg zum beschleunigten Umbau

des Energiesystems führt über einen Umbau des regulatorischen Ansatzes hin zu einem technologieoffenen Raum, in dem die Akteure ihre Konzepte ohne Bevorzugung durch staatliche Steuerung implementieren können. Es wird eine treibende Kraft benötigt, die am Besten in einer geeigneten Bepreisung fossiler Energieträger realisiert wird, da diese alle Anwendungen gleichmäßig erfassen kann.

Das in Deutschland eingesetzte „Klimakabinett“ ist ein Ansatz, um die auf viele Regierungsstellen verteilte Aufgabe des Umbaus des Energiesystems zu koordinieren. Dort könnte das zentrale Konzept der systemischen Behandlung umgesetzt werden. Günstig wäre es, die hohen Erwartungen an die Politik durch einige systemisch wirkende Vorabmaßnahmen (siehe unten) so zu erfüllen, dass ohne Schaden für den langfristig anzulegenden Umbau des Energiesystems gleichwohl eine anhaltende Motivation zu dessen Realisierung entsteht.

Die Politik geht die Revolution der Energieversorgung sehr zaghaft an und verbleibt im Bereich der wenig „schmerzhaften“ Maßnahmen, die allerdings auch nur wenig wirksam sind. Es darf erwartet werden, dass sich der Raum für das „politisch Mögliche“ erheblich ausweitet, wenn eine hinreichende und nicht-ideologische Information und Kommunikation mit den Nutzern des Energiesystems erfolgt.

Die hier entwickelten Vorstellungen legen eine entschlossene Weiterentwicklung des bisher verfolgten Weges in eine nachhaltige Energiezukunft nahe. Die bisher gemachten Ansätze und erreichten Veränderungen sollen jedoch keineswegs gering geschätzt werden. Vielmehr sollen diese Gedanken motivieren, den systemischen Charakter der Energieversorgung über alle Ebenen des Systems hinweg als Leitmotiv zum Entwurf eines schlüssigen Transformationsprozesses zu nutzen. Diesen zu gestalten und unmittelbar umzusetzen, ist eine vordringliche Aufgabe in Deutschland und Europa mit einer andauernden Priorität auch nach der derzeitigen Hochphase in den Medien.

Beispielhafte Vorschläge für „Vorabmaßnahmen“,

die das Klimakabinett zusätzlich zu existierenden Aktionen ergreifen könnte. Sie sind so konzipiert, dass sie deutlich sichtbar werden und als Teile einer dauerhafteren Strategie dienen. Sie testen die Bereitschaft der Akteure auch „schmerzhafte“ Maßnahmen mitzutragen. Die folgenden Stichpunkte müssten zu ausgearbeiteten Optionen entwickelt werden. Sie sind weder nach Priorität noch zeitlicher Reihenfolge geordnet.

  1. Auftrag an das Bundesministerium für Bildung und Forschung, eine Informations- und Kommunikationsstruktur zu realisieren, die eine breite Beteiligung der Bürger ermöglicht. Verantwortungen für Inhalte festlegen. Geeignete Begleitforschung einrichten. Ressourcen hinreichend nachhaltig bereitstellen. Beginn mit Piloten in 2020.
  2. Stilllegungsprämien für Kohlekraftwerke degressiv gestalten. Wenn bis 2022 stillgelegt wird, gibt es die vereinbarte Prämie, danach für jedes Jahr 10 % Abzug. Verpflichtung, die Prämien in nationale Energieinfrastruktur nachweislich zu investieren.
  3. Kohleregionen als industrielle Standorte für die systemische Energieindustrie erhalten und ertüchtigen. Alle Strukturmaßnahmen darauf ausrichten. Tätigkeiten: Ersatzstrom für volatile Erneuerbare, Power-2-X Produkte wie Kraftstoffe. Dies nicht mehr nur erforschen, sondern umsetzen.
  4. Dazu diese Gebiete sofort zu Ausnahmeregionen erklären, in denen der Gebrauch von Erneuerbaren Energien nicht den Regelungen des EEG unterliegt.
  5. Ertüchtigung der Wasserstoff-Infrastruktur durch nationale Vernetzung und Erweiterung um Pipeline-Systeme in den Süden Europas.
  6. Parallel Aufbau einer Wasserstofferzeugung in industriellem Maßstab in Südeuropa (dazu Abbildung 5: "Möglichkeiten der Energieernte in Europa" in http://scienceblog.at/energiewende-3-umbau-des-energiesystems-einbau-von-stoffkreisl%C3%A4ufen ). Schaffung der regulatorischen gesicherten Rahmenbedingungen für diese europäische Kooperation.
  7. Vorantreiben der Konzepte zu Reallaboren mit attraktiven Rahmenbedingungen in ganz Deutschland.
  8. Vorbereitung der Beendigung der EEG -Regelungen des in ganz Deutschland. Dies gleichzeitig mit der Einführung einer Bepreisung von CO2. Auftrag an das Bundesministerium für Wirtschaft und Energie dazu mehrere Optionen unter Berücksichtigung der europäischen Dimension zu erarbeiten.
  9. Priorisierung des Umbaus der regulatorischen Bedingungen gemeinsam mit der Wirtschaft, um die Nutzung und die dringend nötigen Zubauten an Erneuerbaren effektiv zu koordinieren.
  10. Erneuerbare Energie ohne EEG-Auflagen in die Wärmeerzeugung einkoppeln.
  11. Einführung des generellen Tempolimits.
  12. Planung plausibilisieren, wie grüner Wasserstoff und grüner Strom in Deutschland für den Verkehr verfügbar gemacht wird, wie diese Ressourcen mit den übrigen Anforderungen geteilt werden, und wer für die Versorgung die Verantwortung (und Kosten) übernimmt.
  13. Europäische Harmonisierung der Einrichtung von Ladeinfrastrukturen und Wasserstofftankstellen, um einen grenzüberschreitenden Verkehr zu garantieren.
  14. Produktion und schrittweise Einführung synthetischer Kraftstoffe in geeigneten Segmenten vor allem des Schwerverkehrs.
  15. Einrichtung einer interministeriellen Koordinierungsstruktur für die Energieforschung mit subsidiären Einheiten. Die existierenden Strukturen stark straffen, arbeitsfähig machen und einen Weg zur Umsetzung der Beschlüsse definieren.

Die zentrale Wasserstofftechnologie: Umwandlung volatiler Erneuerbarer Energien in Wasserstoff und flüssige Kraftstoffe. (Bild stammt von der homepage des Autors und wurde von der Redaktion eingefügt)


*Dies ist nun der letzte, mit "Epilog" überschriebene Teil des Eckpunktepapiers von Robert Schlögl "Energie. Wende. Jetzt", das am 7.Mai 2019 auf der Webseite des Max-Planck-Instituts für Chemische Energiekonversion erschienen ist. Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Bis auf einige Überschriften, blieb der Text unverändert. Die von der Homepage des Autors stammende Abbildung wurde von der Redaktion eingefügt, um die Bedeutung der Wasserstofftechnologie herauszustellen. Bis jetzt im ScienceBlog erschienene Teile des Eckpunktepapiers

Teil 1: R.Schlögl, 13.06.2019: Energie. Wende. Jetzt - Ein Prolog.

Teil 2: R.Schlögl, 27.06.2019: Energiewende (2): Energiesysteme und Energieträger

Teil 3: R.Schlögl, 18.07.2019: Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen.

Teil 4: R. Schlögl, 08.08.2019: Energiewende (4): Den Wandel zeitlich flexibel gestalten.

Teil 5: R.Schlögl, 22.08.2019: Energiewende(5): Von der Forschung zum Gesamtziel einer nachhaltigen Energieversorgung.


Weiterführende Links

Max-Planck-Institut für Chemische Energiekonversion (MPI CEC) https://cec.mpg.de/home

Woran forscht das MPI CEC? Video 3:58 min.

Oppermann, Bettina/Renn, Ortwin (März 2019) Partizipation und Kommunikation in der Energiewende. Analyse des Akademienprojekts „Energiesysteme der Zukunft“

R. Schlögl (2017): Wasserstoff in Ammoniak speichern.

Die österreichische Klima-und Energiestrategie: "#mission2030" (Mai 2018).

Artikel im ScienceBlog:

Redaktion, 19.09.2019: Umstieg auf erneuerbare Energie mit Wasserstoff als Speicherform - die fast hundert Jahre alte Vision des J.B.S. Haldane

Niyazi Serdar Sariciftci, 22.05.2015: Erzeugung und Speicherung von Energie. Was kann die Chemie dazu beitragen?


 

Redaktion Wed, 25.09.2019 - 22:03

Umstieg auf erneuerbare Energie mit Wasserstoff als Speicherform - die fast hundert Jahre alte Vision des J.B.S. Haldane

Umstieg auf erneuerbare Energie mit Wasserstoff als Speicherform - die fast hundert Jahre alte Vision des J.B.S. Haldane

Do, 19.09.2019 — Redaktion

RedaktionIcon WissenschaftsgeschichteDer britische Genetiker und Evolutionsbiologe  John Burdon Sanderson Haldane  (J.B.S. Haldane) hat 1923 in einem Vortrag an der Cambridge University u.a. auch seine Vision zur Energieversorgung für die Zeit dargelegt, wenn die fossilen Quellen versiegen. Haldane war der Erste, der die weitreichende Nutzung erneuerbarer Energie, insbesondere der Windenergie, vorschlug, wobei die Speicherung überschüssiger Energie in Form von Wasserstoff erfolgen sollte, welcher dann bedarfsgerecht für Industrie, Mobilität und Privatgebrauch zur Verfügung gestellt würde.* Es ist eine unglaublich aktuell wirkende Vision, die in Einklang mit den heutigen Forderungen führender Experten auf dem Energiesektor steht.

John Burdon Sanderson Haldane (1892 - 1964) war ein multidisziplinärer britischer Naturwissenschafter, u.a. an den Universitäten Oxford, Cambridge und London tätig und für seine Arbeiten in Physiologie, Genetik. Evolutionsbiologie, Mathematik und Biostatistik berühmt; ebenso auch für seine Begabung Wissenschaft allgemein verständlich zu vermitteln. Haldane führte u.a. das Konzept der Abiogenese ein - die Entstehung komplexer organischer Moleküle aus CO2, Ammoniak und Wasser in einer Ursuppe ("primordial soup"), er gehörte zu den Hauptvertretern der Synthetischen Evolutionstheorie, er entdeckte die Genkopplung ("genetic linkage") - d.i. die gemeinsame Vererbung gewisser Eigenschaften und entwickelte die ersten Vorstellungen zum Klonieren. Er leistete auch wesentliche Beiträge zur Enzymkinetik und zu Eigenschaften und Funktion des Hämoglobins.

In dem 1923 gehaltenen Vortrag "Daedalus or Science and the Future" entwickelte er eine Fülle an Ideen und Visionen für die Zukunft (die ihn u.a. zu einem Vordenker des Transhumanismus werden ließen). Seine im nachfolgenden Text wiedergegebenen Vorstellungen zur Energiewende zeigen ihn in einer Linie mit den Topexperten von heute.

John B.S. Haldane:

Ausschnitt aus "Daedalus or Science and the Future",

Vortrag gehalten am 4.2.1923 im Club of Heretics, Cambridge University*

Was die Versorgung von Kraftmaschinen betrifft, so ist ein Faktum, dass es bloß eine Frage von Jahrhunderten ist, bis unsere Kohlevorkommen und Ölfelder erschöpft sein werden. Da oft angenommen wurde, dass deren Versiegen zum Zusammenbruch der Industriegesellschaft führen wird, gestatten Sie mir jetzt einige der Gründe zu nennen, die mich an dieser Behauptung zweifeln lassen.

Wasserkraft ist - meiner Meinung nach - kein wahrscheinlicher Ersatz und zwar wegen der geringen Quantität, den jahreszeitlichen Schwankungen und der unregelmäßigen Verbreitung. Vielleicht könnte aber Wasserkraft den Schwerpunkt der Industrie in wasserreiche Gebirgsregionen wie das Himalaya-Vorgebirge, British Columbia und Armenien verlagern.

Letztendlich werden wir die diskontinuierlichen, aber unerschöpflichen Energiequellen, den Wind und das Sonnenlicht, anzapfen müssen. Das Problem besteht einfach darin, deren Energie in einer Form zu speichern, die sich so praktisch wie Kohle oder Benzin erweist. Wenn man mit einer Windmühle im hinteren Teil seines Gartens täglich einen Zentner Kohle produzieren könnte - und diese kann das Äquivalent an Energie produzieren -, so würden unsere Kohleminen bereits morgen stillgelegt werden. Es kann aber schon morgen eine billige, in der Anwendung sichere und langlebige Speicherbatterie erfunden werden, die es uns ermöglichen wird, die volatile Energie des Windes in kontinuierliche elektrische Energie umzuwandeln.

Persönlich denke ich, dass in vierhundert Jahren die Energiefrage in England in etwa so gelöst sein könnte: Das Land wird mit Reihen von aus Metall bestehenden Windmühlen überzogen sein (Abbildung 1), die Elektromotoren antreiben, welche dann ihrerseits hochgespannten Strom in riesige Stromnetze einspeisen.

Abbildung 1. "Das Land wird von aus Metall bestehenden Windmühlen überzogen sein" - dies ist bereits Realität geworden. Ausschnitt aus dem kalifornischen Alta Wind Energy Center (Wiipedia, File:Alta Wind Energy Center from Oak Creek Road.jpg. CC BY-SA 3.0)

In geeigneten Abständen wird es große Kraftwerke geben, in denen bei windiger Wetterlage die überschüssige Energie für die elektrolytische Zersetzung von Wasser in Sauerstoff und Wasserstoff verwendet werden wird. Diese Gase werden dann verflüssigt und in riesigen Vakuum-ummantelten Behältern gelagert, die wahrscheinlich im Boden versenkt sind. Sind diese Tanks ausreichend groß bemessen, wird der Flüssigkeitsverlust aufgrund eines Eindringen von Wärme ins Innere vernachlässigbar sein. (Abbildung 2). Der Anteil, der täglich aus einem Speicher mit einer Grundfläche von rund 94 Quadratmetern und 20 Metern Tiefe verdunstet, wäre dann kein Tausendstel des Verlusts, den ein Tank mit Abmessungen von O,66 Meter in jede Richtung hat (Anm. d. Redn: die im Original in Yard und Fuß angegebenen Maße wurden ins metrische System umgerechnet). In Zeiten von Windstille werden die Gase dann rekombiniert werden: in Explosionsmotoren, die Dynamos antreiben, welche wiederum elektrische Energie erzeugen, oder wahrscheinlicher in Oxidationszellen.

Abbildung 2. "Die Gase werden dann verflüssigt und in riesigen Vakuum-ummantelten Behältern gelagert". Der oberirdische Wasserstoff-Tank liegt an der nordöstlichen Ecke der Startrampe 39A des Kennedy Space Center. Er fasst 3,2 Millionen Liter flüssigen Wasserstoff und ist von einer meterdicken Perlit-Schichte ummantelt; nach links gehende Leitungsrohre sind sichtbar. (Wikipedia, Author TomFawls, CC_BY_SA 3.0)

Auf das Gewicht bezogen ist verflüssigter Wasserstoff die effizienteste bekannte Methode zur Speicherung von Energie, da er pro Pfund etwa dreimal so viel Wärme liefert wie Benzin. Andererseits ist der Wasserstoff sehr leicht, auf das Volumen bezogen besitzt er nur ein Drittel der Effizienz des Benzins. Dies wird jedoch von der Verwendung in Flugzeugen nicht abhalten, wo das Gewicht wichtiger ist als das Volumen.

Die riesigen Depots von Flüssiggasen werden die Speicherung von Windenergie möglich machen, so dass sie bedarfsgerecht für Industrie, Transport, Heizung und Beleuchtung eingesetzt werden kann. Die anfänglichen Kosten werden sehr beachtlich sein, die laufenden Kosten aber niedriger ausfallen als die unseres gegenwärtigen Systems. Zu den augenfälligeren Vorteilen wird die Tatsache gehören, dass Energie in einem Teil des Landes genauso billig sein wird, wie in einem anderen; somit kann die Industrie stark dezentralisiert werden; des weiteren werden weder Rauch noch Asche erzeugt werden.

Nach meiner Meinung wird das Problem in etwa dieser Art gelöst werden. Im Grunde genommen ist es ein praktikables Problem, und die Erschöpfung unserer Kohlefelder wird den notwendigen Anreiz zu seiner Lösung liefern. Ich darf in Klammern hinzufügen, dass ich aus thermodynamischen Gründen, die ich kaum kurz zusammenfassen kann, nicht sehr an die kommerzielle Möglichkeit einer induzierten Radioaktivität glaube. (Anm. Redn.: unter "induzierter (künstlicher) Radioaktivität" konnte Haldane nur die, 1919 von Ernest Rutherford entdeckte Transmutation von Stickstoff , den dieser mit alpha-Teilchen (Helium) beschossen hatte, zu Kohlenstoff gekannt haben. Die Entdeckung der tatsächlichen künstlichen Radioaktivität - der Umwandlung stabiler in radioaktive Atome, entdeckte das Ehepaar Joliot-Curie 1934. Die Nutzung der Kernkraft zur Energieerzeugung setze erst in den 1950er Jahren ein.)

Vielleicht könnte Italien schon jetzt wirtschaftliche Unabhängigkeit erlangen, indem es einige Millionen Pfund für Forschung auf den angegebenen Gebieten ausgibt.


* JBS Haldane (1923) Daedalus or Science and the Future. (open access). Der daraus entnommene Ausschnitt wurde von der Redaktion möglichst wortgetreu übersetzt. Zur Illustration wurden zwei Fotos eingefügt.


Weiterführende Links

Wie die heutigen Vorstellungen zur Energiewende aussehen , ist in dem Eckpunktepapier "Energie.Wende.Jetzt" von Robert Schlögl (Direktor am Max-Planck-Institut für Chemische Energiekonversion; Mülheim a.d.R.) nachzulesen, das in mehreren Teilen im ScienceBlog erschienen ist.

Teil 1: R.Schlögl, 13.06.2019: Energie. Wende. Jetzt - Ein Prolog.

Teil 2: R.Schlögl, 27.06.2019: Energiewende (2): Energiesysteme und Energieträger

Teil 3: R.Schlögl, 18.07.2019: Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen.

Teil 4: R. Schlögl, 08.08.2019: Energiewende (4): Den Wandel zeitlich flexibel gestalten.

Teil 5: R. Schlögl, 22.8. 2019: Energiewende (5): Von der Forschung zum Gesamtziel einer nachhaltigen Energieversorgung.


 

Redaktion Wed, 18.09.2019 - 21:11

Wissenschaft, Kunst und Gesellschaft - Gustav Klimts Deckengemälde für die Universität Wien

Wissenschaft, Kunst und Gesellschaft - Gustav Klimts Deckengemälde für die Universität Wien

Do, 12.09.2019 — Alberto E. Pereda

Alberto E. PeredaIcon WissenschaftsgeschichteAn der Wende des 19. Jahrhunderts wurde der österreichische Künstler Gustav Klimt beauftragt, die Decke des Großen Festsaals der Universität Wien auszuschmücken. Die drei von ihm geschaffenen Bilder - "Philosophie", "Medizin" und "Jurisprudenz" - wurden jedoch von der Universität abgelehnt und später im Zweiten Weltkrieg beim Rückzug der deutschen Truppen zerstört. An Hand der Geschichte dieser Gemälde und eines weiteren Bildes mit dem Namen "Goldfische" zeigt der Neurobiologe Alberto E. Pereda (Albert Einstein College of Medicine, NY) Gemeinsamkeiten zwischen Kunst und Wissenschaft auf und weiter bestehende Spannungen in den Beziehungen zwischen Kunst, Wissenschaft und Gesellschaft.*

In der zweiten Hälfte des 19. Jahrhunderts erfuhr die Stadt Wien eine gravierende Umgestaltung. Das Herzstück dieser Veränderung war der Ersatz der alten Stadtmauern durch eine breite Allee, die Ringstraße, welche Platz für den Bau einer Reihe neuer öffentlicher Gebäude bot (Rentetzi, 2004).

Die Modernisierung des architektonisches Erscheinungsbildes der Stadt spiegelte sich in der Entwicklung von Künsten und Wissenschaften wider, die in dieser Zeit ein neues Niveau von Exzellenz erreichte. In der Vereinigung Wiener Secession, die unter anderem von Gustav Klimt angeführt wurde, schlossen sich Künstler zusammen, die sich von etablierten Kunstorganisationen und staatlicher Kontrolle losmachten, um Ideen der Moderne zu erarbeiten, wie sie in Berlin, München und anderen europäischen Städten aufkamen.

In den Wissenschaften katapultierte die Zweite Wiener Medizinische Schule unter Leitung von Carl von Rokitansky Wien in den Mittelpunkt der modernen westlichen Medizin. Rokitansky führte wissenschaftlichere Ansätze in die Medizin ein und war ein Pionier auf dem Gebiet der Pathologie. Weitere prominente Ärzte in Wien um diese Zeit waren der Chirurg Theodor Billroth, der Kliniker Josef Skoda und der Anatom Josef Hyrtl. Dazu kam der deutsche Physiologe Ernst Wilhelm Brücke, der (zusammen mit Emil Du Bois-Reymond, Carl Ludwig und Hermann von Helmholtz) argumentierte, dass alle physiologischen Prozesse durch zugrunde liegende physikalische oder chemische Mechanismen erklärt werden können, was im Widerspruch zur damals vorherrschenden Theorie des "Vitalismus" stand (White, 2006).

Brücke spielte eine herausragende Rolle in der wissenschaftlichen Entwicklung der Universität. Zu den von ihm Ausgebildeten zählten u.a. Ludwig Mauthner, dessen Beschreibung der Nervenzellen in Fischen (Seyfarth and Zottoli, 1991) für meine eigene Forschung seit nunmehr dreißig Jahren von zentraler Bedeutung ist, und Sigmund Freud, der Begründer der Psychoanalyse. Der Einfluss von Brücke und Helmholtz veranlasste Freud, sich den menschlichen Geist als einen Strom psychologischer "Energie" oder Triebenergie (Libido) vorzustellen, der sich (wie im Helmholtzschen Gesetz von der Erhaltung der Energie) kontinuierlich in Gedanken und Verhaltensweisen verwandelt.

Interaktionen zwischen Wissenschaftlern und Künstlern waren im intellektuell wissbegierigen Wien weit verbreitet, und Ideen der Moderne in Kunst und Wissenschaft prallten regelmäßig mit den traditionell konservativen Werten der Wiener Gesellschaft zusammen (Kandel, 2012). Brückes materialistische Ansichten zur Wissenschaft wurden von Hyrtl abgelehnt, der das traditionelle philosophische und religiöse Dogma zu Wissenschaft und Medizin favorisierte (Seebacher, 2006). In der Welt der Kunst waren die Spannungen weniger offenkundig, da die Secessionsbewegung - obwohl unabhängig - vom Staat gesponsert wurde. Wie wir sehen werden, änderte sich allerdings die Situation, als die Universität Wien Klimt mit der Produktion einer Reihe von Gemälden beauftragte.

Deckengemälde der Universität Wien

Gustav Klimt wurde 1862 in eine Familie von Goldgraveuren hineingeboren und widmete sein Leben der Kunst. Im Jahr 1894 - als Klimt durch seine Arbeiten in Gebäuden der Ringstraße schon Bekanntheit erlangt hatte - wurden er und sein Mitarbeiter Franz Matsch eingeladen, fünf Tafeln für die Decke des Großen Festsaals der Universität Wien zu malen: ein zentrales Bild ("Der Triumph des Lichts über die Finsternis") umgeben von vier allegorischen Gemälden für die vier Fakultäten. Matsch sollte die mittlere Tafel und eine Tafel "Theologie" malen, während Klimt "Philosophie", "Medizin" und "Jurisprudenz" malen sollte.

Klimts erstes Gemälde "Philosophie" wurde 1900 erstmals der Öffentlichkeit präsentiert und während es in Frankreich Anklang fand (es gewann die Goldmedaille auf der Pariser Weltausstellung), löste es jedoch in Wien bei Professoren und Beamtenschaft heftige negative Reaktionen aus. Der Grund war, dass Klimt mit dem klassizistischen Stil seiner früheren Gemälde (der erwartet worden war) brach und in einem neuen Stil begann, in dem Nacktheit und mehrdeutiger Symbolismus mit den rationalistischen Aussagen des Klassizismus kontrastierte. Anstatt die kulturelle Stellung, die Wien damals in der Welt einnahm, zu verherrlichen, zeigte das Gemälde eine passive, instinktive Interpretation der Philosophie (Abbildung 1). Die gefühlsmäßigen Einsichten der Kunst der Moderne stimmten mit neuartigen, von Freud entwickelten, wissenschaftlichen Ansichten über die menschliche Psyche überein, der postulierte, dass der Großteil unseres geistigen Lebens unbewusst ist und dass unser zivilisiertes Leben von instinktiven Anfällen der Erotik und Aggression getrieben wird, die in Form von Worten und Gestalten ins Bewusstsein auftauchen (Kandel, 2012). Gleichzeitig mit der Philosophie erschien Freuds bahnbrechendes Buch "Die Traumdeutung" im Jahr 1900 (Freud, 1900).

Abbildung 1. Gustav Klimt: Philosophie (1900). "Links Figurengruppe: das Entstehen, das fruchtbare Sein, das Vergehen. Rechts: die Weltkugel als Welträtsel, Unten auftauchend eine erleuchtende Gestalt: das Wissen.“(Klimt im Katalog zur 1. Secession in Wien; Bild und Text: https://geschichte.univie.ac.at/de/artikel/die-fakultaetsbilder-von-gustav-klimt-im-festsaal-der-universitaet-wie. Lizenz: cc-by-nc-sa)

Während Klimt noch in die durch die Philosophie ausgelöste erbitterte Debatte verwickelt war, enthüllte er 1901 ein zweites Gemälde, die Medizin. In seinem neuen instinktiven Stil fortfahrend zeigt es eine Säule nackter Körper, in der die Gegenwart einer schwangeren Frau, von Babys und Skeletten auf die Einheit von Leben und Tod anspielt (Abbildung 2). Der nackte Körper einer bewusstlosen jungen Frau scheint davonzutreiben und wird vom starken Arm eines Mannes festgehalten. Dies scheint darauf hinzudeuten, dass niemand dem Strom des Lebens entkommen kann. Am unteren Rand des Gemäldes hält Hygieia, Göttin der Gesundheit und Tochter des Gottes der Heilkunde Asklepios, die Schale mit dem Wasser der Lethe und die Schlange des Asklepios, während sie - selbstgefällig - menschlichem Leiden den Rücken zukehrt. Die Bedeutung der in diesem faszinierenden Gemälde enthaltenen Bilder war Gegenstand vieler Aufsätze und Interpretationen (z.B.: Finn et al., 2013; Kandel, 2012; Sark, 2011; Schorske, 1981). Eine Botschaft ist jedoch offensichtlich: Wir sind geboren, um zu sterben, und die Medizin - repräsentiert durch die hilflose Hygieia - kann unser Schicksal nicht ändern.

Abbildung 2. Die "Medizin" von Gustav Klimt. Das Gemälde wurde für den Großen Festsaal der Universität Wien in Auftrag gegeben. Es wurde erstmals 1901 auf der 10. Ausstellung der Secession 1901 gezeigt und 1945 zerstört. (Bild: https://geschichte.univie.ac.at/de/artikel/die-fakultaetsbilder-von-gustav-klimt-im-festsaal-der-universitaet-wien. Lizenz: cc-by-nc-sa)

Die Medizin löste eine noch heftigere Reaktion als die Philosophie aus. Neben der eindeutigen weiblichen Sexualität, die zu dieser Zeit als zutiefst anstößig galt, war das Gemälde nicht das, was Ärzteschaft und Verwaltungsapparat erwartet hatten. Anstatt die Stellung Wiens in der Welt der Medizin zu rühmen, entlarvte Klimts Gemälde - in einer instinktiven Sprache - die Grenzen unserer Fähigkeit zu heilen und die Unvermeidlichkeit des Todes. Mit anderen Worten, die wahre Natur der Medizin wurde in Frage gestellt. Das Gemälde wurde von einer medizinischen Fachzeitschrift angegriffen, und eine Gruppe von Universitätsprofessoren reichte eine formelle Beschwerde bei der Universität ein (Bitsori and Galanakis, 2002).

Nach diesem zweiten Skandal gab es für Klimt drastische Konsequenzen: Seine Professur an der Akademie der bildenden Künste wurde nicht verlängert, und die Wiener Secession verlor die staatliche Unterstützung. Klimts Reaktion darauf war, dass er "Goldfische" malte, eine traumartige Komposition, die den Kopf eines Goldfisches und mehrere nackte weibliche Figuren darstellt, von denen eine den Betrachter träumend anzublicken scheint. (Abbildung 2). Ursprünglich mit "An meine Kritiker" betitelt war die Botschaft des Gemäldes offensichtlich.

Abbildung 3. Goldfische (1901 -1902) von Gustav Klimt. Ursprünglich mit dem Titel "An meine Kritiker" versehen, spiegelt "Goldfische" Klimts Reaktion auf die Kritik wider, die er für Philosophie und Medizin erhielt. (Bild: Wikipedia, gemeinfrei)

Das letzte Gemälde der Serie für die Wiener Universität war Jurisprudence (1903 fertiggestellt). Klimt wählte erneut die instinktive Vorgehensweise und die Bildsprache der Nacktheit und stellte eine emotionale Kritik an unserer Fähigkeit dar andere Menschen zu beurteilen und zu bestrafen (Abbildung 4).

Das Unterrichtsministerium entschied schließlich, dass die Gemälde des Großen Festsaal Saals der Universität Wien nicht würdig waren. Trotz des starken Widerstands des Staates, dem die drei Gemälde gehörten, konnte Klimt sie mit Hilfe von Freunden zurückkaufen. In der Folge wechselten die Bilder mehrmals den Besitzer (Klimt starb 1918 während der Influenza-Pandemie) und wurden nach der Annexion Österreichs durch Deutschland 1938 von den Nazis von ihren jüdischen Besitzern beschlagnahmt. Ausgelagert im Schloss Immendorf in Niederösterreich wurden 1945 die drei Deckengemälde schließlich zerstört, als SS-Truppen beim Rückzug das Schloss in Brand steckten.

Goldfische überlebte jedoch und ist jetzt im Solothurner Kunstmuseum in der Schweiz untergebracht. Im übrigen: Kopien davon sind immer noch imstande Anstoß zu erregen: 2014 - 114 Jahre nach der ersten Kritik an Klimts Gemälden - ersuchte mich der damalige Dekan des Albert Einstein College of Medicine in New York, eine Institution, die für ihre fortschrittliche Tradition bekannt ist, eine Reproduktion des Bildes auf dem Gang vor meinem Labor zu entfernen, da er der Ansicht war, dass manche Leute Bilder von nackten Frauen als für eine medizinische Fakultät unpassend halten könnten.

Abbildung 4. Gustav Klimt: Jurisprudenz (1903). Das Bild zeigt einen Verurteilten in der Gewalt dreier Furien – Wahrheit, Gerechtigkeit und Gesetz. Diese sind als von Schlangen umgebene Eumeniden dargestellt, die ihr Opfer mit der tödlichen Umarmung eines Kraken bestrafen. (Bild und Text: https://geschichte.univie.ac.at/de/artikel/die-fakultaetsbilder-von-gustav-klimt-im-festsaal-der-universitaet-wie. Lizenz: cc-by-nc-sa)

Gibt es einen Zusammenhang von Kunst und Wissenschaft?

Könnte Klimt intuitiv ein genaueres Verständnis vom Wesen der Medizin gehabt haben als so manche Ärzte und der Verwaltungsbeamten der Universität zu dieser Zeit? Was die Letzteren betrifft so war das Verständnis der Medizin sicherlich durch ihre Rolle und Stellung in der Gesellschaft beeinflusst, aber das war bei Klimt nicht der Fall. Der Schriftsteller Jorge Luis Borges sagte einmal, dass 90% der Kunst nicht existieren würden, wenn wir wüssten, was auf den Tod folgt (Gelman, 2011) und stellte fest, dass Kunst eine Suche nach Antworten auf Fragen nach dem Sinn unserer Existenz ist; dies ist nicht so sehr von dem unterschieden, was Wissenschaftler auf ihrer Suche nach Wissen antreibt. Künstler vereinigen oft viele Talente - Maler können auch Schriftsteller und Musiker sein und umgekehrt, was darauf hindeutet, dass ihre kreativen Einfälle auf mehrfachen Wege zum Ausdruck gebracht werden können. Desgleichen war Leonardo da Vinci ein Beispiel für jemanden, der seine Kreativität sowohl in Kunst als auch in Wissenschaft einfließen lässt.

Zudem denken Wissenschaftler manchmal wie Künstler, wenn sie ihre wissenschaftlichen Ideen entwickeln. Tatsächlich sagte Albert Einstein, er habe "nie in logischen Symbolen oder mathematischen Gleichungen gedacht, sondern in Bildern, Gefühlen und sogar musikalischen Architekturen" (Root-Bernstein and Root-Bernstein, 2010; Wertheimer, 1945). An anderer Stelle bezog sich Einstein in mehr formaler und expliziter Weise auf den Zusammenhang von Kunst und Wissenschaft, als er schrieb: "Nachdem ein gewisses Maß an technischem Können erreicht ist, verschmelzen Wissenschaft und Kunst in Ästhetik, Plastizität und Form. Die größten Wissenschaftler sind immer auch Künstler"(Calaprice, 2000).

Kunst und Wissenschaft werden vielfach als sich ergänzende Formen des Wissens angesehen. Aber wie ergänzen sie sich? "Der Dichter gibt keine Antworten", schrieb der Dichter Juan Gelman im Jahr 2011. "Bis zum Ende seiner Tage befragt er die unsichtbare Realität, die ihm keine Antworten gibt" (Gelman, 2011). Einsteins Überlegungen zu Kunst und Wissenschaft erweiterten diesen Gedanken, indem er feststellte: "Wenn das Gesehene und Erlebte in der Sprache der Logik dargestellt wird, dann ist es Wissenschaft. Wenn es durch Formen kommuniziert wird, deren Konstruktionen dem Bewusstsein nicht zugänglich sind, aber intuitiv erkannt werden, dann ist es Kunst." Nach dieser Ansicht hatte Klimt ein intuitives Verständnis der Medizin, das ihre wahre Natur zutreffender als ein unvollkommenes Werkzeug, das die Menschheit geschaffen hat, um Schmerzen zu lindern, beschrieb als die pompöse Anschauungsweise damaliger Mediziner und Universitätsverwalter.

Kunst, Wissenschaft und Gesellschaft

Im Gegensatz zu anderen bemerkenswerten Ablehnungen von Auftragskunst, wie Die Verschwörung des Claudius Civilis von Rembrandt (wurde von der Stadt Amsterdam abgelehnt) und Der Mensch am Scheideweg von Diego Rivera (im Rockefeller Center, abgedeckt und zerstört), interessieren sich weiterhin Wissenschaftler und Gelehrte für das Schicksal der Deckengemälde an der Wiener Universität (Finn et al., 2013; Kandel, 2012; Sark, 2011; Schorske, 1981). (Siehe dazu auch "Kommentar der Redaktion" am Ende des Artikels.)

Gegen die Erkenntnisse von Wissenschaftlern und die intuitiven Einsichten von Künstlern gibt es in der Öffentlichkeit häufig Widerstand, da diese in der Regel die zur Zeit vorherrschenden religiösen und kulturellen Überzeugungen in Frage stellen (siehe beispielsweise Die Gefängnishefte von Antonio Gramsci). Die Geschichte ist reich an Beispielen für solche Konflikte. Die Ergebnisse von Galileo Galilei wurden von der katholischen Kirche ernsthaft in Frage gestellt, und Die Hochzeit des Figaro von Mozart wurde in Österreich wegen seiner antiaristokratischen und antimilitaristischen Zwischentöne verboten. Und Gemälde von Kandinsky, Klee, Kirchner, Marc und anderen deutschen Expressionisten wurden vom NS-Regime als "entartet" verurteilt, während die Arbeiten von Einstein und Helmholtz als "ungermanisch" abgetan wurden (Buchwald, 2016; Stern, 1986).

Wenn wir auch oft denken, dass solche Konflikte einer Vergangenheit angehören, aus der wir uns weiterentwickelt haben, so kehren diese tatsächlich zurück. In einem Stück mit dem Titel Almansor machte Heinrich Heine 1823 eine düstere Vorhersage ("dort wo man Bücher verbrennt, verbrennt man am Ende auch Menschen"), die sich tragischerweise in Deutschland während des Naziregimes und in Chile während des Militärputsches 1973 erfüllte. Wissenschaftler und Künstler gehören zudem oft zu den Ersten, die von diktatorischen Regimen verhaftet und strafrechtlich verfolgt werden. Bertolt Brecht warnte uns im letzten Satz seines Theaterstücks Der aufhaltsame Aufstieg des Arturo Ui: Ein Gangsterspektakel wachsam zu bleiben, damit solche Bedrohungen von Diktatoren nicht wiederkehren:

"Die Völker wurden seiner Herr, jedoch, –
Dass keiner uns zu früh da triumphiert –
Der Schoß ist fruchtbar noch, aus dem das kroch."

Es gibt neuere Beispiele für solche Spannungen. 1999 fror der damalige Bürgermeister von New York, Rudolph Giuliani, die städtische Unterstützung für das Brooklyn Museum of Art ein und drohte sogar, es aus seinem Gebäude hinauszuwerfen. Der Grund dafür: Chris Ofilis Gemälde Die Heilige Jungfrau Maria verletzte seine Gefühle, da dieser eine, mit Elefantendung dekorierte schwarze Madonna gemalt hatte (Foggatt, 2018). Ein weiteres tiefergreifendes Beispiel war die Zerstörung historischer religiöser Gebäude im Irak und in Syrien durch den IS in den Jahren 2014 und 2015.

Ein noch eindrucksvolleres Beispiel für diese Spannung ist meiner Meinung nach die Art und Weise, wie einige Regierungen den Klimawandel trotz der überwältigenden wissenschaftlichen Belege und der katastrophalen Folgen für den Planeten leugnen (Mellilo et al., 2014). Schlimmer noch, die derzeitige Regierung in den Vereinigten Staaten macht die Arbeit früherer Regierungen rückgängig und zieht sich aus internationalen Abkommen zurück. Diese Episode ist ein klares Beispiel dafür, wie wissenschaftlicher Fortschritt nicht unbedingt sozialen Fortschritt garantiert und wie regressive Politik trotz gesunden Menschenverstandes bestehen kann.

Die Menschheit ist befähigt Großes in Kunst und Wissenschaft hervorzubringen, sie ist aber auch in der Lage, große Kunst und Wissenschaft zu bekämpfen und zu zerstören. Wir befinden uns in einem ewigen Kampf zwischen Gut und Böse (oder zwischen Schöpfung und Zerstörung), einen Kampf, der nach Freud im Unbewussten jedes Menschen stattfindet. Goldfische als einzig überlebendes Bild aus der Ära der für die Universität Wien geschaffenen Deckengemälde von Klimt ist ein Symbol für die Widerstandsfähigkeit der Kunst und die Verteidigung ihres unerlässlichen Beitrags zur menschlichen Zivilisation.


Literatur:

Bitsori M, Galanakis E. 2002. Doctors versus artists: Gustav Klimt’s Medicine. BMJ 325:1506–1508. DOI: https://doi.org/10.1136/bmj.325.7378.1506, PMID: 12493684

Buchwald JZ. 2016. Politics, morality, innovation, and misrepresentation in physical science and technology. Physics in Perspective 18:283–300. DOI: https://doi.org/10.1007/s00016-016-0187-y

Calaprice A. 2000. The Expanded Quotable Einstein. Princeton: Princeton University Press.

Finn BC, Bruetman JE, Young P. 2013. Gustav Klimt (1862-1918) y su cuadro sobre la medicina. Revista Me´dica De Chile 141:1584–1588. DOI: https://doi.org/10.4067/S0034-98872013001200013

Foggatt T. 2018. Giuliani vs. the virgin. The New Yorker. [Accessed July 9, 2019].

Freud S. 1900. The Interpretation of Dreams. New York: Random House.

Gelman J. 2011. Esa realidad invisible. El Pais. [Accessed July 9, 2019].

Kandel ER. 2012. The Age of Insight. In: The Quest to Understand the Unconscious in Art, Mind, and Brain, From Vienna 1900 to the Present. New York: Random House.

Mellilo J, Richmond T, Yohe G. 2014. Climate change impacts in the United States. The Third National Climate Assessment. DOI: https://doi.org/10.7930/J0Z31WJ2

Rentetzi M. 2004. The city as a context for scientific activity: Creating the Mediziner-Viertel in fin-de-siècle Vienna. Endeavour 28:39–44. DOI: https://doi.org/10.1016/j.endeavour.2004.01.013, PMID: 15036928

Root-Bernstein M, Root-Bernstein R. 2010. Einstein on creative thinking: music and the intuitive art of scientific imagination.[Accessed July 9, 2019].

Sark K. 2011. Vienna secession – Klimt, Freud and Jung. [Accessed July 9, 2019].

Schorske CE. 1981. Fin-de-siècle Vienna: Politics and Culture. New York: Vintage Books.

Seebacher F. 2006. The case of Ernst Wilhelm Brücke versus Joseph Hyrtl – The Viennese Medical School quarrel concerning scientific and political traditions. In: Hoppe B (Ed). Controversies and Disputes in Life Sciences in the 19th and 20th Centuries. Ausburg: Dr.Erwin Rauner Verlag. p. 35–54.

Seyfarth EA, Zottoli SJ. 1991. Ludwig Mauthner (1840-1894): Neuroanatomist and noted ophthalmologist in fin-de-siècle Vienna. Brain, Behavior and Evolution 37:252–259. DOI: https://doi.org/10.1159/000114363, PMID: 1933249

Stern F. 1986. Einstein and Germany. Physics Today 39(2):40–49. DOI: https://doi.org/10.1063/1.881051

Wertheimer M. 1945. Productive Thinking. New York: Harper.

White R. 2006. The Study of Lives: Essays on Personality in Honor of Henry a Murray. New York: Atherton Press.


* Dieser Artikel von Alberto E.Pereda erschien unter dem Titel "Science, art, society and Klimt’s University of Vienna paintings" zuerst (am 1. August 2019) in eLife 2019;8:e50016. DOI: https://doi.org/10.7554/eLife.50016 und steht unter einer cc-by Lizenz. Der Autor hat sich freundlicherweise mit der Übersetzung des Artikels durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt. Im Einverständnis mit dem Autor wurden Abbildungen 1 und 4 und die entsprechenden Legenden von der Redaktion eingefügt. Geändert wurde der Name der Göttin der Gesundheit von Hygia in Hygieia und der letzte Satz des Theaterstücks Der aufhaltsame Aufstieg des Arturo Ui, der nun in der deutschen Originalfassung vorliegt. Weiters haben wir im Kommentar im Anhang  die Totalansicht der rekonstruierten Deckengemälde im Großen Festsaal der Universität Wien, wie sie sich seit 2005 dem Besucher bieten, eingefügt.


Kommentar der Redaktion

Im Mai 2005 hat das Leopold Museum (Wien) in Kooperation mit der Universität Wien das gesamte Bildensemble in Form von Schwarz-Weiß-Reproduktionen an der Decke des großen Festsaales der Universität Wien angebracht. Abbildung.

Abbildung. Deckengemälde im Großen Festsaal der Universität Wien. Im Mai 2005 wurde erstmals das ursprünglich geplante Ensemble der Deckengemälde von Klimt und Matsch mit Hilfe von Schwarz-Weiß-Reproduktionen im Großen Festsaal vollständig präsentiert. (Bild und Text: https://geschichte.univie.ac.at/de/artikel/die-fakultaetsbilder-von-gustav-klimt-im-festsaal-der-universitaet-wie. Lizenz: cc-by-nc-sa)


Artikel zum Thema Wissenschaft und Kunst in ScienceBlog.at

Günter Engel, 01.12.2016: Mutterkorn – von Massenvergiftungen im Mittelalter zu hochwirksamen Arzneimitteln der Gegenwart.

Wolfgang Neubauer, 02.09.2016: Die Erkundung der verborgenen prähistorischen Landschaft rund um Stonehenge.

Wolfgang Neubauer, 01.07.2016: Die zerstörungsfreie Vermessung der römischen Provinzhauptstadt Carnuntum.

Elisabeth Pühringer, 07.03.2014: Kunst oder Chemie – zur Farbästhetik alter Malereien.

Gottfried Schatz, 7.1.2014: Porträt eines Proteins. — Die Komplexität lebender Materie als Vermittlerin zwischen Wissenschaft und Kunst.

Sigrid Jalkotzy-Deger, 10.07.2013: Zur Aufarbeitung von Kulturgütern — Kooperation von Geistes- und Naturwissenschaften.

Uwe Sleytr, 14.06.2013: Synthetische Biologie — Wissenschaft und Kunst.


 

Redaktion Thu, 12.09.2019 - 10:44

Pflanzen entfernen Luftschadstoffe in Innenräumen

Pflanzen entfernen Luftschadstoffe in Innenräumen

Do, 05.09.2019 — Inge Schuster

vIcon BiologiePflanzen nehmen nicht nur CO2 und Wasser auf, wandeln diese via Photosynthese in Biomasse um und produzieren dabei den für uns essentiellen Sauerstoff, sie tragen auch zu unserem Wohlbefinden und unserer Produktivität bei. Für unser Leben, das wir zum Großteil in geschlossenen Räumen verbringen, ist eine weitere, bereits vor 30 Jahren von NASA-Forschern entdeckte Eigenschaft von enormer Bedeutung: bestimmte Zimmerpflanzen können gesundheitsschädliche Stoffe aus der Luft effizient entfernen. Es ist dies eine sehr wichtige, in vielen Details noch unverstandene Funktion, die lange unterschätzt wurde und erst in den letzten Jahren wieder in den Blickpunkt der Forschung rückt.

Wenn von Luftverschmutzung gesprochen wird, so ist in erster Linie von der Außenluft die Rede und von Emissionen, wie sie durch Industrie, Verkehr, Landwirtschaft und viele andere menschliche Aktivitäten (aber auch durch natürliche Ereignisse wie etwa Vulkanismus) erzeugt werden. Allerdings hält sich der typische Mitteleuropäer nur einen kleinen Teil seines Lebens im Freien auf, verbringt dagegen im Durchschnitt rund 60 % der Zeit in der eigenen Wohnung und rund 30 % in anderen geschlossenen Räumen (Arbeitsplatz, Schulen, Verkehrsmittel, Gaststätten, Theater, etc.). Sofern in den Innenräumen keine zusätzlichen Schadstoffemissionen generiert werden, ist die Schadstoffbelastung mit der des Außenbereichs vergleichbar.

Tatsächlich gibt es aber zahlreiche Schadstoffquellen, welche die Belastung in Innenräumen um ein Vielfaches höher machen können als in der Außenluft. Beispielsweise können Möbel und Bauprodukte (wie Holzwerkstoffe, Holzschutzmittel, Farben, Lacke, Bodenbeläge, Wandverkleidungen, Klebstoffe, etc.) flüchtige Schadstoffe temporär und kontinuierlich freisetzen. Emissionen entstehen ebenso durch Wasch-, Putz-und Desinfektionsmittel, Körperpflegeprodukte, Sprays, beim Kochen und Heizen (vor allem durch offene Feuerstellen) und natürlich auch durch Tabakrauchen.

Von der Innenraumluft atmen wir - abhängig von Alter und Aktivität - täglich 10 bis 20 m3 ein; unsere Empfindlichkeit gegenüber Luftschadstoffen ist dabei individuell sehr verschieden. Die Reaktionen reichen von ziemlich unspezifischen Symptomen wie verringerter Leistungs-, Konzentrationsfähigkeit, Schlafstörungen über Reizungen der Schleimhäute des Atmungstrakts, Bindehautentzündungen, Beeinträchtigungen von Nerven- und Immunsystem, Asthma bis hin zu krebserregenden Auswirkungen. In Summe tragen diese Reaktionen zu einem als "sick building syndrome" bezeichneten Phänomen bei.

Schadstoffe in der Innenluft

Zu den häufigsten Schadstoffen in Innenräumen werden sogenannte "flüchtige organische Verbindungen" ("volatile organic compounds" - VOCs) gezählt. Auf den einfachsten Aldehyd - Formaldehyd - wird dabei auf Grund seiner hohen chemischen Reaktivität und seiner sehr weiten Verbreitung in Gegenständen des täglichen Bedarfs, Bauprodukten (Holzwerkstoffen, Polymeren) und Inneneinrichtungen gesondert eingegangen.

Unter der Abkürzung VOC wird eine Vielzahl organischer Verbindungen - Lösungsmittel, Reiz- und Geruchsstoffe und andere chemische Substanzen - zusammengefasst, die einen relativ niedrigen Siedepunkt haben und aus den unterschiedlichsten im Haushalt vorhandenen/verwendeten Materialien (s.o.) ausgasen. Darunter fallen:

  • aromatische Kohlenwasserstoffe wie u.a. Benzol, Toluol oder Styrol (in Bauprodukten, Inneneinrichtungen, Feuchteabdichtungen, Zigarettenrauch),
  • aliphatische Kohlenwasserstoffe wie z.B. Hexan, Heptan, Oktan, Undecan, etc. (als Verdünner, Klebstoffe, in Heizölen),
  • halogenierte Kohlenwasserstoffe - z.B. Tetrachlorethen (chem. Reinigung), Dichlorbenzol (Desinfektionsmittel, Mottenschutz), Perfluoroktansäure (Beschichtung von Outdoorkleidung)
  • Terpene als Lösungsmittel (Terpentinöl), Riechstoffe (Kampher), Duftstoffe (Limonen),
  • Ester, Alkohole, Ketone - z.B. Ethylacetat, Butylacetat (Bodenversiegelung), Isobutanol (als Lösungsmitel in Kunstharzlacken), Cyclohexanon, Benzophenon (Lösungsmittel für Lacksysteme),
  • Aldehyde - Reaktionsprodukte die z.B. aus Leinöl enthaltenden Materialien entstehen,
  • Siloxane - in speziellen Lacken für Möbeloberflächen.

Wie Messungen in deutschen Wohnungen ergeben haben, liegen Gesamtkonzentrationen an VOC im Mittel in der Größenordnung von einigen hundert Mikrogramm (Millionstel Gramm; µg) pro Kubikmeter, wobei im Durchschnitt rund 40 µg/m3 (50 Perzentil) auf Toluol und Xylole zurückgehen; es werden aber auch mehr als zehnfach höhere Werte (95 Perzentil) gefunden. Für Formaldehyd wurden in deutschen und österreichischen Wohnungen, Schulen und Kindergärten Werte zwischen 16 und 150 µg/m3 bestimmt [1]. Insbesondere nach Renovierungen und Großreinigungen ist in den gut abgedichteten und häufig zu wenig gelüfteten modernen Bauten mit einer temporär erhöhten Schadstoffexposition zu rechnen.

Richtlinien zur Bewertung von Schadstoffen, i) für die sich relevante Quellen in Innenräumen befinden, ii) die gesundheitlich relevant sind und iii) für die ausreichend toxikologische Daten und analytische Messmethoden vorliegen, sind in Österreich auf der Seite des Bundesministerium für Nachhaltigkeit und Tourismus zu finden [1]. Beispielsweise liegt für das besonders häufig auftretende Toluol der "No Adverse Effect Level" (NOAEL) für Dauerbelastung bei einem mittleren Stundenwert von 75 µg/m3; als Richtwert für Formaldehyd sollte der Wert der WHO-Air Quality Guidelines for Europe von 60 µg/m3 (24-Stunden Mittelwert) herangezogen werden [1]; dies sind Konzentrationen, die in Innenräumen durchaus überschritten werden können.

Die NASA Clean Air Studie

Mit dem Bau hermetisch isolierter Raumstationen wurde bereits in den 1970er Jahren das Problem der Luftverschmutzung in solchen Räumen evident und die National Aeronautics Space Administration (NASA) suchte nach Möglichkeiten diese zu reduzieren. Eine herausragende Chance entdeckten Forscher am John C. Stennis Center (NASA) und berichteten vor 30 Jahren darüber [2]:

Ein Team um B.Wolverton fand heraus, dass höhere Pflanzen inklusive Substrat und der damit diesen assoziierten Mikoorganismen Schadstoffe sehr effizient reduzieren können. Bei den Pflanzen handelte es sich um 12 populäre Zimmerpflanzen - Bergpalme, Birkenfeige, Chrysantheme, Efeu, Einblatt, Gerbera, Kolbenblatt, Sansivieria und mehrere Dracaena-Arten. Diese wurden jeweils drei repräsentativen Schadstoffen - Benzol, Formaldehyd und Trichlorethylen - ausgesetzt. Dazu wurde jede Pflanze in ihrer Erde und ihrem Topf in einer von der Aussenluft völlig isolierten Plexiglaskammer platziert, der jeweilige Schadstoff injiziert und Luftproben unmittelbar nach Zugabe und nach 6 und 24 Stunden entnommen und die Konzentration des Schadstoffes analysiert. Einen qualitativen Eindruck davon, welche Kapazitäten der Schadstoffentfernung bei solchen Pflanzen gemessen wurden und wie sich Pflanzen diesbezüglich unterscheiden, gibt Abbildung 1.

Abbildung 1. Entfernung der Schadstoffe Benzol, Formaldehyd und Trichlorethylen durch einige Zimmerpflanzen. Die Pflanzen waren dabei über 24 Stunden einer sehr hohen Konzentration Schadstoff (über 15 ppm) ausgesetzt. Daten wurden aus Tabs 1 - 4 der NASA-Studie zusammengestellt [2]. (Eine ungenaue Angabe der eingesetzten Mengen erlaubt nicht die Umrechnung auf das Extraktionsausmaß in %.)

Neben der hohen, Pflanzen-spezifischen Kapazität einzelne Schadstoffe zu eliminieren, brachte die Studie ein weiteres, wesentliches Ergebnis: auch nach dem kompletten Entblättern der Pflanzen blieb die Schadstoffentfernung zum größten Teil aufrecht - zum überwiegenden Teil musste diese also über die Wurzelsphäre und die assoziierten Mikroorganismen erfolgt sein.

Die wichtigen Entdeckungen der NASA gerieten leider mehr oder weniger in Vergessenheit - sieht man in der Datenbank PubMed unter den Schlagworten indoor pollution AND plants nach, so sind dazu bis 2010 nur 0-3 Veröffentlichungen/Jahr gelistet; erst danach steigen die Arbeiten zu diesem Thema an. Bis jetzt fehlen aber robuste Daten über das Funktionieren von Pflanzen unter realen Gegebenheiten und über die für diverse Situationen geeignetsten Pflanzen. Auch die Mechanismen wie Pflanzen Luftschadstoffe reduzieren, sind erst in sehr groben Umrissen aufgeklärt.

Wie entfernen Pflanzen Schadstoffe (VOCs) aus der Luft?

Prinzipiell können Schadstoffe auf mehreren Wegen von Pflanzen aus der Luft entfernt werden: i) über die oberirdischen Teile der Pflanze, ii) über die Wurzelzone, iii) über die mit dieser in Gemeinschaft lebenden Mikroorganismen und iv) über das Substrat (Erde). Dabei kann man zwischen Absorptionsvorgängen - Aufnahme in die Pflanze - und Adsorption - Anlagerung an Oberflächen - unterscheiden.

Im oberirdischen Teil können VOCs über die Stomata der Blätter - das sind Poren an der Blattunterseite, die den Gasaustausch von CO2, O2 und Wasser regulieren - in die Zellen aufgenommen (absorbiert) werden. Sie können aber auf Grund ihres fettlöslichen Charakters im wachsartigen Überzug der Blätter, den Cuticula, "steckenbleiben" - adsorbiert - werden.

Schadstoffe werden auch über das Wurzelwerk der Pflanze und die Rhizosphäre (Bereich um die Wurzel im Substrat) aufgenommen und/oder angelagert (in der NASA-Studie war erfolgte offensichtlich der Großteil der Schadstoffreduktion über diesen unterirdische Teil der Pflanze; s.o.). Aufnahme erfolgt zweifellos auch die Mikroorganismen im Substrat, welche die VOCs metabolisieren und im eigenen Stoffwechsel einbauen.

Abbildung 2 gibt diese Wege schematisch wieder.

Abbildung 2. Wege, auf denen VOCs durch Pflanzen aufgenommen werden. (Bild modifiziert nach Armijos Moya et al.(2019 [3]; Lizenz: cc-by-nc).

Nach der Aufnahme in die Pflanzenzellen können VOCs dann enzymatisch "verarbeitet" und die Produkte in den Stoffwechsel der Pflanze eingebaut werden. In zahlreichen Pflanzen, darunter auch Zimmerpflanzen wie Ficus, Grünlilie und Einblatt wurde beispielsweise eine Dehydrogenase identifiziert, die Formaldehyd zur Ameisensäure oxydiert. Mittels radioaktiv markiertem Formaldehyd konnte dann gezeigt werden, dass die so entstandene Ameisensäure vollständig in den Stoffwechsel der Pflanze eingebaut wird. [4]

Neue Ansätze zur Luftreinigung

Kürzlich hat die NASA eine Hamburger Firma (AIRY GreenTech) für das Design eines Pflanzentopfes geehrt, mit dem "Erkenntnisse der Weltraumforschung auf der Erde nutzbar gemacht werden". Basierend auf dem Ergebnis der 30 Jahre alten NASA-Studie, wonach ein Großteil der Luftreinigung über die Rhizosphäre der Pflanzen mit den assoziierten Mikroorganismen erfolgt [2], ist der Topf so designt, dass die Raumluft Boden und Wurzelwerk maximal durchströmt. Aus dem Luftstrom filtert bereits der Boden Schadstoffe, Wurzeln und Mikroorganismen absorbieren dann Substanzen, metabolisieren diese und verwandeln sie in Produkte ihres Stoffwechsels. Nach Angaben der Firma können mit passend großen Töpfen die gefährlichsten Schadstoffe innerhalb 24 Stunden nahezu vollständig entfernt werden.

Ein Team um Long Zhang von der University of Washington (Seattle) verfolgt einen anderen Ansatz, nämlich den enzymatischen Abbau von Schadstoffen in Pflanzen zu beschleunigen, indem sie diese gentechnisch manipulieren. Dies demonstrieren sie an Hand des Cytochrom P450 2E1 (CYP2E1), eines Enzyms, das in allen Säugetieren vorkommt und neben Ethanol relativ unspezifisch eine Vielzahl anderer organischer Moleküle , darunter auch Chloroform und Benzol, oxydiert und entgiftet. Die Forscher schleusten ein solches CYP2E1-Gen (aus Kaninchen) in das Genom der Efeutute (Epipremnum aureum), einer anspruchslosen Zimmerpflanze, ein und zeigten, dass die transgene Pflanze nun Chlorform und Benzol effizient abbaute, die unveränderte Pflanze jedoch praktisch nicht dazu in der Lage war. Nach Meinung der Forscher können solche transgenen Pflanzen als effiziente, kostengünstige Biofilter zur Entfernung von VOCs in Innenräumen dienen.

Fazit

30 Jahre nach dem sensationellen Ergebnis aus einem NASA-Labor beginnt man sich nun erst für das Potential von Pflanzen zur Luftreinigung zu interessieren. Welche Mechanismen hier zum Tragen kommen, welche Rollen den einzelnen Elementen im System Boden - Pflanze - Wurzelgeflecht - Mikroorganismen bei der Eliminierung von Luftschadstoffen zukommt, welche Pflanzen für welche Schadstoffe als Biofilter besonders geeignet sind und natürlich auch ob und welche Risiken mit deren Einsatz verbunden ist (viele Pflanzen sind giftig und für Kinder und Haustiere eine Gefahr) und noch viel mehr Fragen warten noch auf eine Antwort.

Die Fähigkeit der Pflanzen Fremdstoffe unschädlich zu machen ist zweifellos nicht auf einige Vertreter von Zimmerpflanzen beschränkt. Unsere Wiesen und Wälder im Freien erzeugen nicht nur den Sauerstoff sondern halten sicherlich die Luft auch sauber, die wir alle zum Atmen brauchen.


[1] Bundesministerium für Nachhaltigkeit und Tourismus (BMNT): Richtlinie zur Bewertung der Luftqualität von Innenräumen.

[2] B.C.Wolverton et al., Interior Landscape Plants for Indoor Air Pollution Abatement. Final Report September 15, 1989.

[3] Armijos Moya et al., A review of green systems within the indoor environment. Indoor and Built Environment 2019, Vol. 28(3) 298–309. DOI:10.1177/1420326X18783042

[4] A. Schäffner et al., Genes and Enzymes for In-Planta Phytoremediation of Air, Water and Soil. Acta Biotechnol.22 (2002) 1--2, 141--152.


 

inge Thu, 05.09.2019 - 07:40

Ein Comeback der Phagentherapie?

Ein Comeback der Phagentherapie?

Do, 29.08.2019 — Karin Moelling

vIcon BiologieViren, die spezifisch Bakterien befallen, sogenannte Bakteriophagen (kurz Phagen), wurden bereits vor einem Jahrhundert entdeckt und therapeutisch gegen bakterielle Infektionen eingesetzt. Als Antibiotika ihren Siegeszug antraten, gerieten Phagen aber in den meisten Ländern in Vergessenheit. Die Entstehung von Antibiotika-resistenten Bakterien und der Mangel an neuen wirksamen Substanzen hat nun das Interesse an einer Phagentherapie wieder aufleben lassen. Was Phagen sind und wie sie funktionieren hat die renommierte Virologin Karin Moelling (em. Prof. für Virologie der Universität Zürich und Gruppenleiterin am Max-Planck-Institut für molekulare Genetik) in einem vorangegangenen Artikel dargestellt [1]. Nun schreibt sie über die therapeutische Anwendung von Phagen und nennt vielversprechende Beispiele.

Von Bakterien, gegen die kein Antibiotikum mehr hilft…

Die rasante Resistenzentwicklung gegen das Arsenal vorhandener Antibiotika stellt eine der größten weltweiten Bedrohungen für Gesundheit und übliche medizinische Praktiken (wie Operationen, Tumorbehandlungen) dar. Das Problem wird noch dadurch verschärft, dass antibakteriell wirksame neue Substanzen - zumindest im Laufe des nächsten Jahrzehnts - nicht in Sicht sind. Aktuell geht die WHO davon aus, dass weltweit mindestens 700 000 Personen jährlich an Infektionen mit resistenten Keimen versterben (im worst-case Szenario kann diese Zahl im Jahr 2050 auf 10 Millionen anwachsen) [2], in der Europäischen Union schätzt man jährlich auf 33 000 derartige Todesfälle [3], allein in Berlin ist es jede Woche ein Opfer.

Auf der immer dringlicher werdenden Suche nach Alternativen zur Behandlung bakterieller Infektionen erinnern sich Forscher nun wieder an eine mögliche Anwendung von Phagen, die sogenannte Phagentherapie. Abbildung 1.

Abbildung 1. Publikationen in Pubmed (der größten (bio)medizinischen Datenbank): Ab dem Jahr 2000 kommt es zu einem exponentiellen Anstieg von Arbeiten über Antibiotika-resistente Bakterien und ebenso über Phagentherapie. (Zahl der Publikationen über jeweils 5 Jahre summiert; Grafik mit exponentiellen Trendlinien in Microsoft Excel erstellt).

…zur Phagentherapie…

Wie schon in [1] geschildert, ist die Phagentherapie kein neues Konzept. Vor etwas mehr als hundert Jahren hat Félix d’Hérelle (1873–1949) am Institut Pasteur aus Stuhlproben von an bakterieller Ruhr erkrankten Patienten "unsichtbare Mikroben" isoliert, welche er - da sie gezüchtete Rasen von Ruhr-Bakterien zerstörten - als Bakteriophagen (Bakterienfresser) bezeichnete. (Wie Phagen dabei in hochspezifischer Weise Bakterien attackieren und zerstören, ist in [1] beschrieben.) d’Hérelle hatte auch gleich das therapeutische Potential seiner Entdeckung erkannt: die Anwendung dieser Bakteriophagen bei bakteriellen Infektionen. "Ultramikroskopische, nicht-pathogene Viren" im Filtrat von Bakterienkulturen hatte einige Jahre zuvor auch schon der britische Bakteriologe Frederick Twort entdeckt; der Ausbruch des Weltkriegs stoppte seine Untersuchungen, die er nach Kriegsende nicht fortsetzte.

Aber bereits lange zuvor wurde die - wahrscheinlich auf Phagen beruhende - heilsame Wirkung von menschlichem oder tierischem Kot bei bakteriellen Infektionen von Mensch und Tier erfolgreich angewandt (Kot enthält immerhin bis zu 10 Milliarden Phagen pro Gramm Trockengewicht): Im China des 4. Jahrhunderts verschrieben Mediziner aufgeschlämmten menschlichen Stuhl ("Gelbe Suppe") bei Durchfall und Nahrungsmittelvergiftungen, Beduinen wandten Kamelkot an - Praktiken, die bei uns bis jetzt ins Reich der Märchen verwiesen worden sind.

Dass Inder trotz der Verschmutzungen durch Fäkalabwässer und treibende Leichenreste seit Jahrhunderten weitgehend unbeschadet in den heiligen Flüssen Ganges und Yamuna rituell baden und das Flusswasser trinken, hat den englischen Bakteriologen Ernest Hankin sehr erstaunt. Im Jahr 1896 untersuchte er Wasserproben, nachdem er sie durch ein Porzellanfilter filtriert hatte, das für Teilchen ab der Größe von Bakterien undurchlässig war. Im Filtrat stellte er hohe Aktivität gegen Cholerabakterien fest, die offensichtlich biologischer Natur war, da sie beim Erhitzen verloren ging - diese Aktivität dürfte wahrscheinlich auf die damals noch unbekannten Phagen zurückzuführen gewesen sein. Abbildung 2.

Abbildung 2. Baden im heiligen Fluss Ganges an einem der Ghats in Varanasi. Links und rechts unten: Der englische Bakteriologe Ernest Hankin wies 1896 im Flusswasser hohe antibakterielle Aktivität gegen Cholerakeime nach, die beim Erhitzen verschwand. Rechts: Während Festen wie Kumbh Mela baden Millionen Inder im Ganges ohne, dass es zum Ausbruch von Epidemien kommt. (Bild: Thonas Hoffmann, 2018; Flickr cc- by- nc-sa)

…und ihre Entwicklung bis ins Zeitalter der Antibiotika

Nach einigen Tierversuchen wurden Phagen bald am Menschen angewandt. 1921 wurden in einem Pariser Kinderspital die an Bakterienruhr erkrankten jungen Patienten innerhalb eines Tages geheilt. d’Hérelle selbst reiste unentwegt an Orte, wo Infektionen - insbesondere Cholera und Pest - grassierten (nach Südamerika, Mexiko, Indien, in verschiedene afrikanische Staaten und auch nach Russland) und behandelte die Patienten mit einem Gemisch von Phagen als "cocktails", die er passgenau auf die zu behandelnden Infektionen abstimmte. Überzeugt davon, dass Phagen in spezifischer Weise Bakterien aber nicht höhere Lebewesen befallen und für diese daher harmlos sind, schluckte d’Hérelle auch selbst seine Cocktails ohne Nebenwirkungen zu verspüren. In Tiflis (Georgien) gründete er 1936 mit Georgi Eliava das Georgi Eliava Institut für Phagenforschung, das heute noch existiert, Phagen herstellt und nun zu einer Zuflucht für Patienten aus aller Welt wird, die an Antibiotika-resistenten Infektionen leiden. Zuvor war das Militär Hauptabnehmer für die Phagenpräparate des Eliava-Instituts. Man verzeichnete bereits 1939 - während des Finnisch-Russischen Krieges - große Erfolge: 6 000 Soldaten mit infizierten Wunden erhielten Phagencocktails in die offenen Wunden geträufelt; 80 % wurden gesund und Amputationen wurden ihnen erspart.

Bis in die 1940er Jahre wurden Phagen-Präparate in Europa und Amerika angewandt; Hersteller waren u.a. Pharmaunternehmen wie Behring, Eli Lilly, Abbott, Parke-Davis und Squibb. Für den einfacheren Versand wurden Präparate in Form von Pulver oder Pillen entwickelt und auch noch im 2. Weltkrieg in Feldlazaretten genutzt.

Als aber in den 1940er Jahren mit kommerziell erhältlichem Penicillin die Ära der Antibiotika anbrach, welche ein breites Spektrum von Bakterien auch ohne passgenaue Abstimmung töteten, geriet die Phagentherapie zumindest in den westlichen Staaten in Vergessenheit. Da man nun Phagentherapie als entbehrlich ansah, wurden in den 1980er Jahren schließlich die Bestände an Phagenkollektionen vielerorts, auch am Pasteur-Institut und in Lyon vernichtet. In Ländern hinter dem Eisernen Vorhang - vor allem Russland, Georgien und Polen -, in denen Antibiotika lange Zeit nicht erhältlich waren, blieb die Phagentherapie weiter bestehen und wird auch heute routinemäßig durchgeführt.

Ein Comeback der Phagen

Über die therapeutische Anwendung hinaus haben Phagen bereits in einigen Sparten Anwendung gefunden.

…für nicht-therapeutische Anwendungen

2006 in den US für die Konservierung von Lebensmitteln zugelassen, werden Phagen seitdem in zahlreichen Staaten und auch in EU-Ländern eingesetzt. Es handelt sich hier vor allem um Phagen, die spezifisch gegen gefährliche Listerienstämme gerichtet sind, wie sie u.a. in Räucherlachs, Fertigsalaten, Rohmilchprodukten, etc. vorkommen können; diese Lebensmittel werden nun vor dem Verpacken einem Sprühnebel aus Phagen ausgesetzt oder mit diesen eingestrichen. Da Phagen - wie erwähnt - für höhere Organismen harmlos sind, brauchen sie auf den Verpackungen nicht deklariert werden.

In der Landwirtschaft werden Phagen u.a. als biologische Pflanzenschutzmittel im Obst-und Weinbau eingesetzt. Mit Phagen kann auch die bakterielle Fäulnis von Kartoffeln bekämpft und der Ernteertrag so um ein Mehrfaches gesteigert werden.

Weitere nicht-therapeutische Anwendungen finden Phagen als schnelle, hochsensitive Diagnostika für Bakterienstämme oder als biologische Desinfektionsmittel z.B. von mit Listerien oder Salmonellen verseuchten Räumen.

…für therapeutische Anwendungen…

In den vergangenen Jahren gab es viele Beispiele für Heilungen von bakteriellen Infektionen, insbesondere von solchen mit multi-resistenten Keimen; das Spektrum reicht von schwerem Brechdurchfall, Harnwegsinfekten über Entzündungen des Nasen-Rachenraums bis zu hin Wundinfektionen, "offenen" Beinen, ulzerierenden Zehen von Diabetikern, offenen Frakturen, etc.

Das Problem bei diesen Beispielen ist allerdings, dass es sich dabei häufig um Fallstudien handelt, die nicht den behördlichen Richtlinien von klinischen Studien entsprechen, welche randomisiert, Placebo-kontrolliert als Doppelblind-Studien erfolgen sollen.

…und einige Beispiele

Zu den erfolgreichen Fallstudien aus den letzten Jahren zählt wohl der - auch durch YouTube-Videos populär gewordene - Fall des kalifornischen Professors Tom Patterson. Als dieser 2015 mit seiner Frau Ägypten bereiste, zog er sich eine Infektion mit einem multiresistenten Stamm von Acinetobacter baumannii zu, der eine lebensbedrohende Pankreatitis und Diabetes auslöste. Patterson wurde an die heimatliche Universitätsklinik San Diego gebracht, fiel ins Koma und war von den Ärzten bereits aufgegeben, nicht aber von seiner Frau Steffanie Strathdee. Selbst Epidemiologin setzte sie Kollegen, Ärzte und Gesundheitsbehörden in Bewegung: gegen den infektiösen Keim wurden passende Phagen gefunden, die amerikanische Zulassungsbehörde FDA gab 2016 für den Notfall eine Sondererlaubnis für eine "Investigative New Drug" (IND) Application. Nach nur drei intravenös verabreichten Dosen des Phagencocktails erholte sich der Patient sehr rasch und ist nun gesund. In den US war dies der erste Fall der als experimentell eingestuften Phagentherapie; seitdem wurden in San Diego weitere Patienten damit erfolgreich behandelt (Center for Innovative Phage Applications and Therapeutics (IPATH)).

Bei mehr als 420 Millionen Diabetikern weltweit (https://www.who.int/news-room/fact-sheets/detail/diabetes) wird ein sehr hohes Potential der Phagentherapie in der Behandlung des diabetischen Fusses/der Zehe gesehen. Häufig mit multiresistenten Keimen infiziert entstehen hier tiefe, nicht heilende Wunden und Amputationen bleiben in Hunderttausenden Fällen dann der einzige Ausweg. Zu dieser Indikation läuft seit 2013 eine systematische Multizentren-Studie, Phagopied, die Phagentherapie versus Standardbehandlung untersucht. Elizabeth Kutter (Evergreen Lab, Washington), eine prominente Verfechterin der Phagentherapie, hat vor kurzem die erfolgreiche Behandlung von einigen Patienten mit Phagen­cocktails gegen Staphylococcus aureus berichtet; Fotos zeigten anfangs bereits brandige Zehen und bei allen Patienten zugeheilte Wunden nach 2 Monaten; Amputationen erübrigten sich.

Bereits vor 11 Jahren suchte eine Patientin bei uns am Züricher Universitätsspital Hilfe; sie litt an chronischem Durchfall verursacht durch eine Infektion mit Clostridium difficile - offensichtlich als Folge einer mit Antibiotika behandelten Kieferentzündung. Gegen den vehementen Protest der Kliniker setzte die Patientin durch eine Stuhltransplantation zu erhalten: nach einem Einlauf mit dem klaren Überstand einer aufgeschlämmten Stuhlprobe war sie innerhalb weniger Tage geheilt. Prof Karin Moelling, ehemalige Virologin der Universität Zürich, hat mit Kollegen aus Zürich und Berlin haben in der Folge die Darmflora - Mikrobiom und Virom - der Patientin über acht Jahre regelmäßig untersucht und mit der des Donors verglichen: während die Phagenpopulation bereits innerhalb kürzester Zeit der Donorpopulation ähnlich wurde, war dies bei der Bakterienpopulation erst nach vier Jahren der Fall. Tatsächlich sollte vielleicht die Stuhltransplantation eher als Phagentherapie denn als Bakterientherapie betrachtet werden, da Phagen ja die um Größenordnungen überwiegende Population ausmachen. Nach einer Reihe erfolgreicher Fallstudien erteilte übrigens die US-Gesundheitsbehörde FDA 2013 die Zulassung der Stuhltransplantation für die Indikation der Clostridium Infektion. Innerhalb weniger Jahre hat diese Methode in der Ärzteschaft nun Akzeptanz gefunden und gilt auch bei anderen Infektionskrankheiten als aussichtsreich.

Im ehemaligen Ostblockland Polen haben sich Ärzte am Ludwig-Hirszfeld-Institut in Breslau auf die Phagentherapie spezialisiert. Eigenen Angaben zufolge wurden seit 1980 bereits mehr als 1500 mit antibiotikaresistenten Keimen infizierte Patienten meist erfolgreich mit Bakteriophagen behandelt.

Was es zur Phagentherapie braucht

In erster Linie fehlt es an verfügbaren Phagen. Weltweit gibt es zu wenige Sammlungen von spezifisch gegen pathogene Bakterienstämme wirksamen Phagen, welche für Therapiezwecke rasch vermehrt und geliefert werden können. Eine aktuelle Liste (https://phage.directory/) nennt 22 solcher Quellen - Phagenbanken, Biotech-Startups und nicht-kommerzielle Organisationen -, darunter u.a. das Leibniz Institut ("Deutsche Sammlung von Mikroorganismen und Zellkulturen" DSMZ; Braunschweig), die holländische "Fagenbank" und das" Eliava-Institut".

Verfügbare hochgereinigte und gut charakterisierte Phagen

Phagen gibt es überall, wo es Bakterien gibt: Jeder natürliche Bereich, in dem (pathogene) Bakterien vorkommen, enthält wahrscheinlich auch Phagen, die für diese Keime spezifisch sind und zu deren Lyse führen. Aus solchen Proben können Phagen relativ einfach isoliert, charakterisiert und getestet werden. Es sind dies Standardverfahren in mehreren aufeinanderfolgenden Schritten (Abbildung 3):

Abbildung 3. Vom Sammeln der Phagen zum Auffinden von spezifisch gegen Krankheitserreger wirkenden Phagen bis zu deren therapeutischer Anwendung.

Im ersten Schritt werden Phagen gesammelt, gereinigt , isoliert und charakterisiert. Dazu werden Proben (u.a. aus Abwässern, Erde, Gülle, Kot,...) genommen, eventuell aufgeschlämmt und dann zentrifugiert, wobei die im Vergleich zu Phagen sehr großen Bakterien sedimentieren. Die im Überstand befindlichen Phagen und andere Viren werden angereichert, gereinigt, die unterschiedlichen Phagen isoliert und nach Vermehrung ihre DNAs auf die Base genau sequenziert.

Im zweiten Schritt werden potentielle Kandidaten zur Therapie auf Wirksamkeit getestet- typisiert. Dazu braucht es den jeweils richtigen Bakterientyp, an den Phagen spezifisch nach einem Schlüssel - Schloss-Prinzip andocken, ihr Erbgut in diesen Wirt injizieren, sich in ihm vermehren und ihn schließlich zur Lyse bringen (siehe [1]). Auf Kulturen von pathogenen Bakterien aufgebracht, beobachtet man, welcher Phagentyp Löcher in den dicht gewachsenen Bakterienrasen frisst, d.i. für den Krankheitserreger spezifisch ist und diesen lysiert. Solche spezifischen Phagen werden vermehrt, genau beschrieben und für den Anwendungsfall gelagert.

Die Anwendung schließlich muss von Ärzten durchgeführt werden: entweder als Einzelfallbehandlung (compassionate trial) oder neuerdings als Fallserie. Wie die immerhin seit einem Jahrhundert erfolgende Nutzung zeigt, sind bisher keine schweren Nebenwirkungen aufgetreten.

Dass schädliche bakterielle Komponenten oder Gene das Präparat möglicherweise verunreinigen und übertragen werden, kann verhindert werden indem hochgereinigte, gut charakterisierte und voll-sequenzierte Phagenprodukte angewandt werden. Ein solcher, nach der für Arzneimittel vorgeschriebenen "Good Manufacture Practice" (GMP) hergestellter, Phagencocktail wurde kürzlich im EU-Projekt Phagoburn zur Behandlung von mit Pseudomonas aeroruginosa infizierten Brandwunden angewandt.

Resistenzentwicklung gegen Phagen stellt auf Grund der hohen Spezifität für einen Bakterientyp und der Evolution des Phagen mit diesem Wirt ein wesentlich geringeres Risiko dar als es gegen Antibiotika der Fall ist; die Kombination Phage plus Antibiotikum senkt das Risiko noch weiter.

Eine Besonderheit der Phagentherapie ist, dass sie dosis-korrelliert ist und sich auch selbst limitiert: Je mehr Bakterien vorhanden sind, umso mehr Phagen werden in den Bakterien produziert. Sind alle Bakterien abgetötet, können sich die Phagen nicht mehr vermehren und gehen auch zugrunde. Abbildung 4.

Abbildung 4. Schematische Darstellung der Populationsdynamik von Bakterien und Phagen während einer Phagentherapie. Phagen vermehren sich abhängig von der Bakteriendichte und nur so lange als Bakterien vorhanden sind.

Neue rechtliche Bestimmungen

Offiziell ist in der westlichen Welt die Phagentherapie am Menschen nicht zugelassen, Ausnahmen sind Notfallverordnungen im Sinn der Helsinki Deklaration. Die nach wie vor geübte Anwendung in ehemaligen Ostblockstaaten wird erst im Licht westlicher Standards geprüft.

Phagen sind Biologika, welche in den (bereits veralteten) Richtlinien der Zulassungsbehörden in der EU und den USA noch nicht berücksichtigt sind. Daher können sie die strengen Anforderungen hinsichtlich Standardisierung und Reproduzierbarkeit nicht erfüllen, die einst für synthetische Wirkstoffe, Impfstoffe, Proteine, etc. formuliert worden sind. Diese verlangen ein genau definiertes, identisches Ausgangsmaterial, was bei Phagen nicht möglich ist, wenn man diese spezifisch auf die Keime jedes einzelnen Patienten abstimmt. Ist andererseits eine breitere Anwendung vorgesehen (beispielsweise zur Behandlung von Epidemien) und daher eine große Menge eines Phagenpräparats erforderlich, so kann dieses infolge von Mutation während der Herstellung uneinheitlich werden und damit die geforderte "Good Manufacture Practice" (GMP) fehlschlagen lassen.

Sofern es sich um eine personalisierte Therapie handelt, bietet die sogenannte Magistrale-Anwendung einen Ausweg, der bereits in Belgien praktiziert werden darf: hier kann der Arzt ein Phagen-Präparat verordnen, das passgenau auf einen Patienten mit einem bestimmten Keim zugeschnitten ist und ganz individuell in der Krankenhaus-Apotheke hergestellt wird.

Ein massives Problem der Phagentherapie besteht weiters darin, dass der akzeptierte Entwicklungsprozess von Arzneimitteln eine klinische Prüfung vorsieht , in welcher die Wirkung eines Wirkstoffs auf ein Target (eine Zielstruktur) geprüft wird. Dies ist bei hochspezifischen Phagen problematisch, da ja meistens mehrere Targets vorliegen und für jedes Target mehrere Phagen - ein Phagencocktail - eingesetzt werden müssen.

Um Phagentherapie rasch einsetzen zu können, braucht es also einen neuen rechtlichen Rahmen für medizinische Produkte, der Phagen mit ihren Besonderheiten mit einbezieht.

Systematische Studien

Die lange Erfahrung und die erfolgreichen Anwendungen der Phagentherapie in den ehemaligen Ostblockländern werden von westlichen Behörden als nicht ausreichend dokumentiert angesehen und als zu wenig überzeugend was die Wirksamkeit und ein mögliches Auftreten schwerer Nebenwirkungen betrifft. Um eine breite sichere Anwendung der Phagen-Therapie zu gewährleisten, müssen zahlreiche systematische klinische Studien vorliegen, die dann eine Grundlage für die Zulassungsbehörden bieten, um Richtlinien für die Phagentherapie zu erstellen.

Es kann noch Jahre dauern bis es soweit ist. Bis dahin können Patienten auf eigenes Risiko und eigene Kosten nach Georgien oder Polen pilgern, wo Phagentherapie routinemäßig durchgeführt wird (eine 3-wöchige Behandlung gegen multiresistenten Staphylococcus aureus kommt auf etwa 5 000 €).


[1] Karin Moelling, 04.07.2019: Viren gegen multiresistente Bakterien. Teil 1: Was sind Phagen?

[2] No Time to Wait: Securing the future from drug-resistant infections. (April 2019). Report to the Secretary-General of the United Nations.

[3] EU Action on Antimicrobial Resistance.


Weiterführende Links

Karin Moelling, Felix Broecker, Christian Willy (12.2018): A Wake-Up Call: We Need Phage Therapy Now. Viruses 2018, 10, 688; doi:10.3390/v10120688

Karin Moelling (10.2017): Viren statt Antibiotika.

Karin Moelling: Welt der Viren, 2. Phagen (2015); Video 9:22 min.

Karin Moelling: Ohne Viren gäbe es schlicht kein Leben. Virologin Prof. Dr. Karin Mölling zu Gast bei KKL Impuls (2016), Video 1:17:05 min.

Karin Moelling: Collect Phages to Kill resistant Bacteria (deutsch). 2019; Video 12:14 min.

Karin Moelling: Tischgespräche (24.07.2019), Podcast 52:41 Min

Karin Moelling: New Case Reports with Phage Therapy-What is Needed for More? (2019). Nursing and Health Care 4:30-32

William C. Summers (2016) Félix Hubert d'Herelle (1873–1949): History of a scientific mind, Bacteriophage, 6:4, e1270090, DOI: 10.1080/21597081.2016.1270090

UC San Diego Health (2017): Phage Treatment Saves A Life. Video 5:57 min. (Der Tom Patterson Fall)

Phage Therapy: An Effective Alternative to Antibiotics? Video 10:58 min. The Eliava Institute in Georgia is the world leader in phage production. Patients travel from all around the world for treatment.

Udo Pollmer: Bakteriophagen - natürlicher Ersatz für Antibiotika und Desinfektion? 2013; Video 7:38 min.

DSMZ: The Life Cycle of Bacteriophages. Video 3:18 min.

A.Gorski et al., (2018): Phage Therapy: What Have We Learned? Viruses; 10(6): 288. doi: 10.3390/v10060288


 

Redaktion Sun, 25.08.2019 - 18:23

Energiewende (5): Von der Forschung zum Gesamtziel einer nachhaltigen Energieversorgung

Energiewende (5): Von der Forschung zum Gesamtziel einer nachhaltigen Energieversorgung

Do, 22.08.2019 — Robert Schlögl

Robert SchlöglIcon Politik und GesellschaftDer Umbau des Energiesystems ist eine Revolution. Um diese zu auszuführen bedarf es exzellenter Grundlagenkenntnisse, die in praxistaugliche Technologien umgesetzt werden müssen ohne dabei die systemische Natur der Energieversorgung aus den Augen zu verlieren. Die systemische Betrachtung gilt auch für das Gesamtziel des Umbaus, das Robert Schlögl (Direktor am Max-Planck-Institut für Chemische Energiekonversion; Mülheim a.d.R.) in der 5. Folge seines Eckpunktepapier „Energie. Wende. Jetzt“ in einer nachhaltigen Energieversorgung sieht: diese soll den Interessen aller Beteiligten dauerhaft dienlich sein, für alle Akteure grundsätzlich zugänglich sein, die Biosphäre minimal tangieren, in geschlossenen Stoffkreisläufen vor sich gehen und unter vollständiger menschlicher Kontrolle funktionieren.*

Die Forschung zu Energiesysteme

In Deutschland und in Europa wird umfangreich und seit langer Zeit bereits zu Optionen der Energieversorgung geforscht. Abbildung 1.Dies folgt aus der Armut Europas an fossilen Energieträgern und den resultierenden politischen Abhängigkeiten.

Abbildung 1. Die Aufwendungen für Energieforschung sind in Europa erheblich. Deutschland nimmt hier eine führende Stellung ein. Auch im nationalen Forschungsprogramm wird viel für Energieforschung getan.

Die Grundlagenforschung zu allen Fragen der Energiewandlung ist in Deutschland weit entwickelt und fest etabliert. Sie hat viele Ansätze hervorgebracht und sollte unabhängig von Zwängen zur Anwendung unbedingt weiter vorangetrieben werden. Die Erforschung wissenschaftlich-technischer Grundlagen sollte in unserem Land für alle Optionen der Energiewandlung offen sein. Dies gilt auch für nukleare Optionen, die außerhalb Deutschlands weiter betrieben werden und deren Folgen in Deutschland noch sehr lange präsent sein werden. Dies gilt weiter für die Fusion, deren Eignung als Energiequelle schnellstmöglich nachgewiesen werden sollte.

Zur Gestaltung der Energiewende in Deutschland, Europa und der Welt sind aber nicht nur exzellente Grundlagenkenntnisse erforderlich, sondern diese müssen in praxistaugliche Technologien umgesetzt werden. Diese bedürfen dann ausgiebiger Tests und einer Einführung in Märkte. Hier finden sich zahlreiche Ansätze der Energieforschung, die von der Politik intensiv gefördert werden. Allerdings werden die technologischen Realisierungen oftmals behindert, weil regulatorische Bedingungen einer Kommerzialisierung entgegenstehen. Diese ist Voraussetzung für das Engagement von privatem Kapital und für die Priorisierung von Forschungsanstrengungen.

Zudem werden Projekte parallel und Förderprogramme nicht ausreichend koordiniert angegangen. In der Planung der sehr aufwändigen Technologieprojekte kommt die systemische Betrachtung zu kurz. Dies gilt besonders für die Beurteilungen von Potenzialen für die Energiewende, bei denen heutige Randbedingungen für die Wirkung von Technologien für morgen zur Betrachtung kommen. Die Neigung, auf Grund der Verfügbarkeit neuer technologsicher Ansätze aus der Forschung den regulatorischen sehr eng gefassten Rahmen zumindest zu hinterfragen (beispielsweise mit dem Mittel der „Reallabore“ - am 09. 04.2019 wurde immerhin ein „Netzwerk Reallabore der Nachhaltigkeit“ gegründet – s. solarify.eu/netzwerk-reallabore-der-nachhaltigkeit-gegruendet) ist gering. Dabei sind Instrumente der LCA (life cycle anaylsis) und der Szenarienbildung dazu sehr gut ausgearbeitet und weitgehend standardisiert.

Durch ihre retardierende Haltung verlieren Deutschland und Europa zunehmend an wissenschaftlichem und ökonomischem Boden gegenüber anderen Regionen in der Welt, die der Einführung neuer Technologien offener gegenüberstehen.

Weiters wirkt eine extrem konservative Form der Technikbeurteilung der Übernahme von Risiken für neue Technologien entgegen. Dies beobachtet man sowohl in der Industrie als auch in der Gesellschaft, die der Industrie auch durch ausgeprägte Verfolgung individueller Interessen die Umsetzung neuer Technologien erschwert. Es sprengt den Rahmen dieser Arbeit aufzuzeigen, in wieweit das Verhalten der Industrie diese Reaktion befördert oder entsprechende Vorurteile in der Vergangenheit hat entstehen lassen. Als Folge ist zu erwarten, dass hier geförderte und entwickelte Technologien außerhalb Europas zuerst kommerziell eingesetzt werden und der wirtschaftliche Nutzen damit verloren wird.

Das Gesamtziel richtig setzen

Der fundamentale Eckwert zur Energieversorgung ist die Frage nach dem Gesamtziel. Dazu wurde in Deutschland eine jahrelange intensive Diskussion geführt, die nach einer Phase mit einer Vielzahl von Zielen eine hierarchische Ordnung von Zielen hervorgebracht hat (siehe [2], Abbildung 2). Angaben über die europäischen Ziele finden sich in [2](Abbildung 3). Versucht man, diese Ziele zu kommunizieren oder kritisch zu hinterfragen, stellt man fest, dass es kein einheitliches Schema zu deren Begründung gibt. Dies ist auch eine Folge der nicht beachteten systemischen Natur der Energieversorgung. Dies gilt bereits für die Wahl der Zielkategorien.

Die Vision einer nachhaltigen Energieversorgung

Eine überzeugende Kommunikation und daraus resultierende Beschlussfassung und die darauf folgende lange Phase der Umsetzung verlangen eine konsistente und verbindliche Zieldefinition. Diese könnte sein, dass die Energieversorgung zukünftig nachhaltig werden soll. Darunter ist ein System zu verstehen, das auf Grund der Nachhaltigkeitsbedingung gleichzeitig mehrere Ziele erfüllt, die derzeit ohne Zusammenhang postuliert werden.

  • Nachhaltig im vorliegenden Kontext meint:
  • Den Interessen aller Beteiligten dauerhaft dienlich
  • Für alle Akteure grundsätzlich zugänglich
  • Die Biosphäre minimal tangierend
  • Mit den Ausnahmen von Sauerstoff, Stickstoff und Wasser in geschlossenen Stoffkreisläufen funktionierend
  • Unter vollständiger menschlicher Kontrolle funktionierend.

Solch eine Energieversorgung enthält einen Kohlenstoffkreislauf, verzichtet schnellstmöglich auf die Nutzung von Kohle und Petroleum und auf fossiles Gas, sobald der Kohlenstoffkreislauf in entsprechender Größe funktioniert (siehe Abbildung 1 in [2]).

Nukleare Energiewandlung in den bisherigen Kraftwerkstechnologien sind ausgeschlossen.

In der Umsetzung wird auf Zugänglichkeit für alle geachtet werden. Pfadabhängigkeiten und unnötige, durch Regeln verursachte Kosten werden durch systemische Konzepte vermieden.

Der Treiber für den Umbau ist die Möglichkeit, durch eine entsprechende Wandler- und Transport-Struktur erneuerbare Primärenergie von der Sonne ohne volumenabhängige Kosten und in menschlich-historischen Zeitmaßstäben dauerhaft zu nutzen - und nicht der Verzicht auf fossile Energieträger oder eine Einschränkung des Gebrauches von Energie.

Diese Vision schließt mit ein, dass damit die natürlichen Ressourcen des Planeten bei der Energiewandlung und Verteilung weitgehend geschont werden.

Was kostet der Umbau?

Dafür sind enorme Mittel und einige neue Technologien in globalen Dimensionen nötig, die zu finanzieren sind. Finanzielle Aufwendungen für die Energienutzung fallen aber auch heute an (Abbildung 2).

Abbildung 2. In der Summe geben deutsche Privathaushalte etwas mehr als 100 Milliarden € jährlich für hauptsächlich fossile Energieaus, Strompreise sind trotz ihrer Spitzenwerte in der EU der relativ geringste Anteil im Energiebudget. (Für Industrieunternehmen - hier nicht gezeigt - setzen sich die Stromkosten je nach Ausnahmereglung anders zusammen,)

Es geht um eine Substitution von Ressourcen und die Finanzierung der einmaligen Transformationskosten, die erhebliche Beträge annehmen. Diese Beträge hängen maßgeblich davon ab (Abbildung 3), inwieweit systemisch optimale Transformationspfade, sinnvolle Zielstrukturen und Kooperationen zwischen Staaten, Industriebranchen und zwischen der nutzenden Gesellschaft und den umsetzenden Akteuren (Beispiel Netzausbau) gefunden werden.

Abbildung 3. Kumulative systemische Gesamtkosten bis zum Jahr 2050 für Systementwicklungen, die sich hinsichtlich der Zielwerte der Reduktion energiebedingter CO2-Eissionen unterscheiden. Die Gesamtkosten des Umbaus des Energiesystems hängen stark von den politisch angestrebten Zielen ab (hier als CO2 Einsparziel definiert). Sie steigen stark überproportional mit ambitionierten Zielen, die eventuell zweifelhaft in ihrer nachhaltigen Wirkung sein können. Man beachte den Referenzwert für die nötigen kumulierten Investitionen der ohnehin fällig wird, selbst wenn keine weiteren Maßnahmen zum Umbau des Energiesystems ergriffen werden.(Quelle; esys: Stellungnahme „Sektorenkopplung (2017))

Vergleicht man die Daten aus Abbildung 2 und 3, erkennt man mit der nötigen groben Annäherung eine Entsprechung der Größenordnung der Werte. Die Verfügbarkeit derartiger finanzieller Mittel in Deutschland und Europa setzt allerdings eine mindestens stabile wirtschaftliche Lage voraus. Ohne diese zentrale Voraussetzung kann ein Umbau des Energiesystems an mangelnden Ressourcen scheitern.

Die Zahlen zeigen auch sehr deutlich, dass der Staat diese Mittel in keinem Fall aufbringen oder nur nennenswert teilfinanzieren könnte. Daher ist die proaktive Beteiligung von Wirtschaft und Privatleuten unabdingbar. Es wird in der Diskussion propagiert, dass eine Steuer auf die CO2-Emissionen die nötigen Mittel für den Umbau liefern könnte. Ihre Einführung würde jedoch einen erheblichen Bruch mit dem Ziel bedeuten, alle Maßnahmen und somit auch die Höhe der Steuer konsistent begründen zu können. Das unbedingt verbesserungsbedürftige ETS (Emissions Trading System) unterliegt nicht diesem Problem. Trotzdem hat der Staat über die Zuteilung von Zertifikaten einen global steuernden Einfluss. Der primäre Zweck der Bepreisung sollte die Motivation der Nutzer sein möglichst umfassend und schnell auf den Gebrauch von nicht nachhaltigen Energieträgern zu verzichten. Die Finanzierung des Energiesystems muss sich aus seiner Nutzung ergeben.

Speicherung von Erneuerbarer primärere Elektrizität in chemischen Energieträgern

Ein Argument gegen die Verwendung von Erneuerbarer primärere Elektrizität zur Speicherung in chemischen Energieträgern (abgeschwächt in Wasserstoff) ist die geringe Prozesseffizienz solcher Verfahren.

Dies ist zunächst richtig, da jede Verlängerung der Prozesskette von der Gewinnung erneuerbarer Energie zur letztendlichen Anwendung unweigerlich Verluste mit sich bringt. Unter diesen ist die „Aufladung“ der chemischen Batterie namens CO2 mit die verlustreichste weil dabei zwangsläufig das nicht erwünschte Wasser gebildet werden muss. Chemische Forschung kann hier noch erhebliche Verbesserungen (etwa einen Faktor 2) erbringen, allerdings wird dafür ein langer Atem notwendig sein. Für erste industrielle Anwendungen (in Deutschland etwa Carbon2Chem, s. solarify.eu/carbon2chem-von-ccs-zu-ccu) reichen die Effizienzen heute aus.

Gleichwohl bleibt die Nutzung von chemischen erneuerbaren Energieträgern „ineffizient“ bezüglich einer hypothetischen direkten Verwendung von elektrischer Energie. Die Transportfähigkeit auf allen Skalen im System, die daraus resultiert, ist ein zentrales Element einer schnellen und dauerhaften Umstrukturierung des Energiesystems. Erweitert man den Betrachtungsrahmen der Effizienz hin auf das gesamte System und betrachtet die Verfügbarkeit der erneuerbaren Energie zu jedem beliebigen Zeitpunkt mit, so ändert sich die Beurteilung der Prozesseffizienz und die systemische Dienstleistung von in CO2 gespeicherter Energie mit ihren Vorteilen wird zum überwiegenden Argument.


*Dies ist Teil 5 des Artikels von Robert Schlögl "Energie. Wende. Jetzt", der am 7.Mai 2019 auf der Webseite des Max-Planck-Instituts für Chemische Energiekonversion erschienen ist (https://cec.mpg.de/fileadmin/media/Presse/Medien/190507_Eckpunktepapier__Energie.Wende.Jetzt__-_Erstfassung_final.pdf ). Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt; der Text blieb weitestgehend unverändert, die 3 Abbildungen stammen aus dem Anhang 13, 14, 15 des Artikels. Literaturzitate wurden allerdings weggelassen - sie können im Original nachgelesen werden.

Vorherige Folgen:

Teil 1: R.Schlögl, 13.06.2019: Energie. Wende. Jetzt - Ein Prolog.

Teil 2: R.Schlögl, 27.06.2019: Energiewende (2): Energiesysteme und Energieträger

Teil 3: R.Schlögl, 18.07.2019: Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen.

Teil 4: R. Schlögl, 08.08.2019: Energiewende (4): Den Wandel zeitlich flexibel gestalten.

Demnächst erscheint mit Teil 6 der Abschluss der Artikelserie.


Weiterführende Links

Max-Planck-Institut für Chemische Energiekonversion (MPI CEC) https://cec.mpg.de/home

Woran forscht das MPI CEC? Video 3:58 min.

Oppermann, Bettina/Renn, Ortwin (März 2019) Partizipation und Kommunikation in der Energiewende. Analyse des Akademienprojekts „Energiesysteme der Zukunft“

R. Schlögl (2017): Wasserstoff in Ammoniak speichern.

Die österreichische Klima-und Energiestrategie: "#mission2030" (Mai 2018).

Redaktion Thu, 22.08.2019 - 13:06

Wieviel CO₂ können tropische Regenwälder aufnehmen?

Wieviel CO₂ können tropische Regenwälder aufnehmen?

Do, 15.08.2019 — IIASA

IIASAIcon GeowissenschaftenAktuelle Klimamodelle deuten darauf hin, dass Bäume weiterhin von Menschen verursachte Treibhausgasemissionen aus der Atmosphäre entfernen, was es ermöglicht, die im Pariser Abkommen festgelegten Ziele einzuhalten. Bereits vor einigen Jahren hat Christian Körner (im Swiss Canopy Project ) in einem naturbelassenen Mischwald den Effekt einer experimentellen Anreicherung von CO2 in den Kronen hoher Bäume auf deren Zunahme von Biomasse untersucht und gezeigt, dass diese von der Verfügbarkeit von Nährstoffen im Boden abhängt [1]. Zu einem ähnlichen Ergebnis ist nun ein internationales Teams mit Forschern von IIASA für die Regenwälder des Amazonas gelangt (Amazon FACE-Projekt): die Aufnahmekapazität der Bäume von zusätzlichem (menschengemachtem) CO2 könnte durch die Verfügbarkeit von Bodenphosphor stark eingeschränkt werden.*

Bäume nehmen das Treibhausgas CO2 über ihre Blätter auf und verwandeln es in Sauerstoff und Biomasse. Nach Schätzungen des Internationalen Panels für Klimawandel (IPCC) absorbiert so allein der Amazonas-Regenwald (Abbildung 1) rund ein Viertel des CO2, das jedes Jahr durch die Verbrennung fossiler Brennstoffe freigesetzt wird.

Abbildung 1. Die Regenwälder am Amazonas setzen rund ein Viertel des aus fossilen Brennstoffen entstehenden CO2 in Biomasse um. (Bild: lubasi - Catedral Verde - Floresta Amazonica, CC BY-SA 2.0)

Die aktuellen globalen Klimamodelle gehen davon aus, dass diese Kapazität auch in Zukunft erhalten bleibt und zwar auf Grund aufgrund des sogenannten CO2-Düngeeffekts: dieser besagt, dass steigende CO2-Werte das Vegetationswachstum fördern, indem sie die Rate der Photosynthese beschleunigen, welche die Grundlage für die Biomasse-Produktion von Pflanzen ist.

Abholzung, Ausweitung der landwirtschaftlich betriebenen Flächen und steigende Temperaturen lassen jedoch die Speicherkapazität der Amazonas-Wälder an ihr Limit gelangen und nach Meinung der Forscher ist es nicht absehbar, wie lange diese Wälder noch eine Senke für Kohlenstoff bleiben werden (Senke bedeutet, dass sie via Photosynthese mehr Kohlenstoff aufnehmen als sie via Atmung abgeben; Anm. Redn.).  Ein internationales Team, an dem auch Forscher des IIASA teilnahmen, untersuchte diese Frage anhand von Daten aus dem ersten tropischen FACE-Experiment (FACE = Free Air CO2 Enrichment), das mitten im Amazonas-Regenwald durchgeführt wurde.

Das Amazon FACE-Projekt

an einem etwa 70 Kilometer nördlich von Manaus, Brasilien, gelegenen Studienstandort weist einen einzigartigen technischen Versuchsaufbau auf: um realitätsnahe Untersuchungen zu ermöglichen, wie sich künftige CO2-Konzentrationen auf das Ökosystem auswirken werden, wird die CO2-Konzentration um Bäume herum künstlich erhöht. Abbildung 2. Die Forscher beobachten dann, wie die Bäume wachsen und sich im oberirdischen Teil die Blätter entwickeln, verfolgen aber auch das Wachstum der Wurzeln und was im Boden darunter geschieht.

Abbildung 2. Das Amazon FACE-Project. An insgesamt 8 Stellen des Studienstandortes bilden jeweils 16 Stahltürme einen Ring, von denen aus die Bäume bis in die Baumspitzen über 10 Jahre täglich mit  CO2 besprüht ("gedüngt") werden.  Die Auswirkung der CO2-Düngung auf Biomasse und Wurzelwachstum in Abhängigkeit von der Verfügbarkeit der Ressourcen im Boden wird kontinuierlich untersucht. (Bild: screenshot aus TU München (24.04.2019) "Das Amazon FACE-Projekt: Welchen Einfluss hat der Klimawandel auf den Regenwald?". Video 8:16 min. https://www.youtube.com/watch?v=YiYtR70j18Q)

Ökosystemmodelle

In ihrem im Fachjournal Nature Geoscience veröffentlichten Artikel [2] haben die Forscher nun eine Reihe von Ökosystemmodellen angewandt, um herauszufinden, inwieweit das Angebot von Nährstoffen im Boden die Produktion von Biomasse in tropischen Wäldern limitieren könnte.

„Mit diesem Zusammenhang hat sich bisher niemand eingehend befasst“, erklärt Katrin Fleischer, Forscherin an der Technischen Universität München (TUM) und Erstautorin der Studie. „Die meisten Ökosystemmodelle, mit denen die künftige Entwicklung von Ökosystemen simuliert werden kann, wurden für gemäßigte Breiten entwickelt, in denen im Allgemeinen genügend Phosphor vorhanden ist. In vielen Teilen des Amazonasgebiets ist dieses Element jedoch rar - das Ökosystem ist mehrere Millionen Jahre alt und der Boden ist dementsprechend bereits ausgelaugt.“

Die Forscher haben 14 verschiedene Ökosystemmodelle angewandt, um zu untersuchen wie der Regenwald auf einen Anstieg der CO2-Konzentrationen in der Atmosphäre reagiert. Mit diesen Modellen haben sie dann die Produktion von Biomasse für die nächsten 15 Jahre simuliert: zunächst für die derzeitige CO2-Konzentration von 400 ppm und in einem zweiten Szenario für eine erhöhte Konzentration von 600 ppm.

Die Ergebnisse der Modellrechnungen

zeigen nun, dass Bäume tatsächlich zusätzliches CO2 aufnehmen und in pflanzliche Biomasse umwandeln, jedoch nur dann, wenn ausreichend Phosphor zur Verfügung steht. Bei unzureichender Versorgung mit Phosphor nimmt der CO2-Düngeeffekt erheblich ab. Die verschiedenen Modelle, die unterschiedliche Faktoren berücksichtigen, sagen eine mögliche Reduzierung der Aufnahme von zusätzlichem CO2 um durchschnittlich 50% voraus, einige Modelle - je nach Szenario - sogar eine Reduzierung von bis zu 100% .

Nach Ansicht der Forscher könnte dies darauf hindeuten, dass der Regenwald bereits an seinem Limit zur Absorption der vom Menschen verursachten CO2-Emissionen angelangt sein könnte. Sollte sich dieses Szenario als zutreffend erweisen, würde sich das Erdklima viel schneller erwärmen als bisher angenommen wurde.

„Die meisten Modelle versuchen, die Komplexität des Klimasytems zu reduzieren; es könnten daher wichtige Ökosystemprozesse fehlen, die essentielle Rückkopplungen beinhalten und somit zu einer Überschätzung des CO2-Düngungseffekts führen“, sagt Florian Hofhansl, Postdoktorand am IIASA und einer der Studie Co-Autoren. "Das Amazon FACE-Experiment wird uns neue Erkenntnisse für die Modellentwicklung liefern, die es uns ermöglichen sollten, zuverlässigere Vorhersagen zu treffen und damit zukünftige Projektionen zu verbessern.“

Die Autoren der Studie merken dazu an, dass man noch ausführlicher untersuchen muss, wie das Ökosystem reagieren wird - ob Bäume in der Lage sein werden durch enzymatische Prozesse mehr Phosphor aus dem Boden zu erhalten oder indem sie mehr Wurzeln bilden und Symbiosen eingehen, die ihnen seltene Nährstoffe verschaffen können.

Was allerdings beeits vollkommen klar ist: Regenwälder sind keine unendlich großen Senken für CO2 und das Waldgebiet am Amazonas muss erhalten bleiben.


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 6. August 2019 auf der IIASA Webseite unter dem Titel: "How much carbon dioxide can tropical forests absorb?" erschienen (https://www.iiasa.ac.at/web/home/about/news/190805-CO2-fertilization-effect.html). IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch passende Abbildungen  und Legenden ergänzt.


[1] Christian Körner, 29.07.2016: Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt.

[2] Fleischer K, Rammig A, De Kauwe M, Walker A, Domingues T, Fuchslueger L, Garcia S, Goll D, et al. (2019). Amazon forest response to CO2 fertilization dependent on plant phosphorus acquisition. Nature Geoscience DOI: 10.1038/s41561-019-0404-9ID [pure.iiasa.ac.at/16021]


Artikel zu verwandten Themen im ScienceBlog:

Rattan Lal, 27.11.2015: Boden - der große Kohlenstoffspeicher. http://scienceblog.at/boden-der-gro%C3%9Fe-kohlenstoffspeicher#.

Gerhard Glatzel, 28.06.2011: Hat die Menschheit bereits den Boden unter den Füßen verloren? http://scienceblog.at/hat-die-menschheit-bereits-den-boden-unter-den-f%C3%BC%C3%9Fen-verloren#.


 

Redaktion Tue, 13.08.2019 - 21:58

Energiewende (4): Den Wandel zeitlich flexibel gestalten

Energiewende (4): Den Wandel zeitlich flexibel gestalten

Do, 08.08.2019 - 19:55 — Robert Schlögl

Robert SchlöglIcon Politik und GesellschaftDas Endziel der Energiewende ist ein vollständig defossilisiertes Energiesystem, das auf freien Elektronen und synthetischen Brennstoffen als zwei Erscheinungsformen erneuerbarer Energie basiert. Der Transformationsprozess kann aber auf Grund der systemischen Komplexität, der langen Dauer des Wandels und zahlreicher, von den Akteuren nicht beeinflussbarer Größen nicht nach einem straffen, zeitlich linearen Fahrplan erfolgen. In der 4. Folge seines Eckpunktepapiers „Energie. Wende. Jetzt“ schlägt Prof. Dr. Robert Schlögl (Direktor am Max-Planck-Institut für Chemische Energiekonversion; Mülheim a.d.R.) eine Zwischenlösung vor: möglichst viele Elemente und Relationen des heute existierenden Systems zu übernehmen und unter kontinuierlichem Monitoring nach Möglichkeit nur an den Energieträgern Veränderungen vorzunehmen. (Das für Deutschland erarbeitete Konzept hat in seinen Eckpunkten auch für den EU-Raum Gültigkeit.)*

Derzeit sind Politiker überzeugt, dass mengenmäßige Vorgaben an Aufbau und Einsparungen zeitlich klar gegliedert in offenbar jährlich nachvollziehbaren Schritten erfolgen sollen. Der Entwurf des deutschen Klimaschutzgesetzes sieht straffe Zeitpläne und Eskalationsstufen von Interventionen in jedem Sektor des Energiesystems vor. Dieser Planungsansatz passt nicht sehr gut zu Prozessen, die mit neuen Technologien und industriellen Strukturen die wirtschaftlich-technische Basis unseres Landes und Europas grundlegend verändern werden. Solche Prozesse bedürfen einer Anlaufphase, die von einer Hochlaufphase gefolgt ist um dann in ein gleichmäßiges Wachstum überzugehen. Die Entwicklungskurven von Photovoltaik (PV) und Windkraft sind hervorragende Beispiele aus dem bisher erreichten Umbau der Energieversorgung, wie man aus Abbildung 2 in "Energie. Wende. Jetzt - Ein Prolog" erkennen kann. Eine geforderte zeitlich lineare Abarbeitung über- oder unterfordert das System in seiner Umgestaltung. Das Ausbleiben eines kontinuierlichen Wachstums nach der Hochlaufphase ist symptomatisch für das nichtsystemische Handeln des Staates, der mit Festhalten an einer Technologieförderung das Wachstum bremst, anstatt durch Freigabe des Rahmens und Bepreisung von CO2 die Einkopplung der Erneuerbaren in andere Sektoren zu unterstützen.

Viel nützlicher als ein zeitlich linearer Verlauf ist ein kontinuierliches Monitoring der erfolgten Änderungen, um rechtzeitig gegensteuern zu können. Dieses Instrument ist in Deutschland mit der Monitoring-Kommission beim BMWi bereits eingerichtet. Sie hat einen sehr detaillierten Kriterienkatalog mit Indikatoren gesammelt, mit dem sie die Zielerreichung in vielen Dimensionen abbilden und auch im zeitlichen Verlauf vorausschätzen kann. Eine vertrauensvolle Nutzung dieses Instrumentes minimiert unnötige Aufwendungen für einen sachlich nicht gerechtfertigten linearen Verlauf der Umgestaltung des Systems.

Flexibilität im Umbauprozess

Eine zeitliche Flexibilität im Umbauprozess bedingt einen klaren, von allen Akteuren zur Kenntnis genommenen und zumindest mehrheitlich akzeptierten groben technischen Plan, wohin sich das Energiesystem entwickeln soll. Solch ein Plan könnte wie in Abbildung 1 skizziert aussehen. Das Grundkonzept in diesem Modell ist, möglichst viele Elemente und Relationen des heute existierenden Systems zu übernehmen und nach Möglichkeit nur an den Energieträgern (jeweils unterste Zeile in den Blöcken A, B, C) Veränderungen vorzunehmen. Am Ende des Prozesses ist das System vollständig defossilisiert und basiert auf freien Elektronen und synthetischen Brennstoffen (Kraftstoffe) als zwei Erscheinungsformen regenerativer Energie.

Abbildung 1. Ein Beispiel für einen Plan, wie sich dasEnergiesystem in Deutschland entwickeln könnte. In drei Phasen ist der derzeitige Zustand (A) ein Zwischenzustand (B, mit Ausstieg von Kohle und Öl) und ein Endzustand (C, defossilisiert) angedeutet.

Quantitative Ziele

Ein derartiger Plan, der die Richtung der Veränderung weist, muss schemenhaft bleiben, da über die Laufzeit zu viele Einzelheiten angepasst werden müssen. Nötig sind allerdings quantitative Ziele für jedes Element des Energiesystems, die in hinreichend langen Zeitabständen (Dekaden) gefasst sind. Diese sind beispielhaft angegeben (Abbildungen 2, 3).

Allerdings fehlen allgemein akzeptierte Transformationspfade dorthin. Bei der Aufstellung der quantitativen Ziele wurde kaum Rücksicht auf die systemische Wechselwirkung einzelner Festlegungen genommen.

Abbildung 2. Zielsysteme für die Energieversorgung. Energiekonzept 2010. In Deutschland wird der gezeigte hierarchische Ansatz verfolgt. Neben dieser Hierarchie hat man eine Kategorie weiterer Ziele geschaffen, die neben den obigen Zielen stehen wie Versorgungssicherheit, Kernenergieausstieg (bis 2022), Bezahlbarkeit & Wettbewerbsfähigkeit, Umweltverträglichkeit, Netzausbau, Sektorkopplung & Digitalisierung, Forschung & Innovation, Investitionen & Wachstum & Beschäftigung.

Ein Beispiel hierfür wäre die Bevorzugung der Elektromobilität im System. Daher ist es notwendig, unter dem Gesichtspunkt der Entwicklung des Gesamtsystems die Zielkorridore noch einmal zu überprüfen. Dies sollte ausgehend von einer Information über den gegenwärtigen Stand und einer nachvollziehbaren Begründung für das Zahlenwerk in einem wesentlich transparenteren Prozess geschehen als er bisher Verwendung fand. Ein ungünstiges Beispiel für solch einen Prozess ist die Darstellung der Arbeit der Kohlekommission in Deutschland, die eine transparente Begründung für ihre Empfehlungen nicht gegeben hat.

Abbildung 3. Quantitative Ziele der Energiewende und Status quo (2016) in Deutschland und auf EU-Ebene.(Abkürzungen: THG Treibhausgasemissionen, EE erneuerbare Energien, ETS Emissions Trading System, PEV Primärenergieverbrauch)

Eine Konzeption des Energiesystems und eines Transformationspfades ist kein Fahrplan,

da die systemische Komplexität, die lange Dauer des Transformationsprozesses und die Existenz zahlreicher von den Akteuren nicht beeinflussbarer Größen eine Planung in Einzelheiten verunmöglichen.

Ein immerwährendes ad-hoc-Aushandeln der Richtung des Umbaus der Energieversorgung verbunden mit wiederholten Debatten über die Ziele und Grundlagen dazu kann es nicht geben. Dazu ist die Bedeutung des Energiesystems im Gefüge einer Gesellschaft zu groß. Eine fortwährende Einflussnahme wechselnder politischer Strömungen auf den Umbau der Energieversorgung kann es auch nicht geben. Dazu sind die Zeitspannen, in denen sich ein Wandel der Infrastruktur vollzieht, zu lange.

Daher ist die absolut vordringliche Aufgabe, eine verbindliche Einigung der relevanten Akteure über ein Konzept als notwendige Ergänzung zur Festlegung von Zielen, die weitgehend erfolgt ist, herbeizuführen. Eine „Ansage“ zu diesen Zielen ist kein geeignetes Mittel in europäischen Gesellschaften. Vielmehr sind umfangreiche Anstrengungen zur Information über Optionen an die Bevölkerung erforderlich. Allerdings sind die Methoden dazu nicht gut entwickelt, und die Kommunikation bedarf einer leistungsfähigen Begleitforschung, um die Konsequenzen der resultierenden Willensbildung differenziert genug einzufangen und für den Entscheidungsprozess verfügbar zu machen


*Dies ist Teil 4 des Artikels von Robert Schlögl "Energie. Wende. Jetzt", der am 7.Mai 2019 auf der Webseite des Max-Planck-Instituts für Chemische Energiekonversion erschienen ist (https://cec.mpg.de/fileadmin/media/Presse/Medien/190507_Eckpunktepapier__Energie.Wende.Jetzt__-_Erstfassung_final.pdf ). Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt; der Text blieb weitestgehend unverändert, aus dem Anhang 12 des Artikels wurden zwei Abbildungen (2 und 3) eingefügt. Literaturzitate wurden allerdings weggelassen - sie können im Original nachgelesen werden.

Vorherige Folgen: Teil 1: R.Schlögl, 13.06.2019: Energie. Wende. Jetzt - Ein Prolog.

Teil 2: R.Schlögl, 27.06.2019: Energiewende (2): Energiesysteme und Energieträger

Teil 3: R.Schlögl, 18.07.2019: Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen.


Der demnächst erscheinende Teil 5 wird sich mit der Forschung zu Energiesystemen und dem Setzen des Gesamtziels befassen.


Weiterführende Links

Max-Planck-Institut für Chemische Energiekonversion (MPI CEC ) https://cec.mpg.de/home/

Woran forscht das MPI CEC? Video 3:58 min. https://www.youtube.com/watch?v=-aJJi6pFOKc&feature=youtu.be

Oppermann, Bettina/Renn, Ortwin (März 2019) Partizipation und Kommunikation in der Energiewende. Analyse des Akademienprojekts „Energiesysteme der Zukunft“ https://energiesysteme-zukunft.de/publikationen/analyse-partizipation/

R. Schlögl (2017): Wasserstoff in Ammoniak speichern. https://www.solarify.eu/2017/09/10/254-wasserstoff-in-ammoniak-speichern/

Die österreichische Klima-und Energiestrategie: "#mission2030" (Mai 2018). https://mission2030.info/wp-content/uploads/2018/10/Klima-Energiestrategie.pdf

Artikel zum Thema Energie/Energiewende im ScienceBlog:

Eine Liste der Artikel findet sich unter R. Schlögl: 13.06.2019: Energie. Wende. Jetzt - Ein Prolog. http://scienceblog.at/energie-wende-jetzt-ein-prolog


 

Redaktion Thu, 08.08.2019 - 18:33

Stickstoff-Fixierung: Von der Verschmutzung zur Kreislaufwirtschaft

Stickstoff-Fixierung: Von der Verschmutzung zur Kreislaufwirtschaft

Do, 01.08.2019 - 14:22 — Sönke Zaehle

Sönke ZaehleIcon GeowissenschaftenDas Umweltprogramm der Vereinten Nationen (UNEP) zeigt mit seinem alljährlichen Bericht „Environment Frontiers“ auf, welche Herausforderungen die natürlichen Lebensgrundlagen auf unserem Planeten künftig maßgeblich mitbestimmen werden. Im kürzlich vorgestellten Report 2018/2019 [1] wird fünf neu auftretenden Themen besondere Bedeutung zugemessen. Es sind dies die Synthetische Biologie, die Ökologische Vernetzung, die Stickstoff-Kreislaufwirtschaft, Permafrostmoore im Klimawandel und Fehlanpassungen an den Klimawandel. Experten aus der Max-Planck-Gesellschaft wurden zu diesen Themen interviewt. Nach deren Stellungnahmen zu Aspekten der Synthetischen Biologie [2, 3] und zur Ökologischen Vernetzung [4] folgt nun das Gespräch mit Dr. Sönke Zaehle, Forschungsgruppenleiter am Max-Planck-Institut für Biogeochemie (Jena), über die Folgen von Stickstoff-Emissionen und mögliche Maßnahmen dagegen.*

P.H.: Herr Zaehle, was sind die wichtigsten Quellen für Stickstoffemissionen?

S.Z.: In Deutschland gelangen einem Bericht des Umweltbundesamtes zufolge durch die Landwirtschaft jährlich 435 Gigatonnen Stickstoff in Form von Ammoniak in die Atmosphäre, etwa genauso viel wird als Ammonium und Nitrat aus den Feldern ausgewaschen. Im Verkehr und der Industrie werden etwa 360 Gigatonnen in Form von Stickoxiden freigesetzt, 60 Prozent davon im Verkehr. Abbildung 1.

Abbildung 1. In unserer Umwelt tritt Stickstoff - N - in Form unterschiedlicher kleiner Moleküle auf. (Bild modifizert nach [1], p. 53; von der Redn. eingefügt)

P.H.: Welche Folgen haben die Emissionen der verschiedenen Stickstoffverbindungen für Mensch und Umwelt?

S.Z.: Da gibt es mehrere Aspekte. Einer ist die Belastung der menschlichen Gesundheit. Die Emissionen von Ammoniak und Stickoxiden beeinträchtigen durch die Reizwirkung beziehungsweise durch die Bildung von Feinstaub die Gesundheit. Daneben belasten hauptsächlich die landwirtschaftlichen Einträge das Grundwasser und die nebenliegenden Ökosysteme, sodass es zu einer Nährstoffanreicherung in diesen Ökosystemen kommt.

Das wirkt sich negativ auf die Biodiversität, aber auch auf die Qualität des Grundwassers aus. Schließlich gibt es noch die Lachgas-Emissionen, die dem Klima schaden. Diesen Aspekt darf man nicht vergessen.

Das besondere Problem beim Stickstoff ist, dass jedes zusätzliche Gramm Stickstoff in der Umwelt an einer Kaskade von biochemischen Umwandlungen teilnimmt, und so mehrere dieser Wirkungen nacheinander verursachen kann.

P.H.: Durch den Dieselskandal sind vor allem die Stickoxid-Emissionen im Straßenverkehr ins Blickfeld geraten. Ist das gerechtfertigt?

S.Z.: Auch aus Sicht des Stickstoffkreislaufs kann man hier durchaus noch etwas machen. Diese Emissionen tragen ebenfalls zur Nährstoffanreicherung in Ökosystemen bei. Weil sie vor allem in Ballungsräumen auftreten, sind sie aus gesundheitspolitischer Sicht wahrscheinlich auch relevanter als die landwirtschaftlichen Emissionen in der Fläche. Aber letztere sind mengenmäßig viel bedeutender.

P.H.: Wie lassen sich die Emissionen aus der Landwirtschaft effektiv eindämmen?

S.Z.: Man muss zunächst einmal verstehen, dass der Einsatz von Stickstoff bei der Produktion von Getreide und Fleisch notwendig ist. Das Problem ist aber, dass etwa 80 Prozent des eingesetzten Stickstoffs nicht in den landwirtschaftlichen Produkten landet, weil er von Pflanzen und Tieren nicht genutzt werden kann, und in der Umwelt verbleibt.

Durch geeignete Düngeverfahren lassen sich diese Verluste deutlich reduzieren. Landwirte könnten zum Beispiel die Stickstoffdüngung an die Witterungs- und Bodenverhältnisse anpassen, sie sollten stärker berücksichtigen, wie sich die Verfügbarkeit von Nährstoffen mit der Zeit ändert, oder auch technische Verfahren anwenden, um die Gülle bodennah einzubringen.

Schließlich gibt es die Möglichkeit der Gründüngung. Dabei bauen Landwirte Pflanzen wie Raps, Klee oder Lupinen an, die Stickstoff direkt aus der Luft binden. Das hat den Vorteil, dass der Stickstoff dann organisch gebunden ist und nicht so schnell ausgewaschen wird oder in die Atmosphäre gelangt. Wichtig ist aber auch, den Gesamteintrag von Stickstoff, zum Beispiel durch die Verwendung von künstlichem Stickstoffdünger zu reduzieren. So eine Reduzierung ist etwa über eine Stickstoff-Kreislaufwirtschaft möglich, wie sie mit der Düngeverordnung von 2017 schon angestrebt wird.

P.H.: Worum geht es da?

S.Z.: Vor allem Betriebe, die Viehwirtschaft betreiben, wie verbreitet zum Beispiel in Nordwestdeutschland, aber auch in Bayern, weisen einen sehr großen Stickstoffüberschuss auf. Sie setzen künstlichen Dünger zur Futterproduktion ein, produzieren aber auch viel stickstoffhaltige Tierabfälle wie Gülle, die sie auf eigenen Feldern als Dünger ausbringen.

Sie sollten versuchen, diesen Überschuss zu reduzieren, indem sie den Stickstoff effizienter verwenden und die Verluste reduzieren. Zusätzlich könnte man die Gülle auch trocknen und so transportfähiger machen, um sie in Regionen, in denen es keinen so hohen Stickstoffüberschuss gibt, als Dünger einsetzen. So ließe sich die Belastung am Ort der Herstellung senken, und in den entfernteren Regionen müsste nicht mehr so viel künstlicher Dünger eingesetzt werden.

P.H.: Sollte der Staat das regeln?

S.Z.: Das tut er bereits, aber nur auf der Basis von Empfehlungen. Da steht die Zahl von 50 Kilogramm pro Hektar für den maximalen betrieblichen Überschuss im Raum. In Niedersachsen, wo ich herkomme, beträgt der Überschuss zur Zeit aber teilweise noch über 80 Kilogramm. Allerdings möchte ich auch erwähnen, dass die Herstellung von Fleisch deutlich mehr Stickstoff braucht als die von Getreide. Wenn wir weniger Fleisch essen würden, bräuchte die Landwirtschaft auch weniger Dünger.

P.H.: Sie selbst erforschen, wie in natürlichen Ökosystemen, vor allem Wäldern, der Stickstoff- und der Kohlenstoffhaushalt gekoppelt sind, zu welchen Ergebnissen sind sie da gekommen?

S.Z.: Wie viel CO2 Pflanzen aufnehmen können, hängt neben dem Klima sowohl vom CO2-Gehalt der Luft als auch vom Stickstoffgehalt des Bodens ab. Weil die CO2-Konzentration steigt, möchten die Pflanzen mehr wachsen, das können sie aber nicht, wenn nicht genug Stickstoff da ist. Wir untersuchen, wie stark der fehlende Stickstoff das Pflanzenwachstum in verschiedenen Regionen bremst. Die Wälder in den nördlichen Breiten sind da sehr stark limitiert, in den Tropen dagegen kaum. Denn, vereinfacht gesagt, können die Knöllchenbakterien, die Stickstoff aus der Luft binden, besser arbeiten, wenn es schön warm ist. Abbildung 2.

Abbildung 2. Vereinfachte Darstellung der Kohlenstoff- und Nährstoffkreisläufe (hier Stickstoff) in Landökosystemen (a)). b) Simulierte jährliche Biomasseproduktion und c) simuliertes Verhältnis der Biomassenproduktion zur Stickstoffaufnahme. Sichtbar sind regionale Unterschiede in der Produktivität sowie im Stickstoffbedarf der Ökosysteme. Dies wird unter anderem durch den vorherrschenden Vegetationstyp (Wiese, Laubwald, Nadelwald etc.) bedingt. Die Modellrechnungen (O-CN-Model) zeigen den Mittelwert von 2000 bis 2009 an. (Bild stammt aus dem Forschungsbericht des Autors [5] und wurde von Redn. eingefügt.)

P.H.: Wäre es dann sinnvoll, in natürlichen Ökosystemen, in denen Stickstoff fehlt, Gülle auch auszubringen?
S.Z.: Nein, das wirkt sich auch hier nachteilig auf die Biodiversität, vor allem die Ökosystemstruktur sowie die Lachgas-Emissionen der Wälder aus. Solche Überlegungen gibt es zwar im Zusammenhang mit dem Geoengineering, weil Wälder dann schneller wachsen und mehr CO2 binden. Aber Wälder sind nicht nur nützlich, um Kohlenstoff zu speichern, sondern auch für die Arterhaltung und die Trinkwasserreinhaltung.


Das Gespräch führte Peter Hergersberg (Redaktionsleitung MaxPlanckForschung)


[1] UN Environment: Frontiers 2018/19: Emerging Issues of Environmental Concern (04.03.2019) https://www.unenvironment.org/resources/frontiers-201819-emerging-issues-environmental-concern

[2] Guy Reeves,09:05.2019: Zur Freisetzung genetisch veränderter Organismen in die Natur. http://scienceblog.at/freisetzung-genetisch-ver%C3%A4nderter-organismen

[3] Elena Levashina, 16.05.2019: Zum Einsatz genetisch veränderter Moskitos gegen Malaria. http://scienceblog.at/genetisch-ver%C3%A4nderte-moskitos-gegen-malaria

[4] Martin Wikelski: 20.06.2019: Aufbruchsstimmung in der Tierökologie - Brücken für mehr Artenvielfalt. http://scienceblog.at/aufbruchsstimmung-tier%C3%B6kologie-br%C3%BCcken-f%C3%BCr-artenvielfalt

[5] Sönke Zaehle: Kombination von Experimenten und Modellen zum besseren Verständnis der Nährstofflimitierung in Landökosystemen. Forschungsbericht 2017 https://www.mpg.de/11819423/mpi-bgc_jb_2017?c=152885


* Das Interview mit Sönke Zaehle ist unter dem Titel „Earth Day 2019: Durch geeignete Düngeverfahren lassen sich Verluste deutlich reduzieren.“ am 18.April 2019 auf der News-Seite der Max-Planck-Gesellschaft erschienen https://www.mpg.de/13365309/zaehle-stickstoff-belastung?c=2191 und wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Die beiden Abbildungen wurden von der Redaktion eingefügt: sie sind den Artikeln [1] und [5] entnommen.


Weiterführende Links

Max-Planck-Institut für Biogeochemie. https://www.bgc-jena.mpg.de/index.php/Main/HomePage

"Wir erforschen, wie lebende Organismen - inklusive der Mensch - grundlegende Stoffe wie Wasser, Kohlenstoff, Stickstoff sowie Energie mit ihrer Umwelt austauschen. Wir wollen besser verstehen, wie dieser Austausch und der globale Wandel des Klimas und der Umwelt sich gegenseitig beeinflussen."

Artikel zu verwandten Themen im Scienceblog

Christian Körner, 29.07.2016: Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt.

Henrik Hartmann, 08.06.2017: Die Qual der Wahl: Was machen Pflanzen, wenn Rohstoffe knapp werden?

Rupert Seidl, 18.03.2016: Störungen und Resilienz von Waldökosystemen im Klimawandel

Peter Schuster, 29.11.2013: Recycling & Wachstum — Vom Ursprung des Lebens bis zur modernen Gesellschaft.


 

mat Thu, 01.08.2019 - 14:04

Bildung entscheidender für die Lebenserwartung als Einkommen

Bildung entscheidender für die Lebenserwartung als Einkommen

Do, 25.07.2019 - 14:42 — Wolfgang Lutz & Endale Kebede

Wolfgang Lutz Endale KebedeIcon Politik und GesellschaftSpätestens seit einer viel zitierten Studie aus dem Jahr 1975 wird immer wieder behauptet: Wo es mit der Wirtschaft bergauf geht, das Einkommen steigt, wächst auch die Lebenserwartung mit. Die Demografie-Experten Prof.Dr.Wolfgang Lutz (Director IIASA World Population Program, Leiter des Wittgenstein Centre for Demography and Global Human Capital, Wien) und sein Mitarbeiter Mag.Endale Birhanu Kebede überprüfen die bekannte These [1]: ihre Analysen der letzten Jahre zeigen ein differenzierteres Bild. Demnach ist die Bildung die treibende Kraft hinter dem Zugewinn an Lebensjahren: ein höherer Bildungsstand führt zu einem verbesserten Gesundheitsbewusstsein und dies wiederum zu einer Erhöhung der eigenen Lebenserwartung sowie der Lebenserwartung der Kinder.*

Die Preston Kurve - Lebenserwartung wächst mit dem Einkommen

Die Kurven, die Samuel Preston im Jahr 1975 veröffentlichte, waren beeindruckend. Über Jahre hinweg beschrieben sie für viele Länder einen stets ähnlichen Zusammenhang: Mit steigendem Pro-Kopf-Einkommen wächst auch die Lebenserwartung – zunächst sehr steil und dann immer mehr abflachend. Auch mit Daten aus den letzten Jahrzehnten lassen sich diese Kurven nachzeichnen (vgl. Abbildung 1). Und dennoch gibt es große Zweifel daran, dass tatsächlich ein höheres Pro-Kopf-Einkommen die treibende Kraft hinter der vielerorts angestiegenen Lebenserwartung ist.

Wolfgang Lutz und Endale Birhanu Kebede vom Wittgenstein Centre in Wien legen in einer Studie aktuelle Daten vor, die zeigen, dass eher die Bildung denn das Einkommen für die durchschnittliche Lebensdauer entscheidend ist.

Abbildung 1. Je höher das Einkommen, desto höher die Lebenserwartung? Diese Kurve scheint das nahezulegen und hat damit lange Zeit eine falsche oder zumindest einseitige Interpretation von Entwicklungsniveaus und Sterblichkeitsraten in verschiedenen Ländern befördert. Quellen: WIC 2015, World Bank 2017, eigene Berechnungen.

Preston selbst hatte in einer späteren Studie nicht nur die Höhe des Pro-Kopf-Einkommens, sondern auch die Alphabetisierungsrate und die Kalorienzufuhr in seine Analysen mit einbezogen. Dabei stellte er bereits im Jahr 1980 fest: „Die Koeffizienten zeigen, dass ein Anstieg um zehn Prozentpunkte bei der Alphabetisierungsrate die Lebenserwartung um etwa zwei Jahre ansteigen lässt. Wächst dagegen das Volkseinkommen um zehn Prozentpunkte, dann nimmt die Lebenserwartung nur um etwa ein halbes Jahr zu.“ Dieses spannende Ergebnis sei jedoch in den späteren Arbeiten zu dem Thema größtenteils übersehen worden, schreiben Lutz und Kebede in ihrer Studie.

Die neue Studie ergibt ein differenzierteres Bild

Um den Einfluss der Bildung auf die Lebenserwartung anhand aktueller Daten zu überprüfen, zogen die beiden Demografen nun Zahlen aus 174 Entwicklungs- und Industrieländern heran. Dem Daten-Explorer des Wittgenstein Zentrums (WIC 2015) konnten sie Angaben über die durchschnittliche Schulzeit in den verschiedenen Ländern entnehmen, die Zahlen zum Einkommen und zur Lebenserwartung stammen aus dem World Development Indicator (World Bank 2017).

Auch für den nun neu untersuchten Zeitraum von 1970 bis 2010 scheinen sich zunächst die Ergebnisse von Samuel Preston zu bestätigen: Die Lebenserwartung in den untersuchten Ländern ist umso höher, je größer das Pro-Kopf-Einkommen ist (s. Abbildung 1). Doch dieser so genannten „Preston-Kurve“ stellen Lutz und Kebede eine weitere gegenüber, die zeigt: Auch die mittlere Schulzeit ist für die Höhe der Lebenserwartung in einem Land ausschlaggebend (Abbildung 2). Zwischen den beiden Kurven gibt es jedoch entscheidende Unterschiede: Hat das Einkommen erst einmal ein hohes Niveau erreicht, so ist sein Effekt auf die Lebenserwartung bei weiteren Einkommenszuwächsen nur noch sehr gering. Der Effekt der Schulzeit dagegen bleibt auch bei einem hohen Bildungsniveau nahezu konstant - und es macht durchaus noch einen Unterschied, ob die durchschnittliche Schulzeit neun oder zehn Jahre beträgt

Abbildung 2. Im Gegensatz zur Preston-Kurve, die die Lebenserwartung mit dem Einkommen korreliert, zeigt die Bildung einen nahezu gleichbleibenden Effekt auf die durchschnittliche Lebensdauer. Wer sechs Jahre zur Schule geht hat zu ganz verschiedenen Zeitpunkten fast die gleiche Lebenserwartung. Quellen: WIC 2015, World Bank 2017, eigene Berechnungen.

Darüber hinaus liegen die Werte für alle drei untersuchten Zeitpunkte, 1970 1990 und 2010 sehr eng beieinander. In Ländern, in denen die Menschen im Durchschnitt neun Jahre zur Schule gegangen sind, lag sowohl 1990 als auch 2010 die Lebenserwartung bei 70 Jahren. Im Jahr 1970 lag sie mit etwa 69 Jahren nur leicht darunter. Die Bildung scheint also zeitunabhängig einen großen Einfluss auf die durchschnittliche Lebensdauer zu haben.

Anders ist dies beim Einkommen: In Ländern mit einem Durchschnittseinkommen von 30.000 Dollar (Stand: 2010) lag die Lebenserwartung 1970 bei 73 Jahren, im Jahr 1990 bereits bei 76 Jahren und 2010 sogar bei 79 Jahren. Samuel Preston erklärte diese Lücken zwischen den Kurven mit dem medizinischen Fortschritt, der die Lebenserwartung auch unabhängig vom Einkommen mit der Zeit steigen ließ.

Lutz und Kebede hingegen gehen davon aus,

dass das Einkommen gar nicht die wesentliche Ursache für die gestiegene Lebenserwartung ist, sondern eher eine Folge der höheren Bildung. Oder anders formuliert: Wer viele Jahre zur Schule gegangen ist, wird dadurch sowohl ein höheres Einkommen als auch eine höhere Lebenserwartung haben.

In praktisch allen untersuchten Ländern haben besser ausgebildete Menschen eine höhere Lebenserwartung. Und in nahezu allen Industrienationen, für die Daten vorliegen, haben sich die Bildungsunterschiede bei der Lebenserwartung mit der Zeit vergrößert, obwohl sich die allgemeine Gesundheitsversorgung in den meisten Ländern gleichzeitig verbessert hat. Global gesehen ist die Steigerung des Bildungsniveaus im letzten halben Jahrhundert eindeutig der Schlüsselfaktor für die Verbesserung der Gesundheit gewesen – und nicht, wie oft behauptet, ein höheres Einkommen.

Vielleicht, so eine mögliche Erklärung, ist die wirtschaftliche Dimension für die Lebenserwartung gar nicht mehr so entscheidend, sondern eher der Lebensstil, also etwa die Ernährung, die Work-Life-Balance, das Gesundheitsbewusstsein oder regelmäßige Bewegung. Denn in den vergangenen Jahrzehnten haben sich die häufigsten Todesursachen zunehmend von infektiösen auf chronische Krankheiten verlagert, die stärker vom individuellen Lebensstil abhängen. Für die Ausprägung dieses Lebensstils aber ist weniger die Versorgungssicherheit, als vielmehr die Bildung des Einzelnen entscheidend. Höhere Bildung führe meist zu komplexerem und längerfristigem Denken und damit auch oft zu Verhaltensweisen, die sich auf die Gesundheit positiv auswirken, so die Forscher.

Doch nicht nur bei der Lebenserwartung ab Geburt, auch bei der Sterblichkeit von Kindern unter fünf Jahren scheint Bildung ein wichtiger Faktor zu sein (s. Abbildung 3). Kinder sterben vor allem dann besonders häufig vor dem 5. Geburtstag, wenn die Mütter gar nicht oder nur wenige Jahre zur Schule gegangen sind, zeigen Kebede und Lutz in ihrer Studie.

Abbildung 3. Auch bei der Kindersterblichkeit zeigt die Bildung der Mütter einen weitaus größeren Einfluss auf die Lebenserwartung als das Einkommen. Die positive Abweichung der jüngsten Kurve (2010) bei den gering gebildeten Müttern führen die Autoren der Studie auf umfassende internationale Programme zurück, mit denen seit zwei Jahrzehnten die Kindersterblichkeit weltweit bekämpft wird. Quellen: WIC 2015, World Bank 2017, eigene Berechnungen

Die Aussagen der Grafiken untermauern die beiden Demografen mit Hilfe sogenannter Regressionsanalysen. Dabei wird mittels statistischer Modelle untersucht, inwieweit die beiden Faktoren „Einkommen“ und „Bildung“ die Entwicklung der Lebenserwartung beeinflussen. Besonderheiten von bestimmten Ländern oder Zeiträumen können dabei heraus gerechnet werden.

Betrachtet man den Einfluss von Bildung und Einkommen in diesen Modellen gemeinsam, so zeigt sich, dass das Einkommen nur in einem sehr schwachen Zusammenhang mit der Lebenserwartung steht. Ganz anders sieht das bei der Bildung aus. Sie ist hoch signifikant für die Entwicklung der Lebenserwartung und auch für die Sterblichkeit von Kindern unter fünf Jahren.

Das wäre ein weiterer Hinweis darauf, dass sich hinter dem statistischen Zusammenhang zwischen Einkommen und Gesundheit – wie von der Preston-Kurve beschrieben – ein ganz anderer Zusammenhang verbirgt: nämlich die Verbesserung des Bildungsniveaus, die ein entscheidender Faktor für eine bessere Gesundheit und für ein steigendes Einkommen ist. Abbildung 4.

Abbildung 4. Triangel der Beziehungen zwischen Bildung, Gesundheit und Einkommen. (Abbildung von der Redaktion aus: Lutz, W. and E. Kebede:(2018) [1] eingefügt)

Diese Erkenntnis sollte zukünftig berücksichtigt werden, wenn es darum geht, die Gesundheit und Langlebigkeit zu fördern, schreiben Lutz und Kebede. Gerade die Politik brauche Antworten auf die Frage, wo Mittel hierfür am effektivsten eingesetzt werden können.


[1] Lutz, W. and E. Kebede: Education and health: redrawing the Preston curve. Population and Development Review 44(2018)2, 343-361. DOI: 10.1111/padr.12141


* Dieser Artikel von Wolfgang Lutz ist unter dem Titel "Lebenserwartung: Der Kopf ist wichtiger als das Portemonnaie " im Infoletter Demografische Forschung - aus erster Hand (2019) 16, 2.Quartal erschienen. https://www.demografische-forschung.org/archiv/defo1902.pdf . Der Beitrag steht unter einer cc-by-nc-Lizenz.


Weiterführende Links

Wittgenstein Centre for Demography and Global Human Capital. http://www.wittgensteincentre.org/

Wolfgang Lutz: Population, Education and the Sustainable Development Goals (2016) Video: 12:29 min. https://www.youtube.com/watch?v=XsdnVeAGwPo. Standard YouTube Lizenz

CLUB3 mit Wolfgang Lutz: Brainpower als Voraussetzung für Nachhaltigkeit (12.2018), Video 1:36:46. https://www.youtube.com/watch?v=CvjSTk7-ra8 (Die These von Lutz ist, dass die kognitiven Fähigkeiten der Menschen der notwendige Schlüssel zu allen anderen Problemen der Nachhaltigkeit sind und auch bestimmend für die Lebenserwartung sind.)

Wolfgang Lutz: Education is the demographic dimension that matters most for development (2018), Video: 6:34 min. https://www.population-europe.eu/video/population-europe-inter-faces-wolfgang-lutz

Wolfgang Lutz: The Future Population of our Planet: Why Education Makes the Decisive Difference (2014). Video 22:28 min. https://www.youtube.com/watch?time_continue=5&v=IlKtMAMX-xA . Standard YouTube Lizenz

Artikel zu verwandten Themen im ScienceBlog

IIASA, 06.06.2019: Ist Migration eine demographische Notwendigkeit für Europa?

IIASA, 17.05.2018: Die Bevölkerungsentwicklung im 21. Jahrhundert - Szenarien, die Migration, Fertilität, Sterblichkeit, Bildung und Erwerbsbeteiligung berücksichtigen.


 

Redaktion Thu, 25.07.2019 - 14:01

Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen

Energiewende (3): Umbau des Energiesystems, Einbau von Stoffkreisläufen

Do, 18.07.2019 - 06:35 — Robert Schlögl

Robert SchlöglIcon Politik und GesellschaftDie Energiewende geht von der Nutzung erneuerbarer Energien aus mit dem Ziel Treibhausgase zu reduzieren und von fossilen Brennstoffen wegzukommen. Auch im Energiesystem der Zukunft spielen Strom, Wärme und Mobilität eine zentrale Rolle. Um eine Energieversorgung aus der volatilen Sonnen- und Windenergie dafür bedarfsgerecht steuerbar zu machen, müssen die Erneuerbaren gespeichert und transportiert werden können. Eine Umwandlung von Strom in stoffliche erneuerbare Energieträger kann in Form eines Kohlenstoffkreislaufes vor sich gehen und in Europa mit z. B. Pipeline-Systemen für "solare" Kraftstoffe einen erheblichen Anteil der europäischen Energieanwendungen bedienen. Teil 3 aus dem Eckpunktepapier „Energie. Wende. Jetzt“ von Prof. Dr. Robert Schlögl (Direktor am Max-Planck-Institut für Chemische Energiekonversion; Mülheim a.d.R.)*

Den Stoffkreislauf richtig ins System einbinden

Derzeit wird viel über den nötigen Beitrag der Mobilität zur Defossilisierung des Energiesystems diskutiert. Ihre Emissionen sind schwer zu reduzieren, weil sie diffuse Quellen beinhaltet, deren Emissionen nicht im Kreis geführt werden können. Umgekehrt ist der Energieverbrauch der Mobilität so groß, dass eine Versorgung mit Elektrizität quantitativ schwierig wird (es gibt ohnehin nicht genug primäre Elektrizität in Deutschland und die Vergrößerung des Stromverteilsystems wäre ebenfalls zumindest ökonomisch und aus Akzeptanzgründen nicht einfach zu bewerkstelligen). Für energieintensive Anwendungen ist ein elektrischer Antrieb praktisch unmöglich (Flugzeuge, Schiffe, Schwerlastverkehr).

Somit eignet sich der Kohlenstoffkreislauf mit seinen solaren Kraftstoffen hervorragend zur Versorgung von Mobilität. Der Verbrauch an Energie für die Mobilität wird dann durch Import von (flüssigen) Energieträgern als solar fuels oder e-fuels befriedigt. Dies schließt eine Ergänzung durch e-Mobilität, die durch lokal verfügbare erneuerbare Elektrizität gespeist wird, nicht aus.

Allerdings gelten die oben genannten Einschränkungen hinsichtlich der „Leckage“ von CO2 aus dem System [1]. Die Strategie, diese Leckage zu minimieren und zunächst bestehen zu lassen mag kritisch unter dem Gesichtspunkt der „Lastengerechtigkeit“ des Umbaus des Energiesystems gesehen werden. Sie ist aber hinnehmbar, wenn man sich die relativen Proportionen in Deutschland (und Europa) der Hauptanwendungen von Energie ansieht. In Abbildung 1 sind ihre Anteile am Verbrauch von Endenergie und an der CO2 Emission dargestellt.

Abbildung 1: Anteile der Hauptanwendungen von Energie an den energiebedingten CO2 Emissionen und am Verbrauch von Endenergie. Deutschland, 2016 (Daten BMWi, 2018). (Siehe dazu: [1] Abbildung 1: "Generische Elemente eines Energiesystems heute").

Stellt man die Reduktion von Treibhausgasen ins Zentrum des Umbaus des Energiesystems, so ist die Mobilität das am wenigsten lohnende Ziel und eine etwa halbierte Leckage könnte auch im Zielkorridor heutiger Politik hingenommen werden. Nimmt man den Ersatz von Öl als wichtiges Ziel, so ist die Mobilität prioritär. Allerdings wird dieses Ziel ressourcenschonend mit synthetischen Kraftstoffen erreicht. Somit wäre eine Mobilität, die neben lokal verfügbarer e-Mobilität auf importierter erneuerbarer Energie fußt, eine systemisch günstige Option.

Aus Abbildung 1 geht hervor, dass in jedem Fall die Defossilisierung der Wärmenutzung allerhöchste Priorität haben sollte. Dies ist allerdings unmöglich, wenn man die Kopplungen zwischen den Sektoren vernachlässigt. Ein Beispiel ist die bisher viel zu wenig genutzte Option, primäre Elektrizität zielgerichtet dafür bereitzustellen, Wärmespeicher oder Wärmepumpen lokal zu bedienen. Aber auch im Feld der industriellen (Hochtemperatur-)Wärme könnte primäre Elektrizität eingesetzt werden.

Schließlich kann eine Nutzung elektrischer Energie bei ausreichendem Stromangebot im Wechsel mit fossilen Heizstoffen in existierenden (dezentralen) Wasserspeichern relativ einfach als CO2-mindernde Flexibilisierungsmaßnahme eingesetzt werden.

Energiesysteme bedarfsgerecht aufbauen

Die Diskussion zu Energiesystemen richtet sich überwiegend an bilanziellen Werten für Energiebedarfe und Energielieferungen aus. Dies ist zunächst vertretbar, bedarf allerdings unbedingt der Schärfung durch eine Betrachtung zur zeitaufgelösten Bereitstellung von Energie. Es ist eine zentrale Dienstleistung eines Systems, seine Energie ohne zeitliche Beschränkung exakt bedarfsgerecht zur Verfügung zu stellen. Diese „Versorgungssicherheit“ ist ein wesentlicher Standortvorteil eines Landes und bildet eine Grundlage geordneten wirtschaftlichen und gesellschaftlichen Lebens. Dieser Grundforderung für ein Energiesystem wird Primär-Elektrizität aus Wind und Sonne nicht gerecht. Energie aus Wasserkraft und Biomasse erfüllt diese Forderungen, ist allerdings in fast allen Ländern kapazitiv zu klein, um die Schwankungen von Wind und Sonne auszugleichen.

Abbildung 2: Energiequellen für die Stromerzeugung in Deutschland (2017, Daten BMWi, 2018; Angaben in TWh).

Aus den Daten der Abbildung 2 geht hervor, dass das heutige Energiesystem in Deutschland weitgehend noch aus frei steuerbaren Energieträgern (fossil, nuklear) versorgt wird, aber der Anteil erneuerbarer Energieträger zu mehr als 50 % volatile Quellen (Wind, Sonne) enthält. Wird dieser Anteil wie gewünscht wesentlich größer, so sind Flexibilisierungsmaßnahmen erforderlich, die weitgehend auf die Nutzung von speicherbaren Energieträgern hinauslaufen. Weitere notwendige Maßnahmen sind der Einsatz von Batterien, mechanischen Speichern und Wärmespeichern, die allerdings zusammen nicht ausreichen, um das Stromsystem bedarfsgerecht steuerbar zu machen. Bedenkt man, dass das Stromsystem nur einen Bruchteil des gesamten Energiesystems ausmacht und die zeitlichen Anforderungen hinsichtlich Zeitspannen und Kapazitäten noch weitere Dimensionen hat als die Kurzzeitstabilität beim Strom (Sommer-Winterausgleich, Großmengen für industrielle Prozesse) so wird klar, dass ohne stoffliche erneuerbare Energieträger kein technisch und ökonomisch effizienter Betrieb eines nachhaltigen Energiesystems möglich ist.

Für die gesellschaftliche Akzeptanz von neuen Energiesystemen ist es wenig attraktiv, eine wesentliche Einsparung der Nutzung von Endenergie als Voraussetzung zum Gelingen einer Energiewende anzusetzen. Energie ist eine Grundlage aller Aktivitäten in der Gesellschaft.

Unbestreitbar sind einige davon unnötig und sollten abgestellt werden. Da allerdings eine Entscheidung über Einsparungen, die sich aus Verhaltensänderungen ergeben, sehr problematisch ist (etwa Tempolimit) und auch an der Frage der Stellung eines Landes im internationalen Wettbewerb (Deindustrialisierung) rührt, sind hier Widerstände sehr hoch. Eine global verteilte Gewinnung und Verteilung von erneuerbarer Energie macht es überflüssig, Einschränkungen im Gebrauch von Energie zu verlangen. Unberührt bleiben davon Reduktionen des Einsatzes von Energie, die sich durch technische oder freiwillige konsumtive Verbesserungen der Nutzungseffizienz ergeben. Eine bedarfsgerechte Energieversorgung sollte nicht durch Einsparziele und Nutzungsgrenzen bestimmt werden, da es dafür in einem globalen System mit subsidiärer Struktur keine zwingenden Argumente gibt.

Dies widerspricht nicht der Einsicht, dass Energie als grundsätzlich wertvolles Gut überlegt einzusetzen ist. Wenn allen Nutzern von Energie ihr Wert hinreichend klar ist, sollten sich Verhaltensänderungen hinsichtlich einer systemischen Verschwendung von Energie ohne staatlichen Zwang einstellen. Dies gilt vor allem für die Mobilität (von Waren wie von Personen), wo der Staat über die Sinnhaftigkeit der zahlreichen Subventionen nachzudenken hat.

Abbildung 3: Verbrauch von Heizenergie für Raumwärme in Deutschland. Die untere Kurve (grün) zeigt den Anteil erneuerbarer Energien. Die Schwankungen sind auf die unterschiedlich harten Winter zurückzuführen. Die Trendlinie zeigt die geringe Einsparung von Heizenergie an.(Daten: BMWi 2018)

Bei der Raumwärme sind viele Fortschritte in Bewusstseinsbildung und in technischen Maßnahmen erreicht worden. Dies gilt aber nicht in ganz Europa. In Deutschland ist die konsequente Umsetzung durch hohe regulatorische Hürden (Bauauflagen, technische Vorschriften) aufwändig und träge, wie man auf Abbildung 3 aus dem zeitlichen Verlauf des Verbrauches von Heizenergie in Deutschland erkennen kann. Der Einsatz von Erneuerbaren für die Bereitstellung von Raumwärme ist stark verbesserungsfähig, besonders wenn man bedenkt, dass im bisherigen Anteil ein großer Beitrag aus der Biomasse steckt, der nicht leicht skaliert werden kann.

Energiesysteme subsidiär und international aufbauen

Eine hervorstechende Eigenschaft von erneuerbarer Elektrizität ist, dass es ihre kostenlosen Ressourcen Sonne und Wind fast überall gibt, wo Menschen leben. Leider sind die besonders ergiebigen Orte, wo entsprechende Wandler mit hohen Nutzungsfaktoren (dem Verhältnis aus installierter Leistung und gewonnener Arbeit) betrieben werden können, aus eben diesem Grund menschlichem Leben nicht zuträglich (Wüsten, Sturmküsten). Abbildung 4.

Abbildung 4. Potential für erneuerbare Energien als Funktion des Ortes. Energiegewinnung aus Sonne und Wind zusammen genommen und in Volllaststunden angegeben (Internationale Energieagentur – IEA – 2016)

Die bisher wenig diskutierte Antwort auf diese Herausforderung ist es, erneuerbare Energie in großem Stil (siehe Abbildung 2 in [1]) transportierbar zu machen. Damit wird sie zu einer Handelsware, die beliebig gelagert und transportiert werden kann, ganz so wie wir das von den fossilen Energieträgern her kennen.

Die scheinbar widersprüchliche Natur der volatilen und verteilten erneuerbaren Energie legt eine subsidiäre Gestaltung des Systems nahe. Dazu werden Strukturen gebraucht, welche die unterschiedlichen Elemente (siehe Abbildung 1 in [1]) des Energiesystems bedienen. „Struktur“ meint dabei nicht eine einheitliche Organisation, sondern eine Reihe von Unternehmen, welche unter regulatorischer Kontrolle des Staates in Kooperation und Wettbewerb die Energieversorgung sicherstellen. Je nach Ebene im subsidiären System ist staatliche Kontrolle regional, national, europäisch oder international zu organisieren. Sie wird unterschiedliche Instrumente benötigen, die teilweise existieren, die aber einer Ergänzung bedürfen, um optimal wirksam zu sein. Energiepolitik ist daher regional, national, europäisch und international und bedarf einer entsprechenden Koordination. Dies ist von der Politik teilweise erkannt wird aber bisher nicht wirksam praktiziert.

Erneuerbare Primär-Elektrizität wird am wirkungsvollsten sofort und nahe am Gewinnungsort genutzt.

Das spricht für verteilte Systeme, welche die Volatilität im Strom kurzzeitig durch lokale Speicher elektrisch und thermisch ausgleichen. Um den Effizienzverlust und die Komplexität der lokalen Anlagen in Grenzen zu halten, sollte nicht Autarkie angestrebt, sondern eine Verschaltung von lokalen Stromversorgungen (Schwarmkraftwerk) vorgenommen werden. Durch Zulieferungen von stofflichen Energieträgern sowie von Ergänzungsstrom ergibt sich eine lokale bedarfsgerechte Versorgung, in der die Nutzer auch als Produzenten auftreten.

Die in Deutschland verfügbare solare Energielieferung ist allerdings überschaubar und wird durch die dichte Besiedelung und Akzeptanzprobleme weiter reduziert. Somit kann nur ein begrenzter Anteil der benötigten Energie lokal erzeugt werden.

Dieses Konzept stößt in Ballungszentren und für die Versorgung von Industrieanlagen ohnehin an seine Grenzen. Hier wird eine nationale Struktur sinnvoll sein, welche die gleichen Aufgaben wie die lokalen Strukturen hat, die Bereitstellung von Primärelektrizität und die Zulieferung von (importierter) Energie. Vor allem wird diese Struktur regionale Ungleichgewichte ausgleichen und die bedarfsgerechte Stromversorgung garantieren. Dazu kann sich diese heute weitgehend existierende und im Ausbau befindliche Struktur weiter einer europäischen Vernetzung bedienen, die in Ansätzen ebenfalls bereits existiert. Die europäische Energieunion mit ihren wesentlich besseren Möglichkeiten der „Energieernte“ (Abbildung 5) ist zwar ein Thema der politischen Agenda, wird aber nicht sehr entschlossen vorangetrieben.

Abbildung 5. Möglichkeiten der Energieernte in Europa. Der Deutsche Wetterdienst hat kumulativ für Europa die Sammeleffizienz von Wind und Sonnenkraftwerken ermittelt. Die Wandlung in Wärme und stoffliche Träger, also die „Sektorenkopplung“ als Alternative und als Transportform ist bisher nicht wesentlichin die Planung eingegangen.

Kreislauf für erneuerbare Energie

Ein Kohlenstoffkreislauf in Europa mit z. B. Pipeline-Systemen für CO2 und flüssige oder gasförmige Brennstoffe könnte einen erheblichen Anteil der europäischen Energieanwendungen bedienen (Abbildung 6).

Abbildung 6. Eine detailliertere Version eines Kreislaufs für erneuerbare Energie, der in Europa (und global) etabliert werden könnte. Alle nötigen Technologien sind prinzipiell, wenn auch mit sub-optimalen Prozesseffizienzen, verfügbar. Es sollte unbedingt vermieden werden, eine technische Monokultur zu schaffen. Vielmehr haben alle angegebenen Verfahren Vor-und Nachteile, die sich am besten in der gemeinsamen Nutzung ausgleichen lassen. Abkürzungen: RES bedeutet erneuerbare Energie, lokal: Distanz geeignet für Stromtransport; entfernt: Distanz mit Stromleitungen ökonomisch nicht überbrückbar. CCSS: „carbon capture and solid storage“ das Verfahren der Mineralisation und Lagerung von ehemals biogenem Kohlenstoff; DAC: "Direct Air Capture"; SNG: synthetisches Erdgas; LOHC:" liquid organic hydrogen carriers". Die violetten Pfeile deuten den Kreislauf des Kohlenstoffes an. (Dazu siehe auch Abbildungen 2 und 3 in [1]).

Der dafür erforderliche technische und regulatorische Aufwand würde wesentlich dazu beitragen, dass die europäischen Energieziele tatsächlich erreicht werden. Entgegen den Einschätzungen der Bundesregierung erscheint dies mit den bisher wirkenden Maßnahmen nicht sicher gewährleistet.

Für die besonders energiehungrige Bereitstellung der synthetischen Kraftstoffe oder großer Mengen von Wasserstoff eignet sich ein weltweiter Stoffkreislauf. Hier würden Tankschiffe zum Einsatz kommen. Für den interkontinentalen Einsatz wären auch flüssige reversible Wasserstoffträger (liquid organic hydrogen carriers, LOHC) und Ammoniak geeignet (Abbildung 6).

Der Aufbau solcher Systeme über Grenzen von politischen Strukturen (regional, national europäisch), Industrien und Branchen sowie regulatorischen Systemen hinweg ist ein heroisches Werk mit sehr vielen Gestaltungsaufgaben der Politik. Ihr Erfolg würde sich unter anderem daran messen lassen, ob die erforderlichen Kapitalbeträge investiert werden. Darunter liegen technische Herausforderungen von ähnlichen Ausmaßen, die Steuerung, Digitalisierung und den störungsfreien und sicheren Betrieb betreffen. Die Vermittlung der Fakten und Hintergründe dazu an eine breite Bevölkerung in Zeiten nationalstaatlicher Bestrebungen ist eine weitere Aufgabe. Ohne die mehrheitliche Zustimmung der Nutzer wird es sehr schwer, das unbedingt notwendige Vertrauen von Investoren und Unternehmen zu derartigen Projekten auf allen Ebenen eines subsidiären Systems zu bekommen.

Bepreisung von CO2

Zur Internationalität der Energieversorgung gehört ein länderübergreifendes System für die Bepreisung von CO2. Es mag opportun sein, aus Zeitgründen mit einem nationalen System zu beginnen, das dann aber kompatibel mit einem europäischen System angelegt sein muss. Damit begegnet man dem Argument, dass man in der Tat nicht warten kann, bis der „Letzte in Europa“ dieser Grundlage eines erfolgreichen Umbaus der Energieversorgung zustimmt. Nützlich wäre es, eine „Allianz der Einsichtigen“ zu formen und das Vorhaben zu beginnen:

Viele Finanzminister wollen sich weltweit für eine wirksame Bepreisung von Kohlendioxid einsetzen und im Kampf gegen den Klimawandel international besser zusammenarbeiten. Das vereinbarten Ressortchefs aus allen Teilen der Welt, darunter Bundesfinanzminister Olaf Scholz, im Rahmen der Frühjahrstagung des Internationalen Währungsfonds und der Weltbank am 13.04.2019 in Washington (s. solarify.eu/internationale-klimakoalition-fuer-co2-bepreisung).


[1] R. Schlögl. 27.06.2019: Energiewende (2): Energiesysteme und Energieträger.


Dies ist Teil 3 des Artikels von Robert Schlögl "Energie. Wende. Jetzt", der am 7.Mai 2019 auf der Webseite des Max-Planck-Instituts für Chemische Energiekonversion erschienen ist. Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt; der Text blieb weitestgehend unverändert, aus dem Anhang des Artikels wurden drei Abbildungen (Abb. 4, 5, 6) eingefügt. Literaturzitate wurden allerdings weggelassen - sie können im Original nachgelesen werden.

Teil 1: R. Schlögl: 13.06.2019: Energie. Wende. Jetzt - Ein Prolog.

Teil 2: R. Schlögl. 27.06.2019: Energiewende (2): Energiesysteme und Energieträger.

Der demnächst erscheinende Teil 4 wird sich mit der zeitlich flexiblen Gestaltung des Umbaus befassen.


Weiterführende Links

Max-Planck-Institut für Chemische Energiekonversion (MPI CEC)

Woran forscht das MPI CEC? Video 3:58 min.

Oppermann, Bettina/Renn, Ortwin (März 2019) Partizipation und Kommunikation in der Energiewende. Analyse des Akademienprojekts „Energiesysteme der Zukunft“

Akademienprojekt ESYS (Mai 2019): Warum sinken die CO2-Emissionen in Deutschland nur langsam, obwohl die erneuerbaren Energien stark ausgebaut werden?

R. Schlögl (2017): Wasserstoff in Ammoniak speichern.

Artikel zum Thema Energie/Energiewende im ScienceBlog:

Eine Liste der Artikel findet sich unter R. Schlögl: 13.06.2019: Energie. Wende. Jetzt - Ein Prolog.


 

Redaktion Wed, 17.07.2019 - 20:52

Genmutationen in gesundem Gewebe

Genmutationen in gesundem Gewebe

Do, 11.07.2019 - 12:10 — Francis S. Collins

Francis S. CollinsIcon MedizinAls Forscher die aus verschiedenen Geweben von fast 500 Personen gesammelten genetischen Daten analysierten, stellten sie fest, dass es in praktisch allen Individuen offensichtlich einige gesunde Gewebe gab, die jeweils Klone von Zellen mit denselben genetischen Mutationen enthielten. Manche dieser Klone wiesen sogar Mutationen in Genen auf, die mit Krebs in Zusammenhang stehen. Francis Collins, Direktor der US National Institutes of Health (NIH), berichtet hier über diese Ergebnisse, die darauf schließen lassen, dass fast alle von uns mit genetischen Mutationen in verschiedenen Teilen unseres Körpers herumlaufen, die unter bestimmten Umständen zu Krebs oder anderen gesundheitlichen Problemen führen können.*

Es ist die übliche Ansicht in der Biologie, dass jede normale Zelle bei jeder ihrer Teilungen ihr DNA-Handbuch mit hundert prozentiger Genauigkeit kopiert. Von wenigen Ausnahmen - wie beispielsweise dem Immunsystem - abgesehen, weisen demnach die Zellen in normalem, gesundem Gewebe kontinuierlich genau dieselbe Sequenz des Genoms auf, wie sie der ursprüngliche einzellige Embryo hatte, aus dem das ganze Individuum entstanden war.

Neue Erkenntnisse lassen allerdings darauf schließen, dass es an der Zeit ist, diese Ansicht zu revidieren.

Programme wie der von den National Institutes of Health (NIH) etablierte, öffentlich zugängliche "The Cancer Genome Atlas" (TCGA) haben die vielen, auf molekularer und genomischer Basis erfolgten Veränderungen, die verschiedenen Krebsarten zugrunde liegen, weitgehend charakterisiert. Abbildung 1.

Abbildung 1. "The Cancer Genome Atlas" (TCGA). Nach 12 Jahren Laufzeit, Beiträgen von  Tausenden Forschern, die 33 unterschiedliche Tumortypen an Hand von Proben von 11 000 Patienten analysierten, ist eine außergewöhnlich reiche Datensammlung entstanden, die das Verständnis von Krebserkrankungen wesentlich geprägt hat. https://www.cancer.gov/about-nci/organization/ccg/research/structural-genomics/tcga/history

Es besteht aber nach wie vor die Schwierigkeit die genaue Abfolge von Ereignissen festzulegen, die zu Krebs führen, und es gibt Anhaltspunkte dafür, dass sogenannte gesunde Gewebe, Blut und Haut mit eingeschlossen, eine erstaunliche Anzahl von Mutationen enthalten können - die möglicherweise einen Weg einschlagen, der letztendlich in Problemen endet.

Unter der Leitung von Gad Getz und der Postdoktorandin Keren Yizhak beschloss ein Team am Broad Institut (Massachusetts Institute of Technology (MIT) und Harvard Universität; Cambridge ) zusammen mit Kollegen vom Massachusetts General Hospital sich diese Fragen genauer anzusehen und zwar anhand der Datensammlung des seit 2010 laufenden, vom NIH unterstützten internationalen "Genotype-Tissue Expression" (GTEx) Projekts. Die Ergebnisse dieser Untersuchung wurden kürzlich im Fachjournal Science veröffentlicht [1].

Das Genotype-Tissue Expression Project

Das GTEx ist eine umfangreiche öffentlich zugängliche Ressource, die aufzeigt, wie Gene in verschiedenen Geweben des Körpers unterschiedlich exprimiert und reguliert werden. Abbildung 2.

Abbildung 2. Das Genotype-Tissue Expression (GTEx) Projekt ermöglicht Korrelationen zwischen Genotyp and gewebespezifischer Genexpression an Hand der mRNA-Konzentrationen. https://gtexportal.org/home/documentationPage

Um diese wichtigen Unterschiede zu erfassen, haben die am GTEx-Projekt beteiligten Forscher die Sequenzen der m-RNAs in Tausenden Proben aus gesunden Geweben analysiert. Es sind dies Gewebe, die von kürzlich Verstorbenen stammen, deren Todesursachen aber andere Krankheiten als Krebs waren. (messenger-RNAs: dieDNA-Sequenzen von Genen werden in RNAs umgeschrieben und prozessiert; die resultierenden mRNAs werden dann in Aminosäuresequenzen zu Proteinen übersetzt; Anm. Redn.)

Diese umfangreichen RNA-Daten wollte das Team um Getz für einen anderen Zweck nutzen: nämlich, um Mutationen nachzuweisen, die in den Genomen von Zellen in solchen Geweben aufgetreten waren. Um dies zuwege zu bringen, entwickelten sie ein Verfahren, das den Vergleich von RNA-Proben aus den Geweben mit den entsprechenden normalen DNAs erlaubte. Diese neue Methode bezeichnen sie mit "RNA-MuTect".

Mutationen treten in gesundem Gewebe häufig auf…

Insgesamt analysierte das Forscherteam RNA-Sequenzen aus 29 Geweben von 488 Personen aus der GTEx-Datenbank und verglichen diese mit den DNAs; unter diesen Geweben waren auch Herz, Magen, Bauchspeicheldrüse und Fett. Diese Analysen zeigten, dass die überwiegende Mehrheit der Personen - sagenhafte 95 Prozent - in ein oder mehreren Geweben Klone von Zellen aufwies, die neue genetische Mutationen enthielten.

Wenn auch viele dieser genetischen Mutationen höchstwahrscheinlich harmlos sind, ist bei einigen der Zusammenhang mit Krebs bekannt.

…insbesondere in Organen, die Einflüssen aus der Umwelt ausgesetzt sind

Wie die Daten zeigen, treten genetische Mutationen am häufigsten in Haut, Speiseröhre und Lungengewebe auf. Abbildung 3. Dies lässt darauf schließen, dass die Exposition gegenüber Einflüssen aus der Umwelt - wie der Luftverschmutzung in der Lunge, karzinogenen Nahrungsmitteln in der Speiseröhre oder UV-Strahlung des Sonnenlichts auf der Haut - eine wichtige Rolle bei der Verursachung genetischer Mutationen in verschiedenen Teilen unseres Köpers spielen kann.

Abbildung 3. Klone mit genetischen Mutationen in gesundem Gewebe treten besonders häufig in Organen auf die Noxen der Umwelt ausgesetzt sind.

Die Ergebnisse zeigen deutlich, dass die DNA in den Zellen unseres Körpers selbst in normalen Geweben nicht vollkommen identisch ist. Vielmehr treten ständig Mutationen auf, und das macht unsere Zellen mehr zu einem Mosaik verschiedener Mutationsereignisse. Manchmal haben diese veränderten Zellen einen geringfügigen Wachstumsvorteil ; sie teilen sich daher weiter, um größere Gruppen von Zellen mit leicht veränderten Profilen ihres Genoms zu bilden. In anderen Fällen können diese veränderten Zellen in geringer Anzahl bestehen bleiben oder vielleicht sogar verschwinden.

Es ist noch nicht klar, inwieweit solche Klone mit veränderten Zellen das Risiko erhöhen, dass jemand später an Krebs erkrankt. Jedoch hat das Vorhandensein solcher genetischer Mutationen wahrscheinlich wichtige Auswirkungen auf die Krebsfrüherkennung. Beispielsweise kann es schwierig sein, Mutationen, die als echte Warnsignale für Krebs gelten, von solchen zu unterscheiden, die harmlos sind und Teil dessen, was neuerdings als „normal“ gesehen wird.

Wie geht es weiter?

Um solche Fragen weiter zu untersuchen, erscheint es zweckmäßig, die zeitliche Entwicklung normaler Mutationen in gesunden menschlichen Geweben zu untersuchen. Dabei sollte man erwähnen, dass die Forscher solche Mutationen bislang nur in großen Zellpopulationen (d.h. bei mindestens 5 % der Zellen in einem Gewebe; Anm. Redn.) nachgewiesen haben. Mit verbesserten Technologien wird es dann interessant sein, diese Fragestellungen bei hoher Auflösung auf dem Niveau einzelner Zellen zu erforschen.

Das Team von Getz wird solche Fragen weiter verfolgen, zum Teil auch als Teilnehmer an dem kürzlich gestarteten NIH-"Pre-Cancer Atlas" (Krebsvorstufenatlas). Abbildung 4. Dieser Atlas wurde konzipiert, um prämaligne menschliche Tumoren umfassend zu untersuchen und zu charakterisieren.

Abbildung 4. Der Pre-Cancer Atlas (PCA) soll DNA und Mikroenvironment der prämalignen Läsionen auf molekularer, zellulärer und struktureller Basis erforschen und wie diese zu invasiven Tumoren transformiert werden. https://prevention.cancer.gov/news-and-events/news/pre-cancer-atlas-pca-and

Wenn auch in der Erforschung von Krebs und anderen chronischen Krankheiten erhebliche Fortschritte erzielt wurden, müssen wir noch viel über Ursachen und Entwicklung von Krankheiten lernen, um bessere Instrumente zur Früherkennung und Bekämpfung zu entwickeln.

----------------------------------------------------------

[1] Yizhak K, et al., RNA sequence analysis reveals macroscopic somatic clonal expansion across normal tissues. Science. 2019 Jun 7;364(6444).


* Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am. 18. Juni 2019) im NIH Director’s Blog unter dem Titel: "Study Finds Genetic Mutations in Healthy Human Tissues" und wurde geringfügig für den ScienceBlog adaptiert Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH). Die Abbildungen stammen von den unter Weiterführende Links angegebenen Seiten und wurden von der Redaktion eingefügt.


Weiterführende Links

The Cancer Genome Atlas Program (TCGA)

Genotype-Tissue Expression Program (GTEx)

Pre-Cancer Atlas (PCA).

Eric Lander, GTEx: Genotype-Tissue Expression (2018) Video 6:38 min.

Fracis S.Collins, 6.4.2017: Pech gehabt - zufällige Mutationen spielen eine Hauptrolle in der Tumorentstehung. (Eine Studie schätzt welcher Anteil an Mutationen durch Vererbung, Einflüsse von Umwelt/Lifestyle oder fehlerhaftes Kopieren der DNA während des normalen Vorgangs der Zellteilung hervorgerufen wird).


 

Redaktion Wed, 10.07.2019 - 21:20

Viren gegen multiresistente Bakterien. Teil 1: Was sind Phagen?

Viren gegen multiresistente Bakterien. Teil 1: Was sind Phagen?

Do, 04.07.2019 - 12:17 — Karin Moelling

vIcon BiologiePhagen sind Viren, die Bakterien befallen – und das sehr in sehr spezifischer Weise. Bereits ihr Entdecker erkannte vor etwas mehr als 100 Jahren, dass sich bakterielle Infektionen mit Phagen effizient bekämpfen lassen. Mit dem Siegeszug der Antibiotika gerieten Phagen aber in den meisten Ländern in Vergessenheit. Die Entstehung von Antibiotika-resistenten Bakterien und der Mangel an neuen Substanzen, die gegen solche Keime wirken, hat das Interesse an einer Phagentherapie heute wieder aufleben lassen. Die renommierte Virologin Karin Mölling (em. Prof. für Virologie der Universität Zürich und Gruppenleiterin am Max-Planck-Institut für molekulare Genetik) erklärt hier was Phagen sind und wie sie funktionieren. In einem nachfolgenden Teil werden dann viel versprechende Beispiele der Phagentherapie geschildert.

Viren - so viele wie Sterne am Himmel…

Die meisten Menschen denken bei Viren an Erreger von Krankheiten, denn in diesem Zusammenhang wurden Viren gegen Ende des 19. Jahrhunderts zuerst gefunden. In Anbetracht der unvorstellbar großen Anzahl an Viren - Schätzungen gehen von insgesamt 1033 (1 Trillion Billiarden) Viren auf der Erde aus - ist die durch Viren verursachte Todesrate jedoch vergleichsweise gering.

Viren sind überall - in den Meeren, in der Umwelt, in Tieren, Pflanzen und auch auf und in uns. Die kleinsten Viren sind hundertfach kleiner als Bakterien, die größten sogenannten Gigaviren, die Forscher kürzlich nach 30000 Jahren im ewigen Frost wieder zum Leben erweckt haben, sind größer als viele Bakterien.

Genauso wie Bakterien, besiedeln auch Viren in hoher Anzahl unseren Körper. Im Innern eines gesunden Menschen koexistieren mehrere Billionen Bakterien und etwa 100 mal mehr Viren; ein ausgewogenes Gleichgewicht von Viren zu Bakterien ist notwendig für die Gesundheit und für die Verdauung.

…und ihre Spuren in unserem Erbgut

Dank der modernen Genomforschung war es Anfang dieses Jahrhunderts gelungen, das menschliche Erbgut komplett zu sequenzieren. Seitdem wurden Tausende Humangenome und ebenso das Erbgut vieler anderer Organis­men detailliert - Buchstabe für Buch­stabe - bestimmt. Vergleiche dieser immensen Datenmengen führten zu der sensationellen Entdeckung, dass unsere DNA zahllose »fremde« Gene aufweist: Sequenzen, die ursprünglich von diversen, völlig anderen Organismen stammen, die in der Evolution dann Bestandteile unserer eigenen genetischen Ausstattung geworden sind und nun von Generation zu Generation weitergegeben werden. Fast die Hälfte dieser Sequenzen stammt von Viren.

Neue Untersuchungen weisen darauf hin, dass die zellulären Immunsysteme von der Integration solcher Sequenzen herrühren, also eingebaute Viren die Zelle vor weiteren Virusinfektionen schützen und sich von einfachen adaptiven Systemen zu hochkomplexen Abwehrstrategien entwickelt haben.

"Unsichtbare Mikroben, die Bakterien fressen"

Bakteriophagen, kurz Phagen genannt, sind Viren, die spezifisch Bakterien befallen. Vor etwas mehr als hundert Jahren entdeckte der Frankokanadier Félix d’Hérelle (1873–1949) am Institut Pasteur "unsichtbare Mikroben", die Bakterien zerstörten - Löcher in gezüchtete Rasen von Ruhr-erzeugenden Bakterien fraßen. D'Herelle benannte sie Bakteriophagen (phagein ist das griechische Wort für fressen) und erkannte sofort das Potential seiner Entdeckung: die therapeutische Anwendung dieser Bakteriophagen bei bakteriellen Infektionen (Abbildung 1).

Abbildung 1.Links: Bereits 1917 berichtet Felix d'Herelle über "eine unsichtbare Mikrobe, die gegen Ruhrbakterien wirksam ist" (Comptes rendus hebdomadaires des séances de l‘Académie des Sciences 165, S. 373–375, 1917). Rechts: Phagen zerstören Bakterien (Beispiel: Gammaphagen haben einen kreisrunden Lysehof in einen Rasen von Bacillus anthracis "gefressen". Bild: Wikipedia, gemeinfrei).

D'Herelle hat die Phagen aus infizierten Proben gewonnen, indem er sie durch ein Keramiksieb von den Bakterien abtrennte und hat sie dann in verschiedenen Ländern bei bakteriellen Epidemien therapeutisch erprobt, etwa gegen Cholera in Indien. Damit erzielte er zum Teil sensationelle Erfolge: Todkranke, die abends einen speziellen Phagentrunk erhielten, waren am nächsten Morgen geheilt!

Diese Art der Therapie funktionierte aber manchmal auch schlechter. Offensichtlich kam es darauf an für die jeweils zu behandelnde Infektion die passenden Phagen einzusetzen (Phagen sind ja hoch spezialisiert und docken nur an ganz be­stimmte Bakterien an). Da d'Herelle dachte, dass sein Wundertrank möglicherweise keine passenden Phagen enthalte, kam er auf die Idee den Kranken ein Gemisch aus verschiedenen Phagenstämmen - einen "Phagencocktail" - zu verabreichen. Auch diese Therapie funktionierte leider nicht immer und überall.

Jedenfalls waren damalige Kollegen und Kontrahenten in den westlichen Ländern von der Phagentherapie nicht überzeugbar - offensichtlich verwendeten sie immer Phagen, die nicht passten. Als dann Antibiotika während und nach dem Zweiten Weltkrieg ihren Siegeszug antraten, geriet die Phagentherapie in Vergessenheit.

Nur dort, wo Antibiotika lange nicht verfügbar waren -in Ländern hinter dem Eisernen Vorhang - wurde Forschung an Phagen und Phagentherapie weiter betrieben.

Phagen wurden entdeckt, vergessen und wiederentdeckt. Bis in die späten 1960er Jahre dienten Phagen (insbesondere vom Typ der T4-Phagen und Lamda-Phagen) als Modelle, um grundlegende Prinzipien der modernen Molekularbiologie zur Organisation und Regulation von Genen zu erforschen.

Wie sehen Phagen aus?

Als Prototyp für Phagen gilt der T4-Phage, der spezifisch Darmbakterien des Typs Escherichia-coli befällt. Abbildung 2.

Abbildung 2. Phagen im Elektronenmikroskop. A) T4-ähnliche Phagen, die durch das Nachweisverfahren die Beine verloren haben, am Schwanzende tritt etwas DNA aus. B) Ein einzelner T-4 Phage misst vom Kopf bis zu den Filamenten rund 100 Nanometer. C) Schematische Darstellung des Aufbaus eines T4-Phagen (Bilder: A), B): Karin Moelling; C): modifiziert nach Guido4, Wikipedia, Lizenz cc-by-sa)

Im Elektronenmikroskop sind die Komponenten erkennbar: Der ikosaedrische Kopf, Kapsid genannt, enthält das Erbgut - bei Phagen zumeist DNA -, welches der Phage durch das Rohr im kontraktilen »Schwanz« in ein Bakterium injiziert. Mit den angeknickten Beinchen, den Filamenten , verankert sich der Phage an der Wirtszelle. Die Wechselwirkung dieser Beine mit der Zelle ist höchst selektiv: Jeder Phage muss seine eignen Wirtszelle finden und nimmt keine andere. Abbildung 3.

Das war und ist eine der großen Schwierigkeiten in der therapeutischen Anwendung von Phagen: während Antibiotika auch eine Bandbreite von Bakterien ohne passgenaue Abstimmung abtöten, müssen Phagen spezifisch an die Keime jedes einzelnen Patienten angepasst werden.

Abbildung 3. Phagen erkennen mit ihren Beinchen Rezeptoren auf der Oberfläche der Wirtszelle und binden an diese hochspezifisch und irreversibel. Links: Schematische Darstellung (Quelle: wikimedia, CarlosRoBe, Lizenz CC BY-SA 4.0). Rechts: Elektronenmikroskopische Aufnahme von T1-Phagen, die sich auf der Zellwand von E. coli festgesetzt haben. (Quelle: Dr Graham Beards- en:Image:Phage.jpg. cc-by-sa 3.0; Wikipedia)

Wie funktionieren Phagen?

Phagen vermehren sich auf Kosten ihrer Wirtszellen, der Bakterien. Nachdem Phagen ihre DNA in die jeweilige Wirtszelle injiziert haben, können zwei unterschiedliche Arten der Vermehrung eingeschlagen werden, die mit "Lytischer Zyklus" und "Lysogener Zyklus" bezeichnet werden. Abbildung 4.

Abbildung 4. Wie Phagen mit Bakterien interagieren: Im Lytischen Zyklus tritt sofort Vermehrung ein, bringt die Wirtszelle zum Platzen und die neuen Phagen infizieren weitere Zellen. Im Lysogenen Zyklus wird die Phagen-DNA (blau) in das Bakterien-Chromosom (braun) integriert und über Generationen vererbt. Unter Stress kann aber auch der Übergang der integrierten Prophagen in den Lytischen Zyklus eintreten (brauner Pfeil). (Bild: modifiziert nach xxoverflowed; wikimedia. cc-by-2.0 https://www.flickr.com/photos/hixtine/6374709127)

Im Lytischen Zyklus bleibt die injizierte Phagen-DNA separiert vom bakteriellen Erbgut, wird auf Kosten des bakteriellen Stoffwechsels rasant vermehrt und führt zur Produktion von Phagen-Bauteilen. Die Bauteile setzen sich zu Hunderten neuen Phagen zusammen und bringen schlussendlich die Wirtszelle zum Platzen - lysieren diese -, schwirren aus und infizieren weitere Bakteri­en.

Im Lysogenen Zyklus wird die Phagen-DNA vorerst in das Erbgut des Bakteriums - als Prophage -integriert und kann dann über viele Generationen weitervererbt werden. Gerät das Bakterium in eine Stresssituation - etwa bei zu hoher Keimdichte, Nahrungsmangel, Temperaturstress, etc. - kann ein Wechsel zum lytischen Zyklus erfolgen (brauner Pfeil in Abb. 4) und die Vermehrung der Phagen gestartet werden.

(Auf ähnliche Weise gelangen Viren in das Erbgut vieler Lebe­wesen; sie sind darin latent werden weitervererbt, wenn sich die Zellen teilen und können manchmal bei Stress virulent werden.)

Die Phasen von Synthese und Zusammenbau von Phagen können elektronenmikroskopisch verfolgt werden. Abbildung 5.

Abbildung 5. SU 10-Phagen, die in E. coli Zellen gebildet werden im Elektronenmikroskop. An der Oberfläche der Zellwand haften noch leere Kapside (rote Pfeile), die ihre DNA bereits injiziert haben. Im Cytoplasma des Bakteriums bilden die neuen Phagen Honigwaben ähnliche Strukturen (blaue Pfeile); in vielen Kapsiden ist die DNA bereits eingefügt (dunkle Kapside). (Bild: SU10progj.jpg; wikimedia. nach KM Mirzaei et al., http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0116294 . CC BY 4.0 .)

Wie Dichtestress die in den Bakterien vorhandenen Phagen aktiviert, kann am Beispiel der durch Cyanobakterien verursachten Algenblüte in Gewässern verdeutlicht werden. In längeren warmen Phasen vermeh­ren sich die Bakterien infolge von Überdüngung oftmals stark, dann stoppt der Vorgang aber plötzlich. Der Grund dafür: Im Meereswasser sind etwa 80 Prozent der Bakterien von ihren Phagen infiziert, die durch Dichtestress aktiviert werden, sich rasant vermehren und ihre Wirtsbakterien weitgehend zerstören. Normalerweise sind Bakterien und Phagen so aufein­ander eingespielt, dass Phagen täglich etwa ein Drittel der vorhandenen Bakterien auflösen, wodurch deren Bestand­teile wieder in die Nahrungskette gelangen.

Eine Besonderheit der Phagen Ist, dass sie sich nur solange in den Bakterien vermehren, wie es diese Bakterien gibt. Wenn sie alle Bakterien getötet haben, können sich die Phagen nicht mehr vermehren und gehen auch zugrunde. Je mehr Bakterien vorhanden sind , umso mehr Phagen werden produziert. Dies bedeutet, dass für eine therapeutische Anwendung von Phagen eine Dosis- Wirkung Korrelation besteht und dass eine solche Therapie selbst limitierend ist, aber auch ein Minimum an Bakterien zu Beginn der Therapie erfordert.

Wie und gegen welche Infektionen die Phagen eingesetzt werden können und welche Erfolge bis jetzt erzielt wurden, soll in einem nachfolgenden Artikel behandelt werden.


Weiterführende Links

Karin Moelling: Welt der Viren, 2. Phagen (2015); Video 9:22 min. https://www.youtube.com/watch?v=65aD8lvOpRY

Karin Moelling: Ohne Viren gäbe es schlicht kein Leben. Virologin Prof. Dr. Karin Mölling zu Gast bei KKL Impuls (2016), Video 1:17:05 min. https://www.youtube.com/watch?v=3ThS_Rsr5B8

Karin Moelling: Collect Phages to Kill resistant Bacteria (deutsch). 2019; Video 12:14 min. https://www.youtube.com/watch?v=RfC5PUSscok

Sternstunde Philosophie: Durchbruch in der Aids-Forschung. Die Virologin Karin Mölling im Gespräch mit Norbert Bischofberger. (2008) Video 56:35 min. https://www.srf.ch/play/tv/sternstunde-philosophie/video/sternstunde-philosophie-durchbruch-in-der-aids-forschung--die-virologin-karin-moelling-im-gespraech-mit-norbert-bischofberger?id=37c4497c-ed6c-4b96-815d-4400a6b36442

T4 Phage früher Bakteriophage T4. 2016; Video 8:05 min. https://www.youtube.com/watch?v=VX-unNBw-KM

Udo Pollmer: Bakteriophagen - natürlicher Ersatz für Antibiotika und Desinfektion? 2013; Video 7:38 min. https://www.youtube.com/watch?v=YmnWWVxLvVU


Einige Artikel über Viren im ScienceBlog

Gottfried Schatz, 03.05.2013: Spurensuche — Wie der Kampf gegen Viren unser Erbgut formte

Peter Palese, 10.5.2013: Influenza-Viren – Pandemien: sind universell wirksame Impfstoffe in Reichweite?

Peter Schuster, 24.5.2013: Letale Mutagenese — Strategie im Kampf gegen Viren

Gottfried Schatz, 5.12.2014: Gefahr aus dem Dschungel – Unser Kampf gegen das Ebola-Virus


Richard Neher, 3.11.2016: Ist Evolution vorhersehbar? Zu Prognosen für die optimale Zusammensetzung von Impfstoffen

Guy Reeves, 09.05.2019: Zur Freisetzung genetisch veränderter Organismen in die Natur

Redaktion Thu, 04.07.2019 - 11:29

Energiewende (2): Energiesysteme und Energieträger

Energiewende (2): Energiesysteme und Energieträger

Do, 27.06.2019 - 15:04 — Robert Schlögl

Robert SchlöglIcon Politik und GesellschaftDer Chemiker Prof. Dr. Robert Schlögl (Direktor am Max-Planck-Institut für Chemische Energiekonversion; Mülheim a.d.R.) appelliert in seinem Eckpunktepapier „Energie. Wende. Jetzt“ an einen beschleunigten Umbau des Energiesystems, der als „Revolution“ verstanden werden müsse. Dieser Artikel erscheint auf Grund seiner Länge bei uns in mehreren Teilen. Nach einer Einführung [1] erläutert Schlögl, nun im zweiten Teil, dass die Grundlage eines neuen Energiesystems die elektrische Primärenergie sein müsse, das System jedoch nicht gänzlich ohne stoffliche Energieträger funktionieren könne. Diese können teilweise aus Biomasse generiert werden, vor allem aber durch die Umwandlung der primären Elektrizität in beispielsweise synthetische Brennstoffe. Der Bedarf an stofflichen Energieträgern wiederum, erfordere einen geschlossenen Kohlenstoffkreislauf, um wirklich nachhaltig zu sein.

Energieversorgung ist systemisch

Alle Elemente der Energieversorgung -Energieträger, Energiewandlung, Energienutzung - sind untereinander vielfach verbunden. Ein vereinfachtes Schema dieses enorm wichtigen, bereits im vorangegangenen Artikel dargestellten, komplexen Systems ([1], Abbildung 3) soll die gegenseitigen Abhängigkeiten nun nochmals veranschaulichen. Abbildung 1.

Abbildung 1. Generische Elemente eines Energiesystems heute. Von unten nach oben: man erkennt die Ebenen der Energieträger – Kohle, Öl, Gas, Kernenergie und erneuerbare Energien – der Grundanwendungen – Strom, Mobilität und Wärme – und der differenzierten Anwendungen (Sektoren) – von Industrieproduktion zum Wohnen.

Greift man daher in ein Element ein, so erhält man eine systemische Antwort aus allen Ebenen. Ihr Inhalt kann auf Grund der Komplexität des Systems nicht vorhergesagt werden, selbst wenn man sich nur auf die zu verändernde Größe (z. B. gesamthafte CO2 Einsparung) bezieht. Es ist kontraproduktiv, dies zu ignorieren und jedem Element separiert eine mengenmäßige und zeitliche Änderungslast im Umbau des Systems zuzuweisen. Dabei entstehen Schnittstellen, die falsche Anreize, ungeeignete Infrastrukturen und in jedem Fall suboptimale Wirksamkeiten im Hinblick auf die Zielsetzung verursachen.

Insbesondere der regulatorische Rahmen muss dies berücksichtigen und mit möglichst einem einheitlichen Werkzeug das System in die gewünschte Richtung steuern.

Derzeit ist dies in Deutschland und Europa nicht der Fall. Vielmehr gibt es eine Vielzahl von unterschiedlich konstruierten Steuerinstrumenten. Insbesondere das System von Anreizen (für EE zum Beispiel) ist nicht hilfreich, wenn es nicht die ganze Technologiekette erfasst (Netze, Flexibilisierung der fossilen Nutzung).

Vordringlich wichtig ist eine direkte negative Anreizung zum Verzicht auf fossile Träger, die systemweit wirkt. Dafür gibt es zahlreiche Methoden. Das ETS (Emissions Trading System) ist eine bereits existierende Vorlage, die, wenn sie voll funktional gemacht und auf das gesamte System ausgedehnt würde, die Aufgabe erfüllen würde. Wirksam wird ein derartiges System nur, wenn gleichzeitig alle Subventionen im Energiebereich zurückgefahren werden.

Energiesysteme benötigen zwei Arten von Energieträgern

Grundlage der neuen Energiesysteme ist die elektrische Primärenergie aus Wandlern von Sonne und Wind. Diese erneuerbare Energie mit freien Elektronen als Energieträger kann in geringem Umfang durch stoffliche erneuerbare Energie aus Biomasse ergänzt werden. Diese nutzen chemische Bindungen in Molekülen als Energieträger. Damit kann erneuerbare Energie transportiert und gespeichert werden. Durch Verbrennung mit und ohne Flammen wird die Energie freigesetzt.

Einige Energieanwendungen aus Abbildung 1 benötigen zwingend stoffliche Energieträger für die Herstellung von Materialien (als Einsatzstoffe) und für energiedichte Mobilitätsanwendungen (Flugzeuge, Schiffe, Baumaschinen, Busse und Lkw im Fernverkehr). Um die Transportsysteme für elektrische Energie in überschaubaren Größen zu halten, sind weiter Punktanwendungen von Prozesswärme günstig mit stofflichen Energieträgern zu betreiben (Grundstoffe wie Stahl, Glas, Ziegel, Zement; Gas als Träger). Somit kann ein rein elektrisches Energiesystem nicht funktionieren - es wird immer die Dualität der Energieträger geben.

Der Bedarf an stofflichen Energieträgern ist ein erheblicher Teil des Energiesystems und kann nicht ohne Schaden für die Entwicklung des Planeten durch Biomasse alleine aufgebracht werden. Folgt man einem Konzept der systemischen Nachhaltigkeit so sollten die stofflichen Energieträger durch Wandlung (chemische Energiekonversion) aus primärer Elektrizität hergestellt werden. Dann kann ein rein technisches Energiesystem ohne unmittelbare Auswirkung auf die Ökosysteme entstehen. Bei seiner Einrichtung sind Auswirkungen auf den Verbrauch von Mineralstoffen, Wasser und Land zu minimieren und entsprechende Stoffkreisläufe einzurichten.

Der Bedarf an stofflichen Energieträgern erfordert einen Kohlenstoffkreislauf

Die globale Energieversorgung beruht heute auf Transport und Lagerung von fossilen kohlenstoffhaltigen Energieträgern (Kohle, Gas, Öl). Um die Pfadabhängigkeiten des Umbaus des Energiesystems minimal zu halten und die Kosten des Umbaus zu optimieren, sollten diese Infrastruktur und die Folgeprozesse weitgehend weiter genutzt werden. Synthetische Energieträger aus CO2 und grünem Wasserstoff (durch Wasserspaltung) liefern bei Einsatz von ausschließlich erneuerbarer Primär-Elektrizität erneuerbare stoffliche Energieträger, die als Flüssigkeiten (Methanol) oder Gase (Methan) die existierenden Infrastrukturen nutzen können.

Gewinnt man das bei ihrer Nutzung freiwerdende CO2 zurück und transportiert es zu Orten wo die nötigen großen Mengen an Primär-Elektrizität verfügbar sind, so bildet man einen Stoffkreislauf der grundsätzlich nachhaltig ist. Er macht erneuerbare Energie transportier-und lagerbar. Der Einsatz von mineralischen Hilfsstoffen, von Wasser und Landflächen muss noch erheblich optimiert werden, um die Größe dieser Technologie ökologisch und ökonomisch günstig abzubilden. Dieses Konzept, das in Abbildung 2 sehr vereinfacht dargestellt ist, kann als „Pack die Sonne in den Tank“ oder als „flüssige Sonne“ verstanden werden. Es ergänzt die begrenzte Nutzbarkeit von Biomasse, die auf der Erde wichtige andere Funktionen (menschliche Nahrung, Biodiversität und Ökostabilität, Klimastabilität) zu erfüllen hat.

Abbildung 2. "Pack die Sonne in den Tank": Stark vereinfachte Darstellung eines Kohlenstoffkreislaufs in einem nachhaltigen Energiesystem. Der Transport von Wasserstoff zur „solaren Raffinerie“ kann vielfältig entweder direkt oder auch durch Transportstoffe wie organische große Moleküle oder Ammoniak erfolgen (siehe Abbildung 3).

In solch einem System stellen mobile Nutzungen ein „Leck“ an Kohlenstoff dar. Deshalb können synthetische Kraftstoffe (Abbildung 3) zunächst nur mit maximal 50 % CO2-Einspareffekt bilanziell angerechnet werden. Dieses kann beim Umbau des Energiesystems zunächst verkraftet werden, das Leck muss aber vor Abschluss des Umbaus geschlossen werden. Eine Möglichkeit dazu ist die Nutzung von Biomasse als Sammler von CO2, das durch Mineralisation der Biomasse aus dem Kreislauf entfernt wird. Andere anorganische Prozesse der Mineralisation können diese „sub-zero“ Option im Energiesystem unterstützen. Auch die Nutzung von Biomasse als ursprüngliche Quelle von Kohlenstoff kann, wie in Abbildung 2 dargestellt, das Problem der „Leckage“ lösen.

Abbildung 3. Synthetische Kraftstoffe. Alle auf CO2 basierenden Molekülstrukturen und reiner Wasserstoff lassen sich in heutigen Verbrennungsmotoren nach geringfügigen Anpassungen einsetzen. Ammoniak hat eine hohe Energiedichte und kann als Wasserstoffspeicher oder direkt als kohlenstofffreies Medium in Brennstoffzellen - es entstehen N2 und Wasser - eingesetzt werden (Satz von Redn. eingefügt.)

Wählt man eine möglichst energieeffiziente Antriebsart von Fahrzeugen, so kann die Größe des Lecks stark verringert werden. Eine Designstudie zeigt, dass mit heutigen Technologien und einem optimierten PKW Hybridfahrzeug ohne energetisch aufwändige Materialien und mit vergleichsweise kleinen Batterien enorme Einsparungen an Kraftstoff zu erzielen sind. Abbildung 4. Mit einer Kombination von elektrischer Antriebseffizienz und stofflicher Speichereffizienz können die wesentlichen Anforderungen an die Kompatibilität der Mobilität mit einem neuen Energiesystem gut erfüllt werden, und es bedarf keiner Änderung der Infrastruktur jenseits der Bereitstellungs- Ebene der Energieträger (Abbildung 1).

Abbildung 4. Die Kombination von elektrischem Antrieb und vielen Optionen zur Energieversorgung jenseits einer relativ kleinen Batterie für Mittelstreckenfahrten verspricht einen sehr energiegünstigen Antriebsstrang, der „multimodal“ mit Energie versorgt werden kann. Die Indikatoren „lokal“ und „fern“ beziehen sich auf die Quelle der erneuerbaren Energie relativ zum Ort der Nutzung des Fahrzeuges (auf einer globalen Skala).

Grundsätzlich sollte überlegt werden, ob die energetische Nutzung von Biomasse eingeplant wird. Die heute erkennbaren großflächig negativen Folgen der extensiven wie intensiven Nutzung der Biomasse für Ökosysteme und Biodiversität und die Gefahren, die sich daraus für die Stabilität des Lebens auf dem Planeten ergeben, lassen es geraten erscheinen, die gesamte Energieversorgung auf den technischen Kohlenstoffkreislauf, der ohnehin nötig ist, auszurichten und die Biomasse nur für stoffliche Nutzungen zu verwenden.

Eine Nebenfunktion mit allerdings wertvollen Systemdienstleistungen können solche Kreisläufe erfüllen, wenn sie mit lokaler Primärelektrizität als Flexibilisierungsmaßnahme (siehe z. B. https://www.kopernikus-projekte. de/synergie) eingesetzt werden, wenn sie als lokale Energiespeicher eingesetzt werden oder wenn sie auf die Herstellung von Chemikalien (8) fokussiert werden.


[1] Robert Schlögl: 13.06.2019: Energie. Wende. Jetzt - Ein Prolog. http://scienceblog.at/enrgie-wende-jetzt-ein-prolog


* Dies ist Teil 2 des Artikels von Robert Schlögl "Energie. Wende. Jetzt", der am 7.Mai 2019 auf der Webseite des Max-Planck-Instituts für Chemische Energiekonversion erschienen ist (https://cec.mpg.de/fileadmin/media/Presse/Medien/190507_Eckpunktepapier__Energie.Wende.Jetzt__-_Erstfassung_final.pdf). Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt; der Text blieb weitestgehend unverändert, aus dem Anhang des Artikels wurde zwei Abbildungen (Abb. 3 und 4) eingefügt. Literaturzitate wurden allerdings weggelassen - sie können im Original nachgelesen werden.

Der demnächst erscheinende Teil 3 wird sich mit dem Aufbau der Energiesysteme und dem Einbau von Stoffkreisläufen befassen.


Weiterführende Links

Max-Planck-Institut für Chemische Energiekonversion (MPI CEC ) https://cec.mpg.de/home/

Woran forscht das MPI CEC? Video 3:58 min. https://www.youtube.com/watch?v=-aJJi6pFOKc&feature=youtu.be

Oppermann, Bettina/Renn, Ortwin (März 2019) Partizipation und Kommunikation in der Energiewende. Analyse des Akademienprojekts „Energiesysteme der Zukunft“ https://energiesysteme-zukunft.de/publikationen/analyse-partizipation/

Akademienprojekt ESYS (Mai 2019): Warum sinken die CO2-Emissionen in Deutschland nur langsam, obwohl die erneuerbaren Energien stark ausgebaut werden? https://energiesysteme-zukunft.de/kurz-erklaert-co2-emissionen/

R. Schlögl (2017): Wasserstoff in Ammoniak speichern. https://www.solarify.eu/2017/09/10/254-wasserstoff-in-ammoniak-speichern/


Artikel zum Thema Energie/Energiewende im ScienceBlog:

Eine Liste der Artikel findet sich unter [1].


 

Redaktion Thu, 27.06.2019 - 14:33

Aufbruchsstimmung in der Tierökologie - Brücken für mehr Artenvielfalt

Aufbruchsstimmung in der Tierökologie - Brücken für mehr Artenvielfalt

Do, 20.06.2019 - 08:12 — Martin Wikelski

Martin WikelskiIcon BiologieFast überall auf der Erde geht die Biodiversität zurück, sowohl was die Vielfalt an Arten als auch die Häufigkeit von Organismen betrifft. Um bedrohte Arten effektiver als bisher schützen zu können, wurde 2018 mit der Etablierung des Icarus Systems (International Cooperation for Animal Research Using Space) ein neues Forschungsfeld geschaffen. Icarus ist ein Satelliten-gestütztes Beobachtungssystem , mit dem unterschiedlichste, mit Minisendern ausgerüstete Tierarten fast überall auf der Erde rund um die Uhr verfolgt werden können. So lassen sich erstmals Gefahren frühzeitig erkennen und für das Überleben von Arten wichtige Lebensräume identifizieren. Der Leiter dieser Initiative, Prof. Dr. Martin Wikelski , Direktor am Max-Planck Institut für Verhaltensbiologie (Radolfzell) gibt zu dieser Entwicklung im Folgenden ein Interview.*

Das Umweltprogramm der Vereinten Nationen (UNEP) zeigt mit seinem alljährlichen Bericht „Environment Frontiers“ auf, welche Herausforderungen die natürlichen Lebensgrundlagen auf unserem Planeten künftig maßgeblich mitbestimmen werden. Im kürzlich vorgestellten Report 2018/2019 [1] wird fünf neu auftretenden Themen besondere Bedeutung zugemessen. Es sind dies

  • die Synthetische Biologie,
  • die Ökologische Vernetzung,
  • Permafrostmoore im Klimawandel,
  • die Stickstoffkreislaufwirtschaft und
  • Fehlanpassungen an den Klimawandel.

Anlässlich des "Tages der Erde" am 22. April des Jahres wurden Max-Planck-Forscher, die auf diesen Gebieten arbeiten, zu den im UN-Bericht beschriebenen Entwicklungen interviewt. Nach deren Bewertungen zur Synthetischen Chemie [2, 3] folgt nun das Interview zum Thema "Ökologische Vernetzung: Brücken für mehr Artenvielfalt".

„Wir können Tiere nicht in Schutzgebiete sperren“

Die meisten Schutzgebiete liegen heute wie Inseln in einem Ozean aus menschengemachten Landschaften. Intensiv genutzte Agrarlandschaft und Siedlungen wirken für viele Tiere und Pflanzen wie unüberwindbare Barrieren, die jeglichen Austausch zwischen den Schutzgebieten verhindern. Abbildung 1.

Martin Wikelski vom Max-Planck-Institut für Verhaltensbiologie in Radolfzell hat durch seine Forschung gelernt, dass viele Tiere weite Reisen unternehmen.

Abbildung 1. Wie eine isolierte Insel liegt Natur in der modernen Agrarlandschaft – unerreichbar für viele Tiere. © Mauritius Images

H.R.: Warum reicht es für den Artenschutz nicht, einfach nur genügend Naturschutzgebiete und Nationalparks auszuweisen?

M.W.: Fast alle Tiere bewegen sich fort – die einen mehr, die anderen weniger. Durch unsere Forschung wissen wir, dass sehr viel mehr Tiere auf Wanderschaft gehen, als wir lange Zeit dachten. Vor allem Jungtiere müssen häufig das elterliche Revier verlassen und ziehen weg.

Wir werden das Überleben solcher Arten nicht sichern können, wenn wir sie in Schutzgebieten einsperren.

Deshalb müssen wir auch über dynamische Schutzgebiete nachdenken. Wenn also ein Ort zu einer bestimmten Jahreszeit ein wichtiger Stützpunkt für eine Art ist, sollte dieser für eine begrenzte Zeit geschützt werden. Die übrige Zeit im Jahr kann er dann wieder vom Menschen genutzt werden.

H.R.: Warum müssen Schutzgebiete miteinander verbunden sein?

M.W.: Heute leben viele Tiere und Pflanzen in voneinander isolierten Populationen, das heißt, sie können sich nicht mehr untereinander austauschen. Mit Austausch meine ich Gene, damit die Populationen nicht genetisch verarmen, aber auch Kultur, denn Tiere geben auch Wissen untereinander weiter. Wenn zum Beispiel unterschiedliche Storchenpopulationen nicht mehr zusammenkommen, können sie ihr Wissen über verschiedene Flugrouten in die Überwinterungsgebiete nicht mehr weitergeben.

H.R.: Ist dieses Thema schon im öffentlichen Bewusstsein angekommen?

M.W.: Viel zu wenig – ökologische Vernetzung ist noch immer ein Randthema für Spezialisten. Wir sperren Wildtiere in Schutzgebieten weg und denken, alles ist gut. Im Anthropozän brauchen wir ein völlig neues Verhältnis zwischen Mensch und Tier: Die Beziehung muss enger werden.

Dazu kennen wir die Bedürfnisse der verschiedenen Arten aber noch zu wenig. Mit unserem Icarus-Projekt [4] können wir Tiere auf ihren Reisen begleiten. Abbildung 2. Sie erzählen uns dann förmlich, was sie brauchen. Dieses Wissen können wir dann nutzen, um die richtigen Lebensräume unter Schutz zu stellen.

Abbildung 2. Icarus - eine Revolution in der Verhaltensbiologie. Oben: mit einem Minisender ausgerüstete Tiere, links: Amsel; rechts: Prachtbiene. Die Sender können neben Orts- und Bewegungsdaten auch Informationen über die körperliche Verfassung erheben (z.B: Körpertemperatur, Blutdruck, Puls , Zucker- und Sauerstoffgehalt des Bluts) und mittels Minikameras was ein Tier frisst oder wie viele Junge es hat. Unten: die von den Sendern aufgezeichneten und via Satelliten in Echtzeit versendeten Daten werden in eine frei zugängliche Datenbank - Movebank - eingespeist (https://www.movebank.org/) Der Forscher sitzt unter Umständen tausende von Kilometern entfernt in seinem Forschungslabor und kann sofort mit der Auswertung der Messergebnisse beginnen. (Bilder: MPI f. Ornithology/ MaxCine)

H.R.: Mit welchen Maßnahmen können Lebensräume miteinander verbunden werden?

M.W.: Schutzgebiete können durch Korridore miteinander verbunden, Straßen mittels Wildbrücken überquert werden. Oft braucht es aber gar keine aufwändigen Maßnahmen. Viel wäre zum Beispiel schon gewonnen, wenn wir eine strukturreiche Landschaft erhalten würden, die Tiere durchwandern können, oder wenn wir unsere Gartenzäune für Tiere durchlässig machen würden.

H.R.: Wie steht es denn in Deutschland um die Vernetzung von Schutzgebieten?

M.W.: Ein auch im internationalen Maßstab herausragendes Beispiel ist das Grüne Band. Weite Strecken der ehemaligen innerdeutschen Grenze sind nach der Wende unter Schutz gestellt worden. Diese Flächen sind heute sehr wertvolle Lebensräume und bieten vielen Tieren und Pflanzen die Möglichkeit zur Ausbreitung.

Bei uns in Baden-Württemberg gibt es einen Fachplan „Landesweiter Biotopverbund“. Er soll ökologische Wechselbeziehungen in der Landschaft wiederherstellen und die Ausbreitung von Tieren und Pflanzen ermöglichen. Luchse aus der Eifel wandern entlang dieser Korridore zum Beispiel immer wieder in den Schwarzwald. Wir sind zum Beispiel gerade dabei, einen Luchs ausfindig zu machen, der in der Eifel mit einem Signalsender ausgestattet worden und nun in den Schwarzwald gezogen ist.

Das Gespräch hat Dr. Harald Rösch (Redaktion MaxPlanckForschung) geführt.


[1] UN Environment: Frontiers 2018/19: Emerging Issues of Environmental Concern (04.03.2019) https://www.unenvironment.org/resources/frontiers-201819-emerging-issues-environmental-concern

[2] Guy Reeves,09:05.2019: Zur Freisetzung genetisch veränderter Organismen in die Natur. http://scienceblog.at/freisetzung-genetisch-ver%C3%A4nderter-organismen

[3] Elena Levashina, 16.05.2019: Zum Einsatz genetisch veränderter Moskitos gegen Malaria. http://scienceblog.at/genetisch-ver%C3%A4nderte-moskitos-gegen-malaria

[4] Icarus Erdbeobachtuing mit Tieren. http://www.icarus.mpg.de/de


*Das Interview mit Martin Wikelski ist unter dem Titel „Earth Day 2019: Wir können Tiere nicht in Schutzgebiete sperren“ am 18.April 2019 auf der News-Seite der Max-Planck-Gesellschaft erschienen https://www.mpg.de/13364502/earth-day-2019-wikelski?c=13364284 und wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Abbildung 2 wurde von der Redaktion aus Bildern der Icarus-Seite zusammengestellt (http://www.icarus.mpg.de/de).


Weiterführende Links

Max-Planck -Institut für Verhaltensbiologie (Radolfzell).
https://www.ab.mpg.de/verhaltensbiologie

Icarus: Erdbeobachtung durch Tiere. http://www.icarus.mpg.de/34708/icarus-mission-wikelski

Max-Planck Gesellschaft; Icarus initiative: Wildlife Observation from Space (2018). Video 6:31 min. https://www.youtube.com/watch?time_continue=3&v=e_KNyhQMjOY

Max-Planck Gesellschaft; Countdown to Icarus (2014). Video 5:17 min. https://www.youtube.com/watch?time_continue=11&v=O4djQDne2RM

ICARUS - Einladung zur Mitarbeit an einem globalen Beobachtungsnetzwerk von kleinen Objekten (Tieren). http://www.icarus.mpg.de/38126/ICARUS_Flyer.pdf

Menschen schränken Tierwanderungen ein. https://www.mpg.de/11892226/mensch-tierwanderungen


 

Redaktion Thu, 20.06.2019 - 07:28

Energie. Wende. Jetzt - Ein Prolog

Energie. Wende. Jetzt - Ein Prolog

Do, 13.06.2019 - 07:06 — Robert Schlögl

Robert SchlöglIcon Politik und GesellschaftEin beschleunigter Umbau des Energiesystems ist unabdingbar. Da aber alle Elemente der Energieversorgung – Energieträger, Energiewandlung und Energienutzung – mehrfach miteinander verbunden sind, muss das Energiesystem in seiner Gesamtheit betrachtet und die Abhängigkeiten untereinander berücksichtigt werden. Zweifellos ist ein solcher Umbau eine Aufgabe für Generationen, bedarf einer klaren Zieldefinition aber auch eines Bewusstseins für notwendige Veränderungen in Politik, Wirtschaft und Gesellschaft. In einem, nicht nur für Deutschland richtungsweisenden Eckpunktepapier "Energie. Wende. Jetzt" appelliert Robert Schlögl, Direktor am Max-Planck-Institut für Chemische Energiekonversion (Mülheim a.d.R.) für einen beschleunigten Umbau - eine Revolution - des Energiesystems. Im folgenden bringt ScienceBlog den ersten Teil des Artikels, der auf Grund seiner Länge in mehreren Teilen erscheint.*

Der Klimawandel findet schon länger statt, er ist aber jetzt für viele Menschen unmittelbar sichtbar geworden. Dies wird unter anderem durch das Ausmaß der Temperatur-Anomalie in Mitteleuropa erkennbar. Abbildung 1.

Abbildung 1. Bodentemperaturverteilung in der Welt und in Europa Anfang 2019. Die Karten geben lediglich Momentaufnahmen wieder. Sie beschreiben das „Wetter“ und nicht das Klima. Sie belegen aber klar, wie weit die Erderwärmung (am Boden) bereits zugenommen hat. Man erkennt weiter die großen Unterschiede und den daraus resultierenden „kleinen“ globalen Mittelwert.

Für Deutschland (und ebenso für Österreich; Anm. Redn.) ist derzeit die „2 Grad Grenze“ bereits überschritten, die Welt hat einen Wert von 1,1 Grad erreicht. Damit wird eine drastische Anstrengung für die wirksame Defossilisierung des Energiesystems jetzt notwendig.

Es fehlen Eckwerte für ein neues Energiesystem

Den Akteuren fehlt eine Verständigung über die Eckwerte für ein neues Energiesystem. Eine wesentliche Konsequenz daraus ist, dass sich der Zubau von unabdingbar nötigen Wandlern für Erneuerbare Energie in Europa verlangsamt. Dies kann sehr gut aus Abbildung 2 abgelesen werden. Für Deutschland wird klar, dass der Kohleausstieg in der Tat vordringlich ist. Die Widersprüche, die mit der Festlegung von Eckwerten einhergehen, erkennt man weiter daraus, dass der Ausstieg aus der Kernenergie rein aus der Sicht einer schnellstmöglichen CO2-Reduktion nicht nachvollziehbar ist.

Abbildung 2. Vergleiche der Primärenergiestruktur von EU (28) und Deutschland und Zeitreihen der Nutzung von Energiequellen für die Stromerzeugung für EU (28) und Deutschland. Quelle: https://data.europa.eu/euodp/data/dataset/information-on-energy-markets-in-eu-countries-with-national-energy-profiles/resource/fbb4045a-0552-4bb1-b88c-b9e3d465718c

Weiterhin erkennt man den immer noch geringen Anteil der Erneuerbaren Energien im Gesamtsystem der Energieversorgung. Der dringende Handlungsbedarf wird noch deutlicher, wenn man bedenkt, dass der Anteil von Wasserkraft und Biomasse an diesen „Erneuerbaren“ wesentlich größer ist als derjenige von Wind- und Sonnenenergie, welche die wesentlichen skalierbaren Quellen erneuerbarer Energie sind. Vergleicht man dies mit den Erfordernissen für die Stabilisierung des Weltklimas (1), welche ein exponentielles Wachstum der Erneuerbaren dringend einfordern, so wird klar, dass hier unmittelbar und tiefgreifend gehandelt werden muss.

Unsicherheiten und regulatorische Fragmentierung

in Deutschland und Europa sind mit als Ursachen für den völlig unzureichenden zeitlichen Verlauf des Energiesystem-Umbaus anzusehen. Im europäischen Kontext wirkt es sich stark negativ aus, dass Deutschland eine retardierende Gesamthaltung einnimmt und nicht als Vorreiter fungiert.

Die Energiepolitik in Deutschland wird vor allem durch Regierungshandeln ohne intensivere Beteiligung des Parlaments bestimmt. Es formieren sich „Bewegungen“, die schnelle Aktionen fordern. Diese sind eine Mischung aus eindeutig notwendigen Aktionen und kaum erfüllbaren „Sofortmaßnahmen“, die nicht nötig wären, wenn der Umbau der Energieversorgung systemisch und mit wirklichem Nachdruck angegangen würde. Wenig wird darauf geachtet, dass der Umbau des Energiesystems eine Aufgabe für Generationen ist, die sich über zahlreiche Legislaturperioden hinzieht und daher einen stabilen Beteiligungsrahmen der Gesellschaft erfordert. Die Gesellschaft ist schließlich Nutzerin dieses Systems und sie finanziert den gesamten Aufwand.

Mit dem Entwurf des Klimaschutzgesetzes setzt die Regierung eine Vorgabe der EU um, die von allen Mitgliedsländern bis 2020 eine gesetzliche Grundlage der Einsparungen von Treibhausgasen verlangt. Der Gesetzentwurf geht davon aus, eine Unterteilung des regulatorischen Rahmens voranzutreiben um in zuständigen Bundesministerien „Verantwortliche“ benennen und belangen zu können. Damit übernimmt der Staat (Bund, Länder) die Aufgabe der Organisation des Energiesystem-Umbaus.

Dieser Ansatz steht im Widerspruch zu unserem politischen System. Danach kommt dem Staat vor allem die Organisation der Willensbildung des Volkes und die Ermöglichung der Umsetzung durch einen verlässlichen regulatorischen Rahmen zu. Die technisch-wirtschaftliche Realisation obliegt der Industrie und den Bürgern/Kunden. Der Staat wiederum hat die Einhaltung des regulatorischen Rahmens zu kontrollieren und ggf. auch zu erzwingen.

In der jetzigen Konzeption tritt der Staat als Akteur und Kontrolleur gleichzeitig auf. Es ist zu erwarten, dass sich bei der Durchführung erhebliche Widerstände einstellen, welche die Umsetzung der gewünschten Ziele behindern. Weiter ist nach den bisherigen Erfahrungen mit Eingriffen des Staates in das Energiesystem zu erwarten, dass die resultierenden komplexen Regelwerke systemisch unerwünschte Effekte hervorbringen und Schlupflöcher zur Vermeidung missliebiger Aktionen verbleiben.

Elemente eines prototypischen heutigen Energiesystems

Das vorliegende Papier wirbt für eine andere Aufteilung der Aufgaben und Verantwortlichkeiten beim Umbau des Energiesystems, um damit in breiter Übereinstimmung mit den Akteuren schneller zum Ziel zu gelangen. Es stellt sich hier bereits die Frage, was das Ziel einer Energiewende sein soll. Weiterhin ist der Rahmen zu definieren, in dem ein Umbau der Energieversorgung durchgeführt wird. Dies betrifft sowohl den geographischen Raum als auch den Anwendungsraum von Energie. Hier herrscht traditionell eine Fragmentierung in Sektoren vor. Abbildung 3 zeigt sehr vereinfacht die Elemente eines prototypischen heutigen Energiesystems.

Abbildung 3. Generische Elemente eines Energiesystems heute. Man erkennt von unten nach oben die Ebenen der Energieträger, der Grundanwendungen und der differenzierten Anwendungen (Sektoren).

Derzeit versucht die Politik jedes Element und jede Relation einzeln regulatorisch differenziert zu behandeln. Sie erhofft sich dadurch optimale Regelungen und Anpassungsfähigkeiten für Ausnahmen. Die Folge ist allerdings ein komplexes und widersprüchliches Regulatorium, das andauernde Ergänzungen und Verbesserungen erfordert. Die resultierenden Unsicherheiten wiederum führen zu einer abwartenden Haltung der ausführenden Akteure (Märkte und Firmen) mit der Folge, dass sich zahlreiche Hemmnisse in der schnellen Umsetzung ergeben.

Ein systemischer Ansatz ist nötig

Im Versuch, die Hemmnisse durch Anpassungen zu beseitigen ergeben sich mit der Zeit derartige Komplexitäten, dass der unbedingt nötige systemische Ansatz (z. B. bei Betrachtungen zu Einspareffekten oder Effizienzen) verloren geht. Gleichzeitig geht die Übersicht der Bürger über das Thema Energiewende verloren. Dies wiederum ermöglicht es interessierten Gruppierungen, ideologische Argumente in die Diskussion einzuweben. Vor allem mit dem Mittel des Szenarios und seiner Auslegung lassen sich Positionen so untermauern, dass punktuelle Ziele sinnvoll erscheinen, auch wenn sie systemisch schädlich sind.

Ein aktuelles Beispiel dafür ist die Diskussion um die e-Mobilität. Abbildung 4.

Abbildung 4. Energieaufwand für einen Pkw mit unterschiedlichen Antriebssträngen. Blau: Effizienz im Fahrzeug, rot: Effizienz im europäischen Energiesystem. (Nach Lombardi L., et al., Int J Life Cycle Assessment. 2017;22(12):1989-2006.)

So richtig es ist, dass sie lokale regulierte Emissionen beseitigt und so sehr sie eine Prozesseffizienz bietet, so wenig wird sie in den kommenden Jahrzehnten zur Einsparung von Treibhausgasen beitragen und vielmehr die Aufgabe erschweren, das Stromsystem zu defossilisieren. Zudem erzeugt sie durch die Notwendigkeit erheblicher zusätzlicher Netzausbauleistungen Pfadabhängigkeiten, die sich schwer korrigieren lassen und erhebliche finanzielle Ressourcen binden, die man effizienter zur Defossilisierung des gesamten Systems einsetzen kann.


1. Rockstrom J., Gaffney O., Rogelj J., Meinshausen M., Nakicenovic N., Schellnhuber HJ. CLIMATE POLICY A roadmap for rapid decarbonization. Science. 2017;355(6331):1269-71


* Dies ist Teil 1 des Artikels von Robert Schlögl "Energie. Wende. Jetzt", der am 7.Mai 2019 auf der Webseite des Max-Planck-Instituts für Chemische Energiekonversion erschienen ist (https://cec.mpg.de/fileadmin/media/Presse/Medien/190507_Eckpunktepapier__Energie.Wende.Jetzt__-_Erstfassung_final.pdf). Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt ; bis auf wenige Überschriften erscheint der Text unverändert.

 


Weiterführende Links

Max-Planck-Institut für Chemische Energiekonversion (MPI CEC ) https://cec.mpg.de/home/

Woran forscht das MPI CEC? Video 3:58 min. https://www.youtube.com/watch?v=-aJJi6pFOKc&feature=youtu.be

Oppermann, Bettina/Renn, Ortwin (März 2019) Partizipation und Kommunikation in der Energiewende. Analyse des Akademienprojekts „Energiesysteme der Zukunft“ https://energiesysteme-zukunft.de/publikationen/analyse-partizipation/

Akademienprojekt ESYS (Mai 2019): Warum sinken die CO2-Emissionen in Deutschland nur langsam, obwohl die erneuerbaren Energien stark ausgebaut werden? https://energiesysteme-zukunft.de/kurz-erklaert-co2-emissionen/


Artikel zum Thema Energie/Energiewende im ScienceBlog:

Artikel von Gerhard Glatzel:

Artikel des IIASA

Andere Autoren


 

Redaktion Thu, 13.06.2019 - 06:24

Ist Migration eine demographische Notwendigkeit für Europa?

Ist Migration eine demographische Notwendigkeit für Europa?

Do, 06.06.2019 — IIASA

IIASAIcon Politik & GesellschaftIm Jahr 2060 wird ein Drittel der Bevölkerung in der EU mindestens 65 Jahre alt sein. Ein gemeinsam von der Europäischen Kommission und dem International Institute of Applied Systems Analysis (IIASA) herausgegebener exemplarischer Bericht [1] zeigt, dass ein derartiger Anstieg unvermeidlich ist, auch unter Berücksichtigung von höherer Fertilität oder Migration. Allerdings sind eine Steigerung der Erwerbsbeteiligung (insbesondere von Frauen) und eine verbesserte Ausbildung sowohl von Einheimischen als auch von Migranten in der Lage die mit der Alterung verbundenen Probleme lösen. Der Report wurde in einer Auftaktveranstaltung am 4. Juni 2019 in Brüssel vorgestellt [2].*

Um Entscheidungen über unsere Zukunft zu treffen, ist es wesentlich zu wissen wie viele Menschen dann leben werden und wo sie leben und arbeiten werden.

Entscheidungsträger gehen häufig davon aus, dass entweder eine höhere Geburtenrate oder eine verstärkte Migration in der Lage sein werden, Lösungen für die demografischen Herausforderungen der EU zu erbringen. „Eine zunehmend älter werdende Zusammensetzung der Bevölkerung ist zwar unvermeidlich, dies muss aber kein gravierendes Problem sein, wenn die Menschen in Zukunft eine bessere Ausbildung erhalten und sich mehr am Erwerbsleben beteiligen als heute“, sagt Wolfgang Lutz, Direktor des IIASA-Weltbevölkerungsprogramms und leitender Wissenschaftler des Kompetenzzentrums für Bevölkerung und Migration (CEPAM).

Das CEPAM wurde von der Europäischen Kommission und dem IIASA als Antwort auf die Migrationsströme des Jahres 2015 gegründet, welche mit ihren dramatischen Szenen weltweit Aufmerksamkeit erregten. Wenn damals auch aus aktuellem Anlass entstanden, so sollte die Aufgabe des CEPAM darin bestehen, den Fokus auf ausgedehntere Zeiträume zu legen und Analysen zu den allmählichen, aber langfristig resultierenden demografischen Veränderungen innerhalb der EU und in der ganzen Welt zu erstellen.

Bevölkerungsentwicklung,…

Wie CEPAM-Untersuchungen nun ergeben haben, sind selbst Szenarien mit einem unrealistisch hohen Anstieg der Geburtenrate (+ 50%) oder einer doppelt so hohen Einwanderungsrate (ca. 20 Millionen Menschen in jeweils 5 Jahren) nicht in der Lage, die Altersstruktur der europäischen Bevölkerung grundlegend zu verändern. Abbildung 1.

Abbildung 1. Der Anteil der 65+ Bevölkerung in der EU wird 2060 auf rund 32 % ansteigen (links) und selbst eine Verdopplung der Migration oder eine stark steigende Geburtenrate werden darauf nur wenig Einfluss haben (rechts). Abbildung aus dem Report [1]: Ausschnitt aus Key Messages, p.12.

„Ungeachtet der deutlichen Dynamik in Richtung einer älter werdenden Bevölkerung, ist es wichtig, dass man auch die im Mittel steigende Zahl von Lebensjahren in Aktivität und Gesundheit berücksichtigt, die höhere Produktivität und den möglichen Verlust von Arbeitsplätzen aufgrund des technologischen Fortschritts - all dies hat tiefgreifende Auswirkungen auf das künftige Potential an Arbeitskräften. ” erklärt Lutz.

Solche Veränderungen stellen den konventionellen Ansatz in Frage, der nur die Altersstruktur der Bevölkerung in Betracht zieht.

Modellierungen unterschiedlicher Szenarien…

Mit Hilfe modernster demografischer Modelle konnte CEPAM unterschiedliche Szenarien hinsichtlich des Ausmaßes von Migration und des Bildungsniveaus der Migranten durchspielen, basierend auf kanadischen, japanischen und anderen Ansätzen. Einer der wesentlichsten, aus dieser Untersuchung resultierenden Zusammenhänge, zeigt, dass Migration die Gesamtbevölkerung zwar erheblich vergrößern kann, aber - wie im Falle der Altersstruktur - einen viel geringeren Einfluss auf das Verhältnis von Nichtarbeitenden zu Arbeitnehmern hat.

Dagegen kann eine in der EU erwartete, wachsende Erwerbsbeteiligung von Frauen den potenziellen Anstieg von sozial Abhängigen ausgleichen. Abbildung 2.

Abbildung 2. Mit der Zunahme der älteren Bevölkerung muss ein kleiner werdender, aber besser ausgebildeter Anteil Beschäftigter die Nicht-Erwerbstätigen erhalten. Eine gesteigerte Erwerbsbeteiligung von Frauen (wie bereits heute in Schweden) kann die Relation sozial Abhängiger zu Arbeitenden verbessern. Abbildung aus dem Report [1]: Ausschnitt aus Key Messages, p.12.

…und Migration innerhalb Europas

Der neue Bericht befasst sich auch mit der Bevölkerungsdynamik innerhalb der EU, einschließlich der Abwanderung in den Westen. In einigen südlichen und östlichen Mitgliedstaaten war bereits ein deutlicher Bevölkerungsrückgang zu verzeichnen. Wenn sich dieser Trend fortsetzt, schrumpfen dort die Bevölkerungszahlen bis 2060 um mindestens 30%. Abbildung 3.

Derartige Veränderungen lassen Bedenken aufkommen, dass aus solchen Ländern Fachkräfte abwandern, dass Begabungen verloren gehen.

Dies gilt nicht nur in der EU, sondern ist in vielen Ländern der Welt von Bedeutung.

Abbildung 3. Bevölkerungswandel, wenn die interne EU-Bewegung gestoppt wird oder weitergeht (2015-2060). Beispiele: Vereinigtes Königreich, Österreich, Deutschland, Litauen, Lettland und Rumänien. Abbildung aus dem Report [1]: Ausschnitt aus Key Messages, p.12.

Die globale Perspektive

Global betrachtet zeigt der Bericht, wie stark die Zukunft des Bevölkerungswachstums davon abhängt, wie es mit der Bildung in Afrika - der mit Abstand am schnellsten wachsenden Region der Welt - weitergeht. Bildung ist eine wichtige Voraussetzung, um Frauen in die Lage zu versetzen, dass sie bewusste Entscheidungen über ihre Geburtenhäufigkeit treffen.

Die Geburtenraten in Afrika gehen langsam zurück, bleiben aber im Vergleich zu allen anderen Kontinenten sehr hoch (durchschnittlich 4,7 Kinder pro Frau). Wenn die Trends in der Bildung in gleicher Weise wie in den letzten Jahren weitergehen, wird im Jahr 2060 die Weltbevölkerung 9,6 Milliarden Menschen erreichen. Wenn die Bildung aber stehen bleibt, gefolgt von einem ähnlich verzögerten Rückgang der Geburtenrate, könnte die Weltbevölkerung dann auf rund 11 Milliarden anwachsen. Je nachdem wie rasch das Bevölkerungswachstum erfolgt, kann es den Ausbau von Infrastruktur überflügeln und zu einem Afrika führen, in dem die Bevölkerung schlechter ausgebildet ist als heute. Abbildung 4.

Abbildung 4. Szenarien der Bevölkerungsentwicklung 2015 - 2060 in Afrika: a) rasche, weitreichende Bildung für aller Mädchen, b) bisherige Bildungstrends setzen sich fort, c) Bildung "bleibt stehen". Abbildung aus dem Report [1]: Ausschnitt aus Key Messages, p.12.

"Die Hoffnung besteht, dass Afrika einen sich selbst verstärkenden Kreislauf mit niedrigerer Sterblichkeit, geringerer Fruchtbarkeit und - durch Bildung bedingt - stärkerer Entwicklung einschlägt", fügt Lutz hinzu. "Dies ist genau das Rezept, das wir brauchen, wenn wir Nachhaltigkeit und internationale Entwicklung ernst nehmen."

Fazit

Mit diesem Bericht wurde versucht, die Migrationspolitik von kurzfristigen Überlegungen wegzuleiten, um langfristig ein realistisches und wissenschaftlich fundiertes Planen zu erreichen.
Migrationspolitik und verwandte Gebiete erfordern demografische Grundlagen und kompetentes Handeln. Zu diesem Zweck schließt der Bericht mit der Identifizierung bestehender blinder Flecken, die sich durch eine Verbesserung der demografischen Daten und der Forschungskapazität auf europäischer Ebene minimieren lassen. Insbesondere sollte der Fokus auf multidimensionalen Analysen liegen und Afrika und andere Nachbarregionen, stärker berücksichtigt werden.


[1] Lutz W, et al. (2019): "Demographic Scenarios for the EU - Migration, Population and Education" Report, http://pure.iiasa.ac.at/id/eprint/15942/

[2]  Demographic Scenarios for the EU - Migration, Population and Education. (Video) https://webcast.ec.europa.eu/demographic-scenarios-for-the-eu-migration-population-and-education.


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 4.Juni 2019 auf der IIASA Webseite unter dem Titel: " Is there a demographic need for migration in Europe?" erschienen ( (http://www.iiasa.ac.at/web/home/about/news/190604-demography-and-migration.html). IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch passende Abbildungen aus dem zugrundeliegenden Report [1] ergänzt.


Weiterführende Links

Artikel im ScienceBlog


 

Redaktion Thu, 06.06.2019 - 06:47

Hoch-prozessierte Lebensmittel führen zu erhöhter Kalorienkonsumation und Gewichtszunahme

Hoch-prozessierte Lebensmittel führen zu erhöhter Kalorienkonsumation und Gewichtszunahme

Do, 30.05.2019 - 16:26 — Francis S. Collins

Francis S. CollinsIcon MedizinIn den letzten Jahren sind hoch-prozessierte Lebensmittel/ Fertiggerichte immer populärer geworden und gleichzeitig ist die Zahl der Übergewichtigen stark gestiegen. Dass ein Zusammenhang zwischen diesen Essvorlieben und Übergewicht bestehen könnte, wurde schon lange vermutet. Diese Annahme fand nun in einem kontrollierten randomisierten klinischen Versuch erste Bestätigung - allerdings an einer nur kleinen Probandenzahl [1]. Francis Collins, Direktor der US National Institutes of Health (NIH), berichtet über diese Studie, in der prozessierte Nahrung offensichtlich zu vermehrter Kalorienzufuhr anregte und damit zur Gewichtszunahme führte.*

Hat man jemals versucht ein paar Kilo abzunehmen oder einfach nur ein einigermaßen "gesundes" Gewicht zu halten, so ist man wahrscheinlich auf ein verwirrendes Angebot an Diäten gestoßen, wobei jede dieser Diäten begeisterte Anhänger hat; es sind Diäten, die kohlenhydratarm, fettarm sind, Keto-, paläo-, vegane-, mediterrane Diäten und so fort. In einem sind sich die meisten Ernährungsexperten allerdings einig: am besten ist es, wenn man sich von stark-verarbeiteten Lebensmitteln fern hält. Nun gibt es einige solide wissenschaftliche Hinweise, die diese Empfehlung stützen.

Prozessierte versus nicht-prozessierte Nahrung

Eine erste von NIH-Forschern ausgeführte, randomisierte, kontrollierte Studie hat die Auswirkungen von stark prozessierten Lebensmitteln mit denen von unverarbeiteten Lebensmitteln verglichen. Dabei stellten die Forscher fest, dass gesunde Erwachsene etwa ein Pfund pro Woche zunahmen, wenn sie eine tägliche Diät zu sich nahmen, die reich an stark verarbeiteten Lebensmitteln war. Solche Nahrungsmittel enthalten häufig Zusätze wie beispielsweise hydrierte Fette, Maissirup mit hohem Fruktosegehalt, Aromastoffe, Emulgatoren und Konservierungsmittel. Wenn diese Personen aber unverarbeitete Vollwertkost aßen, verloren sie an Gewicht.

Interessanterweise traten die Gewichtsunterschiede zwischen den beiden Diäten auf, auch wenn beide Arten von Lebensmitteln unter ernährungsphysiologischen Gesichtspunkten sorgfältig abgeglichen worden waren, einschließlich Kalorienzahl, Gehalt an Ballaststoffen, Fetten, Zucker und Salz. Ein Frühstück aus der stark prozessierten Gruppe von Nahrungsmitteln konnte so zum Beispiel aus einem Bagel mit Frischkäse und Putenschinken bestehen, während bei den nicht verarbeiteten Nahrungsmitteln Haferflocken mit Bananen, Walnüssen und Magermilch angeboten wurden. Abbildung 1.

Abbildung 1. Von hoch- prozessierten Lebensmitteln wird mehr gegessen als von nicht- prozessierten - als Folge steigt das Körpergewicht bereits nach kurzer Zeit an (Bild: Credit: Hall et al., Cell Metabolism, 2019; von Redn. deutsch beschriftet)

Warum derartige Unterschiede zwischen den beiden Diäten auftraten, kann offensichtlich damit erklärt werden, dass es den Studienteilnehmern freigestellt war so wenig oder so viel zu den Mahlzeiten zu essen, wie sie wollten, und auch zwischendurch einen Snack zu sich zu nehmen. Dabei stellte sich heraus, dass die Leute von den stark verarbeiteten Mahlzeiten signifikant mehr aßen - durchschnittlich etwa 500 zusätzliche Kalorien pro Tag - als von den unverarbeiteten Gerichten. Und wie man ja weiß: Ein Mehr an Kalorien ohne ein Mehr an Bewegung führt in der Regel zu einer Gewichtszunahme!

Dies mag uns ja nicht neu zu erscheinen. Immerhin versucht man in den USA schon seit einiger Zeit einen Zusammenhang zwischen dem Boomen der Fertiggerichte und der Zunahme des Körperumfangs herzustellen. Aber so plausibel es auch scheinen mag, dass solche Lebensmittel zu übermäßigem Essen anregen können, vielleicht aufgrund ihres hohen Salz-, Zucker- und Fettgehalts, so bedeutet Korrelation keineswegs Ursache, und kontrollierte Studien darüber, was Menschen tatsächlich essen, sind schwierig durchzuführen. Infolgedessen gab es bis jetzt keine definitive Evidenz, die stark prozessierte Lebensmittel direkt mit Gewichtszunahme verknüpfen konnte.

Die Studie

Dieser mögliche Zusammenhang wurde nun untersucht und die Ergebnisse im Fachjournal Cell Metabolism berichtet [1]. Es war dies eine Zusammenarbeit von NIH-Forschern am National Institute of Diabetes and Digestive and Kidney Diseases mit denen an der Metabolic Clinical Research Unit in Bethesda, MD, die speziell für die Untersuchung von Fragen im Zusammenhang mit Ernährung und Stoffwechsel ausgestattet sind.

Die Forscher rekrutierten 20 gesunde Männer und Frauen mit stabilem Gewicht, die dann 28 Tage im Labor lebten. Nach dem Zufallsprinzip erhielt jeder der Freiwilligen über zwei aufeinanderfolgende Wochen entweder eine stark-prozessierte Diät oder eine nicht-prozessierte Diät. Nach den zwei Wochen wurde dann für weitere zwei Wochen auf die jeweils andere Diät umgestellt.

Beide Diäten bestanden täglich aus drei Mahlzeiten, wobei die Versuchspersonen so viel essen durften, wie sie wollten. Ein wichtiger Punkt war dabei, dass ein Team von Diätassistenten die stark verarbeiteten und die unverarbeiteten Mahlzeiten sorgfältig so entworfen hatte, dass sie in Bezug auf Gesamtkalorien, Kaloriendichte, Makronährstoffen, Ballaststoffen, Zucker und Salz gut vergleichbar waren.

Zum Mittagessen bestand beispielsweise eine der verarbeiteten Mahlzeiten der Studie aus mit Käse gefüllten Tortillas (Quesadillas), Bohnenpürree und Diätlimonade. Ein unverarbeitetes Mittagessen bestand aus einem Spinatsalat mit Hähnchenbrust, Apfelscheiben, Bulgur und Sonnenblumenkernen mit Trauben als Beilage.

Der wesentliche Unterschied zwischen beiden Diäten war der Anteil der Kalorien, die aus hoch-verarbeiteten versus unverarbeiteten Lebensmitteln stammte, entsprechend der Definition im NOVA-Diätklassifizierungssystem. Es ist dies ein System, das Lebensmittel mehr nach Art, Ausmaß und Zweck der Lebensmittelverarbeitung einteilt als nach ihrem Nährstoffgehalt.

Die Forscher bestimmten nun wöchentlich Energieverbrauch, Gewicht und die Veränderungen der Körperzusammensetzung aller Versuchspersonen. Nach zwei Wochen hatten die Personen mit der stark prozessierten Diät durchschnittlich etwa zwei Pfund zugenommen. Im Vergleich dazu wiesen Diejenigen, die nicht-prozessierte Diät gegessen hatten, einen Gewichtsverlust von ungefähr zwei Pfund auf.

Stoffwechseltests ergaben, dass die Probanden für die stark verarbeitete Diät zwar mehr Energie aufwendeten, diese allerdings nicht ausreichte, um den erhöhten Kalorienverzehr zu kompensieren. Infolgedessen nahmen die Teilnehmer Pfunde und Körperfett zu. Die Studie weist einige Einschränkungen auf, z. B. geringfügige Unterschiede im Proteingehalt der beiden Diäten. und die Forscher planen, solche Probleme in ihrer zukünftigen Arbeit anzugehen.

Während der relativ kurzen Versuchsdauer beobachteten die Forscher keine verdächtigen Anzeichen, die mit einer schlechten Stoffwechsellage einhergehen, wie beispielsweise einen Anstieg des Blutzuckerspiegels oder des Leberfetts. 

Ein paar Pfund mehr klingt vielleicht nach nicht viel, im Laufe der Zeit summieren sich aber die mit einer hoch-prozessierten Diät verbundenen zusätzlichen Kalorien und die Gewichtszunahme.

Fazit

Ein guter Ansatzpunkt, um ein gesundes Gewicht zu erreichen oder aufrechtzuerhalten, ist also, den Rat zu befolgen, den alle ansonsten widersprüchlichen Ernährungspläne teilen: Bemühen Sie sich, um hoch-verarbeitete Lebensmittel in Ihrer Ernährung zu eliminieren oder zumindest zu reduzieren, und zwar zugunsten einer ausgewogenen Vielfalt von unverarbeiteten, nährstoffreichen Lebensmitteln.

[1] Ultra-processed diets cause excess calorie intake and weight gain: An inpatient randomized controlled trial of ad libitum food intake . Hall KD et al. Cell Metab. 2019 May 16.


* Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am. 21. Mai 2019) im NIH Director’s Blog und wurde geringfügig für den ScienceBlog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links


 

Redaktion Thu, 30.05.2019 - 12:36

Wie wird Korruption in Europa wahrgenommen?

Wie wird Korruption in Europa wahrgenommen?

Do, 23.05.2019 - 11:41 — Redaktion

RedaktionIcon Politik & GesellschaftEin politisches Erdbeben erschüttert unser Land - ausgelöst durch ein vor zwei Jahren in Ibiza heimlich aufgenommenes Video, das den damaligen Chef der FPÖ und späteren Vizekanzler zeigt, wie er einer vermeintlichen russischen Investorin im Gegenzug für großzügige Unterstützung des Wahlkampfs lukrative Staatsaufträge zusagt. Ein verstörender Ausnahmefall? Die letzte Umfrage unter den EU-Bürgern - das Eurobarometer 470 [1] - zeigt ein bestürzendes Bild: Im EU-28 Durchschnitt glauben mehr als zwei Drittel der Befragten, in Österreich immerhin die Hälfte, dass in ihrem Land Korruption verbreitet ist – und politische Parteien führen das negative Ranking an.

Ist Korruption - darunter fallen beispielsweise Bestechung, Vorteilsannahme, Amtsmissbrauch, Klientelismus und Vetternwirtschaft etc. - überhaupt Gegenstand für einen naturwissenschaftlichen Blog?

Für die bei Tier und Mensch beobachteten Formen von Kooperation bis hin zum Altruismus ist dies zweifellos der Fall und der Mathematiker Karl Sigmund hat diese Phänomene mit Hilfe der Spieltheorie bereits in mehreren Blogartikeln beschrieben [2 - 4]. Das Motto für Kooperation ‚Ich kratz’ dir den Rücken, und du kratzt dafür meinen’ oder ‚Ich kratz’ dir den Rücken, damit jemand anderer meinen Rücken kratzt’ - d.i. man gibt, um sich selbst einen Vorteil zu verschaffen -, kann aber ebenso Ausgangspunkt von Korruption sein. Auch hier können mit Hilfe der Spieltheorie die Vorgänge analysiert und Strategien zu ihrer Prävention geprüft werden (dazu Artikel eines Teams um Karl Sigmund [5]).

Über derartige Modelle soll im folgenden Artikel allerdings nicht berichtet werden. Vielmehr sollen erst einmal einige grundlegende Informationen zur Korruption in der Europäischen Union aufgezeigt werden: nämlich wie die EU-Bürger  in ihren jeweiligen Ländern das Ausmaß der Korruption  einschätzen, welche Bevölkerungsgruppen sie darin hauptsächlich involviert sehen und welche Konsequenzen sie befürchten. Die hier gezeigten Daten stammen aus der letzten, von der Europäischen Kommission in Auftrag gegebenen Umfrage über Korruption, dem Spezial Eurobarometer 470 [1].

Eine Umfrage zur Korruption: Spezial Eurobarometer 470

Seit 2007 war dies bereits die sechste repräsentative Umfrage, welche die EU-Kommission in Auftrag gegeben hat, um die Meinungen der EU-Bürger zum Thema Korruption zu erheben. Diese Umfrage erfolgte in den 28 Mitgliedstaaten vom 21. bis 30. Oktober 2017. (Dies war knapp nach der österreichischen Nationalratswahl am 15. Oktober 2017, deren schmutziger Wahlkampf die Meinungen aus Österreich durchaus beinflusst haben könnte). An der Umfrage nahmen insgesamt 28 080 Personen im Alter ab 15 Jahren und aus unterschiedlichen sozialen und demographischen Gruppen - rund 1000 Personen je Mitgliedsland - teil, die persönlich (face to face) in ihrem Heim und in ihrer Muttersprache interviewt wurden.

Die Vorgangsweise entsprach dabei den für derartige Umfragen geltenden Standardbedingungen (Directorate-General for Communication ).

Die Teilnehmer wurden u.a. gefragt

  • wieweit für sie Bestechung (mit Geld, Geschenken oder Gefälligkeiten) akzeptabel wäre, um Leistungen der öffentlichen Verwaltung/der öffentlichen Hand zu erhalten
  • wie sie das Ausmaß der Korruption in ihrem jeweiligen Land und die darin involvierten Bevölkerungskreise einschätzten,
  • wie sich die beobachtete Korruption in den letzten drei Jahren verändert hätte,
  • welche Bereiche der Gesellschaft die größten Probleme mit Korruption haben,
  • wie effizient Regierung, Justiz und Institutionen in der Korruptionsbekämpfung vorgehen.

Dazu gab es dann auch noch Fragen zu persönlichen Erfahrungen mit Korruption; d.i. ob man persönlich von Korruption betroffen (gewesen) wäre, man jemanden kenne, der Bestechungen gemacht/entgegen genommen hätte, ob man derartige Fälle gemeldet hätte (oder warum nicht) und welchen Stellen und wieweit diese vertrauenswürdig erschienen.

Die Ergebnisse

Zur Akzeptanz von Bestechung

Bestechung mit Geschenken, Gefälligkeiten oder zusätzlichem Geld, um im Gegenzug Leistungen der öffentlichen Verwaltung oder des öffentlichem Diensts zu erhalten, wird vom überwiegenden Teil der EU-Bürger ( im EU-28 Durchschnitt 70 % der Befragten) als inakzeptabel abgelehnt. Hier gibt es allerdings einen massiven Nordwest - Ost Trend mit Ungarn und Lettland am bereitwilligsten Bestechung zu praktizieren. Abbildung 1.

Abbildung 1. Anteile [%] der befragten Bevölkerung, die Bestechung (mit Geschenken, Gefälligkeiten oder Geld) als völlig inakzeptabel ansehen. (Quelle: QB4T, p 14 [1])

In Österreich liegt die Akzeptanz der Bestechung höher als im EU28-Schnitt: rund 28 % der Befragten würden sich zumindest manchmal mit einem Geschenk "revanchieren", 26 % mit einer Gefälligkeit und 18 % mit einem Geldbetrag.

Wie verbreitet ist Korruption in Ihrem Land?

Dieser Frage ging eine ausführliche Erklärung voraus, was alles unter Korruption zu verstehen wäre; es sollte dann auf Basis eigener Erfahrungen geantwortet werden.

Das Positive: insgesamt betrachtet ist die Korruption seit der letzten Befragung im Jahr 2013 in nahezu allen Ländern (zum Teil massiv) zurückgegangen. Dennoch bieten die Antworten noch immer ein bestürzendes Bild: Im EU28-Schnitt meinten mehr als zwei Drittel (68 %), dass Korruption in ihrem Land weit verbreitet sei (26 % sehr weit, 42 % weit verbreitet). Abbildung 2.

Als korrupteste Länder stellen sich dabei Griechenland , Spanien , Zypern, Kroatien, Litauen und Portugal dar . mehr als 90 % der Bevölkerung sind überzeugt in einm korrupten Land zu leben. Für am wenigsten korrupt halten sich die skandinavischen Länder, Holland und Luxembourg. In Österreich und Deutschland ist rund die Hälfte der Befragten der Ansicht, dass Korruption in ihrem Land weit verbreitet ist. 2013 lagen die Angaben in Österreich noch um 16 %, in Deutschland um 8 % höher.

Abbildung 2. Frage: Wie verbreitet ist Korruption in Ihrem Land ? (Quelle: QB5, p 17.[1]).

 

Ein wichtiges Detail: Diejenigen, die Korruption bereits selbst erfahren haben oder jemanden kennen, der besticht oder bestechlich ist, haben offensichtlich das Vertrauen in ihre Mitmenschen eingebüßt; sie tendieren dazu Korruption als weiter verbreitet zu betrachten als andere, unbeeinflusste Mitbürger  und Korruption eher zu akzeptieren als abzulehnen.

In welchen Gruppen der Gesellschaft Ihres Landes ist Korruption weit verbreitet?

Hier wurde den Bürgern eine Liste mit Behörden, Institutionen, öffentlichen und privaten Dienstleistern vorgelegt und gefragt, in welchen dieser Gruppen Bestechung und Machmissbrauch zum Zweck persönlicher Bereicherung wohl gängige Praktiken sind. Dabei konnten jeweils mehrere Gruppen angeführt werden.

Die Antworten zeigen ein deprimierendes Bild (Abbildung 3):

Das negative Ranking führen im EU28-Schnitt die politischen Parteien und Politiker auf Bundes-, Regional-und Kommunalebenen an (56 % resp. 53 % der Votings). Für am meisten korrupt werden Parteien und Politiker in Spanien (80 % und 74 %) und Frankreich (76 % und 68 %) gehalten, für am wenigsten korrupt in Schweden und Finnland; aber auch dort teilen noch rund 40 % der Befragten die negative Meinung über Politik und Politiker. Auch in Österreich werden Parteien und Politiker am Negativsten gesehen.

Auch das weitere Ranking weist auf eklatante Missstände hin: Um die 40 % der Bürger EU-weit aber auch in Österreich halten Beamte, die öffentliche Aufträge vergeben, die Baugenehmigungen vergeben, für korrupt. Erhebliche Bestechung und Machtmissbrauch wird auch den Kontrolleuren in diversen Bereichen der Arbeitswelt und der Gesundheit und natürlich auch der Privatindustrie zugeschrieben.

Abbildung 3. In welchen Bereichen der Gesellschaft sind Bestechung und Amtsmissbrauch gängige Praktiken? (Quelle QB7, corruption-ebs_470_fact_at_de.pdf)

Zu Konsequenzen der Korruption

Die Frage ob sie selbst von Korruption betroffen wären, bejahten im EU28-Schnitt 25 %; in Osterreich 18 % der Menschen. Obwohl die meisten EU-Bürger also keine unmittelbare Erfahrung mit Korruption hatten, vertraten sie die Ansicht, dass diese negative Auswirkungen auf Wirtschaft und Funktionieren öffentlicher Institutionen nach sich zieht. Abbildung 4.

Der bei weitem überwiegende Teil der EU-Bürger - und auch der Österreicher - meint, dass zu enge Bindungen zwischen Unternehmen und Politik zu Korruption führen und dass Günstlingswirtschaft und Korruption den Wettbewerb behindern. 6 von 10 EU-Bürgern und die Hälfte der befragten Österreicher haben sich damit abgefunden, dass Korruption einfach zur Unternehmerkultur dazugehört und etwas mehr als die Hälfte der EU-Bürger und auch der Österreicher glaubt, dass geschäftlicher Erfolg nur mit Beziehungen zur Politik möglich ist.

Abbildung 4. Korruption in Unternehmen (Quelle QB7, corruption-ebs_470_fact_at_de.pdf)

Wird Korruption angezeigt?

Die meisten Europäer (rund 80 %), die selbst Korruption erfahren oder Korruption beobachten, verzichten auf eine Anzeige. Einerseits wissen viele (z.B. in Ungarn und Bulgarien) nicht, wie und wo sie dies melden sollten. Ein Hauptgrund besteht aber darin, dass es schwer ist stichhaltige Beweise zu liefern, dass es für die Täter selten zu Konsequenzen kommt und dass diejenigen, die Korruption anzeigen, keinen Schutz erhalten.

Unzulängliche  Maßnahmen zur Korruptionsbekämpfung

Ähnlich pessimistisch wie im Fall der Anzeige von Korruption wird auch die Effizienz von Maßnahmen gesehen, welche die Korruption verhindern, bekämpfen oder sanktionieren sollen. Nur ein Drittel der EU-Bürger hält die Bemühungen ihrer Regierungen zur Bekämpfung der Korruption für ausreichend, der Großteil der EU-Bürger findet, dass es nicht genug erfolgreiche Strafverfolgungen gibt, um Korruption wirklich abzuschrecken.

Fazit

Korruption ist ein weltweites Problem, das auch in der EU enorme wirtschaftliche Schäden verursacht. Korruption bedroht damit Wohlstand und Sicherheit der Bürger, belastet das soziale Miteinander der Bürger  und höhlt deren Vertrauen in öffentliche Institutionen, Regierungen und in die Staaten selbst aus. Der Großteil der EU-Bürger behauptet zwar korrupte Praktiken selbst abzulehnen, sieht merkwürdigerweise aber weite Gruppen der Mitbürger  als korrupt an. Die Gefahr dabei: In einem Umfeld, das korrupt agiert, tendieren Einzelne eher dazu sich an solche Praktiken zu adaptieren anstatt dagegen vorzugehen. Die relativ hohe Akzeptanz korrupter Praktiken in den neueren EU-Mitgliedsstaaten ist mit einer sehr weiten Verbreitung der Korruption verbunden.

Korruption wird sich nur sehr schwer reduzieren/ausmerzen lassen. Auch in den Ländern mit der niedrigsten wahrgenommenen Korruption glauben maximal drei Viertel der Befragten, dass dieses Phänomen in ihrem Land (eher) selten auftritt. Auch in diesen Ländern führen politische Parteien, Politiker und auch bestimmte Beamtengruppierungen den korrupten Reigen an. Es ist evident, dass hier der Hebel angesetzt werden sollte, dass diese Vertreter und Diener des Volkes Korruption in allen Spielarten aus ihren Reihen verbannen müssten,  um integer ihr Amt ausführen zu können und als Vorbild für "good Practice" zu dienen. Ein unerfüllbarer Wunsch?  Jedenfalls sollten EU-weit  alle Anstrengungen unternommen werden, um möglichst effiziente Strategien zur Prävention, Bekämpfung und auch Sanktionierung von Korruption zu entwickeln.  Zweifellos  handelt es sich hier um eine überaus komplexes System, für das  - ähnlich wie im Klimasystem - an Hand verschiedenster möglicher Szenarien (pathways) durchaus aussagekräftige Modelle gebaut werden können. Die eingangs erwähnten Spieltheoretischen Modelle sind ein Anfang. 


[1] Special Eurobarometer 470 - October 2017 "Corruption" Report. Survey conducted by TNS opinion & social at the request of the European Commission,Directorate-General for Migration and Home Affairs (DG HOME). doi:10.2837/513267

[2] Karl Sigmund: Die Evolution der Kooperation http://scienceblog.at/die-evolution-der-kooperation.

[3] Karl Sigmund: Homo ludens – Spiel und Wissenschaft http://scienceblog.at/homo-ludens-%E2%80%93-spiel-und-wissenschaft (Spieltheorie, eine Theorie der Interessenskonflikte)

[4] Karl Sigmund: Homo ludens – Spieltheorie http://scienceblog.at/homo-ludens-spieltheorie. (Gefangenendilemma. Das Paradoxon: durch Eigennutz schaden wir uns selbst!)

[5] Lee et al., (2015) Games of corruption: How to suppress illegal logging. https://doi.org/10.1016/j.jtbi.2014.10.03


 

Redaktion Thu, 23.05.2019 - 10:50

Zum Einsatz genetisch veränderter Moskitos gegen Malaria

Zum Einsatz genetisch veränderter Moskitos gegen Malaria

Do, 16.05.2019 - 06:48 — Elena Levashina

Elena LevashinaIcon BiologieDas Umweltprogramm der Vereinten Nationen (UNEP) zeigt mit seinem alljährlichen Bericht „Environment Frontiers“ auf, welche Herausforderungen die natürlichen Lebensgrundlagen auf unserem Planeten künftig maßgeblich mitbestimmen werden. Im kürzlich vorgestellten Report 2018/2019 [1] wird fünf neu auftretenden Themen besondere Bedeutung zugemessen. Es sind dies die Synthetische Biologie, die Ökologische Vernetzung, Permafrostmoore im Klimawandel, die Stickstoffkreislaufwirtschaft und Fehlanpassungen an den Klimawandel. In der Synthetischen Biologie, der "Neugestaltung unserer Umwelt" wird das Erbgut von Organismen verändert, sodass für den Menschen nützliche Eigenschaften entstehen. Nach dem Interview zur Freisetzung genetisch veränderter infektiöser Viren in der Vorwoche [2] bezieht nun Prof. Elena Levashina (Forschungsgruppenleiterin am Max-Planck-Institut für Infektionsbiologie) Stellung zur Anwendung solcher Technologien im Kampf gegen Malaria-Erreger.

Wenn sich Gene schneller in einer Population ausbreiten als normal, spricht man von einem sogenannten Gene Drive [3]. Wissenschaftler wollen diesen Mechanismus zur Bekämpfung von Infektionskrankheiten nutzen, indem sie die Überträger von Krankheitserregern, zum Beispiel Moskitos, unfruchtbar machen. Für Elena Levashina vom Max-Planck-Institut für Infektionsbiologie in Berlin könnte die Technik eine wichtiger Bestandteil im Kampf gegen Infektionskrankheiten werden.

H.R.: Kann es Ihrer Meinung nach gelingen, mit Gene Drive Mückenpopulationen auszurotten und damit Infektionskrankheiten zu eliminieren?

E.L.: Der Gene Drive ist ein faszinierender Mechanismus, mit dem wir sehr schnell eine Population verändern können. Es geht aber nicht nur darum Mücken auszurotten. Man könnte die Tiere auch zum Beispiel resistent gegen bestimmte Krankheitserreger machen oder eine Population durch eine andere ersetzen.  Abbildung 1.

Abbildung 1. Die Ägyptische Tigermücke kann verschiedene Krankheiten übertragen, darunter Gelb- und  Dengue-Fieber. Genetisch veränderte Mücken aus dem Labor sollen die wildlebenden Vorkommen dezimieren und so die Infektionsgefahr für den Menschen verringern. ©Science Photo Library / Agentur Focus

Der Gene Drive wird sicherlich nicht das Allheilmittel gegen Infektionskrankheiten sein. Dafür sind die Verhältnisse vor Ort zu unterschiedlich. In Afrika zum Beispiel, wo durch Mücken übertragene Malaria jedes Jahr immer noch unzählige Menschenleben fordert, werden wir verschiedene Maßnahmen kombinieren müssen, um die Krankheit zu besiegen. Der Gene Drive kann hierzu einen wichtigen Beitrag leisten.

H.R.: Was weiß die Wissenschaft über die Auswirkungen des Gene Drive?

E.L.: Auf genetischer Ebene ist der Gene Drive inzwischen recht gut erforscht. Laborergebnisse zeigen, dass sich damit Moskito-Populationen zuverlässig eliminieren lassen.

H.R.: Was ist mit den ökologischen Folgen in der freien Natur?

E.L.: Hier besteht in der Tat noch Forschungsbedarf. Manche Moskito-Arten haben komplexe Populationsstrukturen. Außerdem haben wir es manchmal mit verschiedenen Arten zu tun, die eine Krankheit übertragen können. Was passiert, wenn wir eine dieser Arten ausrotten oder genetisch verändern?

Unsere eigenen Forschungsergebnisse haben beispielsweise gezeigt, dass eine der beiden Malaria-Mücken in Afrika ein Resistenz-Gen gegen die Erreger (das sind einzellige Parasiten - Plasmodien; Anm. Redn.) besitzt. Wenn nun ausgerechnet diese mittels Gene Drive eliminiert wird, kann sich die Art ohne Resistenz möglicherweise ausbreiten. Dies könnte zu höheren Infektionsraten führen als zuvor (siehe: Weiterführende Links).

Bei anderen Mückenarten wie den Überträgern des Zika-Virus sind die Verhältnisse einfacher. Deshalb werden hier schon Freilandstudien durchgeführt.

In jedem Fall müssen die möglichen Folgen genau überprüft und Vor- und Nachteile gegeneinander abgewogen werden, bevor genetisch veränderte Moskitos in die Umwelt entlassen werden.

Und natürlich muss die Bevölkerung vor Ort in solche Entscheidungen mit einbezogen werden. Das Gespräch hat Dr.Harald Rösch (Redaktion MaxPlanckForschung) geführt.


[1] UN Environment: Frontiers 2018/19: Emerging Issues of Environmental Concern (04.03.2019) https://www.unenvironment.org/resources/frontiers-201819-emerging-issues-environmental-concern

[2] Guy Reeves, 9.5.2019: Zur Freisetzung genetisch veränderter Organismen in die Natur. http://scienceblog.at/freisetzung-genetisch-ver%C3%A4nderter-organismen

[3] Video, Akademie der Naturwissenschaften, Schweiz: Gene Drives - Wundermittel? Biowaffe? Hype? (Fast Forward Science 2018). 6:19 min. (Quelle: https://naturwissenschaften.ch/topics/synbio/applications/gene_drive) https://www.youtube.com/watch?time_continue=3&v=ezR3CzOi8j8


*Das Interview mit Elena Levashina zum Einsatz genetisch veränderter Moskitos gegen Malaria ist unter der Headline " „Ein Maßnahmenbündel gegen Infektionskrankheiten“ am 18.April 2019 auf der News-Seite der Max-Planck-Gesellschaft erschienen (https://www.mpg.de/13364284/earth-day-2019-levashina?c=13363910) und wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Einige Links wurden von der Redaktion eingefügt.


Weiterführende Links

Max-Planck-Institut für Infektionsbiologie. http://www.mpiib-berlin.mpg.de/

Vector Biology (Leitung: Elena Levashina). http://www.mpiib-berlin.mpg.de/research/vector_biology

Malaria: Auf die Mücke kommt es an. http://www.mpiib-berlin.mpg.de/1872316/malaria-it-s-all-about-the-mosquito

Ein bewegliches Ziel. Interview mit Elena Levashina zum Stand der Malariaforschung, 24. April 2019. https://www.mpg.de/newsroom/Infektionsbiologie/de

Ein Stich gegen Malaria. https://www.mpg.de/4327238/W001_Biologie-Medizin_056-063.pdf

Kampf gegen Malaria: Können wir gewinnen? | Projekt Zukunft.(2015) Video 3:47 min. Ein Gepsräch über die Seuche Malaria und die Schwierigkeiten, einen Impfstoff dagegen zu entwickeln. Dr. Kai Matuschewski ist Forscher am Max-Planck-Institut für Infektionsbiologie Berlin. https://www.youtube.com/watch?v=qim6d-OMSsA

WHO: World malaria report 2018. https://www.who.int/malaria/publications/world-malaria-report-2018/report/en/

Artikel im ScienceBlog

Bill and Melinda Gates Foundation, 02.05.2014: Der Kampf gegen Malaria. http://scienceblog.at/der-kampf-gegen-malaria.

Redaktion, 09.10.2015: Naturstoffe, die unsere Welt verändert haben – Nobelpreis 2015 für Medizin. http://scienceblog.at/nobelpreis-2015-medizin.

Peter Seeberger, 16.05.2014: Rezept für neue Medikamente http://scienceblog.at/rezept-fuer-neue-medikamente


 

Redaktion Thu, 16.05.2019 - 06:02

Zur Freisetzung genetisch veränderter Organismen in die Natur

Zur Freisetzung genetisch veränderter Organismen in die Natur

Do, 09.05.2019 - 05:48 — Guy Reeves

Guy ReevesIcon Politik und GesellschaftDas Umweltprogramm der Vereinten Nationen (UNEP) zeigt mit seinem alljährlichen Bericht „Environment Frontiers“ Herausforderungen auf, welche die natürlichen Lebensgrundlagen auf unserem Planeten künftig maßgeblich mitbestimmen werden. Im kürzlich vorgestellten Report 2018/2019 [1] wird fünf neu auftretenden Themen besondere Bedeutung zugemessen. Es sind dies die Synthetische Biologie, die Ökologische Vernetzung , Permafrostmoore im Klimawandel, die Stickstoffkreislaufwirtschaft und Fehlanpassungen an den Klimawandel. Auf diesen Gebieten arbeitende Max-Planck-Forscher beziehen dazu Stellung. Am Beginn steht die "Synthetische Biologie", in welcher das Erbgut von Organismen so verändert wird, dass für den Menschen nützliche Eigenschaften entstehen. Im folgenden Interview sieht Dr.Guy Reeves (Max-Planck-Institut für Evolutionsbiologie in Plön) vor allem die Freisetzung genetisch veränderter infektiöser Viren mit Sorge.*

Dank neuer Techniken wie der Genschere Crispr/Cas9 [2] und des sogenannten Gene Drive [3] können Forscher das Erbgut sehr viel schneller verändern und diese Veränderungen in kurzer Zeit selbst in großen Populationen verbreiten. Im Labor werden genetisch veränderte Organismen schon seit einiger Zeit erfolgreich eingesetzt, zum Beispiel in der Grundlagenforschung oder in der Produktion von Medikamenten. Nun sollen genetisch veränderte Organismen auch in die Natur entlassen werden.

H.R.: Wie beurteilen Sie die verschiedenen Projekte, bei denen Wissenschaftler oder Unternehmen genetisch veränderte Organismen freisetzen möchten?

G.R.: Was mich besonders besorgt, ist die Freisetzung infektiöser gentechnisch veränderter Viren, die zur Manipulation des Immunsystems von Säugetieren entwickelt wurden. Gentechnisch veränderte Viren dieser Art wurden bereits entwickelt, um Säugetiere immun gegen Krankheiten zu machen oder zu sterilisieren. Ein gentechnisch verändertes Virus, das sich in Wildkaninchenpopulationen ausbreitet, um dann gegen zwei Krankheiten immun zu machen, wurde im Jahr 2000 auf den spanischen Balearen getestet. Ein weiteres Virus, das dazu bestimmt ist, Mäuse zu sterilisieren, soll seit 2003 für Feldversuche in Australien bereit sein.

Ein weiteres Beispiel ist ein Forschungsprogramm, das derzeit bei der Forschungsagentur DARPA (Defense Advanced Research Projects Agency) des US-Verteidigungsministeriums läuft, in dem Insekten zur Übertragung gentechnisch veränderter Viren auf Mais- und Tomatenpflanzen eingesetzt werden. Derzeit finden die Experimente noch in sicheren Gewächshäusern statt.

Während Viren Patienten in Krankenhäusern und Wissenschaftlern im Labor bereits sehr geholfen haben, erfordern Techniken, die genetisch veränderte Viren absichtlich in die Umwelt entlassen, eine sehr sorgfältige Prüfung. Obwohl diese Technologien schon weit gediehen sind, stehen wir bei ihrer Prüfung immer noch ganz am Anfang.

Abbildung 1. Forschungsprogramm mit Potenzial für militärischen Einsatz: Wissenschaftler befürchten, dass das US-amerikanische Programm andere Länder dazu verleiten könnte, selbst Biowaffen zu entwickeln. © MPG/ D. Duneka

H.R. Warum sind Viren denn so problematisch?

G.R.: Kaum ein anderes biologisches System kann sich so schnell auf eine komplette Population auswirken – nämlich schon innerhalb einer einzigen Generation. Im Vergleich dazu ist der zurzeit viel diskutierte „Gene Drive“ eine Schnecke. Hinzu kommt, dass das Wirtsspektrum eines Virus sehr breit sein kann. Es lässt sich also mitunter nur schwer vorhersagen, welche Arten ein Virus infizieren kann.

H.R:. Lehnen Sie die Freisetzung genetisch veränderter Organismen in jedem Fall ab, wenn es sich nicht um landwirtschaftliche Nutzpflanzen handelt?

G.R.: Nein, überhaupt nicht. Es geht nicht darum, neue Technologien zu verhindern. Wir müssen jedoch vorsichtig sein und den potenziellen Nutzen gegen die Risiken abwägen. Deshalb sollte besonders die Freisetzung infektiöser genetisch veränderter Organismen nur nach sorgfältiger Prüfung erfolgen. Zudem halte ich es in den meisten Fällen nicht für sinnvoll, Viren mit schwer kontrollierbaren Risiken einzusetzen, wenn es alternative Techniken gibt, mit denen man die gleichen Ziele erreichen kann.

H.R.: Sie haben den sogenannten „Gene Drive“ schon angesprochen. Damit kann man erreichen, dass sich ein Gen viel schneller in einer Population ausbreitet als normal. Ein Gen für Unfruchtbarkeit soll so innerhalb kurzer Zeit Moskitos ausrotten und so die Übertragung von Malaria verhindern. Was ist denn falsch daran, Mücken auszurotten?

G.R.: Gene Drive ist wie gesagt gar nicht so schnell, wie viele Menschen glauben. Selbst bei einem Tier mit einer so kurzen Generationszeit wie einer Mücke würde es selbst unter idealen Bedingungen möglicherweise acht Jahre oder länger dauern, bis eine Population durch Gene Drive fortpflanzungsunfähig werden würde. Außerdem haben wir durch unsere Erfahrungen mit Insektenvernichtungsmitteln gelernt, wie schnell sich Insekten anpassen können, wenn der Selektionsdruck nur hoch genug ist. Und eine Resistenz gegen ein Unfruchtbarkeitsgen ist wie ein Sechser im Lotto.

Ich bin sicher, dass sich große Insekten-Populationen an solch einen Gene Drive anpassen und ihn ausschalten werden. Die Moskitos werden sich so folglich auf diese Weise sehr wahrscheinlich nicht ausrotten lassen.

H.R.: Reichen die derzeitigen Gesetze aus, mit denen solche Versuche geregelt sind?

G.R.; Die Herausforderung, vor der die Regulierungsbehörden stehen, ist gewaltig. Sie müssen ungeheuer komplexe mathematische Modelle berücksichtigen – eine Aufgabe, die schon für gut ausgestattete Behörden in Industriestaaten schwierig zu bewältigen ist. Viele der angedachten Projekte werden aber Schwellenländer betreffen, die dafür überhaupt nicht gerüstet sind. Und natürlich halten sich Viren und Insekten nicht an Ländergrenzen.

Das Gespräch hat Dr. Harald Rösch (Redaktion MaxPlanckForschung) geführt.


[1] UN Environment: Frontiers 2018/19: Emerging Issues of Environmental Concern (04.03.2019)
https://www.unenvironment.org/resources/frontiers-201819-emerging-issues-environmental-concern

[2] Video, MaxPlanckSociety (2016): Gen-editing mit CRISPR/Cas9. 3:13 min.
https://www.youtube.com/watch?v=ouXrsr7U8WI&t=33s

[3] Video, Akademie der Naturwissenschaften, Schweiz: Gene Drives - Wundermittel? Biowaffe? Hype? (Fast Forward Science 2018). 6:19 min. (Quelle: https://naturwissenschaften.ch/topics/synbio/applications/gene_drive)
https://www.youtube.com/watch?time_continue=3&v=ezR3CzOi8j8


*Das Interview mit Guy Reeves zur Freisetzung genetisch veränderter Organismen in die Natur ist unter der Headline " Earth Day 2019: „Viren können eine gesamte Population in kurzer Zeit verändern“ am 18.April 2019 auf der News-Seite der Max-Planck-Gesellschaft erschienen (https://www.mpg.de/13363910/earth-day-2019-reeves?c=2191) und wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Einige Links wurden von der Redaktion eingefügt.


Weiterführende Links

Max-Planck-Institut für Evolutionsbiologie. https://www.evolbio.mpg.de/

Homepage von Guy Reeves

Ein Schritt zur biologischen Kriegsführung mit Insekten?
https://www.mpg.de/12316482/darpa-insect-ally

Artikel im ScienceBlog

Dem Themenkreis ist ein Schwerpunkt: Synthetische Biologie — Leitwissenschaft des 21. Jahrhunderts gewidmet , der bereits mehr als 20 Artkiel enthält.
http://scienceblog.at/synthetische-biologie-%E2%80%94-leitwissenschaft-des-21-jahrhunderts


 

Redaktion Wed, 08.05.2019 - 21:26

Was die EU-Bürger von Impfungen halten - aktuelle europaweite Umfrage (Eurobarometer 488)

Was die EU-Bürger von Impfungen halten - aktuelle europaweite Umfrage (Eurobarometer 488)

Do, 02.05.2019 - 10:48 — Inge Schuster

vIcon Politik und GesellschaftImpfungen sind der beste Weg um sich selbst und andere gegen schwere Infektionskrankheiten zu schützen, die auch in Europa noch zu Ausbrüchen führen können und Todesopfer fordern. Eine von der Europäischen Kommission in Auftrag gegebene Umfrage hat in den letzten Märzwochen 2019 Einstellung und Wissen der EU-Bürger zu Impfungen erhoben. Die nun, knapp vier Wochen später, vorgestellten Ergebnisse [1] geben im Mittel eine durchaus positive Haltung der EU-Bürger zu Impfungen wieder, allerdings gibt es starke regionale und soziodemographische Unterschiede hinsichtlich des Wissenstands über Impfungen, der Falschmeinungen und damit in Zusammenhang der Durchimpfungsrate. Auch in Österreich sollte man danach trachten die Wissenslücken zu füllen und falsche Informationen zu korrigieren.

Impfungen bieten den besten Schutz vor schweren, lebensbedrohenden Infektionskrankheiten. Gesamt betrachtet ist in der EU die Durchimpfungsrate erfreulich hoch; allerdings gibt es Regionen mit unzureichendem Impfschutz -einerseits auf Grund eines ungleichen, schwierigeren Zugangs zu Impfstoffen, andererseits bedingt durch wachsende Skepsis hinsichtlich der Wirksamkeit und Sicherheit der Impfungen. So kommt es zu Ausbrüchen von Krankheiten, die durch Impfungen vermieden werden könnten.

Vermeidbare Tragödien

Aktuell macht der starke Anstieg der hochansteckenden Masern Schlagzeilen, einer Viruserkrankung, die zu schwersten bleibenden Schäden bis hin zu Todesfolgen führen kann. Laut WHO starben im Jahr 2017 weltweit etwa 110 000 Personen an Masern; vorläufige Daten zum ersten Quartal 2019 nennen bereits mehr als 112 000 Infektionen in 170 Ländern [2], die Dunkelziffer dürfte beträchtlich höher sein. In der Europäischen Region erkrankten im vergangenen Jahr rund 83 000 Menschen an Masern (3 mal so viele wie 2017) und 72 Kinder und Erwachsene starben. Dabei wiesen Nachbarstaaten der EU wie die Ukraine (über 72 000 Fälle), Albanien und Serbien aber auch EU-Länder wie die Slowakei und Griechenland hohe Inzidenzen auf (Daten 03.2018 - 01.2019; [3]).

Vermeidbar ist auch bakteriell verursachte Meningitis. Im Jahr 2016 gab es in 30 europäischen Ländern 3280 Fälle, davon 304 mit Todesfolgen. Durch Impfung vermeidbar sind auch Infektionen mit dem Hepatitis B Virus, von denen rund 4,7 Millionen Menschen im Europäischen Raum betroffen sind und an denen mehr Menschen sterben als an HIV/AIDS und Tuberkulose zusammengenommen [1].Vermeidbar wären 2017 auch 89 Tetanus-Fälle gewesen, die in 14 Fällen letal ausgingen [1].

Ein enormes Problem für das Gesundheitssystem stellen Influenzaepidemien dar. Allein in Österreich geht man (nach dem FluMOMO-Modell) von jährlich mehreren 100 bis mehreren Tausend durch Virusgrippe ausgelösten Todesfällen aus (Grippesaison 2016/17: 4454 Fälle, Saison 2017/18: 2868 Fälle, 2018/19: 616 Fälle [4]). Auch, wenn die aktuellen Impfstoffe noch Mängel aufweisen, bieten sie derzeit dennoch die wirksamste Möglichkeit der Influenza vorzubeugen.

Während die Impfpolitik in die Zuständigkeit der nationalen Behörden fällt, unterstützt die Europäische Kommission die Länder bei der Koordinierung ihrer Strategien zur Erhöhung und Überprüfung der Durchimpfungsraten. In Hinblick auf Impfstoffe will die EU i) den Zugang zu diesen für alle sicherstellen, ii) alle Impfstoffe kontrollieren, um höchste Sicherheitsstandards zu garantieren, iii) übersichtliche, unabhängige und transparente Informationen vermitteln und iv) die Forschung zur Entwicklung neuer Impfstoffe intensivieren.

Um die Einstellung der EU-Bürger zu Impfungen, ihr Wissen über Impfungen und Gründe für ihre Impfskepsis kennenzulernen, hat die Kommission eine EU-weite Umfrage in Auftrag gegeben, deren Ergebnisse nun in Form des Eurobarometer 488 Reports vorliegen [1].

Die EU-weite Umfrage…

Die Umfrage wurde in den 28 EU-Ländern durch das Kantar Netzwerk im Zeitraum 15. bis 29. März 2019 durchgeführt. In jedem Mitgliedsstaat wurden dabei jeweils rund 1000 aus verschiedenen sozialen und demographischen Gruppen stammende Personen im Alter über 15 Jahren in ihrem Heim und in ihrer Muttersprache interviewt - insgesamt waren es 27.524 Personen. In diesen persönlichen Interviews wurden die Personen in allen Ländern in der gleichen Weise zu folgenden Themenkreisen befragt:

  • zu ihrer Einschätzung der Vermeidbarkeit von Krankheiten durch Impfungen und zu deren Wirksamkeit
  • zu ihren Erfahrungen mit Impfungen (Gründe für Zustimmung/Ablehnung)
  • zum Wissensstand über die Wirkungen von Impfungen
  • zur ihrer Einstellung bezüglich der Wichtigkeit von Impfungen
  • woher sie Informationen über Impfungen beziehen und wieweit sie diesen vertrauen.

…und ihre Ergebnisse [1]

Vermeidbarkeit von Krankheiten durch Impfungen und deren Wirksamkeit

Eingangs wurde eine Liste von Krankheiten gezeigt - Influenza, Meningitis, Hepatitis, Masern, Tetanus, Polio - und gefragt, welche davon in der EU heute noch Todesopfer fordern (siehe dazu oben: Vermeidbare Katastrophen). In dieser Bewertung gab es große regionale Unterschiede; im EU28-Mittel führte Influenza (56 %) und Meningitis (53 %) die Rangliste an, wesentlich weniger nannten Hepatitis (40 %), Masern (37 %) und Tetanus (22 %). Vergleichbare Bewertungen kamen auch aus Österreich.

Die zweite Frage lautete: "Alle in Frage 1 genannten Krankheiten sind Infektionskrankheiten, die verhindert werden können. Halten Sie hier Impfungen für wirksam?"

Hier war in allen Ländern die überwiegende Mehrheit der Befragten der Ansicht, dass Impfungen definitiv (im EU28-Mittel 52 % ) oder zumindest wahrscheinlich (im EU28-Mittel 33 % ) ein wirksames Mittel sind, um ansteckende Krankheiten zu vermeiden. Besonders hohes Vertrauen in die definitive Wirksamkeit von Impfungen (bis zu 81 %) gibt es in den nördlichen Ländern (NL, FI, SE, DK), am unteren Ende der Skala stehen Rumänien, Bulgarien, Lettland und (leider auch) Österreich. Abbildung 1.

Abbildung 1. Die überwiegende Mehrheit (m EU28-Mittel 85 % ) der Befragten ist der Ansicht, dass Impfungen definitiv oder wahrscheinlich ein wirksames Mittel sind, um ansteckende Krankheiten zu vermeiden (Zahl der Befragten: 27 524)

Die Einschätzung der Wirksamkeit geht dabei parallel mit dem Wissenstand über Impfstoffe, dem Bildungsgrad und dem sozialen Status der Befragten.

Zur Erfahrung mit Impfungen

Auf die Frage ob sie selbst oder Familienmitglieder in den letzten 5 Jahren geimpft worden wären, antworteten im Mittel 45 % der EU-Bürger, dass sie selbst geimpft worden wären, 27 %, gaben ihre Kinder an und 20 % andere Familienmitglieder. Wie bereits bei der Frage nach der Wirksamkeit von Vakzinen gibt es ein starkes West-Ost-Gefällemit einer besonders niedrigen Impfrate in den ehemaligen Ostblockländern Bulgarien, Kroatien, Polen, Ungarn und Rumänien. Österreich liegt im Mittelfeld. Abbildung 2.

Abbildung 2. Frage 3: Haben Sie in den letzten 5 Jahre eine Impfung erhalten? (Zahl der Befragten: 27 524)

Einen Impfpass besitzen im EU28-Mittel 47 % der Befragten (AT: 69%)

Diejenigen, die geimpft worden waren, nannten als Grund für die Impfung vor allem die Empfehlung durch medizinisches Fachpersonal , insbesondere durch den Hausarzt aber auch durch Gesundheitsbehörden (in Österreich trifft beides auf 92 % der Geimpften zu).

Wird eine höhere Durchimpfungsrate angestrebt, ist es besonders wichtig zu erfahren, warum sich Menschen nicht impfen ließen. Hier standen eine Reihe von Begründungen zur Auswahl (Abbildung 3): Von den EU-weit insgesamt 15 156 Befragten wurde am häufigsten genannt, dass man keine Notwendigkeit zur Impfung sehe und dass noch von früheren Impfungen Schutz bestehe. Dazu kommen Ausreden (der Doktor hat keine Impfung empfohlen), Falschmeinungen (Impfungen sind nur etwas für Kinder) und Furcht vor Nebenwirkungen. Auch Kosten und "Strapazen" haben Personen vom Impfen abgehalten Für die Befragten aus Österreich besteht offensichtlich Bedarf für mehr Information durch den Hausarzt und Gesundheitsinstitutionen.

Abbildung 3. Frage 4: Warum haben Sie sich in den letzten 5 Jahren nicht impfen lassen? (EU28-Mittel basiert auf 15156 Interviews, Österreich auf 513 Interviews)

Zum Wissensstand über Impfungen

Frage 7.4.: Werden Impfstoffe rigoros getestet bevor sie die Zulassung erhalten? Die EU-Bürger sind sich da weitgehend sicher: Im Mittel bejahen dies 80 % der EU-Bürger; die geringsten Zweifel daran haben Staaten im Nordwesten (88 - 93 % Zustimmung), am unsichersten sind Staaten wie Bulgarien, Rumänien, Lettland.

Frage 7.1.: Überlasten und schwächen Vakzinen das Immunsystem? Hier herrscht ein Falschmeinung vor.  Dass dies nicht der Fall ist, wissen im EU28-Mittel nur 55 % der Befragten; in den nördlichen Staaten (NL, SE, DK. FI) geben 70 - 79 % die richtige Antwort, in Staaten wie Bulgarien, Lettland, Tschechien, Slowenien sind es unter 40 %.

Frage 7.2.: Können Vakzinen die Krankheit hervorrufen, gegen die sie schützen? Auch dies ist eine Falschmeinung. Dies wissen im Mittel nur 49 % der EU-Bürger. Wieder ist der Wissenstand in Ländern wie Schweden (61 %) und Holland (57 %) am höchsten, in Ländern wie Slowenien (39 %) oder Bulgarien (37 %) am niedrigsten.

Frage 7.3.: Lösen Vakzinen häufig schwere Nebenwirkungen aus?  Dies ist nicht der Fall - im Mittel sind es aber nur 41 % der Befragten, die die richtige Antwort geben (Abbildung 4). In nur 4 Ländern - wiederum sind es Schweden, Holland, Dänemark und Finnland - wissen das mehr als 50 % der Bürger (auch hier sind also Wissenslücken).

Abbildung 4. Eine Mehrheit der EU-Bürger befürchtet fälschlicherweise schwere Nebenwirkungen durch Impfstoffe. (Zahl der Befragten: 27 524)

Zur Einstellung bezüglich der Wichtigkeit von Impfungen

Dass Impfungen wichtig sind, um sich selbst und andere zu schützen, bejahen im Schnitt 86 % der EU-Bürger. In Österreich und Rumänien findet sich die niedrigste Zustimmung mit immerhin auch noch 75 %. Dass die Impfung anderer - der Herdenschutz - von entscheidender Bedeutung für Menschen ist, die selbst nicht geimpft werden können - beispielsweise neugeborene Babys, immungeschwächte oder schwerkranke Personen - wird ebenfalls von der überwiegenden Mehrheit der Europäer (87 %) bejaht. Auch dazu finden sich die meisten negativen/neutralen Stimmen in Österreich und Rumänien.

Ein wesentliches Missverständnis liegt in der Ansicht vor, dass Impfungen nur für Kinder wichtig sind. Dem stimmen aber in einigen Ländern (BG, HR, HU, IT, RO, PL) zwischen 42 und 52 % der Befragten völlig oder eher zu, dagegen nur 9 - 14 % in den skandinavischen Ländern.

Woher EU-Bürger Informationen über Impfungen beziehen

In einer Zeit, in der die sozialen Netzwerke boomen, sind die Ergebnisse überraschend . Abbildung 5. Die überwiegende Mehrheit der EU-Bürger (79 %) wendet sich auch heute primär vertrauensvoll an den Hausarzt oder den Kinderarzt, dann an anderes medizinisches Fachpersonal (29 %), an Gesundheitsbehörden (25 %) und an den Apotheker (20). Information aus dem Internet spielt nur in den skandinavischen Ländern eine größere Rolle, soziale Netzwerke werden offensichtlich nicht sehr bemüht.

Auf die Frage, ob sie im letzten Halbjahr irgendeine Information über Impfungen aus den Medien gesehen oder gehört hätten, nannten im Mittel 51 % der Befragten das TV, wesentlich weniger Personen - und dies sehr stark länderabhängig - gaben Zeitungen und Journale (17 %) und Radio (14 %) an, 10 resp. 12 % soziale Netzwerke und Internet. Insgesamt 34 % erklärten nichts gesehen oder gehört zu haben.

Abbildung 5. Information über Impfungen: "Frag' den Arzt oder Apotheker"

Schlussfolgerungen

Die erste Umfrage zur Einstellung der Europäer zu Impfungen brachte teils erfreuliche teils beunruhigende Ergebnisse.

Erfreulich ist, dass die überwiegende Mehrheit der Europäer Impfungen für wirksam und notwendig erachtet um sich und andere vor schweren ansteckenden Krankheiten zu schützen. Die EU-Bürger sind auch von der Qualität der Impfstoffe überzeugt, da diese strengste Prüfungen erfolgreich durchlaufen müssen, bevor sie die Zulassung erhalten und angewendet werden können. Auch die Qualität der Informationen über Impfungen ist gut: Man wendet sie sich vertrauensvoll an Personen mit einschlägiger Expertise: den Arzt, medizinisches Fachpersonal, Gesundheitsbehörden und Apotheker.

Beunruhigend ist aber, dass viele Europäer falsche Vorstellungen von Wirkung und Nebenwirkungen von Impfstoffen haben, dass sie meinen, diese hätten häufig schwere Nebenwirkungen und lösten die Krankheiten aus, vor denen sie schützen sollten. Derartige Meinungen führen zu Impfskepsis und einer unzureichenden Durchimpfungsrate, die Ausbrüche und Epidemien von Infektionen ermöglicht. Besonders beunruhigend ist dabei ein massiver Nordwest - Ost-Trend: eine Zunahme der Impfskepsis bei gleichzeitiger Abnahme des Wissenstands.

Das Füllen von Wissenslücken und Korrigieren von falschen Informationen muss daher zur vordringlichen Aufgabe in ganz Europa, insbesondere in den östlichen Regionen werden.


[1] Special Eurobarometer 488: Europeans’ attitudes towards vaccination. http://ec.europa.eu/commfrontoffice/publicopinion/index.cfm/Survey/getSurveyDetail/instruments/SPECIAL/surveyKy/2223

[2] WHO: New measles surveillance data for 2019. https://www.who.int/immunization/newsroom/measles-data-2019/en/

[3] Measles Updates including 2019. https://www.slideshare.net/who_europe/measles-and-rubella-monthly-update-for-the-who-european-region-140574101?next_slideshow=1

[4] Grippe - Mortalität: https://www.ages.at/themen/krankheitserreger/grippe/


Weiterführende Links

Im ScienceBlog gibt es bereits mehr als 25 Artikel über Infektionskrankheiten; diese stammen von verschiedenen Autoren und geben einen breiten Überblick über das Gebiet. Titel und Links zu diesen Artikeln finden sich in den Themenschwerpunkten Mikroorganismen und in Pharmazeutische Wissenschaften unter Infektionen


 

Redaktion Thu, 02.05.2019 - 09:10

Big Data in der Biologie - die Herausforderungen

Big Data in der Biologie - die Herausforderungen

Do, 25.04.2019 - 12:03 — Redaktion

vIcon MINTMit Hilfe neuester Technologien ist es möglich geworden biologische Vorgänge in Zellen, Organen und Organismen experimentell im Detail zu erfassen. Daraus resultieren immer größer werdende Datensätze - Big Data. Deren Verfügbarkeit und Nutzbarmachung kann viele Disziplinen der Lebenswissenschaften umgestalten und neue Wege der Forschung eröffnen. Big Data werfen aber auch grundlegende, wissenschaftstheoretische Fragen auf: Was ist beispielsweise ein guter Datensatz, und wie kann aus Big Data verlässliches Wissen extrahiert werden? Um solche und andere Fragen zu beantworten, bedarf es einer Kooperation zwischen Biologen, Datenwissenschaftlern und Wissenschaftstheoretikern.*

Bereits seit langem sind die Lebenswissenschaften mit großen Datenmengen umgegangen; die neuen experimentellen Möglichkeiten haben nun aber die Datenmengen, die gespeichert und analysiert werden müssen, enorm gesteigert. Zwar hat sich auch die den Forschern zur Verfügung stehende Rechnerleistung mit der Zeit verbessert, doch Menge und Heterogenität der Daten schlagen üblicherweise mehr zu Buche als vorhandene Strategien und Mittel zur Datenerhebung und - Analyse. Abbildung 1.

Abbildung 1. Das Wachstum von Datenmengen zu Big Data . Diese sind charakterisiert durch das Daten-Volumen (die Menge an erzeugten und gespeicherten Messdaten), die Varietät der Daten und die Geschwindigkeit ihrer Generierung und Prozessierung (Bild von Redn. eingefügt. Quelle: Wikipedia;Ender005 CC BY-SA 4.0)

Das derzeit nutzbare Datenvolumen, insbesondere in den Bereichen "Omics" (Genomis, Proteomics, etc., Anm. Redn.) wirft zudem grundlegende Fragen zum Forschungsprozess auf, etwa welche Rolle hier die Theorie spielt, welche Bedeutung Zusammenhängen beigemessen wird und welchen Zweck das Know-how bei der Interpretation der Daten hat.

Beispielsweise gibt es eine breite Debatte darüber, in welchem Umfang Wissenschaftler mit den Protokollen und Instrumenten vertraut sein müssen, die zur Generierung der Daten verwendet werden, und auch mit der relevanten Biologie von untersuchten Organismen, um Daten interpretieren zu können. Ebenfalls umstritten ist das Ausmaß, in dem Algorithmen kausale Zusammenhänge in Daten zuverlässig identifizieren können: entdeckt man, dass ein bestimmter Genpfad häufig mit einem bestimmten phänotypischen Merkmal verbunden ist, bedeutet das noch lange nicht nicht, dass man versteht warum dies der Fall ist und ob das Gen kausal den Phänotyp verursacht.

Es gibt viele andere Fragen, die für Wissenschaftstheoretiker von Interesse sind:

  • Verlässt man sich auf Big Data, wie ändert dies die gesamte Idee der biologischen Entdeckung und was zählt dann als biologisches Wissen?
  • Welche Rolle spielen Theorien in der datenintensiven Forschung und in welcher Relation steht Big Data-Biologie zu Hypothesen gesteuerter Forschung, die beobachtet und untersucht?
  • Wie beeinflusst die automatisierte Datenanalyse die Zuverlässigkeit der Ergebnisse?
  • Was ist der Unterschied zwischen Daten und statistischem Rauschen und was sind Daten überhaupt?

Biologen denken vielleicht, dass solche Fragen zwar interessant und wichtig sind, mit ihrem Arbeitsalltag aber kaum zu tun haben, für diesen wohl irrelevant sind.

Der folgende Text möchte dieser Ansicht entgegenwirken und einige der wichtigsten Herausforderungen in der Verwendung von Big Data in der Biologie herausstreichen.

Big Data-Biologie trifft auf biologischen Pluralismus

Die Biologie ist bekanntermaßen nach ihren Methoden, Instrumentarium, Konzepten und Zielen in Bereiche unterteilt. Selbst innerhalb ein und desselben Teilbereichs widersprechen sich aber unterschiedliche Arbeitsgruppen häufig hinsichtlich der bevorzugten Terminologie, der Modellorganismen und der experimentellen Methoden und Protokolle. Folglich kann sich ein Begriff auf verschiedene Vorgänge beziehen, aber es können auch unterschiedliche Definitionen für denselben Begriff gelten. Diese tiefgreifende Fragmentierung, die Philosophen als Pluralismus bezeichnen, spiegelt sich in den zahlreichen und Bereichs-spezifischen Standards wider, mit denen Daten generiert, gespeichert, gemeinsam genutzt und analysiert werden.

Wege zur Bekämpfung des Pluralismus zu finden, ist eine der größten Herausforderungen für die Big Data-Biologie.

Man kann diese Schwierigkeiten leicht als rein technische Fragen abtun, die man überwinden kann, indem man beispielsweise kompatible Datenbanken und Dateiformate verwendet, um Daten aus unterschiedlichen Quellen zu integrieren, sodass sie bei einer Vielzahl von Forschungskontexten verwendet und wiederverwendet werden können.

Es gibt jedoch tiefere konzeptionelle und philosophische Schwierigkeiten.

Zugriff auf Big Data

Auf Datenbanken muss über ein gemeinsames Abfragesystem zugegriffen werden. Dies wirft die Frage auf, welche Terminologien verwendet werden sollten, um die Daten zu klassifizieren und mit anderen Daten zu integrieren. Welche Auswirkungen hat eine solche Auswahl? Der beträchtliche Arbeitsaufwand bei der Entwicklung verlässlicher Abfragesysteme für biologische Datenbanken spricht für die Schwierigkeit dieser Aufgabe: Diese Schwierigkeit zeigt sich auch in den lebhaften Debatten über die Definitionen von Begriffen wie "Pathogen" und "Metabolismus" in der Gene Ontology - Datenbank (http://geneontology.org/; The Gene Ontology Consortium, 2019).

Die Auswirkungen auf die Big-Data-Biologie sind erheblich. Das computergestützte Data-Mining (Datenschürfen) von Big Data ist keineswegs „das Ende der Theorie“, sondern beinhaltet erhebliche theoretische Zugeständnisse. Die Auswahl und Definition von Schlüsselwörtern, die zum Klassifizieren und Abrufen von Daten verwendet werden, sind für die nachfolgende Interpretation enorm wichtig. Das Verknüpfen verschiedener Datensätze bedeutet, über die Konzepte zu entscheiden, durch welche die Natur am besten dargestellt und untersucht wird. Mit anderen Worten, die Netzwerke der Konzepte, die mit Daten in Infrastrukturen von Big-Data-verbunden sind, sollten als Theorien betrachtet werden: als Sichtweisen auf die biologische Welt, die wissenschaftliches Denken und Forschungsrichtungen leiten, die aber häufig überarbeitet werden, um neue Entdeckungen zu berücksichtigen. Die Suche nach Datenintegration im großen Maßstab macht es für alle biologischen Disziplinen erforderlich, solche Theorien zu identifizieren und deren Auswirkungen für die Modellierung und Analyse von Big Data zu diskutieren.

Klassifizierungen und Terminologien

Philosophen haben lange die theoretische Bedeutung von Praktiken zu Klassifizierungen und Bezeichnungen in der Biologie diskutiert - oft in Zusammenarbeit mit Taxonomen und gelegentlich mit Molekular- und Entwicklungsbiologen. Beispielsweise haben Forscher dem Konzept des Gens mehrfache Bedeutungen zugeschrieben; Philosophen haben es als Teil einer umfassenderen Untersuchung der geistigen Grundlagen und Auswirkungen des "molekularen Zugs" definiert, der die letzten 50 Jahre der biologischen Forschung dominiert hat.

Diese Studien zeigten, dass biologische Konzepte - egal wie beiläufig sie auch definiert werden - immer in breitere theoretische Vorstellungen eingebettet sind, wie die Natur arbeitet.

Dies bedeutet nicht, dass die Big-Data-Biologie vollständig durch bereits bestehende Hypothesen bestimmt wird. Sie greift vielmehr auf aktuelle Theorien und Hypothesen zurück, lässt diese jedoch keine Forschungsergebnisse vorgeben. Es ist auch wichtig zu beachten, dass Beobachtungen und Messungen unabhängig von der verwendeten Methode immer in einem bestimmten Rahmen liegen. Unabhängig davon, wie standardisiert wird, werden die zur Erstellung dieser Daten verwendeten Instrumente so gebaut, dass sie bestimmten Forschungsprogrammen entsprechen. Dies bedeutet also: wir müssen akzeptieren, dass keine Daten als „roh“ anzusehen sind, d.i. unbeeinflusst von menschlicher Interpretation.

Darüber hinaus können Daten unterschiedlich verarbeitet werden. Es ist daher wichtig, die konzeptionellen Entscheidungen zu verstehen, welche die Generierung und Klassifizierung von Daten geprägt haben. Forscher, die Big Data verwenden, müssen erkennen, dass die theoretischen Strukturen, welche die Produktion und Verarbeitung der Daten beeinflusst haben, ihre zukünftige Verwendung beeinflussen werden.

Man könnte fragen, ob Pluralismus ein Hindernis für die Integration von Daten aus verschiedenen Quellen und für die Gewinnung verlässlichen und genauen Wissens aus diesen Daten darstellt. Wissenschaftstheoretiker haben argumentiert, dass Pluralismus tatsächlich von Vorteil sein kann, wenn versucht wird Wissen über die hochkomplexen und variablen Prozesse in den Lebenswissenschaften zu gewinnen. Divergierende Traditionen der Forschung entstehen durch jahrhundertelange Feinjustierung von Instrumenten, um einen bestimmten Prozess oder eine bestimmte Spezies so detailliert wie möglich untersuchen zu können. Dies macht es zwar schwieriger, diese Tools und das daraus resultierende Wissen zu verallgemeinern, stellt jedoch auch sicher, dass die gesammelten Daten robust und die Schlussfolgerungen genau sind.

Für die Big-Data-Biologie ist es entscheidend, auf diesem Erbe aufzubauen, indem Wege geschaffen werden, mit Daten aus verschiedenen Quellen zu arbeiten, ohne deren Herkunft falsch zu interpretieren oder deren Einsichten in die Komplexität des Lebens einzubüßen.

Zur Beurteilung der Datenqualität

Biologen zeigen oft ein Unbehagen bezüglich der Qualität von Daten und Metadaten, die in Online-Datenbanken gefunden werden, insbesondere wenn die betreffenden Datenbanken nicht von Experten auf dem jeweiligen Gebiet und/oder für den jeweiligen Organismus kuratiert werden. Viele Datenbanken werden nicht einem Peer-Review unterzogen oder kuratiert, und selbst wenn sie es sind, sind Qualitäts- und Zuverlässigkeitsbewertungen häufig für bestimmte Forschungsbereiche spezifisch und können nicht ohne weiteres auf andere Forschungsbereiche oder andere Arten von Studien im selben Forschungsbereich übertragen werden.

Das Potenzial für einen Verlust der Datenqualität wächst, je mehr Datenbanken interoperabel werden, da eine umfassende Datenverbindung es unzuverlässigen Datenquellen ermöglicht, die Gesamtzuverlässigkeit von Online-Datensammlungen zu beeinträchtigen.

Dies ist ein weiterer Bereich, in dem Pluralismus ein Problem für die Big Data-Biologie zu sein scheint. Weist ein mangelnder Konsens hinsichtlich der Beurteilung der Qualität von Daten auf eine deutliche Schwäche hin, wie die Biologie Big Data-Forschung betreiben kann (und sollte)?

Eine mögliche Antwort besteht darin, dass man den Datenkomplex, auf den sich das Problem bezieht, in Frage stellt. Daten an sich als gut oder schlecht zu verstehen - unabhängig von Kontext und Untersuchungszielen - bedeutet, sie als statische Repräsentationen der Natur zu betrachten, die nützlich sind, weil sie ein Merkmal der Welt zu einem bestimmten Zeitpunkt und an einem bestimmten Ort genau und objektiv dokumentieren. Diese Sichtweise motiviert sicherlich die Suche nach endgültigen, universellen und kontextunabhängigen Methoden zur Beurteilung, welche Daten zuverlässig sind und welche es nicht sind. Dabei wird jedoch nicht berücksichtigt, dass Daten häufig extensiv erarbeitete Artefakte sind, die aus sorgfältig geplanten Interaktionen mit der Welt resultieren. Es wird auch der Beobachtung nicht gerecht, dass Biologen unterschiedliche Ansichten davon haben, was als verlässliche Daten oder überhaupt als Daten gilt. Was für eine Gruppe (und/ oder einen Forschungszweck) als Rauschen gilt, kann eine andere Gruppe daher als Daten betrachten.

Daten sind "relational"

Basierend auf diesen Erkenntnissen argumentiert die Autorin, dass Daten „relational“ - in Beziehung zu etwas zu sehen - sind: Mit anderen Worten, die Objekte, die am besten als Daten dienen, können sich je nach den Standards, Zielen und Methoden ändern, die zum Generieren, Verarbeiten und Interpretieren dieser Objekte als Beweismittel verwendet werden. Dies erklärt, warum sich die Beurteilung der Datenqualität immer auf eine bestimmte Untersuchung bezieht. Es ist auch darauf zurückzuführen, dass die Forscher nur ungern Datenquellen vertrauen, deren Herkunft nicht eindeutig dokumentiert ist, und dem damit verbundenen Drang, Metadaten über die Herkunft von Daten zu sammeln.

Datenwissenschaftler unterschätzen manchmal, wie wichtig es ist, Datenbanken mit den physischen Proben zu verknüpfen, aus denen die Daten ursprünglich gesammelt wurden (wie Gewebeproben, Zell- und Mikrobenkulturen). Es hat sich gezeigt, dass der Zugang zu Originalproben die Reproduzierbarkeit von Daten verbessert und Forschern bessere Möglichkeiten bietet, Experimente zu replizieren und Daten wiederzuverwenden. Der Zugang zu Originalproben bietet auch einen konkreten Punkt an dem sich Forschungstraditionen und -ansätze berühren, Unterschiede identifiziert und kritisch untersucht werden können.

Das Akzeptieren einer "relationalen" Sicht auf Daten bedeutet einen Übergang von generischen Ansätzen zur Datenkuration hin zu kontextsensitiven Ansätzen, die fein abgestimmte Deskriptoren für die Daten enthalten, auch wenn dies das Forschungstempo verlangsamen kann.

Schlussfolgerungen

Zweifellos hat Big Data Mining eine starke heuristische Funktion: Es ist oft der erste Schritt in jeder biologischen Untersuchung, um die Richtung und den Umfang der Forschung zu bestimmen. (Abbildung 2)

Abbildung 2. Big Data - Ein erster Schritt zu neuen Untersuchungen in den Lebenswissenschaften. (Bild: Pixabay, gemeinfrei.)

Mithilfe von Big Data können Biologen Muster und Trends effektiver erkennen, und in der Tat beginnen Philosophen zu erkunden, wie Data Mining dazu beitragen kann, mechanistische Hypothesen zu erforschen, zu entwickeln und zu überprüfen. Gleichzeitig zeigt die "relationale" Sicht, wie die Interpretation und Zuverlässigkeit der Schlussfolgerungen aus Big Data von zwei entscheidenden Faktoren abhängt: erstens von einem regelmäßigen Vergleich mit anderen Forschungsmethoden, Modellen und Ansätzen; und zweitens davon, dass die Daten in einen Kontext zur Sichtweise, den Zielen und Methoden des Untersuchers gesetzt werden.

Um eine "relationale" Sicht auf Daten zu haben, muss man die werte- und theorielastige Geschichte von Datenobjekten ernst nehmen. Dies fördert auch die Bemühungen, diese Historie in Datenbanken zu dokumentieren, so dass spätere Datennutzer die Qualität der Daten für sich selbst und nach ihren eigenen Standards beurteilen können.

Die automatisierte Datenanalyse bietet eine aufregende Aussicht auf biologische Entdeckungen. Menschliches Urteilsvermögen wird dabei keineswegs entbehrlich - die wachsende Leistungsfähigkeit von Rechenalgorithmen erfordert einen proportionalen Anstieg von kritischem Denken. Die Zusammenarbeit von Wissenschaftstheoretikern und Biologen kann dabei wesentliche Überlegungen fördern, welche Teile des Daten-Suchens und der Datenintegration mithilfe von Algorithmen durchgeführt werden sollten und wie Ergebnisse interpretiert werden sollten. Die Zusammenarbeit zwischen Philosophen und Bioinformatikern (und anderen Arten von Datenwissenschaftlern) kann der Entwicklung von Dateninfrastrukturen dienen, welche die Herkunft der Daten gebührend erfassen, und die Benutzer anregen, die Qualität und Relevanz der Daten in Bezug auf ihre Forschungsfragen einzuschätzen.


*Der von Sabine Leonelli (University Exeter, UK) stammende Artikel ist am 5, April 2019 unter dem Titel: " The challenges of big data biology" in den Collections "Philosophy of Biology" in eLife 2019;8:e47381 doi: 10.7554/eLife.47381. erschienen. Der unter einer cc-by-Lizenz stehende Text wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt, durch Abbildungen ergänzt, enthält aber keine Literaturzitate. Diese können im Originaltext nachgesehen werden.


Weiterführende Links:

  • Sabine Lionelli homepage: https://socialsciences.exeter.ac.uk/sociology/staff/leonelli/biography/

 

Artikel zu verwandten Themen in ScienceBlog.at:


 

Redaktion Thu, 25.04.2019 - 07:48

Ein Schalter reguliert das Kopieren menschlicher Gene

Ein Schalter reguliert das Kopieren menschlicher Gene

Do, 18.04.2019 - 07:06 — Patrick Cramer

vIcon BiologieUm die Erbinformation in Zellen zu nutzen, müssen Gene aktiviert werden. Die Aktivierung der Gene erfolgt während der sogenannten Transkription, eines Kopiervorgangs, bei der eine Kopie der DNA in Form von RNA erstellt wird. Der Biochemiker Patrick Cramer (Direktor am Max-Planck Institut für biophysikalische Chemie, Göttingen) erforscht mit seinem Team, wie die Kopiermaschinen ("RNA-Polymerasen") im Detail aufgebaut sind, wie sie arbeiten und gesteuert werden. Hier beschreibt er neueste Ergebnisse wie die Kopiermaschine RNA-Polymerase II mit Hilfe eines Schalters am Beginn eines Gens reguliert wird.*

Damit sich ein Organismus entwickeln kann, müssen zu bestimmten Zeiten und an bestimmten Stellen des Embryos Teile der Erbinformation aktiviert werden. Die Erbinformation liegt in allen Zellen in Form von DNA vor und umfasst Zehntausende von Genen. Diese werden durch den Prozess der Gen-Expression aktiviert.

Der erste Schritt dieses Prozesses, der zur Synthese von Proteinen führt, ist die Transkription. Während der Transkription eines Gens wird eine RNA-Kopie von einem DNA-Abschnitt erstellt. Die Transkription wird von Enzymen bewerkstelligt, den sogenannten RNA-Polymerasen.

Um zu verstehen, wie Gene aktiviert oder abgeschaltet werden, ist es notwendig, die Struktur und Funktion der RNA-Polymerasen zu studieren. Diese Untersuchungen müssen sowohl im Reagenzglas (in vitro) wie auch in der lebenden Zelle (in vivo) durchgeführt werden.

Der Genkopierer heißt RNA-Polymerase II

In eukaryotischen Zellen gibt es mehrere RNA-Polymerasen, die verschiedene Arten von Genen kopieren. Unter diesen hat die RNA-Polymerase II eine herausragende Bedeutung, da sie alle Gene kopiert, die Bauanleitungen für Proteine enthalten. Proteine nehmen im Organismus die unterschiedlichsten Funktionen wahr; sie sind für alle Lebensprozesse von essenzieller Bedeutung [1]. Unsere Arbeitsgruppe konnte Bilder der molekularen Struktur der RNA-Polymerase II in vielen verschiedenen Zuständen erhalten und daraus Filme über den Transkriptionsvorgang erstellen. Nun können wir dem Kopiervorgang in atomarem Detail zusehen.

Wie der Beginn des Gens gefunden wird

Vor kurzem konnten wir sogar in drei Dimensionen darstellen, wie die Transkription beginnt [2].

Die RNA-Polymerase II benötigt dazu mehrere zusätzliche Proteinfaktoren; nur so kann sie den Startpunkt der Transkription finden, die DNA-Doppelhelix öffnen und die Synthese der RNA-Kopie beginnen.

Die Strukturanalyse dieser Vorgänge ist äußerst schwierig, da viele Dutzend Proteinfaktoren beteiligt sind und der Prozess sehr dynamisch ist. Diese technischen Schwierigkeiten konnten durch eine Kombination verschiedener Methoden überwunden werden. Dabei spielen die Kryo-Elektronenmikroskopie, die Röntgenkristallografie und die Massenspektrometrie eine wichtige Rolle.

Die dank dieser Techniken ermittelte 3D-Struktur der RNA-Polymerase II zeigt das Enzym eingebettet in einen sogenannten Initiationskomplex, und diese Strukturbilder ermöglichen viele Einblicke in den Mechanismus des Beginns der Transkription. So konnten wir etwa vorschlagen, wie einer der beteiligten Faktoren die DNA öffnet und ins aktive Zentrum des Enzyms lädt, wo sie als Matrize für die RNA-Synthese dient.

Wenn der Kopiervorgang stockt

Nachdem die Transkription erfolgreich gestartet ist, bleibt die Polymerase allerdings oft gleich wieder stehen. Das Enzym pausiert dann ganz am Beginn des Gens und wartet auf weitere Signale der Zelle. Es ist schon lange bekannt, dass solche positiven Signale in der Lage sind, einen Austausch von negativen, hemmenden Faktoren gegen positive Faktoren zu bewerkstelligen und so dafür zu sorgen, dass die Polymerase bis ans Ende des Gens kopiert, sodass eine vollständige RNA-Kopie erstellt wird und nachfolgend das Gen in der Zelle aktiv ist.

Abbildung 1: Ein Schalter für die Genaktivierung. Gezeigt sind drei Strukturen der RNA Polymerase II (silber) mit verschiedenen Faktoren (farbig) an der DNA (blaue Doppelhelix). Die linke Struktur markiert den Beginn des Gens und stellt den Initiationskomplex dar. Die mittlere Struktur stellt die pausierte Polymerase mit einer kurzen RNA (rot) dar und birgt den hemmenden Elongationsfaktor NELF (orange, blau, magenta). Die rechte Struktur stellt die Polymerase mit aktivierenden Faktoren dar. Der Übergang von der pausierten in die aktivierte Form (grüner Pfeil) geschieht während der frühen Transkription am Beginn des Gens aufgrund positiver Signale in der Zelle. Die pausierte Polymerase wirkt sich negativ auf die Initiation aus (roter Pfeil). Die gezeigten Strukturen wurden durch eine Kombination von Kryo-Elektronenmikroskopie und Röntgenkristallografie ermittelt. © Max-Planck-Institut für biophysikalische Chemie/Cramer

Wir konnten nun mithilfe der Strukturbiologie zeigen, wie die Polymerase pausiert und wie sie wieder aktiviert wird [3, 4]. Ein negativer Faktor (NELF) ist dazu in der Lage, den inaktiven Zustand der pausierten Polymerase zu stabilisieren: In diesem inaktiven Zustand sind die DNA und RNA im aktiven Zentrum des Enzyms nämlich nicht korrekt angeordnet. Mehrere positive, aktivierende Faktoren (P-TEFb, PAF, SPT6) können nun wiederum den negativen Faktor NELF ablösen und so eine hohe Aktivität der RNA-Polymerase II bewirken. Ein Vergleich der Molekülstrukturen der pausierten und aktivierten RNA-Polymerase II konnte dies sehr eindrucksvoll zeigen (Abbildung 1).

Wie der Genschalter funktioniert

Trotz diesen detaillierten Einsichten blieb die Frage offen, wie es überhaupt möglich sein kann, dass Gene durch die Pausierung der Polymerase kontrolliert werden. Da die Pausierung oft nur einige Minuten besteht, die RNA-Synthese aber oft Stunden dauert, ist es keineswegs klar, wie durch eine Änderung der Pausierung die Menge an RNA-Produkt maßgeblich geändert werden kann. Mit anderen Worten:

Wie kommt es, dass kleine Änderungen in der Pausierung die Menge an synthetisierter RNA grundlegend modifizieren können?

Wir konnten dieses Rätsel mithilfe verschiedener Methoden der sogenannten funktionalen Genomik in Zellen und mittels Bioinformatik aufklären [5]. Uns gelang der Nachweis, dass die pausierte Polymerase am Beginn des Gens die Initiation der Transkription limitieren kann. Genau aufgrund dieser Tatsache beeinflusst die Dauer der Pausierung der Polymerase die Anzahl derjenigen Initiationsereignisse, die in einem gegebenen Zeitraum an einem Gen stattfinden könnten. Das wiederum führt zu einer Änderung der Anzahl an RNA-Produkten und somit der Genaktivität.

Dieser Mechanismus der Genkontrolle ist es, der wie ein Schalter für Gene wirkt; er geschieht besonders oft während der Differenzierung von Zellen in verschiedene Zelltypen. Zukünftig können wir nun, basierend auf dieser Erkenntnis, die Aktivierung von Genen während der Zelldifferenzierung studieren.


Literaturhinweise

  1. Hantsche, M.; Cramer, P.The structural basis of transcription: 10 years after the Nobel Prize in Chemistry. Angewandte Chemie International Edition 55, 15972-15981 (2016)
  2. Schilbach, S.; Hantsche, M.; Tegunov, D.; Dienemann, C.; Wigge, C.; Urlaub, H.; Cramer, P. Structures of transcription pre-initiation complex with TFIIH and Mediator. Nature 551, 204-209 (2017)
  3. Vos, S.M.; Farnung, L.; Boehning, M.; Wigge, C.; Linden, A.; Urlaub, H.; Cramer, P. Structure of activated transcription complex Pol II-DSIF-PAF-SPT6. Nature 560, 607-612 (2018)
  4. Vos, S.M.; Farnung, L.; Urlaub, H.; Cramer, P. Structure of paused transcription complex Pol II-DSIF-NELF. Nature 560, 601-606 (2018)
  5. Gressel, S.; Schwalb, B.; Decker, T.M.; Qin, W.; Leonhardt, H.; Eick, D.; Cramer, P. CDK9-dependent RNA polymerase II pausing controls transcription initiation. eLife 6: e29736 (2017). DOI

* Der im Jahrbuch 2019 der Max-Planck Gesellschaft unter dem Titel "Ein Schalter für menschliche Gene" erschienene Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier geringfügig für den Blog adaptiert. Die nicht frei zugänglichen Literaturstellen können auf Anfrage zugesandt werden.


Weiterführende Links

Redaktion Thu, 18.04.2019 - 07:28

Personalisierte Medizin: Die CAR-T-Zelltherapie

Personalisierte Medizin: Die CAR-T-Zelltherapie

Do, 11.04.2019 - 07:06 — Norbert Bischofberger

vIcon MedizinDie CAR-T-Zelltherapie ist eine auf den individuellen Patienten zugeschnittene Behandlungsform, welche mit einem gentechnisch modifiziertem T-Zellrezeptor (CAR) die Fähigkeit menschlicher T-Zellen zur Erkennung und Eliminierung von Tumorzellen verstärkt. Seit den ersten klinischen Erfolgen vor rund sieben Jahren und der kürzlich erfolgten Markteinführung von zwei CAR-Konstrukten (Kymriah™ von Novartis und Yescarta® von KitePharma/Gilead) haben klinische Studien über sensationelle Heilungen von bereits austherapierten Patienten mit rezidivierenden Leukämien und Lymphomen berichtet. Der Chemiker Norbert Bischofberger (ehem. Forschungsleiter des Top Pharmakonzerns Gilead, jetzt Präsident des Startups Kronos Bio ) berichtet über das neue immunologische Prinzip dieser Tumortherapie.*

Ein kurzer Abriss der Krebstherapien

Lässt man die Behandlungsmethoden von Krebserkrankungen Revue passieren, so nahm die Chemotherapie in den 1940er Jahren ihren Anfang. Der erste Vertreter dieser Therapieform war Chlormethin - ein sogenannter Stickstofflost, der gleichermaßen gesunde wie entartete Zellen tötete (und ursprünglich als Kampfstoff entwickelt worden war; Anm. Redn). Zu einem Ersetzen der völlig unspezifisch wirkenden Substanzen kam es dann erst in den 1990er Jahren , mit sogenannten "Targeted Therapies" - zielgerichteten Ansätzen, in denen man Antikörper direkt gegen spezifische (übermäßig exprimierte) Moleküle auf der Oberfläche der Tumorzelle richtete, welche diese zur Teilung, zu unkontrolliertem Wachstum und zur Metastasierung anregen. Beispiele sind Antikörper wie Avastin, welcher die Angiogenese (Bildung neuer Blutgefäße) und damit die Versorgung des Tumors mit Sauerstoff und Nährstoffen blockiert, sowie Antikörper gegen den Rezeptor des Epithelialen Wachstumsfaktors (EGF), der eine zur Zellteilung führende Signalkaskade in den Tumorzellen auslöst.

Mit zunehmenden Einblicken in die Tumorbiologie kam es im letzten Jahrzehnt zu beachtlichen therapeutischen Fortschritten. Um 2010 wurden die ersten "Checkpoint Inhibitoren" eingeführt. Es werden dabei sogenannte Checkpoints des Immunsystems blockiert, an denen Tumorzellen die Immunantwort des Wirts abschalten können. Diese Checkpoint-Inhibitoren sind also Immunstimulantien; sechs derartige Medikamente - es sind Antikörper - sind in den US und auch in Europa zugelassen. Für ihre bahnbrechenden Arbeiten, die ein ganz neues Verfahren der Krebsbehandlung begründet haben, wurden James P. Allison und Tasuku Honjo mit dem Nobelpreis 2018 für Medizin ausgezeichnet. Die aktuelle, jüngste Entwicklung ist eine personalisierte, also für den Patienten maßgeschneiderte (individualisierte) Zelltherapie. Es ist eine Immuntherapie, bei der T-Lymphozyten (kurz T-Zellen) eines Patienten im Labor gentechnisch so verändert werden, dass sie spezielle Oberflächenproteine auf den Krebszellen erkennen und -in den Patienten zurückinfundiert - eine Immunantwort auslösen, die zur Zerstörung der Krebszellen führt. Zwei derartige Behandlungsformen - sogenannte CAR-T-Zelltherapien - wurden kürzlich in den USA und auch in der EU (im August 2018) zugelassen: Kymriah™(Novartis) zur Behandlung von akuter lymphatischer Leukämie bei Kindern und jungen Erwachsenen bis 25 Jahren und Yescarta® (Kite Pharma/Gilead) zur Behandlung erwachsener Lymphom-Patienten.

Wie erkennen T-Zellen aber Tumorzellen und zerstören diese dann?

Dazu müssen zwei Wechselwirkungen erfolgen, die Signale in der T-Zelle auslösen. Erst beide Wechselwirkungen zusammen führen zur Aktivierung der T-Zelle und diese zerstört in Folge die Tumorzelle (Abbildung 1).

  • Signal 1: Der sogenannte T-Zell-Rezeptor (TCR), ein auf der Oberfläche der T-Zelle verankerter, aus mehreren Proteinen bestehender Komplex, erkennt ein Tumor-spezifisches Antigen (ein Peptid, das auf der Tumorzelle präsentiert wird) und bindet daran. Dies reicht aber zur Aktivierung der T-Zelle noch nicht aus.
  • Signal 2: Es wird ein sogenanntes kostimulatorisches Signal benötigt, das durch Bindung des Oberflächenproteins CD28 der T-Zelle an das Protein CD80 auf der Tumorzelle bewirkt wird.

Abbildung 1. Die Aktivierung der T-Zelle benötigt 2 Signale. Die Bindung des an der Oberfläche der Tumorzelle präsentierten Antigens an den T-Zellrezeptor löst das erste Signal aus. Ein zweites, kostimulatorisches Signal wird durch die Wechselwirkung des Oberflächenproteins CD28 mit CD80 (CD86) auf der Tumorzelle generiert .In Folge werden Zytokine freigesetzt, welche die Immunantwort steuern.

Vom T-Zellrezeptor (TCR) zum Chimären Antigenrezeptor (CAR)

Der TCR ist ein Komplex aus mehreren unterschiedlichen Proteinen (Abbildung 2a). Aus dem TCR wird ein sogenannter chimärer Antigenrezeptor" - CAR -erzeugt, indem die intrazelluläre Domäne aus dem TCR, die sogenannte Zeta-Domäne, mit einem Fragment aus der variablen Domäne eines Antikörpers kombiniert wird, das ein möglichst nur auf der Tumorzelle vorkommendes Antigen spezifisch bindet.

Anfängliche Versionen von so generierten CAR-T-Zellen waren allerdings wenig erfolgreich. Dies änderte sich erst als man erkannte, dass die kostimulatorische Domäne wichtig ist; man fügte die CD28- Domäne (und/oder auch die kostimulatorische Domäne 4-1BB) in den chimären Rezeptor ein. CAR-T-Zellen der 3. Generation arbeiten nun mit zwei kostimulatorischen Domänen; dadurch wird die Aktivierung der T-Zellen verstärkt. Die chimären Rezeptoren vereinigen also beide Funktionen: spezifische Antigen Bindung und T-Zell Aktivierung in einem Molekül (Abbildung 2B).

Abbildung 2. Vom T-Zellrezeptor zum chimären Antigenrezeptor (CAR). Das Design des CAR enthält eine extrazelluläre Domäne, welche mittels Antikörperfragmenten VL und VH ein auf der Tumorzelle präsentiertes Antigen spezifisch bindet, eine Transmembransequenz, die für die Verankerung in der Zellmembran verantwortlich ist und eine intrazelluläre Signalsequenz, welche die Aktivierung der T-Zelle auslöst.

Der Beginn eines Erfolgs

Wie viele Dinge in der Medizin und in der Wissenschaft fing es mit einem Zufall an. Emily Whitehead, ein kleines Mädchen in Pennsylvania litt an der bei Kindern häufigsten Krebserkrankung, der akuten lymphatischen Leukämie (ALL). ALL ist mit Chemotherapie recht gut behandelbar, 85 % der Patienten sprechen darauf an und in den meisten Fällen bleibt ALL eine Kinderkrankheit. Für die 15%, die nicht darauf ansprechen, ist die Prognose allerdings sehr schlecht. Emily Whitehead gehörte zu diesen Unglücklichen; nach mehreren von Rückfällen gefolgten Zyklen Chemotherapie wurde ihr - wie so oft in der Medizin -empfohlen- nach Hause zu gehen, weil man nichts mehr für sie tun könne.

Die Eltern gaben aber nicht auf. Sie hörten von einer neuen Zelltherapie, die im Rahmen einer klinischen Studie am Cancer Center des Children Hospital of Philadelphia verfügbar war. Man ging dorthin, das Mädchen wurde mit der CAR-T -Zell Therapie behandelt und erlebte eine wundersame Genesung. (Seit mehr als 6 Jahren gilt sie als geheilt; Anm. Redn.)

Dazu gibt es allerdings eine Randbemerkung.

Derartige Zelltherapien sind nicht ohne Risiken, es kann sich ein lebensbedrohender Zustand daraus entwickeln. Das passierte auch in diesem Fall. Die Ärzte überwachten die Zytokinspiegel des Mädchens und beobachteten einen enormen Anstieg des sogenannten Interleukin 6 (IL-6; ein Schlüsselprotein in Entzündungsprozessen, Anm. Redn.). Durch puren Zufall hatte die Spitalsapotheke Tocilizumab - einen Antikörper gegen IL-6 - verfügbar, der eigentlich für die Behandlung von Rheumatoider Arthritis zugelassen ist. Damit konnte IL-6 blockiert und das Leben des Mädchens gerettet werden. Ohne einen solchen Antikörper wäre das Mädchen gestorben und mit ihm vermutlich das ganze neue CAR-TC-Gebiet.

Wie geht man in der CAR-T-Zelltherapie vor?

Diese Zelltherapie besteht aus fünf aufeinanderfolgenden Schritten, die in Abbildung 3 schematisch dargestellt sind. Erst wird das Blut eines Patienten abgenommen, einer Leukophorese unterzogen und es werden die T-Zellen isoliert (1). Dann wird das für ein Tumorantigen spezifische CAR-Konstrukt über einen Vektor in die DNA der T-Zellen eingebaut (2). Zellen, die nun an ihrer Oberfläche das CAR-Protein exprimieren werden anschließend in Kultur gebracht und vermehrt ("expandiert") (3) und schließlich in den Patienten infundiert (4). Hier binden die CAR-T-Zellen an die Tumorzellen und zerstören diese (5). (Da Abnahme des Bluts und Reinfundierung am selben Patienten erfolgen, spricht man von autologer T-Zelltherapie.)

Abbildung 3. Personalisierte Krebstherapie: Wie T-Zellen verändert werden, sodass sie nun die Tumorzellen eines Patienten angreifen und zerstören. Die aufwendige, auf jeden Patienten zugeschnittene Herstellung der CAR-T-Zellenbedingt sehr hohe Therapiekosten: Das für ALL zugelassene Kymriah™(Novartis) wird um über 400 000 US$ gehandelt, Yescarta® (Kite Pharma/Gilead) zur Behandlung erwachsener Lymphom-Patienten mit rund 300 000 US$. (Bild und Text von der Redn.zugefügt; das Bild ist gemeinfrei und stammt aus: National Cancer Institute;CMS ID: 1126719; NCI Annual Plan and Budget Proposal FY 2020.)

Erfolge der CAR-T-Zelltherapie bei malignen hämatologischen Erkrankungen

Sehr viele maligne hämatologische Erkrankungen - Lymphome, Leukämien - werden durch anormale B-Lymphozyten verursacht. B-Zellen, wie auch T-Zellen leiten sich von der lymphoiden Linie der auf eine Stammzelle zurückgehenden Blutzellen ab. (Die andere - myeloide - Linie generiert Granulozyten, Erythrozyten, Thrombozyten, Makrophagen und Mastzellen).

Betrachtet man die Differenzierung von B-Zellen - von der Stammzelle zur Plasmazelle - so findet man mit Ausnahme der Stammzelle das Oberflächenprotein CD19 auf der B-Zelle in allen Stadien der Differenzierung exprimiert. CD19 ist damit ein optimales Zielmolekül für CAR-T-Zellen - man will ja anormale B-Zellen und nicht die Stammzellen und damit das gesamte Knochenmark auslöschen.

In der CAR-T-Zell Therapie werden nun die isolierten T-Zellen eines Patienten mit einem gegen CD19 gerichteten CAR-Konstrukt (Anti-CD19-CAR) transfiziert, expandiert und dem Patienten dann wieder infundiert. Die Anti-CD19 T-Zellen erkennen die abnormen B-Zellen und töten sie ab.

Die bis jetzt mit CD19 CAR-T-Zellen erhobenen klinischen Ergebnisse an einer größeren Zahl von Patienten mit rezidivierter akuter lymphatischer Leukämie zeigen eine Therapie, die alles verändert: 80% der Patienten erreichen eine langfristige Remission (ich scheue mich das Wort Heilung zu verwenden); für Menschen, die sonst eine Lebenserwartung von durchschnittlich 3 Monaten gehabt hätten, ist dies ein Wunder.

Dass solche Zelltherapien nicht ohne Risiken sind, habe ich bereits erwähnt. Es gibt zwei Arten von lebensbedrohenden Nebenwirkungen: den sogenannten Zytokinsturm und schwerste neurotoxische Auswirkungen. In der Mehrzahl der Fälle lassen sich beide Nebenwirkungen beherrschen und sind dann reversibel - Ärzte haben gelernt, damit umzugehen. Die Häufigkeit solcher Nebenwirkungen hat sich seit den ersten Anwendungen der CAR-T-Zellen stark verringert.

Wie geht es weiter mit der T-Zell Therapie?

Die eigenen Immunzellen so modifizieren zu können, dass sie Krebszellen erkennen und effizient eliminieren, bedeutet eine Revolution in der Tumortherapie. Entsprechend intensiv wird an der Optimierung von CAR-Konstrukten für diverse Indikationen geforscht und mehrere Hundert klinische Studien mit CAR-T-Zellen sind in Planung und im Laufen. Abbildung 4.

Wesentliche Aspekte sind dabei Verbesserung und Kontrolle der T-Zellaktivierung, höhere Spezifität der T-Zellen, Verhinderung eines Entkommens der Tumorzellen, Reduktion der Nebenwirkungen und vor allem Ausweitung der Therapien auf solide Tumoren.

Abbildung 4. CAR T-Zell Therapie: Registrierte klinische Studien und wo diese stattfinden/ stattfanden. (Bild links: aus the NCI Annual Plan and Budget Proposal FY 2020; rechts: CAR-T-cell therapy - Results on Map - ClinicalTrials.gov. https://clinicaltrials.gov/ct2/results?cond=&term=CAR-T-cell+therapy&cntry=&state=&city=&dist=. gemeinfrei)

Anschalten der Aktivierung

Ein Problem der CAR-T-Zellen besteht darin, dass man die Kontrolle über sie verliert, sobald sie in den Patienten infundiert werden. Man kann gegen ihre schweren Nebenwirkungen vorgehen, aber man weiß nicht wirklich, was diese aktivierten Zellen tun. Eine Lösung dafür besteht darin das CAR-Konstrukt so zu organisieren, dass es erst in situ durch einen Schalter auf "on", d.i. auf Aktivierung der Zelle, gestellt werden kann. Technisch lässt sich dies so lösen, dass die beiden Domänen: extrazelluläre Domäne der Antigenerkennung und intrazelluläre Aktivierungsdomäne in der Zellmembran als separierte Fragmente vorliegen. Durch Zusatz von bestimmten bereits zugelassenen Arzneistoffen (beispielsweise funktionieren hier kleine Moleküle vom Typ des Rapamycin; Anm. Redn.) können die beiden Fragmente dann "vereinigt" - dimerisiert - und damit die CAR-T-Zellen aktiviert werden.

Erhöhung der Spezifität von CAR-T-Zellen

Ein erhebliche Limitierung für die CAR-T-Zelltherapie ist es ein Zielantigen zu finden, das ausschließlich auf der Tumorzelle vorkommt, aber auf keinem anderen der 200 Zelltypen des Menschen zu finden ist. Wird das Antigen auch auf einer normalen Zelle exprimiert, so kann dies zu schwersten Toxizitäten führen (wie beispielsweise im Fall einer Brustkrebspatientin, deren Tumor den Wachstumsfaktor HER-2 überexprimierte. Da HER-2 aber auch auf Lungenzellen vorkommt, griffen die CAR-T-Zellen auch diese Gewebe an und die Patientin starb an einem Lungenödem).

Eine mögliche Strategie ist hier in einer T-Zelle zwei unterschiedliche CAR gegen zwei verschiedene Tumorantigene zu exprimieren, wobei eine Aktivierung der T-Zelle nur dann eintritt, wenn beide Antigene auf der Tumorzelle exprimiert sind (die Bezeichnung dafür: AND-gate stammt aus der Halbleitertechnik).

Das ultimative Ziel: Immunotherapie solider Tumoren…

Solide Tumoren sind ungleich komplexer als maligne hämatologische Erkrankungen. Wenn man - z.B durch Abtasten oder durch Magnetresonanzuntersuchung - einen soliden Tumor feststellt, so hat dieser bereits einen Durchmesser in der Größenordnung von 2 cm, besteht aus über einer Milliarde Zellen, hat sich differenziert und ist viele Male mutiert (in vielen Tumoren bewegt sich die sich die Zahl der Mutationen zwischen 15 und 150 pro exprimiertem Gen; Anm. Redn). Geeignete Zielantigene zu identifizieren ist - wie oben erwähnt - sehr schwierig; auch können Krebszellen im Lauf der Differenzierung solche Antigene verlieren und damit der Immuntherapie entkommen.

Eine Möglichkeit besteht hier darin die Taktik zu nutzen, mit der unser körpereigenes Überwachungssystem - in Form patrouillierender T-Zellen - laufend normale und entartete Zellen erkennt und die entarteten eliminieren kann.

…via Erkennung von Neoantigenen

Diese Erkennung erfolgt über Fragmente - kurze Peptide -, die beim Abbau der zellulären Proteine entstehen und an der Oberfläche der Zellen gebunden an die Proteine des Haupthistokompatibilitätskomplex (MHC) präsentiert werden. Während der T-Zellrezeptor mit den aus körpereigenen Proteinen entstandenen Peptid-Komplex nicht interagiert (sogenannte Selbsttoleranz), bindet er an solche aus mutierten (und fremden) Proteinen und kann so die Zerstörung der entarteten Zelle einleiten. Solche Neoantigene sind also tumorspezifisch - nicht auf anderen Zelltypen anzutreffen - und damit als Zielmoleküle für das Design von effizienten CAR-Konstrukten ohne Organtoxizität besonders geeignet.

Der Weg zu solchen Konstrukten ist allerdings sehr aufwendig: Die Identifizierung des großen Repertoires an Mutationen erfolgt aus dem Tumormaterial des Patienten mittels hochsensitiver Sequenzierung (deep sequencing) des Exoms (d.i. dem Protein-kodierenden Teils des Genoms). Daraus werden dann mittels analytischer Verfahren (Massenspektrometrie) und auch durch in silico Methoden und Modellierungen solche Fragmente herausgefiltert, die wahrscheinlich als potente Neoantigene in Frage kommen, die dann in Funktionstests validiert werden.

Fazit: Mutationen, die zu Entstehung und Wachstum eines soliden Tumors führen, können also auch Zielstrukturen für die Immunzellen darstellen, um den Tumor in Schach zu halten.


* Dies ist der dritte Teil einer Artikelserie des Autors, die sich im Teil 1 "Auf dem Weg zu einer Medizin der Zukunft" mit dem sich abzeichnenden Paradigmenwechsel in der Medizin – Abgehen von Therapien nach dem Schema "Eine Größe passt allen" hin zu einer zielgerichteten, personalisierten Behandlung - befasst hat (24.05.2018:Auf dem Weg zu einer Medizin der Zukunft.). Teil 2 hat über Künstliche Intelligenz in biomedizinischer Forschung, Diagnose und Therapie berichtet (16.08.2018:Mit Künstlicher Intelligenz zu einer proaktiven Medizin) Über das gesamte Thema hat Norbert Bischofberger am 6. Dezember 2017 einen Vortrag "The future of medicine: Technology and personalized therapy" in der Österreichischen Akademie der Wissenschaften gehalten.


Weiterführende Links

Immunonkologie – Dr. Johannes Wimmer erklärt die CAR-T-Zell-Therapie 3:08 min.

Publikationen zur CAR-T-Zelltherapie:
https://www.creative-biolabs.com/car-t/references.aspx

Redaktion Thu, 11.04.2019 - 07:02

Pharma im Umbruch

Pharma im Umbruch

Sa, 24.02.2019 - 02:38 — Inge Schuster

vIcon MedizinIm letzten Jahrzehnt hat ein Paradigmenwechsel stattgefunden: der Pharmasektor hat sich von Produkten mit relativ niedriger Gewinnspanne aber riesigem Markt auf den Weg zu personalisierten Therapien - also kleiner Markt und enorm hoher Preis - begeben und einige Durchbrüche in der Behandlung von Subtypen von Krankheiten und sogenannten seltenen Krankheiten erreicht (die dann allerdings extrem teuer sein konnten).

Eine Jubelmeldung im Jänner 2019: Die alles dominierende US-amerikanische Behörde FDA - zuständig für die Überwachung von Lebensmitteln (Food) und Zulassung neuer Arzneimittel (and Drugs)- hat 2018 die seit langem höchste Zahl an neuen Arzneimitteln zugelassen (1). Nach einer von 2000 bis 2010 dauernden Flaute waren ab dann die Zulassungen gestiegen und haben 2018 mit insgesamt 59 neuen Medikamenten ein Allzeithoch erlebt. Abbildung 1. An der Spitze der Indikationen stand mit 26 % die Onkologie. Wie auch in den letzten Jahren waren bereits rund ein Drittel der neuen Arzneimittel Biologika, d.i. mittels biotechnologischer/gentechnischer Methoden hergestellte Proteine (zumeist Antikörper) oder Nukleinsäuren.

Abbildung 1. Nach einem jahrelangen Einbruch hat In den letzten Jahren die Zahl der neuzugelassenen Arzneimittel wiederzugenommen; bereits ein Drittel davon sind Biologika. (Daten aus Nature Drug Discovery, https://www.nature.com/articles/d41573-019-00004-z.(1) Analysiert man die Neuzulassungen im Detail, so zeigt sich, dass sich gegenüber der Vergangenheit Grundlegendes verändert hat:

  • Der Großteil der Neuzulassungen - 58 % - widmet sich nun sogenannten "orphan diseases". Es sind dies seltene Krankheiten, die bezüglich ihrer Schwere und Inzidenz in einzelnen Ländern unterschiedlich definiert werden; in der EU sind davon weniger als 1 von 2000 Patienten betroffen, in den USA weniger als 1: 1500.
  • Bei nur rund 20 % der Neuzulassungen erwartet man, dass sie sich zu sogenannten Blockbustern entwickeln werden, d.i . Umsätze von mindestens 1 Milliarde US-Dollar im Jahr erzielen werden.
  • Neue Player sind ins Spiel gekommen: Der Anteil der von Big Pharma - den Top 20 Pharmakonzernen - erzielten Zulassungen ist von rund 70 % in den Jahren 2010 - 2014 auf nun rund 37 % gesunken.

Die Zeit von "Eine Pille für alle" scheint vorbei zu sein…

Noch bis vor wenigen Jahren war die Größe des voraussichtlichen Markts dafür ausschlaggebend ob ein neuer Wirkstoff entwickelt oder fallengelassen wurde. Schließlich sollten zumindest die Kosten der Forschung und Entwicklung (F&E) eines neuen Arzneimittels wieder herein gespielt werden. Vor allem infolge immer rigoroserer Auflagen in den Phasen der klinischen Prüfung waren diese Kosten in den letzten Jahrzehnten enorm gestiegen - von im Mittel 413 Mio US $ im Zeitraum 1985 - 1995 auf 2,5 Mrd US $ in den Jahren 2006 - 2015 (2). Dies führte auch zu einer Entwicklungsdauer, die nun bis zur Zulassung rund 13 Jahren dauert, sodass bei einem Patentschutz von 20 Jahren rund 7 Jahre bleiben, in denen ein neues Medikament am Markt Alleinstellung hat, bevor dann billige Generika in Konkurrenz treten. Abbildung 2.

Abbildung 2 – 2. Der lange Weg der Forschung & Entwicklung (R&D) eines neuen chemisch-synthetischen Arzneimittels (NCE; new chemical entity) oder biologischen Arzneimittels (nbe; new biological entity. (Bild: https://efpia.eu/media/361960/efpia-pharmafigures2018_v07-hq.pdf ; cc-by-nc.)

Blockbuster für den Einsatz bei chronischen Erkrankungen…

In Hinblick auf einen möglichst großen Markt konzentrierte man sich daher auf chronische Erkrankungen, von denen Millionen Menschen betroffen sind - Herz-Kreislauferkrankungen, Diabetes, Arthritis, etc. Synthetisch hergestellte Substanzen (kleine Moleküle - NCEs) für derartige Indikationen können bei relativ billigen Abgabepreisen dennoch Milliarden Umsätze erzielen - Blockbuster werden - und damit die enorm hohen Kosten ihrer Entwicklung in kurzer Zeit herein spielen (und auch für die anderen weniger erfolgreichen neuen Arzneimittel aufkommen: nur 2 von 10 neue Medikamente erzielen Gewinne, welche die Gestehungskosten decken).

…und die Patentklippe ("patent cliff"),…

Ab 2012 begannen die Patente auf zahlreiche der in den 1990er Jahren eingeführten niedermolekularen Blockbuster auszulaufen und die Umsätze brachen abrupt ein. Die Pharmazeutische Industrie stand vor einer neuen Herausforderung - der Patentklippe:

Jahrelang hatte der Cholesterinsenker Lipitor von Pfizer mit jährlichen Umsätzen bis über 12 Milliarden US Dollar den Rekord unter den Blockbustern gehalten, wurde quer durch die gesamte Weltbevölkerung verschrieben. Mit dem Auslaufen des Patents (2011 - 2012) und dem Umstieg auf billige Generika, brach der Umsatz auf nun knapp 2 Milliarden US Dollar ein. Große Verluste für Pfizer bedeuten auch das Auslaufen anderer Patente, u.a. auf das gegen Neuropathien und Muskelschmerzen angewandte Lyrica (Umsatz 2018: 5 Mrd US $) und Viagra (Umsatz 2016: > 1,5 Mrd US $). Auch andere Konzerne erlitten beträchtliche Verluste. Um nur einige Blockbuster zu nennen, die heute bereits weitestgehend durch Generika ersetzt sind: Plavix (Bristol-Myers-Sqibb), Diovan (Novartis), Singulair (MSD), Zyprexa (Lilly).

…die bei Biologika weniger dramatische Folgen haben dürfte

Zu einem Auslaufen der Patente kommt es auch bei einer Reihe von Biologika, die besonders teuer sind und - bei diversen Krebserkrankungen und/oder Autoimmunerkrankungen angewandt - einen großen Markt bespielen. Insbesondere der Pharmariese Roche ist mit seinen Antikörpern Rituxan, Herceptin und Avastin davon betroffen, die zusammengenommen mit rund 20 Mrd US $ etwa 40 % des jährlichen Umsatzes von Roche ausmachen. Auch das umsatzstärkste biotechnologisch hergestellte Medikament Humira (von Abbvie), mit derzeit rund 19 Mrd US $ im Jahr, hat in der EU bereits 2018 den Patentschutz verloren.

Das Problem einer Konkurrenz durch billige Nachfolgeprodukte ist bei Biologika derzeit allerdings wesentlich geringer als bei den niedermolekularen Substanzen. Versuchen andere Hersteller solche komplexen Biomoleküle zu kopieren, so erfordert dies eine ziemlich lange (durchschnittlich 6 Jahre dauernde)und dementsprechend kostspielige Forschungs- und Entwicklungsarbeit, die sich dann, verglichen mit dem Original, in einem nur wenig niedrigeren Preis niederschlägt und zudem kaum zu identen Produkten - Generika - sondern zu sogenannten Biosimilars führt. Diese können gegenüber dem Original veränderte Wirksamkeiten/Nebenwirkungen aufweisen, sodass nach wie vor die originalen Brands bevorzugt werden und die zu erwartenden Umsatzeinbußen wesentlich niedriger ausfallen. Prognosen für das oben erwähnte Humira rechnen mit einem Umsatzverlust von nur etwa 20 % im Jahr 2022 [3].

Ein Umdenken in den Führungsetagen von Big Pharma

Insgesamt betrachtet betrifft das Auslaufen von Patenten im Zeitraum 2012 - 2020 Arzneimittel mit jährlichen Umsätzen von rund 280 Mrd US $, davon rund 31 Mrd. allein im Jahr 2018 (Schätzungen von EvaluatePharma (4)). Zweifellos schafft dies hervorragende Voraussetzungen für Firmen, die Generika herstellen.

Für Big Pharma hat dies über mehrere Jahre hinweg aber sinkende Umsätze und parallel dazu fallende Aktienkurse bedeutet. Dazu ließen schwache "pipelines" (d.i. Substanzen in präklinischer und klinischer Entwicklung) kaum gesteigerte Hoffnung auf Blockbuster der alten Art - gegen chronische Krankheiten mit großem Marktpotential -aufkommen; die "low-hanging fruits" waren offensichtlich bereits gepflückt worden.

Kleiner Markt - hochpreisige Arzneimittel

Ein Umdenken setzte ein, als einige Unternehmen mit hochwirksamen Arzneimitteln Durchbrüche bei seltenen Krankheiten mit vordem geringen Überlebenschancen erreichten und sehr hohe Preise für die Therapien ansetzten.

Dies war beispielsweise der Fall bei dem von Novartis entwickelten Glivec, das spezifisch bei chronisch myeloischer Leukämie wirkt und lebenslang genommen werden muss. Bei jährlichen Kosten in Europa von rund 40 000 € (in den US rund doppelt so viel) bescherte dies Novartis - trotz des kleinen Marktes - über Jahre Umsätze von über 4 Mrd US $ (bis 2016 das Patent auslief).

Vor allem war der Erfolg des US-Pharmaunternehmens Gilead beeindruckend, das 2013 mit Solvadi erstmals ein (niedermolekulares) Medikament auf den Markt brachte, das bis zu 95 % der an Hepatitis C Erkrankten heilen konnte. Die Nachfrage war enorm und die anfänglich sehr hohen Preise (84 000 US $) für die 12 Wochen dauernde Therapie ließen den weltweiten Umsatz im Jahr 2014 bereits auf über 10 Mrd US $ hochschnellen. Verhandlungen mit dem Hersteller und auch beginnende Konkurrenz haben die Behandlungskosten (in der EU nun rund 30 000 €) und damit den Umsatz deutlich reduziert.

Für die Indikation Mukoviszidose - eine seltene Erkrankung (einige Hundert Fälle in Österreich) hat die US-Firma Vertex Symdeko auf den Markt gebracht. Anders als bei Solvadi bringt die Behandlung mit Symdeko Besserung aber keine Heilung und muss daher lebenslang fortgesetzt werden. Bei aktuellen monatlichen Kosten von 13 000 US $ kann Vertex mit jährlichen Umsätzen von mehreren Mrd. US $ rechnen.

Extrem teuer sind auch erfolgsversprechende neue Entwicklungen in der Tumortherapie, die das körpereigene Immunsystem so aufrüsten, dass es bestimmte Tumorzellen erkennen und zerstören kann. Sogenannte Checkpoint-Inhibitoren wie das bei metastasierendem Melanom und fortgeschrittenen nicht-kleinzelligen Lungenkarzinom angewandte Nivolumab ("Opdivo", Bristol Myers Squibb) oder das für diese und weitere onkolologische Indikationen zugelassene Pembrolizumab ("Keytruda", Merck) haben im Jahr ihrer Einführung (2014) über 100 000 US $ pro Behandlungszyklus gekostet. Umsätze von 3,8 Mrd $ (Keytruda) und 5,7 Mrd US $ (Opdivo) werden laut Prognosen auf 12, 7 und 11,2 Mrd US $ im Jahr 2022 ansteigen.

Aus heutiger Sicht noch kostspieliger gestaltet sich die CAR T-Zelltherapie - eine auf jeden Patienten persönlich zugeschnittene Tumortherapie, in der die Immunzellen jedes einzelnen Patienten entnommen, spezifisch für seine Krebszellen scharf gemacht und dann wieder in den Patienten infundiert werden. Für die 2017 und 2018 zugelassenen CAR-Konstrukte KymriahTM gegen akute lymphatische Leukämie bei Jugendlichen (Novartis) und Yescarta R gegen Lymphome Erwachsener(Gilead) ergeben sich Behandlungskosten von 300 000 bis über 400 000 US $ pro Zyklus.

Strukturwandel im Pharmasektor

Im letzten Jahrzehnt hat ein Paradigmenwechsel stattgefunden: der Pharmasektor hat sich von Arzneimitteln mit relativ niedriger Gewinnspanne aber riesigem Markt auf den Weg zu personalisierten Therapien begeben und einige Durchbrüche in der Behandlung von Subtypen von Krankheiten und sogenannten seltenen Krankheiten erreicht (die dann allerdings extrem teuer sein konnten). Dementsprechend setzen sich die aktuellen Pipelines nun zusammen: sie enthalten mehr und mehr Produkte - niedermolekulare Verbindungen wie auch Biologika -, die gegen spezifische Subtypen von Erkrankungen und gegen bestimmte seltene Krankheiten Wirkung versprechen. (Nach wie vor erreichen aber nur die wenigsten der am Ende der präklinischen Entwicklung verbliebenen Hoffnungsträger die Marktzulassung ).Vor allem in der Onkologie sind Biologika zu wesentlichen Umsatzträgern geworden; Gentherapie und Zelltherapien stehen im Fokus vieler Konzerne.

Dass bei seltenen Erkrankungen, bei personalisierter Therapie viel weniger Patienten rekrutiert werden können und müssen, um den klinischen Erfolg eines Arzneimittels zu demonstrieren, dass solcherart gefundene Therapeutika wesentlich weniger aggressives Marketing benötigen um wirtschaftlich erfolgreich zu sein, führt zu einem Umbau altgewohnter Strukturen. Big Pharma ist also im Umbruch: weg von alten, weniger erfolgversprechenden Sparten und hin zu neuen, medizinisch herausfordernden (und voraussichtlich lukrativen) Gebieten, für die das dazu nötige Know-How um Milliarden eingekauft wird. Es braucht aber auch kreative Forscher , welche die wissenschaftlichen Grundlagen erarbeiten und verstehen sollten. Vas Narasimhan, seit einem Jahr CEO von Novartis, hat in einem Interview ausgedrückt, wie primitiv unser Wissen über den menschlichen Organismus ist (5):

"Man vergisst oft, ist wie unglaublich schwierig es ist überhaupt ein Arzneimittel für den Menschen zu finden. Jeder Mensch besteht aus 40 Billionen Zellen, die zusammenwirken. Nur von einem Bruchteil der Proteine verstehen wir, was sie tun; ein Bruchteil kann als Zielstrukturen für Arzneimittel dienen ("drugable"). Wir wissen nicht, was der Großteil der RNA macht, die nicht kodierende RNA, was der überwiegende Teil des Genoms erzählt. Seit der Gründung der FDA (vor mehr als 100 Jahren; Anm. Redn.) sind insgesamt nur etwa 1500 neue Wirkstoffe entdeckt worden, ......jedes neue Arzneimittel ist wie ein Wunder. "


(1) 2018 FDA drug approvals. News 15.01.2019. https://www.nature.com/articles/d41573-019-00014-x

(2) efpia, The Pharmaceutical Industry in Figures. Key Data 2018. https://efpia.eu/media/361960/efpia-pharmafigures2018_v07-hq.pdf

(3) Top 50 Arzneimittel weltweit nach Umsatz im Jahr 2017 und Prognose für das Jahr 2014. (https://de.statista.com/statistik/daten/studie/312865/umfrage/arzneimitt...).

(4) http://www.evaluate.com/products-services/pharma

(5) a16zPodcast: The Science and Business of Innovative Medicines (01.2019). Vas Narasimhan im Interview. https://a16z.com/2019/01/13/pharma-business-innovation-medicine-next-the...


inge Sat, 23.02.2019 - 11:20

Schlaflosigkeit fördert die Ausbreitung von toxischem Alzheimer-Protein

Schlaflosigkeit fördert die Ausbreitung von toxischem Alzheimer-Protein

Do, 14.02.2019 - 10:04 — Francis S. Collins

Francis S. CollinsIcon Gehirn

Zusätzlich zu Gedächtnisverlust und Verwirrung leiden viele Menschen mit Alzheimer-Krankheit auch an Schlafstörungen. Nun hat ein von der NIH finanziertes Forscherteam Beweise dafür, dass auch das Umgekehrte zutrifft: Ein chronischer Schlafmangel kann die Krankheit und den damit verbundenen Gedächtnisverlust verschlimmern. Francis Collins, Direktor der US National Institutes of Health, berichtet hier über diese Untersuchungen, die zeigen, dass Schlafentzug die Ausbreitung des Tau-Proteins in Form toxischer Fibrillen im Gehirn fördert.*

Die neuen Ergebnisse konzentrieren sich auf das sogenannte Tau-Protein, das sich im Gehirn von Menschen mit Alzheimer-Krankheit in Form verklumpter Fibrillen ansammelt. Bei einem gesunden Gehirn setzen die aktive Neuronen während des Wachzustands für gewöhnlich etwas Tau-Protein frei; dieses wird aber üblicherweise während der Schlafphase beseitigt. Unser Gehirn verfügt ja tatsächlich über ein System, um dem Müll zu beseitigen, während wir uns im Traumland aufhalten.

Neueste Studien an Mäusen und Menschen weisen darauf hin, dass Schlafentzug dieses Gleichgewicht von Freisetzung und Beseitigung stört: dadurch kann mehr freigesetztes Tau-Protein akkumulieren und sich in Form toxischer Fibrillen in Gehirnbereichen ausbreiten, die für das Gedächtnis von Wichtigkeit sind. Die Ergebnisse legen nahe, dass regelmäßiger und tiefer Schlaf eine unvermutet wichtige Rolle spielen kann, um den Beginn der Alzheimer-Krankheit hinaus zu zögern oder ihren Fortschritt zu verlangsamen.

Ablagerungen von Tau-Protein......

Es ist bereits seit langem bekannt, dass die Alzheimer-Krankheit mit der allmählichen Anreicherung von Beta-Amyloid-Peptiden und Tau-Proteinen verbunden ist, die Plaques (unlösliche Proteinablagerungen außerhalb der Nervenzellen, Anm. Red.) und verklumpte Tau-Fibrillen (innerhalb der Zellen, Anm. Red.) bilden, welche als Erkennungszeichen der Krankheit gelten. Erst vor kurzem wurde klar, dass Beta-Amyloid zwar ein frühes Anzeichen für die Krankheit ist, Tau-Ablagerungen jedoch mit dem Fortschreiten der Erkrankung und dem kognitiven Verfall einer Person präziser einhergehen. Abbildung 1.

Abbildung 1. Beta-Amyloid Plaques und Tau-Protein Fibrillen im Gehirn von Alzheimer-Kranken. Beta-Amyloid Peptide klumpen zu Plaques zwischen den Neuronen zusammen (braun) und stören deren Funktion, Ansammlungen von Tau-Protein (blau) bilden Fibrillen innerhalb der Neuronen und verletzen die synaptische Kommunikation zwischen den Neuronen. (Bild: NIH Image Gallery. National Institute on Aging, NIH; cc-by-sa-Lizenz. Mehr Information: www.nia.nih.gov/health/what-happens-brain-alzheimers-disease)

Solche Befunde liessen Forscher um David Holtzman (Washington University School of Medicine, St. Louis) hoffen, dass Strategien, die auf das Tau-Protein abzielen, die verheerende Krankheit verlangsamen könnten. Wenn man auch von der Entwicklung geeigneter Medikamente das meiste erwartete, konzentrierten sich einige Forscher auch auf den Schlaf und seine Fähigkeit in der Nacht die Harmonie des Stoffwechsels im Gehirns wieder herzustellen.

....sind mit dem Wach-Schlaf-Zyklus verknüpft

In der nun im Fachjournal Science veröffentlichten Studie untersuchte das Team um Holtzman, ob die Spiegel des Tau-Proteins im Gehirn auf natürliche Weise mit dem Schlaf-Wach-Zyklus verknüpft sind [1]. Von früheren Untersuchungen war bekannt, dass das Tau-Protein von aktiven Neuronen in geringen Mengen freigesetzt wird. Werden die Nervenzellen jedoch ständig aktiviert, so wird mehr Tau freigesetzt.

Steigen die Konzentrationen des Tau-Proteins also, wenn wir wach sind und fallen sie, wenn wir schlafen?

Das Holtzman-Team hat im Tierversuch gezeigt, dass dies tatsächlich der Fall ist. Die Forscher haben dazu die Konzentration des Tau-Proteins in der Hirnflüssigkeit von Mäusenbestimmt, die sie während deren üblichen Wach- und Schlafzeit gesammelt hatten. (Da Mäuse nachtaktiv sind, schlafen sie hauptsächlich tagsüber.) Die Forscher stellten fest, dass sich die Spiegel des Tau-Proteins im Gehirn fast verdoppelten, wenn die Tiere wach waren. Sie wiesen auch nach, dass Schlafentzug die Tau-Spiegel in der Gehirnflüssigkeit nochmals verdoppelte.

Diese Befunde waren besonders interessant, weil das Team um Holtzman bezüglich des Beta-Amyloids bereits ein analoges Ergebnis am Menschen gefunden hatte. Das Team hatte festgestellt, dass gesunde Erwachsene, die eine Nacht durcharbeiten mussten, einen Anstieg des ungesunden Beta-Amyloids in ihrer Rückenmarksflüssigkeit (Liquor cerebrospinalis -CSF) um durchschnittlich 30 Prozent verzeichneten.

Die Forscher griffen nun auf die damaligen, noch existierenden menschlichen Proben zurück und analysierten sie nochmals, nun auch auf das Tau-Protein: Tatsächlich fanden sie die Tau-Spiegel erhöht - im Durchschnitt um etwa 50 Prozent.

Schlafmangel fördert die Ausbreitung von Tau-Protein

Sobald sich das Tau-Protein im Hirngewebe ansammelt, kann es sich entlang neuronaler Verbindungen von einer Gehirnregion zur nächsten Gehirnregion ausbreiten. Holtzmans Team fragte sich nun, ob ein über längere Zeit bestehender Schlafmangel auch dazu führen könnte, dass sich das Tau-Protein ausbreitet.

Um dies herauszufinden, wurden Mäuse genetisch erst so manipuliert, dass sie menschliche Tau-Fibrillen in ihrem Hirn exprimierten, und dann dazu gebracht, länger als üblich wach zu bleiben und über mehrere Wochen schlechteren Schlaf zu bekommen. Das Ergebnis war, dass weniger Schlaf die ursprüngliche Ablagerung des Tau-Proteins im Gehirn zwar nicht veränderte, aber zu einer signifikanten Erhöhung der Tau-Ausbreitung führte. Interessanterweise traten bei den Tieren verklumpte Tau-Fibrillen in den gleichen Gehirnregionen auf, die auch bei Alzheimer-Patienten betroffen waren.

Ein weiterer Bericht des Holtzman-Teams, der Anfang letzten Monats im Journal Science Translational Medicine erschien, fand noch eine zusätzliche Verbindung zwischen dem Tau-Protein und Schlafstörungen. Diese Studie setzte PET-Scans(Postron-Emission Tomographie) ein und zeigte, dass ältere Menschen mit mehr Tau-Fibrillen im Gehirn, weniger tiefen (slow wave) Schlaf hatten [2].

Fazit

In Summe deuten diese neuen Erkenntnisse darauf hin, dass Alzheimer-Krankheit und Schlaflosigkeit enger miteinander zusammenhängen, als man bisher angenommen hatte. Die Ergebnisse weisen darauf hin, dass gute Schlafgewohnheiten und /oder Behandlungen, welche die Qualität des Schlafs erhöhen, eine wichtige Rolle im Hinauszögern der Alzheimer-Krankheit spielen könnten. Schlechter Schlaf kann andererseits den Zustand verschlechtern und ein frühes Warnzeichen für Alzheimer sein.

Die Ergebnisse erinnern uns zunächst daran, dass wir uns alle bemühen sollten regelmäßig eine gute Nachtruhe zu erreichen. Schlafentzug ist wirklich kein guter Weg, um mit einem anstrengenden Leben fertig zu werden (ich rede hier mit mir selbst). Es ist zwar noch nicht klar, wieweit bessere Schlafgewohnheiten die Alzheimer-Krankheit verhindern oder verzögern werden, aber sie können sicherlich nicht schaden.

---------------------------------------

[1] The sleep-wake cycle regulates brain interstitial fluid tau in mice and CSF tau in humans. Holth JK, Fritschi SK, Wang C, Pedersen NP, Cirrito JR, Mahan TE, Finn MB, Manis M, Geerling JC, Fuller PM, Lucey BP, Holtzman DM. Science. 2019 Jan 24. [2] Reduced non-rapid eye movement sleep is associated with tau pathology in early Alzheimer’s disease. Lucey BP, McCullough A, Landsness EC, Toedebusch CD, McLeland JS, Zaza AM, Fagan AM, McCue L, Xiong C, Morris JC, Benzinger TLS, Holtzman DM. Sci Transl Med. 2019 Jan 9;11(474).


* Dieser Artikel von NIH Director Francis S. Collins, M.D., Ph.D. erschien zuerst (am. 5. Feber 2019) im NIH Director’s Blog, https://directorsblog.nih.gov/2019/02/05/sleep-loss-encourages-spread-of... und wurde geringfügig für den ScienceBlog adaptiert Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

National Institutes of Health (NIH)

Alzheimer’s Disease and Related Dementias (National Institute on Aging/NIH)

Accelerating Medicines Partnership: Alzheimer’s Disease (NIH)

Holtzman Lab (Washington University School of Medicine, St. Louis)

Tau-Protein gegen Gedächtnisverlust (ohne Ton). Max-Planck Film 1:44 min

Planet Wissen - Diagnose Alzheimer Video 58:17 min

Artikel im ScienceBlog:

Francis S. Collins, 27.05.2016: Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts

Gottfried Schatz: 03.07.2015: Die bedrohliche Alzheimerkrankheit — Abschied vom Ich


 

inge Thu, 14.02.2019 - 11:07

Menschliche Intelligenz: Was uns einzelne Neuronen erzählen können

Menschliche Intelligenz: Was uns einzelne Neuronen erzählen können

Do, 07.02.2019 - 14:05 — Redaktion

RedaktionIcon Gehirn

Ganz allgemein geht man davon aus, dass menschliche Intelligenz auf der effizienten Verarbeitung von Signalen durch Neuronen in unserem Gehirn beruht. Dass Dicke und Aktivität der grauen Substanz im Bereich des Schläfenlappens und Frontallappens mit den IQ-Werten korrelieren, ist bekannt, nicht aber, wie dies auf dem Niveau der einzelnen Neuronen zu verstehen ist. Eine eben im Journal eLife erschienene Untersuchung des Teams um Natalia Goriounova zeigt nun erstmals einen Zusammenhang zwischen morphologischen und physiologischen Eigenschaften bestimmter Neuronen (der sogenannten Pyramidenzellen) im temporalen Cortex und menschlicher Intelligenz.*

Sie erinnern sich wahrscheinlich, dass Sie als Kind in der Schule gelernt haben, wie man rechnet, wie man Geschichten liest und versteht und wie man Rätsel löst. Solche Aufgaben erscheinen Ihnen jetzt vielleicht einfach, tatsächlich sind sie aber recht anspruchsvoll, da sie ein hohes Maß an Verarbeitungsleistung unseres Gehirns erfordern.

IQ-Tests

Seit Jahrzehnten arbeiten Wissenschaftler an Methoden, um unsere Fähigkeit, Wissen in uns aufzunehmen und es auf neue Situationen anzuwenden - also unsere Intelligenz - zu quantifizieren. Sie haben auch die Merkmale des menschlichen Gehirns untersucht, welche zu individuellen Leistungsunterschieden bei solchen Aufgaben beitragen.

IQ-Tests werden zur Quantifizierung von Intelligenz verwendet, indem die individuelle Reaktion auf Fragen zu verbalem Verstehen, schlussfolgerndem Wahrnehmen und zum Arbeitsgedächtnis in vorgegebener Zeit bewertet wird. Viele Hypothesen wurden entwickelt, um neuronale Merkmale mit individuellen Unterschieden in den IQ-Testergebnissen zu verknüpfen.

Einige Studien am Menschen haben darauf hingedeutet, dass das Gehirns in seiner ganzen Größe mit dem Intelligenzniveau korreliert; andere Arbeiten wiederum haben gezeigt, dass es bessere Verbindungen zwischen bestimmten Hirnregionen, wie zwischen dem präfrontalen und dem parietalen Cortex, sind, die mit dem Intellekt zusammenhängen (McDaniel, 2005; Hearne et al., 2016). Des weiteren legen Vergleiche zwischen Säugetierarten nahe, dass die aktive kognitive Leistungsfähigkeit mit der Gehirngröße oder mit der bloßen Zahl von Neuronen in der Großhirnrinde korrelieren kann (MacLean et al., 2014; Herculano-Houzel, 2017). Wenn derartige Erkenntnisse auch dazu beitragen, dass man versteht, wie Gehirne aufgebaut sind, um komplexe Kalkulationen anzustellen, so ist es allerdings bis jetzt nie möglich gewesen zu prüfen, ob die Feinstruktur von Neuronen mit der Unterschiedlichkeit des menschlichen Intellekts korreliert.

Der methodische Ansatz

In eLife berichten Natalia Goriounova (Vrije Universiteit Amsterdam) und Kollegen, dass die mikroskopische Anatomie von Neuronen und deren physiologischen Eigenschaften mit individuellen Unterschieden bei den IQ-Werten zusammenhängen (Goriounova et al., 2018). Die Gruppe hatte eine gute Chance intakte Biopsien des temporalen Cortex zu untersuchen, die bei Operationen von Hirntumoren und von Epilepsiepatienten entfernt wurden. Abbildung 1.

Abbildung 1. Untersuchungen an Patienten (IQ-Tests) und an intakten Proben gesunden Gewebes aus derem Cortex (schwarzes Quadrat: Ort der Probennahme).Bestimmt wurden die Dicke des Cortex (mittels Magnetresonanz), die Morphologie einzelner Pyramidenzellen (mittels Mikroskopie) und deren Physiologie (Messung der Aktionspotentiale). Mit Hilfe von Computermodellenwurde simuliert, wie morphologische Veränderungen der Dendriten die Funktionsweise der Neuronen beeinflussen. (Die Abbildung stammt aus der zugrundeliegenden Arbeit Goriounava et al.,(2018), steht unter einer cc-by Lizenz und wurde von der Redaktion eingefügt.)

Goriounova und ihr Team untersuchten in diesen Geweben einige Eigenschaften der Neuronen und zeichneten deren elektrische Aktivität auf. Dann untersuchten sie, ob diese Variablen mit Intelligenzbewertungen auf Basis von IQ-Tests in Verbindung gebracht werden könnten. Einen einzelnen IQ-Wert dem Intellekt eines Individuums zuzuordnen, war kontrovers diskutiert worden (Gould, 1981), das Team verwendete als geeignete Messgröße aber IQ-Scores, die mehrere Aspekte der kognitiven Informationsverarbeitung widerspiegeln dürften.

Höhere IQ-Scores korrelieren mit einem dickeren Cortex und längeren und stärker verästelten Dendriten der Pyramidenzellen

Basierend auf Bestimmungen von präoperativ ausgeführten Magnetresonanz (MRI)-Scans bestätigten die Forscher zunächst, dass höhere IQ-Scores mit einem dickeren temporalen Cortex korrelieren. Dann wählten sie aus den oberen Cortex-Schichten jedes Patienten zwei oder drei Pyramidenzellen aus und untersuchten diese. Bei diesen großen Zellen handelt es sich um den dominierenden Typ von Neuronen, die man im Cortex (der Großhirnrinde) findet. Abbildung 2.

Pyramidenzellen erhalten Informationen von benachbarten Zellen über Dendriten, d.i. über verästelte Fortsätze, die in als Synapsen bezeichneten Strukturen an anderen Neuronen anknüpfen. Zur Weiterleitung der Information "feuern" dann die Pyramidenzellen. Abbildung 2. Die Architektur einzelner Neuronen im menschlichen Cortex und die IQ-Scores hängen zusammen. Rechts: Der temporale Cortex des menschlichen Gehirns ist in Schichten aufgebaut, welche Pyramidenzellen (schwarz) enthalten. Diese Neuronen- links im Detail gezeigt - sammeln Informationen von ihren Nachbarn über verästelte Strukturen - sogenannte Dendriten - integrieren diese Informationen und leiten sie in andere Regionen des Cortex weiter. Goriounova et al. entdeckten, dass ein höherer IQ-Score (linke Seite des rechten Bildes) mit einem dickeren temporalen Cortex korreliert war, der Pyramidenzellen mit ausgeprägteren dendritischen Netzwerken aufweist, die schneller feuern (Kurve unten). Ein niedrigerer IQ-Wert (rechte Seite, rechts) war mit einem dünneren temporalen Cortex assoziiert, in welchem die Pyramidenzellen weniger komplexe dendritische Netzwerke besitzen und langsamer feuern.(Bild links von Redn eingefügt; es stammt von Fabuio, Wikipedia und steht unter cc-by 4.0 Lizenz.)

Unterschiede in Länge und Verästelungen der Dendriten konnten rund 25% der inter-individuellen Varianz von IQ-Scores in einem Kollektiv von 25 Patienten erklären. Längere Dendriten haben eine vergrößerte Oberfläche - dies mag dazu beitragen, dass das Neuron eine höhere Zahl an Synapsen bilden kann. Mit einem Mehr an solchen Verbindungswegen können Pyramidenzellen ein Ausgangssignal erzeugen, das pro Zeiteinheit mehr Input-Signale von benachbarten Neuronen integriert.

Schließlich wurden dann Computermodelle angewandt, um zu untersuchen, wie Änderungen in der Morphologie von Dendriten die Funktionsweise der Neuronen beeinflussen könnten. Die Analysen ergaben, dass Pyramidenzellen mit größeren dendritischen Ästen schneller feuern und ihnen damit eine schnellere Übertragung von Informationen möglich wird. Als die Aktivität von Zellen in Hirnschnitten von 31 Patienten aufgezeichnet wurde, zeigte es sich tatsächlich, dass höhere IQ-Scores mit Neuronen assoziiert sind, die schneller feuern, insbesondere während einer andauernden neuronalen Aktivität. Sogar ein geringer Anstieg in der Schnelligkeit mit der Neuronen Informationen weiterleiten, kann Reaktionszeiten verbessern und letztendlich Verhaltensreaktionen beeinflussen (Nemenman et al., 2008). Bei rund 16 Milliarden Neuronen in der menschlichen Großhirnrinde können kleine Unterschiede in deren anatomischen und physiologischen Eigenschaften die intellektuelle Leistungsfähigkeit verändern (Herculano-Houzel, 2009).

Fazit

Goriounova und ihr Team haben gezeigt, dass deutliche Veränderungen in der Mikroanatomie von Pyramidenzellen die Arbeitseigenschaften dieser Zellen beeinflussen. Aus Pyramidenzellen mit komplexeren dendritischen Netzwerkenein kann wiederum ein dickerer Cortex entstehen. Dies kann dann zu einer schnelleren Informationsverarbeitung und letztendlich zu einer Steigerung der intellektuellen Leistungsfähigkeit führen. Ähnliche Beobachtungen wurden bei einem unserer nächsten lebenden Verwandten, dem Schimpansen, gemacht: hier konnten dickere Hirnrinden mit höheren Scores bei Intelligenztests assoziiert werden (Hopkins et al., 2018). Menschliche Hirnrinden haben robustere dendritische Netzwerke als Schimpansen - dies mag Unterschiede in den kognitiven Fähigkeiten zwischen Menschen und nicht-menschlichen Primaten erklären (Bianchi et al., 2013).

Allerdings: Merkmale auf der neuronalen Ebene erklären nur einen kleinen Teil der Variation in den IQ-Scores. Andere Eigenschaften auf Ebene der Moleküle, der Interaktionen und Regulationen können ebenfalls eine wesentliche Rolle spielen. In Summe helfen diese Ergebnisse, die neuronale Basis und die Entwicklung der menschlichen Intelligenz zu erfassen.


Literaturangaben

Bianchi S, et al, 2013. Dendritic morphology of pyramidal neurons in the chimpanzee neocortex: regional specializations and comparison to humans. Cerebral Cortex 23:2429–2436. DOI: https://doi.org/10.1093/cercor/bhs239 , PMID: 22875862

Goriounova NA, et al; 2018. Large and fast human pyramidal neurons associate with intelligence. eLife 7:e41714. DOI: https://doi.org/10.7554/eLife.41714 PMID: 30561325

Gould SJ. 1981. The Mismeasure of Man. New York: Norton.

Hearne LJ, Mattingley JB, Cocchi L. 2016. Functional brain networks related to individual differences in human intelligence at rest. Scientific Reports 6:32328. DOI: https://doi.org/10.1038/srep32328 , PMID: 27561736

Herculano-Houzel S. 2009. The human brain in numbers: a linearly scaled-up primate brain. Frontiers in Human Neuroscience 3:1–11. DOI:  https://doi.org/10.3389/neuro.09.031.2009 PMID: 19915731

Herculano-Houzel S. 2017. Numbers of neurons as biological correlates of cognitive capability. Current Opinion in Behavioral Sciences 16:1–7. DOI: https://doi.org/10.1016/j.cobeha.2017.02.004

Hopkins WD, Li X, Roberts N. 2018. More intelligent chimpanzees (Pan troglodytes) have larger brains and increased cortical thickness. Intelligence. DOI: https://doi.org/10.1016/j.intell.2018.11.002

MacLean EL, et al., 2014. The evolution of self-control. PNAS 111:E2140–E2148. DOI: https://doi.org/10.1073/pnas.1323533111 PMID: 24753565

McDaniel M. 2005. Big-brained people are smarter: a meta-analysis of the relationship between in vivo brain volume and intelligence. Intelligence 33:337–346. DOI:  https://doi.org/10.1016/j.intell.2004.11.005

Nemenman I, et al., 2008. Neural coding of natural stimuli: information at sub-millisecond resolution. PLoS Computational Biology 4:e1000025. DOI: https://doi.org/10.1371/journal.pcbi.1000025 , PMID: 18369423


*Der von Elaine N Miller und Chet C Sherwood stammende Artikel: "Human Intelligence: What single neurons can tell us" ist am 5. Feber 2019 erschienen in: eLife 2019;8:e44560 doi: 10.7554/eLife.44560 erschienen. Es ist eine leicht verständliche Zusammenfassung ("Insight") der oben zitierten Untersuchung von Natalia A Goriounova et al. "Large and fast human pyramidal neurons associate with intelligence". Der Artikel wurde von der Redaktion ins Deutsche übersetzt und geringfügig für ScienceBlog.at adaptiert (Untertitel, Abbildung 1 aus Wikipedia). eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz.


Weiterführende Links

Artikel von der Website: dasgehirn.info, u.a.: Ragnar Vogt (2014): Intelligenz in Zahlen

Christian Wolf (2014): Was uns schlau macht

inge Thu, 07.02.2019 - 14:05

Wie regionale Klimainformationen generiert und Modelle in einem permanenten, zyklischen Prozess verbessert werden

Wie regionale Klimainformationen generiert und Modelle in einem permanenten, zyklischen Prozess verbessert werden

Do, 31.01.2019 - 17:56 — carbon-brief Vorname ZunameIcon MINT

Wenn die Modellierung des globalen Klimas auch bereits recht gute Ergebnisse liefert, so besteht doch ein enormer gesellschaftlicher Bedarf für Modelle mit höherer Auflösung, welche die regionale Klimaentwicklung beschreiben können. Dieser Aspekt und auch die fortwährende Verbesserung von Klimamodellen sind Thema des vorliegenden Artikels. Es sind die beiden letzten Teile der 2018 auf der britischen Website Carbon Brief erschienenen Serie "Q&A: How do climate models work?". Dort bemüht sich ein Team von Naturwissenschaftern, etablierten Klimaexperten und Wissenschaftsjournalisten um leicht verständliche, klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels zu verbessern. ScienceBlog.at dankt für die Zustimmung diese großartige Serie gesamt und in übersetzter Form [1,2,3,4,5,6,7,8] den Lesern im deutschen Sprachraum präsentieren zu können!*

Wie erzeugen Wissenschaftler regionale Klimalinformationen?

Globale Klimamodelle (siehe [2]) unterliegen einer wesentlichen Limitierung, nämlich der räumlichen Abmessung der Gitterzellen, die den Modellen zugrundeliegen: in mittleren Breiten beträgt die horizontale Gitterpunktweite rund 100 km. Bedenkt man, dass beispielsweise Großbritannien nur etwas mehr als 400 km breit ist, so bedeutet dies, dass das Land in einem globalen Klimamodell bloß durch eine Handvoll Gitterboxen dargestellt wird.

Eine solche grobe Auflösung bedeutet, dass den Globalen Modellen die geografischen Besonderheiten fehlen, welche für einen bestimmten Standort charakteristisch sind. Es gibt Inselstaaten, die so klein sind, dass ein Globales Klimamodell diese nur als einen Flecken "Ozean" betrachten könnte (Abbildung 1), merkt Professor Michael Taylor an, Senior Lecturer an der University of the West Indies und koordinierender Hauptautor des Sonderberichts des IPCC's special report on 1,5 C . Taylor erklärt dies Carbon Brief gegenüber [9]:

"Wenn Sie an die östlichen Karibikinseln denken, so liegt eine einzelne östliche Karibikinsel innerhalb einer Gitterbox und wird in globalen Klimamodellen also als Wasser dargestellt."

„Selbst die größeren karibischen Inseln werden durch eine oder höchstens zwei Gitterboxen dargestellt - so erhalten Sie Informationen für nur eine oder zwei Gitterboxen. Dies bedeutet eine Limitierung für die kleinen Inseln der Karibikregion und für kleine Inseln ganz allgemein. So erhält man keine präziseren, besser aufgelösten Informationen für die kleinen Inseln auf Sub-Country-Ebene."

Abbildung 1. Die grobe Auflösung der Globalen Klimamodelle kann geografische Besonderheiten nicht wiedergeben, die für eine bestimmte Region charakteristisch sind - beispielsweise für kleine Inselstaaten. Hier: Tobago Cays and Mayreau Island, St. Vincent and The Grenadines.(Credit:robertharding/Alamy Stock Photo).

Von grob aufgelösten globalen Modellen zu regionalen Modellen

Wissenschaftler überwinden dieses Problem, indem sie globale Klimainformationen auf die lokale oder regionale Ebene downscalen – „herunterskalieren“ -. Im Grunde bedeutet dies, dass man Informationen nimmt, die von einem Globalen Klimamodell oder von Aufzeichnungen bei grober Auflösung stammen und diese auf einen bestimmten Ort oder eine bestimmte Region anwendet. Für kleine Inselstaaten können Wissenschaftler mithilfe dieses Vorgehens geeignete Daten für bestimmte Inseln oder sogar für Bereiche innerhalb von Inseln erhalten, erklärt Taylor [9]:

"Der gesamte Prozess des Herunterskalierens versucht dann die Informationen, die man aus der groben Auflösung erhalten kann, auf den lokalen Maßstab oder auf den Inselmaßstab oder bis hin zum Subinselmaßstab zu beziehen."

Es gibt zwei Arten von Methoden für das Downscaling. Die erste ist:

Dynamisches Downscaling…

Im Grund sind das Simulationen an Modellen, die ähnlich arbeiten wie die Globalen Modelle, allerdings begrenzt auf bestimmte Regionen. Da diese regionalen Klimamodelle (RCMs) ein kleineres Gebiet abdecken, können sie bei einer weit höheren Auflösung arbeiten als die Globalen Modelleund dabei eine vernünftige Laufdauer haben. Dr.Dann Mitchell, Dozent an der School of Geographic Sciences der University of Bristol, nennt dafür ein Beispiel:

"Ein regionales Klimamodell, das Gitterzellen mit horizontalen Abmessungen von 25 km aufweist und ganz Europa abdeckt, würde ungefähr 5 - 10 mal länger laufen als ein globales Modell mit 150 km Auflösung."

…ein Beispiel aus Großbritannien

Bei den UK Climate Projections 2009 (UKCP09) handelt es sich beispielsweise um eine Reihe von Klimaprojektionen, die speziell für Großbritannien mit einem regionalen Klimamodell erstellt wurden - dem HadRM3-Modell des Met Office Hadley Centre (siehe dazu [5]). HadRM3 verwendet Gitterzellen von 25 km x 25 km, wodurch Großbritannien in 440 Felder aufgeteilt wird. Dies war bereits eine Verbesserung gegenüber der Vorgängerversion („UKCIP02“), die Projektionen mit einer räumlichen Auflösung von 50 km produzierte. Die nachstehende Karte zeigt, um wie viel detaillierter das 25-km-Raster (sechs Karten rechts) ist, als das 50-km-Raster (zwei Karten ganz links). Abbildung 2. Regionale Klimamodelle wie HadRM3 können lokale Faktoren wie den Einfluss von Seen, Gebirgszügen und Meeresbrisen besser – wenn auch noch limitiert – darstellen.

Abbildung 2. Wie sich - unter der Annahme von Szenarien mit hohen Emissionen - die saisonalen Durchschnittstemperaturen im Winter (oben) und im Sommer (unten) in den 2080er Jahren entwickeln werden. Prognosen mit dem gröberen Modell UKCIP02 (ganz links) und mit UKCP09 für drei Wahrscheinlichkeitsniveaus (10, 50 und 90%). Eine dunklere rote Schattierung bedeutet eine größere Erwärmung. © UK Climate Projections 2009

Auch, wenn regionale Klimamodelle auf ein bestimmtes Gebiet begrenzt sind, müssen sie immer noch das weitere Klima berücksichtigen, das Einfluss auf das Gebiet hat. Wissenschaftler tun dies, indem sie Informationen von globalen Modellen oder von Messungen einspeisen. Taylor erklärt, wie das auf seine Forschungen in der Karibik zutrifft [9]:

„Für dynamisches Downscaling muss man zunächst das Gebiet definieren, über das man die Simulation ausführen möchte - in unserem Fall definieren wir eine Art Karibik- / Intra-Amerikas-Domäne, auf die wir die Modellierung beschränken. Aber natürlich speist man die Ergebnisse der globalen Modelle in die Ränder dieser Domäne ein - es sind also aus der groben Auflösung kommende Informationen, die das Modell mit der höheren Auflösung treiben. Und das ist das dynamische Downscaling - man modelliert im Wesentlichen mit höherer Auflösung, allerdings in einem begrenzten Gebiet und speist an den Rändern Informationen ein."

Es ist auch möglich mehrere regionale Klimamodelle in ein globales Klimamodell einzubetten ("Nesting") ; dies bedeutet, dass Wissenschaftler mehr als ein Modell gleichzeitig ausführen können und parallel mehrere Ebenen von Ergebnissen erhalten.

Statistisches Downscaling…

Die zweite Art der Downscaling -Methoden ist das "statistische Downscaling". Dabei werden Datensätze aus Messungen verwendet, um einen statistischen Zusammenhang zwischen dem globalen und dem lokalen Klima herzustellen. Mit Hilfe dieser Beziehung leiten die Wissenschaftler dann lokale Änderungen auf Basis der Simulationen von grob-aufgelösten globalen Modellen oder Messungen ab.

…als Beispiel der Wettergenerator

Ein Beispiel für statistisches Downscaling ist ein Wettergenerator. Ein Wettergenerator erzeugt synthetische Zeitreihen von täglichen und/oder stündlichen Daten für einen bestimmten Ort. Er verwendet dazu eine Kombination aus beobachteten lokalen Wetterdaten und aus Prognosen für das zukünftige Klima, um Hinweise zu erhalten, wie zukünftiges Wettergeschehen über kurze Zeiträume aussehen könnten. (Wettergeneratoren können auch Zeitreihen des Wetters im aktuellen Klima erzeugen.)

Der Wettergenerator kann zu Planungszwecken verwendet werden, z. B. bei einer Abschätzung des Hochwasserrisikos, um im Modell zu sehen, ob die bestehenden Hochwasserschutzmaßnahmen voraussichtlichen künftigen Starkniederschlägen gewachsen sein werden. Derartige statistische Modelle können im Allgemeinen schnell ausgeführt werden - in der Zeit, die ein einzelner globaler Modell-Lauf benötigt, können Wissenschaftler viele statistische Simulationen durchführen.

…ausschlaggebend ist die Qualität der eingespeisten Information

Es ist wichtig darauf hinzuweisen, dass Ergebnisse des Downscaling nach wie vor stark von der Qualität der Informationen abhängen, die eingespeist wurden, d.i. von den Datensätzen aus Beobachtungen und den Ergebnissen der globalen Klimamodelle. Das Herunterskalieren liefert nur mehr standortspezifische Daten, beseitigt aber keine Unsicherheiten, die sich aus den eingegebenen Informationen ergeben.

Insbesondere das statistische Downscaling muss sich auf die gemessenen Datensätze verlassen können, da aus diesen ja der statistische Zusammenhang abgeleitet wird. Downscaling geht auch davon aus, dass die statistischen Beziehungen, die im aktuellen Klima gelten, auch in einer wärmeren Welt noch gültig sein werden, so Mitchell. Er sagt zu Carbon Brief:

„[Statistisches Downscaling] kann für gut untersuchte Zeiträume oder gut untersuchte Orte in Ordnung sein. Wenn man jedoch das lokale System zu weit treibt, bricht die statistische Beziehung zusammen. Aus diesem Grund ist das statistische Downscaling für zukünftige Klimaprojektionen wenig geeignet.“

Dynamisches Downscaling ist robuster, sagt Mitchell, aber nur, wenn ein regionales Klimamodell die relevanten Prozesse gut erfasst und die Daten, die sie antreiben, zuverlässig sind:

„In der Klimamodellierung ist die Implementierung von Wetter- und Klimaprozessen im dynamischen Modell oftmals recht ähnlich wie im gröberen globalen Modell, das der Treiber ist. Daher bietet das dynamische Downscaling nur eine eingeschränkte Verbesserungsfähigkeit der Daten. Wenn dynamisches Downscaling jedoch gut durchgeführt wird, kann es für ein lokales Verständnis von Wetter und Klima wertvoll sein; es erfordert jedoch ein enormes Maß an Modellvalidierung und in einigen Fällen Modellentwicklung, um Prozesse darzustellen, die mit der höheren Auflösung erfasst werden können.“

Wie verläuft der Prozess der Modellverbesserung?

Die Entwicklung eines Klimamodells ist ein langfristiges Unterfangen, das mit der Veröffentlichung des Modells noch nicht zu Ende ist. Die meisten Modellierungszentren aktualisieren und verbessern ihre Modelle in einem kontinuierlichem Zyklus, mit einem Entwicklungsprozess, in welchem Wissenschaftler über Jahre hin die nächste Version ihrer Modelle aufbauen. Sobald die neue Modellversion mit allen Verbesserungen fertig ist, kann sie veröffentlicht werden, sagt Dr. Chris Jones vom Met Office Hadley Center (siehe dazu [5]):

„Es ist ein bisschen so, als würden Autokonzerne das nächste Modell eines bestimmten Fahrzeugs bauen, das sie seit Jahren gleich belassen hatten - aus der Entwicklung kommt aber plötzlich etwas Neues heraus. Mit unseren Klimamodellen gehen wir in der gleichen Weise vor.“

Am Beginn eines jeden Zyklus wird das vom Modell simulierte Klima mit Aufzeichnungen verglichen, um festzustellen, wo die größten Probleme liegen, erklärt Dr. Tim Woollings (Dozent für physikalische Klimawissenschaft an der Universität Oxford).

"Sobald diese identifiziert sind, geht man üblicherweise dazu über die physikalischen Prozesse zu bewerten, welche erfahrungsgemäß einen Einfluss auf diese Probleme haben, und versucht deren Darstellung [im Modell] zu verbessern."

Wie dies geschieht, ist von Fall zu Fall verschieden, sagt Woollings, endet aber im Allgemeinen mit einem neuen, verbesserten Code:

„Dies können ganze Codezeilen sein, um einen Prozess in leicht veränderter Art zu führen, es kann manchmal aber auch ein bereits vorhandener Parameter einfach auf einen besseren Wert geändert werden. Dies kann auf Grund neuer Forschungen oder der Erfahrung anderer [Modellierungszentren] erfolgen."

In diesem Vorgang stellen Wissenschaftler manchmal fest, dass einige Probleme andere kompensieren, sagt Woollings:

„Beispielsweise wurde Prozess A wurde als zu stark befunden, dies schien jedoch Prozess B kompensiert zu werden, der zu schwach war. In solchen Fällen wird generell Prozess A fixiert, auch wenn dadurch das Modell kurzfristig schlechter wird. Dann wendet man sich der Festlegung von Prozess B zu. Schlussendlich stellt das Modell die Physik beider Prozesse besser dar und wir haben insgesamt ein besseres Modell.“

Im Met Office Hadley Center sind mehrere Teams – „Prozess Evaluierungsgruppen“ - in den Entwicklungsprozess involviert , die versuchen, unterschiedliche Elemente des Modells zu verbessern, erklärt Woollings:

„Die Prozess Evaluierungsgruppen sind grundsätzlich Taskforces, die sich um bestimmte Aspekte des Modells kümmern. Während das Modell sich entwickelt, überwachen sie in ihrem Bereich Abweichungen (Bias) und testen neue Methoden, um diese zu reduzieren. Diese Gruppen treffen sich regelmäßig, um ihr Gebiet zu besprechen, häufig sind Mitglieder aus Hochschulkreisen ebenso wie Wissenschaftler des Met Office vertreten."

Die Verbesserungen, an denen jede Gruppe arbeitet, werden dann in dem neuen Modell zusammengeführt. Sobald es komplettiert ist, kann das Modell zu seriösen Läufen starten, sagt Jones:

"Am Ende eines zwei- oder dreijährigen Prozesses haben wir dann ein Modell der neuen Generation, von dem wir glauben, dass es besser ist als das letzte. Wir können dann beginnen es auf wissenschaftliche Fragen anzuwenden, die wir bereits früher gestellt hatten und sehen ob wir sie nun besser beantworten können.“

Nachsatz

Hier endet dieses Kapitel.

Carbon Brief hat 22 führende Klimawissenschaftler befragt welche Verbesserungen an Klimamodellen sie für dringlichst erachten. Die Antworten reichen von Aussagemöglichkeiten zu Wetter- und Klimaextrema, über die Einbeziehung natürlicher Variabilität bis hin zum Einfluss von Landnutzung, Verschmutzung und Nährstoffen - sie geben einen Eindruck wie und wohin sich die Klimamodelle in nächster Zeit entwickeln werden. Die Antworten sind im Detail nachzulesen unter: https://www.carbonbrief.org/in-depth-scientists-discuss-how-to-improve-c...


Carbon Brief Serie über Klimamodelle

(1) 19.04.2018: Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung

(2) 31.05.2018: Klimamodelle – von einfachen zu hochkomplexen Modellen

(3) 21.06.2018: Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen

(4) 23.08.2018: Welche Fragen stellen Wissenschaftler an Klimamodelle, welche Experimente führen sie durch?

(5) 20.09.2018: Wer betreibt Klimamodellierung und wie vergleichbar sind die Ergebnisse?

(6) 01.11.2018: Klimamodelle: wie werden diese validiert?

(7) 06.12.2018: Grenzen der Klimamodellierungen

(8 – dieser Artikel): Wie regionale Klimainformationen generiert und Modelle in einem permanenten Zyklus verbessert werden

[9] Carbon Brief (2018) interviews Michael Taylor: Why might small islands be missed from climate models? Video 4:23 min. https://www.youtube.com/watch?v=NuBwB4M1FFo. Lizenz CC-by


*Der Artikel ist der Homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen (https://www.carbonbrief.org/qa-how-do-climate-models-work ). Unter den Titeln " How do scientists produce climate model information for specific regions?" und "What is the process for improving models?" ist es der Abschluss einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde. Die unter einer cc-by-nc-nd 4.0 Lizenz stehenden Artikel wurden im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.

Carbon Brief - https://www.carbonbrief.org/ - ist eine britische Website, welche die neuesten Entwicklungen in den Bereichen Klimawissenschaft, Klimapolitik und Energiepolitik abdeckt. Die Seite bemüht sich um klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels von Seiten der Wissenschaft und auch der Politik zu verbessern . Im Jahr 2017 wurde Carbon Brief bei den renommierten Online Media Awards als"Best Specialist Site for Journalism" ausgezeichnet.


Weiterführende Links

Informationen zu Carbon Brief: https://www.carbonbrief.org/about-us
Carbon Brief: What's causing global warming? Video 1:22 min. (14.12.2017) https://www.youtube.com/watch?v=sKDWW9WlPSc

David Attenborough: 'Climate Change - Britain Under Threat' Video 1:00:14 (2013) https://www.youtube.com/watch?v=Cq1oFhTINXE

Max-Planck-Gesellschaft: Klimamodelle - die Welt im Computer (26.10.2015), Video 5:05 min. https://www.youtube.com/watch?reload=9&v=ouPRMLirt5k. Standard YouTube Lizenz.

Der Themenschwerpunkt "Klima - Klimawandel" Im ScienceBlog enthält knapp 30 Artikel: http://scienceblog.at/klima-klimawandel


 

inge Thu, 31.01.2019 - 17:56

Comments

Clickbaits – Köder für unsere Aufmerksamkeit

Clickbaits – Köder für unsere Aufmerksamkeit

Do, 24.01.2019 - 16:54 — Michael Simm

Michael SimmIcon Gehirn

Clickbaits – auf deutsch etwa „Klickköder“ - sollen die Besucher von Webseiten und sozialen Medien zu Aktionen verleiten - sowohl in kommerzieller als auch in politischer Hinsicht. Die Köder - meist reißerische Überschriften - wecken die Neugier der Leser, clicken diese auf die verlinkten Inhalte, so führt dies dann zwar oft zur Enttäuschung, ergibt insgesamt aber mehr User, höhere Reichweite (Werbung) und hat einige Websitebetreiber schon sehr reich gemacht. Leider haben Clickbaits auch in Naturwissenschaften und Medizin Eingang gefunden: auffallend oft werden „Durchbrüche“ oder gar „Revolutionen“ verkündet - Übertreibungen, die unerfüllbare Hoffnungen erwecken. Wie Clickbaiting funktioniert und warum wir psychologisch chancenlos dagegen sind, erklärt der deutsche Biologe und Wissenschaftsjournalist Michael Simm im folgenden Artikel.*

Was haben Sonderangebote und Katzenbilder, die Affären der Promis und irrwitzige Schlagzeilen gemeinsam? Antwort: Sie alle sind beliebte Köder für das wertvollste Gut in der alles beherrschenden Medienlandschaft: Unsere Aufmerksamkeit. Denn Aufmerksamkeit lässt sich im Gegensatz zu Geld und materiellen Besitztümern nicht aufsparen oder vermehren. Sie ist begrenzt – und das macht sie enorm wertvoll. Wertvoll für den Absender, wohlgemerkt. Wir als Empfänger werfen sie oft den banalsten Botschaften hinterher.

Dies mag der Grund sein, warum Tricks und Täuschungen, die früher Marktschreiern, unseriösen Boulevardblättern und demagogischen Politikern vorbehalten schienen, im Zeitalter des Internets und der sozialen Medien florieren: Als „Klickköder“ (englisch „Clickbaits“) sollen sie Besucher dazu bringen, hinzuschauen, zuzuhören, sich zu engagieren – und am Ende natürlich etwas zu kaufen.

Zwar gibt es zu den neurowissenschaftlichen Grundlagen des Clickbaitings nur wenige Forschungsarbeiten, und die Köder werden vorwiegend anhand der Erfahrungen von Marketingfachleuten ausgelegt. Bewusst oder unbewusst nutzt man dabei aber die Mechanismen, mit denen das Gehirn seine Aufmerksamkeit steuert, und versucht, Wichtiges von Unwichtigem zu trennen. Wie "erfolgreiche" Titel aussehen können, zeigt Abbildung 1.

Abbildung 1. Überschriften, die unsere Aufmerksamkeit wecken. (Bild: https://www.dasgehirn.info/entdecken/clickbaiting)

Wut verkauft sich gut

Emotionen spielen dabei eine überragende Rolle, denn sie markieren, was wir als besonders erachten. Und umgekehrt: Jonah Berger, Marketingspezialist, Bestsellerautor („Invisible Influence“) und Professor an der Wharton School der University of Pennsylvania, hat untersucht, warum manche Online-Inhalte wie Werbung, oder Videos sich schneller verbreiten als andere. Er wertete dazu die Inhalte aus, die während dreier Monate in der New York Times erschienen waren, und wie oft sie in sozialen Medien wie Facebook und Twitter mit „Likes“ und „Teilen“ positiv bewertet und weitergereicht wurden. Die Bilanz seiner Arbeit, erschienen unter dem Titel „What Makes Online Content Viral?“, lautet:

Erfolgreich ist, was Staunen verursacht, Wut oder Angst. Inhalte, die weniger erregende oder deaktivierende Emotionen hervorrufen, wie Traurigkeit, bekamen dagegen weniger Aufmerksamkeit.

Eine andere Studie, bei der fast 70.000 Nachrichten der britischen BBC, der New York Times, der Agentur Reuters und der Tageszeitung Daily Mail ausgewertet wurden, fand heraus, dass schlechte Nachrichten klar in der Überzahl waren, gefolgt von neutralen und einem kleinen Anteil positiver Nachrichten. Den größten Anteil negativer Nachrichten hatte dabei das Boulevardblatt Daily Mail mit 65 Prozent. Dem Publikum gefiel das offensichtlich, denn ausgerechnet jene Texte, deren Überschriften die Forscher als höchst emotional bewertet hatten, wurden per Twitter am häufigsten weitergeleitet.

Clickbaiting nimmt zwar auch positive Emotionen wie Humor oder Überraschung ins Visier, ist damit aber weniger erfolgreich, als mit schlechten Nachrichten. Die Forschung bestätigt somit eine alte Journalistenweisheit: „Only bad news is good news.“ Im Umgang mit Gewinn und Verlust ist das Gehirn nämlich alles andere als rational, argumentiert der Träger des Wirtschaftsnobelpreises von 2002, Daniel Kahneman. Tendenziell überwiegt die Angst, andererseits wird auch die Aussicht auf einen Lottogewinn extrem überschätzt – und beides spielt gewieften Verkäufern schon seit jeher in die Hände.

Das Gehirn ist leicht zu überlisten

Eine ähnlich große Rolle wie die Emotionen spielen unsere Gewohnheiten. Wie mächtig sie sind, merken wir auch daran, dass wir oftmals Texte, Bilder und Videos aufrufen, obwohl uns bereits die Überschrift signalisieren sollte: Achtung, hier wird mächtig übertrieben.

In seinem Bestseller „Schnelles Denken, langsames Denken“ fasst Kahneman die Forschungen mehrerer Jahrzehnte zusammen und unterscheidet ein schnelles, instinktives und emotionales Denksystem von einem langsamen, berechnenderen und damit auch anstrengenderen System. Beide Mechanismen könnten als Einfallstore für die Tricks der „Clickbaiter“ dienen:

So müssen in der Regel starke Worte her, um Ereignisse aufzuwerten, die sonst wenig Beachtung fänden: So produzieren Winzer offenbar am Fließband „Jahrhundertjahrgänge“, Musikfans feiern ihre Bands jeweils als die „Beste aller Zeiten“, und in der Wissenschaft oder der Medizin ist auffallend oft von „Durchbrüchen“ oder gar „Revolutionen“ die Rede, obwohl es sich bei näherer Betrachtung doch um eher kleine Fortschritte handelt.

Eine prominente Erklärung dafür, warum wir immer wieder auf die leeren Versprechungen der Clickbaits hereinfallen, stammt von George Loewenstein, Professor für Wirtschaftswissenschaften und Psychologie an der Carnegie Mellon University in Pittsburgh (USA). Er postulierte Mitte der 1990er Jahre die Theorie von der „Neugierlücke“. Sie besagt, dass wir es als Mangel und sogar Belastung empfinden, wenn wir weniger wissen, als wir wissen wollen. Dieses Unwohlsein verspüren wir als Neugier. Aus Loewensteins Sicht ist sie ein Trieb, dem wir uns nur schwer entziehen können, und dem wir wie Drogensüchtige folgen, um uns kurzfristige Erleichterung zu verschaffen. Die Theorie wird gerne zitiert, wird aber längst nicht von allen Psychologen unterstützt. Ein wichtiger Kritikpunkt lautet, dass es sich bei der „Neugierlücke“ lediglich um eine Idee handelt, zu der kaum empirische Studien durchgeführt wurden. Tatsache ist jedoch, dass die nach diesem Prinzip aufgebauten Inhalte gerne geklickt werden. Das gilt auch für Listen nach dem Muster:

Noch drei Dinge, auf die jeder abfährt:

  1. Katzenbilder
  2. Babys
  3. Listen

Listen werden gerne gelesen vermutet Kahneman, weil vermeintlich neue Informationen dort bereits vorstrukturiert sind. Ihr Umfang sei dann leichter abzuschätzen. In einer zunehmend komplexeren Welt vermitteln Listen womöglich auch das gute Gefühl, den Überblick zu haben.

Katzen und Hunde dagegen sind attraktive Werbebotschafter, weil ein Großteil der Bevölkerung sie als Haustiere und Begleiter hält. Durch die vermeintliche Gemeinsamkeit wird das Interesse geweckt, und die positiven Erfahrungen mit dem treuen Begleiter daheim werden umgemünzt in einen Vertrauensvorschuss gegenüber einem Unbekannten. Zufrieden klicken wir: „Gefällt mir“. Und steigern damit Rating und Attraktivität der bewerteten Seite.

Babys – sowohl tierische, als auch menschliche – bedienen dagegen das so genannte Kindchenschema. Wie schon der VerhaltensforscherKonrad Lorenz zeigen konnte, wirkt die Kombination aus bestimmten körperlichen Merkmalen – wie große Augen, rundes Gesicht und eine kleine Nase – als Schlüsselreiz, der ein angeborenes Brutpflegeverhalten auslösen kann.

Aufmerksamkeit ist die neue Währung, und wer sie schafft, ist König. Facebook, Google und Amazon sind Paradebeispiele für Geschäftsstrategien, die auf einem tiefen Verständnis der Ökonomie der Aufmerksamkeit beruhen. Gemeinsam erwirtschafteten sie im Jahr 2017 einen Umsatz von 329,4 Milliarden Dollar (ca. 291 Milliarden Euro).

Spezialisten steuern unsere Aufmerksamkeit

Binnen 20 Jahren ist eine neue Branche mit hochspezialisierten Jobs entstanden. Einige tun nichts anderes, als die Inhalte von Webseiten so zu optimieren, dass sie bei den allmächtigen Suchmaschinen möglichst weit oben gelistet werden. Ist der Besucher erst einmal angelockt, verfolgen andere Spezialisten den Fluss der Aufmerksamkeit. So bietet der Branchenführer Google mit „Analytics“ einen Dienst, mit dem jeder Betreiber einer Webseite genauestens verfolgen kann, welche Seiten wie oft und wann aufgerufen wurden, welche Suchworte die Besucher bei welchen Suchmaschinen eingegeben haben, bevor sie bei ihm gelandet sind, ob sie früher schon einmal da waren, oder auch wie lange sie auf einer Seite geblieben sind. Ergänzt werden die schier endlosen Möglichkeiten der Auswertung mit weiteren Werkzeugen zur „Optimierung“ und Aktualisierung der Seiten, Datenanalysen, Kundenbefragungen und weiteren Marketing-Angeboten.

Auch Amazon unterstützt seine Verkaufs- und Werbepartner darin, die Aufmerksamkeit der Webseiten-Besucher zu lenken und damit möglichst viel Geld zu verdienen. Dafür werden die Inhalte und die Platzierung von Werbeflächen optimiert. Ausgeklügelte Algorithmen sorgen im Hintergrund dafür, dass jeder individuelle Benutzer exakt die Anzeigen zu sehen bekommt, die mit größter Wahrscheinlichkeit geklickt werden.

Die Folge ist, dass der Wert einer Webseite sich heute kaum mehr an Zuverlässigkeit oder journalistischer Qualität bemisst. Auch die Reichweite allein – also die Zahl der Leser – ist nicht mehr entscheidend. Viele Leser sind zwar gut. Was jedoch wirklich zählt, ist die Zahl derer, die auch auf die Anzeigen reagieren. Das wussten zwar auch früher die Anzeigenabteilungen der Zeitungen, Magazine und Sender. Doch während die alten Medien dem Anzeigenkunden lediglich einen „Tausenderkontaktpreis“ berechnen konnten – der festlegt, wie viele Euro für jeweils 1000 potenzielle Leser zu bezahlen waren, – lässt sich heute im Online-Geschäft anhand der Klicks exakt nachvollziehen, wie viele Besucher tatsächlich auf eine Anzeige reagiert haben – und ob sie danach einen Kauf getätigt haben. Im Internet ist heute jeder ein gläserner Kunde.

Schon immer waren die Gesetzmäßigkeiten, mit denen unser Gehirn auf äußere Reize reagiert, die Grundlage für Manipulationen durch andere. Das Internet und die sozialen Medien haben jedoch völlig neue Möglichkeiten geschaffen, unser Verhalten und unsere Entscheidungen automatisch zu erfassen, auszuwerten und zu speichern. Die Sorgen um die manipulative Macht des Clickbaiting sind gerechtfertigt. Schaden kann es jedenfalls nicht, vor der nächsten großen Entscheidung Handy und Computer auszuschalten und sich die Wirklichkeit vor der eigenen Haustüre anzuschauen.


*Der vorliegende Artikel ist auf der Webseite www.dasGehirn.info im Dezember 2018 erschienen, in dessen Fokus "Clickbaiting" stand: https://www.dasgehirn.info/clickbaiting/clickbaiting. Der Artikel steht unter einer cc-by-nc-nd Lizenz und wurde von der Redaktion unverändert verwendet.

dasGehirn ist eine exzellente deutsche Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe).


Weiterführende Links

(nur frei zugängliche Quellen)

Weitere 12 Artikel zum Thema clickbaiting auf https://www.dasgehirn.info/entdecken/clickbaiting

Julio Reis et al.: Breaking the News: First Impressions Matter on Online News, Proceedings of the Ninth International AAAI Conference on Web and Social Media [https://www.aaai.org/ocs/index.php/ICWSM/ICWSM15/paper/viewFile/10568/10535]

Editorial: Avoid hype (10 October 2017); DOI: 10.1038/s41551-017-0151-4. www.nature.com/natbiomedeng

Mike Klymkosky, 12.04.2018: Ist ein bisschen Naturwissenschaft ein gefährlich' Ding? http://scienceblog.at/ist-ein-bisschen-naturwissenschaft-ein-gef%C3%A4hrlich-ding.


 

inge Thu, 24.01.2019 - 16:54

Der "Stammbusch" der Menschwerdung

Der "Stammbusch" der Menschwerdung

Do, 17.01.2019 - 09:06 — Herbert Matis

Herbert MatisIcon BiologieWann und wie ist der Übergang vom Tier zum Menschen erfolgt? Die Vorstellung eines linearen Stammbaums, der von Vormenschen und Frühmenschen bis zum Homo sapiens führt, ist durch neue Funde von Fossilien und Werkzeugen nicht mehr haltbar. Stattdessen haben über lange Zeiträume mehrere (Vor)Menschenarten parallel existiert und sich auch untereinander gekreuzt - der Stammbaum ist also ein verzweigter Stammbusch. "Das Mosaik der Menschwerdung", ein faszinierendes neues Buch des deutschen Biophysikers und Wissenschaftshistorikers Dierk Suhr, fasst den aktuellen Stand der Forschung zusammen und versucht ein Gesamtbild der Humanevolution zu zeichnen [1]. Der Wirtschafts- und Sozialhistoriker Herbert Matis (emer. Prof. Wirtschaftsuniversität Wien) bespricht dieses Buch.

Bis vor wenigen Jahren schien die Entstehung der Gattung Mensch weitgehend geklärt, und der menschliche Stammbaum erschien, bis auf einige wenige missing links, vollständig in einer linearen Abstammungslinie darstellbar: Entstanden in Afrika, soll sich unsere Gattung in einer aufsteigenden Linie vom Vor- und Frühmenschen, über den Urmenschen bis hin zum modernen Homo sapiens entwickelt haben. Auslöser dieser Entwicklung sollen der Übergang zum aufrechten Gang, die Fähigkeit zur Werkzeugherstellung und das- nicht zuletzt durch neue Nahrungsquellen beförderte - Hirnwachstum gewesen sein.

Doch so einfach stellt sich die Sachlage nach aktueller Forschung nicht mehr dar: Neue Fossil- und Werkzeugfunde zeigen, dass Vormenschen sich schon Millionen Jahre auf zwei Beinen fortbewegten – ohne nachweisbare Fortentwicklung oder wachsende Gehirne; dass die Werkzeugherstellung älter ist als die Gattung Homo; dass über lange Zeiträume mehrere Menschenarten parallel existierten.

Ein verzweigter ›Stammbusch‹,…

Die neuen Erkenntnisse der Paläogenetik machten aus dem bisherigen übersichtlichen ›Stammbaum‹ einen verzweigten ›Stammbusch‹ mit zum Teil bisher unbekannten Menschenarten, die sich nachweislich untereinander kreuzten. Archaische Hominiden haben somit genetisch zum Genpool des modernen Homo sapiens beigetragen. Dessen Gene lassen sich nicht ausschließlich von einer einzigen isolierten Population ableiten, sondern von verschiedenen Vorfahren, die unterschiedliche ökologische Nischen in und außerhalb der afrikanischen Pleistozän-Landschaft besetzten. Es gibt also keine durchgehende Abstammungslinie, in die sich die einzelnen Fossilfunde einordnen lassen, vielmehr müssen wir von verschiedenen untereinander verflochtenen geographischen und zeitlichen Varianten von homininen Arten ausgehen.

…der noch nicht geklärt ist

Der ›Stammbusch‹ des Menschen ist heute somit keinesfalls geklärt – und die Unsicherheit nimmt aktuell eher zu als ab: Neue Funde bringen oft unerwartete Hinweise auf mögliche Verzweigungen (Bifurkationen) und damit neue Diskussionen über mögliche Verwandtschaftsverhältnisse und neue Hypothesen zur Menschwerdung, auch sind viele Fossilien in ihrer Einordnung umstritten. Dazu kommt, dass die mit Hilfe der sog. molekularen Uhr erstellten Angaben zu den Zeitpunkten der Aufspaltung von einzelnen Abstammungslinien oft um mehrere Millionen bzw. hunderttausende Jahre differieren, weshalb diese nur Näherungswerte liefern. Neuere molekularbiologische und paläoanthropologische Erkenntnisse haben unser Bild von der Abstammung des Menschen in den letzten Jahren stark verändert.

Das Mosaik der Menschwerdung

Das hier besprochene neue Buch von Dierk Suhr zeichnet den aktuellen Stand der Forschung nach und versucht, aus den einzelnen Mosaiksteinen an alten und neuen Erkenntnissen ein Gesamtbild der Menschwerdung zusammenzufügen. Abbildung 1.

Abbildung 1. Dierk Suhr (2018), Das Mosaik der Menschwerdung. Vom aufrechten Gang zur Eroberung der Erde: Humanevolution im Überblick [1].

Wie begann alles?

Wer sind wir? Wo kommen wir her? Wo gehen wir hin?

Diese für das Leben sinnstiftenden Fragen nach Herkunft und Bestimmung des Menschen beschäftigen uns wohl schon seitdem die Gattung Mensch die Fähigkeit zur Selbstreflexion besitzt. Schon seit grauen Vorzeiten versuchte man, in überlieferten Mythen und Sagen sowie in religiösen Weltdeutungen Antworten auf solche essentiellen Fragen zu finden. Gemeinsam ist diesen tradierten Narrativen, dass sie im Allgemeinen von einem singulären Schöpfungsakt und einer damit vorgegebenen Konstanz der Arten ausgehen, und dass sie vielfach den Menschen als den End- und Höhepunkt der Schöpfung betrachten und ihm somit eine Sonderstellung unter allen Lebewesen einräumen.

In seinem 236 Seiten starken Werk, das sowohl in gedruckter als auch in digitaler Fassung vorliegt, versucht der deutsche Wissenschaftshistoriker und Biophysiker Dierk Suhr wichtige Aspekte der Menschwerdung vorzustellen. Er greift dazu weit über das eigentliche Thema hinaus und geht zurück bis zum Ursprung des Universums mit dem ›Urknall‹ vor etwa 13,7 Mrd. Jahren, der Entstehung der ersten Spiral-Galaxien aus durch Kernfusion gebildeten Sternen vor etwa 8,8 Mrd. Jahren, der Ausformung unseres Sonnensystem mir seinen Planeten vor 4,6 Mrd. Jahren, bis hin zur Entstehung der ersten Formen organischen Lebens auf dem Planet Erde.

Biologische Evolution über 4 Milliarden Jahre und…

Von den ersten Anfängen des Lebens bis zur Entwicklung der heutigen biologischen Vielfalt, von den ersten Einzellern bis zur Entstehung des Menschen sind rund vier Milliarden Jahre der ›biologischen Evolution‹ vergangen.

Der Mensch nimmt dabei im biologischen System der Organismen keine Sonderstellung ein und er ist auch nicht der Endpunkt des prinzipiell offenen Evolutionsprozesses. Und trotzdem scheint diese Gattung Mensch etwas Besonderes zu sein, denn sie hat sich im Zuge der ›kulturellen Evolution‹ diesen Planeten Erde und alles andere Leben darauf untertan gemacht – etwas, das keiner anderen Tierart »im natürlichen phylogenetischen System der Organismen« (G. Heberer) gelungen ist.

…akzelerierte Evolution durch den Menschen wird möglich

Der Mensch hat sich zuletzt als erste Spezies mit dem in der jüngsten Zeit entwickelten neuesten molekularbiologischen Methodenkomplex (Sequenzierung des Genoms, CRISPR/cas9 und genome editing) in die Lage versetzt, an der Basis seiner eigenen genetischen Ausstattung gezielt zu manipulieren, und damit gleichsam ein neues Zeitalter einer akzelerierten Evolution einzuleiten: Es ist nicht mehr alleine die gesamte Umwelt, die den Selektionsdruck (Survival of the fittest) ausmacht, sondern der Mensch selbst tritt plötzlich in einer Art Feedback-Schleife in den Mittelpunkt das Selektionsmechanismus.

Durch die Fortschritte in der synthetischen Biologie wird es möglich, dass der Mensch erstmals die Möglichkeit erhält, in den Prozess der Evolution selbst aktiv einzugreifen, indem er mittels molekularbiologischer Methoden das Erbgut von Pflanzen, Tieren und Menschen verändert. Es wird dabei nicht ausgeschlossen, dass auf diese Weise auch neue Arten entstehen könnten. Der 2002 von Paul Crutzen und Eugene F. Stoermer in den wissenschaftlichen Diskurs eingeführte Begriff für ein das Holozän ablösendes neues Erdzeitalter Anthropozän, der zum Ausdruck bringt, dass der Mensch selbst nunmehr zum wesentlichen Einflussfaktor gravierender geologischer, ökologischer und atmosphärischer Veränderungen der Lebensumwelt geworden ist, wird damit durch den aktuellen Paradigmenwandel in der Biologie ergänzt und erweitert.

Wann wird der Mensch zum Menschen?

Angesichts dieser Situation ist es interessant, sich des Ausgangspunkts der Menschwerdung zurückzubesinnen: Wann wird der Mensch zum Menschen?

Was unterscheidet den Menschen von allen anderen Lebewesen?

Die Erforschung des Ursprungs des Menschen sieht sich allerdings mit der Schwierigkeit konfrontiert, dass sämtliche Hypothesen über den Menschwerdungsprozess bloß auf Grundlage von einzelnen beobachtbaren Fakten zu erklären sind, und man versuchen muß, aus einzelnen mit Mosaiksteinchen vergleichbaren paläontologisch-historischen Fundmaterialien ein konsistentes Gesamtbild von der Stammesgeschichte des Menschen zu entwickeln.

Es erscheint heute demgemäß plausibel, dass die Trennung der zu Homo und zu den Schimpansen führenden Entwicklungslinien erst vor 5 bis 6 Millionen Jahren erfolgte, und in Ostafrika im oberen Pleistozän vor rund 3 Mio. Jahren humane Hominiden erstmals zweckmäßige Werkzeuge herstellten. Eine wichtige Bedeutung hatten dabei auch periodisch auftretende mit Verlagerungen der Erdachse zusammenhängende Klimaschwankungen. Denn diese brachten unterschiedliche ökologische Lebensbedingungen im Evolutionsprozess mit sich und lösten damit auch verschiedene Anläufe des Menschwerdungsprozesses aus, die schließlich auch unsere eigene Stammeslinie hervorbrachten.

Wesentliche Fortschritte

ergaben sich im Verlauf dieses Prozesses aus dem Übergang zum aufrechten Gang, damit der Spezialisierung der oberen Gliedmaßen, aus dem Wandel der Ernährungsgewohnheiten, und der Ausbildung einer adäquaten Gehirnstruktur, welche neue psycho-physische Möglichkeiten eröffnete. Bereits ein besonderer Zweig von frühen Homininen, der auch als Vormensch bezeichnet wird, entwickelte Werkzeuge und in weiterer Folge die Fähigkeiten zur Abstraktion, zum Denken in Begriffen, zur Kooperationsfähigkeit, zur Ausbildung eines Kommunikationssystems, und damit der Möglichkeit, gemachte Erfahrungen innerhalb der sozialen Verbände über Sprache zu tradieren.

Die ersten Vertreter der Gattung Homo.

Dabei lebten fast zwei Millionen Jahre mehrere Formen von Vormenschen (Sahelpithecinen, Australopethicinen, Paranthropinen, Orronin) und Urmenschen (erste Vertreter der Gattung Homo wie H. habilis, H. rudolfensis) nebeneinander, wobei man davon ausgeht, dass jedenfalls die »Wiege der Menschheit« in Afrika stand. Aus einer Art der Gattung Australopithecus entwickelten sich vor drei bis zwei Millionen Jahren die ersten Vertreter der Gattung Homo. Abbildung 2.

Abbildung 2, Evolution der Gattung Homo in den letzten 2 Millionen Jahren. Über lange Zeiträume lebten mehrere Formen von Vormenschen (pink:Paranthropus) und Urmenschen nebeneinander (Bild von Redn, eingefügt. Quelle: File:Homo-Stammbaum (2017), Version Stringer-en.svg.Dbachmann. Wikipedia; Lizenz: CC-BY-SA)

Bereits der Homo erectus und seine vielen Unterformen (wie H. ergaster, H. rhodesiensis, H. heidelbergensis), die zu den Vormenschen gezählt werden, verfügten vor rund 1,5 Mio. bis 700 000 Jahren bereits über ein Gehirnvolumen von etwa 1 000 cm3, sie beherrschten das Feuer, erzeugten Faustkeile, und waren geschickte Jäger, die große Teile der alten Welt besiedelten.

Homo erectus galt lange als die erste Art der Gattung Homo, die sich über Afrika hinaus verbreitete und weite Teile Eurasiens bis nach Südostasien besiedelte. Allerdings werden derart unterschiedliche Schädel und Zähne dem Homo erectus zugeschrieben, dass es mehr als fraglich ist, ob man diese tatsächlich zu einer einzigen Art zusammenfassen kann.

Vor ca. 800 000 Jahren entwickelte sich aus Homo erectus eine Form mit größerem Gehirn, die meist als Homo heidelbergensis bezeichnet wird; er gilt als ein Zwischenglied zwischen Homo erectus und Neandertaler (H. neanderthalensis) in Europa und Denisova-Mensch in Asien. Unterschiede in der DNA lassen darauf schließen, dass sich bereits vor etwa 600 000 Jahren die frühmenschlichen Abstammungslinien von Denisova-Mensch, Neandertaler, und verschiedenen neuerdings identifizierten afrikanischen Vorformen von derjenigen des modernen Menschen trennten, was aber nicht bedeutet, dass es nicht auch weiterhin zu einer Vermischung des Erbguts kommen konnte, denn die verschiedenen Menschenarten lebten über hunderttausende Jahre nebeneinander. Abbildung 3.

Homo sapiens

Aus den in Afrika verbliebenen Populationen des Homo erectus ging in der Zeitspanne zwischen 300 000 bis 200 000 Jahren in Ostafrika der archaische Homo sapiens hervor. Vor 70 000 Jahren begann sich dieser in ganz Afrika und dem Nahen Osten auszubreiten, vor 45 000 Jahren hatte er bereits ganz Asien und Europa besiedelt. Scharfe Trennungslinien zwischen einzelnen Arten und Gattungen lassen sich nicht ziehen und werden sich angesichts des spärlichen Fossilbestands vermutlich auch niemals mit Sicherheit ziehen lassen. Abbildung 3.

Abbildung 3. Die ältesten Homo sapiens-Funde sind 300 000 Jahre alt und es gab mehrmals Einmischungen archaiischer DNA. (Bild von Redn, eingefügt. Quelle: File:Homo sapiens lineage.svg (2018), Dbachmann. Wikipedia; Lizenz: CC-BY-SA 4. 0)

Die ältesten Homo sapiens-Funde sind 300 000 Jahre alt und stammen aus Marokko; 100 000 Jahre jünger sind die bisher ältesten Funde aus Äthiopien. Dieses Alter passt hervorragend zu Studien, die den Zeitpunkt der Trennung des modernen Menschen von seinen archaischen Vorfahren genetisch auf einen Zeitraum zwischen 260 000 und 350 000 Jahren festlegten.

Allerdings gab es bis vor etwa 30 000 bis 20 000 Jahren vor unserer Zeitrechnung noch, wie Analysen der Erbanlagen aus Zellkernen und Mitochondrien von Fossilien anzeigen, mehrmals Einmischungen von recht archaischer DNA in Afrika, und in Europa und Asien haben sich moderne Menschen mit Neandertalern und Denisova-Menschen gekreuzt, und es finden sich Teile von deren beider Erbgut selbst noch in heutigen Menschen aus Europa, Asien und Melanesien. Vor allem Schädel und Skelett des Neandertalers sind durch zahlreiche Funde gut bekannt, die Neandertaler sind heute die am besten untersuchte Frühmenschenart, deren Genom vollständig entschlüsselt ist. Die ältesten Funde von Neandertalern in Europa wurden auf 175 000 Jahre datiert. Der Neandertaler lebte noch bis rund 30 000 Jahren vor unserer Zeitrechnung in Europa und Westasien und ist damit bereits als ein Zeitgenosse des Jetztmenschen (Homo sapiens sapiens) anzusehen.


Viele Theorien und Hypothesen versuchen, das Rätsel der Menschwerdung zu erklären. Dieses Buch hat zum Ziel, all diese Theorien nebeneinander zustellen und aus den einzelnen Mosaiksteinen ein Gesamtbild der Humanevolution zusammenzusetzen – ein Vorhaben, das durchaus gelungen erscheint. Wie der Autor Dierk Busch den Stammbusch der Menschwerdung sieht, ist in Abbildung 4 vereinfacht dargestellt.

Abbildung 4. Der Stammbusch der Menschwerdung. Vereinfachte Darstellung nach Dierk Suhr (p. 110 (2018)) [1]. (Abb. von Redn. eingefügt. Bilder der Homininen sind Rekonstruktionen aus Wikipedia und stammen von 1:Mateus Zica, 2: Cicero Moraes, 3: Lillyundfreya, 4: Schnaubelt & N. Kieser, 5: Cicero Moraes. Alle Bilder stehen unter CC-BY-SA Lizenz)


[1] Dierk Suhr, Das Mosaik der Menschwerdung. Vom aufrechten Gang zur Eroberung der Erde: Humanevolution im Überblick, Springer Nature Verlag (2018), 236 Seiten, 53 Abbildungen, ISBN 978-3-662-56829-3; e-book ISBN 978-3-662-56830-9;

https://doi.org/10.1007/978-3-662-56830-9 


Weiterführende Links

Dr. Dierk Suhr, Geschäftsführer: Verein zur MINT-Talentförderung e. V., Düsseldorf, https://www.plus-mint.de/

Aug in Aug mit dem Neandertaler (2017). Klaus Wilhelm https://www.mpg.de/11383679/F001_Fokus_018-025.pdf

Mutter Neandertalerin, Vater Denisovaner! (22.8.2018) https://www.mpg.de/12205753/neandertaler-denisovaner-tochter

Great Transitions: The Origin of Humans — HHMI BioInteractive Video (veröffentlicht Dezember 2014, großartiges Video aus dem Howard Hughes Medical Institute, leicht verständliches Englisch) 19:44 min https://www.youtube.com/watch?v=Yjr0R0jgct4&feature=youtu.be

Artikel im ScienceBlog


 

inge Thu, 17.01.2019 - 09:06

Die Wälder unserer Welt sind in Gefahr

Die Wälder unserer Welt sind in Gefahr

Do, 10.01.2019 - 08:10 — IIASA IIASA

Icon Wald

Klimawandel und übermäßige Nutzung durch den Menschen stellen ernsthafte Bedrohungen für unsere Wälder dar - von den kühlen Wäldern der nördlichen Breiten bis hin zu den tropischen (Regen)Wäldern. Forscher am International Institute for Applied Systems Analysis (IIASA) erproben Lösungsansätze mit dem Ziel die Umwelt zu schützen und die nachhaltige Bewirtschaftung der enorm wichtigen Ressource Wald sicherzustellen.*

Der Klimawandel bedeutet für die Wälder der Welt eine erhebliche Bedrohung. Ein Anstieg von Extremsituationen, wie lange und starke Hitzewellen und Wasserstress, weil Regenfälle ausbleiben oder ungleichmäßig verteilt sind, führt dazu, dass die Widerstandsfähigkeit der Waldökosysteme abnimmt und verursacht manchmal ein explosive Zunahme von natürlich bedingten Störungen wie von Waldbränden (Abbildung 1)und Schädlingsbefall. Abbildung 1. Waldbrand in der kanadischen Taiga. Bei Beaver Village, Yukon Flats National Wildlife Refuge. (Bild von Redn. eingefügt; Quelle: Wikipedia, gemeinfrei)

Waldbrände

Im vergangenen Sommer gab es in der gesamten nördlichen Hemisphäre extreme Hitzewellen. Mit der Trockenheit der Luft und der Vegetation kam es in vielen Ländern zu einer ungewöhnlich hohen Zahl von Waldbränden. In Griechenland waren es die schlimmsten Waldbrände in diesem Jahrzehnt und es fielen Dutzende Menschen diesen zum Opfer, in Schweden erstreckten sich die Waldbrände bis hin zum Polarkreis und in den Vereinigten Staaten brannten riesige Flächen nieder, vor allem im Westen des Landes. Die meisten dieser Brände waren Waldbrände.

Die wärmeren Durchschnittstemperaturen und eine Zunahme extremer, Klimawandel-bedingter Wettersituationen verlängern die Brandsaisonen und führen zu einer Ausdehnung der feuergefährdeten Gebiete. Dies wiederum führt zu häufigeren, ausgedehnteren und heftigeren Bränden. IIASA-Untersuchungen zeigen, dass - verglichen mit den Mittelwerten zwischen 2000 und 2008 - die abgebrannten Gebiete in Europa und in der borealen Zone Eurasiens sich aufgrund des Klimawandels bis 2090 verdreifachen könnten, sofern keine Maßnahmen dagegen ergriffen werden.

In dicht besiedelten Gebieten werden 90% der durch menschliches Zutun entstandenen Feuer fast "sofort" gelöscht, da eine gute Infrastruktur vorhanden ist. In abgelegenen Gebieten, in denen nur geringe Kapazitäten vorhanden sind, um Feuerausbrüche zu kontrollieren, können von Menschen entfachte Feuer zu verheerenden Katastrophen führen. Fernab, in Gegenden ohne menschliche Aktivitäten, werden Feuer durch Blitze entzündet und können über Wochen oder sogar Monate brennen.

Das FLAM-Modell (Wildfire Climate Impacts and Adaptation Model)…

Ist ein Feuer einmal ausgebrochen, so hängt es von vielen Faktoren ab, wie groß es werden wird und wie lange es brennt. Es hängt beispielsweise davon ab, ob der Wind die Ausbreitung der Flammen begünstigt, wie viel trockene Vegetation als Brennmaterial vorhanden ist und welche Ressourcen zum Löschen zur Verfügung stehen. Alle diese Faktoren sind im FLAM-Modell (Wildfire Climate Impacts and Adaptation Model) enthalten, das im Rahmen des IIASA Ecosystems Services and Management Program entwickelt wurde. Abbildung 2.

Abbildung 2. Flowchart der Faktoren, die in das FLAM-Modell eingehen. FLAM berechnet drei Wahrscheinlichkeiten für die Entfachung von Bränden in Abhängigkeit i) von Wetterbedingungen,ii) von vorhandenem Brennmaterial und iii) von menschlichen Aktivtäten oder natürlichen Umständen. (Bild von Redn. aus der, dem Artikel zugrundeliegenden Arbeit [1]: Krasovskii A, et al., (2018) eingefügt (Lizenz: cc-by).

…auf Indonesien angewandt

Vor kurzem haben die Forscher ihr Modell auf Indonesien angewendet, das besonders stark von langen und heftigen Waldbränden betroffen ist - zum Teil ist dies auf die dort übliche Praxis zurückzuführen Feuer zur Landrodung einzusetzen. Das FLAM-Modell war imstande niedergebrannte Flächen sehr gut zu erfassen, insbesondere bei Großbränden. Abbildung 3.

Abbildung 3. Brände in den Sumpfregenwäldern Indonesiens. Oben: Sumpfregenwälder auf Borneo und Sumatra (Daten: Landwirtschaftsministerium Indonesiens. Jeder Pixel enthält einen der Farbe entsprechenden Anteil an Sumpfland). Unten: abgebrannte Flächen laut GFED Datenbank (Global Fire Emissions Database) und FLAM-Modellierung. Die Messungen von2000 - 2009 wurden zur Kalibrierung des Modells herangezogen, die Validierung von 2010 bis 2016 zeigte gute Übereinstimmung von beobachteten und simulierten Brandflächen. (Bilder von Redn. aus der, dem Artikel zugrundeliegenden Arbeit: Krasovskii A, et al., (2018) [1] eingefügt (Lizenz: cc-by).

"Festzustellen welche Gegenden besonders anfällig für Waldbrände sind, wird den politischen Entscheidungsträgern helfen, Strategien zur Verhinderung von Bränden umzusetzen und liefert wichtige Informationen für den Aufbau einer kostengünstigen und effizienten Infrastruktur zur Brandbekämpfung", erklärt der IIASA-Forscher Andrey Krasovskii.

Die öffentliche Debatte dreht sich oft um die Verringerung der Kohlenstoffemissionen, die bei der Verbrennung von fossilen Brennstoffen entstehen. Aufgrund des Niederbrennens von Wäldern in großen Moorgebieten sind die Emissionen Indonesiens tatsächlich mit den aus fossilen Brennstoffen stammenden jährlichen CO2-Emissionen in Ländern wie Japan und Indien vergleichbar. Dies zeigt die essentielle Bedeutung der Wälder für unser Klima sind und wie große Feuer sie leicht von CO2-Senken zu CO2-Emittenten machen können.

Gefahr für die kühlen Wälder

Die Bedrohungen, denen Wälder aufgrund des Klimawandels ausgesetzt sind, gehen weit über die Waldbrände hinaus. Die Klimaerwärmung ist im zirkumpolaren borealen Gürtel - den nördlichsten Regionen von Alaska, Kanada, Russland und Skandinavien - am extremsten. In diesen Gebieten befinden sich die borealen Wälder (die Taiga; Anm. Redn.), die - abgesehen von den Ozeanen - das größte Ökosystem der Welt darstellen, welches ein Drittel aller Wälder weltweit umfasst. Abbildung 4. Diese hauptsächlich aus Nadelbaumarten (Fichten, Kiefern, Tannen und Lärchen; Anm. Redn.) bestehenden Wälder wurden durch die Anpassung an ein kaltes Klima geformt und hängen essentiell von diesem ab - ein Umstand, der sie besonders anfällig für den Klimawandel macht.

Abbildung 4. Die borealen Wälder (Taiga) - ein Waldgürtel zwischen etwa dem 50. und dem 70. Breitegrad der nördlichen Hemisphäre (oben) - sind - nach den Ozeanen - das größte Ökosystem der Erde. Unten: Der Jack London See bei Kolyma, Ostsibiriren (Bild oben: GeForce3 - Wiki Commons -Distribution Taiga.png; CC-BY-SA 3.0. Bild unten: Wikipedia, Bartosh Dmytro, Kiev; CC-BY.)

In den letzten drei Jahrzehnten haben IIASA-Forscher boreale Wälder intensiv untersucht. Im September 2018 hat IIASA in Zusammenarbeit mit der International Boreal Forest Research Association, dem Pan-Eurasian Experiment und der International Union of Forest Research Organizations eine Konferenz mit dem Titel "Kühle Wälder in Gefahr?" veranstaltet, um nachhaltige Lösungen zur Bewahrung dieses wichtigen Ökosystems zu finden.

Gemeinsame Initiative zum Schutz der Wälder

Über eine Konferenz hinaus war diese Veranstaltung auch der Startschuss einer gemeinsamen Initiative von Wissenschaftlern, Waldmanagern und anderen Interessengruppen zum Schutz der borealen Wälder und auch der Bergwälder und zur Sensibilisierung der Öffentlichkeit und der Fachwelt für die Gefahr, welcher diese Wälder ausgesetzt sind.

„Wir hoffen, dass das Wissen, das wir mit unserer Forschung, der Themenvielfalt und den eingehenden Diskussionen auf der Konferenz generieren, es Ländern mit kühlen Wäldern erleichtern wird zu einer anpassungsfähigen, risiko-belastbaren nachhaltigen Waldbewirtschaftung überzugehen“, sagt Florian Kraxner, Tagungsleiter und IIASA-Forscher.

Zu einer nachhaltigen Waldbewirtschaftung gehört jedoch nicht nur der Schutz der Wälder vor den Folgen des Klimawandels, sondern auch die Regulierung der Abholzung, der offensichtlichsten Gefahr, der Wälder durch die Aktivitäten des Menschen ausgesetzt sind. Der Kern des Problems ist ziemlich einfach: Da wir mit dem Abholzen von Bäumen zur Herstellung von Holz- oder Papierprodukten Geld verdienen können, beuten wir Wälder schneller aus als sie regenerieren können. Leider ist dieses Problem nicht einfach zu lösen. Das Projekt Equitable Governance of Common Goods hat nun das Know-How der IIASA-Programme Risiko und Resilienz und Evolution und Ökologie kombiniert, um herauszufinden, welche Arten von Regulierungen am besten geeignet sind, um eine gerechte Aufteilung der Ressourcen zu gewährleisten und die sogenannte "Tragödie des Gemeinguts" ("tragedy of the commons") zu verhindern - den Niedergang einer Ressource aufgrund des eigennützigen Verhaltens von Individuen.

Ein Ansatz, um Lösungen zu finden, besteht in der Verwendung experimenteller Spiele, wie beispielsweise des von IIASA entwickelten „Forest Game“. In diesem Spiel wird eine Gruppe von fünf bis zehn Spielern aufgefordert in mehreren Runden Entscheidungen über die Bewirtschaftung eines Waldes zu treffen. Indem Forscher die Entscheidungsprozesse der Spieler analysieren, können sie herausfinden, welche Rolle Kommunikation und persönliche Wertvorstellungen im Ressourcenmanagement spielen.

Fazit

Für die Wälder der Erde haben wir eine Reihe unterschiedlicher Probleme untersucht; frühere und aktuelle IIASA-Studien zeigen aber, dass wir auch Teil der Lösung sein können. Dies gibt Anlass zur Hoffnung, dass wir die Wälder erhalten können, auf die wir in Bezug auf Klima, Wirtschaft und Biodiversität so stark angewiesen sind.

[1] Krasovskii A, Khabarov N, Pirker J, Kraxner F, et al. (2018). Modeling Burned Areas in Indonesia: The FLAM Approach. Forests 9 (7): e437


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist im IIASA Magazin Options Winter 2018/19 unter dem Titel: "Forests under threat" erschienen (Text by Melina Filzinger): http://www.iiasa.at/web/home/resources/publications/options/opt18w.pdf. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch passende Abbildungen u.a. aus Krasovskii A, et al., (2018) [1, siehe oben] ergänzt.


Weiterführende Links

IIASA homepage: http://www.iiasa.ac.at/

Das Waldökosystemmodell Land: http://iLand.boku.ac.at

Europäische Wissensplattform zur Rolle der funktionalen Diversität in Wäldern (in Englisch) http://www.fundiveurope.eu/

Resilience Alliance (in Englisch) http://www.resalliance.org/

Artikel im ScienceBlog

Rupert Seidl, 18.03.2016: Störungen und Resilienz von Waldökosystemen im Klimawandel.

Christian Körner, 29.07.2016: Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt.

Rattan Lal, 14.12.2015: Der Boden – Grundlage unseres Lebens.

Johannes Kaiser & Angelika Hell, 31.07.2015: Feuer und Rauch: mit Satellitenaugen beobachtet.

Hans-Rudolf Bork, 15.11.2014: Die Böden der Erde: Diversität und Wandel seit dem Neolithikum.

Julia Pongratz & Christian Reick, 18.07.2014: Landwirtschaft pflügt das Klima um.

Gerhard Glatzel, 11.07.2014: Hat die Menschheit bereits den Boden unter den Füßen verloren?.

Peter Schuster, 31.5.2012: Die Tragödie des Gemeinguts.


 

inge Thu, 10.01.2019 - 08:10

Wie Darmbakterien den Stoffwechsel von Arzneimitteln und anderen Fremdstoffen beeinflussen

Wie Darmbakterien den Stoffwechsel von Arzneimitteln und anderen Fremdstoffen beeinflussen

Do, 03.01.2019 - 09:00 — Inge Schuster Inge SchusterIcon Medizin

Wir leben in untrennbarer Gemeinschaft mit unserem Mikrobiom - Mikroorganismen, die unsere Stoffwechselfunktionen beeinflussen, wie wir die ihren. Der überwiegende Teil der Mikroorganismen ist im Darm angesiedelt und hat wesentlichen Einfluss darauf, in welchem Ausmaß und in welcher Form Fremdstoffe aus Nahrung und Umwelt - darunter auch Arzneimittel - in unseren Organismus gelangen. Wenn Personalisierte Therapien von Erkrankungen wirksam sein sollen, müssen auch die komplexen Beziehungen zwischen Wirtsorganismus und Mikrobiom in ihre Strategien einbezogen werden.

Noch vor wenigen Jahrzehnten wurden Mikroorganismen, wie sie u.a. unseren Darm besiedeln, im Wesentlichen als Verursacher von Infektionen betrachtet. Auf die Frage ob und in welcher Weise solche Keime unseren Stoffwechsel beeinflussen können, erntete man in Fachkreisen kaum mehr als ein Achselzucken. Im letzten Jahrzehnt hat sich das Bild komplett gewandelt. Vor allem die Summe der Mikroorganismen, das Mikrobiom eines Organs oder des ganzen Organismus, hat enorme Popularität gewonnen: in PubMed, der größten textbasierten Datenbank im Bereich Biomedizin, sind seit 2008 unter den Stichworten "gut microbiota" und "human" 10166 Arbeiten in Fachjournalen erschienen. (Dazu kommen noch massenhaft entsprechende Arbeiten an Tiermodellen.)

Unser Mikrobiom

Mikroorganismen - Bakterien, Archaea, Pilze, Protozoen - und Viren (darunter auch Bakteriophagen) sind essentielle Mitbewohner unseres Organismus. Diese, in ihrer Gesamtheit als Mikrobiom bezeichneten Keime stellen ein unglaublich komplexes System aus Tausenden mikrobieller Spezies dar, von denen sich die meisten kaum isoliert kultivieren lassen.

Rund 39 Billionen Mikroorganismen leben in und auf uns und sind damit etwa gleich stark vertreten wie unsere 30 Billionen körpereigenen Zellen, die allerdings Tausendfach größer sind, aber viel, viel niedrigere Stoffwechselaktivitäten aufweisen [1]. Der überwiegende Teil der Mikroorganismen ist im Verdauungstrakt und hier insbesondere im Dickdarm angesiedelt, wobei mehr als 99 % davon - rund 0,3 % unseres Körpergewichts - aus Bakterien bestehen. Abbildung 1.

Abbildung 1. Der Darm, insbesondere der Dickdarm ist ein enorm dicht besiedeltes Habitat von Mikroorganismen.

Um ein besseres Verständnis für das mikrobielle Makeup des Menschen zu erreichen, haben die US-National Institutes of Health (NIH) vor rund einem Jahrzehnt ein Mega-Projekt, das Human Microbiome Project (HMP), gestartet, basierend auf Sequenzierungen des mikrobiellen Genoms - des sogenannten Metagenoms - von 265 gesunden Amerikanern [2].

Viele der neuen Studien beschäftigen sich mit der Charakterisierung unserer winzigen Mitbewohner. Von besonderem Interesse ist jedoch die Frage, wie Mikrobiom und Wirtsorganismus sich gegenseitig beeinflussen. Welche Vorteile kann der Wirt von seinen Mietern erwarten, welche Nachteile muss er in Kauf nehmen und wie setzt sich ein optimales Mikrobiom zusammen?

Bereits im Altertum hatte Hippokrates (430 -370 v. Chr.) konstatiert: Der Darm ist der Vater aller Trübsal. Dass Änderungen in der Diversität der Darmflora mit dem Auftreten von Krankheiten assoziiert sind und zu deren Entstehen vielleicht sogar kausal beitragen, wird nun mehr und mehr bestätigt. Das Spektrum solcher Mikrobiom-assoziierter Erkrankungen reicht von Stoffwechselerkrankungen wie Adipositas und Diabetes, entzündlichen Darmerkrankungen, Immundefekten, Tumoren bis hin zu diversen neurogenerativen Erkrankungen einschließlich der Alzheimerkrankheit.

Fremdstoffe und Darm-Mikrobiom

Viele Studien belegen auch, dass unsere unterschiedlich zusammengesetzten Sets an Mikroorganismen - unsere "personalisierten" Mikrobiome - wesentlichen Einfluss darauf haben in welchem Ausmaß und in welcher Form wir Fremdstoffe aus Nahrung und Umwelt - darunter auch Arzneimittel - in den Organismus aufnehmen können. Dies kann schädliche Auswirkungen für uns haben, aber auch für den Körper von Nutzen sein.

Beispielsweise können Darmbakterien unverdauliche Nahrungskomponenten aufschließen und dem Körper als hochwertige Stoffe zuführen. Sie können auch körpereigene Stoffe modifizieren wie beispielsweise die in der Leber produzierten, zur Fettemulgierung in den Darm sezernierten Gallensäuren: im sogenannten enterohepatischen Kreislauf recyceln Bakterien diese kostbaren Substanzen, machen sie für die Wiederaufnahme in den Organismus und in Folge in die Leber verfügbar.

Ob Nahrungskomponenten oder andere Fremdstoffe: alles, was geschluckt wird, trifft zuerst auf das im Darmtrakt ansässige Mikrobiom bevor es die Darmwand erreicht und über die Darmzellen in den Organismus aufgenommen- resorbiert - werden kann.

Schlecht resorbierbare Substanzen - und zu diesen zählen auch viele Arzneistoffe - werden zum Teil mit dem Kot unverändert ausgeschieden und sind auf ihrer weiten Passage durch den Darm den dauernden Angriffen von Darmbakterien ausgesetzt. Eine Fülle an Beispielen beweist, dass Arzneimittel und andere Fremdstoffe von den Keimen im Darm modifiziert- metabolisiert - werden können.

Die Metabolisierung durch das Mikrobiom hat entscheidende Folgen für die Wirksamkeit einer verabreichten aktiven Substanz: In vielen Fällen führt die Modifikation zu einer Reduktion oder gar zum Verlust der Aktivität; was in den Körper resorbiert wird, reicht nicht aus um die gewünschte therapeutische Wirkung zu erzielen.

  • Dies ist der Fall bei dem schon seit langem bei Herzinsuffizienz und Vorhofflimmern angewandten Digitalisgykosid Digoxin, das durch Bakterien in inaktive Metabolite gespalten wird.
  • Auch das gegen Infektionen mit Fadenwürmern und auch maligne Tumoren wirksame Levamisole wird durch Darmbakterien zu unwirksamen Metaboliten umgewandelt Werden gleichzeitig mit Digoxin und Levamisole Antibiotika eingenommen, so reduziert dies den Einfluss der Bakterien und führt zu gesteigerter Wirksamkeit der Arzneimittel

in einigen Fällen macht man sich die Modifikation durch Darmbakterien zu Nutze:

  • beispielsweise im Fall von Sulfasalazine, das insbesondere in der Behandlung entzündlicher Darmerkrankungen und rheumatoider Arthritis Anwendung findet. Diese Verbindung ist eine sogenannte "prodrug", d.h. sie ist vorerst inaktiv und wird erst im Dickdarm (durch bakterielle Azo-Reduktasen) in die aktiven Komponenten gespalten.

Unerwünschte Auswirkungen hat dagegen die bakterielle Metabolisierung

  • von Nitrazepam (durch eine Nitroreduktase), eines Vertreters aus der Klasse der Benzodiazepine, das bei Schlafstörungen und in der juvenilen Epilepsie eingesetzt wird. Bakterien produzieren daraus die Vorstufe zu einer teratogenen Substanz.
  • Besonders negativ ist der Einfluss der Bakterien auf den antiviralen Wirkstoff Sorivudine, der 1993 auf den Markt kam und bei Patienten, die gleichzeitig 5-Fluoruracil erhielten, insgesamt zu 18 Todesfällen führte. Der Grund dafür: eine Bacteroides-Art metabolisierte Sorivudine zu einem Produkt, das den Abbau von 5-Fluoruracil hemmte und so davon toxische Konzentrationen erzeugte. Die Substanz wurde umgehend vom Markt zurückgezogen.

 

Die aus einer rezenten Veröffentlichung stammende Abbildung 2 fasst zusammen, wie das Mikrobiom des Darms die Wirkung von Arzneimitteln modifizieren kann.

Abbildung 2. Im Darmlumen angesiedelte Mikroorganismen können Arzneimittel metabolisieren und sind damit ausschlaggebend für Ausmaß und Wirksamkeit der in den Organismus gelangenden Substanzen. Das Darmepithel (ocker) ist auf der Seite des Darmlumens von einer dicken Mukusschicht bedeckt, darüber sind Mikroorganismen - vor allem Bakterien (rot und blau) angesiedelt. In das Darmlumen gelangende Arzneimittel können - wie im Fall der Prodrug Sulfasalazine - durch Bakterien aktiviert werden, wie bei Digoxin oder Levamisole zu inaktiven Produkten abgebaut werden. Wie bei Sorivudine können auch toxische Produkte entstehen (Bild: A.Whang, R. Nagpal and H. Yadav, Bi-directional drug-microbiome interactions of anti-diabetics, EBioMedicine, https://doi.org/10.1016/j.ebiom.2018.11.046 Lizenz: cc-by-nc-nd 4.0. Text: I. Schuster)

Ausblick

Lange hat das Gebiet der mit uns in Symbiose lebenden Mikroorganismen ein Aschenbrödeldasein geführt. In den letzten Jahren ist es zum Hot Topic geworden und führt nun eine neue Ebene der Komplexität in die Struktur, Funktion und Regulierung unserer Lebensvorgänge ein. Zu den Genen, Proteinen und Metaboliten unseres eigenen Organismus kommen jetzt noch die Genome, Proteome und Metabolome Tausender anderer Spezies mit all den Wechselwirkungen, die zwischen diesen und uns auftreten. Projekte wie das Human Microbiome Project der NIH sind ein mutiger Einstieg in ein überaus komplexes Gebiet, das aus enormen Datenmengen ein neues Bild unserer Existenz schaffen kann. Die Aussicht damit innovative Ansätze zur Erkennung von Krankheitsursachen und zu deren Vermeidung zu finden, ist überaus verlockend.[3]

Personalisierte Therapien von Erkrankungen werden jedenfalls die komplexen Beziehungen zwischen Wirtsorganismus und Mikrobiom in ihre Strategien einbeziehen müssen.

[1] Redaktion, 22.12.2016: Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus? http://scienceblog.at/kenne-dich-selbst-aus-wie-vielen-und-welchen-k%C3%B6rperzellen-und-mikroben-besteht-unser-organismus

[2] Francis S. Collins, 28.9.2017: Ein erweiterter Blick auf das Mikrobiom des Menschen. http://scienceblog.at/ein-erweiterter-blick-auf-das-mikrobiom-des-menschen

[3] Human Microbiome Project Highlights. https://commonfund.nih.gov/hmp/programhighlights


Weiterführende Links

Ron Milo: A sixth sense for understanding our cells. TEDxWeizmannInstitute . Video 15:01 min. Veröffentlicht am 20.08.2014 Dario R. Valenzano, 28.6.2018: Mikroorganismen im Darm sind Schlüsselregulatoren für die Lebenserwartung ihres Wirts. http://scienceblog.at/mikroorganismen-im-darm-sind-schl%C3%BCsselregulatoren-f%C3%BCr-die-lebenserwartung-ihres-wirts

Francis S. Collins, 29.11.2018: Krankenhausinfektionen – Keime können auch aus dem Mikrobiom des Patienten stammen. http://scienceblog.at/krankenhausinfektionen-%E2%80%93-keime-k%C3%B6nnen-auch-aus-dem-mikrobiom-des-patienten-stammen .


 

inge Thu, 03.01.2019 - 09:00

2018

2018 Redaktion Wed, 20.03.2019 - 01:05

Als fossile Brennstoffe in Österreich Einzug hielten

Als fossile Brennstoffe in Österreich Einzug hielten

Do, 20.12.2018 - 11:55 — Robert Rosner

Robert RosnerIcon WissenschaftsgeschichteEs ist erst wenige Generationen her, das man in unseren Breiten fossile Brennstoffe - Kohle und später Erdöl - zu nutzen begann. Vorerst dienten diese hauptsächlich Beleuchtungszwecken: Gaswerke versorgten die Bevölkerung mit aus Kohle destilliertem Leuchtgas, die reichen Erdölvorkommen im Kronland Galizien dienten vorwiegend der Produktion von Petroleum (Nebenprodukte wie Teer und Benzin fanden dagegen damals kaum Verwendung). Der Chemiker und Wissenschaftshistoriker Robert Rosner gibt einen Überblick über diese Entwicklung, die bereits einige Jahrzehnte später- durch den Siegeszug des elektrischen Lichts und die Erfindung des Verbrennungsmotors - eine völlige Wende erfahren sollte, sowohl in Hinblick auf das Ausmaß als auch auf die Art und Weise wie fossile Brennstoffe eingesetzt wurden.

Es begann mit Gaslaternen und Petroleumlampen

Ab der Mitte des 19.Jahrhundert begann man ganz allgemein Produkte für die Beleuchtung zu verwenden, welche erstmals fossile Brennstoffe als Ausgangsmaterial hatten. Das aus Kohle gewonnene Leuchtgas wurde anfangs vorwiegend für die städtische Beleuchtung und zur Beleuchtung großer Säle, Fabriken usw. eingesetzt und später mehr und mehr auch für die privaten Haushalte. Abbildung 1.

Abbildung 1. Laterne am Spittelberg in Wien, 1892: "Das Faßzieherhaus am Spittelberg", Aquarell von Rudolf von Alt (1812 - 1905). Das Bild ist gemeinfrei.

Bei allen früher verwendeten Lichtquellen, gleichgültig ob es sich um einen Kienspan, eine Kerze, das Öl eines Öllämpchens oder Petroleum in einer Petroleumlampe handelte, war das Leuchten auf Rußteilchen zurückzuführen, die in der Flamme erhitzt wurden. Diese Rußteilchen, die beim Verbrennen organischer Brennstoffe in der Flamme entstehen, werden bei den in der Flamme erreichten Temperaturen zur Weißglut erhitzt und strahlen sichtbares Licht aus. So dienen sie als die eigentlichen Lichtquellen. Das durch trockenen Destillation von Kohle gewonnene Erdgas enthält etwa 5 % Äthylen, das im Zuge des Verbrennungsprozesses leicht Ruß absondert - es waren also auch im Leuchtgas die Rußteilchen, die das Leuchten ermöglichten.

In Wien war die Straßenbeleuchtung in der Inneren Stadt 1845 eingeführt und 1852 auf ganz Wien ausgedehnt worden. In Folge begannen gegen Ende der 1850er Jahre die größeren Städte in der ganzen Monarchie die Straßen mit Gaslaternen zu beleuchten, zuerst in den Stadtzentren und allmählich auch in den Vorstädten und Vororten. Dann entstanden Gaswerke auch in den kleineren Städten. Linz richtete eine Gasbeleuchtung 1858 ein, Innsbruck und Salzburg 1859 und Klagenfurt 1861.

Außerhalb der Städte wurde die Beleuchtung auf Petroleumlampen umgestellt, die ein wesentlich besseres Licht gaben als die vorher verwendeten Kerzen.

Die Industrie, welche die für die Beleuchtung verwendeten Stoffe erzeugte oder die dabei entstandenen Nebenprodukte verwertete, konnte sich in dieser Zeit rasch entwickeln.

Gaswerke zur Produktion von Leuchtgas

Vor der Übernahme der Gaswerke durch die Gemeinde gab es in Wien zwei Gesellschaften, welche die Stadt mit Leuchtgas versorgten. Die größere Gesellschaft war das englische Unternehmen, die k.k. priv. Gasbeleuchtungsanstalt der Imperial-Continental-Gas Association, die mehrere Gaswerke betrieb. Im Jahr 1881 lieferten die Gaswerke dieses Unternehmens 52,8 Millionen Kubikmeter Gas, von denen 5,4 Millionen Kubikmeter für die Straßenbeleuchtung verwendet wurden. In den darauffolgenden Jahren weigerte sich die Firma ihre Produktionszahlen zu veröffentlichen.

Das andere Unternehmen in Wien war die Wiener Gasindustrie Gesellschaft. Diese versorgte die westlichen Vororte und die Hofoper mit Leuchtgas. In ihrem Gaswerk in Gaudenzdorf wurden etwa 3,6 Millionen Kubikmeter erzeugt. Als 1887 die Wiener Hofoper von Gasbeleuchtung auf elektrische Beleuchtung umstieg, konnte dieser Verlust durch die Ausdehnung des Gasnetzes auf Altmannsdorf, Hetzendorf , Inzersdorf und Atzgersdorf kompensiert werden.

Die Wiener Gaswerke

Aufgrund eines Gemeinderatsbeschlusses übernahmen im Jahr 1899 die Wiener Städtischen Gaswerke (Abbildung 2) die Belieferung der Gemeindebezirke 1 - 11 und 20 mit Leuchtgas. Die Versorgung der Bezirke 12 - 19 wurde bis zum Jahr 1911 vertragsgemäß von der Imperial-Continental-Gas Association durchgeführt. Die Wiener Gaswerke verwendeten für die Stadtbeleuchtung sofort das Auer Gas-Glühlicht (den Auerbrenner), das ein wesentlich besseres Licht gab.

Abbildung 2. Die Erbauung des Wiener städtischen Gaswerkes in Simmering, des damals europaweit größten Gaswerkes. Links: Bau des Ofenhauses 1901, rechts: zwei Gasometer, 1901. Das Leuchtgas (Stadtgas) wurde im Ofenhaus durch Trockendestillation von Steinkohle ("Kohlevergasung") und anschließende Gaswäsche im Waschhaus gewonnen und in den Gasometern gespeichert, bevor es zum Verbrauch in das Gasnetz abgegeben wurde. Mit der Umstellung auf das wesentlich billigere Erdgas in den 1970er Jahren gingen die Gasometer außer Betrieb. (Fotos sind gemeinfrei)

Eine Statistik aus dem Jahr 1900 besagt, dass die Wiener Gaswerke mehr als 73 Millionen Kubikmeter Leuchtgas erzeugten, von denen etwa 7 Millionen für die Straßenbeleuchtung, 59 Millionen für die private Beleuchtung und 5,6 Millionen für Heiz-, Koch- und Industriezwecke verwendet wurden. Für eigene Einrichtungen benötigte die Gemeinde Wien 1,2 Millionen Kubikmeter Leuchtgas. Obwohl die städtischen Gaswerke nur einen Teil der Stadt versorgten, erzeugten sie wesentlich mehr Gas als 20 Jahre vorher für ganz Wien produziert worden war.

Im Jahr 1912 wurden bereits 168 Millionen Kubikmeter für private Zwecke benötigt und 15 Millionen für die Straßenbeleuchtung. (Zum Vergleich: Der aktuelle Bedarf an Erdgas, das ja heute nicht zur Beleuchtung sondern zur Wärme-und Stromproduktion und als Kraftstoff eingesetzt wird, liegt laut E-Control Statistikbericht 2018 für ganz Österreich bei 8500 Millionen Kubikmeter im Jahr; Anm. Redn.)

In Wien hatte also zur Jahrhundertwende die Beleuchtung mit Gas auch in privaten Haushalten schon eine so große Bedeutung bekommen, dass nur etwa 10 % der Gesamtproduktion für die Straßenbeleuchtung verwendet wurden. In den kleineren Städten war dies noch nicht der Fall. In Baden war bei einer Produktion von 612000 Kubikmetern der Anteil der Straßenbeleuchtung noch 23 % und in St. Pölten 18 % bi einer Produktion von 499 000 Kubikmetern.

Nebenprodukte der Gaserzeugung fanden im Kaiserreich leider kaum Verwendung

Bei der Gaserzeugung fielen in Wien mehr als 10000 Tonnen Teer an, die in einem Werk in Angern (Niederösterreich) verarbeitet wurden. Vorwiegend wurden dort Benzol, Anthracen und Phenole ("Karbolsäuren") aus dem Teer gewonnen.

Da es im Kaiserreich aber keine Farbenfabriken gab, welche die Hauptabnehmer für Benzol und Anthracen gewesen wären, wurden diese Produkte zu sehr tiefen Preisen nach Deutschland exportiert. (Dazu kritische Anmerkungen des berühmten österreichischen Schriftstellers Karl Kraus: Abbildung 3).

Abbildung 3. Karl Kraus, einer der bekanntesten österreichischen Schriftsteller, kritisiert in seiner Zeitschrift "Die Fackel" die fehlende Ausbildung in organisch-technischer Chemie, die damals in Deutschland die Farben- und Heilmittelindustrie entstehen ließ. (Ausschnitte aus Die Fackel, Heft 31, 2 (1900) und Heft 74,4 (1901))

In manchen Jahren war der erzielbare Preis für die Teerprodukte aber so niedrig, dass der Teer verbrannt wurde.

Fallweise gab es für Karbolsäuren auch einen inländischen Markt als Desinfektionsmittel, besonders in Jahren, in denen es eine größere Zahl an Cholerafällen gab oder eine Grippeepidemie auftrat.

Der Beginn der österreichischen Erdölindustrie in Galizien.......

Die ersten Versuche, Stoffe die durch Destillation des galizischen Erdöls gewonnen wurden, für Leuchtzwecke zu verwenden, wurden 1852 von Abraham Schreiner aus Drohobycz in einer Schnapsbrennerei durchgeführt. Nach einem Unfall setzte Schreiner seine Versuche gemeinsam mit dem Apotheker Ignaz Lukasiewicz aus Lemberg fort. Lukasiewicz gelang es erstmals Petroleum durch Destillation von Erdöl gewerbsmäßig herzustellen. Zuerst errichtete er 1859 eine kleine Raffinerie und dann 1865 eine größere Raffinerie in Westgalizien, die bis zur Jahrhundertwende existierte. Abbildung 4.

Abbildung 4. Erdölfelder (rote Kreise) im Kronland Galizien (heute gehört der kleinere, westliche Teil zu Polen und Ostgalizien zur Ukraine), Bohrtürme (1909) standen in sehr dichtem Abstand.(Bilder aus Wikipedia: Mariusz Pazdziora (links; cc-by) und Postkarte,1909 von Wikiwand.com).

Bevor Galizien mit dem westlichen Teil der Monarchie durch eine Bahnlinie verbunden wurde, gab es nur eine sehr langsame Entwicklung der Petroleumindustrie. Hingegen kam amerikanisches Petroleum von Hamburg und Bremen auf dem Wasserweg nach Böhmen und von dort nach Wien. Die 1869 in Wien-Favoriten von Gustav Wagenmann gegründete Raffinerie, die bis 1904 bestand, verwendete galizisches Erdöl vorzugsweise zur Erzeugung von Schmierölen und verschnitt die Petroleum-Fraktion mit importiertem amerikanischem Petroleum. Dieses Unternehmen erweiterte sein Produktionsprogramm in den folgenden Jahrzehnten mit Wachsprodukten der verschiedensten Art. Paraffin wurde aus galizischem Erdwachs hergestellt, dann wurde eine Produktion von Stearin begonnen und etwas später von Ceresin.

Um die galizische Erdölproduktion zu fördern, wurde 1872 ein Schutzzoll von 75 Kreuzer für raffiniertes Petroleum eingeführt, der in den folgenden Jahrzehnten mehrmals erhöht wurde. Obwohl 1873 die erste Bahnlinie nach Ostgalizien fertig gestellt worden war, gelang es nicht die Erdölproduktion in Galizien wesentlich zu steigern, da die Frachtspesen für Petroleum von Galizien in die industrialisierten Teile des Reichs zu hoch waren. Im Jahr 1880 kostete die Fracht von 100 kg Petroleum von Drohobycz nach Wien 3,24 Gulden, von Bremen2,34 Gulden, von Stettin 1,87 Gulden und von Triest 1,18 Gulden.

Erst das Jahr 1883 brachte eine grundlegende Veränderung. In diesem Jahr führte der Kanadier William H. MacGarvey ein Bohrsystem ein, das sich für das galizische Bohrfeld besonders geeignet erwies. In diesem Jahr nahm eine Bahnlinie ihren Betrieb auf, die das ganze Ölgebiet erschloss. Die Regierung erhöhte den Zoll auf 10 Gulden pro Zentner, wodurch das ausländische Petroleum wesentlich verteuert wurde. Damit begann die Entwicklung der österreichischen Erdölindustrie. Zur Unterstützung der galizischen Petroleumindustrie wurden auch die Frachtspesen auf den Staatsbahnen von Galizien nach Wien sehr reduziert. Da es keine entsprechende Reduktion in der Gegenrichtung gab, wurde diese Maßnahme von den Wiener Raffinerien bekämpft.

…und das "Kunstöl" der Konkurrenz

Inzwischen hatte sich auch die russische Erdölindustrie im Raum Baku sehr stark entwickelt und Russland versuchte seine Erdölprodukte in Österreich abzusetzen. Um den hohen Zoll für raffiniertes Öl zu umgehen, exportierte Russland Petroleum mit einem Zusatz von Destillationsrückständen. Diese Gemisch - als Kunstöl bezeichnet - enthielt 90 -95 % Petroleum, Trotzdem konnte es mit dem niederen Zollsatz eines Rohöls importiert werden. So entstanden erst im ungarische Fiume (heute Rijeka) und dann in Triest Raffinerien, die sich auf die Verarbeitung von Kunstöl spezialisierten. Auch die Raffinerien in Wien und anderen Städten dehnten ihre Anlagen aus, um Kunstöl zu verarbeiten.

Die Herstellungskosten von Petroleum aus Kunstöl waren etwa ein Drittel der Raffinierungskosten von Rohöl und außerdem konnte der Rückstand sofort als Schmieröl für die Eisenbahnwaggonachsen verwendet werden. So wurde der Ausbau der Erdölindustrie in Galizien durch die Konkurrenz des Kunstöls sehr erschwert.

Bei der Raffinierung des Rohöls aus Galizien fielen auch beträchtliche Mengen an Benzin an, für das es zu dieser Zeit wenig Verwendung gab. Benzin wurde bis zum Beginn der Motorisierung vorwiegend als Lösungsmittel, etwa bei der Entfettung von Knochen, verwendet.

Noch im Jahr 1895 wurde berichtet, dass im Inland nicht genug Benzin abgesetzt werden konnte und es zu sehr gedrückten Preisen exportiert werden musste. Doch zehn Jahre später hatte sich die Situation völlig geändert. Etwa von 1908 an wird von einem kolossalen Aufschwung des Bedarfs an Benzin berichtet und darüber geklagt, dass im galizischen Rohöl die Benzinfraktion zu gering wäre und daher Benzin aus Niederländisch-Indien importiert werden müsse.

Die galizischen Produzenten von Erdöl errichteten eigene Raffinerien, um die Konkurrenz gegen die anderen Raffinerien aufzunehmen, die Kunstöl verarbeiteten. Dadurch gelang es allmählich die Produktion von Erdöl zu steigern. Im Jahr 1897 entwickelte Mc Garfey eine neue Bohrmeißel, mit deren Hilfe man Tiefen von 800 - 1000 Meter und dann sogar bis 1200 Meter erreichen konnte. Dabei wurden ergiebige Ölschichten angebohrt und der Rohölpreis sank auf 1 Krone pro 100 kg.

Die Petroleumerzeugung in den 1890er Jahren war durch wirtschaftliche Kämpfe zwischen den nördlichen Raffinerien, die galizisches Erdöl verarbeiteten, und den südlichen Raffinerien, die importiertes Kunstöl raffinierten, geprägt. Es kam zu Preisabsprachen und zur Ausbildung von Kartellen, die aber nie sehr lange Bestand hatten. Erst als 1900 der Zoll auf Rohöl von 1,10 auf 3,50 Gulden erhöht wurde, konnte die Einfuhr von Kunstöl gebremst werden.

Die Rohölproduktion in Galizien stieg von 89 000 Tonnen im Jahr 1890 auf 316 000 Tonnen im Jahr 1900 und 1,188 000 Tonnen im Jahr 1907. Zwar stieg in dieser Zeit auch der Inlandskonsum von Petroleum, doch konnten ab 1900 auch beträchtlichen Mengen Petroleum exportiert werden. Im Ausland stand Österreich in Konkurrenz zu Russland und Amerika.

Der Umstieg auf elektrische Beleuchtung

Ab Ende der 1880er Jahre wurde - zuerst in zentralen Institutionen wie beispielsweise in Theatern oder Banken - eine elektrische Beleuchtung eingeführt, die in den 1890er Jahren immer mehr an Umfang zunahm. Zur Kompensation des Verlustes an Abnehmern dehnten die Gaswerke das Rohrnetz aus, sodass in verstärktem Ausmaß auch Vororte mit Leuchtgas versorgt wurden.

Durch den von Carl Auer von Welsbach (1858 - 1929) erfundenen Glühstrumpf - ein als Strumpf ausgeformtes Netz aus Metalloxiden, der bei Erhitzung ein strahlendes Licht abgab - wurde die Qualität der Gasbeleuchtung wesentlich verbessert (s.u.: weiterführende Links). Das ermöglichte auch weiterhin eine Zunahme des Leuchtgasverbrauchs.

Die elektrische Beleuchtung, die sich gegen Ende des 19. Jahrhunderts durchzusetzen begonnen hatte, beruhte auf der von Thomas A. Edison 1879 entwickelten Kohlenfaden-Glühlampe, die allerdings einen hohen Stromverbrauch und eine geringe Lebensdauer hatte. Um diese Eigenschaften zu verbessern, experimentierte Auer von Welsbach mit verschiedenen hochschmelzenden Metallen wie u.a. mit Osmium (Osmium - Glühbirne). Schließlich resultierte daraus die Wolfram-Glühbirne, die rund 100 Jahre den Weltmarkt beherrschen sollte (s.u.: weiterführende Links).

Mit seinen Erfindungen des Glühstrumpfs für die Gasbeleuchtung anfangs der 1890er Jahre und der Metallfadenlampe für die elektrische Beleuchtung am Beginn des 20. Jahrhunderts hat Auer von Welsbach das Beleuchtungswesen der ganzen Welt neu gestaltet.


Weiterführende Links

Robert W. Rosner, Chemie in Österreich 1740 - 1918, Lehre, Forschung, Industrie (Hsg. W. Kerber und W. Reiter, Böhlau Verlag Wien, 2004)

Inge Schuster, 23.08.2012: Carl Auer von Welsbach: Vorbild für Forschung, Entwicklung und Unternehmertum.


 

inge Thu, 20.12.2018 - 11:55

Die sich vereinigenden Nationen der Naturwissenschaften und die Gefahr der Konsensforschung

Die sich vereinigenden Nationen der Naturwissenschaften und die Gefahr der Konsensforschung

Do, 27.12.2018 - 15:00 — Redaktion RedaktionIcon Politik und Gesellschaft

Die Welt wird immer kleiner und einheitlicher. Die blitzschnelle globale Wissenschaftskommunikation schafft enorme Möglichkeiten aber auch einen starken Impuls in Richtung Konsensforschung, der Wissenschaftler auf der ganzen Welt dazu drängt, dieselben Probleme als interessant zu betrachten und die gleichen Ansätze und Methoden in ihrer Forschung einzusetzen. Die US-amerikanische Neurobiologin Eve Marder (Brandeis University) weist in ihrem eben im Journal e-Life erschienenen Artikel "Living Science: Uniting the Nations of Science" auf die Gefahr eines Verlusts der Vielfalt in unserer wissenschaftlichen Kultur hin und ruft zu mehr Raum für Kreativität auf*. (Der Artikel wurde von der Redaktion übersetzt)

Wer eine der TV-Dokumentationen gesehen hat, in denen der amerikanische Koch und Autor Anthony Bourdain die Welt bereiste und Menschen aller Nationalitäten beim Essen und Gesprächen mit ihm filmte, war zweifellos von der Fülle an allgemein Gültigem menschlicher Erfahrung beeindruckt. Gleichzeitig war man aber auch von den Bildern und Klängen der einzelnen Orte beeindruckt. Trotz der weltweiten Ausbreitung von iPhones und Coca Cola unterscheiden sich auch im Jahr 2018 Straßen und Ansichten von Provincetown am Cape Cod (Massachusetts) sehr stark von denen in Kenia, Nepal und Lissabon. Die Verschiedenheiten bestehen, auch wenn bestimmte Markenprodukte in so vielen Teilen der Welt enorm zugenommen haben.

Traditionen bestimmen, wie Naturwissenschaften betrieben werden

Während die Wissenschaft selbst allgemein gültig ist, gibt es weitreichende kulturelle und historische Traditionen, die selbst in dieser Ära von Skype und E-Mail beeinflussen, in welcher Weise Naturwissenschaften und naturwissenschaftliche Ausbildung auf der ganzen Welt betrieben werden.

Erhebliche Unterschiede bestehen sogar zwischen kanadischen, britischen, australischen und amerikanischen Wissenschafts- und Bildungskulturen. Diese Unterschiede verblassen im Vergleich zu den Ländern, in denen die erste gesprochene Sprache nicht Englisch ist und deren erste schulische Erfahrungen sich wesentlich von denen in den USA oder Großbritannien unterscheiden.

Diese kulturell und historisch bedingten Unterschiede tragen nach wie vor dazu bei, wie wir an einige der grundlegendsten Probleme der Biologie herangehen.

Natürlich ermöglicht das Internet, dass Schüler auf der ganzen Welt mich bei einem Vortrag sehen oder, dass sie sich lineare Algebra selbst beibringen können. Gibt mir aber ein einwöchiger Besuch von Labors und Universitäten in Indien, China oder Chile mehr als ein sehr oberflächliches Verständnis der dortigen wissenschaftlichen Kultur? Meine eigene, lange Zeit zurückliegende Erfahrung als Postdoc in Paris war, dass ich länger brauchte, um die dortigen Unterschiede in Bezug auf Karrierewege zu verstehen und wie man an ein wissenschaftliches Problem herangehen sollte, als passende Schimpfwörter auf Französisch zu lernen.

Naturwissenschaften - lokale Angelegenheiten…

Vor vielen Jahren sagte der Bostoner Politiker Tip O’Neill: "Alle Politik ist eine gänzlich lokale Angelegenheit". Natürlich ist das im Jahr 2018 sowohl wahr als auch nicht wahr.

Dasselbe gilt für Naturwissenschaften.

Jeder Naturwissenschaftler betreibt sein Gebiet und /oder ist Teil eines Bildungssystems in einer lokalen Umgebung. Sogar die Grundlagen, die in einem Studienplan für die Ausbildung eines Biologen gefordert werden, sind in Institutionen, Bundesstaaten, Provinzen und Ländern sehr unterschiedlich.

Offensichtlich scheinen auch die Ansätze für die Elementar- und Sekundärbildung in der Welt recht unterschiedlich sein, ebenso wie die Einstellung der Gesellschaft zu Kindern, die Schwierigkeiten haben Lesen oder Rechnen zu lernen.

Diese Unterschiede sind vielleicht noch mehr ausgeprägt, wenn wir die Hochschulausbildung betrachten - die enormen Unterschieden zwischen einer sehr persönlichen Ausbildung, wie sie Elite-Einrichtungen in einigen Ländern anbieten und eine Ausbildung anderswo, die öffentliche Universitäten mit einer hohen Zahl inskribierter Studenten vermitteln.

…Spezialisierungen…

Die Amerikaner sind sich leider darüber im Klaren, dass viele Länder, die viel kleiner als unsere sind, Mathematik und Physik besser unterrichten als wir.

Einige Standorte sind spezialisiert für die Ausbildung von Informatikern und andere für die von Pflanzenbiologen. Es gibt viele Universitäten, an denen niemand weiß, wie man Schmetterlinge erkennt, aber es gibt hoffentlich auch andere Institutionen, in denen Wissen über Moose, Farne und Spinnen besteht.

Einige solcher Spezialisierungen in Wissenschaftsbereichen werden durch Bedingungen des Umfelds bestimmt. Institutionen können unter dem Druck stehen wichtige technologische Herausforderungen zu lösen oder eine Belegschaft mit definierten Vorgaben zu schaffen. Es gibt Länder, die sich mit der Bekämpfung infektiöser Erreger von Kulturpflanzen oder Menschen befassen müssen und vielleicht nicht das Gefühl haben, den Luxus einer Grundlagenforschung betreiben zu können, die nicht direkt zur Lösung landwirtschaftlicher oder gesundheitlicher Interessen beiträgt.

…und Exzellenzzentren

Als ich in der Wissenschaft anfing, gab es auf einigen Gebieten starke Traditionen für Spitzenleistungen - beispielsweise, dass man Exzellenz in der Neuroethologie von Insekten in Deutschland finden könne, Exzellenz in der Pflanzenbiologie jedoch anderswo. Da Exzellenz die besten Studenten anzieht, ist es verständlich, dass diese Art der wissenschaftlichen Spezialisierung zu Exzellenzzentren geführt hat, die auf der ganzen Welt unterschiedlich verteilt waren.

Erstaunlicherweise gibt es auch heute noch Reste lokaler wissenschaftlicher Traditionen aus den letzten 150 Jahren, die in der Art und Weise, wie Wissenschaft betrieben wird, Bestand haben.

Globale Wissenschaftskommunikation und Gefahr einer Konsensforschung

Als ich im Alter von 20 Jahren zum ersten Mal in Europa herumreiste, konnte man anhand von Schuhen, Kleidung und Haarschnitten die Nationalität von Menschen meines Alters erkennen.

Das ist heute fast unmöglich geworden.

Der Vorteil von Open Access-Zeitschriften, bioRxiv und elektronischer Kommunikation ist, dass Informationen sehr schnell übertragen werden und - wie Starbucks - fast überall eindringen können.

Der Nachteil von all dem in der Wissenschaft ist, dass damit ein starker Impuls in Richtung Konsensforschung gesetzt wird, in anderen Worten: dass Wissenschaftler auf der ganzen Welt dazu gedrängt werden, dieselben Probleme als interessant zu betrachten und die gleichen Ansätze und Methoden in ihrer Forschung einzusetzen.

Als die Kommunikation zwischen Wissenschaftlern auf der ganzen Welt noch langsam und mit Unterbrechungen verlief, konnten kleine, halb-isolierte Gemeinschaften ihre eigenen Normen und Ansichten darüber festlegen, welche Probleme interessant waren und welche Methoden als notwendig und ausreichend erachtet wurden.

In der heutigen Welt der blitzschnellen Kommunikation haben viele Wissenschaftsbereiche Rezepte dafür entwickelt, was eine Untersuchung alles enthalten muss, um ausreichende Qualität für die Veröffentlichung in einer ausgezeichneten Zeitschrift aufzuweisen. Einige der Rezeptzutaten sind sinnvoll (z.B. alle Untersuchungen sollten über geeignete Statistiken und ausreichende Probenzahlen verfügen), anderen Zutaten folgen Autoren, Gutachter und Herausgeber in sklavischer Manier, ohne zu überlegen, ob diese für das anstehende Problem Relevanz haben.

Ich befürchte, dass das Streben nach Exzellenzstandards unbeabsichtigt dazu führen kann, dass Arbeiten, die neue Erkenntnisse bieten ohne notwendigerweise alle Zutaten zu enthalten, die man bei einer Veröffentlichung in einem bestimmten Bereich erwartet, gering geschätzt werden. In letzter Konsequenz sollten aber kreative Wissenschaftler, die neue Ansätze für wissenschaftliche Fragestellungen formulieren, dahingehend beurteilt werden, welche neuen Erkenntnisse sie mit ihrer Arbeit geschaffen haben, und nicht nur danach, ob ihre Arbeit alle Ingredienzien oder Eigenschaften aufweist, welche das Gebiet erwartet.

Abbildung 1. So wie Biologen gelehrt werden, in der im Evolutionsprozess entstandenen Artenvielfalt zu schwelgen, so sollten sie auch die Vorteile schätzen, die sich aus verschiedenen Ansätzen für Bildung und Forschung ergeben. Abbildung: Ben Marder.

So wie es mir weh tut, Coca Cola überall zu sehen, wohin ich reise, so wäre es äußerst traurig, wenn die gesteigerte Kommunikation zwischen Biologen dazu führen würde, dass die Erforschung von hochspezifischen Fragestellungen oder von Spezies, die nur in einigen Gebieten zu finden sind, verloren ginge.

Biologen lernen, in der Artenvielfalt zu schwelgen, die aus der Evolution resultiert. Ebenso sollten wir die Chancen bewahren grundlegende biologische Prinzipien zu verstehen, die sich aus der Diversität unserer Bildung und Forschung ergeben. Abbildung 1.

Viele Menschen tragen finanziell und mit ihrer Zeit dazu bei, bedrohte Arten in der Welt zu erhalten. Vielleicht sollten mehr Wissenschaftler darüber nachdenken, was wir verlieren, wenn wir den Verlust der Vielfalt in unserer wissenschaftlichen Kultur zulassen!

Anthony Bourdain ließ das Universum glänzen, ob er nun in einem feinen Restaurant speiste oder auf einem belebten asiatischen Markt Street Food verzehrte. Ebenso sollten wir in der Lage sein, die Lehren aus Experimenten und Messungen kluger und kreativer Menschen zu schätzen und zu verstehen, unabhängig davon, ob sie den Rezepten der Konsenswissenschaft folgen oder nicht.


*Eve Marder: Living Science: Uniting the Nations of Science (feature article, Dec. 20, 2018) e-Life DOI:10.7554/eLife.44441.  Der unter einer cc-by Lizenz stehende Artikel wurde von der Redaktion ins Deutsche übersetzt und es wurden einige Untertitel eingefügt.

Eve Marder ist eine renommierte, hochdekorierte Neurobiologin an der Brandeis University, die u.a. auch als Deputy Editor von eLife fungiert. Sie schreibt auch über Wissenschaft, Politik und Gesellschaft. homepage: https://blogs.brandeis.edu/marderlab/ ; ausführliche Darstellung: https://en.wikipedia.org/wiki/Eve_Marder

inge Thu, 27.12.2018 - 15:00

Anhaltspunkte für Langlebigkeit aus dem Genom einer Riesenschildkröte

Anhaltspunkte für Langlebigkeit aus dem Genom einer Riesenschildkröte

Do, 13.12.2018 - 13:00 — Ricki Lewis Ricki LewisIcon Biologie

Der letzte Vertreter der Pinta-Riesenschildkröten - Lonesome George - starb 2012 im Alter von 100 Jahren . Kürzlich wurde der Vergleich seines Genoms mit dem anderer Spezies veröffentlicht: dieser zeigt Gen-Varianten, die u.a. Selektionsvorteile für Langlebigkeit, Abwehr von Infektionen, Resistenz gegenüber Krebserkrankungen bieten und damit neue Wege für die medizinische Forschung eröffnen [1]. Die Genetikerin Ricki Lewis, die zu Riesenschildkröten eine besondere Beziehung hat, berichtet über diese bahnbrechenden Befunde.*

Eine lange Beziehung zu Schildkröten

Für Schildkröten hege ich eine besondere Vorliebe.

Vor vielen Jahren kaufte ich anlässlich einer Reptilienschau eine Sulcata-Schildkröte. Was ich nicht wusste als ich damals die winzige Speedy in einer McDonalds Burger-Box nachhause brachte war, dass sie über 100 Jahre alt werden konnte.

Speedy wuchs und das sehr schnell. Nachts vergnügte sie sich damit die Möbel herum zu schubsen. Das Reinigen ihrer wöchentlichen Ausscheidungen kostete mich einige Stunden, Speedy selbst verabscheute die Badewanne. Sie liebte es den Sommer im Freien zu verbringen - als eine Art Reptilien-Rasenmäher, im Winter fiel sie dagegen in Depression und hockte wie eine deplatzierte Aktenkiste in einem Winkel meines Büros.

Ich verzweifelte. Das Googeln führte dann zu Artikeln, welche verächtlich über Idioten im Nordosten herzogen, die sich mit Leguanen und Riesenschildkröten anfreunden und dann mit deren unabwendbarem Wachstum konfrontiert sind.

Ich musste meine geliebte Speedy umsiedeln.

Ich las die ausführlichen Anleitungen im Internet und platzierte Speedy in die erforderlichen zwei Plastikwannen mit viel Platz und dem Etikett "Ich bin keine Schlange". Dann ging es zur Post. Ich hatte sicher gestellt, dass Airborne Express sie versenden würde, wohingegen FedX und DHL kein lebendes Reptil anrühren würden. Aber ich kam fünf Minuten zu spät, und der Airborne-Angestellte war bereits gegangen.

Es war dies Montag, der 10. September 2001.

Wäre Speedy pünktlich abgereist, wäre sie zweifellos irgendwo auf einem Rollfeld umgekommen, das die USA nach den Terroranschlägen schlossen. Der Besitzer des Postversands erzählt bis heute die Geschichte seiner interessantesten Postsendung, der Schildkröte Speedy.

Ich behielt Speedy für einen weiteren Monat und schickte sie dann ab. Ich erfuhr bald, dass der Airborne-Mann in Kalifornien - nachdem er festgestellt hatte, dass Speedy keine Schlange war - sie herausgenommen hatte und auf dem Platz neben ihm sitzen ließ. Speedy landete auf einer Schildkrötenfarm in Apple Valley, Kalifornien, zusammen mit anderen großen, übersiedelten Yankee-Reptilien. Speedy hatte bald einen Freund, einen wohlhabenden Sulcata, der mit einem Privatjet von Sonoma eingeflogen worden war. Wir haben jedoch den Kontakt verloren.

Das genomische Vermächtnis der Riesenschildköte Lonesome George

Ein am 3. Dezember 2018 in dem Journal Nature Ecology & Evolution erschienener Artikel [1] erregte mein Interesse.

Es handelt sich dabei um eine von Forschern der Yale University, der University of Oviedo in Spanien, der Galapagos Conservancy und des Galapagos National Park Service stammende Untersuchung. Diese besagt: „Genome von Riesenschildkröten bieten Erkenntnisse zu Langlebigkeit und altersbedingten Erkrankungen“. Zentrale Figur der Untersuchung war Lonesome George, der berühmteste Bewohner der Galapagos-Inseln. Die Forscher verglichen das Genom von George mit dem der Aldabra-Riesenschildkröte (Aldabrachelys gigantea) des Indischen Ozeans und auch mit einigen Genen anderer Spezies, inklusive unserer eigenen.

Das Projekt hat insgesamt recht lang gedauert. 2010 fing Adalgisa Caccone (Yale University) mit den Sequenzierungen an und Carlos Lopez-Otin (Universität Oviedo) leitete die Datenanalyse, um nach Genvarianten zu suchen, die mit Langlebigkeit in Zusammenhang stehen.

Als Lonesome George 2012 starb, war er das letzte lebende Mitglied der Chelonoidis abingdonii. Er lebte auf der Insel Pinta und wog nach seinem Tod im Alter von etwa einem Jahrhundert 195 Pfund. Abbildung 1.

Abbildung 1. "Lonesome George", der letzte Vertreter der Pinta Riesenschildkröten (Chelonoidis abingdonii) wurde etwa 100 Jahre alt und starb 2012. Sein Genom eröffnet u.a. neue Wege für die Alternsforschung (Bild: Wikipedia, putneymark - originally posted to Flickr; cc-by-sa Lizenz)

Unter Berücksichtigung bekannter Mutationsraten zeigt der Vergleich spezifischer DNA-Sequenzen, dass der letzte gemeinsame Vorfahren der beiden Schildkrötenarten vor 40 Millionen Jahren lebte. Beide Arten trennten sich von der zum Menschen führenden Linie vor mehr als 300 Millionen Jahren. Die Ankunft von Menschen auf den Galapagos-Inseln beschleunigte den Rückgang der Populationen der Lonesome George-Nachkommen - die Matrosen an Bord der durch Darwin berühmt gewordenen Beagle sollen mindestens 30 Tiere verzehrt haben.

Evolution durch Positive Selektion

Die aktuelle Untersuchung [1] verwendet leider den Begriff "Evolutionsstrategien", gerade so als würden die Tiere darüber nachdenken, was genau zu tun ist oder nicht, um einen weiteren Tag fort zu existieren. Dies ist nicht die Art und Weise wie Evolution durch natürliche Auslese funktioniert. Um es korrekter auszudrücken: jene Individuen, die das Glück hatten, vernünftige, zur Fortpflanzung gut geeignete Genvarianten geerbt zu haben, hinterließen mehr Nachwuchs und ließen somit diese Gene fortbestehen.

Heute untersuchen Forscher die Evolution auf der Basis vorteilhafter, in den Genen verankerter Veränderungen. Insbesondere suchen sie nach Anzeichen einer „positiven Selektion“ - d.i. nach Aminosäuresequenzen in Proteinen, welche von Genen codiert werden, die sich von denen verwandter Spezies unterscheiden und mit einem Vorteil (einer Anpassung) verbunden sind.

Das Beispiel für eine positive Auswahl, das ich in meinem Lehrbuch für Humangenetik verwende, ist die Höhenanpassung der Eingeborenen des tibetischen Hochlands, die mehr als zwei Meilen über dem Meeresspiegel leben. Diese Hochländer haben eine Version eines Gens namens EPAS1 (Hypoxie-induzierbarer Faktor 2) sowie Varianten in zwei anderen Genen, mit denen sie in der dünnen Luft gedeihen können. Zu den Arten von adaptiven genetischen Veränderungen gehören

  • das Ersetzen von Aminosäuren in den entsprechenden Proteinen,
  • das Entfernen von Teilen von Genen und
  • - einfacher - das Duplizieren von Schlüsselgenen. Das Kopieren von funktionierenden Genen ist ein dauerndes Thema in der Evolution.

Was zeigt uns das Genom von Lonesome George?

In der eben erschienenen Studie wurden 43 Gene in der Spezies des Lonesome George gefunden, die Hinweise auf eine „Riesenschildkröten-spezifische positive Selektion“ zeigen. Sie haben den Tieren ermöglicht ein Jahrhundert und länger zu leben, Infektionen und Verletzungen zu vermeiden oder leicht bekämpfen zu können und nie Krebs zu bekommen.

"Lonsome George erteilt uns immer noch Lektionen", sagte Algisia Caccone in einer Pressemitteilung.

Es ist nicht überraschend, dass die Schildkröte zahlreiche Gene für die schuppigen Keratinproteine besaß, die seine Hülle bildeten, und keine Gene für Zähne hatte. (Ich habe noch nie eine Schildkröte mit Zähnen gesehen.)

Zusätzliche Kopien für Gene des Immunsystems…

Im Vergleich zu Säugetieren ist im Genom des Lonesome George eine Fülle von 861 Genen vervielfältigt, welche für die Immunantwort sorgen. George hatte ein Dutzend Kopien des Gens für Perforin, dessen Proteinprodukt die Zellen von Krankheitserregern zerstört, und zusätzliche Granzyme, Enzyme, die Krankheitserreger abtöten. Andere Gene des Immunsystems, die in Lonesome Georges Genom überrepräsentiert sind, sind solche die spezifisch Viren, Bakterien, Pilze und Parasiten vernichten. Auch die Gene des Major Histocompatibility Complex (für die Immunerkennung codierende Gene; MHC) sind doppelt vorhanden.

…Varianten für metabolische Regulierung, DNA-Reparatur und Sauerstoff-Bindung…

Die Gene, die den Blutzucker und die Reparatur der DNA regulieren, unterscheiden sich von denen anderer Spezies. Lonesome George und seine Brüder besaßen die acht Arten von Globin-Molekülen - Sauerstoff bindenden und transportierenden Molekülen -, die allen Wirbeltieren gemeinsam sind, jedoch hatten sie Varianten, die sie vor sauerstoffarmen Bedingungen schützten. Es war dies eine Eigenschaft, die wahrscheinlich von ihren Wasserschildkröten Vorfahren weitergegeben wurde.

…Varianten für die Resistenz gegenüber Krebs…

Bei einem Screening gegen eine große Zahl bekannter Krebsgene zeigte das Genom von Lonesome George 5 Erweiterungen in Genen, die für Tumorsuppressorproteine ​​kodieren; ihre Identität lässt auf eine Rolle in der Immunüberwachung schließen - ein Immunsystem, das Krebs aktiv bekämpfte. Die immunologische Ausstattung könnte dazu beitragen, das Paradoxon von Peto zu erklären, dass nämlich Krebs bei größeren Tierarten eine geringere Häufigkeit hat. Abbildung 2 unten (rote Punkte).

Abbildung 2. Genomische Basis für Langlebigkeit und Fehlen von Krebserkrankungen in Riesenschildkröten. Relevante Genvarianten; Punkte zeigen deren Anwesenheit in den verschiedenen Spezies. (Bild: Ausschnitt aus Fig.2. in [1] von der Redaktion eingefügt . cc-by-Lizenz.)

…Varianten, die gegen Proteinaggregation schützen…

Lonesome Georges Genom enthielt auch eine Enzymvariante, die auf einen möglichen Schutz gegen die Art von Proteinaggregation hinweist, welche der Parkinson-Krankheit und der Alzheimer-Krankheit zugrunde liegt. Es sind Varianten des Gens TDO2 (Tryptophan 2,3, Dioxygenase), die mit der Regulation der Alpha-Synuclein-Aggregation in Würmern zusammenhängen. Die Genvariante in Lonesome George hemmt das Tryptophan abbauende Enzym - dies bietet einen Schutz vor Proteinaggregation.

…Varianten, die in Zusammenhang mit Langlebigkeit stehen…

Besonders interessant war für mich die Untersuchung von Genen, die mit der Langlebigkeit anderer Arten in Zusammenhang stehen. "Wir hatten zuvor neun Merkmale der Alterung beschrieben. Nachdem wir auf Basis dieser Klassifizierung 500 Gene untersucht hatten, fanden wir interessante Varianten, die möglicherweise sechs dieser Merkmale bei Riesenschildkröten betreffen und damit neue Wege für die Alternsforschung eröffnen", sagte Dr. Lopez-Otin . Abbildung 2.

Lonesome George besaß ein halbes Dutzend alterungssassoziierte Gene mit einzigartigen Varianten, welche die Intaktheit des Genoms, die Reparatur der DNA-Reparatur (Basenexzision) und eine Resistenz gegen doppelsträngige DNA-Brüche fördern (was bedeutet, dass CRISPR wahrscheinlich nicht bei einer Riesenschildkröte funktionieren würde). Lonesome George gelang es auch, seine Chromosomenenden, seine Telomere, lang zu halten und die Uhr der biologischen Zellteilung zu verlangsamen. Außerdem weisen einzigartige Genvarianten auf eine überlegene Zell-Zell-Kommunikation, ein robustes Zytoskelett und auf Mitochondrien hin, die besonders gut zur Entgiftung geeignet sind.

Lonesome George hatte Varianten von Alterungsgenen mit dem Nacktmull gemeinsam, dem am längsten lebenden Nagetier (es kann bis zu 28 Jahre alt werden; Anm. Red,). Abbildung 3.

Abbildung 3. Der Nacktmull , das am längsten lebende Nagetier (Bild: Wikipedia, Roman Klementschitz, Wien cc-by-sa)

Darüber hinaus zeigt sein Genom eine positive Selektion in zwei Genen, welche für Biomarker einer Langlebigkeit des Menschen in Gesundheit kodieren (Alpha 2-HS Glycoprotein - AHSG - und Fibroblast Growth Factor 19 - FGF19 -, ein gastrointestinales Hormon).

Fazit der Forscher

"Lonesome George - der letzte Vertreter von C. abingdonii und ein wohlbekanntes Symbol für die Notlage bedrohter Arten - hat ein Vermächtnis hinterlassen, das die in seinem Genom niedergelegte Geschichte einschließt, deren Entzifferung gerade erst begonnen hat."

Speedy wäre stolz.


[1] Víctor Quesada et al., Giant tortoise genomes provide insights into longevity and age-related disease. Nature Ecology & Evolution 2018. https://doi.org/10.1038/s41559-018-0733-x open access; cc-by-Lizenz.


*Der Artikel ist erstmals am 6. Dezember 2018 in PLOS Blogs - DNA Science Blog unter dem Titel "Genome of Galapagos Gentle Giant Lonesome George Leaves Clues to Longevity"" erschienen (https://blogs.plos.org/dnascience/2018/12/06/genome-of-galapagos-gentle-giant-lonesome-george-leaves-clues-to-longevity/) und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich den englischen Fassungen folgen. Von der Redaktion eingefügt wurde Abbildung 2, das einen Ausschnitt aus der Originalarbeit [1] zeigt.


Weiterführende Links

Riesenschildkröte "Lonesome George" gestorben. 2012, Video 0:20 min.

Preserving Lonesome George. American Museum of Natural History 2014. Video 4:34 min.

The Biggest Tortoise In the World | Big Pacific.2017. Video 6:03 min. Standard YouTube Lizenz

Nacktmull - ein Nager mit "Superkräften" | [w] wie wissen. ARD 26.03-2018. Video 6:11 min.

inge Thu, 13.12.2018 - 13:00

Grenzen der Klimamodellierungen

Grenzen der Klimamodellierungen

Do, 06.12.2018 - 15:47 — Carbon Brief Carbon BriefIcon MINT

Man kann es nicht oft genug wiederholen: Klimamodelle bieten keine völlig korrekte Darstellung des Erdklimas und sind dazu auch nicht in der Lage. Das Klima ist ja von Natur aus chaotisch, eine Simulation mit 100% iger Genauigkeit daher nicht möglich. Dennoch können Modelle das globale Klima ziemlich gut wiedergeben. Wo und welche Probleme noch bestehen und welche Lösungen man erarbeitet, beschreibt der folgende Artikel , Teil 7 einer umfassenden, leicht verständlichen Serie "Q&A: How do climate models work?", die von der britischen Plattform Carbon Brief stammt (Teile 1 -6[1, 2, 3, 4, 5, 6].*

Wie genau Klimaprognosen ausfallen, hängt auch von der Qualität der Annahmen ab, die in die Modelle einfließen.

  • Beispielsweise wissen Wissenschaftler ja nicht, ob die Treibhausgasemissionen sinken werden - sie nehmen daher Schätzungen vor, die auf verschiedenen Szenarien einer zukünftigen sozioökonomischen Entwicklung basieren. Dies erhöht die Unsicherheit der Klimaprojektionen.
  • Ebenso gibt es künftige Aspekte, für die - auf Grund ihres in der Erdgeschichte so seltenen Auftretens - nur äußerst schwer Voraussagen gemacht werden können. Ein Beispiel dafür betrifft die Eisschilde: wenn diese abschmelzen könnten sie instabil werden und den erwarteten Anstieg des Meeresspiegels beschleunigen.

Klimamodelle werden immer komplizierter und anspruchsvoller - dennoch gibt es immer noch Aspekte des Klimasystems, die Modelle nicht so gut erfassen können, wie es die Wissenschaftler wünschen.

Das Problem Wolken

Eine der wesentlichen Einschränkungen der Klimamodelle liegt darin, wie gut sie Wolken darstellen können.

Wolken sind Klimaforschern ein ständiger Dorn im Auge. Sie bedecken jeweils rund zwei Drittel der Erdoberfläche, doch einzelne Wolken können sich innerhalb weniger Minuten bilden und auflösen, Wolken können den Planeten sowohl wärmen als auch kühlen; die hängt von der Art der Wolke ab und der Tageszeit. Dazu kommt, dass Wissenschaftler keine Aufzeichnungen darüber besitzen, wie Wolken in der fernen Vergangenheit beschaffen waren - damit wird es schwieriger festzustellen, ob und wie sie sich in der Zwischenzeit verändert haben.

In Hinblick auf die Schwierigkeiten beim Modellieren von Wolken tritt als besonderer Aspekt die Konvektion hervor. Dies ist der Prozess, bei dem die warme Luft an der Erdoberfläche durch die Atmosphäre emporsteigt, sich abkühlt und die darin enthaltene Feuchtigkeit dann zu Wolken kondensiert.

An heißen Tagen erwärmt sich die Luft schnell, was die Konvektion fördert. Dies kann zu heftigen Regenfällen von kurzer Dauer führen, die häufig von Donner und Blitzen begleitet werden.

Abbildung 1. Konvektionsströmung, die zu Wolkenbildung führt und auch zu Gewittern. Credit: Niccolò Ubalducci / Flickr (CC BY-NC-ND 2.0)

Durch Konvektion verursachte Niederschläge können kurzfristig und stark lokalisiert auftreten. Um solche Niederschlagsereignisse zu erfassen, verfügen globale Klimamodelle über eine ungenügende, zu grobe Auflösung.

Wissenschaftler verwenden stattdessen „Parametrisierungen“ [6], welche die mittleren (durchschnittlichen) Auswirkungen der Konvektion über eine einzelne Gitterzelle darstellen. Dies bedeutet, dass Globale Klimamodelle (GCMs) keine individuellen Stürme und lokale Starkregenereignisse simulieren. Dies erklärt Dr. Lizzie Kendon, leitende Wissenschaftlerin für Klimaextreme am Met Office Hadley Center Carbon Brief gegenüber:

„GCMs sind nicht in der Lage, die Intensitäten der Niederschläge im Stundenraster und extreme Niederschläge im Sommer zu erfassen. Bei der groben Auflösung der globalen Modelle wäre die Verlässlichkeit stündlicher Regenprognosen oder konvektiver Extrema sehr niedrig“.

Um diesem Problem beizukommen, haben Wissenschaftler besonders hochauflösende Klimamodelle entwickelt. Diese haben Gitterzellen, die weniger als einige zehn Kilometer breit sind. Diese „Konvektion-berücksichtigenden“ Modelle können größere Konvektionsstürme simulieren, ohne dass eine Parametrisierung erforderlich ist.

Allerdings ist das ein Kompromiss: mehr in Details zu gehen bedeutet, dass die Modelle noch nicht den gesamten Globus abdecken können. Auch, wenn die Oberfläche kleiner geworden ist und Supercomputer verwendet werden, benötigen derartige Simulationen immer noch sehr lange Laufzeiten, vor allem, wenn Wissenschaftler viele Variationen des sogenannten Modell-Ensembles ausführen möchten. (zu Modell-Ensembles:siehe [4]).

Beispielsweise verwenden Simulationen, die Teil des Projekts IMPALA "Future Climate For Africa" ​​("Verbesserung von Modellprozessen für afrikanisches Klima") sind, Modelle, welche die Konvektion berücksichtigen und dies für ganz Afrika. Allerdings geschieht dies nur für einen Part des Ensembles, so Kendon. In ganz ähnlicher Weise wird das nächste Set der UK-Klimaprojektionen, das im nächsten Jahr fällig wird („UKCP18“) durchgeführt und zwar für 10 Ensemble-Modelle, jedoch nur für Großbritannien.

Es liegt aber noch ein weiter Weg vor uns, um Modelle, die Konvektion berücksichtigen, auf die globale Dimension ausdehnen zu können. Kendon drückt dies explizit so aus: "Es wird wahrscheinlich viele Jahre dauern, bis wir uns [die Rechenleistung für] konvektionsfähige globale Klimasimulationen leisten können, insbesondere für mehrere Simulationen eines Ensembles."

Die doppelte ITC Zone (innertropische Konvergenzzone)

Ähnlich wie das Wolken-Problem in den globalen Klimamodellen ist auch die "doppelte innertropische Konvergenzzone" zu sehen. Bei der innertropische Konvergenzzone (ITCZ) handelt es sich um einen riesigen Tiefdruckgürtel, der die Erde in Äquatornähe umgibt (Abbildung 2). Diese Zone regelt die jährlichen Niederschlagsmuster in einem Großteil der Tropengebiete und ist daher für Milliarden von Menschen ein äußerst wichtiges Klimaelement.

Abbildung 2. Die Innertropische Konvergenzzone (ITCZ) und die wesentlichen globalen Zirkulationssysteme in der Erdatmosphäre – Strömungen, die zwischen der warmen Luft in den Tropen und der kalten Luft in den Polgebieten ausgleichen. Dazu zählen die tropische Passatzirkulation (Hadley Zelle) zwischen 30oNord und 30o Süd, in der in Bodennähe Nordost-Passate oder Südostpassate in Richtung Äquator und polwärts - wegen der Corioloskraft - westlich gerichtete Winde wehen. In der Polarzelle treffen die entgegengesetzt strömenden Luftmassen von Polarluft und subtropischer Warmluft zusammen. (Quelle: Kaidor; CC BY-SA 3.0 from Wikimedia Commons)

Die ITC Zone ​​verschiebt sich während des Jahres über die Tropen hin nach Norden und Süden und folgt dabei grob dem Sonnenstand in den Jahreszeiten. Globale Klimamodelle erzeugen die ITCZ ​​in ihren Simulationen - sie entsteht als Folge der Wechselwirkung zwischen den einzelnen physikalischen Prozessen, die im Modell eingegeben sind. Wie jedoch US-Wissenschaftler vom Caltech erläutern, gibt es einige Gebiete, in denen Klimamodelle Schwierigkeiten haben, die Position der ITCZ ​​korrekt darzustellen (https://doi.org/10.1175/JCLI-D-15-0328.1):

“Im östlichen Pazifik liegt die ITCZ ​​ den Großteil des Jahres über nördlich des Äquators und mäandriert einige wenige Breitengrade um den sechsten Breitengrad. Für einen kurzen Zeitraum im Frühjahr spaltet sich die Zone jedoch in zwei ITCZs auf beiden Seiten des Äquators auf. Die derzeitigen Klimamodelle übertreiben diese Aufspaltung in zwei ITCZs, was zur bekannten Doppel-ITCZ-Verzerrung der Modelle führt“.

Die meisten Globalen Klimamodelle zeigen zu einem gewissen Grad das doppelte ITCZ-Problem; dies führt dazu, dass sie für einen Großteil der Tropen der südlichen Hemisphäre zu viel Regen simulieren und für den Pazifik am Äquator manchmal zu wenig Regen.

Die doppelte ITC Zone ​​"ist vielleicht der wichtigste und permanenteste systematische Fehler in aktuellen Klimamodellen", sagt Dr. Baoqiang Xiang, ein leitender Wissenschaftler am Geophysical Fluid Dynamics Laboratory der National Oceanic and Atmospheric Administration in den USA. Daraus ergibt sich vor allem: Modellierer halten Vorhersagen, wie sich die ITC Zone ​​im Verlauf der Klimaerwärmung ändern könnte, für weniger verlässlich. Es gibt aber auch weitere Beeinflussungen, sagt Xiang zu Carbon Brief:

„Zum Beispiel prognostizieren die meisten aktuellen Klimamodelle einen abgeschwächten Passatwind und eine Abschwächung der Walker-Zirkulation (d.i. ein Strömungskreislauf der Luft über dem äquatorialem Pazifik; Anm. Redn). Die Existenz des doppelten ITCZ-Problems könnte zu einer Unterschätzung dieses geschwächten Passatwinds führen."

(Passatwinde sind annähernd konstante östliche Winde, welche beiderseits des Äquators um die Erde zirkulieren.)

Darüber hinaus legt eine 2015 erschienen Studie (in Geophysical Research Letters) nahe, dass die doppelte ITCZ die Rückkopplungen von Wolken und Wasserdampf in Modellen beeinflusst und daher für die Klimasensitivität# eine Rolle spielt. Man fand heraus, "dass Modelle mit einer starken doppelten ITC Zone ​​einen niedrigeren Wert für die Gleichgewichts-Klimasensitivität (ECS) aufweisen, was darauf hindeutet, dass „die meisten Modelle die ECS unterschätzt haben“. Wenn Modelle aber die ECS unterschätzen, wird sich als Reaktion auf vom Menschen verursachte Emissionen das Klima stärker erwärmen, als es die aktuellen Prognosen vermuten lassen.

Die Ursachen für die doppelte ITCZ ​​in Modellen sind komplex und waren Gegenstand zahlreicher Studien, erklärt Xiang gegenüber Carbon Brief. Nach seiner Meinung gibt es eine Reihe von ursächlichen Faktoren, einschließlich der Art und Weise, wie Konvektion in Modellen parametrisiert wird.

Beispielsweise kam ein 2012 veröffentlichter Artikel (in den Proceedings der National Academy of Sciences) zu dem Schluss, dass das Problem daher rührt, dass die meisten Modellen nicht genügend dicke Wolken über dem "oft bedeckten Südozean" erzeugen. Dies führt dann zu höheren Temperaturen über der Südhemisphäre als üblich und auch zur Verschiebung der tropischen Niederschläge nach Süden.

Fragt man danach, wann Wissenschaftler dieses Problem lösen werden können, so lässt sich darauf laut Xiang nur schwer eine Antwort finden:

„Meiner Meinung nach werden wir dieses Problem in den kommenden zehn Jahren möglicherweise nicht vollständig lösen können. Mit dem verbesserten Verständnis der Modell-Physik, der Erhöhung der Modellauflösung und verlässlicheren Beobachtungen haben wir jedoch bedeutende Fortschritte erzielt.“

Jetstreams (Strahlströme)

Ein weiteres allgemeines Problem bei Klimamodellen betrifft schließlich die Position von Jetstreams in den Klimamodellen. Jet Streams sind mäandrierende Flüsse von Hochgeschwindigkeitswinden, die hoch in der Atmosphäre strömen. Sie können Wettersysteme von Westen nach Osten über die ganze Erde fließen lassen.

Abbildung 3. NASA Visualisierung des Europäischen Jetstream (screenshot). Dieser wird durch das Zusammentreffen kalter absinkender Luftmassen aus der Arktis und aufsteigender warmer Luft aus den Tropen erzeugt - es ist ein strömendes Band aus westlichen Winden, das rund um den Planeten mäandriert. Die Visualisierung verwendet Wetter-und Klimabeobachtungen des NASA MERRA Daten Modell. Video 1:23 min. https://www.youtube.com/watch?time_continue=3&v=Xybvt-J-7Og (Credit: NASA's Scientific Visualization Studio. The Blue Marble data is courtesy of Reto Stockli (NASA/GSFC)

Wie es auch bei der ITC Zone der Fall ist, ​​erzeugen Klimamodelle Jetstreams aufgrund der in ihrem Code enthaltenen grundlegenden physikalischen Gleichungen.

Jetstreams scheinen jedoch in Modellen oft zu "zonal" zu sein - mit anderen Worten, sie fallen zu stark und zu geradlinig aus, erklärt Dr. Tim Woollings, Dozent für physikalische Klimawissenschaft an der Universität Oxford und ehemaliger Leiter der gemeinsamen Met Office/Universities Process Evaluierungsgruppe on Blocking and Storm Tracks. Er sagt Carbon Brief:

„In der realen Welt schert der Jet etwas nach Norden aus, wenn er den Atlantik überquert (und ein Stück den Pazifik). Weil Modelle dies unterschätzen, ist der Jet im Durchschnitt oft zu weit in Richtung Äquator orientiert.“

Dies führt dazu, dass Modelle nicht immer korrekt auf den Bahnen - den sogenannten Sturmbahnen - liegen, welche Niederdruck-Wetter einschlagen. In Modellen sind Stürme oft zu träge, sagt Woollings, und sie erreichen nicht die ausreichende Stärke und klingen zu schnell ab. Es gibt Möglichkeiten, dies zu verbessern, und einige sind zielführender als andere. Im Allgemeinen kann es hilfreich sein, wenn man die Auflösung des Modells erhöht sagt Woollings:

„Wenn wir beispielsweise die Auflösung erhöhen, werden die Gipfel der Berge etwas höher und dies trägt dazu bei, die Jets etwas nach Norden abzulenken. Es passieren auch kompliziertere Dinge; wenn wir bessere, aktivere Stürme simulieren können, kann dies einen Dominoeffekt auf den Jet-Stream haben, der teilweise von den Stürmen angetrieben wird.“

(Mit zunehmender Auflösung des Modells werden Berggipfel höher, da das Modell durch die größeren Details mehr vom Berg "sehen" kann, wenn er sich nach oben hin verengt.)

"Eine weitere Option besteht darin , dass man verbessert, wie das Modell die Physik der Atmosphäre in seinen Gleichungen darstellt," fügt Woollings hinzu und zwar "mittels neuer, cleverer Formen, um die Strömungsmechanik im Computercode zu approximieren".


# Klimasensitivität: Die Erwärmung, die wir erwarten können, wenn das Kohlendioxid in der Atmosphäre doppelt so hoch ist wie vor der industriellen Revolution. Es gibt zwei Arten Klimasensitivität zu definieren: Der Transient Climate Response (TCR) ist die Erwärmung an der Erdoberfläche, die wir zum Zeitpunkt der CO2-Verdoppelung erwarten können, die Gleichgewichts-Klimasensitivität (ECS) ist dagegen die gesamte Erwärmung, wenn die Erde Zeit gehabt hat sich an das zusätzliche Kohlendioxid anzupassen.


* *Der Artikel ist der Homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen (https://www.carbonbrief.org/qa-how-do-climate-models-work). Unter dem Titel" What are the main limitations in climate modeling at the moment?" ist es die Fortsetzung einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde. Die unter einer cc-by-nc-nd 4.0 Lizenz stehenden Artikel wurden im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.

Carbon Brief - https://www.carbonbrief.org/ - ist eine britische Website, welche die neuesten Entwicklungen in den Bereichen Klimawissenschaft, Klimapolitik und Energiepolitik abdeckt. Die Seite bemüht sich um klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels von Seiten der Wissenschaft und auch der Politik zu verbessern . Im Jahr 2017 wurde Carbon Brief bei den renommierten Online Media Awards als"Best Specialist Site for Journalism" ausgezeichnet.


Weiterführende Links

Informationen zu Carbon Brief: https://www.carbonbrief.org/about-us

Carbon Brief: What's causing global warming? Video 1:22 min. (14.12.2017)

David Attenborough: Climate Change - Britain Under Threat Video 1:00:14 (2013)

Max-Planck-Gesellschaft: Klimamodelle - die Welt im Computer (26.10.2015), Video 5:05 min. Standard YouTube Lizenz.

CarbonBrief im ScienceBlog

[1] Teil 1 (19.04.2018): Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung

[2] Teil 2 (31.05.2018): Klimamodelle: von einfachen zu hoch komplexen Modellen

[3] Teil 3 (21.06.2018): Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen

[4] Teil 4 (23.8.2018): Welche Fragen stellen Wissenschaftler an Klimamodelle , welche Experimente führen sie durch?

[5] Teil 5 (20.09.2018).: Wer betreibt Klimamodellierung und wie vergleichbar sind die Ergebnisse?

[6] Teil 6 (1.11.2018): Klimamodelle: wie werden diese validiert?

inge Thu, 06.12.2018 - 15:47

Comments

In seinem jüngsten ›Assessment Report‹ AR6, adressiert das IPCC ein Problem, dass einige Modelle eine stärkere Erwärmung zeigen, als durch Evidenz belegt werden kann. Das kann zum Problem werden, wenn Wissenschaft, Politik, Medien und Öffentlichkeit aus Unwissen mit derartigen Modellen umgehen.

Zu diesem Problem hier eine Leseempfehlung (Englisch): https://www.nature.com/articles/d41586-022-01192-2

(Der Artikel erklärt auch, warum dieses Problem erst jetzt, mit immer komplexer werdenden Modellen, zutage tritt.)

Krankenhausinfektionen – Keime können auch aus dem Mikrobiom des Patienten stammen

Krankenhausinfektionen – Keime können auch aus dem Mikrobiom des Patienten stammen

Do, 29.11.2018 - 09:40 — Francis S. Collins

Francis S. CollinsIcon MedizinWeltweit erkranken Millionen Patienten an lebensbedrohenden Infektionen, die sie sich während ihres Aufenthalts im Krankenhaus zuziehen und zig-Tausende sterben daran . Bis jetzt wurden dafür Im wesentlichen unzureichende hygienische Bedingungen in den Spitälern verantwortlich gemacht. Eine neue Studie an Knochenmark-transplantierten und dementsprechend immunsupprimierten Patienten zeigt nun, dass die infektiösen Keime auch aus dem Mikrobiom des Darms der Patienten selbst stammen können und bietet damit neue Ansätze zu Prävention und Therapie derartiger Infektionen [1]. Francis Collins, NIH-Direktor und ehem. Leiter des "Human Genome Project", berichtet über diese wegweisenden Ergebnisse.*

Während ihrer Behandlung im Krankenhaus erkranken erschreckend viele Patienten an lebensbedrohender Sepsis - d.i. an Infektionen in der Blutbahn. Man hat angenommen, dass dafür Mikroben verantwortlich sind, die hauptsächlich auf medizinischen Geräten herumsitzen und auf dem Spitalspersonal oder auch auf anderen Patienten und Besuchern auf ihre Opfer lauern. Das ist auch sicherlich oft der Fall. Nun hat ein von den National Institutes of Health (NIH) gefördertes Team herausgefunden, dass ein erheblicher Teil dieser Krankenhausinfektionen tatsächlich aus einer ganz anderen Quelle stammen kann, nämlich aus dem Körper des Patienten selbst.

In einer Studie an 30 Knochenmark-transplantierten Patienten, die an Blutinfektionen litten, wendeten die Forscher ein neu entwickeltes Bioinformatik Tool namens StrainSifter ("Stamm-Prüfer", Anm. Redn) an: in mehr als einem Drittel der Fälle entsprach die DNA-Sequenz der infektiösen Keime jener DNA , die bereits im Dickdarm der Patienten lebende Mikroorganismen aufwiesen [1] . Dafür, dass derartige Keime von Patient zu Patient übertragen werden, fanden die Forscher auf Basis der DNA-Datenaber kaum Hinweise.

Infektionen im Krankenhaus

In den Vereinigten Staaten erleidet etwa einer von 50 Patienten mindestens eine Infektion während seines Krankenhausaufenthalte [2]. Solche Infektionen sind jedes Jahr für Zehntausende von Todesfällen verantwortlich und sind in den Vereinigten Staaten eine der häufigsten Todesursachen [3].

Auch in Europa zählen Infektionen im Krankenhaus zu den häufigen Erkrankungen (Abbildung 1) und fordern auch hier sehr viele Todesopfer. (Text und Bild von der Redn. eingefügt)

Abbildung 1. Anteil der Patienten, die im Zeitraum 2016 - 2017 zumindest an einer im Spital hervorgerufenen Infektion erkrankt sind. (Bild und Text von der Redaktion eingefügt, Quelle: ECDC 2016-17 Point prevalence survey)

Was ist die Ursache von Krankenhausinfektionen?

Während ihrer Assistenzzeit in der Inneren Medizin erweckten im Krankenhaus erworbene Infektionen das Interesse von Ami Bhatt (Stanford University, Palo Alto, Kalifornien). Als ihre Patienten Sepsis entwickelten, ging Bhatt daran die Ursache dafür festzustellen. Sie erkannte aber bald, dass es kompliziert werden würde den Ursprung der Infektion zu bestimmen.

Als Bhatt über mögliche Quellen der im Krankenhaus erworbenen Infektionen nachdachte, zog sie auch das Mikrobiom in Erwägung - die Tausenden von Mikroben, die auf ganz natürliche Weise in und auf dem menschlichen Körper leben. In zunehmendem Maße werden wir ja vieler wichtiger Funktionen des Mikrobioms gewahr, die es auf unseren Stoffwechsel, unsere Immunität und sogar auf unsere psychische Gesundheit ausübt. Bhatt überlegte nun, ob Keime aus dem Mikrobiom in den Blutkreislauf mancher Patienten gelangen könnten, insbesondere bei Patienten, deren Immunsystem bereits beeinträchtigt ist.

Die Studie an immunsupprimierten Patienten

Mit ihren Kollegen (darunter den Erstautoren der Studie Fiona Tamburini und Tessa Andermann) konzentrierte sich Bhatt auf den Darm, der ja natürlicher Lebensraum für viele Hunderte verschiedene Arten von Mikroben ist. Ihr Team rekrutierte Patienten, die sich im Stanford University Hospital einer Transplantation des Knochenmarks unterzogen und sammelte von ihnen wöchentliche Stuhlproben; jede dieser Proben enthielt eine Fülle mikrobiellen Lebens, das aus dem Darm stammte.

Patienten, die Knochenmark transplantiert bekommen, erhalten Medikamente, um das Immunsystem zu supprimieren, um ihren Organismus davon abzuhalten die kostbaren Spenderzellen zu attackieren. Aufgrund des supprimierten Immunsystems sind solche Patienten aber auch einem erhöhten Infektionsrisiko ausgesetzt.

Erkrankte nun ein Transplantationspatient an einer Sepsis - und zwar innerhalb von 30 Tagen nachdem man die Darmmikroben enthaltenden Stuhlproben gesammelt hatte -, so isolierten die Forscher das verursachende Bakterium aus dem Blut, brachten es Kultur und sequenzierten seine DNA.

Der nächste Schritt bestand dann darin, dass sie untersuchten ob es eine exakte Übereinstimmung zwischen der DNA des Infektionserregers und der DNA eines Bakteriums in der Stuhlprobe des Patienten geben könnte. Dies würde dann darauf hindeuten , dass der Infektionserreger aus dem Mikrobiom des Darms stammte.

Ein überaus schwieriges Unterfangen

Obwohl vom Konzept her simpel, war die Durchführung dieser Untersuchung dann alles andere als einfach. Die Forscher mussten ja die DNA eines einzelnen Infektionserregers mit all den DNA-Sequenzen vergleichen, die man von den Hunderten im Darm ansässigen Mikroben - dem Darmmikrobiom - bestimmt hatte. Es war eine Analyse, die zudem extreme Präzision erforderte. Es war eine Herausforderung, welche die Forscher so beschrieben: Man setzt viele Hunderte verschiedener Fotografien zusammen, die zuvor in kleine Stücke geschnitten, zusammengemischt und aufgeschüttelt worden waren, bevor man dann versucht die wieder hergestellten Fotos mit einem anderen Foto abzugleichen.

Die Forscher schafften diese schwierige Aufgabe mit ihrem Bioinformatik Tool StrainSifter. Sie konnten damit zeigen, dass in mehr als einem Drittel der Stuhlproben genau der gleiche Bakterienstamm enthalten war, der den jeweiligen Patienten krank gemacht hatte. Abbildung 2.

Abbildung 2. Sepsis im Krankenhaus: Mittels eines neuen Bioinformatik Tools wurde nachgewiesen ob ein, in der Blutbahn entdeckter Infektionserreger aus dem Mikrobiom des Darms stammt. (Credit: Fiona Tamburini, Stanford University, Palo Alto, CA)

Interessanterweise gab es aber kaum Anzeichen dafür, dass diese Stämme auch im Blut oder im Stuhl anderer Patienten im selben Krankenhaus gefunden wurden. Mit anderen Worten, die Keime schienen sich nicht von Person zu Person auszubreiten.

Die Ergebnisse weisen darauf hin,

dass viele der an Sepsis Erkrankten sich die Infektion nicht aus der Umgebung oder von einer anderen Person zugezogen hatten, sondern vielmehr aufgrund eines mikrobiellen Ungleichgewichts im eigenen Körper. Bhatt merkte an, dass die Studienteilnehmer im Krankenhaus häufig intensiv mit Antibiotika und anderen Medikamenten behandelt wurden. Ohne sorgfältige Behandlung könnten ihre Körper zu Brutstätten für infektiöse und antibiotikaresistente Bakterien werden.

Tatsächlich bestätigten die klinischen Befunde und die DNA-Daten, dass Antibiotika-resistente Stämme von Escherichia coli und Klebsiella-pneumoniae im Verdauungstrakt vorlagen, Keime, die häufige Ursachen für schwere Lungenentzündung, Harnwegsinfektionen und andere möglicherweise schwere Infektionen sind. Darüber hinaus fanden sich im Darm dieser Knochenmark-Empfänger auch andere Krankheitserreger, die man dort nicht vermutet hätte (beispielweise Pseuomonas aeruginosa und Staphylococcus epidermiis; von Rdn. ergänzt).

Fazit

Wenn optimale Hygienepraktiken auch nach wie vor für die Prävention von Krankenhausinfektionen entscheidend sind, so lassen die neuen Ergebnisse darauf schließen, dass diese Prävention komplizierter sein kann als man ursprünglich dachte. Um die Infektionsquelle korrekt zu identifizieren, kann es notwendig sein das individuelle Mikrobiom jedes Patienten in Betracht zu ziehen. Die gute Nachricht: mit den zunehmenden Möglichkeiten die Quelle von Blutinfektionen zu ermitteln, wird dies dem Gesundheitssystem helfen, gezieltere und effektivere Methoden zu entwickeln, um Krankenhausinfektionen künftig zu verhindern und in den Griff zu bekommen.


[1] Precision identification of diverse bloodstream pathogens in the gut microbiome. Tamburini FB, Andermann TM, Tkachenko E, Senchyna F, Banaei N, Bhatt AS. Nat Med. 2018 Oct 15. DOI:10.1038/s41591-018-0202-8.

[2] Health-care Associated Infection Data. Centers for Disease Control and Prevention.

[3] Estimating health care-associated infections and deaths in U.S. hospitals, 2002. Klevens RM, Edwards JR, Richards CL Jr, Horan TC, Gaynes RP, Pollock DA, Cardo DM. Public Health Rep. 2007 Mar-Apr;122(2):160-6.


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel: " Some ‘Hospital-Acquired’ Infections Traced to Patient’s Own Microbiome" " zuerst (am 23. Oktober 2018) im NIH Director’s Blog. https://directorsblog.nih.gov/2018/10/23/some-hospital-acquired-infections-traced-to-patients-own-microbiome/ Der Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt und geringfügig (mit Untertiteln) für den Blog adaptiert. Zur Illustration wurden Abbildung 1 (plus Text) von der Redaktion eingefügt. Reprinted (and translated by ScienceBlog) with kind permission from the National Institutes of Health (NIH).


Weiterführende Links

Artikel zu ähnlichen Themen im ScienceBlog

inge Thu, 29.11.2018 - 09:40

Eurobarometer 478: zum Wissenstand der EU-Bürger über Antibiotika, deren Anwendung und Vermeidung von Resistenzentstehung

Eurobarometer 478: zum Wissenstand der EU-Bürger über Antibiotika, deren Anwendung und Vermeidung von Resistenzentstehung

Do, 22.11.2018 - 06:07 — redaktion Vorname ZunameIcon Medizin

Dass Mikroorganismen - Bakterien, Pilze, Protozoen - und ebenso Viren zunehmend Resistenz gegen antimikrobielle Substanzen entwickeln, für die sie vordem hochsensitiv waren, ist ein natürlicher Vorgang der Evolution. Ein übermäßiger/unsachgemäßer Einsatz der gegen Bakterien wirksamen Antibiotika hat so (multi-)resistente Keime entstehen lassen, gegen die auch die potentesten Reserve-Antibiotika nichts mehr ausrichten - Infektionen mit resistenten Keimen führen im EU-Raum jährlich zu mehr als 25 000 Todesfällen. Mit dem Ziel Antibiotika gezielt und maßvoll anzuwenden befragt die EU-Kommission seit 2009 ihre Bürger hinsichtlich ihres Wissens um Antibiotika, deren Gebrauch und Risiken. Die Ergebnisse der letzten Umfrage im September 2018 liegen nun im Special Eurobarometer 478 vor [1].

Der rasche Anstieg der Lebenserwartung im 20. Jahrhundert ist - neben besserer Ernährung und Hygiene - vor allem vor allem auf die wirksame Bekämpfung von Infektionskrankheiten, insbesondere von bakteriellen Infektionen, mit Medikamenten und Vakzinen zurückzuführen. Rund 200 unterschiedliche antimikrobielle Wirkstoffe gegen verschiedene Erreger im Human- und Veterinärsektor stehen heute zur Verfügung - darunter Antibiotika, die gegen ein weites Spektrum von Bakterien wirken (Breitband-Antibiotika) und solche die spezifisch gegen einzelne Keime gerichtet sind.

Resistenzentstehung…

Allerdings hat mit steigender Anwendung der Antibiotika deren Wirksamkeit abgenommen. Die Erreger werden dagegen in stark zunehmendem Maße resistent. Es ist dies ein Evolutionsprozess basierend auf Genmutation und natürlicher Selektion: Auf Grund der raschen Zellteilung bei einer relativ hohen Mutationsrate kann eine wachsende Bakterienpopulation Keime enthalten, in welchen ein mutiertes Protein nun einen wesentlich weniger empfindlichen Angriffspunkt ("Target") für ein Medikament darstellt und/oder imstande ist das Medikament abzubauen und damit dessen Wirkung zu verringern. Resistente Keime können überdies das mutierte Gen an andere Bakterien übertragen.

In Gegenwart eines antimikrobiellen Medikaments werden nun zuerst die empfindlichsten Keime abgetötet und sukzessive dann die immer resistenteren. Wird ungenügend lang behandelt, so erfolgt Selektion der resistenteren Keime, die sich nun munter weiter vermehren können. Resistente Keime entstehen auch, wenn Antibiotika unsachgemäß eingesetzt werden, bei Infektionen angewandt werden, gegen die sie unwirksam sind, wie dies bei den durch Viren verursachten grippalen Infekten und der Influenza der Fall ist.

…ein globales Problem

Die Entwicklung resistenter Keime, insbesondere multiresistenter - d.i. gegen eine breite Palette von Antibiotika resistenter - Keime ist ein weltweites Problem, das kein Land allein lösen kann. Globale Schätzungen aus dem Jahr 2016 gehen von mindestens 700 000, durch Infektionen mit resistenten Keimen verursachten Toten aus; 2050 könnte diese Zahl auf 10 Millionen ansteigen [2]. Abbildung 1.

Abbildung 1. Globale Todesfälle im Jahr infolge von Antibiotikaresistenz (AR) im Vergleich zu anderen Ursachen (Quelle: ‘Tackling drug-resistant infections globally: Final report and recommendations. https://amr-review.org/‘Tackling drug-resistant infections globally: Final report and recommendations sites/default/files /160525_Final%20paper_with%20cover.pdf (Lizenz cc-by 4.0))

Die Verschärfung der Situation resultiert daraus, dass Resistenzen sich viel, viel schneller entwickeln - auch auf Grund einer breiten unkritischen Anwendung - als neue Wirkstoffe gefunden, entwickelt und auf den Markt gebracht werden können. Letzteres ist auch dadurch bedingt, dass die Pharmazeutische Industrie den für sie nur wenig aussichtsreichen und kaum lukrativen Sektor der Antibiotika Forschung und Entwicklung jahrzehntelang ignorierte und auch akademische Institutionen dieses Gebiet vernachlässigt haben. Vom Budget der US-amerikanischen National Institutes of Health (NIH) - 142,5 Milliarden $ von 2010 bis 2014 - gingen 26,5 Milliarden in die Krebsforschung, 14,5 Milliarden in das HIV/AIDS-Gebiet, 5 Milliarden in Diabetes und nur 1,7 Milliarden $ - knappe 1,2 % - in die Antibiotikaforschung [2].

Was geschieht in der Europäischen Union?

Allein in der EU geht man jährlich von mehr als 25 000 Menschen aus, die in Folge von antimikrobieller Resistenz sterben. Abgesehen von dem Leiden der Betroffenen sind die durch (multi)resistente Keime verursachten Behandlungskosten enorm, ebenso wie die Einbußen durch Produktionsausfall. [1]. Die Bekämpfung der antimikrobiellen Resistenzen ist ein prioritäres Anliegen der EU und sie hat im Mai 2017 einen neuen Europäischen Aktionsplan zur Bekämpfung antimikrobieller Resistenzen im Rahmen des Konzepts „Eine Gesundheit“ vorgelegt [3]. (Zitat aus dem Aktionsplan:Mit dem Begriff „Eine Gesundheit“ wird ein Konzept beschrieben, mit dem anerkannt wird, dass menschliche und tierische Gesundheit miteinander zusammenhängen, dass Krankheiten vom Menschen auf Tiere und umgekehrt übertragen werden und deshalb bei beiden bekämpft werden müssen. Das „Eine-Gesundheit“-Konzept umfasst auch die Umwelt, die einen weiteren Verbindungspunkt zwischen Mensch und Tier und ebenfalls eine potenzielle Quelle neuer resistenter Mikroorganismen darstellt.[3])

Zu diesem Aktionsplan gehört - neben der Förderung relevanter Forschung & Entwicklung - auch für ein besseres Verständnis der EU-Bürger bezüglich eines sachgemäßen Gebrauchs von antimikrobiellen Medikamenten zu sorgen und so die Entwicklung und Ausbreitung von resistenten Keimen hintanzuhalten. Dass vielen Bürgern ein derartiger Zusammenhang nicht bewusst ist, haben mehrere, seit 2009 erhobene Eurobarometer Umfragen ergeben. Die letzte dieser Umfragen hat im September 2018 stattgefunden und deren bereits vorliegende Ergebnisse werden im Folgenden kurz dargestellt.

Spezial Eurobarometer 478: Antimikrobielle Resistenz [1]

Dies war nun die vierte repräsentative Umfrage, welche die die EU-Kommission in Auftrag gegeben hat, um aktuelle Meinungen, Kenntnisse und Verhaltensweisen der EU-Bürger zum Problem antimikrobielle Resistenz zu erheben. Die Umfrage erfolgte in den 28 Mitgliedstaaten vom 8. bis 26. September 2018 und insgesamt 27 474 Personen ab 15 Jahren und aus unterschiedlichen sozialen und demographischen Gruppen - rund 1 000 Personen je Mitgliedsland -nahmen teil. wurden persönlich (face to face) in ihrem Heim und in ihrer Muttersprache interviewt.

Die Teilnehmer wurden u.a. gefragt ob und warum sie im letzten Jahr Antibiotika genommen hatten, wie sie diese erhalten hatten und ob ein Test auf den Erreger der Erkrankung erfolgt war. Des weiteren wurde das Verständnis zu Wirksamkeit und Anwendung der Antibiotika erhoben und zu den Risiken eines unsachgemäßen Gebrauchs, auch woher die Bürger entsprechende Information erhalten hatten und wie verlässlich sie diese Quellen einstuften.

Haben Sie im letzten Jahr Antibiotika genommen?

Diese Frage beantworteten im Mittel 32 % der befragten EU-Bürger mit Ja - ein deutlicher Rückgang seit 2009 (40 %), allerdings ist der Unterschied zwischen den Staaten groß. Während nahezu die Hälfte der Italiener angab Antibiotika genommen zu haben, waren dies in Schweden, Holland und Deutschland weniger als ein Viertel der Befragten. Österreich liegt mit rund 31 % der befragten Personen im EU-Mittel. Abbildung 2. Eine demographische Analyse ordnet erhöhten Antibiotika-Verbrauch eher Personen mit abgebrochener Ausbildung, niedrigerem sozialen Status, ohne Beschäftigung , Altersgruppen zwischen 15 und 24 Jahren und solchen über 65 Jahren und Frauen zu.

Abbildung 2. Haben Sie im letzten Jahr orale Antibiotika genommen? Zwischen 20 und 47 % der Teilnahme bejahen diese Frage.(Quelle: [1])

Von wem und wofür erhielten Sie Antibiotika (verschrieben)?

Die überwiegende Mehrheit - 93 % - derjenigen, die im letzten Jahr Antibiotika gebraucht hatten (d.i 8 416 Personen), gab an diese vom Arzt verschrieben/erhalten zu haben. Im EU-Mittel beschafften sich aber 7 % der Befragten die Medikamente ohne Verschreibung . Deren Anteil war mit 15 % in Österreich und Rumänien am höchsten, gefolgt von Bulgarien, Lettland , Belgien und Slowakei , in denen der Anteil zwischen 13 und 14 % lag.

Auf die Frage wofür sie Antibiotika erhalten hatten, wurden am häufigsten Bronchitis und Halsschmerzen genannt. Dann folgten aber schon Grippe und "Verkühlung" (grippaler Infekt). Diese beiden Indikationen hatten zwar seit 2016 stark abgenommen; immerhin galten aber im EU-Mittel noch immer 20 % der Verschreibungen (in Österreich 27 %) diesen durch Viren verursachten Defekten, in denen ja Antibiotika völlig nutzlos sind und höchstens Resistenzen damit herangezüchtet werden. Abbildung 3.

Die Verschreibung von Antibiotika erfolgte im Mittel bei der Mehrheit der Befragten - 56 % (in Österreich bei 50 %) - ohne dass eine Testung auf Bakterien in Blut, Harn oder Speichel stattgefunden hatte.

Abbildung 3. Bei welchen Erkrankungen Antibiotika verschrieben werden. Insgesamt 20 % der Antibiotika werden bei Influenza und "Verkühlung" verschrieben, Virus-verursachten Defekten, gegen die Antibiotika wirkungslos sind. (Quelle: [1]).

Kenntnisse über Antibiotika

Hier wurden vier Themen angeschnitten:

  • Ob Antibiotika Viren töten können. Die Antwort war beunruhigend : im EU-Mittel gab nahezu die Hälfte (48 %) der Befragten die falsche Antwort "Ja" - mehr als bei der letzten Erhebung 2016 - und 9 % sagten, dass sie es nicht wüssten. Nur in sieben Ländern wussten mehr als 50 %, dass Antobiotika dazu nicht imstande sind. Österreich bietet hier wieder ein unrühmliches Bild: über zwei Drittel der Befragten hielten Antibiotika geeignet um Virusinfektionen zu bekämpfen. Nur in Griechenland lag der Anteil der Fehlmeinungen noch höher. Abbildung 4.

Abbildung 4. Eine Wissenslücke: auch in den bestinformierten Ländern Schweden, Holland und Finnland bejaht bis zu ein Drittel der Bürger die Frage ob Antibiotika Viren töten können(Quelle: [1]

  • Ob Antibiotika bei Verkühlung wirksam sind. Überraschenderweise wurde diese Frage im EU-Schnitt von zwei Drittel der Teilnehmer richtig mit "Nein" beantwortet (auch in Österreich waren es immerhin 52 %).

Die richtigen Antworten auf beide Fragen kamen vorzugsweise von Personen mit abgeschlossener Ausbildung im mittleren Alter mit geregeltem Einkommen.

  • Ob eine unsachgemäße Anwendung von Antibiotika zu deren Wirkungsverlust führt. Dieses Faktum ist offensichtlich Im Bewusstsein der Europäer voll angekommen. Es wurde im EU-Schnitt von 85 % der Teilnehmer bejaht - der Unterschied zwischen den Staaten ist dabei verhältnismäßig gering . Auch in den Staaten mit der niedrigsten Zustimmung - Italien, Rumänien und Bulgarien - liegen die richtigen Antworten bei 70, 74 und 77 %.
  • Ob die häufige Anwendung von Antibiotika mit Nebenwirkungen - beispielsweise Durchfall - verbunden ist. Auch hier ist in allen Staaten der überwiegende Teil der befragten Bevölkerung dieser Meinung (von 59 resp. 60 % in Schweden und Kroatien bis 84 % in Zypern und der Slowakei; EU-Schnitt 68  %).

Fasst man zusammen, so ist europaweit etwa nur ein Viertel der Teilnehmer in der Lage die 4 Fragen richtig zu beantworten und es gibt es keinen Staat, in welchem die Mehrheit der Bevölkerung auf alle 4 Fragen die richtige Antwort gibt. Am besten schneidet Nordeuropa ab (Finnland, Schweden, Holland, Luxemburg und Dänemark), am schlechtesten Lettland, Rumänien und Bulgarien.

Zur sachgemäßen Anwendung von Antibiotika

Dem Großteil der Befragten (EU-Schnitt 84 %) ist bewusst, dass Antibiotika in der vom Arzt verschriebenen Menge genommen werden sollen. Allerdings meinen im Mittel 13  %, dass sie mit der Einnahme aufhören können, sobald es ihnen besser geht. Besonders hoch ist mit 21 % der Anteil der Therapie-Abbrecher in Bulgarien, Luxemburg und Lettland (auch in Österreich ist er mit 17 % höher als im EU-Mittel). Dass ein derartiges Verhalten zur Resistenzentwicklung führt, ist eingangs bereits festgestellt worden.

Darüber, dass Antibiotika nicht unnötig (Beispielsweise bei einer Verkühlung) eingenommen werden sollten, fühlte sich nur ein Drittel der Befragten informiert. Diese hatten die Information im Wesentlichen vom ihrem Arzt , Apotheker aber auch aus verschiedenen Medien erhalten. (Im Großen und Ganzen veränderten diese Auskünfte ihre Einstellung zu Antibiotika aber nicht.) Auf die Frage, welche Informationsquellen sie für die verlässlichsten hielten, nannten über 80 % an erster Stelle den Arzt, gefolgt vom Apotheker (42 %) und dem Spital (20 %). Medien und soziale Netzwerke fielen unter ferner liefen.

Mehr Information über Antibiotika wünschten rund zwei Drittel der Teilnehmer, wobei etwa gleich viele interessiert waren über die Indikationen zu hören, bei welchen Antibiotika angewendet werden, über Antibiotika-Resistenz, über den Zusammenhang von menschlicher und tierischer Gesundheit und Umwelt und schließlich über die sachgemäße Anwendung der Antibiotika.

Antibiotika in Landwirtschaft und Umwelt

Damit beschäftigen sich die letzten Punkte des Eurobarometer Reports.

Der Frage ob in der Viehzucht kranke Tiere Antibiotika erhalten sollten, wenn dies die geeignetste Therapiemöglichkeit ist, stimmte im Mittel mehr als die Hälfte (56 %) der Befragten zu. Am höchsten war die Zustimmung in UK, Irland und Portugal (75 -77 %), am niedrigsten in Italien und Slowenien (39 - 41 %). Auch in Österreich äußerten sich 54 % positiv.

Dass der Einsatz von Antibiotika für ein schnelleres Wachstum der Tiere in der EU verboten wurde, wussten die meisten (58 %) EU-Bürger aber nicht.

Fazit

Die neue Eurobarometer Umfrage zeigt ein große Manko der Bevölkerung hinsichtlich des Wissens wie Antibiotika sachgemäß angewendet werden und damit Resistenzentwicklung hintangehalten werden kann. Es sind zweifellos große Anstrengungen notwendig, um flächendeckend in allen Ländern den Menschen das dafür notwendige Wissen zu vermitteln - resistente Keime machen ja an den Grenzen von Regionen und Ländern nicht Halt und stellen eine enorme Bedrohung für die Gesundheit von Mensch und Tier dar.


[1] Special Eurobarometer 478: Antimicrobial Resistance. 

[2] Tackling drug-resistant infections globally: Final report and recommendations (PDF PDF; Link nicht frei zugänglich).

[3] Europäischer Aktionsplan zur Bekämpfung antimikrobieller Resistenzen im Rahmen des Konzepts „Eine Gesundheit“ {SWD(2017) 240 final}


Weiterführende Links

Wie wirken Antibiotika? Video 5:44 min. Eine sehr leicht verständliche Zusammenfassung (2015; Standard YouTube Lizenz)

Wachsende Bedrohung durch Keime und gleichzeitig steigende Antibiotika-Resistenzen? Video 7:18 min (aus der Uniklinik Bonn - stimmt auch für Österreich) Standard YouTube Lizenz.

Warum gibt es Antibiotika-Resistenzen? Video 2:43 min (Standard YouTube Lizenz)

Artikel zum Thema Resistenz im ScienceBlog

inge Thu, 22.11.2018 - 18:07

Die Mega-Studie "VITAL" zur Prävention von Herz-Kreislauferkrankungen oder Krebs durch Vitamin D enttäuscht

Die Mega-Studie "VITAL" zur Prävention von Herz-Kreislauferkrankungen oder Krebs durch Vitamin D enttäuscht

Do, 15.11.2018 - 12:45 — Inge Schuster Inge SchusterIcon Medizin

Die US-amerikanische " VITAL-Studie" war die die bislang größte Placebo kontrollierte, randomisierte klinische Studie zur präventiven Wirkung von Vitamin D3 auf Herz-Kreislauferkrankungen und Krebs. Eine national repräsentative Auswahl von 25 871, anfänglich gesunden Personen im Alter über 50 (Männer) bzw. 55 Jahren (Frauen) erhielt über einen Zeitraum von etwa fünf Jahren täglich hochdosiertes Vitamin D3 (2 000 IU = 50 µg) oder Placebo und/oder parallel dazu 1 g Omega-3 Fettsäuren. Entgegen den Erwartungen konnte weder die Supplementierung mit Vitamin D3 noch mit Omega-3 Fettsäuren Schutz vor kardiovaskulären Ereignissen oder Krebserkrankungen bieten. Im folgenden werden hier vorerst nur die Ergebnisse zu Vitamin D3 vorgestellt.

In den 1990er Jahren begann Vitamin D für viele Wissenschafter hochinteressant zu werden. Dass Vitamin D eigentlich kein Vitamin ist, da es a) in unserem Körper, d.i. in der Haut, unter Sonnenbestrahlung erzeugt wird und dann b) in zwei Prozessen im Körper zu einem Steroid-artigen Hormon - Calcitriol - umgewandelt wird und nahezu alle Körperzellen spezifische Rezeptoren für das Hormon enthalten, war bereits erwiesen. Mittels der neuen Methoden der Genexpression zeigte sich nun, dass das Hormon offensichtlich pleiotrope Funktionen hatte, in der Lage war die Expression von über 900 Genen zu steuern. Neben seiner altbekannten, essentiellen Rolle im Calciumstoffwechsel und damit im Knochen(um)bau , reguliert Vitamin D offensichtlich auch Gene, die Schlüsselfunktionen in Wachstum und Differenzierung von Zellen, in der Regulierung der angeborenen und erworbenen Immunantwort, in der Abwehr von Infektionen, in neurophysiologischen Prozessen und vielen anderen Vorgängen haben.

Wie Vitamin D entsteht, zum aktiven Hormon umgewandelt wird und welche Funktionen es in unserem Körper ausüben kann, ist in einem vor sechseinhalb Jahren im ScienceBlog erschienenen Artikel beschrieben (ttp://scienceblog.at/vitamin-d-%E2%80%94-allheilmittel-oder-hype.)

Ist Vitamin D eine Panacaea?

Zahllose in-vitro Experimente und Tierversuche aber auch viele kleinere klinische Studien wurden dazu unternommen. Diese wiesen darauf hin, dass hormonell aktives Vitamin D u.a. vor der Entstehung von Tumoren schützen und die Proliferation von Tumorzellen blockieren kann. Die klinischen Studien - vor allem in den Indikationen Prostata Ca und Brustkrebs- scheiterten jedoch daran, dass die einsetzbaren Dosierungen von hormonell aktivem Vitamin D nach oben hin stark limitiert waren - eine Dosissteigerung konnte die bekannte Mobilisierung von Calcium und damit eine lebensbedrohende Hypercalcämie auslösen.

Zu diesen experimentellen Ansätzen kamen zahlreiche epidemiologische Studien und Metaanalysen, die einen Zusammenhang zwischen einem Mangel an Vitamin D und der Inzidenz verschiedenster Krankheiten aufzeigten - das Spektrum reichte von Tumoren über kardiovaskuläre Erkrankungen, von Diabetes zu verschiedensten Autoimmunerkrankungen, von Infektionsanfälligkeit zu neurophysiologischen Defekten hin bis zu Autismus. Cochrane Reviews - der Goldstandard der Metaanalysen - zählt aktuell 67 solcher umfassender Reviews zum Einfluss von Vitamin D Supplementierung auf die verschiedensten Krankheitsbilder, beispielsweise auf Asthma, multiple Sklerose, chronischen Schmerz, cystische Fibrose, Psoriasis, atopische Dermatitis u.a.m. In den meisten Fällen ist aber - auch auf Grund insuffizienter Studien - die Evidenz für einen positiven Effekt der Vitamin D Supplementierung niedrig. Zur Krebs-Prävention befindet Cochrane beispielsweise: "Die verfügbare Evidenz zu Vitamin D und Inzidenz von Krebs ist interessant, lässt aber keine eindeutigen Schlüsse zu. Zahlreiche Beobachtungsstudien wie auch randomisierte Studien legen nahe, dass eine Beziehung zwischen einem hohen Vitamin-D-Spiegel und einem geringeren Auftreten von Krebs besteht. Randomisierte Studien, die die Wirkung einer Vitamin-D-Supplementierung auf die Krebsprävention testen, weisen widersprüchliche Ergebnisse auf". (Vitamin-D-Supplementierung zur Vorbeugung gegen Krebs bei Erwachsenen ).

Was fehlt, sind also aussagekräftige randomisierte und Placebo-kontrollierte Studien an einer ausreichend großen Population.

Trotz der unklaren Beweislage stieg und steigt die Popularität von Vitamin D; als Nahrungsergänzungsmittel , besser gesagt als Panacaea vermarktet, ist sein Umsatz in wenigen Jahren um ein Vielfaches gewachsen.

Was ist Vitamin D-Mangel, was ein optimaler Spiegel?

Die Bestimmung des Vitamin D-Status - repräsentiert durch den Blutspiegel seines Metaboliten 25-Hydroxyvitamin D3, der die Vorstufe zum Hormon ist - gehört nun zum Standardrepertoire jedes klinischen Labors. Allgemein gilt, dass Blutspiegel unter 10 - 12,5 ng/ml (25 - 30 nM) als Mangel anzusehen sind, der Auswirkungen auf die Calcium-Homöostase und damit vor allem auf das Knochen-/Muskelsystem hat (Risiko Osteomalazie und Rachitis zu entwickeln). Allerdings besteht kein internationaler Konsens, was für dieses System nun adäquate Spiegel sind, und was schließlich für die Gesundheit insgesamt betrachtet erstrebenswert/optimal ist (hier werden häufig Spiegel > 30 ng/ml (d.i. > 75 nM) genannt).

Den Blutspiegel Bestimmungen zufolge weist ein beträchtlicher Anteil der westlichen Weltbevölkerung einen Vitamin D-Mangel auf (Ein umfassender Report dazu: A. Spiro and J. L. Buttriss: Vitamin D: An overview of vitamin D status and intake in Europe. DOI: 10.1111/nbu.12108). Der Mangel tritt insbesondere in den Wintermonaten auf, da ja die primäre Quelle des Vitamin D die dem UV-Licht der Sonnenstrahlung ausgesetzte Haut ist. Was in den Sommermonaten an Vitamin D produziert und gespeichert wurde - sofern Sonnenlicht aus Angst vor den negativen Auswirkungen nicht weitgehend vermieden wurde - nimmt in den (UV-)lichtarmen Monaten ab. Eine Supplementierung von Vitamin D über Nahrungsmittel ist aber kaum möglich, da mit Ausnahme von fetten Fischen (wie Hering oder Lachs) der Gehalt an Vitamin D in der Nahrung viel zu niedrig ist, um adäquate Konzentrationen im Organismus zu erzeugen.

Abbildung 1. zeigt Blutspiegel des 25-Hydroxyvitamin D3 in der österreichischen Bevölkerung. Demnach weisen Kinder und ältere Menschen stärkeren Vitamin D-Mangel auf als Personen im Alter von 18 - 64 Jahren.

Abbildung 1. Blutspiegel des 25-Hydroxyvitamin D3 in der österreichischen Bevölkerung. Bis zu 20 % weisen einen schweren Vitamin D-Mangel (< 10 ng/ml) auf, bis zu 40 % einen relativen Mangel (< 20 ng/ml). Daten aus: Elmadfa I et al. Österreichischer Ernährungsbericht 2012. 1. Auflage, Wien, 2012.

Wie hoch sollte aber die Supplementierung mit dem Nahrungsergänzungsmittel Vitamin D angesetzt werden, um optimale Bedingungen für unsere Gesundheit zu erhalten? Kann bei entsprechend hoher Supplementierung eine Prävention der häufigsten Todesursachen - Herz-Kreislauferkrankungen und Krebs - erreicht werden?

Um diese Frage zu beantworten, startete 2008 die Epidemiologin JoAnn Manson (Harvard Medical School in Boston) eine von den National Institutes of Health (NIH) geförderte Mega-Untersuchung - die VITAL Studie -, die 10 Jahre dauern und viele Millionen Dollar kosten sollte.

Die VITAL Studie

Die VITAL (VITamin D and OmegA-3 TriaL) genannte Studie ist eine umfassende randomisierte und Placebo kontrollierte klinische Studie an eingangs gesunden Menschen (d.i. ohne Vorliegen einer kardiovaskulären- oder Krebserkrankung), für die US-weit Männer im Alter von 50 Jahren aufwärts und Frauen ab 55 Jahren rekrutiert wurden. Wie der Name der Studie besagt sollte neben Vitamin D auch die präventive Wirkung von Omega 3 Fettsäuren marinen Ursprungs ((Eicosapentaensäure - EPA - und Docosahexaensäure - DHA ; "Fischöl") auf kardiovaskuläre Ereignisse und Krebs geprüft werden.

Von über 400 000 Interessenten wurden schließlich 25 871 Personen ausgewählt, die ethnisch ein repräsentatives Bild der amerikanischen Bevölkerung bieten (weiße Bevölkerung inklusive Hispanics, Schwarze, Asiaten, u.a.). Diese erhielten im Mittel über 5,3 Jahre täglich eine relativ hohe Dosis an Vitamin D3 (2 000IU = 50 Mikrogramm) und/oder Fischöl (1 Gramm) oder Placebo. Das Design der Studie (2 x 2 faktorielles Design) ist in Abbildung 2 skizziert.

Abbildung 2. Das Design der VITAL-Studie. Die primäpräventive Wirkung von Vitamin D3 und von Fischöl (EPA + DHA) auf kardiovaskuläre Ereignisse (Infarkt, Schlaganfall, CV-Tod) sowie auf invasive Krebserkrankungen wurden im Vergleich zu Placebo in randomisierten Gruppen mit N Teilnehmern untersucht. EPA: Eicosapentaensäure, DHA: Docosahexaensäure. (Daten aus: JoAnn Manson et al.,: Vitamin D Supplements and Prevention of Cancer and Cardiovascular Disease. NEJM (10.11.2018) DOI: 10.1056/NEJMoa1809944)

AlleTeilnehmer wurden über die Studiendauer auf das Eintreten primärer Endpunkte - Herzinfarkt, Schlaganfall und CV-Tod sowie auf invasive Krebserkrankungen - und weiters auf sekundäre Endpunkte - Organ-spezifische Krebsformen, Tod durch Krebs und zusätzliche kardiovaskuläre Ereignisse - kontrolliert. Es wurde außerdem der basale 25-Hydroxyvitamin D3 Spiegel am Beginn der Studie und nach einem Jahr Vitamin D Supplementierung bestimmt.

Enttäuschende Ergebnisse

Die Supplementierung mit Vitamin D3 konnte keine der in sie gesetzten hohen Erwartungen erfüllen - weder in der Prävention von Krebs noch von Herz-Kreislauferkrankungen:

Über die Versuchsdauer erkrankten insgesamt 1617 Teilnehmer an Krebs, davon 793 in der Vitamin D Gruppe und 824 in der Placebo-Gruppe - der Unterschied ist nicht signifikant. Nicht signifikant sind auch die Unterschiede in der Inzidenz der häufigen Krebsformen von Prostata, Mamma und kolorektalem Ca. Ein kleiner, allerdings ebenfalls nicht signifikanter Unterschied war in der Zahl der durch Krebs verursachten Todesfälle zu sehen (154 versus 187 Fälle).

Hinsichtlich der kardiovaskulären Erkrankungen konnte ebenfalls kein signifikanter Unterschied zwischen Vitamin D-Supplementierung und Placebo beobachtet werden. Von den insgesamt 805 erkrankten Teilnehmern fielen 396 in die Vitamin D-Gruppe und 409 in die Placebo Gruppe.

Die Untersuchungen sind allerdings noch nicht zu Ende. Eine anschließende 2-Jahres Studie soll mögliche verzögerte Wirkungen in den Gruppen erkennen. Auch sollen ergänzende Studien zeigen, ob Vitamin D Wirkungen auf Diabetes, Kognition, Autoimmunerkrankungen u.a. zeigt.


Haben wir uns in Vitamin D getäuscht?

Wenn man mit der Vitamin D-Forschung vertraut ist, kann man die bis jetzt vorliegenden Ergebnisse der VITAL-Studie kaum fassen und hofft mögliche Unstimmigkeiten zu finden.

Was mir dabei aufgefallen ist: der Vitamin D-Status vor Beginn der Supplementation und in der Placebo Gruppe während der Studie lag im Mittel bei 30,8 ng/ml (78 nM; nur 12,7 % der Teilnehmer hatten Spiegel unter 20 ng/ml), einer, wie oben erwähnt, durchaus erstrebenswerten Konzentration. Das sind im Vergleich zu den europäischen Blutspiegeln (z.B. in Abbildung 1) viel höhere Werte; sie finden ihre Erklärung darin, dass einigen amerikanischen Nahrungsmitteln (z.B. Milch) Vitamin D zugesetzt wird und den Teilnehmer erlaubt war täglich bis zu 800 IU (20 µg) Vitamin D zu sich zu nehmen.

Kann also eine Gruppe mit solchen Blutspiegeln tatsächlich als Placebo-Gruppe betrachtet werden oder sind hier die Wirkungen des Vitamin D vielleicht im vollen Umfang bereits vorhanden, sodass der beobachtete Anstieg der Blutspiegel auf rund 42 ng/ml in der Vitamin D Gruppe kaum eine Steigerung der Effekte mit sich bringen kann?


Weiterführende Links

VITAL Studie homepage: https://www.vitalstudy.org/

NIH: Vitamin D. Fact Sheet for Health Professionals. https://ods.od.nih.gov/factsheets/VitaminD-HealthProfessional/

Inge Schuster, 10.05.2012: Vitamin D — Allheilmittel oder Hype?  http://scienceblog.at/vitamin-d-%E2%80%94-allheilmittel-oder-hype#.


 

inge Thu, 15.11.2018 - 00:45

Der rasche Niedergang der Natur ist nicht naturbedingt - Der Living Planet-Report 2018 (WWF) zeigt alarmierende Folgen menschlichen Raubbaus

Der rasche Niedergang der Natur ist nicht naturbedingt - Der Living Planet-Report 2018 (WWF) zeigt alarmierende Folgen menschlichen Raubbaus

Do, 08.11.2018 - 06:25 — IIASA IIASAIcon Biologie

Vergangene Woche ist der, seit dem Jahr 2000 im zweijährigen Turnus erscheinende «Living Planet-Report» des WWF veröffentlicht worden. Der frei zugängliche, 146 Seiten starke Bericht [1] zeigt ein ernüchterndes Bild, welche globalen Auswirkungen menschliche Tätigkeiten auf Tier- und Pflanzenwelt, Wälder, Ozeane, Flüsse und Klima haben. Die Art und Weise, wie wir Menschen unsere Gesellschaften ernähren, mit Energie versorgen und finanzieren, lassen die Natur und ihre uns erhaltenden Dienstleistungen an eine Grenze stoßen. Das Zeitfenster für Gegenmaßnahmen ist schmal, die Weltgemeinschaft gefordert gemeinsam den Wert der Natur, ihren Schutz und ihre Erholung zu überdenken. Unter den 59 Autoren aus 26 verschiedenen internationalen Institutionen haben auch Forscher des in Laxenburg bei Wien ansässigen International Institute for Applied Systems Analysis - IIASA - wesentlich zu dem Report beigetragen.*

Zwanzig Jahre nach der Veröffentlichung des ersten Living Planet Reports bietet der aktuelle, 146 Seiten starke Bericht einen umfassenden Überblick über den Zustand unserer natürlichen Welt [1]. Unter Zuhilfenahme von Indikatoren (Abbildung 1) - wie dem Living Planet Index (LPI) der Zoologischen Gesellschaft von London, dem Species Habitat Index (SHI), dem IUCN-Index der Roten Liste (RLI) und dem Biodiversity Intactness Index (BII) - sowie den Belastbarkeitsgrenzen des Planeten und dem ökologischen Fußabdruck zeichnet der Bericht ein außerordentlich beunruhigendes Bild: die natürlichen Systeme des Planeten, die das Leben auf der Erde erhalten, werden durch menschliche Aktivitäten an eine Grenze gestoßen.

 

Abbildung 1. Indikatoren der Biodiversität: Der Living Planet Index ist Populations-basiert und hat im Zeitraum 1970 - 2014 insgesamt 16 704 Populationen von 4 005 Wirbeltierspezies global verfolgt.(dies wird als repräsentativ für die insgesamt bereits 63 000 beschriebenen Spezies von Wirbeltieren angesehen). Der LPI wird ergänzt durch den Spezies Habitat Index, einem Maß für den verfügbaren Lebensraum jeder Spezies; er erfasst Änderungen in der Verteilung der Spezies, Präferenzen, Verlust von Habitaten. Der Biodiversity Intactness Index verfolgt Änderungen in der Zusammensetzung der Spezies einer Gemeinschaft, d.i. der Biodiversität. Der Rote Liste Index erfasst Anstieg und Absinken auf der Spezies-Ebene, d.i. das Risiko des Aussterbens.(Bild: modifiziert nach WWF Living Planet Report 2018 page 101 [1]; cc-by-sa-3.0)

Rückgang der Arten

Der LPI erfasst Trends im globalen Vorkommen von Wildtieren: er zeigt, dass die Populationen von Fischen, Vögeln, Säugetieren, Amphibien und Reptilien zwischen 1970 und 2014 (dem Jahr der letzten bereits verfügbaren Datensätze) weltweit im Durchschnitt um 60% abnahmen. Abbildung 2 zeigt, wo weltweit die Populationen der Spezies erfasst wurden und wie insgesamt die Populationen im Durchschnitt abgenommen haben.

Abbildung 2. Der globale Life Planet Index (LPI). Oben: Orte, an denen die insgesamt 16 704 Populationen der 4005 Spezies erfasst wurden (seit dem vorherigen Report neu hinzugekommene Populationen/Spezies sind orange/rot dargestellt). Unten: Die über alle erfassten Spezies gemittelte Häufigkeit des Vorkommens zeigt von 1970 - 2014 ein Absinken um 60%. Die weiße Linie gibt die LPI-Werte wieder, die grün schattierte Fläche die statistische Sicherheit (Bereich -50% bis -67%) (Bilder: WWF Living Planet Report 2018 page 90 und 94, [1]; cc-by-sa-3.0)

Die Hauptbedrohungen für die Arten sind dabei mit den Aktivitäten des Menschen korreliert, sie schließen den Verlust und die Verschlechterung von Lebensräumen mit ein sowie die exzessive Ausbeutung von Tier-und Pflanzenwelt. Ken Norris, wissenschaftlicher Direktor der Zoological Society of London äußert dazu: „Ob es Flüsse oder Regenwälder, Mangroven oder Berghänge sind - unsere Arbeit zeigt, dass seit 1970 auf der ganzen Welt der Reichtum an Wildtieren dramatisch zurückgegangen ist. Die Statistiken sind beängstigend, alle Hoffnung aber noch nicht verloren. Wir haben die Möglichkeit, einen neuen Weg zu entwickeln, der es uns erlaubt, nachhaltig in Gemeinschaft mit der Tier- und Pflanzenwelt zu leben, von der wir ja abhängig sind. Unser Bericht legt eine ehrgeizige Agenda für den Wandel dar. Wir werden die Hilfe von Allen brauchen, um dies zu erreichen “.

Beiträge von IIASA Forschern

Der Planet Life Report enthält Beiträge von 59 Autoren aus 26 Institutionen, darunter von David Leclère und Piero Visconti vom IIASA Ecosystems Services and Management Program.

Visconti hat zu Kapitel 3: Biodiversität in einer sich verändernden Welt beigetragen und Daten aus seinen eigenen Analysen beigesteuert - in seiner aktuellen Forschung beschäftigt sich Visconti mit dem Species Habitat Index (SHI) und dem Index der Roten Liste (RLI). Er sagt, dass Biodiversität so facettenreich ist, dass der LPI allein nicht ausreicht, um ihren Zustand und ihre Entwicklung zu verfolgen. Wie es auch in der Ökonomie der Fall ist, sind hier eine Reihe von Kriterien erforderlich. (siehe Abbildung 1.)

„Der Reichtum des Tierbestands ist ein wichtiges Maß für die Gesundheit der natürlichen Umwelt, ein Rückgang für sich allein bereits alarmierend. Andere Indikatoren der Biodiversität geben uns allerdings noch besorgniserregendere Signale, insbesondere das zunehmende Risiko für eine Reihe von Tier- und Pflanzenarten auszusterben, sowie die Gesamtzahl bereits ausgestorbener Arten. Im Gegensatz zum Rückgang einer Population ist ein Aussterben nicht rückgängig zu machen “, sagt Visconti.

Zu Kapitel 4 des Reports: Mehr wollen: Welche Zukunft wollen wir? hat Leclère beigetragen, indem er darstellte, wie Szenarien der von IIASA entwickelten Shared Socioeconomic Pathways (SSPs) helfen können, sich ein Bild von der Zukunft des Planeten zu machen und an einer guten Politik mitzuwirken.

Menschliches Handeln untergräbt die Fähigkeit der Natur die Menschheit zu erhalten

In den letzten Jahrzehnten haben Tätigkeiten des Menschen starke Auswirkungen auf Lebensräume - wie Ozeane, Wälder, Korallenriffe, Feuchtgebiete und Mangroven - und natürliche Ressourcen gezeigt, von denen Pflanzen-, Tierwelt und die Menschheit abhängig sind. In nur 50 Jahren sind 20% des Amazonasgebiets verschwunden, in den letzten 30 Jahren hat die Erde ungefähr die Hälfte ihrer Flachwasserkorallen verloren.

Obwohl der Living Planet-Bericht 2018 das Ausmaß und die Auswirkungen menschlicher Aktivitäten auf die Natur herausstreicht, konzentriert er sich auch darauf, welche Bedeutung und welchen Wert die Natur für Gesundheit und Wohlbefinden von Menschen sowie von Gesellschaften und Volkswirtschaften hat. Der Report nennt dazu Zahlen: Demnach erbringt die Natur weltweit Dienstleistungen im Wert von rund 125 Billionen US-Dollar pro Jahr und hilft gleichzeitig die Versorgung mit Frischluft, sauberem Wasser, Nahrungsmitteln, Energie, Medikamenten und anderen Produkten und Materialien sicher zu stellen.

Ein spezielles Thema in dem Bericht ist die Bedeutung der Bestäuber, welche für die Produktion von Kulturpflanzen im Wert von 235 bis 577 Milliarden US-Dollar pro Jahr verantwortlich sind. (In Abbildung ist eine Steinhummel zu sehen, ein in Europa weit verbreiteter, wichtiger Bestäuber). Der Bericht zeigt auf, wie ein sich veränderndes Klima, intensive landwirtschaftliche Praktiken, invasive Arten und aufkommende Krankheiten sich auf die Fülle, Vielfalt und Gesundheit der Bestäuber auswirken.

Abbildung 3. Die Steinhummel (Bombus lapidarius) ist ein Generalist, was die Nahrung betrifft und somit Bestäuber vieler Pflanzenfamilien (Bild: WWF Living Planet Report 2018 [1]; cc-by-sa-3.0)

„Es ist an der Zeit sich dessen bewusst zu sein, dass eine gesunde und nachhaltige Zukunft für alle nur auf einem Planeten möglich ist, auf dem die Natur gedeiht und Wälder, Ozeane und Flüsse vor Biodiversität und Leben nur so strotzen. Wir müssen dringend überdenken, wie wir die Natur nutzen und wertschätzen - kulturell, wirtschaftlich und in unseren politischen Agendas. Wir müssen die Natur als schön und inspirierend betrachten, aber auch als unverzichtbar “, sagte Marco Lambertini, Generaldirektor von WWF International.

Ein Aktionsplan für die Natur – für 2020 und darüber hinaus

Es ist evident, dass die beiden Agenda - für Umwelt und für menschliche Entwicklung - zusammenlaufen müssen, wenn wir eine nachhaltige Zukunft für alle aufbauen wollen. Der Living Planet Report 2018 unterstreicht die Chance, welche die Weltgemeinschaft hat die Natur zu schützen und zu erneuern. 2020 wird ein kritisches Jahr: es sollen dann die Fortschritte bei den Zielen für nachhaltige Entwicklung, dem Pariser Abkommen und dem Übereinkommen über die biologische Vielfalt (Convention on Biological Diversity -CBD) überprüft werden.

Der WWF ruft Menschen, Unternehmen und Regierungen dazu auf, unter dem Übereinkommen über die biologische Vielfalt ein umfassendes Rahmenabkommen für Natur und Menschen aufzubringen; ein Übereinkommen, das öffentliche und private Maßnahmen vereinigt , um die globale Artenvielfalt und die Natur zu schützen und ihr Erholung zu bieten und die Kurve der verheerenden Trends - wie sie , der Living Planet Report 2018 aufzeigt - abzuflachen.

Kapitel 4 des Berichts ist durch eine Arbeit mit dem Titel "Aiming higher to bend the curve of biodiversity loss" inspiriert. Unter diesem "Mehr wollen" wird ein Fahrplan für Ziele, Indikatoren und Kennzahlen angeregt, welcher die 196 Mitgliedstaaten der CBD veranlassen könnte ein dringliches, ambitioniertes und effektives Weltabkommen für die Natur auf den Weg zu bringen, wenn sie sich im November 2018 auf der 14. Vertragsstaatenkonferenz der CBD (COP14) in Ägypten treffen - ganz so, wie es die Welt in Paris für das Klima getan hat. Die COP14 markiert einen Meilenstein, um die Voraussetzungen für ein dringend benötigtes globales Abkommen für Natur und Leute zu schaffen.

Wie in Kapitel 4 hervorgehoben, bietet die Nach-2020- Strategie eine einzigartige Gelegenheit, um rückläufige Trends der Biodiversität umzukehren. Es ist allerdings auch klar, dass eine solche Absicht mit der menschlichen Entwicklung in Konflikt geraten kann. Abbau und Verlust von Lebensraum , die zu den größten Treibern sinkender terrestrischer Biodiversität gehören, sind das direkte Ergebnis menschlicher Aktivitäten, die eben auch die Bedürfnisse einer wachsenden menschlichen Bevölkerung unterstützen. Was wir für eine solide Strategie nach 2020 brauchen, ist eine genauere Bewertung der Art von Landnutzungspfaden und Strategien, die helfen können das globale Nahrungsmittelsystem zu steuern“, sagt Leclère.

Er fügt hinzu, dass vom IIASA entwickelte Modelle und Szenarien - einschließlich des Global Biosphere Management Model (GLOBIOM) und den Shared Socioeconomic Pathways (SSPs) - bei der Entwicklung solcher Strategien, hilfreich sein könnten. 

[1] WWF. 2018. Living Planet Report - 2018: Aiming Higher. Grooten M and Almond REA (Eds). WWF, Gland, Switzerland.


*Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 30. Oktober 2018 auf der Webseite des IIASA unter dem Titel: "Nothing natural about nature’s steep decline: WWF report reveals staggering extent of human impact on planet" erschienen. http://www.iiasa.ac.at/web/home/about/news/181030-wwf-report.html. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch passende Abbildungen aus dem Living Planet Report 2018 ergänzt.


Weiterführende Links

inge Thu, 08.11.2018 - 06:25

Klimamodelle: wie werden diese validiert?

Klimamodelle: wie werden diese validiert?

Do, 01.11.2018 - 10:30 — Carbon Brief

Carbon BriefIcon GeowissenschaftenSind Klimamodelle in der Lage zuverlässige Prognosen abzugeben? Zur Validierung der Modelle wird geprüft, wie realistisch diese das in der Vergangenheit beobachtete Klima wiedergeben können (Hindcasts). Dies gelingt für die mittlere globale Klimaentwicklung (nicht nur) der letzten 150 Jahre recht gut. Der Artikel ist Teil 6 einer umfassenden, leicht verständlichen Serie "Q&A: How do climate models work?", die von der britischen Plattform Carbon Brief stammt (Teile 1 -5 [1, 2, 3, 4, 5]).*

Wissenschaftler validieren ihre Modelle, indem sie deren Prognosen mit Datensätzen aus realen Beobachtungen vergleichen. Beispielsweise wäre dies ein Vergleich von Modellprojektionen mit den tatsächlichen globalen Oberflächentemperaturen im vergangenen Jahrhundert.

Hindcasts - Prognosen in die Vergangenheit

Klimamodelle können an Hand historischer Änderungen des Erdklimas getestet werden. Derartige Vergleiche mit der Vergangenheit werden wie in [4] erwähnt "Hindcasts" genannt.

Dabei "erzählen" die Wissenschaftler ihren Modellen nicht, wie sich das Klima in der Vergangenheit verändert hat - sie speisen beispielsweise keine historischen Temperaturmesswerte ein. Stattdessen geben sie Informationen über vergangene Klimatreiber ein und die Modelle erzeugen daraus eine(n) "Rückschau" (Hindcast) auf historische Situationen - ein gangbarer Weg, um Modelle zu validieren. Abbildung 1 (Carbon Brief Bild von der Redn. eingefügt).

Abbildung 1. Auf­zeich­nun­gen und Hind­cast-Mo­del­lie­run­gen der globalen Tem­pe­ra­tur­än­de­run­gen ( in ° C; Landoberflächen und Ozeane zu­sam­men­ge­nom­men) seit 1970. Die großen Vul­kan­aus­brü­che von El Chichon (1982) und Pinatubo (1991) haben zu einem raschen Absinken der globalen Temperatur geführt, dies wird in den Simulierungen präzise wiedergegeben. Bunte Linien: jährliche Aufzeichnungen von 5 großen Institutionen (NASA, NOAA, HadCRUT, Cowtan and Way und Berkeley Earth). Schwarze Linie: Mittelung über 109 Simulationen an 38 Modellen, graue Flächen: Bereich der Modelldaten (95 % Confidence). Bild: Carbon Brief.

Hindcasts wurden für verschiedene Klimafaktoren wie Temperatur (an der Erdoberfläche, in Ozeanen und in der Atmosphäre), Regen und Schnee, Hurrikanbildung, Ausdehnung von Meereis und viele andere Klimavariablen erstellt, um aufzuzeigen, dass Klimamodelle in der Lage sind, das Erdklima präzise zu simulieren.

Es gibt Hindcasts für den historischen Bereich der Temperaturaufzeichnungen (von 1850 bis jetzt), für die letzten 2000 Jahre, wobei verschiedene Klimaproxies (indirekte Anzeiger des Klimas in Eisbohrkernen, Baumringen, Ozeansedimenten, etc; Anm. Redn.)zur Anwendung kamen und sogar für die letzten 20.000 Jahre.

Abbildung 2 (Carbon Brief Bild von der Redn. eingefügt) zeigt, dass die Simulationen sehr gut die Aufzeichnungen seit 1861 widerspiegeln und erstellt auf dieser Basis eine Prognose bis 2100.

Abbildung 2. Hindcast-Mo­del­lie­run­gen der globalen Tem­pe­ra­tur­än­de­run­gen ( in ° C; Landoberflächen und Ozeane zu­sam­men­ge­nom­men) vom Beginn der historischen Aufzeichnungen im Jahr 1861 bis 2017 und Forecasts (Prognosen) bis 2100. Bunte Linien: jährliche Aufzeichnungen von 5 großen Institutionen (NASA, NOAA, HadCRUT, Cowtan and Way und Berkeley Earth). Schwarze Linie: Mittelung über alle Modelle, graue Flächen: Bereich der Modelldaten (95 % Confidence). Bild: https://www.carbonbrief.org/factcheck-climate-models-have-not-exaggerated-global-warming.

Vulkanausbrüche

Spezifische Ereignisse mit massiven Auswirkungen auf das Klima, wie es etwa Vulkanausbrüche sind, können auch dazu dienen, die Leistungsfähigkeit eines Modells zu testen. Auf Vulkanausbrüche reagiert das Klima relativ schnell - um erkennen zu können ob Modelle genau erfassen, was nach großen Eruptionen passiert, brauchen Forscher also nur wenige Jahre zu warten.

Untersuchungen belegen, dass Klimamodelle die Änderungen von Temperatur und atmosphärischem Wasserdampf nach großen Vulkanausbrüchen präzise abbilden (Abbildung 1).

Klimatologie

Klimamodelldaten werden auch mit der durchschnittlichen (d.i. mit der über einen Zeitabschnitt gemittelten) Klimasituation verglichen. Beispielsweise prüfen die Forscher, ob die Durchschnittstemperaturen der Erde im Winter und Sommer in Modellen und Realität ähnlich ausfallen. Sie vergleichen auch die Ausdehnung des Meereises in Simulierungen versus Beobachtungen - Modelle, welche die aktuelle Meereisbedeckung besser darstellen, werden dann gewählt. um zukünftige Veränderungen zu prognostizieren.

Experimente, in denen viele verschiedene Modelle mit denselben Treibhausgaskonzentrationen und anderen "Antrieben" laufen, wie dies in den in den Modellvergleichsprojekten (MIPs, siehe [draft 5]) der Fall ist, bieten eine Möglichkeit, Ähnlichkeiten und Unterschiede zwischen Modellen zu untersuchen.

Eine Mittelung über alle Modelle kann in vielen Punkten des Klimasystems zu genaueren Aussagen führen als dies bei den meisten Einzelmodellen der Fall ist. Werden mehrere unabhängige Modelle kombiniert, so zeigen Vorhersagen bessere Qualität, höhere Zuverlässigkeit und Konsistenz.

Um zu überprüfen, ob Modelle vertrauenswürdig sind, können projizierte zukünftige Änderungen mit den tatsächlich eintretenden Ereignissen verglichen werden. Dies kann jedoch bei langfristigen Projektionen ein schwieriges Unterfangen sein, da es lange dauert, bevor man beurteilen kann, wie gut die aktuellen Modelle funktionieren.

Carbon Brief hat die seit den 1970er Jahren erstellten Klimamodelle analysiert: diese haben generell seh gut funktioniert, um die Hindcasts aber auch die Forecasts für den nächsten Zeitabschnitt zu prognostizieren.

Wie werden Klimamodelle "parametrisiert"?

Wie in Teil 1 der Serie erwähnt [1], sind Klimamodelle enorm groß, den Wissenschaftlern steht aber kein unendliches Angebot an Rechenleistung zur Verfügung. Um die Simulationen besser bewältigen zu können, unterteilen Klimamodelle die Erdoberfläche durch ein 3D-Gitternetz (mit jeweils mehr oder weniger großen Maschenweiten; Anm. Redn.), wobei jeder Gitterzelle über ihr gesamtes Volumen konstante klimarelevante Eigenschaften und Prozesse zugeordnet werden. Ein Modell berechnet nun über ein Zeitintervall hin das durchschnittliche Klima jeder Gitterzelle.

Allerdings gibt es im Klimasystem und auf der Erdoberfläche viele Prozesse, die auf Skalen stattfinden, die kleiner sind als die Gitterzelle. Um dafür ein Beispiel anzuführen: innerhalb einer Gitterzelle werden die Höhen der Landoberfläche gemittelt - dies bedeutet, dass dabei alle landschaftlichen Merkmale wie Berge und Täler vernachlässigt werden. Ähnlich werden auch die Vorgänge in der Atmosphäre gemittelt: Wolkenbildung und -Auflösung können aber in Größenskalen erfolgen, die viel kleiner als eine Gitterzelle sind.

Um das Problem solcher kleinskaliger, klimarelevanter Variablen zu lösen, werden diese"parametrisiert", dh. ihre Werte werden im Computercode (siehe dazu [1]) festgelegt und nicht vom Modell selbst berechnet.

Abbildung 3 zeigt einige der Prozesse, die typischerweise in Modellen parametrisiert sind.

Abbildung 3. Eine Liste der 20 Klimaprozesse und -Eigenschaften, die normalerweise in globalen Klimamodellen parametrisiert werden müssen. (Bild: mit freundlicher Genehmigung von MetEd, The COMET Program, UCAR.)

Parametrisierungen dienen auch zur Vereinfachung, wo immer ein Klimaprozess nicht hinreichend verstanden wird/noch nicht mathematisch beschrieben werden kann.

Problem: Parametrisierungen sind eine der Hauptquellen von Unsicherheiten in Klimamodellen.

Kalibrierung des Modells

In vielen Fällen ist es nicht möglich, parametrisierte Variable auf einen einzelnen Wert einzugrenzen, daher muss das Modell einen Schätzwert einsetzen. Die Wissenschaftler führen Tests an ihrem Modell durch, um einen solchen Wert - oder einen Bereich von Werten - zu finden, der dem Modell die bestmögliche Darstellung des realen Klimas ermöglicht.

Dieser komplexe Vorgang ist unter unterschiedlichen Bezeichnungen - Kalibrierung ,Tuning oder Justierung des Modelles - bekannt. Obwohl es ein notwendiger Teil der Klimamodellierung ist, ist es kein Prozess, der spezifisch dafür ist. So wurde beispielsweise 1922 in einem Artikel der Royal Society "Über die mathematischen Grundlagen der theoretische Statistik" die "Parameterschätzung" als einer der drei Schritte im Modellieren festgestellt.

Dr. James Screen, Assistenzprofessor für Klimaforschung an der Universität von Exeter, erklärt Carbon Brief, wie Wissenschaftler ihr Modell hinsichtlich der Albedo (Reflektivität; ein Maß dafür, wie viel Sonnenenergie von einer Oberfläche reflektiert wird) von Meereis kalibrieren könnten:

"In vielen Meereismodellen ist die Albedo des Meereises ein Parameter, der auf einen bestimmten Wert eingestellt ist. Den "korrekten" Wert der Eisalbedo kennen wir nicht und mit Beobachtungen der Albedo ist ein gewisser Unsicherheitsbereich verbunden. Während sie nun ihre Modelle entwickeln, können die Forscher mit leicht unterschiedlichen - aber plausiblen - Parameterwerten experimentieren, mit dem Ziel einige grundlegende Eigenschaften des Meereises so gut wie möglich an unsere aus Beobachtungen stammenden, besten Schätzungen anzupassen. Beispielsweise möchte man vielleicht sicherstellen, dass der saisonale Zyklus der Meereisausdehnung passt oder ungefähr die richtige Eismenge im Mittel vorhanden ist. Das ist Kalibrierung. "

Wären alle Parameter zu 100% gesichert, so wäre eine derartige Kalibrierung nicht erforderlich, meint Screen. Das Wissen der Wissenschaftler über das Klima ist aber leider unvollständig, weil die aus Beobachtungen kommende Evidenz Lücken aufweist.

Da Parametrisierungen in den meisten globalen Modellen Usus ist, führen praktisch alle Modellierungszentren eine Kalibrierung der Modelle durch. Laut einer Umfrage aus dem Jahr 2014 werden in den meisten Fällen Modelle so kalibriert, dass sie das langfristige durchschnittliche Klima richtig wiedergeben - einschließlich einiger Faktoren wie absolute Temperaturen, Meereiskonzentrationen, Oberflächenalbedo und Meereisausdehnung .

Der am häufigsten kalibrierte Faktor (in 70% der Fälle) ist dabei die Strahlungsbilanz am oberen Rand der Atmosphäre. Hier werden die Parametrisierungen insbesondere von Wolken (deren Mikrophysik, Konvektion und Bedeckungsgrad) aber auch von Schnee, Meereisalbedo und Vegetation kalibriert.

Kalibrieren bedeutet aber nicht einfach ein "Anpassen" historischer Aufzeichnungen. Führt eine vernünftige Auswahl von Parametern zu Resultaten, die sich von der beobachteten Klimatologie dramatisch unterscheiden, können Modellierer entscheiden, eine andere Auswahl zu treffen. Erfolgt ein Update eines Modells und erbringt dieses nun eine massive Abweichung von den Beobachtungen, so suchen die Modellierer nach Fehlern oder anderen Faktoren , die den Unterschied erklären können.

Wie der NASA-Direktor des Goddard-Instituts für Weltraumforschung, Dr. Gavin Schmidt, Carbon Brief erklärt:

"Globale Durchschnittstrends werden auf Vernünftigkeit kontrolliert, aber (im Allgemeinen) nicht exakt darauf justiert. Dazu gibt es in der wissenschaftlichen Gemeinschaft viel Diskussion, aber allen ist klar, dass diese Forschung transparenter gemacht werden muss."


*Der Artikel ist der Homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen (https://www.carbonbrief.org/qa-how-do-climate-models-work). Unter den Titeln" How do scientists validate climate models? How do they check them? und " How are climate models “parameterised” and tuned? ist es die Fortsetzung einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde. Die unter einer cc-by-nc-nd 4.0 Lizenz stehenden Artikel wurden im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.

Carbon Brief - https://www.carbonbrief.org/ - ist eine britische Website, welche die neuesten Entwicklungen in den Bereichen Klimawissenschaft, Klimapolitik und Energiepolitik abdeckt. Die Seite bemüht sich um klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels von Seiten der Wissenschaft und auch der Politik zu verbessern . Im Jahr 2017 wurde Carbon Brief bei den renommierten Online Media Awards als"Best Specialist Site for Journalism" ausgezeichnet.

[1] Teil 1 (19.04.2018): Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung.

[2] Teil 2 (31.05.2018): Klimamodelle: von einfachen zu hoch komplexen Modellen.

[3] Teil 3 (21.06.2018): Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen.

[4] Teil 4 (23.8.2018): Welche Fragen stellen Wissenschaftler an Klimamodelle , welche Experimente führen sie durch? [5]

Teil 5 (20.09.2018).: Wer betreibt Klimamodellierung und wie vergleichbar sind die Ergebnisse?


Weiterführende Links

Artikel im ScienceBlog

Wir haben einen eigenen Schwerpunkt Klima und Klimawandel gewidmet, der aktuell 29 Artikel enthält.

inge Thu, 01.11.2018 - 10:30

Genies aus dem Labor

Genies aus dem Labor

Do, 25.10.2018 - 08:00 — Nora Schultz Nora SchultzIcon Gehirn

 

Was macht ein Genie aus? Woher kommt Genialität? Von mentalen Superkräften träumen viele und Intelligenzsprünge mithilfe von pharmakologischen, maschinellen oder genetischen Interventionen wären denkbar. Die Entwicklungsbiologin Nora Schultz gibt einen Überblick über die verschiedenen Ansätze, die von Wunderpillen, elektrischen oder magnetischen Kappen und im Hirn implantierten Chips bis hin zu genetischen Manipulationen reichen. *

Der Drang, Grenzen zu überwinden, prägt den Menschen seit eh und je, angetrieben von seinem einzigartigen Talent, sich vorzustellen was (noch) nicht ist. Das gilt auch für die Grenzen des Gehirns. Genuin geniale Spitzenleistungen sind rar, doch von mentalen Superkräften träumen viele (Abbildung 1). Lucy in Luc Bessons gleichnamigen Film beispielsweise entfesselt dank einer neuartigen Droge eine extrem überhöhte Intelligenz. Für den Studenten Dexter in der Disney-Komödie „Superhirn in Tennisschuhen“ reicht ein Stromschlag, um computergleiche Fähigkeiten zu entwickeln, und den IQ des geistig zurückgebliebenen Charly katapultiert in Daniel Keyes preisgekrönter Geschichte „Blumen für Algernon“ eine Operation in luftige Höhen. Auch jenseits der Traumfabriken sprudelt die Phantasie kaum weniger lebhaft.

Abbildung 1. Wie wird man ein Genie? Lässt sich das Gehirn aufmotzen? Noch klappt das nicht, aber Visionäre arbeiten daran (Grafik: MW)

Gibt es Wunderpillen zur Steigerung der Intelligenz?

Vor allem der Griff zur Pille lockt viele Menschen. Schon Schwangere werden angehalten, Fischöl-Kapseln zu schlucken, um die Gehirnentwicklung des Ungeborenen mit den darin enthaltenen Omega-3-Fischsäuren zu fördern. Auch für Kinder stehen Fischöl-Präparate hoch im Kurs – und haben tatsächlich einen kleinen, aber messbar positiven Effekt auf die Intelligenz.

Die Wirkung vieler weiterer Präparate, die kognitive Kräfte befeuern wollen, von Ginseng- und Gingko-Extrakten, über B-Vitamine und Vitamin D bis hin zu Koffein, ist hingegen eher zweifelhaft .

Auf der Suche nach einem stärkeren kognitiven Kick greifen daher immer mehr Menschen nach verschreibungspflichtigen Medikamenten, die das Denken verbessern sollen. Allein in Deutschland ist die Zahl der Berufstätigen, die schon einmal solche Pillen geschluckt hat, um Leistung zu steigern oder Stress abzubauen, zwischen 2008 und 2014 von 4,7 auf 6,7 Prozent gestiegen .

Medikamente, die als „Neuroenhancer“ in Betracht kommen, wurden häufig ursprünglich für andere Zwecke entwickelt, etwa zur Behandlung von Aufmerksamkeitsstörungen (Ritalin), Schlafsucht (Modafinil) oder Demenz (Memantin, Donezepil). Nach aktueller Studienlage können sie unter bestimmten Voraussetzungen einige geistige Leistungen bei Gesunden zwar womöglich tatsächlich verbessern , von einer dauerhaften Intelligenzsteigerung kann jedoch auch hier keine Rede sein. Trotz intensiver Anstrengungen von Pharma- und Biotechfirmen blieb der große Durchbruch bei der Suche nach einer Superhirnpille bislang aus (siehe auch: https://www.dasgehirn.info/denken/gedaechtnis/doping-fuers-gedaechtnis) .

Das liegt auch daran, dass besonders große und nachhaltige Intelligenzsteigerungen, wie sie für die gezielte Entwicklung echter Genialität nötig wären, voraussichtlich in jungen Jahren ansetzen müssten, wenn das Gehirn noch formbarer ist. Gerade Eingriffe bei Kindern gelten jedoch als ethisch besonders sensibel, da diese im Gegensatz zu mündigen Erwachsenen noch nicht voll selbstbestimmt einwilligen können. Wenn ernste Nebenwirkungen drohen oder deren Möglichkeit auch nur unzureichend erforscht ist, ist daher aus gutem Grund Zurückhaltung geboten – wird aber längst nicht immer ausgeübt [Kasten].

Maschinen, die direkt am Gehirn ansetzen

Davon erhoffen manche eine durchschlagendere Wirkung. Gleich zwei davon greifen das schon in den 1960er Jahren vom Disney-Huhn Daniel Düsentrieb erfundene Konzept der „Denkkappe“ auf.

Nichtinvasive Ansätze

Bei der transkraniellen Gleichstromstimulation (tDCS) stimulieren am Kopf angebrachten Elektroden das Gehirn elektrisch, während bei der transkraniellen Magnetstimulation (TMS) Magnetspulen durch den Schädel auf die Neuronen wirken. Abbildung 2.

Beide Methoden konnten im Experiment schon diverse kognitive Aspekte positiv beeinflussen, z. B. verbale Funktionen, das Gedächtnis oder die geistige Flexibilität. Die Wirksamkeit mag in beiden Ansätzen auf eine generelle Erhöhung der neuronalen Plastizität zurückgehen, doch ob sich positive Effekte einstellen, hängt offenbar von vielen Aspekten des Versuchsaufbaus ab. Bislang gelang es weder mit tDCS noch mit TMS ein „Rezept“ zu entwickeln, das in gesunden Menschen robust kognitive Verbesserungen bewirkt.

Abbildung 2. Transkranielle Stimulierung der Gehirnfunktion durch Gleichstromstimulation (tDCS) und Magnetstimulation (TMS) (Links: 35 cm2 Elektroden (b, c), positioniert mittels Kopfband (d) und Gummiband (e); Yokoi and Sumiyoshi, 2015https://npepjournal.biomedcentral.com/articles/10.1186/s40810-015-0012-x : cc-by 4.0. Rechts: Wikipedia, NIH: gemeinfrei. Abbildung von der Redaktion eingefügt)

Invasive Ansätze

Auch die tiefe Hirnstimulation, bei der Elektroden dauerhaft ins Gehirn eingesetzt werden, könnte kognitive Leistungen verbessern . Diese Technologie kann auch tieferliegende Regionen erreichen, zum Beispiel den Hippocampus, der eine wichtige Rolle bei der Bildung von Erinnerungen spielt.

Der Unternehmer Bryan Johnson hat 2016 hundert Millionen Dollar in die Gründung der Firma Kernel gesteckt, um zunächst gemeinsam mit dem Neurowissenschaftler Theodore W. Berger, der bereits an einer Hippocampusprothese für Affen arbeitete, einen Chip zu bauen, der die Bildung und den Abruf von Erinnerungen verstärken sollte .Inzwischen sucht Johnson stattdessen nach Wegen, das Gehirn direkt über multiple Schaltstellen mit Computern zu verbinden .

Der Technikvisionär und Unternehmer Elon Musk, besser bekannt für seine Tesla-Autos und Fahrpläne zum Mars, plant mit seiner neuen Firma Neuralink (https://www.neuralink.com/ "Neuralink is developing ultra high bandwidth brain-machine interfaces to connect humans and computers.") derweil ein Produkt, das es bislang nur in den Science-Fiction-Geschichten des schottischen Schriftstellers Iain M. Banks gab: die so genannte „neurale Borte“ (neural lace). Die Metapher des filigranen Garngeflechts deutet darauf hin, dass hier ebenfalls mehrere Andockstellen im Gehirn komplex mit maschinellen Gegenparts vernetzt werden sollen. Mehrere andere Teams arbeiten an ähnlichen Projekten.

Genetische Manipulationen

Ein anderer Weg, menschliche Geistesleistungen aufzumotzen, setzt nicht auf Maschinen, sondern auf Moleküle. Statt digitale Plugins einzuflechten, sollen genetische Manipulationen die neuronale Architektur von Grund auf leistungsfähiger machen.

Einer der Pioniere solcher Ansätze ist Joe Tsien, der 1999 die genetisch veränderte Maus Doogie präsentierte. Sie lernte doppelt so schnell wie normale Mäuse, durch ein Wasserlabyrinth zu navigieren, nachdem es Tsiens Team mit geschickt eingesetzten molekularen Schaltern gelungen war, einen bestimmten Rezeptor nur im Vorderhirn und nur nach der Geburt vervielfältigt zu aktivieren. Durch den Eingriff hatten die Forscher die synaptische Plastizität in Schlüsselregionen des Gehirns so erhöht, dass die Mäuse besser lernen konnten.

Tsiens Experiment ist ein Paradebeispiel dafür, wie genau molekulare Eingriffe zeitlich und räumlich platziert werden müssen, um bestimmte Effekte zu erzielen. Viele Unterschiede im Lern- und Denkvermögen gehen nach derzeitigem Verständnis auf subtile Weichenstellungen während der Entwicklung zurück, die beeinflussen, ob und wann ein Gen wo im Körper wie aktiv ist und wie es dabei mit den Produkten anderer Gene interagiert. Man geht davon aus, dass hunderte oder tausende von Genvarianten an diesen Weichenstellungen beteiligt sind – und dass genetische Unterschiede bei gleichmäßig guten Bildungschancen den Großteil der Intelligenzvariation zwischen Menschen erklären können. Abbildung 3.

Abbildung 3. Zur Vererbbarkeit der Intelligenz. Kognitive Fähigkeiten sind etwa proportional zum Grad der Verwandtschaft, d.i. zum Anteil der ererbten Gene. Das soziale Umfeld wirkt sich nur marginal aus. Es besteht praktisch keine Korrelation zu Biologisch-Nichtverwandten, die unter denselben Bedingungen wie eineiige/zweieiige Zwillinge aufgewachsen sind. (Nach Daten aus SDH Hsu "On the genetic architecture of intelligence and other quantitative traits"; https://arxiv.org/pdf/1408.3421.pdf; cc-by.Lizenz¸ Bild von der Redn eingefügt)

Bekannt sind bislang allerdings nur 52 Gene, die Intelligenz beeinflussen , und diese erklären nur knapp fünf Prozent der Varianz (S. Sniekers et. al., Nature Genetics 49:1107–1112 (2017)).

Manche Forscher glauben, dass wir mit den inzwischen verfügbaren Methoden der Genanalyse genügend weitere relevante Gene entdecken können, um Embryonen künftig anhand ihrer genetischen Veranlagung für Intelligenz auszuwählen. Einer von ihnen ist Stephen Hsu, der Gründer des „Cognitive Genomics Labs“ der chinesischen Firma BGI, die derzeit genetische Proben von tausenden mathematisch besonders begabten Menschen analysiert, um weitere die Intelligenz beeinflussende Gene zu identifizieren. Eltern, die mithilfe entsprechend akkurater prädiktiver Modelle „zwischen ungefähr zehn befruchteten Eizellen auswählen, könnten den IQ ihres Kindes um immerhin 15 oder mehr Punkte verbessern“, schrieb Hsu bereits 2014 .

Um menschliche Intelligenz drastisch zu verändern, müssten wir allerdings darüber hinaus in der Lage sein, viele relevante Gene auch aktiv zu verändern, und zwar auf einen Schlag. Möglich könnte dies dank der 2012 entdeckten so genannten „Genschere“ Crispr-Cas9 und verwandter neuer Gentechniken werden. Sie erlauben es, viele Genschnipsel gleichzeitig und besonders schnell und präzise auszuschneiden und zu ersetzen. Sollte es eines Tages machbar sein, in einem Embryo oder in Keimbahnzellen mit solchen Methoden hunderte oder tausende von Genen gleichzeitig so zu konfigurieren, dass die bestmöglichen genetischen Voraussetzungen für Intelligenz geschaffen werden, wären nach Hsus Spekulationen „Superintelligenzen mit einem IQ von über 1000 Punkten denkbar“.

Was ist zu erwarten?

Vorerst bleiben solche Visionen Zukunftsmusik. Doch die Bemühungen der Forscher schreiten voran und werden keineswegs überall von Bedenken eingehegt. Das Gesetz in Deutschland und vielen anderen Ländern mag menschliche Keimbahnveränderungen verbieten , aber die ersten Versuche, mithilfe neuer genetischer Methoden Erbkrankheiten in menschlichen Embryos zu beseitigen, haben in China und den USA längst stattgefunden. Ebenso geht die Forschung an Pillen fürs Gehirn und an maschinellen Interventionen weiter. Und auch wenn bislang die meisten Menschen zumindest invasive Eingriffe in das Gehirn oder Veränderungen der menschlichen Keimbahn zur Steigerung von Intelligenz ablehnen, gibt es doch genügend Anhaltspunkte, dass es zu einem Meinungsumschwung kommen könnte, sollten Pioniere erst einmal zeigen, dass Interventionen nicht nur funktionieren, sondern auch risikoarm sind.

Bestimmte Neuroimplantate – vor allem Innenohrprothesen – gehören längst zum klinischen Alltag, Eingriffe in die menschliche Keimbahn zur Behandlung von Energiestoffwechselerkrankungen – wenn auch „nur“ durch Austausch der Mitochondrien, wurden in den USA erfolgreich erprobt und stehen in Großbritannien kurz vor der Zulassung . Auch an der Einnahme von erprobten kognitionsfördernden Nahrungsergänzungsmitteln stößt sich niemand. Selbst wenn Eingriffe experimentell sind, darf diese grundsätzlich jeder am eigenen Leib ausprobieren – solange dabei niemand anders zu Schaden kommt.

Sollte es künftig gelingen, auch bei drastischeren Interventionen „die Risiken körperlicher wie psychischer Neben- und Nachwirkungen unter die Schwelle des Bagatellhaften zu senken“, so müsse ihre Anwendung sogar bei Kindern erlaubt sein, forderte eine Gruppe von Experten bereits 2009 in ihrem Memorandum „Das optimierte Gehirn“ über pharmakologisches Neuroenhancement. Julian Savulescu, Professor für Praktische Ethik an der Universität Oxford, spricht sogar von einer „moralischen Verpflichtung“ der Menschheit, sich selbst zu optimieren .

Es mag wie Science-Fiction klingen, aber Raymond Kurzweil, Erfolgsautor und bekanntester Fürsprecher des „Transhumanismus“, hat die Verschmelzung menschlicher und künstlicher Intelligenz zu einer „Singularität“ vorausgesagt. Im Hauptberuf ist Kurzweil übrigens Leiter der technischen Entwicklung bei Google.

Dass technische Entwicklungen sich durch Verbote aufhalten lassen, ist angesichts des globalen Informationsaustauschs eher unwahrscheinlich. Wären bestimmte Möglichkeiten zur Intelligenzsteigerung erst einmal verfügbar, wäre vielmehr die Frage zu klären, ob und inwieweit der Staat ihre Nutzung regulieren oder sogar finanziell fördern sollte, um einen gerechten Zugang zu ermöglichen. Wie schon bei anderen kontroversen Technologien – zum Beispiel im Bereich der Fortpflanzungsmedizin – wird darüber letztlich jede Gesellschaft für sich entscheiden müssen.

Bis dahin, so erklärte es der Intelligenz-Forscher Detlev Rost bereits kürzlich der Redaktion , gibt es allerdings „weltweit nur ein wirklich nachhaltiges Intelligenz-Trainingsprogramm, und das ist die Schule.“


*Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Im Fokus des Monats Oktober steht das "Genie", zu dem auch der vorliegende, unter einer cc-by-nc-sa Lizenz stehende Text erschienen ist: https://www.dasgehirn.info/denken/genie/genies-aus-dem-labor.

Der Artikel wurde von der Redaktion geringfügig für den Blog adaptiert (Überschriften und Absätze eingefügt) und es wurden Abbildungen eingefügt.


Weiterführende Links

Galert, T et al: Das optimierte Gehirn. Gehirn & Geist 11/2009; URL: http://www.spektrum.de/alias/psychologie-hirnforschung/das-optimierte-gehirn/1008082 [Stand 29.7.2017]

DAK-Gesundheitsreport 2015; URL: https://www.dak.de/dak/download/vollstaendiger-bundesweiter-gesundheitsreport-2015-1585948.pdf [Stand 29.7.2017]

Tim Urban: Neuralink and the Brain’s Magical Future. Wait But Why, 20.4.2017; URL: https://waitbutwhy.com/2017/04/neuralink.html / [Stand 29.7.2017].

Stephen Hsu: Super-Intelligent Humans Are Coming. Genetic engineering will one day create the smartest humans who have ever lived. Nautilus, 16.10.2014; URL: http://nautil.us/issue/18/genius/super_intelligent-humans-are-coming [Stand 29.7.2017]


 

inge Thu, 25.10.2018 - 08:00

Impfen oder Nichtimpfen, das ist hier die Frage

Impfen oder Nichtimpfen, das ist hier die Frage

Do, 18.10.2018 - 12:07 — Peter Palese

Peter PaleseIcon MedizinImpfen oder Nichtimpfen - das ist zweifellos keine Frage. Hatten viele Infektionskrankheiten früher zahllose Opfer gefordert. so treten sie heute - dank hocheffizienter Impfungen - praktisch nur selten oder überhaupt nicht mehr auf. Influenza bleibt - auf Grund der raschen Veränderlichkeit zirkulierender Virenarten - eine ernste Bedrohung: Hundert Jahre nach der katastrophalen Epidemie mit Millionen von Toten, fehlen Vakzinen, die langandauernden Schutz vor zirkulierenden und neuen gefährlichen Stämmen von Influenza bieten. Wie eine derartige Universal-Impfung designt werden kann, zeigt der aus Österreich stammende, weltbekannte Virologe Peter Palese (Mount Sinai Medical School, New York) hier auf. Grundlagen zu derartigen, bereits in klinischer Testung befindlichen Vakzinen sind vor vier Jahren im Blog erschienen [1].*

Diphterie - Ein Albtraum aus der Kindheit

Ich muss etwa 3 oder 4 Jahre alt gewesen sein. Ich lag im Bett, habe auf eine weiße Zimmerdecke gestarrt und konnte nur mit Schwierigkeiten atmen. Damals lebte ich bei meiner Großmutter und ich erinnere mich noch heute an meine große Angst und die enorme Panik, dieses schreckliche Gefühl zu ersticken. Der Arzt war nahe daran eine Tracheotomie durchzuführen. Noch heute habe ich Albträume, die durch diese erste Erinnerung verursacht werden.

Was war der Grund, welche Krankheit hat diese fur mich erschreckende Erinnerung hervor gerufen?

Die Diagnose war Diphtherie!

Diphtherie wird durch ein Bakterium hervorgerufen, das die oberen Atemwege infiziert und zum Erstickungstod führen kann. Bei Kindern unter 5 Jahren und ohne medizinische Hilfsmittel kann die Diphtherie eine Sterblichkeitsrate von bis zu 50% (!!) haben. Nach dem 2. Weltkrieg gab es kein Anti-Diphterie Serum, obwohl diese Behandlung, passive Immunisierung, in Deutschland erfunden wurde. Emil von Behring bekam den ersten Nobelpreis in Medizin im Jahre 1901 fur die Entdeckung des Anti-Diphtherie Pferdeserums. Inaktivierte Diphtherie Bakterien wurden in Pferde injiziert und das Serum dieser behandelten Tiere wurde dann als Injektion zur Behandlung der Menschen verwendet. Der Aktiv-Impfstoff gegen Diphtherie, der in den dreissiger Jahren entwickelt wurde, war natürlich in einer Verlierer-Nation auch nicht verfügbar und Penicillin war zu dieser Zeit nur im angelsächsischen Raum erhältlich.

Nach der Erfahrung meiner Diphtherie Erkrankung ist für mich “Impfen oder Nichtimpfen" keine Frage und es gibt nur eine Antwort darauf.

Im Folgenden möchte ich kurz die unglaublichen Erfolge beschreiben, die Impfstoffe für die Menschheit gebracht haben, auch erwähnen, wo es noch viel zu tun gibt und dann auf meine eigene Forschung eingehen, die versucht, einen Universal Impfstoff gegen Influenza zu entwickeln.

Eine Erfolgsgeschichte der Impfstoffe

Impfungen gegen Pocken,…

Vielleicht der größte Erfolg der Medizin (abgesehen von sauberem Wasser und sicherer Ernährung) ist die Einführung der Pocken Impfung. Obwohl es in China schon vor 1000 Jahren Ansätze für eine Pockenimpfung gab, beginnt die erfolgreiche Impfung mit Edward Jenner im Jahre 1796, als er ein Kind mit Kuhpocken impfte. Es dauerte dann noch immerhin fast 200 Jahre bis die Weltgesundheitsbehörde das Ende der Pockenerkrankung bekannt geben konnte.

Die Pocken waren etwas Furchtbares. Der junge Mozart hat als 11 Jähriger die Pocken bekommen und er soll als Pocken Narbiger nie eine Schönheit in seinem kurzen Leben gewesen sein. Im selben Jahr 1767 verlor Kaiser Joseph II seine zweite Ehefrau durch die Pocken. Auch seine erste Frau starb an Pocken.

Eine Stellenanzeige in der London Times von 1774 lautete, dass ein junger Mann als Diener gesucht werde, der Mitglied der Anglikanischen Kirche sein sollte und bereits die Pocken gehabt haben musste. Eine Pockenerkrankung war damals mit einem monatelange Arbeitsausfall verbunden, sofern der Patient überhaupt überlebte.

Die meisten medizinischen Historiker schätzen, dass allein im 20. Jahrhundert bis zu 300 Millionen Menschen an Pocken gestorben sind, die Mehrzahl zwischen den Jahren 1900 bis 1920. Diese Zahlen sind beeindruckend und stellen die Zahlen für die anderen Katastrophen des 20. Jahrhunderts – und da waren genügend – deutlich in den Schatten. Aber selbst damals gab es schon viele Impfgegner. Karikaturen eines Zeitgenossen von Edward Jenner zeigen einen Arzt, der die Pockenimpfung durchführt, wobei seinen Patienten Kühe aus den verschiedenen Gliedmaßen wachsen. Abbildung 1.

Abbildung 1. Impfgegner um 1800. Man fürchtete Edward Jenners aus Kuhpocken hergestellte Vakzine könnte Menschen zu Rindern machen. Bild: James Gillray 1802 (Wikipedia, gemeinfrei).

…Masern,…

Es ist hier wichtig zu verstehen, dass Pocken und Masern viel tödlicher sind, wenn die Infektion erstmals nach dem Kindesalter erfolgt. Hatte man diese Viren während der Kindheit als Kinderkrankheit bekommen, war man dann immun für den Rest seines Lebens.

Für uns ist diese Erfahrung wichtig.

Wenn heute manche Eltern die Masernimpfung (und andere Impfungen) ablehnen, ist das meiner Meinung nach nicht nur nachlässig, sondern auch extrem gefährlich. Wenn z.B. ein ungeimpfter Mensch mit 30 Jahren auf den Seyschellen oder irgendwo in einem anderem Teil der Welt das erste Mal mit Masern in Berührung kommt, dann ist die Todesrate 10-100 mal höher als bei einem Zweijährigen.

…Polio…

Eine andere Erfolgsgeschichte ist die Poliomyelitis Impfung.

Unsere jüngere Bevölkerung weiß wahrscheinlich gar nicht, was das ist — eine eiserne Lunge (Abbildung 2, rechts unten). Diese Maschinen konnten manchmal Kindern helfen, wenn die Lähmung – hervorgerufen durch Polioviren – bereits die Brustmuskeln erreicht hatte und die Kinder nicht mehr aus eigener Kraft atmen konnten. Leider haben die meisten Kinder, die in diese Maschinen als letzte Lösung gebracht wurden, diese Maschinen nicht lebendig verlassen. Eiserne Lungen gibt es heute nicht mehr, dank der Impfung, die wir gegen die Polioviren haben. Wenn es Bill Gates gelänge, die Mohammedanischen Religionsfanatiker dazu zu überreden, ihre Kinder gegen Poliomyelitis impfen zu lassen und damit diese Krankheit auszurotten, wäre das wahrscheinlich das größte Vermächtnis dieses Mannes.

Abbildung 2 zeigt den Erfolg der Impfungen gegen Pocken, Polio und Masern in den US - stellvertretend für viele andere Impfungen. Interressant ist, dass Pockenfälle erst in den 40iger Jahren des letzten Jahrhunderts wirklich drastisch gesunken sind.

Ein historisches On-dit besagt, dass Bismarck die Preußische Armee gegen Pocken impfen ließ, und dass dies auch maßgeblich zum Sieg im Deutsch-Französischen Krieg geführt haben soll.

Abbildung 2. Nach Einführung der Impfungen gegen Pocken, Masern und Polio (Pocken im Jahr 1800, Masern und Polio durch Pfeile gekennzeichnet) sind in allen US Bundesstaaten die Erkrankungen dramatisch zurückgegangen.. Rechts unten: Polio-Kranke in Eisernen Lungen. (Daten: US Center for Diseases Control (CDC)).

…und andere Infektionskrankheiten

Ähnliche Erfolge bringt auch die Impfung gegen Mumps. Wenn dagegen z.B. ein junger ungeimpfter Mann mit 25 oder 30 Jahren das erste Mal mit Mumpsviren infiziert wird, ist die Gefahr relativ hoch, dass er steril wird.

Röteln bei einer Frau im ersten Trimester ihrer Schwangerschaft führt zu den schwersten nur vorstellbaren angeborenen Krankheiten des Babies. Dante’s Hölle ist ein Paradies dagegen.

Auch Keuchhusten gibt es heute praktisch nicht mehr.

Das Problem des Nichtimpfens…

Diphterie-Erkrankungen, mit denen ich meinen Artikel eingeleitet habe, treten seit längerer Zeit in den meisten Ländern nur mehr vereinzelt auf. Eine starke - bis zu fünfzigfache (Anm. Redn.) - Zunahme der Diphterie Fälle wurde allerdings in den neuen Staaten der alten Sowjetunion als Folge des Zusammenbruchs des Gesundheitswesens beobachtet. Dies sind erschreckende Zahlen.

Leider sind es nicht nur politische Umwälzungen, die zum Nichtimpfen führen, sondern auch “falsche Propheten”. Der englische Arzt Andrew Wakefield behauptete, dass Autismus durch Impfungen verursacht wird. Dies wurde mit ABSOLUTER Sicherheit widerlegt. Er wurde wegen Betrugs verurteilt und verlor seine medizinische Zulassung. Trotzdem hat diese unglückselige Episode zu einer Zunahme von Masern in den Vereinigten Staaten und in Europa geführt: Während im Jahr 2016 europaweit 4,643 Masernfälle verzeichnet wurden, waren es 2017 schon nahezu 24 000 Fälle und in den ersten sechs Monaten von 2018 bereits mehr als 41000 Fälle (Anm. Redn.; Quelle: WHO, https://bit.ly/2LGDhVC).

Regierungen dürfen sich daher nicht von falschen Propheten beeinflussen lassen! Die Stadt Wien ist hier vorbildlich und federführend, indem sie die wichtigsten Impfstoffe kostenfrei zur Verfuegung stellt!

…und der Bedarf an neuen Impfstoffen

Wir brauchen nicht weniger Impfstoffe, wir brauchen mehr und bessere Impfstoffe!

  • Wir haben immer noch keine Impfstoffe gegen: HIV, Hepatitis C, Malaria, Cytomegaloviren und
  • wir brauchen bessere Impfstoffe gegen Tuberkulose, Lungenentzündung (Pneumonie) –auch Impfstoffe gegen Krebsformen – aber auch gegen Influenza.

Influenza - mein Spezialgebiet

Die Pandemie von 1918 ist eine der best beschriebenen medizinischen Katastrophen, die in kurzer Zeit – von Ende 1918 bis kurz nach Beginn von 1919, weltweit für den Tod von 50 bis 100 Millionen Menschen verantwortlich war.

Wie auch im Fall von Pocken und Masern sind bei Erstinfektion mit verschiedenen Krankheitserregern Kinder weniger anfällig als Erwachsene. Bekommt eine immunologisch naive Person das erste Mal Masern, Mumps, oder Influenza im "höherem" Alter (d.i. von sechs Jahren aufwärts), dann kann es häufig zu einem tödlichem Ergebnis führen.

Das Influenzavirus von 1918

Zurück zum Jahr 1918. Damals hat die englische Firma Wellcome auch gleich einen Impfstoff produziert, der aus Bacillus influenzae bestand. Leider hatte dieses Bakterium, trotz des schönen Namens nichts mit Influenza zu tun und war daher vollkommen unwirksam.

Der wirkliche Erreger der 1918/19 Pandemie (weltweite Epidemie) war das Influenza Virus. Abbildung 3.

Es ist uns gelungen an der Mount Sinai Medical School in New York das ausgestorbene Virus von 1918 im Laboratorium zu rekonstruieren (Zusammenarbeit der Gruppen von Christoph Basler, Garcia Sastre's und meiner Gruppe am Mount Sinai mit Terry Tumpey am Center for Disease Control). Die Technologie, die ich in meinem Labor entwickelt habe, erlaubt es uns nicht nur ein ausgestorbenes Virus im Labor zu studieren, sondern hilft auch bessere Impfstoffe zu entwickeln.

Abbildung 3. Das H1N1-Influenzavirus im Elektronenmikroskop in mehr als 100 000 facher Vergrößerung (links). Das Glykoprotein Hemagglutinin (H1) bewirkt Andocken und Aufnahme des Virus in die Wirtszelle, das Enzym Neuraminidase (N1) die Freisetzung der in der Wirtszelle vervielfältigten Viruspartikel (Aufnahme stammt von einer meiner Studentinnen, Yi-ying Chou). Rechts: Schematischer Aufbau des Virus mit den Spikes Hemagglutinin (H, rot/rosa), Neuraminidase (N, lila) und dem kleineren Matrixprotein (M2) an der Oberfläche und dem aus acht RNA-Segmenten bestehenden Minichromosom im Inneren.

Die Außenhülle dieses Virus hat Spikes, die aus den Proteinen Hemagglutinin und Neuraminidase bestehen. Diese Spikes sind das, was unser Immunsystem sieht und was wir verwenden können, um verbesserte Impfstoffe zu machen, denn:

Influenza Viren haben nicht nur die Pandemie 1918 verursacht, sie sind in den USA auch heute noch jährlich für bis zu 50 000 Todesfälle, hunderttausende Spitalsaufenthalte und Millionen von Infektionen verantwortlich (und nicht nur dort: für Österreich sollte man die US-Zahlen durch 35 dividieren).

Influenza-Impfstoffe sind nicht optimal

Wir verfügen zwar über Influenza Impfstoffe; diese sind aber leider nicht optimal und werden auch nicht ausreichend angewandt.

In den USA gibt es drei verschiedene Varianten: 1. Inaktiviertes Virus, das intramuskulär gespritzt wird; 2. Lebendvirus, das als Aerosol in die Nase gesprüht wird; und 3. ein synthetisches (rekombinantes) Protein, das injiziert wird. Warum sind Influenza Impfstoffe nicht optimal?

  • Erstens ändern sich die Viren-Stämme von Jahr zu Jahr.
  • Zweitens gibt es vier verschiedene Evolutionslinien, das heißt, dass der Impfstoff drei bis vier Komponenten haben muss um den zirkulierenden Stämmen Rechnung zu tragen; dies macht die Produktion technisch schwierig.
  • Letztlich können ganz neue Stämme auftauchen wie im Jahre 1918 oder im Jahre 2009 und dann ist mit den heutigen Mitteln und Technologien nicht genug Zeit, um einen halbwegs effizienten Impfstoff herzustellen.

Design für einen Universal- Influenza Impfstoff

Ziel ist es

  • einen Impfstoff zu designen, der nach der Impfung eine Immunantwort induziert, die gegen alle Stämme, die jetzt zirkulieren und die in der Zukunft auftreten werden, wirksam ist und
  • dass diese schützende Immunantwort eine lange Zeit anhält, das heißt nicht nur ein Jahr sondern lebenslang.

Wir konnten zeigen, dass das Haemagglutinin nicht nur einen kugelförmigen Kopf hat, der immunodominant ist (d.i. gegen den sich die Immunantwort richtet), sondern dass dieser Kopf auch sehr tolerant gegenüber Veränderungen und Mutationen ist. Wir haben systematisch 15 Nukleotide (5 Aminosäuren) durch genetische Manipulation in das Virus eingeführt und dabei festgestellt, dass es genetisch nicht veränderbare Domänen gibt.

Indem wir Konstruktionen erzeugen, welche die Immundominanz des Kopfes des Hemagglutinins reduzieren, sodass dieser vom Immunsystem nicht erkannt wird, versuchen wir das Immunsystem auf die nicht-variablen (konservierten) Teile des Influenzavirus - das heißt im Stamm des Haemagglutinins, in der Neuraminidase und allem was sich nicht ändert - zu lenken und damit einen langzeitlichen Immunschutz gegen alle Influenzaviren zu bewirken. Abbildung 4.

Unsere Konstrukte enthalten, was wir chimaerische Hemagglutinine nennen, z.B. chimaerisches H8/1 (cH8/1). Im Tierversuch an Mäusen, Frettchen und Meerschweinchen schützen zwei Dosen chimärischen Hemagglutinins mit verschiedenen Köpfen aber denselben konservierten Domänen des Stamms gegen Influenzaviren, mit denen wir diese Versuchstiere infiziert hatten. Abbildung 4.

Abbildung 4. Ein Universal Influenza Impfstoff: Der immundominante variable Kopf des Hemagglutinin wird genetisch so verändert, dass er vom Immunsystem nicht mehr erkannt wird und die Immunantwort (Antikörper) nun gegen die konservierten Domänen des Stammes umgeleitet wird. Derartige Konstrukte haben sich in Tierversuchen bereits als wirksam erwiesen und werden in der Klinik am Menschen getestet (F. Krammer, A. Garcia-Sastre, P.Palese)

Universal Impfstoff in der klinischen Prüfung

Seit neun Monaten werden diese Konstrukte auch in der Klinik getestet. Die Bill und Melinda Gates Foundation führt Versuche am Menschen durch, welche Sicherheit und Wirksamkeit dieses neuen Impfstoffes prüfen. Der Gates Trial hat fünf Arme mit zwei Impfungen und den erforderlichen Kontrollen, alle basierend auf den chimaerischen Haemagglutinen, die wir entwickelt haben.

Ein zweiter Impfstoffversuch am Menschen wird jetzt von GSK (Glaxo Smith Kline) durchgeführt, der sich in Phase I/II mit über vierhundert Teilnehmern befindet. Es ist vielleicht eine Ironie, dass die Firma Wellcome einen wirkungslosen Impfstoff im Jahre 1919 gegen Influenza entwickelt hatte und dass jetzt die Nachfolge-Firma GSK unseren Universal Influenzaimpfstoff an Menschen prüft – hoffentlich mit besserem Erfolg!!


[1] Peter Palese, 10.05.2013: Influenza-Viren – Pandemien: sind universell wirksame Impfstoffe in Reichweite? http://scienceblog.at/influenza-viren-%E2%80%93-pandemien-sind-universell-wirksame-impfstoffe-reichweite#.


* Peter Palese hat am 2. Oktober 2018 einen gleichnamigen Vortrag in der Industriellenvereinigung in Wien gehalten und das Manuskript ScienceBlog.at zur Verfügung gestellt. Der Text wurde von uns weitestgehend unverändert beibehalten (Untertitel wurden eingefügt).


Weiterführende Links

Pocken

Arnold C. Klebs (1914): Die Variolation im achtzehnten Jahrhundert. Ein historischer Beitrag zur Immunitätsforschung. Google book: Das Buch hat das Urheberrecht überdauert und ist nun öffentlich zugänglich

J. F. Draut (1829): Historia de Insitione variolarum genuiarum, Dissertation (deutsch) . Google book: Das Buch hat das Urheberrecht überdauert und ist nun öffentlich zugänglich

Robert W. Rosner, 24.08.2017: Jan Ingenhousz, Leibarzt Maria Theresias und Entdecker der Photosynthese

Bill and Melinda Gates Foundation

Influenza (siehe auch [1]):

Zur Evolution von Pathogenen

inge Thu, 18.10.2018 - 00:07

Der gesamte afrikanische Kontinent ist die Wiege der Menschheit

Der gesamte afrikanische Kontinent ist die Wiege der Menschheit

Do, 11.10.2018 - 08:52 — Philipp Gunz Philipp GunzIcon Gehirn

Neue Fossilien und Steinwerkzeuge aus Jebel Irhoud (Marokko) belegen den Ursprung des heutigen Menschen vor etwa 300.000 Jahren in Afrika. Diese Fossilien sind rund 100.000 Jahre älter als die ältesten bislang bekannten Funde und dokumentieren wichtige Veränderungen im Aussehen und Verhalten in einer frühen evolutionären Phase des Homo sapiens. Der Anthropologe Philipp Gunz, Forschungsgruppenleiter am Max-Planck-Instituts für evolutionäre Anthropologie (Leipzig), berichtet über Forschungsergebnisse, die unser Bild von der frühen Phase der Evolution von Homo sapiens grundlegend verändern.*

In der kargen Wüstenlandschaft der Sahara zeugen fossile Knochen von einer Zeit, als hier in einer fruchtbaren Savanne steinzeitliche Jäger mit Speeren nach Gazellen, Gnus und Zebras jagten. Sowohl genetische Daten heute lebender Menschen als auch Fossilien weisen auf einen afrikanischen Ursprung des Homo sapiens hin. Lange Zeit glaubte man, dass alle heute lebenden Menschen von einer Population abstammen, die vor etwa 200.000 Jahren in Ostafrika lebte.

Bei archäologischen Ausgrabungen in Jebel Irhoud (Marokko) - Abbildung 1 - unter der Leitung von Jean-Jacques Hublin vom Max-Planck-Institut für evolutionäre Anthropologie (Leipzig) und Abdelouaded Ben-Ncer vom Nationalen Institut für Archäologie (INSAP, Rabat, Marokko) wurden jedoch deutlich ältere fossile Knochen des Homo sapiens sowie Tierknochen und Steinwerkzeuge entdeckt [1].

Abbildung 1. Grabungen in Jebel Irhoud (Marokko). Vor etwa 300.000 Jahren befand sich an dieser Stelle eine Höhle in einer fruchtbaren Savannenlandschaft. Archäologen fanden hier die versteinerten Knochen von fünf frühen Homo sapiens sowie Steinwerkzeuge und die Knochen gejagter Tiere.© Shannon McPherron, MPI EVA Leipzig (Lizenz CC-BY-SA 2.0)

Die Fundstücke sind rund 300.000 Jahre alt [2] und damit die ältesten sicher datierten fossilen Belege unserer eigenen Art – mehr als 100.000 Jahre älter als Homo sapiens-Funde in Äthiopien.

Sensationsfunde in Marokko

Schon in den 1960er-Jahren stießen Minenarbeiter in der Jebel-Irhoud-Höhle durch Zufall auf menschliche Fossilien und Steinwerkzeuge. Die Interpretation dieser Funde wurde allerdings durch eine unsichere Datierung erschwert – und Nordafrika daher jahrzehntelang in Debatten um den Ursprung unserer Spezies vernachlässigt. Als frisch berufener Direktor am Max-Planck-Institut für evolutionäre Anthropologie kehrte Jean-Jacques Hublin 2004 mit einem internationalen Team an diese Fundstelle zurück.

Die neue Ausgrabung führte zur Entdeckung weiterer Skelettreste des Homo sapiens (die Zahl der Fossilien erhöhte sich so von ursprünglich 6 auf 22), fossiler Tierknochen und Steinwerkzeuge. Die Überreste von Schädeln, Unterkiefern, Zähnen und Langknochen von mindestens fünf Individuen dokumentieren eine frühe Phase der menschlichen Evolution.

Die Steinwerkzeuge aus Jebel Irhoud wurden mit der Levallois-Technik vor allem aus hochwertigem Feuerstein hergestellt. Dieses Rohmaterial wurde über weite Strecken transportiert. Das Team um den Geochronologie-Experten Daniel Richter bestimmte das Alter erhitzter Feuersteine aus den archäologischen Fundschichten mithilfe der Thermolumineszenzmethode auf rund 300.000 Jahre.

Die Funde von Jebel Irhoud sind daher die derzeit besten Belege für die frühe Phase der Evolution des Homo sapiens in Afrika.

Evolution von Gesicht und Gehirn

Die Schädel heute lebender Menschen zeichnen sich durch eine Kombination von Merkmalen aus, die uns von unseren fossilen Vorfahren und Verwandten unterscheiden: Das Gesicht ist klein und der Hirnschädel ist rund.

Die Fossilien von Jebel Irhoud haben einen modernen Gesichtsschädel und eine moderne Form der Zähne und einen großen, aber archaisch anmutenden Gehirnschädel. Abbildung 2.

Modernste Computertomografie (micro-CT) und statistische Analysen der Schädelformen auf Basis von Hunderten von Messpunkten zeigen, dass sich der Gesichtsschädel der Jebel-Irhoud-Fossilien kaum von dem heute lebender Menschen unterscheidet. Allerdings ist der Hirnschädel der Jebel-Irhoud-Fossilien eher länglich und nicht rund wie bei heute lebenden Menschen

Abbildung 2: Der älteste Homo sapiens. Zwei Ansichten einer Computer-Rekonstruktion des ältesten bekannten Homo sapiens aus Jebel Irhoud (Marokko). Die Funde sind auf 300.000 Jahre datiert und zeigen einen modernen Gesichtsschädel, aber einen archaisch anmutenden Hirnschädel. Die Gestalt des Gehirns (blau) und möglicherweise auch die Funktion des Gehirns haben sich innerhalb der Homo sapiens-Linie weiter entwickelt.© Philipp Gunz, MPI EVA Leipzig (Lizenz CC-BY-SA 2.0)

Die Gestalt des inneren Hirnschädels lässt Rückschlüsse auf die Gestalt des Gehirns zu. Die Fossilien aus Marokko zeugen daher von einer evolutionären Veränderung der Gehirnorganisation – und damit möglicherweise auch der Gehirnfunktion – innerhalb unserer Art. Dazu passen auch die Erkenntnisse der Leipziger Genetiker vom Max-Planck-Institut für evolutionäre Anthropologie. Vergleicht man die DNA heute lebender Menschen mit der DNA von Neandertalern und Denisova-Menschen – also ausgestorbenen archaischen Menschenformen –, zeigen sich Unterschiede in Genen, die das Gehirn und das Nervensystem beeinflussen. Evolutionäre Veränderungen der Gehirngestalt stehen daher vermutlich im Zusammenhang mit genetischen Veränderungen der Organisation, Vernetzung und Entwicklung des Gehirns, die den Homo sapiens von unseren ausgestorbenen Vorfahren und Verwandten unterscheiden.

Der Mensch entwickelt sich auf dem gesamten afrikanischen Kontinent

Die neuen Forschungsergebnisse von Jebel Irhoud verändern unser Verständnis der frühen Phase der Evolution von Homo sapiens grundlegend. Die ältesten Homo sapiens-Fossilien finden sich auf dem gesamten afrikanischen Kontinent: Jebel Irhoud in Marokko (300.000 Jahre), Florisbad in Südafrika (260.000 Jahre) und Omo Kibish in Äthiopien (195.000 Jahre). Die Ähnlichkeit dieser fossilen Schädel spricht für frühe Wanderungsbewegungen innerhalb Afrikas. Lange bevor der Homo sapiens vor etwa 100.000 Jahren Afrika verließ, hatte er sich bereits in Afrika ausgebreitet.

Für eine frühe Ausbreitung innerhalb Afrikas sprechen auch die steinernen Klingen und Speerspitzen. Die Homo sapiens-Fossilien in Jebel Irhoud wurden gemeinsam mit Knochen von gejagten Tieren und Steinwerkzeugen aus der Epoche der Afrikanischen Mittleren Steinzeit gefunden. Da vergleichbare Steinwerkzeuge aus ganz Afrika dokumentiert sind, vermuten die Leipziger Forscher, dass die technologische Entwicklung der Afrikanischen Mittleren Steinzeit vor mindestens 300.000 Jahren mit der Entstehung des Homo sapiens zusammenhängt. Die Ausbreitung in ganz Afrika bezeugt also eine Veränderung der menschlichen Biologie und des Verhaltens. Die weit verstreuten Homo sapiens-Populationen waren aufgrund der Größe Afrikas und durch sich verändernde Umweltbedingungen (wie etwa der Wandel der Sahara von einer Savanne zur Wüste) oft für viele Jahrtausende nicht nur geografisch, sondern auch genetisch voneinander getrennt. Diese Komplexität spielte für unsere Evolution eine wichtige Rolle.

Der gesamte afrikanische Kontinent ist die Wiege der Menschheit.


Danksagung

Das Jebel-Irhoud-Projekt wird gemeinsam von dem marokkanischen Institut National des Sciences de lʼArchéologie et du Patrimoine und der Abteilung Humanevolution des Max-Planck-Instituts für evolutionäre Anthropologie Leipzig durchgeführt. Mein Dank gilt dem gesamten Projektteam und vor allem Jean-Jacques Hublin, Shannon McPherron und Daniel Richter für ihre Beiträge zu dieser Zusammenfassung unserer Forschungsarbeit


Literaturhinweise

[1] Hublin, J.-J.; Ben-Ncer, A.; Bailey, S. E.; Freidline, S. E.; Neubauer, S.; Skinner, M. M.; Bergmann, I.; Le Cabec, A.; Benazzi, S.; Harvati, K.; Gunz, P. New fossils from Jebel Irhoud, Morocco and the pan-African origin of Homo sapiens. Nature 546 (7657), 289–292 (2017)

[2] Richter, D.; Grün, R.; Joannes-Boyau, R.; Steele, T. E.; Amani, F.; Rué, M.; Fernandes, P.; Raynal, J.-P.; Geraads, D.; Ben-Ncer, A.; Hublin, J.-J.; McPherron, S. P. The age of the hominin fossils from Jebel Irhoud, Morocco, and the origins of the Middle Stone Age. Nature 546 (7657), 293–296 (2017)


*Der im Jahrbuch 2018 der Max-Planck Gesellschaft 2015 erschienene Artikel "Die Ersten unserer Art" https://www.mpg.de/11820357/mpi_evan_jb_2018?c=12090594 wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier unter einem aus dem Text stammenden Titel, ansonsten aber unverändert.


Weiterführende Links

Max-Planck-Institut für evolutionäre Anthropologie (Leipzig) . https://www.eva.mpg.de

Das Max-Planck-Institut für evolutionäre Anthropologie beschäftigt sich mit Fragen zur Entstehung des Menschen. Die Wissenschaftler des Instituts untersuchen dabei ganz unterschiedliche Aspekte der Menschwerdung. Sie analysieren Gene, Kulturen und kognitive Fähigkeiten von heute lebenden Menschen und vergleichen sie mit denen von Menschenaffen und bereits ausgestorbenen Menschen. Am Institut arbeiten Forscher aus verschiedenen Disziplinen eng zusammen: Genetiker sind dem Erbgut ausgestorbener Arten wie dem Neandertaler auf der Spur. Verhaltensforscher und Ökologen wiederum erforschen das Verhalten von Menschenaffen und anderen Säugetieren.

Aug in Aug mit dem Neandertaler (2017). Klaus Wilhelm https://www.mpg.de/11383679/F001_Fokus_018-025.pdf

Mutter Neandertalerin, Vater Denisovaner! (22.8.2018) https://www.mpg.de/12205753/neandertaler-denisovaner-tochter

Artikel von Philipp Gunz im ScienceBlog:

24.05.2015: Die Evolution des menschlichen Gehirns. http://scienceblog.at/die-evolution-des-menschlichen-gehirns.


 

inge Thu, 11.10.2018 - 13:21

Nobelpreis für Chemie 2018: Darwins Prinzipien im Reagenzglas oder "Gerichtete Evolution von Enzymen"

Nobelpreis für Chemie 2018: Darwins Prinzipien im Reagenzglas oder "Gerichtete Evolution von Enzymen"

Do, 04.10.2018 - 14:03 — Inge Schuster Inge SchusterIcon Chemie

Eine Revolution, die auf Evolution basiert - so kündigte Claus Gustafsson, Vorsitzender des Nobel-Komitees die bahnbrechenden Arbeiten zur "Gerichteten Evolution von Enzymen und Bindungsproteinen" an, die gestern mit dem Nobelpreis 2018 für Chemie ausgezeichnet wurden. Eine Hälfte des Preises ging an Frances H. Arnold, die mit Hilfe evolutionärer Methoden Enzyme optimiert und neu designt, sodass sie auch in der Natur noch unbekannte Reaktionen ausführen. Die andere Hälfte ging an George P. Smith und Sir Gregory P. Winter für die Methode des Phagen-Display, die von eminenter Bedeutung für die Herstellung von Biopharmaka, insbesondere von hochspezifischen Antikörpern ist. In Hinblick auf die Länge des Artikels wird im Folgenden nur über die Arbeiten von France H. Arnold berichtet.

Frances H. Arnold, aus Pittsburgh stammende US-Amerikanerin hatte ursprünglich Maschinenbau studiert, wandte sich dann aber der chemischen Verfahrenstechnik zu, worin sie 1985 an der University of Berkeley (California) promovierte. Beginnend als Postdoc am California Institute of Technology (Caltech) wurde sie zur Pionierin in der gerichteten Evolution von Enzymen; sie ist nun am Caltech Linus-Pauling-Professor für Chemieingenieurwesen, Biochemie und Bio-Ingenieurwesen. Ihre bahnbrechenden Arbeiten führen zu Enzymen mit Tausenden Male schnellerem Umsatz, zu neuen Enzymen, die in der Natur noch unbekannte Reaktionen katalysieren. Es ist gleichermaßen Grundlagenforschung und angewandte Forschung, die zur umweltfreundlichen, kostensparenden Herstellung eines sehr breiten Spektrums von Produkten führt: von Arzneimitteln bis zu Biotreibstoffen.

Die Erfolge haben Arnold (Abbildung 1) viele hochrangige Preise und Mitgliedschaften eingebracht. Besonders zu erwähnen ist der mit 1 Million € dotierte Milleniums-Technologie-Preis, den sie als erst Frau 2016 erhielt.

Abbildung 1. Frances H. Arnold um 2012. (Bild: Wikipedia, Beaverchem2. cc-by-sa-Lizenz)

Was ist gerichtete Evolution?

Seit Leben auf unserem Planeten entstanden ist, musste es sich an eine ständig verändernde Umwelt anpassen und in Konkurrenz mit anderen Lebensformen treten. Diese Anpassung erfolgte durch natürliche Evolution: Mutationen in Genen führten manchmal zu Proteinen, die besser mit der neuen Umwelt zurechtkamen und dies konnte dann in einer Selektion der betreffenden Spezies resultieren. Selektion bevorzugter Eigenschaften ist auch die Basis auf der wir Menschen über Jahrtausende Pflanzen und Haustiere für unsere Zwecke optimierten.

Seit der zweiten Hälfte des 20. Jahrhundert nimmt das Wissen über Strukturen und Funktionen von Proteinen zu und Wissenschafter sind bestrebt Proteine/Enzyme zu optimieren - für technische Anwendungen (z.B. Waschmittel) und ebenso zur Synthese von Arzneimitteln. Es ist ein ziemlich mühsames, langwieriges Unterfangen, da wir noch ziemlich weit davon entfernt sind aus punktuellen Änderungen in der Struktur auf Änderungen in den Eigenschaften schließen zu können: Jedes mutierte Gen wird isoliert in einem Mikroorganismus zur Expression gebracht, das betreffende Genprodukt dann auf Aktivität getestet, in den meisten Fällen wegen unbefriedigender Eigenschaften verworfen und anschliessend dann die nächste Genvariante getestet. Die gerichtete Evolution folgt dem natürlichen Prozess von Mutation und Selektion ist aber ungleich rascher als die konventionelle "Variante nach Variante" Vorgangsweise. Abbildung 2:

Abbildung 2. Die gerichtete Evolution von Enzymen ist ein iterativer Prozess, der so lange wiederholt wird, bis die gewünschten Eigenschaften erreicht sind (Bild: ©Johan Jarnestad/The Royal Swedish Academy of Sciences”; Lizenz: cc-by-nc)

Es beginnt damit, dass in das Gen für das zu optimierende Enzym Punktmutationen nach dem Zufallsprinzip eingefügt werden (Schritt 1; Mutationen rot markiert). Alle mutierten Gene werden dann in Bakterien zur Expression gebracht - eine ganze Bibliothek von Enzymvarianten entsteht (Schritt 2). Alle diese Varianten werden dann auf ihre Aktivität für eine bestimmte chemische Reaktion getestet (Schritt 3), diejenigen mit der höchsten Aktivität selektiert (die anderen verworfen) und in einen neuen Zyklus von Mutation und Selektion eingebracht (Schritt 4). Bereits nach einigen Zyklen können so Enzyme erhalten werden, die nun Tausend Mal schneller katalysieren als das Ausgangsenzym.

Dass diese Strategie funktioniert, konnte Arnold 1993 an Hand einer relativ kleinen Protease (Subtilisin E) demonstrieren: bereits nach vier Zyklen von Mutation und Selektion resultierte eine Form, die 256 mal schneller als das ursprüngliche arbeitete.

Enzyme der Cytochrom P450 Familie

Arnold hat in der Folge unterschiedliche Enzyme optimiert (hinsichtlich Thermostabilität, Aktivität in bestimmten Lösungsmitteln, etc.). Eine zentrale Rolle spielen Enzyme der sogenannten Cytochrom P450 Familie. Es ist dies eine riesengroße Familie an Enzymen, deren erster Vertreter bereits vor fast genau 60 Jahren entdeckt wurde. Derartige Enzyme finden sich bereits in den frühesten Lebensformen; ausgehend von einem Ur-P450 haben sie sich im Laufe der Evolution an die erstaunlichsten Lebensbedingungen angepasst und finden sich in Prokaryoten ebenso wie in praktisch allen höheren Organismen im Pilz-, Pflanzen-und Tierreich. Die Cytochrom P450 Enzyme katalysieren von Natur aus bereits eine Vielfalt an Reaktionen, die alle auf der Basis von Oxydation - in den meisten Fällen durch Einführung von reaktivem Sauerstoff in ein organisches Molekül - zu verstehen sind: es sind u.a. Hydroxylierungen aliphatischer und aromatischer C-H-Bindungen, Epoxydierungen, Desalkylierungen, Sulfoxydierungen, Nitrierungen, etc. Viele physiologischen Substanzen, wie z.B. Alkaloide, Cholesterin, Steroidhormone, Vitamin D, etc. benötigen spezifische P450-Formen für Synthese und Abbau, andere P450 Enzyme sind in den Abbau/die Entgiftung von Fremdstoffen - organischen Molekülen - involviert. Sofern sie lipophil (fettlöslich) sind und ihre Größe (Molekulargewicht) 1000 D nicht wesentlich übersteigt, werden praktisch alle Fremdstoffe aus Umwelt und Synthese über P450 Enzyme abgebaut.

Trotz ihrer einzigartigen enzymatischen Fähigkeiten konnten bis vor kurzem P450-Formen nicht in die industrielle Produktion von Substanzen eingesetzt werden. Der Grund dafür: die meisten P450-Formen sind Membranproteine und damit in wässrigem Milieu unlöslich, sie haben ungenügende Stabilität und häufig unbefriedigende Aktivität. Mit gerichteter Evolution lassen sich diese Eigenschaften nun optimieren. Die Einsatzmöglichkeiten sind Legion - um nur ein Beispiel zu nennen: mittels optimierter P40-Formen können - umweltverträglich, effizient und kostensparend - Biotreibstoffe (z.B. Isopropanol) aus kurzkettigen Alkanen produziert werden.

Neben der Optimierung vorhandener Cytochrom P450 Enzyme hat Arnold neue Fornen designt, die ungewöhnliche Reaktionen ausführen, welche in der synthetischen Chemie wohl möglich sind, jedoch nicht dem natürlichen Spektrum der P450-Formen entsprechen. Varianten der designten Form P411 (Abbildung 3) reduzieren beispielsweise Azide, führen Amingruppen ein und katalysieren andere für P450-Enzyme völlig neue Reaktionen - dabei geht alles im gewünschten Milieu mit sehr hoher Aktivität und Selektivität vor sich.

Abbildung 3. Struktur der Cytochrome P450-Variante P411: PDB 4H23 (Quelle: Proteindata Bank; Artikel: A serine-substituted P450 catalyzes highly efficient carbene transfer to olefins in vivo. Coelho PS, et al., Nat. Chem. Biol. (2013) 9 p.485-487)

Wohin geht die Reise?

Anwendungsorientiert entstehen immer mehr Enzyme mit katalytischen Fähigkeiten, die denen der klassischen synthetischen Chemie gleichwertig sind oder diese sogar übertreffen. Völlig neu sind beispielsweise Enzymvarianten eines Cytochrom c (ein Haemprotein wie P450), welche Kohlenstoff-Silicium-Bindungen knüpfen können - eine technologisch sehr wichtige Reaktion, die aber in der Natur nicht vorkommt. Das Ergebnis der gerichteten Evolution ergab ein Enzym, das 15 mal schneller arbeitete als der bislang beste Katalysator in der chemischen Synthese. Anwendungsmöglichkeiten der Reaktionsprodukte sind sehr weit, finden sich u.a. in der Produktion von Elastomeren, in der medizinischen Chemie, in bildgebenden Verfahren, u.a.

Die mittels gerichteter Evolution erhaltenen Enzyme zeichnen sich dadurch aus, dass sie innerhalb von lebenden Zellen funktionieren, für unterschiedliche Substrate, Aktivitäten und Selektivitäten optimiert werden können.Wir erleben einen Paradigmenwechsel: Favorisierte Reaktionen der synthetischen Chemie können mit der herausragenden Selektivität und Adaptierbarkeit enzymatischer Prozesse "vermählt" werden.

Tatsächlich wird Arnolds Methode der gerichteten Evolution heute bereits weltweit in sehr vielen Labors und Industrien eingesetzt. Die modifizierten Enzyme treten zunehmend an die Stelle von Prozessen der synthetischen Chemie, die zu kostspielig, langwierig und/oder kompliziert sind oder auch von solchen Prozessen, für die inadäquate Mengen fossiler Rohstoffe eingesetzt werden müssten. Oder, wie es Frances Arnold bereits 1999 ausgedrückt hat:

"My vision is of a biotechnology-based chemicals industry that makes no messes to clean up"


Weiterführende Links

2018 Nobelpreis für Chemie

TEDxUSC - Frances Arnold - Sex, Evolution, and Innovation Video 16:26 min (2012) (USC Stevens Center for Innovation cc-by-Lizenz)

Frances H. Arnold: New Enzymes by Evolution Lecture at the Molecular Frontiers Symposium at the Royal Swedish Academy of Sciences, Sweden, May 2017. Video 38:38 min.

Artikel im ScienceBlog zu verwandten Themen

inge Thu, 04.10.2018 - 14:03

Erkältungen - warum möglichweise manche Menschen häufiger davon betroffen sind

Erkältungen - warum möglichweise manche Menschen häufiger davon betroffen sind

Do, 27.09.2018 - 11:20 — Francis S.Collins

Francis S.CollinsIcon MedizinSchnupfen, Husten, Halsweh - kurz gesagt Erkältungen - sind Infektionskrankheiten der oberen Atemwege, die vor allem durch Rhinoviren aber auch durch viele andere unterschiedliche Viren hervorgerufen werden. Es sind weltweit die häufigsten Erkrankungen - nahezu alle Menschen leiden darunter mindestens 1-2mal im Jahr. Dafür, dass nicht jede Infektion zu Symptomen führt, sorgen wirksame Systeme in den Zellen, welche die Atemwege auskleiden indem sie einerseits Viren abwehren aber auch vor anderen Schädigungen (u.a. vor oxydativem Stress) schützen. Wie eine neue NIH-unterstützte Untersuchung nun zeigt, reagieren Zellen, die gleichzeitig oxydativem Stress und Viren ausgesetzt werden, weniger effizient auf die Infektion - Erkenntnisse, die erklären könnten, warum u.a. Raucher, Menschen mit Allergien oder mit anderen chronischen Defekten dazu neigen, schwerere Virusinfektionen zu bekommen. Francis Collins, NIH-Direktor und ehem. Leiter des "Human Genome Project", berichtet über diese wichtigen Ergebnisse.*

Viele Leute betrachten Erkältungen als ein Übel, das halt gelegentlich auftritt, einige Menschen scheinen davon aber viel häufiger betroffen zu sein als andere.

Warum dies so ist? Diesbezüglich haben NIH-finanzierte Forscher einige neue Indizien entdeckt. In ihrer Untersuchung haben sie heraus gefunden, dass die Zellen, die unsere Atemwege auskleiden, sehr geeignet sind den Erkältungen verursachenden Rhinoviren entgegenzuwirken. Dabei kommt es aber zu einem Kompromiss. Wenn diese Zellen damit beschäftigt sind, Gewebeschädigungen durch Zigarettenrauch, Pollen, Schadstoffe und/oder andere Reizstoffe aus der Luft abzuwehren, wird ihre Fähigkeit, solche Viren abzuwehren, signifikant reduziert [1].

Die neuen Befunde könnten den Weg zu besseren Strategien öffnen, wie man Erkältungskrankheiten sowie anderen Arten von Atemwegsinfektionen durch Nicht-Grippeviren vorbeugen könnte. Bereits kleine Fortschritte in der Prävention könnten große Auswirkungen auf die Gesundheit und Wirtschaft unserer Nation haben. Jedes Jahr gibt es in den US mehr als 500 Millionen Fälle an Erkrankten. die an Erkältungen und ähnlichen Infektionen leiden. Die Konsequenzen sind verringerte Arbeitsproduktivität, Krankheitskosten und andere Ausgaben, die insgesamt bis zu 40 Milliarden US-Dollar betragen können [2].

Infektionen mit Rhinoviren

Während des letzten Jahrzehnts stellt sich heraus, dass Infektionen mit Rhinoviren (Abbildung 1; von der Redn. eingefügt) viel häufiger erfolgen, als dass Betroffene dann tatsächlich Symptome einer Erkältung entwickeln. Dieser Befund hat das Interesse von Ellen Foxman an der Yale University School of Medicine (New Haven, CT) erweckt . Es war für sie ein Indiz, dass der Körper, insbesondere die Zellen, welche die Nasenwände auskleiden, sehr gut adaptiert sein dürften, um Viren, die Erkältungen verursachen, von uns abzuwehren.

Abbildung 1. Die Oberfläche des humanen Rhinovirus-3 PDB 1D: 1RHI. Rhinoviren, von denen man rund 160 verschiedene Arten kennt, sind kleine Viren von ca. 30 nm Durchmesser, deren Genom aus einem RNA-Einzelstrang besteht. Das Genom ist von einem sogenannten Kapsid ummantelt, das sich aus je 60 Kopien von 4 regelmäßig angeordneten Proteinen (pink, blau, braun, grün) zusammensetzt, die u.a. dem Andocken und Eindringen in die Wirtszelle dienen (Bild und Text von der Redaktion eingefügt; die Struktur stammt aus der Proteindatenbank PDB: https://www.ncbi.nlm.nih.gov/Structure/pdb/1RHI)

Könnte man diesen biologischen Prozess besser verstehen, dachte Foxman, so müsste es möglich sein, dass man Atemwegsinfektionen noch viel weniger spürbar ablaufen lassen könnte. Einen möglichen Hinweis hatte Foxman bereits. Ihre früheren Arbeiten hatten gezeigt, dass die Art und Weise wie Zellen auf Virusinfektionen reagieren, von der umgebenden Temperatur abhängt. Sie vermutete daher, dass Zellen, welche die kühleren Nasenwege auskleiden, anders funktionieren müssten als die, welche die wärmeren Atemwege innerhalb der Lungenflügel belegen.

Untersuchungen an Zellkulturen

In der Untersuchung, die nun in Cell Reports [1] veröffentlicht wurde, haben Foxman und Kollegen Zellkulturen von Epithelzellen angelegt, welche die Atemwege in der Nase und der Lunge von gesunden Spendern auskleiden. Abbildung 2 (von der Redaktion eingefügt). Sie haben diese Zellen dann mit einem Rhinovirus infiziert oder mit niedrigmolekularen Substanzen inkubiert, welche eine Virusinfektion imitieren und beobachtet, wie die Zellen darauf reagieren würden.

Abbildung 2. Der menschliche Atmungstrakt. Epithelzellen aus dem Nasenraum und den Luftwegen der Lunge wurden entnommen, Kulturen angelegt und diese dann auf ihre antivirale Reaktion und Schutz vor oxydativem Stress getestet. (Bild und Text von der Redaktion eingefügt. Das Bild i stammt von http://cancer.gov, ist gemeinfrei und wurde deutsch beschriftet.)

Was die Forscher entdeckten war, dass die antivirale Reaktion in den Nasenzellen stärker ausgeprägt war als in den Zellen der Lunge. Die aus der Lunge stammenden Zellen zeigten dagegen eine stärkere Abwehr von oxydativem Stress, der durch reaktive Sauerstoffmoleküle verursacht wurde, wie sie während des normalen Prozesses der Atmung erzeugt werden. Wie zu erwarten ist, müssen sich die Lungenzellen nicht nur gegen reaktiven Sauerstoff zur Wehr setzen, sondern auch gegen andere in der Luft vorhandene Substanzen wie beispielsweise Rauch, Pollen oder anderen Reizstoffe.

Ein Kompromiss zwischen Schutz vor Viren und vor oxydativem Stress

Diese (und weitere) Untersuchungen legen nahe, dass es im Atmungstrakt einen Kompromiss gibt zwischen der Abwehr von viralen Infektionen und dem Schutz vor anderen Arten von Gewebeschädigungen. Dies konnten die Forscher demonstrieren indem sie Zellen aus den Nasenschleimhäuten zuerst dem Rauch von Zigaretten aussetzten und sodann mit Rhinoviren in Kontakt brachten: Wie erwartet, wiesen diese Zellen nun eine größere Anfälligkeit für eine Virusinfektion auf.

Die Ergebnisse zeigen, dass die Auskleidung unserer Atemwege über wirksame Systeme zur Abwehr von Virusinfektionen und zum Schutz vor anderen Arten von Schädigungen verfügt. Allerdings funktionieren diese nicht so gut, wenn sie beiden Bedrohungen gleichzeitig ausgesetzt werden. Damit könnte diese Entdeckung eine Erklärung bieten, warum Raucher und Menschen mit Allergien oder anderen chronischen Defekten dazu neigen, schwerere Virusinfektionen zu bekommen als andere Menschen.

Man hofft nun, dass diese Erkenntnisse letztendlich zu Strategien führen werden, die natürlichen Abwehrkräfte des Körpers zu verbessern, so dass mehr Menschen auch nach dem Kontakt mit Erkältungsviren gesund bleiben. Allerdings heute gilt noch: will man Erkältungen auf ein Minimum beschränken, so ist der beste Weg sich häufig die Hände zu waschen, nicht zu rauchen und alles zu tun, um sich von den erkälteten Personen fernzuhalten.


[1] Regional differences in airway epithelial cells reveal tradeoff between defense against oxidative stress and defense against rhinovirus. Mihaylova VT, , Kong Y, Fedorova O, Sharma L, Dela Cruz CS, Pyle AM, Iwasaki A, Foxman EF. Cell Rep. 2018 Sep 11;24(11):3000-3007. (open access)

[2] The economic burden of non-influenza-related viral respiratory tract infection in the United States. Fendrick AM, Monto AS, Nightengale B, Sarnes M. Arch Intern Med. 2003 Feb 24;163(4):487-94 (open access)


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel: " T Possible Explanation for Why Some People Get More Colds" zuerst (am 18. September 2018) im NIH Director’s Blog. https://directorsblog.nih.gov/2018/09/18/possible-explanation-for-why-some-get-more-colds-than-others/#more-11294

Der Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt und geringfügig (mit Untertiteln) für den Blog adaptiert. Zur Illustration wurden zwei Abbildungen von der Redaktion eingefügt. Reprinted (and translated by ScienceBlog) with kind permission from the National Institutes of Health (NIH).


Weiterführende Links

inge Thu, 27.09.2018 - 11:20

Wer betreibt Klimamodellierung und wie vergleichbar sind die Ergebnisse?

Wer betreibt Klimamodellierung und wie vergleichbar sind die Ergebnisse?

Do, 20.09.2018 - 20:04 — Carbon Brief

Carbon BriefIcon GeowissenschaftenWeltweit gibt es mehr als zwei Dutzend wissenschaftliche Institutionen, die Klimamodelle entwickeln, die meisten davon sind in Europa und den US. Viele dieser Modelle sind für Wissenschafter frei verfügbar und werden intensiv genutzt. Um alle an den verschiedenen Modellierungszentren durchgeführten Experimente vergleichbar zu machen, wurde das Modellvergleichsprojekt - CMIP - entwickelt und laufend verfeinert. Dies der fünfte Teil einer umfassenden, leicht verständlichen Artikelserie "Q&A: How do climate models work?", die von der britischen Plattform Carbon Brief stammt (Teile 1 -4 [1, 2, 3, 4]).*

Weltweit gibt es mehr als zwei Dutzend wissenschaftliche Institutionen, die Klimamodelle entwickeln; oft baut und verfeinert jedes dieser Zentren mehrere verschiedene Modelle gleichzeitig.

Üblicherweise werden die so produzierten Modelle - ziemlich phantasielos - nach den Institutionen selbst benannt. So hat beispielsweise das Met Office Hadley Centre (der nationale meteorologische Dienst des UK ) mit "HadGEM3" eine Familie von Modellen entwickelt. Das in Princeton (US) ansässige NOAA Geophysical Fluid Dynamics Laboratory hat das Erdsystemmodell "GFDL ESM2M" geschaffen (NOOA: National Oceanic and Atmospheric Administration). Abbildung 1.

Abbildung 1. Was im Erdsystemmodell des Geophysical Fluid Dynamics Laboratory (GFDL) enthalten ist (Quelle: https://www.gfdl.noaa.gov/earth-system-model/)

In zunehmendem Maße gehen Modelle aus Kooperationen hervor

und das spiegelt sich oft in ihren Namen wider. In Großbritannien hat beispielsweise das Hadley Centre zusammen mit dem Forschungsrat für Umweltforschung (Natural Environment Research Council - NERC) das Erdsystemmodell "UKESM1" entwickelt, dessen zentrales Element das oben erwähnte HadGEM3-Modell des Met Office Hadley Centre ist.

Ein anderes Beispiel ist das Community Earth System Model (CESM), das Anfang der 1980er Jahre vom National Center for Atmospheric Research (NCAR) in den USA gestartet wurde. Wie "Community" in der Bezeichnung andeutet, ist dieses Modell das Ergebnis von Tausenden zusammenarbeitenden Wissenschaftlern (das Modell kann frei heruntergeladen und angewandt werden).

Dass es weltweit zahlreiche Modellierungszentren gibt, die in ähnlicher Weise vorgehen, ist „ein sehr wichtiger Aspekt der Klimaforschung“, sagt Dr. Chris Jones, der am Met Office Hadley Centre die Forschung zur Modellierung von Vegetation, Kohlenstoff-Kreislauf und deren Wechselwirkungen mit dem Klima leitet. Er erzählt Carbon Brief:

"Größenordnungsmäßig existieren so an die 10, 15 große globale Zentren für Klimamodellierung, die Simulationen und Ergebnisse produzieren. Indem man vergleicht, was die verschiedenen Modelle und unterschiedlichen Ansätze aussagen, kann man beurteilen, worauf man sich verlassen kann, worin sie übereinstimmen, und worauf wir weniger Verlass haben, wo sie sich widersprechen. Das leitet den Prozess der Modellentwicklung."

"Gäbe es nur ein einziges Modell oder nur ein einziges Modellierungszentrum, so hätte man von dessen Stärken und Schwachstellen viel weniger Ahnung", sagt Jones. "Und während die verschiedenen Modelle miteinander verwandt sind - zwischen den Gruppen entwickelt sich ja eine Menge an gemeinsamer Forschung und Diskussion - gehen sie normalerweise nicht so weit, dass sie dieselben Codezeilen verwenden.

Jones erklärt: "Wenn wir ein neues (Modell) -Schema entwickeln, so ist es üblich die Gleichungen dieses Schemas in der wissenschaftlichen Literatur zu publizieren, demzufolge wird es von Experten begutachtet. Es ist öffentlich verfügbar und andere Zentren können es mit dem vergleichen, was sie verwenden."

Zentren der Klimamodellierung...

Carbon Brief hat eine Karte der Klimamodellierungszentren erstellt, die zum fünften Modellvergleichsprojekt CMIP5 (Coupled Model Intercomparison Projekt 5) beigetragen haben. Abbildung 2. CMIP5 ist in den 2015 veröffentlichten Fünften Sachstandsbericht des IPCC (Intergovernmental Panel of Climate Change) eingeflossen, der den (damaligen) Wissensstand der Klimaforschung repräsentiert. (Details zu CMIP: unten und in [4])

Abbildung 2. Zentren für Klimamodellierung weltweit und in Europa. Es sind nur Zentren angeführt, die zum fünften Coupled Model Intercomparison Projekt (CMIP5) beigetragen haben. (Die im Original interaktive Karte zeigt Details zu den einzelnen Zentren: https://carbonbrief.carto.com/viz/a0465df3-64a9-42e5-8796-7cecbd64ae40/public_map)

Die meisten Modellierungszentren befinden sich in Nordamerika und Europa. Dazu ist jedoch anzumerken, dass die CMIP5-Liste kein vollständiges Verzeichnis der Modellierungszentren darstellt - insbesondere, weil sie sich auf Institutionen mit globalen Klimamodellen konzentriert. Dies bedeutet, dass die Liste keine Zentren enthält, die sich auf regionale Klimamodelle oder Wettervorhersagen konzentrieren, sagt Jones:

"Beispielsweise arbeiten wir viel mit den Brasilianern zusammen, die ihre Globalen Klimamodelle (GCMs) auf Wettervorhersagen und saisonale Vorhersagen konzentrieren. In der Vergangenheit haben sie sogar eine Version von HadGEM2 verwendet, um Daten an CMIP5 zu übermitteln. Für das kommende CMIP6 hoffen sie, das brasilianische Erdsystemmodell ("BESM") zu verwenden."

... und Verfügbarkeit der Modelle

Wieweit jedes Modellierungszentrum den Computercode öffentlich zur Verfügung stellt, ist von Institution zu Institution verschieden. Viele Modelle sind für die wissenschaftliche Gemeinschaft kostenlos erhältlich. Erforderlich dafür ist in der Regel das Unterzeichnen einer Lizenz, welche die Nutzungsbedingungen und die Verbreitung des Codes definiert.

So steht das vom Max-Planck - Institut für Meteorologie in Deutschland entwickelte "ECHAM6 GCM" im Rahmen einer Lizenzvereinbarung zur Verfügung, die besagt, dass die Nutzung seiner Software "nur für legitime wissenschaftliche Zwecke in Forschung und Lehre erlaubt" ist , aber "nicht für kommerzielle Zwecke".

Laut Institut besteht der Hauptzweck des Lizenzvertrags darin, dass es erfährt, wer die Modelle verwendet und so die Möglichkeit erhält mit den Nutzern in Kontakt zu treten. Es sagt:

"Die entwickelte MPI-M-Software muss kontrollierbar und dokumentiert bleiben. Das ist die Idee der Lizenzvereinbarung ... Ebenso wichtig ist es auch den Modellentwicklern Feedback zu geben, Fehler zu melden und Verbesserungen des Codes vorzuschlagen."

Zu weiteren Beispielen von Modellen, die unter einer Lizenz erhältlich sind, zählen: die "NCAR CESM" Modelle (bereits oben erwähnt), die "Model E GCMs" des NASA Goddard Instituts für Raumfahrtstudien und die verschiedenen Modelle des Institut Pierre Simon Laplace (IPSL) Klimamodellierungszentrums in Frankreich.

CMIP -Wie vergleichbar sind Ergebnisse an unterschiedlichen Klimamodellen?

Wenn so viele Institutionen Klimamodelle entwickeln und anwenden, besteht das Risiko, dass jede Gruppe in anderer Art und Weise an die Modellierung herangeht und so die Vergleichbarkeit ihrer Ergebnisse reduziert.

Hier kommt das Coupled Model Intercomparison Project ("CMIP") ins Spiel. CMIP ist ein Rahmenwerk für Klimamodell-Experimente, mit dem Wissenschaftler GCMs systematisch analysieren, validieren und verbessern können. "Coupled" bedeutet dabei, dass alle Klimamodelle im CMIP gekoppelte Atmosphäre-Ozean-GCMs sind. Was mit "Intercomparison" gemeint ist, erklärt Dr. Chris Jones vom Met Office:

"Die Idee zu einer Vergleichbarkeit ergab sich aus dem vor vielen Jahren üblichen Umstand, dass unterschiedliche Gruppen von Modellierern unterschiedliche Modelle hatten, diese auch in jeweils etwas anderer Weise zu erstellen pflegten und an diesen Modellen verschiedenartige numerische Experimente durchführten. Wollte man die Ergebnisse dann vergleichen, so war man nie ganz sicher, ob die Differenzen auf die unterschiedlichen Modelle oder ihr andersartiges Design zurück zu führen wären."

CMIP wurde entwickelt, um alle an verschiedenen Modellierungszentren durchgeführten Experimente an Klimamodellen vergleichbar zu machen. Seit seinen Anfängen im Jahr 1995 gab es bereits mehrere Generationen von CMIPs und jede davon wird immer ausgereifter in Bezug auf das Design der Experimente. Alle 5-6 Jahre erscheint eine neue Generation.

In den frühen Jahren haben CMIP-Experimente beispielsweise simuliert, wie sich ein jährlicher Anstiegs des atmosphärischen CO2 um 1% auf das Klima auswirkt (siehe [4]). In späteren CMIP-Experimenten wurden dann detailliertere Emissionsszenarien eingesetzt, wie es die Representative Concentration Pathways ("RCPs") sind.

Werden Modelle auf die gleiche Weise erstellt und dieselben Eingaben verwendet, ist es für die Forscher klar, dass unterschiedliche Projektionen zum Klimawandel auf Unterschiede in den Modellen selbst zurückzuführen sind. Dies ist der erste Schritt, um zu verstehen, was diese Unterschiede verursacht.

Der Output jedes Modellierungszentrums wird dann auf ein zentrales Webportal geladen und vom Program for Climate Model Diagnosis and Intercomparison (PCMDI) verwaltet. Weltweit können dann Wissenschaftler aus vielen Disziplinen dann frei darauf zugreifen. Verantwortlich für CMIP ist die Arbeitsgruppe für gekoppelte Modelle, die Teil des Weltklimaforschungsprogramms (WCRP) der Weltorganisation für Meteorologie in Genf ist. Darüber hinaus überwacht das CMIP-Panel das Design der Experimente, der Datensätze, sowie die Lösung aller Fragestellungen.

Das nächste Vergleichsprogramm: CMIP6

Die Zahl der Forscher, die auf CMIP-Daten basierende Publikationen veröffentlichen, "ist von ein paar Dutzend auf weit über tausend gewachsen", sagte die Vorsitzende des CMIP-Gremiums, Prof. Veronika Eyring, kürzlich in einem Interview mit dem Fachjournal Nature Climate Change. Und weiter: "Die Modellierungen für CMIP5 sind abgeschlossen und CMIP6 läuft jetzt an, an dem weltweit mehr als 30 Modellierungszentren beteiligt sein werden".

Neben einem zentralen Set von Modellierungsexperimenten zu Diagnose, Evaluierung und Charakterisierung des Klimas - kurz "DECK" -, wird CMIP6 auch einen Satz zusätzlicher Experimente beinhalten, um spezifische wissenschaftliche Fragen zu beantworten. Diese Fragen sind in einzelne Modellvergleichsprojekte oder "MIPs" unterteilt. Bisher wurden 21 solcher MIPs bestätigt, Eyring sagt:

"Vorschläge dazu wurden dem CMIP-Panel vorgelegt und erhielten eine Bestätigung, wenn sie 10 von der Gemeinschaft festgelegte Kriterien erfüllten, zusammengefasst sind dies: Fortschritte bei den in früheren CMIP-Phasen identifizierten Lücken, Beiträge zu den Großen Herausforderungen des Weltklimaforschungsprogramms (WCRP) und Teilnahme von mindestens acht Modellierergruppen."

Über CMIP6 gibt es eine Sonderausgabe der Zeitschrift Geoscientific Model Development mit 28 Artikeln, die das Gesamtprojekt und die spezifischen MIPs abdecken (open access, https://www.geosci-model-dev.net/special_issue590.html) .

Ein Überblick über die 21 MIPs und das experimentelle Design ist in Abbildung 3 gezeigt.

Abbildung 3. Übersicht über Bezeichnung und Inhalte der bestätigten 21MIPS im angelaufenen CMIP6 Programm (Reproduced with permission from Simpkins, 2017.)

Die Ergebnisse der CMIP6-Simulationen werden eine Grundlage für einen Großteil der Forschungsarbeiten bilden, die in den sechsten Sachstandsbericht des IPCC einfließen werden. Anzumerken ist dabei, dass CMIP völlig unabhängig vom IPCC ist.


*Der Artikel ist der Homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen (https://www.carbonbrief.org/qa-how-do-climate-models-work). Unter den Titeln"Who does climate modelling around the world? und What is CMIP? ist es die Fortsetzung einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde. Die unter einer cc-by-nc-nd 4.0 Lizenz stehenden Artikel wurden im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.

Carbon Brief - https://www.carbonbrief.org/ - ist eine britische Website, welche die neuesten Entwicklungen in den Bereichen Klimawissenschaft, Klimapolitik und Energiepolitik abdeckt. Die Seite bemüht sich um klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels von Seiten der Wissenschaft und auch der Politik zu verbessern . Im Jahr 2017 wurde Carbon Brief bei den renommierten Online Media Awards als"Best Specialist Site for Journalism" ausgezeichnet.


[1] Teil 1 (19.04.2018): Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung

[2] Teil 2 (31.05.2018): Klimamodelle: von einfachen zu hoch komplexen Modellen

[3] Teil 3 (21.06.2018): Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen

[4] Teil 4 (23.8.2018): Welche Fragen stellen Wissenschaftler an Klimamodelle , welche Experimente führen sie durch?


Weiterführende Links

Artikel im ScienceBlog

Wir haben einen eigenen Schwerpunkt Klima und Klimawandel gewidmet, der aktuell 29 Artikel enthält.

inge Thu, 20.09.2018 - 20:04

Zielgerichtete Krebstherapien für passende Patienten: Zwei neue Tools

Zielgerichtete Krebstherapien für passende Patienten: Zwei neue Tools

Do, 13.09.2018 - 11:18 — Ricki Lewis

Ricki LewisIcon MedizinEine Choreografie von Mutationsereignissen, treibt Krebszellen dazu invasiv zu werden und Metastasen zu bilden Das verändert die Biologie in einer Weise, dass die "abtrünnigen" Zellen nun resistent gegen Behandlungen werden. Während die traditionellen Ansätze von Chemotherapie und Strahlung - "Ausschneiden und Ausbrennen" - Zellen angreifen, die sich schnell teilen, greifen zielgerichtete Behandlungen veränderte Proteine an, die präzise genetische Veränderungen in Tumorzellen widerspiegeln. Es sind dies somatische Mutationen, d.i. Mutationen nur in den betroffenen Zellen, nicht aber ererbte Mutationen, die in allen Zellen eines Patienten vorhanden sind.

Zwei neue Veröffentlichungen stellen nun Tools vor, mit denen man Patienten besser an zielgerichtete Behandlungen oder Immuntherapien anpassen kann und diese basieren auf der Interpretation von Mutationen, die der Initiierung und Ausbreitung eines Tumors zugrunde liegen. Bei einem der Tools - Cerebro genannt -geht es um maschinelles Lernen, beim anderen Tool gibt es eine Skala auf der Ärzte die Evidenz, dass eine bestimmte zielgerichtete Behandlung gegen einen Tumor mit spezifischen Mutationen wirkt, ranken. Die Genetikerin Ricki Lewis berichtet darüber.*

Eine kurze Geschichte der zielgerichteten Krebsmedikamente...

Als meine Mutter vor 30 Jahren an Brustkrebs erkrankte, erhielt sie eine brutale und sinnlose Tortur. Entsprechend einem Vorgehen "one size fits all - eine Größe passt für alle" und "töte alle teilungsfähigen Zellen" litt sie unter einer Therapie mit Standard-Chemotherapeutika, gefolgt von fünf Jahre langer Einnahme von Tamoxifen. Abbildung 1 zeigt eine Brustkrebszelle.

Abbildung 1. Fast ein Gemälde - eine Brustkrebszelle (NHGRI)

Tamoxifen

war damals bereits so etwas wie ein Präzisionsansatz: es blockierte die im Übermaß auf ihren Krebszellen vorhandenen Östrogenrezeptoren, welche das Hormon ansonsten befähigten, den Zellzyklus zu starten. Der Nachweis zusätzlicher Östrogen- und Progesteronrezeptoren, die bei allen Brusttumoren durchgeführt werden, verwendet allerdings Immunhistochemie, nicht Gentests. Meine Mutter tat, was ihre Ärzte diktierten. Die Fernsehwerbung bombardierte damals Krebspatienten nicht mit den Details zu Taxol, Cisplatin oder Adriamycin.

Herceptin

In den 1990er Jahren kam dann Herceptin auf. Dies ist ein Antikörper gegen einen anderen Rezeptor - HER2 -, der auf den Zellen von 25 bis 30 Prozent der Brusttumoren besonders häufig vorkommt. Herceptin verhindert die Bindung von Molekülen an den Rezeptor für den humanen epidermalen Wachstumsfaktor ("HER"), welche das Signal für die Zellteilung auslösen. Auch normale Zellen besitzen bis zu 100 000 solcher Rezeptoren, Krebszellen dagegen 1 bis 2 Millionen.

Gleevec

Mit Gleevec, das auch ein Signal zur Zellteilung blockiert, trat erstmals ein erstaunlich zielgerichtetes Krebsmedikament auf den Plan. Das New England Journal of Medicine vom 5. April 2001 berichtete, dass 53 von 54 Patienten mit chronischer myeloischer Leukämie darauf ansprachen. Heute wird Gleevec auch zur Behandlung verschiedener anderer Krebsarten eingesetzt, ein früher Hinweis für den Paradigmenwechsel Krebs auf Basis der Mutation und nicht der Lokalisierung zu bekämpfen.

Heute testen Tumortyp-unabhängige Untersuchungen ("Basket Studies") neue Medikamente gegen Krebsarten, die verschiedene Körperteile betreffen, aber die gleichen Mutationen aufweisen. Die Liste der gezielten Therapien wächst. Abbildung 2.

Abbildung 2. Tumoren in verschiedenen Organen können dieselben Mutationen aufweisen. (Jonathan Bailey, NHGRI)

Im Jahr 2017 kam die FDA-Zulassung für Zelboraf und Tafinlar. Es sind Medikamente gegen metastasierendes Melanom, die auf eine Mutation (V600E) im B-RAF-Gen abzielen, dessen Proteinprodukt wiederum Teil eines Signalwegs ist, der die Zellteilung beschleunigt.

Keytruda und Opdivo, ebenfalls vor kurzem zugelassen, arbeiten auf andere Weise. Es sind Antikörper, die über eine "Immun Checkpoint Blockade" Moleküle hemmen, welche bei manchen Krebsarten die Immunantwort ausschalten. Die Zielstruktur von Keytruda und Opdivo ist ein Protein - PD-L1 -, das normalerweise T-Zellen abschaltet, die eine Immunantwort auslösen. Opdivo behandelt 12 Krebsarten in Kombination mit anderen Behandlungen oder als letztes Mittel; Keytruda ist derzeit nur für nicht-kleinzelligen Lungenkrebs zugelassen.

...und ärgerliche Verbraucherwerbung

Keytruda und Opdivo sind in den US durch ihre ärgerliche TV-Werbung bekannt. So zeigt ein älterer Herr mit einer schönen Frau an seiner Seite auf einen Wolkenkratzer. Opdivo gab ihm "eine Chance, länger zu leben!" Dass "länger leben" rund 3 Monate bedeutete, hatte der Hersteller Bristol-Myers Squibb zunächst weggelassen und erntete dafür heftige Kritik ; jetzt steht die Information im Kleingedruckten. Keytruda erging es besser als Opdivo: man hatte die klinische Studie auf Patienten beschränkt, bei denen mehr als 50% ihrer Krebszellen übermäßig hohes PD-L1 aufwiesen. Das ist ein sehr wichtiger Punkt: Werden für klinische Studien die passenden Patienten ausgewählt, so beeinflusst dies die beobachtete Wirksamkeit.

In jüngerer Zeit wendet sich die Verbraucherwerbung mit ihrer "strahlenden-, glücklichen-Menschen-Taktik" an die Behandlung von metastasierendem Brustkrebs - konkret mit Verzenio von Eli Lilly, das 2017 von der FDA zugelassen wurde: Eine Mutter sieht ihrer jungen Tochter beim Tanzen zu, zwei Freunde backen Kuchen, eine Familie bläst Seifenblasen in der Nähe des Gartens - weit und breit sind aber weder ein Strahlungsmarker noch ein Chemo-Port zu sehen. Das Kleingedruckte gibt an, dass mit Verzenio die Progression verzögert ist, aber noch kein Überlebensvorteil nachgewiesen wurde. Mit ähnlich reizvollen Szenarien wird auch für Pfizers Ibrance (gegen fortgeschrittenen Brustkrebs) geworben. Nur bei Kisqali von Novartis werden tatsächlich echte Patientinnen gefragt, wie sie sich fühlen. "Ich habe Angst", sagt eine Frau, während eine andere traurig ist. "Wenn Sie herausfinden, dass Sie an metastasierendem Brustkrebs leiden, ist dies eine Qual." Die drei Brustkrebs-Medikamente sind sogenannte CDK-Hemmer, die einen Teil des Zellteilungszyklus blockieren.

Über ein einzelnen Krebsgens hinaus

Opdivo hat eine Ansprechrate von 30%. Das ist für ein Krebsmedikament akzeptabel. Bedenkt man, dass Opdivo ein defininiertes Zielmolekül angreift, jedoch mehrere genetische Wege den Krebs treiben, so ist es besser biologische Übergänge ins Auge zu fassen, die zur Behandlungsresistenz führen. Und eine umfassendere genetische Analyse ist jetzt machbar - die Kosten für Multi-Gen-Tests und Exom- und Genomsequenzierung sind ja stark zurückgegangen.

"Hunderte Laboratorien in den Vereinigten Staaten bieten NGS- (Next Generation Sequencing) Krebs-Profiling an, geben jährlich Zehntausende von Berichten heraus", schreiben Derrick Wood (Johns Hopkins University School of Medicine) und Kollegen in einem neuen Artikel im Journal Science Translational Medicine. Sie weisen darauf hin, dass diese Analysen zwar den "CLIA" -Regeln (Clinical Laboratory Improvement Amendments) entsprechen, das heißt, sie erkennen, worauf sie testen, aber sie sind noch nicht von der FDA als diagnostische Tests für die Zuordnung von Krebsmutationsprofilen zu bestimmten Medikamenten zugelassen.

Dennoch werden die Daten aus all diesen Tests letztlich zu einem wesentlich zielgerichteteren Ansatz in der Krebstherapie führen. Ein Großteil der Daten wird von der American Association for Cancer Research und vom Cancer Genome Atlas zusammen getragen.

Eine Herausforderung für die Bioinformatik

"Bei Krebs wurde das Genom in die Hölle geschossen", sagte mir einst ein prominenter Forscher. Mit Hunderten von Onkogenen und Tumorsuppressor-Genen, von denen jedes auf unzählige Arten mutieren kann, mit Stücken von Chromosomen, die abgetrennt werden, während andere sich wiederholen, wiederholen, wiederholen... So wird ein Anpassen des "genomischen Profils" einer vorherrschenden Krebszelle - ein Tumor kann aus genetisch unterschiedlichen Zellen bestehen - an ein spezifisch zielgerichtetes Medikament zu einem Problem der Bioinformatik.

Genug Daten analysieren, um den Mutations-Weizen von der Spreu genau zu trennen - um dies zu erreichen, wandte sich das Team von der John Hopkins Universität dem maschinellen Lernen zu und erfand Cerebro.

Besser als ein Gehirn

Beim maschinellen Lernen werden Rechner auf Basis realer Daten trainiert, um Muster in Datensätzen zu identifizieren, die für ein menschliches Gehirn zu komplex oder zu subtil sind.

Cerebro wendet den Random-Forest-Algorithmus an, der zunächst viele Zufalls-Entscheidungsbäume generiert, basierend auf dem, was bereits vorhanden ist (echte Daten zu Mutationen und zu klinischem Ansprechen), sowie "in silico" -Mutationen, die - basierend auf der DNA-Sequenz eines Gens - theoretisch möglich sind. Vorbereitet durch den Trainingsdatensatz leitet Cerebro dann ab, welche Mutationen in neuen Datensätzen durch bestimmte Medikamente verwundbar sein werden.

Je mehr Daten für das Training verwendet werden, desto größer wird die Vorhersagekraft. Angesichts der riesigen Datensätze von all den Menschen, deren Krebsgenome untersucht wurden, ist die Zeitnun reif für diesen Ansatz.

Cerebro hat an 30.000 Mutationen und 2 Millionen fehlerhaften Genvarianten trainiert, welche das medikamentöse Ansprechen tatsächlich nicht vorhersagten. Es kam heraus, dass Zellen eines einzelnen Tumors im Durchschnitt 267 somatische Mutationen und Veränderungen auf Chromosomenebene aufweisen (Range 1 - 5.871). Krebs ist ein Wechselbalg, die Zellen unterscheiden sich genetisch auch innerhalb desselben Tumors.

Nach der Validierung an großen Datensätzen, wie solchen aus dem Cancer Genome Atlas, übertraf Cerebro menschliche Gehirne im Anpassen neuer Patienten an zielgerichtete Medikamente. Cerebro berücksichtigte nicht nur das, was bekannterweise existiert, sondern auch das, was möglich wird: so folgert Cerebro, wie eine Mutation die Konformation eines Proteins verändert und wie sich diese Veränderung auf den damit verbundenen biochemischen Weg von Karzinogenese, Invasion oder Metastasierung auswirkt. Cerebro war in beiden Aspekten genauer. Zum Beispiel identifizierte das Tool bei einer Gruppe von Patienten mit nicht-kleinzelligem Lungenkrebs eine geringere Zahl an relevanten Mutationen als die Standardtechniken, fand jedoch mehr relevante Mutationen bei Patienten mit metastasiertem Melanom.

In der Zwischenzeit…

Bis maschinelles Lernen soweit ausgereift ist, dass Krebspatienten schnell an eine optimale zielgerichtete Behandlung angepasst werden können, führt ein weiterer neuer Artikel, der in Annals of Oncology veröffentlicht wurde, ein anderes Tool ein. Es ist eine Skala, welche die zielgerichteten Medikamente rankt und abgekürzt mit ESCAT bezeichnet wird (ESMO (European Society for Medical Oncology) Scale for Clinical Actionability of Molecular Targets).

Fabrice André, der die Skala entwarf und Onkologe (am Gustave Roussy-Krebs-Center in Villejuif, Frankreich) ist, erklärt: "Ärzte erhalten zunehmende Mengen an Information über die genetische Zusammensetzung des Tumors jedes Patienten, es kann aber schwierig sein dies zu interpretieren, um optimale Behandlungsmöglichkeiten auszuwählen. Die neue Skala wird uns dabei helfen, zwischen Veränderungen in der Tumor-DNA zu unterscheiden, die für Entscheidungen über gezielte Medikamente oder den Zugang zu klinischen Studien relevant sind, und solche, die es nicht sind."

Basierend auf den Mutationen des Tumors (Abbildung 3) sieht ESCAT sechs Stufen klinischer Evidenz vor, um eine Auswahl von Medikamenten zu treffen:

  • >Stufe 1 = "Bereit für den Einsatz bei routinemäßigen klinischen Entscheidungen" basierend auf einem klaren Überlebensvorteil, wie bei Herceptin und Keytruda.
  • Stufe II = "Zu prüfende Ziele - definieren wahrscheinlich eine Patientenpopulation, die von einem zielgerichteten Medikament profitiert, zusätzliche Daten werden aber noch benötigt." (Klinische Verbesserung, aber noch keine Überlebensdaten vorhanden.)
  • Stufe III = "Klinischer Nutzen, der zuvor bei anderen Tumorarten oder ähnlichen molekularen Zielen nachgewiesen wurde".
  • Stufe IV = "präklinischer Nachweis der Wirksamkeit " (in menschlichen Zellen oder Tiermodellen)
  • Stufe V = "Evidenz, die ein Co-Targeting unterstützt" (ein zusätzliches Zielmolekül wird benötigt)
  • Stufe X = "Fehlende Evidenz der Wirkung"

Stufe-I-Mutationen bestimmen die Auswahl der Medikamente.

Die Skala wird es Onkologen auch ermöglichen, sinnvolle Gespräche mit Patienten zu führen, die verzweifelt alles versuchen wollen. "ESCAT wird Ordnung in den aktuellen Mutationsanalyse-Dschungel bringen, damit wir alle die gleiche Sprache sprechen, um Mutationen zu klassifizieren und Prioritäten zu setzen, wie wir sie zur Verbesserung der Patientenversorgung einsetzen", schließt André.

Abbildung 3. Mutationen, die zur Tumorbildung führen

Zusatz

In Zusammenhang mit Krebs verwende ich nie das Wort "Heilung", allerdings "kein Hinweis auf eine Krankheit" scheint zu vorsichtig. Ich hoffe, dass Patienten, die heute zielgerichtete Medikamente nehmen, zusammen mit häufigen Tests zur Identifizierung neuer Mutationen in ihren Krebszellen, eine zukünftige Enzyklopädie des Wissens zur Verfügung stellen, welche die Auswahl von Medikamenten erleichtert, um eine Progression zu verhindern, das Überleben zu verlängern oder sogar einen normalen Zellzyklus wiederherzustellen.


*Der Artikel ist erstmals am 6. September 2018 in PLOS Blogs - DNA Science Blog unter dem Titel " Matching Cancer Patients to Targeted Drugs: Two New Tools " erschienen (https://blogs.plos.org/dnascience/2018/09/06/matching-cancer-patients-to-targeted-drugs-two-new-tools/ und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich den englischen Fassungen folgen.


Weiterführende Links

Zu maschinellem Lernen

Bessere Medizin dank Machine Learning und künstlicher Intelligenz (KI). Dr. Marco Schmidt (2018) Video 14:01 min. https://www.youtube.com/watch?v=ufCP7dnBrWs

Künstliche Intelligenz und maschinelles Lernen: Eine Prognose(2018). Video 9:14 min. Prof. Peter Buxmann (TU Darmstadt) .hr info. https://www.youtube.com/watch?v=LWcMEDjM-6A

Zu ESCAT

Mateo et al., (21.8.2018): A framework to rank genomic alterations as targets for cancer precision medicine: the ESMO Scale for Clinical Actionability of molecular Targets (ESCAT). open access. https://academic.oup.com/annonc/advance-article/doi/10.1093/annonc/mdy263/5076792

Zu Herceptin Einen ausführlichen Artikel über Herceptin gibt es von Ricky Lewis im Scientist (April 2001): Herceptin Earns Recognition in Breast Cancer Arsenal. https://www.the-scientist.com/news/herceptin-earns-recognition-in-breast-cancer-arsenal-54751

Artikel zu ähnlichen Themen im ScienceBlog

inge Thu, 13.09.2018 - 11:18

Freund und Feind - Die Sonne auf unserer Haut

Freund und Feind - Die Sonne auf unserer Haut

Do, 06.09.2018 - 13:13 — Inge Schuster

Inge SchusterIcon MedizinLicht aus dem UV-Bereich des Sonnenspektrums löst in den Schichten der Haut eine Vielzahl und Vielfalt (photo)chemischer Reaktionen aus, die überaus negative aber auch stark positive Auswirkungen auf unsere Gesundheit und unser Wohlbefinden haben. Wie Strahlung aus dem UVA- und UVB-Bereich mit welchen Haustrukturen interagiert, ist hier an Hand einiger repräsentativer Beispiele beschrieben. Welche Maßnahmen die Haut zum Schutz vor den UV-Strahlen entwickelt hat - von Radikalfängern, Pigmentierung zu Reparatursystemen und morphologischen Anpassungen - soll in einem nachfolgenden Artikel aufgezeigt werden.

Die Haut prägt unser Aussehen und (zum Teil) unsere Persönlichkeit und ist mit rund 16 % des Körpergewichts unser größtes Organ. Häufig wird sie bloß als eine sehr effiziente Barriere gegen eine oft feindliche Umwelt angesehen, bietet sie doch Schutz vor vielen Gefahren: vor physikalischen und chemischen Angriffen, vor dem Austrocknen des Organismus oder dem Eindringen von Fremdstoffen und Mikroorganismen. Der Komplexität der Haut in ihrem Aufbau, ihrer Dynamik und ihren Funktionen wird man sich erst seit rund vierzig Jahren mehr und mehr bewußt. Tatsächlich ist die Haut ein stoffwechselaktives, neuro-immuno-endokrines Organ, ein Sinnesorgan, das unterschiedlichste Informationen aus der Umwelt verarbeitet, Schäden abwehrt und repariert und über Signale mit dem Körperinneren kommuniziert.

Sensor für UV-Licht

Eine besonders wichtige Rolle für das Sinnesorgan Haut spielt das Licht der Sonne und hier insbesondere die Strahlung aus dem UV-Bereich des Sonnenspektrums, d.i. Licht von 200 bis 400 nm Wellenlänge. UV-Photonen lösen in den Schichten der Haut eine Vielzahl und Vielfalt (photo)chemischer Reaktionen aus, die überaus negative aber auch stark positive Konsequenzen für Gesundheit und Wohlbefinden nach sich ziehen.

Die kürzestwellige und damit energiereichste Strahlung (UVC) spielt allerdings keine Rolle, da sie bereits in der Stratosphäre durch Ozon (O3)völlig absorbiert wird. Dies ist auch für den Großteil der längerwelligen UVB-Strahlen der Fall. So gelangt nur ein kleinerer Teil der UVB Strahlung- zwischen 5 - 10 % - auf die Erdoberfläche - wie viel ankommt hängt u.a. von der geographischen Lage, der Jahreszeit, der Höhe, der Wetterlage, etc. ab. Die energieärmere langwellige UVA-Strahlung trifft dagegen praktisch ungefiltert auf uns. Abbildung 1.

UV-Strahlung, die auf die Haut fällt, dringt abhängig von der Wellenlänge - d.i. vom Energiegehalt - in diese unterschiedlich tief ein:

UVB-Photonen werden bereits in der Epidermis, die bis in eine Tiefe von rund 0,15 mm reicht, vollständig absorbiert. Die meiste Strahlung wird bereits in der obersten Schichte, dem sogenannten Stratum Corneum, abgefangen - einer Schichte, die aus toten verhornten,in einen "Mörtel" aus Lipiden (Fettsäuren, Ceramiden und Cholesterin) eingebetteten Keratinozyten besteht und eine weitgehend undurchdringliche Barriere zur Außenwelt bildet.Graduell reduziert durchdringen UVB-Strahlen die darunter liegenden Schichten differenzierender Keratinozyten und erreichen auch noch die proliferierenden Zellen (Stammzellen) der Basalschicht. Zwischen den basalen Epithelzellen eingesprengt finden sich dendritischeZellen: Melanozyten und Langerhanszellen - Immunzellen, die auf mikrobielle und andere Antigene aus der Umwelt reagieren. (Zur Architektur der Haut: siehe [1]).

UVA-Strahlen gelangen tiefer, auch noch in die unter der Epidermis liegende Dermis ("Lederhaut"), eine bis zu 3 mm dicke Schicht Bindegewebe. Abbildung 1.

Abbildung 1. Elektromagnetisches Spektrum der Sonnenstrahlung (oben). Die auf die Haut treffende UV-Strahlung besteht aus UVA (90 - 95 %) und UVB (5 - 10 %) Strahlen (unten). Die kürzestwelligen UVC-Strahlen und ein Großteil der UVB-Strahlen werden in der Atmosphäre absorbiert. Während UVB-Strahlen vollständig in der Epidermis absorbiert werden, reichen die längerwelligen UVA-Strahlen bis in die Dermis. (Quelle: oben Wikimedia Commons file Sonne Strahlungsintensitaet.svg; cc-by-sa. Unten modifiziert nach J. D'Orazio et al., Int. J. Mol. Sci. 2013, 14, 12222-12248; open access, cc-by-3.0)

Die Dermis ist heterogen aufgebaut. UVA-Strahlen treffen hier auf verschiedene Zelltypen - vor allem auf Fibroblasten, die Produzenten der gelartigen extrazellulären Matrix, der Kollagenfasern und elastischen Fasern sind, welche unsere Haut stützen und ihr Elastizität verleihen. Dazu kommt ein breites Spektrum an (patrouillierenden) Zellen des Immunsystems. Weiters finden sich Blut- und Lymphkapillaren, welche die gefäßfreie Epidermis und die Dermis versorgen und entsorgen, Zellen der Haarfollikel, der Drüsen (Talg, Schweißdrüsen) und Nervenenden (Thermorezeptoren, Mechanorezeptoren).

Was bewirkt UV-LIcht in der Haut?

Eine Vielzahl unterschiedlicher Moleküle in den Zellen und in extrazellulären Bereichen der Haut enthält Strukturen - sogenannte Chromophore -, die Licht im Bereich der UV-Strahlung absorbieren. Im UVB-Bereich sind das beispielsweise die Nukleobasen (Purine- und Pyrimidine) - essentielle Bausteine, deren Basenpaarung und Abfolge die Erbinformation, den genetischen Code, in unserer DNA festlegen -, aber auch Aminosäuren mit einem aromatischen Rest - Tyrosin, Tryptophan, Phenylalanin und Histidin. Abbildung 2.

Abbildung 2. Absorptionsspektren essentieller Bausteine von Nukleinsäuren und Proteinen liegen im Bereich der UVB-Strahlung. (Plot: log Absorption vs Wellenlänge). Für die Nukleobasen repräsentativ stehen das Purin Adenin und das Pyrimidin Cytosin (hier nicht gezeigt: Thymin, das ein etwa doppelt so hohes Absorptionsmaximum aufweist).Die Absorption der Aminosäure Tryptophan (nicht gezeigt) ist rund 5mal höher als von Tyrosin. (Quelle:modifiziert nach Internet Archive: Cytology (1961), p.239; https://archive.org/details/cytology00wils.)

Die energiereichen UV-Photonen regen die Moleküle an und führen in Folge zu einer breiten Palette an chemischen Reaktionen, die positive aber auch negative Auswirkungen für die Haut selbst und auch den ganzen Organismus haben können.

Auswirkungen von UVB-Photonen auf Nukleinsäuren,…

und hier insbesondere auf die Nukleobasen (Purine- und Pyrimidine) der DNA, wurden auf Grund ihrer schädigenden Effekte bis jetzt am intensivsten untersucht. Die Absorption von UVB verursacht die Bildung charakteristischer Photoprodukte (UVB-Signaturen). In der Hauptsache reagieren benachbarte Pyrimidinbasen (Thymin und Cytosin) an einem Strang zu Dimeren und können daher nicht mehr Paarungen mit den komplementären Partnern am anderen Strang (Adenin und Guanin) eingehen. Abbildung 3.

Abbildung 3.UVB-Photonen erzeugen u.a. Dimere aus benachbarten Pyrimidinen (hier Thymin in gelb, das mit einem Adenin -grün - am anderen Strang paart) und brechen damit die Basenpaarungen der Doppelhelix auf. Ohne entsprechende Reparaturmechanismen können Gene nicht mehr korrekt abgelesen werden. (Bild links: NASA/David Herring,Bild rechts:chem.libretexts.org https://bit.ly/2MNUeCU; beide Quellen unter cc-by Lizenz)

UVB-Licht erzeugt aber auch zahlreiche weitere Läsionen in den Nukleobasen, die potentiell mutagen sind und - wenn die Zellen nicht über ausreichende Reparaturfunktionen verfügen - Hautkrebs verursachen können. Bereits normale, morphologisch unauffällige Haut hat - je nach Länge der Exposition und Hauttyp - mehr Mutationen akkumuliert als man in verschiedenen Tumoren - Brust, Lunge und Leber - findet. In Hauttumoren ist dann die Dichte solcher Mutationen noch um ein Vielfaches höher; beispielsweise kann die DNA einer einzigen Basaliomzelle an die 500 000 Mutationen aufweisen.

Hautkrebs gehört zu den häufigsten Krebserkrankungen: am sogenannten "weißen" Hautkrebs (Basaliom und Plattenepithelkarzinom), der von geschädigten Keratinozyten in der Basalschichte der Epidermis ausgeht und erfolgreich behandelbar ist, erkranken in Österreich jährlich rund 20 000 bis 30 000 zumeist ältere Menschen. Seltener, aber wesentlich gefährlicher ist das Melanom, das seinen Ursprung in den Melanozyten hat (Statistik Austria 2018: gibt für 2015 rund 1700 Fälle an).

…auf Aminosäuren mit einem aromatischen Rest…

Tyrosin, Tryptophan, Phenylalanin und Histidin werden ebenfalls durch UVB angeregt. Anders als im Fall geschädigter Nukleobasen entstehen hier auch physiologisch benötigte Photoprodukte.

Als Beispiel soll hier die vor kurzem entdeckte Dimerisierung von Tryptophan durch UV-Licht zu einem FICZ (6-Formylindolo(3,2-b)carbazole) genannten Produkt beschrieben werden. Abbildung 4.

FICZ ist offensichtlich ein lang gesuchter, überaus potenter endogener Agonist des Transkriptionsfaktors Arylhydrocarbon-Rezeptor (AHR), der massiv in der Epidermis exprimiert ist. Bereits in äußerst niedrigen Konzentrationen aktiviert FICZ den AHR und dies führt zur Expression von zahlreichen, für die Intaktheit und Funktion der Haut wichtigen Genen. Abbildung 4.

Abbildung 4. Aus 2 Molekülen Tryptophan entsteht durch UV-Licht der endogene Ligand des Arylhydrocarbon Rezeptors (AHR): FICZ (6-Formylindolo(3,2-b)carbazole). Der FICZ-aktivierte Rezeptor reguliert die Expression von Genen, die für Schutz und Funktion der Haut wichtig sind.

Es sind dies Gene, die u.a. in der Regulierung der Homöostase von Stammzellen eine Rolle spielen, in der Modulierung der Immunantwort u.a. eine Balance zwischen Abwehr von Pathogenen und Unterdrückung einer schädigenden Entzündung herstellen und vor allem auch effizienten Schutz vor Fremdstoffen bieten. Letzteres geschieht durch die AHR-induzierte Expression von Enzymen (vor allem aus der CYP1-Familie), die insbesondere planare aromatische Kohlenwasserstoffe aus Umwelt und Industrie abbauen und dadurch (zumeist) "entgiften". Substrate dieser Enzyme sind aber auch endogene Verbindungen wie beispielsweise mehrfach ungesättigte Fettsäuren (u.a. Arachidonsäure) aus denen (patho)physiologische Signalmoleküle entstehen. Auch das Hormon Melatonin, das in der Haut (ebenfalls aus Tryptophan) synthetisiert wird und dort über Rezeptoren wirkt, ist Substrat dieser Enzyme, verliert dabei seine hormonelle Aktivität und fungiert nun als effizienter Fänger von Radikalen.

…aber auch viele andere chemische Strukturen,

beispielsweise Intermediärprodukte in der Synthese des Cholesterins, werden durch UVB-Licht angeregt: gut untersucht ist hier die Aktivierung der direkten Vorstufe des Cholesterins zu Vitamin D, das in zwei Stufen (auch in der Haut) zum aktiven Hormon umgewandelt wird (Synthese und Funktion sind ausführlich beschrieben in [2]).

UVA-Photonen interagieren

im Gegensatz zu den UVB-Photonen vorwiegend indirekt: Es werden sogenannte Photosensibilisatoren angeregt, d.i. Molekülstrukturen, welche die absorbierte Lichtenergie auf ein weiteres Molekül übertragen, das in Folge reaktiven Sauerstoff (ROS; siehe unten) generiert. Welche Moleküle als derartige Photosensibilisatoren für UVA-Photonen fungieren, ist nur ansatzweise bekannt; beschrieben sind einige Kandidaten wie Melanin, Vitamin E, das Sebum-Lipid Squalen und Porphyrine. Auch das oben erwähnte, durch UVB entstandene FICZ dürfte neben der Funktion als AHR-Ligand auch durch UVA angeregt werden.

Reaktiver Sauerstoff - das Superoxid-Radikal, Wasserstoffperoxid und das Hydroxyl-Radikal - reagiert sofort mit beliebigen Molekülen der Umgebung und kann diese durch Oxydation zerstören - ob es sich um die Stoffklassen der Nukleinsäuren, Proteine, Lipide und Kohlehydrate handelt, deren Struktur und Funktion durch ROS ruiniert werden kann, um endogene Stoffwechselprodukte oder auch um Fremdstoffe, die an der Oberfläche der Haut oder in darunterliegenden Schichten liegen. Abbildung 5. 

Abbildung 5. Reaktiver Sauerstoff als Folge von UVA-Strahlung kann Schädigungen in allen Molekülen und Strukturen hervorrufen. Sind ausreichend anti-oxidative Moleküle und Enzyme vorhanden können die Schäden klein gehalten werden. (Bild: modifiziert nach J. D'Orazio et al., Int. J. Mol. Sci. 2013, 14, 12222-12248; open access, cc-by-3.0)

Eine bekannte Auswirkung der UVA-Strahlung betrifft das Bindegewebe in der Dermis. Schäden an dem Collagen-Netzwerk und den elastischen Fasern führen zu einer stetigen Reduktion der Hautspannung und Elastizität,zur Bildung von Falten und frühzeitigen Alterung der Haut.

Dass nicht nur UVB-Strahlen als Cancerogene für die Haut einzustufen sind, sondern auch UVA Strahlen , die über lange Zeit als unschädlich angesehen wurden, ist nun hinlänglich nachgewiesen: UVB-Photonen indem sie direkt Mutationen in der DNA generieren, UVA-Photonen indirekt durch reaktiven Sauerstoff, der die Basen oxydiert und die korrekte Basenpaarung verhindert.

Besitzen Zellen in ausreichendem Maße "Radikalfänger", anti-oxidative Moleküle wie z.B. Glutathion und Enzyme, welche die reaktiven Spezies inaktivieren - u.a. Superoxid-Dismutase , Katalase und Glutathion-Peroxidase - so können Schäden verhindert werden. Abbildung 5.

Welche Maßnahmen die Haut zum Schutz vor den UV-Strahlen entwickelt hat - von Radikalfängern, Pigmentierung zu Reparatursystemen und morphologischen Anpassungen - soll in einem nachfolgenden Artikel beschrieben werden.


[1] Inge Schuster, 17.07.2015: Unsere Haut – mehr als eine Hülle. Ein Überblick. http://scienceblog.at/unsere-haut.

[2] Inge Schuster, 10.05.2012: Vitamin D — Allheilmittel oder Hype? http://scienceblog.at/vitamin-d-%E2%80%94-allheilmittel-oder-hype.


Weiterführende Links

Artikel zum Thema Haut im ScienceBlog

inge Thu, 06.09.2018 - 13:13

Schlaf zwischen Himmel und Erde

Schlaf zwischen Himmel und Erde

Do, 30.08.2018 - 15:47 — Niels C. Rattenborg

Niels C. RattenborgIcon Gehirn

Die Frage, ob Vögel auf langen Nonstop-Flügen schlafen, beschäftigt die Menschheit bereits seit Jahrhunderten. Dennoch fehlte bis vor kurzem ein eindeutiger Beweis. Forschern des Max-Planck-Instituts für Ornithologie (Seewiesen) ist es erstmals gelungen, die Gehirnaktivität von Fregattvögeln in freier Wildbahn zu messen. Niels Rattenborg, Leiter der Forschungsgruppe Vogelschlaf berichtet, dass diese Vögel während des Fluges tatsächlich schlafen, entweder jeweils nur mit einer oder mit beiden Gehirnhälften gleichzeitig. Insgesamt schliefen die Vögel jedoch weniger als eine Stunde pro Tag, ein Bruchteil der Zeit, die sie an Land schlafend verbringen.

Schlaf ist für die meisten Lebewesen ein essenzieller Bestandteil des Lebens - selbst bei Quallen wurde er bereits nachgewiesen. Obwohl es gefährlich ist, die Umgebung aus den Augen zu lassen, ist Schlafen zwingend notwendig. Warum dies so ist, ist noch immer nicht restlos geklärt. Offenbar finden im Schlaf wichtige Vorgänge im Gehirn statt, die im Wachzustand nicht oder nur eingeschränkt ablaufen können. Schlaf ist sogar derart wichtig, dass das Gehirn Schlafmangel anschließend mit tieferem Schlaf ausgleicht und so eine Mindestmenge davon sicherstellt. Der Zwang, den Schlafmangel auszugleichen, kann dabei so stark sein, dass wir selbst dann einschlafen, wenn es lebensbedrohliche Konsequenzen hat, wie etwa am Steuer eines Autos.

Nonstop-Flüge

Auch Vögel müssen demnach schlafen – manche möglicherweise sogar im Flug. Pfuhlschnepfen (Limosa lapponica baueri) etwa fliegen in acht Tagen von Alaska nach Neuseeland und legen dabei 12.000 Kilometer zurück. Der Bindenfregattvogel (Fregata minor) umkreist bis zu zwei Monate lang den Indischen Ozean, ohne jemals auf dem Wasser zu landen. Der Rekordhalter der Vogelwelt ist aber wohl der Mauersegler (Apus apus), der nahezu die gesamten zehn Monate zwischen den Brutzeiten in der Luft verbringt.

Schlaf im Flug?

Wie kann ein Vogel im Flug schlafen, ohne mit möglichen Hindernissen zu kollidieren oder vom Himmel zu fallen? Eine Lösung wäre es, immer nur eine Hälfte des Hirns schlafen zu lassen (unihemisphärischer Schlaf), wie es in Stockenten (Anas platyrhynchos) nachgewiesen wurde. In einer Gruppe schlafender Enten halten jene Tiere, die am Rand sitzen, das nach außen gerichtete Auge offen, und die dazugehörige Gehirnhälfte bleibt wach [2]. Auf Basis dieser Erkenntnisse und der Tatsache, dass Delfine im unihemisphärischen Schlaf schwimmen können, könnten auch Vögel sich beim Navigieren in der Luft und in der Aufrechterhaltung der Aerodynamik auf eine Art Autopilot verlassen.

Es ist aber auch möglich, dass Vögel einen Weg gefunden haben, den Schlaf auszutricksen. Die Seewiesener Ornithologen fanden heraus, dass männliche Graubrust-Strandläufer (Calidris melanotos) sich im Dauerwettstreit um die Weibchen während der Brutzeit derart anpassen, dass sie über mehrere Wochen hinweg nur sehr wenig schlafen [3]. Es besteht also die Möglichkeit, dass Vögel einfach während ihrer langen Flüge auf Schlaf verzichten.

m letztlich wirklich beweisen zu können, ob und wie Vögel im Flug schlafen, musste eine Möglichkeit gefunden werden, die Gehirnaktivität der Tiere aufzuzeichnen. Diese unterscheidet sich im Wachzustand von der Aktivität während der beiden Schlafarten der Vögel, des SW-Schlafs (slow-wave sleep) mit langsam schwingenden und des REM-Schlafs (rapid eye movement) mit schnell schwingenden Gehirnwellen. Alexei Vyssotski (Universität und ETH Zürich) entwickelte ein Gerät, das klein genug war, um die EEG-Aktivitäten und Kopfbewegungen fliegender Vögel aufzuzeichnen. Damit untersuchten die Max-Planck-Forscher an Fregattvögeln, ob sie während des Fluges schlafen.

„Flugdatenrekorder“

Diese Seevögel kreisen über Wochen nonstop über dem Ozean auf der Suche nach fliegenden Fischen und Kalmaren, die von Delfinen und anderen Raubfischen an die Wasseroberfläche getrieben werden. Auf dem Kopf von weiblichen Fregattvögeln, die auf den Galápagos Inseln nisteten, wurden zeitweise „Flugdatenrekorder“ befestigt. Da sie sich um eine Brut kümmerten, kehrten alle Vögel nach Flügen von bis zu 10 Tagen und 3.000 Kilometern wieder zu ihrem Nest zurück, wo die Rekorder wieder entfernt werden konnten. Während des Fluges nahm der Rekorder die EEG-Aktivitäten beider Gehirnhälften sowie die Bewegungen des Kopfes auf, während ein GPS-Gerät am Rücken des Vogels die Position und Flughöhe aufzeichnete. Abbildung 1.

Abbildung 1. Fregattvögel haben eine Flügelspannweite von über 2 Meter und sind hervorragende Flieger , die mehrere 100 Kilometer am Tag zurücklegen (links, © Bryson Voirin). Mittels GPS-Logger können die Flugrouten genau verfolgt werden (rechts: © MPI für Ornithologie)

Die Daten zeigten, dass Fregattvögel während des Fluges teils auf erwartete und teils auf unerwartete Art und Weise schlafen [4].

Am Tag blieben die Vögel während der aktiven Nahrungssuche wach. Nach Sonnenuntergang veränderte sich die EEG-Struktur vom Wachzustand zu SW-Schlafperioden von bis zu mehreren Minuten. Überraschenderweise trat der SW-Schlaf nicht nur auf einer Gehirnhälfte auf, sondern auch auf beiden gleichzeitig. Das Auftreten des bi-hemisphärischen Schlafes deutet an, dass einseitiges Wachbleiben einer Gehirnhälfte nicht notwendig ist, um die aerodynamische Kontrolle zu wahren. Dennoch trat einseitiger SW-Schlaf deutlich häufiger während des Fluges auf als an Land. Abbildung 2.

Abbildung 2. Einseitiger Schlaf während des Flugs. (Bild: http://www.orn.mpg.de/2696/Forschungsgruppe_Rattenborg)

Die Aufzeichnungen der Bewegungen des Vogelkopfes ergaben einige Hinweise darauf, warum die Vögel im Flug einseitig schlafen. Beim Segeln in den Luftströmungen bleibt meistens eine Seite wach, und zwar diejenige, die mit dem in Flugrichtung blickenden Auge verbunden ist. Die Vögel gaben also durchaus acht darauf, wohin sie flogen. Neben dem SW-Schlaf registrierten die Messgeräte hin und wieder auch kurze Episoden von sogenanntem REM-Schlaf. Diese waren durch ein kurzes Absinken des Kopfes charakterisiert, wie es auch während des REM-Schlafes an Land beobachtet wurde. Trotzdem beeinflusste dies nicht den generellen Flugweg.

Die größte Überraschung war allerdings, dass sich die Vögel trotz ihrer Fähigkeit, im Flug schlafen zu können, kaum Schlaf gönnen: Fregattvögel schliefen während des Flugs nur 42 Minuten pro Tag. Im Vergleich dazu schliefen sie zurück an Land mehr als 12 Stunden pro Tag. Außerdem waren die einzelnen Schlafphasen an Land deutlich länger und tiefer. Daraus lässt sich schließen, dass Fregattvögel während des Fluges an Schlafmangel litten. Dennoch, wie schon bei den Graubrust-Strandläufermännchen beobachtet, und im Unterschied zu anderen unter Schlafentzug leidenden Tieren (einschließlich einiger Vögel [5]), scheinen Fregattvögel sich an den Schlafmangel anzupassen.

Wie und warum Fregattvögel und Graubrust-Strandläufer die negativen Effekte des Schlafmangels kompensieren können, bleibt zunächst ein Rätsel. Indem wir diese Erkenntnisse mit dem Wissen über die Bedeutung des Schlafes in anderen Tierarten in Einklang bringen, können wir künftig ein neues Verständnis für den Schlaf und die negativen Auswirkungen des Schlafverlustes erlangen.

Literaturhinweise

1. Rattenborg, N. C. Sleeping on the wing. Interface Focus 7, 20160082 (2017). http://rsfs.royalsocietypublishing.org/content/7/1/20160082 (open access)

2. Rattenborg, N.C.; Lima, S. L.; Amlaner, C. J. Half-awake to the risk of predation. Nature 397, 397–398 (1999). https://www.nature.com/articles/17037

3. Lesku, J. A.; Rattenborg, N. C.; Valcu, M.; Vyssotski, A. L.; Kuhn, S.; Kuemmeth, F.; Heidrich, W.; Kempenaers, B. Adaptive sleep loss in polygynous pectoral sandpipers. Science 337, 1654–1658 (2012). http://science.sciencemag.org/content/337/6102/1654

4. Rattenborg, N. C.; Voirin, B.; Cruz S. M.; Tisdale, R.; Dell’Omo, G.; Lipp, H-P.; Wikelski, M.; Vyssotski, A. L. Evidence that birds sleep in mid-flight. Nature Communications 7, 12468 (2016). https://www.nature.com/articles/ncomms12468 (open access)

5. Lesku, J. A.; Vyssotski, A. L.; Martinez-Gonzalez, D.; Wilzeck, C.; Rattenborg, N. C. Local sleep homeostasis in the avian brain: convergence of sleep function in mammals and birds? Proceedings of the Royal Society of London B 278, 2419–2428 (2011) https://dx.doi.org/10.1098/rspb.2010.2316 (open access)


* Der Artikel ist unter dem gleichnamigen Titel: "Schlaf zwischen Himmel und Erde" (http://www.orn.mpg.de/3994492/research_report_11816031?c=1700143) im Jahrbuch 2018 der Max-Planck-Gesellschaft erschienen. Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle dem ScienceBlog zur Verfügung gestellt. Der Artikel erscheint ungekürzt, zwei Bilder der Forschergruppe wurden beigefügt.


Weiterführende Links

Max-Planck-Institut für Ornithologie. http://www.orn.mpg.de/

Brigitte Osterath (26.10.2017): Nickerchen im Vogelreich: Vögel schlafen anders. https://www.dw.com/de/nickerchen-im-vogelreich-v%C3%B6gel-schlafen-anders/a-41109447

How can birds sleep while they're flying? Video 4:13 min https://www.youtube.com/watch?v=Z4wUhh_xgSQ


 

inge Thu, 30.08.2018 - 15:47

Welche Fragen stellen Wissenschaftler an Klimamodelle, welche Experimente führen sie durch?

Welche Fragen stellen Wissenschaftler an Klimamodelle, welche Experimente führen sie durch?

Do, 23.08.2018 - 06:54 — Carbon Brief Carbon BriefIcon Geowissenschaften

Ein breites Spektrum an Klimamodellen - von einfachsten Energiebilanzmodellen bis zu hochkomplexen Erdsystemmodellen - ermöglicht es Antworten auf viele verschiedene Fragen zu finden, einschließlich des Problems, warum sich das Klima der Erde ändert: Was hat die in der Vergangenheit beobachtete Erwärmung verursacht, wie groß ist die Rolle, die natürliche Faktoren im Vergleich zu anthropogenen Faktoren gespielt haben und wie wird sich das Erdklima in der Zukunft ändern, wenn die Emissionen von Treibhausgasen anhalten? Es ist dies der vierte Teil einer umfassenden, leicht verständlichen Artikelserie "Q&A: How do climate models work?", die von der britischen Plattform Carbon Brief stammt (Teile 1 -3 [1, 2, 3]).*

Um Klimasituationen der Vergangenheit, Gegenwart und Zukunft zu simulieren, führen Wissenschaftler zahlreiche unterschiedliche Experimente an ihren Modellen durch. Ebenso entwickeln sie Tests, um die Leistung spezifischer Teile der verschiedenen Klimamodelle zu prüfen. Simulationen befassen sich auch damit, was geschehen würde, wenn wir beispielsweise die CO2-Konzentrationen plötzlich vervierfachten oder Geoengineering-Konzepte zur Klimakühlung einsetzen sollten.

Coupled Model Intercomparison Projects - CMIPs

Viele verschiedene Forschergruppen lassen dieselben Experimente in ihren Klimamodellen laufen - daraus entstehen sogenannte Modell-Ensembles. Diese Modell-Ensembles ermöglichen es Unterschiede zu untersuchen, die zwischen den Modellen bestehen und auch die Unsicherheiten in Zukunftsprognosen besser zu erkennen. Mehr als 30 Forschergruppen in aller Welt mit mehr als 1000 Wissenschaftern teilen und vergleichen die Ergebnisse ihrer Experimente im Rahmen der vom World Climate Research Programme (WCRP) organisierten Coupled Model Intercomparison Projects - CMIPs https://www.wcrp-climate.org/wgcm-cmip ). Diese Experimente beinhalten:

Simulationen der historischen Vergangenheit

Klimamodelle werden über die historische Periode beginnend um 1850 - vor Beginn der industriellen Revolution - bis in die Gegenwart laufen gelassen. Es werden dazu die besten Abschätzungen von Klima beeinflussenden Faktoren eingesetzt; diese inkludieren die Konzentrationen der Treibhausgase CO2, CH4 und N2O, Änderungen der Sonneneinstrahlung, Aerosole, die aus Vulkanausbrüchen stammen und durch menschliche Aktivitäten hervorgerufen wurden und Änderungen der Landnutzung.

Diese historischen Läufe werden nicht an die tatsächlich erfassten Temperaturen oder Niederschläge angepasst, sie resultieren vielmehr aus der Physik des Modells. In anderen Worten: Wissenschafter können die sich aus dem Modell ergebenden Prognosen für das vergangene Klima ("Hindcasts") mit den aufgezeichneten Klimabeobachtungen vergleichen. Sind Klimamodelle in der Lage vergangene Klimavariable, wie etwa die Temperatur der Erdoberfläche, erfolgreich wiederzugeben, so haben Wissenschafter mehr Zutrauen in das, was die Modelle für die Zukunft voraussagen.

Historische Simulationen eignen sich auch, um zu bestimmen, wie groß der Anteil menschlicher Aktivitäten ("Attribution") am Klimawandel ist. Abbildung 1 vergleicht beispielsweise zwei simulierte Varianten mit dem tatsächlich beobachteten Klima (schwarze Linie). Die Simulation unter Berücksichtigung ausschließlich natürlicher Klimatreiber ist hier blau schattiert, unter Berücksichtigung von menschlich verursachten plus natürlichen Klimatreibern ergibt sich die rosa schattierte Kurve, die mit der tatsächlich beobachteten Erwärmung übereinstimmt.

Abbildung 1. Modellrechnungen zeigen den Anteil menschlicher Aktivitäten an der Erderwärmung. (Bild aus dem 4. Sachstandsbericht des IPCC, Hegerl et al., 2007; Beschriftung übersetzt von Redn.) Eine Aufschlüsselung der natürlichen Klimatreiber ist in Abbildung 2 erfolgt.

Simulationen, die nur natürliche Klimatreiber berücksichtigen, beinhalten Faktoren wie Änderungen der Sonneneinstrahlung und der Vulkantätigkeit und gehen davon aus, dass Emissionen von Treibhausgasen und andere menschlich verursachte Faktoren unverändert auf vorindustriellem Niveau verbleiben. In Simulationen, die nur anthropogen verursachte Faktoren annehmen, werden dagegen die natürlichen Klimatreiber konstant gehalten und es werden nur die Auswirkungen menschlicher Aktivitäten, wie zum Beispiel die steigenden atmosphärischen Treibhausgaskonzentrationen einbezogen. Abbildung 2.

Abbildung 2. Mittlere globale Temperaturen der Erdoberfläche von 1850 - 2017. Natürliche und anthropogen verursachte Klimatreiber. (Bild aus: Zeke Hausfather, 13.12.2017; https://www.carbonbrief.org/analysis-why-scientists-think-100-of-global-warming-is-due-to-humans. Beschriftung übersetzt von Redn).

Durch den Vergleich dieser beiden Szenarien (und eines kombinierten "Alle Faktoren" -Laufs) können Wissenschaftler die relativen Beiträge von menschlich und natürlich verursachten Klimatreibern zu beobachteten Klimaänderungen abschätzen. Dies hilft herauszufinden, wie groß der Anteil menschlicher Aktivitäten am Klimawandel der Gegenwart ist.

Szenarien einer künftigen Klimaerwärmung

Im Fokus des fünften Sachstandssberichts des IPCC stehen vier Szenarien einer zukünftigen Erd-Erwärmung , die sogenannten Repräsentativen Konzentrationspfade (Representative Concentration Pathway - RCP Scenarios). Diese Szenarien simulieren, wie sich das Klima von heute bis 2100 und darüber hinaus verändern könnte.

Viele Faktoren, die Treiber zukünftiger Emissionen sein können, wie etwa das Wachstum der Bevölkerung und der Wirtschaft, lassen sich schwer prognostizieren. Daher umfassen diese Szenarien eine breite Palette zukünftiger Möglichkeiten, von einer Business-as-usual-Welt, in der wenig oder gar keine Klimaschutzmaßnahmen ergriffen werden (Szenarien RCP6.0 und RCP8.5), bis hin zu einer Welt, in der eine couragierte Reduktion der Erderwärmung auf unter 2o C erfolgen soll (Szenario RCP2.6). (Mehr dazu gibt es unter : https://www.carbonbrief.org/analysis-four-years-left-one-point-five-carbon-budget.) Die Simulation des Szenarios RCP6.0 ist in Abbildung 3 dargestellt.

Abbildung 3. Mittlere globale Temperaturen der Erdoberfläche von 1850 - 2100. Prognose unter Annahme des Szenarios RCP 6.0. (Bild aus: Zeke Hausfather, 13.12.2017; https://www.carbonbrief.org/analysis-why-scientists-think-100-of-global-warming-is-due-to-humans. Beschriftung übersetzt von Redn).

Diese RCP-Szenarien spezifizieren unterschiedliche Mengen an Strahlungsantrieben. Die Modelle wenden diese Antriebe an, um zu untersuchen, wie sich das System der Erde unter jedem der verschiedenen Szenarien ändern wird. Die kommenden, mit dem sechsten IPCC-Sachstandsbericht assoziierten Coupled Models Intercomparison Projects (CMIP6) werden vier neue RCP-Szenarien hinzufügen, um Lücken zwischen den vier bereits verwendeten RCPs zu schließen, einschließlich eines Szenarios, das die Grenze der Erwärmung bei 1,5 ° C ansetzt.

Kontroll-Läufe

Kontrollläufe sind nützlich, wenn man untersuchen will, wie - in Abwesenheit anderer Änderungen - natürliche Schwankungen in Modellen aufscheinen. Kontrollläufe werden auch angewendet, um einen "Modelldrift" zu festzustellen, d.i. scheinbare Langzeitänderungen, die weder mit natürlichen Schwankungen noch mit externen Klimatreibern in Zusammenhang stehen. Wenn ein Modell driftet, so zeigt sich das in Veränderungen, die über die normale natürliche Schwankungsbreite von Jahr zu Jahr und von Jahrzehnt zu Jahrzehnt hinausgehen, auch wenn Klima beeinflussende Faktoren, wie es Treibhausgaskonzentrationen sind, unverändert bleiben. Kontrollläufe starten das Modell zu einer Zeit, bevor die moderne Industrialisierung die Treibhausgase drastisch erhöht hatte. Dann lässt man das Modell über Zeiträume von Hunderten oder Tausenden Jahren laufen ohne die Treibhausgase zu verändern, Sonnenaktivität oder andere externe Faktoren, die das Klima beeinflussen. Diese Kontrollen unterscheiden sich von einem Lauf, der ausschließlich natürliche Klimatreiber berücksichtigt, da hier sowohl menschlich als auch natürlich verursachte Faktoren unverändert bleiben.

Simulationen des Atmospheric Model Intercomparison Project (AMIP)

Klimamodelle inkludieren Atmosphäre, Land und Ozeane. AMIP-Läufe schalten dagegen alles außer der Atmosphäre ab indem sie fixe, auf Beobachtungen basierende Werte für Land und Ozeane einsetzen. Beispielsweise dienen gemessene Temperaturen der Meeresoberflächen als Eingabe in das Modell, um die Temperatur von Landoberfläche und von verschiedenen Schichten der Atmosphäre zu erhalten.

Normalerweise weisen Klimamodelle ihre eigenen internen Schwankungen auf - kurzzeitige Klimazyklen in den Ozeanen wie El Niño und La Niña (komplexe entgegengesetzte Wetterphasen: https://oceanservice.noaa.gov/facts/ninonina.html) -, die zu anderen Zeiten stattfinden als was sonst in der Welt geschieht. AMIP-Läufe ermöglichen es Modellierern, simulierte mit gemessenen Meerestemperaturen in Übereinstimmung zu bringen, so dass die internen Schwankungen in den Modellen zur gleichen Zeit wie in den Beobachtungen auftreten und Änderungen im Zeitverlauf leichter zu vergleichen sind.

Simulationen einer plötzlichen Vervierfachung der CO2 Konzentrationen ("4x CO2")

Vergleichende Klimamodellprojekte, wie die CMIP5, fordern generell, dass alle Modelle eine Reihe von "diagnostischen" Szenarien durchführen, um die Leistungsfähigkeit in Hinblick auf verschiedene Kriterien zu testen.

Einer dieser Tests sieht einen "abrupten" Anstieg des atmosphärischen CO2 vom vorindustriellen Niveau auf das Vierfache vor - von 280 parts per million (ppm) auf 1.120 ppm -wobei alle anderen Klima treibenden Faktoren konstant gehalten werden. (Aktuell liegen die CO2-Konzentrationen knapp über 400ppm.) Daraus können Wissenschaftler erkennen, wie schnell die Erdtemperatur in ihrem Modell auf Änderungen des CO2 anspricht.

Simulationen eines 1 % CO2 Anstiegs("1% CO2")

Ein weiterer diagnostischer Test erhöht die CO2-Emissionen ausgehend von vorindustriellen Werten um 1% pro Jahr, bis sich das CO2 schließlich vervierfacht und 1.120 ppm erreicht. Auch diese Szenarien halten alle anderen Klima beeinflussenden Faktoren konstant.

So können Modellierer die Auswirkungen von allmählich zunehmendem CO2 Emissionen isoliert von anderen Veränderungen - wie beispielsweise von Aerosolen und anderen Treibhausgasen wie Methan - betrachten.

Simulationen des Paläoklimas

Es wurden dazu Modelle entwickelt, die das Klima der Vergangenheit für eine Reihe unterschiedlicher Zeiträume simulieren, d.i. für die letzten 1.000 Jahre, für das Holozän, das die letzten 12.000 Jahre umfasst, für das letzte Maximum der Vereisung vor 21.000 Jahren, für die letzte Zwischeneiszeit vor etwa 127.000 Jahren; für die Warmzeit im mittleren Pliozän vor 3,2 Millionen Jahren und für die ungewöhnliche Periode der sehr kurzen raschen Erwärmungsphase, dem sogenannten Paläozän-Eozän Temperaturmaximum, vor etwa 55 Millionen Jahren.

Diese Modelle wenden die besten verfügbaren Abschätzungen von Faktoren an, die das frühere Klima der Erde beeinflussten - einschließlich der solaren Einstrahlung und der vulkanischen Aktivität - sowie längerfristige Veränderungen der Erdumlaufbahn und der Lage der Kontinente.

Solche paläoklimatischen Modellläufe helfen den Forschern zu verstehen, wie große Schwankungen des Erdklimas in der Vergangenheit entstanden sind - beispielsweise in den Eiszeiten - und wie sich Meeresspiegel und andere Faktoren während der Erwärmungs- und Abkühlungsphasen verändert haben. Diese Änderungen in der Vergangenheit bieten eine Orientierungshilfe für die Zukunft, wenn die Erderwärmung anhält.

Spezielle Modellversuche

Im Rahmen von CMIP6 (siehe oben) führen Forschungsgruppen in aller Welt eine Vielzahl unterschiedlicher Experimente an ihren Modellen durch. Dazu gehören Simulationen zum Verhalten von Aerosolen, zur Bildung von Wolken und zu Rückkopplungen, zur Reaktion der Eisschilde auf die Erwärmung, zu Änderungen des Monsuns, zum Anstieg des Meeresspiegels, zu Änderungen der Landnutzung und zu Auswirkungen von Vulkaneruptionen.

Geplant ist auch ein Modellvergleichsprojekt zum Geo-Engineering-. Neben anderen denkbaren Interventionen soll untersucht werden, welche Folgen ein Einsprühen von gasförmigen Schwefelverbindungen in die Stratosphäre zur Klimakühlung haben kann.


*Der Artikel ist der homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen (https://www.carbonbrief.org/qa-how-do-climate-models-work). Unter dem Titel " What types of experiments do scientists run on climate models? ist es der 4. Teil einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde. Der unter einer cc-by-nc-nd 4.0 Lizenz stehende Artikel wurde im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.

Carbon Brief - https://www.carbonbrief.org/ - ist eine britische Website, welche die neuesten Entwicklungen in den Bereichen Klimawissenschaft, Klimapolitik und Energiepolitik abdeckt. Die Seite bemüht sich um klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels von Seiten der Wissenschaft und auch der Politik zu verbessern . Im Jahr 2017 wurde Carbon Brief bei den renommierten Online Media Awards als"Best Specialist Site for Journalism" ausgezeichnet.


[1] Teil 1 (19.04.2018): Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung

[2] Teil 2 (31.05.2018): Klimamodelle: von einfachen zu hoch komplexen Modellen

[3] Teil 3 (21.06.2018): Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen


Weiterführende Links

Artikel im ScienceBlog

inge Thu, 23.08.2018 - 06:54

Mit Künstlicher Intelligenz zu einer proaktiven Medizin

Mit Künstlicher Intelligenz zu einer proaktiven Medizin

Do, 16.08.2018 - 10:38 — Norbert Bischofberger Norbert BischofbergerIcon MINT

Auf dem Weg zu einer Medizin von Morgen werden wir Zeuge einer der aufregendsten Entwicklungen, deren Ziel es ist Künstliche Intelligenz in biomedizinischer Forschung, Diagnose und Therapie einzusetzen. Vorerst skeptisch, ist der Chemiker Norbert Bischofberger (ehem. Forschungsleiter des Top Pharmakonzerns Gilead, jetzt Präsident des Startups Kronos Bio) nun überzeugt, dass Künstliche Intelligenz die heutige Medizin revolutionieren wird: von der gegenwärtigen Form, die erst reagiert, wenn etwas "passiert" ist, zu einer proaktiven, d.i. voraus schauenden Form, die Risiken vorher erkennt und personenbezogen agiert.*

In der Menge an Daten, die wir verarbeiten können, ist uns Menschen von vornherein eine Grenze gesetzt. Anfänglich steigt der Wert des Outputs je mehr Daten wir zur Verfügung stellen. Es wird aber bald eine Obergrenze erreicht und wenn dann weitere Angaben einfließen, kann man daraus nicht mehr zusätzlichen Nutzen gewinnen.

Maschinen sind anders. Sie sind in keiner Weise durch die Menge an Daten limitiert, die wir ihnen zuführen. Je mehr Informationen man in sie einspeist, umso mehr wertvolle Ergebnisse können sie produzieren. Abbildung 1.

Abbildung 1. Big Data & Künstliche Intelligenz. Künstliche Intelligenz ist der Oberbegriff für jede Art Technik, die Computer zu menschenähnlicher Intelligenz befähigt. Darunter fällt Maschinelles Lernen: Rechner lernen indem sie trainiert werden Muster in Datensätzen zu erkennen und Assoziationen zu generieren, die in Form von Algorithmen umgesetzt werden. Deep Learning ist eine Unterform des Maschinellen Lernens, die beispielsweise in der Gesichts- und Spracherkennung eingesetzt wird. Hier erfolgt die Musterkennung in hierarchisch aufgebauten Ebenen eines sogenannten neuronalen Netzwerks. (Text von der Redaktion eingefügt. Bild: modifiziert nach Andrew Ng "What Data scientists should know about Deep Learning" slide 30, in https://www.slideshare.net/ExtractConf).

Künstliche Intelligenz - Wie Maschinen lernen

Wir stehen am Beginn eines neuen Zeitalters - einem Zeitalter der maschinellen Intelligenz. Wir schreiten dabei entlang einer aufwärts strebenden Kurve fort. Begonnen hat alles mit einer rein deskriptiven Phase: Daten wurden gelistet und kombiniert. Daran schloss sich eine Phase an, die aus den Daten Schlussfolgerungen ("Inferenzen") generierte. Nun befinden wir uns in einer prädiktiven Phase, d.i. Daten dienen zur Vorhersage zukünftigen Geschehens; von hier wollen wir zu einer präskriptiven Phase kommen - d.i. welche Maßnahmen können getroffen werden, wenn X eintritt? Das Ziel in der Zukunft wird dann eine Kombination von menschlicher und künstlicher Intelligenz sein. Abbildung 2.

Abbildung 2. Wohin sich die Künstliche Intelligenz entwickelt.

Überwachtes Lernen - Maschinen werden an Hand von Beispielen trainiert

Begonnen hat es mit Big Blue – einem Großrechner von IBM –, der 1996 den damals amtierenden Weltmeister im Schach, Gary Kasparov, schlug. Erstmals besiegte eine Maschine einen überaus routinierten Spieler, zeigte, dass sie im Schach Menschen überlegen war!

Ein zweites Beispiel folgte 2011, als das Computerprogramm Watson als Sieger in der US-Quizsendung Jeopardy hervorging.

Ein weiteres Beispiel lieferte das Google Unternehmen DeepMind (UK), das ein Computerprogramm namens AlphaGo entwickelte und darüber 2016 im Fachjournal Nature publizierte. (Bei dem Spiel Go handelt es sich um ein altes chinesisches Brettspiel , das eine ungleich höhere Zahl an Kombinationen gestattet als das Schach - man schätzt die Zahl der Go-Kombinationen auf 1080, also eine höhere Zahl als es Atome im Universum gibt.) Das System wurde durch Überwachtes Lernen (Human Supervised Learning) trainiert: d.i. man wählte rund 100 000 frühere Go-Spiele als Ausgangspunkt und zeigte, wie die Spieler vorgegangen waren. Die Maschine lernte und besiegte schließlich Nummer 1 auf der Weltrangliste der Go-Spieler. Abbildung 3.

Abbildung 3. AlphaGo gegen den Go-Champion Lee De-Sol im 3. Match. (Bild: Buster Benson, https://www.flickr.com/photos/erikbenson/25717574115. Lizenz: cc-by-sa)

Weitere Beispiele für derartiges Überwachtes Lernen sind in Spracherkennungssystemen zu finden, wie sie u.a. in Smartphones eingesetzt werden (Siri für Apple-Systeme, Amazon's Alexa für Smartphones und PCs, Google Assistant für Handy, PC, TV, Auto, etc.) und in der Bilderkennung (Hier können Sie beispielsweise Ihr neues iPhone dadurch entsperren, dass es Ihr Gesicht erkennt.) In allen diesen Beispielen wurden die Maschinen mittels "Überwachtem Lernen" trainiert, das heißt, man teilte den Rechnern mit, wie Experten in der jeweiligen Fragestellung zuvor vorgegangen waren.

Unüberwachtes Lernen - Maschinen lernen von alleine

Überaus erstaunlich sind aber Beispiele, in denen Maschinen ohne den Input menschlichen Wissens – d.i. unüberwacht – gelernt haben.

Das erste Beispiel, in dem ein Rechner von der Pike auf lernte, stammt von YouTube. Diese zu Google gehörende Plattform enthält enorm viele Videos: vor etwa fünfeinhalb Jahren schätzte man diese bereits auf rund 800 Millionen Videos; wie viele es heute sind, weiß niemand genau – vermutlich sind es Milliarden. Man stellte nun an den Rechner die Frage: "Welches Bild kommt am häufigsten in Youtube-Videos vor?".

Nun hatte der Computer a priori keine Ahnung, wie Dinge eigentlich aussehen - er musste überhaupt erst lernen, was ein Bild ist. Selbst im Management von Google zeigte man sich recht skeptisch, ob eine derartige Frage mittels Künstlicher Intelligenz zu lösen wäre. Das Ergebnis bekehrte die Zweifler. Die Antwort auf die Frage lautete: es sind dies Katzen. Abbildung 4.

Wir alle wissen natürlich, wie eine Katze aussieht - sie hat Barthaare, vier Pfoten, zwei Ohren, etc. Der Computer musste sich all diese Charakteristika erst selbst beibringen. Er fand heraus: so sieht eine Katze aus; dazu kam noch, dass er Katzen in den verschiedensten Positionen erkannte - stehend, liegend, springend, etc.

Abbildung 4. Welches Bild kommt in den mehr als eine Miliiarde YouTube Videos am Häufigsten vor?

Ein weiteres Beispiel , das kürzlich aufschien, hieß AlphaGo-Zero. Es ging hier wiederum um ein Programm für das Go-Spiel, allerdings fehlte dem Computer jeglicher Input zuvor erfolgter menschlicher Erfahrungen. Man ging von einer Tabula rasa, also von einem leeren Blatt Papier, aus. Basierend auf selbst-verstärkendem Lernen war AlphaGo-Zero sein eigener Lehrer und der Computer spielte drei Tage gegen sich selbst. Das Ergebnis war, dass AlphaGo-Zero den Weltmeister - einen Koreaner namens Lee Se-Dol - besiegte, von insgesamt 100 Spielen gewann der Computer alle Spiele.

Es ist einfach unglaublich, was Computer können und wohin Künstliche Intelligenz uns führen wird.

Deep Learning in der Medizin

Die erste Anwendung von Deep Learning, die in die Medizin voll Eingang gefunden hat, ist die medizinische Bildverarbeitung. Vier Veröffentlichungen aus dem letzten Jahr (für 2017 listet die Literaturdatenbank PubMed insgesamt 277 Arbeiten zu dem Thema auf; Anm. Redn.) zeigen ein breites Spektrum der Anwendungen: so geht es darin um hoch spezifische und sensitive Erkennung von Retinopathien, um die automatische höchst spezifische Diagnose von Lungentuberkulose, um die Erkennung von Arrhythmien, welche die Erfolgsrate von Kardiologen bereits übertrifft und um die Klassifizierung von Hauttumoren, die es mit Leistung aller Experten aufnehmen kann.

Können Computer auch neurologische Krankheiten erkennen?

Eine kürzlich in Neuroscience & Behavioral Reviews (Vieira et al., 2017) erschienene Arbeit hält Deep Learning für ein leistungsfähiges Instrument in der aktuellen Forschung zu psychiatrischen und neurologischen Erkrankungen. Eine Reihe von Unternehmen in der Bay Area von San Francisco arbeitet bereits in diesem Gebiet; so analysiert eine dieser Firmen (Mindstrong Health, Anm. Redn) die Art und Weise, wie wir das Handy benutzen - - d.i. wann man das Handy berührt, wie man es berührt, was man damit dann tut, wie man e-mails verfasst, wie man Texte schreibt, etc. - und erstellt daraus Algorithmen, um Depressionen zu erkennen.

Wohin führt diese Entwicklung?

Vor rund einem Jahr hat Verily (eine den Lebenswissenschaften gewidmete Tochter von Alphabet, wie Google jetzt heißt) zusammen mit der Duke University School of Medicine und Stanford Medicine die Studie Baseline gestartet. Rund 10 000 Personen nehmen an der über vier Jahre laufenden Studie teil, deren Ziel das Verstehen und Vermessen der menschlichen Gesundheit (Understanding and Mapping Human Health) ist.

Die Baseline-Studie – wie wird eigentlich Gesundheit definiert?

Die Idee dahinter ist von jedem Teilnehmer alles zu bestimmen, was nur denkbar ist: also das gesamte Genom zu sequenzieren, Proteom & Mikrobiom zu analysieren, Signalmoleküle (Cytokine) zu erfassen, diverse Gesundheitsparameter zu messen, das allgemeine Befinden und den Lebensstil zu erfassen, usw. Zu einer kontinuierlichen Bestimmung werden u.a. Wearables verwendet, die wie eine Uhr aussehen und ständig Blutdruck und Puls messen, oder auch Kontaktlinsen, die den Glukosespiegel in den Tränen messen. Abbildung 5.

Abbildung 5. Was ist Gesundheit? Was wird gemessen? Die Baseline-Studie von Verily (Bild: cc Verily, https://www.projectbaseline.com/)

Diese Bestimmungen werden nun Milliarden und Abermilliarden Daten generieren. Auf Basis dieser Big Data sollen mittels Deep Learning zwei Ziele erreicht werden:

  • Es soll eine Basislinie der Gesundheit festgelegt werden, (was als gesund und nicht gesund betrachtet wird, hängt dabei von der Zusammensetzung der Population ab - beispielsweise korreliert bei älteren Menschen ein niedriger Blutdruck mit einer erhöhten Mortalität, ist daher nicht immer positiv zu sehen).
  • Es sollen Vorhersagen für die Entwicklung des Gesundheitszustandes getroffen werden. Anstatt darauf zu warten, dass etwas passiert, kann man ein Risikoprofil erstellen, und daraus ableiten, wie hoch das Risiko ist, das man - in welchem Fall - auch immer hat.

Fazit

Künstliche Intelligenz führt uns weg von der gegenwärtigen Medizin, die sporadisch und reaktiv ist, d.i. einer Medizin, die erst reagiert, wenn etwas bereits "passiert" ist. Die Medizin wird sich vielmehr komplett in eine kontinuierlich verfolgbare, vorausschauende - proaktive - Form verwandeln, die personenbezogen agiert und rechtzeitig Risiken erkennt und diesen vorbeugt.


* Dies ist der zweite Teil einer Artikelserie des Autors, die sich im Teil 1 "Auf dem Weg zu einer Medizin der Zukunft" mit dem sich abzeichnenden Paradigmenwechsel in der Medizin – Abgehen von Therapien nach dem Schema "Eine Größe passt allen" hin zu einer zielgerichteten, personalisierten Behandlung - befasst hat (http://scienceblog.at/auf-dem-weg-zu-einer-medizin-der-zukunft#). Beispiele für "Personalisierte Medizin" sollen im dritten Teil an Hand der CAR-T Zell Therapie aufgezeigt werden. Über das gesamte Thema hat Norbert Bischofberger am 6. Dezember 2017 einen Vortrag "The future of medicine: Technology and personalized therapy" in der Österreichischen Akademie der Wissenschaften gehalten.


Weiterführende Links

Christopher Nguyen Algorithms of the Mind. https://arimo.com/featured/2015/algorithms-of-the-mind/

New DeepMind AI Beats AlphaGo 100-0 | Two Minute Papers #201, Video 5:52 min (30.10.2017). https://www.youtube.com/watch?v=9xlSy9F5WtE

AlphaGo Zero: Learning from scratch. https://deepmind.com/blog/alphago-zero-learning-scratch/

Project Baseline (Verily). https://www.projectbaseline.com/; Video 1:17 min https://www.youtube.com/watch?v=ufOORB6ZNaA Standard-YouTube-Lizenz

Jürgen Schmidhuber: Vortrag „Künstliche Intelligenz wird alles ändern“ 2016, Video 49:17 min. https://www.youtube.com/watch?v=rafhHIQgd2A

Artikel im ScienceBlog

Francis S. Collins, 26.04.2018: Deep Learning: Wie man Computern beibringt, das Unsichtbare in lebenden Zellen zu "sehen". http://scienceblog.at/deep-learning-wie-man-computern-beibringt-das-unsichtbare-lebenden-zellen-zu-sehen.

Gerhard Weikum, 20.06.2014: Der digitale Zauberlehrling. http://scienceblog.at/der-digitale-zauberlehrling.

Peter Schuster, 28.03.2014: Eine stille Revolution in der Mathematik. http://scienceblog.at/eine-stille-revolution-der-mathematik.


 

inge Thu, 16.08.2018 - 10:38

Mit Künstlicher Intelligenz zu einer proaktiven Medizin

Mit Künstlicher Intelligenz zu einer proaktiven Medizin

Do, 16.08.2018 - 10:38 — Norbert Bischofberger

Norbert BischofbergerIcon MINTAuf dem Weg zu einer Medizin von Morgen werden wir Zeuge einer der aufregendsten Entwicklungen, deren Ziel es ist Künstliche Intelligenz in biomedizinischer Forschung, Diagnose und Therapie einzusetzen. Vorerst skeptisch, ist der Chemiker Norbert Bischofberger (ehem. Forschungsleiter des Top Pharmakonzerns Gilead, jetzt Präsident des Startups Kronos Bio) nun überzeugt, dass Künstliche Intelligenz die heutige Medizin revolutionieren wird: von der gegenwärtigen Form, die erst reagiert, wenn etwas "passiert" ist, zu einer proaktiven, d.i. voraus schauenden Form, die Risiken vorher erkennt und personenbezogen agiert.* In der Menge an Daten, die wir verarbeiten können, ist uns Menschen von vornherein eine Grenze gesetzt. Anfänglich steigt der Wert des Outputs je mehr Daten wir zur Verfügung stellen. Es wird aber bald eine Obergrenze erreicht und wenn dann weitere Angaben einfließen, kann man daraus nicht mehr zusätzlichen Nutzen gewinnen. Maschinen sind anders. Sie sind in keiner Weise durch die Menge an Daten limitiert, die wir ihnen zuführen. Je mehr Informationen man in sie einspeist, umso mehr wertvolle Ergebnisse können sie produzieren. Abbildung 1.

Abbildung 1. Big Data & Künstliche Intelligenz.

Künstliche Intelligenz ist der Oberbegriff für jede Art Technik, die Computer zu menschenähnlicher Intelligenz befähigt. Darunter fällt Maschinelles Lernen: Rechner lernen indem sie trainiert werden Muster in Datensätzen zu erkennen und Assoziationen zu generieren, die in Form von Algorithmen umgesetzt werden. Deep Learning ist eine Unterform des Maschinellen Lernens, die beispielsweise in der Gesichts- und Spracherkennung eingesetzt wird. Hier erfolgt die Musterkennung in hierarchisch aufgebauten Ebenen eines sogenannten neuronalen Netzwerks. (Text von der Redaktion eingefügt. Bild: modifiziert nach Andrew Ng "What Data scientists should know about Deep Learning" slide 30, in https://www.slideshare.net/ExtractConf).

Künstliche Intelligenz - Wie Maschinen lernen

Wir stehen am Beginn eines neuen Zeitalters - einem Zeitalter der maschinellen Intelligenz. Wir schreiten dabei entlang einer aufwärts strebenden Kurve fort. Begonnen hat alles mit einer rein deskriptiven Phase: Daten wurden gelistet und kombiniert. Daran schloss sich eine Phase an, die aus den Daten Schlussfolgerungen ("Inferenzen") generierte. Nun befinden wir uns in einer prädiktiven Phase, d.i. Daten dienen zur Vorhersage zukünftigen Geschehens; von hier wollen wir zu einer präskriptiven Phase kommen - d.i. welche Maßnahmen können getroffen werden, wenn X eintritt? Das Ziel in der Zukunft wird dann eine Kombination von menschlicher und künstlicher Intelligenz sein. Abbildung 2. Abbildung 2. Wohin sich die Künstliche Intelligenz entwickelt.

Überwachtes Lernen - Maschinen werden an Hand von Beispielen trainiert

Begonnen hat es mit Big Blue – einem Großrechner von IBM –, der 1996 den damals amtierenden Weltmeister im Schach, Gary Kasparov, schlug. Erstmals besiegte eine Maschine einen überaus routinierten Spieler, zeigte, dass sie im Schach Menschen überlegen war! Ein zweites Beispiel folgte 2011, als das Computerprogramm Watson als Sieger in der US-Quizsendung Jeopardy hervorging. Ein weiteres Beispiel lieferte das Google Unternehmen DeepMind (UK), das ein Computerprogramm namens AlphaGo entwickelte und darüber 2016 im Fachjournal Nature publizierte. (Bei dem Spiel Go handelt es sich um ein altes chinesisches Brettspiel , das eine ungleich höhere Zahl an Kombinationen gestattet als das Schach - man schätzt die Zahl der Go-Kombinationen auf 1080, also eine höhere Zahl als es Atome im Universum gibt.) Das System wurde durch Überwachtes Lernen (Human Supervised Learning) trainiert: d.i. man wählte rund 100 000 frühere Go-Spiele als Ausgangspunkt und zeigte, wie die Spieler vorgegangen waren. Die Maschine lernte und besiegte schließlich Nummer 1 auf der Weltrangliste der Go-Spieler. Abbildung 3.

Abbildung 3. AlphaGo gegen den Go-Champion Lee De-Sol im 3. Match. (Bild: Buster Benson, https://www.flickr.com/photos/erikbenson/25717574115. Lizenz: cc-by-sa)

Weitere Beispiele für derartiges Überwachtes Lernen sind in Spracherkennungssystemen zu finden, wie sie u.a. in Smartphones eingesetzt werden (Siri für Apple-Systeme, Amazon's Alexa für Smartphones und PCs, Google Assistant für Handy, PC, TV, Auto, etc.) und in der Bilderkennung (Hier können Sie beispielsweise Ihr neues iPhone dadurch entsperren, dass es Ihr Gesicht erkennt.) In allen diesen Beispielen wurden die Maschinen mittels "Überwachtem Lernen" trainiert, das heißt, man teilte den Rechnern mit, wie Experten in der jeweiligen Fragestellung zuvor vorgegangen waren.

Unüberwachtes Lernen - Maschinen lernen von alleine

Überaus erstaunlich sind aber Beispiele, in denen Maschinen ohne den Input menschlichen Wissens – d.i. unüberwacht – gelernt haben. Das erste Beispiel, in dem ein Rechner von der Pike auf lernte, stammt von YouTube. Diese zu Google gehörende Plattform enthält enorm viele Videos: vor etwa fünfeinhalb Jahren schätzte man diese bereits auf rund 800 Millionen Videos; wie viele es heute sind, weiß niemand genau – vermutlich sind es Milliarden. Man stellte nun an den Rechner die Frage: "Welches Bild kommt am häufigsten in Youtube-Videos vor?". Nun hatte der Computer a priori keine Ahnung, wie Dinge eigentlich aussehen - er musste überhaupt erst lernen, was ein Bild ist. Selbst im Management von Google zeigte man sich recht skeptisch, ob eine derartige Frage mittels Künstlicher Intelligenz zu lösen wäre. Das Ergebnis bekehrte die Zweifler. Die Antwort auf die Frage lautete: es sind dies Katzen. Abbildung 4. Wir alle wissen natürlich, wie eine Katze aussieht - sie hat Barthaare, vier Pfoten, zwei Ohren, etc. Der Computer musste sich all diese Charakteristika erst selbst beibringen. Er fand heraus: so sieht eine Katze aus; dazu kam noch, dass er Katzen in den verschiedensten Positionen erkannte - stehend, liegend, springend, etc.

Abbildung 4. Welches Bild kommt in den mehr als eine Miliiarde YouTube Videos am Häufigsten vor?

Ein weiteres Beispiel , das kürzlich aufschien, hieß AlphaGo-Zero. Es ging hier wiederum um ein Programm für das Go-Spiel, allerdings fehlte dem Computer jeglicher Input zuvor erfolgter menschlicher Erfahrungen. Man ging von einer Tabula rasa, also von einem leeren Blatt Papier, aus. Basierend auf selbst-verstärkendem Lernen war AlphaGo-Zero sein eigener Lehrer und der Computer spielte drei Tage gegen sich selbst. Das Ergebnis war, dass AlphaGo-Zero den Weltmeister - einen Koreaner namens Lee Se-Dol - besiegte, von insgesamt 100 Spielen gewann der Computer alle Spiele. Es ist einfach unglaublich, was Computer können und wohin Künstliche Intelligenz uns führen wird.

Deep Learning in der Medizin

Die erste Anwendung von Deep Learning, die in die Medizin voll Eingang gefunden hat, ist die medizinische Bildverarbeitung. Vier Veröffentlichungen aus dem letzten Jahr (für 2017 listet die Literaturdatenbank PubMed insgesamt 277 Arbeiten zu dem Thema auf; Anm. Redn.) zeigen ein breites Spektrum der Anwendungen: so geht es darin um hoch spezifische und sensitive Erkennung von Retinopathien, um die automatische höchst spezifische Diagnose von Lungentuberkulose, um die Erkennung von Arrhythmien, welche die Erfolgsrate von Kardiologen bereits übertrifft und um die Klassifizierung von Hauttumoren, die es mit Leistung aller Experten aufnehmen kann. Können Computer auch neurologische Krankheiten erkennen? Eine kürzlich in Neuroscience & Behavioral Reviews (Vieira et al., 2017) erschienene Arbeit hält Deep Learning für ein leistungsfähiges Instrument in der aktuellen Forschung zu psychiatrischen und neurologischen Erkrankungen. Eine Reihe von Unternehmen in der Bay Area von San Francisco arbeitet bereits in diesem Gebiet; so analysiert eine dieser Firmen (Mindstrong Health, Anm. Redn) die Art und Weise, wie wir das Handy benutzen - - d.i. wann man das Handy berührt, wie man es berührt, was man damit dann tut, wie man e-mails verfasst, wie man Texte schreibt, etc. - und erstellt daraus Algorithmen, um Depressionen zu erkennen.

Wohin führt diese Entwicklung?

Vor rund einem Jahr hat Verily (eine den Lebenswissenschaften gewidmete Tochter von Alphabet, wie Google jetzt heißt) zusammen mit der Duke University School of Medicine und Stanford Medicine die Studie Baseline gestartet. Rund 10 000 Personen nehmen an der über vier Jahre laufenden Studie teil, deren Ziel das Verstehen und Vermessen der menschlichen Gesundheit (Understanding and Mapping Human Health) ist.

Die Baseline-Studie – wie wird eigentlich Gesundheit definiert?

Die Idee dahinter ist von jedem Teilnehmer alles zu bestimmen, was nur denkbar ist: also das gesamte Genom zu sequenzieren, Proteom & Mikrobiom zu analysieren, Signalmoleküle (Cytokine) zu erfassen, diverse Gesundheitsparameter zu messen, das allgemeine Befinden und den Lebensstil zu erfassen, usw. Zu einer kontinuierlichen Bestimmung werden u.a. Wearables verwendet, die wie eine Uhr aussehen und ständig Blutdruck und Puls messen, oder auch Kontaktlinsen, die den Glukosespiegel in den Tränen messen. Abbildung 5.

Abbildung 5. Was ist Gesundheit? Was wird gemessen? Die Baseline-Studie von Verily (Bild: cc Verily, https://www.projectbaseline.com)

Diese Bestimmungen werden nun Milliarden und Abermilliarden Daten generieren. Auf Basis dieser Big Data sollen mittels Deep Learning zwei Ziele erreicht werden:

  • Es soll eine Basislinie der Gesundheit festgelegt werden, (was als gesund und nicht gesund betrachtet wird, hängt dabei von der Zusammensetzung der Population ab - beispielsweise korreliert bei älteren Menschen ein niedriger Blutdruck mit einer erhöhten Mortalität, ist daher nicht immer positiv zu sehen).
  • Es sollen Vorhersagen für die Entwicklung des Gesundheitszustandes getroffen werden. Anstatt darauf zu warten, dass etwas passiert, kann man ein Risikoprofil erstellen, und daraus ableiten, wie hoch das Risiko ist, das man - in welchem Fall - auch immer hat.

Fazit

Künstliche Intelligenz führt uns weg von der gegenwärtigen Medizin, die sporadisch und reaktiv ist, d.i. einer Medizin, die erst reagiert, wenn etwas bereits "passiert" ist. Die Medizin wird sich vielmehr komplett in eine kontinuierlich verfolgbare, vorausschauende - proaktive - Form verwandeln, die personenbezogen agiert und rechtzeitig Risiken erkennt und diesen vorbeugt.


* Dies ist der zweite Teil einer Artikelserie des Autors, die sich im Teil 1 "Auf dem Weg zu einer Medizin der Zukunft" mit dem sich abzeichnenden Paradigmenwechsel in der Medizin – Abgehen von Therapien nach dem Schema "Eine Größe passt allen" hin zu einer zielgerichteten, personalisierten Behandlung - befasst hat (http://scienceblog.at/auf-dem-weg-zu-einer-medizin-der-zukunft). Beispiele für "Personalisierte Medizin" sollen im dritten Teil an Hand der CAR-T Zell Therapie aufgezeigt werden. Über das gesamte Thema hat Norbert Bischofberger am 6. Dezember 2017 einen Vortrag "The future of medicine: Technology and personalized therapy" in der Österreichischen Akademie der Wissenschaften gehalten.


Weiterführende Links

Artikel im ScienceBlog


 

inge Thu, 16.08.2018 - 10:38

Roboter mit eigenem Tatendrang

Roboter mit eigenem Tatendrang

Do, 09.08.2018 - 10:04 — Georg Martius

Georg MartiusIcon Gehirn

Roboter als Helfer im Alltag könnten in Zukunft unser Leben besser machen. Der Weg dahin ist aber noch weit. Einerseits muss an geeigneter alltagstauglicher Hardware geforscht werden. Andererseits, und das ist das weitaus größere Problem, muss das richtige „Gehirn” entwickelt werden. Um auch nur annähernd an die menschlichen Fertigkeiten heranzureichen, muss ein Roboter Vieles selbst lernen. Georg Martius, Leiter der Forschungsgruppe Autonomes Lernen am Max-Planck-Institut für Intelligente Systeme (Tübingen) arbeitet an der Programmierung eines künstlichen Spieltriebs und den dazugehörigen Lernverfahren, so dass sich künstliche Systeme in Zukunft selbst verbessern können.*

Roboter als Helfer im Alltag könnten in Zukunft unser Leben besser machen. Sie könnten uns lästige Arbeit im Haushalt abnehmen oder sie könnten älteren und behinderten Menschen assistieren, so dass diese unabhängig leben können. Für die Menschen bliebe dann mehr Zeit für interessantere Dinge.

Der Weg dahin ist aber noch weit. Einerseits muss an geeigneter alltagstauglicher Hardware geforscht werden, denn heutige Roboter sind entweder zu schwer oder nicht stark und robust genug. Außerdem fehlt es ihnen an Sensoren für die Wahrnehmung der Umgebung und von sich selbst. Andererseits, und das ist das weitaus größere Problem, muss das richtige „Gehirn” entwickelt werden. Ein bestimmtes Verhalten vorzuprogrammieren ist jedoch nur bedingt erfolgversprechend, weil man zur Entwicklungszeit schon alle Eventualitäten vorhersehen müsste. Wenn wir an echte Alltagssituationen denken, dann wird schnell klar, dass es dazu aber viel zu viele Ungewissheiten gibt und dass darüber hinaus ständig neue, unvorhersehbare Situationen auftreten können.

Der Mensch hingegen hat nur ganz wenig „vorprogrammiertes” Verhalten und lernt stattdessen kontinuierlich: Bereits als Fötus knüpft er erste Zusammenhänge zwischen Muskelaktionen und sensorischen Signalen; als Baby erlernt er erste koordinierte Bewegungen, und während des gesamten Entwicklungsprozesses baut er ein Verständnis von der Welt auf und verfeinert dieses immer mehr. Uns scheint die Interaktion mit der Welt überhaupt keine Mühe zu kosten, das Einschenken einer Tasse Kaffee oder das Laufen durch den Wald funktionieren scheinbar wie von selbst. Das war aber nicht von Anfang an so, diese Fähigkeiten hat jeder von uns erlernt.

Um auch nur annähernd an die menschlichen Fertigkeiten heranzureichen, muss ein Roboter Vieles selbst lernen. Aber wie geht das? Kinder sind da ein ideales Vorbild: Sie entdecken die Welt spielerisch. Kinder versuchen, grob gesagt, immer das eigene Verständnis der Welt zu verbessern und führen kleine Experimente durch. Jeder kennt die Situation, wenn ein Kleinkind untersucht, was passiert, wenn es die Tasse vom Tisch schiebt.

Bei den Eltern unbeliebt – aber notwendig, um zu verstehen, dass Dinge herunterfallen, wenn man sie nicht festhält. Die Forscher der Arbeitsgruppe Autonomes Lernen am Max-Planck-Institut für Intelligente Systeme (Tübingen) arbeiten am künstlichen Spieltrieb und den dazugehörigen Lernverfahren, so dass sich künstliche Systeme in Zukunft selbst verbessern können.

Zielfreies Verhalten

Um den Spieltrieb zu verstehen, muss man sich erst einmal davon lösen, dass der Roboter bestimmte vorgegebene Aufgaben erledigen soll. Aber wie kann man dem Roboter einen Spieltrieb einprogrammieren? Das geht jedenfalls nicht durch vorgefertigte Muster oder Abläufe. Es geht vielmehr ganz allgemein über Konzepte wie beispielsweise jenes des Informationsgewinns. Mit Methoden der Informationstheorie, ursprünglich entwickelt um Informationsübertragung bei der Telekommunikation zu beschreiben und zu optimieren, lässt sich der Informationsgewinn mathematisch beschreiben und berechnen.

Eine Möglichkeit besteht darin, dass der Roboter anstrebt sich so zu verhalten, dass die beobachteten Sensorwerte viel Information beinhalten, um künftige Sensorwerte vorherzusagen. Das schließt unter anderem aus, dass er gar nichts tut, denn dann beinhalten die Sensorwerte nur eine insgesamt minimale Informationsmenge. Auch darf er nicht chaotisch herumzappeln, denn dann kann er nicht gut vorhersagen, was passieren wird.

Den Forschern am MPI für Intelligente Systeme ist es gelungen, aus diesem allgemeinen Prinzip eine Lernregel abzuleiten [1]. Diese erlaubt den Robotern, verschiedene Verhaltensmuster eigenständig zu probieren. Die Steuerung übernimmt ein kleines künstliches Neuronales Netz. Die Verbindungsstärke zwischen den künstlichen Neuronen wird aufgrund der Lernregel ständig geändert, ähnlich wie im menschlichen Gehirn. Was passiert, hängt entscheidend vom Aufbau des Roboters und dessen Interaktion mit der Umwelt ab. Um sich nicht ständig mit kaputten Robotern herumschlagen zu müssen, wird viel mit physikalisch realistischen Simulationen gearbeitet jedoch auch an echten Systemen getestet. Abbildung 1.

Abbildung 1. Alle simulierten Roboter haben das gleiche Gehirn und starten ohne Vorwissen. Sie versuchen spielerisch, ihren Körper und die Interaktion mit der Umwelt zu entdecken. © Georg Martius Um diese oder andere selbstlernende Systeme besser charakterisieren zu können, bedarf es neuer Methoden in der Auswertung durch Informations- und Komplexitätsmaße [3].

Der Natur nachempfunden

Die Forscher haben die oben erwähnte Lernregel weiter verbessert und dahin entwickelt, dass sie im Prinzip auch durch natürliche Neuronen umgesetzt werden könnte [3]. Mit dem neuen “Robotergehirn” gelingt es, noch klareres Verhalten von selbst zu erlernen. Zum Beispiel lernt ein simulierter Humanoider Roboter in wenigen Minuten zu kriechen oder an einem Fitnesstrainer Räder zu drehen (s. Abbildung 1). Die meisten Roboter haben starre Glieder und Getriebe in den Gelenken - hochpräzise und sehr robust. Diese sind gut für den industriellen Einsatz aber auch schwer und starr. Im Umfeld von Menschen sind weichere Roboter, die insbesondere nachgeben wenn man sie wegdrückt, deutlich weniger gefährlich. In Anlehnung an die menschliche Anatomie wurden vor kurzem Roboter mit Sehnen und künstlichen Muskeln konstruiert. Allerdings gestaltet sich deren Ansteuerung sehr schwierig und das Lernen wird noch essentieller. Die Verfahren der Forschungsgruppe kommen auch mit solchen Systemen klar und erzeugen viele verschiedene und potentiell nützliche Verhaltensmuster, wie zum Beispiel das eigenständige Schütteln einer Flasche oder das Abschrubben eines Tisches. Abbildung 2. [4].

Abbildung 2. Ein sehnengetriebener Roboterarm. Links sieht man gut das Kugelgelenk in der Schulter und die Seile als Sehnen. Rechts schrubbt der Roboter den Tisch. © Georg Martius

Ausblick

Die Roboter sollen zum einen lernen, irgendwelche Bewegungen auszuführen, zum anderen, gewünschtes Verhalten zu zeigen und darüber hinaus ein gewisses Verständnis von der Welt und ihren Fähigkeiten zu erlangen. Um dies zu erreichen, arbeiten die Forscher an Verstärkungslernen, dem Erlernen von Repräsentationen und internen Modellen, die es den Robotern erlauben genaue Vorhersagen zu machen. Um nicht nur zufällig zusammen auftretende Ereignisse zu verknüpfen, sondern die tatsächlichen Zusammenhänge aufzudecken, benötigt es neue Lernverfahren. Ein kleiner Baustein ist den Forschern schon gelungen, nämlich das automatische Herausfinden der tatsächlich zugrunde liegenden Gleichungen aus Beobachtungen [5]. Damit lassen sich Vorhersagen in unbekannten Situationen treffen.

Bis jetzt sind die selbstlernenden Roboter noch im “Babystadium”, aber sie lernen schon zu kriechen und einfache Dinge zu tun. Das langfristige Forschungsziel ist, dass sie eines Tages zu zuverlässigen Helfern in allen möglichen Situationen “heranwachsen” werden.

Literatur

1. Martius G.; Der R.; Ay N. Information driven self-organization of complex robotic behaviors. PLoS ONE, 8, e63400 (2013)

2. Martius G.; Olbrich E. Quantifying emergent behavior of autonomous robots. Entropy 17, 7266 (2015)

3. Der R.; Martius G.Novel plasticity rule can explain the development of sensorimotor intelligence. Proceedings of the National Academy of Sciences, 112, E6224-E6232 (2015)

4. Der R.; Martius G. Self-organized behavior generation for musculoskeletal robots. Frontiers in Neurorobotics, 11 (2017) 5. Martius G.; Lampert C. H. Extrapolation and learning equations. arXiv preprint https://arxiv.org/abs/1610.02995, 2016.


* Der Artikel ist unter dem gleichnamigen Titel: "Roboter mit eigenem Tatendrang" " (https://www.mpg.de/11868495/mpi-mf_jb_2018?c=1342916) im Jahrbuch 2018 der Max-Planck-Gesellschaft erschienen. Der Artikel wurde mit freundlicher Zustimmung desAutors und der MPG-Pressestelle dem ScienceBlog zur Verfügung gestellt. Der Artikel erscheint ungekürzt.


Weiterführende Links

Max-Planck-Institut für Intelligente Systeme homepage: http://www.is.mpg.de/

Research Network for Self-Organization of Robot Behavior http://robot.informatik.uni-leipzig.de/

The playful machine. http://playfulmachines.com.

Ralf Der & Georg Martius (2011): The playful machine. Theoretical Foundation and Practical Realization of Self-Organizing Robots (for personal use; Springer Verl. ) http://playfulmachines.com./the-playful-machine.pdf

Georg Martius (2013): Playful Machines - self-learning robots. Video 3:15 min. https://bit.ly/2McYvi5

Georg Martius (2015): Playful Machines Playful Machines - Robots learn coordinated behavior from scratch. Video 3:23 min. https://bit.ly/2MrZjMZ.

Georg Martius (2017): Playful Machines - Elastic tendon driven arm explores itself and its environment. Video 4:11 min. https://bit.ly/2OXAQAW

Google Accelerated Science. https://ai.google/research/teams/applied-science/gas/

Jürgen Schmidhuber: Vortrag „Künstliche Intelligenz wird alles ändern“ 2016, Video 49:17 min. https://www.youtube.com/watch?v=rafhHIQgd2A

Artikel im ScienceBlog

Ilse Kryspin-Exner, 31.01.2013: Assistive Technologien als Unterstützung von Aktivem Altern.

Francis S. Collins, 26.04.2018: Deep Learning: Wie man Computern beibringt, das Unsichtbare in lebenden Zellen zu "sehen".


 

inge Thu, 09.08.2018 - 10:04

Übergewicht – Auswirkungen auf das Gehirn

Übergewicht – Auswirkungen auf das Gehirn

Do, 02.08.2018 - 12:29 — Nora Schultz Nora SchultzIcon Gehirn

Wer dick ist, bekommt eher Diabetes und muss mit kognitiven Einschränkungen rechnen. Welche Aspekte der Ernährung Übergewicht begünstigen und das Gehirn beeinträchtigen können, ist hingegen weniger klar. Die Entwicklungsbiologin Nora Schultz gibt einen Überblick über Zucker und Fette, die zu den Hauptverdächtigen gehören: über zu viel Zucker im Blut, der Zellen und Gefäße auch im Gehirn schädigt, aber auch über Nahrungsfette, die – je nach Typ - positiv oder negativ wirken können. Eine wesentliche Rolle spielen auch Nahrungsmittel, die von der Industrie gezielt so entwickelt werden, dass sie möglichst verlockend auf das Belohnungssystem des Gehirns wirkenund Sucht erzeugen können.*

Dick sein wollen die wenigsten, aber dick werden immer mehr. Zwei Drittel der Männer und die Hälfte der Frauen in Deutschland schleppen zu viel Körperfett mit sich herum, ein Viertel aller Erwachsenen sogar so viel, dass sie als fettleibig gelten (Abbildung 1). Weltweit hat sich die Zahl der dicken Männer verdreifacht und die der Frauen immerhin verdoppelt [1].

Abbildung 1. Dramatische Zunahme der Übergewichtigen (Body-Mass Index 30 - 34,9 kg/m2) und schwer Übergewichtigen (Body-Mass Index >- 34,9 kg/m2) in den US und in Deutschland von 1975 bis 2014 (Bild von der Redaktion aus den Tabellen der NCD Risk Factor Collaboration [1] erstellt)

Dem Gehirn tut so viel Speck nicht gut, das steht fest. Dicke bekommen häufiger Diabetes [2], eine Krankheit, deren Häufigkeit sich in den letzten 20 Jahren ebenfalls weltweit verdoppelt hat und die das Gehirn schrumpfen lässt [3] und das Risiko für Schlaganfälle und Demenzerkrankungen erhöht. Und auch wer nur dick ist und (noch) nicht an Diabetes leidet, muss mit einem verkleinerten Gehirnvolumen und kognitiven Einschränkungen rechnen.

Woran liegt’s?

Die langfristigen Zusammenhänge zwischen Essen, Übergewicht und dem Gehirn sind notorisch schwer zu untersuchen. Wir nehmen täglich wechselnde komplexe Mischungen von Nährstoffen zu uns, die sich weder leicht exakt dokumentieren noch gut dauerhaft kontrollieren lassen. Ihre Effekte auf den Körper bauen sich über Jahrzehnte auf und können von vielen anderen Aspekten des Lebensstils beeinflusst werden. Eine zentrale Rolle spielen dabei die unterschiedlichen Wirkweisen verschiedener Zucker und Fette auf den Körper sowie die Hormone, die dieser einsetzt, um seine Energiebalance aufrechtzuerhalten.

Kohlenhydrate

bestehen aus unterschiedlichen Einfachzuckern, darunter Traubenzucker (Glucose), aus dem sich Stärkemoleküle zusammensetzen und Fruchtzucker (Fructose), der zusammen mit Glucose weißen Haushaltszucker (Sucrose) bildet. Glucose ist ein wichtiger Brennstoff für den Körper und insbesondere für das Gehirn. Zu viel davon im Blut kann aber auch schaden, vor allem, weil Überschüsse sich an Eiweiße anlagern. Die so entstehenden Glykoproteine bilden Ablagerungen und tragen zu lokalen Entzündungsprozessen bei, die Zellen und Gefäße schädigen, sei es im Rahmen von Diabeteskomplikationen oder degenerativen Erkrankungen des Nervensystems.

Glucose und Insulin

Steigt der Traubenzuckerspiegel im Blut, schüttet die Bauchspeicheldrüse das Hormon Insulin aus, das es Zellen erlaubt, Traubenzucker aufzunehmen und ihn aus dem Blut zu entfernen. Zellen können Glucose entweder direkt als Energiequelle verwenden oder sie nach biochemischer Umwandlung speichern – in Muskelzellen und Leber in Form des Vielfachzuckers Glykogen, in Fettzellen als Fettsäuren. Gelangt über längere Zeit kein oder nur wenig Traubenzucker ins Blut, stimulieren andere Hormone – wie z. B. das ebenfalls in der Bauspeicheldrüse hergestellte Glucagon – gegenläufige Prozesse, um den Energiebedarf des Körpers zu decken: Glykogenvorräte werden abgebaut; Fettzellen setzen ihre Vorräte frei und die Leber stellt aus Eiweißabbauprodukten bei Bedarf selbst Traubenzucker her.

Bei diesem Herzstück des Energiestoffwechsels beginnt eine Kontroverse: Wenn ein ständiger Zuckeransturm im Blut dank erhöhter Insulinausschüttung Fetteinlagerungen begünstigt, sollte Essen mit weniger Kohlenhydraten es leichter machen, auf Körperfettreserven zuzugreifen und so den eigenen Appetit in Zaum und die Figur schlank zu halten, sagen Verfechter einer kohlenhydratreduzierten Ernährung. Darauf sei der Mensch auch eingestellt, da Kohlenhydratbomben erst durch die moderne Landwirtschaft möglich geworden seien. Die Gegenposition sieht das Problem eher beim Nahrungsüberangebot insgesamt, das unabhängig vom Kohlenhydratgehalt in modernen Industriegesellschaften zu exzessivem Fressvergnügen führe. Wer ständig mehr isst, als er verbraucht, wird eben dick, so die Prämisse.

Einig sind sich die Kontrahenten darin, dass der Insulinstoffwechsel im Gleichgewicht bleiben sollte. Klappt das nicht, droht Insulinresistenz, ein Zustand, bei dem Körperzellen unempfindlich für Insulin werden, und der das Risiko für Diabetes und andere Erkrankungen erhöht [siehe Kasten Insulinresistenz]. Auch dass zu viel Zucker ungesund ist, gilt zumindest inzwischen als akzeptiert. Die Weltgesundheitsorganisation rät seit 2015 dazu, den Konsum zugesetzten Zuckers auf unter 10 Prozent der täglichen Energiezufuhr zu reduzieren, eventuell sogar auf unter 5 Prozent (http://www.who.int/mediacentre/news/releases/2015/sugar-guideline/en/) . Das liegt auch daran, dass süße Sachen in der Regel nicht nur Glucose enthalten, sondern dank der Zusammensetzung der beliebtesten Zuckersorten ungefähr genauso viel Fructose.

Fructose

Dieser besonders süß schmeckende Einfachzucker löst keine Insulinausschüttung aus. Über lange Jahre hinweg wurde Fructose daher gerade für Diabetiker als gesunde Alternative zu Haushaltszucker empfohlen und vielen Lebensmitteln zugesetzt. Inzwischen gilt Fructose jedoch als viel ungesünder als Glucose. Denn Fructose wird vor allem in der Leber verstoffwechselt - und dort überwiegend in Fett umgewandelt. Dieser Zucker geht also direkt auf die Hüften – und stimuliert darüber hinaus auch die Fetteinlagerung aus anderen Bestandteilen der Nahrung. Hinzu kommt, dass Fructose noch stärker als Glucose mit Eiweißen reagiert und die Insulinresistenz insbesondere in der Leber erhöhen kann.

Ob sich der regelmäßige Verzehr kohlenhydratreicher Nahrung auch unabhängig von einem hohen Zuckeranteil negativ auf den Stoffwechsel auswirkt, bleibt allerdings umstritten. Vertreter einer kohlenhydratreichen Mischkost argumentieren, dass viele Kohlenhydrate unproblematisch sind, solange unverarbeitete Nahrungsmittel wie z.B. Vollkornprodukte konsumiert werden, die den Blutzuckerspiegel nicht so schlagartig erhöhen wie z. B. Weißmehlprodukte oder süße Getränke.

Nahrungsfette

Kontrovers diskutiert wird auch die Rolle von Nahrungsfetten. Die Deutsche Gesellschaft für Ernährung beispielsweise rät in ihren Leitlinien dazu, wenig Fett zu essen, da Fett aufgrund seiner hohen Energiedichte zur Aufnahme von zu vielen Kalorien und somit zu Übergewicht führe. Unterschiedliche Fette wirken allerdings verschieden auf den Stoffwechsel und auch auf das Gehirn. Relativ gut belegt ist, dass so genannte Transfette, die z. B. bei der industriellen Fetthärtung und beim Braten, Backen oder Frittieren entstehen, dem Körper nicht gut tun. Sie beeinflussen die Blutfettverteilung und Entzündungswerte ungünstig und erhöhen das Risiko, Herz-Kreislauf-Erkrankungen zu entwickeln und daran zu sterben. Des Weiteren werden sie auf Grundlage bisheriger Studien zumindest verdächtigt, auch zu Übergewicht, Insulinresistenz und Diabetes beizutragen, kognitive Leistungen zu beeinträchtigen, und Depressionen, Aggressionen und Demenzerkrankungen zu befördern.

Ungesättigte Fette,

die bei Raumtemperatur flüssig sind, genießen hingegen überwiegend einen deutlich besseren Ruf. Das gilt vor allem für einfach ungesättigte Fettsäuren, die z. B. in Oliven, Avocados aber auch in Fleisch, Nüssen und Milchprodukten enthalten sind, und mehrfach ungesättigte Omega-3-Fettsäuren, die insbesondere in fettem Seefisch vorkommen. Sie bilden einen wichtigen strukturellen Bestandteil biologischer Membranen und helfen, diese flexibel zu halten und Entzündungen zu vermeiden. Das Gehirn baut besonders gerne mit der Omega-3-Fettsäure DHA, die sich vor allem in den Zellmembranen von Nervenzellen anreichert. So überrascht es kaum, dass Omega-3-Fettsäuren als zu den wenigen Nährstoffen gehörend gelten, die einen nachweislich und konsequent positiven Effekt auf die kognitive Entwicklung und Leistung, psychische Gesundheit und die Widerstandskraft gegen Demenz haben.

Sie können ihre Wirkung jedoch nur entfalten, wenn nicht gleichzeitig zu viele Omega-6-Fettsäuren, die in vielen Ölsaaten enthalten sind, um die Enzyme buhlen, die im Omega-3-Stoffwechsel zum Einsatz kommen. Nehmen Omega-6-Fettsäuren überhand, steigen Entzündungswerte und die damit verbundenen Risiken zu erkranken – z. B. an einer Alzheimer-Demenz. Da viele beliebte Speiseöle wie z. B. Sonnenblumen- oder Rapsöl reich an Omega-6-Fettsäuren sind, fällt das Mengenverhältnis zwischen diesen und Omega-3-Fettsäuren in Industrieländern oft ungünstig aus. Eine weitgehend einhellige Ernährungsempfehlung lautet daher, durch verstärkten Verzehr von öligem Fisch und Fetten, die weniger Omega-6 enthalten, ein günstigeres Omega-Verhältnis anzupeilen.

Gesättigte Fette

Wie gesättigte Fette – die typischerweise bei Raumtemperatur fest sind – sich gesundheitlich auswirken, ist weniger klar. Während sich jahrzehntelange Annahmen, dass sie den Stoffwechsel grundsätzlich negativ beeinflussen, bislang kaum erhärten ließen, hält sich der Verdacht, dass sie kognitive Funktionen beeinträchtigen und Demenz befördern, hartnäckiger. Die Studienlage bleibt jedoch vorerst uneindeutig. Dass gesättigte Fette grundsätzlich schlecht für den Gehirnstoffwechsel sein sollten, ist jedenfalls schon allein deshalb unwahrscheinlich, weil der Körper selbst einen Großteil seiner Energievorräte in Form gesättigter Fettsäuren speichert. Kommt es vorübergehend zu Nahrungsmangel, werden diese freigesetzt und verwertet. Auf das Gehirn wirken sich solche Phasen keineswegs negativ aus.

Crosstalk zwischen Hormonen und Nährstoffen

Dass sich einfache Aussagen über die Vor- und Nachteile von Fett, Zucker und ihren einzelnen Varianten nur so schwer treffen lassen, liegt im Übrigen auch daran, dass Nährstoffe ständig miteinander und mit den jeweiligen Gegebenheiten des Körpers interagieren und sich dementsprechend unterschiedlich auswirken können. Neben Insulin beeinflussen zum Beispiel eine Reihe weiterer Hormone den Energiestoffwechsel, darunter Leptin, Ghrelin und Cortisol. Sie werden situationsabhängig von verschiedenen Geweben produziert und können den Appetit zügeln oder anregen. Körperfett gehört dabei zu den hormonell aktivsten und vielfältigsten Geweben – Unterhautfett produziert z. B. Sättigungshormone, Hüftspeck eine Substanz, die Insulinsensitivität fördert, und Bauchfett scheidet entzündungsfördernde Stoffe aus.

Braunes Fett

Es gibt sogar eine Fettsorte, das so genannte braune Fett, das besonders viele Mitochondrien enthält und sich darauf spezialisiert, Fett in Hitze umzuwandeln. Dachte man früher noch, dass nur Säuglinge, die stark vom Auskühlen bedroht sind, braunes Fett haben, wurde es inzwischen auch im Körper von Erwachsenen entdeckt. Da braunes Fett beim Abnehmen helfen und sich insgesamt günstig auf den Stoffwechsel auswirken kann, suchen Forscher intensiv nach Wegen, es zu stimulieren. Das klappt zum Beispiel mit milden Kältereizen. Wer seinem Stoffwechsel definitiv Gutes tun will, muss sich dennoch nicht allein auf bibbernde Spaziergänge ohne Jacke beschränken. Denn so komplex die Zusammenhänge zwischen Makronährstoffen und Menschenkörpern auch sein mögen, gibt es doch Nahrungsmittel, die über jeglichen Zweifel erhaben dick machen und den Energiestoffwechsel durcheinanderbringen können. Das gilt insbesondere für Leckereien, die gleich mehrere verdächtige Nahrungsgruppen in sich vereinen. Vor allem industriell verarbeitete Knabbereien, Süßigkeiten, Gebäcke und Fertiggerichte enthalten meist viel Fett und viele Kohlenhydrate (Abbildung 2).

Abbildung 2. Zu viele Kohlehydrate, zu viel Fett und zusätzlich ein Suchtpotential

Nahrungsmittel, die süchtig machen,

sind zudem nicht nur überall verfügbar, sondern werden von der Nahrungsmittelindustrie gezielt so entwickelt, dass sie möglichst verlockend auf das Belohnungssystem des Gehirns wirken. Auch z. B. der Salzgehalt, Duft-, Geschmacks- und andere Zusatzstoffe sowie mechanische Eigenschaften wie etwa die Knusprigkeit können dazu beitragen, dass das Gehirn auf solche Nahrungsangebote mit hilflosem Verlangen reagiert.

Manche Forscher ziehen sogar Parallelen zur Drogensucht [4]. Sie argumentieren, dass das ständige Angebot von Junk-Food und die Dopaminausschüttung, die seinen Konsum stimuliert, langfristig die Plastizität im Gehirn dahingehend beeinflussen, dass Betroffene solchen Lebensmitteln schlichtweg nicht mehr widerstehen können. Tatsächlich zeigen viele übergewichtige Kinder und Jugendliche eingeschränkte exekutive Funktionen – jene kognitiven Fähigkeiten, die uns dazu in die Lage versetzen, unsere Aufmerksamkeit und Handlungen gezielt zu steuern und Impulsen zu trotzen.

Inwieweit dies Ursache oder Ergebnis von bestimmtem Ernährungsverhalten ist – oder beides gilt – bleibt vorerst noch offen. Doch es lohnt sich, Wege zu finden, sich dem ständigen Ansturm des Schrottessens zu entziehen: Eine britische Untersuchung an 14.500 Familien zeigte kürzlich, dass Kleinkinder, die Muttermilch und frisches, selbst gekochtes Essen bekamen, auch nach Kontrolle aller anderen Faktoren später leicht intelligenter waren als ihre Altersgenossen, die mit stark verarbeiteter, fett- und zuckerreicher Industriekost ins Leben gestartet waren.


*Der von Prof. Dr. Stefan Knecht wissenschaftlich betreute Artikel erschien am 1.3.2018 unter dem Titel "Dick ist doof fürs Hirn" und steht unter einer cc-by-nc -sa Lizenz: https://www.dasgehirn.info/handeln/ernaehrung/zucker-fett-uebergewicht . Die Webseite www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe Der Artikel wurde von der Redaktion geringfügig für den Blog adaptiert (Überschriften und Absätze eingefügt) und es wurden Abbildungen eingefügt.


Literatur

[1] NCD Risk Factor Collaboration: Trends in adult body-mass index in 200 countries from 1975 to 2014: a pooled analysis of 1698 population-based measurement studies with 19·2 million participants. Lancet 2016; 387: 1377–96 https://www.thelancet.com/action/showPdf?pii=S0140-6736%2816%2930054-X (open access)

[2] Peter Nordström et al., Risks of Myocardial Infarction, Death, and Diabetes in Identical Twin Pairs With Different Body Mass Indexes. JAMA Intern Med. 2016;176(10):1522-1529. Open access. https://jamanetwork.com/journals/jamainternalmedicine/article-abstract/2540539

[3] R.N. Bryan et al., Effect of Diabetes on Brain Structure: The Action to Control Cardiovascular Risk in Diabetes MR Imaging Baseline Data. Radiology 2014; 272, 1. https://pubs.rsna.org/doi/abs/10.1148/radiol.14131494 (" Longer duration of diabetes is associated with brain volume loss, particularly in the gray matter, possibly reflecting direct neurologic insult")

[4] J-P. Morin et al., Palatable Hyper-Caloric Foods Impact on Neuronal Plasticity. Front. Behav.Neurosci (Feb, 2017), 11,19. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5306218/pdf/fnbeh-11-00019.pdf


Weiterführende Links

Deutsches Diabetes Informationszentrum: https://diabetesinformationsdienst.de/#6 (informiert Sie über Diabetes, seine Prävention, Diagnose, Therapie, mögliche Begleit- und Folgeerkrankungen, Diabetes im Alltag, Reisen, Kochrezepte und vieles mehr.)

Nicole Paschek: Das Gehirn hat immer Hunger (1.3.2018). https://www.dasgehirn.info/handeln/ernaehrung/das-gehirn-hat-immer-hunger (So viel Energie wie das Gehirn verbrennt sonst kaum ein anderes Organ. Wie stillt das Gehirn seinen Hunger?)

Jochen Müller: Überflieger durch Nervennahrung (1.3.2018). https://www.dasgehirn.info/handeln/ernaehrung/ueberflieger-durch-nervennahrung (Können wir uns durch Brainfood schlau futtern? Welche Nahrungsmittel sind gut für unseren Kopf?)

Natalie Steinmann: Einflussreiche Winzlinge (1.3.2018). https://www.dasgehirn.info/handeln/ernaehrung/einflussreiche-winzlinge (Auf bis zu 100 Billionen wird die Zahl der Mikroorganismen in unserem Darm geschätzt, die mit dem Gehirn kommunizieren und neuesten Forschungen zufolge auch unser Essverhalten und unsere Stimmung beeinflussen könnten)

Artikel im ScienceBlog:

Jens C. Brüning & Martin E. Heß, 17.4. 2015: Veranlagung zu Übergewicht: ein Wechselspiel von Genom und Umwelt? http://scienceblog.at/uebergewicht-genom-umwelt#.

Hartmut Glossmann, 10.4.2015: Metformin: Vom Methusalem unter den Arzneimitteln zur neuen Wunderdroge? http://scienceblog.at/metformin-vom-methusalem-unter-den-arzneimitteln-zur-neuen-wunderdroge.

I. Schuster, 15.2.2018: Coenzym Q10 kann der Entwicklung von Insulinresistenz und damit Typ-2-Diabetes entgegenwirken. http://scienceblog.at/coenzym-q10-kann-der-entwicklung-von-insulinresistenz-und-damit-typ-2-diabetes-entgegenwirken.

F.S.Collins, 25.1.2018: Primäre Zilien auf Nervenzellen- mögliche Schlüssel zum Verständnis der Adipositas. http://scienceblog.at/prim%C3%A4re-zilien-auf-nervenzellen-m%C3%B6gliche-schl%C3%BCssel-zum-verst%C3%A4ndnis-der-adipositas.


 

inge Thu, 02.08.2018 - 00:29

Herausforderungen für die Wissenschaftsdiplomatie

Herausforderungen für die Wissenschaftsdiplomatie

Do, 26.07.2018 - 13:35 — IIASA IIASAIcon Politik & Gesellschaft

Das Internationale Institut für angewandte Systemanalyse - IIASA - (in Laxenburg bei Wien) stellt in dem halbjährlich erscheinenden Magazin "Options" seine neuesten Forschungsergebnisse in einer für Laien leicht verständlichen Form vor. In der Sommerausgabe 2018 spricht Sir Peter Gluckman* - wissenschaftlicher Berater des Premierministers von Neuseeland und Distinguished Visiting Fellow des IIASA - über eine neue Form der Diplomatie: Unter Nutzung von (Natur)Wissenschaft und Technologie sollen nationale und internationale diplomatische Ziele vorangebracht, vertiefte Kooperationen eingegangen und gemeinsame Strategien zur Bewältigung internationaler/globaler Herausforderungen entwickelt werden[1].*

Was ist Wissenschaftsdiplomatie?

Wissenschaftsdiplomatie und internationale Wissenschaftskooperation sind Bereiche, die überlappen, jedoch nicht unbedingt die gleichen Ziele haben. Wissenschaftliche Joint Ventures - wie beispielsweise das IIASA- produzieren wichtige Erkenntnisse und überschneiden sich teilweise mit der Welt der internationalen Diplomatie. Während es das Ziel der internationalen Wissenschaft ist Wissen zu produzieren, geht es in der Wissenschaftsdiplomatie eher darum, wie Länder die Wissenschaft nutzen, um ihre Interessen voran zu bringen - Diplomatie dient ja schließlich dazu die nationalen Interessen eines Landes auf der internationalen Bühne durchzusetzen. Abbildung 1.

Abbildung 1. Wozu Wissenschaftsdiplomatie? P.Gluckman nennt in [2] drei Kategorien der Motivation.(Bild und Text von der Redaktion eingefügt.)

Diese nationalen Interessen können auf verschiedenen Ebenen mit Hilfe von (Natur)Wissenschaft gefördert werden. Die direkteste Ebene: Wissenschaft hilft einem Land Einfluss zu gewinnen oder Brücken zu einem Land zu bauen, an dem es Interesse hat. Wissenschaft kann ein Land beispielsweise nutzen, um seine Sicherheits- oder Handelsinteressen voranzutreiben oder um Zugang zu benötigten Technologien zu erhalten. Wissenschaft kann zu besserem Management von gemeinsam mit einem andern Land genutzten Ressourcen verhelfen, wie etwa in Fragen von grenzüberschreitender Wasserbewirtschaftung. Wissenschaft spielt auch dort eine Rolle, wo globales Interesse auf dem Spiel steht, etwa beim Klimawandel oder bei der Verschmutzung der Meere.

Jedes Land, ob Industrie- oder Entwicklungsland, steht in Beziehungen zu anderen Ländern und diese Beziehungen weisen in zunehmendem Maße technologische und naturwissenschaftliche Elemente auf. Geht es um die wichtigsten globalen Interessen, so ist zur Erreichung jedes der Ziele für nachhaltige Entwicklung (Sustainable Development Goals) Wissenschaft unabdingbar (Abbildung 2).

Abbildung 2. Die 17 Ziele für nachhaltige Entwicklung sind politische Ziele der Vereinten Nationen, die mit 1.1.2016 in Kraft getreten sind und bis 2030 laufen. (Natur)wissenschaft und Technologien sind zur Erreichung dieser Ziele unabdingbar (Bild: WP:NFCC#7 Wikipedia, deutsche Version: © Bundeskanzleramt Österreich; Bild von der Redaktion eingefügt.)

Einbindung von Wissenschaftsberatung

Angesichts der zentralen Bedeutung, die Wissenschaft für die Bewältigung internationaler Herausforderungen hat, ist es überraschend, dass wir keine besseres Vorgehen haben, um Wissenschaft in die internationale Diplomatie einzubinden. Nur wenige Außenministerien verfügen über wissenschaftliche Berater. Die Vereinten Nationen haben kein durchgängiges System, um wissenschaftlichen Rat in ihre Entscheidungen einzubeziehen. Im Allgemeinen werden politische Entscheidungen von den einzelnen Ländern getroffen und nicht von internationalen Organisationen - es bedarf somit einer stärkeren vertikalen Integration zwischen internationalen Organisationen und inländischen Systemen der Wissenschaftsberatung. Dies kann vielleicht am besten durch Wissenschaftsberater erreicht werden, die in ihren diplomatischen Dienst eingebunden sind. Auch heute noch müssen Länder oft davon überzeugt werden, dass es in ihrem nationalen Interesse liegt, zusammenzuarbeiten und Wissenschaft für den globalen Fortschritt zu nutzen.

Wenn wir die Ziele für nachhaltige Entwicklung (Abbildung 2)erreichen wollen, müssen wir viel intensiver darüber nachdenken, wie wir wissenschaftliche Erkenntnisse, Entscheidungsfindung, Völkergemeinschaft, UN-Organisationen und Innenpolitik miteinander in Verbindung bringen.

Als Erstes müssen Vereinte Nationen und internationale Organisationen ihre wissenschaftlichen Beratungsnetzwerke besser einbinden. Während wir über die Ziele nachdenken und die Wissenslücken, die noch zu füllen sind, müssen wir uns auch ein Wissenschaftssystem überlegen, das derartige Bestrebungen unterstützen wird. Das System der Vereinten Nationen verfügt derzeit über kein aufeinander abgestimmtes Wissenschaftssystem. Ein solches wird dringend benötigt und muss über das stark abgeschottete System der UN-Organisationen nach außen dringen.

Zum Zweiten müssen Außenministerien die Wissenschaft besser in ihr Vorgehen einbinden. In einer Reihe von Ländern geschieht das bereits. Wir sehen das an Hand zweier Organisationen (in denen ich den Vorsitz innehabe): dem Internationalen Netzwerk für Regierungsberater (International Network for Government Science Advice - INGSA) und dem Wissenschafts - und Technologieratgeber-Netzwerk der Außenminister (Foreign Ministers’ Science and Technology Advisors Network). Beide Organisationen kooperieren und verknüpfen und forcieren die Berufe der Wissenschaftsberatung und Wissenschaftsdiplomatie. Das Netzwerk der Außenminister hat sich dabei stark ausgedehnt: von vier Ländern beim Start vor zwei Jahren auf aktuell über 25 Länder. Was wir dabei beobachten, ist, dass sich eine wachsende Zahl von Ländern dafür interessiert Teil eines Forums zu sein, in dem Themen von hoch engagierten Personen diskutiert werden können.

Letztendlich wird der Erfolg dieser Bestrebungen auf Vorteilen beruhen, die sie nachweislich den Ländern bringen. Wenn ein Land sieht, wie andere Länder davon profitieren, dass sie die Instrumente der Wissenschaftsdiplomatie besser oder effizienter handhaben, wird es das ernst nehmen.


Anm. d. Redaktion

Wissenschaftsberatung hat bereits in der Antike zu Erfolgen geführt. Abbildung 3.

Abbildung 3. Der Naturphilosoph und Wissenschaftstheoretiker Aristoteles als Berater von Alexander dem Großen. Stich von Charles Laplante, Paris 1866; das Bild ist gemeinfrei. (Bild und Text von der Redaktion eingefügt.)


*Sir Peter Gluckman (*1949, Auckland, Neuseeland) hat an der Universität Otago Pädiatrie und Endokrinologie studiert, graduierte zum MMedSc und zum Doktor der Naturwissenschaften. Er ist Professor für Pädiatrie und perinatale Biologie an der Universität Auckland und war dort u.a. Dekan der medizinische Fakultät und Gründungsdirektor des Liggins Institut, eines der weltweit führenden translationalen Forschungseinrichtungen, die Grundlagenforschung in Therapien überführen.

2009 wurde er zum ersten wissenschaftlicher Berater des Premierministers von Neuseeland ernannt , 2014 wurde er Mitvorsitzender der WHO-Kommission zu Ending Childhood Obesity (ECHO). Im selben Jahr kam es zur Gründung des International Network for Government Science Advice - INGSA, dessen Vorsitz er inne hat. Seitdem hat sich Gluckman zu einem der weltbesten Experten für globale Wissenschaftsberatung und Wissenschaftsdiplomatie profiliert. Im Oktober 2016 hat er am IIASA den ersten globalen Workshop über Wissenschaftsberater in Außenministerien geleitet.


[1] Sir Peter Gluckman: Opinion: Challenges to science diplomacy. Options, Sommer 2018. p.10. http://www.iiasa.ac.at/web/home/resources/publications/options/Challenges_to_science_diplomacy.html

[2] Sir Peter Gluckman (2017), Science diplomacy – looking towards 2030. 45th Anniversary lecture at IIASA. http://www.pmcsa.org.nz/wp-content/uploads/17-11-14-Science-diplomacy-looking-towards-2030.pdf


* *Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte, für den Blog adaptierte Text stammt von Sir Peter Gluckman und ist im aktuellen Option Magazin des IIASA zu finden: “Opinion: Challenges to science diplomacy." Options, Sommer 2018. p.10. http://www.iiasa.ac.at/web/home/resources/publications/options/Challenges_to_science_diplomacy.html. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch passende Abbildungen ergänzt.


Weiterführende Links

inge Thu, 26.07.2018 - 13:35

Wie die Bausteine des Lebens aus dem Weltall auf die Erde kamen

Wie die Bausteine des Lebens aus dem Weltall auf die Erde kamen

DoDmitry Semenov, Thomas Henning19.07.2018 - 10:03 — Dmitry Semenov, Thomas Henning Icon Astronomie

Die Frage nach dem Ursprung des Lebens auf der Erde ist eine der grundlegenden Fragen der Wissenschaft. Astronomen der McMaster University und des Max-Planck-Instituts für Astronomie (MPIA) haben ein stimmiges Szenario für die Entstehung von Leben auf der Erde berechnet, das auf astronomischen, geologischen, chemischen und biologischen Modellen basiert [1]. Dmitry Semenov und Thomas Henning vom MPIA beschreiben hier dieses Szenario, in welchem sich das Leben nur wenige hundert Millionen Jahre, nachdem die Erdoberfläche soweit abgekühlt war, dass flüssiges Wasser existieren konnte, formte. Die wesentlichen Bausteine für das Leben wurden während der Entstehung des Sonnensystems im Weltraum gebildet und durch Meteoriten in warmen kleinen Teichen auf der Erde deponiert.*

Wie auf der Erde vor rund vier Milliarden Jahren das erste Leben entstand, ist eine der großen Fragen der Wissenschaft. Neue Ergebnisse von Forschern der McMaster University (Hamilton, Kanada) und des Max-Planck-Instituts für Astronomie deuten darauf hin, dass Meteoriten dabei eine wesentliche Rolle gespielt haben dürften. Diese Körper landeten in warmen kleinen Teichen auf der Erde (Abbildung 1) und deponierten dort organische Stoffe, welche die Entstehung des Lebens in Form von selbstreplizierenden RNA-Molekülen ermöglichten [1].

Abbildung 1. Ein kleiner warmer Teich auf der heutigen Erde, auf dem Bumpass Hell Trail im Lassen Volcanic National Park in Kalifornien. Die kleinen warmen Teiche, in denen das erste Leben entstanden sein könnte, sahen vermutlich nicht unähnlich aus. © B. K. D. Pearce

Lebensentstehung - Ein Modell, das Astronomie, Geologie, Chemie und Biologie zusammenfasst

Die Schlussfolgerungen der Astronomen basieren auf einem Modell, das heutiges Wissen zu Planetenentstehung, Geologie, Chemie und Biologie zusammenfasst - Berechnungen, die unser Wissen über die Geologie der frühen Erde, die chemischen Bedingungen, die Eigenschaften der beteiligten Moleküle und astronomische Informationen über die Eigenschaften von Meteoriten und interplanetaren Stäuben miteinander verbinden. Dass solch eine quantitative Analyse nun erstmals möglich ist, verdanken wir Fortschritten auf vielen Gebieten: von der Mikrobiologie über die Suche nach Exoplaneten bis hin zu Beobachtungen planetarer Kinderstuben bei anderen Sternen.

Das vielleicht interessanteste Ergebnis der Berechnungen ist, dass das Leben vergleichsweise früh entstanden sein dürfte: Nur wenige hundert Millionen Jahre nachdem die Erde ausreichend abgekühlt war, um flüssiges Oberflächenwasser wie Teiche oder Ozeane zuzulassen. Damals trafen ungleich viel mehr Meteorite auf die Erde als heutzutage.

Bis jetzt hatte niemand diese Berechnungen tatsächlich durchgeführt. Weil das neue Modell so viele Ergebnisse aus so vielen verschiedenen Bereichen einschließt, ist es erstaunlich, dass alles so schlüssig zusammenhängt. Jeder Schritt des Modells führte ganz natürlich zum nächsten. Dass dabei am Ende ein klares Bild herauskam, ist ein klares Indiz dafür, dass das Szenario so falsch nicht sein kann.

Um den Ursprung des Lebens zu verstehen, müssen wir die Erde so verstehen, wie sie vor Milliarden von Jahren war. Wie die Studie des Max-Planck-Instituts zeigt, liefert die Astronomie einen wichtigen Teil der Antwort. Die Details der Entstehung unseres Sonnensystems haben direkte Folgen für den Ursprung des Lebens auf der Erde.

Meteorite transportieren Bausteine des Lebens in kleine warme Teiche

Die neue Arbeit unterstützt die Hypothese, Leben sei in kleinen warmen Gewässern entstanden. (Der Ausdruck "kleiner warmer Teich", „warm little pond“, geht übrigens auf eine der frühesten Spekulationen über den Ursprung des Lebens zurück: einen Brief von Charles Darwin an den Botaniker Joseph Hooker aus dem Jahr 1871.) In den Zyklen, in denen flache Teiche erst austrocknen und sich dann wieder mit Wasser füllen, werden die chemischen Inhaltsstoffe gehörig konzentriert, was Bindungen zwischen den Nukleotiden (aus Nukleobasen, Phosphatgruppen und Zuckerresten zusammengesetzte Bausteine der Nukleinsäuren; Anm. Redn.) und damit die Entstehung längerer RNA-Ketten begünstigt. Die Forscher konnten zeigen, dass Meteoriten eine ausreichende Menge an Nukleobasen zu Tausenden solcher Teiche auf der Erde transportiert haben könnten und damit die Entstehung selbstreplizierender RNA-Moleküle in mindestens einem dieser Teiche anstießen. Abbildung 2.

Abbildung 2. Schematische Darstellung der verschiedenen Einflüsse auf chemische Verbindungen in kleinen warmen Teichen im Wasser und während der Trockenphase: Materialnachschub durch Meteoriten und interplanetare Staubkörnern, Versickerung, Verdunstung, Wiederbefüllung durch Niederschlag, Hydrolyse komplexerer Moleküle und Photodissoziation durch UV-Photonen der Sonne. (Anm. Redn.: Nucleobasen - hier im Bild Adenin - werden in Meteoriten in Konzentrationen bis zu 515 ppb gefunden [1]; IDP bedeutet interplanetare Staubpartikel) © McMaster University

Basierend auf dem bekannten Wissen über die Planetenbildung und die Chemie des Sonnensystems haben die Forscher des MPIA ein konsistentes Szenario für die Entstehung des Lebens auf der Erde vorgeschlagen. Sie liefern plausible physikalische und chemische Informationen über die Bedingungen, unter denen das Leben hätte entstehen können. Jetzt sind die Experimentatoren an der Reihe, herauszufinden, wie das Leben unter diesen ganz spezifischen frühen Bedingungen tatsächlich entstanden sein könnte.

Eine frühe RNA-Welt

Damit ist zwar noch lange keine definitive Antwort auf die fundamentale Frage nach dem Ursprung des Lebens auf der Erde gefunden, aber in den letzten Jahrzehnten haben sich einige interessante mögliche Antworten ergeben. Eine in den 1980er Jahren näher ausgearbeitete Theorie postuliert eine RNA-Welt: Die genetische Information höherer Organismen wird in der Doppelhelix der DNA-Moleküle gespeichert, aber es gibt auch eng verwandte Moleküle, RNA (Ribonukleinsäure), die eine herausragende Rolle in modernen Zellen spielen. Insbesondere katalysieren sie in den Zellen bestimmte chemische Reaktionen und sind für die Weiterleitung genetischer Informationen ebenso unentbehrlich wie für die Synthese spezifischer Proteine (sozusagen den Dekreten der Zellregierung) auf der Grundlage des genetischen Codes. Bei einigen Viren wird für die Speicherung der genetischen Information überhaupt keine DNA verwendet, sondern alle Informationen sind in Virus-RNA kodiert.


[1] Ben K. D. Pearce, Ralph E. Pudritz, Dmitri Semenov, Thomas K. Henning. Origin of the RNA World: The Fate of Nucleobases in Warm Little Ponds. Proc. Nat. Acad. Sci,114,11327 (2017). Die Arbeit ist unter https://arxiv.org/pdf/1710.00434.pdf frei zugänglich.

Vor wenigen Wochen wurden die Autoren Ben K. D. Pearce ( McMaster University), Ralph E. Pudritz (McMaster University, Max-Planck-Institut für Astronomie und Zentrum für Astronomie der Universität Heidelberg) und Dmitri Semenov und Thomas K. Henning (beide Max-Planck-Institut für Astronomie) für diese bahnbrechende Arbeit von der US National Academy of Sciences mit dem renommierten Cozzarelli Preis ausgezeichnet.


* Der Artikel ist eben unter dem gleichnamigen Titel: " Wie die Bausteine des Lebens aus dem Weltall auf die Erde kamen" (https://www.mpg.de/11813292/mpia_jb_2018?c=12090594) im Jahrbuch 2018 der Max-Planck-Gesellschaft erschienen. Der Artikel wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle dem ScienceBlog zur Verfügung gestellt. Der Artikel erscheint ungekürzt; von der Redaktion eingefügt wurden Untertitel und zwei Sätze wurden aus der Seite des MPIA http://www.mpia.de/aktuelles/wissenschaft/2017-10-rna-teiche?page=2&seite=2.


Weiterführende Links

Max-Planck-Institut für Astronomie (Heidelberg)

Bausteine, die vom Himmel fallen (18.06.2018) (ausführliche Darstellung der Arbeit von Dimitrov und Henning)

Ursprung des Lebens (02.07.2018) Podcast, 22:45 min.

Heidelberg Initiative for the Origins of Life – HIFOL

Neueste MPIA-Wissenschaftsmeldungen

Weitere

Entstehung des Lebens - Abiogenese. Übersetzung des Videos "The Origin of Life - Abiogenesis" von cdk007. Video 9:59 min. Standard YouTube Lizenz.

Universum für alle. 70 online Videos. (Ein schöner Überblick über die Forschung sowohl am MPIA als auch an den anderen Heidelberger Instituten)

Petra Schwille: Campus TALKS: Zelle 0:0: Was braucht es, um zu leben? Video: 12:46 min.

Artikel im ScienceBlog

inge Thu, 19.07.2018 - 10:03

Eine Dokumentation zur Geschichte der Wiener Vorlesungen 1987 - 2017

Eine Dokumentation zur Geschichte der Wiener Vorlesungen 1987 - 2017

Do, 12.07.2018 - 09:01 — Inge Schuster Inge SchusterIcon Politik & Gesellschaft

Die "Wiener Vorlesungen" stellen ein bis jetzt wohl einzigartiges Projekt der Wissensvermittlung dar [1]. Sie sind einzigartig in Hinblick auf das ungeheuer breite Spektrum an behandelten Themen - von Kultur über Wirtschaft, Politik, Religion, Sozialwissenschaften bis hin zu Naturwissenschaften und Medizin -, außerordentlich, was die sehr hohe Qualität der Vorträge betrifft und die riesige Zahl der Veranstaltungen, die in den 30 Jahren des Bestehens dieser Initiative stattfanden. Hirn, Herz und Motor der "Wiener Vorlesungen" finden sich in der Person von Hubert Christian Ehalt. Der Historiker, Soziologe und Wissenschaftsreferent der Stadt Wien hat diese Veranstaltungen 1987 ins Leben gerufen und bis 2017 mit Kreativität und enormen Enthusiasmus organisiert und moderiert. Nun fasst er die Geschichte dieser Vorlesungen in Form eines reichbebilderten Buchs zusammen; die Titel der Vorträge und die Bilder von den Veranstaltungen spiegeln die kulturellen, politischen und wissenschaftlichen Strömungen der letzten dreißig Jahre wider.

Sapere Aude

Die "Wiener Vorlesungen" sollten ein "intellektuelles Scharnier zwischen den Wiener Universitäten und dem Rathaus" werden. Sie sollten Wissen vermitteln, Volksbildung sein, aufklären, kritikfähig machen und Utopien Raum geben.

Mit diesen ambitionierten Zielvorstellungen startete Christian Ehalt - als Wissenschaftsreferent der Stadt Wien für Wissenschaft und Forsuchung zuständig - die "Wiener Vorlesungen" im Mai 1987. Ehalt war damals jung, künstlerisch hochbegabt, er hatte Wirtschafts-, Sozialgeschichte und Soziologie studiert und sich darüber hinaus ein sehr breites transdisziplinäres Wissen angeeignet. Es sind 10 Ziele, die Ehalt mit den "Wiener Vorlesungen" erreichen wollte:

  • Aufklärung statt Vernebelung
  • Differenzierung statt Vereinfachung
  • Analyse statt Infotainment
  • Tiefenschärfe statt Oberflächenpolitur
  • Empathie statt Egomanie
  • Utopien statt Fortschreibung
  • Widerspruch statt Anpassung
  • Auseinandersetzung statt Belehrung
  • Gestaltungswille statt Fatalismus
  • Werte statt anything goes"

Eine Zeitreise

Als Ehalt im Mai 1987 sein Projekt startete, existierte noch der eiserne Vorhang. Vorträge und Vortragende reflektieren die politische Landschaft, die sich in den folgenden dreißig Jahren dann völlig ändern sollte (unter den Vortragenden war u.a. auch Gorbatschow zu finden), sie reflektierten den Wandel der Wirtschaftssysteme, Finanzkrisen, das Erstarken von Religionen und von religiösem Fanatismus (dazu gab es mehrere Vorträge von Basam Tibi), aufkommende Migrationsbewegungen, usw, usf. Die Vorlesungen setzten sich ebenso mit dem kulturellen Erbe unseres Landes und dessen Zukunft auseinander. Für den ScienceBlog besonders interessant: Ein ansehnlicher Teil der Vorlesungen widmete sich auch naturwissenschaftlich/technischen und medizinischen Themen und zeigte die rasante Entwicklung in diesen Disziplinen.

Das eben erschienene Buch "Wiener Vorlesungen 1987 - 2017 Standortbestimmung, Aufklärung, Navigation" (Abbildung 1) fasst nun alle Veranstaltungen zusammen, zeigt eine Fülle von Fotos und nennt alle (zum Teil höchst renommierten) Vortragenden und die Titel ihrer Vorträge. Aus diesen Titeln erkennen wir, welche Fragen in den letzten 30 Jahren als wichtig angesehen wurden, welche Probleme sich bereits frühzeitig angedeutet hatten und welche Lösungswege man vielleicht einschlagen hätte können. In allen Disziplinen gab es auch Visionäre, die statt eines (in Österreich so gern geübten) Rückblicks auf die "glorreiche" Vergangenheit Utopien für eine fruchtbare Zukunft in den Raum stellten, die zum Teil viel, viel schneller Realität wurden, als man es erträumte (beispielsweise die Digitalierung).

Abbildung 1. Die Geschichte der Wiener Vorlesungen. Wiener Vorlesungen 1987 – 2017. Standortbestimmung, Aufklärung, Navigation. Hubert Christian Ehalt (Hsg), Susanne Strobl und Andrea Traxler (redaktionelle Mitarbeit). Enzyklopädie des Wiener Wissens, Band XXX. (Verlag Bibliothek der Provinz A-3970 Weitra) ISBN 978-3-99028-757-6

Einige Zahlen

In den 30 Jahren ihres Bestehens, gab es rund 1500 Veranstaltungen der "Wiener Vorlesungen" mit teilweise mehreren Vortragenden, sodass insgesamt etwa 5000 Vortragende resultierten. Viele Vortragende gehörten zu den Spitzen in ihren Disziplinen. An die Vorträge schlossen sich zumeist Diskussionen an (sehr häufig von Christian Ehalt moderiert) - insgesamt dauerten Vorträge und Diskussionen 5000 Stunden.

Die Zahl der Veranstaltungen stieg anfänglich steil an und erreichte um 1998 einen Plateauwert von durchschnittlich 50/Jahr (nur in den letzten beiden Jahren gab es einen Rückgang). Auch der anfangs "unterbelichtete" Anteil an naturwissenschaftlich/technischen und medizinischen Themen steigerte sich auf rund 20 % der Veranstaltungen in den letzten 15 Jahren. Abbildung 2.

Abbildung 2. Wiener Vor­les­ungen (Mai 1987 - Oktober 2017). Nach einer Anfangsphase hat sich die Zahl der jähr­li­chen Ver­an­stal­tun­gen auf rund 50 ein­ge­pen­delt. Erfreulicherweise liegt der Anteil natur­wissen­schaft­lich/medizinischerThemen bei rund 20 % aller Ver­an­stal­tun­gen (ak­tua­li­sier­te Darstellung der Ab­bild­ung 1 aus [1]; Daten wurde zusammengestellt aus den Vortragstiteln in: https://www.wien.gv.at/kultur/abteilung/vorlesungen/Veranstaltungsarchiv und dem Buch in Abbildung 1).

Die Pfosten sind, die Bretter aufgeschlagen,
Und jedermann erwartet sich ein Fest.

Die Vorträge waren kostenlos und meistens sehr gut besucht; fanden sie im Festsaal des Rathauses statt, so waren Tausend und mehr Besucher keine Seltenheit. Das Publikum vermittelte dabei den Eindruck eher im Theater oder in einem Konzertsaal zu sitzen als in einem Vortragsaal - dies ist zweifellos durch den Festsaal und auch schon durch den Aufgang zu diesem bedingt, der Veranstaltungen eine fast feierliche Aura verleiht. Abbildung 3. Abbildung 3. Feststiege (links) und der volle Festsaal (rechts) des Wiener Rathauses. (Bilder: links Wikipedia, rechts Uni Wien cc-by-nc-nd)

Insgesamt schätzt man, dass etwa 600 000 Besucher aus allen Bevölkerungsschichten an den Veranstaltungen teilgenommen haben. Als ab 2011 die Wiener Vorlesungen von den TV-Sendern ORFIII und OKTO gezeigt wurden, erhöhte sich die Reichweite der Wissensvermittlung auf das Dreifache (leider können wissenschaftliche Veranstaltungen auch bei höchster Reichweite nicht mit Popkonzerten oder Sportevents Schritt halten).

Wie machen wir's, daß alles frisch und neu
Und mit Bedeutung auch gefällig sei?

Zweifellos ist es gelungen Referenten zu rekrutieren, die zur Weltspitze der Philosophen, Künstler, Politiker und Wissenschafter in In-und Ausland zählen. Es waren Vortragende zum Anfassen - die Form der Veranstaltung ermöglichte es dem Publikum mit den Vortragenden auf Augenhöhe diskutieren.

Insbesondere sind hier acht Nobelpreisträgerseminare zu erwähnen, die von dem Physiker Helmuth Hüffel (Univ. Wien) organisiert wurden und in den Jahren 2006 bis 2013 stattfanden; fünf dieser Seminare waren naturwissenschaftlichen Gebieten gewidmet und insgeamt 20 Nobelpreisträger trugen vor. Es waren dies absolute Highlights und der Festsaal des Rathauses war jedes Mal bis auf den letzten Platz gefüllt. (Leider gab es einige Redner, die nicht bedachten, dass viele Zuhörer völlige Laien waren). Im Folgenden sind die Namen der Redner und - in Klammer - das Jahr, in dem sie die Auszeichnung erhielten, sind im Folgenden gelistet:

  • 2006 war das Seminar dem Vermächtnis des 100 Jahre zuvor verstorbenen österreichischen Physikers Ludwig Boltzmann gewidmet. Es trugen vor : Claude Cohen-Tannoudji (Physik 1997), Roy Glauber (Physik 2005), Walter Kohn (Chemie 1998) und Chen Ning Yang (Physik 1957).
  • 2007 lag der Schwerpunkt auf Physiologie, Gentechnologie und Biochemie. Es sprachen Tim Hunt (Medizin 2001), Roger Kornberg (Chemie 2006) und Richard Roberts (Medizin 1993)
  • 2009 lag der Schwerpunkt auf Chemie (der Biomoleküle). Es sprachen Robert Huber (Chemie 1988), Jean-Marie Lehn (Chemie 1987), Roger Tsien (Chemie 2008), Kurt Wüthrich (Chemie 2002), Ahmed Zewail (Chemie 1999)
  • 2011 war wieder die Physik dran mit Theodor W. Hänsch(Physik 2005), Gerardus T. Hooft (Physik 1999) und Geirge F. Smoot (Physik 2006)
  • 2012 ging es um biologische Prozesse mit Sidney Altman (Chemie 1989), Elizabeth Blackburn (Medizin 2009), Günter Blobel (Medizin 1999), Martin Evans (Medizin 2007) und Thomas Steitz und Ada Yonath (beide Chemie 2009).

Wie geht es weiter?

Die "Wiener Vorlesungen" wurden unter Christian Ehalt zur Erfolgsgeschichte. Dieser hat nach seiner Pensionierung im vergangenen Jahr auch die Organisation der Wiener Vorlesungen niedergelegt. Seine Nachfolge hat heuer Daniel Löcker, Wissenschaftsreferent der Stadt Wien, angetreten. Löcker will die Wiener Vorlesungen umkrempeln - modernisieren, wie er sagt. Medienmeldungen vom 9. Jänner zufolge (https://wien.orf.at/news/stories/2888441/) will Löcker stärker an „unerwartete Orte“ in die Bezirke statt ins Rathaus gehen, die Anzahl der Veranstaltungen merkbar auf 12 - 15 pro Jahr reduzieren, u.a. auf "lustig oder originell anmutende" Formate setzen und die "Wiener Vorlesungen" außerdem verjüngen - und zwar nicht nur, was das Publikum betrifft. Im Zuge einer ab Herbst geplanten Reihe in Kooperation mit dem Radiokulturhaus sollen junge Talente vor den Vorhang gebeten werden. Ab sofort soll esein Jahresthema geben, das gewissermaßen den inhaltlichen Rahmen vorgibt. Heuer ist dies das Gedenkjahr 1918 bzw. 100 Jahre Republik.

Dass es mit diesen Änderungen zu einer Reduzierung der Reichweite und damit der Wissensvermittlung kommen wird, ist offensichtlich. Ob die für die Entwicklung unserer Gesellschaft enorm wichtigen, in Medien und Bildungstandards aber völlig unterrepräsentierten Naturwissenschaften noch in die "inhaltlich und formal neuen Akzente" der "Wiener Vorlesungen" passen, erscheint eher fraglich.


[1] Inge Schuster, 20.10.2016: Wissensvermittlung - Wiener Stil. 30 Jahre Wiener Vorlesungen.


Weiterführende Links

Wiener Vorlesungen - das Dialogforum der Stadt Wien

Publikationen der Wiener Vorlesungen: https://www.wien.gv.at/kultur/abteilung/vorlesungen/publikationen.html 61 Videos diverser Vorlesungen

Hubert Christian Ehalt in ScienceBlog

inge Thu, 12.07.2018 - 09:01

Jurassic World - Das gefallene Königreich oder die "entfesselte Macht der Genetik"

Jurassic World - Das gefallene Königreich oder die "entfesselte Macht der Genetik"

Do, 05.07.2018 - 01:04 — Ricki Lewis Icon Politik & Gesellschaft

Wie werden Biowissenschaften in Filmen dargestellt? Die US-amerikanische Science-Fiction- Filmreihe Jurassic Park gehört zu den finanziell erfolgreichsten Serien aller Zeiten; sie schürt Ängste vor genetischer Manipulation und unverstandenen, weltweiten Folgen. Ein Vierteljahrhundert nach dem ersten Film über die geklonten Dinosaurier ist nun der fünfte Teil " Das gefallene Königreich" angelaufen. Es soll darin um die "entfesselte Macht der Genetik" der Dinosaurier gehen. Nur ist das de facto nicht der Fall; es wird ein grotesker Eindruck von der Genetik vermittelt, wissenschaftliche Seriosität bleibt auf der Strecke. In ihrer Rezension weist die Genetikerin Ricki Lewis auf einige der Ungereimtheiten hin (ihre Meinungen sind in Kursiv gesetzt).*

Die Handlung des Streifens ist oberflächlich, oberflächlich. Die vorhandenen Rezensionen weisen auf den dünnen Handlungsfaden hin, scheinen sich ansonsten mehr auf das, seit der vorigen Folge besser gewordene Schuhwerk der Hauptdarstellerin Bryce Dallas Howards zu kümmern. Viele Rezensenten vermissten aber Einzelheiten und Begründungen aus der Wissenschaft. Ich saß im dunklen Theater und kritzelte, wie ich es ein paar Wochen zuvor für eine Rezension des lächerlichen Science Fiction Films Rampage getan hatte. Im Vergleich dazu ist Das gefallene Königreich besser - zumindest sind einige Gedankengänge eingeflossen.

Rettet die Dinosaurier!

2015 haben wir die Dinos zum letzten Mal gesehen; damals liefen sie auf Isla Nublar, 150 Meilen westlich von Costa Rica, Amok (Abbildung 1). In der neuen Folge hat dort nun ein riesiger Vulkan zu speien begonnen.

Was soll man tun?

"Schließlich haben wir sie zurückgeholt" postuliert Jeff Goldblum, wiederholt damit was er in der ersten Szene seinen vom Mathematiker zum Biologen konvertierten Ian Malcolm sagen lässt und verwendet komplizierte Ausdrücke, wenn er zu einem verdatterten Senator spricht.

Die Tiere stehen vor einem Massenaussterben.

Abbildung 1. Die fiktionelle Insel Isla Nublar, auf der der Multimilliardär John Hammond einen Erlebnispark mit geklonten Dinosauriern geschaffen hat.

Szenenwechsel

Benjamin Lockwood (gespielt von dem aus Ein Schweinchen namens Babe bekannten James Crowell), Partner des Vaters der Dinosaurier John Hammonds, lebt in einem Schloss in Nordkalifornien. Es ist ein riesiges Schloss, das auch drei unterirdische Stockwerke eines "eingeschränkten Zugangsbereichs" aufweist. Es ist dies ein Labyrinth aus Kammern, Käfigen und dazwischen Laptops, die frühere Dressureinheiten mit Dinosauriern zeigen. In Brutkästen liegen große Eier. Lockwood setzt den Traum von Hammonds fort und zieht die Jurassic-Dinosaurier auf. Und mittendrin läuft seine quicklebendige Enkelin Maisie herum - Lockwoods Tochter, Maisies Mutter, war bei einem Autounfall getötet worden.

Lockwood will die auf der Insel im Stich gelassenen Dinosaurier retten, doch sein Assistent, der schmierige Eli Mills, verabredet sich mit Tierhändlern, die die Dinos nur retten wollen, um sie an die Meistbietenden zu verkaufen, dies aber nicht nur zum Zweck des Entertainments. Jede der gewünschten elf Spezies produziert ein einzigartiges Biopharmazeutikum.

Der Genetiker Dr. Wu (gespielt von Law and Order B.D. Wong) ist immer noch an Bord. "Wissen Sie, wie schwierig es ist, noch eine weitere Lebensform zu erschaffen?" äußert er frustriert. Ich kann es mir nur vorstellen.

Dinos zum Verkauf!

Die elf Dino-Arten sollen versteigert werden, um Startkapital für das Konstruieren von "Kreaturen der Zukunft aus Stücken der Vergangenheit" zu beschaffen (tatsächlich macht dies ja die Natur mit den Genomen jedes sich sexuell fortpflanzenden Organismus'). Das neue Reptil, Indoraptor, soll als Waffe taugen! Es wird irgendwie genetisch programmiert, sodass es auf einen Laserpointer reagiert und auf ein darauffolgendes "akustisches Signal" mit Angreifen reagiert. Ich habe keine Ahnung, wo die genetische Manipulation herkommt - es handelt sich hier ja um eine klassische konditionierte Reaktion. Und diese ist kaum neu. Katzen verfolgen seit Jahren Laserpointer. Abbildung 2.

Abbildung 2. Kona, Luna und Lydia verfolgen hypnotisiert den Lichtfleck eines Laser Pointers (Rachel Ware)

Aber die Guten wie auch die Bösen müssen zuerst die Dinosaurier finden, um sie vor dem Lava speienden Vulkan zu retten. Und hier tritt nun die von Bryce Dallas Howards gespielte Figur, Claire Dearing, auf. Als ehemalige Direktorin des zerstörten und verlassenen Jurassic-Themenparks weiß sie, wo die Dinos zu finden sind. Doch zuerst schleppt sie den attraktiven Tier-Verhaltensforscher Owen Grady (gespielt von Chris Pratt) dorthin zurück.

Mit vereinigten Kräften schaffen sie es, die meisten Kolosse von der Insel zu transportieren, einschließlich einiger Babys und Jungtiere. Die Dinosaurier werden gefangen und hinter Gittern eingesperrt , einschließlich der Kleinen, während diejenigen, die nicht sicher transportiert werden können, zurückgelassen werden, um in einer gespenstischen Szenerie hinter brennendem Blattwerk zu sterben. Das Ganze erinnerte ein bisschen an die Nachrichten der letzten Woche.

Genetische Veränderung oder Verhaltensänderung?

An mehreren Stellen des Films zeigt ein Video den Verhaltensforscher Owen, der eine Gruppe von Baby Theropoden dressiert. Theropoden sind eine Unterordnung der Dinosaurier, die hohle Knochen und drei Zehen pro Gliedmaßen aufweist und zu der auch die wilden Velociraptoren, Stars der vergangenen Filme, gehören. Zunächst scheint die Interaktion mit den Babys eine Variation der klassischen Prägung zu sein, die Baby-Dinosaurier folgen Owen wie die Gänse, die hinter dem berühmten Ethologen Konrad Lorenz her watschelten und ihn für ihre Mutter hielten. Aber während sie heranwachsen, rückt für Owen ein kluger Velociraptor, Blue, in den Vordergrund. Abbildung 3.

Abbildung 3. Das Theropodenweibchen Blue und der Verhaltensforscher Owen interagieren miteinander.

Im Dressieren von Blue geht Owen über die angeborene Prägungs-Reaktion hinaus und fördert Verhaltensweisen, die Zuneigung, Bindung, Interesse, Neugier und Empathie zeigen. Der Genetiker Dr. Wu nimmt davon Kenntnis und möchte die Verhaltensweisen in seine Schöpfungen einbringen. Offenbar ist es ihm nicht bewusst, dass es sich dabei um angelernte und nicht um angeborene Eigenschaften handelt. Vermutlich hat er einen Einführungskurs in die Psychologie versäumt.

Der Film stellt die durch das Klonen eingeführte genetische Veränderung, die vor oder bei der Befruchtung stattfindet, dem Lernen und der klassischen Konditionierung, wie sie nach der Geburt auftreten, gegenüber.

Wie also fördert genetische Veränderung die neuronalen Verknüpfungen, die den erst nach der Geburt gelernten Verhaltensweisen zugrundeliegen? Ist es nicht besser die Epigenetik einzubringen, die Genexpression zu verändern und damit ein Widerspiegeln der Umwelteinflüsse? Dies ist einfacher zu kontrollieren.

Wie in vielen Stücken, die über Genetik gehen, geben die Drehbuchautoren leider kein zusammenhängendes Bild. Stattdessen lassen sie ein Stakkato von Hokuspokus niederprasseln, so dass Zuschauer oder Leser meinen, dass damit Lücken im Verständnis gefüllt sind, und es das Ganze Sinn macht - wenn dies tatsächlich aber nicht der Fall ist. Vielleicht haben das die Rezensenten gemeint, als sie von einer dünnen Handlung sprachen.

Eine unverständliche Transfusion

Der Velociraptor Blue verliert viel Blut und braucht eine Transfusion! Warum nicht Blut des Tyrannosaurus Rex (T. Rex) nehmen, der betäubt im nächsten Käfig döst - so der Vorschlag des jungen Paläo-Veterinärs.

Was ist, wenn es sich nun um verschiedene Arten handelt? Blue hätte nahezu augenblicklich eine Abstoßungsreaktion erleiden müssen - zum Glück war dies nicht der Fall.

Das liegt daran, dass Bryce Dallas Howard das Blut des Spenders, des schnarchenden T. rex, fachmännisch untersuchte und genau wusste, wo sie in seine schuppige Haut einstechen sollte. Ihre Erfahrung bezog sie von einer freiwilligen Teilnahme an einer Blutspendeaktion des Roten Kreuzes. Okay.

Die Transfusion wird sich später zumindest für Dr. Wu als wichtig erweisen als er predigt, dass Blue "in jeder Zelle des Körpers" reine DNA hat.

Aber nein!

Wenn eine hämatopoetische Stammzelle des Spenders T. rex in den Empfänger gelangte - und dies war wahrscheinlich der Fall -, könnte die genetische Reinheit von Blue mit einer T. rex-Zelllinie verunreinigt sein. Dieses Phänomen (Mikrochimerismus) ist der Grund, warum eine Frau, die eine Knochenmarkspende von einem Mann erhält, Blutzellen enthalten könnte, die Y-Chromosomen tragen. Dr. Wu sollte das begriffen haben, weil er auch der forensische Psychiater Special Agent in der Spezialeinheit "Law & Order Special Victim" ist, wo der Mikrochimerismus manchmal falsch zugeordnete Blutgruppen erklärt. Aber keine Sorge. Solange die Spenderzellen nicht in Dinosauriersperma oder -ei gelangen, wird die Veränderung nicht weiter vererbt.

Der Fauxpas mit der Transfusion ist nicht das Einzige, was mit der Taxonomie und Evolution nicht stimmt. Die elf Dinosaurierarten produzieren jeweils ein einzigartiges Biopharmazeutikum, aber sie sind nahe genug verwandt, um Blut zu spenden/empfangen. Zufällig sagt dann Dr. Wu " in Hinblick auf seine DNA ist ein Stier kaum von einer Bulldogge zu unterscheiden". Ich denke, es ist Zeit, noch ein paar Genetiker aufzutreiben.

Auktion und Aktion

Die Auktion läuft und die bösen Jungs verdienen Millionen für ihre Dinosaurier.

"Was höre ich für den jugendlichen Allosaurus? Verkauft! ", brüllt der gnomartige Auktionator. "Oder wie wäre es mit diesem Vierfüßer aus der Kreidezeit, Ankylosaurus? Einer der größten Panzerdinosaurier, ein lebendiger Panzer!

" Dann enthüllt der hämmernde Gnom einen Prototypen des Indoraptors, "eine perfekte Waffe für die heutige Zeit!" Und die Menge tobt.

Dr. Wu jammert: "Er ist nicht zu verkaufen! Er ist der Prototyp! " "Beruhigen Sie Sich. Wir werden mehrere davon produzieren ", antwortet der Gnom, während er ein Gebot von 28 Millionen Dollar akzeptiert.

Was ein Action-Film ist, muss natürlich mit einer Verfolgungsjagd enden. Die Jagd in Jurassic World: Das gefallene Königreich wird nicht von dem eingesperrten und wütenden Indoraptor ausgelöst, sondern von dem gepanzerten Ankylosaurus, der auskommt, unglücklicherweise mit seinem Kopf auf ein Rohr schlägt und durch die Menge der Investoren rast, die hektisch für den gepanzerten Prototyp bieten.

Menschen oder Teile von diesen werden gefressen, einschließlich des Arms des Gierigsten unter ihnen, der während des gesamten Films heimlich Dinosaurierzähne gesammelt hatte. Der gnomartige Versteigerer läuft um sein Leben, sein Toupet flattert hoch wie Donald Trumps orangefarbene Fransen, wenn er in ein Flugzeug steigt. Und die im Keller eingeschlossenen Dinosaurier werden auf mysteriöse Weise gasförmiger Blausäure ausgesetzt und fangen an zu husten. (Sie erinnern mich an den alten Gary-Larsen-Cartoon von Dinosauriern, die beim Rauchen ausstarben.)

Irgendwo in dem Chaos liegt das kleine Mädchen in einem Bett unter der Decke, als sich ein wilder Dinosaurier nähert und in letzter Minute von einem anderen Dinosaurier abgelenkt wird. Das passiert dann noch oft, ein Reptil greift ein anderes an. Und in einem kurzem Augenblick ist eine spiralenförmige Wendeltreppe in Form einer Doppelhelix zu sehen.

Am Ende fliehen Claire, Owen, Maizie, der Paläo-Veterinär und ein nerdiger IT-Typ. Zwischen Owen und Blue kommt es zu einer berührenden Szene. Aber alles ist nicht gut. Ein Knopfdruck wird die Dinosaurier befreien! Sollte die weinende Claire es tun? "Sei vorsichtig, wir sind nicht mehr auf einer Insel!"- wohlwollend warnt Owen.

Ian Malcolm bekommt das letzte Wort. "Die Macht der Genetik wurde jetzt entfesselt. Jetzt passiert es. Sie waren vor uns hier und, wenn wir nicht vorsichtig sind, werden sie danach hier sein. Wir treten in eine neue Ära ein. Willkommen in der Jurassic World. " Ich denke, wir werden sehen, was am 11. Juni 2021 passiert, wenn der nächste Film anläuft.

Inzwischen Spielverderber Alarm: eine menschliche Figur ist ein Klon, und dies ist entscheidend für den Übergang zum nächsten Film. Uns bleiben die riesigen Reptilien in Nordkalifornien, die uns von Berggipfeln aus beobachten und Surfer terrorisieren. Ich kann mich nur fragen, ob sie sich mit den Flüchtlingen vom Planeten der Affen treffen werden. ------------------------------------------------------------------------------------------------------- Nachsatz der Redaktion: in den wenigen Monaten seit seinem Erscheinen ist der erste Trailer zu dem Film (siehe Link, unten) bereits mehr als 7,5 Millionen Mal angeklickt worden. Die dubiosen wissenschaftlichen Inhalte des Films setzen sich millionenfach in den Köpfen fest. Dagegen sind auch die besten, verständlichsten und unterhaltsamsten Videos mit seriösen wissenschaftlichen Inhalten chancenlos - sie erreichen gerade Bruchteile im Promill- bis unteren Prozentbereich!


*Der Artikel ist erstmals am 28. Juni 2018 in PLOS Blogs - DNA Science Blog unter dem Titel " The Genetic Power of Jurassic World: Fallen Kingdom " erschienen (http://blogs.plos.org/dnascience/2018/06/28/the-genetic-power-of-jurassic-world-fallen-kingdom/) und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich den englischen Fassungen folgen.


Weiterführende Links

Jurassic World: Das gefallene Königreich, ausführliche Inhaltsangabe und Links in Wikipedia.

JURASSIC WORLD 2: Fallen Kingdom Trailer (Extended) 2018. Video 5:16 min. Standard-YouTube-Lizenz

Life finds a way in the absurdly entertaining Jurassic World: Fallen Kingdom: EW review.

inge Thu, 05.07.2018 - 13:04

Mikroorganismen im Darm sind Schlüsselregulatoren für die Lebenserwartung ihres Wirts

Mikroorganismen im Darm sind Schlüsselregulatoren für die Lebenserwartung ihres Wirts

Do, 28.06.2018 - 08:02 — Dario R. Valenzano Dario R. ValenzanoIcon BiologieMikroorganismen im Darm beeinflussen die Gesundheit des Wirts. Aus dem Gleichgewicht geratene Mikrobengemeinschaften im Darm sind mit verschiedenen Krankheiten assoziiert. Die Wiederherstellung einer gesunden Darmflora kann zur Heilung von akuten und lebensgefährlichen Infektionen beitragen. Dario R. Valenzano, Forschungsgruppenleiter am Max-Planck-Institut für Biologie des Alterns (Köln) berichtet hier über aktuelle Forschungsarbeiten mit dem Türkisen Prachtgrundkärpfling, dem sogenannten Killifisch (Nothobranchius furzeri). An diesem Modellorganismus zeigt er, dass die Darmmikroben aus jungen Fischen den allgemeinen Gesundheitszustand und sogar die Lebenserwartung gesund alternder Artgenossen beeinflussen.*

Altern: Innere Faktoren, Mikrobiota und die Umwelt

Die Interaktionen zwischen Organismen und ihrer Umgebung gestalten sich komplex und hängen entscheidend von den Barriereorganen ab, wie beispielsweise den Membranen und Zellwänden einzelliger Lebewesen und den komplexen Integumenten vielzelliger Organismen. Diese Barrieresysteme können direkte physische Schäden eindämmen, ermöglichen aber gleichzeitig die Kommunikation und den Austausch zwischen der Außenwelt und dem jeweiligen Organismus. Bemerkenswerterweise wird der direkte Kontakt zwischen Organismen und Umwelt oft über eine komplexe Gemeinschaft von Mikroorganismen vermittelt, die die Außenflächen unter normalen Umständen reichlich bedecken.

Wirt-Darmflora-Interaktionen

Man schätzt, dass jeder Mensch neben seinen eigenen Zellen ebenso viele Wirtszellen wie Mikrobenzellen trägt [1], die sich größtenteils im Dickdarm befinden. Die Anzahl mikrobieller Gene wiederum macht das Hundertfache der Anzahl menschlicher Gene aus.

Unter normalen Umständen fördern die mikrobiellen Gemeinschaften, auch als Mikrobiota bezeichnet, außerdem die Abwehrmechanismen des Wirts gegen Pathogene. Ein Auszehren dieser Gemeinschaften, wie es beispielsweise nach einer antibiotischen Behandlung vorkommen kann, könnte sich nachfolgend zu einer Hauptursache für schwerwiegende Infektionen entwickeln. Trotz einer langen Koevolution von Wirt und Mikroorganismen bricht demnach ein vormals vitales Gleichgewicht im Krankheitsfall zusammen, weil sich mikrobielle Gemeinschaften von kommensalen in hartnäckig pathogene Faktoren verwandelt haben. Umgekehrt zeigte sich, dass die Wiederherstellung nicht-pathogener Mikrobengemeinschaften durch eine mikrobielle Transplantation eine wirksame Behandlung gegen lebensbedrohliche Infektionen beispielsweise mit dem Bakterium Clostridium difficile sein kann [2]. Allerdings war bis vor kurzem nicht klar, ob die Wiederherstellung einer jugendlichen Darmflora im normal verlaufenden Alterungsprozess für den Wirt von Nutzen sein und seine Lebenserwartung letztendlich verlängern kann.

Ein von Natur aus kurzlebiger Fisch als Modell für die Alterung von Wirbeltieren

Labormäuse und Zebrafische weisen eine äußerst komplexe Zusammensetzung ihrer Darmflora, ähnlich der des Menschen, auf, die aus Hunderten oder sogar Tausenden von bakteriellen Taxa besteht. Mäuse und Zebrafische sind jedoch wesentlich arbeitsintensiver und zeitaufwändiger als kurzlebige wirbellose Arten; unter Laborbedingungen werden sie zweieinhalb bis drei Jahre alt. Der Türkise Prachtgrundkärpfling (Killifisch; Nothobranchius furzeri) ist vergleichsweise ein von Natur aus kurzlebiger Süßwasserfisch mit einer Lebensdauer von nur vier bis acht Monaten. Durch diese im Vergleich zu Labormäusen oder Zebrafischen kurze Lebensspanne hat er sich zunehmend zu einem populären Alterungsmodell entwickelt, an dem sich der Effekt experimenteller Manipulationen bezüglich der Lebenserwartung von Wirbeltieren schnell und innerhalb eines Zeitrahmens untersuchen lässt, der mit wirbellosen Tieren vergleichbar ist (Abbildung 1).

Abbildung 1: Alterung des Türkisen Prachtgrundkärpflings (Killifisch; Nothobranchius furzeri). Repräsentative Vertreter für drei unabhängige Altersklassen: jung (links), erwachsen (Mitte) und alt (rechts). Oben sind männliche und unten weibliche Artgenossen abgebildet. © Max-Planck-Institut für Biologie des Alterns/Valenzano

Der Killifisch ist ein im Süßwasser lebender Bodenfisch, der sich an extrem raue Umweltbedingungen mit kurzen Regenzeiten und langanhaltenden Trockenzeiten angepasst hat. Diese Fische können bereits drei bis vier Wochen nach dem Schlüpfen Geschlechtsreife erreichen. Zudem haben sie eine spezielle Anpassung entwickelt, die man als „Diapause“ bezeichnet, um in der Trockenzeit im ausgedörrten Boden als Embryonen im Dauerruhestand überleben zu können [3].

Wiederherstellung einer jungen Darmflora im Erwachsenenalter verlängert die Lebenserwartung eines kurzlebigen Wirbeltiers

Killifische sind mit einer komplexen mikrobiellen Darmflora ausgestattet, die in ihrer taxonomischen Komplexität der von anderen Wirbeltieren gleichkommt [4]. Ein direkter Transfer von Darminhalten junger Fische auf ihre mittelalten Artgenossen, die zuvor einer Antibiotikabehandlung unterworfen worden waren, um ihre eigene gealterte Darmflora zu entfernen, war ausreichend, um deren Lebensdauer erheblich zu verlängern. Dies deutet darauf hin, dass die mikrobielle Zusammensetzung der Darmflora die Lebensdauer ursächlich beeinflussen kann. Auffallend war, dass bei Fischen der Kontrollgruppe ein rapider, altersabhängiger Verfall des Bewegungsapparats einsetzte, während diejenigen Fische, die zuvor Darminhalte von jungen Spendern erhalten hatten, bis in die spätere Lebensphase körperlich aktiv blieben (Abbildung 2).

Abbildung 2: Übersicht über das Darmflora-Transferexperiment beim Türkisen Prachtgrundkärpfling (Killifisch; Nothobranchius furzeri). Genaue Erläuterungen im Text. © Max-Planck-Institut für Biologie des Alterns/Valenzano

Weiterführende Untersuchungen haben zur Identifizierung einer Reihe von Bakteriengattungen, wie zum Beispiel Exiguobacterium, Planococcus, Propionigenium und Psychrobacter, beigetragen, deren reichhaltiges Vorkommen in den Därmen der Wirtstiere mit einem jugendlichen Zustand und einer längeren Lebenserwartung korrelierten [4]. Diese Forschungsergebnisse zeigen, dass die Darmmikroorganismen innerhalb einer komplexen Mikrobengemeinschaft die Lebenserwartung und Alterung enorm beeinflussen können. Es wird jetzt darum gehen zu untersuchen, ob ein solcher heterochroner Darmflora-Transfer auch den Alterungsprozess von Laborsäugetieren und sogar Menschen positiv beeinflussen kann. Darüber hinaus haben neue Arbeiten gezeigt, dass Darmmikroorganismen im Allgemeinen vorteilhafte systemische Wirkungen ausüben können, sodass sich die Manipulation wirtsassoziierter mikrobieller Gemeinschaften bei Krankheiten und Alterungsprozessen zu einer neuartigen Strategie bei der Beeinflussung der Wirtsphysiologie im Sinne einer besseren Gesundheit entwickeln könnte.

Literaturhinweise

1. Han, B.; Sivaramakrishnan, P.; Lin, C.J.; Neve, I. A. A.; He, J.; Tay, L. W. R.; Sowa, J. N.; Sizovs, A.; Du, G.; Wang, J.; Herman, C.; Wang, M. C. Microbial genetic composition tunes host longevity. Cell 169, 1249-1262 (2017)

2. Dodin, M.; Katz, D. E. Faecal microbiota transplantation for Clostridium difficile infection. International Journal of Clinical Practice 68, 363-368 (2014)

3. Kim, Y.; Nam, H. G.; Valenzano, D. R. The short-lived African turquoise killifish: an emerging experimental model for ageing. Disease Models & Mechanisms 9, 115-129 (2016)

4. Smith, P.; Willemsen, D.; Popkes, M.; Metge, F.; Gandiwa, E.; Reichard, M.; Valenzano, D. R. Regulation of life span by the gut microbiota in the short-lived African turquoise killifish. eLife 6: e27014 (2017)


Der Artikel erscheint unter dem gleichnamigen Titel: " Mikroorganismen im Darm sind Schlüsselregulatoren für die Lebenserwartung ihres Wirts" im Jahrbuch 2018 der Max-Planck-Gesellschaft (https://www.mpg.de/11790231/mpi_age_jb_2018?c=155461). Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle dem ScienceBlog zur Verfügung gestellt. Der Artikel erscheint ungekürzt mit den zugehörigen zugänglichen Zitaten in der Fachliteratur ([1] - [4].


Weiterführende Links

Max-Planck-Institut für Biologie des Alterns

Feed Your Microbes - Nurture Your Mind (2017)| John Cryan | TEDxHa'pennyBridge. Video 16:10 min. (John Cryan: Principal Investigator at the APC Microbiome Institute). Standard-YouTube-Lizenz

Follow Your Gut: Microbiomes and Aging with Rob Knight - Research on Aging (2017). Video 56:09 min. (Rob Knight, University California, discusses the important influence the microbiome may have on the aging process and many end-of-life diseases.) Standard-YouTube-Lizenz

Robert Knight: Wie unsere Mikroben uns zu dem machen, wer wir sind. Video 17:24 min. TED-Talk 2014 (deutsche Untertitel)

How Bacteria Rule Over Your Body – The Microbiome. Video 7:38 min, Standard-YouTube-Lizenz

Darmflora und Mikrobiom: Warum wir ohne Keime nicht leben können - 1. Freiburger Abendvorlesung 2014 (Video 58:17 min. Standard Youtube Lizenz)

Artikel im ScienceBlog

inge Thu, 28.06.2018 - 08:02

Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen

Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen

Do, 21.06.2018 - 10:21 — Carbon Brief Carbon BriefIcon MINT

Wie sich das hochkomplexe Klimasystem in Zukunft entwickeln wird, kann nur auf Basis von Klimamodellen abgeschätzt werden. In den letzten Jahrzehnten ist ein breites Spektrum an derartigen Modellen entwickelt worden, in die immer mehr klimarelevante Prozesse Eingang fanden - beginnend von einfachsten Energiebilanzmodellen bis zu hochkomplexen Erdsystemmodellen, die auch biogeochemische Kreisläufe und gesellschaftliche Aspekte von Bevölkerung, Wirtschaftswachstum und Energieverbrauch mit einbeziehen. Welche Informationen nun in ein Klimamodell einfließen und welche Ergebnisse man daraus erwarten kann, ist Thema des folgenden Berichts. Es ist dies der dritte Teil einer umfassenden, leicht verständlichen Artikelserie "Q&A: How do climate models work?", die von der britischen Plattform Carbon Brief stammt (Teile 1 und 2 [1, 2]).*

Klimamodelle laufen mit Daten über die Faktoren, die das Klima beeinflussen und mit Prognosen, wie sich diese Faktoren in Zukunft verändern könnten. Dies kann zu gigantischen Datenmengen - bis zu Petabytes (102 Gigabytes) - führen und Messungen enthalten, die alle paar Stunden über Tausende von Variablen in Raum und Zeit erhoben werden - dies geht von Temperaturmessungen über die Wolkenbildung bis hin zum Salzgehalt der Ozeane.

Der Input

Die hauptsächlichen Eingaben in Klimamodelle betreffen externe Faktoren, welche die Energiebilanz der Erde beeinflussen, d.i. wie viel an Sonnenenergie von der Erde absorbiert wird oder, wie viel davon in der Atmosphäre abgefangen wird.

Externe Faktoren - Forcings

Diese externen Faktoren werden als "Forcings" (Klimaantreiber; vom IPPC eingeführter Begriff , Anm. Redn.) bezeichnet. Dazu gehören Veränderungen in der Sonneneinstrahlung, langlebige Treibhausgase - wie CO2, Methan (CH4), Stickoxide (N2O) und halogenierte Kohlenwasserstoffe - sowie winzige Partikel, sogenannte Aerosole, die bei der Verbrennung fossiler Brennstoffe, bei Waldbränden und Vulkanausbrüchen emittiert werden Abbildung 1. Aerosole reflektieren einfallendes Sonnenlicht und beeinflussen die Wolkenbildung.

Abbildung 1. Ausbruch des Schildvulkans Soufriere Hills auf der Karibikinsel Montserrat 1/2/2010. (Dazu Wikipedia: Im Februar 2010 brach der Lavadom teilweise zusammen. Darauf kam es zu pyroklastischen Strömen, die bis 400 m auf das offene Meer hinausreichten, sowie zu einer Aschenwolke bis in mehr als 15 km Höhe. (Credit: Stocktrek Images, Inc./Alamy Stock Photo.)

Üblicherweise lässt man alle diese einzelnen Klimatreiber in einem Modell entweder als beste Schätzung aus Situationen der Vergangenheit laufen oder als Teil zukünftiger "Emissionsszenarien". Bei den letzteren handelt es sich um mögliche Pfade, wie sich die Konzentrationen von Treibhausgasen in der Atmosphäre entwickeln werden, basierend auf Veränderungen von Technologien, Energieverbrauch und Landnutzung in den kommenden Jahrhunderten.

"Representative Concentration Pathways"

Aktuell wenden die meisten Prognosen einen oder mehrere der "Representative Concentration Pathways" an (RCPs; „Repräsentative Konzentrationspfade“. Es handelt sich um vier, von Wissenschaftern entwickelte Szenarien, die in den 5. Sachstandbericht des IPPC aufgenommen wurden, Anm. Redn.). Diese RCPs liefern denkbare Beschreibungen der Zukunft und beruhen auf sozioökonomischen Szenarien, d.i. wie die globale Gesellschaft wachsen und sich entwickeln wird. (Mehr über die RCPs ist in diesem Carbon Brief Artikel zu lesen: https://www.carbonbrief.org/analysis-four-years-left-one-point-five-carbon-budget.)

Klimatreiber der Vergangenheit

Um zu untersuchen, wie sich das Klima in den letzten 200, 1.000 oder sogar 20.000 Jahren verändert hat, wenden Modelle auch Abschätzungen von Klimatreibern aus der Vergangenheit an. Derartige Abschätzungen erfolgen anhand von nachgewiesenen Veränderungen in der Erdumlaufbahn, von historischen Treibhausgaskonzentrationen, vergangenen Vulkanausbrüchen, Änderungen im Ausmaß der Sonnenflecken und mittels anderer Fakten aus der fernen Vergangenheit.

Kontrollen

Schließlich gibt es "Kontrollläufe" des Klimamodells. In diesen wird der Strahlungsantrieb über Hunderte oder Tausende Jahre konstant gehalten. Dies ermöglicht Wissenschaftlern, das modellierte Klima mit und ohne Veränderungen der menschlichen oder natürlichen Antriebe zu vergleichen und abzuschätzen, wie viel "unerzwungene" natürliche Variabilität auftritt.

Die Outputs

Klimamodelle generieren ein nahezu vollständiges Bild des Erdklimas mit Tausenden unterschiedlichen Variablen über Zeiträume von Stunden, Tagen und Monaten.

Allgemeine Ergebnisse

Zu diesen Ergebnissen gehören Temperaturen und Feuchtigkeitsgehalte, die in den verschiedenen Schichten der Atmosphäre von der Erdoberfläche bis zur oberen Stratosphäre vorliegen, sowie Temperaturen, Salzgehalte und Säuregrade (pH-Wert) der Ozeane von der Oberfläche bis zum Meeresboden. Die Modelle ergeben auch Abschätzungen zu Schneefall, Regen, Schneedecke und zur Ausdehnung von Gletschern, Eisschilden und Meereis. Sie generieren Ergebnisse zu Windgeschwindigkeiten, -stärken und -richtungen sowie zu Klimamerkmalen wie den Jetstreams (Schnelle Winde in großer Höhe, verursacht durch das Temperaturgefälle der Atmosphäre; Anm. Redn.) und den Meeresströmungen.

Unüblichere Ergebnisse

der Modellrechnungen betreffen die Wolkendecke und ihre Höhe sowie mehr technische Variablen wie die vom Boden aufsteigende langwellige Strahlung - d.i. wie viel Energie von der Erdoberfläche zurück in die Atmosphäre abgegeben wird - oder wie viel Meersalz während der Verdunstung aus dem Ozean abgeht und sich an Land ansammelt. Klimamodelle liefern auch eine Einschätzung der "Klimasensitivität". Das heißt, sie berechnen, wie empfindlich die Erde auf steigende Konzentrationen von Treibhausgasen reagiert, wobei verschiedene Klima-Rückkopplungen berücksichtigt werden, beispielsweise von Wasserdampf und von Änderungen der Reflektivität oder "Albedo" der Erdoberfläche, die an den Verlust von Eismassen geknüpft ist.


Eine vollständige Liste der allgemeinen Ergebnisse der Modellrechnungen ist im CMIP6-Projekt verfügbar (das Coupled Model Intercomparison Project 6 - oder CMIP6 - ist eine internationale Initiative, um vergangene, gegenwärtige und zukünftige Klimaänderungen besser zu verstehen https://www.wcrp-climate.org/wgcm-cmip/wgcm-cmip6). Modellierer speichern Petabytes von Klimadaten an Orten wie dem Nationalen Zentrum für Atmosphärenforschung (NCAR) und stellen die Daten oft als netCDF-Dateien zur Verfügung, die für die Forscher leicht zu analysieren sind.


[1] Teil 1: Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung.

[2] Teil 2: Klimamodelle: von einfachen zu hoch komplexen Modellen.


*Der Artikel ist der homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen (https://www.carbonbrief.org/qa-how-do-climate-models-work). Unter dem Titel What are the inputs and outputs for a climate model? ist es der 3. Teil einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde. Der unter einer cc-by-nc-nd 4.0 Lizenz stehende Artikel wurde im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.


Weiterführende Links

Informationen zu Carbon Brief: https://www.carbonbrief.org/about-us

Peter Lemke: Dossier: Die Wetter- und Klimamaschine

Alfred-Wegener Institut, Helmholtz Zentrum für Polar-und Meeresforschung: Eis, Meer und Klima - Mit Polar- und Meeresforschung unsere Erde verstehen (13.5.2016). Video 7:24 min (2016).

Klimamodelle: http://wiki.bildungsserver.de/klimawandel/index.php/Klimamodelle Max-Planck Institut für Meteorologie: Überblick. http://www.mpimet.mpg.de/wissenschaft/ueberblick/

Max-Planck-Gesellschaft: Klimamodelle - die Welt im Computer (26.10.2015), Video 5:05 min. https://www.youtube.com/watch?reload=9&time_continue=51&v=ouPRMLirt5k. Standard YouTube Lizenz.

Max-Planck-Gesellschaft: Klimamodelle - Wärmepumpe Ozean (26.10.2015), Video 9:27 min. https://www.youtube.com/watch?v=jVwSxx-TWT8. Standard YouTube Lizenz.

Max-Planck-Gesellschaft: Klima – der Kohlenstoffkreislauf (1.6.2015), Video 5:25 min. https://www.youtube.com/watch?v=KX0mpvA0g0c. Standard YouTube Lizenz.

Max-Planck-Gesellschaft: Klima - der Atem der Erde (1.6.2015), Video 9:00 min https://www.youtube.com/watch?v=aRpax... (Anmerkung: Es hat sich leider ein kleiner Grafik-Fehler in den Film eingeschlichen: CO2 ist natürlich ein lineares Molekül, kein gewinkeltes!). Standard YouTube Lizenz

Max-Planck-Gesellschaft: Meereis - die Arktis im Klimawandel. (8.6.2016), Video 6:40 min. https://www.youtube.com/watch?v=w77q4Oa9UK8. Standard YouTube Lizenz.

Artikel im ScienceBlog

Dem Thema Klima & Klimawandel ist ein eigener Schwerpunkt gewidmet, der aktuell 21 Artikel enthält: http://scienceblog.at/klima-klimawandel

inge Thu, 21.06.2018 - 10:21

Entdecker der Blutgruppen – Karl Landsteiner zum 150. Geburtstag

Entdecker der Blutgruppen – Karl Landsteiner zum 150. Geburtstag

Do, 14.06.2018 - 08:34 — Inge Schuster

Inge SchusterIcon WissenschaftsgeschichteDie sogenannte Zweite Wiener Medizinische Schule - vom 19. Jahrhundert bis 1938 - erlangte hohes internationales Ansehen. Zu ihren hervorragendsten Forschern gehörte zweifellos der heute vor 150 Jahren geborene Immunologe Karl Landsteiner. Als er 1900 die Blutgruppen (das ABO-System) und später den Rhesusfaktor entdeckte, legte er damit den Grundstein für gefahrlose Bluttransfusionen, die seitdem jährlich das Leben von Millionen und Abermillionen Menschen retten.

Karl Landsteiner (Abbildung 1), geboren am 14. Juni 1868, stammte aus einer angesehenen, liberalen jüdischen Wiener Familie - sein Vater war der erste Chefredakteur der 1848 gegründeten Tageszeitung Die Presse. Landsteiner studierte Medizin an der Universität Wien und promovierte dort 1891. Er war ein begeisterter Experimentator und vor allem an der (Bio)Chemie interessiert, die medizinischen Phänomenen zugrundeliegt. So schloss er seinem Studium eine mehrere Jahre dauernde Ausbildung in den damals bedeutendsten chemischen Labors an. Er lernte in München bei Eugen Bamberger, der sich vor allem mit Mechanismen organischer Reaktionen befasste, in Zürich bei Arthur Hantzsch, der u.a. über heterozyklische Stickstoffverbindungen arbeitete und schließlich bei Emil Fischer in Würzburg, dem "Vater der klassischen organischen Chemie" und späteren Nobelpreisträger (Nobelpreis 1902).

Abbildung 1. Karl Landsteiner (14.6. 1868 - 26. 6.1943) um 1920 (Bild Wikipedia, gemeinfrei)

An der Universität Wien

Zurückgekehrt an die Wiener Universität war Landsteiner vorerst Assistent am Hygiene Institut und befasste sich mit serologischen Fragstellungen, wechselte aber 1898 an die Lehrkanzel für pathologische Anatomie, wo unter Leitung von Anton Weichselbaum vor allem mikrobiologische Fragen im Vordergrund standen. Landsteiner arbeitete dort bis 1908 als Prosektor, konnte sich aber auch ein Labor einrichten, in dem er sich mit immunologischen Fragestellungen befasste. Er entschlüsselte wesentliche Fakten u.a. zur Syphilis und ihrer Serodiagnostik, zur Natur von Antikörpern und Antigenen (von ihm stammt auch der Begriff Haptene für partielle Antigene, die einen Träger brauchen, um eine Immunreaktion auszulösen), zu Ursache und Immunologie der Poliomyelitis, u.a.m.

Entdeckung der Blutgruppen

Die bahnbrechendste Entdeckung betraf zweifellos die Aufklärung der Ursachen der Blutagglutination, d.i. des Zusammenklumpens der roten Blutkörperchen (Erythrocyten) und der Freisetzung von Hämoglobin, wenn Bluttransfusionen von einem ungeeigneten Spender erfolgten. In einer 1900 publizierten Arbeit hatte Landsteiner beobachtet, dass die Globulin-Fraktion aus Rinderserum viel stärker agglutinierend auf die Erythrozyten eines Meerschweinchens wirkte als die Globulin-abgereicherte Fraktion. In einer berühmten Fußnote erwähnte er erstmals die unterschiedlich agglutinierende Wirkung von Sera gesunder Menschen auf Erythrozyten anderer Individuen. Abbildung 2.

Abbildung 2. Karl Landsteiner: Zur Kenntnis der antifermentativen, lytischen und agglutinierenden Wirkungen des Blutserums und der Lymphe. Centralblatt fur Bakteriologie, Parasitenkunde und Infektionskrankheiten, vol. 27, pp. 357-362 1900.

1901 erklärte er dann in der Publikation „Agglutinationserscheinungen normalen menschlichen Blutes“ die individuellen Unterschiede mit der Existenz von Blutgruppen, die er A, B und C nannte (1902 wurde die Gruppe AB gefunden) - daraus wurde dann später das international gültige AB0-System. Landsteiner hatte Blut von sich und 5 Mitarbeitern genommen und wechselweise die unterschiedlichen Erythrozytenproben mit den einzelnen Sera versetzt und auf Agglutinierung untersucht (Abbildung 3, oben). Die einzelnen Gruppen unterschieden sich durch ein Set von Molekülen (Glykoproteinen /Glykolipiden) - Antigenen - an der Oberfläche der Erythrozyten, die mit Agglutininen (Antikörpern) im Serum eines anderen Individuums reagieren oder nicht reagieren konnten. Landsteiner beschreibt:

„In einer Anzahl von Fällen (Gruppe A) reagiert das Serum auf die Körperchen einer anderen Gruppe (B), nicht aber auf die der Gruppe A, während wieder die Körperchen A vom Serum B in gleicher Weise beeinflusst werden. In der dritten Gruppe (C) agglutinirt das Serum die Körperchen von A und B, während die Körperchen C durch die Sera von A und B nicht beeinflusst werden. Man kann der üblichen Ausdrucksweise zufolge sagen, dass in diesen Fällen zumindestens zwei verschiedene Arten von Agglutininen vorhanden sind, die einen in A, die anderen in B, beide zusammen in C. die Körperchen sind für die Agglutinine, die sich im selben Serum befinden, naturgemäss als unempfindlich anzusehen".

Im Serum eines Individuums fehlt also jenes Agglutinin, das gegen die eigene Blutgruppe gerichtet ist (Landsteiner‘sche Regel). Eine schematische Darstellung des AB0-Systems ist in Abbildung 3 unten aufgezeigt.

Abbildung 3. Landsteiner's Entdeckung der Blutgruppen. Oben: die Versuchsanordnung in der Publikation: K. Landsteiner (1901) „Agglutinationserscheinungen normalen menschlichenBlutes“ (Quelle: https://bit.ly/2sAePQ7, frei zugänglich). Unten: Das AB0-System: Serum der Gruppe A enthält Antikörper gegen Antigene der Gruppe B und umgekehrt. Gruppe AB weist beide Antigentypen auf und das Serum enthält keine Antikörper - AB-Individuen können demnach Blut von allen Gruppen empfangen. Gruppe 0 hat keine Antigene auf den Erythrozyten, kann daher allen anderen Typen gespendet werden. (Bild modifiziert nachWikipedia, gemeinfrei).

In der Folge habilitierte sich Landsteiner und wurde 1911 zum a.o. Professor der pathologischen Anatomie ernannt (allerdings ohne Besoldung). Ab 1908 leitete er bis zum Zusammenbruch der k.u.k Monarchie die Prosektur am Wiener Wilheminenspital.

Landsteiner verlässt Österreich

Um seine Familie vor den tristen wirtschaftlichen Nachkriegsverhältnissen zu bewahren, nahm Landsteiner dann eine Stelle als Prosektor in einem kleinen Spital in Den Haag an. Schließlich erhielt er im Jahr 1923 ein Angebot des Rockefeller Institute for Medical Research in New York auf Lebensdauer dort seine Forschungen fortsetzen zu können. Es wurde eine sehr aktive und fruchtbare Zeit. Landsteiner entdeckte weitere erbliche Blutfaktoren und schließlich 1940 gemeinsam mit seinem Mitarbeiter Alexander S. Wiener, ein Hauptantigen, den sogenannten Rhesusfaktor (benannt nach dem Versuchstier, dem Rhesusaffen).

Landsteiner war bis zu seinem Tod aktiv; im Alter von 75 Jahren erlitt er im Labor – wie es heißt: mit der Pipette in der Hand – einen tödlichen Herzanfall.


Landsteiners Entdeckungen hatten die Basis für ungefährliche Bluttransfusionen geschaffen und damit die Chirurgie und die Behandlung von Verletzten revolutioniert. Mit den von ihm entwickelten Verfahren zur Typisierung der Blutgruppen wurde 1907 die erste Transfusion (am Mount Sinai Hospital in New York) durchgeführt und hat dann im Ersten Weltkrieg zahllose Leben gerettet. Für seine Verdienste wurde Landsteiner 1930 mit dem Nobelpreis für Physiologie oder Medizin ausgezeichnet. Unzählige Ehrungen erfolgten weltweit. In Österreich allerdings erst lange nach seinem Ableben.

Transdisziplinärer Wissenschafter

Landsteiner war Mediziner, Immunologe und ebenso Naturwissenschafter. Die Chemie, die bereits in seiner Jugend eine wesentliche Rolle spielte, ist auch in seinen späteren Arbeiten essentiell. Fragen nach der chemischen Struktur, nach der Spezifität von Wechselwirkungen, nach dem Mechanismus (bio)chemischer Reaktionen bestimmen seine Abhandlungen. Als Beispiel sei hier sein 1933 erschienenes Buch "Die Spezifität der serologischen Reaktionen" angeführt, das als ein Klassiker der immunologischen Literatur gilt. Das Inhaltsverzeichnis zeigt klar die chemische"Grundnote". Abbildung 4.

Abbildung 4. Karl Landsteiner (1933): Die Spezifität serologischer Reaktionen. Springer Verl.Berlin. Digitalisiert 2017 durch das Internet Archiv, unterstützt durch Wellcome Library. https://ia800805.us.archive.org/28/items/b29808790/b29808790.pdf (open access)

Es ist ein auch für Laien durchaus lesenswertes Buch. Eine Leseprobe aus den "Einleitenden Bemerkungen" (p, 4 - p.6) soll dies veranschaulichen.

Leseprobe

"Die morphologischen Eigentümlichkeiten der Tier- und Pflanzenarten sind der Hauptgegenstand der beschreibenden Naturwissenschaften sowie der Schlüssel ihrer Systematik. Erst die letzten Dezennien brachten die Erkenntnis, dass, wie im Reiche der Krystalle, auch bei den Lebewesen Unterschiede des chemischen Baues den Unterschieden der Gestaltung parallel laufen. Dieses Resultat wurde auf einem Umwege gefunden, nicht als das Ergebnis einer daraufhin gerichteten Untersuchung.

Den Anstoß gab die bekanntlich zuerst von Jenner bei Blattern praktisch verwendete Erfahrung, dass das Überstehen einer Infektionskrankheit öfters eine Immunität hinterlässt, die sich auf die betreffende Erkrankung beschränkt. Das Suchen nach der Ursache der merkwürdigen Erscheinung führte zur Auffindung eigenartiger Stoffe im Blutserum, der sogenannten Antikörper, die zum Teil als Schutzstoffe fungieren und außer infolge von Infektionen auch nach Injektion gewisser von Bakterien, höheren Pflanzen und Tieren stammender hochmolekularer Gifte (Toxine) und abgetöteter Bakterien gebildet werden. Eine neue Ara serologischer Forschung begann mit der in erster Linie Bordet zu verdankenden Entdeckung, dass die Immunisierung gegen Mikrobien und Toxine nur ein besonderer Fall einer allgemeinen Gesetzmäßigkeit ist, und derselbe Mechanismus zur Wirkung kommt, wenn Tieren organische Materialien, die keine ausgesprochen schädliche Wirkung haben, wie artfremde Eiweißkörper oder Zellen, injiziert werden. Es entstehen auch dann Antikörper, welche die Zellen zusammenballen (Agglutinine) oder zerstören (Lysine) und die Eiweißkörper fällen (Präcipitine). Allen diesen Antikörpern ist die Eigenschaft der Spezifizität gemeinsam, d. i. einer Wirkung, die sich auf die für die Immunisierung benützten oder ihnen ähnliche Substanzen beschränkt, z. B. auf bestimmte Bakterien oder Blutkörperchen einer Spezies und der nahe verwandten Arten.

So war durch die Entdeckung der Präcipitine eine allgemeine Methode gefunden, Proteine zu differenzieren, die mit den zur Verfügung stehenden chemischen Verfahren nur schwierig oder nicht zu unterscheiden waren, und es zeigte sich, dass jede Art von Tieren und Pflanzen besondere und für die Spezies charakteristische Eiweißkörper besitzt.

Die Spezifizität der Antikörper, deren Wirkungsbereich, wie man jetzt weiß, weit über die Klasse der Proteine hinausreicht und auch einfach gebaute chemische Substanzen umfasst, ist die Grundlage der Erfolge der Serologie und neben der Frage der Antikörperbildung in theoretischer Beziehung ihr hauptsächlichstes Problem. Zum vollen Verständnis der spezifischen Serumreaktionen reichen die gegenwärtigen chemischen Theorien nicht aus, und man war bisher nicht im Stande, die serologischen Spezifizitätserscheinungen in Modellversuchen mit bekannten Substanzen nachzuahmen. Es handelt sich hier um ein besonderes Gebiet der Chemie, in das wahrscheinlich viele wichtige biochemische Reaktionen einzureihen sind. Als solche sind in erster Linie die Fermentwirkungen sowie die pharmakologischen und chemotherapeutischen Effekte zu nennen. Auf auslösende Vorgänge verwandter Art weist vielleicht die feine Differenzierung der durch chemische Reize angeregten Geschmacks- und Geruchsempfindungen hin.

Die Bezeichnung "Spezifizität" wird häufig benützt um auszudrücken, dass ein bestimmtes Immunserum nur auf eine, unter einer Anzahl biologisch ähnlicher Substanzen einwirkt, z. B. Tetanusantitoxin auf kein anderes als das von Tetanusbacillen produzierte Toxin. In Wirklichkeit ist, wie schon angedeutet, die Elektivität in der Regel nicht absolut, wenn Stoffe verwandter Herkunft mit einem Immunserum geprüft werden. Man spricht dann von Spezifizität in dem Sinne, dass die Reaktion mit einer der geprüften Substanzen, nämlich der zur Immunisierung verwendeten, dem sogenannten homologen Antigen, stärker ist als mit allen anderen. Auch diese Begriffsbestimmung ist aber zu enge, da sie eine Reihe von Erscheinungen nicht umfasst, die mit den Serumreaktionen in allen wesentlichen Punkten übereinstimmen."


Weiterführende Links

Blutgruppen - Karl Landsteiner - Meilensteine der Naturwissenschaft und Technik (Video 14:42 min. Standard YouTube Lizenz)

Biographie Karl Landsteiner Nobelpreis (1930)

Karl Landsteiner: On individual differences in human blood, Nobel Lecture (PDF-Download)

OeNB - Karl Landsteiner Biographie

inge Thu, 14.06.2018 - 08:34

Wie neue Gene entstehen - Evolution aus Zufallssequenzen

Wie neue Gene entstehen - Evolution aus Zufallssequenzen

Do, 07.06.2018 - 07:44 — Diethard Tautz Diethard TautzIcon BiologieWie entstehen in der Evolution neue Gene? Lange nahm man an, dass dies nur durch Duplikation und Rekombination existierender Gene möglich ist. Der Genetiker Diethard Tautz, Direktor am Max-Planck-Institut für Evolutionsbiologie, zeigt nun an Hand eines Evolutionsexperiments, dass ein großer Teil zufällig zusammengesetzter Proteine das Wachstum von Zellen positiv oder negativ beeinflussen kann. Mit diesem Ergebnis lässt sich erklären, wie Gene auch aus nicht-kodierender DNA im Genom entstehen können. Gleichzeitig eröffnet sich damit eine praktisch unerschöpfliche Quelle für neue bioaktive Moleküle für pharmakologische und biotechnologische Anwendungen.*

Entstehung neuer Gene

Die Genome höherer Organismen enthalten rund 20.000 bis 40.000 Gene, die transkribiert werden und unterschiedliche Proteine kodieren. Viele dieser Gene haben einen gemeinsamen evolutionären Ursprung, der sich aus Sequenzähnlichkeiten ablesen lässt. Aber für circa ein Drittel der Gene ist dies nicht der Fall, sie werden nur in einzelnen evolutionären Linien gefunden. Da ihr genauer Ursprung unklar ist, werden sie meist als Waisen, im englischen als orphans, bezeichnet. Die Frage, wie neue Gene entstehen und sich evolutionär weiter entwickeln können, wird seit fast einhundert Jahren diskutiert. Grundsätzlich sind zwei Möglichkeiten denkbar.

  • Die erste besagt, dass neue Gene durch Verdopplung bereits vorhandener Gene entstehen. Nach einer solchen Verdopplung kann eine Kopie die ursprüngliche Funktion aufrechterhalten, während die zweite Kopie Mutationen ansammelt, die dann letztlich zu einer neuen Funktion des Genprodukts führen können.
  • Die zweite Möglichkeit ist, dass neue Gene aus nichtkodierenden Bereichen des Genoms entstehen können. Die Genome höherer Organismen beinhalten nämlich neben den etablierten Genen auch sehr viel nicht-kodierende DNA, oft 90% und mehr. Wenn es innerhalb dieser Bereiche durch weitere Mutationen dazu kommt, dass ein Teil davon in RNA transkribiert wird, dann kann daraus potenziell eine neue Genfunktion entstehen.

Lange Zeit wurde angenommen, dass nur Duplikation und Divergenz zu neuen Genen führen kann. Duplikationen innerhalb von Chromosomen wurden schon Anfang des letzten Jahrhunderts beschrieben und mit der Entschlüsselung des genetischen Codes fand man, dass viele Gene in Genfamilien zusammengefasst werden können. Detaillierte Analysen zeigen, dass es nur rund 2000 Protein-Domänen gibt, die in verschiedenen Kombinationen wiederholt in mehreren Genen auftauchen. Solche Domänen bestehen aus circa 50 bis 100 Aminosäuren und nehmen bestimmte Faltungsstrukturen ein. Sie können sich auf verschiedene Art und Weise duplizieren und kombinieren und bilden damit sozusagen die Bausteine eines Genbaukastens. Im Jahr 1977 deklarierte der französische Nobelpreisträger Francois Jacob diese Art der Genentstehung zum generellen Prinzip [1]. In seinem Artikel "Evolution and tinkering" formulierte er, dass in der Natur Neues nur durch die Duplikation von Altem entsteht. Insbesondere schloss er aus, dass aus Zufalls-Sequenzen neue Informationen entstehen können. Denn wenn man die Größe einer Proteindomäne beispielsweise mit 75 Aminosäuren annimmt und in der Natur zwanzig verschiedene Aminosäuren genutzt werden, ergeben sich 2075 Kombinationsmöglichkeiten. Das ist eine Zahl, die größer ist als die geschätzte Zahl der Atome im Universum - wie sollte also da durch Zufall eine bestimmte funktionale Gensequenz entstehen? Wenn aber Neues nur aus der Kombination von Altem entsteht, dann lautet die berechtigte Frage, woher das "Alte" eigentlich kommt. Jacob schlug vor, dass es in der Anfangszeit der Entstehung des Lebens biochemische Bedingungen gegeben haben muss, die es erlaubten, dass diese ersten Bausteine des Lebens entstanden.

Diesen an sich schlüssigen Überlegungen stehen jetzt aktuelle Befunde entgegen, nämlich dass es dennoch auch zur de novo Evolution von neuen Genen aus nicht-kodierenden Sequenzen kommen kann [2, 3]. Tatsächlich steckt in der Überlegung ein Denkfehler. Denn obwohl es eine scheinbar unendlich große Kombinationsmöglichkeit von Aminosäuren gibt, könnte es sein, dass ein großer Anteil dieser Kombinationen bereits bestimmte Funktionen besitzt. Forscherinnen und Forscher der Abteilung für Evolutionsgenetik haben daher ein Evolutionsexperiment durchgeführt, in dem die Frage gestellt wurde, welcher Anteil von Zufallssequenzen vielleicht schon eine Funktion in Zellen hat [4].

Experimenteller Ansatz

Das Experiment wurde mit Bakterien (Escherichia coli) durchgeführt. Dazu wurde mithilfe eines Plasmid-Vektors eine Genbibliothek etabliert, die einige Millionen Varianten eines 65 Aminosäure langen Proteins exprimiert. Fünfzig der Aminosäuren innerhalb dieses Proteins bestanden aus Zufallssequenzen (Abbildung 1). Diese Bibliothek wurde in die Zellen transformiert, sodass jede Zelle nur eine der Varianten exprimiert. Lässt man diese Zellen gemeinsam wachsen, dann würden alle Zellen, in denen die Expression des neuen Proteins keinen Einfluss hat, gleich schnell wachsen, während Zellen, in denen das neue Protein einen Vorteil oder Nachteil bringt, schneller oder langsamer wachsen. Abb. 1: Experiment zur Expression von Proteinen mit zufälliger Sequenz. Im oberen Teil ist schematisch die Konstruktion des Vektors abgebildet. Die Expression erfolgt durch einen induzierbaren Promotor. Der offene Leserahmen beginnt mit dem Startcodon M und drei weiteren vorgegeben Aminosäuren. Danach kommen 50 Aminosäuren (im Einbuchstaben-Code, siehe z.B. Wikipedia; Anm. Redn.) in zufälliger Reihenfolge und zum Schluss weitere elf Aminosäuren mit vorgegebener Sequenz. Darunter sind 15 tatsächliche Sequenzen gezeigt, wobei die Punkte identische Aminosäuren aus der ersten Reihe symbolisieren. Rechts ist das Ergebnis eines der Experimente gezeigt. Die X-Achse repräsentiert den Grad der Veränderung im Wachstum der Klone (log2 Maßstab), die Y-Achse die relative Häufigkeit des Vorkommens eines Klons im Experiment (log10 Maßstab). Rot sind diejenigen Klone dargestellt, die eine signifikante Verlangsamung des Wachstums zeigen, und grün diejenigen Klone, die eine signifikante Beschleunigung des Wachstums zeigen. Klone ohne signifikante Veränderung sind schwarz dargestellt. © Max-Planck-Institut für Evolutionsbiologie/Tautz

Das Experiment wurde in sieben Variationen wiederholt und ergab sehr konsistente Ergebnisse. Bis zu 52% der Sequenzen hatten einen negativen Effekt auf das Wachstum, bis zu 25% aber hatten einen positiven Effekt. Dies lässt darauf schließen, dass Zufallssequenzen tatsächlich oft eine Funktion in der Zelle haben können, die für die evolutionäre Fitness relevant ist. Die oben angestellte Rechnung ist daher zu relativieren: Es ist durchaus zu erwarten, dass aus nicht-kodierenden Regionen des Genoms Gene mit neuer Funktion entstehen können. Interessanterweise ergab ein vergleichbares Experiment mit der Modellpflanze Arabidopsis ein sehr ähnliches Ergebnis [5].

Ausblick

Mit dem Nachweis, dass Zufallssequenzen von Proteinen einen Effekt auf Wachstum und Zellteilung haben können, kann die Evolution der orphan Gene erklärt werden. Zudem ergeben sich auch praktische Konsequenzen. Bisher basiert ein Großteil der pharmakologischen Wirkstoff-Forschung auf dem Screening von chemisch synthetisierten Molekülen. Mit der Entdeckung der Funktionalität biologisch hergestellter Zufallssequenzen erschließt sich eine neue, nahezu unendliche Quelle von möglichen neuen Wirkstoffen. Zum Beispiel könnten negativ wirkende Proteine als Antibiotika oder Zytostatika fungieren und positiv wirkende Proteine die Ausbeute biotechnologischer Verfahren erhöhen.


* Der Artikel erscheint unter dem Titel: "Evolution von Genen aus Zufallssequenzen " im Jahrbuch 2018 der Max-Planck-Gesellschaft (https://www.mpg.de/11817314/_jb_2018?c=153370). Er wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle dem ScienceBlog zur Verfügung gestellt. Der Artikel erscheint ungekürzt, allerdings ohne die nicht frei zugänglichen Zitate ([1] - [5]; diese sind im Original ersichtlich, Literatur kann auf Wunsch zugesandt werden).


Weiterführende Links

Max-Planck-Institut für Evolutionsbiologie http://www.evolbio.mpg.de/

Where do genes come from? - Carl Zimmer (2014) TED-Ed Video 4:23 min. https://www.youtube.com/watch?v=z9HIYjRRaDE Standard YouTube Lizenz

Diethard Tautz, Do New Genes Stem From the Non-Coding Part of the Genome During Fast Adaptation Processes? LT Video Publication DOI: https://doi.org/10.21036./LTPUB10468;

Artikel im ScienceBlog


 

inge Thu, 07.06.2018 - 07:44

Klimamodelle: von einfachen zu hoch komplexen Modellen

Klimamodelle: von einfachen zu hoch komplexen Modellen

Do, 31.05.2018 - 09:57 — Carbon Brief Carbon BriefIcon MINT

Um künftige Klimaänderungen abschätzen und Maßnahmen zu deren Milderung treffen zu können, sind möglichst aussagekräftige Klimamodelle unabdingbar. Wissenschaftler haben in den letzten Jahrzehnten ein breites Spektrum an derartigen Modellen entwickelt, die von einfachsten Arten bis - dank enorm gestiegener Rechnerleistung - zu hochkomplexen Erdsystemmodellen reichen, die auch biogeochemische Kreisläufe und gesellschaftliche Aspekte von Bevölkerung, Wirtschaftswachstum und Energieverbrauch mit einbeziehen. Über diese verschiedenen Arten informiert hier die britische Plattform Carbon Brief. In Fortsetzung von [1] ist dies der zweite Teil einer umfassenden, leicht verständlichen Artikelserie "Q&A: How do climate models work?"*

Von einfachen Energiebilanzmodellen...

Die ältesten und einfachsten numerischen Klimamodelle sind Energiebilanzmodelle (Energy Balance Models -EBMs). Diese Energiebilanzmodelle sind nicht in der Lage das Klima abzubilden, sie bestimmen bloß die Bilanz aus der Energie, die von der Sonne in die Erdatmosphäre eingestrahlt wird, und der Wärme, die zurück in den Weltraum abgestrahlt wird. Als einzige Klimavariable berechnen sie die Temperatur an der Erdoberfläche (global gemittelt und in Bodennähe; Anm. Redn). Die einfachsten Energiebilanzmodelle benötigen nur wenige Zeilen Computercode und lassen sich in Form einfacher Tabellen ausführen.

Derartige Modelle sind häufig "nulldimensional", das bedeutet, dass sie die Erde als Ganzes wie einen einzelnen Punkt behandeln. Es gibt auch eindimensionale Modelle, beispielsweise solche, die zusätzlich den meridionalen - d.i. horizontal quer über verschiedene Breitengrade der Erdoberfläche (vorwiegend vom Äquator zu den Polen) verlaufenden - Energietransport berücksichtigen.

...über Strahlungskonvektionsmodelle,...

Von den Energiebilanzmodellen geht es im nächsten Schritt zu den Strahlungskonvektionsmodellen (Radiative Convective Models - RCMs), die den Energietransport in die Höhe der Atmosphäre simulieren - zum Beispiel durch Konvektion, da warme Luft aufsteigt. (Konvektion: Energie wird über den Transport von Masse übertragen; Anm. Redn.) Strahlungskonvektionsmodelle können die Temperatur und Feuchtigkeit in verschiedenen Schichten der Atmosphäre berechnen. Diese Modelle sind typischerweise eindimensional - berücksichtigen dabei nur den Energietransport in die Atmosphäre hinauf - sie können aber auch zweidimensional sein.

...Globale Zirkulationsmodelle,...

Auf der nächsthöheren Ebene finden sich die sogenannten Allgemeinen Zirkulationsmodelle (General Circulation Models -GCMs). Diese, auch als Globale Klimamodelle bezeichneten Modelle simulieren die physikalischen Prozesse des Klimasystems. Dies bedeutet, sie erfassen die Strömungen von Luft und Wasser in der Atmosphäre und/oder den Ozeanen, ebenso wie den Wärmetransfer. Anfänglich haben Globale Klimamodelle jeweils nur einen Aspekt des Erdsystems simuliert - etwa in "Nur Atmosphäre" oder "Nur-Ozean"-Modellen. Es waren jedoch dreidimensionale Simulationen in dutzenden Modellschichten - viele Kilometer hinauf in die Höhe der Atmosphäre oder hinab in die Tiefe der Ozeane.

...Gekoppelte Modelle,...

Diese verschiedenen Aspekte wurden in anspruchsvolleren gekoppelten Modellen dann zusammengeführt und zahlreiche Modelle miteinander verknüpft, um so eine umfassende Darstellung des Klimasystems zu schaffen. Beispielsweise können Gekoppelte Atmosphäre-Ozean-Zirkulationsmodelle (oder "AOGCMs") den Austausch von Wärme und Wasser zwischen der Land- und Meeresoberfläche und der darüber liegenden Luft abbilden.

Die folgende Abbildung 1 zeigt, wie die Klimamodellierer über die letzten Jahrzehnte hin schrittweise einzelne Modell-Module in globale gekoppelte Modelle integriert haben.

Abbildung 1. Wie sich die Klimamodelle von einfachen Energiebilanzmodellen zu komplexen Globalen Gekoppelten Modellen entwickelt haben. Seit Jahrzehnten nutzen Wissenschaftler mathematische Modelle (blau), um mehr über das Klimasystem der Erde zu lernen. Diese Klimamodelle werden von den physikalischen Prozessen in Atmosphäre und Ozeanen und dem Kreislauf chemischer Substanzen zwischen Lebewesen und Umwelt gesteuert. Indem sich eigenständige Subsysteme (Modelle für Atmosphäre, Ozean, Meereis, Aerosole, etc.) zu gekoppelten Systemen (grün) vereinigten, wurden die Modelle im Laufe der Zeit immer komplexer. (Grafik:Rosamund Pearce; basierend auf den Arbeiten von Dr Gavin Schmidt.)

Im Laufe der Zeit haben die Wissenschaftler dann die Allgemeinen Zirkulationsmodelle schrittweise um andere, ehemals eigenständige Modelle des Erdsystems erweitert - wie beispielsweise Modelle für Landhydrologie, Meereis und Landeis.

...zu Erdsystemmodellen,...

Das neueste Subsystem der Globalen Klimamodelle erfasst jetzt biogeochemische Kreisläufe - den Transfer von chemischen Substanzen zwischen Lebewesen und ihrer Umwelt - und wie diese mit dem Klimasystem interagieren. Diese "Erdsystem Modelle" (ESMs) können den Kohlenstoffkreislauf, den Stickstoffkreislauf, die Atmosphärenchemie, die Meeresökologie und Veränderungen in Vegetation und Landnutzung simulieren - alle diese Systeme haben einen Einfluss darauf, wie das Klima auf die vom Menschen verursachten Treibhausgasemissionen reagiert. Man hat hier die Pflanzenwelt, die auf Temperatur und Niederschlag reagiert und im Gegenzug Aufnahme und Freisetzung von CO2 und anderen Treibhausgasen in die Atmosphäre verändert.

Pete Smith, Professor für Böden und globalen Wandel an der Universität von Aberdeen, beschreibt Erdsystemmodelle als "auffrisierte" Versionen der globalen Klimamodellen:

"Die Globalen Klimamodelle waren die Modelle, die man vielleicht in den 1980er Jahren verwendet hatte. Da diese Modelle größtenteils von den Atmosphärenphysikern gebaut wurden, ging dementsprechend alles um die Erhaltung von Energie, von Masse und von Wasser und um die Physik ihrer Transportprozesse. Die Darstellung, wie die Atmosphäre dann mit dem Ozean und der Landoberfläche interagiert, war allerdings ziemlich mäßig. Dagegen versucht ein Erdsystemmodell diese Wechselwirkungen mit der Landoberfläche und mit den Ozeanen zu integrieren - man kann es also als eine "auffrisierte" Version eines globalen Klimamodells betrachten."

...Regionalen Klimamodellen...

Weiters gibt es Regionale Klimamodelle ("RCMs"), die ähnlich fungieren wie die Globalen Klimamodelle, allerdings nur für einen begrenzten Abschnitt der Erde gelten. Weil sie einen kleinere Fläche abdecken, können Regionale Klimamodelle im Allgemeinen schneller und mit einer höheren Auflösung als Globale Klimamodelle ausgeführt werden. Ein Modell mit hoher Auflösung hat kleinere Gitterzellen und kann daher Klimainformationen für ein bestimmtes Gebiet detaillierter erstellen. Regionale Klimamodelle bieten eine Möglichkeit, um globale Klimainformationen auf eine lokale Skala zu reduzieren. Dies bedeutet, dass man Informationen, die von einem Globalen Klimamodell oder Beobachtungen in grobem Maßstab stammen, nimmt und auf einen bestimmten Bereich oder eine Region anwendet.

...und schliesslich Integrierten Bewertungsmodellen (Integrated Assessment Models - IAMs)

Ein Subsystem der Klimamodellierung hat schließlich Integrierte Bewertungsmodelle (Integrated Assessment Models - IAMs) zum Gegenstand. Diese beziehen Aspekte der Gesellschaft in ein einfaches Klimamodell ein, indem sie simulieren, wie Bevölkerung, Wirtschaftswachstum und Energieverbrauch das physikalische Klima beeinflussen und mit ihm wechselwirken.

Integrierte Bewertungsmodelle erzeugen Szenarien zu den künftig möglichen Änderungen der Treibhausgasemissionen. Die Wissenschaftler spielen diese Szenarien dann in Erdsystemmodellen durch, um Prognosen zum Klimawandel zu erstellen - sie bieten damit Informationen, die weltweit zur Orientierung von Klima- und Energiepolitik genutzt werden können.

In der Klimaforschung werden Integrierte Bewertungsmodelle üblicherweise verwendet, um Prognosen über künftige Treibhausgasemissionen zu erstellen und Vorteile und Kosten politischer Optionen abzuschätzen, um mit diesen Emissionen zurecht zu kommen. Beispielsweise werden so die "sozialen Kosten der CO2-Emisssionen" ("social cost of carbon") abgeschätzt - d.i. der monetäre Gegenwert von sowohl positiven als auch negativen Auswirkungen, die jede zusätzlich emittierte Tonne CO2 verursacht.


[1] Teil 1: "Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung" ist am 19. April 2018 im ScienceBlog erschienen (http://scienceblog.at/was-sie-schon-immer-%C3%BCber-klimamodelle-wissen-wollten-%E2%80%93-eine-einf%C3%BChrung#)


*Der Artikel ist der homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen (https://www.carbonbrief.org/qa-how-do-climate-models-work). Unter dem Titel "What are the different types of climate models? ) ist es der 2. Teil einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde. Der unter einer cc-by-nc-nd 4.0 Lizenz stehende Artikel wurde im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.

Carbon Brief - https://www.carbonbrief.org/ - ist eine britische Website, welche die neuesten Entwicklungen in den Bereichen Klimawissenschaft, Klimapolitik und Energiepolitik abdeckt. Die Seite bemüht sich um klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels von Seiten der Wissenschaft und auch der Politik zu verbessern . Im Jahr 2017 wurde Carbon Brief bei den renommierten Online Media Awards als"Best Specialist Site for Journalism" ausgezeichnet.


Weiterführende Links

Informationen zu Carbon Brief: https://www.carbonbrief.org/about-us

Peter Lemke: Dossier: Die Wetter- und Klimamaschine http://www.klimafakten.de/klimawissenschaft/dossier-die-wetter-und-klima...

Alfred-Wegener Institut, Helmholtz Zentrum für Polar-und Meeresforschung: Eis, Meer und Klima - Mit Polar- und Meeresforschung unsere Erde verstehen (13.5.2016). Video 7:24 min (2016). https://www.youtube.com/watch?v=tqLlmmkLa-s

Klimamodelle: http://wiki.bildungsserver.de/klimawandel/index.php/Klimamodelle

Max-Planck Institut für Meteorologie: Überblick. http://www.mpimet.mpg.de/wissenschaft/ueberblick/

Max-Planck-Gesellschaft: Klimamodelle - die Welt im Computer (26.10.2015), Video 5:05 min. https://www.youtube.com/watch?reload=9&time_continue=51&v=ouPRMLirt5k. Standard YouTube Lizenz.

Max-Planck-Gesellschaft: Klimamodelle - Wärmepumpe Ozean (26.10.2015), Video 9:27 min. https://www.youtube.com/watch?v=jVwSxx-TWT8. Standard YouTube Lizenz.

Max-Planck-Gesellschaft: Klima – der Kohlenstoffkreislauf (1.6.2015), Video 5:25 min. https://www.youtube.com/watch?v=KX0mpvA0g0c. Standard YouTube Lizenz.

Max-Planck-Gesellschaft: Klima - der Atem der Erde (1.6.2015), Video 9:00 min https://www.youtube.com/watch?v=aRpax... (Anmerkung: Es hat sich leider ein kleiner Grafik-Fehler in den Film eingeschlichen: CO2 ist natürlich ein lineares Molekül, kein gewinkeltes!). Standard YouTube Lizenz

Max-Planck-Gesellschaft: Meereis - die Arktis im Klimawandel. (8.6.2016), Video 6:40 min. https://www.youtube.com/watch?v=w77q4Oa9UK8. Standard YouTube Lizenz.


Artikel im ScienceBlog


 

inge Thu, 31.05.2018 - 09:57

Auf dem Weg zu einer Medizin der Zukunft

Auf dem Weg zu einer Medizin der Zukunft

Do, 24.05.2018 - 12:32 — Norbert Bischofberger Norbert BischofbergerIcon MedizinWir erleben in der Medizin einen Paradigmenwechsel. Rasante Fortschritte im Management von "Big Data" und in diversen analytischen Verfahren werden zu einer neuen Daten-gesteuerten Medizin führen, die ein verbessertes Verstehen von Krankheitsursachen ermöglicht und Therapien entsprechend dem individuellen genetischen und epigenetischen Status eines Patienten. Der Chemiker Norbert Bischofberger bis April 2018 Forschungsleiter von Gilead (2017: Nummer 6 unter den Top 10 Pharmakonzernen) und dzt. Präsident des Startups Kronos Bio- zeigt den Weg zu einer Medizin von Morgen.*

Wohin wird sich die Medizin weiter entwickeln, was lässt sich bereits heute absehen?

Die Medizin von Heute

Ein Charakteristikum der Medizin von heute ist bereits an der Art und Weise erkennbar, wie sie an medizinischen Hochschulen gelehrt wird: es wird eingeteilt nach Körper-Systemen, es gibt den Spezialisten für die Leber, einen anderen für das Herz-Kreislaufsystem, wieder einen anderen für die Lunge, für das Zentralnervensystem usw.

Was die Diagnose betrifft, so erfolgt sie heute auf Grund von Symptomen und von Laborbefunden, die von der Norm - dem statistischen Mittelwert - abweichen. Dies bedeutet beispielweise im Fall der rheumatoiden Arthritis eine Diagnose auf Grund von geschwollenen Gelenken und eines erhöhten CRP-Wertes (CRP: c-reaktives Protein, ein unspezifischer Entzündungsparameter; Anm. Redn). Dazu möchte ich anmerken, dass die sogenannten Normalbereiche von Laborwerten statistisch erhoben werden. In diese Normalbereiche passen 95 % der an einer großen Population erhobenen Messwerte; ein Messwerts der den oberen Grenzwert signifikant überschreitet - beispielsweise ein 2 x höherer Wert des Leberenzyms - wird als anormal betrachtet.

"One size fits all‘ – eine Größe passt für alle

Die Entwicklung von Arzneimitteln ist bis jetzt im Wesentlichen nach dem Schema "one size fits all" erfolgt - quer durch die Bevölkerung, ohne Berücksichtigung von Alter, Geschlecht, ethnischer Zugehörigkeit etc.

Von "one size fits all" gibt es bislang nur einige wenige Ausnahmen und diese sind hauptsächlich in der Onkologie zu finden. Ein Beispiel ist Imatinib (Gleevec), das bereits vor fast rund 2 Jahrzehnten zur Behandlung der chronischen myelogenen Leukämie zugelassen wurde. Gleevec blockiert hier das bei mehr als 90 % der Patienten vorhandene Fusionsprotein BCR-ABL, das ein unkontrolliertes Wachstum der weißen Blutkörperchen verursacht. Ein weiteres Beispiel ist der Antikörper Trastuzumab (Herceptin): dieser blockiert den auf manchen Krebszellen sitzenden Wachstumsfaktor-Rezeptor HER2 und wird bei HER2 positivem Brustkrebs (rund 20 % der Brustkrebsfälle) eingesetzt. In beiden Fällen handelt es sich um Medikamente, die auf definierte Körperteile/Organe wirken.

Aus der jüngsten Zeit stammt eine weitere Ausnahme: der Antikörper Pembrolizumab. Meines Wissens nach ist dies das erste Mal, dass die amerikanische Gesundheitsbehörde FDA ein Medikament zugelassen hat, das nicht auf einen Tumor (z.B. Colon Ca, Brustkrebs) spezifisch wirkt, sondern breit auf alle Tumoren angewandt werden kann, die bestimmte genetische Anomalien aufweisen.

Warum ist die Medizin (noch) auf Symptomatik ausgerichtet, warum vertrauen wir auf statistische Mittelwerte, warum behandeln wir entsprechend definierter Systeme/Organe unseres Körpers? Das ist, weil wir unglaublich komplex sind. (Abbildung 1).

Abbildung 1: Die menschliche Komplexität wird durch unser genetisches Rüstzeug, durch die Umgebung, in der wir leben und durch unsere Lebensführung bedingt.

Zur Komplexität des Menschen

Komplex ist zum Ersten unser ererbtes, genetisch determiniertes Rüstzeug. Wir besitzen 2 Sets von jeweils 23 Chromosomen und unser Genom setzt sich aus 3,2 Milliarden Basenpaaren zusammen.

Darauf baut die Epigenetik auf. Ohne die in den Genen gespeicherte Information zu beeinflussen, wird - epigenetisch - mittels chemischer Markierungen (Einführung von Methylgruppen) an der DNA, an ihren Gerüstproteinen und an RNAs die Expression der einzelnen Gene und damit die Entwicklung und Steuerung von Körperzellen und deren weiteres Geschick bestimmt.

Dazu kommt dann die Ebene des Transkriptoms, das alle von der DNA in RNA umgeschriebenen (20 000 -25 000) Gene enthält und auch wie die Transkription reguliert wird u.a.m.

Überaus komplex ist auch das, was mit uns lebt, was uns umgibt: das Mikrobiom -Mikroorganismen in uns und um uns herum, die an Zahl die rund 30 Billionen Körperzellen noch übertreffen. Wesentlich zur Komplexität trägt auch unser Lebensstil bei, d.i. wovon wir uns ernähren, welche Schadstoffe wir aufnehmen, wie wir uns bewegen etc.

Bis jetzt war es praktisch unmöglich alle diese hochkomplexen Systeme zusammenzubringen. Wir stehen nun aber am

Beginn einer neuen Daten-gesteuerten Medizin von Morgen

Die Möglichkeit riesige Datenmengen - Big Data - zu speichern und zu verarbeiten und die enorme Effizienzsteigerung und Kostenreduktion neuer analytischer Verfahren lassen uns unglaubliche Durchbrüche erleben, welche die Basis für ein neues Zeitalter einer Daten-gesteuerten Medizin bilden. Triebkräfte sind hier vor allem die Fortschritte

  • in der Sequenzierung der DNA,
  • im Überwachen physiologischer und umweltbedingter Vorgänge,
  • in bildgebenden Verfahren und in der Informationstechnologie,
  • und insbesondere in der künstlichen Intelligenz

Megatrends in vielen großen Disziplinen der modernen Systembiologie

sind zu erwarten und zeichnen sich bereits jetzt ab: von der Genomik und Transkriptomik (s.u.) über die Proteomik (die Gesamtheit aller zu einem Zeitpunkt in einem System exprimierten Proteine), die Metabolomik (Gesamtheit aller zu einem Zeitpunkt in einem System vorhandenen Stoffwechselprodukte), den Immunstatus und die Epigenetik bis hin zum Mikrobiom (s.u.).

Beginnen wir mit dem Megatrend Genomik,…

d.i, der systematischen Analyse unseres vollständigen Genoms. Das erste Humangenom-Projekt wurde von den US National Institutes of Health (NIH) finanziert. Sein Start erfolgte 1990, sein Abschluss wurde 2003 offiziell verkündet. Aus diesem Projekt gingen zwei zukunftsweisende Veröffentlichungen hervor, die 2001 - praktisch gleichzeitig - in den Topjournalen Nature und Science erschienen.

Seit damals gab es in dieser Disziplin unglaublich rasante Fortschritte.

Um dies zu veranschaulichen, möchte ich auf das sogenannte Moore'sche Gesetz eingehen: Diese, aus den 1970er Jahren stammende Voraussage von Gordon Moore besagt, dass die Zahl der auf einen Computerchip passenden Transistoren sich alle 18 Monate verdoppelt - eine Prognose die sich bis jetzt als völlig zutreffend erwiesen hat (Abbildung 2). Enthielt um 1970 ein Chip 1000 Transistoren, so sind es heute bereits 10 Milliarden (der Grund, warum heute Handys viel, viel mehr können als die größten Computer in den 1970ern).

Im Vergleich zur Entwicklung, welche die Sequenzierung des Humangenoms genommen hat, fällt der enorme Fortschritt in der Halbleiterindustrie aber geradezu bescheiden aus. Als das Humangenom 2001 sequenziert vorlag, hätte eine weitere Sequenzierung um die 100 Millionen Dollar verschlungen und bei einer dem Moore'schen Gesetz entsprechenden, weiteren Entwicklung würden die Kosten heute bei 1 Million Dollar liegen. Tatsächlich betragen sie aber nur mehr wenige Tausend Dollar und werden in den nächsten Jahren auf wenige 100 Dollar weiter sinken (Abbildung 2).

Abbildung 2. Der rasante Fortschritt in der Halbleiterindustrie folgt dem Moore'schen Gesetz, d.i. es tritt eine Verdopplung der Transistoren pro Chip alle 18 Monate ein (rote Punkte sind Intel Transistoren). Noch schneller verlief die Entwicklung effizienterer Verfahren zur DNA-Sequenzierung und die Reduktion der anfallenden Kosten.

…und ihrer Bedeutung für die Medizin

Primär wird die Genomik zu einem verbesserten Verstehen von Erkrankungen und wirksameren Therapien führen. Bereits heute werden pränatale Diagnosen erstellt; die Untersuchung des Fruchtwassers von Schwangeren ermöglicht die Analyse der fötalen DNA.

Auf der Basis der Genom-Analysen wird eine Neu-Klassifizierung von Krankheiten stattfinden -nach Ursachen und nicht mehr nur nach Symptomen und anormalen Laborbefunden (wie im oben erwähnten Beispiel der rheumatoiden Arthritis, aus der dann möglicherweise 10 unterschiedliche Krankheitsbilder werden). Eine Klassifizierung der sogenannten Seltenen Erkrankungen (Orphan Diseases) ist bereits erfolgt.

Es sind neue Disziplinen entstanden: die Pharmakogenomik, d.i. der Einfluss des persönlichen Genoms auf die Wirkung von Arzneimitteln, und Personal Genomics, der Zugang des Einzelnen zu seinem vollständigen Genom.

Megatrend Epigenetik: Die Horvath'sche Uhr verrät unser Alter

Wenn man jemanden fragt "wie alt sind Sie", wird die Antwort lauten" ich bin x Jahre alt". Das ist natürlich das chronologische Alter und wie wir wissen, ist chronologisches Alter nicht dasselbe wie biologisches Alter. Einige Leute altern rascher, andere schauen für ihr Alter noch relativ jung aus.

Interessanterweise spiegelt sich das biologische Alter im Epigenom wieder. Die Muster der epigenetischen Markierungen - Methylierungen - verändern sich mit dem Alter der Zellen. Dies hat der an der Universität von Los Angeles tätige Humangenetiker Steve Horvath festgestellt. Aus der Untersuchung von 353 Methylierungsstellen an der DNA hat Horvath einen mathematischen Algorithmus des Musters dieser Stellen entwickelt, der mit dem biologischen Alter korreliert und als sogenannte Horvathsche Uhr bezeichnet wird.

Auf Grund des Musters der 353 Stellen, kann man nun recht genau bestimmen, wie alt jemand tatsächlich ist. Eine positive Differenz zwischen chronologischem und biologischem Alter wird dann als "beschleunigtes Altern" definiert. Langsameres Altern trifft offensichtlich auf hundert (und mehr)jährige Menschen zu (Abbildung 3, links), beschleunigtes Altern ist bei vielen Krankheiten anzutreffen, beispielsweise sind HIV-Kranke im Mittel um 5 Jahre älter als die durchschnittliche Bevölkerung. (Abbildung 3, rechts)

Abbildung 3 . Die klinische Relevanz der Horvath'schen Uhr. Auf Grund des epigenetischen Methylierungsmusters kann das biologische Alter recht genau bestimmt werden. Links: Hundertjährige altern um einige Jahre langsamer als die Normalbevölkerung. Rechts: Die epigenetische Alterung ist in zahlreichen chronischen Erkrankungen - wie beispielsweise HIV - beschleunigt1,2 und lässt die Lebenszeit voraussagen3.

Das Alter wird in Zukunft also neu definiert werden - also nicht wie alt wir unserer Geburtsurkunde nach sind, sondern wie alt wir biologisch sind. Dies hat auch Auswirkungen auf medizinische Behandlungen: beispielsweise vertragen ältere Menschen Chemotherapie wesentlich schlechter als jüngere.

Megatrend: das Mikrobiom

Es ist dies ein Trend der letzten 5 - 10 Jahre. Mikroorganismen in uns und um uns gibt es mehr als Körperzellen. Bis vor kurzem fehlten uns die Methoden um diese Systeme zu analysieren und die Datenflut zu managen. Nun aber können wir durch Sequenzierung der 16s-RNA beispielsweise in Speichel-, Haut- oder Stuhlproben recht einfach auf die Zusammensetzung des dortigen Mikrobioms schließen. Abbildung 4.

Abbildung 4. Der menschliche Organismus ist Wirt einer Vielfalt und Vielzahl an Mikroorganismen, die auch Einfluss auf unsere Stoffwechselvorgänge und Inzidenz für Krankheiten haben. Taxonomische Zusammensetzung der Prokaryoten an 10 Stellen (Habitaten) des Verdauungsystems, im Mund-/Rachenraum (9 Stellen: G1-G3) und in Stuhlproben(G4). Links: Stämme (Phyla) und Arten (Genera) in den Habitaten G1 - G4. Rechts: Kladogramm - phylogenetische Verwandschaft der Stämme. Quelle: Nicola Segata et al., Genome Biology 2012 13:R42; https://doi.org/10.1186/gb-2012-13-6-r42 (Lizenz: cc-by)

Was man heute dazu bereits aussagen kann:

  • zwischen der Genetik des Wirtsorganismus und der des Mikrobioms besteht keine Korrelation,
  • das Mikrobiom erklärt aber Parameter wie den Body-Mass-Index (BMI) und den Bauchumfang, den "Nüchternzucker" und Lipoproteine (HDL),
  • einige Erkrankungen sind mit einer reduzierten Bakteriendichte assoziiert (beispielsweise Asthma, rheumatoide Arthritis und entzündliche Darmerkrankungen (IBD))

Das Mikrobiom hat aber auch Einfluss auf Vorgänge, an die man so nicht gedacht hätte, Ein Beispiel ist die jüngst erfolgte Schilderung, wie Krebskranke - Melanom-Patienten - auf eine Behandlung mit sogenannten "checkpoint Inhibtioren" - immunstimulierenden Molekülen -, reagierten. Interessanterweise zeigte sich hier, dass Patienten mit einer hohen Diversität von Mikroorganismen wesentlich länger überlebten als solche mit einer mittleren oder niedrigen Diversität.

Fazit

Rasante Effizienzsteigerungen in neuen analytischen Verfahren und die Möglichkeit ungeheure Datenmengen zu speichern und zu verwerten, lassen uns nun einen Paradigmenwechsel in der Medizin erleben. A la longue werden wir von einer Diagnostik abkommen, die auf Grund von Symptomen und von der Norm abweichenden Laborbefunden erstellt wird und dazu gelangen, die überaus komplexe individuelle Situation des Patienten zu erfassen. Das bedeutet ein Abgehen von Therapien nach dem Schema "Eine Größe passt allen" hin zu einer zielgerichteten Behandlung, einer personalisierten Medizin.


* Dies ist die Einleitung zu einer Artikelserie des Autors, die sich im Teil 2 mit dem Einsatz künstlicher Intelligenz und der Bedeutung von "deep learning" auf die Medizin befassen wird und im dritten Teil an Hand der CAR-T Zell Therapie mit Beispielen für "Personalisierte Medizin". Über das gesamte Thema hat Norbert Bischofberger am 6. Dezember 2017 einen Vortrag "The future of medicine: Technology and personalized therapy" in der Österreichischen Akademie der Wissenschaften gehalten.


Weiterführende Links

  • Kronos Bio: http://www.kronosbio.com; "Pursuing therapies against some of the most intractable cancer targets"

  • Gilead Sciences:http://www.gilead.com/

  • Steve Horvath: Die Uhr des Lebens (2018) Video 03:57 Min. https://www.youtube.com/watch?v=5qQcUzTma74 Standard-YouTube-Lizenz
  • Interview with Dr. Steve Horvath (2017) Video 4:36 min. https://www.youtube.com/watch?v=iIP0OhzxmFM, Standard-YouTube-Lizenz

  • Robert Knight: Wie unsere Mikroben uns zu dem machen, wer wir sind Video 17:24 min. TED-Talk 2014 (deutsche Untertitel). https://www.ted.com/talks/rob_knight_how_our_microbes_make_us_who_we_are/transcript?language=de

  • Urs Jenal: Der Mensch und sein Mikrobiom.Weltenreise 2016 Video 23:49 min. https://www.youtube.com/watch?v=7S5-okH7Myo Standard-YouTube-Lizenz

Artikel im ScienceBlog:


 

inge Thu, 24.05.2018 - 00:32

Die Bevölkerungsentwicklung im 21. Jahrhundert - Szenarien, die Migration, Fertilität, Sterblichkeit, Bildung und Erwerbsbeteiligung berücksichtigen.

Die Bevölkerungsentwicklung im 21. Jahrhundert - Szenarien, die Migration, Fertilität, Sterblichkeit, Bildung und Erwerbsbeteiligung berücksichtigen.

Do, 17.05.2018 - 15:43 — IIASA IIASAIcon Politik & Gesellschaft

Vor Kurzem ist eine faszinierende Zusammenstellung von Daten und darauf basierenden Prognosen, wie sich weltweit die Bevölkerung im 21. Jahrhundert entwickeln wird, erschienen [1]. Es ist dies eine Zusammenarbeit des Internationalen Instituts für angewandte Systemanalyse (IIASA) in Laxenburg bei Wien und der Gemeinsamen Forschungsstelle der Europäischen Kommission (JRC). Mittels Methoden multidimensionaler demografischer Analysen wurden Prognosen für eine Reihe möglicher Zukunftsszenarien erstellt, die nicht nur die Altersstruktur, Geburts- und Sterberaten der Bevölkerungen berücksichtigen sondern auch die Auswirkungen von Migration, Bildungsstrukturen und Erwerbsbeteiligung.*

Eben ist das Buch "Szenarien der Demografie und des Humankapitals im 21. Jahrhundert" (Demographic and human capital scenarios for the 21st century) erschienen [1]. Es ist das Werk des Kompetenzzentrums für Bevölkerung und Migration (Centre of Expertise on Population and Migration – CEPAM), einer Kooperation zwischen dem World Population Program des IIASA und dem Joint Research Centre (JRC) der Europäischen Kommission. Die CEPAM-Partnerschaft wurde ins Leben gerufen, um umfassend zu evaluieren, wodurch zukünftige Migration nach Europa verursacht werden wird und -zur Information der europäischen Politik ab 2019 -, um zu untersuchen, welche Auswirkungen alternative Migrationsszenarien haben würden. Das Buch bietet dafür eine essentielle Grundlage. Es dient auch als Aktualisierung zu einem früheren Buch, Weltbevölkerung und Humankapital im einundzwanzigsten Jahrhundert (World Population and Human Capital in the Twenty-First Century), das im Jahr 2014 veröffentlicht wurde [2].

Faktoren…

Wenn die Geburtenraten so niedrig sind, wie dies derzeit in Europa der Fall ist, wird die internationale Migration zum Hauptfaktor für das Bevölkerungswachstum. In Hinblick auf das Wirtschaftswachstum sind jedoch die Größe des Arbeitsmarkts und die Produktivität wichtiger. Frühere demografische Prognosen haben nur Alter und Geschlecht in der Bevölkerungsentwicklung berücksichtigt, in dieser neuen Studie werden dagegen auch Bildungsstand und Erwerbsbeteiligung in den EU-Mitgliedstaaten mit einbezogen.

…und Szenarien

Das Buch untersucht die Entwicklung der Bevölkerung in 201 verschiedenen Ländern (d.i. mehr als 99 % der Weltbevölkerung werden erfasst; Anm. Redn) basierend auf drei verschiedenen Szenarien der Migration, zusätzlich zu unterschiedlichen Szenarien für Fertilität, Mortalität und Bildung. (Anm. Redn.: Analog zu den Szenarien in der Klimaforschung werden hier sogenannte Shared Socioeconomic Pathways – SSPs definiert. SSP1 steht für rasche soziale Entwicklung assoziiert mit hoher Bildung und niedrigen Geburts- und Todesraten. SSP2 - der mittlere Weg - entspricht in etwa der Fortsetzung der derzeitigen Trends. SSP3 bedeutet stagnierende Entwicklung, assoziiert mit niedriger Bildung, hoher Fertilität und Todesrate und Armut.)

Das "mittlere" Szenario geht davon aus, dass die Wanderungsraten von ähnlicher Höhe sein werden, wie sie im Durchschnitt für jedes Land zwischen 1960 und 2015 beobachtet worden waren. Im Szenario "Doppelte Migration" wird eine zweifache Höhe der durchschnittlichen Ein- und Auswanderungsraten angenommen. Das Szenario "Null Migration" geht davon aus, dass keine Migration stattfindet.

Wie die Verfasser der Studie sagen, sind dies "naive" Szenarien; sie dienen eher als Anhaltspunkte, um die Auswirkungen von Migration auf die Bevölkerung zu verstehen als, dass sie realistische Prognosen wären.

"Migration sollte als integraler Bestandteil der Bevölkerungsdynamik gesehen werden. Deshalb betrachtet sie dieses Buch im Kontext alternativer möglicher Szenarien für alle Länder der Welt bis zum Ende dieses Jahrhunderts", sagt Wolfgang Lutz, Direktor des World Population Program des IIASA.

Entwicklung der Weltbevölkerung

Beispielsweise würde einem "mittleren" Szenario zufolge die Weltbevölkerung bis 2070-80 weiter steigen und ein Maximum von 9,8 Milliarden Menschen erreichen, bevor sie zu sinken beginnt. Abbildung 1 (von der Redaktion aus [1] eingefügt; blaue Kurven SSP2) Der Anstieg ist höher als in dem oben erwähnten, 2014 erschienen Buch [2] prognostiziert (schwarze Kurve WIC 2014 SSP2) und dies ist hauptsächlich auf einen schnelleren Rückgang der Kindersterblichkeit in Afrika zurückzuführen. Ein alternatives Szenario, das von einer raschen sozialen Entwicklung und insbesondere von einem besseren Bildungsniveau der Frauen ausgeht, würde zu einer Senkung der Geburtenraten führen, wobei 2055-60 eine Maximum der Bevölkerung von 8,9 Milliarden erreicht werden würde (grüne Kurve, SSP1). Stagnierende soziale Entwicklung und ein niedriges Bildungsniveau würden zu höheren Geburtenraten führen, der Anstieg der Bevölkerung würde sich über das gesamte Jahrhundert fortsetzen und 13,4 Milliarden im Jahr 2100 erreichen. Abbildung 1 (orange Kurve SSP3).

Abbildung 1. Prognosen für die Entwicklung der Weltbevölkerung im 21. Jahrhundert entsprechend den Szenarien SSP1 – SSP3 (siehe Anm Redn. oben) und 3 Migrationsszenarien. (Die Abbildung wurde von der Redaktion aus [1] eingefügt und steht wie das gesamte Buch unter einer cc-by-nc-Lizenz.)

Unterschiedliche Gebiete

der Welt werden sich jedoch verschieden entwickeln. In der Europäischen Union wird die Bevölkerung entsprechend einem mittleren Szenario (SSP2; Anm. Redn.) bis 2035 geringfügig auf rund 512 Millionen Menschen anwachsen, und dies wird hauptsächlich auf die Zuwanderung zurückzuführen sein. Danach wird es einen Rückgang geben, da die Fertilitätsraten niedrig sind und eine deutliche Alterung zu beobachten ist. Abbildung 2 (von der Redaktion aus [1] eingefügt).

Abbildung 2. Die Entwicklung der Bevölkerung in den EU-28 Staaten bis 2060 entsprechend den Szenarien SSP1 – SSP3 (siehe Anm Redn. oben) und 3 Migrationsszenarien. (Die Abbildung wurde von der Redaktion aus [1] eingefügt und steht wie das gesamte Buch unter einer cc-by-nc-Lizenz.)

Die verfügbaren Arbeitskräfte werden jedoch nicht notwendigerweise weniger werden, wenn die Erwerbsbeteiligung der Frauen steigt. Abbildung 3 (von der Redaktion aus [1] eingefügt).

Abbildung 3. Erwerbstätige in der Europäischen Union. Oben: Entwicklung der Gesamtzahl an Arbeitskräften in der EU bis 2060. Szenario SSP2 bei Null Migration, fortgesetzter durchschnittlicher Migration und doppelt so hoher Migration. Equalisation Szenario bedeutet, dass die Erwerbstätigkeit der Frauen die der Männer erreicht. im schwedischen Szenario gilt zusätzlich ein höheres Pensionsantrittsalter. Unten: Veränderung der Erwerbstätigkeit in Abhängigkeit von der Ausbildung. Szenario SSP2 bei fortgesetzter durchschnittlicher Migration. Der Anteil der Arbeitskräfte mit maximal Sekundärstufe-1 Ausbildung wird von 20, 6 % im Jahr 2015 bis auf 6, 5 % (2060) abnehmen. Dagegen werden 2060 knapp 60 % postsekundäre Ausbildung besitzen.(Die Abbildung wurde von der Redaktion aus [1] eingefügt und steht wie das gesamte Buch unter einer cc-by-nc-Lizenz.)

In der Subsahara-Zone Afrikas dürfte sich die Bevölkerung im mittleren Szenario (SSP2) bis 2060 auf rund 2,2 Milliarden Menschen verdoppeln. Bei stockender sozialer Entwicklung und fehlendem Ausbau von Schulen könnte diese Zahl sogar auf 2,7 Milliarden steigen. Dies würde wiederum zu weit verbreiteter Armut und hoher Gefährdung durch den Klimawandel führen und schwerwiegende Folgen einer möglichen Auswanderung nach sich ziehen.

Fazit

Die entwickelten Szenarien werden politischen Entscheidungsträgern dabei helfen, sich einer breiten Palette von Herausforderungen zu stellen, die von den wirtschaftlichen Folgen einer alternden Bevölkerung sich bis hin zur Festlegung von Entwicklungsprioritäten in Afrika erstrecken.

Nach Meinung der Autoren zeigen die Ergebnisse der CEPAM-Untersuchungen, dass Trends in der Bevölkerungsentwicklung innerhalb gewisser Grenzen kein Fixum sind und langfristig durch die Politik noch beeinflusst werden können. Kurzfristig gesehen ist es die Migration, auf die am einfachsten durch politische Maßnahmen eingewirkt werden kann.


[1] Lutz W, Goujon A, KC S, Stonawski M, Stilianakis N eds. (2018) Demographic and human capital scenarios for the 21st century. Luxembourg: Publications Office of the European Union [pure.iiasa.ac.at/id/eprint/15226/] . Das Buch ist open access und steht unter einer cc-by-nc-Lizenz.

[2] Lutz W, Butz WB, KC S (Hsg) (2014)World Population & Human Capital in the 21st Century. Executive Summary. http://pure.iiasa.ac.at/id/eprint/11189/1/XO-14-031.pdf


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte, für den Blog adaptierte Text stammt von der IIASA-Presseaussendung am 18. April 2018 “New book looks at the future of population and migration " http://www.iiasa.ac.at/web/home/about/news/180418-lutz-demographics-book.html . IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt.

Der Text wurde von der Redaktion durch passende Abbildungen aus dem beschriebenen Buch Demographic and human capital scenarios for the 21st century [1] ergänzt.


Weiterführende Links

  • IIASA Policy Brief: Rethinking Population Policies. Why Education Makes a Decisive Difference.(2014) http://www.iiasa.ac.at/web/home/resources/publications/IIASAPolicyBriefs/pb11-web.pdf
  • Wolfgang Lutz: Population, Education and the Sustainable Development Goals (2016) Video: 12:29 min. https://www.youtube.com/watch?v=XsdnVeAGwPo. Standard YouTube Lizenz
  • Wolfgang Lutz: World population and human capital in the twenty-first century (2014). Video: 9:03 min. https://www.youtube.com/watch?v=oNI25eBPBmI. Standard YouTube Lizenz
  • Wolfgang Lutz: The Future Population of our Planet: Why Education Makes the Decisive Difference(2014). Video 22:28 min. https://www.youtube.com/watch?time_continue=5&v=IlKtMAMX-xA. Standard YouTube Lizenz

 

inge Thu, 17.05.2018 - 15:43

Anton Weichselbaum und das menschliche Mikrobiom - ein Vortrag vor 125 Jahren

Anton Weichselbaum und das menschliche Mikrobiom - ein Vortrag vor 125 Jahren

Do, 10.05.2018 - 12:37 — Redaktion RedaktionIcon Biologie

Zu den Gebieten, die derzeit eine enorm dynamische Entwicklung durchmachen, gehört zweifellos die Erforschung des menschlichen Mikrobioms. Dieser Begriff umfasst die ungeheure Vielzahl und Vielfalt an Mikroorganismen, die in und auf unserem Organismus leben - als unschädliche, auch nützliche Partner aber ebenso als Pathogene.

Das Wissen um unser Zusammenleben mit Mikroorganismen ist nicht neu. Verbesserte experimentelle Methoden, insbesondere die Lichtmikroskopie, ermöglichten ab der zweiten Hälfte des 19. Jahrhunderts einen Blick in den Mikrokosmos der Mikroorganismen und führten auch zur Entdeckung vieler Krankheitserreger, wie etwa des Bacillus anthracis (des Erregers von Milzbrand) und des Tuberkelbazillus durch Robert Koch in den Jahren 1876 und 1882.

Abbildung 1. Prof.Anton Weichselbaum (1845 – 1920). (Eine Kurzbiographie findet sich in [1]. Bild: Wellcome M0006622.jpg; cc-by Lizenz)

Zu den Pionieren auf diesem Gebiet gehörte auch österreichische Pathologe Anton Weichselbaum (1845 - 1920). Abbildung 1. Als Professor für pathologische Anatomie an der Universität Wien führte er die Bakteriologie in diese Disziplin ein und erforschte Krankheitsursachen auf Basis anatomischer und histologischer Veränderungen und möglicher Erreger. So entdeckte er 1886 den Erreger der Lungenentzündung Streptococcus pneumoniae und im Jahr danach den Erreger der epidemischen, vor allem bei Kleinkindern auftretenden Hirnhautentzündung, Neisseria meningitidis. Er forschte auch an Tuberkulose, wies als erster Tuberkelbazillen im Blut von an TBC Verstorbenen nach und förderte die Errichtung der ersten Lungenheilstätte in Alland (Niederösterreich).

Weichselbaum hat seine Forschungsergebnisse in zahlreichen Publikationen und umfangreichen Handbüchern eindrucksvoll und in leicht verständlicher Sprache dargestellt. Ein Beispiel dafür ist der 1892 erschienene Grundriss der pathologischen Histologie [2].

In Anlehnung an eines der Buchkapitel hat Weichselbaum knapp ein Jahr später im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien"einen grandiosen Vortrag gehalten - ganz allgemein über die mit uns zusammenlebenden Bakterien und sehr detailliert über die damals bekannten pathogenen Bakterien und die durch sie ausgelösten Krankheiten [3]. Es wurde ein sehr, sehr langer Vortrag, der im Folgenden stark gekürzt und ohne die Schilderung der pathogenen Erreger wiedergegeben wird (Abbildungen und Untertitel wurden von der Redaktion eingefügt):

Anton Weichselbaum: Über die Bedeutung der Bakterien für den menschlichen Organismus.

gekürzte Version des Vortrags am 18. Jänner 1893 [3].

"Der erste, welcher von der Existenz jener mikroskopisch kleinen Lebewesen Kenntnis erlangte, war ein holländischer Forscher (Antoni van Leeuwenhoek, Anm. Redn.) zu Ende des 17. Jahrhunderts, welcher sie mit Hilfe von stark vergrößernden Linsen, die er sich selbst geschliffen hatte, in seinem Zahnschleime und später auch in anderen Flüssigkeiten sehen konnte; er hielt sie wegen der lebhaften Beweglichkeit für tierische Wesen.

Diese Entdeckung blieb lange Zeit unbeachtet; erst als gegen die Mitte dieses Jahrhunderts (19. Jh., Anm. Redn.)unsere optischen Instrumente wesentlich vervollkommnet wurden, lenkte sich die Aufmerksamkeit der Forscher mehr und mehr diesen unsichtbaren Lebewesen zu.

Da man die Bakterien in den verschiedensten Substraten gleichsam aus nichts hervorgehen sah, so glaubte man, sie entstünden durch sogenannte "Generatio aequivoca", d. h. man glaubte, sie gingen aus einer unorganisierten Materie hervor, wie man ja auch bezüglich der Maden im faulenden Fleische einmal geglaubt hatte, dass sie nicht aus Fliegeneiern, sondern aus irgend einem Bestandteile des Fleisches selbst entstünden. Es kostete viele Kämpfe, bis diese ganz unwissenschaftliche Anschauung über den Haufen geworfen werden konnte, und erst mit den exakten Methoden der neuesten Zeit war es möglich, den unumstößlichen Beweis zu erbringen, dass für die Entstehung der Bakterien das gleiche Naturgesetz gelte wie für alle übrigen belebten Wesen.

Überhaupt haben unsere Kenntnisse und Forschungen über die Bakterien erst im letzten Dezennium eine streng wissenschaftliche Basis erhalten, als nämlich unsere optischen Hilfsmittel von neuem eine bedeutende Verbesserung erfuhren und die ganze Untersuchungsmethodik eine viel exaktere geworden war.

Die Bakterien sind außerordentlich kleine,

pflanzliche Wesen, die auch in ihrem Aufbau die größtmögliche Einfachheit zeigen; jedes Bakterium besteht nämlich nur aus einer einzigen Zelle, während die höher organisierten Pflanzen, wie wir wissen, aus einem ganzen Komplex von verschiedenen Zellen und Zellderivaten zusammengesetzt sind. Der Breitendurchmesser eines Bakteriums beträgt häufig nur den tausendsten Teil eines Millimeters oder noch weniger, während die Länge etwa das Zwei- bis Dreifache der Breite erreicht. Die Bakterien können daher nur mit sehr starken Vergrößerungen, also deutlich nur mit einer etwa 1000 fachen Vergrößerung gesehen werden."Abbildung 2.

Abbildung 2. Tuberkelbakterien (Mycobacterium tuberculosis), elektronenmikroskopische Aufnahme. (Photo: gemeinfrei; Credit: Janice Carr Content Providers(s): CDC/ Dr. Ray Butler; Janice Carr)

Einteilung nach ihrer Form

"Wir sind nur wegen der Unvollständigkeit unserer Kenntnisse über Entstehung, Wachsthum und Fortpflanzung der Bakterien noch nicht im Stande, die Arten der Bakterien in ein ähnliches natürliches System zu bringen, wie dies bei den höher organisierten Pflanzen möglich ist; bei der Einteilung der Bakterien bringen wir sie zunächst nach ihrer Form in folgende drei Hauptgruppen" (Abbildung 3):

  1. "in solche, welche von kugeliger Gestalt sind (sogenannte Kokken);
  2. n solche, welche die Form eines geraden Stäbchens haben (sogenannte Bazillen);
  3. in solche, welche die Form eines schraubenartig gekrümmten Stäbchens besitzen (sogenannte Spirillen)".

 

Abbildung 3. Prinzipielle Formen der Bakterien: Kokken und Mikrokokken, stäbchenförmigebakterien und Spirillen. (Bild: p.163 in "Dictionnaire d'horticulture illustré / par D. Bois préface de Maxime Cornu avec la collaboration de E. André ... [et al.]." (1893) https://www.flickr.com/photos/internetarchivebookimages/20911975971/in/photostream/)

Teilung, Sporenbildung und…

"Jedes Bakterium wächst bis zu einer gewissen Größe; ist diese erreicht, so teilt es sich in zwei gleiche Hälften, von denen jede wieder ein neues Individuum darstellt. Bei gewissen Bakterien gibt es noch einen anderen Modus der Fortpflanzung. Es entsteht in der Bakterienzelle durch Verdichtung ihres Inhaltes ein rundes oder ovales Gebilde, welches bald eine sehr resistente Hülle erhält und Spore genannt wird. Später tritt die Spore aus der Bakterienzelle heraus und kann sich in dieser Form sehr lange Zeit und unter sehr ungünstigen äußeren Verhältnissen lebensfähig erhalten."

…Art der Ernährung

"Diese ist bei Bakterien ist wesentlich verschieden von jener der höher stehenden Pflanzen. Die Bakterien benötigen zwar auch für ihren Lebensprozess eine bestimmte Feuchtigkeit, eine bestimmte Temperatur, aber da ihnen in der Regel das Chlorophyll fehlt, so können sie nicht wie die chlorophyllhaltigen Pflanzen ihren Kohlenstoffbedarf durch Zerlegung von Kohlensäure decken, sondern sie benötigen hierzu bereits vorgebildete, komplizierte Kohlenstoffverbindungen. Sehr merkwürdig ist das Verhalten der Bakterien gegenüber dem Sauerstoffe der Luft. Während auf der einen Seite Bakterien den Sauerstoff unumgänglich notwendig zu ihrer Vegetation brauchen, treffen wir auf der anderen Seite Bakterien, die nur dann gedeihen können, wenn absolut kein Sauerstoff aus der Luft zu ihnen dringt - also in tieferen Schichten der Erde, des Meeres, der Seen, in den inneren Organen von Menschen und Tieren u.s. w. - und solche, die sowohl bei Zutritt als bei Abschluss von Luftsauerstoff zu leben vermögen."

"Diese Eigenschaften erklären uns auch die

…außerordentlich große Verbreitung der Bakterien

Sie finden sich allenthalben in der unbelebten und belebten Natur, in der Luft, im Wasser, im Eis, im Schnee, im Boden, aber ebenso in den verschiedensten pflanzlichen und tierischen Wesen, gleichgültig, ob diese leben oder bereits abgestorben sind.

Zu ihrer großen Verbreitung trägt noch ihre enorme Vermehrungsfähigkeit bei. Der Teilungsprozess läuft bei manchen Arten sehr rasch, mitunter schon in 20 Minuten ab. Würde diese Raschheit durch 24 Stunden andauern, so müssten in dieser Zeit aus einem einzigen Individuum 4700 Trillionen Bakterien entstehen. Eine solche schrankenlose Vermehrung müsste bald zu einer Überflutung der ganzen Erde mit Bakterien, ja zu einer Verdrängung aller anderen Lebewesen durch die Bakterien führen. Dafür, dass das Gleichgewicht in der organischen Welt durch die Bakterien nicht gestört werde, gibt es eine Reihe von Hemmungsvorrichtungen, welche einer schrankenlosen Vermehrung der Bakterien einen wirksamen Damm entgegensetzen. Erstlich finden die Bakterien nicht immer und überall jene Wärme, Feuchtigkeit und Nährstoffe, welche für ein rasches Wachstum und eine rasche Vermehrung notwendig sind. Ferner erzeugen die Bakterien durch ihren eigenen Lebensprozess Stoffe, die ihnen schädlich sind und ihre weitere Vermehrung aufhalten.

Wirkungen auf das organische Leben

Bekanntlich baut sich der Körper der Pflanzen und Tiere vorwiegend aus komplizierten, organischen Verbindungen, insbesondere aus Eiweißkörpern auf; durch das Absterben der Pflanzen und Tiere würden diese wichtigen Verbindungen für die organische Welt größtenteils verloren gehen. Eine Reihe von Bakterien erzeugen eigentümliche Körper, die wir Fermente oder Enzyme nennen, und die ihrer chemischen Konstitution nach den Eiweißkörpern nahe stehen. Diese Fermente sind im Stande, spezifische chemische Umwandlungen in bestimmten organischen Substanzen einzuleiten, diese in immer einfachere und schließlich in solche Körper zu zerlegen, welche von den Pflanzen als Nährstoffe benützt werden können. Dadurch, dass in den Pflanzen und Tieren durch ihren Stoffwechsel wieder die komplizierten Eiweißkörper gebildet werden, geht von der organischen Materie nichts verloren.

Die Bakterien bilden auf diese Art in dem geschlossenen Kreislaufe zwischen organischem Leben und Sterben ein äußerst wichtiges, ja unumgänglich notwendiges Verbindungsglied.

Von besonderer Wichtigkeit für uns ist aber, dass die Bakterien auch äußerst heftig wirkende Gifte produzieren können, die sehr mannigfaltiger Art zu sein scheinen. Schon bei jener Zersetzung organischer Körper, welche wir Fäulnis nennen, können von gewissen Bakterienarten Körper gebildet werden, welche für den Menschen sehr giftig sind; die schweren Krankheitserscheinungen, welche mitunter nach dem Genüsse von faulenden Fleischwaren und faulendem Käse beobachtet werden, sind ein Werk von bestimmten Fäulnisbakterien, die bei der Zersetzung der genannten Esswaren in diesen giftige Körper bilden und letztere durch den Genuss der betreffenden Esswaren in uns aufgenommen werden.

Noch wichtiger für uns sind jene spezifischen Gifte, welche in unserem Organismus selbst von bestimmten Bakterien, die zeitweilig im menschlichen Körper ihren Wohnsitz aufschlagen, erzeugt werden. Hiermit komme ich zum eigentlichen Gegenstande meines Vortrages, nämlich zur Erörterung der Bedeutung der Bakterien für den menschlichen Organismus.

Bakterien im menschlichen Organismus…

Ich muss aber noch vorausschicken, dass man die Bakterien bezüglich ihrer Lebensweise in zwei große Lager teilen kann, in saprophytische Bakterien, die auf toten organischen Substraten vegetieren und in parasitische Bakterien, die in lebenden Wesen sich ansiedeln. Gerade die letzteren sind für uns von besonderer Bedeutung, denn unter ihnen finden sich jene, welche bestimmte Krankheiten erzeugen können, und die wir deshalb als pathogene Bakterien bezeichnen.

Bei der allgemeinen Verbreitung der Bakterien darf es uns nicht Wunder nehmen, dass im Körper des lebenden Menschen viele Bakterienarten ihren bleibenden oder vorübergehenden Aufenthalt nehmen. Mit jedem Atemzuge, den wir machen, mit jedem Schluck Wasser, mit dem Genuss vieler anderer Getränke und Speisen, ja sogar mit der Muttermilch, welche der Neugeborene zu sich nimmt, dringen Bakterien in unseren Körper; daher kommt es, dass alle jene Körperhöhlen des Menschen, welche mit der Außenwelt kommunizieren, von zahlreichen Bakterien bewohnt werden.

Manche von diesen sind nur zufällig oder vorübergehend unsere Gäste; andere dagegen siedeln sich für lange Zeit oder selbst dauernd in uns an. Unter letzteren finden sich gewisse Arten, welche schon vom Beginne unseres Daseins bis zum Tode unzertrennlich an uns gekettet sind. Es gilt dies für den Menschen aller Zeiten und aller Erdstriche. So fand man in den Zähnen einer ägyptischen Mumie die gleichen Bakterienarten, wie sie noch heutzutage in unserer Mundhöhle vorzukommen pflegen.

Die Bedeutung der in uns zeitweilig oder andauernd residierenden Bakterien für den menschlichen Organismus ist sehr verschieden. Ein Teil dieser Bakterien verhält sich vollständig indifferent; er lebt einfach von dem Sekrete oder dem Inhalte gewisser Körperhöhlen, ohne seinem Wirte irgendwie zu schaden oder zu nützen.

Andere spielen insofern eine wichtige und wahrscheinlich auch nützliche Rolle, als sie sich an unserem Verdauungsprozess beteiligen, indem sie gewisse Fermente erzeugen: so ein Ferment für die Umwandlung von Stärke in Dextrin und Zucker, ein Ferment für die Auflösung geronnener Eiweißkörper u. a. m.

Unter Umständen können diese Bakterien aber auch schädlich werden, wenn sie sich nämlich in abnormer Menge anhäufen oder wenn die durch sie eingeleiteten Fermentationen übermäßig lang andauern.

Die bisher erwähnten Bakterien leben insgesamt saprophytisch im Menschen, d. h. sie ernähren sich bloß von toten organischen Substanzen, wie sie in der eingeführten Nahrung oder in gewissen Absonderungsstoffen des Organismus gegeben sind.

…als Verursacher von Infektionskrankheiten…

Anders aber ist es bei den pathogenen Bakterien, indem diese die lebenden Gewebe selbst angreifen und dadurch die Ursache bestimmter Krankheiten werden, welche man Infektionskrankheiten oder mit einem mehr populären Ausdrucke ansteckende Krankheiten nennt.

Schon in einer Zeit, in welcher man von den Bakterien kaum etwas wusste, waren einige scharfsinnige Forscher durch das eigentümliche Verhalten der ansteckenden Krankheiten zur Vermutung gekommen, dass die Ursache derselben kleinste lebende Organismen sein müssten. Doch erst in der allerjüngsten Zeit konnte diese Vermutung zur unumstößlichen Gewissheit erhoben werden, und zwar dadurch,

  • dass es gelang, diese Organismen bei den betreffenden Krankheiten konstant nachzuweisen (Abbildung 4),
  • dass es ferner gelang, sie künstlich zu kultivieren und
  • durch ihre Einverleibung bei Tieren und Menschen die gleichen Krankheiten hervorzurufen."

Abbildung 4. Typhusbazillen (d; Salmonella enterica) finden sich in der Milz in kleinen unregelmäßigen Gruppen (links). Membranbildung auf dem Gaumenzäpfchen mit Diphtheriebazillen (a; Corynebacterium diphtheriae) und Sekundärinfektion mit Streptokokken (c) (rechts). (Bilder stammen aus: A. Weichselbaum (1892) Grundriss der pathologischen Histologie [2]).

Dieses Gelingen muss als einer der größten Triumphe nicht etwa der medizinischen Wissenschaften allein, sondern der Naturwissenschaften und des menschlichen Wissens überhaupt bezeichnet werden, ein Triumph, welcher um so höher zu veranschlagen ist, als es sich um die Lösung eines Problems handelte, an welcher sich die Medizin schon durch viele Jahrhunderte vergeblich abgemüht hatte, und deren Tragweite von uns vorläufig noch gar nicht überblickt werden kann."


[1] Kurzbiographie https://www.wien.gv.at/wiki/index.php/Anton_Weichselbaum

[2] Anton Weichselbaum (1892): Grundriss der pathologischen Histologie: Mit besonderer Berücksichtigung der Untersuchungsmethodik. https://archive.org/stream/grundrissderpat00weicgoog#page/n0/mode/2up

[3] Anton Weichselbaum (1893): Über die Bedeutung der Bakterien für den menschlichen Organismus. http://www.zobodat.at/pdf/SVVNWK_33_0229-0266.pdf


Weiterführende Links

  • Robert Knight: Wie unsere Mikroben uns zu dem machen, wer wir sind Video 17:24 min. TED-Talk 2014 (deutsche Untertitel). https://www.ted.com/talks/rob_knight_how_our_microbes_make_us_who_we_are/transcript?language=de
  • Jonathan Eisen: meet your microbes Video 14:12 min. TED-Talk 2012. https://www.ted.com/talks/jonathan_eisen_meet_your_microbes TED2012

Artikel im ScienceBlog:


 

inge Thu, 10.05.2018 - 00:37

Nowitschok - Nervengift aus der Sicht eines Chemikers

Nowitschok - Nervengift aus der Sicht eines Chemikers

Do, 03.05.2018 - 22:06 — Inge Schuster

Inge SchusterIcon ChemieZwei Monate nach dem Anschlagmit einem Nervengift im englischen Salisbury ist es um die ganze Affäre relativ ruhig geworden. Nach Analysen durch zwei unabhängige Institutionen soll es sich um eine Verbindung aus der Gruppe der sogenannten Nowitschok-Substanzen handeln, die ursprünglich als Kampfstoffe in der UdSSR entwickelt worden waren. Nähere Details zu diesem Gift und zur offensichtlich erfolgreichen Behandlung der Opfer wurden nicht bekannt. Im Folgenden soll ein kurzer Überblick über derartige Verbindungen und deren Wirkmechanismus gegeben werden.

Man sieht es nicht, spürt es nicht, riecht es nicht und es ist dennoch unvorstellbar giftig. Als vor zwei Monaten von einem Anschlag mit einem synthetischen Nervengift in Salisbury berichtet wurde, löste dies weltweit Entsetzen aus. Die Empörung kochte hoch und es wurden Szenarien Wirklichkeit, die an die des kalten Krieges erinnerten.

Labors des britischen DSTL (Defence Science and Technology Laboratory ) im nahegelegenen Porton Down und zu einem späteren Zeitpunkt der Organisation for the Prohibition of Chemical Weapons (OPCW) haben das Blut (und andere Körperflüssigkeiten) der beiden Opfer des Anschlags und Proben von Stellen, mit denen diese vermutlich in Kontakt gekommen waren, analysiert.

Die Analysen ergaben, dass die Proben ein Nervengift enthielten, das aus einer mit Nowitschok bezeichneten Gruppe phosphororganischer Verbindungen stammte. Es hieß, es handle sich dabei um eine besonders stabile Verbindung , deren hohe Reinheit nicht auf die (ansonsten auf Grund von Verunreinigungen nachweisbare) Herkunft schließen lasse. Struktur und Bezeichnung wurden der Allgemeinheit nicht mitgeteilt.

Was aber bedeutet Nowitschok?

Während des kalten Krieges hatten viele Länder noch intensiv an chemischen Waffen gearbeitet mit dem Ziel deren Toxizität zu erhöhen und die Nachweisbarkeit und die Möglichkeit sich davor zu schützen zu reduzieren.. In den Militärlabors der damaligen UDSSR wurden in den 1970 - 1980-Jahren phosphororganische Substanzen produziert (Code: Foliant-Programm), die strukturelle Ähnlichkeit mit den seit den 30er und 40er Jahren bekannten Giften Sarin und Soman aufwiesen, jedoch eine vielfach höhere Toxizität hatten. Abbildung 1. Allerdings herrscht über Strukturen und Eigenschaften dieser Verbindungen ziemliche Unklarheit.

Abbildung 1.Toxizität repräsentativer chemischer Nervengifte bei Hautkontakt (logarithmische Skala; LD50: Dosis in mg die 50 % einer Bevölkerung nach Hautkontakt tötet). Nowitschok Verbindungen (hier A-232) sind angeblich noch 5 - 10 x toxischer als VX. Zu den wenigen Autoren, die über diese Verbindungen berichten (s.u.), gehören S. Hönig und W. Mirsajanov - sie geben unterschiedliche Strukturen an. (Toxizität: Quelle J. Newmark, Arch Neurol. 2004;61(5):649-652. doi:10.1001/archneur.61.5.649)

Ein Großteil dessen, was an Information über die Nowitschok Verbindungen an die Öffentlichkeit gelangte, stammt von Wil Mirsajanow, der Leiter der russischen Spionageabwehr war, aber auch als analytischer Chemiker an dem geheimen Foliant-Programm beteiligt war und die Umweltbelastung durch chemische Kampfstoffe untersuchte. Schwere Bedenken hinsichtlich der Kontamination der Umwelt durch die Nowitschok Substanzen brachten Mirsajanov dazu das geheime Projekt an die Öffentlichkeit bringen - es war dies ja schliesßlich in der Ära des Glasnost [1]. (Auch die Bezeichnung der Substanzgruppe Nowitschok (Neuling) geht auf Mirsajanov zurück). Mirsajanov verlor seinen Posten und bekam ein Verfahren auf den Hals, das aber bald wieder eingestellt wurde. Das Interesse des Westens an der Causa schien endendwollend. Später, in die USA emigriert, berichtete Mirsajanov in einer Autobiographie 2008 “State Secrets: An Insider’s Chronicle of the Russian Chemical Weapons Program” über das Foliant-Programm und zeigte auch Strukturen wesentlicher Verbindungen aus diesem Programm auf (da er keinen Verleger fand, gab er das Buch im Eigenverlag heraus).

In einem Derivierungsprogramm sollen über 100 Vertreter solcher Nowitschoks bis zum Zusammenbruch der UDSSR - und noch darüber hinaus (auch als 1993 sich Russland der Chemical Weapons Convention angeschlossen hatte) - synthetisiert und getestet worden sein.

Ein Überblick über diese giftigsten aller Nervengifte ist in Abbildung 2 dargestellt. Die von Mirsajanov aufgezeigten Strukturen sind von mehreren Autoren übernommen worden. Allerdings geht der amerikanische Chemiker (und Chemical Terrorism Coordinator am Florida Dept of Health) Steven Hönig g- offensichtlich basierend auf einschlägigen russischen Veröffentlichungen zur Synthese derartiger Verbindungen - von anderen Strukturen aus [2] (Abbildung 1), ebenso D. Hank Ellison, der auch zahlreiche derartige Arbeiten zitiert.

Abbildung 2. Was sind Nowitschok-Verbindungen? Strukturen nach W. Mirsajanov; die ersten drei Strukturen In der oberen Reihe sind A-230, A-232 und A-234 . In der Reihe darunter sind 2 Guanidino-Derivate, die kürzlich in einem iranischen Labor synthetisiert wurden. (Quelle: http://www.compoundchem.com/2018/03/12/novichok/; Lizenz: cc- by-nc-nd)

Zur Herkunft von Nowitschoks

Auf Grund ihrer enorm hohen Toxizität lassen sich Nowitschoks zweifellos nicht von "Garagen-Startups" herstellen. Dass aber wichtigere, an Nervengiften arbeitende Labors - einschliesslich Porton Down in England, Edgwoodin den US, TNO in Holland, etc. - sich auch mit Nowitschoks beschäftigen, gehört einfach zu deren Aufgabenbereichen. Schließlich müssen für derartige Giftstoffe ja auch empfindlichste analytische Nachweisverfahren aus unterschiedlichsten Probematerialien entwickelt werden und die chemischen und biologischen Eigenschaften solcher Strukturen (und auch ihrer Abbauprodukte) getestet werden, um bei potentiellen Anschlägen rasch Abwehr- und Schutzmaßnahmen einleiten zu können. Derartige Forschung ist demnach - unter Einhaltung bestimmter Bedingungen - auch im Chemiewaffenkontrollabkommen gestattet.

In der Fachliteratur sind Nowitschok-Strukturen nicht unbekannt. Abgesehen von einer Reihe russischer Arbeiten zu Synthese und Reaktionen von A-230, A-232 und A-234 , die in den 1960er und frühen 1970er Jahren im Zhurnal Obshchei Khimii publiziert wurden, gibt es einschlägige Beweise, dass Kenntnis und experimenteller Umgang mit solchen Substanzen in Fachkreisen weltweit Verbreitung gefunden haben. Abbildung 3 führt drei Beispiele aus Amerika, Europa und Asien an: :

  • In einem US-Patent zur Behandlung von Vergiftungen mit phosphororganischen Verbindungen werden Nowitschoks angeführt,
  • Forscher von der Humboldt Universität, Berlin haben über Synthesen rund um derartige phosphororganische Verbindungen berichtet,
  • iranische Forscher haben vor kurzem Synthese und Analyse von Nowitschoks (Guanidino-Derivate) beschrieben.

Soeben erreicht uns übrigens auch eine Pressemitteilung (CTK) des tschechischen Präsidenten Milos Zeman: ein Militär-Forschungslabor in Brünn habe im vergangenen Herbst "kleine Mengen" der Substanz A-230 für Testzwecke hergestellt und anschließend vernichtet. (http://www.praguemonitor.com/2018/05/04/zeman-novichok-was-produced-tested-destroyed-czech-republic)

Abbildung 3. Beispiele für weltweite Forschung an Nowitschoks.

Zum Wirkungsmechanismus..........

Wie auch die anderen phosphororganischen Nervengifte der G-Serie (Sarin, Soman, Tabun, etc.) und der V-Serie (u.a. VX) hemmen Nowitschoks das im Körper produzierte Enzym Acetylcholinesterase und zwar in irreversibler Weise.

Die Aufgabe der Acetylcholinesterase ist es das Signal eines der wichtigsten Neurotransmitter in unserem Organismus, des Acetylcholins, zu limitieren. Acetylcholin vermittelt die Erregungsübertragung an sogenannten cholinergen Synapsen zwischen Neuronen im Zentralnervensystem und zwischen Motoneuron und Muskel (an der motorischen Endplatte). Es wird in der "Senderzelle" synthetisiert , in den synaptischen Spalt ausgeschleust, gelangt an den Rezeptor der "Empfängerzelle", und generiert ein Signal, das die Erregung dort weiterleitet. Wie dieses Signal beispielsweise zur Kontraktion von Muskelfasern führt, ist in Abbildung 4.dargestellt.

Abbildung 4. Erregungsübertragung zwischen Neuron und motorischer(neuromuskulärer) Endplatte. Wenn ein Nervenimpuls über das Axon eines Motoneurons auf die neuromuskuläre Endplatte trifft, wird in Tausenden Vesikeln gespeichertes Acetylcholin in den synaptischen Spalt freigesetzt. Einige Moleküle binden an die, in die Membran der Muskelfaser eingebetteten Ionenkanäle ("Nikotin"rezeptor), die sich in Folge öffnen. Na-Ionen strömen in die Zelle lösen ein Aktionspotential aus, das sich über die erregbare Membran (Sarcolemma) fortpflanzt und durch das T-Tubule System in das Innere der Faser zum Sarcoplasmischen Reticulum gelangt. Aus diesem strömen Ca-Ionen aus und führen zur Muskelkontraktion.(Bild: http://thebrain.mcgill.ca/flash/d/d_06/d_06_m/d_06_m_mou/d_06_m_mou.html; copyleft)

Beim Eintritt in den synaptische Spalt trifft Acetylcholin auch auf die, in die postsynaptische Membran eingebettete Acetylcholinesterase , die Acetylcholin in Cholin und Essigsäure spaltet (Abbildung 4, unten), damit das Signal limitiert und die Empfängerzelle so für das nächste Signal bereit macht. Das Enzym arbeitet ungemein schnell , spaltet bis zu 10 000 Moleküle Acetylcholin pro Sekunde ("diffusionskontrolliert" : jedes Acetylcholin, das in das aktive Zentrum des Enzym trifft, wird sofort gespalten).

Eine Blockierung des Enzyms führt dazu, dass sich Acetylcholin im synaptischen Spalt anreichert und es zu einer andauernden unkontrollierte Stimulierung der Empfängerzellen, z.B. bestimmter Muskeln kommt. Dies ist bei den phosphororganischen Nervengiften der Fall. Diese binden im aktiven Zentrum dieses und verwandter Enzyme irreversibel an einen Aminosäurerest (ein Serin), der für die katalytische Funktion essentiell ist. (Wie sich derartige Strukturen in das aktive Zentrum einpassen, wurde an Hand von Kristallstrukturanalysen gezeigt.) Acetylcholin kann nicht mehr abgebaut werden und akkumuliert - das Signalsystem von Zelle zu Zelle ist unterbrochen, das System bleibt im Erregungszustand. Abbildung 5. Eine Überstimulierung tritt ein, die Folge sind Krämpfe, Lähmungen und schließlich Atemstillstand sind die Folge. (In manchen neurogenerativen Erkrankungen dürfte ein Mangel an Acetylcholin bestehen und man strebt reversible inhibierende Wirkstoffe an.)

Abbildung 5. Wechselwirkung von Nervengiften mit Cholinesterasen. Links: Kristallstruktur der menschlichen Leber-Carboxylesterase mit Soman. Soman liegt in einer tiefen "Schlucht" gebunden an einen Serinrest.(Ausschnitt aus der Struktur 2HRQ, PDB ). Rechts: Blockierung der Acetylcholinesterase (gelb) im synaptischen Spalt durch ein Nervengift (rot). Acetylcholin (blau) kann nicht mehr an das Enzym gelangen. (Quelle: V. Müller https://commons.wikimedia.org/wiki/File:Sarin_Wirkungsweise.png)

................... und zum "Aging" des Targetenzyms

Wie bereits erwähnt, führt die Bindung von phosphororganischen Nervengiften im aktiven Zentrum der Acetylcholinesterase zu deren irreversibler Inaktivierung. Der Vorgang, der von der vorerst reversiblen Bindung zur Inaktivierung führt, wird als "Aging" bezeichnet. Es wird der katalytische Prozess des Enzyms wirksam, der - vereinfacht ausgedrückt - die Ester-/Amidbindungen spaltet: dabei geht die Phosphorgruppierung eine kovalente Bindung mit der Hydroxylgruppe des essentiellen Serins ein und ein Fragment des Moleküls geht ab. Dieser Aging-Prozess dauert bei den einzelnen Substanzen (Strukturen in Abbildung 1)unterschiedlich lang und unterschiedliche Reste verbleiben am Enzym (Daten: K Sutliff, Science):

• Soman wird am schnellsten - innerhalb von 2 Minuten - inaktiviert. Die Fluor- Phosphor -Bindung wird gespalten, Fluor geht ab, der Rest des Moleküls liegt kovalent an das Serin gebunden vor,

• bei Sarin dauert der Aging-Prozess wesentlich länger - 5 Stunden . Auch hier verlässt Fluor das Enzym,

• bei VX braucht es 36,5 Stunden für die Inaktivierun;. hier wird ein großer Rest - der Thioalkohol - abgespalten,

• am langsamsten - 46 Stunden - verläuft der Prozess bei Tabun. Hier kommt es zu einer Abspaltung des Cyano-Rests (-CN).

• Wie lange der Aging-Prozess bei dem, im Salisbury -Anschlag verwendeten Nervengift dauert, ist unbekannt. Es könnte ein sehr langdauernder Prozess sein, da eine Diagnose und damit Behandlung der Opfer erst spät erfolgte. Wie bei Sarin und Soman, dürfte auch hier Fluor abgespalten werden.

Werden während des Aging-Prozesses Substanzen verabreicht - beispielsweise Oxime -, die mit dem Nervengift um die (vorerst reversible) Bindungsstelle konkurrieren, so kann dieses aus der Bindung verdrängt und die Toxizität reduziert werden. Abhängig vom Ausmaß der Intoxikation kann später nur auf eine umfangreiche Neusynthese des Enzyms gehofft werden. (Angaben darüber, ob das inaktivierte Enzym zu Bruchstücken führt, die vom Immunsystem als fremd betrachtet werden und damit Immunprozesse auslösen, habe ich noch nicht gefunden.)

Versuch einer Quantifizerung

Die Frage: welche Dosis Nervengift, auf welchem Weg verabreicht, führt zu einer irreversiblen Schädigung, kann nicht so einfach beantwortet werden. Eine unterste Grenze ist zweifellos mit der Menge an Acetylcholinesterase im Organismus - 62 nmole [3] - gesetzt, d.i. wenn ein Molekül Enzym bereits durch ein Molekül Nervengift inaktiviert wird. Für eine Substanz mit einem Molekulargewicht von 250 - 300 D, würde das einer Dosis von 15 - 18 Mikrogramm entsprechen.

Die Sache wird insofern komplizierter, als auch andere Enzyme in vergleichbarer Weise mit dem Nervengift reagieren (aber nicht ähnliche Schädigungen wie im Acetylcholinsystem verursachen) . Es ist dies vor allem die mit Acetylcholinesterase sehr nahe verwandte Butyrilcholinesterase (Pseudocholinesterase), die in mehr als zehnfach höherer Konzentration vorhanden ist und vermutlich Gifte der Acetylcholinesterase abfängt [3]. Die unterste toxische Konzentration würde sich damit auf 0,15 - 0,18 mg erhöhen.

Auch andere verwandte Carboxylesterasen und Serinproteasen (z.B. Chymotrypsin, Pepsin) könnten die Nervengifte abfangen - damit würde die untere Grenze für irreversible Schäden bereits mehr als einem Milligramm Substanz liegen.

Dazu kommt nun auch noch der Weg, auf dem ein Nervengift in den Organismus eintritt. Ist dies, wie im Salisbury-Anschlag angenommen, über den Kontakt mit der Haut, so diffundiert die Verbindung zuerst langsam durch die obersten Hautschichten (mit Serinproteasen). Üblicherweise gelangt nur ein vhm. kleiner Anteil von topisch applizierten Substanzen in den Blutkreislauf. Dort würden im Fall der Nervengifte vor allem die schützende Butyrilcholinesterase vorliegen und eine in der Erythrozyten-Membran eingebettete Form der Acetylcholinesterase. Erst das, was hier "übrigbleibt", kann dann die Signalübertragung im Nervensystem beeinflussen.

Ob dies mit kolportierten Dosen von 1 mg möglich ist, wage ich zu bezweifeln.


  [1] V.S.Mirzayanov : Dismantling the Soviet/Russian Chemical Weapons Complex: An Insiders View; in: AE Smithson, V.S.Mirzayanov, R Lajoie, M Krepon (1995) Disarmament in Russia: Problems and Prospects. https://web.archive.org/web/20150824060701/http://www.stimson.org/images/uploads/research-pdfs/Report17.pdf

[2] S.L. Hönig, Compendium of Chemical Warfare Agents. (Springer Verlag, 2007)

[3] O. Lockridge et al., Naturally Occurring Genetic Variants of Human Acetylcholinesterase and Butyrylcholinesterase and Their Potential Impact on the Risk of Toxicity from Cholinesterase Inhibitors. Chem. Res. Toxicol. 2016, 29, 1381−1392; open access.


Weiterführende Links

Vil S. Mirsanajov: novichok fomulas are not terrorist weapons (2009) Video 9:00 min https://www.youtube.com/watch?v=G9OOLBN0j7c

Vil S. Mirsanajov: Isn’t it enough is enough? (15.12.20099 http://vilmirzayanov.blogspot.co.at/2009/

Vladimir Pietschmann: Overall View of Chemical and Biochemical Weapons. Toxins 2014,6, 1761-1784; doi:10.3390/toxins6061761 . https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4073128/pdf/toxins-06-01761.pdf


 

inge Thu, 03.05.2018 - 22:06

Deep Learning: Wie man Computern beibringt, das Unsichtbare in lebenden Zellen zu "sehen"

Deep Learning: Wie man Computern beibringt, das Unsichtbare in lebenden Zellen zu "sehen"

Do, 26.04.2018 - 07:38 — Francis S. Collins Francis S. CollinsIcon Medizin

Die Mikroskopie ist eine zentrale Methode in den Biowissenschaften. Um damit zelluläre Details erkennen und verfolgen zu können, müssen diese üblicherweise chemisch markiert (= gefärbt) werden - Verfahren, die zu Schädigungen der Zelle führen können. Eine Zusammenarbeit von Steve Finkbeiner (UCSF und Gladstone Institutes) und Google Accelerated Science Team [1] zeigt nun, dass Computer trainiert werden können ("deep learning"), sodass sie auch in unbehandelten Zellen Details erkennen, die weit über die Möglichkeiten menschlicher Beobachtung hinaus gehen. Francis Collins, NIH-Direktor und ehem. Leiter des "Human Genome Project", berichtet über diese bahnbrechenden, NIH-unterstützten Untersuchungen.*

Seit Jahrhunderten sind Wissenschaftler darauf trainiert, Zellen durch Mikroskope zu betrachten und ihre strukturellen und molekularen Merkmale gründlich zu untersuchen. Die langen Stunden, die so - über ein Mikroskop gebeugt - in der Betrachtung winziger Bilder verbracht werden, könnten allerdings in naher Zukunft nicht mehr erforderlich sein. Zelluläre Merkmale zu analysieren, könnte vielmehr eines Tages zu den Aufgaben von speziell ausgebildeten Computern gehören.

In einer neuen Studie,

die in der Fachzeitschrift Cell veröffentlicht wurde, trainierten die Forscher Computer, indem sie ihnen Millionen Male aufeinanderfolgende Paare von fluoreszenzmarkierten und unmarkierten Bildern von Hirngewebe einspeisten [1]. Dies ermöglichte den Computern in den Bildern Muster zu erkennen, Regeln zu definieren und diese auf das Betrachten künftiger Bilder anzuwenden. Mit diesem Ansatz - dem sogenannten Deep Learning - zeigten die Forscher auf, dass die Computer nicht nur lernten einzelne Zellen erkennen, sondern auch eine fast übermenschliche Fähigkeit entwickelten den Zelltyp zu identifizieren und ob es sich um eine lebende oder tote Zelle handelte. Noch bemerkenswerter ist, dass die trainierten Computer all diese Aufgaben lösten ohne die in Zellstudien üblicherweise verwendeten aggressiven chemischen Färbungen, inklusive Fluoreszenzmarkierungen, zu benötigen.

Mit anderen Worten, die Computer lernten, das Unsichtbare zu "sehen"! Abbildung 1.

Abbildung 1. Bei der Analyse von Gehirnzellen "denkt" ein Computerprogramm darüber nach, welche zelluläre Struktur identifiziert werden soll. Credit: Steven Finkbeiner, University of California, San Francisco and the Gladstone Institutes

Zusammenarbeit von Biologie und Künstlicher Intelligenz

Vor einigen Jahren zeigten sich Philip Nelson und Eric Christiansen von Google Accelerated Science (Mountain View, CA) - einem führenden Unternehmen im Gebiet der Künstlichen Intelligenz - daran interessiert, Maschinelles Lernen für eine Vielzahl von Anwendungen zu adaptieren. Sie hofften Algorithmen für Deep Learning zu entwickeln, um wichtige Probleme, auch in der Biologie, zu lösen. (In Bereichen vom Smartphone bis zum selbstfahrenden Auto sind Anwendungen von Deep Learning ja bereits allgemein bekannt.)

Damit Deep Learning aber funktioniert, sind enorm große Mengen an Trainingsdaten erforderlich. Das Google-Team erfuhr von Steven Finkbeiner (Professor an der University of California, San Francisco (UCSF) und Direktor der Gladstone-Institute), der - unterstützt von den NIH - das erste vollautomatische Roboter-Mikroskop namens Brain Bot entwickelt hatte [2]. Dieses Brain Bot kann bis über Monate hin Tausende einzelner Zellen verfolgen und dabei weit mehr informationsreiche Bilddaten liefern (3 - 5 Terabytes/Tag), als sein Labor vermutlich analysieren kann. Angesichts der Menge und Komplexität der Daten sah Finkbeiner imDeep Learning eine Möglichkeit seine Forschung um ansonsten für ihn nicht erkennbare Details zu erweitern.

Das Google-Team benötigte also ein biomedizinisches Projekt, das eine enorme Datenmenge generierte und trat nun an Finkbeiner heran, der Bedarf für Deep Learning hatte - so entstand eine Zusammenarbeit.

Deep Learning

In ihrer gemeinsamen Untersuchung [1] trainierten die Forscher nun zunächst einen Computer, indem sie ihm Bilder von zwei Sets von Zellen einspeisten. Eines der Sets war fluoreszenzmarkiert, um damit die für die Forscher interessanten Strukturen hervorzuheben, das andere Set war unmarkiert. Den Vorgang wiederholten sie dann Millionen Male, um ein Lernen des Computers zu generieren.

Beim Deep Learning sucht der Computer nach Mustern in den Daten. Während der Computer Bilder Pixel für Pixel durchscannt, beginnt er komplexe Zusammenhänge in einem Netzwerk zu "sehen", verstärkt darin einige Verbindungen und schwächt andere. Wenn der Computer nun weitere Bildpaare untersucht, beginnt er, basierend auf übereinstimmenden Mustern von markierten und unmarkierten Bildern, ein Netzwerk aufzubauen. Dies kann man damit vergleichen, wie die neuronalen Netzwerke unseres eigenen Gehirns Informationen verarbeiten, indem sie lernen sich auf einige Dinge zu konzentrieren, aber nicht auf andere.

Um den Computer zu testen, legten die Forscher ihm neue nicht markierte Bilder vor. Sie stellten fest, dass das neuronale Netzwerk des Computers einzelne Zellen identifizieren konnte, indem es lernte, den unmarkierten Zellkern zu erkennen. Schließlich konnte der Computer auch feststellen, welche Zellen lebendig oder tot waren - er konnte sogar inmitten lebender Zellen eine einzige tote Zelle herausfinden. Das ist etwas, wozu selbst Menschen nicht zuverlässig imstande sinf, auch wenn sie Tag für Tag über ihren Zellen brüten.

Der Computer konnte weiters auch Neuronen auswählen, die in einem Gemenge anderer Zelltypen vorlagen. Er konnte erkennen, ob eine neuronaler Fortsatz ein Axon ist (das Signale sendet) oder ein Dendrit (der eingehende Signale empfängt), obwohl diese beiden zellulären Anhängsel sehr ähnlich aussehen. Mit zunehmendem Wissen benötigte der Computer auch immer weniger Daten, um eine neue Aufgabe zu lernen.

Diese Ergebnisse bieten einen wichtigen Beweis für den proof of principle, den Ansatz, dass Computer so trainiert werden können, dass sie Menschen bei der Analyse von Zellen und anderen komplexen Bildern nicht nur ersetzen, sondern auch übertreffen. Es wird offensichtlich, dass in den Bildern deutlich mehr Informationen vorhanden sind, als das menschliche Auge erfasst.

Eine Revolution in der Biomedizin…

Finkbeiner sieht viele Bereiche, in denen er seine trainierten Computer agieren lassen kann:

Beispielsweise könnten Computer verwendet werden, um herauszufinden, welche Stammzellen für eine Transplantation am besten geeignet sind.

Basierend auf Bildern von Zellen in der Kulturschale könnten Computer in der Lage sein, Krankheiten zu diagnostizieren, zugrundeliegende Ursachen herauszufinden und zu behandeln, einschließlich Schizophrenie, Alzheimer-Krankheit oder Parkinson-Krankheit.

Computer könnten auch trainiert werden, um gesunde Zellen von kranken Zellen zu unterscheiden - diese Fähigkeit könnte eingesetzt werden, um vielversprechende Kandidaten für neue Arzneimittel zu identifizieren.

…und darüber hinaus

Während es noch genügend Spielraum gibt, um die Vorhersagefähigkeiten des Netzwerks zu erweitern und zu verbessern, ist es wichtig anzumerken, dass Deep Learning nicht nur auf Bilddaten beschränkt ist. Tatsächlich können die gleichen Prinzipien auf jede Art von reichlich vorhandener, gut annotierter Information angewendet werden, DNA-Daten miteingeschlossen.

Computer könnten aber auch trainiert werden, um Beziehungen zwischen unterschiedlichen Arten von Daten zu suchen: dies lässt auf Entdeckungen hoffen, die weit über das hinausgehen, was wir Menschen heute verstehen. Und: Computer werden nie müde oder beschweren sich über die Arbeitszeiten.


[1] In Silico Labeling: Predicting Fluorescent Labels in Unlabeled Images. Christiansen EM, Yang SJ, Ando DM, Javaherian A, Skibinski G, Lipnick S, Mount E, O’Neil A, Shah K, Lee AK, Goyal P, Fedus W, Poplin R, Esteva A, Berndl M, Rubin LL, Nelson P, Finkbeiner S. Cell. 2018 Apr 9. pii: S0092-8674(18)30364-7.

[2] Automated microscope system for determining factors that predict neuronal fate. Arrasate M, Finkbeiner S. Proc Natl Acad Sci U S A. 2005 Mar 8;102(10):3840-3845.


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel: " Teaching Computers to “See” the Invisible in Living Cells" zuerst (am 24. April 2018) im NIH Director’s Blog. Der Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt und geringfügig (mit Untertiteln) für den Blog adaptiert.

Reprinted (and translated by ScienceBlog) with kind permission from the National Institutes of Health (NIH).


Weiterführende Links

inge Thu, 26.04.2018 - 07:38

Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung

Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung

Do, 19.04.2018 - 17:34 — Carbon Brief Carbon BriefIcon GeowissenschaftenComputermodelle sind das Herzstück der Klimaforschung. Solche Modelle sind für ein Verstehen des Erdklimas unentbehrlich: ob sie nun Forschern helfen Eiszeitzyklen aufzuklären, die hunderttausende Jahre zurückliegen oder Prognosen für dieses oder auch das nächste Jahrhundert zu erstellen. Die britische Plattform Carbon Brief informiert in leicht verständlicher Form über die neuesten Entwicklungen in Klimaforschung, Klimapolitik und Energiepolitik und hat im Gespräch mit Klimaexperten eine Artikelserie veröffentlicht, die wesentliche Fragen zu Klimamodellen beantwortet. Der erste Teil dieser Serie dreht sich um die Frage: Was ist ein Klimamodell?*

Was ist ein Klimamodell?

Ein globales Klimamodell ist riesengroß. Üblicherweise ist das Programm in kodierter Form ausreichend, um 18 000 Druckseiten zu füllen; Hunderte Wissenschafter haben viele Jahre lang gearbeitet, um ein solche Programm zu erstellen und zu verbessern und ein Riesenrechner von der Größe eines Tennisplatzes kann benötigt werden, um es laufen zu lassen.

Klimamodelle selbst kommen in unterschiedlicher Form daher - von solchen, die eben nur eine bestimmte Region der Erde oder einen bestimmten Teil des Klimasystems erfassen bis hin zu solchen, die Atmosphäre, Ozeane, Eismassen und Landflächen für den ganzen Planeten simulieren.

Die Ergebnisse aus solchen Modellen bringen die Klimaforschung weiter und helfen den Wissenschaftern zu verstehen, wie menschliche Aktivitäten das Klima der Erde beeinflussen. Derartige Fortschritte waren in den letzten fünf Jahrzehnten eine Grundlage für die klimapolitischen Entscheidungen auf nationaler und internationaler Ebene.

In vielerlei Hinsicht ist Klimamodellierung nur eine Erweiterung der Wettervorhersage, allerdings konzentriert man sich auf Änderungen, die über Dekaden anstatt über Stunden verlaufen. Tatsächlich verwendet das britische Met Office Hadley Centre dasselbe "Unified Model" als Grundlage für beide Aufgabenbereiche.

Die enorme Rechenleistung, die für das Simulieren von Wetter und Klima benötigt wird, bedeutet dass moderne Modelle auf massiven Supercomputern laufen. Beispielsweise können die drei neuen Cray XC40 Supercomputer (siehe weiterführende Links) am Met Office Hadley Centre zusammen 14 000 Biillionen Rechenoperationen pro Sekunde ausführen.

Was genau findet nun Eingang in ein Klimamodell?

Grundsätzlich verwenden Klimamodelle Gleichungen, um die Vorgänge und Wechselwirkungen darzustellen, die das Klima der Erde antreiben. Diese Gleichungen umfassen die Vorgänge in der Atmosphäre, in Ozeanen, auf Landflächen und eisbedeckten Regionen der Erde.

Die Modelle basieren auf denselben Gesetzen und Gleichungen, die Grundlage für das Verstehen der physikalischen, chemischen und biologischen Mechanismen im System Erde sind. So verlangen die Wissenschafter von den Klimamodellen, dass sie fundamentalen physikalischen Gesetzen gehorchen müssen, wie

  • dem Satz von der Erhaltung der Energie (dem Ersten Hauptsatz der Thermodynamik), der besagt, dass in einem geschlossenen System Energie nicht entstehen oder verloren gehen kann, sondern nur von einer Form in die andere umgewandelt wird,
  • dem Stefan-Boltzmann Gesetz, das die Wärmeabstrahlung eines schwarzen Körpers in Abhängigkeit von seiner Temperatur beschreibt und mit dem der natürliche Treibhauseffekt erklärbar ist, der die Erdoberfläche um 33oC wärmer macht als sie ansonsten wäre,
  • Gleichungen zur Dynamik im Klimasystem - zur Abhängigkeit von Lufttemperatur und Wasserdampfdruck (Clausius-Clapeyron Gleichung),
  • den wichtigsten dieser Gesetze, den Navier-Stokes-Gleichungen für die Strömung von Flüssigkeiten, die Geschwindigkeit (v), Druck (p), Temperatur und Dichte (ρ) von Gasen in der Atmosphäre und von Wasser in den Ozeanen erfassen (Abbildung 1).

Abbildung 1. Die Navier-Stokes Gleichungen für inkompressible Strömung in drei Dimensionen (x, y, z). (Auch wenn die Luft in unserer Atmosphäre technisch komprimierbar ist, bewegt sie sich relativ langsam und wird daher als inkompressibel behandelt, um die Gleichungen zu vereinfachen.). Hinweis: Dieser Satz von partiellen Differentialgleichungen ist einfacher als diejenigen, die ein Klimamodell verwenden wird, da diese ja Flüsse über eine rotierende Kugel berechnen müssen.

Dieser Satz von partiellen Differentialgleichungen ist jedoch so komplex, dass keine genaue Lösung für sie bekannt ist (außer in einigen wenigen einfachen Fällen). Es bleibt eine der großen mathematischen Herausforderungen (und es wartet ein Preis von einer Million Dollar auf den, der beweisen kann, dass es immer eine Lösung gibt). Stattdessen werden diese Gleichungen im Modell "numerisch" gelöst, was bedeutet, dass es Näherungen sind.

Jedes dieser physikalischen Prinzipien wird in mathematische Gleichungen übersetzt, die Zeile um Zeile des Computercodes füllen - um ein globales Klimamodell zu erstellen, können daraus auch mehr als 1 Million Zeilen entstehen. Globale Klimamodelle werden häufig in "Fortran" geschrieben, einer Programmiersprache, die in den 1950er Jahren von IBM entwickelt wurde und wie eine menschliche Sprache aufgebaut ist. Wie solche Zeilen aussehen, zeigt ein kleiner Ausschnitt aus dem Code des Met Office Hadley Centre Modells (Abbildung 2). Wird das Modell zum Laufen gebracht, so erfolgt automatisch eine Übersetzung in Maschinencode, den der Rechner versteht. Abbildung 2. Ausschnitt aus dem Code für ein globales Klimamodell (HadGEM2-ES) geschrieben in der Programmiersprache Fortran. Er stammt aus dem Abschnitt Pflanzenphysiologie, der sich mit der Absorption von Licht und Feuchtigkeit durch unterschiedliche Vegetationsarten befasst.. Credit: Dr Chris Jones, Met Office Hadley Centre.

Der Klimaforschung stehen nun auch viele andere Programmiersprachen (beispielsweise "C", "Python", "R", "Matlab" und "IDL") zur Verfügung, von denen einige aber langsamer laufen als Fortran. Um ein globales Modell schnell auf einem Rechner laufen zu lassen, werden heute üblicherweise Fortran und "C" verwendet.

Räumliche Auflösung

Die Gleichungen im Programmcode beschreiben die zugrundeliegende Physik des Klimasystems - von der Bildung und dem Abschmelzen des Meereises in den arktischen Gewässern bis hin zum Austausch von Gasen und Feuchtigkeit zwischen Landoberflächen und darüber liegender Luft.

Von der Mitte der 1970er Jahre an wurden laufend mehr und mehr klimarelevante Prozesse in die globalen Klimamodelle eingebaut. Abbildung 3 zeigt die zunehmende Komplexität der Modelle bis zum 4. Sachstandsbericht ("AR4") des Weltklimarats (IPCC) im Jahr 2007, wobei die neu dazu gekommenen physikalischen Beziehungen durch Bilder symbolisiert sind.

Abbildung 3. Wie die globalen Klimamodelle erweitert wurden. Von Mitte 1970 bis zu den ersten vier Sachstandsberichten (Assessment Reports) des Weltklimarats ( International Panel on Climate Change - IPCC): "FAR" (1990), "SAR" (1995), "TAR" (2000) und "AR4" (2007). (Der 2014 erschienene 5. Assessment Report "AR5" wird hier nicht berücksichtigt.). Quelle: https://www.ipcc.ch/publications_and_data/ar4/wg1/en/figure-1-2.html

Wie kann nun ein Modell alle diese Gleichungen berechnen?

Da das Klimasystem hochkomplex ist und die Computerleistung Grenzen hat, kann ein Modell nicht alle klimarelevanten Prozesse für jeden Kubikmeter des Klimasystems rechnen. Stattdessen legt man ein Netz über die Erdoberfläche und teilt diese in eine Reihe von Boxen oder "Gitterzellen" auf. Ein globales Klimamodell kann dabei Dutzende Schichten in die Atmosphäre hinauf und in die Tiefe der Ozeane hinab reichen. Wie man sich das dreidimensional vorstellen kann, ist in Abbildung 4 gezeigt.

Das Modell berechnet nun für jede Zelle den Zustand des Klimasystems unter Berücksichtigung von Temperatur, Luftdruck, Feuchtigkeit und Windgeschwindigkeit.

Abbildung 4. Klimarelevante Prozesse (links unten), die ein Modell für jede Zelle in dem 3D- Gitter berechnet. (Quelle: Geophysical Fluid Dynamics Laboratory, https://www.gfdl.noaa.gov/climate-modeling/)

Für Prozesse, die in Skalen stattfinden, die kleiner sind als die Gitterzelle (beispielsweise Konvektion), verwendet das Modell "Parametrisierungen" - Näherungen, die Prozesse vereinfachen und erlauben, dass sie in das Modell aufgenommen werden. (Parametrisierungen werden in einem späteren Kapitel behandelt werden.)

Die Größe der Zellen bestimmt die räumliche Auflösung. Ein relativ grobes Klimamodell hat Zellen, die sich in mittleren geographischen Breiten rund 100 km in Richtung Längen- und Breitengrade erstrecken. Da die Erde eine Kugel ist, sind die Zellen am Äquator größer als an den Polen. In zunehmendem Maße werden daher alternative Netze verwendet, die dieses Problem nicht haben (Ikosaeder- und "cubed-sphere"-Gittertechniken).

Ein hochauflösendes Modell hat dann mehr und kleinere Zellen. Je höher die Auflösung ist, desto spezifischere Klimainformationen wird dann ein Modell für eine bestimmte Region liefern - da dafür mehr Rechenoperationen erforderlich sind, geht dies aber auf Kosten einer längeren Rechendauer. Im Allgemeinen bedeutet die Erhöhung der räumlichen Auflösung um einen Faktor zwei, dass bei gleichbleibender Rechendauer eine zehnfache Rechnerleistung erforderlich ist.

Wie sich die räumliche Auflösung zwischen dem 1. Sachstandsbericht (FAR 1990) und dem 4. Sachstandsbericht (AR 4 2007) des IPCC verbessert hat, ist in Abbildung 5 dargestellt. Es wird deutlich sichtbar, wie dabei die Topgraphie der Landoberfläche entstanden ist. Abbildung 5. Räumliche Auflösung der Klimamodelle in den Sachstandsberichten des IPCC "FAR" (1990), "SAR" (1995), "TAR" (2000) und "AR4" (2007). (Quelle: IPCC AR4, Fig 1.2). Der 2014 erschienene 5. Assessment Report "AR5" wird hier nicht berücksichtigt.

Zeitliche Auflösung

Ein ähnlicher Kompromiss wie bei der räumlichen Auflösung muss auch bei der zeitlichen Auflösung - d.i. wie oft das Modell den Zustand des Klimas berechnet - gemacht werden. In der realen Welt verläuft die Zeit kontinuierlich, ein Modell muss die Zeit aber in Abschnitte zerstückeln, um die Berechnungen handhabbar zu machen.

"Jedes Klimamodell macht das in irgendeiner Form, der häufigste Ansatz ist so eine Art "Bocksprung" ("Leapfrogging")- Methode, erklärt Paul Williams, Professor für Atmosphärenforschung an der Universität Reading. "Wie ein Kind am Spielplatz einen Bocksprung über ein anderes Kind macht, um von hinten nach vorne zu kommen, so springt das Modell über die Gegenwart, um von der Vergangenheit in die Zukunft zu gelangen."

Das Modell nimmt also die Information, die es von dem vergangenen und dem gegenwärtigen Zeitabschnitt hat, um auf den nächsten Abschnitt zu extrapolieren und fährt dann in dieser Weise weiter fort.

So wie bei der Größe der Gitterzellen, bedeuten kürzere Zeitabschnitte , dass das Modell genauere Informationen zum Klima liefert. Es bedeutet aber auch mehr Rechenoperationen in jedem Schritt.

Um beispielsweise den Zustand des Klimasystems für jede Minute eines ganzen Jahrhunderts zu berechnen, würden mehr als 50 Millionen Rechenoperationen je Gitterzelle erforderlich sein, für jeden Tag dagegen nur 36 500 Operationen. Das ist eine ziemliche Bandbreite - wie also entscheiden Wissenschaftler, welchen Zeitschritt sie verwenden?

Man muss hier einen Kompromiss finden, meint Paul Williams:

"Von der Seite der Mathematik her wäre es der richtige Ansatz, den Zeitabschnitt so lange zu verringern, bis die Simulationen konvergieren und sich die Ergebnisse nicht mehr ändern. Für Modelle mit einem so kleinen Zeitintervall fehlen uns aber normalerweise die Rechenressourcen. Daher sind wir gezwungen, einen größeren Zeitschritt in Kauf zu nehmen, als wir es idealerweise wollten."

Für die Atmosphärenkomponente von Klimamodellen erscheint ein Zeitschritt von rund 30 Minuten "ein vernünftiger Kompromiss" zwischen Genauigkeit und Prozessorzeit zu sein, sagt Williams:

"Ist das Intervall kürzer, wäre die dann höhere Genauigkeit nicht hinreichend, um den zusätzlichen Rechenaufwand zu rechtfertigen. Bei jedem längeren Intervall würde das Modell dann zwar sehr schnell laufen, aber mit Einbußen in der Qualität der Simulation."

Zusammenfassung

Wissenschafter übersetzen die grundlegenden physikalischen Gleichungen des Erdklimas in ein Computermodell, das dann, beispielsweise, die Zirkulation der Ozeane, den Zyklus der Jahreszeiten und den Kohlenstoffkreislauf zwischen Landoberflächen und Atmosphäre simulieren kann. Gavin Schmidt, Direktor des NASA Goddard Institute for Space Studies, zeigt in seinem 2014 gehaltenen TED-Vortrag auf, wie effizient heutige Klimamodelle sind: sie simulieren alles, von der Verdunstung der Feuchtigkeit auf der Erdoberfläche zur Bildung der Wolken, wohin der Wind diese trägt und wo schließlich der Regen niedergeht (siehe weiterführende Links). Dabei ist ein in 30-Minuten-Intervallen laufendes Klimamodell in der Lage eine Darstellung des gesamten Klimasystems über viele Jahrzehnte oder sogar Jahrhunderte hinweg zu erzeugen.


*Der Artikel ist der homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen und ist der Anfang einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde: https://www.carbonbrief.org/qa-how-do-climate-models-work . Der unter einer cc-by-nc-nd 4.0 Lizenz stehende Artikel wurde im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.

Carbon Brief ist eine britische Website, die die neuesten Entwicklungen in den Bereichen Klimawissenschaft, Klimapolitik und Energiepolitik abdeckt. Die Seite bemüht sich um klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels von der Seite der Wissenschaft und auch der Politik zu verbessern . Im Jahr 2017 wurde Carbon Brief bei den renommierten Online Media Awards als"Best Specialist Site for Journalism" ausgezeichnet.

 


Weiterführende Links

Informationen zu Carbon Brief: https://www.carbonbrief.org/about-us

Installation of the final phase of the Met Office Supercomputer (2017). Video 1:51 min. Zeitrafferaufnahmen. Standard-YouTube-Lizenz. https://www.youtube.com/watch?time_continue=18&v=q4uKS_wcfow

Gavin Schmidt, The emergent patterns of climate change.(2014). Video 12:10 min (deutsche Untertitel) TED Talk; Standard-YouTube-Lizenz. https://www.youtube.com/watch?time_continue=66&v=JrJJxn-gCdo

Met Office Hadley Centre: https://www.metoffice.gov.uk/climate-guide/science/science-behind-climate-change/hadley

Geophysical Fluid Dynamics Laboratory: https://www.gfdl.noaa.gov/climate-modeling/

Peter Lemke: Dossier: Die Wetter- und Klimamaschine: http://www.klimafakten.de/klimawissenschaft/dossier-die-wetter-und-klima...

Eis, Meer und Klima - Mit Polar- und Meeresforschung unsere Erde verstehen. Video 7:24 min (2016). https://www.youtube.com/watch?v=tqLlmmkLa-s, Was müssen wir tun, um das Klimasystem der Erde zu verstehen? Der Film zeigt, wie das Alfred-Wegener-Institut mit Polar- und Meeresforschung das System Erde kontinuierlich entschlüsselt. Standard-YouTube-Lizenz.


Artikel im ScienceBlog

Peter Lemke, 30.10.2015: Wie Natur und Mensch das Klima beeinflussen und wie sich das auf die Energiebilanz der Erde auswirkt

Peter Lemke: 06.11.2015: Klimaschwankungen, Klimawandel – wie geht es weiter?


 

inge Thu, 19.04.2018 - 13:07

Ist ein bisschen Naturwissenschaft ein gefährlich' Ding?

Ist ein bisschen Naturwissenschaft ein gefährlich' Ding?

Do, 12.04.2018 - 09:59 — Mike Klymkowsky Mike KlymkowskyIcon Politik & Gesellschaft

Kann eine oberflächliche Darstellung naturwissenschaftlicher Inhalte zu deren Verstehen führen, ist es so leicht Naturwissenschaften zu begreifen? Der Zell- und Entwicklungsbiologe Mike Klymkowsky (University Colorado, Boulder), der sich seit mehr als einem Jahrzehnt auch mit Kommunikation und Ausbildung in den Naturwissenschaften beschäftigt, greift hier den rund dreihundert Jahre alten Ausspruch - "a little science is a dangerous thing" - des englischen Dichters Alexander Pope auf. Klymkowsky, warnt vor einer durch Übertreibung und Übersimplifizierung geprägten Popularisierung der Naturwissenschaften und vor Bildungssystemen, die unfähig machen zu unterscheiden, was gesichertes Wissen ist, was Spekulation und was zum Teil gefährlicher Unsinn.*

Ein bisschen Wissenschaft ist ein gefährliches Ding… Der Physiker Lazzaro Spallanzani hat in dem ursprünglich (1709) von Alexander Pope stammenden Vierzeiler "A little learning durch "A little science" ersetzt. "Pierian springs" sind Quellen am Fuß des Olymps und bedeuten wohl Quellen des Wissens. (L. Spallanzani, Nouvelles recherches sur les découvertes microscopiques et la …, Band 1 (1769), https://bit.ly/2J8qTxF; screen-shot von der Redaktion eingefügt)

Popularisierung der Naturwissenschaften

Grundsätzlich geht man davon aus, dass die Popularisierung der Naturwissenschaften - d.h. die Vermittlung naturwissenschaftlicher Kenntnisse an die Bevölkerung - uneingeschränkt positiv zu sehen ist und sowohl Einzelne als auch die breite Öffentlichkeit davon profitieren. (Darbietungen von Spitzenwissenschaftern finden dementsprechend seit jeher großen Anklang, wie die von der Redaktion eingefügten Abbildungen 1 und 2 zeigen).

Abbildung 1. Der griechische Mathematiker Euklid (um 300 BC) demonstriert auf einer am Boden liegenden Tafel "seine" Geometrie einer offensichtlich interessierten Jugend. Ausschnitt aus Raffaels "Schule von Athen" (um 1510) in der Stanza della Segnatura des Vatikan. (Bild von der Redaktion eingefügt; auf Grund des Alters ist es gemeinfrei.)

 

 

 

 

Abbildung 2. Der berühmte englische Naturforscher Michael Faraday hält 1855 eine öffentliche Weihnachtsvorlesung ("The distinctive properties of the common metals") an der Royal Institution, an der auch Prinz Albert und seine Söhne Alfred und Edward teilnahmen(erste Reihe Mitte). Lithografie von Alexander Blaikley (1816–1903);Quelle: https://de.wikipedia.org/wiki/Michael_Faraday#/media/File:Faraday_Michael_Christmas_lecture.jpg;das Bild ist gemeinfrei.

Viele der heutigen Darbietungen sind spannend und unterhaltsam gestaltet - häufig in Form eindrucksvoller Bilder mit raschen Schnitten zwischen markigen Sätzen, im Originalton verschiedener "Experten". Eine Reihe von Wissenschaftssendungen sind in dieser Stilart bereits besonders geübt und/oder haben sich darauf festgelegt. Als Beispiel ist hier die PBS NOVA-Serie zu nennen - die meistgesehene Wissenschaftsserie im US-amerikanischen TV, die im Hauptabendprogramm läuft und wöchentlich rund 5 Millionen Zuseher erreicht.

Solche Sendungen führen die Zuseher in die Wunder der Natur ein und geben dazu oft wissenschaftlich klingende, leider aber auch häufig oberflächliche und lückenhafte Erklärungen ab. Mit "überwältigenden" Beschreibungen, wie alt, wie groß und wie bizarr die natürliche Welt doch offenbar ist, erwecken sie unser Staunen und regen unsere Phantasie an.

Derartige Darbietungen haben aber auch Schattenseiten. Auf eine davon möchte ich nun näher eingehen, nämlich, dass sie zu der Annahme verleiten, es wäre ganz einfach zu einem gründlichen, wirklichkeitsnahen Verstehen von Naturwissenschaften und ihren Schlussfolgerungen zu gelangen.

Die Annahme, dass man Naturwissenschaften ja ganz einfach verstehen kann, führt…

zu unrealistischen Bildungsstandards und zur Unfähigkeit beurteilen zu können, wann wissenschaftliche Behauptungen unrichtig oder unbewiesen sind, ebenso wie anti-wissenschaftliche Einstellungen im Privatleben und in der Politik.

Dass präzises Denken über wissenschaftliche Inhalte leicht machbar ist, ist eine stillschweigende Annahme, die in unser Bildungssystem, die Unterhaltungsindustrie und die Forschungswelt einfließt. Diese Vorstellung findet sich auch in dem aktuellen, auf der Liste der New York Times stehenden Bestseller "Astrophysik für Menschen in Eile": der Titel ist ein Widerspruch in sich selbst. Wie können denn Menschen, wenn sie "in Eile" sind, die Beobachtungen und die Gesetzmäßigkeiten ernsthaft erfassen, auf denen die Erkenntnisse der modernen Astrophysik beruhen? Können sie verstehen, wo die Stärken und wo die Schwächen der Beweisführungen liegen? Ist eine oberflächliche Vertrautheit mit den verwendeten Ausdrücken das Gleiche wie das Verstehen ihres Sinns und ihrer möglichen Bedeutung?

Ist Akzeptanz gleichzusetzen mit Verstehen? Ermuntert eine so leichtfertige Einstellung zur Wissenschaft nicht dazu, unrealistische Schlüsse abzuleiten, wie Wissenschaft funktioniert und was gesichertes Wissen ist und was Spekulation? Sind die Erkenntnisse der modernen Naturwissenschaften tatsächlich leicht nachvollziehbar?

…zu zunehmender Geringschätzung von Fachwissen…

Die Vorstellung, dass ein Heranführen der Kinder an die Naturwissenschaften dann auch zu einem korrekten Erfassen der zugrundeliegenden Konzepte, zu deren sachgerechter Anwendung und deren Grenzen führen wird, ist nur ungenügend bestätigt - häufig weisen Schüler am Ende des normalen Bildungswegs ja nur ein kärgliches und fehlerhaftes Verständnis auf.

Das Gefühl, dass man ein Gebiet versteht, dass Wissenschaft gewissermaßen einfach ist, untergräbt in Folge die Achtung vor denjenigen, die in ihren Gebieten tatsächlich Experten sind.

Wird unterschätzt, wie schwierig es sein kann, ein wissenschaftliches Thema wirklich zu verstehen, kann dies unrealistische Wissenschaftsstandards in den Schulen zur Folge haben und häufig zur Trivialisierung des naturwissenschaftlichen Unterrichts führen - es werden dann zwar Wörter erkannt, nicht aber die Konzepte verstanden, die diese Wörter vermitteln sollten.

Tatsache ist, dass eine naturwissenschaftliche Denkweise in den meisten Gebieten schwer zu erkämpfen und auf aktuellem Stand zu halten ist. Bemüht die Untersuchungen anderer zu prüfen und zu ergänzen, ist es die Aufgabe von Herausgebern, Gutachtern und weiteren Wissenschaftlern, gemeinsam dafür zu sorgen, dass Wissenschaft echt und ehrlich bleibt. Bis eine Beobachtung reproduziert oder von anderen bestätigt wurde, kann sie bestenfalls als eine interessante Möglichkeit angesehen werden und nicht als eine wissenschaftlich erwiesene Tatsache. Bevor ein plausibler Mechanismus aufgestellt ist, der die Beobachtung erklärt, kann das ganze Phänomen wieder mehr oder weniger klanglos von der Bildfläche verschwinden (beispielsweise die kalte Fusion). Man denke an das "Power Posing" (Körperposen, die hormonelle Reaktionen und damit Verhaltensänderungen auslösen sollen), dessen physiologische Wirkungen ins Nichts zerronnen sind.

Nichtsdestoweniger kann es beträchtliche Anreize geben, selbst bereits widerlegte Ergebnisse zu unterstützen, besonders dann , wenn man damit Geld machen kann und es um das Ego geht.

…und zur Akzeptanz pseudowissenschaftlichen Betrugs

Power-Posing mag - obwohl physiologisch sinnlos - für manchen vielleicht hilfreich sein. Es gibt aber gefährlichere pseudowissenschaftliche Irrtümer, wenn beispielsweise Vertrauensselige auf sogenanntes "Rohwasser" (raw water) schwören, das Gesundheit verspricht und Durchfall liefern kann und wenn die in Teilen der Bevölkerung wachsende Bewegung der Impfgegner Kindern wirkliche Schäden zufügt. Man fragt sich, warum professionelle Wissenschaftsverbände, wie die Amerikanische Vereinigung zur Förderung der Wissenschaften (AAAS), nicht zu einem Boykott des größten Internet-Entertainment-Dienstes NETFLIX aufgerufen haben, falls NETFLIX weiterhin den anti-wissenschaftlichen Impfgegner-Film VAXXED anbietet. (Der unter der Regie des Impfgegners Andrew Wakefield 2016 gedrehte Film "VAXXED - Die schockierende Wahrheit" behauptet einen angeblichen Zusammenhang zwischen der Masern-Mumps -Röteln Impfung und Autismus, der von den Behörden vertuscht worden sei; Anm. Redn.) Und wieso machen sich die Showmasterin Oprah Winfrey und US-Präsident Donald Trump nicht lächerlich, wenn sie unsinnigen Mythen über Impfungen Glauben schenken und hart erarbeitete Fachkompetenz der biomedizinischen Gemeinschaft verunglimpfen?

Es ist die Unfähigkeit etabliertes Fachwissen zu akzeptieren, die alles erklärt.

Statt abzuwägen, was wir über die Ursachen von Autismus wissen und was nicht, gibt es verzweifelte Eltern, die eine Reihe von "Therapien" ausprobieren, die von Anti-Experten empfohlen werden. Der tragische Fall von Eltern, die Autismus zu heilen versuchen, indem sie Kinder dazu zwingen, Bleichmittel zu trinken, illustriert den Ernst der Lage.

Warum ignoriert also ein großer Teil der Bevölkerung die Kompetenz der Fachexperten?

Abgesehen davon, dass eine Reihe von Politikern und Geldleuten ( im Westen wie im Osten) Fachwissen vehement ablehnen, das ihren ideologischen oder finanziellen Positionen entgegensteht, möchte ich behaupten, dass die Geringschätzung fachlicher Kompetenz wesentlich auf die Art und Weise zurückzuführen ist, wie Naturwissenschaften unterrichtet und popularisiert werden.

Wir fokussieren häufig auf das Wissen von Fakten, nicht aber auf die zugrundeliegenden Vorgänge und Konzepte, wir ignorieren weitgehend den historischen Verlauf, der zum Aufbau von Wissen führt und die unterschiedlichen Arten kritischer Analysen, denen wissenschaftliche Schlussfolgerungen zu unterziehen sind.

Oftmals versagen unsere Bildungssysteme zu vermitteln,

wie schwer es ist, echte Fachkompetenz zu erlangen, insbesondere die Fähigkeit, klar auszudrücken, woher Ideen und Schlussfolgerungen kommen und was diese bedeuten und was nicht. Eine derartige Expertise ist mehr wert als ein Abschluss, es ist der Nachweis eines ernsthaften und fruchtbringenden Studiums, dazu erbrachter sinnvoller Beiträge und einer kritischen und objektiven Geisteshaltung.

In naturwissenschaftlichen Bewertungen wiegen Fakten oft schwer, kritisches Hinterfragen der für einen bestimmten Vorgang relevanten Ideen und Beobachtungen haben dagegen wenig Bedeutung. Abbildung 3 (von der Redaktion eingefügt). Abbildung 3. Die Sokratische Methode des Lernens: Sokrates leitet seine Schüler zu logischem Denken an, indem er sie das Untersuchungsobjekt kritisch hinterfragen und unhaltbare Annahmen verwerfen lässt. Das von der Redaktion eingefügte Bild stammt von Johann Friedrich Greuter aus dem 17.Jahrhundert und ist gemeinfrei. http://socrates.clarke.edu/aplg0014.htm

Wie der prominente Astrophysiker und Wissenschaftskommunikator Carl Sagan sagen könnte, haben wir es versäumt, die Schüler darin zu schulen, wie man Behauptungen kritisch beurteilt, wie man Unsinn (oder weniger höflich ausgedrückt: Dreck) aufspürt.

Wenn es um das Popularisieren wissenschaftlicher Konzepte geht,

haben wir es zugelassen, dass Übertreibung und übermäßige Vereinfachung das Feld erobert haben. Um aus einem Artikel des amerikanischen Schriftstellers David Berlinski zu zitieren, werden wir ständig mit einer Fülle von Meldungen über neue wissenschaftliche Beobachtungen oder Schlussfolgerungen bombardiert und es gibt oft eine "Bereitschaft zu glauben, was manche Wissenschaftler sagen, ohne zu fragen, ob das, was sie sagen, auch stimmt " oder was es eigentlich bedeutet.

Es wird nicht mehr die ausführliche Erklärung vermittelt, die oft schwierig und provisorisch ist, sondern es steht eine knallige Folgerung im Zentrum - ob diese nun plausibel ist oder nicht.

Selbsternannte Experten predigen über Themen, die oft weit über die Fächer ihrer Ausbildung und nachgewiesenen Fähigkeiten hinausgehen, - es ist der Physiker, der nicht nur über das völlig spekulative Multiversum, sondern auch über den freien Willen und ethische Anschauungen spricht. Komplexe und oft unvereinbare Gegensätze zwischen Organismen, wie zwischen Mutter und Fötus ("War in the Womb"), zwischen männlichen und weiblichen (bei sexuell dimorphen) Arten und zwischen individuellen Freiheiten und sozialer Ordnung, werden ignoriert anstatt explizit darauf einzugehen und ihre Ursachen zu verstehen.

Gleichzeitig sind aber die wissenschaftlichen Forscher (und die Institutionen, für die sie arbeiten) und die Nachrichtenproduzenten einem massiven Druck ausgesetzt, die Bedeutung und weiter reichende Implikationen ihrer "Stories" zu übertreiben, um Förderungen zu erhalten, akademisches und persönliches Prestige und zu gewinnen und vermehrt Aufrufe zu bekommen.

Solche Zerrbilder dienen dazu, die Wertschätzung wissenschaftlicher Expertise (und Objektivität) zu untergraben.

Wo sind nun die wissenschaftlichen Schiedsrichter,

Personen, die beauftragt sind, die Einhaltung der Spielregeln einzufordern, einen Spieler auszuschließen, wenn er das Spielfeld (sein Fachgebiet) verlässt oder ein Foul begeht, indem er Regeln bricht oder zurechtbiegt, d.i. Daten fabriziert, fälscht, unterdrückt oder überinterpretiert? (ein Beispiel dafür ist der Impfgegner Wakefield).

Wer ist dafür verantwortlich, dass die Integrität des Spiels erhalten bleibt? Bedenkt man das sinnlose Geschwafel, das viele Verfechter der alternativen Medizin absondern - wo sind die Schiedsrichter, die diesen Scharlatanen die "Rote Karte" zeigen und sie aus dem Spiel verjagen können?

Offenkundig gibt es keine solchen Schiedsrichter.

Stattdessen ist es notwendig, möglichst viele Menschen in der Bevölkerung so auszubilden, dass sie ihre eigenen wissenschaftlichen Gutachter sind - das heißt, dass sie verstehen, wie Wissenschaft arbeitet, und Quatsch, wenn er ihnen entgegentritt, als solchen erkennen

Wenn nun ein Popularisierer der Wissenschaft, ob aus gut gemeinten oder egoistischen Gründen, seine Fachkompetenz überschreitet, müssen wir ihn aus dem Spiel nehmen! Und wenn Wissenschaftler sich den Zwängen des wissenschaftlichen Prozedere entgegenstellen, wie es von Zeit zu Zeit bei theoretischen Physikern und gelegentlich bei Neurowissenschaftlern vorkommt, müssen wir das begangene Foul erkennen.

Wenn unser Bildungssystem den Schülern dazu verhelfen könnte, dass sie ein besseres Verständnis für die Regeln des wissenschaftlichen Spiels entwickeln, und warum diese Regeln für den wissenschaftlichen Fortschritt unerlässlich sind, wäre es vielleicht möglich, sowohl die Achtung vor echter wissenschaftlicher Kompetenz wieder aufzubauen als auch die Wertschätzung für das, was sich Wissenschafter zu tun bemühen.


* Der erstmals am 8. März 2018 unter dem Titel "Is a little science a dangerous thing?" in PLOS-Blogs erschienene Artikel ( http://blogs.plos.org/scied/2018/03/08/is-a-little-science-a-dangerous-thing/) wurde mit Einverständnis des Autors von der Redaktion ins Deutsche übersetzt. Die zahlreichen Links zu amerikanischen Berichten wurden von uns nicht übernommen und können im Original nachgesehen werden.


Weiterführende Links

Mike Klymkowsky - Labor homepage: http://klymkowskylab.colorado.edu/

Ein neuer Ansatz zur Einführung in die Naturwissenschaften

New free textbooks to effectively teach students to understand, appreciate, and make use of sciences: von National Science Foundation unterstützt hat Klymkowsky zusammen mit Melanie Cooper (Prof. Chemistry/Science Education; Michigan State Univ.) hervorragendes Lehrmaterial geschaffen:

  • biofundamentals A two semester introduction to the core concepts of evolutionary, molecular, cellular & genetical systems (Version 7.4.2018; 318 p) Lizenz:cc-by-nc-sa 4.0. http://virtuallaboratory.colorado.edu/Biofundamentals/Biofundamentals.pdf
  • CLUE- Chemistry, Life, the Universe & Everything. LibreTexts version. Lizenz: cc-by-nc-sa 3.0. https://chem.libretexts.org/Textbook_Maps/General_Chemistry_Textbook_Maps/Map%3A_CLUE_(Cooper_and_Klymkowsky)

SciEd blog PLOSBLOGS http://blogs.plos.org/scied/about/

Artikel im ScienceBlog

Redaktion, 03.08.2017: Soll man sich Sorgen machen, dass menschliche "Mini-Hirne" Bewusstsein erlangen?


 

inge Thu, 12.04.2018 - 09:59

Endosymbiose - Wie und wann Eukaryonten entstanden

Endosymbiose - Wie und wann Eukaryonten entstanden

Do, 05.04.2018 - 11:34 — Christina Beck Vorname ZunameIcon Gebiet

Als ursprüngliche, prokaryotische Lebensformen innerhalb einer Urzelle zu kooperieren begannen, entwickelten sie sich zu Organellen - zu Chloroplasten und Mitochondrien -, die Charakteristika neuer höherer Lebensformen, der Eukaryonten, sind. Diese, sogenannte Endosymbiontentheorie ist durch eine Fülle an Studien hinreichend belegt. Wann und wie die einzelnen Stufen der Endosymbiose stattgefunden haben könnten, ist eine noch offene Frage, mit der sich hier die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, beschäftigt.*

Eine neue Zeittafel der Evolution

Über das "Wann" der Übergang von Prokaryonten zu Eukaryonten stattgefunden hat, bestand lange Zeit Uneinigkeit: Die Datierungen für den gemeinsamen Vorfahren aller Eukaryonten gingen weit auseinander – sie variierten zwischen 1,5 und 2,8 Milliarden Jahren. Eine Kluft von mehr als einer Milliarden Jahre tat sich auf zwischen fossilen Funden und chemischen Spuren: Um die Entstehung höherer Lebewesen nachzuvollziehen, haben Wissenschaftler bestimmte Fettmoleküle, sogenannte Steroide, analysiert, die in den Zellwänden eukaryotischer Organismen enthalten sind (es sind Cholesterin in tierischen, Phytosterole in pflanzlichen und Ergosterol in fungalen Zellmembranen; Anmerkung Redn.). Steroid-Moleküle können in altem Sediment, also dem versteinerten Grund urzeitlicher Gewässer, als Sterane erhalten bleiben. Einige Wissenschaftler hatten solche molekularen Spuren vermehrt in Proben von 2,5 bis 2,8 Milliarden Jahre alten Sedimenten identifiziert und daraus geschlussfolgert, dass eukaryotische Algen bereits in dieser Zeit entstanden sein müssen. Andererseits finden sich die ältesten fossilen Mikroalgen, welche unumstritten als Überbleibsel von Eukaryonten gelten, bisher nur in etwa 1,5 Milliarden Jahre altem Gestein im Norden Australiens. Könnten die chemischen Proben kontaminiert gewesen sein?

2015 haben Wissenschaftler des Max-Planck-Instituts für Biogeochemie in Jena zusammen mit US-amerikanischen Kollegen eine neue Methode entwickelt, um 2,7 Milliarden alte Gesteine, die als steroidhaltig eingestuft wurden, auf extrem saubere Weise zu analysieren. Die hochempfindlichen Massenspektrometer der verschiedenen Labore konnten nicht einmal Pikogramm-Mengen (d.i. 1 Milliardstel Milligramm Mengen; Anm. Redn.) eukaryotischer Steroide detektieren. „Das gesamte organische Material in diesen Proben wurde im Laufe der Jahrmillionen durch Druck und Temperatur verändert – keine Biomarker-Moleküle hätten dies überlebt“, sagt der Max-Planck-Forscher Christian Hallmann.

Somit können die vermeintlich 2,7 Milliarden Jahre alten Steroidmoleküle nicht mehr als Beweis herhalten, dass Eukaryonten bereits viel früher entstanden sind als Fossilienfunde belegen.

Ohnehin hatten die bisherigen chemischen Daten den Forschern einiges Kopfzerbrechen bereitet: Da alle Eukaryonten Sauerstoff benötigen, muss die Entwicklung der Sauerstoff-produzierenden Photosynthese dem evolutionären Übergang zu den Eukaryonten vorausgegangen sein. Diese biochemische Innovation, bekannt als „Sauerstoff-Krise“, in deren Folge sich der gesamte Planet veränderte, wird eindeutig auf 2,5 bis 2,4 Milliarden Jahre vor unserer Zeit datiert. Bislang ließ sich schwer erklären, wie die Eukaryonten schon mehrere 100 Millionen Jahre vorher entstanden sein konnten, wenn sie doch unbedingt Sauerstoff brauchten.

Spektakuläre Fossilienfunde in Indien

Inzwischen gibt es weitere Entdeckungen: So haben schwedische Forscher 2017 in Zentralindien die womöglich bisher ältesten Fossilien eukaryotischer Zellen entdeckt. Fündig wurden sie in der rund 1,6 Milliarden Jahre alten Chitrakoot-Formation. Dieses Sediment entstand einst in einem flachen Küstengewässer, in dem Kolonien von fädigen Cyanobakterien lebten. Ihre typischen, röhrenförmigen Relikte sind als Stromatolithen im Gestein erhalten geblieben. Zwischen den fossilen Cyanobakterien entdeckten die Forscher jedoch einige Röhrchen, die mit bis zu zwei Millimetern Länge deutlich größer waren und eine ungewöhnliche innere Struktur besaßen, wie Mikro-Computertomografie-Aufnahmen enthüllten (Abbildung 1).

Abbildung 1. Röntgentomografie eines der fossilen Zellröhrchen (Rafatazmia chitrakootensis), Balken 50 μm: (A) Oberfläche (B) Innenansicht mit rhombischen Strukturen, eingefärbt (C) virtueller Längsschnitt. © Bengtson et al./PLoS Biology https://doi.org/10.1371/journal.pbio.2000735

Die Forscher vermuten, dass es sich bei diesen intrazellulären Strukturen um eine frühe Form von Plastiden handelt. Sollte sich dies bestätigen, wären diese 1,6 Milliarden Jahre alten Mikrofossilien eine der ältesten, wenn nicht der älteste gesicherte Fund eukaryotischer Zellen.

Was als „lockere Wohngemeinschaft“ vor etwa anderthalb Milliarden Jahre begann, führte bei den Symbionten zu einer Co-Evolution, in deren Verlauf diese ihre Autonomie verloren und zu Organellen umgestaltet wurden. Dabei wurden Teile der Symbionten-DNA in das Kerngenom der Wirtszelle integriert (Abbildung 2). Abbildung 2. Die Vorläufer der Organellen waren freilebende Bakterien, die von einer „Urzelle“ umschlossen wurden. Auf diese Weise entstanden aus Proteobakterien Mitochondrien und aus Cyanobakterien Chloroplasten. Die Pfeile geben die Richtung und den Umfang des Gentransfers an.© Jochen Stuhrmann

Forscher nehmen an, dass die endosymbiotisch lebenden Cyanobakterien und Proteobakterien (Vorläufer der Mitochondrien) bis zu 90 Prozent ihres Genoms in den Kern der Wirtszelle transferiert haben. Ein solcher funktionaler Gentransfer setzt jedoch voraus, dass die Gene an richtiger Stelle in das Kerngenom eingebaut werden, damit sie abgelesen werden können.

Da die Übertragung Tausender Gene aus den Organellen in den Kern in riesigen evolutionären Zeiträumen ablief und demzufolge niemand jemals ein solches Ereignis beobachten konnte, entzog sich diese Frage bislang jeder Überprüfung. „Erst neue Technologien, die es erlauben, Chloroplastengenome höherer Pflanzen gentechnisch zu verändern, haben es uns in den vergangenen Jahren ermöglicht, wichtige Schritte dieses evolutionären Prozesses im Labor – quasi im Zeitraffer – nachzuvollziehen und die molekularen Grundlagen des Gentransfers zwischen Organellen- und Kerngenomen zu analysieren“, erklärt Ralph Bock, Direktor am Max-Planck-Institut für molekulare Pflanzenphysiologie.

Gentransfer im Zeitraffer

Der Max-Planck-Forscher und sein Team brachten ein zusätzliches Gen in die Chloroplasten von Tabakpflanzen ein. Dieses Gen vermittelt eine Resistenz gegen das Antibiotikum Kanamycin – allerdings nur dann, wenn es sich im Erbgut des Zellkerns befindet. Folglich konnten die gentechnisch veränderten Pflanzenzellen nur resistent gegen Kanamycin sein, wenn das Gen von den Chloroplasten in den Kern der Zellen eingewandert und dort erfolgreich ins Erbgut integriert worden war. Um das zu testen, überführten die Forscher die Pflanzenzellen in eine Gewebekultur und brachten diese auf einem mit Kanamycin versetzten Nährmedium aus. Zellen, die hier überlebten, mussten das Resistenzgen aus dem Plastidengenom in das Kerngenom transferiert haben. Aus solchen Zellen können schließlich komplette, gegen das Antibiotikum resistente Pflanzen wachsen. „Die Häufigkeit, mit der sich ein solcher Gentransfer vollzogen hat, übertraf alle unsere Erwartungen“, sagt Ralph Bock: „In etwa einer von fünf Millionen Zellen war das Gen in den Zellkern gelangt.“ Wie viel dies ist, wird deutlich, wenn man sich klarmacht, dass ein einziges Blatt aus wesentlich mehr als fünf Millionen Zellen besteht.

Nun führt der Transfer eines Gens aus den Chloroplasten in den Zellkern nicht automatisch zu einem funktionierenden Kern-Gen. Der Grund dafür ist, dass sich prokaryotische, also bakterielle Organellen-Gene und eukaryotische Kern-Gene strukturell unterscheiden. Beim oben beschriebenen Experiment umgingen die Forscher dieses Problem, indem sie das Gen, welches die Kanamycin-Resistenz vermittelt, mit eukaryotischen Steuerelementen (Promotor, Terminator) versahen. Somit war es unmittelbar nach dem Einfügen im Kerngenom auch aktiv. Beim evolutionären Gentransfer ist dies jedoch nicht der Fall: Das transferierte Gen wird zwar in den Zellkern eingebaut, kann dort aber in aller Regel zunächst nicht abgelesen werden – es sei denn, in einem zweiten Schritt wird ein eukaryotischer Promotor vor das Gen eingebaut.

Der Zufall spielt mit

Um zu prüfen, ob ein solches Ereignis ebenfalls stattfindet, haben die Forscher ein weiteres Gen – dieses Mal allerdings mit bakterieller Genstruktur – in das Chloroplastengenom eingeführt, das eine Resistenz gegen das Antibiotikum Spectinomycin vermittelt. Im Zug des Experiments entstanden somit Pflanzen, bei denen sich im Zellkern ein funktionierendes Kanamycin-Resistenzgen nebst einem inaktiven (weil bakteriellen) Spectinomycin-Resistenzgen befand. Folglich sollten diese Pflanzen resistent gegen Kanamycin, aber empfindlich gegenüber Spectinomycin sein. Tatsächlich traten in den Kultivierungsexperimenten in acht selektierten Pflanzenlinien jedoch Resistenzen auch gegen Spectinomycin auf, ergo musste das entsprechende Gen aktiv geworden sein. „Es zeigte sich, dass in jedem dieser Fälle durch die Deletion eines kleineren Stücks DNA ein aktiver Promotor vor das Gen gelangt war“, erklärt Bock. Dieser molekulare Umbau reichte aus, um das Spectinomycin-Resistenzgen zu aktivieren.

Damit konnten erstmals Vorgänge, die sonst in erdgeschichtlichen Zeiträumen ablaufen, im Zeitraffer nachvollzogen und die zugrunde liegenden Mechanismen aufgeklärt werden. Es ist somit nicht überraschend, dass es verschiedenen Endosymbionten innerhalb weniger Millionen Jahre gelang, einen guten Teil ihres Genoms in den Wirtskern auszulagern und zu aktivieren.

Und wie ging es weiter?

Nun sind Einzeller zwar klein, so klein aber auch wieder nicht. Man hat errechnet, dass eine ungebremste Vermehrung die Erde binnen weniger Tage mit Einzellern regelrecht überzogen hätte. Lückenlos! Die frühe Schöpfung wäre an sich selbst erstickt. […] War die Idee mit der Handtasche doch nicht so genial gewesen?“[1]

Und damit beginnt laut Schätzing „Miss Evolutions dritter Geniestreich“: „Ihr Plan war auf Spezialisierung ausgerichtet. […] Das große Geheimnis der Vielzeller ist, dass sie nicht einfach Zusammenballungen von Mikroben sind, sondern ihre Zellen sich die Arbeit am heranwachsenden Organismus teilen.“

Also sorgte Miss Evolution auch dafür, dass nur ganz bestimmte Zellen zur Fortpflanzung fähig waren. Und jetzt kommt die Sache mit dem Sex – aber das ist eine andere Geschichte.


[1] Frank Schätzing, Nachrichten aus einem unbekannten Universum, Verlag Kiepenheuer & Witsch, Köln, 2006. Ausschnitte, darunter die zitierten Stellen sind nachzulesen unter: https://bit.ly/2Ick0tL


* Dies ist Teil 2 des unter dem Titel: "Der Ursprung des Lebens - oder wie Einzeller zu kooperieren lernten" in BIOMAX 34 (Winter 2017/2018) der Max-Planck-Gesellschaft erschienenen Artikels (https://www.max-wissen.de/287242/BIOMAX_34-web.pdf ). Dieser wurde freundlicherweise von der Autorin ScienceBlog.at zur Verfügung gestellt und praktisch unverändert in den Blog übernommen, allerdings auf Grund seiner Länge in 2 Teilen gebracht.

Teil 1 ist am 29.März 2018 in ScienceBlog.at erschienen: http://scienceblog.at/ursprung-des-lebens-wie-einzeller-kooperieren-lern.... h


Weiterführende Links

Zellorganellen – die Endosymbiontentheorie. Video 4:52 min. Max-Planck-Gesellschaft (2015) www.youtube.com/watch?v=9LTMDLDsL98 . Standard-YouTube-Lizenz

Dieses Video versucht die Entstehung der eukaryotischen Zelle, die u.a. durch den Besitz von Zellorganellen wie Plastiden und Mitochondrien charakterisiert ist, zu erklären. Danach sollen gärende zellwandfreie Bakterien im Verlauf der Evolution symbiontisch Cyanobakterien und aerobe Bakterien aufgenommen haben, die sich dann zu Plastiden und Mitochondrien entwickelten. Für die Endosymbiontentheorie sprechen die eigenständige Vermehrung (Autoreduplikation) der Zellorganellen, ihre hinsichtlich der "Wirtszelle" andersartige DNA und Eiweißsynthese sowie die Doppelmembran der Organellen.

Zellorganellen – Gene auf Wanderschaft. Video 7:40 min. Max-Planck-Gesellschaft (2015) www.youtube.com/watch?v=FHt197dkNU Standard-YouTube-Lizenz

Tiefenbohrung in die Erdgeschichte, MaxPlanckForschung 3/2015, www.mpg.de/9688346/

Christian Hallmann 20.11.2015: Von Bakterien zum Menschen: Die Rekonstruktion der frühen Evolution mit fossilen Biomarkern Eukaryoten: Eine neue Zeittafel der Evolution (2015) https://www.mpg.de/forschung/eukaryoten-evolution?filter_order=L&research_topic= Eukaryoten sind in der Evolution später entstanden als angenommen

Artikel zur Evolution von Organismen im ScienceBlog

Im Themenschwerpunkt Evolution gibt es zahlreiche Artikel zur


 

inge Thu, 05.04.2018 - 11:34

Ursprung des Lebens - Wie Einzeller kooperieren lernten

Ursprung des Lebens - Wie Einzeller kooperieren lernten

Do, 29.03.2018 - 13:14 — Christina Beck Christina BeckIcon Biologie

Die ursprünglichen "Membransäcke" - Bakterien und Archaebakterien - haben im Verlauf der Evolution Cyanobakterien und aerobe Bakterien aufgenommen, die sich im Inneren endosymbiontisch zu Plastiden und Mitochondrien entwickelten - Zellorganellen auf dem Weg zu höheren Organismen, den Eukaryonten. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, vermittelt einen leicht verständlichen Einblick in die sogenannte Endosymbiontentheorie.*

„Die Evolution muss außerordentlich zufrieden gewesen sein. So zufrieden, dass sie drei Milliarden Jahre weitestgehend verschlief. Vielleicht blickte sie auch einfach voller Stolz auf ihr Werk, ohne sich zu Höherem berufen zu fühlen. Sicher, dieser Membransack mit dem Supermolekül im Kern hatte sich als Husarenstück erwiesen, auf das man sich durchaus etwas einbilden konnte. Aber dreieinhalb Milliarden Jahre nichts als Einzeller?“ 

So flapsig und doch treffend zugleich steigt Frank Schätzing in seinem Buch Nachrichten aus einem unbekannten Universumin die Geschichte der Evolution ein [1].

„Eine winzige Hülle, die im offenen Wasser treiben konnte, dabei aber immer alles hübsch beieinander hatte, was zur Erhaltung einer lebensfähigen Zelle vonnöten war. […] Damit war der Grundbaustein aller komplexen Wesen erfunden. Ein kleines Säckchen voll genetischer Information, ein praktischer Beutel. Die Handtasche der Evolution.“

Mehrfach hat sich dieser „Membransack“ entwickelt,

mit unterschiedlichen Resultaten. Archaebakterien und Eubakterien, die "echten" Bakterien, entstanden. Sie bilden zusammen die Familie der Prokaryonten. Karyon ist das griechische Wort für „Kern“, ein Prokaryont ist also eine Zelle vor der Erfindung des Zellkerns. Archaebakterien und Eubakterien enthalten nämlich kein inneres Membransystem und auch ihre DNA liegt als Molekül frei im Plasma der Zelle vor. Oder wie Schätzing schreibt: „In der Handtasche rutschte immer noch alles wild hin und her.“

Die Eukaryonten umfassen die übrigen Lebewesen. Sie unterscheiden sich von den Prokaryonten vor allem darin, dass sie einen echten Zellkern sowie membranumhüllte Organellen besitzen, von denen einige eigene Erbanlagen (Gene) enthalten.

Was genau aber ist passiert, damit aus Prokaryonten Eukaryonten werden konnten

– jene Zellen, die als Urväter der drei großen Reiche gelten, der Pilze, Pflanzen und Tiere?

Bereits 1867 hatte der Schweizer Botaniker Simon Schwendener erkannt, dass Flechten quasi Doppelorganismen aus Alge und Pilz sind. Sie bestehen aus einem oder mehreren Pilzen, den sogenannten Mycobionten, und einem oder mehreren Photosynthese betreibenden Partnern, den Photobionten. Das sind in der Regel Grünalgen oder Cyanobakterien (= Prokaryonten, möglicherweise die einfachsten und ältesten Lebewesen der Erde). Der Pilz bildet fast immer den eigentlichen Vegetationskörper, ein Geflecht aus Pilzfäden (Hyphen); darin eingeschlossen befindet sich eine Population der Photobionten (Abbildung 1).

Die Vorteile der Symbiose liegen stark auf der Seite des Mycobionten: Er wird von seinem Photobionten, der Alge, mit Nährstoffen versorgt, welche diese durch Photosynthese bildet. Schwendener schrieb daher auch von einer „Versklavung“ der eingefangenen Alge durch den Pilz; heute sprechen Forscher eher von „kontrolliertem Parasitismus“.

Abbildung 1. Flechten sind eine Symbiose von Grünalgen oder Cyanobakterien und Pilzen. Hier liegt oben eine Rindenschicht aus dichtem Pilzmycel und darunter folgt eine Schicht mit den symbiontischen Trebouxia Grünalgen. Unter dieser Algenschicht folgt dann lockeres Pilzmycel und den Abschluss nach unten bildet eine braune Rindenschicht, gebildet aus dicht verfilzten Hyphen.© Dr. R. Wagner

Die Eigenschaften der Flechten unterscheiden sich deutlich von jenen der Organismen, aus denen sie sich zusammensetzen. So bilden sich erst in der Symbiose die typischen Wuchsformen der Flechten heraus, und nur in Lebensgemeinschaft mit einem Photobionten bilden die Mycobionten die charakteristischen Flechtensäuren.

Für den russischen Naturforscher Konstantin Mereschkowski lieferten Flechten daher einen ersten Hinweis darauf, dass neue Lebensformen durch Kombination von Einzelorganismen entstehen können. 1905 veröffentlichte er eine erste theoretische Arbeit, „Über Natur und Ursprung der Chromatophoren im Pflanzenreich“, die noch heute als die grundlegende Publikation zur Endosymbiontentheorie gilt. Sie sollte sich als revolutionär erweisen für das Verständnis vom Ursprung eukaryotischen Lebens.

Wohngemeinschaft mit gravierenden Folgen

Die Idee war allerdings nicht neu, andere Biologen, u.a. Andreas Schimper, hatten sich bereits in den 1880er-Jahren darüber Gedanken gemacht. Doch erst Mereschkowski legte eine schlüssige Herleitung vor, dass Chloroplasten – jene Organellen, in denen die Photosynthese, also der Aufbau von Glucose aus Kohlendioxid und Wasser im Sonnenlicht, stattfindet – auf ehemals frei lebende Prokaryonten zurückgehen: Sie waren von artfremden, eukaryotischen Wirtszellen aufgenommen, aber nicht verdaut worden, sondern hatten zunächst eine stabile Form der Partnerschaft mit den Wirtszellen gebildet. „Das war der Moment, in dem die Wohngemeinschaft erfunden wurde, wissenschaftlich Endosymbiose. Sozusagen Kommune 1“, schreibt Schätzing. (Abbildung 2)

Abbildung 2. Neue Lebensformen entstehen durch Kombination von Einzelorganismen. (Cartoon: © The Amoeba Sisters)

Ein wichtiges Indiz war für Mereschkowski die Tatsache, dass Chloroplasten immer durch Teilung aus ihresgleichen hervorgehen, und nicht, wie man es von Zellbestandteilen erwarten würde, im Zyklus der Zellteilung neu gebildet werden. Ferner besaßen die blaugrün gefärbten Plastiden auffallende physiologische und morphologische Ähnlichkeiten mit den photosynthetisch aktiven Cyanobakterien. Auch wenn die Beobachtung dieser extrem kleinen Organismen mit Mikroskopen zu dieser Zeit alles andere als einfach war – Mereschkowski war überzeugt: Cyanobakterien besaßen weder einen Kern noch Chloroplasten; das Cyanobakterium als Ganzes war ein einzelner Chloroplast.

Auch die gut bekannten Fälle von Symbiose unterstützten seine Behauptung, dass Chloroplasten in Wirklichkeit Cyanobakterien sind. Mereschkowski wies auf Algen (Zoochlorellen und Zooxanthellen) hin, die symbiotisch in Protozoen, Süßwasserschwämmen, Hydra und bestimmten Plattwürmern leben. Symbiotische Algen, so sein Argument, konnten in fast jeder Klasse von "niederen wirbellosen Tieren" gefunden werden.

Belege der Endosymbiontentheorie durch die Molekularbiologie

Was Mereschkowski noch nicht wissen konnte, haben inzwischen moderne Methoden der Molekularbiologie enthüllt:

  • Studiert man die Struktur von Plastiden (und übrigens auch von Mitochondrien) genau, fällt auf, dass sie sich durch zwei Hüllmembranen gegen das Cytoplasma - die Grundsubstanz im Innern der Zelle - abgrenzen: ein Ergebnis der sogenannten Phagocytose, also der Einverleibung einer Zelle in eine andere. Dabei ist die äußere Membran typisch eucytisch, die innere hingegen weist protocytische, also bakterielle Merkmale auf.
  • Chloroplasten besitzen eine eigene zirkuläre DNA; DNA-Vervielfältigung und Proteinherstellung ähneln dabei denen von Bakterien. So besitzt die Chloroplasten-DNA bakterienartige Promotoren, das sind jene Sequenzbereiche, welche das Ablesen eines Gens regulieren. Anders als eukaryotische Zellen besitzen Chloroplasten sogenannte 70S-Ribosomen, die auch für Bakterien charakteristisch sind. Und ihre Gene weisen eine hohe Übereinstimmung mit cyanobakteriellen Genen auf.

Es gibt somit eine Fülle von Belegen für die Endosymbiontentheorie, was aber nicht heißt, dass nicht auch noch viele Fragen offen wären, insbesondere wie beziehungsweise wie oft und wann genau die verschiedenen Stufen der Endosymbiose stattgefunden haben. Hier liegt noch vieles im Dunkeln.

Bezüglich des "Wie oft" der Chloroplasten-Bildung kann die Wissenschaft immerhin schon sagen, dass alle Chloroplasten (auch die komplexen) der (ein- und mehrzelligen) Algen und Landpflanzen monophyletischen Ursprungs sind, also auf ein einzelnes Endosymbiose-Ereignis zurückgehen. Über das "Wann" bestand allerdings lange Zeit Uneinigkeit: Die Datierungen für den gemeinsamen Vorfahren aller Eukaryonten gingen weit auseinander – sie variierten zwischen 1,5 und 2,8 Milliarden Jahren.


[1] Frank Schätzing, Nachrichten aus einem unbekannten Universum, Verlag Kiepenheuer & Witsch, Köln, 2006. Ausschnitte, darunter die zitierten Stellen sind nachzulesen unter: https://bit.ly/2Ick0tL


* Dies ist der 1. Teil des unter dem Titel: "Der Ursprung des Lebens - oder wie Einzeller zu kooperieren lernten" in BIOMAX 34 (Winter 2017/2018) der Max-Planck-Gesellschaft erschienenen Artikels (https://www.max-wissen.de/287242/BIOMAX_34-web.pdf ). Dieser wurde freundlicherweise von der Autorin ScienceBlog.at zur Verfügung gestellt und praktisch unverändert in den Blog übernommen (nur einige Absätze und Untertitel wurden eingefügt), allerdings auf Grund seiner Länge in 2 Teilen gebracht. Teil 2 erscheint in Kürze.


Weiterführende Links

Zu Teil 1: Endosymbiontentheorie

Zellorganellen – die Endosymbiontentheorie. Video 4:52 min. Max-Planck-Gesellschaft (2015) www.youtube.com/watch?v=9LTMDLDsL98 . Standard-YouTube-Lizenz

Diese versucht die Entstehung der eukaryotischen Zelle, die u.a. durch den Besitz von Zellorganellen wie Plastiden und Mitochondrien charakterisiert ist, zu erklären. Danach sollen gärende zellwandfreie Bakterien im Verlauf der Evolution symbiontisch Cyanobakterien und aerobe Bakterien aufgenommen haben, die sich dann zu Plastiden und Mitochondrien entwickelten. Für die E. sprechen die eigenständige Vermehrung (Autoreduplikation) der Zellorganellen, ihre hinsichtlich der "Wirtszelle" andersartige DNA und Eiweißsynthese sowie die Doppelmembran der Organellen.

Zu Teil 2:

Zellorganellen – Gene auf Wanderschaft. Video 7:40 min. Max-Planck-Gesellschaft (2015) www.youtube.com/watch?v=FHt197dkNU Standard-YouTube-Lizenz

Tiefenbohrung in die Erdgeschichte, MaxPlanckForschung 3/2015, www.mpg.de/9688346/

Christian Hallmann 20.11.2015: Von Bakterien zum Menschen: Die Rekonstruktion der frühen Evolution mit fossilen Biomarkern

Eukaryoten: Eine neue Zeittafel der Evolution (2015) https://www.mpg.de/forschung/eukaryoten-evolution?filter_order=L&research_topic= Eukaryoten sind in der Evolution später entstanden als angenommen

Artikel zur Evolution von Organismen im ScienceBlog

Im Themenschwerpunkt Evolution gibt es zahlreiche Artikel zur

  • Entstehung des Lebens, primitive Lebensformen. http://scienceblog.at/entstehung-des-lebens-primitive-lebensformen
  • Evolution komplexer Lebensformen. http://scienceblog.at/evolution-komplexer-lebensformen

 

inge Thu, 29.03.2018 - 13:14

Schutz der Nervenenden als Strategie bei neuromuskulären Erkrankungen

Schutz der Nervenenden als Strategie bei neuromuskulären Erkrankungen

Do, 22.03.2018 - 06:04 — Redaktion RedaktionIcon Gehirn

Das Ableben des weltberühmten Physikers Steve Hawking hat uns die Problematik von neurodegenerativen Erkrankungen wieder vor Augen geführt. Für die Amyotrophe Lateralsklerose, an der er litt, gibt es nach wie vor keine Therapie und viele Versuche das Absterben der Nervenzellen zu verlangsamen, haben fehlgeschlagen. Eine Studie, die eben im open access Journal eLife erschienen ist, zeigt einen neuen Ansatz, der darin besteht, dass dié initiale Degeneration der Nerven -Muskel -Verbindung (= Synapse) verhindert wird [1]. Ein erfolgreicher Schutz der Synapsen könnte auch als Therapie in anderen neurodegenerativen Erkrankungen zur Anwendung kommen. Der Neuropatholologe und ALS-Experte Jonathan D. Glass (Emory University ALS Center, Atlanta) hat die Ergebnisse dieser Studie zusammengefasst [2].*

In der Neurobiologie gilt ganz allgemein, dass die Intaktheit eines Axons - es handelt sich dabei um die kabelähnlichen Fortsätze, die Informationen zwischen Nervenzellen (Neuronen), Muskeln und sensorischen Rezeptoren übertragen - völlig davon abhängt, wie gesund der Zellkörper des Neurons ist. Diese Vorstellung war daher auch Leitprinzip in der Suche nach experimentellen Therapeutika zur Behandlung von neurodegenerativen Erkrankungen, beispielsweise von Alzheimer, Parkinson und amyotropher Lateralsklerose. Der Schutz des Zellkörpers des Neurons sollte dazu beitragen, das Voranschreiten der Neurodegeneration zu verlangsamen oder sogar zu stoppen. Wie ein Neuron aussieht, ist in Abbildung 1 schematisch dargestellt.

.Insert rechts unten: Neuromuskuläre Endplatte. 1: terminales Axon eines Motoneurons, 2: neuromuskuläre Endplatte, 3: Muskelfaser, 4: Myofibrille. (Bild von der Redaktion eingefügt; Quelle: fr:Utilisateur:Dake, https://de.wikipedia.org/wiki/Nervenzelle#/media/File:Synapse_diag3.png; Lizenz: cc-by-sa 3.0)

Aus Tierexperimenten und Beobachtungen am Menschen kommen allerdings mehr und mehr Hinweise, dass Neuronen, Axone und auch Nervenendigungen in unterschiedlicher Weise auf Schädigungen reagieren. Dies legt den Schluss nahe, dass unabhängige Mechanismen der Neurodegeneration in verschiedenen Abschnitten des Neurons eine Rolle spielen. Um eine wesentliche therapeutische Wirkung zu erzielen, müssten Behandlungen daher auf das Neuron als Ganzes abzielen.

Amyotrophe Lateralsklerose (ALS)

ist eine verheerende Erkrankung der Motoneuronen, die ohne Vorwarnung, typischerweise in der Blüte des Lebens auftritt. Menschen mit ALS werden zunehmend schwächer -es folgt ein grausamer Weg, der über Behinderung zum Verlust der Selbständigkeit und schlussendlich zum Tod führt. Therapeutische Maßnahmen sind weitgehend palliativ - Dutzende klinische Studien haben in den letzten drei Jahrzehnten erfolglos nach Mitteln gesucht, die ein Fortschreiten dieser Krankheit zumindest verlangsamen sollten.

Präklinische Experimente an ALS- Krankheitsmodellen in Tieren haben zwar vielversprechende Ergebnisse gezeitigt, konnten aber leider nicht erfolgreich auf den Menschen übertragen werden; warum diese Fehlschläge passierten,wird viel diskutiert. Besonders interessant - vor allem, weil die Ergebnisse paradox sind - waren Tierversuche, die zwar einen nahezu vollständigen Schutz der Zellkörper von Motoneuronen aufzeigten, jedoch das Voranschreiten der Krankheit nicht verzögern konnten: Es wurden dabei verschiedenartige Techniken angewandt, um die Zellkörper der Motorneuronen zu schützen; der Verlust der Verbindung (Konnektivität) zwischen den Nervenendigungen und dem Muskel (die sogenannte Denervierung) konnte damit aber nicht verhindert werden.

Der degenerative Prozess…

Experimentelle Untersuchungen an ALS- Tiermodellen haben gezeigt, dass der degenerative Prozess (als Absterben ("dying-back") bezeichnet) an den Nervenendigungen beginnt und das Axon entlang bis schließlich hin zum Zellkörper des Neurons fortschreitet. Wie bei jedem "elektrischen" System führt die Durchtrennung von Draht (Axon) und Zielobjekt (dem Muskel) dann zum Verlust der Funktion - im Fall von ALS sind Schwäche und schliesslich der Tod die Konsequenz.

Der Prozess beginnt also dort, wo das Motoneuron an den Muskel bindet, an der sogenannten neuromuskulären Endplatte (neuromuscular junction; siehe Abbildung 1), einer speziellen Synapse, an der chemische Signale (der Neurotransmitter ist Acetylcholin; Anm. Redn) zur Aktivierung der Muskelkontraktion übertragen werden.

…und eine mögliche Gegenstrategie

Im Journal eLife berichten nun Wissenschafter von der NYU Medical School und der Columbia University, dass ein Erhalt der Verbindung zwischen Nerv und Muskeln den Krankheitsverlauf verlangsamen könnte [2].

Um diese Nerv-Muskel-Verbindung aufrecht zu erhalten, sind zahlreiche Proteine involviert, u.a. ein Rezeptor-Protein namens MuSK. Dieses MuSK stimuliert während der Entwicklungsphase die Anheftung der Nervenendigung an den Muskel. Später im Leben ist MuSK notwendig, um die neuromuskuläre Endplatte stabil zu erhalten und damit zu gewährleisten, dass Signale zwischen Muskel, Nervenendigung und motorischem Axon laufen können. Tatsächlich sind Schädigungen oder Mutationen des MuSK-Gens mit neuromuskulären Erkrankungen verbunden. Abbildung 2.

Abbildung 2. Das somatische Nervensystem. (A) Eine schematische Darstellung des neuromuskulären Systems. Motoneurone (rot) im Gehirn und im Rückenmark senden elektrische Impulse entlang der Axone (die den motorischen Nerv bilden) zu den Muskelfasern, um sie zu kontrahieren. Die sensorischen Neuronen (blau dargestellt) übermitteln Informationen (in Form von elektrischen Impulsen) von verschiedenen Körperteilen an das Gehirn. Bei Erkrankungen wie der amyotrophen Lateralsklerose gibt es Hinweise darauf, dass die Degeneration an der neuromuskulären Endplatte zwischen den Enden der Axone und dem Muskel beginnt und entlang des Axons in Richtung des Zellkörpers fortschreitet. (B) Fluoreszenzmikroskopie der neuromuskulären Endplatte (neuromuscular junction - NMJ). Die Felder auf der linken Seite zeigen eine vollständig innervierte neuromuskuläre Endplatte, wobei das Axon grün (oben links) und der Muskel rot markiert ist (Mitte links). Das zusammengefügte Feld (unten links) zeigt die vollständige Überlappung des Nervenendstücks mit dem Muskel (gelb). Die Platten rechts zeigen eine denervierte neuromuskuläre Endplatte, in der das Axon nicht mehr mit dem Muskel überlappt.

Das Forscherteam hat nun ein gut charakterisiertes ALS -Modell in der Maus verwendet, um zu testen, ob ein Eingriff bei bereits geschädigten neuromuskulären Synapsen das Fortschreiten der Krankheit verlangsamen kann [2]. Dieser Eingriff bestand darin einen Antikörper zu verwenden, der als Agonist an das MuSK-Protein bindet und dessen Aktivierung stimuliert. Es zeigte sich, dass mit diesem Antikörper die neuromuskulären Synapsen über einen längeren Zeitraum intakt und funktionsfähig blieben. Außerdem trat das Absterben von Motoneuronen verzögert ein - ein Hinweis darauf, dass die Aufrechterhaltung der Innervation des Muskels für das Weiterbestehen des Zellkörpers von Motoneuronen wichtig ist.

Insgesamt überlebten die behandelten Tiere aber nur einige Tage länger als die Kontrollen. Dies könnte auf die aggressive Form der ALS-Erkrankung in diesem Tiermodell zurückzuführen sein oder vielleicht auch darauf, dass die Zellkörper der Motoneuronen nicht auch therapeutisches Ziel waren. Nichtsdestoweniger lassen diese Ergebnisse aber darauf schließen, dass der Schutz der neuromuskulären Synapse eine Möglichkeit darstellen könnte, das Fortschreiten der ALS-Krankheit zu verlangsamen und Neuronen länger am Leben zu erhalten.

Fazit

Pathogenese und Progression der Amyotrophen Lateralsklerose liegen im Dunkeln, sind ein ungelöstes neurobiologisches Problem. Laufend werden Gene und zelluläre Signalwege entdeckt, die mögliche Treiber der Krankheit darstellen und jeweils gezielt manipuliert werden könnten. Die in [2] beschriebenen Ergebnisse lassen einen neuen Ansatz als realisierbar erscheinen, der - auf Basis eines konkreten molekularen Mechanismus - die Bildung und Aufrechterhaltung der Verbindungen zwischen Nervenzellen und Muskeln zum Ziel hat. Damit könnte das Fortschreiten der amyotrophen Lateralsklerose verlangsamt werden. Da ein derartiger Mechanismus aber nicht spezifisch für ALS ist, könnte er auch in anderen neuromuskulären Erkrankungen therapeutische Anwendung finden, bei denen die Denervierung ein wichtiges pathologisches Merkmal ist.


[1] S. Cantor et al., Preserving neuromuscular synapses in ALS by stimulating MuSK with a therapeutic agonist antibody (2018), eLife 2018;7:e34375 doi: 10.7554/eLife.34375 [2] JD Glass, Neuromuscular Disease: Protecting the nerve terminals (Insight Mar 19, 2018). eLife 2018;7:e35664 doi: 10.7554/eLife.35664


*Der von Jonathan D. Glass stammende Artikel: " Neuromuscular Disease: Protecting the nerve terminals" ist am 19. März 2018 erschienen in: eLife 2018;7:e35664 doi: 10.7554/eLife.35664 als eine leicht verständliche Zusammenfassung ("Insight") der Untersuchung von S.Cantor et al. [1]. Der Artikel wurde von der Redaktion ins Deutsche übersetzt und geringfügig für ScienceBlog.at adaptiert (Untertitel, Abbildung 1 aus Wikipedia). eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz -


Weiterführende Links

Homepage eLife: https://elifesciences.org/

Homepage von Jonathan Glass, Prof. und Direktor des Emory ALs Center http://neurology.emory.edu/faculty/neuromuscular/glass_jonathan.html

Emory ALS Center. Video 7:49 min.(englisch) https://www.youtube.com/watch?v=R7PbxcZBvi8 , Standard-YouTube-Lizenz

Infofilm Was ist ALS. Video 2:23 min. https://www.youtube.com/watch?v=IRQb4lkGeVE , Standard-YouTube-Lizenz

Stephen Hawking - Ein persönlicher Nachruf | Harald Lesch (14.3.2018). Video 6:50 min. https://www.youtube.com/watch?v=c1pQS1quRp8. Standard-YouTube-Lizenz

Artikel im ScienceBlog:

Redaktion, 2.04.2017: Wissenschaftskommunikation: das open-access Journal eLife fasst Forschungsergebnisse für die Öffentlichkeit verständlich zusammen. http://scienceblog.at/wissenschaftskommunikation-open-access-journal-elife.


 

inge Thu, 22.03.2018 - 06:04

Auf dem Weg zu einer neuartigen Impfung gegen Mykoplasmen

Auf dem Weg zu einer neuartigen Impfung gegen Mykoplasmen

Do, 15.03.2018 - 10:13 — Markus Schmidt

Markus SchmidtIcon MedizinMykoplasmen sind winzige bakterielle Krankheitserreger, die bei Mensch und Tier schwere Infektionen im Atmungs- und Urogenitaltrakt hervorrufen. Die in der Nutztierhaltung dadurch entstehenden, enormen Schäden machen eine Anwendung von Antibiotika unabdingbar; gegen diese entstehen allerdings zunehmend Resistenzen. Um Antibiotika künftig ersetzen zu können, entwickelt das von der EU geförderte Projekt MycoSynVac , an dem auch der Biologe und Biosicherheitsforscher Markus Schmidt beteiligt ist, einen neuartigen Impfstoff. Mittels Synthetischer Biologie sollen Mykoplasmen genetisch umprogrammiert werden, sodass sie sich an den Wirtszellen noch festsetzen und damit eine immunstimulierende Reaktion des Wirtes auslösen können, jedoch keine Virulenzfaktoren mehr enthalten, die ansonsten Zellschäden und Entzündungsprozesse verursachen würden.

Im Jahr 2010 veröffentlichten Forscher am J. Craig Venter Institut (JCVI) im Fachjournal Science ein sensationelles Ergebnis: Sie hatten erstmals eine Bakterienzelle erzeugt, die durch ein künstliches, durch chemische Synthese hergestelltes, Genom völlig kontrolliert wurde und sich kontinuierlich vermehren konnte [1]. Bei dieser "synthetischen" Zelle handelte es sich um die modifizierte Version eines ungewöhnlichen Bakteriums, eines Mykoplasmas.

Was sind Mykoplasmen?

Mykoplasmen unterscheiden sich wesentlich von anderen Bakterien. Sie sind vor allem viel kleiner als andere Bakterien und besitzen ein außergewöhnlich kleines Genom, das aus weniger als 1 Million Basenpaaren besteht - das entspricht nur 500 - 1000 Genen (zum Vergleich: das bekannte Bakterium Escherichia coli enthält 4288 Gene) und demgemäß einer Minimalausstattung an Genprodukten, d.i. Proteinen und RNAs. Abbildung 1 gibt einen Überblick über wesentliche Komponenten einer Mykoplasmenzelle.

Abbildung 1. Querschnitt durch eine Mykoplasma mycoides Zelle. Der Durchmesser beträgt nur rund 300 Nanometer (0.0003 mm). An die Lipide der Zellmembran (hellgrün )sind nach außen lange Kohlehydratketten (dunkelgrün) geknüpft. Viele Transportproteine (grün) sind in die Zellmembran eingebettet. Im Innern der Zelle sieht man die DNA (gelbe Fäden) mit der Maschinerie für Replikation und Transkription (orange), Ribosomen (lila) und Enzyme (blau). (Quelle: Kolorierte Zeichnung von David S. Goodsell, RCSB Protein Data Bank. Wellcome Images.Lizenz: cc-by 4.0.https://www.flickr.com/photos/wellcomeimages/25714823042)

Ungewöhnlich ist auch, dass Mykoplasmen keine Zellwand besitzen; d.h. sie sind nur von der - normalerweise unter einer Zellwand liegenden - Zellmembran umgeben. Antibiotika wie beispielsweise Penicilline oder Cephalosporine, die sich gegen Komponenten der bakteriellen Zellwände richten, sind daher gegen Mykoplasmen unwirksam.

Für die Grundlagenforschung stellen Mykoplasmen faszinierende Modellsysteme dar. Auf Grund ihres kleinen Genoms - an der Grenze der Lebensfähigkeit - reduziert sich die ansonsten ungeheuer hohe Komplexität von Regulierungsvorgängen und man hofft durch Reduktion weiterer Komponenten und Prozesse (durch die Herstellung eines "Minimalgenoms") herausfinden zu können, welche davon unabdingbar sind, in anderen Worten: wie Leben funktioniert.

An Mykoplasmen erworbene Kenntnisse bieten aber auch eine Basis, um mittels Verfahren der Synthetischen Biologie neue, für spezifische Bedürfnisse zurechtgeschneiderte Anwendungen zu finden. Solche Grundlagen hat Luis Serrano, Leiter des Centre for Genomic Regulation (CRG) in Barcelona geschaffen, indem er Organisation, Regulation und Stoffwechsel der Mykoplasmenzelle in quantitativer Weise charakterisiert hat.

Mykoplasmen als Pathogene

Bei einem derart reduziertem Genom fehlen zahlreiche essentielle Stoffwechselwege - dementsprechend sind Mykoplasmen auf Wirtsorganismen angewiesen und nehmen von diesen Bausteine des Stoffwechsels auf, die sie selbst nicht synthetisieren können (Abbildung 2). Mehr als 200 dieser parasitär lebenden Mykoplasmen-Spezies sind in der Tier-und Pflanzenwelt bekannt. Eine Reihe davon befallen Menschen und Tiere, setzen sich an den Oberflächen von Schleimhäuten -vor allem im respiratorischen Trakt und im Urogenitaltrakt - und auch in Gelenken fest und können infolge ihres Stoffwechsels die Gewebe schädigen und viele, oftmals chronische Krankheiten auslösen. Abbildung 2. Um Stoffwechselprodukte von Wirtszellen aufnehmen zu können, müssen Mykoplasmen an diesen andocken. Dies geschieht über eine polare Zellausstülpung, die sogenannte Attachment Organelle. Elektronenmikroskopische Aufnahmen: Links: Mycoplasma genitalium G37 (J.M. Hatchel and the Miami University Center for Advanced Microscopy and Imaging; in: Blogpost by Mitchell F. Balish. https://www.usomycoplasmology.org/single-post/2015/09/04/How-to-See-Mycoplasma). Rechts: Mycoplasma pneumoniae, das mit der rechten Ausstülpung an ein Kohlenstoffgitter bindet. (Bild aus: Daisuke Nakane et al.,2015; Systematic Structural Analyses of Attachment Organelle in Mycoplasma pneumoniae; Lizenz: cc-by. http://journals.plos.org/plospathogens/article?id=10.1371/journal.ppat.1005299)

Damit, wie man Infektionen mit Mykoplasmen - vorerst im Tiergebiet - in den Griff bekommen will, befasst sich der folgende Text.

Infektionen mit Mykoplasmen bei Nutztieren

Wesentliche Mykoplasmen-Arten, die bei Nutztieren Erkrankungen auslösen, sind in Tabelle 1 aufgelistet. Abgesehen vom Leiden und Sterben der Tiere verursachen Mykoplasmen-Infektionen auch Epidemien, deren ökonomischen Folgen dann Verzögerungen in der Produktion, schlechtere Futterverwertung und insgesamt sinkende Effizienz und Einnahmen für die Bauern nach sich ziehen. Die jährlichen Verluste durch Mykoplasmeninfektionen von Rindern, Schweinen und Geflügel belaufen sich in Europa und den USA auf Hunderte Millionen Euro.

Tabelle 1. Mykoplasmen-Arten, die Infektionen bei Nutztieren auslösen

 

 

 

 

Um die Produktionsausfälle möglichst gering zu halten, werden in der konventionellen Nutztierzucht Antibiotika eingesetzt - beispielsweise in der Hühnermast ist dies in mindestens 90 % der Großbetriebe der Fall. Die Palette der gegen Mykoplasmen wirksamen Antibiotika ist kleiner als bei anderen Bakterien (u.a. fällt die große Zahl der Zellwand-aktiven Verbindungen aus) und deren massiver Einsatz führt in zunehmendem Maße zur Resistenzentstehung - ein enormes Problem für Tier und Mensch.

Eine Möglichkeit von den Antibiotika wegzukommen ist die Anwendung effizienter Impfstoffe (Vakzinen), für die eine derartige Resistenzentstehung nicht zu befürchten ist. Üblicherweise werden antibakterielle Impfstoffe aus einfach inaktivierten oder abgeschwächten Krankheitserregern hergestellt und dienen dazu, das Immunsystem zu "trainieren". Solche Vakzinen gibt es auch gegen eine Reihe von Mykoplasmen-Arten (Tabelle 1). Sie sind jedoch in der Herstellung teuer (das Wachstum der parasitären Keime ist ja nur in kostspieligen Kulturmedien möglich) und funktionieren vielfach nicht so wie sie sollten. Der Grund dafür ist, dass die inaktivierten Pathogene nicht mehr an die Wirtszellen andocken können und damit nicht in der Lage sind eine ausreichende Immunantwort auszulösen.

MycoSynVac - Entwicklung einer neuartigen Vakzine

MycoSynVac ist ein von der EU-gefördertes H2020 Projekt, das von 2015 bis 2020 läuft. Das Ziel ist mit den Methoden der Synthetischen Biologie eine neuen Impfstoff-Typ gegen Mykoplasmen zu designen, der (vorerst) in der Nutztierhaltung Anwendung finden soll. Daran beteiligt sind acht Partner von Universitäten und Firmen aus ganz Europa, die ihre Expertise in Mikrobiologie, Synthetischer Biologie, Veterinärmedizin, Tierethik, Entwicklung von Vakzinen, aber auch in allen Fragen der Biosicherheit einbringen und Ergebnisse und deren Bedeutung transparent für die EU-Bürger kommunizieren. Partner sind u.a . das bereits erwähnte Centre for Genomic Regulation (CRG, Barcelona), das Französische Nationalinstitut für Landwirtschaftliche Forschung (INRA, Bordeaux - hier arbeitet Carole Lartigue, eine Koautorin des eingangs erwähnten Artikels [1] aus dem Craig Venter Institut), ein global führendes Unternehmen MSD Animal Health - in Holland und auch Tierethiker von der Universität Kopenhagen.

MycoSynVac plant nun nicht bloß einen abgeschwächten Keim herzustellen, sondern einen umprogrammierten Organismus, der sozusagen semi-infektiös sein wird. Dies bedeutet: das umprogrammierte Bakterium soll fähig sein sich im Wirtsorganismus festzusetzen, d.h. an den Wirtszellen anzudocken. Da die Virulenzfaktoren aber beseitigt wurden, soll es dort keine Zellschädigungen und Entzündungsprozesse auslösen können.

Auf diesem Konzept basierend soll damit ein universelles Chassis - eine Art Unterbau - geschaffen werden, das als Einfach-oder Mehrfachvakzine einsetzbar ist. Um die gewünschten Eigenschaften umprogrammieren zu können, braucht es nicht nur ein vertieftes Verständnis, wie der Lebenszyklus des pathogenen Keims auf der Genebene abläuft, sondern auch verlässliche bioinformatische Modelle und präzise molekularbiologische Methoden zur zielgerichteten Veränderung der DNA (Genom-Editierung). Abbildung 3. Abbildung 3. Der Weg zum marktreifen Impfstoff - ein universelles bakterielles Chassis auf der Basis des umprogrammierten Mykoplasma pneumoniae. Ausgehend von der Sequenz (2) der Mykoplasmen DNA (1) werden bioinformatische Modelle für die gewünschten Eigenschaften erstellt (3) und diese dann mit molekularbiologischen Methoden umgesetzt (4). Die so modifizierten Pathogene durchlaufen viele Labortests (5) und führen schlussendlich zu einem "semiinfektiösen" Pathogen (6), das als Vakzine eingesetzt werden kann (7). Bild: Birgit Schmidt, Lizenz cc-by.

Zusätzlich zu Forschung und Entwicklung zukünftiger Anti-Mykoplasmen Vakzinen schafft MycoSynVac auch eine Reihe von Biosicherheitssystemen die in die umprogrammierten Bakterien eingebaut sind. Diese und andere Herausforderungen lassen die Vakzine nicht gerade als einfaches Unterfangen erscheinen. Bedenkt man aber, welche Auswirkungen und Tragweite ein erfolgreiches Produkt erzielen wird, erscheint das Vorhaben dennoch lohnend.

Warum MycoSynVac wichtig ist

Dafür gibt es viele Gründe:

  • Der Markt für Produkte im Tiergebiet und für Impfstoffe ist sehr groß. Allein für Impfstoffe gegen M. hyopneumoniae liegt er derzeit bei ca. 150 Millionen US Dollar.
  • Gegen viele pathogene Keime gibt es derzeit entweder keine Vakzinen, oder diese funktionieren nicht richtig - es besteht also dringender Bedarf für neue Anwendungen.
  • Die neuen Vakzinen werden auf einem standardisiertem Chassis basieren, in das mehrere unterschiedliche Typen pathogener Epitope - das sind Moleküle an der Oberfläche, die für eine schützende Immunantwort benötigt werden - eingebaut werden können. Damit wird die Entwicklung weiterer Vakzinen einfacher und schneller.
  • Diese neuen Vakzinen werden mithelfen Antibiotika in der Landwirtschaft systematisch zu reduzieren und zu ersetzen. Resistenzen gegen Antibiotika nehmen zu und sogenannte Super-Keime (multi-resistente Pathogene) können Tier und Mensch in gleicher Weise befallen. In den Diskussionen zur antimikrobiellen Resistenz haben Vakzinen bis jetzt kaum eine Rolle gespielt, obwohl ihre Wirksamkeit in der Eindämmung der Erkrankungen und der Resistenzentwicklung ausführlich dokumentiert ist.
  • Schlussendlich, sobald eine derartige Vakzine für die Nutztierhaltung zugelassen ist, wird es das nächste Ziel sein, diese Art von synthetischen Impfstoffen auch für den Menschen zu entwickeln - ein Vorhaben mit einem noch größeren Markt und höherer gesellschaftlicher Tragweite.

Das Ganze in Form eines kurzen einprägsamen, lustigen Videos: MYCOSYNVAC feat. MC Grease (da disease). Video 2:44 min. (produced by Biofaction.); Standard YouTube License. https://www.youtube.com/watch?time_continue=62&v=uY60ijZZX1o


[1] Gibson, D. G.et al.,( 2010). "Creation of a Bacterial Cell Controlled by a Chemically Synthesized Genome". Science. 329 (5987): 52–56. doi:10.1126/science.1190719. PMID 20488990.


Weiterführende Links

Das Projekt MycoSynVac http://www.mycosynvac.eu/content/about

Zum Autor: • Markus Schmidt: Synthetic Vaccines (2018). http://blogs.nature.com/tradesecrets/2018/01/18/synthetic-vaccines

• Biofaction: Research and Science Communication Company. http://www.biofaction.com/

• Gesellschaftliche Konsequenzen neuer Biotechnologien. http://www.markusschmidt.eu/

• Markus Schmidt: Neue Impfstoffe in der Nutztierhaltung: Fluch oder Segen? Kepler Cafe Mycosynvac (2017); Video: 1:27:39: https://dorftv.at/video/27311


 

inge Thu, 15.03.2018 - 10:13

Der Zustand der österreichischen Chemie im Vormärz

Der Zustand der österreichischen Chemie im Vormärz

Do, 08.03.2018 - 09:54 — Robert W. Rosner Robert W. RosnerIcon Wissenschaftsgeschichte

Vor 170 Jahren beendete die bürgerliche Revolution den Vormärz, eine von Zensur geprägte Zeit der Restauration, die im Rückzug ins Privatleben und in der kulturellen Blütezeit des Biedermeier ihren Niederschlag fand. Die Chemie hatte damals, wie eigentlich von jeher, in Österreich einen nur sehr niedrigen Stellenwert. Über lange Zeit Anhängsel der Medizin, wurde die Chemie von inkompetenten Vertretern dieses Fachs repräsentiert und ein Versuch im Vormärz den damals bereits berühmten Chemiker Justus Liebig nach Wien zu holen, schlug fehl. Der Chemiker und Wissenschaftshistoriker Robert Rosner gibt einen Einblick in diese Epoche.

»Der Grundsatz der Nützlichkeit, der nach Zwecken fragt, ist der offene Feind ·der Wissenschaft, die nach Gründen sucht«. Justus Liebig

Am Anfang des 19. Jahrhunderts

wurde die Chemie als Hilfswissenschaft der Medizin betrachtet und an der Universität ausschließlich an der medizinAC ischen Fakultät unterrichtet, wobei es einen gemeinsamen Lehrstuhl für Chemie und Botanik gab und eine einsemestrige Pflichtvorlesung in Chemie. Jeder, der ein Doktorat anstrebte, musste ein vollständiges Medizinstudium absolvieren und Professoren der Medizin nahmen die Prüfungen ab.

Unter dem Eindruck der raschen Entwicklung von Chemie und chemischer Industrie entstanden dann auch im Habsburgerreich neue Einrichtungen.

Abbildung 1. Freiherr Andreas Joseph von Stifft (1760 - 1836), Leibarzt des Kaisers und sehr einflussreicher konservativer Politiker, aber auch naturwissenschaftlicher Reformator und über viele Jahre Rektor der Universität Wien. Eine Büste Stiffts steht im Arkadenhof der Wiener Universität. (Bild: Lithographie von Andreas Staub (1806 - 1839; gemeinfrei).

Andreas von Stifft (Abbildung 1) - Leibarzt des Kaisers und damit einer seiner engsten Vertrauten und ein sehr einflussreicher konservativer Politiker - hatte die Bedeutung der Chemie für die Medizin und das Gewerbe erkannt. In einem Vortrag vor dem Kaiser sagte er:

"Die Chemie hat in der neuesten Zeit größere Fortschritte als irgend eine andere Wissenschaft gemacht und solche Erweiterungen erlangt, dass es unmöglich ist einen entsprechenden Unterricht in nur einem Semester zu erteilen. Es muss bei dem Vortrag der Chemie, die auf alle Kunst- und Gewerbezweige so einen Einfluss hat und daher auch von Menschen aller Klassen besucht wird, dafür gesorgt werden, damit nicht nur der ärztlichen Bildung sondern auch den Bedürfnissen der übrigen Zuhörer nach Möglichkeit genüge geleistet werde."

Tatsächlich wurden dann der Chemieunterricht und der Unterricht an den medizinischen Universitäten erweitert und auch an den kleinen chirurgischen Schulen und an der Artillerieschule eingeführt. An den neu gegründeten Polytechnischen Instituten in Wien, Graz und Prag wurden Lehrkanzeln für Chemie eingerichtet. Das Wiener Polytechnische Institut wurde großzügig ausgestattet; allerdings hieß es im Programm:

"Es soll nicht die Pflege der Wissenschaft an und für sich zum Gegenstand haben, sondern die Methode kann nur eine solche sein, bei welcher der wissenschaftliche Unterricht nur als das notwendige Mittel zur sicheren Ausübung der hier gehörigen Geschäfte des bürgerlichen Lebens erscheint."

Geistige Strömungen wurden damals aus Furcht vor revolutionären Ideen unterdrückt. Forschung - sofern diese überhaupt stattfand - blieb ausschließlich auf die Lösung praktischer Probleme beschränkt und fand keinen Anschluss an die rasche Entwicklung der organischen Chemie in Frankreich und Deutschland. Wie der Naturforscher Karl von Reichenbach berichtete, soll Kaiser Franz I. ja gesagt haben "Wir brauchen keine Gelehrten".

Ein Artikel von Justus Liebig

Nach dem Tod von Kaiser Franz I (1835) begann sich die Situation langsam zu bessern. Auslösende Momente dazu waren ein Artikel von Justus Liebig (Abbildung 2), einem der führenden Chemiker dieser Zeit und Bemühungen des Finanzministers, Graf Kolowrat, junge Wissenschafter zu fördern.

Abbildung 2. Justus von Liebig (1803 - 1873) um 1846. (Ausschnitt aus einem Gemälde von Wilhelm Trautschold um 1846. Das Bild ist gemeinfrei; https://en.wikipedia.org/wiki/Justus_von_Liebig#/media/File:Justus_von_Liebig_by_Trautschold.jpg)

"Der Zustand der Chemie in Österreich" - unter diesem Titel hatte der deutsche Chemiker Justus Liebig (1803 - 1873) im Jahr 1838 einen Artikel veröffentlicht [1], der mit den Worten beginnt:

"Man wird es gewiss als eine der auffallendsten Erscheinungen unserer Zeit betrachten müssen, dass ein großes reiches Land, in welchem die Industrie und alle Wissenschaften, die mit ihr zusammenhängen, von einer erleuchteten Regierung gepflegt und gestützt werden, dass dieses Land an allen Fortschritten, welche die Chemie, die wahre Mutter aller Industrie, seit 20 Jahren und länger gemacht hat, nicht den allergeringsten Anteil nahm; es hat keinen Mann hervorgebracht, welcher sie mit einer einzigen Tatsache bereicherte, die nützlich gewesen wäre für unsere Forschungen oder für unsere Anwendungen. Diese Erscheinung scheint um so unbegreiflicher, insofern man sieht, dass gediegene Mathematiker und treffliche Physiker, dass ausgezeichnete Naturforscher jeder Art, nur keine Chemiker sich dort gebildet haben. "

Liebig war damals schon weithin berühmt

- im Alter von 21 Jahren bereits Professor für Chemie an der Universität Gießen, spielte er eine prominente Rolle in der Entwicklung der organischen Chemie. Liebig hatte die analytischen Methoden wesentlich vereinfacht und verbessert und auch ein neues Studiensystem eingeführt, bei dem die Studenten praktische Erfahrungen sammelten. (Abbildung 3). Der österreichische Chemiker Anton von Schrötter beschreibt die Bedeutung dieser Einrichtung in seiner 1873 gehaltenen Denkrede [2]:

"Das kleine Gießen wurde bald das Mekka Aller, die sich der Chemie widmen wollten, und Viele, die bereits eine Stellung in diesem Fach innehatten, pilgerten dahin, um vom Meister zu lernen, Das neue, an einem gut gelegenen Orte erbaute Laboratorium wurde bald ein Tempel der Wissenschaft, in welchem das Experiment an Stelle des Glaubens trat."

Abbildung 3. Das Mekka der Chemie - Laboratorium von Justus Liebig um 1840. Illustration von Wilhelm Trautschold (1815 - 1877). Das Bild ist gemeinfrei.

"Es sind die Lehrer der Chemie schuld,

welche keine Chemiker sind." so lautete Liebigs Erklärung, warum es in Österreich keine guten Chemiker gäbe [1]. Zu diesen schlechten Lehrern zählte er vor allem Paul Meissner und Adolf Pleischl. Diese beiden Chemieprofessoren waren von Freiherr von Stifft protegiert worden. Abbildung 4

Abbildung 4. Paul Meissner und Adolf Pleischl haben nach Ansicht von Justus Liebig unserem Land sehr geschadet. Lithographien: links von Josef Kriehuber 1845 ; rechts von August Prinzhofer 1846 (beide Bilder sind gemeinfrei).

Über Meissner schreibt Liebig [1]:

"…an dem wichtigsten und einflussreichsten Institute sehen wir einen Mann, von dem man mit Wahrheit sagen kann, dass er seinem Land unendlich geschadet hat... Er zeigt uns nicht den Stand der Wissenschaft, was sie leistet und geleistet hat...alle herrlichen Entdeckungen verkrüppeln in seiner Darstellung. Man nehme einen jungen Mann, der sich unter Meissner gebildet hat ..Von der eigentlichen Chemie hat er nichts erfahren, denn die Zeit wurde verschwendet um ihm Meissner'sche Meinungen beizubringen."

Wer war Paul Meissner?

Paul Traugott Meissner (1778 - 1864) war Pharmazeut und chemischer Autodidakt. Auf Empfehlung von Andreas von Stifft, erhielt Meissner bald nach der Gründung des Polytechnischen Instituts im Jahr 1815 eine Stelle als Professor für Spezielle Technische Chemie und später für Allgemeine Chemie. Das Polytechnische Institut war der Vorläufer der Wiener Technischen Universität, der Meissner'sche Lehrstuhl war der Lehre praktischer Gegenstände wie z.B. Gärungslehre, Seifensiederei, Färberei etc. gewidmet

Meissner war bei seinen Studenten beliebt und verlangte von diesen, dass sie sich streng an seine Ideen hielten. Er war ein äußerst fleißiger Mann, verfasste u.a. ein zehnbändiges Handbuch der Allgemeinen und Technischen Chemie, Bücher über Dichtemessungen, über Zentralheizungen, über pharmazeutische Apparate und über Operationen und nahm zu medizinischen Problemen Stellung. In vielen Fällen vertrat er aber Auffassungen, die in krassem Widerspruch zu den damals bereits bekannten Tatsachen standen. So veröffentlichte er in einem dreibändigen Werk, "Neues System der Chemie", seine Vorstellungen von der stofflichen Natur der "Imponderabilien" d.h von der Wärme, dem Licht, der Elektrizität und dem Magnetismus. Der Wärmestoff - Aräon - war demnach ein gewichtsloses Element, das in allen anderen Stoffen in chemischen Verbindungen und auch den Elementen vorhanden war und von der Menge Aräon in einem Stoff sollte dessen Aggregatzustand abhängen:

"So sind alle thermischen Erscheinungen, also das Schmelzen, das Verdampfen, das Kondensieren oder Kristallisieren, die Wärmeleitung, Mischungswärme etc. ein Ergebnis von Zunahme, Abnahmen, Verdichtung oder Entweichen von Aräon. Magnetismus ist ein Sauerstoff aräoid, ebenso die Elektrizität aber mit einem höheren Aräongehalt und auch das Licht ein Sauerstoffaräoid mit einem noch viel höheren Gehalt an Aräon."

Ein anderes Beispiel war seine Vorstellung von der Salzsäure: von ihm mit dem alten Ausdruck Muriumsäure bezeichnet, setzte sich diese aus 41.63 % Murium und 58.37 % Sauerstoff zusammen und das elementare Chlor wäre eine sechsfach oxidierte Muriumsäure.

Es ist klar, daß Liebig einen Chemiker, der derartige Theorien vertrat als keinen ernst zu nehmenden Wissenschaftler betrachtete. Meissner reagierte erst 1844 auf die - wie er sagte -"unerhörten und unaufhörlich sich wiederholenden Misshandlungen seiner Ehre" mit einer 165 Seiten langen Schmähschriift "Justus Liebig, Dr. der Medicin und Philosophie analysirt von P.T. Meißner" [3]. Abbildung 5.

Abbildung 5. Meissner wehrt sich in einer 165 Seiten langen Schmähschrift:"weil Liebig nicht jene Geistesgaben und wissenschaftlichen Einsichten besitzt, die ihn auf irgendeine Weise zum kompetenten Beurtheiler der wissenschaftlichen Leistungen Anderer befähigen und berechtigen könnten". Meissners Argumente, mit denen er Liebig zu widerlegen versuchte, stehen in krassem Widerspruch zu den damals bereits bekannten Tatsachen und bestätigen damit Liebigs Meinung über den traurigen Zustand der österreichischen Chemie (Quelle: Justus Liebig, Dr. der Medicin und Philosophie analysirt von P.T. Meißner; [3].)

Aber auch über andere österreichische Chemieprofessoren, wie beispielsweise Adolf Pleischl (Abbildung 4), der zu der Zeit noch in Prag unterrichtete aber bereits eine Berufung nach Wien hatte, oder über Franz Hlubek, den Professor für Landwirtschaft am Joanneum in Graz, hatte Liebig keine schmeichelhafte Meinung (Hlubek nahm an, dass der Kohlenstoff der Pflanzen aus dem Boden aufgenommen würde).

Adolf Pleischl,

war ebenfalls ein Protegé des Freiherrn von Stifft. Er hatte sich viel mit Wasseranalysen und Lebensmitteluntersuchungen beschäftigt und besonders Untersuchungen über die Beschaffenheit des Brotmehls gemacht. Seine Geisteshaltung zu Fragen der organischen Chemie zeigt sich in seiner Antwort auf Liebig: Da wies er darauf hin, dass er gezeigt hatte wie man aus schlechtem, verdorbenen Mehl ein gutes Brot machen kann und sagte, dass er damit dem Menschengeschlechte einen bleibenderen Wert gegeben habe, als so manche Abhandlung über eine -al, -yl,-am,-in,-oder -on Verbindung. In Verteidigung von Meissner wies Pleischl auf dessen Leistung bei der Einrichtung einer Zentralheizung in der Hofburg hin und sagte dass dort die ergrauten und treuen Diener und Ratgeber des Staates in Bequemlichkeit herumwandeln können und dass das viel bedeutender sei, als wenn er in irgend einem fetten Öle 1 % mehr oder weniger Wasserstoff gefunden hätte.

Auswirkungen von Liebigs Kritik

Liebig war in seinen Polemiken immer sehr aggressiv. Aber da war doch die Frage ob es nicht doch einen wahren Kern bei dieser Darstellung der Zustände der Chemie in Österreich gäbe - diese Auffassung wurde auch von einigen österreichischen Naturwissenschaftlern geteilt.

So kam es zu Bemühungen, Liebig für Wien zu gewinnen. Daran waren der Finanzminister Graf Franz A. Kolowrat und der Physiker Andreas von Ettinghausen beteiligt. Adolf Kohut (1848 -1917), der Biograph Justus Liebigs schreibt [4]:

"Der Artikel über Österreich bewirkte, dass Liebig unter äußerst günstigen Bedingungen einen Ruf als Ordinarius der Chemie in Wien erhielt. Dieser Einladung der österreichischen Regierung folgend reiste er behufs mündlicher Besprechung nach der österreichischen Kaiserstadt und zwar mit seinem Intimus Wöhler (Friedrich Wöhler war ein bekannter Chemiker, Professor in Göttingen; Anm. Redn.) ...doch lehnte er den so ehrenvollen Antrag ab, obschon Wöhler diesen Schritt bedauerte und es sehr beklagte, dass Liebig die großen Mittel verschmähte, die ihm zur glorreichen Förderung der Wissenschaften geboten wurden. Mit ihm würde ja eine neue Epoche der Chemie beginnen."

Liebig lehnte also ab nach Wien zu kommen. Seine Kritik hatte aber noch weitere Auswirkungen und im Jahre 1845 wurde Meissner nahe gelegt in die Frühpension zu gehen als Vorwand, wurde die oben genannte Schmähschrift [3] genannt, die er an der Zensur vorbei veröffentlicht hatte) .

Graf Franz A. Kolowrat, Präsident der Böhmischen Gesellschaft der Wissenschaften und ab 1836 Finanzminister, hat dann eine wichtige Weichenstellung für die Entwicklung der österreichischen Chemie geleistet: der junge Chemiker Josef Redtenbacher erhielt 1840 die Möglichkeit auf 18 Monate zu Liebig nach Gießen zu fahren, dann den Lehrstuhl für Chemie in Prag zu übernehmen und 1849 die Lehrkanzel für Chemie in Wien einzurichten, nachdem Pleischl nach 1848 in die Frühpension geschickt wurde.

Mit Redtenbacher begann erstmals eine systematische Beschäftigung mit der organischen Chemie in Österreich, einer Disziplin, die in den folgenden 100 Jahren das meiste Interesse erweckte und wirtschaftlich große Bedeutung erlangte.

Allerdings: gegenüber den Entwicklungen in Deutschland, England und Frankreich hatte Österreich den Anschluss an eine moderne Chemie erst mit einer Verspätung von 20-30 Jahren gefunden.


[1] Justus Liebig: Der Zustand der Chemie in Oestreich. Ann. Pharmacie, 25 (1838) 339 - 34  http://bit.ly/2Fn2rGd 

[2] Anton von Schrötter: Justus von Liebig Eine Denkredegehalten bei der feierlichen Sitzung der k. Akademie der Wissenschaften am 30. Mai 1873. http://reader.digitale-sammlungen.de/de/fs1/object/display/bsb11157686_0...

[3] Meissner, P. T: Justus Liebig, Dr. der Medicin und Philosophie, analysirt von P. T. Meissner Autor / Hrsg.: Meissner, P. T. (Frankfurt a. M., 1844, Sauerländer Verlag). http://reader.digitale-sammlungen.de/de/fs1/object/display/bsb10073402_0... 

[4] Adolf Kohut (1847 - 1917): Justus von Liebig : sein Leben und Wirken auf Grund der besten und zuverlässigsten Quellen geschildert (1904). https://ia800607.us.archive.org/27/items/b2898304x/b2898304x.pdf


Weiterführende Links:

Robert W. Rosner: Chemie in Österreich 1740-1914 Lehre, Forschung, Industrie (2004) 359 S. Böhlau Verlag (Leseproben: http://bit.ly/2Ai05FX)

Justus Liebig's und Friedrich Wöhler's Briefwechsel in den Jahren 1829-1873 https://archive.org/details/ausjustusliebig00whgoog (frei zugänglich)

Historische Stätten der Chemie: Justus von Liebig , GDCH (Gießen, 2003): https://www.gdch.de/fileadmin/downloads/GDCh/historische_staetten/liebig... (frei zugänglich)

Inge Schuster, 22.06.2017: Der naturwissenschaftliche Unterricht an unseren Schulen. http://scienceblog.at/der-naturwissenschaftliche-unterricht-unseren-schulen.


 

inge Thu, 08.03.2018 - 09:54

Grundlagenforschung bildet das feste Fundament für die Biomedizin

Grundlagenforschung bildet das feste Fundament für die Biomedizin

Do, 01.03.2018 - 11:33 — Francis Collins

Francis CollinsIcon MedizinDie Entwicklung erfolgversprechender neuer Medikamente basiert heute auf der Aufklärung der molekularen Krankheitsursachen und der therapeutischen Modulierung dieser Ziele (Targets). Derartige Kenntnisse werden durch Grundlagenforschung geschaffen, die - zum großen Teil durch die öffentliche Hand finanziert- in akademischen Institutionen oder staatlichen Labors stattfindet. Dagegen erfolgt die sehr kostenaufwändige präklinische und klinische Entwicklung im privaten Sektor, in Pharmafirmen. Der von der Öffentlichkeit geleistete Beitrag zur Grundlagenforschung wurde bis jetzt unterschätzt. Eine erste sorgfältige Analyse hat eben ein US-amerikanisches Forscherteam veröffentlicht [1]: demnach haben die National Institutes of Health (NIH) die Grundlagenforschung der zwischen 2010 und 2016 neu zugelassenen 210 Medikamente mit mehr als 100 Milliarden US Dollar gefördert. Francis Collins, NIH-Direktor und ehem. Leiter des "Human Genome Project", fasst diese Untersuchung zusammen.*

Zu den wesentlichen Aufgaben der NIH gehört die Förderung der Grundlagenforschung, die fundamentale Erkenntnisse über die Natur und das Verhalten lebender Systeme erbringt. Derartige Kenntnisse sind die Basis von biomedizinischen Fortschritten, die wir zum Schutz und zur Besserung unserer Gesundheit und der unserer Nachkommen benötigen.

Natürlich ist es oft schwer vorhersagbar, wie und ob diese Art von Grundlagenforschung der Bevölkerung überhaupt einen Nutzen bringen kann. Dazu kommt, dass der Zeitraum, der zwischen einer Entdeckung und ihrer medizinischen Anwendung (sofern es überhaupt dazu kommt) verstreicht, sehr lange sein kann. Es mag daher der Einwand kommen, dass Aufwendungen für Grundlagenforschung keine sinnvolle Nutzung von Fördermitteln darstellen und, dass man die gesamten Mittel der NIH besser für konkrete Krankheitsziele einsetzen sollte.

Um einer derartigen Meinung entgegen zu treten, möchte ich einige neue Ergebnisse aufzeigen, welche die Wichtigkeit einer öffentlich geförderten Grundlagenforschung unterstreichen.

NIH-geförderte Forschung der zwischen 2010 und 2016 neu zugelassenen Arzneimittel

Ein Forscherteam hat mehr als 28 Millionen Veröffentlichungen in der PubMed.gov database analysiert und zeigt nun, dass NIH-Förderungen in die publizierten Arbeiten jedes der 210 neuen, von der FDA zwischen 2010 und 2016 zugelassenen Arzneimittel geflossen sind [1]. Mehr als 90 % dieser Forschungen betrafen Grundlagen, das bedeutet sie wurden für die Entdeckung fundamentaler biologischer Mechanismen aufgewandt und kaum auf die Entwicklung von Arzneimitteln.

In der Vergangenheit hatte man versucht den Beitrag der öffentlichen Förderungen zur Entwicklung neuer Medikamente primär an der Zahl von Patenten zu definieren. Zumeist hatte man sich auf Patente bezogen, die Pharmafirmen von akademischen Einrichtungen einlizensierten, an denen ja der bei weitem überwiegende Teil der amerikanischen - größtenteils NIH-geförderten - biologischen Grundlagenforschung stattfindet. Derartige Untersuchungen hatten den Eindruck erweckt , das bloß 10 % oder sogar noch weniger der neu zugelassenen Arzneimittel sich auf Patente akademischer Einrichtungen zurückführen ließen. Dies ist zwar interessant, diese Studien übersehen dabei aber den weitreichenden Einfluss von Ergebnissen der Grundlagenforschung, die typischerweise publiziert aber nicht patentiert werden.

Um zu einer breiteren Sichtweise zu kommen, hat ein Forscherteam der Bentley University die PubMed .gov Datenbank (US National Library of Medicine; Anm. Redn.) herangezogen. Unter der Leitung von Ekaterina Galkina Cleary, Jennifer Beierlein und Fred Ledley machte sich das Team daran, den Gesamtumfang der NIH-Förderungen bei den aktuell zugelassenen Medikamenten zu untersuchen. Die Ergebnisse wurden eben im Fachjournal Proceedings of the National Academy of Sciences (PNAS) publiziert [1]. (Das Team selbst ist kein Empfänger von NIH-Grants.)

Die Forscher begannen damit,

dass sie alle neuen Verbindungen - new molecular entities (NMEs) -identifizierten, die zwischen 2010 und 2016 von der FDA zugelassen worden waren. (NMEs bedeutet dabei, dass es sich um Verbindungen handelt, die zuvor noch nie Bestandteil eines zugelassenen Medikament waren.)

Diese Suche ergab 210 neue Medikamente. 197 dieser Medikamenten waren auf 151 spezifische Targets (biologische Zielmoleküle) ausgerichtet; für die restlichen 13 Medikamente waren die Targets unbekannt. 84 der 210 neuen Medikamente hatten von der FDA die Bezeichnung "first in class" erhalten, das heißt, ihr Design zielte auf völlig neue biologische Targets ab.

Im nächsten Schritt

wurde eine sehr umfangreiche Liste themenverwandter Arbeiten zusammen getragen. Es war dies eine Liste aller Artikel in PubMed, die sich mit einer der 210 NMEs oder einem der 151 Zielmoleküle der NMEs befassten. Dies führte schließlich zu rund 130 000 Publikationen über jeweils eine der neuen NMEs und zu nahezu 2 Millionen Arbeiten über deren biologische Zielmoleküle. Abbildung 1 A.

Abbildung 1. A) Publikationen in PubMed, die sich mit einer der 210 NMEs befassen (Drug Search), die zwischen 2010 und 2016 zugelassen wurden (insgesamt 131 000 Arbeiten), oder einem der 151 molekularen Targets (Target Search) dieser NMEs (insgesamt 1,97 Millionen Arbeiten). B) Die NIH-geförderten Arbeiten in PubMed (NMEs: 22 700; Target: 588 000). Anm. Redn.: An einzelnen Targets wurde schon mehr als 30 Jahre lang gearbeitet, bevor dafür geeignete Wirkstoffe gefunden wurden. (Bild stammt aus [1] und steht unter cc-by-nc-nd Lizenz)

Im letzten Schritt

wurde diese lange, aus der PubMed Datenbank erhaltene Liste mit den Publikationen in der "NIH RePORTER database" verglichen, d.i. mit einer elektronischen Datenbank , die alle NIH-geförderten Forschungsprojekte der letzten 25 Jahren enthält. Das Ergebnis zeigte, dass Publikationen über 198 der 210 neuen Medikamente und über alle 151 neuen biologischen Targets NIH-Förderungen erhalten hatten. In anderen Worten: NIH-Förderung spielte bei praktisch jedem der neu zugelassenen Präparate direkt oder indirekt eine Rolle.

Von den zwei Millionen Publikationen, die das Forscherteam identifiziert hatte (Abbildung 1 A), hatten rund 30 % NIH-Förderung erhalten. Abbildung 1 B. Wenn man die Zahl der Projekte mit der geförderten Laufdauer multiplizierte, ergab dies mehr als 200 000 fiskalische Jahre der Unterstützung, die sich auf Kosten von insgesamt mehr als 100 Milliarden US Dollar beliefen. Abbildung 2. Das bedeutet etwa 20 % des NIH-Budgets. Bezogen auf die 84 zwischen 2010 und 2016 eingeführten first-in class Präparate, betrug die NIH-Förderung mehr als 64 Milliarden US Dollar.

Abbildung 2. Kosten der NIH-Förderungen. Von den insgesamt 115, 3 Milliarden US $, gingen mehr als 90 % in die Förderung der Targetforschung. (Bild stammt aus [1] und steht unter cc-by-nc-nd Lizenz; Information aus Tale 3 in [1]: Die NIH-Förderung jedes der first-in-class NMEs belief sich im Mittel auf 0,84 Milliarden US $.)

Alles in allem betrachtet,

zeigen die Ergebnisse, dass die öffentlich geförderte Grundlagenforschung einen größeren Beitrag zur Entwicklung der vielversprechendsten therapeutischen Fortschritte geleistet hat, als man bisher vermutet hatte. (Anm. Redn.: Pharmafirmen haben 2015 die Forschungs-und Entwicklungskosten eines NME mit bis zu 2 Milliarden US $ - und auch darüber - beziffert.) Wenn wir in die Zukunft blicken, so werden auch weiterhin Schutz und Erhaltung unserer und unserer Nachkommen Gesundheit von solidem, auf Grundlagenforschung aufbauendem Wissen abhängen.


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel: "Basic Research: Building a Firm Foundation for Biomedicine" zuerst (am 27. Feber 2018) im NIH Director’s Blog. https://directorsblog.nih.gov/2018/02/27/basic-research-building-a-firm-foundation-for-biomedicine/#more-9770.

Der Artikel wurde von der Redaktion aus dem Englischen übersetzt und geringfügig (mit Untertiteln und zwei Abbildungen au [1]) für den Blog adaptiert. Reprinted (and translated by ScienceBlog) with kind permission from the National Institutes of Health (NIH).


[1] Contribution of NIH funding to new drug approvals 2010-2016. Galkina Cleary E, Beierlein JM, Khanuja NS, McNamee LM, Ledley FD. Proc Natl Acad Sci U S A. 2018 Feb 12. pii: 201715368. Der Artikel ist open access.

Anmerkung zu "Target": Unter Target versteht man zelluläre oder extrazelluläre Strukturen, die i) mit einem Pharmakon wechselwirken, ii) deren Aktivität durch ein Pharmakon moduliert werden kann und iii) von denen man annimmt, dass sie die ursächlich mit einer Krankheit verbunden sind.


Links: National Institutes of Health (NIH) in Bethesda (Maryland)

PubMed.gov (National Library of Medicine/NIH)

NIH RePORTER (NIH) Research Portfolio Online Reporting Tools. Datenbank für NIH-geförderte Projekte


 

inge Thu, 01.03.2018 - 11:33

Genussmittel und bedeutender Wirtschaftsfaktor - der Tabak vor 150 Jahren

Genussmittel und bedeutender Wirtschaftsfaktor - der Tabak vor 150 Jahren

Do, 22.02.2018 - 06:36 — Redaktion

RedaktionIcon Politik und GesellschaftMit der Entdeckung Amerikas kam der Tabak nach Europa und fand hier - trotz anfänglicher Gegnerschaft von Kirche und Staaten - als Genussmittel sehr rasch weite Verbreitung. Tabakanbau und Verarbeitung gewannen in Folge immense wirtschaftliche Bedeutung, beschäftigten Millionen von Menschen und erzielten " ein Erträgnis, so gross, wie es durch andere Culturen gar nicht zu erzielen ist, bedeutender als der Thee, wichtiger als der Kaffee". So berichtete vor 150 Jahren der berühmte Pflanzenphysiologe Julius Wiesner im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse" . Damals begann man gerade die chemischen Eigenschaften und physiologischen Wirkungen des Tabaks zu erforschen, von gesundheitlichen Gefahren des Rauchens, wusste man noch nichts.

Tabak - Bezeichnung für eine Pflanzengattung aus der Familie der Nachtschattengewächse und auch für das, aus deren Blättern gewonnene, Produkt -, gehört zu den vieluntersuchten Forschungsgebieten der Biomedizin. Unter dem Stichwort "tobacco" listet die Datenbank "PubMed" bereits 113 741 Artikel in Fachzeitschriften auf und in der letzten Zeit kommen jährlich mehr als 6 000 neue Artikel dazu (abgerufen am 21.2.2018). Es sind dies Untersuchungen über die Tausenden Inhaltstoffe des Tabak(rauch)s (insbesondere über das Nicotin), über deren physiologische Wirkmechanismen und toxikologische Eigenschaften und vor allem über die mit dem Rauchen verbundenen Risiken für ein weites Spektrum an Krebserkrankungen, Herz-Kreislauferkrankungen und viele andere Krankheiten bis hin zur vorzeitigen Hautalterung. Dass derartige Risiken bestehen, wurde man sich erst ab der Mitte des 20. Jahrhunderts mehr und mehr bewußt - die Folge war ein enormer Anstieg diesbezüglicher wissenschaftlicher Untersuchungen: 93% aller oben angeführten Artikel in PubMed stammen erst aus der Zeit nach 1980.

Viele Jahrzehnte und auch Jahrhunderte zuvor war Tabak ein in weitesten Kreisen der Bevölkerung geschätztes Genussmittel, und geraucht wurde überall, im privaten Umkreis und an öffentlichen Orten. Über das Genussmittel hinaus stellte Tabak aber auch sehr lange einen bedeutenden Wirtschaftsfaktor dar. Darüber hat der Pflanzenphysiologe Julius Ritter von Wiesner (1838-1916) vor 150 Jahren in einem öffentlichen Vortrag im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien" berichtet.

Wiesner (Abbildung 1)war ein hochrenommierter Wissenschafter. Er hatte in Brünn und in Wien studiert, wurde bereits 1868 a.o. Professor am Polytechnischen Institut in Wien. Er war dann von 1873 bis 1909 Professor an der von ihm gegründeten neuen Einrichtung, dem Institut für Pflanzenphysiologie, und schließlich Rektor der Wiener Universität. Seine Forschungen liessen ihn quer über den Erdball reisen; er befasste sich mit Licht-und Vegetationsprozessen und mit Chlorophyll, damit wie Zellwände von Pflanzen organisiert sind und ein spezieller Fokus lag auch auf den globalen pflanzlichen Rohstoffen. Seine Ergebnisse hat Wiesner in mehr als 200 Publikationen und Büchern niedergelegt.

Abbildung 1. Julius Wiesner (1838- 1916), etwa zur Zeit des Vortrags.. Lithographie von Josef Kriehuber, 1870 (das Bild ist gemeinfrei)

Im Folgenden findet sich der Vortrag, den Wiesner am 3. Feber 1868 im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien" gehalten hat, in stark gekürzter Form. Die ursprüngliche Schreibweise wurde beibehalten.

Abbildungen und Untertitel wurden von der Redaktion eingefügt. Der komplette Vortrag ist unter [1] frei zugänglich.

Julius Wiesner: Ueber den Tabak

Es ist eine höchst merkwürdige Thatsache, dass alle Völker der Erde, wie hoch oder wie tief dieselben auf der Stufe" der Civilisation stehen mögen, gewisse Genussnittel zu sich nehmen, welche nicht für alimentäre Zwecke bestimmt sind, weder zur Bildung von Fleisch und Blut beitragen, noch zur Unterhaltung des AthmungsVorganges dienen, vielmehr bestimmt sind, einen Einfluss auf das Nervenleben auszuüben, entweder die Nerventhätigkeit zu steigern oder sie herabzusetzen.

Die Zahl der für nicht alimentäre Zwecke dienenden Genussmittel ist eine sehr grosse und es existirt wohl kein Stück bewohnter Erde, auf welchem nicht ein oder das andere ähnliche Genussmittel gebraucht würde. Selbst die isolirtesten Völkerstämme haben sich derartige Genussmittel erfunden also ist gewissermassen ein in der menschlichen Natur begründetes Bedürfniss vorhanden, derartige, das Nervenleben beeinflussende Genussmittel zu sich zu nehmen. Ich werde mir erlauben, über das verbreitetste derselben, den Tabak, zu sprechen, der von allen diesen Substanzen auch die grösste wirthschaftliche Bedeutung hat (Abbildung 2). Die Zahl der Personen, welche vom Tabak leben, indem sie denselben bauen, verarbeiten oder verkaufen, beträgt gewiss Millionen und Hunderte Millionen zählen die Personen, die ihn gebrauchen. Man mag dieses aus der Thatsache entnehmen, dass auf der Erde nach einer beiläufigen Berechnung etwa 5000 Millionen Pfund Tabak jährlich geerntet werden (2010: 7,1 Mio t; Wikipedia). Abbildung 2. Eine Tabakpflanze (Nicotiana tabacum), darunter ihre Samen und Szenen, welche die Herstellung und den Konsum duch den Menschen zeigen. Im Bild rechts,Mitte: ein Diener versucht den aus dem Mund von Sir Walter Raleigh austretenden Qualm zu löschen. Kolorierte Lithographie um 1840 (Quelle: http://wellcomeimages.org/indexplus/image/V0044754.html)

Vom "Werk des Teufels" zur bedeutenden Industrie

Seit den drei Jahrhunderten, als der Tabak in Europa bekannt geworden ist, hat sich eine sehr grosse Literatur über denselben angehäuft. Anfänglich zogen Kirche und Staat strenge gegen den Gebrauch des Tabakes zu Felde. Papst Urban VIII. (1623 - 1644 im Amt; Red.) erliess eine Bulle, derzufolge Jeder mit dem Banne belegt werden sollte, der Tabak gebrauche. Der seiner Zeit bekannte Prediger Caspar Hofmann zu Quedlinburg donnerte von der Kanzel gegen den Genuss des Tabakes, „der die Seele verderbe, und ein unmittelbares "Werk des Teufels sei". Papst Benedict XIII. (1724 - 1730 im Amt; Red.) hob das Kirchenverbot wieder auf, gewiss nur einer besseren Einsicht und dem Drange seiner Zeit folgend; wenn auch die Geschichte von ihm erzählt, dass er selbst ein grosser Freund und Verehrer des Tabakes gewesen ist.

Mit furchtbarer Strenge bestraften die russischen Machthaber die Tabakraucher. Im 17. Jahrhundert wurde ein Ukas erlassen, dem zufolge Jedem die Nase abgeschnitten werden sollte, der zum ersten Male beim Gebrauche einer Pfeife betreten wurde und wer zum zweiten Male dieses Verbrechen begangen, sollte mit dem Tode bestraft werden. Es kam jedoch selbst für Russland eine bessere Zeit: Czar Michael Feodorowitsch (1613 - 1645; Redn.) liess in der Milde seines Herzens die Tabakraucher bloss nach Sibirien transportiren. Peter der Grosse (Zar von 1672 - 1721; Redn.) hob endlich diese schrecklichen Strafen völlig auf.

Die Geschichte des Tabakes lehrt uns auch, dass das, was man Mode nennt, sehr veränderlich ist. König Franz II. von Frankreich (1559 - 1560; Redn) gebrauchte den Tabak als Mittel gegen heftigen Kopfschmerz, an dem er öfters litt. Es ist nicht bekannt geworden, ob alle Hofleute am französischen Hofe damals an Kopfschmerz litten; soviel ist aber gewiss, dass das Beispiel des Königs viel Nachahmung fand: nicht nur die Herren, sondern auch die Damen des Hofes schnupften.#

Geht man die neuere Literatur über den Tabak durch, so muss man erfreut sein, zu sehen, dass die wissenschaftliche Forschung sich des Tabakes bemächtiget hat. Man trachtet heute ruhig und besonnen, die Naturgeschichte und die Chemie des Tabakes kennen zu lernen, seine physikalischen und chemischen Eigenschaften und seine physiologischen Wirkungen zu erforschen und die Bereitung des Tabakes auf rationelle Basis zu stellen. Und in der That, im Laufe unseres Jahrhundertes hat sich die Bereitung des Tabakes vom einfachen Gewerbe zu einem sehr bedeutenden Industriezweige, zu einem hoch entwickelten Zweige der chemischen und man darf hinzufügen, der mechanischen Industrie emporgeschwungen, indem ein grosser Theil der dabei erforderlichen mechanischen Arbeit nunmehr von den Armen und Fingern der Maschinen vollzogen wird.

Die Naturgeschichte des Tabaks

ist ziemlich genügend schon im ersten Drittel unseres Jahrhundertes erforscht worden. Linnè kannte nur vier Arten des Tabakes; wir kennen gegenwärtig mehr als 20 verschiedene Typen, von diesen sind es jedoch nur drei, welche sich zur Bereitung des Gebrauch-Tabakes eignen: Der gemeine Tabak, der sogenannte Maryland- und der Bauern- oder Veilchentabak.

Die Heimat des Tabakes sind die wärmeren Länder. Nur wenige Pflanzen konnten durch Acclimatisation so weit nach Norden und Süden gebracht werden, als der Tabak. Ueberall, wo er cultivirt wird, ist es nothwendig, dieses mit der grössten Sorgfalt zu thun, selbst im Tropenklima. So wie bei uns, muss auch in den Tropen das Tabakfeld gedüngt werden, so wie bei uns kann man auch dort den Samen nicht direct auf das Feld bringen, sondern muss ihn zuerst im Mistbeete säen.

Zur Chemie des Tabakes

Es finden sich im Tabake einige Substanzen, welche nicht immer in den Blutenpflanzen auftreten, aber häufig in denselben zu beobachten sind. Vor Allem das Blattgrün oder Chlorophyll, ferner Fett, Harz, Wachs, einige Säuren, namentlich Citronensäure, Oxalsäure , Aepfelsäure und, wenn das Blatt älter ist, auch eine Huminsäure.

Zwei Substanzen finden sich aber im Tabake, die man sonst in keiner Pflanze findet: das Nicotin (Abbildung 3), eine farblose Flüssigkeit, und das Nicotianin oder der Tabakkampfer, eine weisse krystallinische Substanz, welche übrigens nicht im natürlichen Tabakblatte auftritt, sondern erst während des Lagerns des Tabakes sich nach und nach bildet. Abbildung 3: Ein englischer Raucher-Club: die angenehme, beruhigende Wirkung des Nicotins (chemische Strukturformel rechts). Illustration von Frederick William Fairholt in "Tobacco, its History and Association", 1859 (digitalcollections.nypl.org, ID 1107895; gemeinfrei)

Diese beiden Substanzen wirken im concentrirten Zustande als Gifte, besonders das Nicotin; in den kleinen Quantitäten aber, in welchen diese Substanzen in einer guten, trockenen Cigarre, in einem guten, leichten Tabake sich vorfinden, sind sie nichts weniger als schädlich; es bringt nämlich das Nicotin die angenehme , beruhigende Wirkung, das Nicotianin den angenehmen Geruch des Tabakes hervor und das beim Rauchen aus dem Tabaksblatte sich erzeugende empyreumatische Oel, das im concentrirten Zustande sich ebenfalls dem menschlichen Organismus gegenüber als Gift erwies, bedingt die bessere Brennbarkeit des Blattes.

Das Nicotin hat viel mit den Alkalien gemein, dem Kali, Natron, Ammoniak, namentlich das Vermögen, sich mit Säuren zu Salzen zu verbinden und kommt auch dieser Körper mit den früher genannten Säuren als Salz gebunden in der Pflanze vor; man stellte deshalb das Nicotin unter die vegetabilischen Alkaloide. Es ist erwiesen, dass sich das Nicotin im Tabake aus Ammoniak bildet, welches bekanntlich ein wichtiges Nahrungsmittel der Pflanzen ist. Das Ammoniak hat bekanntlich die Zusammensetzung: 1 Atom Stickstoff und 3 Atome Wasserstoff. Denken wir uns die Formel NH3 verdoppelt, und statt des Wasserstoffes einen bestimmten gleichwertigen Kohlenwasserstoff in das Ammoniak hineingebracht, so haben wir Nicotin vor uns. Dieser Kohlenwasserstoff, der das Nicotin bildet, wird in der Pflanze aus Kohlensäure und Wasser gebildet, so dass also die drei wichtigsten Nahrungsmittel der Pflanzen :Kohlensäure, Wasser und Ammoniak an dem Aufbaue des Nicotin participiren.

Das Nicotin ist in ganz reinem Zustande eine farblose Flüssigkeit und zeigt einen höchst unangenehmen stechenden Geruch; ein einziger Tropfen kann die Atmosphäre eines grossen geschlossenen Raumes verpesten. Furchtbar sind seine Wirkungen auf den thierischen und menschlichen Organismus. Ein einziger Tropfen dieses Giftes, einem Kaninchen auf die Zunge gebracht, verursacht, dass es in wenigen Minuten verendet, namentlich in Folge der Lähmung der Athmungsmuskeln.

Man hat sich auch mit der chemischen Zusammensetzung des Tabakrauches beschäftigt und gefunden, dass darin Substanzen auftreten, die schon im Blatte vorhanden sind, z. B. Nicotin und Nicotianin, aber auch Substanzen, welche in Folge der unvollkommenen und später der vollkommenen Verbrennung des Tabakes erst entstanden sind, so Paraffin, Buttersäure, kleine Mengen von Anilin, Kohlensäure, Wasser und Ammoniak, Producte der vollständigen Verbrennung.

Die Wirkung des Nicotins ist eine schwach narkotisirende, die anderen Substanzen wirken hauptsächlich auf den Geschmack, vorzugsweise diejenigen, welche von den Flüssigkeiten der Mundhöhle absorbirt werden und da ist in erster Linie das Ammoniak zu. nennen. Man kann sich auf eine sehr einfache Weise davon überzeugen, dass das Ammoniak des Tabakrauches vollständig von den Flüssigkeiten der Mundhöhle absorbirt wird.

Zum Schlusse sei es gestattet, zwei Fragen ganz kurz zu berühren, nämlich die, welche Vortheile und welche Nachtheile der Tabakgebrauch der Menschheit gebracht hat.

Was vorerst die Vortheile anbelangt,

so ist hervorzuheben, dass der Tabak Millionen von Menschen den Lebensunterhalt gibt. In den österreichischen Tabakfabriken arbeiten gegenwärtig 25.000 Menschen, vorzugsweise Frauen. In den Bremer Tabakfabriken sind Jahr aus Jahr ein 6000 Arbeiter beschäftigt, auf der Insel Cuba sind nicht weniger als 600 Cigarrenfabriken im Gange. Bedenkt man ferner, dass die Tabakcultur für einzelne Länder ein Erträgniss abwirft, so gross, wie es durch andere Culturen gar nicht zu erzielen ist, dass der Tabak ein Colonialproduct ist, bedeutender als der Thee, wichtiger als der Kaffee und in Bezug auf Wichtigkeit nur von einem Producte, der Baumwolle, überboten wird, so wird man anerkennen, welche immense wirtschaftliche Bedeutung der Tabak habe. Das näher auszuführen ist nicht Sache der Naturwissenschaft, sondern der National-Oekonomie.

Ob der Tabak der Menschheit Schaden gebracht hat?

Diese Frage wird heute Niemand mit Bestimmtheit bejahen können. Wir kennen genau die Wirkung des Nicotins und können mit Bestimmtheit sagen, dass ein starker Gebrauch des Tabakes, namentlich für junge oder kränkliche Personen ganz gewiss schädlich ist. Wir werden es gewiss deshalb als eine sehr verwerfliche Sitte der Brumesen betrachten, dass ihre Kinder vom 3. Jahre angefangen Cigarren rauchen.

Blicken wir aber nach den civilisirten Staaten, nach Europa und den Nordstaaten Amerika's, wo überall der Tabak mässig gebraucht wird, so finden wir nicht eine Thatsache, welche mit Sicherheit die Schädlichkeit des Tabakes beweisen würde. Ja selbst wenn wir dort hinblicken, wo der Tabak am stärksten gebraucht wird, wo sein Gebrauch geradezu unschöne Formen annimmt, in den Süd- und Weststaaten Nordamerikas, so werden wir auch dort eine mit Sicherheit die Schädlichkeit des Tabakes begründende Thatsache vergebens suchen. Hingegen ist mit Sicherheit für einige Länder Europa's und des Orientes constatirt, dass mit der Einführung des Tabakes der übermässige Gebrauch geistiger Getränke abgenommen hat; eine Thatsache, welche aus der physiologischen Beziehung, die zwischen der Wirkungsweise der narkotischen Genussmittel und der geistigen Getränke besteht, erklärlich wird.

Es wird behauptet, der Tabak verkürze das Leben; bildlich genommen wird dieses jeder Raucher für wahr halten, sachlich ist es nicht sichergestellt. Statistische Angaben sprechen nicht dafür.

Man hat mit Hinblick auf die Völker des Orientes behauptet, dass der Tabak auch den menschlichen Geist untergrabe; die Antwort darauf aber geben die Werke der deutschen Gelehrten, der deutschen Forscher, welche bekanntlich grosse Freunde und Verehrer des Tabakes sind und darauf antwortet zufälliger Weise aber merkwürdig genug die grösste Errungenschaft des menschlichen Geistes, die Auffindung des Gravitations-Gesetzes; denn auch Newton war ein Freund des Tabakes.

----------------------------------------------------------------------------------------

[1] Julius Wiesner, Üeber den Tabak  http://www.zobodat.at/pdf/SVVNWK_8_0287-0312.pdf


Weiterführende Links

Verein zur Verbreitung naturwissenschaftlicher Kenntnisse: http://www.univie.ac.at/Verbreitung-naturwiss-Kenntnisse/index.html

Julius Wiesner: "Jan Ingen-Housz. Sein Leben und sein Wirken als Naturforscher und Arzt". (Auf Ingenhousz gehen wesentliche Entdeckungen zur Photosynthese zurück; s.u.) Das Buch hat das Urheberrecht überdauert und ist nun öffentlich zugänglich: https://archive.org/details/janingenhouszsei00wiesuoft

Robert W. Rosner, 24.08.2017: Jan Ingenhousz, Leibarzt Maria Theresias und Entdecker der Photosynthese


 

inge Thu, 22.02.2018 - 06:36

Coenzym Q10 kann der Entwicklung von Insulinresistenz und damit Typ-2-Diabetes entgegenwirken

Coenzym Q10 kann der Entwicklung von Insulinresistenz und damit Typ-2-Diabetes entgegenwirken

Do, 15.02.2018 - 13:07 — Inge Schuster

Inge SchusterIcon MedizinVon der Presse praktisch unbeachtet, wirft eine eben im Journal eLife erschienene Studie ein neues Licht auf die Entstehung von Insulinresistenz und in Folge von Typ2 Diabetes [1]. An Hand aussagekräftiger Modelle zeigen die Forscher, dass Insulinresistenz mit einer reduzierten Biosynthese und einem daraus resultierendem Mangel an Coenzym Q10 einhergeht. Coenzym Q10 , eine essentielle Komponente in der Energieproduktion der Mitochondrien, macht - sofern ausreichend vorhanden /supplementiert- die in diesem Prozess entstehenden reaktiven Sauerstoffspezies unschädlich und kann damit die Entwicklung von Insulinresistenz verhindern. Diese Befunde bieten auch eine mögliche Erklärung für das offensichtliche Diabetes- Risiko, das mit der Anwendung von Statinen zur Senkung des Cholesterinspiegels einhergeht: Statine können Coenzym Q10 Mangel erzeugen, da sie den ersten Schritt in einem Vielstufenprozess blockieren, der zu Cholesterin und einige Schritte zuvor auch zu Coenzym Q10 führt.

Glukose ist in unserem Organismus zentraler Energielieferant und Baustein für die Biosynthese physiologisch wichtiger Verbindungen. Seine Konzentration im Blut - der sogenannte Blutzuckerspiegel - wird durch ein Zusammenspiel von Hormonen in einem engen Bereich konstant gehalten. Wenn nach dem Essen, vor allem nach kohlehydratreicher Nahrung, der Blutzuckerspiegel ansteigt, schüttet das Pankreas Insulin aus, ein Hormon, welches den Spiegel senkt, indem es die Aufnahme der Glukose aus dem Blut in Körperzellen (von Muskel, Fett, und Leber) und seine Überführung in eine Speicherform initiiert. Bestimmte Voraussetzungen, beispielsweise das Vorliegen einer Adipositas, können zu Störungen in diesem Prozess führen, zur sogenannten Insulinresistenz. Die Insulinresistenz erhöht das Risiko für eine Reihe von Erkrankungen, darunter Diabetes Typ II.

Diabetes, eine globale Epidemie

Diabetes ist Folge zu hoher Blutzuckerspiegel, weil ungenügend oder gar kein Insulin ausgeschüttet wird - Typ- 1-Diabetes -, oder weil die Körperzellen auf Insulin nicht in der richtigen Weise reagieren - Typ-2-Diabetes. Bestehen zu hohe Blutzuckerspiegel aber über längere Zeit, so können Schäden an Organen auftreten und diverse lebensgefährdende Komplikationen hervorrufen, beispielsweise Nierenschäden, Herz/Kreislauferkrankungen, Neuropathien oder auch Retinopathien bis hin zur Erblindung.

Diabetes ist eines der größten Gesundheitsprobleme unseres Jahrhunderts, von dem alle Länder betroffen sind. In der 2017-Ausgabe ihres Diabetes Atlas schätzt die International Diabetes Federation (IDF) die Zahl Erkrankten im Erwachsenenalter (20 - 79 Jahre) auf 425 Millionen, wobei es sich bei mehr als 90 % um Typ-2- Diabetes handelt, und auf rund 4 Millionen Personen, die an den Folgen der Erkrankung starben [2]. Abgesehen von dem Leid der Betroffenen beliefen sich die Kosten der Behandlungen von Diabetes und seinen Folgeschäden laut IDF auf 727 Milliarden US $ [2].

Diese Zahlen werden aber noch weiter steigen: nach Schätzungen des IDF werden im Jahr 2045 bereits 629 Millionen Erwachsene erkrankt sein. Eine besonders hohe Zunahme - z.T auf mehr als das Doppelte- wird dabei für Länder in Afrika und Südostasien erwartet. Abbildung 1. Der Grund dafür liegt im Bevölkerungswachstum und der steigenden Lebenserwartung. Von Typ II Diabetes werden ja Menschen mit steigendem Alter in zunehmendem Maß betroffen: ist im globalen Durchschnitt nur rund 1 % der 20 - 24-Jährigen an Diabetes II erkrankt, so sind es bei 40 - 44 Jährigen bereits rund 8 % und bei Personen um und plus 65 rund 19 %. [2]

Abbildung 1. Diabetes ist eines der größten globalen Gesundheitsprobleme. Schätzungen der International Diabetes Federation für Personen im Erwachsenenalter (20 - 79 Jahre) in 221 Ländern. Die zugrundeliegenden Daten wurden von den einzelnen Ländern zur Verfügung gestellt; bei Ländern mit unzureichender Qualitätskontrolle wurden Daten aus Regionen mit vergleichbarem ethnischen, sozialen und geographischen Hintergrund herangezogen. Die Angaben für Europa (57 Länder) schließen die russische Föderation, Türkei und Grönland mit ein, die Region Südostasien besteht neben einigen kleinen Staaten im wesentlichen aus Indien, der westpazifische Raum (39 Staaten) ist die populationsreichste Region (enthält vor allem China, Indonesien Philippinen, Japan, Australien). (Grafik basiert auf Daten von [2]).

Wie entsteht Insulinresistenz?

Mitochondrien, die Kraftwerke unserer Zellen, spielen offensichtlich eine Schlüsselrolle in der Entwicklung der Insulinresistenz. Mitochondrien erzeugen aus Nährstoffen - Fetten und Zuckern - über die sogenannte Atmungskette das energiereiche Molekül ATP (Adenosintriphosphat), das als universeller Energieträger für die essentiellen energieverbrauchenden Prozesse in unseren Zellen dient. Im Zuge der ATP-Produktion können aber auch potentiell schädliche Produkte erzeugt werden, die unter "reaktive Sauerstoffspezies" (reactive oxygen species - ROS: das sind Sauerstoff-enthaltende instabile radikalische und stabile Oxydantien) subsummiert werden. Bereits frühere Studien hatten darauf hingewiesen, dass ein Zuviel an diesen Oxydantien in Mitochondrien die Insulinresistenz verursachen könnte.

Wodurch entsteht aber das Zuviel an reaktiven Sauerstoffspezies?

Dies analysierte eine neue Studie von australischen Wissenschaftern [1]. Die Forscher haben dazu in insulinresistentem Fett- und Muskelgewebe von Maus und Mensch und in diversen robusten Zellmodellen für Insulinresistenz die Konzentration aller Proteine (auf der Basis des Proteoms und Transkriptoms) und Oxydantien bestimmt. Dabei zeigte sich, dass in allen insulinresistenten Geweben/Modellen die Konzentration des sogenannten Coenzym Q10 deutlich erniedrigt war. Coenzym Q10 ist eine körpereigene, in allen Zellen vorkommende Substanz (Biosynthese und Struktur in Abbildung 2), die essentieller Bestandteil in der Atmungskette der Mitochondrien ist. Wie bereits erwähnt dient diese zur ATP-Gewinnung. Coenzym Q10 fungiert dabei als mobiler Elektronen- und Protonenüberträger zwischen den membrangebundenen Proteinkomplexen I , II und III. Darüber hinaus ist Coenzym Q10 auch in die Entstehung von reaktiven Sauerstoffspezies involviert und kann bei ausreichender Konzentration ein Zuviel davon "abfangen" und unschädlich machen.

Dies bestätigten Versuche, in denen Coenzym Q10 in den insulinresistenten Mäusen und in den Zellmodellen supplementiert und seine Konzentration auf normale Werte angehoben wurde: es normalisierten sich die Spiegel der Oxydantien und in Folge wurde die Entwicklung der Insulinresistenz verhindert [1].

Coenzym Q10 Mangel und Statine

Wie die Versuche zeigten, war der Mangel an Coenzym Q10 in allen untersuchten Modellen auf seine deutlich reduzierte Biosynthese zurückzuführen. Wurden einzelne Schritte in diesem Syntheseweg spezifisch blockiert, so reichte das aus, um verstärkt Oxydantien zu bilden und Insulinresistenz zu erzeugen.

Der Zusammenhang zwischen Mangel an Coenzym Q10 und Insulinresistenz erscheint in Hinblick auf die sogenannten Statine von besonderem Interesse. Statine(beispielsweise Simvastatin, Atorvastatin, Rosuvastatin, etc.) werden weltweit von Millionen Menschen geschluckt, um Cholesterinspiegel und das Risiko für kardiovaskuläre Probleme zu senken. Zu den Nebenwirkungen dieser Verbindungsgruppe zählt u.a. allerdings ein erhöhtes Risiko an Diabetes zu erkranken. Betrachtet man den Wirkungsmechanismus der Statine, so findet man eine plausible Erklärung: Die Cholesterinsynthese ist ein Vielstufenprozess, den Statine bereits in einem frühen Schritt (auf der Stufe der Mevalonsäure) blockieren. Damit blockieren sie aber auch das Ausgangsmaterial für alle Zwischenprodukte, die auf dem Weg zum Cholesterin gebildet werden. Aus einem dieser Zwischenprodukte - dem Farnesyl-pyrophosphat - wird in mehreren Schritten Coenzym Q10 erzeugt. Abbildung 2.

Abbildung 2. Die Synthese von Cholesterin und Coenzym Q10 verlaufen über viele Stufen auf einem gemeinsamen Weg, den Statine in einem frühen Schritt blockieren. Vom Lanosterol, dem ersten cyclisierten 4-Ring-Molekül zum Cholesterin sind 19 Schritte. Stark vereinfachte Darstellung.

Versuche an Kulturen von Fettzellen bestätigten die Hypothese: wurden die Zellen mit Statinen (Simvastatin oder Atorvastatin) behandelt, so führte dies in den Zellen zu reduzierten Coenzym Q10 Spiegeln (natürlich auch zu reduziertem Cholesterin) und in Folge zur Insulinresistenz, die durch Zugabe von Coenzym Q (oder auch des Vorläufers Mevalonsäure) wieder aufgehoben wurde [1].

Ausblick

Coenzym Q10 scheint eine zentrale Rolle in der Prävention und Rückbildung von Insulinresistenz und damit von Typ2 Diabetes zu spielen. Strategien, die zur Erhöhung des Coenzym Q10 Spiegels in Mitochondrien führen, könnten daher wünschenswerte Behandlungsmethoden darstellen. Prinzipiell steht dem nichts entgegen - Coenzym Q ist ein populäres Nahrungsergänzungsmittel und findet sich in Form verschiedenster Kapseln und Tabletten auf den Regalen von Apotheken und Drogeriemärkten. Allerdings wird die Substanz nach oraler Gabe in nur sehr geringem und dazu stark schwankendem Ausmaß in unseren Organismus aufgenommen. Der Grund für die mangelnde Aufnahme aus dem Darm ist das hohe Molekulargewicht (M : 863 D) und der enorm lipophile (fettlösliche) Charakter, der die Substanz in wässrigem Milieu - mit 0.00019 mg/ml - praktisch unlöslich macht ( https://www.drugbank.ca/drugs/DB09270). Hinsichtlich geeigneter Formulierungen zur Verbesserung der Resorption, sind also noch wesentliche Aufgaben zu lösen.


[1] Daniel D. Fazakerley et al., Mitochondrial CoQ deficiency is a common driver of mitochondrial oxidants and insulin resistance. eLife 2018;7:e32111 doi: 10.7554/eLife.32111. https://doi.org/10.7554/eLife.32111.002. (open access, cc-by) [2] IDF Diabetes Atlas 2017 (8th edition) : http://www.diabetesatlas.org (open access)


Weiterführende Links

Coenzym Q10, Video 3,27 min. https://www.youtube.com/watch?v=XR-UutorZeM, Standard-YouTube-Lizenz

Was ist Coenzym Q10? Ubiquinol oder Coenzym Q10 und seine Wirkung. Video 2,05 min. https://www.youtube.com/watch?v=7dO1mXQEBRs

Artikel zu Diabetes/Adipositas im ScienceBlog:


 

inge Thu, 15.02.2018 - 13:07

Kann der Subventionsabbau für fossile Brennstoffe die CO₂ Emissionen im erhofften Maß absenken?

Kann der Subventionsabbau für fossile Brennstoffe die CO₂ Emissionen im erhofften Maß absenken?

Do, 08.02.2018 - 09:45 — IIASA IIASAIcon Politik & Gesellschaft

Der überwiegende Teil der globalen CO2-Emissionen stammt aus der Verbrennung fossiler Energieträger, die von den Staaten subventioniert werden. Laut einer neuen, vom Internationalen Institut für Angewandte Systemanalyse (IIASA; Laxenburg bei Wien) geleiteten Untersuchung, würde eine Streichung dieser Förderungen - selbst, wenn sie weltweit durchgesetzt werden könnte - aber einen nur überraschend geringen Einfluss auf die globalen CO2-Emissionen haben und bis 2030 auch zu keinem Boom im Ausbau erneuerbarer Energien führen. Die größten Effekte des Subventionsabbaus hätten dabei Erdöl-und Gas-exportierende Länder, in welchen weniger unter der Armutsgrenze lebende Menschen betroffen wären.*

Subventionen für fossile Brennstoffe summieren sich weltweit auf ein jährliches Volumen von Hunderten Milliarden Dollar; die Streichung dieser Förderungen hat man daher als ein wesentliches Instrument zur Abschwächung des Klimawandels gesehen. Es ist dies aber leider nicht die von Vielen erhoffte Wunderwaffe, wie eine heute im Fachjournal Nature erscheinende Analyse aufzeigt, die unter der Leitung des IIASA durchgeführt wurde [1].

Die Studie§

Dieser, vom 7. Forschungsrahmenprogramm der EU unterstützten Studie liegen neue Modelle - sogenannte Integrated Assessment Models (IAM s) - zugrunde, die wesentliche Faktoren, vor allem hinsichtlich des zu erwartenden Energiebedarfs, berücksichtigen. Abbildung 1. Mit diesen Modellen wurden länderweise Prognosen für Brennstoffverbrauch und CO2-Emissionen unter Beibehaltung und bei Abschaffung der Subventionen erstellt und verglichen. Als wesentliche, den Brennstoffverbrauch bestimmende Faktoren, wurden dabei das voraussichtliche Wachstum der Bevölkerung und der Wirtschaft, die Zunahme des Transports, die Steigerung von Effizienz, der Übergang zu reineren Brennstoffen und die Elektrifizierung mit einbezogen.

Abbildung 1. Zur Abschätzung des künftigen Angebots und Bedarfs an Brennstoffen und den dadurch verursachten CO2-Emissionen. Während die künftige Versorgung mit Brennstoffen bereits im Detail durch Modelle beschrieben werden konnte, war dies für Bedarf an Brennstoffen nicht der Fall. Im Rahmen des FP7-Programms Advance wurden dafür neue Modelle - Integrated Assessment Models (IAMs) - erstellt, die wesentliche, den zu erwartenden Bedarf bestimmende Faktoren berücksichtigen (Abbildung von der Redaktion eingefügt. Quelle: Project No 308329 ADVANCE "Advanced Model Development and Validation for Improved Analysis of Costs and Impacts of Mitigation Policies",DELIVERABLE No 7.13 , Report on Final Conference. http://www.fp7-advance.eu/)

Die Prognosen

Der Abbau der Unterstützungen würde den Anstieg der CO2-Emissionen nur wenig verlangsamen: demnach würden um das Jahr 2030 die Emissionen nur 1 - 5 % niedriger ausfallen, als bei Beibehalt der Subventionen und das unabhängig davon ob die Ölpreise nun hoch oder niedrig wären. Dies würde im Jahr 2030 dann einer Reduktion um 0,5 - 2,0 Gigatonnen CO2 (Gt/Jahr) entsprechen - das sind wesentlich niedrigere Einsparungen als im Pariser Klimaabkommen freiwillig zugegesagt wurden, nämlich insgesamt 4 - 8 Gt/Jahr. Allerdings würden auch diese Reduktionen nicht ausreichen, um die Klimaerwärmung auf 2° C zu begrenzen.

"Dafür, dass der Gesamteffekt so gering ausfällt, gibt es zwei Gründe ", sagt die IIASA-Forscherin Jessica Jewell, die Erstautorin der Studie [1] ist. "Zum ersten gelten die Subventionen generell nur für Öl, Gas und Elektrizität. Das bedeutet, dass ein Wegfall der Subventionen in einigen Fällen ein Ausweichen auf die emissionsreichere Kohle mit sich bringen würde. Der zweite Grund: wenn die Fördermittel sich insgesamt auch auf enorme Geldsummen belaufen, so ist deren Anteil am Preis einer Energieeinheit nicht hoch genug, um eine nennenswerte Auswirkung auf den globalen Energiebedarf zu haben. Bei Wegfall der Subventionen würde dieser nur um 1 -7% zurückgehen. " Des weiteren würde der Subventionsabbau nicht zu einem Boom in der Anwendung erneuerbarer Energie führen: Im allgemeinen kommt es ja billiger den Energieverbrauch zu drosseln, als die geförderten Brennstoffe durch erneuerbare Energie zu ersetzen.

Obwohl der Subventionsabbau - weltweit betrachtet - nur wenig Einfluss auf die Emissionen hat, gibt es regionale Unterschiede. Die größten Auswirkungen würden in Erdöl - und Gas exportierenden Regionen auftreten, wie in Russland, Lateinamerika, im mittleren Osten und in Nordafrika. In diesen Gegenden würden die durch Wegfall der Subventionen entstehenden Emissionseinsparungen den Zielen der Klimaschutz-Zusagen nahekommen oder diese sogar übertreffen.

In Entwicklungsländern, die nicht zu den wichtigen Öl- und Gasausfuhrländern zählen, würde der Wegfall der Subventionen generell wesentlich schwächere Auswirkungen haben. Einige der angewandten Modelle deuten sogar auf einen Anstieg der Emissionen in gewissen Regionen hin - beispielsweise in Afrika und Indien -, da man dort vom nicht mehr geförderten Öl und Gas auf Kohle ausweichen würde.

Subventionsabbau und in Armut lebende Menschen

Die regionalen Unterschiede weisen auf einen sehr wichtigen Aspekt hin: man muss überlegen, welche Auswirkungen der Wegfall der Subventionen auf die Armen haben würde. Vielfach wurden ja Subventionen fossiler Brennstoffe eingerichtet, um den Menschen mit niedrigem Einkommen zu helfen. Obwohl der Großteil dieses Geldes an die Wohlhabenden geht, setzt sich ein Haushaltsbudget umso mehr aus solchen Unterstützungen zusammen, je ärmer jemand ist - deren Streichung würde daher massive Auswirkungen auf das tägliche Leben haben.

Beispielsweise würde der Wegfall der Förderungen bedeuten, dass ein Umstieg auf moderne Brennstoffe für viele arme Menschen außerhalb ihrer Möglichkeiten läge. Als Folge würden diese dann Brennholz und Holzkohle verwenden, die beide Treibhausgase emittieren.

Glücklicherweise ist die Mehrheit der ärmsten Bevölkerungsschichten in Regionen zu finden, in denen der Wegfall von Subventionen kaum Einfluss auf die CO2 Emissionen hätte. In den reicheren Öl- und Gas-exportierenden Ländern hingegen würde der Subventionsabbau bedeutend höhere Emissionseinsparungen bringen und weniger nachteilige Auswirkungen auf die Armen haben. Der Ölpreis ist zu Zeit ja niedrig.

"Die Regierungen der Erdöl und Gas produzierenden Länder sind bereits unter Druck die Ausgaben für die Subventionen zu kürzen, da die Einnahmen sinken. Dies bietet eine einmalige politische Gelegenheit die Subventionen in Ländern abzuschaffen, in denen damit der stärkste Einfluss auf die Emissionen erzeugt wird und der geringste Schaden für die Armen", sagt Jewell.

Schlussendlich zeigen die Ergebnisse der Studie, dass eine Abschaffung der Subventionen für fossile Brennstoffe, insbesondere in gewissen Regionen, Vorteile bringt. Allerdings muss dabei mit Augenmaß vorgegangen werden. Der IIASA Energy Program Direktor Keywan Riahi, der auch Koautor der Studie ist, meint dazu: "Wir sagen nicht: Streicht die Subventionen nicht. Wir sagen aber, dass es uns bewusst sein muss, dass der Subventionsabbau geringere Auswirkungen haben kann, als wir erhoffen und die in Armut lebende Bevölkerung unverhältnismäßig stark beeinträchtigen könnte. Eine gut geplante Vorgangsweise kann dagegen die Förderungen abschaffen ohne den Armen zu schaden. Ein Programm, das nun in Indien getestet wird, hat beispielweise die Förderung auf das Gas zum Kochen generell abgeschafft, unterstützt aber die ärmsten Haushalte durch Rabatte."


[1] Jewell J, McCollum, D Emmerling J, Bertram C, Gernaat DEHJ, Krey V, Paroussos L, Berger L, Fragkiadakis K, Keppo I, Saadi, N, Tavoni M, van Vuuren D, Vinichenko V, Riahi K (2018) Limited emission reductions from fuel subsidy removal except in energy exporting regions. Nature 554, 229–233 (08 February 2018), doi:10.1038/nature25467 Diese internationale Studie wurde vom European Union’s Seventh Programme FP7/2007- 2013 No 308329 (ADVANCE) unterstützt.


* Der von der Redaktion aus dem Englischen übersetzte, für den Blog adaptierte Text stammt von der IIASA-Presseaussendung am 5. Feber 2018 “Removing fossil fuel subsidies will not reduce CO2 emissions as much as hoped" (embargoed until 7.2.2018, 19:00 h). IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der mit § markierte Absatz und Abbildung 1 wurden von der Redaktion eingefügt.


Weiterführende Links

IIASA Website: http://www.iiasa.ac.at/ 

Project No 308329 ADVANCE "Advanced Model Development and Validation for Improved Analysis of Costs and Impacts of Mitigation Policies" http://www.fp7-advance.eu/ 

Zur Höhe der Subventionen für fossile Brennstoffe: How great are fossil fuel subsidies? (Frank Aaskov (REA), 2016). https://www.r-e-a.net/blog/how-great-are-fossil-fuel-subsidies-13-01-2016 

Zu den globalen CO2-Emisionen von fossilen Brennstoffen (Interaktive Landkarten: statplanet world bank) https://www.statsilk.com/maps/statplanet-world-bank-app-open-data/?y=199...

Statistical Review of World Energy https://www.bp.com/en/global/corporate/energy-economics/statistical-revi... 


 

inge Thu, 08.02.2018 - 09:45

Das Quagga - eine mögliche Rückzüchtung und die genetischen Grundlagen

Das Quagga - eine mögliche Rückzüchtung und die genetischen Grundlagen

Do, 01.02.2018 - 04:51 — Ricki Lewis Ricki LewisIcon BiologieRücksichtsloses Jagen hat vor 135 Jahren zur Ausrottung des Quaggas geführt, von diesen Tieren existieren nur mehr Beschreibungen und einige ausgestopfte Museumsexemplare. Neue genetische Analysen derartiger Proben zeigen, dass das Quagga keine eigene Art, sondern eine Untergruppe des Steppenzebras war und, dass Gene des Quaggas im Genpool der jetzt lebenden Zebras noch vorhanden sein könnten. Ein Herauszüchten Quagga-ähnlicher Tiere aus heute lebenden Zebras erscheint damit nicht unmöglich. Dies ist das Ziel eines seit rund 30 Jahren in Südafrika laufenden, faszinierenden Versuchs: des Quagga-Projekts. Die Genetikerin Ricki Lewis fasst die neuesten Ergebnisse zusammen.*

Wie der Vogel Dodo, das Heidehuhn oder das Wollhaarmammut verschwand auch das Quagga erst vor kurzer Zeit - seine DNA ist in Museumsexemplaren noch vorhanden und moderne Verwandte lassen sich züchten, aus denen Tiere mit alten Merkmalen selektiert werden können. Benannt und beschrieben im Jahr 1788, sieht das Quagga gerade so aus als ob jemand die typischen Streifen am Hinterende und an den Hinterbeinen eines Zebras ausradiert hätte. Abbildung 1.

Abbildung 1. Das Quagga in der Darstellung von Samuel Daniell (aus der Serie: African Scenery and animals, 1804; Smithsonian Institution Libraries; gemeinfrei)

Charles Darwin hat das Quagga für eine eigene Spezies gehalten. Heute aber wird das Equus quagga quagga aber als eine ausgestorbene Unterart des Steppenzebras angesehen. Die fünf existierenden Unterarten durchstreifen den Süden und Osten Afrikas, während die anderen Zebra-Arten - Grevy- und Bergzebra -einen engeren Lebensraum haben.

2014 wurden die sequenzierten Genome von 6 lebenden Arten von Zebras und Eseln veröffentlicht; diese zeigten nicht nur hohe genetische Vielfalt, sondern auch, dass Mitglieder der Pferde-Familie mit unterschiedlicher Chromosomenzahl fähig waren Nachkommen zu produzieren. Die heutigen Equidae - also Pferde, Esel und Zebras - leiten sich von einem gemeinsamen Vorfahren ab, der vor 4 - 4,5 Millionen Jahren in der Neuen Welt lebte und haben sich dann vor 2,1 bis 3,4 in der alten Welt ausgebreitet.

Vor wenigen Tagen haben Forscher der Universität Kopenhagen die Genom-weite Analyse von bis zu 168 000 Polymorphismen (Variationen einzelner Basenpaare -SNPs) in den DNAs von 59 Steppenzebras, 6 anderen Zebras und einem Quagga (Material von einem Museumsexemplar) veröffentlicht [1]. Aus den DNA-Daten geht hervor, dass das Quagga ein Steppenzebra ist und, dass die Steppenzebras in neun genetisch definierte Gruppen - evolutionäre Einheiten - eingeteilt werden können. Diese Einteilung hat allerdings nichts mit der Klassifizierung zu tun, die auf Grund unterschiedlicher Merkmale - Muster der Streifen, Körpergröße und Kopfform - zur Unterscheidung der Unterarten angewandt worden war.

Das Quagga Projekt

Das letzte Quagga war ein weibliches Tier und starb 1883 im Amsterdamer Zoo. Charles Darwin könnte ein lebendes Quagga im Londoner Zoo noch gesehen haben - das letzte dieser Tiere verendete dort 1870. Im Freiland waren Quaggas bis zur Ausrottung gejagt worden, um Grünflächen für Ziegen und Schafe zu erhalten.

Das Quagga Projekt wurde von dem Präparator Reinhold Rau initiiert, einem deutschen Experten für Naturgeschichte, der an Hand der insgesamt existierenden 23 Museumsexemplare das Quagga auf's Genaueste beschrieben hatte. Um dem Quagga gleichende Tiere hervorzubringen, startete 1987 eine kontrollierte Züchtung, ausgehend von Steppenzebras aus der West-Kap Region in Südafrika, die nach zwei Kriterien - fehlenden Streifen an Hinterbeinen und Hinterende und dunklerer Grundfarbe - selektiert wurden. Die Züchtungen erfolgen seitdem an frei-laufenden Herden auf bis zu 4Êf;000 Hektar großen Flächen. Jede neue Generation entstammt dabei den am wenigsten gestreiften Tieren der vorhergehenden Generation. (Das Streifenmuster wird dabei stabiler vererbt als die dunklere Grundfarbe.) Abbildung 2. Manchmal gibt es dabei auch eine Rückentwicklung - ein sorgfältig selektiertes Tier, das wieder Streifen an den Hinterbeinen aufweist.

Abbildung 2. Quagga-ähnliche Steppenzebras ("Rau-Quaggas"). Das im Vorjahr geborene Fohlen FD 17 hat bereits die Streifen an den Hinterbeinen verloren, die seine Mutter noch trägt.

Bis jetzt hat das Projekt etwa ein Dutzend nach dem Initiator benannte "Rau Quaggas" hervorgebracht. Es sind dies Tiere, die dem Quagga im Aussehen sehr ähneln. Ein Quagga ließe sich auch klonen - dazu bedarf es aber lebender Zellen.

Eine Pionier-Spezies

Die neuen genomweiten DNA-Analysen[1] stützen - wie Rasmus Heller, einer der Koautoren der Studie erläutert - die Schlussfolgerung aus dem Quagga-Projekt, "dass nämlich das Streifenmuster nicht von einmaligen Mutationen im Quagga herrührt, sondern von ständiger genetischer Variation in den Steppenzebras. In anderen Worten: es bedarf keiner neuen Mutation, um zumindest eine ganz deutlich sichtbare Veränderung im Phänotyp des Quagga zu erklären."

Was bedeutete der Verlust der Streifen für die Quaggas? Es ist verlockend darüber zu spekulieren, aber unmöglich eine Aussage aus dem bis jetzt einzigen analysierten Exemplar zu treffen. "Wir wissen nicht, ob und welche spezifische Adaptionen das Quagga zusätzlich zum fehlenden Streifenmuster aufwies. Dazu brauchen wir wahrscheinlich populationsweite Analysen von Quaggas auf der Ebene ihrer Genome", sagt Heller.

Weitere Daten von den Quaggas-Präparaten sind zu erwarten.

Zurück zu den genetisch definierten, neun Untergruppen des Steppenzebras, deren Entstehung ungewöhnliche Aspekte aufzeigt: es gibt weder graduelle Änderungen in der Häufigkeit von Genvarianten (sogenannte Klinen), noch einen Anhaltspunkt dafür, dass einige wenige Individuen genetisch unterschiedliche Populationen hervorgebracht hätten (sogenannte Gründer-Effekte). Stattdessen könnte die Entstehung der Untergruppen eine Folge davon sein, dass Steppenzebras eine Rolle als Pioniere spielen: die Tiere durchstreifen ganz Afrika, weil sie hinsichtlich ihres Futters nicht zu wählerisch sind und zu den ersten gehören, die desolate/kaputte Graslandschaften besiedeln. Zebras sind robuste, anpassungsfähige Tiere. Die genetischen Untergruppen könnten so auf die Folgen von Klimaveränderungen vergangener Epochen hinweisen, in denen kleine Populationen vorübergehend isoliert wurden und später wieder zusammenkamen; in dem wiederhergestellten Genfluss waren dann die Variationen der Populationen enthalten.

Die genetisch definierten Untergruppen haben nicht viel mit der Phänotyp-definierten, klassischen Einteilung der Steppenzbras zu tun. Beispielsweise enthalten Populationen des kleinwüchsigen Grant's Zebra (Abbildung 3) Individuen aus 2, 3 oder 4 genetisch definierten Gruppen.

Abbildung 3. Grant's Zebras sind kleiner als die anderen Untergruppen der Zebras.

Über den Ursprung der Steppenzebras

Laut den neuen genetischen Analysen stammen die Zebras aus dem Gebiet des Sambesi-Becken - Okavango-Delta in Sambia und Botswana. Sie könnten dort gemeinsam mit Antilopen, Impalas und Gnus einen Ort geteilt haben, der sie vor Umweltveränderungen schützte.

Die Forscher verfolgten die Populationen der Steppenzebras etwa 800 000 bis 900 000 Jahre zurück und kamen zu dem Schluss, dass die Quaggas - gemeinsam mit anderen südlichen Zebrapopulationen - sich vor rund 340 000 Jahren abspalteten. Wann immer dies geschah - die Quaggas kamen wahrscheinlich aus Namibia (dies meint zumindest C-E.T.Pedersen, der Erstautor der Studie). Sie mischten sich mit anderen Steppenzebras im Einzugsgebiet des Orange River, das sich von Südafrika nach Namibia und Botswana im Norden erstreckt. Abbildung 4.

Abbildung 4. Gebiete, in denen Steppenzebras leben.

Die heutigen Steppenzebras erscheinen als eine sanfte Gemeinschaft. Ihre Genome sind variabel; jedoch sind viele Mutationen neutral , d.i. ohne Einfluss auf die natürliche Selektion. Vielleicht bedeutet das auch, dass die Zebras eine bedrohlichen Umwelt verlassen und neue Weideländer gesucht haben, anstatt dort zu verharren und zu warten bis die natürliche Selektion nur diejenigen überließ, die zufällig überlebensfähige Eigenschaften hatten. Das würde durchaus Sinn machen!


[1] C-E T.Pedersen et al., A southern African origin and cryptic structure in the highly mobile plains zebra. Nature Ecology & Evolution (2018) doi:10.1038/s41559-017-0453-7


*Der Artikel ist erstmals am 25. Jänner 2018 in PLOS Blogs - DNA Science Blog unter dem Titel " A Closer Genetic Look at the Quagga, an Extinct Zebra" erschienen ( (http://blogs.plos.org/dnascience/2018/01/25/a-closer-genetic-look-at-the... ) und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt. Abbildungen 2 - 4 hat die Autorin aus dem Quagga-Projekt bezogen.


Weiterführende Links

Das Quagga Projekt: https://quaggaproject.org/

Quagga - Most Beautiful Zebra Ever - Facts & Photos (1.2018), Video (englische Untertitel) 6:11 min. https://www.youtube.com/watch?v=N-IliWQXpSo. Standard-YouTube-Lizenz

Animals That Have Gone Extinct| Amazing Extinct Animal. Video (05.2017; Englisch), 12:07 min. https://www.youtube.com/watch?v=lSi4ctJBWXU.  Standard-YouTube-Lizenz


 

inge Thu, 01.02.2018 - 04:51

Primäre Zilien auf Nervenzellen- mögliche Schlüssel zum Verständnis der Adipositas

Primäre Zilien auf Nervenzellen- mögliche Schlüssel zum Verständnis der Adipositas

Do, 25.01.2018 - 07:13 — Francis S. Collins Francis S. CollinsIcon Gehirn

 

Die meisten Säugetierzellen besitzen sogenannte primäre Zilien, antennenartige Ausstülpungen der Zellmembran, die als Sensoren der Umgebung dienen. Eine neue Untersuchung [1] zeigt, dass derartige subzelluläre Strukturen auf bestimmten Nervenzellen eine Schlüsselrolle in der Regulierung des Essverhaltens und damit der Entstehung der Adipositas spielen. Francis Collins, NIH-Direktor und ehem. Leiter des "Human Genome Project", fasst die faszinierenden Befunde zusammen.*

Der Adipositas (Fettleibigkeit) liegt ein komplexes Zusammenspiel von Ernährung, Lebensweise und Genetik zugrunde und sogar die im Verdauungstrakt angesiedelten Bakterien tragen dazu bei. Es gibt aber auch andere, eher unterschätzte Faktoren, die offensichtlich eine Rolle spielen. Eine neue NIH-geförderte Untersuchung lässt auf Faktoren schließen, an die man nicht einmal im Traum gedacht hätte: es sind dies Antennen-artige sensorische Fortsätze (Ausstülpungen der Zellmembran) auf Nervenzellen, sogenannte primäre Zilien. Abbildung 1.

Abbildung 1. Primäre Zilien (grün) auf den Nervenzellen (rot-violett) einer Maus. Die Zellkerne sind blau gefärbt. (Credit: Yi Wang, Vaisse Lab, UCSF)

Die genannte Studie erfolgte an Mäusen und wurde vor wenigen Tagen im Journal Nature Genetics veröffentlicht [1]. Die Schlußfolgerung daraus: primäre Zilien haben eine Schlüsselrolle in dem bereits bekannten "Hunger-Schaltkreis" inne. Dieser Schaltkreis kontrolliert den Appetit auf Basis von Signalen, die er aus anderen Körperregionen empfängt. Im Mausmodell zeigen die Forscher, dass Änderungen an den Zilien einen "Kurzschluss" erzeugen können; in Folge ist die Fähigkeit des Gehirns den Appetit zu kontrollieren gestört und es kommt zu Überernährung und Fettsucht der Tiere.

Wesentliche Proteine im "Hunger-Schaltkreis"

Die neuen Befunde stammen aus der Zusammenarbeit zweier NIH-unterstützter Teams an der Universität von San Francisco, Californien (UCSF). Das eine, von Christian Vaisse geleitete Team suchte möglichst viele genetische Faktoren zu identifizieren, die zur Adipositas beitragen können . Dies hat die Forscher zu einem wesentlichen Abschnitt des "Hunger-Schaltkreises" geführt, der im Hypothalamus des Gehirns verdrahtet vorliegt. Spezifische Neuronen detektieren hier permanent die Konzentration von Leptin, einem Hormon, das von Fettzellen produziert wird und ein Maß für die Menge des im Organismus gespeicherten Fettes darstellt.

Die Leptin-sensitiven Neuronen geben ihre Informationen dann an einen anderen Abschnitt des Schaltkreises weiter, wo eine zweite Gruppe von Nervenzellen das übrige Gehirn informiert ob der Appetit nun gesteigert oder gedrosselt werden soll. Erst kürzlich hat das Team um Vaisse festgestellt, dass an der Oberfläche dieser zweiten Gruppe von Neuronen ein Rezeptor - der Melanocortin-4-Rezeptor (MC4R) - eine ganz wesentliche Funktion in der Weiterleitung des Signals zur Appetit -Regulierung hat. Abbildung 2. Ist der Rezeptor defekt, so kann das übermittelte Signal nicht korrekt weitergegeben werden - der Appetit verbleibt "eingeschaltet" in der on-Position. Tatsächlich sind Mutationen im MC4R-Gen die häufigsten genetischen Ursachen für extreme Fettsucht im kindlichen Alter.

Abbildung 2.Das Herz des Hungers. Eine stilisierte Darstellung der Neuronen (rot), die den Melanocortin-4 Rezeptor (MC4R) exprimieren. Es ist dies eine Untergruppe der Neuronen im sogenannten Paraventriculären Nukleus des Hypothalamus, einer Gehirnregion, die für ihre regulierende Rolle im Energie-Gleichwicht und im Hunger bekannt ist. (Quelle: https://directorsblog.nih.gov/2015/05/05/tracing-the-neural-circuitry-of... Credit: Michael Krashes, NIDDK, NIH)

Die Rolle der primären Zilien

Das andere Team am UCSF, unter der Leitung von Jeremy Reiter, hat sich der Untersuchung der primären Zilien gewidmet. Interessanterweise wurden diese unbeweglichen "Antennen" im Gehirn ursprünglich als unnötige Zellorganellen angesehen, als reine biologische Relikte, die keinerlei Zweck erfüllten. Dass dies falsch ist, hat sich inzwischen herausgestellt. Schäden an primären Zilien tragen zu einem weiten Spektrum genetischer Syndrome bei, die kollektiv als Ziliopathien bezeichnet werden. Ziliopathien weisen dabei häufig eine Vielfalt von Merkmalen auf, beispielweise Polydaktylie - d.i. das Vorhandensein von zusätzlichen Fingern und Zehen -, Schädigungen der Retina, Lungenerkrankungen und Nierendefekte. Hier gab es allerdings ein Faktum, das erst jetzt verstanden wird, nämlich warum Menschen mit bestimmten Ziliopathien praktisch immer extrem adipös sind (das Bardet-Biedl Syndrom mit Polydaktylie und Nierendysplasie und das Alström Syndrom mit Sehstörungen und Störungen des Stoffwechsels und des Hormonsystems miteingeschlossen).

Mit der neuen Studie lassen sich nun alle diese Teile zu einem Ganzen zusammensetzen. Die Forscher haben das MC4R Protein mit Fluoreszenzmarkern gekennzeichnet und erstmals seine Verteilung im Gehirn der Maus untersucht. Dabei stellten sie fest, dass MC4R auf den primären Zilien lokalisiert ist und zwar spezifisch auf den Zilien jener Neuronen, die zur Regulierung des Appetits mit dem übrigen Hirn kommunizieren.

Auch ein weiteres Protein, die sogenannte Adenylat-Cyclase 3 (ADCY3) wurde von den Forschern untersucht. (Adenylat-Cyclase katalysiert die Bildung von zyklischem Adenosinmonophosphat -cAMP- , einem der wichtigsten Botenstoffe zur Signalübertragung innerhalb von Zellen; Anm. Red.) Von diesem Protein war bereits bekannt , dass es spezifisch auf den Zilien von Neuronen lokalisiert ist und auch, dass es mit Adipositas in Verbindung steht. Neue Untersuchungen von Teams aus den US, Pakistan und Grönland - publiziert in derselben Ausgabe von Nature Genetics wie [1] - zeigen nun, dass Mutationen im ACDY3-Gen zu Adipositas und Diabetes führen.

Das Team um Vaisse vermutete nun, dass der Melanocortin-4-Rezezeptor und die Adenylatcyclase ihre Funktion auf den primären Zielien gemeinsam ausüben könnten. Um dies herauszufinden, blockierten sie bei Mäusen die Funktion von ADCY3 auf den Zilien der MC4R exprimierenden Neuronen in spezifischer Weise. Wie angenommen begannen die Tiere mehr zu fressen und an Gewicht zuzunehmen.

Fazit

Die Ergebnisse der neuen Untersuchungen weisen darauf hin, dass die beiden, auf den primären Zilien von Neuronen lokalisierten Proteine MC4R und ADCY3 zusammenwirken , um den "Hunger-Schaltkreis" im Gehirns zu regulieren. Während Mutationen im MC4R Gen für 3 -5 % aller Fälle von schwerer Adipositas verantwortlich sind, gibt es häufigere Mutationen in Dutzenden, wenn nicht Hunderten weiteren Genen, die das Risiko für Adipositas erhöhen. Christian Vaisse hält es für möglich, dass viele dieser Gene auch in den primären Zilien des Gehirns eine Rolle spielen. Sollte dies der Fall sein, so könnte daraus eine wichtige "vereinheitlichte Theorie" der Genetik von Adipositas entstehen.


[1] Subcellular localization of MC4R with ADCY3 at neuronal primary cilia underlies a common pathway for genetic predisposition to obesity. Siljee JE, Wang Y, Bernard AA, Ersoy BA, Zhang S, Marley A, Von Zastrow M, Reiter JF, Vaisse C. Nat Genet. 2018 Jan 8.


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:"Unraveling the Biocircuitry of Obesity" zuerst (am 17. Jänner 2018) im NIH Director’s Blog. Der Artikel wurde von der Redaktion aus dem Englischen übersetzt und geringfügig (mit Untertiteln und zwei Kommentaren) für den Blog adaptiert. Abbildung 2 wurde von einem früheren Blogartikel des Autors übernommen (https://directorsblog.nih.gov/2015/05/05/tracing-the-neural-circuitry-of... ) Eine Reihe von Literaturangaben (nicht frei zugänglich) finden sich im Original. Reprinted (and translated by ScienceBlog) with kind permission from the National Institutes of Health (NIH).


Weiterführende Links

National Institutes of Health (NIH) in Bethesda (Maryland)

Obesity (National Institute of Diabetes and Digestive and Kidney Diseases/NIH)

Christian Vaisse (University of California San Francisco)

Reiter Lab (UCSF)


 

inge Thu, 25.01.2018 - 19:17

Die bedeutendsten Entdeckungen am CERN

Die bedeutendsten Entdeckungen am CERN

Do, 18.01.2018 - 11:57 — Claudia-Elisabeth Wulz

Claudia-Elisabeth WulzIcon PhysikDer Aufbau der Materie aus Elementarteilchen und die Kräfte, die zwischen diesen wirken, werden im sogenannten Standardmodell der Teilchenphysik zusammengefasst. Wissenschafter am Forschungszentrum für Teilchenphysik CERN (der Europäischen Organisation für Kernforschung) haben hierzu fundamentale Erkenntnisse beigetragen. Mit Hilfe der weltstärksten Teilchenbeschleuniger und -Detektoren testen sie die Gültigkeit der Voraussagen des Standardmodells und dessen Grenzen. Die Teilchenphysikerin Claudia-Elisabeth Wulz (Institut für Hochenergiephysik der OEAW- HEPHY), seit knapp 25 Jahren Leiterin der österreichischen Gruppe des CMS-Experiments - CMS-Trigger - am Large Hadron Collider des CERN, gibt hier einen kurzen Überblick über die bedeutendsten Entdeckungen am CERN.*

Bausteine der Materie und Wechselwirkungen

Vorweg eine kurze Darstellung eines der erfolgreichsten Modelle in der Physik, des sogenannten Standardmodells der Teilchenphysik. Dieses gibt uns Auskunft über die Zusammensetzung der Materie, wie wir sie kennen und auch über die Wechselwirkungen zwischen den Bestandteilen der Materie. Die grundlegenden Bestandteile des Standardmodells sind in Abbildung 1 dargestellt. Es sind

  • die sogenannten Quarks, die sich unter anderem in den Protonen und Neutronen befinden, welche die Atomkerne bilden,
  • weitere Teilchen, sogenannte Leptonen. Zu ihnen gehört das allgemein bekannte Elektron, das zusammen mit dem Atomkern das Atom bildet,
  • Kraftteilchen ("Eichbosonen"; siehe unten) und
  • das berühmte Higgs-Teilchen, das im Zentrum steht und dem Universum Substanz gibt. Wenn Elementarteilchen das alles durchdringende Higgsfeld durchfliegen, wechselwirken sie mit dem Feld und erhalten daraus ihre Masse.

Abbildung 1. Das Standardmodell der Teilchenphysik. Materie besteht aus Quarks (rot) und Leptonen (grün) und wird durch Kraftteilchen (blau) zusammengehalten. Durch die Wechselwirkung mit dem Higgsfeld (H) erhalten Elementarteilchen Masse.

Was kann man sich unter Kraftteilchen vorstellen?

Diese auch Austauschteilchen oder Eichbosonen genannten Teilchen vermitteln die Wechselwirkungen - Kräfte - zwischen den Materieteilchen Quarks und Leptonen. Bildlich kann man sich das etwa so vorstellen (Abbildung 2):

Zwei Personen sitzen in einem Boot und werfen sich gegenseitig einen Ball ("Kraftteilchen") zu. Als Folge bewegt der von dem Werfenden ausgehende Impuls dessen Boot nach hinten, ebenso wird das Boot des Fängers nach hinten getrieben. Mit dem Ball werden hier also Abstoßungskräfte übermittelt. Werfen sich die beiden Personen den Ball aber über rückstoßende Wände zu, so kommt es zu einem Heranrücken der Boote - zu einer Anziehungskraft.

Abbildung 2. Wie man sich die Wechselwirkungen zwischen den Materie-Teilchen - Quarks und Leptonen - durch den Austausch von Kräften via Kraftteilchen – Eichbosonen γ, g, W und Z – vorstellen kann.

Mit diesen Austauschteilchen sind fundamentale Kräfte verknüpft:

  • Elektromagnetische Wechselwirkung – Austauschteilchen sind Photonen (γ), aus denen auch das Licht - eine elektromagnetische Schwingung - besteht; Photonen sind masselose Trägerteilchen mit unendlicher Reichweite.
  • Starke Wechselwirkung – Gluonen (g; Gluon bedeutet so viel wie Kleber) sind verantwortlich für die stärkste Kraft, welche die Bindung der Quarks innerhalb des Protons oder des Neutrons und damit die Stabilität der Atome bewirkt. Die Reichweite ist auf den Atomkern beschränkt.
  • Schwache Wechselwirkung – wirkt auf geladene und ungeladene Elementarteilchen, wird durch W- und Z-Bosonen vermittelt und hat nur sehr, sehr kurze Reichweite. Diese Wechselwirkung ist verantwortlich für Kernfusionsprozesse (zum Beispiel die Fusion von Wasserstoff zu Helium im Inneren unserer Sonne) und auch für den natürlichen radioaktiven Zerfall.
  • Schwerkraft (Gravitation) ist die schwächste Kraft. Gravitation – Massenanziehung – ist uns aus dem täglichen Leben und auch aus der Himmelsmechanik vertraut und mit der allgemeinen Relativitätstheorie gut verstanden, spielt aber in der Mikrowelt der Elementarteilchen praktisch keine Rolle. Ein postuliertes, mit dieser Kraft verknüpftes Teilchen ("Graviton") konnte - auf Grund der Schwäche dieser Kraft - experimentell bis jetzt noch nicht aufgefunden werden. Auch der Versuch, diese Kraft in das durch Quantenfeldtheorie die Mikrowelt beschreibende Standardmodell einzubauen - also die Theorie der größten Dimensionen mit der Theorie für die kleinsten Dimensionen zu vereinigen - war bis jetzt nicht erfolgreich.

Pionierleistungen am CERN

Zur Erforschung der elementaren Bausteine der Materie und ihrer Wechselwirkungen nützt man am CERN riesige Teilchenbeschleuniger und gigantische Detektoren. Das zugrunde liegende Prinzip: es werden auf nahezu Lichtgeschwindigkeit beschleunigte Teilchen mit enormer Wucht zur Kollision gebracht. Entsprechend der Äquivalenz von Energie und Masse (E = m×c2) können sich Energie in Masse und Masse in Energie umwandeln und dabei neue, noch unbekannte Teilchen entstehen. Deren Spuren werden mittels der Detektoren aufgezeigt und exakt vermessen. Zahlreiche Durchbrüche in der Teilchenphysik sind auf derartige Untersuchungen am CERN zurückzuführen, die drei bedeutendsten - die Entdeckung i) der neutralen Ströme, ii) der W- und Z-Bosonen und iii) des Higgs-Teilchens - sollen hier kurz angeführt werden.

Zur elektroschwachen Wechselwirkung: Entdeckung der neutralen Ströme

Vor 50 Jahren hatten die Physiker Steve Weinberg, Abdus Salam und Sheldon Glashow postuliert, dass elektromagnetische und schwache Wechselwirkung zwei Facetten ein und derselben Kraft - der elektroschwachen Kraft - sind (gerade so wie Elektrizität und Magnetismus - Blitzstrahl und Magnetfeld - als unterschiedliche Aspekte der grundlegenden elektromagnetischen Wechselwirkung zusammengefasst sind). Noch bevor diese Theorie experimentell bestätigt wurde, erhielten die drei Forscher 1979 den Nobelpreis "Für ihren Beitrag zur Theorie der Vereinigung schwacher und elektromagnetischer Wechselwirkung zwischen Elementarteilchen, einschließlich unter anderem der Voraussage der schwachen neutralen Ströme“.

Die schwache Wechselwirkung wirkt auf alle Materieteilchen und wird durch elektrisch neutrale Teilchen (Z-Bosonen) oder positiv oder negativ geladene Teilchen (W-Bosonen) übermittelt. Ein bedeutender Schritt auf dem Weg zur Vereinigung von schwachen und elektromagnetischen Kräften war der experimentelle Nachweis der sogenannten neutralen Ströme am CERN mit der Blasenkammer Gargamelle im Jahr 1973. Abbildung 3.

Die Forscher hatten einen im Proton-Synchrotron erzeugten Strahl spezieller hochenergetischer Neutrinos (Myon-Neutrinos) in die Blasenkammer geschossen. Neutrinos - praktisch masselose, ungeladene Leptonen, die nur sehr, sehr schwach mit Materie reagieren - bleiben in der Blasenkammer unsichtbar. Die Kollision mit einem der in der Kammerflüssigkeit ubiquitären Elektronen führte zur Übertragung von Impuls und Energie auf dieses Teilchen, aber zu keiner Änderung seiner Ladung. Auf seiner Bahn brachte das Elektron durch Ionisation die Flüssigkeit zum Verdampfen und hinterließ so eine sichtbare Spur; dabei erzeugten vom Elektron ausgehende Photonen auch Elektron-Positron Paare (Abbildung 3, rechts).

Abbildung 3. In der Blasenkammer Gargamelle (links) wurde 1973 erstmals der schwache neutrale Strom nachgewiesen (rechts). Die mit überhitzter Flüssigkeit (Freon) gefüllte Blasenkammer ist in einen Magneten eingebettet, durch welchen geladene Teilchen kurvenförmig abgelenkt werden. Infolge Ionisierung verdampft die Flüssigkeit entlang ihrer Bahn und macht diese durch Bläschen sichtbar. Neutrinos - elektrisch neutrale Leptonen - interagieren nur sehr, sehr schwach mit Materie. Ein typischer neutraler Strom entsteht, wenn ein spezielles Neutrino (das Myon-Neutrino νμ) in die Kammer tritt und auf ein Elektron trifft (rechts: "Collision point").

Vermittler der elektroschwachen Wechselwirkung: Entdeckung der W-und Z-Bosonen

Nun begann die Suche nach den Kraftteilchen, welche die elektroschwachen Kräfte vermitteln. Der direkte Nachweis gelang 1983 in zwei großen Experimenten (UA1, UA2) mit Hilfe des damals größten Beschleunigers, dem sogenannten Super-Proton Collider, in welchem Antiprotonen mit Protonen zur Kollision gebracht werden konnten. Die dabei erzeugten sogenannten W- und Z-Bosonen wurden anhand ihrer Zerfallsprodukte detektiert, die vom Standardmodell vorhergesagt worden waren. Abbildung 4.

Bereits 1984, im Jahr nach dieser Entdeckung, wurden Carlo Rubbia und Simon van der Meer "Für ihre maßgeblichen Beiträge in dem Großprojekt, das zur Entdeckung der W- und Z-Kraftteilchen, den Vermittlern der schwachen Wechselwirkung, führte" mit dem Nobelpreis ausgezeichnet.

Abbildung 4. Die Entdeckung des Z-Bosons im UA1-Experiment. Links: Nachweis des Z-Bosons anhand seines Zerfalls in ein Elektron-Positron-Paar (weiße Bahnen). Rechts: Aufbau des riesigen Underground Area 1 (UA1) Experiments. Darunter: Carlo Rubbia und Claudia-Elisabeth Wulz. Die Autorin hat im Zuge ihrer Diplomarbeit am CERN beim UA1-Experiment mitgearbeitet.

Die Entdeckung des Higgs-Teilchens

Das Standardmodell beschreibt die Materieteilchen und ihre Wechselwirkungen, konnte aber lange nicht erklären, woher die Teilchen ihre Masse bekommen. In den 1960er Jahren wurde von mehreren Physikern - dem Briten Peter Higgs und den Belgiern François Englert und Robert Brout - die Existenz des sogenannten Higgs-Mechanismus vorausgesagt. Dieser Mechanismus führt ein Feld - das Higgsfeld - ein, welches das gesamte Universum durchdringt und in der Wechselwirkung mit Teilchen diese "abbremst" und ihnen so Masse verleiht. Schwingungen (lokale Verdichtungen) dieses Higgsfeldes sollten dann als diskretes Teilchen - Higgs-Teilchen (H) - aufscheinen.

Die Suche nach einem derartigen Teilchen gelang am Large Hadron Collider (LHC), in welchem Protonen mit enorm hohen Energien bis zu 7 Tera-Elektronenvolt zur Kollision gebracht und die dabei entstehenden Partikel mit den Detektoren ATLAS und CMS untersucht wurden. Ein zwiebelschalenartiger Aufbau der Detektoren aus unterschiedlichen Detektionskammern/-schichten ermöglicht die Identifizierung von Teilchen und Bestimmung ihrer Eigenschaften. Da für das postulierte Higgs-Teilchen eine nur extrem kurze Lebendauer vorhergesagt wurde, war es klar, dass man es im Detektor nicht direkt, sondern nur an Hand seiner Zerfallsprodukte - bekannter Teilchen wie Photonen (γ), Z- und W-Bosonen, b-Quarks, Taus (τ), etc. - detektieren würde. Die Untersuchung der Zerfallskanäle erbrachte dann im Juli 2012 die Meldung, dass ein neues Teilchen entdeckt worden war, das die Eigenschaften des vorausgesagten Higgs-Bosons aufwies und relativ leicht war (etwa 125 mal schwerer als das Proton). Abbildung 5.

Abbildung 5. Die Entdeckung des Higgs-Teilchens mit einer Masse von 125 GeV (entsprechend der 125 fachen Masse des Protons).Links ist das CMS Experiment skizziert, in welchem der Zerfallskanal Higgs-Teilchen (H) in 2 Photonen (γγ) untersucht wurde (grüne Bahnen im oberen Bild). Rechts: das ATLAS Experiment, der Zerfallskanal von H in zwei Z-Bosonen, die weiter in 4 Leptonen (oben: grüne Bahnen: Elektronen, rote Bahnen: Myonen) zerfielen. Die Wahrscheinlichkeit, dass andere Teilchen im Detektor (Untergrund) das Higgs-Boson-Signal vortäuschen könnten, lag bei 1 : 600 Millionen.

Wie im Falle der W- und Z-Bosonen wurde auch diese fundamentale Entdeckung bereits im folgenden Jahr mit dem Nobelpreis ausgezeichnet. François Englert und Peter Higgs erhielten den Preis "Für die Entdeckung des theoretischen Mechanismus, der zu unserem Verständnis des Ursprungs der Masse von fundamentalen Bausteine der Materie beiträgt und der jüngst durch die Entdeckung des vorhergesagten Elementarteilchens in den Experimenten ATLAS und CMS am Large Hadron Collider des CERN bestätigt wurde."

Beiträge des österreichischen HEPHY-Teams am CERN

Das Institut für Hochenergiephysik (HEPHY) der Österreichischen Akademie der Wissenschaften war eines der Mitglieder der UA1 Kollaboration (siehe Entdeckung der W- und Z-Bosonen) und hat wichtige Beiträge zum Kalorimeter des Detektors, zum Datenaufzeichnungssystem und zur Datenanalyse geleistet.

HEPHY ist auch eines der Gründungsmitglieder der seit 25 Jahren bestehenden Zusammenarbeit am CMS-Detektor des Large Hadron Collider, wobei es Beiträge zur Konzeption, zur Hardware, Software und zum Betrieb des CMS-Experiments geleistet hat. Insbesondere hat das HEPHY-Team wesentliche Komponenten eines sogenannten Triggersystems entwickelt, das es erlaubt aus den Milliarden Protonenkollisionen diejenigen herauszufiltern, welche die interessantesten Ergebnisse versprechen (wie das funktioniert, erklärt Manfred Jeitler in: Big Data - Kleine Teilchen. Triggersysteme zur Untersuchung von Teilchenkollisionen im LHC).

Wie geht es weiter?

Mit dem Higgs-Teilchen wurde das Standardmodell der Teilchenphysik vervollständigt, welche die uns umgebende Materie ausgezeichnet erklärt. Das ganze Universum lässt sich damit aber nicht beschreiben: Wir kennen nur rund 5 % davon , der Rest ist Dunkle Materie und Dunkle Energie, die unser Universum beschleunigt expandieren lässt. Zur Natur dieses "Rests" wissen wir derzeit keine Antwort - dieser ist ja, ebenso wie die Gravitation, nicht Bestandteil des Standardmodells. Wie kann nun das Standardmodell erweitert werden?

Die Hypothese der Supersymmetrie (SUSY) ist heute ein wichtiger Ansatz, um solche Fragen zu beantworten und auch alle Wechselwirkungen zu einer einzigen übergeordneten Wechselwirkung vereinigen zu können. SUSY sagt dazu eine Art von Duplikation der bekannten Partikel voraus. Diese hätten dann nicht die exakt gleiche Masse und daher auch unterschiedliche Eigenschaften, beispielsweise hätte ein up-Quark dann seine Entsprechung in einem supersymmetrischen up-Quark, ein Gluon in einem sogenannten Gluino. Das Standardmodell wird demnach in eine Art übergeordnetes Modell eingebettet, das in Zukunft unser ganzes Universum beschreiben können soll. Die Suche nach derartigen supersymmetrischen Teilchen am LHC ist im Gange.

Die herausforderndste Rolle des CERN wird wohl darin bestehen, gemeinsam mit experimentellen Astrophysikern und Kosmologen den Weg zu einer Physik der Zukunft zu weisen.


* Eine ausführlichere Darstellung des Themas findet sich in dem Vortrag "Discoveries at CERN", den die Autorin am 18. Oktober 2017 anlässlich des Wilhelm-Exner Symposiums gehalten hat. Video (englisch) 30:48 min. Details zu CERN, Standardmodell, Elementarteilchen, Teilchenbeschleuniger, Detektoren: Artikel unter weiterführende Links


Weiterführende Links

CERN: Europäische Organisation für Kernforschung (Conseil Européen pour la Recherche Nucléaire). Am CERN wird der Aufbau der Materie aus Elementarteichen erforscht und wie diese miteinander wechselwirken - also woraus das Universum besteht und wie es funktioniert.

Auf der Webseite des CERN findet sich u.a. eine Fülle hervorragender Darstellungen der Teilchenphysik (Powerpoint-Präsentationen)

Publikumsseiten des CERN: http://home.cern/about

Large Hadron Collider (LHC) http://home.cern/topics/large-hadron-collider

HEPHY (Institut für Hochenergiephysik der Österreichischen Akademie der Wissenschaften) http://www.hephy.at/  HEPHY liefert signifikante Beiträge zum LHC Experiment CMS am CERN, Genf, sowie zum BELLE Experiment am KEK in Japan und zum CRESST Experiment im Gran Sasso in Italien.

Artikel im ScienceBlog zum CERN und Beiträge aus dem HEPHY

Über Elementarteilchen:

Manfred Jeitler, 07.02.2013: Woraus unsere Welt besteht und was sie zusammenhält — Teil 1: Ein Zoo aus Teilchen

Manfred Jeitler, 21.02.2013: Woraus unsere Welt besteht und was sie zusammenhält — Teil 2: Was ist das Higgs-Teilchen?

Josef Pradler, 17.06.2016: Der Dunklen Materie auf der Spur.

Über die Teilchenbeschleuniger Manfred Jeitler, 23.08.2012: CERN: Ein Beschleunigerzentrum — Wozu beschleunigen?

Manfred Jeitler, 06.09.2013: CERN: Ein Beschleunigerzentrum — Experimente, Ergebnisse und wozu man das braucht.

Über das vom HEPHY entwickelte Triggersystem

Manfred Jeitler, 13.11.2015: Big Data - Kleine Teilchen. Triggersysteme zur Untersuchung von Teilchenkollisionen im LHC

Besuch des ScienceBlog am CERN Inge Schuster, 26.09.2014: Woraus besteht alle Materie? ScienceBlog besuchte das CERN — Tag 1

Inge Schuster, 10.10.2014: Woraus besteht alle Materie? ScienceBlog besuchte das CERN — Tag 2


 

inge Thu, 18.01.2018 - 11:57

Wie real ist das, was wir wahrnehmen? Optische Täuschungen

Wie real ist das, was wir wahrnehmen? Optische Täuschungen

Do, 11.01.2018 - 05:59 — Susanne Donner

Susanne DonnerIcon Gehirn

Optische Täuschungen lassen gerade Striche schief, gleiche Objekte unterschiedlich groß, verschieden gefärbt und von unterschiedlicher Helligkeit und starre Bilder scheinbar bewegt erscheinen. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner gibt einen Einblick in diese faszinierenden Phänomene, die entstehen, weil unser Gehirn - auf Basis seiner Erfahrungen - laufend die in der Netzhaut empfangenen Informationen korrigiert. Die Erklärung optischer Täuschungen gibt somit wertvolle Hinweise, wie das menschliche Sehsystem funktioniert.*

Manchmal ist die Welt nicht, was sie zu sein scheint: Optische Täuschungen hinterlassen bei uns Eindrücke, die mit der Wirklichkeit oft nichts zu tun haben. Ihre Erforschung ist in vollem Gange – und lehrt uns viel über die Art, wie wir sehen.

Einige werden sich an Vollmondabenden schon verwundert die Augen gerieben haben: Wenn der Mond am Horizont aufgeht, wirkt er aufgebläht wie ein Heißluftballon. Dagegen sieht er oben am Firmament klein wie ein Fußball aus. Geht das noch mit rechten Dingen zu? Alles nur ein Trugbild, weiß die Wissenschaft. Für sie sind optische Illusionen wie die Mondtäuschung „ein Fenster in die Welt des Sehens“. So formulierte es der berühmte Wahrnehmungsforscher David Eagleman vom Bayor College of Medicine in Houston. Denn die visuellen Ausrutscher stellen die wissenschaftlichen Theorien über den Sehsinn auf den Prüfstand.

Die Natur trügt selten

Auch wenn der Mond eine Ausnahme bildet: “In Feld, Wald und Wiese funktioniert unser Sehen meistens verblüffend gut”, stellt der Sehforscher Michael Bach von der Universitätsaugenklinik Freiburg klar. Fast alle optischen Täuschungen beruhen auf künstlichen Abbildungen.

Zu den ältesten Täuschbildern überhaupt gehören geometrische Schwarz-Weiß-Gebilde wie das Hermann-Gitter, benannt nach dem Physiologen Ludimar Hermann (1838-1914), der sie im Jahr 1870 als einer der ersten erwähnte: Beim Betrachten eines weißen Gitters auf schwarzem Grund erscheint auf jeder weißen Kreuzung ein verwaschener Fleck, nur nicht in der Mitte des Sehfeldes (Abbildung 1). Da der Kontrast zwischen Schwarz und Weiß nicht richtig erfasst wird, sprechen Forscher von einer Kontrasttäuschung.

Abbildung 1. Das sogenannte Hermanngitter. Wenn man es betrachtet sieht man an den Kreuzungspunkten verschwommene schwarze Flecken. Die Ursache der Täuschung ist noch nicht genau bekannt, bislang gültige Theorien wurden vor kurzem wiederlegt. Grafik: Dana Zymalkovski.

Von der Katze zum Fleck

Nach Hermanns Erfindung verstrich fast ein Jahrhundert, bis Wissenschaftler eine erste überzeugende Theorie zur Erklärung des Phänomens vorlegen konnten. Der Neurophysiologe Günther Baumgartner (1924 bis 1991) setzte Katzen Mikroelektroden in den Sehnerv und zeichnete die elektrischen Ströme auf. Er erkannte: Die Informationen von mehreren Lichtsinneszellen auf der Netzhaut laufen in nur einer Ganglienzelle zusammen, die sie verrechnet und das Ergebnis über den Sehnerv weitergibt. Die Fülle der Signale der Fotorezeptoren ist somit schon im Sehnerv verdichtet. Der kreisrunde Einzugsbereich einer Ganglienzelle auf der Netzhaut ging als “rezeptives Feld” in die Lehrbücher ein.

In der Netzhaut gibt es nun zwei Typen von Ganglienzellen:

  • ON-Zentrum-Ganglienzellen reagieren besonders stark, wenn der innere Bereich im rezeptiven Feld stimuliert wird, der äußere jedoch nicht.
  • Bei OFF-Zentrum-Ganglienzellen ist es umgekehrt. Dass Signale von den Rändern des rezeptiven Feldes die Information in der Mitte beeinflussen können, wird als laterale Hemmung bezeichnet.

Mit diesem Wissen, so schien es, konnte Baumgartner die Hermann-Gitter-Täuschung erklären: Erfasse eine ON-Zentrum-Ganglienzelle eine weiße Kreuzung, werde sie stärker gereizt als an anderen Stellen des Gitters. Dies führe zu einer unterschiedlichen Verrechnung der Seheindrücke und so zu den verwaschenen Flecken. Sogar für das Fehlen derselben in der Blickmitte hatte er eine Erklärung: In der Mitte der Netzhaut werden weniger Fotorezeptoren-Impulse in einer Ganglienzelle gebündelt. Das rezeptive Feld im Zentrum unseres Blicks sei darum so klein, dass es die schwarzen Quadrate nicht berühre.

Rätselhaftes Gitter

Vier Jahrzehnte wurde Baumgartners Erklärung in die Lehrbücher gedruckt. Doch 2004 bereitete der Ungar János Geier dem ein jähes Ende – und verblüffte so die Forscherwelt. Er wandelte das Hermann-Gitter leicht ab, indem er die weißen Linien sinusförmig verzerrte (Abbildung 2).

Abbildung 2. Variation des Hermanngitters. Die Illusion tritt hier nicht auf, was die bis dahin akzeptierten Erklärungssätze in Frage stellte. copyright: Michael Bach.

Prompt verschwanden die Flecken; und das, obwohl die rezeptiven Felder noch immer dieselbe Schwarzinformation erhalten und somit Baumgartner zufolge eine Täuschung hervorrufen müssten. „Ich fand schon immer, dass das Baumgartner-Modell zu kurz greift“, quittiert Sehforscher Bach. „Ich habe meinen schwarzen Schlüsselbund hier vor mir liegen und müsste doch Flecken an der Kante sehen, wenn es richtig wäre. Ich sehe ihn aber gestochen scharf. Das Gehirn ist also in der Lage, die laterale Hemmung herauszurechnen, bloß beim Hermann-Gitter nicht.“ Nur, warum? Die Frage ist bis heute ungeklärt.

Bach hält die verwaschenen Flecken im Hermann-Gitte für einen Nebeneffekt der Helligkeitskonstanz. Helligkeitskonstanz ist die Fähigkeit, die hellsten Bereiche im Sehfeld auszumachen. “Dafür muss unser Sehsystem nicht absolut messen, wie hell das Gesehene ist, sondern die verschiedenen Helligkeiten abgleichen”, erklärt Bach. Dass diese Gabe als Nebenwirkung die Hermann-Gitter-Illusion produzieren könne, haben die Forscher David Corney, heute an der City University of London, und Beau Lotto, heute Direktor des „Lab of Misfits“ am University College in London 2007 auf eindrucksvolle Weise vorgeführt: Sie brachten einem künstlichen neuronalen Netz Helligkeitskonstanz bei. Das selbstlernende Computerprogramm erkannte in einer Darstellung mit buntem Laub zuverlässig die hellsten Stellen. Dasselbe Programm generierte aus einem Hermann-Gitter jedoch auch exakt das Täuschungsbild mit verwaschenen grauen Punkten an den Kreuzungen.

Gleich groß oder nicht?

Die immer neuen Versuche, die Hermann-Gitter-Täuschung zu erklären, sind kein Einzelfall. Ähnlich lebhaft ist die Kontroverse bei anderen Täuschungsphänomenen, etwa bei der Ebbinghaus-Täuschung (Abbildung 3). Sie zeigt zwei gleich große Kreise, wovon einer von kleineren Kreisen umringt ist, der andere von größeren. Letzterer erscheint dadurch deutlich kleiner als sein Zwilling.

Abbildung 3. Die Kreis- oder Ebbinghaus-Illusion suggeriert unterschiedliche Größen. Grafik: dasGehirn.info.

In den achtziger Jahren postulierten die amerikanischen Neurophysiologen Margret Livingstone und David Hubel, dass die Ebbinghaus-Täuschung wie auch andere Gestalttäuschungen vom starken Helligkeitsunterschied zwischen Schwarz (Kreis) und Weiß (Umgebung und Füllung) herrührt. Diese These knöpfte sich der Neuropsychologe Kai Hamburger von der Universität Giessen 2007 vor und präsentierte zwanzig Studenten farbige Illusionen. Die führten diese jedoch genauso in die Irre wie die Schwarz-Weiß-Zeichnungen. “Die Annahme von Livingstone und Hubel ist nicht haltbar”, so Hamburgers Fazit.

Ich sehe was, was du nicht siehst

Hinweise für einen neuen Erklärungsansatz kommen nun aus unerwarteter Richtung – aus der Kulturpsychologie: So fanden Forscher 2007 heraus, dass die indigene Bevölkerung der Himba, die im Norden Namibias und im Süden Angolas zu Hause ist, die Ebbinghaus-Täuschung wesentlich schwächer erlebt als Europäer. Die Himba haben in ihrer Sprache kein Wort für Kreis. Runde Objekte spielen in ihrem Alltag kaum eine Rolle. Visuelle Erfahrungen scheinen also optische Täuschungen zu beeinflussen. Was wir im Leben schon sahen, bestimmt, was wir sehen.

Dabei kommt es offensichtlich auch auf die Dauer unserer Erfahrungen an: Kinder unter sieben Jahren nämlich erkennen die Größe der Ebbinghausschen Kreise fast richtig. Sie lassen sich weniger täuschen als Erwachsene. “Der Irrtum in der Wahrnehmung ist eine Folge der späten Gehirnentwicklung”, kommentiert der Psychologe Martin Doherty, heute an der University of East Anglia. 2010 entdeckte er erstmals das Sehtalent der Kinder. Mit zunehmender Reifung des Gehirns beziehen Europäer offenbar immer stärker den Bildkontext, also die umliegenden Kreise, ein und verschmelzen das zu einem “synthetischen Bild”. Erwachsene sehen deshalb die Kreise unweigerlich immer im Verhältnis zueinander. Kinder betrachten sie nahezu isoliert.

Das Bild kommt aus dem Kopf

Wie stark der Bildkontext die Wahrnehmung beeinflusst, machen neuere Publikationen zur Ebbinghaus-Täuschung eindrucksvoll deutlich. Der Verhaltensneurobiologe Farshad Nemati zeigte 2009 an der kanadischen University of Lethbridge, dass die Täuschung umso drastischer ausfällt, je größer der Weißraum um die Ebbinghausschen Kreise ist. Wenn die Kreise mit Bildern gefüllt sind, verändert das abermals das Trugbild, fand der niederländische Psychologe Niek van Ulzen heraus, der gegenwärtig an der Universität Verona forscht. Wenn der innere Kreis ein negatives Motiv, etwa eine Waffe, eine Toilette oder eine Spinne, enthält und die äußeren Kreise etwas Erfreuliches, etwa einen Hasen oder eine Sonnenblume, zeigen, dann fällt die Täuschung schwächer aus. Ulzen erklärt: “Negative Reize verlangen besonders viel Aufmerksamkeit. Die Informationen ringsum werden stärker ausgeblendet. Im Nebeneffekt wird die Größe des Kreises dadurch korrekter eingeschätzt.”

Der irreführende Kontext täuscht uns auch über die tatsächliche Größe des Mondes hinweg: Nahe am Horizont erscheint er groß wie ein Heißluftballon, weil das Gehirn das Gestirn unwillkürlich mit Bäumen und Bergen in Relation setzt. Im Zenit ist der Mond klein und einsam, in ein Meer aus Sternen eingebettet.

Fazit

  • Optische Täuschungen eigenen sich perfekt, um die Theorien über das Sehen zu prüfen. Stimmt die Theorie, muss sie das Zerrbild exakt erklären können.
  • Viele der bisherigen Vorstellungen über das menschliche Sehsystem hielten den weit über einhundert verschiedenen Täuschbildern nicht Stand.
  • Besonders schwierig erwies sich die Erklärung des Hermann-Gitters. Eine lange geltende Theorie wurde 2004 widerlegt, seitdem gibt es mehrere Erklärungsansätze, die noch nicht final erhärtet wurden.
  • Die Ebbinghaus-Illusion zeigt: Im Gehirn werden verschiedene Bildobjekte miteinander in Beziehung gesetzt. Aus einem Größenvergleich wird auf die tatsächliche Größe geschlossen.
  • Eine wesentliche Rolle spielt das Sehgedächtnis: Was man im bisherigen Leben zu Gesicht bekommen hat, beeinflusst die Wahrnehmung der Wirklichkeit maßgeblich.

Zum Weiterlesen:

  • Michael Bach: Visual Phenomena & Optical Illusions - 132 of them; http://www.michaelbach.de/ot/  Sammlung optischer Täuschungen und visueller Phänomene, die kleine Experimente erlaubt und Erklärungen gibt, soweit von der aktuellen Sehforschung verstanden
  • Best Illusion of the Year Contest; http://​illu​sionoftheyear​.com/ [Stand: 2018]

*Der Artikel ist der Webseite www.dasgehirn.info entnommen: Er ist dort unter dem Titel "Wenn der Eindruck täuscht" in einer aktualisierten Form am 12.12.2017 erschienen und steht unter einer cc-by-nc-Lizenz. https://www.dasgehirn.info/wahrnehmen/truegerische-wahrnehmung/wenn-der-eindruck-taeuscht. (Literaturangaben, die nur als Abstract frei eingesehen werden können, wurden im ScienceBlog nicht übernommen.) www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM/Zentrum für Kunst und Medien, Karlsruhe.


Weiterführende Links

  • Einführung Sehen. Video 1:32 min. cc-by-nc-Lizenz. https://www.dasgehirn.info/wahrnehmen/sehen/video-einfuehrung-sehen Der Sehsinn ist für die meisten Menschen das wichtigste Sinnessystem und liefert das Gros der Informationen über die Welt. Doch Sehen ist ein hochkomplexes Geschehen mit vielen Facetten, die unterschiedliche Anforderung an Auge und Gehirn stellen.
  • Formen Sehen. Video 1:19 min. cc-by-nc-Lizenz. https://www.dasgehirn.info/wahrnehmen/sehen/video-formen-sehen. Im primären visuellen Cortex sind 200 Millionen Nervenzellen damit beschäftigt, Ordnung in das Chaos der eingehenden Signale zu bringen. Eine wichtige Rolle dabei spielen Ecken und Kanten. Und Zellen, die auf ganz bestimmte Winkel reagieren.
  • Prof. Michael Bach: Sehphänomene im Netz| SWR1 Leute (am 25.12.2015 veröffentlicht). Video 25:08 min, Standard-YouTube-Lizenz. https://www.youtube.com/watch?v=w9ssHJn7Q7Y Bach ist Physiker, Hirnforscher und ein international anerkannter Seh- und Augenforscher. Seit zehn Jahren betreibt er eine stark frequentierte Internetseite, auf der er optische Täuschungen sammelt, aufbereitet und erklärt.
  • M.Bach & CM Poloschek (2006). Optical Illusions. ACNR 6 (2), 20-21. http://www.acnr.co.uk/pdfs/volume6issue2/v6i2visual.pdf

 

inge Thu, 11.01.2018 - 05:59

Charles Darwin - gestern und heute

Charles Darwin - gestern und heute

Do, 04.01.2018 - 07:58 — Peter Schuster Peter SchusterIcon Biologie

Von der Vermehrung von Populationen in einer Welt mit endlichen Ressourcen zu Darwins Prinzip der natürlichen Auslese und über die Vereinigung dieses Selektionsprinzips mit der Mendelschen Genetik zu einer biologischen Evolutionstheorie spannt sich ein weiter Bogen bis hin zu den heutigen Vorstellungen über die Mechanismen, die den Evolutionsprozessen zugrundeliegen. Der theoretische Chemiker Peter Schuster beschäftigt sich seit mehr als vierzig Jahren mit fundamentalen Fragen zu diesen Mechanismen und hat wesentlich zum Modell des "Hyperzyklus" und der "Quasispezies" beigetragen.*

Vermehrung in einer endlichen Welt

Spätestens seit Fibonaccis Hasenmodell (um ca. 1227) ist allen Naturalisten, Ökonomen und Philosophen geläufig, dass bei unbegrenzten Nahrungsvorräten die Populationsgrößen von Tieren von Generation zu Generation wie geometrische Reihen zunehmen (Abbildung 1). Der englische Nationalökonom Thomas Robert Malthus hat im Jahre 1798 diese Überlegungen auf die menschliche Population und die ökonomischen Konsequenzen unbeschränkten Bevölkerungswachstums angewendet. Gemäß einer geometrischen Reihe (einem ihr entsprechenden exponentiellen Wachstum), konsumiert eine derart wachsende Population alle Ressourcen eines endlichen Ökosystems bis Hungerkatastrophen drohen. Es gibt auch andere Auswirkungen einer Überbevölkerung - ein aktuelles Beispiel ist der anthropogene Anteil am Klimawandel.

Die von Malthus angesprochenen, durch Verknappung von Ressourcen entstehenden Probleme haben Wissenschaftler - darunter Charles Darwin und der belgische Mathematiker Pierre-François Verhulst - entscheidend beeinflusst. Verhulst kam auf die Idee, in die Gleichung für exponentielles Wachstum eine Beschränkung in Form einer endlichen Tragfähigkeit (C: Capacity) des Ökosystems einzuführen (Abbildung 1).

Abbildung 1. Vermehrung in einer Welt mit endlichen Ressourcen. (N = Zahl der Individuen, die im betrachteten Ökosystem leben.)

Darwin und das Selektionsprinzip

Vom logistischen Wachstum zu einer Selektion, die zur natürlichen Auslese führt, ist nur ein kleiner Schritt: wie bei Verhulst besteht die Population zwar aus einer einzigen Spezies, aber diese ist nicht homogen, sondern in Subspezies/Varianten aufgespalten, die sich in ihren Fitnesswerten (s.u.) unterscheiden. Davon bleibt die Kapazität eines Ökosystems unberührt- d.i. alle Subspezies zusammen können im Maximum nicht mehr Individuen umfassen als eine einzige. Aber es kommt zur Konkurrenz zwischen den einzelnen Subspezies und jene Subspezies mit im Mittel den meisten Nachkommen wird schließlich als Einzige überbleiben - die natürliche Auslese (Englisch: „Natural selection“ oder "Survival of the fittest"). Fitness bezieht sich hier ausschließlich auf die Zahl der fruchtbaren Nachkommen in den Folgegenerationen und hat nichts mit allgemeinem Erfolg im Leben, körperlicher Tüchtigkeit oder Durchsetzungsvermögen zu tun. Während des Selektionsprozesses nimmt die mittlere Fitness der Population laufend zu, präzise ausgedrückt niemals ab, wie durch elementare Mathematik bewiesen werden kann.

Einem mathematischen Modell wäre Darwin (1809 - 1882) sicher skeptisch bis ablehnend gegenübergestanden.

Was war aber dann seine geniale Leistung?

Versetzen wir uns dazu in die Welt eines Naturalisten des 19. Jahrhunderts, der für seine Beobachtungen bloß seine Augen und das Lichtmikroskop zur Verfügung hatte. Was dieser sah, war ein unwahrscheinlicher Reichtum an verschiedenen Formen und Funktionen der Lebewesen - Mikroben, Pilze, Pflanzen und Tiere. Für Darwin war seine Weltreise auf der HMS Beagle entscheidend, die ihn unter anderem zu den Galapagosinseln führte, wo er „Evolution in action“ beobachten konnte. Auch Alfred Russel Wallace, ein Zeitgenosse Darwins, muss hier erwähnt werden, der - basierend auf beobachteten Anpassungen von Tierarten im Amazonasgebiet und im Malaiischen Archipel und völlig unabhängig von Darwin - eine äquivalente Theorie der natürlichen Auslese entwickelt hat. Darwin und Wallace sammelten In akribischer Art und Weise Material über nahe verwandte biologische Arten und kamen zu dem Schluss, dass diese ihr heutiges Aussehen durch denselben, auf drei Säulen beruhenden Mechanismus erhalten hatten, durch:

  1. Vermehrung und Vererbung – die Kinder ähneln ihren Eltern,
  2. Variation – die Kinder sehen nicht genauso wie ihre Eltern aus – und
  3. Beschränktheit aller Ressourcen.

Die Bedingungen (i) und (iii) führen zwanglos zum Prinzip der natürlichen Auslese. Über Vererbung, die Mechanismen der Variation von Erscheinungsbild und Eigenschaften von Organismen, existierten damals aber nur hochspekulative Vorstellungen.

Für eine natürliche Auslese- im Sinne einer Optimierung der mittleren Fitness einer Population - müssen einige Voraussetzungen erfüllt sein. Im Allgemeinen dauert der Selektionsprozess in kleinen Populationen weniger lang, weshalb diese von Vorteil sind. Andrerseits benötigt man auch hinreichend große Subpopulationen: Ist die Subpopulation, zu der die Variante mit größter Fitness gehört, sehr klein, spielen mehr oder minder zufällige Prozesse oder unkontrollierte Schwankungen eine wichtige Rolle. Allerdings ist es für den Evolutionsprozess als Ganzes bedeutungslos, ob sich die beste, die zweitbeste oder die drittbeste, etc., Variante durchsetzt, solange echte Verbesserungen eintreten.

Mendel und die Variation durch Vererbung

Ein Grundpfeiler der Evolution wurde bisher noch nicht behandelt: Variation durch Vererbung. Darwins Vorstellungen von Vererbung waren schlichtweg falsch; entweder kannte er Gregor Mendels Arbeiten nicht oder hielt sie irrelevant für die Vorstellungen der biologischen Evolution.

Mendel (1822 - 1884) konnte durch die Interpretation sorgfältiger Versuche und die Anwendung von Mathematik, insbesondere von Statistik, seine Regeln für die Vererbung herleiten (Abbildung 2). Vererbung erfolgt in einzelnen Merkmalen und für jedes dieser Merkmale besitzt jedes Individuum zwei Träger. Sind die Träger gleich, spricht man von Reinerbigkeit andernfalls ist das Individuum mischerbig:

  1. Uniformitätsregel: In der ersten Generation (F1) sind alle Nachkommen von zwei verschieden, reinerbigen Elternteilen (P) gleich und mischerbig.
  2. Segregationsregel: Werden zwei Individuen der ersten Generation miteinander gekreuzt, so treten in der zweiten Generation (F2) alle Kombinationen auf und zwar je ein Enkel mit den beiden reinerbigen Formen (P) sowie die beiden mischerbigen Formen (F1)
  3. Unabhängigkeitsregel: Zwei oder mehrere Merkmale werden unabhängig voneinander vererbt.

Wie sich bald herausstellte, hat die Regel (iii) nur eingeschränkte Gültigkeit und ist nur dann erfüllt, wenn die Träger auf dem Genom sehr weit voneinander entfernt situiert sind.

Abbildung 2. Rekombination und Mendels Vererbungsgesetze. Bei der Bildung von Ei- und Samenzellen durch Reduktionsteilung (Meiose) wird das diploide Erbgut, in welchem jedes Gen in zwei Exemplaren enthalten ist, in je zwei haploide Genome aufgeteilt, wobei die Auswahl, welche der beiden Genkopien der Mutter oder des Vaters in die das Genom der haploide Zelle aufgenommen wird, zufällig erfolgt. Bei der Befruchtung der Eizelle durch eine Samenzelle werden die beiden haploiden Genome zu einem diploiden Genom zusammengeführt.

Mendel hat viele Tausende von Einzelbefruchtungen durchgeführt, um seine Regeln abzuleiten - alle zahlenmäßigen Aussagen gelten im Mittel großer Zahlen, haben daher mit statistischer Analyse zu tun, die für die Naturwissenschaft in der Mitte des 19. Jahrhunderts durchaus noch ungewöhnlich war.

Obwohl die Menschen seit dem Beginn ihrer Sesshaftigkeit in der Jungsteinzeit – etwa vor 12000 Jahren – begannen, Tiere und Pflanzen für ihre Zwecke zu verändern, gibt es systematische Verfahren erst seit der zweiten Hälfte des 19. Jahrhunderts. Ohne die Kenntnis genetischer Aspekte wurden Tiere nur nach äußeren Merkmalen für die Paarung ausgewählt und die Erzeugung verbesserter oder neuer Pflanzensorten erfolgte durch künstliche Selektion gewünschter Formen und blinde Kreuzung mit anderen Sorten. Erst an der Schwelle zum 20. Jahrhundert wurde die Tragweite von Mendels Arbeiten als Grundlage der Vererbung erkannt.

Der dänische Botaniker Wilhelm Johannsen prägte 1909 den Begriff des Gens, in welchem er allerdings eine abstrakte Vererbungseinheit ohne jegliche physische Realität sah. In der Folge entstand die Genetik als ein eigener Wissenschaftszweig der Biologie und ihre Anwendung stellte die Pflanzen- und Tierzüchtung auf eine wissenschaftliche Basis. Das abstrakte Bild wurde durch die Molekularbiologie korrigiert als es gelang den Träger der genetischen Merkmale in Form eines Desoxyribonukleinsäuremoleküls (DNA) mit einer wohl definierten physikalischen Struktur zu identifizieren.

Die synthetische Evolutionstheorie

Evolutionstheorie und Genetik standen lange Zeit im Clinch und es waren die Populationsgenetiker, Ronald Fisher, J.B.S. Haldane und Sewall Wright, denen um etwa 1930 die Synthese von Mendelscher Genetik und Darwinscher natürlicher Selektion in Form einer mathematischen Theorie gelang. In der Biologie beendete die sogenannte synthetische Evolutionstheorie erst mehr als zehn Jahre später den Streit. Berühmte Vertreter waren Theodosius Dobzhansky und Ernst Mayr.

Trotz unleugbarer Erfolge dieser synthetischen Theorie blieben grundlegende Probleme offen. Vor allem fehlte ein zufriedenstellender Mechanismus für die Entstehung echter Neuerungen durch den Evolutionsprozess. Rekombination (Abbildung 2) kann zwar eine gewaltige Vielzahl von Varianten bestehender Organismen erzeugen aber keine echten Innovationen. Auch evolvieren Organismen, die sich asexuell - ohne obligate Rekombination - vermehren, ebenso perfekt wie sexuell reproduzierende höhere Lebewesen. Die Mutation – in der ersten Hälfte des 20. Jahrhunderts noch vollkommen unverstanden hinsichtlich des Mechanismus ihrer Entstehung – konnte zwar für kleine Innovationsschritte und eine Optimierung von Eigenschaften verantwortlich gemacht werden, die Artenbildung erschien den Biologen aber stets als großer Sprung in den Eigenschaften der Organismen. Die meisten Evolutionsbiologen lehnten große Sprünge ab, da sie an die kreationistisch geprägten "Saltationstheorien" des 19. Jahrhunderts vor Darwin erinnerten.

Die Diskussion über die Geschwindigkeit der Evolution – langsam und graduell in kleinen Schritten oder sprunghaft, plötzlich und in großen Schritten – ging weiter. Geblieben von dieser Debatte ist die Einsicht, dass Evolution auf der makroskopischen und direkt beobachtbaren Ebene mit sehr unterschiedlichen Geschwindigkeiten stattfinden kann. In Evolutionsexperimenten mit Bakterien konnten solche Ungleichmäßigkeiten in den Prozessgeschwindigkeiten unmittelbar beobachtet werden. Computersimulationen der Evolution von RNA-Molekülen zeigten ebensolche Sprünge, die in diesem besonders einfachen Fall auch molekular interpretiert werden konnten.

Die Brücke von der Chemie zur Biologie

Bereits im 19. Jahrhundert begannen Chemiker biologische Prozesse mit physikalisch-chemischen Methoden zu studieren; Chemie und Biologie begannen als Biochemie miteinander zu verschmelzen. Anfangs galt das Interesse der Biochemiker den „Fermenten“ (Enzymen), hochspezifischen und überaus effizienten biologischen Katalysatoren, Proteinmolekülen, deren Wirkungsweise wir heute auf der Ebene ihrer molekularen Strukturen verstehen.

Als Meilenstein im Verstehen der evolutionsbiologischen Prozesse wird zurecht der auf Röntgenstrukturanalyse aufbauende Vorschlag einer molekularen Struktur für das DNA-Molekül (in der B-Konformation) durch James D. Watson und Francis H.C. Crick angesehen. Die doppelhelikale Struktur mit den nach innen gerichteten Nukleotiden, die sich eindeutig zu komplementären Basenpaaren zusammenfinden (Abbildung 3), klärte mehrere offene Fragen der Evolutionsbiologie mit einem Schlag:

  1. DNA-Moleküle sind Kettenpolymere wie auch viele andere Polymere, beispielsweise die Proteine. Das besondere an der DNA-Struktur ist eine Geometrie, die es gestattet die Reihenfolge der Substituenten an der Kette {A,T,G,C} abzulesen, wodurch das Molekül zur Kodierung von Nachrichten in der Art eines Informationsträgers geeignet ist.
  2. Die Paarungslogik, A=T und G≡C, verbindet jede lineare Folge von Buchstaben mit einer eindeutig definierten Komplementärsequenz; und man kann daher von einer geeigneten Struktur zur Kodierung von im Nukleotidalphabet {A,T,G,C} digitalisierten Nachrichten sprechen.
  3. Das DNA-Molekül besteht aus zwei Strängen; jeder für sich enthält die volle Information für das zweisträngige Gesamtmolekül und kann unzweideutig zu einem kompletten DNA-Molekül ergänzt werden. Dieser Sachverhalt suggeriert unmittelbar einen Kopiermechanismus (wie dies Watson und Crick in ihrer berühmten Publikation in Nature auch erkannten)
  4. Die DNA-Doppelhelix lässt ebenso unmittelbar eine möglichen Mechanismus für Mutationen erkennen, der in dem Fehleinbau eines einzigen Nukleotids besteht und der sich später auch tatsächlich in Form der Punktmutation als einfachste Veränderung der Nukleotidsequenz herausgestellt hat.

 

Abbildung 3. Struktur der Desoxyribonukleinsäure (DNA) und Kopieren von Molekülen. Die DNA ist ein unverzweigtes Kettenmolekül, an das vier verschiedene Nukleotidbasen A, T, G und C, angehängt sind. Die DNA-Doppelhelix (zweites Bild von oben) besteht aus zwei in verschiedene Richtungen laufenden Einzelsträngen mit den Seitenketten im Inneren der Helix. Die beiden Stränge sind über ihre Seitenketten durch spezifische zwischenmolekulare Bindungen aneinander geknüpft, wobei nur zwei komplementäre Paarungen, A=T und G≡C, auftreten. Die Komplementarität der Nukleotidbasenpaare gestattet es, einen Einzelstrang eindeutig zu einem Doppelstrang zu ergänzen; damit ist ein Weg zur Vervielfältigung von DNA-Molekülen vorgezeichnet (zweites Bild von unten). Mutationen kommen beispielsweise durch den zeitweise vorkommenden Fehleinbau von Nukleotidbasen zustande (unterstes Bild).

Weitere grundlegende Entdeckungen betrafen die Biochemie der Übersetzung der genetischen Information von Nukleinsäuren in Proteine, die vorerst als die einzigen wesentlichen Funktionsträger in den Zellen angesehen wurden. Gene waren nun keine abstrakten Einheiten mehr sondern konnten mit Sequenzabschnitten auf der DNA identifiziert werden. Die Entwicklung effizienter und preisgünstiger Verfahren der DNA-Sequenzanalyse ermöglicht es, vollständige DNA-Sequenzen einzelner Gene und ganzer Organismen zu bestimmen und zu vergleichen und eröffnet ungeahnte Möglichkeiten von der Biologie und Medizin bis zur Forensik.

Für die Evolutionstheorie besonders bedeutsam war die (an Hand von Aminosäuresequenzen in Proteinen) erfolgte Entdeckung der neutralen Evolution durch den Japaner Motoo Kimura. Mit Hilfe eines theoretischen Modells sowie Sequenz- und Funktionsvergleichen von Proteinen konnte er zeigen, dass Selektion auch in Abwesenheit von Fitnessdifferenzen eintritt. Selektion ist dann das Ergebnis eines stochastischen Prozesses: Welche Variante selektiert wird, kann nicht vorhergesagt werden und wir haben es dann nicht mit „Survival of the fittest“, den es ja nicht gibt, sondern mit der Tautologie „Survival of the survivor“ zu tun.

Evolutionsexperimente

Wie natürliche Auslese erfolgt, kann durch einfache Experimente mit RNA-Viren oder RNA-Molekülen untersucht werden. Die ersten einfach interpretierbaren Studien gehen auf den US-amerikanischen Biochemiker Sol Spiegelman zurück. Gleichzeitig entwickelte Manfred Eigen eine molekulare Theorie der Kinetik von Evolutionsvorgängen - zwei Ergebnisse hatten weitreichenden Einfluss auf das Verstehen der Evolution:

  1. Stationäre Populationen bestehen - insbesondere bei hinreichend hohen Mutationsraten - nicht nur aus einem einzigen Genotyp sondern aus einer Familie von nahe verwandten Genotypen, die Quasispezies genannt werden und aus der selektierten Sequenz sowie ihren häufigsten Mutanten bestehen, und
  2. In den meisten Fällen gibt es eine Fehlerschranke, welche darin zum Ausdruck kommt, dass Systeme mit Mutationsraten über einem kritischen Wert keine stabilen Zustände ausbilden können, sondern in der Art eines Diffusionsprozesses durch den Sequenzraum wandern. Die Fehlerschranke liegt etwa beim reziproken Wert der Genomlänge und dies ergibt bei Viren eine Fehlerrate von 1:10 000 und beim menschlichen Genom einen Wert von 1: 3 Milliarden.

Quasispezies bilden sich u.a auch bei Virus-Infektionen aus; die so entstehenden Viruspopulationen sind spezifisch für das Virus und für den infizierten Wirt. Dementsprechend wurde die Quasispeziestheorie auch zur Entwicklung von neuen Strategien gegen Virusinfektionen eingesetzt. Der Grundgedanke ist, durch eine Erhöhung der Mutationsrate mittels Gaben geeigneter Pharmaka die Viruspopulation zum Aussterben zu bringen und dies entweder durch Erhöhen des Anteils an letalen Varianten oder durch Überschreiten der Fehlerschranke.

Selektion in vitro wird heute auch zur „Züchtung“ von Molekülen mit vorgegebenen Eigenschaften angewandt: erfolgreiche Beispiele sind Proteine und RNA- oder DNA Moleküle.

Molekulare Genetik des 21. Jahrhunderts

Fast bis zum Beginn des 21. Jahrhunderts wurde das molekularbiologische Wissen um die Genetik von der Viren- und Bakteriengenetik bestimmt. Dass diese für höhere Organismen nicht zutrifft, diese keine "Riesenbakterien" sind, wird inzwischen klar gezeigt: es gibt grundlegende Unterschiede in den Regulationsmechanismen der Genexpression, und die RNA spielt darin eine fundamentale Rolle. Nach Meinung des Australischen Biologen John Mattick eignen sich die gut erforschten bakteriellen Mechanismen der Genregulation eben nur für kleine Gennetzwerke von bis zu einigen Tausend Genen - d.i. etwa die Länge der Bakteriengenome. Noch ungeklärt ist, ob der Großteil der nicht-translatierten DNA auch funktionslos - "junk-DNA" -ist, oder ob alle Genomabschnitte für die Regulation der komplexen Funktionen des Vielzellerorganismus gebraucht werden.

Was ist Epigenetik?

Genauere Untersuchungen zur Vererbung von Genexpression und Genregulation in einer Vielzahl von Organismen haben große Unterschiede aufgezeigt. Viele der schwer oder gar nicht erklärbaren Phänomene, die früher als Epigenetik abgetan wurden, beginnen wir nun auf der molekularen Ebene zu verstehen. Genaktivitäten sind abhängig von „Markern“ die, ohne die DNA-Sequenzen zu verändern, angebracht und abgenommen werden können. Solche Marker können von mehr oder weniger weit zurückliegenden Vorfahren und auch durch Umwelteinflüsse angebracht worden sein, haben typischerweise eine Lebensdauer von einigen Generationen und gehen dann wieder verloren. Eine andere, häufige Form des Abschaltens von Genen bedient sich teilweise sequenzgleicher RNA-Moleküle. Eine dem heutigen Wissensstand entsprechende Definition von Epigenetik wäre: „Die Erforschung von Phänomenen und Mechanismen, die erbliche Veränderungen an den Chromosomen hervorrufen und die Aktivität von Genen beeinflussen, ohne die Sequenz der DNA zu verändern.“

Sicherlich haben die künftigen Forschungen auf dem Gebiet der Molekulargenetik noch viele Überraschungen für uns bereit.

Was von Darwin 158 Jahre nach der „Origin of Species“ geblieben ist

Darwin hat mit seinem „Baum des Lebens“, der als einzige Zeichnung in der „Origin of Species“ vorkommt, als erster klar zum Ausdruck gebracht, dass alle heutigen irdischen Lebewesen von einem einzigen Urahn, einer Urzelle abstammen. Diese Vorstellung Darwins hat die Grundlage für die Erstellung von Stammbäumen (Phylogenie) - auf der Basis von DNA-Sequenzvergleichen - gelegt, ohne die eine moderne Evolutionsbiologie nicht mehr auskommen könnte.

Hinsichtlich der Bedeutung Darwins für die heutige Evolutionsdynamik, können wir uns auf das Selektionsprinzip - die natürliche Auslese - und seine universelle Gültigkeit beschränken: die Fitness zählt ja nur Individuen und ist daher unabhängig vom komplexen inneren Aufbau der Organismen. Hinsichtlich der Vorstellungen von Variation und Vererbung hatte Darwin kein derzeit vertretbares Modell vor Augen.

Die Komplexität der Lebewesen nimmt während der biologischen Evolution nicht graduell, sondern sprunghaft in großen Übergängen, den „Major transitions“ zu. Zurzeit sind diese nur soweit verstanden sind, als man plausibel machen kann, dass neben dem Darwinschen Prinzip auch andere Mechanismen wirksam sind. Dabei finden sich kleinere Einheiten zu regulierten größeren Verbänden zusammen, und vormals selbständige Elemente verlieren zumindest teilweise ihre Unabhängigkeit. Beispiele sind Übergänge von:

  1. RNA-Welt zu DNA & Protein-Welt,
  2. Gen zum Genom,
  3. Einzeller zum Vielzeller,
  4. solitären Tieren zu Tiergesellschaften,
  5. Primatengesellschaften zu menschlichen Kulturen.

Zusätzlich zur Evolution durch Variation und Selektion kommt Kooperation zwischen Konkurrenten als neues Prinzip zum Tragen. Ein einfaches dynamisches Modell, der sogenannte „Hyperzyklus“ wurde vor vierzig Jahren entwickelt, um eine „Major Transition“, den Übergang von einer RNA-Welt zu einer DNA&Protein-Welt, plausibel machen zu können. Die einzelnen Elemente eines Hyperzyklus haben jeweils zwei Funktionen: sie sind i) als Vorlagen zu ihrer eigenen Kopierung aktiv und ii) in der Lage diese Kopierprozesse zu katalysieren. Für eine stabile Organisationsform werden die genetischen Informationsträger – in der Regel RNA-Moleküle – zu einer ringförmigen Funktionskette, dem Hyperzyklus, zusammengeschlossen.

In der makroskopischen Biologie treten solche multifunktionellen Systeme vor allem in Form der verschiedenartigen Symbiosen auf. Systematische Untersuchungen mit RNA-Molekülen haben gezeigt, dass es oft einfacher ist an Stelle von einfachen Zyklen kooperative Netzwerke zu bilden.

Um die in der Natur beobachteten Phänomene beschreiben zu können, muss Darwins Evolutionsmodell von Variation und Selektion durch die Einbeziehung von Kooperation zwischen Konkurrenten erweitert werden, und dies ist zumindest auf der Ebene der Theorie ohne große Probleme möglich.

Schlussbemerkung

Die biologische Evolution ist ebenso ein wissenschaftliches Faktum wie die Bewegung der Erde um die Sonne (vergessen wir der Einfachheit halber Einsteins Korrekturen). So wie das Ptolemäische Weltbild durch die Raumfahrt endgültig zur Fiktion wurde, so widerlegen Evolutionsexperimente das Leugnen von Evolutionsvorgängen. Zwei Unterschiede zwischen Physik und Biologie gibt es aber dennoch:

  1. In der Himmelsmechanik können wir Newtons Gesetze frei von Störungen durch den Luftwiderstand und anderen Komplikationen unmittelbar in Aktion beobachten, es gibt aber keine entsprechende „Himmelsbiologie“ , und
  2. die biologischen Studienobjekte sind ungleich komplizierter als die physikalischen.

* Kurzfassung des Schlussvortrags "Charles Darwin - gestern und heute", den Peter Schuster anlässlich des Ignaz-Lieben-Symposiums "Darwin in Zentraleuropa" (9. - 10. November 2017, Wien) gehalten hat. Die komplette Fassung (incl. 46 Fußnoten) ist auf der Homepage des Autors abrufbar https://www.tbi.univie.ac.at/~pks/Presentation/wien-lieben17text.pdf  und soll 2018 auf der homepage der Lieben-Gesellschaft http://www.i-l-g.at erscheinen.


Details zu Inhalten von "Charles Darwin - gestern und heute"

Darwin Publications: Books (American Museum of History, Darwin Manuscripts Project). open access.

Robert Malthus: Eine Abhandlung über das Bevölkerungsgesetz oder eine Untersuchung seiner Bedeutung für die menschliche Wohlfahrt in Vergangenheit und Zukunft, nebst einer Prüfung unserer Aussichten auf eine künftige Beseitigung oder Linderung der Übel, die es verursacht (6. Auflage, aus dem Englischen übersetzt und frei abrufbar; Digitale Texte der Bibliothek des Seminars für Wirtschafts- und Sozialgeschichte, Uni Köln) http://www.digitalis.uni-koeln.de/Malthus/malthus_index.html

M. Eigen, P. Schuster (1979).The Hypercycle - A Principle of Natural Self-Organization. Springer-Verlag, Berlin 1979.

Artikel im ScienceBlog:

Peter Schuster (chronologisch gelistet):

 

inge Mon, 01.01.2018 - 07:58

2017

2017 Redaktion Wed, 20.03.2019 - 01:04

Artikel über den dramatischen Rückgang der Insekten erzielt 2017 Top-Reichweite in Fachwelt und Öffentlichkeit

Artikel über den dramatischen Rückgang der Insekten erzielt 2017 Top-Reichweite in Fachwelt und Öffentlichkeit

Do, 28.12.2017 - 10:48 — Redaktion

RedaktionIcon WissenschaftsgeschichteNeue Verfahren zur Abschätzung der Resonanz wissenschaftlicher Veröffentlichungen - sogenannte Altmetrics, spiegeln die online- Kommunikatiosmöglichkeiten wieder und zeigen auf, wie sich wissenschaftliche Informationen in der Fachwelt und ebenso in der Öffentlichkeit verbreiten. das britische Unternehmen Altmetrics.com hat so für 2017 eine Liste der 100 Publikationen mit der größten Reichweite erstellt [1]. Einen der vordersten Plätze nimmt eine Studie ein, die über den dramatischen Rückgang der fliegenden Insekten in deutschen Naturschutzgebieten berichtet [2].

Welche Resonanz haben Artikel mit wissenschaftlichem Inhalt?

In der Fachwelt wird üblicherweise die Häufigkeit angegeben, mit welcher ein Artikel in anderen Arbeiten zitiert wird. Dieser Wert lässt sich einfach feststellen (beispielsweise gibt es diese Information in Google Scholar und ISI-World of Science), wird vielfach mit der Qualität der Publikation gleichgesetzt und zur Beurteilung wissenschaftlicher Leistung herangezogen. Er sagt natürlich nur wenig darüber aus , wie viele Personen das Ganze tatsächlich gelesen (oder auch nur teilweise angesehen) haben und daraus für ihre eigenen Zwecke Gewinn gezogen haben. Insbesondere gibt er auch keinen Hinweis, ob und wieweit ein Wissenstransfer in die Öffentlichkeit erfolgt ist.

Im Zeitalter des Internets, das uns Publikationen online lesen, kommentieren und mit Anderen - auch auf sozialen Plattformen - teilen lässt, ist eine Bewertung auf der Ebene der Zeitschriften zweifellos nicht mehr zeitgemäß - eine Reihe prominenter Wissenschafter hat sich 2012 (San Francisco Declaration of Research Assessment) für eine neue Form ausgesprochen, mit der sich der Einfluss von Publikationen besser bestimmen lässt.

Altmetriken

Die sogenannten Altmetriken bieten derartige Möglichkeiten. Über das Zitate Zählen hinaus erfassen sie weltweit Nennungen, "Liken" und Teilen auf sozialen Netzwerken, Diskutieren und Verlinken auf Webseiten, Nachrichtenportalen und Blogs und Berichte in den Medien (online Zeitungen, TV). Damit geben Altmetrics die Kommunikationsmöglichkeiten wieder, zeigen, wie sich wissenschaftliche Informationen in der Fachwelt und ebenso in der Öffentlichkeit verbreiten.

Einer der wichtigsten Anbieter solcher Daten, das britische Unternehmen Altmetrics.com, scannt täglich über 2000 Massenmedien, die online über Science berichten (darunter auch Standard, Kurier, Presse, NZZ, ORF), Studienpläne ("Open Syllabus Project"), Zitationsplattformen, Wikipedia, an die 11 000 Blogs, Soziale Medien (Facebook, Twitter, etc.), u.a.

Auf dieser Datengrundlage rankt Altmetrics.com wissenschaftliche Arbeiten seit 2013 und erstellt eine Liste der Top 100 Artikel [1]. Die Liste 2017 basiert auf über 18,5 Millionen Nennungen von 2,2 Millionen unterschiedlichen Forschungsergebnissen aus allen Bereichen der Naturwissenschaften, aus Informations-/Computerwissenschaften, Medizin/Gesundheitswissenschaften, Geschichte/Archäologie und Sozialwissenschaften.

Die Top 10 Artikel im Jahr 2017

Auf der Basis der oben genannten Daten vergibt Altmetrics.com Punkte. Die 10 Artikel mit der höchsten Reichweite sind im folgenden mit Titel und Punktezahl aufgeführt:

  1. Associations of fats and carbohydrate intake with cardiovascular disease and mortality in 18 countries from five continents (PURE): a prospective cohort study (Lancet) Punkte: 5876 Forscher haben die Ernährung von mehr als 100 000 Menschen in 18 Ländern untersucht: niedriger Fettkonsum kann das Risiko eines vorzeitigen Todes erhöhen.
  2. Work organization and mental health problems in PhD students (Research Policy ). Punkte: 5060. Arbeitstress von Doktoranden kann deren geistige Gesundheit beeinträchtigen.
  3. Comparison of Hospital Mortality and Readmission Rates for Medicare Patients Treated by Male vs Female Physicians (JAMA Internal Medicine) Punkte: 4715. Patienten, die von Ärztinnen behandelt wurden haben niedrigere Sterblichkeit und Rückfallsraten
  4. Correction of a pathogenic gene mutation in human embryos (Nature). Punkte : 4510. Mit CRISPR wurde eine Genmutation im menschlichen Embryo repariert.
  5. Gender stereotypes about intellectual ability emerge early and influence childrens interests (Science). Punkte: 4410. Stereotypen in der Kindheit bedingen, dass Frauen sich nur widerwillig mit Glanzvollem beschäftigen.
  6. More than 75 percent decline over 27 years in total flying insect biomass in protected areas. (PLoS One). Punkte: 4281. Der Rückgang fliegender Insekten war viel stärker und schneller als angenommen.
  7. Worldwide trends in body-mass index, underweight, overweight, and obesity from 1975 to 2016: a pooled analysis of 2416 population-based measurement studies in 128á9 million children, adolescents, and adults. (The Lancet). Punkte: 4016 . Übergewicht bei Kindern und Erwachsenen ist global in den letzten 40 Jahren auf das Zehnfache gestiegen.
  8. A Feathered Dinosaur Tail with Primitive Plumage Trapped in Mid-Cretaceous Amber. (Current Biology). Punkte: 3985. Eine Dinosaurier-Spezies hatte Zähne, die es im Alter verlor.
  9. Efficacy and effectiveness of an rVSV-vectored vaccine in preventing Ebola virus disease: final results from the Guinea ring vaccination, open-label, cluster-randomised trial (Ebola ‚a Suffit!) (The Lancet). Punkte: 3920. Eine Ebola-Vakzine zeigte während des Ausbruchs in West-Afrika volle Wirksamkeit.
  10. An extra-uterine system to physiologically support the extreme premature lamb (Nature Commun.) Punkte: 3837. Eine künstliche Gebärmutter eröffnet neue Möglichkeiten für eine Anwendung am Menschen.

Die Top 10 Artikel sprechen vor allem Gesundheits- und soziale Themen an. Daneben hat auch ein Artikel über eine bestimmte Dinosaurierspezies großes Interesse erweckt. Besonders hervorzuheben ist aber die Untersuchung zum dramatischen Verschwinden der Insekten in Deutschland (Rang 6), die im Folgenden ausführlicher behandelt werden soll. (Eigentlich ist eine noch wesentlich höhere Reichweite anzunehmen: im Vergleich zu den Artikeln auf Platz 1 - 5, die bis zu einem Jahr vor dem Ranking im Internet zugänglich waren, wurde die Insektenstudie erst knapp 1 Monat davor veröffentlicht.) Abbildung 1.

Abbildung 1. Der Rückgang der fliegenden Insekten ist stärker als man angenommen hat. Der farbige „Altmetric Donut“ zeigt durch die unterschiedlichen Farben an und wo der Artikel erwähnt wird : 206 Mal in Nachrichten, 34 mal in Blog-postings, 3 Nennungen in Wikipedia, 123 Mal in Facebook, etc. (Bild: https://www.altmetric.com/top100/2017/#list&article=27610705; open access)

Das Verschwinden der fliegenden Insekten in Deutschland

Eine Gruppe von Naturwissenschaftern, darunter zahlreiche Entomologen, hat über 27 Jahre - von 1989 bis 2016 - an 63 Standorten Proben gesammelt. Die Standorte lagen in Naturschutzgebieten und wiesen unterschiedliche Habitatgruppen auf - mageres Grünland, nährstoffarmes Heideland und Dünen -, wie sie für das deutsche Tiefland charakteristisch sind. (Abbildung 2). Abbildung 2. Malaise-Falle (links) und die Standorte (rechts, gelb) in Naturschutzgebieten in Nordrhein-Westfalen (n = 57), Rheinland-Pfalz (n = 1) and Brandenburg (n = 5). 160 Wetterstationen sind als schwarze Kreuze eingezeichnet (https://doi.org/10.1371/journal.pone.0185809.s006)

Die fliegenden Insekten wurden dort über die gesamte Vegetationsperiode (März bis Oktober) in sogenannten Malaise-Fallen gefangen und ihre täglich anfallende, gesamte Biomasse an allen Standorten nach einem speziell entwickelten, standardisierten Verfahren bestimmt (Abbildung 2). Es wurde dabei untersucht, wie rasch der Rückgang der Insekten Biomasse erfolgte und welchen Einfluss darauf Faktoren wie

  • Wetter,
  • Habitate (Pflanzenzahl und Diversität; Stickstoff, pH, Feuchtigkeit, Licht) und
  • Landnutzung (Wald, Ackerland, Grasfläche, Oberflächenwasser) hatten, die im Umkreis von 200 m um die Fallen herum durch Flugaufnahmen dokumentiert wurden.

Die resultierende komplexe Datensammlung wurde mittels solider statistischer Methoden analysiert und Modelle für den Zeitverlauf entwickelt, in welche die einzelnen Faktoren und auch Wechselwirkungen zwischen diesen miteinbezogen wurden.

Das Ergebnis zeigte, dass in dem untersuchten Zeitraum von 27 Jahren die Menge an fliegenden Insekten über die gesamte Saison hin um rund 76 % zurückgegangen ist. Nur auf die Sommermonate bezogen, in denen jeweils das größte Insektenaufkommen verzeichnet wurde, fiel der Rückgang noch höher (82 %) aus. (Abbildung 3).

Unabhängig vom jeweiligen Habitat erfolgte der Rückgang an allen Standorten nach einem sehr ähnlichen Muster. Es kann also nicht von einem lokalen Phänomen gesprochen werden - wahrscheinlich dürfte ein vergleichbares Verschwinden von Insekten auch auf andere Gebiete in Europa zutreffen. Wenn es sich dabei um nicht-geschützte Flächen handelt, könnte es zu noch höheren Verlusten von Insekten kommen.

Abbildung 3. Rückgang der Biomasse fliegender Insekten von 1989 bis 2015 (A) und die Variation der Biomasse innerhalb der Saison von März bis Oktober (B). Die Boxen in A stellen die Biomassen der jährlich in allen Fallen, an allen Standorten (n = 1503) gefangenen Insekten (in g pro Tag) dar. Modelle, die den Verlauf des Rückgangs simulieren, sind als Linien eingezeichnet. In B ist ersichtlich, dass die höchste Menge im Sommer gefangen wurde und der Rückgang in dieser Jahreszeit besonders stark war. Die Farben verändern sich von blau (1989) nach gelb (2016).

Wodurch der Rückgang begründet ist, konnte aus den Untersuchungen nicht geklärt werden. Ein Einbeziehen der Klimadaten - aus den über die 160 Wetterstationen aufgenommenen täglichen Daten - und auch der - aus den Luftbildern hervorgehenden - Landnutzung und Vegetation im Umfeld der Standorte zeigte jedenfalls, dass Änderungen dieser Parameter praktisch keinen Einfluss auf das Verschwinden der Insekten hatten. Abbildung 4.

Ob möglicherweise eine Nutzung von Pestiziden in den an die Naturschutzgebiete angrenzenden, landwirtschaftlich genutzten Flächen für den Rückgang verantwortlich sein könnte, wurde in dieser Studie nicht erfasst.

Abbildung 4. Die untersuchten Klimafaktoren (Temperatur, Niederschlag, Frost), Vegetationsfaktoren (Gräser, Bäume) und auch Feuchtigkeit, Licht und Stickstoff wirken sich nur geringfügig auf den Insektenrückgang aus. Die Ursache ist zum größten Teil noch nicht geklärt. (https://doi.org/10.1371/journal.pone.0185809.g005. (Lizenz: cc-by)

Fazit

Insekten spielen eine zentrale Rolle im Gleichgewicht der Natur; sie sind essentiell für die Bestäubung von Pflanzen, fressen Pflanzen und Abfall und dienen als Nahrung für Vögel, Amphibien und Säuger. Der "flächendeckende" starke Rückgang nicht nur einiger Spezies sondern der gesamten Biomasse lässt die Alarmglocken schrillen - insbesondere, da die Untersuchungen ja in Naturschutzgebieten erfolgten, wo man erwartete, dass man die Funktionen des Ökosystems und die Artenvielfalt erhalten könne. Es ist dringend notwendig die Ursachen des Rückgangs der Insekten herauszufinden, um diesen weiterhin ihre Funktion für den Erhalt der Ökosysteme zu sichern.


[1] https://www.altmetric.com/top100/2017/
[2] CA Hallmann et al., (2017) More than 75 percent decline over 27 years in total flying insect biomass in protected areas. http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0185809 (Der Artikel ist unter cc-by lizensiert)


Weiterführende Links

Artikel zum Insektenrückgang

Der Standard: "Nach Kontroverse: Studie bestätigt dramatischen Insektenschwund"

SPIEGEL ONLINE, Hamburg, Germany: "Insektensterben: Zahl der Insekten in Deutschland sinkt deutlich"

Süddeutsche.de GmbH, Munich, Germany: "Insektensterben: Rückgang um 76 Prozent in Deutschland"

Spektrum der Wissenschaft: "Insektenzahl in Deutschland nimmt um 75 Prozent ab "

inge Thu, 28.12.2017 - 10:48

Personalisierte Medizin: Design klinischer Studien an Einzelpersonen (N=1 Studien)

Personalisierte Medizin: Design klinischer Studien an Einzelpersonen (N=1 Studien)

Do, 21.12.2017 - 06:21 — Francis Collins

Francis CollinsIcon MedizinArzneimittel, deren Wirksamkeit in klassischen randomisierten Placebo-kontrollierten klinischen Studien festgestellt wird, funktionieren nicht bei allen Patienten . Auf Grund unterschiedlicher genetischer Makeups und versc hiedener Lebensumstände profitiert nur ein Teil der Kranken (Abbildung), zudem können Patienten infolge von Nebenwirkungen Schaden erleiden. Ein neues Konzept - die Personalisierte Medizin - strebt an "den richtigen Patienten mit der richtigen Medizin in der richtigen Dosis" zu behandeln. Technologische Fortschritte in der Generierung und Verwertung enorm großer Mengen an Patientendaten lassen personalisierte Studien an Einzelpersonen - sogenannte "N =1"-Studien möglich erscheinen. Francis Collins, NIH-Direktor und ehem. Leiter des "Human Genome Project", berichtet über die Entwicklung digitaler Plattformen, die es Ärzten ermöglichen sollen derartige Untersuchungen an Einzelpersonen in ihren Ordinationen durchzuführen.*

Abbildung 1. Zur Wirksamkeit der 10 im Jahr 2013 umsatzstärksten Arzneimittelin in den USA (Gesamtvolumen rund 50 Mrd $). Um einen gewünschten Therapieeffekt bei einem Patienten zu erzielen (NNT: numbers necessary to treat), müssen bis zu 25 Patienten (bei Nexium) behandelt werden. Im Fall des Cholesterinsynthesehemmers Crestor (5,2 Mrd Umsatz) sind es 20 Patienten. (Abb. von Redaktion eingefügt. Die Daten stammen aus: N.J.Schork: Time for one-person trials.Nature 520 (2015): 609-11 und aus https://www.drugs.com/stats/top100/2013/sales ).

Es mögen bereits 25 Jahre her sein, doch Karina Davidson erinnert sich an den Tag, als ob es gestern gewesen wäre. Sie absolvierte damals das praktische Jahr in klinischer Psychologie, als ein besorgtes Elternpaar mit ihrem siebenjährigen Problemkind das Krankenhaus betrat. Der Bub war schwer untergewichtig - er wog nicht ganz 17 kg - und hatte aggressives Verhalten gegen sich selbst und andere an den Tag gelegt. Es schien möglich, dass Ritalin - ein üblicherweise gegen das Aufmerksamkeitsdefizit-Syndrom (ADHS) verschriebenes Arzneimittel, hier nützen könnte. Würde dies aber tatsächlich der Fall sein?

Design einer personalisierten Einzelperson-Studie

Um das herauszufinden, hat das Klinikerteam etwas völlig Unkonventionelles getan: sie haben eine klinische Prüfung für den Buben als Einzelperson entworfen, welche den Nutzen einer Behandlung mit Ritalin versus Placebo testen sollte . Nach dem Zufallsprinzip sollte der Bub so täglich vier Wochen lang mit dem Arzneimittel oder mit einem Placebo behandelt werden. Dem Charakter einer kontrollierten Doppelblindstudie entsprechend wussten weder das Team in der Klinik noch die Eltern zuhause, ob der Bub nun zu einer bestimmten Zeit Ritalin erhielt oder Placebo. In kurzer Zeit stand das Ergebnis fest: Ritalin führte nicht zum Erfolg. Dem Buben blieben so die Nebenwirkungen erspart, welche die Langzeitanwendung des für ihn wirkungslosen Medikaments mit sich gebracht hätten, und seine Ärzte konnten sich anderen, möglicherweise wirkungsvolleren Behandlungen zuwenden.

Das Projekt: Re-engineering Precision Therapeutics through N-of-1 Trials

Karina Davidson ist nun etablierte klinische Psychologin am Irving Medical Center der Columbia University; sie möchte die unkonventionelle, für den Buben damals hilfreiche Strategie aufgreifen und sie zu einer gebräuchlicheren Behandlungsform machen. Für ein Projekt, das sie zusammen mit Kollegen durchführen will, hat Davidson 2017 den NIH Director’s Transformative Research Award erhalten (es ist dies eine Unterstützung für ein außergewöhnlich innovatives, unkonventionelles Forschungsprojekt, das mit hohem Risiko behaftet ist und zu einem Paradigmenwechsel führen kann. Anm. Red.) Mit dieser Unterstützung will das Forscherteam drei digitale Plattformen entwickeln, die es Ärzten ermöglichen sollen in ihren Ordinationen Ein-Person Untersuchungen durchzuführen.

Große klinische Studien sind hervorragend geeignet, um herauszufinden, welche Behandlungen für den Durchschnittspatienten am besten wirken werden. Allerdings entsprechen nicht alle Patienten dem Durchschnitt. Das ist der Punkt, wo personalisierte Studien an Einzelpersonen - sogenannte "N = 1 (N-of-1)- Studien" - ins Spiel kommen können. Ärzte können sie anwenden, um zu vergleichen, wie ein Patient auf zwei oder auch mehrere Behandlungen anspricht, bevor sie die Entscheidung treffen, was sie verschreiben.

Derartige N=1 Untersuchungen sind derzeit zwar noch relativ ungebräuchlich, technologische Entwicklungen machen ihre Umsetzung aber zunehmend einfacher. Beispielsweise können tragbare "Gesundheits-Monitore" und Smartphones es erleichtern große Datenmengen einzelner Patienten zu digitalisieren und sammeln.

Test-Plattformen

Was gebraucht wird, ist eine richtige elektronische Plattform , die es Ärzten ermöglicht ihre N=1 Studien zusammen mit den einströmenden Daten zu gliedern und zu verwalten. Davidson und ihre Kollegen wollen ihre Plattformen einem Test unter realen Bedingungen unterziehen.

Dieser beginnt damit, dass 60 Patienten mit eben festgestelltem Bluthochdruck rekrutiert werden. die entweder einer N=1 Studie oder einer Standardtherapie zugeordnet werden. In der N=1-Gruppe wird jeder Teilnehmer zwei Wochen lang eine Primärtherapie mit einem Blutdruckmedikament erhalten, dann folgt ein anderes, über den gleichen Zeitraum verabreichtes Blutdruckmedikament. Die Daten zur Reaktion der Patienten auf die Medikamente wird Davidson mit ihrem Team sammeln. Dabei wird das Team versuchen die jeweils wirksamste Medikation mit den geringsten Nebenwirkungen festzustellen. Insbesondere möchte das Team herausfinden, ob Patienten in der N=1 Gruppe schlussendlich bessere Behandlungserfolge erzielen als solche unter dem randomisierten Standardverfahren.

Einen ähnlichen N=1 Studienplan wird das Team auch anwenden, um zu klären, welche an Depression leidenden Personen von einer Lichttherapie profitieren können - d.i. von einer Behandlung, die zur Stimmungsaufhellung natürliches Licht im Freien simuliert.

Eine weitere Studie soll prüfen, bei welchen an Schlaflosigkeit leidenden Patienten niedrigdosiertes natürliches Melatonin zu einer Besserung führt.

Zusätzlich werden Davidson und ihr Team untersuchen, wie gut Ärzte N=1 Studien in ihren regulären klinischen Arbeitsablauf einplanen können. Wenn sich herausstellt, dass die N=1 Strategie für Arzt und Patient von Nutzen ist, so wird man die Plattform künftig den Ärzten auch für eine Reihe anderer Indikationen anbieten können. Derartige Möglichkeiten würden u.a. in der Behandlung von Diabetes bestehen, in der Kontrolle von Schmerz , im Erstellen von Trainingsprogrammen und in der Entwicklung von personalisierten Strategien zum Gewichtsverlust.

Das Ziel

von Karina Davidson ist es schlussendlich, das Wesen der klinischen Konsultation zu ändern - es wird Wissenschaft herangezogen, um Entscheidungen zur Behandlung jeder einzelnen Person zu treffen. Da mit dem NIH-Forschungsprogramm All of Us nun mehr und mehr über individuelle Unterschiede in Gesundheitsrisiken und Ansprechen auf Behandlungen in Erfahrung gebracht wird, erscheint das Wachstumspotential einer N=1 Strategie in der Medizin zweifellos hoch. (Anm. Red.: Auf dem Weg zu einer personalisierten Medizin strebt das Programm All of Us an von 1 Million (oder mehr) US-Amerikanern Gesundheitsinformationen zu sammeln unter Berücksichtigung der individuellen genetischen/biologische n Gegebenheiten, des Lebensstils und der Umwelt einflüsse.)


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:" Creative Minds: Designing Personalized Clinical Trials" zuerst (am 14. Dezember 2017) im NIH Director’s Blog: https://directorsblog.nih.gov/2017/12/14/creative-minds-designing-person... . Der Artikel wurde von der Redaktion aus dem Englischen übersetzt und geringfügig (mit Untertiteln und zwei Kommentaren) für den Blog adaptiert. Eien Abbildung wurde von der Redaktion eingefügt. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

Karina W. Davidson, homepage: http://www.columbiacardiology.org/profile/kwdavidson

Karina W. Davidson (2017), Project: RE-ENGINEERING PRECISION THERAPEUTICS THROUGH N-OF-1 TRIALS: https://projectreporter.nih.gov/project_info_description.cfm?icde=0&aid=...

All of Us (NIH). https://allofus.nih.gov/ The All of Us Research Program is a historic effort to gather data from one million or more people living in the United States to accelerate research and improve health. By taking into account individual differences in lifestyle, environment, and biology, researchers will uncover paths toward delivering precision medicine.

Why All of Us. Why Now. (6.6.2017) Francis Collins et al. Video (englisch) 1:53 min. "The time is ripe for medical breakthroughs and advancements in health research. See how the All of Us Research Program is leading the way towards better health care for all of us." Standard YouTube Lizenz. https://www.youtube.com/watch?time_continue=2&v=B7m5rNkDjHE


 

inge Thu, 21.12.2017 - 06:21

Multiple Sklerose - Krankheit der tausend Gesichter

Multiple Sklerose - Krankheit der tausend Gesichter

Fr, 15.12.2017 - 07:43 — Nora Schultz

Nora SchultzIcon Gehirn

Multiple Sklerose (MS) ist eine entzündliche Erkrankung des zentralen Nervensystems. Aus bisher unbekannten Gründen greifen fehlprogrammierte Teile des Immunsystems Nervenzellen an. Es kommt es zu einem Verlust der schützenden Myelinschicht, die unsere Nervenfasern umgibt. Dadurch können Signale zwischen Nervenzellen nicht mehr korrekt weitergeleitet werden. Die Entwicklungsbiologin Nora Schultz gibt einen Überblick über Symptome, Krankheitsverlauf und Therapiemöglichkeiten .*

Über 200.000 Menschen leben in Deutschland mit der Nervenkrankheit Multiple Sklerose. (In Österreich sind es laut Österreichischer Multiple Sklerose Gesellschaft - ÖSMSG - rund 12 500 MS-Patienten; Anm. Red.) Fehlgeleitete Zellen des Immunsystems greifen das zentrale Nervensystem an und lösen so in Gehirn und Rückenmark Entzündungen aus, die zu einer Vielfalt von Symptomen und sehr unterschiedlichen Krankheitsverläufen führen können. Abbildung 1.Deshalb wird die Multiple Sklerose auch die “ Krankheit der 1000 Gesichter ” genannt.  

Abbildung 1. Multiple Sklerose - eine entmyeliniserende Erkrankung. Zellen des Immunsystems greifet die Myelinscheiden an, welche- von Oligodendrozyten, gebildet - als Isolierschichte die Axone der Nervenzellen umgeben.(Bild von Red. eingefügt; adaptiert nach dem Video: osmosis.org 2017; CC-BY-SA 4.0; in Wikipedia)

Symptome 

“Die typischen Erstsymptome sind Missempfindungen, Kribbeln und Taubheitsgefühle aber auch eine der Krankheit manchmal lange vorangehende Erschöpfbarkeit, die Betroffene sich nicht anders erklären können”, sagt Judith Haas, die Vorsitzende des Bundesverbandes der Deutschen Multiple Sklerose Gesellschaft (DMSG). Sehstörungen treten in 20 bis 30 Prozent der Fälle früh auf. Weitere schwerwiegendere Symptome, die im Zusammenhang mit einer Multiplen Sklerose auftreten können, sind Koordinationsprobleme und Lähmungen. Auch Blasen-, Potenz- und Konzentrationsstörungen können auftreten. Abbildung 2.

Abbildung 2. Hauptsächliche Symptome der Multiplen Sklerose, der - “ Krankheit der 1000 Gesichter ”. (Gemeinfreies Bild aus Wikipedia, von Red. eingefügt)

Die Symptome haben eine gemeinsame Ursache. Entzündungen im zentralen Nervensystem schädigen die Nervenzellen und die sie umgebende schützende Myelinschicht . Sie wird von den Fortsätzen anderer Zellen, den Oligodendrozyten, gebildet und sorgt dafür, dass elektrische Signale effizient übertragen werden. Je größer die Schäden sind, desto stärker wird die Weiterleitung von Signalen entlang von Nervenfasern beeinträchtigt.

Welche Störungen auftreten, hängt vom Ort der Entzündungsherde im Nervensystem ab

Längst nicht jeder Patient hat im Verlauf der Erkrankung mit allen Symptomen zu kämpfen. Viele Beschwerden treten zudem gerade anfangs nur vorübergehend oder unter körperlicher Belastung auf, und häufig erstmals im Alter zwischen 20 und 40 Jahren, wenn die meisten Patienten ansonsten noch körperlich fit sind. Bis zur Diagnose verstreichen daher im Schnitt derzeit drei Jahre, weil Ärzte und Patienten gerade bei wenig eindeutigen Frühsymptomen oft nicht an Multiple Sklerose denken.

Erhärtet sich der Verdacht dann doch, kann eine Kombination aus Untersuchungsverfahren gemeinsam mit der ausführlichen Erfassung der bisherigen Krankheitsgeschichte schnell Klarheit bringen. Dazu gehören neben neurologischen Tests unter anderem von Augen, Reflexen und Koordination sowie einer elektrophysiologischen Untersuchung der Leitfähigkeit von Nervenfasern vor allem eine Magnetresonanztomografie (MRT) des Gehirns und des Rückenmarks sowie die Entnahme von Nervenwasser (Lumbalpunktion). Das MRT macht die für eine Multiple Sklerose typischen Entzündungsherde und vernarbten Gewebebereiche sichtbar. In der bei der Lumbalpunktion entnommenen Gehirn-Rückenmarks-Flüssigkeit (Liquor) finden sich bei fast allen Betroffenen bestimmte Entzündungsmarker.

Drei Jahre bis zur Gewissheit sind eindeutig zu lang. Viele Patienten schöpfen nach Internetrecherchen selbst Verdacht und drängen auf eine frühe Diagnostik: “Es ist ganz wichtig, unmittelbar nach dem ersten Schub eine Therapie zu beginnen. Alle Studien zeigen, dass man einen verpassten frühen Therapiestart später nicht mehr einholt.” Multiple Sklerose gilt zwar bislang als nicht heilbar, doch mit der richtigen Therapiekombination lassen sich Krankheitsverlauf und Lebensqualität entscheidend beeinflussen.

Die Therapie

umfasst drei Säulen:

  • die Milderung akuter Entzündungsschübe (Schubtherapie),
  • Eingriffe in das Immunsystem um neuen Schüben vorzubeugen (verlaufsmodifizierende Therapie)
  • und die direkte Behandlung der jeweiligen Symptome (symptomatische Therapie).

Gerade in den ersten Jahren verläuft die Erkrankung bei den meisten Patienten schubförmig, bevor sie später in eine stetig fortschreitende Form übergeht. In einigen Fällen (10 bis 15 Prozent) verläuft die Erkrankung ohne Schübe chronisch fortschreitend. Abbildung 3.

Abbildung 3. Verschiedene Verlaufsformen der multiplen Sklerose (Gemeinfreies Bild aus Wikipedia, von Red. eingefügt.)

Bei einem Schub treten Symptome über wenige Tage oder Wochen hinweg auf und bilden sich dann für längere Zeit wieder ganz oder teilweise zurück. In so einer akuten Phase können entzündungshemmende Medikamente wie Kortikoide oder in schweren Fällen auch eine Plasmapherese, eine Art der „Blutwäsche“ , den Angriff der eigenen Immunzellen auf das Nervensystem bremsen.

Die langfristige Behandlung mit verlaufsmodifizierenden Wirkstoffen zielt hingegen darauf ab, die Häufigkeit und Schwere künftiger Schübe zu mindern oder bei der stetig fortschreitenden Krankheitsform die Verschlimmerung zu verlangsamen. Dazu wird die aus dem Gleichgewicht geratene Immunantwort der Patienten je nach Krankheitsbild und Medikament entweder umprogrammiert (Immunmodulation) oder unterdrückt (Immunsuppression).

Beeinflussung durch den Lebensstil

Auch der Lebensstil kann vermutlich den Krankheitsverlauf beeinflussen – und womöglich auch, ob die Krankheit überhaupt ausbricht.

Rauchen, Alkoholkonsum, viel Kochsalz in der Nahrung, übertriebene Keimfreiheit in der Kindheit und Vitamin-D-Mangel beispielsweise erhöhen manchen Studien zufolge das Erkrankungsrisiko. Letzteres könnte auch erklär en , warum Multiple Sklerose in Äquatornähe seltener auftritt . Abbildung 4.

Abbildung 4. Erhöht Vitamin D-Mangel in nördlicheren Breiten das Risiko an MS zu erkranken? (Bild aus Wikipedia,cc-by-sa; von Red. eingefügt)

Dort wird nämlich die körpereigene Vitamin-D-Produktion dank reichlich Sonnenschein erhöht . „Da das Erkrankungsrisiko außerdem genetisch beeinflusst wird, empfehlen wir den Kindern von Multiple-Sklerose-Patienten unbedingt eine Nahrungsergänzung mit Vitamin D“, sagt Haas. Wer bereits erkrankt ist, kann mit gesunder Ernährung, geeigneten Sport- und Rehamaßnahmen sowie Entspannungstechniken zumindest bestimmte Symptome lindern und die Lebensqualität verbessern.

Hormonelle Einflüsse

Hormone spielen ebenfalls eine wichtige Rolle. Weibliche Geschlechtshormone, insbesondere Östrogen, stärken das Immunsystem und erhöhen so einerseits das Risiko, eine Autoimmunerkrankung überhaupt zu entwickeln. Sie sorgen jedoch andererseits auch für bessere Reparaturprozesse im Körper. Das erklärt einerseits, warum etwa doppelt so viele Frauen wie Männer an Multipler Sklerose erkranken, andererseits aber auch, warum sie sich in der Regel auch besser von Schüben erholen. Dies gilt zumindest bis zur Menopause, wenn die Hormonproduktion abnimmt. In dieser Lebensphase geht die Krankheit daher auch häufig in eine stetig fortschreitende Form über.

Jungen Patientinnen empfiehlt Haas, die Pille zu nehmen, da diese für einen stabilen Östrogenspiegel sorgt – oder sich gleich einen eventuell vorhandenen Kinderwunsch zu erfüllen: „Schwangerschaft ist einer der besten Therapien gegen Multiple Sklerose überhaupt. Gerade im letzten Schwangerschaftsdrittel bleiben Schübe meist völlig aus.“, sagt sie. Allerdings muss in den ersten drei Monaten nach der Geburt wieder mit einem deutlichen Anstieg der Schubrate gerechnet werden.

Der Einfluss von Hormonen auf die Entstehung und den Verlauf von Multipler Sklerose ist auch ein aktueller Forschungsschwerpunkt, mit dem Ziel, begleitende Hormontherapien zu entwickeln. Andere Fragen, mit denen Wissenschaftler sich derzeit befassen, drehen sich um ein besseres Verständnis der Immunmechanismen und Entzündungsprozesse. Untersucht wird beispielsweise die Rolle der Darmflora oder wie aggressive Immunzellen sich im zentralen Nervensystem „verstecken“ können. Langfristig versprechen Wissenschaftler sich auch von Stammzelltherapieansätzen weitere Fortschritte – bis hin zu einer möglichen Heilung.

Bei aller Hoffnung auf künftige Durchbrüche gilt es zunächst , das aktuelle Therapiearsenal besser zu nutzen, findet Haas. „Wir haben in Deutschland das Problem, dass hochwirksame Therapien nicht in dem Maß eingesetzt werden, wie wir es aus anderen Ländern kennen.“ Verbesserungen erhofft sie sich von der jüngsten Änderung des Paragraphen 116b des Sozialgesetzbuches . Dies würde es ermöglichen, die in Kliniken verfügbare hochspezialisierte Versorgung , den Patienten auch außerhalb von Krankenhäusern zukommen zu lassen.

Mit dem Zugang zu einer Reihe verschiedener Therapieansätze haben Patienten heute zahlreiche Möglichkeiten, den vielfältigen Gesichtern ihrer Erkrankung zu begegnen und trotz Einschränkungen ein ausgefülltes Leben zu führen. Viele sind in ihrer Freiheit kaum eingeschränkt, die Krankheitsaktivität oft nicht messbar. Das betonte auch Ministerpräsidentin Malu Dreyer kürzlich in einem Interview mit der Rhein-Zeitung: „Ich habe gedacht, dass das Leben, das ich bis dahin geführt hatte, zu Ende geht. Doch irgendwann habe ich es geschafft, den Schalter umzulegen: Ich habe beschlossen, mich nicht durch die Krankheit behindern zu lassen, sondern meine Träume und Pläne beizubehalten.“


*Der Artikel erschien am 10.5.2017 unter dem Titel "Krankheit der tausend Gesichter" auf der Website von www.dasgehirn.info und steht unter einer cc-by-nc Lizenz.: https://www.dasgehirn.info/krankheiten/multiple-sklerose/krankheit-der-t...

www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe Der Artikel wurde von der Redaktion geringfügig für den Blog adaptiert (Überschriften und Absätze eingefügt) und es wurden einige Abbildungen eingefügt.


Weiterführende Links

Internetpräsenz der Deutschen Multiple Sklerose Gesellschaft DMSG: https://www.dmsg.de/ [Stand 20.02.2017]  
Weißbuch Multiple Sklerose. Versorgungssituation in Deutschland, hg . von Miriam Kip , Tonio Schönfelder und Hans-Holger Bleß . Springer Verlag. Zum Buch   (open access)

Artikelserie (12 Artikel) in https://www.dasgehirn.info/krankheiten/multiple-sklerose :

  • SusanneDonner (28.4.2017): Viele Ursachen der multiplen Sklerose. https://www.dasgehirn.info/krankheiten/multiple-sklerose/viele-ursachen-der-multiplen-sklerose
  • Andrea Wille (30.5.2017): Multiple Sklerose - eine medizinische Herausforderung. https://www.dasgehirn.info/krankheiten/multiple-sklerose/multiple-sklerose-eine-medizinische-herausforderung
  • Ute Eppinger (1.12.2017) : MS unter der Lupe. https://www.dasgehirn.info/krankheiten/multiple-sklerose/ms-unter-der-lupe
  • Nicole Paschek (13.6.2017): Leben mit MS. https://www.dasgehirn.info/krankheiten/multiple-sklerose/leben-mit-ms

Videos

Wolfgang Brück: Inflammatorische Prozesse im Gehirn: Multiple Sklerose Video 7,2 min. https://www.dasgehirn.info/krankheiten/multiple-sklerose/neuroinflammati... (cc-by-nc)

Bernhard Hemmer: Multiple Sklerose Video 7,27 min. https://www.dasgehirn.info/krankheiten/multiple-sklerose/video-multiple-... (cc-by-nc)


 

inge Fri, 15.12.2017 - 07:43

Bioengineering – zukünftige Trends aus der Sicht eines transatlantischen Expertenteams

Bioengineering – zukünftige Trends aus der Sicht eines transatlantischen Expertenteams

Do, 07.12.2017 - 14:53 — Redaktion

RedaktionIcon Politik & GesellschaftBioengineering bietet vielversprechende Ansätze, um die großen Herausforderungen in Angriff zu nehmen, denen unsere Gesellschaften ausgesetzt sind. Welche Entwicklungen hier kurzfristig und auch längerfristig besonders wichtig werden und welche Möglichkeiten und Risiken damit verbunden sind, hat ein internationales Team aus vorwiegend englischen und amerikanischen Experten aus ihrer Sicht als Wissenschafter, Innovatoren, Industrieangehörige und Sicherheitsgemeinschaft untersucht und zwanzig Themen in den Sektoren Gesundheit, Energie, Landwirtschaft und Umwelt identifiziert.*

Was versteht man unter Bioengineering?

In der allgemeinsten Definition bedeutet Bioengineering die Anwendung natur- und ingenieurwissenschaftlicher Konzepte und Methoden auf biologische Systeme. Sehr häufig wird synonym der Begriff Synthetische Biologie verwendet - beispielsweise definiert der wissenschaftliche Rat der Europäischen Akademien EASAC Synthetische Biologie als "Anwendung von Prinzipien der Ingenieurwissenschaften auf die Biologie". Dies ist auch in dem folgenden Text der Fall.

Identifizierung neuer, relevanter Entwicklungen im Bioengineering

Die raschen Fortschritte in synthetisch biologischen Praktiken ermöglichen es Probleme der realen Welt anzugehen: die gezielte Änderung des Erbguts ("Genome editing"), die neuen Möglichkeiten zur Geweberegeneration und zum Ersatz von Organen (u.a. mittels 3D-Printer) versprechen bislang ungeahnte Chancen für neue effiziente Therapien. Ebenso wird Bioengineering in den Sektoren Energie und Transport, in Landwirtschaft und Nahrungsmittelproduktion , Wasser- und Abfallmanagement eine wesentliche Rolle spielen.

Dass solche Anwendungen massive Auswirkungen auf die menschliche Gesellschaft haben werden, ist nur zu wahrscheinlich. Welche Entwicklungen des Bioengineering werden in näherer aber auch weiterer Zukunft relevant, welche Vorteile, welche Risiken werden sie bringen?

Dies behandelt eine eben, im frei zugänglichen Journal e-Life erschienene Untersuchung eines internationalen Expertenteams unter Leitung von Bonnie Wintle und Christian Böhm (University Cambridge, Centre for the Study of Existential Risk) [1]. Teilnehmer waren insgesamt 28 Wissenschafter aus Großbritannien und den Vereinigten Staaten mit unterschiedlichem Background in den Naturwissenschaften, Ingenieurwissenschaften, Sozial- und Geisteswissenschaften. In einem mehrstufigen Prozess - einem sogenannten Horizon Scan Verfahren - identifizierte und beschrieb jeder Teilnehmer auf Basis seiner Expertise - seiner Tätigkeit in der Industrie, als akademischer Forscher, Innovator oder als Sicherheitsexperte - 2 bis 5 Themen, die er für die wesentlichsten neuen Anwendungsgebiete im Bioengineering hielt. So resultierte anfänglich eine lange Liste von 70 neuen Gebieten, die von den Teilnehmern einzeln nach Neuheit, Plausibilität und Auswirkungen beurteilt wurden. Aus den Top-rankenden Themen entstand eine neue, kürzere Liste, jedes Thema wurde dann separat in Gruppen diskutiert und auf dieser Basis eine Endbewertung von jedem Einzelnen vorgenommen.

Schlussendlich liegt nun eine Liste von 20 relevanten Entwicklungen im Bioengineering vor. Im Folgenden sind einige davon angeführt, grob eingeteilt nach dem Zeitpunkt, an dem sie relevant werden können (d.i. Auswirkungen auf die Gesellschaft haben): in früher Zukunft (d.i. in weniger als 5 Jahren), zu einem späteren Zeitpunkt (5 - 10 Jahren) oder erst nach mehr als 10 Jahren.

Die wichtigsten Themen innerhalb der nächsten fünf Jahre

Künstliche Photosynthese und Kohlenstoffdioxydabscheidung zur Produktion von Biotreibstoffen

Wenn man die technischen Schwierigkeiten in den Griff bekommt, können solche Entwicklungen die künftige Einführung von Systemen zur Kohlenstoffabscheidung ermöglichen und dabei nachhaltige Quellen für Rohchemikalien und Treibstoffe liefern. Abbildung 1.

Abbildung 1. Aus Biomasse wird über geeignete Mikroorganismenstämme Treibstoff erzeugt. (Bild von der Redaktion eingefügt; Quelle: Kang, A.; Lee, T.S. Converting Sugars to Biofuels: Ethanol and Beyond. Bioengineering 2015, 2, 184-203 Artikel steht unter cc-by 4.0 Lizenz).

Ankurbeln der Photosynthese zur Steigerung der Produktivität in der Landwirtschaft

Um die Ernteerträge auf derzeit bewirtschaftetem Land zu steigern und die Sicherheit der Nahrungsversorgung zu gewährleisten, kommt der synthetischen Biologie eine Schlüsselrolle zu: durch Steigerung der Photosynthese, Reduzieren der Verluste in der Vor-Erntezeit und ebenso der Abfälle nach der Ernte und durch den Verbraucher.

Neue Ansätze zur beschleunigten Ausbreitung von Genen (Gene drives)

Diese sollen die Vererbung wünschenswerter genetischer Merkmale in einer Spezies fördern, beispielsweise Malaria-übertragende Mücken davon abzuhalten sich zu vermehren. Bei dieser Technologie erhebt sich allerdings die Frage, ob damit nicht Ökosysteme verändert werden, möglicherweise Nischen geschaffen werden, in denen ein neuer Krankheitsüberträger oder sogar ein neuer Krankheitskeim Unterschlupf findet.

Gezielte Änderung des menschlichen Erbguts (Genome editing)

Technologien, wie beispielsweise das CRISPR/Cas9 System, bieten Möglichkeiten die Gesundheit des Menschen zu verbessern und seine Lebensdauer zu steigern. Allerdings schafft die Etablierung solcher Methoden größere ethische Probleme. Es ist ja machbar, dass dann Einzelpersonen aber auch Staaten mit den entsprechenden finanziellen und technologischen Mitteln strategische Vorteile an zukünftige Generationen weitergeben können.

Abwehrforschung

Behörden in den USA (US Defense Advanced Research Projects Agency DARPA ) und auch im UK (Defence Science and Technology Laboratory) investieren massiv in Forschungsgebiete der synthetischen Biologie, um bestimmte Bedrohungen abwehren oder darauf reagieren zu können. Investitionen im Bereich Landwirtschaft, "Gene drives" u.a. erhöhen das Risiko einer "doppelten Nutzung". Beispielsweise gibt es ein DARPA Programm (Insect Allies Program), das plant Insekten zu verwenden, um auf deren Futterpflanzen Merkmal verändernde Pflanzenviren zu verbreiten mit dem Ziel die Ernten vor möglichen Pflanzenpathogenen zu schützen. Allerdings können Andere derartige Technologien auch anwenden, um zielgerichtet Pflanzen zu schädigen.

Wichtigste Themen innerhalb der nächsten fünf bis zehn Jahre

Regenerative Medizin - 3D Drucken von Körperteilen und Gewebetechnik

Diese Technologien werden zweifellos Beschwerden als Folge schwerer Verletzungen und unzähliger Krankheiten erleichtern. Abbildung 2.

Abbildung 2. 3D Drucken von Geweben, Organen und Prothesen. (Bild von Redaktion eingefügt; Quelle:S Vijayavenkataraman et al., Bioengineering 2017, 4(3), 63; doi:10.3390/bioengineering4030063. Der Artikel steht unter einer cc-by 4.0 Lizenz)

Dagegen ist ein Umkehren des altersbedingten Verfalls mit ethischen, sozialen und ökonomischen Bedenken belastet. Gesundheitssysteme würden sehr schnell an ihre Belastungsgrenze stoßen, wenn sie allen alternden Bürgern Körperteile ersetzen wollten. Es würde auch zu neuen sozioökonomischen Klassen führen, da nur diejenigen, ihre Jahre in Gesundheit ausdehnen könnten, die es sich leisten könnten.

Mikrobiom-basierte Therapien

Das Mikrobiom des Menschen ist in zahlreiche Krankheiten involviert - von Parkinson bis hin zum Darmkrebs und ebenso in Stoffwechselerkrankungen wie Fettsucht und Diabetes Typ 2. Ansätze der synthetischen Biologie können hier die Entwicklung wirksamerer Mikrobiota-basierter Therapien beschleunigen. Es gibt hier allerdings das Risiko, dass sich DNA von genetisch modifizierten Mikroorganismen auf andere Keime im menschlichen Mikrobiom oder in der weiteren Umgebung ausbreiten kann.

Schnittstelle von Informationssicherheit und Bioautomation

Fortschritte in der Automatisierungstechnik verbunden mit schnelleren und verlässlicheren Verfahrenstechniken haben zur Entstehung von "Robotic Cloud Labs" geführt: in diesen wird digitale Information in DNA umgesetzt und diese dann in einigen Zielorganismen exprimiert. Dies erfolgt mit sehr hohem Durchsatz und sinkender Überwachung durch den Menschen. Das hohe Vertrauen in Bioautomatisierung und der Einsatz von digitaler Information aus vielen Quellen öffnen die Möglichkeit zu neuen Bedrohungen für die Informationssicherheit: ein Herumpfuschen an digitalen DNA-Sequenzen könnte die Produktion schädlicher Organismen nach sich ziehen, Angriffe auf kritische DNA Sequenz-Datenbanken und auf die Ausrüstung könnte die Herstellung von Vakzinen und Arzneimitteln sabotieren.

Wichtigste langfristigeThemen

Neue Hersteller stören die Pharma-Märkte

Gemeinschaftliche Bio-Laboratorien und unternehmerische Startups adaptieren und teilen Methoden und Geräte für biologische Experimente und Techniken. Verbunden mit Open-Business Modellen und Open Source Technologien kann dies Gelegenheiten bieten, um maßgeschneiderte Therapien für regionale Krankheiten zu produzieren, welche große multinationale Konzerne als nicht genug profitabel ansehen. Dies lässt aber wieder Bedenken aufkommen betreffend einer (Zer)störung existierender Herstellermärkte und der Versorgungsketten mit Rohmaterialien und ebenso Befürchtungen hinsichtlich unzulänglicher Regulierung, weniger strenger Kontrolle der Produkte und falscher Anwendung.

Plattform-Technologien um Ausbrüche von Pandemien anzugehen

Ausbrüche von Infektionskrankheiten - wie jüngst die Ausbrüche von Ebola und Zika Virusinfektionen - und mögliche Angriffe mit biologischen Waffen benötigen skalierbare, flexible Diagnostik und Behandlung. Neue Technologien können die rasche Identifizierung des Verursachers, die Entwicklung von Vakzinen(Kandidaten) und Pflanzen-basierte Produktionssysteme für Antikörper ermöglichen.

Veränderte Eigentümer-Modelle in der Biotechnologie

Der Anstieg von patentfreien, generischen Hilfsmitteln und das Absinken der technischen Barrieren in der Ingenieurbiologie kann Menschen in ressourcenarmen Gebieten helfen eine nachhaltige Bioökonomie zu entwickeln, die auf lokalen Bedürfnissen und Prioritäten basiert.

Fazit

Das Wachstum der bio-basierten Ökonomie verspricht Nachhaltigkeit und neue Methoden, um auf globale Herausforderungen durch Umweltprobleme und Gesellschaft zu reagieren. Wie die vorliegende Untersuchung zeigt, können aber daraus auch neue Herausforderungen und Risiken entstehen. Es muss also umsichtig vorgegangen werden, um die Vorteile sicher zu erhalten.


[1] Bonnie C Wintle, Christian R Boehm, Catherine Rhodes, Jennifer C Molloy, Piers Millett, Laura Adam, Rainer Breitling, Rob Carlson, Rocco Casagrande, Malcolm Dando, Robert Doubleday, Eric Drexler, Brett Edwards, Tom Ellis, Nicholas G Evans, Richard Hammond, Jim Haseloff, Linda Kahl, Todd Kuiken, Benjamin R Lichman, Colette A Matthewman, Johnathan A Napier, Seán S ÓhÉigeartaigh, Nicola J Patron, Edward Perello, Philip Shapira, Joyce Tait, Eriko Takano, William J Sutherland. A transatlantic perspective on 20 emerging issues in biological engineering. eLife, 2017; 6 DOI: 10.7554/eLife.30247


*Dem vorliegenden Artikel wurden im Wesentlichen der am 21. November 2017 in den News der University Cambridge erschienene Bericht: "Report highlights opportunities and risks associated with synthetic biology and bioengineering" und kurze Sequenzen aus dem Originalartikel [1] zugrunde gelegt . Beide Quellen sind unter cc-by 4.0 lizensiert. Die möglichst wortgetreue Übersetzung stammt von der Redaktion.


Weiterführende Links

  • The Future of Medicine Cambridge University. Video 11:41 min. Nanobots that patrol our bodies, killer immune cells hunting and destroying cancer cells, biological scissors that cut out defective genes: these are just some of the technologies that Cambridge University researchers are developing and which are set to revolutionise medicine in the future. To tie-in with the recent launch of the Cambridge Academy of Therapeutic Sciences, researchers discuss some of the most exciting developments in medical research and set out their vision for the next 50 years.

Artikel im ScienceBlog

 

inge Thu, 07.12.2017 - 14:53

Die Evolution der Darwinschen Evolution

Die Evolution der Darwinschen Evolution

Do, 30.11.2017 - 07:12 — Herbert Matis

Herbert MatisIcon Wissenschaftsgeschichte„Im neunzehnten Jahrhundert hat kein wissenschaftliches Werk ein so gewaltiges Aufsehen erregt, eine so nachhaltige Wirkung ausgeübt, und eine so gründliche Umwälzung althergebrachter Anschauungen bei Fachleuten wie bei Laien hervorgerufen (WT Preyer; 1841-1897)". Der Wirtschafts- und Sozialhistoriker Herbert Matis (emer. Prof. Wirtschaftsuniversität Wien) gibt einen Überblick zur Rezeption der Darwinschen Theorien, die weit über die naturwissenschaftliche Fachwelt hinausgingen und weitreichende Implikationen nicht nur für Philosophie und Theologie, sondern auch für den Bereich des Politischen und Sozialen verursachten und selbst am Beginn des 21. Jahrhunderts prominente Gegnerschaft finden..*

In der Geschichte der Naturwissenschaften und darüber hinaus nimmt Charles Robert Darwin (1809-1882) einen besonderen Platz ein, gilt er doch gemeinsam mit seinem Landsmann Alfred Russel Wallace (1823-1913) als Begründer der evolutionären Biologie. Den Grundstein seiner späteren naturwissenschaftlichen Karriere hat Darwin im Zuge seiner von Ende 1831 bis 1836 dauernden Expeditionsreise gelegt. Diese führte ihn auf der von der Royal Navy mit Vermessungsarbeiten, chronometrischen Bestimmungen und kartographischen Aufnahmen betrauten 242 Tonnen-Brigg HMS Beagle rund um die Welt. Die Publikation seines umfangreichen Reiseberichts (1839), die auf Auswertungen seiner Notizbücher und einer in zwölf Katalogen festgehaltenen systematischen Sammeltätigkeit von Fossilien, Gesteinen, Pflanzen und Tieren beruhte, sowie weitere wissenschaftliche Veröffentlichungen als Ergebnis dieser Reise sicherten ihm in Fachkreisen bereits ab den 1840er Jahren erste Anerkennung als Geologe, Zoologe und Botaniker.

"Stammbaums des Lebens"…

In einem seiner Notizbücher entwarf Darwin eine erste Skizze eines "Stammbaums des Lebens": unter der Überschrift "I think" stellte er die Entstehung der Arten durch eine differenzierte Aufspaltung in einzelne Äste und Zweige in Form von Bifurkationen dar. Abbildung 1.

Damit postulierte Darwin ‑ gestützt auf zahlreiche Fossilienfunde ‑ seine Theorie einer gemeinsamen Abstammung, wonach über Jahrmillionen zurückreichende Generationenketten letztlich alle Lebewesen miteinander verwandt sind. Auf Basis seiner auf induktivem Wege gewonnenen Erkenntnisse stellte Darwin erste theoretische Überlegungen im Hinblick auf die Wechselbeziehung zwischen Organismen und Umwelt an und erkannte, dass sich Organismen mittels Variation und natürlicher Selektion an ihr jeweiliges Habitat anpassen.

Abbildung 1. Der Stammbaum des Lebens (links). Erste Skizze, die Darwin auf der Beagle in seinem Notizbuch B, p. 36 erstellte (1836) und Darwin nach seiner Rückkehr (rechts) von der Reise auf der Beagle (Aquarell von George Richmond).

…und struggle for life

Die Frage, warum die Arten variieren, konnte Darwin aufgrund des genauen Studiums von Haustieren auf den umbildenden Einfluss der künstlichen Zuchtwahl durch den Menschen zurückführen; für die Veränderung der Arten durch natürliche Zuchtwahl fand er hingegen eine Entsprechung im Prinzip des struggle for life, wonach sich in der freien Natur jene Varietäten durchsetzen, die am besten an ihre Umwelt angepasst sind und damit die günstigsten Überlebenschancen vorfinden.

Im Jahr 1859 publizierte Darwin dann sein revolutionäres Werk, das ihn mit einem Schlag berühmt machte: On the origin of species by means of natural selection, or the preservation of favoured races in the struggle for life. Abbildung 2.

Abbildung 2. On the origin of species by means of natural selection, or the preservation of favoured races in the struggle for life [1859; Über die Entstehung der Arten im Thier- und Pflanzen-Reich durch natürliche Züchtung, oder Erhaltung der vervollkommneten Rassen im Kampfe ums Dasein]. (Abbildungen: links Wikipedia; rechts: http://www.gutenberg.org/cache/epub/1228/pg1228.txt)

Der große internationale Erfolg führte dazu, dass er nahezu ein Jahrzehnt später eine zweite Veröffentlichung folgen ließ: The Variation of Animals and Plants under Domestication [dt.: Die Variation von Tieren und Pflanzen unter Domestikation].

Evolution wird zum Leitmotiv der Wissenschaft

Entwicklung - Evolution (abgeleitet vom lateinischen Verbum evolvere, das ursprünglich vor allem das Ausrollen einer Schriftrolle bedeutete) wird im 19. Jahrhundert zum Paradigma in der Wissenschaft. Die Vorstellung der biologischen Evolution liefert eine naturwissenschaftlich fundierte Erklärung für die Entstehung und Veränderung der Arten im Verlauf der Erdgeschichte, wobei sich alle derartigen Prozesse in der Natur durch eine Irreversibilität auszeichnen. In der Folge findet der Begriff auch in den Sozialwissenschaften Eingang.

Wettbewerb um Ressourcen

Als wichtige Antriebsmomente der Evolution formulierte Darwin die Prinzipien der notwendigen Anpassung an Umweltbedingungen durch natürliche Selektion. Im Wettbewerb um Ressourcen setzen sich unter limitierenden Umweltbedingungen die vorteilhafteren Variationen durch, während hingegen unvorteilhafte Variationen aus der Population verschwinden werden. Angeregt zu diesen Überlegungen wurde Darwin durch die vieldiskutierte Bevölkerungstheorie des Ökonomen Thomas Robert Malthus (1766 - 1834). Dieser hatte festgestellt, dass ein unkontrolliertes exponentielles Bevölkerungswachstum zwangsläufig in einer Konkurrenz um immer knappere Ressourcen münden müsse, weil sich diese lediglich in einer arithmetischen Folge vermehren.

Im Sozialdarwinismus kommt es dann zur Übertragung der Darwinschen Prinzipien auf menschliche Gesellschaften, um etwa soziale Ungleichheit oder rassische Diskriminierung als Folge einer ‚natürlichen Auslese‘ zu rechtfertigen. Bereits Vertreter der Klassischen Nationalökonomie verwendeten zentrale Begriffe der Evolutionsbiologie wie ‚Evolution‘‚ Selektion‘ und ‚Kampf ums Überleben‘ in einem gesellschaftswissenschaftlichen Kontext.

In der zweiten Hälfte des 19. Jahrhunderts

messen viele Disziplinen der zeitlichen Dimension und damit auch dem Entwicklungsgedanken einen besonderen Stellenwert bei, und sehr bald wird Evolution auch ganz allgemein als maßgebliches Grundmuster für die Erklärung von Prozessen aller Art verstanden. Spätestens ab Ende der 1870er Jahre wird Darwins Lehre zum Gegenstand des öffentlichen Diskurses und dann in Form des ‚Darwinismus‘ auch als Weltanschauung vereinnahmt.

Für die Verbreitung der Darwinschen Lehre

im deutschen Sprachraum spielten die ersten Übersetzungen, vor allem von On the Origin of Species, eine wichtige Rolle, die bereits 1860 erfolgten. Die Universitäten Jena - vor allem mit dem Biologen und Mediziner Ernst Haeckel - und Leipzig wurden immer mehr zum Zentrum des Darwinismus in Deutschland. Haeckel und seine Schüler erblickten in Darwins Evolutionslehre eine Möglichkeit, alle ‚Welträtsel‘ ausschließlich mit wissenschaftlichen Methoden zu erklären und Haeckel veröffentlichte in diesem Sinn eine ganz Reihe von Büchern.

Darwin fand nicht nur in der Fachwelt große Resonanz, sondern auch in der breiteren naturwissenschaftlich interessierten Öffentlichkeit, wozu eine Vielzahl zeitgleich entstandener gelehrter Gesellschaften, aber auch die Gründung von einschlägigen Museen und Sammlungen sowie populärwissenschaftlichen Journalen und u.a. das in mehrere Sprachen übersetzte und in weiten Kreisen des Bildungsbürgertums gelesene Werk von Alfred Edmund Brehm Illustrirtes Thierleben beitrugen. (Zu Letzterem hatte u. a. auch der österreichische Kronprinz Rudolf einige ornithologische Studien beigesteuert.) Darwins Theorien lieferten daher auch in literarischen Zirkeln Diskussionsstoff. Abbildung 3.

Die Ausgangsbedingungen für eine Akzeptanz der Lehre Darwins in dem vom Katholizismus geprägten Milieu der einstigen Habsburgermonarchie waren ungleich schwieriger. Für die Verbreitung der Darwinschen Lehre über den engeren Kreis der Fachwissenschaft hinaus, sorgte allerdings bereits 1860 der aus Deutschland stammende Zoologe Gustav Jäger, der in Wien vor einem wissenschaftlich interessierten Laienpublikum für die Auffassungen Darwins eintrat. Abbildung 3.

Abbildung 3. Popularisierung der Evolutionstheorie. Links: Vortrag von Gustav Jäger 1860 in Wien (Text: http://www.zobodat.at/pdf/SVVNWK_1_0081-0110.pdf ), Rechts: aus dem Illustrirten Familienblatt "Die Gartenlaube" (1873) „Die vier Hauptvertreter des Darwinismus“: Darwin, Lamarck, Haeckel, St. Hilaire (Wikipedia, gemeinfrei)

Darwin fand in der deutschen Gelehrtenwelt nicht nur Anhänger, sondern auch einflussreiche Gegner. Dies betraf vor allem das von mancher Seite dem Darwinismus zugeschriebene pseudoreligiöse Deutungsmonopol. Einer der Hauptgegner der Evolutionstheorie und des Darwinismus im Besonderen war der Botaniker Albert Wigand (1821-1886), Direktor des Botanischen Gartens und Pharmazeutischen Instituts in Marburg an der Lahn, der die Lehre Darwins sogar als eine „naturwissenschaftliche und philosophische Verirrung“ abtat.

"Verweltanschaulichung" der Lehre Darwins…

Lange Zeit hatte es Darwin vermieden, wahrscheinlich unter dem Einfluss seiner sehr religiös geprägten Frau Emma, seine Erkenntnisse auch im Hinblick auf die menschliche Spezies anzuwenden und konsequent auch den Menschen in den von seiner Richtung her offenen Prozess der Evolution einzubinden. Erst 1871 erschien sein zweibändiges Werk The Descent of Man, and Selection in Relation to Sex [dt.: Die Abstammung des Menschen und die geschlechtliche Zuchtwahl], in dem er festhielt, was mittlerweile auch durch DNA-Vergleiche bestätigt wird, dass der Mensch und andere Primaten recht eng verwandt sind und offenbar einen gemeinsamen Vorfahren haben, der vor etwa fünf bis sieben Millionen Jahren lebte.

Mit The Descent of Man erfolgte eine wichtige Erweiterung seiner Konzeption, indem er nicht nur eine Sonderstellung des Menschen in der Natur verneinte und die Abstammung des Menschen in einen allgemeinen Zusammenhang mit der biologischen Evolution stellte: Der Mensch ist wie alle anderen Lebewesen ein Produkt der Evolution. Überdies definierte er mit der sexuellen Selektion einen zweiten Selektionsmechanismus, der sich etwa bei dem Mitbegründer der modernen Evolutionstheorie Wallace nicht findet.

Während Darwin ‚Evolution‘ als ein universelles Prinzip in der Natur verstand, versuchte schon Alfred Russel Wallace, seine wissenschaftlichen Erkenntnisse mit dem Glauben an ein höheres Wesen zu vereinen. Der Prozess der Evolution selbst, aber auch höhere Fähigkeiten wie Bewusstseinsbildung, intellektueller Fortschritt, Intelligenz oder die Ausbildung von Moral konnten aus seiner Sicht mit dem Selektionsprinzip nicht hinreichend erklärt werden, sondern setzten das Wirken einer übernatürlichen Macht voraus. Alle derartigen Versuche, den Evolutionsgedanken mit einem Schöpfungsplan zu vereinen und an Stelle des Zufallsprinzips und eines mechanistisch aufgefassten Wirkgefüges von Variabilität und Selektion das Wirken eines höheren Wesens zu setzen, mussten aus der Sicht der konsequenten Anhänger Darwins hingegen als Einfallstor für metaphysische Spekulationen aufgefasst werden.

…und ein "Kampf der Kulturen",

der in der Öffentlichkeit mit zum Teil auch recht unsachlichen Argumenten ausgetragen wurde (Abbildung 4) und u. a. zu einer legendären Kontroverse mit Vertretern des anglikanischen Episkopat führte. Verschiedene Theologen taten den Darwinismus in der Folge als „Theorie der Affenabstammung“ ab, auf der anderen Seite begegneten die Anhänger von Darwins Evolutionstheorie den in der tradierten biblischen Schöpfungsgeschichte verhafteten Theologen mit Hohn und Spott, weil diese einen ,Kreationismus‘ sowie die Vorstellung einer Entwicklung nach einem allem zugrundeliegenden teleologischen göttlichen Plan vertraten. Bereits Darwins erster deutscher Übersetzer, Heinrich Georg Bronn, hatte darauf hingewiesen, dass „mit weiterer Hilfe der Darwinschen Theorie eine Natur-Kraft denkbar (ist), welche Organismen-Arten hervorgebracht haben kann […] Wir sind dann nicht mehr genöthigt, zu persönlichen außerhalb der Natur-Gesetze begründeten Schöpfungs-Akten unsere Zuflucht zu nehmen".

Abbildung 4. Der Mensch ist nur ein Wurm:-Entwicklung über den Affen zum viktorianischen Gentleman (Punsch Almanach, 1882) und Darwin Karikatur im Magazin "The Hornet" (1871) (Bilder: Wikipedia, gemeinfrei)

Im Verein mit dem philosophischen Positivismus wurde der Darwinismus damit ein Schlüsselelement bei der Entstehung der modernen ‚wissenschaftlichen Weltanschauung‘.

Vor allem formierte sich der Widerstand kirchlich-dogmatischer Kreise, die sehr bald die von der modernen Evolutionstheorie ausgehende Gefahr für die kirchliche Lehre erkannten: Papst Pius IX. wandte sich bereits 1864 in dem seiner Enzyklika Quanta Cura beigefügten Syllabus errorum explizit gegen die als Irrtümer klassifizierten verschiedenen ‚-Ismen‘: Liberalismus, Sozialismus, Kommunismus, Pantheismus, Naturalismus, und selbstverständlich auch Darwinismus. Auch sein Nachfolger Pius X. verdammte 1907 in seiner Enzyklika Pascendi dominici gregis die „Irrtümer des Modernismus“, insbesondere aber jene katholischen Theologen, die versuchten, moderne wissenschaftliche Erkenntnisse - vor allem die historisch-kritische Methode in der Geschichtswissenschaft und die Evolutionstheorie - in ihre Lehre zu integrieren. Die katholische Kirche bezog damit eine eindeutige Opposition gegenüber allen materialistischen Auffassungen. Erst mit dem Zweiten Vatikanischen Konzil erfolgte hier 1962/64 – nicht zuletzt aufgrund der viel diskutierten Schriften des Anthropologen und Jesuiten Pierre Teilhard de Chardin (1881-1955) – eine geistige Öffnung.

Sozialdarwinismus und Eugenik

Mit der zunehmenden Vereinnahmung der Lehre Darwins als Weltanschauung wird diese auch ein Ausgangspunkt für biologistisch begründete medizinische Interventionen im Sinne der Erbgesundheit, Rassenhygiene und Eugenik. Der ‚Sozialdarwinismus‘ fand in der Folge viele Anhänger. Der aus Österreich stammende und mit Ernst Haeckel befreundete Redakteur der Zeitschrift Das Ausland Friedrich Heller von Hellwald (1842-1892),sah im ‚Kampf ums Dasein‘ – in Verbindung mit dem im 19. Jahrhundert stark ausgeprägten Fortschrittsglauben – den Antrieb für eine positive Weiterentwicklung des Menschengeschlechts. Er übertrug in recht radikaler Weise das natürliche Selektionsprinzip auf das Handeln von Individuen und ganzen Völkern. Der englische Philosoph und Soziologe Herbert Spencer (1820-1903) brachte 1864 survival oft the fittest als ein am meisten zum sozialen Fortschritt und zur Verbesserung der Lebensbedingungen beitragendes Prinzip in die Diskussion ein.

Eine drastische Zuspitzung erfuhr der Sozialdarwinismus dann in der Eugenik, ein 1883 von Darwins Vetter, dem Anthropologen Francis Galton (1822–1911) geprägter Begriff, die im Deutschen (und zwar lange vor dem Nationalsozialismus) auch als ‚Erbgesundheitslehre‘ und ‚Rassenhygiene‘ bezeichnet wurde. Sie geht davon aus, dass ganz im Sinne der ‚Zuchtwahl‘ gutes Erbmaterial gefördert werden soll, hingegen schlechte Erbanlagen ausgemerzt werden sollten. Die Vorstellungen der Eugenik fanden vor allem in den Vereinigten Staaten, Deutschland, England, Kanada, Skandinavien, Schweiz, Japan und Russland eine große Anhängerschaft.

Auseinandersetzung zwischen Lamarckisten und Darwinisten

Der Darwinismus erlebte um die Wende vom 19. zum 20. Jahrhundert unter den Naturwissenschaftlern eine kritische Phase. Während die Vorstellung der Evolution an sich und die gemeinsame Abstammung aller Lebewesen weitgehende Akzeptanz fanden, blieb die des Selektionsmechanismus lange umstritten. Vor allem wurden Zweifel an der ausschließlichen Rolle des geschlechtlichen Selektionsmechanismus für den Fortschritt der Evolution laut und die auf den französischen Biologen Jean Baptiste de Lamarque (1744 - 1829) zurückgehende Auffassung einer Vererbung von während des Lebens erworbenen Eigenschaften gegenüber gestellt. (Darwin selbst hatte ja in späteren Jahren zugestanden, dass gewisse Anpassungen an die Umweltbedingungen womöglich auch vererbt würden.) Es entbrannte in der Folge eine Auseinandersetzung zwischen Neo-Lamarckisten und Neo-Darwinisten.

Die Synthetische Evolutionstheorie

verhalf schließlich der Darwinschen Selektion zum Durchbruch. Einer der Hauptvertreter dieser Theorie, der deutsch-amerikanische Biologe Ernst Walter Mayr, hat 1951 die grundlegenden Ideen Darwins als Summe von fünf Theoremen folgendermaßen zusammengefasst:

  • Evolution als solche: Die Natur ist das Produkt langfristiger Veränderungen und ändert sich auch weiterhin; alle Organismen unterliegen einer Veränderung in der Zeit.
  • Gemeinsame Abstammung: Jede Gruppe von Lebewesen stammt von einem gemeinsamen Vorfahren ab. Alle Organismen gehen auf einen gemeinsamen Ursprung des Lebens zurück.
  • Vervielfachung der Arten: Die Arten vervielfachen sich, indem sie sich in Tochterspezies aufspalten oder indem sich durch räumliche Separation isolierte Gründerpopulationen zu neuen Arten entwickeln.
  • Gradualismus: Evolutionärer Wandel findet in Form kleinster Schritte (graduell) statt und nicht durch das plötzliche Entstehen neuer Individuen, die dann eine neue Art darstellen. Natura non facit saltus!
  • Natürliche Selektion: Evolutionärer Wandel vollzieht sich in jeder Generation durch eine überreiche Produktion an genetischen Variationen. Die relativ wenigen Individuen, die aufgrund ihrer besonders gut angepassten Kombination von vererbbaren Merkmalen überleben, bringen die nachfolgende Generation hervor.

Das Thema ‚Evolution‘ in der Gegenwart

Mittlerweile ist der Ansatz der ‚Synthetischen Evolutionstheorie‘ durch neue Erkenntnisse erweitert worden: Der molekularen Charakterisierung der Gesamtheit der vererbbaren Informationen einer Zelle im Genom wurde mit der Entdeckung der Funktionen, Strukturen und Wechselwirkungen von Chromosomen, Desoxyribonukleinsäuren (DNA) bzw. Ribonukleinsäuren (RNA) ein neuer Zugang eröffnet; neue Fachgebiete und Forschungszweige (wie Entwicklungs- und Systembiologie, Genomik und Epigenetik) sind seither entstanden, man beginnt nun erstmals Verhalten und Verhältnis aller Komponenten in ganzheitlich verstandenen lebendigen Systemen zu untersuchen.

Darwins Evolutionstheorie findet aber selbst am Beginn des 21. Jahrhunderts noch prominente Gegnerschaft. Nicht nur Islamisten, auch evangelikal-christliche Kreationisten berufen sich darauf, dass das ganze Universum, die Natur, das Leben und der Mensch nicht auf einen gemeinsamen Ursprung zurückgehen sondern durch den direkten Eingriff eines Schöpfergottes entstanden sein sollen. Als eine Alternative zu der auf dem Zufallsprinzip basierten Evolutionstheorie gilt für manche auch die Vorstellung eines intelligent design, wonach ein höheres Wesen das Leben erschaffen hat, das seitdem zwar einen langen Entwicklungsprozess durchlaufen hat, der aber von eben diesem höheren Wesen auch weiterhin gesteuert wird.

Dies mag damit zusammenhängen, dass es für viele Zeitgenossen eine zutiefst verstörende Erfahrung ist, dass der Mensch als erste Spezies mit den in der jüngsten Zeit entwickelten neuesten molekularbiologischen Methoden (Sequenzierung des Genoms, CRISPR und genome editing) in die Lage versetzt wurde, an der Basis seiner eigenen genetischen Ausstattung „gezielt“ zu manipulieren, wodurch wir uns gleichsam im neuen Zeitalter einer beschleunigten „akzelerierten Evolution“ befinden: Es ist nicht mehr alleine die gesamte Umwelt, die den Selektionsdruck (survival of the fittest) ausmacht, sondern der Mensch selbst tritt plötzlich in einer Art „Feedback-Schleife“ in den Mittelpunkt das Selektionsmechanismus. Er erhält erstmals die Möglichkeit in den Prozess der Evolution selbst aktiv einzugreifen, indem er mittels molekularbiologischer Methoden das Erbgut von Pflanzen, Tieren und Menschen verändert.

Es wird dabei nicht ausgeschlossen, dass auf diese Weise auch neue Arten entstehen könnten.


* Kurzfassung des Eröffnungsvortrags "Zur Darwin-Rezeption in Zentraleuropa 1860 – 1920", den Herbert Matis anlässlich des Ignaz-Lieben-Symposiums "Darwin in Zentraleuropa" (9. - 10. November 2017, Wien) gehalten hat. Die komplette Fassung (incl. Fußnoten) wird 2018 auf der homepage der Lieben-Gesellschaft http://www.i-l-g.at  erscheinen.


Weiterführende Links

Darwin Publications: Books (American Museum of History, Darwin Manuscripts Project). open access.

Darwin online. Reproducing images from Darwin Online.

Gustav Jäger (1862): Die Darwinsche Theorie über die Entstehung der Arten. (PDF-Download)

Artikel zur Evolution von Organismen im ScienceBlog:

Im Themenschwerpunkt Evolution gibt es zahlreiche Artikel zu

inge Thu, 30.11.2017 - 07:12

EU-Bürger, Industrien, Regierungen und die Europäische Union in SachenUmweltschutz - Ergebnisse der Special Eurobarometer 468 Umfrage (Teil 2)

EU-Bürger, Industrien, Regierungen und die Europäische Union in SachenUmweltschutz - Ergebnisse der Special Eurobarometer 468 Umfrage (Teil 2)

Do, 23.11.2017 - 08:36 — Inge Schuster

Inge SchusterIcon Politik & GesellschaftÜber einen Teil der jüngst erschienenen Ergebnisse des Special Eurobarometer 486 - die Einstellung der EU-Bürger zu Umweltproblemen, ihr Wunsch die Umwelt zu schützen und dazu auch selbst beizutragen - wurde vergangene Woche berichtet. Weitere Aspekte der Umfrage, vor allem welche Rolle wer - Industrien, Regierungen und die EU selbst - im Umweltschutz spielen sollte, sind nun Gegenstand des gegenwärtigen Artikels. Dabei wird auch auf die Meinung der Österreicher Bezug genommen.

Die Generaldirektion Umwelt der Europäischen Kommission sieht ihr Ziel darin für gegenwärtige und künftige Generationen die Umwelt zu schützen, zu bewahren und zu verbessern. Um dies zu erreichen, schlägt sie Maßnahmen vor und führt solche ein, die ein hohes Maß an Umweltschutz und Sicherung der Lebensqualität von EU-Bürgern gewährleisten sollen; sie wacht auch darüber, dass die Umweltgesetze der EU von den Mitgliedstaaten eingehalten werden.

Wie sehen dies aber die EU-Bürger?

In regelmäßigen Abständen gibt die EU-Kommission dazu repräsentative Umfragen in Auftrag, wobei je Mitgliedsland persönliche (face to face) Interviews mit rund 1000 Personen ab 15 Jahren und aus unterschiedlichen sozialen und demographischen Gruppen, in ihrem Heim und in ihrer Muttersprache geführt werden. Aus dem jüngsten, vor knapp 2 Wochen erschienenen Bericht "Special EU-Barometer 468" [1] geht hervor, dass der Wunsch die Umwelt zu schützen bei den EU-Bürgern sehr breite Unterstützung findet, sie Maßnahmen dazu bejahen und bereit sind auch persönlich beizutragen. Darüber wurde vergangene Woche im ScienceBlog berichtet [2]. Weitere Aspekte der Umfrage, vor allem welche Rolle wer - Industrien, Regierungen und die EU selbst - im Umweltschutz spielt/spielen sollte, ist Gegenstand des gegenwärtigen Artikels.

Wie sehen die EU-Bürger das Verhalten von Industrie und Institutionen in Sachen Umweltschutz?

Hohe Einigkeit zeigten die EU-Bürger bei der Frage, ob große Umweltverschmutzer primär für die Schäden aufkommen sollten, die sie verursachen. Ähnlich wie schon bei der Umfrage im Jahr 2014 stimmten dem im EU-28 Mittel insgesamt 94 % zu (65 % volkommen, 29 % eher) und nur 4 % sprachen sich dagegen aus. Unter den Ländern stach Rumänien mit 11 % Ablehnung heraus.

Auch auf die Frage ob Industrie, Institutionen oder die Bürger selbst genügend für den Umweltschutz machten, zeigte sich wenig Veränderung gegenüber früheren Umfragen. Abbildung 1.

Großunternehmen und Industrie wurden am schlechtesten beurteilt; im EU-28 Mittel gaben 4 von 5 Befragten an, dass dort zu wenig für die Umwelt getan würde. In einigen Ländern hatte sich die Einschätzung etwas gebessert - u.a. in Österreich um 8 Punkte auf insgesamt 24 % "zu viel/genug Umweltschutz" -, dafür in anderen Staaten wie UK, Holland oder Deutschland um mehrere Prozentpunkte verschlechtert. Am unteren Ende der Skala lag die Bewertung der Griechen, von denen nur 4 % meinten dass zu viel (1 %) oder ausreichend (3 %) getan würde.

Abbildung 1. Frage QD 7: Machen Ihrer Meinung nach die folgenden Akteure zu viel, genug oder zu wenig für den Umweltschutz[1].

Selbsteinschätzung der Bevölkerung: Auch hier fanden im EU-Mittel zwei Drittel der Befragten, dass nicht genügend für die Umwelt getan würde. Am Positivsten wurde die Situation in Deutschland, Tschechien und Österreich beurteilt (41 - 42 % gaben an "zu viel/genug Umweltschutz" zu betreiben), am Schlechtesten in Frankreich, Malta und Bulgarien (80 % urteilten "zu wenig Umweltschutz").

Institutionen. Rund zwei Drittel der EU-Bürger fanden, dass ihre jeweiligen Regierungen zu wenig für die Umwelt machten, ihre regionalen und lokalen Institutionen bewerteten sie dagegen besser. Dass die einzelnen Institutionen zu viel machten, fand nur ein kleiner Teil der Befragten. In den Bewertungen unterschieden sich die Länder stark.

  • Lokale Institutionen: während 74 % der Griechen und 72 % der Bulgaren angaben, dass ihr Dorf, ihre Stadt nicht genug für die Umwelt machen würde, waren nur 29 % der Dänen, 30 % der Luxemburger und 31 % der Tschechen dieser Ansicht; in Deutschland waren dies 33 % und in Österreich 36 %.
  • Regionaler Umweltschutz: diesen beurteilten Griechen (76 %) und Bulgaren (72 %) ähnlich schlecht wie den lokalen Umweltschutz. Dagegen fand zumindest die Hälfte der Befragten in Tschechien, Deutschland, Luxemburg, Dänemark und Österreich, dass zu viel/genug für die Umwelt geschehe.
  • Nationale Regierungen: Am unzufriedensten mit dem Umweltschutz ihrer Regierungen waren wiederum die Griechen (88 %), dann folgten die Spanier (78 %) und Bulgaren (75 %), am wenigsten unzufrieden waren die Luxemburger (42 %), Dänen und Finnen (je 52 %). In Österreich hatte seit 2014 die Zufriedenheit um 16 % zugenommen.
  • EU: Wie im Fall der nationalen Regierungen, zeigte sich im Schnitt nur etwa ein Viertel der EU-Bürger mit den Aktivitäten der EU zum Umweltschutz zufrieden, über 60 % fanden aber, dass die EU mehr tun sollte. Am wenigsten zufrieden waren die Schweden, Spanier und Franzosen (mit 79, 71 und 70 % Unzufriedenen); mehr als 40 % Zufriedene gab es in Zypern, Polen und Ungarn (Österreich:38 % Zufriedene).

Wenn nach der überwiegenden Meinung der Befragten die EU in Sachen Umweltschutz mehr tun sollte, welche Rolle kommt der EU dann zu?

Wer soll in Sachen Umweltschutz entscheiden?

Auf die Frage ob Entscheidungen in Sachen Umweltschutz auf nationaler Ebene oder gemeinsam innerhalb der EU getroffen werden sollten, gaben im EU-28 Mittel rund zwei Drittel der gemeinsamen Entscheidung den Vorzug. Abbildung 2.

Abbildung 2. Wie sollten Entscheidungen in Sachen Umweltschutz getroffen werden? (Bild modifiziert nach [2])

Breiteste Zustimmung zur gemeinsamen Entscheidung gab es in Holland, Deutschland, Spanien und Portugal; niedrigste Zustimmung bei den meisten ehemaligen Ostblockstaaten - Österreich zeigte sich nicht ganz so EU-skeptisch wie diese, immerhin zogen aber 41 % eine Entscheidung auf nationaler Ebene vor.

Welche Funktionen kommen dem Europäischen Umweltrecht zu?

In Sachen EU-Umweltrecht wurden 3 Fragen gestellt (Abbildung 3):

  • Soll die EU überprüfen können, ob EU-Umweltschutzgesetze in Ihrem Land ordnungsgemäß angewandt werden?
  • Soll die EU nicht-EU-Länder unterstützen, um deren Umwelt-Standards zu erhöhen?
  • Ist EU-Umweltrecht notwendig, um die Umwelt in Ihrem Land zu schützen?

Abbildung 3. Einstellung der EU-Bürger zur Rolle der EU in Sachen Umweltrecht. Die ausführliche Formulierung der Fragen findet sich im Text. Die Antworten "stimme voll zu" und "stimme eher zu" wurden zu "stimme zu" zusammengefasst, "stimme eher nicht zu" und "stimme überhaupt nicht zu" zu "stimme nicht zu". (Abbildung aus QD9 [1] zusammengestellt)

Im EU-28 Mittel stimmte die überwiegende Mehrheit (mindesten 80 %) der Befragten zu, dass europäisches Umweltrecht für den Umweltschutz in ihrem Land notwendig wäre und die EU auch überprüfen können sollte, ob die Umweltgesetze in dem jeweiligen Land korrekt umgesetzt würden. In Österreich war die Zustimmungsrate mit rund zwei Drittel unter allen Mitgliedsländern die niedrigste.

In Hinblick auf die Unterstützung von Nicht-Mitgliedstaaten zur Hebung von Umweltstandards tanzte Österreich aber nicht aus der Reihe: Ein praktisch gleich hoher Anteil der Befragten wie im EU-28 Mittel sprach sich dafür aus.

EU-Finanzmittel zur Förderung von Umweltschutz

Vergleichbar mit der Umfrage im Jahr 2014 meint auch jetzt die überwältigende Mehrheit der Befragten (im EU-Durchschnitt 85 %), dass die EU mehr Geld in die Hand nehmen sollte, um EU-weit Programme zu Umweltschutz, Erhaltung der Natur und Klimaschutz zu unterstützen. Im Schnitt sind es nur 7 %, die dies ablehnen (8 % äußern sich mit "weiß nicht"). Österreich liegt in der Zustimmung (86 %) im EU-Mittel, die Gruppe der Ablehnenden (11 %) ist allerdings nur in Rumänien (13%) noch höher.

Kennzeichnung umweltfreundlicher Produkte

Nationale Umweltzeichen und das EU-weite Umweltzeichen - sogenannte Ecolabels - wurden geschaffen, um leicht erkennbar und verlässlich anzuzeigen, dass ein Produkt oder eine Dienstleistung umweltfreundlich und von guter Qualität ist. Das EU-Ecolabel ist heuer bereits 25 Jahre alt geworden. Wie bekannt ist es geworden?

Dazu wurden die EU-Bürger befragt. Aus einer Liste von 13 Ecolabels sollten sie angeben, welche davon sie bereits gesehen oder von welchen sie gehört hatten. Abbildung 4.

Abbildung 4. Wie bekannt sind Ecolabels? (Bild QD10 [1])

Das EU-Ecolabel hat zwar den höchsten Bekanntheitsgrad, wurde in den 25 Jahren seines Bestehens EU-weit aber nur von 27 % der Bevölkerung wahrgenommen hat: am Populärsten (mehr als 60 %) ist es in Luxemburg und Frankreich, in Rumänien, Bulgarien, Tschechien, UK und Italien kennen es dagegen nur zwischen 13 und 17 %. Breitere Popularität haben auch das deutsche Label "Blauer Engel" und das französische "NF Environment" erreicht. Die meisten nationalen Labels sind im Wesentlichen aber nur in ihrem Herkunftsland und in geringerem Maße in angrenzenden Staaten bekannt - das Österreichische Umweltzeichen beispielsweise kennen 68 % der Österreicher, 9 % der Slowaken, 8 % der Slowenen und je 6 % der Deutschen, Ungarn und Kroaten. Für im Schnitt rund ein Drittel der Befragten - in Österreich sind es 43 % - spielen Ecolabels bereits eine wichtige Rolle in ihren Kaufentscheidungen. In Ländern wie Tschechien, Polen und Ungarn haben sie weniger Bedeutung und die Mehrheit der Portugiesen, Spanier und Bulgaren nimmt davon überhaupt (noch) keine Notiz.

Um das Bewusstsein für Ecolabels innerhalb der EU zu erhöhen, hat die EU-Kommission anlässlich des 25-Jahr Jubiläums eine Reihe von Veranstaltungen geplant und tritt über die sozialen Medien auch verstärkt mit Produzenten und Konsumenten in Kontakt (http://ec.europa.eu/environment/ecolabel/25_anniversary.html) .

Fazit

In überwältigender Mehrheit sind die EU-Bürger besorgt über die zunehmenden Umweltprobleme und deren Auswirkungen auf ihr tägliches Leben und ihre Gesundheit; sie wünschen Maßnahmen zum Schutz der Umwelt und möchten selbst auch dazu beitragen. Seit langem geben sie ihrer Meinung Ausdruck, dass in Sachen Umweltschutz noch viel zu wenig getan wird, dass Industrien, lokale, regionale und nationale Institutionen und auch die EU selbst sich dafür viel mehr engagieren müssen. Der Großteil der EU-Bürger wünscht, dass Entscheidungen zum Umweltschutz gemeinsam innerhalb der EU getroffen werden, dass von der EU kontrolliert werden kann, wieweit Umweltgesetze in einzelnen Ländern korrekt angewandt werden und vor allem, dass EU-weite Programme zum Schutz der Umwelt, zur Erhaltung der Natur und zum Klimaschutzbei finanzielle Förderung von der EU erhalten.

In ihrem Umweltaktionsprogramm (7. UAP) für die Zeit bis 2020 hat sich die EU ambitionierte Ziele gesetzt [4], die durchaus im Sinne der von der Mehrheit der EU-Bürger geäusserten Wünsche sind. Ob sie die 4 prioritären Ziele: bessere Umsetzung der Rechtsvorschriften, bessere Information durch Erweiterung der Wissensgrundlage, umfangreichere und intelligentere Investitionen zum Schutz der Umwelt sowie die umfassende Einbeziehung von Umweltbelangen in andere Politikbereiche erreichen kann, ist meiner Ansicht nach sehr fraglich. In einigen Ländern - darunter auch in Österreich - gibt es einen beträchtlichen Anteil durchaus umweltbewußter Bürger, die eine Lösung von Umweltproblemen auf nationaler Ebene vorziehen und die Bereitschaft effizient innerhalb der EU zuz kooperieren müsste stärker werden.


[1] Special Eurobarometer 468 (2017): Attitudes of European citizens towards the environment.

[2] Inge Schuster, 16.11.2017.: Einstellung der EU-Bürger zur Umwelt (Teil 1) – Ergebnisse der ›Special Eurobarometer 468‹ Umfrage.

[3] Spezial-Eurobarometer 468 (2017): Einstellung der europäischen Bürger gegenüber der Umwelt.

[4] 7. UAP – Allgemeines Umweltaktionsprogramm der Union für die Zeit bis 2020: http://ec.europa.eu/environment/pubs/pdf/factsheets/7eap/de.pdf


Weiterführende Links

Artikel im ScienceBlog:

 

inge Thu, 23.11.2017 - 08:36

Einstellung der EU-Bürger zur Umwelt (Teil 1) – Ergebnisse der ›Special Eurobarometer 468‹ Umfrage

Einstellung der EU-Bürger zur Umwelt (Teil 1) – Ergebnisse der ›Special Eurobarometer 468‹ Umfrage

Do, 16.11.2017 - 13:47 — Inge Schuster

Inge SchusterIcon Politik & GesellschaftVor wenigen Tagen ist das Ergebnis einer neuen, von der Europäischen Kommission beauftragten Umfrage zur „Einstellung der EU-Bürger gegenüber der Umwelt“ erschienen (Special Eurobarometer 468 [1]). Daraus geht hervor, dass Umweltschutz in allen Schichten der Bevölkerung einen sehr hohen Stellenwert besitzt. Den Bürgern ist bewusst, dass Umweltprobleme direkte Auswirkungen auf das tägliche Leben und die Gesundheit haben, sie bejahen eine Reihe von Maßnahmen zum Umweltschutz und tragen als persönlich auch dazu bei. In diesem Überblick werden den Ergebnissen über die EU-Bürger (im EU-28 Mittel) die über die Österreicher erhobenen Daten gegenüber gestellt.

Um die Meinungen, Einstellungen und Verhaltensweisen der EU-Bürger im Zusammenhang mit der Umwelt zu erheben, gibt die EU-Kommission regelmäßig, im Abstand von drei Jahren, repräsentative Umfragen in Auftrag. So wurden in der jüngsten Umfrage, im Zeitraum 23. September bis 2. Oktober 2017, insgesamt 27 881 Personen aus allen 28 EU-Mitgliedstaaten - rund 1000 Personen je Mitgliedsland - befragt. Es waren dies persönliche (face to face) Interviews mit Personen ab 15 Jahren aus unterschiedlichen sozialen und demographischen Gruppen, in ihrem Heim und in ihrer Muttersprache. Die Themen waren folgende:

  • Allgemeine Einstellung zur Umwelt und Informationsquellen,
  • Auswirkungen von Umweltproblemen, Auswirkungen von Plastikprodukten und Chemikalien,
  • Maßnahmen um Umweltprobleme in Angriff zu nehmen
  • Rolle der EU im Umweltschutz,
  • Bekanntheit von EU-Gütezeichen (Eco-Labels) und Einstellung dazu,
  • Wahrnehmungen zur Luftqualität und Wege die Luftverschmutzung in den Griff zu bekommen

Die sehr umfangreichen Ergebnisse sind im Special Eurobarometer 468 auf 190 Seiten zusammengefasst [1].

Im Folgenden möchte ich einen Überblick über wesentliche Punkte dieser Umfrage geben. Um die übliche Blog-Länge nicht weit zu überschreiten, erscheint der Artikel in zwei Teilen. Im vorliegenden Teil 1 wird über die ersten drei oben angeführten Themen berichtet.

Eine überwältigende Mehrheit der EU-Bürger sagt Ja zum Umweltschutz

Im EU-28 Durchschnitt sagen 94 % der Befragten, dass ihnen Umweltschutz ein persönlich sehr wichtiges (56 %) oder ziemlich wichtiges (38 %) Anliegen ist.

Abbildung 1. Es ist dies eine Einstellung, die über die letzten 10 Jahre weitgehend unverändert geblieben ist und die man quer durch alle sozio-demographischen Bevölkerungsgruppen antrifft - von jung bis alt, vom Pensionisten bis zum Topmanager finden im EU-28 Durchschnitt 93 - 97 % der Befragten Umweltschutz wichtig.

Abbildung 1. Wie wichtig ist Umweltschutz für Sie persönlich? Daten von 27 881 Befragten (Bild adaptiert aus [1] QD1).

Österreich ist mit 85 % Befürwortern - wobei Umweltschutz nur für 41 % sehr wichtig ist - Schlusslicht unter den EU-Ländern, und der Anteil derer, die Umweltschutz für wenig oder überhaupt für völlig unwichtig erachten, liegt in Österreich bei rund 15 %. Dies ist kein einmaliger Befund: auch in den vergangenen 10 Jahren lag Österreich am Listenende. Bedenklich erscheint die drastische Zunahme der Desinteressierten seit der letzten Umfrage 2014.

Abbildung 2. Abbildung 2. Anteil der Befragten im EU-28 Mittel und in Österreich , für die Umweltschutz wenig oder überhaupt nicht wichtig ist. (Daten zusammengestellt aus [1 - 4]

Woher werden Informationen zur Umwelt bezogen?

Befragt nach den drei hauptsächlichen Informationsquellen (aus einer Liste von 11 Quellen) zu Umweltthemen, nannten die EU-Bürger nach wie vor zum überwiegenden Teil die Fernsehnachrichten; allerdings hat deren Bedeutung in den letzten Jahren stark abgenommen: im EU-28 Mittel von 73 % im Jahr 2011 auf derzeit 58 %. An zweiter Stelle stehen bereits Internet und soziale Netzwerke, die im EU-28 Mittel von 11 % im Jahr 2004 auf aktuell 42 % angestiegen sind. Informationen aus Fernsehdokumentationen (27 %) und aus Tageszeitungen (26 %) rangieren dahinter (Tageszeitungen als Quelle waren 2004 noch von 51 % der EU-Bürger genannt worden).

In Österreich geben nur mehr 49 % der Befragten die TV-Nachrichten als primäre Informationsquelle an (2014 waren es noch 55 %), an zweiter Stelle stehen hier die Tageszeitungen (38 %), die aber ebenso an Bedeutung eingebüßt haben (2014 waren es noch 49 %). Dies ist auch der Fall bei Fernsehdokumentationen (2014: 38 %) und bei Internet & Sozialen Netzwerken (2014: 41 %), die nun mit 34 % an dritter Stelle stehen. Die Informationsquelle "Familie, Freunde und Bekannte" hat in Österreich an Bedeutung gewonnen (2017: 21 %; 2014: 15 %), während sie im EU-Mittel gleich geblieben ist (2017: 14 %; 2014: 13 %); Information aus Zeitschriften (17 %) und Büchern (16 %) wird doppelt so häufig genutzt wie im EU-Mittel.

In der Wahl der Informationsquellen gibt es deutliche sozio-ökonomische Unterschiede: TV wird in wesentlich höherem Ausmaß von Personen mit niedrigem Bildungstand (71 %) als von solchen mit hohem Bildungstand (51 %) genannt, von der 55+ Generation häufiger (69 %) als von den 15 - 24 Jährigen (40 %), die wiederum Internet und soziale Netzwerke präferieren (70 % gegenüber 19 % der 55+ Personen).

Was sind die wichtigsten Umweltthemen?

Bei der Auswahl der 4 wichtigsten von insgesamt 13 Umweltthemen steht EU-weit der Klimawandel (51 %) an der Spitze, gefolgt von der Luftverschmutzung (46 %) und dem steigenden Abfallaufkommen (40 %). Die Verschmutzung der Gewässer wird von 36 % der Befragten genannt, die Verschmutzung der Landwirtschaft durch Pestizide, Düngemittel, etc. und die Bodenverschlechterung von 34 %.

Auch in Österreich ist sich mehr als die Hälfte (53 %) der Bürger des Problems Klimawandel bewusst. Von größerer Wichtigkeit erscheinen danach aber "Rückgang/Verlust von Arten, Habitaten und Ökosystemen" (42 %; EU-28: 33 %) und die Verschmutzung der Landwirtschaft durch Pestizide, Düngemittel, etc. und Bodenverschlechterung (41 %; EU-28: 34 %). Das steigende Abfallaufkommen (39 %) und die Verschmutzung der Gewässer (35 %) werden etwa gleich häufig genannt wie im EU-Mittel, die Verschmutzung von Luft (36 %) aber weniger häufig.

Auswirkungen von Umweltproblemen

Im Mittel geben 81 % der EU-Bürger an, dass sie mit Auswirkungen von Umweltproblemen auf das tägliche Leben und die Gesundheit rechnen – ähnliche Ergebnisse wurden auch in früheren Umfragen erhalten. Besonders ausgeprägt ist diese Ansicht in den Mittelmeerstaaten, weniger ausgeprägt in Skandinavien und Holland, wo bis zu ein Drittel der Befragten kaum oder gar keine Auswirkungen annehmen - in Österreich meinen Letzteres 22 %. Abbildung 3.

Abbildung 3. Der Großteil der EU-Bürger rechnet mit Umwelt-bedingten Auswirkungen auf das tägliche Leben und die Gesundheit (Bild adaptiert aus [1] QD5.3).

Ein besonderer Schwerpunkt der Erhebung wurde auf den Abfall von Gebrauchsgegenständen aus Kunststoff und auf Chemikalien in alltäglich angewandten Artikeln gesetzt.

Bezüglich der Auswirkungen von Kunststoffprodukten

waren im EU-28 Durchschnitt 74 % der Befragten sehr oder ziemlich besorgt über mögliche gesundheitliche Konsequenzen (in Österreich waren dies 76 %). Noch besorgter zeigten sich die Europäer, nämlich 87 % im EU-28 Mittel (und gleich viele in Österreich), über mögliche Konsequenzen von Kunststoffprodukten für die Umwelt.

Auswirkungen von Chemikalien

Mehr als von Plastikprodukten fühlen sich die EU-Bürger von Chemikalien in in alltäglich angewandten Produkten bedroht. Vor negativen gesundheitlichen Auswirkungen derartiger Stoffe fürchten sich im EU-28 Mittel 84 %, in Österreich 81 % der Befragten. Besonders ängstlich sind Bürger in einer Reihe von Mittelmeerländern (vor allem in Griechenland und Malta, wo 96 % besorgt sind), weniger ängstlich sind die Skandinavier und insbesondere die Holländer, von denen rund ein Drittel angibt unbesorgt zu sein.

Wie auch beim Plastikmüll sorgen sich noch mehr EU-Bürger - im EU-Mittel 90 %, in Österreich mit 87 % etwas weniger - um Auswirkungen von Chemikalien auf die Umwelt als um Auswirkungen auf die Gesundheit.

Was kann zum Umweltschutz getan werden?

Hier wurde eine Liste von 8 Maßnahmen vorgegeben. Aus diesen sollten bis zu 3 Maßnahmen ausgewählt werden, mit denen am wirksamsten Umweltprobleme in den Griff zu bekommen wären: das Ergebnis ist in Abbildung 4 aufgezeigt.

Dass Forschung und Entwicklung von technologischen Lösungen notwendig ist, sehen die EU-Bürger als wichtige Maßnahme. Wenig überraschend steht der Ruf nach mehr Geld für entsprechende Investitionen an der Spitze der Prioritäten von 9 Ländern (darunter auch von Österreich) und führt auch die EU-28 Liste an. Dahinter kommen dann Strafen für Umweltsünder, strengere Gesetze und bessere Einhaltung bestehender Gesetze. In Österreich kommt gleich nach den Investitionen für F&E ein weiterer Ruf nach Geld: der Wunsch nach finanziellen Anreizen für Unternehmer und Personen, die Maßnahmen für den Umweltschutz ergreifen.

Der Einführung von Steuern auf umweltschädigende Aktivitäten messen die meisten Staaten geringere Bedeutung bei.

Abbildung 4. Welche 3 Maßnahmen sind Ihrer Meinung nach die wirksamsten, um Umweltprobleme in den Griff zu bekommen? (maximal 3 Nennungen; Bild adaptiert aus QD 8[1])

Kann der Einzelne zum Umweltschutz beitragen?

Nahezu unverändert über die letzte Dekade stimmt der weitaus überwiegende Teil der EU-Bürger (87 %) dieser Frage voll (45 %) oder eher (42 %) zu. Nur 8 % im Mittel stimmen eher nicht zu und 2 % verneinen völlig. Die Zustimmung hängt dabei offensichtlich vom Bildungsgrad (Pflichtschulabschluß: 82 %, tertiäre Bildung: 91 %) und vom sozialen Status ab (Arbeitslose: 82 %, Arme 81 %, Führungskräfte: 92 -93 %).

In Österreich stimmen insgesamt 16 % eher nicht oder überhaupt nicht zu (ob dies die am Umweltschutz Desinteressierten 15 % in Abbildung 2 sind?).

Welche Beiträge dabei die Befragten im letzten Halbjahr leisteten, wurde an Hand einer Liste von 9 Handlungsarten abgefragt (Abbildung 5). Diese Tätigkeiten sind offensichtlich in der breiten Öffentlichkeit angekommen - jede davon wird in nahezu jedem Staat von einem beträchtlichen Anteil der Bürger ausgeübt. Insbesondere Schweden ist mit 55 - 87 % Beteiligung an 5 der 9 Aktivitäten ein positives Musterbeispiel.

Nur 8 % der EU-Bürger sagen, dass sie keine der gelisteten Aktivitäten ausgeführt hätten.

Abbildung 5. Welche der gelisteten Aktivitäten haben Sie im letzten Halbjahr ausgeübt? (Mehrfachnennungen möglich; Bild zusammengestellt aus QD 4 [1])

An der Spitze der angegebenen Aktivitäten steht im EU-28 Mittel mit 65 % die Mülltrennung, die ein Recyceln ermöglicht - in 23 Ländern der EU ist dies überhaupt die am häufigsten genannte Aktivität. In 5 Ländern hat der Kauf lokaler Produkte Vorrang - dazu gehört Österreich mit 64 % der Befragten. Auch in einigen anderen Punkten - Vermeidung von Plastik-Wegwerfprodukten und von Überverpackung ist Österreich aktiver als der EU-28 Durchschnitt.

Allerdings: die Vermeidung unnötiger Autofahrten wird in den meisten Ländern am wenigsten goutiert.

Fazit

Die Problematik von Klimawandel, Luft- und Wasserverschmutzung, steigendem Abfall, Bodenverschlechterung, Rückgang von Habitaten und Arten, etc. ist den EU-Bürgern bewusst und sie befürchten Konsequenzen für ihr tägliches Leben und ihre Gesundheit. Der Wunsch die Umwelt zu schützen findet daher breite Unterstützung, die EU-Bürger bejahen Maßnahmen und sind bereit dazu auch persönlich beizutragen.

Ein wichtiger Punkt ist allerdings die Frage wie mehr und vor allem relevante Information der Bevölkerung vermittelt werden kann, wie ein Bewusstwerden der komplexen Wechselbeziehungen im Ökosystem Umwelt und damit auch der Konsequenzen von Menschen-gemachten Eingriffen und Reparatur-Bemühungen erreicht werden kann. Die schwindende Bedeutung eines nur mehr auf Quote bedachten TV und von Printmedien, die zum Großteil auf Schlagzeilen abzielen, hat ein Informationsloch entstehen lassen, welches Internet und soziale Medien jedenfalls derzeit noch nicht seriös füllen können.


[1] Special Eurobarometer 468 (2017): Attitudes of European citizens towards the environment. http://bit.ly/2zHlpHR


Weiterführende Links

Eurobarometer

Artikel im ScienceBlog:

Schwerpunkt zum Thema Klimawandel und Einfluss auf Ökosysteme (dzt. 28 Artikel)

Schwerpunkt zum Thema Biokomplexität mit Fokus auf Ökosysteme

inge Thu, 16.11.2017 - 13:47

Der Ignaz-Lieben Preis - bedeutender Beitrag zur Förderung der Naturwissenschaften in Österreich

Der Ignaz-Lieben Preis - bedeutender Beitrag zur Förderung der Naturwissenschaften in Österreich

Do, 09.11.2017 - 06:12 — Robert Rosner

Robert RosnerIcon GebietDer Ignaz-Lieben Preis wurde im Jahr 1863 gestiftet, um im damaligen Kaiserreich die Naturwissenschaften zu fördern und Forscher für bahnbrechende Arbeiten auszuzeichnen. In den darauffolgende 72 Jahren gehörten viele der Laureaten der Weltspitze an, einige erhielten später auch den Nobelpreis. Auf Grund der Verfolgung der Stifterfamilie wurde der prestigeträchtige Preis im Jahr 1938 eingestellt und 66 Jahre später - dank der großzügigen Unterstützung von Alfred und Isabel Bader - im Jahr 2004 wieder ins Leben gerufen. Der Chemiker und Wissenschaftshistoriker Robert Rosner hat diese Reaktivierung initiiert; er gibt hier einen kurzen Überblick über Geschichte und Bedeutung des Lieben-Preises (ausführlich in [1]). An die Preisvergabe gekoppelt werden Veranstaltungen zu Themen der Wissenschaftsgeschichte abgehalten: das diesjährige Symposium über "Darwin in Zentraleuropa" findet eben (9. -10. November 2017) statt.

Eine Stiftung „für das allgemeine Beste“

Der Großhändler Ignaz L. Lieben hatte in seinem Testament verfügt, dass von seinem Vermögen 10.000 Gulden „für das allgemeine Beste“ verwendet werden sollten und überließ es seiner Frau und seinen Kindern, zu entscheiden, was mit diesem Geld geschehen werde (Abbildung 1).

Abbildung 1. Ignaz Lieben (1805 - 1862). Großhändler und Mäzen. Das "allgemeine Beste" war nach Meinung seines Sohnes Adolf die Naturwissenschaftenzu fördern.

Als er 1862 starb wurde von der Familie auf Vorschlag eines seiner Söhne, dem 1836 geborenen Adolf, entschieden, dass von dem Betrag 6000 Gulden verwendet werden sollten, um eine Stiftung zu schaffen, die dazu dienen sollte, hervorragende Arbeiten österreichischer Naturwissenschaftler mit einem Preis auszuzeichnen.

Wer war Adolf Lieben?

Adolf Lieben (Abbildung 2.), auf dessen Vorschlag die Stiftung geschaffen wurde, war selbst Chemiker.

Abbildung 2. Adolf Lieben (1836 - 1914). Der "Nestor" der Organischen Chemie in Wien. Er hat das bedeutendste Chemische Institut im Kaiserreich 31 Jahre lang geleitet.

Er hatte sein Studium in Wien bei den Liebig Schülern Josef Redtenbacher und Anton Schrötter begonnen und dann bei Robert Bunsen in Heidelberg abgeschlossen. Danach arbeitete Lieben zwei Jahre bei dem berühmten französischen Chemiker Charles Adolphe Wurtz in Paris. Nach seiner Rückkehr nach Österreich habilitierte er sich im Fach Organische Chemie im Jahre 1861.

Doch es gab zu dieser Zeit für Lieben keine Möglichkeiten in Österreich eine akademische Stellung zu erhalten: aufgrund des 1850 abgeschlossenen Konkordats waren nur Katholiken für einen akademischen Posten zugelassen und Lieben war Jude. Er war zwar dank des Vermögens der Familie weitgehend finanziell gesichert, aber es schien für ihn keine Möglichkeiten zu geben als Wissenschaftler in Österreich zu arbeiten. Auch eine Fürsprache des Dichters Franz Grillparzer, der ein Freund der Familie war, konnte daran nichts ändern.

Es ist umso bemerkenswerter, dass die Familie beschloss, einen großen Teil des Geldes, das Ignaz Lieben „für das allgemeine Beste“ hinterlassen hatte, der Akademie der Wissenschaften zur Verfügung zu stellen, um einen Preis zu stiften, mit dem die beste Arbeit eines österreichischen Naturwissenschaftlers ausgezeichnet werden sollte.

Um weiter wissenschaftlich arbeiten zu können, übersiedelte Lieben wenige Monate nach dem Tod seines Vaters wieder auf ein Semester nach Paris. Dort traf er den angesehenen italienischen Chemiker Stanislao Cannizzaro, der Lieben eine Stelle in Palermo anbot. Obwohl er anfangs zögerte dieses Angebot anzunehmen, entschloss sich Lieben im Herbst 1862 - in Anbetracht der Aussichtslosigkeit für eine akademische Laufbahn in Österreich - zu dem, wie er meinte, großen Abenteuer, die Stelle in Palermo anzunehmen.

1867 wurde Lieben an die Universität Turin berufen, nur ein Jahr nach dem österreichisch-italienischen Krieg von 1866. Als Österreicher stieß Lieben dort anfangs auf großen Widerstand bei Studenten und Kollegen.

Der Krieg von 1866, der mit einer österreichischen Niederlage gegen Preußen endete, führte in Österreich zu tief greifenden Veränderungen. Es kam zur Annahme der neuen Verfassung im Jahre 1867, durch die es auch Nichtkatholiken möglich wurde als Hochschulprofessoren berufen zu werden. Als 1871 die Lehrkanzel für Chemie in Prag frei wurde, erhielt Lieben eine Berufung dorthin. Obwohl sich Lieben inzwischen in Turin sehr wohl fühlte, und Prag ihn wegen der ständigen Reibungen zwischen Tschechen und Deutschen nicht anzog, glaubte er doch, dass er eine Berufung nach Österreich nicht ablehnen könne.

1875 wurde Adolf Lieben nach Wien berufen, um die Leitung des 2. Chemischen Instituts der Universität Wien, des wichtigsten Instituts für Organische Chemie im ganzen Reich, zu übernehmen. Die Berufung erfolgte 1875 am Höhepunkt der Liberalen Ära in Österreich. Es gab daher wenig Widerstand gegen seine Berufung trotz seiner jüdischen Herkunft. Lieben leitete dieses Institut 31 Jahre lang bis zu seiner Emeritierung im Jahre 1906 und er konnte ganze Generationen von Chemikern ausbilden, die später führende Positionen an anderen Hochschulen übernahmen.

Die Ignaz Lieben Stiftung - erste Stiftung zur Förderung der Naturwissenschaften in Österreich

Der Betrag von 6000 Gulden, mit dem auf Familienbeschluss die Stiftung geschaffen wurde, wurde in 5%ige Pfandbriefe der k. k. österreichischen Nationalbank angelegt. Diese wurden der kaiserlichen Akademie der Wissenschaften übergeben und sollten immerwährend der Förderung wissenschaftlicher Forschung auf den Gebieten der Physik und Chemie gewidmet sein. Mit den Zinsen sollte alle drei Jahre abwechselnd die Arbeit eines Chemikers oder eines Physikers ausgezeichnet werden. Die Zinsen betrugen also nach 3 Jahren 900 Gulden. Damit man sich ein Bild vom Stellenwert dieses Preises machen kann:

Ein Universitätsprofessor verdiente damals im Jahr etwa 2000 Gulden. Wenn also ein jüngerer Wissenschaftler als Anerkennung für seine Arbeit den Lieben Preis in der Höhe von 900 Gulden erhielt, war es für ihn nicht nur eine Ehre sondern auch materiell von großer Bedeutung.

Die Ignaz Lieben Stiftung war die erste Stiftung, die die noch junge Akademie der Wissenschaften in den 15 Jahren ihres Bestehens erhalten hatte. Es kam in dieser Zeit in Wien häufig vor, dass Angehörige des gehobenen Bürgertums einen Teil ihres Erbes für soziale oder kulturelle Zwecke widmeten. Zur Förderung der Naturwissenschaften gab es jedoch vor der Lieben Stiftung keinerlei Stiftungen. Angeregt durch das Beispiel der Familie Lieben wurden in den folgenden Jahren allmählich auch andere Stiftungen zur Förderung der Naturwissenschaften geschaffen. Aber erst ab 1890 kam es zu einer wesentlichen Erhöhung der Zahl derartiger Stiftungen, die von der Akademie der Wissenschaften verwaltet wurden. Erst dadurch wurde es für die Akademie möglich, eine größere Anzahl Preise für naturwissenschaftliche Arbeiten zu vergeben.

Aufstockungen des Lieben-Preises

Im Verlauf der Zeit wurde die Lieben Stiftung mehrmals aufgestockt: 1898 mit 36 000 Kronen und 1908 mit weiteren 18 000 Kronen.

Die Erweiterung der Ignaz Lieben Stiftung im Jahre 1898 durch die Brüder Lieben Stiftung mit 36 000 Kronen machte es möglich den Lieben Preis jährlich zu vergeben: neben der Physik und der Chemie wurde nun auch die Physiologie als Fachrichtung genannt. Damit erhielt die Lieben Stiftung eine wesentlich größere Bedeutung.

Ein eigenes Kapitel der Lieben Stiftungen war der 1908 gestiftete Richard Lieben Preis, der mit 18 000 Kronen dotiert war. Mit den Zinsen dieser Stiftung sollte alle 3 Jahre eine hervorragende Arbeit eines österreichischen Mathematikers ausgezeichnet werden.

Als durch die Inflation nach dem ersten Weltkrieg die Krone wertlos wurde, beschlossen Fritz und Heinrich Lieben, die Söhne Adolf Liebens, im Jahre 1924 jährlich einen Betrag zu spenden damit der Lieben Preis weiter vergeben werden konnte. Im Inflationsjahr 1924 waren es 10 Millionen Kronen und in den folgenden Jahren bis 1937 1000 Schilling.

Die Schrecken des Jahres 1938 bedeuteten auch das Ende der ursprünglichen Lieben Stiftung. Friedrich Lieben konnte noch flüchten. Sein Bruder Heinrich Lieben wurde kurz vor Kriegsende im Konzentrationslager Buchenwald ermordet.

Die Kriterien

Im Juli 1863 erhielt der Stiftbrief die endgültige Fassung. Darin wurde genau festgelegt, dass abwechselnd der Autor der besten Arbeit auf dem Gebiet der Physik, einschließlich der physiologischen Physik und der Autor einer Arbeit auf dem Gebiet der Chemie, einschließlich der physiologischen Chemie den Lieben Preis erhalten sollte. Weiters hieß es:

„Als preiswürdig sind im allgemeinen nur solche Arbeiten zu betrachten, welche durch neue Entdeckungen die Wissenschaft bereichern oder in einer Reihe bereits bekannter Tatsachen die gesetzmäßigen Beziehungen aufgeklärt haben.“

Preisträger konnten nur Österreicher werden, auch ausgewanderte oder naturalisierte Österreicher.

Die Auswahl sollte von einer Kommission getroffen werden, die von der mathematisch –naturwissenschaftlichen Klasse der Akademie gewählt wurde. Den Kommissionen gehörten führende Professoren des jeweiligen Fachgebietes an. Die Vorsitzenden waren gewöhnlich Wissenschaftler von großem Ansehen, die oft Kandidaten auswählten, die in ihrer eigenen Fachrichtung bedeutende Leistungen erbracht hatten.

Viele der Preisträger des Lieben Preises wurden später selbst Mitglieder der Akademie der Wissenschaften.

Die Preisträger

Von 1865 bis 1937 wurden insgesamt 55 Forscher ausgezeichnet. Eine Liste der Preisträger findet sich unter [2, 3]. Wenn man sich die Fachgebiete der Laureaten anschaut, so kann man die Forschungsschwerpunkte dieser Zeit unschwer erkennen.

Physik-Preise

Der erste Lieben Preis 1865 war für einen Physiker vorgesehen. Die Kommission beschloss den damals 30 Jahre jungen Josef Stefan mit dem Preis für eine Arbeit auf dem Gebiet der Optik (Doppelbrechung) auszuzeichnen. Auch 6 Jahre später wurde von einer Kommission, der nun auch Stefan angehörte, der Preis wieder für eine Arbeit auf dem Gebiet der Optik (optische Eigenschaften von Kristallen) vergeben, an Leander Dietscheiner.

Die folgenden drei Preise für Physik in den Jahren 1877, 1883 und 1889 bekamen nicht Physiker sondern Physiologen: Sigmund Exner erhielt den Preis zweimal (für das erste Modell eines neuronalen Netzwerkes . Erst 1895 wurde der Lieben Preis wieder an reine Physiker, an Josef Maria Eder für "Wissenschaftliche Photographie" und Eduard Valenta für das "Auffinden von Spektrallinien mit Hilfe der wissenschaftlichen Photographie" vergeben.

Die Kommissionen, die die Preise für physikalische Arbeiten in den Jahren 1901, 1904 und 1907 vergaben, waren offenbar durch Julius Hann, den Professor für Meteorologie und Geodynamik beeinflusst; sein Assistent Josef Liznar erhielt 1901 den Preis für Messungen der erdmagnetischen Kraft , 1904 wurde er an Franz Schwab für eine klimatologische Untersuchung vergeben und 1907 erhielt ihn Hans Benndorf für Untersuchungen der Erdbebenwellen.

Als Ergebnis des wachsenden Interesses für die Kernphysik wurden die Preise in den Jahren 1910, 1913, 1916 und 1919 an Experimentalphysiker vergeben, deren Arbeiten meistens in Zusammenhang mit dem neu gegründeten Radium Institut standen. 1910 an Felix Ehrenhaft ("Elementarladung"), 1913 an Stefan Meyer (Radioaktivitätsforschung"), 1916 an Fritz Paneth ("Radioaktive Tracermethoden") und 1919 an Victor Hess ("Kosmische Strahlung").

Als 1925 Lise Meitner mit einem einhelligen Beschluss den Preis erhielt, wurde diese Wahl mit einem fast prophetischen Satz begründet: Er lautete: „Die Ergebnisse der Untersuchungen bilden die Grundlage für ein tieferes Eindringen in die Erkenntnisse des Atomkernbaus der radioaktiven Substanzen und weitergehend der Konstitution der Grundstoffe“ . Abbildung 3.

Abbildung 3. Lise Meitner erhält den Liebenpreis (Bild: http://www.i-l-g.at/ignaz-lieben-preis/preistraeger/)

Die letzten Lieben Preise für Physik wurden an Wiener Forscher vergeben, 1929 an Karl Przibram (Radiophotolumineszenz), 1934 an Eduard Haschek (Farbenlehre) und 1937 an Marietta Blau und Hertha Wambacher (Kernzertrümmerung).

Chemie-Preise

Der erste Lieben Preis auf den Gebiet der Chemie ging 1868 an Chemiker, die versuchten durch Synthese einfacher Moleküle Strukturfragen zu klären. Der Preis wurde zwischen dem Ungarn Karl Than und dem Lemberger Eduard Linnemann geteilt. In den folgenden Jahrzehnten wurden meistens Arbeiten in Erwägung gezogen, die in Zusammenhang mit der Forschung auf dem Gebiet der Naturstoffchemie und besonders der Alkaloide standen - ab Mitte des 19. Jahrhunderts einem der wichtigsten chemischen Forschungsgebiete in Österreich. 1886 erhielt Zdenko Skraup den Preis für die Chinolin Synthese, die bei der Erforschung der Chinin Alkaloide von großer Bedeutung war, und im Jahre 1892 Guido Goldschmiedt, der Vorstand des chemischen Instituts in Prag, für seine Alkaloidforschung.

Erst zu Beginn des 20. Jahrhunderts wurden die Preise für Arbeiten auf dem Gebiet der Farbstoffchemie vergeben, einem Fachgebiet, das in Österreich lange vernachlässigt worden war, während es ja in Deutschland gewaltige Fortschritte gab. 1902 erhielt Josef Herzig den Preis für Naturfarbchemie und 1908 Paul Friedlaender für synthetische Farben.

Im Jahre 1905 wurde erstmals der Preis für eine physikalisch-chemische Arbeit - Reaktionskinetik - an Rudolf Wegscheider vergeben Als sich in Graz die mikrochemische Schule zu entwickeln begann, erhielt 1911 Friedrich Emich für anorganische Mikroanalyse den Lieben Preis und 1914 Fritz Pregl für organische Mikroanalyse. Doch in der Folge waren es aber immer wieder Organische Chemiker, wie Wilhelm Schlenk oder Ernst Späth, die den Lieben Preis für Chemie erhielten.

Bei der Preisvergabe für Chemie in den Zwanziger- und Dreißigerjahren gab es auch öfters längere Diskussion mit vielen Vorschlägen bevor sich die Kommission einigte. 1930 wurde der Preis für die Passivierung von Metallen an Wolf J. Müller vergeben und 1935 an Armin Dadieu für eine Arbeit über Raman Spektren.

Physiologie-Preise

Die Preisträger für Physiologie wurden aus den verschiedensten Fachgebieten ausgewählt So erhielt Karl v. Frisch die Auszeichnung für seine Arbeiten über die Bienen, Otto Loewi für die Untersuchungen der Nervenübertragung am Herzen oder der Hormonforscher Eugen Steinach für Forschungen über Pubertätsdrüsen bei Säugetieren.

Mathematik-Preise

Der erste Preis wurde 1912 an den slowenischen Mathematiker Josip Plemelj vergeben, der an der Universität Czernowitz unterrichtete und das letzte Mal 1928 an Karl Menger.

Spiegelbild der österreichischen Forschung

In den rund 70 Jahren ihrer Existenz bot die Lieben Stiftung ein wahres Spiegelbild der österreichischen Forschung auf dem Gebiet der Naturwissenschaften. Die meisten mit dem Lieben-Preis ausgezeichneten Forscher waren noch jünger [2] und hatten bereits hervorragende Beiträge in ihren Fachgebieten geliefert - Arbeiten, die sie weltberühmt machten, erschienen erst viele Jahre nachdem sie den Lieben Preis erhalten hatten. Dies war beispielsweise bei Liese Meitner der Fall. Oder auch bei den vier Lieben Preisträgern, die später den Nobelpreis erhalten sollten (Abbildung 4): Karl von Frisch bekam den Nobelpreis 52 Jahre nach dem Lieben-Preis, bei Otto Loewi waren es 12 Jahre danach, bei Victor F.Hess 17 Jahre und bei Fritz Pregl 9 Jahre später.

Abbildung 4. Lieben-Preisträger, die später den Nobelpreis erhielten. ( http://www.i-l-g.at/ignaz-lieben-preis/preistraeger/ )

Bei anderen stand der Lieben Preis am Beginn ihrer wissenschaftlichen Karriere. Sie übernahmen dann die Leitung der wichtigsten Institute wie etwa Siegmund Exner, Rudolf Wegscheider oder Ernst Späth, die sie dann Jahrzehnte lang führten und die wissenschaftliche Entwicklung in ihren Fachgebieten so prägten.

Eine Reihe von Preisträgern hatte Methoden entwickelt, die als Grundlage für die verschiedensten Wissenschaftszweige dienten wie die von Josef Eder entwickelte Wissenschaftsfotografie, die Mikrochemie von Friedrich Emich und Fritz Pregl, die Isotopentechnik von Friedrich Paneth oder die photographische Methode für die Kernphysik von Marietta Blau.

Über mehrere Generationen hinweg hat die Familie Lieben die naturwissenschaftliche Forschung in Österreich großzügig gefördert. Das Jahr 1938 bedeutete die Vertreibung der Familie Lieben und das Ende der Stiftung. Von den katastrophalen Ereignissen dieser Zeit waren auch etliche Lieben-Preisträger betroffen.

Die Lieben Stiftung geriet nach dem Krieg in Vergessenheit und wurde erst durch das Lieben Projekt wieder ins Leben gerufen [4], das 2004 durch die Unterstützung von Alfred und Isabel Bader zur Wiederherstellung des Lieben-Preises führte [5]. In Erinnerung an den ursprünglichen Lieben Preis, den Wissenschaftler aus dem österreichischen Kaiserreich erhielten, wird jetzt der neu geschaffene Lieben Preis an Wissenschaftler aus einem der Länder vergeben, die einst zur Österreich-Ungarn - gehörten. Abbildung 5 zeigt das Plakat, mit dem die Österreichische Akademie der Wissenschaften 2004 die erste Ausschreibung bekanntgab: sieben Farben und sieben Sprachen stehen für die Länder Bosnien-Herzegowina, Kroatien, Slowakei, Slowenien, Tschechien, Ungarn und Österreich.

Abbildung 5. Die erste Ausschreibung des neugeschaffenen Lieben-Preises auf dem Gebiet der Molekularbiologie, Chemie und Physik im Jahr 2004. (Bild: http://www.i-l-g.at/fileadmin/ILG/docs/lieben-plakat-oeaw-scan.jpg) 


[1] Robert Rosner (2004): Adolf Lieben und die Lieben Stiftung. http://www.i-l-g.at/fileadmin/ILG/symposium/2004/Rosner_2004.pdf

[2] Preisträger des Ignaz L. Lieben-Preises: http://www.i-l-g.at/fileadmin/ILG/symposium/2004/Preistraeger.pdf

[3] Lieben-Preis. https://de.wikipedia.org/wiki/Lieben-Preis

[4] Christian Noe (06.12.2013): Das Ignaz-Lieben Projekt — Über Momente, Zufälle und Alfred Bader

[5] Stiftungsurkunde 2003: http://www.i-l-g.at/fileadmin/ILG/docs/Stiftungsurkunde_1.pdf


Weiterführende Links

Artikel von/über Lieben-Preisträger(n) im ScienceBlog:

 

inge Thu, 09.11.2017 - 06:12

Ein modifiziertes Poliovirus im Kampf gegen bösartige Hirntumoren

Ein modifiziertes Poliovirus im Kampf gegen bösartige Hirntumoren

Do, 02.11.2017 - 8:47 — Ricki Lewis

Ricki LewisIcon MedizinDer als Vater der Immuntherapie geltende amerikanische Chirurg William Coley hat bereits vor mehr als hundert Jahren Krebspatienten mit bestimmten Bakterien ("Coley-Toxins") infiziert, worauf die einsetzende Immunantwort Tumoren zum Verschwinden bringen konnte. Über lange Zeit wurde diese, über die Stimulierung des Immunsystems verlaufende Strategie ignoriert und erst jüngst von Forschern der Duke University wieder aufgegriffen: diese konnten einige an fortgeschrittenem Glioblastom erkrankte Patienten mittels eines modifizierten Poliovirus erfolgreich behandeln. Wie dabei das Immunsystem stimuliert und zum Kampf gegen Tumorzellen umdirigiert wird, ist Gegenstand neuester Studien, welche die Genetikerin Ricki Lewis hier zusammenfasst..*

Bestimmte Dinge haben eine natürliche Abfolge: so kommt das Frühstück vor dem Mittagessen, die Kindheit vor dem Erwachsenwerden, der Herbst vor dem Winter. Ich war deshalb überrascht als ich letzte Woche über Versuche an der Duke University gelesen habe, in denen man Krebs in menschlichen Zellen und in Mäusen mit einem manipulierten Poliovirus behandelt hat. Es hatte doch bereits im Jahr 2015 die TV News-Show "60 Minutes" über vier Patienten berichtet, deren Hirntumoren auf eben derartige Weise behandelt worden waren!

Finden denn präklinische Untersuchungen - an Zellkulturen und Tiermodellen - nicht vor den klinischen Untersuchungen am Menschen statt?

Ich begann zu recherchieren.

Der immunologische Background

Die Idee, eine gegen ein Pathogen gerichtete Immunantwort umzuleiten, um so Krebs zu bekämpfen, geht auf das späte 19. Jahrhundert zurück. Damals hatte William Coley, ein Arzt aus Manhattan, bemerkt, dass der Nackentumor eines Patienten geradezu dahin schmolz, als dieser sich eine schlimme Streptokokkeninfektion der Haut (ein Erysipel, Anm. Red.) zugezogen hatte. Nachdem Coley Beschreibungen mehrerer derartiger Fälle entdeckt hatte, begann er zu experimentieren indem er einigen Krebspatienten einen von Bakterien durchsetzten Schleim in Risse ihrer Haut rieb. Daraufhin schrumpften jedes Mal die Tumoren. Dieser Ansatz - unter Coley's Toxine bekannt - blieb aber viele Jahrzehnte lang unbeachtet.

Das Immunsystem hat zwei Verteidigungslinien

mit denen es Pathogene inklusive Viren und ebenso Krebszellen und transplantierte Zellen bekämpft:

  • eine unmittelbare Antwort, die allgemeiner Art und angeboren ist und
  • eine langsamere Antwort, die adaptiv und spezifischer ist.

Die Abwehr beginnt damit, dass ein Pathogen auf "Wächter"zellen (sogenannte Antigen-präsentierende Zellen) trifft, d.i. auf Makrophagen und dendritische Zellen. Diese Zellen sind an ihren Oberflächen mit Rezeptorproteinen (sogenannten Toll-like Rezeptoren) überzogen, die wie Klettverschlüsse an Moleküle unterschiedlicher Pathogene binden. Eine derartige Bindung löst nun Kaskaden von biochemischen Signalen aus, welche die angeborene Immunantwort starten: die Zellen schütten antivirale Moleküle aus (Komplement, Collectine, Interferone) und leiten die adaptive Immunantwort ein, welche T-Zellen triggert mehr Interferone auszuschütten und Antikörper produzierende B-Zellen zu aktivieren.

Gliazellen als Ausgangsort von Hirntumoren

Das Gewebe des Zentralnervensystems besteht aus den Nervenzellen (Neuronen) und den noch zahlreicheren Gliazellen. Abbildung 1. Eine Immuntherapie gegen Hirntumoren zielt auf die Gliazellen, speziell auf die sternförmigen Astrozyten, ab. Früher hatte man angenommen, dass Gliazellen nur dazu da sind um Lücken zu füllen und Neuronen zu unterstützen (etwa wie in den 50er Jahren die Rolle der Hausfrau wahrgenommen wurde), tatsächlich sind sie aber ein essentieller Teil des Signalsystems im Gehirn.

Abbildung 1. Ein sternförmiger Astrozyt (hellgrün gefärbt). Die blauen Signale (DNA-Färbung) stammen von Zellkernen benachbarter Zellen.

Neuronen teilen sich üblicherweise nicht mehr; deren DNA hat daher nicht mehr die Gelegenheit in eine Krebs -Form zu mutieren. Die Gliazellen proliferieren aber und Krebs-entartete Glias - Gliome - teilen sich explosionsartig.

Der Einsatz eines modifizierten Poliovirus

In der Mitte der 1990er Jahre hatte Matthias Gromeier (damals an der Stony Broke University, NY) die Idee mit Hilfe von Polioviren rezidivierenden Gliomen den Kampf anzusagen und im Jahr 2000 beschrieb er in einem Artikel das, was heute unter PVSRIPO (Polio Virus Sabin-Rhinovirus Poliovirus) bekannt ist.

PVSRIPO ist eine veränderte, abgeschwächte ("Sabin") Polio Lebendvakzine, die nicht in Nervenzellen hineingehen kann. (Zusätzlich trägt PVSRIPO ein Stück des Rhinovirus, das beim Menschen Schnupfen verursacht.) Im Gegensatz dazu infiziert der Polio-Wildtyp Motorneuronen in Hirnstamm und Rückenmark von Primaten und verursacht bei 1 - 2 % der Menschen "schlaffe Paralyse". Das Polio- Virus infiziert auch Gliazellen indem es sich an ein Protein (CD 155) heftet, das in besonders hoher Dichte in den Zellmembranen von Glioma-Zellen sitzt. Abbildung 2. (Normalerweise - wenn es nicht an Polioviren bindet - bewirkt CD155 interzelluläre Verbindungen zwischen Epithelzellen.)

Abbildung 2. Wie das Poliovirus an das Rezeptorprotein CD155 bindet. Links: Der extrazelluläre Teil des CD155 (lila) bindet an ein Protein der Virushülle (Kapsid). Diese setzt sich aus Kopien von 4 Proteinen zusammen. (Bild: Kristallstrukturanalyse des Poliovirus; gemeinfrei). Rechts: CD155 kann an verschiedenen Stellen des Virus andocken. (Bild: Kryoelektronenmikroskopie, rekonstruiert; Nuris, Wikimedia Commons CC BY-SA 4.0 )

In den ersten Experimenten zeigte sich nun, dass PVSRIPO in vitro von Gliomazellen aufgenommen wurde, die man Patienten operativ entfernt und in Zellkultur gebracht hatte und in vivo im Modell Maus Gehirntumoren besiegte.

Das modifizierte Poliovirus PVSRIPO ist also nicht Verursacher von Polio, sondern eine Vakzine. Es generiert ein Heer von weißen Blutkörperchen -von Neutrophilen, dendritischen Zellen und T-Zellen -, welche denTumor direkt angreifen oder die Immunabwehr auf die Tumorzellen richten.

Ein monströser Tumor

Glioblastoma multiforme geht von Astrozyten aus und ist das Schlimmste vom Schlimmen ("der Terminator", wie er in einem Editorial zu dem Gromeier-Artikel im Jahr 2000 bezeichnet wurde). Abbildung 3.

Abbildung 3. Glioblastoma multiforme. Koronare Schnittfläche. Der teilweise nekrotische Tumor links hat sich auch im Bereich des Balkens (Mitte) ausgebreitet. (Bild: Sbrandner, Wikimedia Commons, cc-by-sa 4.0)

"Multiforme" bezieht sich dabei auf die unzähligen Wege, mit denen der Tumor das Hirn einnimmt. Er produziert Gebiete des Zerfalls oder von Blutungen, während sich überall mikroskopisch kleine Tentakeln entrollen - möglicherweise eine Reminiszenz an das schnelle Wachstum des Gehirns im Embryo. Eine Operation kann die Tumormasse verringern, Bestrahlungen und Chemotherapie (mit dem oralen Wirkstoff Temozolomid) können helfen - immer werden jedoch einige Tentakeln übrigbleiben. Die Genome der Tumorzellen sind übersät mit Mutationen. Veränderte, zusätzliche und fehlende DNA-Basen sabotieren die Signale, welche den Zyklus der Zellteilung regulieren.

Die im Jahr 2000 von Gromeier und Kollegen aufgestellte Hypothese war es nun, dass das Poliovirus eine Immunantwort gegen Glioma-Zellen erzeugen könnte. Ihrer Überzeugung nach würde das zu einem Zerplatzen oder Lysieren der Zellen führen. So entstand das "Onkolytische Poliovirus gegen Tumoren des Menschen", dem schließlich am 3. August 2017 ein Patent zugeteilt wurde. Es sollte sich herausstellen, dass dieses PVSRIPO viel mehr konnte, als die Entdecker im Jahr 2000 angenommen hatten.

Klinische Studien

Der Weg, der von einer überzeugenden Idee zu präklinischen Untersuchungen an Zell(kultur)en und Versuchstieren zu klinischen Studien führt, dauert üblicherweise ein Jahrzehnt und länger. Die PVSRIPO–Saga bildet dabei keine Ausnahme.

Die Phase 1 Studie in der Klinik, von der die TV-News 2015 berichteten und ein Jahr später dies aktualisierten, war 2011 bei den Behörden eingereicht worden und der erste Patient wurde im Mai 2012 behandelt. Für diese Studie waren insgesamt 61 Patienten vorgesehen, die TV-Show verfolgte vier davon. Alle hatten maligne Gliome Grad IV (d.i. die höchste Stufe) und erhielten das Virus über Katheter, die - unter MRI-Kontrolle - direkt in die Tumormasse geleitet wurden.

Um die Untersuchung zu sponsern, gründete das Forscherteam die Firma Istari Oncology.

Der aktuelle Status: man ist nun bereits in der 2. klinischen Phase und hat das Chemotherapeutikum Lomustin zugefügt, das früheren Patienten geholfen hat. Eine unabhängige Studie wird die Sicherheit und Wirksamkeit auch in Kindern prüfen, bei denen Gliome aber selten auftreten.

FDA: PVSRIPO ein therapeutischer Durchbruch

Die Ergebnisse waren so überzeugend, dass die FDA im Mai 2016 dem PVSRIPO den Status "Therapie Durchbruch" verliehen hat; dies beschleunigt vermutlich die weitere Entwicklung.

Aus den entsprechenden Daten geht hervor, dass die mittlere Überlebenszeit behandelter Patienten auf 12,6 Monate gestiegen war (gegenüber 10,5 Monaten unbehandelter "historischer Kontrollen") und nach zwei Jahren noch 23,3 % der behandelten Patienten am Leben waren (gegenüber 13,7 % der Kontrollen) . Nach Meinung der Forscher sollten höhere Dosen PVSRIPO zu einer noch besseren Wirksamkeit führen. (Allerdings, als die Dosis dann erhöht wurde, verursachte dies bei einer Patientin eine extrem starke Entzündung mit letalen Folgen.)

Ein erwähnenswerter Erfolg zeigte sich bei einer jungen Schwesternschülerin, Stephanie Lipscomb, die 2012 behandelt worden war. Sie ist in Facebook und es geht ihr heute offensichtlich gut: sie wurde Mutter, ist nun Krankenschwester und gilt in den Medien als "tumorfrei". Dass Mikrometastasen bestehen können, dass einige übriggebliebene Gliomzellen, die den Poliorezeptor nicht tragen, zu einer Rekurrenz des Glioms führen, kann zweifellos nicht ausgeschlossen werden.

Wie funktioniert PVSRIPO?

Um zu verstehen, wie PVSRIPO die Gliom-Zellen für das Immunsystem markiert/sichtbar macht, führt Gromeier zusammen mit dem Immunologen Smita Nair und anderen Kollegen Untersuchungen fort, die - wie eingangs erwähnt - an humanen Krebszellen in Zellkultur erfolgen:

PVSRIPO lässt - wie erwartet -die Zellen platzen. Unerwartet ist aber, dass auch die angeborene Immunantwort aktiviert wird und eine Entzündung auslöst. Dafür könnte das - eingangs erwähnte - Stückchen Rhinovirus verantwortlich sein, das dem modifizierten Poliovirus angefügt wurde. Dieses kann den Ball zum Rollen bringen, indem es dendritische Zellen aktiviert, worauf diese Interferone ausschütten und T-Zellen aktivieren und diese schließlich an die Antigene an der Tumoroberfläche andocken. Abbildung 4 fasst diese Kaskade von Reaktionen zusammen.

Abbildung 4. Wie das modifizierte Poliovirus PVSRIPO Tumorzellen bekämpft: 1) Direkter Angriff des Poliovirus erfolgt durch Bindung an die zahlreich auf den Tumorzellen vorhandenen CD155 Rezeptoren (1 - 3). 2) Infektion von dendritischen Zellen führt zur Stimulation von T-Zellen, die den Tumor zerstören (4 - 6).

Das Poliovirus tötet also nicht nur die Tumorzellen auf direkte Weise, es infiziert auch die dendritischen (Antigen-präsentierenden) Zellen, die nun eine Antwort der T-Zellen auslösen, welche Tumorzellen erkennen und das Tumorgewebe infiltrieren können.

Die neuen präklinischen Befunde sind eine Basis für die nächste Runde an klinischen Untersuchungen. Eine erfolgversprechende Idee steht auf dem Prüfstand (wenngleich diese schon ein Jahrhundert auf dem Buckel hat): eine auf eine Infektion erfolgende Immunantwort umzuleiten, sodass sie nun Krebs bekämpft.


Literatur

Coley WB. Contribution to the knowledge of sar­coma. Ann Surg 1891;14:199-220. (open access).

Gromeier M et al., (2000). Intergeneric poliovirus recombinants for the treatment of malignant glioma. Proc Natl Acad Sci U S A. 2000 Jun 6;97(12):6803-8. (open access) Information zu Glioblastoma: http://www.abta.org/brain-tumor-information/types-of-tumors/glioblastoma...

Brown MC et al., (2017) Cancer immunotherapy with recombinant poliovirus induces IFN-dominant activation of dendritic cells and tumor antigen–specific CTLs . Science Translational Medicine 20 Sep 2017: Vol. 9, Issue 408, eaan4220 DOI: 10.1126/scitranslmed.aan4220


*Der Artikel ist erstmals am 28. September 2017 in PLOS Blogs - DNA Science Blog unter dem Titel "Poliovirus To Treat Brain Cancer: A Curious Chronology " erschienen ( (http://blogs.plos.org/dnascience/2017/09/28/poliovirus-to-treat-brain-ca... ) und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt. Der Artikel wurde geringfügig gekürzt; die Übersetzung folgt jedoch so genau wie möglich der englischen Fassung. Von der Redaktion eingefügt: Beschriftung der Abbildungen, Untertitel.


Weiterführende Links

Coley's Toxins: The History Of The Worlds Most Powerful Cancer Treatment. (englisch; 9:22; Standard-YouTube-Lizenz)

Targeting Cancer with Genetically Engineered Poliovirus. (u.a. M. Gromeier) (Englisch – 10:47; Standard-YouTube-Lizenz).


 

inge Thu, 02.11.2017 - 08:47

Biologische Klebstoffe – Angriff und Verteidigung im Tierreich

Biologische Klebstoffe – Angriff und Verteidigung im Tierreich

Do, 26.10.2017 - 11:16 — Janek von Byern & Norbert Cyran

Janek von Byern Norbert CyranIcon BiologieZahlreiche Tierarten produzieren unterschiedlichst zusammengesetzte Klebstoffe, um einerseits Angreifer abzuwehren oder um selbst anzugreifen, Beute zu machen. Die Zoologen Janek von Byern (Ludwig Boltzmann Institut für Experimentelle und Klinische Traumatologie, Wien) und Norbert Cyran (Universität Wien) untersuchen seit mehr als einem Jahrzehnt Organismen aus aller Welt, die Klebstoffe produzieren und charakterisieren deren Komponenten. Ihr Ziel ist es, die Klebewirkung derartiger Substanzen zu verstehen und diese für medizinische Anwendungen am Menschen - beispielsweise in der Chirurgie oder in der Wundheilung - nachzubauen und zu optimieren. Janek von Byern leitet darüber hinaus das EU-Netzwerkprojekt “European Network of BioAdhesives (ENBA)”..*

Organismen verwenden biologische Klebstoffe nicht nur, um sich am Untergrund festzukleben - wie dies im Pflanzenreich beispielsweise bei Orchideen oder Efeu, im Tierreich bei Muscheln und Seepocken der Fall ist - sondern nutzen ihre klebrigen Sekrete auch zu ihrer Verteidigung und/oder zum Angriff, um Beute zu fangen. Über Millionen von Jahren haben die jeweiligen Produzenten genutzt, um ihre Klebstoffe an die entsprechenden Verwendungszwecke und die Umweltbedingungen zu adaptieren. Dies hat zu einer enormen Vielfalt an Klebstoffsystemen geführt, die sich in der chemischen Zusammensetzung, physikalischen Haftkraft und Komplexizität deutlich voneinander unterscheiden. Je nach Lebensraum und Notwendigkeiten können die Tiere auf verschiedensten Oberflächen (hart, weich, biologisch, rauh, schmutzig, nass), unter Wasser und kalten Bedingungen (4°C) eine irreversible oder temporäre Klebeverbindung herstellen. Einige Klebstoffe wirken unmittelbar nach Sekretion in Sekundenschnelle, während andere den Umwelteinflüssen wochenlang ausgesetzt sind und dennoch im Moment eines Kontakts noch die Fähigkeit haben, zu kleben.

Aber nicht nur Tiere und Pflanzen nutzen Klebstoffe, auch wir Menschen verfügen über ein eigenes Klebstoffsystem, das Fibrin, das vor allem bei der Wundheilung zum Tragen kommt.

Kleben statt nähen

Biologische Klebstoffe sind nicht nur für die Wissenschaft ein spannendes Thema, die Systeme haben auch ein enormes Potential gegenüber bestehenden synthetischen Produkten aus der Kosmetik und Medizin, die vorwiegend gesundheitsschädliche Inhaltsstoffe aufweisen. Während marine Klebstoffe - wie die der Muschel oder Seepocke - vor allem für die Chirurgie und Geweberegeneration technische Alternativen bieten, sind Kleber von terrestrischen Tieren wie dem Salamander oder den Hundertfüssern für die äußere Wundheilung vorteilhaft. Anderes als die meisten derzeitigen medizinischen Dependants, sind biologische Klebstoffe biokompatibel und bauen sich von selbst über die Zeit ab. Wobei man erwähnen muss, dass in der Klinik nicht nur „giftige“ Klebstoffe zum Einsatz kommen. Eine Ausnahme ist hier das Fibrin, das auf Basis des menschlichen Blutplasmas gewonnen wird und als Gewebekleber eine Alternative zum Nähen oder Tackern von Wunden bietet. Dieser erste medizinische Biokleber wurde bereits in den 1970er Jahren in Wien am Ludwig Boltzmann Institut für Experimentelle und Klinische Traumatologie (LBI Trauma) entwickelt [1, 2].

Das Europäische Netzwerk für Bio-Adhäsion (ENBA)

Um biologische Klebstoffe kommerziell zu nutzen, ist es zuerst notwendig ihre biochemischen und mechanischen Eigenschaften zu verstehen, d.h. welche Bestandteile (z.B. Proteine, Zucker, Lipide) vorkommen, wie sie miteinander interagieren und wie sie bei Sekretion und mit Oberflächen reagieren. Die relevanten Komponenten, welche die Klebeeigenschaft hervorrufen, werden dann in Folge nachproduziert und optimiert, um das biologischen Vorbild so nah wie möglich nachzuahmen.

Grundlegende Kenntnisse zu biologischen Klebesystemen - von der Natur und den Eigenschaften der Bioklebstoffe über den zellulären Ablauf der Sekretion in den Organismen bis hin zur Imitation in Modellsystemen -sollen nun durch das Europäische Netzwerk für Bio-Adhäsion (ENBA, im Rahmen des transnationalen COST-Programms der EU) [3] erarbeitet werden (Abbildung 1). ENBA ist eine interdisziplinäre Kooperation von Forschern in Akademie und Industrie aus 33 Europäischen Ländern und mehreren internationalen Partnern und wird bis 2020 laufen [3].

Abbildung 1. Das Europäische Netzwerk für Bioadhäsion (ENBA) untersucht und charakterisiert eine breite Palette von Bioklebstoffen von der Nanoskala (Struktur und Eigenschaften der Klebstoff-Moleküle) über das zelluläre sekretorische System bis zum „übergeordneten“ Mechanismus der Drüsen im Tier. (Bild: http://www.enba4.eu/the-action/; © COST 2014-2020: material is allowed to be used for public use)

Im Folgenden sollen nun einige repräsentative Beispiele tierischer Klebstoffsysteme vorgestellt werden und wie diese zur Verteidigung oder zum Angriff eingesetzt werden.

Kleben zur Verteidigung

Um sich vor Räubern zu schützen, haben Tiere eine Vielfalt an Mechanismen entwickelt. Sie tarnen sich, nutzen Warnfärbung oder Mimikry, besitzen starre Abwehrstrukturen wie Stacheln, Haare oder Borsten, erweisen sich als ungenießbar, sekretieren schädliche oder übelschmeckende Substanzen ab und/oder zeigen verschiedenste Verhaltensmuster. Verglichen mit anderen Abwehrmechanismen werden Klebstoffe zwar selten angewandt, zeigen aber hohe Effektivität und dies auch gegen physisch überlegene Angreifer. Beispiel dafür sind etwa der Hautschleim der hellbraunen Wegschnecke (Arion subfuscus), die klebrigen Schleimfäden, die marine Seegurken auf Gegner spritzen oder die Hautabsonderungen des Australischen Frosches Notaden bennettii.

Hundertfüßer

sind eine Teilgruppe der bodenbewohnenden Tausendfüßer (Myriapoda) und - mit Ausnahme der Polgebiete und Grönland - weltweit verbreitet. Hundertfüßer sind Räuber, die eine große Vielfalt an Beutetieren fangen können: Insekten, Spinnen, Amphibien und sogar kleine Säugetiere. Dazu benutzen sie äußerst schmerzhafte und tödliche Gifte, die aus den Drüsen ihrer Giftklauen, den sogenannten Maxillipeden - dem umgewandelten Beinpaar im ersten Rumpfsegment - sezerniert werden (Abbildung 2). Diese Gifte werden aber nicht nur zum Angriff, sondern auch zur Verteidigung genutzt. Darüber hinaus verfügen manche Arten über Klebstoff sezernierende Wehrdrüsen im Körperbereich, um sich vor Räubern zu schützen.

Abbildung 2. Hunderfüßer (hier: Scolopendra; der Kopf trägt die (eingerollten) Antennen, das Hinterende imitiert einen Kopf. (Bild: Wikimedia by Buggenhout, België, ,cc-by). Unten: Blick auf Kopf und Giftklauen des Hundertfüßers Thereuopoda longicornis (Bild: BLGutierrez (Imperial College, London); Wikimedia commons, cc-by). Rechts: Eine Drüse: das von zwei ungleichen sekretorischen Zellen (sc1, sc2) produzierte Sekret (con) wird über einen Kanal in einen Hohlraum (Atrium) geleitet und von dort durch eine Pore an die Oberfläche der Hornhaut (Cuticula) sezerniert (Bild: copyright Carsten Müller, Universität Greifswald.)

Während die verschiedenen Gifte und Ihre Wirkung auf Wirbeltiere sehr gut untersucht sind, ist der Klebstoff bei Chilopoden bis dato nur ansatzweise charakterisiert. Im Rahmen Ihrer Forschung untersuchen Dr. von Byern und Dr. Cyran mit Kollegen von der Veterinärmedizinischen Universität Wien, dem Senckenberg Museum in Görlitz, Deutschland und der Universität in Belgrad, Serbien diese schnell aushärtenden Klebstoffe. Morphologisch weisen die Klebstoff sezernierenden Wehrdrüsen die gleiche modulare Organisation wie die Giftdrüsen auf (Abbildung 2). Beide bestehen aus je 4 - 5 Zelltypen, wobei zwei davon das klebrige Sekret produzieren. Es ist naheliegend, dass Giftdrüsen und Wehrdrüsen denselben evolutionären Ursprung haben, aber sich in der Zusammensetzung deutlich unterscheiden.

Woraus bestehen die Kleber der Hundertfüßer?

Eine der Unterarten aus der Gruppe der Lithobiomorpha stellt viskose, aus Proteinen und Lipiden bestehende Fäden in sogenannten telopodalen Drüsen her. Diese sitzen an der Innenseite des 14. Beinpaars und des (nicht mehr zum Laufen verwendeten) 15. Beinpaars. Wird das Tier angegriffen, hebt es die hintersten Beine und schleudert die aus den Drüsen austretenden Fäden gegen den Angreifer und „verkleistert“ ihn oder beeinträchtigt ihn zumindest massiv.

Die Gruppe der Geophilomorpha produzieren unterschiedlich zusammengesetzte Klebstoffe, die in den meisten Fällen nur Proteine enthalten. Die Drüsen (sogenannte Sternaldrüsen) sind strukturell vergleichbar mit denen der Lithobiomorpha, liegen aber auf der Bauchseite der Segmente. Der Klebstoff der Geophilomorpha Art Henia vesuviana besteht ausschließlich aus (relativ unpolaren) Proteinen, die sofort aushärten, wenn sie der Luft ausgesetzt sind. Auf diese Weise werden auch größere Räuber wie Spinnen und Käfer für mehr als 20 Minuten immobilisiert und der Hundertfüsser kann fliehen. Die Sekrete mehrerer anderer Geophilomorpha-Arten enthalten neben einer klebrigen Proteinlösung zusätzlich noch Blausäure (HCN) und andere Substanzen, die noch einen übel riechenden oder ungenießbaren Eindruck beim Räuber hinterlassen sollen. Die Klebstoffe der Chilopoda sind äußerlich verschieden, von wässrig klar bis milchig trüb, farblos bis gefärbt, einige leuchten bei Sekretion (sogenannte Biolumineszenz) um nachtaktive Räuber zu verwirren, abzulenken oder zu warnen.

Sekundenkleber der Salamander

Auch Schwanzlurche haben gegen Angreifer diverse Abwehrmechanismen entwickelt. Am bekanntesten sind die unbewegliche Haltung, das Abwerfen des Schwanzes, grelle Warnfarben, verschiedene Verhaltensmuster und Sekretion von giftigen oder übel schmeckenden Absonderungen der Haut. Einige nordamerikanische und eine japanische Art hingegen sondern Klebstoff aus Ihren Hautdrüsen ab, wobei insbesondere in der Schwanz und Kopfregion die meisten Drüsenzellen zu finden sind (Abbildung 3).

Abbildung 3. Der Salamander Ambystoma opacum. Weißer Klebstoff ist im Schwanzbereich sichtbar. (Bild: © Janek von Byern) Die Klebstoffanwendung zeigt sofort hohe Wirksamkeit. Wird beispielsweise der Salamander Batrachoseps attenuatus von einem Feind - etwa von einer Schlange - angegriffen, so schlingt er seinen Schwanz um den Kopf der Schlange und überzieht diesen mit einem viskosen, klebrigen Hautsekret. Der Kleber härtet an der Luft in Sekundenschnelle aus und sorgt dafür, dass die Schlange als Knäuel verklebt bleibt, während der Salamander entkommen kann. Selbst nach 48 Stunden ist die Schlange nicht in der Lage, sich zu befreien, so lange hält die Klebewirkung an.

Eine Analyse des Klebstoffes der Salamanderart Plethodon shermani weist einen hohen Anteil an Proteinen und wenigen Zuckern auf (Glykoproteine), in geringen Mengen sind auch Lipide enthalten, wobei deren Funktionen noch zu analysieren sind. Verglichen mit anderen Klebstoff-produzierenden Tieren ist der Wassergehalt des Salamander Klebstoffes mit rund 70 % relativ niedrig, wobei dieses Wasser unmittelbar bei Sekretion „verdunstet“ und auf diese Weise das rasche und irreversible Aushärten des Klebstoffes hervorruft.

Wie der Salamander (und auch die weiter oben beschriebenen Hundertfüßer es schaffen, sich davor zu schützen, selber Opfer Ihres eigenen Klebstoffes zu werden, ist Gegenstand weiterer Untersuchungen.

Kleben als Strategie zum Angriff

Das Erjagen von Beute mittels Absondern von Klebstoffen kann passiv durch ein Netz von Seidenfäden erfolgen, wie es Radnetzspinnen und Larven der Trauermücken Arachnocampa machen, oder mit Hilfe von Klebefallen auf den Tentakeln der Rippenqualle Pleurobrachia pileus (Seestachelbeere). Zusätzlich nutzen einige Tiere Klebstoffe auch aktiv, um ihn auf die Beute zu schießen, wie zum Beispiel die Speispinnen (Scytodes spp) und die Stummelfüßer (Onychophora).

Wenn man die Verwendung von Klebstoffen zum Fangen der Beute diskutiert, sind Radnetzspinnen vermutlich das Modellbeispiel. Mit ihren eindrucksvollen, großen und feinstrukturierten Netzen, den unterschiedlichen Seidentypen und klebrigen Fäden im Zentralbereich des Netzes sind die Tiere für den Beutefang hochspezialisiert. Nicht nur die Netze selber, sondern auch die Klebfallen darauf, trotzen eindrucksvoll extremen Umwelteinflüssen, sei es Regen, Wind, UV Licht, Trockenheit oder Hitze und bleiben funktionell aktiv. Wenig bekannt dagegen ist das Fangsystem des Neuseeländischen Glowworm, das wir im Rahmen eines FWF-Projektes [4] charakterisiert haben.

Der Neuseeländische Glowworm,

ist die Larvenform der in Neuseeland und Australien endemischen Mücke Arachnocampa luminosa. Die Larve lebt in windgeschützten Orten mit hoher Luftfeuchtigkeit (>90%) – in der Nähe von Bächen, feuchten Wänden im Regenwald und in Canyons und vor allem in Höhlen mit Flußverlauf. Zum Beutefang bauen die Tiere eine Art „Hängematte“ (engl. Hammock) an der Höhlendecke, an der sie bis zu 40 cm lange Seidenfäden nebeneinander befestigen (Abbildung 4), auf denen klebrige Tropfen aufgereiht sind. Insgesamt bilden sie ein breites Netz von bis zu 40 Fäden, ähnlich einem Perlenschnurvorhang, um darin fliegende Insekten zu fangen. Die Larven selber sitzen oben in der Hängematte und produzieren mit dem Leuchtorgan am Hinterende ein intensives blaues Licht (biolumineszierendes Licht, Wellenlänge 488 nm), mit dem Sie den Sternenhimmel imitieren und so Motten, Eintagsfliegen, Sandmücken und auch ausgewachsene Arachnocampa Mücken animieren, das Licht anzufliegen und dann im Vorhang gefangen zu werden. Gelegentlich werden sogar größere Insekten wie Bienen, Wespen und Käfer gefangen, die sich in die dunkle Höhle verirren. Unter geeigneten Bedingungen leben Tausende Glühwürmer in einer Höhle und auch einer kleinen Fläche und verwandeln diese in einen zauberhaft erleuchteten Raum, der dem realen Sternenhimmel sehr nah kommt.

Abbildung 4. Der Glowworm liegt in einer "Hängematte" und lauert auf Beute, die er mit seinem Lichtorgan anlockt und mit dem Vorhang aus klebrigen Angelschnüren fängt. Unten: Skizze der Larve in der Hängematte in Richtung vom Lichtorgan ("LO") zum Kopf ("H"), sowie die Angelschnüre ("S") mit den klebrigen Vesikeln ("V"). (Bield: oben: http://www.enba4.eu/the-action/ ; unten PLoS ONE 11 (12): e0162687. [3])

Die Seidenfäden, auch als „fishing lines“ (=Angelschnüre) bezeichnet, produzieren die Larven im Mundbereich, anders als die Seidenfäden bei Radnetzspinnen, die am Hinterende sezerniert werden. Der Klebstoff von Arachnocampa besteht zu 99 % aus Wasser und zu 1 % aus klebrigen, Komponenten, die bei sinkender Luftfeuchtigkeit austrocknen aber bei über 80% relativer Luftfeuchtigkeit wieder rehydrieren . Der Klebstoff ist schwach sauer (pH 3-4), enthält wenige freie Fettsäuren und einige wenige Proteine. Die ungewöhnliche hygroskopische Eigenschaft des Arachnocampa Klebstoffes könnte auf Harnstoff oder Harnsäure zurückzuführen sein, die natürliche Ausscheidungsprodukte der Insekten sind.

Arachnocampa“ leitet sich vom griechischen Wort für Spinne αραχνη ab. Die Frage ist, inwieweit ähneln diese Angelschnüre und der Klebstoff dem System der Radnetzspinnen?

Beide Fangvorrichtungen dienen demselben Zweck und bestehen aus Seidenfäden mit klebrigen Tropfen. Sie unterscheiden sich aber deutlich in Hinblick auf die molekulare Zusammensetzung, Struktur und Elastizität der Seidenfäden und hinsichtlich der Größe und Zusammensetzung der Klebstoffe. Diese Unterschiede bewirken, dass Spinnennetze wesentlich dehnbarer und reißfester sind und auch noch bei niedriger Luftfeuchtigkeit (< 20 %) kleben, während die Fangfäden des Glowworms mindestens eine 80 % Luftfeuchtigkeit benötigen. Dies korreliert mit der Anpassung der Fangsysteme an die unterschiedlichen Habitate: Spinnen leben im Freien und sind extrem wechselnden Umweltbedingungen, Wind, UV-Licht, Temperatur- und Luftfeuchtigkeitschwankungen ausgesetzt. Die Glowworms leben dagegen meist in sehr geschützten Habitaten, in denen über das Jahr sehr geringe Schwankungen und Veränderungen auftreten. Daher müssen sie Ihr Fangsystem nicht robust und stabil bauen, sondern haben sich voll auf diese Habitatbedingungen angepasst.

Fazit

Bioklebstoffe sind vielversprechende Alternativen zu den heute verwendeten, zum Teil giftigen synthetischen Produkten, die für einige Anwendungen (Geweberegeneration) gar nicht verwendet können oder bei anderen nur unbefriedigende Resultate liefern. Die Natur bietet dagegen im Wasser und an Land ein enorm großes Reservoir an Bio-Klebstoffen, die für die unterschiedlichsten Anwendungen nutzbar gemacht werden können. Untersuchungen zur Zusammensetzung derartiger Kleber, ihrer Eigenschaften und ihrer Anwendbarkeit für diverse Anforderungen aus Medizin und Industrie stehen erst am Anfang. Das transnationale Europäische Netzwerk für Bio-Adhäsion macht es sich zur Aufgabe, die biochemischen und mechanischen Prinzipien, die einer weiten Diversität von biologischen Klebern zugrunde liegen, zu erarbeiten und ihre Anwendbarkeit zu testen.


[1] H.Redl (2014) Kleben statt Nähen – Gewebekleber auf der Basis natürlichen Fibrins

[2] A.Petter, H. Redl (2014) Fibrinkleber in der operativen Behandlung von Leistenbrüchen — Fortschritte durch „Forschung made in Austria“. http://scienceblog.at/fibrinkleber-leistenbruch#

[3] “European Network of BioAdhesives”. http://www.enba4.eu/

[4] http://pf.fwf.ac.at/project_pdfs/pdf_abstracts/p24531d.pdf

[5] J. von Byern et al., (2016) Characterization of the Fishing Lines in Titiwai (=Arachnocampa luminosa Skuse, 1890) from New Zealand and Australia. PLoS ONE 11 (12): e0162687. doi:10.1371/journal. pone.0162687 (open access)


Weiterführende Links

Ludwig Boltzmann Institut für experimentelle und klinische Traumatologie (LBI Trauma)

MC Janek von Byern , SWR 18. March 2017 “Kleben wie ein Salamander” http://www.enba4.eu/wp-content/uploads/2017/05/SWR-2-Campus-18032017-Kle... 4,5 min

MC Janek von Byern, DRadio 07. March 2017 “Bioklebstoffe” http://www.enba4.eu/wp-content/uploads/2017/05/DRadio-Wissen-07032017-SK... 5,09 min


 

inge Thu, 26.10.2017 - 11:16

Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen

Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen

Do, 19.10.2017 - 11:54 — Redaktion

Icon Gehirn

Das Gehin besitzt keine Lymphbahnen - diese alte Lehrmeinung wurde nun eindeutig widerlegt. Neurophysiologen der US National Institutes of Health (NIH) haben Hirnscanstudien mittels Kernresonanztomografie (MRI) an lebenden Menschen durchgeführt und dabei Lymphgefäße in der Dura mater - der äußeren Hirnhhaut, die das ganze Hirn umhüllt,- entdeckt. Das Lymphsystem des Körpers erstreckt sich also bis in das Hirn, über dieses ist das Hirn mit dem Immunsystem verbunden, über dieses können Abfallprodukte des Gehirns entsorgt werden. Diese Entdeckung eröffnet neue Dimensionen in der Hirnforschung und kann das Verstehen vieler Erkrankungen des Gehirns, in denen das Immunsystem eine Rolle spielt - von Multipler Sklerose bis hin zu Alzheimer - und die Möglichkeiten zu deren Prävention und Behandlung revolutionieren.*

Die meisten Organe unseres Körpers entsorgen Abfallprodukte der Zellen mit Hilfe des sogenannten Lymphsystems. Dies ist ein verästeltes System von Lymphgefäßen, die entlang den Blutgefäßen verlaufen und als nicht zirkulierende Einbahnsystem unseren Körper durchziehen. Abbildung 1.

Abbildung 1. Das Lymphsystem des Menschen ist ein Einbahnsystem und dient der Drainage. Lymphgefäße beginnen in Organen/peripheren Geweben als blind-endende Kapillaren, die aus Endothelzellen mit relativ großen Zwischenräumen gebildet werden. Durch diese Lücken gelangen Proteine, Partikel und Zellen bis hin zu Lymphozyten in die Kapillaren und werden dort in der Lymphflüssigkeit weitertransportiert. (Im Gegensatz dazu weisen Blutkapillaren wesentlich kleinere Lücken auf -größere Proteine als Albumin können nicht in deren Lumen gelangen.) Die Lymphkapillaren vereinigen sich zu größeren Gefäßen und diese wieder zu noch größeren Gefäßen, die schliesslich in den Sammelkanal Ductus Thoracicus münden, der dann seinen Inhalt in das Blutgefäßsystem ergießt. (Bild: Blausen.com staff (2014). "Medical gallery of Blausen Medical 2014". WikiJournal of Medicine 1 (2). DOI:10.15347/wjm/2014.010 . Lizenz: cc-by 3.0 )

Das Lymphsystem ist ein Drainagesystem: Abfallprodukte und überschüssige Gewebsflüssigkeit aber ebenso auch Partikel, Bakterien und Viren werden aus den Geweben in die Lymphgefäße aufgenommen und in diesen - in der Lymph-Flüssigkeit - durch die Lymphknoten hindurch in den Blutkreislauf transportiert. Abfallprodukte gelangen über die Blutgefäße dann zu den Nieren - einem Filtersystem, das derartige Stoffe aus dem Blut heraus filtriert und (nach Möglichkeit) im Harn ausscheidet.

Neben der Funktion als Drainagesystem sind Lymphgefäße aber auch ein wesentlicher Teil des Immunsystems und der Hauptweg für die Zirkulation weißer Blutkörperchen: die Blutgefäße transportieren die Immunzellen zu den Organen, das Lymphsystem nimmt sie von dort auf und führt sie ins Blut zurück - Immunzellen können so im Organismus patrouillieren, Infektionen aufspüren und bekämpfen,

Wie das Gehirn seinen Abfall entsorgt, blieb lange ein Rätsel

Das Gehirn enthält Blutgefäße, im Gegensatz zu anderen Organen gab es aber über lange Zeit keine konkreten Anhaltspunkte, dass auch Lymphgefäße existieren könnten. Man dachte, dass - zum Unterschied zu anderen Organen - das Hirn eine spezielle Fähigkeit habe seine Abfallprodukte über die Zerebrospinalflüssigkeit (CSF, die Flüssigkeit, die das Hirn umspült und beschützt) zu entsorgen.Tatsächlich dürfte dies zum Teil auch der Fall sein.

Erst 2015 gelang es Forschern um Jonathan Kipnis von der University of Virginia in Untersuchungen an Mäusehirnen festzustellen, dass in deren äußerer Hirnhaut - der Dura Mater - Lymphgefäße vorhanden sind, die entlang der Blutgefäße verlaufen [1].

Dieser Befund veranlasste den Neurologen Daniel Reich (NIH’s National Institute of Neurological Disorders and Stroke (NINDS)) zu prüfen, ob derartige Lymphgefäße auch beim Menschen vorhanden wären, und er wandte dazu Magnetresonanztomographie (MRI) an. Es ist die Methode, die Reich primär einsetzt, um multiple Sklerose und andere neurologische Erkrankungen zu untersuchen, in die das Immunsystem involviert ist.

Die nicht-invasive Detektion von Lymphgefäßen mittels MRI

Die Gruppe um Reich konnte tatsächlich mittels MRI - d.h. nicht-invasiv - Lymphgefäße in der Dura mater des Menschen sichtbar machen. Die Forscher untersuchten dazu fünf gesunde Probanden, denen ein Gadoliniumkomplex - Gadubotrol - injiziert worden war. Es handelte sich dabei um einen Farbstoff, der in MRI-Scans üblicherweise verwendet wird, um Gefäßschäden bei Krankheiten wie Multipler Sklerose oder Krebs zu detektieren: die Farbstoffmoleküle sind klein genug, um aus den Blutgefäßen herauszulecken, jedoch zu groß , um die Blut-Hirn Schranke zu durchbrechen und in andere Teile des Gehirns zu gelangen.

Lymphgefäße ähneln Blutgefäßen, die aber in viel größerer Zahl vorhanden sind - daneben Lymphgefäße festzustellen, ist nicht einfach. Um neben den hell leuchtenden Blutgefäßen eine kleinere Zahl von Lymphgefäßen detektieren zu können, wandten die Forscher einen Trick an: die sogenannte Dark Blood MR Angiography, eine Strategie, in der das Signal von fließendem Blut unterdrückt wird (das Gefäß dann schwarz erscheint). In Anlehnung an den Mäusebefund untersuchten die Forscher den Bereich der Dura mater und konnten dort tatsächlich Lymphgefäße entdecken. Abbildung 2.

Abbildung 2. Sichtbarmachung von Lymphgefäßen in der äusseren harten Hirnhaut - der Dura mater- mittels MRI. Oben: die drei Hirnhautschichten Dura mater, Arachnoidea und Pia mater - schematische Darstellung. Venöses (sauerstoffarmes) Blut(blau) aus der grauen Hirnrinde entleert in die angrenzenden Sinuse der Dura mater und von dort in die Jugularvene im Nacken. Der Sinus sagittalis superior entleert die oberflächlichen Venen des Gehirns (Bild modifiziert nach: OpenStax Wikimedia Commons, Lizenz: cc-by 4.0.) Unten: MRI-Aufnahme des menschlichen Schädels nach Verabreichung des Farbstoffs Gadubotrol zur Sichtbarmachung der Gefäße. Der Ausschnitt (gelb umrandet) zeigt die hellen Lymphgefäße im Querschnitt (rote Pfeile), diese grenzen an den Sinus sagittalis superior an

Der Farbstoff war offensichtlich aus den Blutgefäßen in das Bindegewebe ausgetreten, wurde von den lymphatischen Kapillargefäßen aufgenommen und liess diese ebenso hell leuchten wie es zuvorbei den Blutgefäßen der Fall war (Abbildung 2, unten).

Wurde dagegen ein viel größerer Farbstoffkomplex (Gadofosvet) injiziert, der aus den Blutgefäßen kaum aussickern konnte, so sahen die Forscher nur hell leuchtende Blutgefäße, aber keine Aufnahme und daher kein Sichtbarwerden der Lymphgefäße.

Weitere Untersuchungen mittels MRI wurden an gesunden, erwachsenen Weißbüscheläffchen ausgeführt. Hier wurden - ebenso wie beim Menschen oder auch der oben erwähnten Maus [1] - Lymphgefäße mit gleicher Topographie in der äußeren Hirnhaut detektiert. Dies lässt darauf schliessen, dass das Lymphsystem der Hirnhaut über die Evolution in den Säugetieren konserviert wurdegemeinsam sein dürfte.

Dass es sich in der Dura mater tatsächlich um Lymphgefäße handelte, konnte schließlich an Autopsie-Proben bestätigt werden, in denen spezielle Methoden zur Anfärbung von Lymphgefäßen und Blutgefäßen verwendet wurden. Abbildung 3.

Abbildung 3. Lymphgefäß (LV) und Blutgefäße (BV) in einer Autopsieprobe. Histochemische Untersuchung mit spezifischen Anfärbungen für LV und BV. Die BV - aber nicht das LV - enthalten Erythocyten (Quelle: aus Fig. 3 in [2] https://doi.org/10.7554/eLife.29738.007; open access) Wie nun die Lymphgefäße in der Hirnhaut verlaufen, ist in Abbildung 4 dargestellt.

Abbildung 4. 3D-Darstellung des humanen Lymphsystems (dkl.blau) in der Dura mater. Erstellt aus MRI-Aufnahmen an einer gesunden, 47 Jahre alten Frau (Quelle: [2] aus Figure 1, https://doi.org/10.7554/eLife.29738.004)

Ausblick

Die Entdeckung, dass sich das Lymphsystem des Körpers bis in die Gehirnhaut erstreckt, die das gesamte Gehirn umgibt, eröffnet neue Dimensionen in Grundlagen- und angewandter Forschung. Zentrale Themen betreffen dabei:

  • die direkte Verbindung von Gehirn und Immunsystem
  • wie Abfallprodukte aber auch andere Stoffe unter physiologischen Bedingungen aus dem Zentralnervensystem über die Lymphbahnen drainiert werden,
  • ob und wie Störungen in der Lymphdrainage neurologische Krankheiten verursachen oder verstärken können.

Die Methode der Magnetresonanztomographie erlaubt es nicht-invasiv und relativ einfach an gesunden wie auch kranken Menschen Hirnscans auszuführen. Dies bedeutet nicht-invasiv Erkrankungen des Gehirns zu untersuchen, in denen das Immunsystem eine Rolle spielt, beispielsweise Multiple Sklerose, Alzheimerkrankheit und Amyotrophe laterale Sklerose, und Möglichkeiten zu deren Prävention und Behandlung zu finden.


[1] Structural and functional features of central nervous system lymphatic vessels. Louveau A, Smirnov I, Keyes TJ, Eccles JD, Rouhani SJ, Peske JD, Derecki NC, Castle D, Mandell JW, Lee KS, Harris TH, Kipnis J. Nature. 2015 Jul 16;523(7560):337-341.

[2] Human and nonhuman primate meninges harbor lymphatic vessels that can be visualized noninvasively by MRI. Absinta M, Ha SK, Nair G, Sati P, Luciano NJ, Palisoc M, Louveau A, Zaghloul KA, Pittaluga S, Kipnis J, Reich DS. Elife. 2017 Oct 3;6.


* Der Artikel basiert auf dem eben erschienen Artikel von Absinta et al., [2] und auf dem Blogartikel von Francis S. Collins vom 17.10.2017 "New Imaging Approach Reveals Lymph System in Brain" https://directorsblog.nih.gov/2017/10/17/new-imaging-approach-reveals-ly.... . Aus diesen Arbeiten wurden Sätze in den Blog übernommen (ins Deutsche übersetzt) und mit passenden Bildern u.a. aus [2] ergänzt.


Weiterführende Links

National Institute of Neurological Disorders and Stroke (NINDS) https://neuroscience.nih.gov/ninds/Home.aspx

Scientists Uncover Drain Pipes in Our Brains (03.10.2017), Video 3:25 min. https://www.youtube.com/watch?v=T9y_5vzJZtk. Daniel S. Reich, discusses how his team discovered that our brains may drain waste through lymphatic vessels, the body’s sewer system. (Standard-YouTube-Lizenz)

A Brain Drainage System (03.10.2017), Video 0:39 min. https://www.youtube.com/watch?v=d5YV-dCLvW8. NIH researchers provided the first evidence that our brains may drain waste through lymphatic vessels, the body’s sewer system.

Lymphatic system in the brain (02.07.2015), Video 11:13 min. https://www.youtube.com/watch?v=d5YV-dCLvW8. (Standard-YouTube-Lizenz) Jonathan Kipnis (University of Virginia) discusses a ground-breaking discovery: his team identified a lymphatic system in the brain of mice. This goes against decades of established knowledge and is a key step forward for the study of many neurological diseases, such as multiple sclerosis. (details: paper [1])

Dissecting Science: Your Amazing Brain "The Immune Dimension of Brain Function" Short lecture by Jonathan Kipnis (13.11.2015) Video 21:07 min. https://www.youtube.com/watch?v=F1GJXNlwGVM&t=56s (Standard-YouTube-Lizenz)

Meningeal lymphatic vessels Seite in Wikipedia. https://en.wikipedia.org/wiki/Meningeal_lymphatic_vessels.


 

inge Thu, 19.10.2017 - 11:54

Neue Nanomaterialien und ihre Kommunikation mit lebenden Zellen

Neue Nanomaterialien und ihre Kommunikation mit lebenden Zellen

Do, 12.10.2017 - 19:46 — Eva Sinner

Eva-Kathrin SinnerIcon BiologieSynthetisch hergestellte Nanomaterialien finden aufgrund ihrer einzigartigen physikalisch-chemischen Eigenschaften bereits in unterschiedlichsten industriellen Produkten Anwendung, allerdings lassen sich derzeit kaum allgemeingültige Aussagen über potentielle Auswirkungen auf Mensch und Umwelt treffen. Die Nanobiotechnologin Eva-Kathrin Sinner, Leiterin des Instituts für Synthetische Bioarchitekturen (Universität für Bodenkultur, Wien,) erzählt im Gespräch mit dem Chemiereport über dort betriebene Forschung zu Synthese, Eigenschaften und Weiterentwicklung von Nanomaterialien aber auch über ihre Aktivitäten zur Verbesserung der Interaktion zwischen Gesellschaft und Forschung..*

Womit befasst sich das Institut für Synthetische Bioarchitekturen konkret?

Wir forschen an neuen Biomaterialien und uns interessiert die Kommunikation zwischen Struktur und lebender Zelle. Wir möchten

  • auf der Ebene der Moleküle Zusammenhänge verstehen, die es uns erlauben, bestehende synthetische Materialien in unserer Umwelt zu messen und
  • mit Zellen „reden“ können, d.i. neue Wirkungsverfahren jenseits der Gentechnik zu erfinden.

Hier bahnt sich gerade eine neue Perspektive an: neue Materialkombinationen zu entdecken, die zum Beispiel Materialien aus fossilen Brennstoffen ersetzen können oder andere wichtige, zu optimierende Eigenschaften haben, wie Kompostierbarkeit, Gewicht, Brennbarkeit, mechanische Belastbarkeit.

Ist Nanobiotechnologie dabei immer ein Thema?

Das Wort „nanos“, aus dem Altgriechischen übersetzt, bedeutet der Zwerg. Der Begriff beschreibt also lediglich die Größenordnung, in der ich forsche - d.i. im Bereich zwischen einem und hundert Milliardstel Meter -und nicht die Materialien selber. Insofern ist der Begriff „nano“ sicherlich die reine Bezeichnung eines Themas, nämlich die Welt der Moleküle. Abbildung 1.

Abbildung 1. Forschungsschwerpunkt: Synthese und Anwendung von Membranproteinen. Die Einbettung von verschiedensten Membranproteinen in stabilisierende Membranumgebungen soll einerseits deren Struktur- und Funktionsanalyse ermöglichen, andererseits auf Anwendungsperspektiven wie Wirkstoff- und Impfstoffforschung abzielen. Links: Schematische Darstellung von Proteinen in einer Lipidmembran. Mitte: mikroskopische Aufnahme von Proteinen in einer Polymermembran (Maßstab 1 µm = 1 Millionstel Meter). Rechts: Lipidvesikel mit Proteinen, die In der Vesikelmembran eingebettet und im Inneren des Vesikel eingeschlossen sind;schematische Darstellung.

Die Kombination von Nano mit der Biotechnologie ist hier allerdings leicht irreführend. Ich sehe diese Forschungen vielmehr von meinem Background aus - als Biochemikerin mit stark biophysikalischer Ausrichtung.

Welche Rolle spielen hier Polymere, mit denen Sie sich am Max-Planck-Institut für Polymerforschung (Mainz) beschäftigt haben?

Der Begriff „Polymer“ setzt sich zusammen aus den griechischen Bezeichnungen für „viel“ (poly) und „Teil“ (meros). Viele Materialien aus der Natur sind genau so - aus vielen Teilen - aufgebaut. Die Industrie hat es der Natur nachgemacht und letztlich kann man auch Kunststoffe oft als Biomaterialien verstehen. Denn Kunststoffe wie Plastik haben ihren Ursprung in fossilen Materialien. Für viele synthetisch, also vom Menschen im Labor hergestellten Materialien gibt es in der Natur Beispiele, die aber eben nicht so sauber (homogen) und damit nicht so stabil sind. Gegenüber künstlichen, aus Phospholipiden bestehenden Vesikeln, weisen Polymervesikel eine Vielzahl an Vorteilen aus, vor allem, dass sie anwendungsbezogen speziell angepasst werden können.

In der Tat sind Biopolymere ausgesprochen interessante und vielseitige Materialien, bezüglich derer nach wie vor viel Erfahrung, aber noch wenig (molekulares) Detailwissen besteht. Genau an dem Punkt bin ich sehr an einer Weiterentwicklung und an Kooperationen interessiert, wie zum Beispiel mit der Firma MKM in Rheinland-Pfalz, wo es um Interaktionen von Zellen an Keramikwerkstoffen geht. Mit der Technischen Universität Wien beginnt ebenfalls eine Kooperation hinsichtlich organisch-anorganischer Grenzsysteme.

Elektroporation zum Transfer funktioneller Membranproteine in Säugerzellen - ohne gentechnische Manipulation

Das ist unser aktuellstes Forschungsthema, ein ausgesprochen spannender Ansatz, bei dem wir versuchen, mittels Membranfusion bereits hergestellte, klinisch relevante Proteine mit lebenden Zellen verschmelzen zu lassen. Das hätte den Vorteil, dass wir die Regulation immer unter Kontrolle behalten und nicht mittels Gentechnik die genetische Integrität einer Zelle modifizieren müssen. Hier laufen eine Reihe von konkreten Projekten, um mittels Elektroporation Membranproteine zu transferieren: beispielsweise den Dopaminrezeptor DRD2L (Abbildung 2) zu transferieren oder den für die Funktion der Mitochondrien essentiellen spannungsabhängigen Anionen Kanal (engl.: VDAC), oder CD4- und Chemokin-Rezeptoren, zur Beeinflussung der Immunantwort, u.v.a.m.

Abbildung 2. Transfer des Dopaminrezeptors DRD2L in Nervenzellen. Nach Synthese von DRD2L(gelb) in künstlichen Membranen (blaue Lipidvesikel) werden diese mittels modernster, im Nanosekundenbereich erfolgreich funktionierender Elektroporationsmethoden in Neuronen implementiert. Ziel ist die therapeutische Anwendung bei neuro-psychatrischen Störungen (z.B. bei Tourette Syndrom, schizoider Persönlichkeitsstörung oder hyperkinetischer Störung) Auch hier sind wir gerade auf der Suche nach neuen Kooperationspartnern aus der Zellbiologie, die sich für solche alternativen Strategien der Zellmanipulation interessieren könnten.

Wissensvermittlung

Als Vizepräsidentin der Erwin-Schrödinger-Gesellschaft für Nanowissenschaften…

Die Erwin-Schrödinger-Gesellschaft für Nanowissenschaften (ESG) ist ein etabliertes Werkzeug, um mit Mitteln aus dem Technologieministerium (BMVIT) gezielt wissenschaftlichen Austausch und Nachwuchsförderung zu betreiben. Regelmäßig werden Workshops und Reisestipendien vergeben, so auch der jährliche Posterpreis auf der BioNano-Med-Konferenz in Krems und der hauseigene Preis der ESG. Die ESG stellt insgesamt eine ausgesprochen lebendige Plattform dar, um nano-skalig-relevante Methoden und Materialien eben auch durch internationale Wissenschaftler vorzustellen.

Meine Hoffnung ist, dass die biologische Ausrichtung hier in Zukunft noch deutlicher zutage tritt - es haben ja viele Erkenntnisse und Methoden dazu geführt, dass völlig neue Ansätze in Medizin und Umweltforschung denkbar werden.

…und als Direktorin der Internationalen Graduiertenschule (IGS) mit der Nanyang Technical University in Singapur (2011 bis 2015)

Leider sind solche Konzepte immer sehr von einzelnen Personen geprägt. Das Projekt IGS war ausgesprochen erfolgreich. Viele österreichische und singapurische Doktoranden haben erfolgreich und in kurzer Zeit ihre Doktortitel erlangt. Zahlreiche Workshops und Publikationen in international anerkannten Journalen sind aus der IGS hervorgegangen.

Die organisatorische Belastung während der Laufzeit meiner Direktorenschaft der IGS war sehr hoch. Es war aber eine lehrreiche Erfahrung, wie solche Konstrukte aussehen müssten, um langfristig in das Lehrportfolio einer Universität integriert zu werden.

Warum halten Sie Ihre Vorlesungen auf Englisch?

Gerade bei der Einführung eines wissenschaftlich komplexen Themas bietet die Lehre in der Muttersprache für die Studenten den Vorteil der Unmissverständlichkeit und Direktheit. Allerdings ist es eine wesentliche Voraussetzung für die internationale Konkurrenzfähigkeit der Absolventen, dass sie in dem entsprechenden Gebiet in englischer Sprache sattelfest sind. Hier gibt es im Rahmen eines Coachings eine hervorragende, BOKU-interne Unterstützung für Lehrende wie mich, die in der englischen Sprache Vorlesungen halten. Die Studenten werden von mir ohnehin durch die begleitende Literatur und die Lehrmaterialien immer auch in Englisch als der international relevanten Forschungssprache vorbereitet. Genau diese Vorbereitung empfinde ich als ein wesentliches Element, das ich mir als Ziel gesetzt habe. Ich bevorzuge eine „smooth transition“ der Studenten in den englischen Sprachkontext im Laufe des Studiums und nicht den „kalten Start“, der die Gefahr beinhaltet, Lücken im Basiswissen zu hinterlassen.

Was wünschen Sie sich für die Zukunft?

Ich hoffe auf eine Erhaltung des bestehenden Wissens und eine wieder auflebende Kultur der Reproduzierbarkeit von Daten – kurzum: dass Forschung transparenter wird und die fördernden Institutionen auch Nischenprojekte zulassen. Die Publikationsflut selbst ist kein gutes Maß für gute Wissenschaft und nicht für deren Manifestierung als Text. Wer liest denn schon freiwillig naturwissenschaftliche Fachzeitschriften?

Ich hoffe, dass es wieder eine lebendigere Interaktion zwischen Gesellschaft und Forschung gibt. Dazu bräuchte es in diesen Zeiten keine Revolution, sondern bloß eine kleine Neuorientierung, gedankliche Offenheit und einen Raum in den Printmedien Österreichs.


*Das Gespräch wurde mit Dr.Karl Zojer vom Chemiereport geführt und kann im Original unter dem Titel „Wir wollen mit den Zellen reden können“ im Heft 6/2017 nachgelesen werden http://www.chemiereport.at/epaper/201706/ . Im Einverständnis mit der Autorin und dem Chemiereport erscheint das Interview hier in einer leicht modifizierten Form: Die Fragen von Karl Zojer wurden zu Untertiteln und 2 Abbildungen von der Homepage der Autorin eingefügt.


Weiterführende Links

Institut für Synthetische Bioarchitekturen https://www.nano.boku.ac.at/synthbio/

Eva Sinner: Forschungsprojekt: Schnüffeln für die Wissenschaft (Video, 7'30)

Artikel von Eva Sinner im ScienceBlog

inge Thu, 12.10.2017 - 19:46

Eine neue Ära der Biochemie – Die Entwicklung der Kryo-Elektronenmikroskopie wird mit dem Chemienobelpreis ausgezeichnet

Eine neue Ära der Biochemie – Die Entwicklung der Kryo-Elektronenmikroskopie wird mit dem Chemienobelpreis ausgezeichnet

Do, 05.10.2017 - 10:15 — Inge Schuster

Inge SchusterIcon ChemieDie Kryo-Elektronenmikroskopie (Kryo-EM) hat das Tor zu einer neuen Ära der Biochemie geöffnet. Es ist damit möglich geworden Biomoleküle und auch größere zelluläre Strukturen darzustellen, ohne diese kristallisieren zu müssen oder Struktur verändernde Fixative oder Farbstoffe anzuwenden. Dies ermöglicht nun Visualisierungen der Moleküle im nativen Zustand - aufgelöst bis hin zu atomaren Details - und lässt damit deren Funktion besser verstehen. Für die Entwicklung dieser revolutionären Methode wurden Jacques Dubochet, Joachim Frank und Richard Henderson mit dem Nobelpreis für Chemie 2017 ausgezeichnet.

Erst in der Mitte des vergangenen Jahrhunderts ist es möglich geworden Strukturen von Biomolekülen zu bestimmen, mit atomarer Auflösung in ihr Inneres zu schauen. Seitdem wurden in zunehmendem Maße immer größere und immer komplexere Strukturen aufgeklärt - von Proteinen, Nukleinsäuren über enorm große Proteinkomplexe bis hin zu Organellen, wie dem Ribosom und ganzen Viren. Zum überwiegenden Teil setzt man dazu die Röntgenstrukturanalyse ein - Voraussetzung dafür ist allerdings, dass das Biomolekül/der Komplex in kristallisierter Form vorliegt und nicht - wie unter physiologischen Bedingungen - in wässriger Lösung. Mittels kernmagnetischer Resonanz (NMR)- Spektroskopie können Strukturen von Biomolekülen auch in Lösung bestimmt werden. Derartige Studien sind häufig sehr aufwendig, benötigen u.a. die Einführung spezifischer Isotope in das Molekül und im allgemeinen auf eine Molekülgrösse unter 30 000 beschränkt.

In der öffentlich zugänglichen Datenbank PDB (www.rcsb.org/pdb) sind aktuell rund 134 000 Strukturen von Biomolekülen (> 90 % sind Proteine) hinterlegt und es kommen jährlich mehr als 10 000 neue Strukturen dazu. Auf NMR-Analysen fallen davon insgesamt rund 12 000 Strukturen und jährlich werden 400 – 500 neue Strukturen hinterlegt.

Es gibt aber viele Biomoleküle, deren Struktur sich weder durch Röntgenstrukturanalyse noch durch NMR-Messungen bestimmen lässt. Hier bietet die Kryo-Elektronenmikroskopie einen revolutionären, neuen Weg: Biomoleküle, Komplexe und auch molekulare Maschinen bleiben in wässriger Lösung, werden nicht durch Modifikationen/Kristallisierung beeinträchtigt und können ihre gewohnten Funktionen ausführen (beispielsweise kann der Translationsprozess am Ribosom ablaufen). Das ungeheure Potential einer Methode, die es erlaubt Biomoleküle unter nativen Bedingungen zu charakterisieren, wurde rasch erkannt und führte zu einem Boom an Untersuchungen: unter dem Stichwort "cryo electron microscopy" verzeichnet die Literaturdatenbank PubMed 8052 Publikationen, In der erwähnten Datenbank PDB sind bereits 859 mit cryo EM aufgeklärte Strukturen hinterlegt. Einige davon sind in Abbildung 1 gezeigt.

Abbildung 1. Mittels Cryo-EM aufgeklärte Strukturen. Oben links: Bacteriorhodopsin, eine in der (durch rote und blaue Linien gekennzeichneten) Membran von Halobakterien sitzende, Licht-getriebenen Protonenpumpe; es war die erste durch Cryo-EM aufgeklärte Struktur. Oben rechts: Der TRPV2 Ionenkanal des Kaninchens (der in der Zellmembran sitzende Teil ist durch rote und blaue Linien gekennzeichnet). Unten links: das aus 360 Untereinheiten(Heteromer) aufgebaute ZIKA-Virus wurde 2016 in der Gruppe von Michael Rossmann aufgeklärt, Unten rechts: das aus 180 Untereinheiten (Heteromer) bestehende Coxsacchi Virus vor wenigen Wochendurch eine chinesische Gruppe aufgeklärt. (Bilder: http://www.rcsb.org/pdb/results/results.do?tabtoshow=Current&qrid=E3CC1BD6 ; open access)

Für die Entwicklung dieser revolutionären Methode wurden der Schweizer Jacques Dubochet (Universität Lausanne), der Deutsch-Amerikaner Joachim Frank (Columbia University, NY) und der Schotte Richard Henderson (MRC Lab MolBiol, Cambridge, UK) mit dem Nobelpreis für Chemie 2017 ausgezeichnet.

Die Entwicklung der Kryo-Elektronenmikroskopie

Die zugrundeliegende Transmissions-Elektronenmikroskopie (EM) wurde bereits in den 1930er Jahren entwickelt. Da die durch die Probe gehenden schnellen Elektronen Materiewellen mit einer wesentlich kleinere Wellenlänge als sichtbares Licht sind, kann man damit Auflösungen im sub-Nanometer Bereich erzielen. Eine Anwendung bei Biomolekülen schien aber lang ausgeschlossen: unter den Vakuumbedingungen im Mikroskop wird Wasser entzogen, Biomoleküle trocknen aus und verändern ihre Struktur (denaturieren) und zusätzlich verschmoren die meisten Biomoleküle infolge der hohen Intensität des Elektronenstrahls.

Die erste Cryo-EM an einem Protein

Richard Henderson hatte seine Doktorarbeit in Cambridge, der Hochburg der Röntgenkristallographie gemacht. Als er sich 1975 an die Strukturaufklärung des Membranproteins Bacteriorhodopsin heranwagte, zeigte es sich, dass dieses sich nicht kristallisieren ließ. An eine Röntgenstruktur war also nicht zu denken. Henderson versuchte das Problem mit Hilfe der EM zu lösen. Er verwendete dazu das Protein in seiner nativen Umgebung, der Membran. Vor Austrocknung schützte eine Schicht Glukoselösung, vor dem Verschmoren ein Elektronenstrahl mit wesentlich gerigerer Intensität. Dies führte dennoch zu brauchbaren Beugungsbildern, da Bacteriorhodopsin in der Membran ja in sehr hoher Konzentration, regelmäßig gepackt und in die gleiche Richtung orientiert vorlag und alle diese Moleküle daher den Elektronenstrahl in praktisch derselben Weise streuten. So war es möglich ein Beugungsmuster zu erhalten, aus dem Henderson die Struktur mit einer (relativ niedrigen) Auflösung von 0,7 nm ermittelte.

Durch Verbesserungen in der Kryotechnologie und in den Linsen des Mikroskops konnte Henderson dann 1990 eine atomare Auflösung von 0,35 nm erzielen- dies war vergleichbar mit der Auflösung in Röntgenanalysen.

Algorithmen zur Bildanalyse

Eine essentielle Grundlage zur Bearbeitung der Beugungsaufnahmen kam von dem Biophysiker Joachim Frank. Dieser begann ebenfalls um 1975 ein Computer-gestütztes mathematisches Verfahren zu entwickeln mit dem wiederkehrende Muster in einer zufälligen Anordnung von Proteinmolekülen identifiziert werden, diese in die jeweiligen Gruppen sortiert und deren Informationen gemittelt werden. Dies führte zu zweidimensionalen Bildern, welche das Molekül mit hoher Auflösung unter verschiedenen Winkeln zeigten. Um dreidimensionale Bilder zu erhalten, erarbeitete Frank Algorithmen, welche die unterschiedlichen zweidimensionalen Bilder zueinander in Beziehung brachten.

Vitrifiziertes Wasser

Um wasserlösliche Biomoleküle im Vakuum des Elektronenmikroskops vor dem Austrocknen zu schützen, hatten Forscher versucht die Proben in gefrorenem Zustand zu untersuchen. Allerdings entstanden beim Einfrieren Eiskristalle, welche die Elektronen ablenkten und so die Messung scheitern liessen. Der Schweizer Biophysiker Jaques Dubochet fand dafür eine Lösung. Er kühlte die Proben sehr schnell in flüssigem Ethan, das seinerseits durch flüssigen Stickstoff bei -196oC gekühlt wurde, ab. Dabei entstand etwas Neues: glasartiges - "vitrifiziertes" Wasser. Dubochet beschreibt dies: "I am still unsure of what really happened with this specimen but, what is certain, is that frozen water was present and that the unstained biological material was more beautiful than anything I had seen before".

Dubochet wandte die Vitrifizerung an verschiedenen Viren an und zeigte wie scharf sich diese vom Untergrund des gläsernen Wasser abhoben.

Hohe Auflösung wird erreicht

Henderson, Frank und Dubochet hatten nun die wesentlichen Grundlagen für die Cryo-EM geschaffen. In den darauffolgenden Jahren verbesserte sich die Auflösung sukzessive. Ein enormer Fortschritt wurde 2013 mit einem neuen Typ eines Elektronendetektors (Direct Electron Detector DED) erreicht; ma erhielt damit die auch für Röntgenanalysen übliche Auflösung von 0,3 nm, d.i. im atomaren Bereich.

Die Methode erlebt seitdem einen "gold rush". Mit cryo-EM ist es vor allem einfach geworden Membranproteine zu charakterisieren. Dies hat eine besondere Bedeutung für die Entwicklung von neuen Arzneistoffen: der Großteil der heute gebräuchlichen und in Entwicklung befindlichen Pharmaka richtet sich gegen diverse Membranproteine, wie beispielsweise gegen Rezeptoren und Ionenkanäle.


Weiterführende Links

The Nobel Prize in Chemistry 2017 Announcement of the Nobel Prize in Chemistry 2017 .Video 42:34 min.

Artikel zu verwandten Themen im ScienceBlog:


 

inge Thu, 05.10.2017 - 10:15

Ein erweiterter Blick auf das Mikrobiom des Menschen

Ein erweiterter Blick auf das Mikrobiom des Menschen

Do, 28.09.2017 - 16:42 — Francis S. Collins

Francis S. CollinsIcon MedizinDas menschliche Mikrobiom - die Gesamtheit aller Mikroorganismen, die in unserem Körper existieren - hat wesentliche Auswirkungen auf unsere Gesundheit, Krankheit und unser Verhalten; diese Auswirkungen sind aber noch unzureichend bekannt. Um eine umfassende Charakterisierung des humanen Mikrobioms und seiner Funktionen zu ermöglichen, starteten die National Institues of Health (NIH) vor einem Jahrzehnt das "Human Microbiome Project", eine interdisziplinäre Initiative, deren Ergebnisse öffentlich zugänglich sind. Francis Collins, NIH-Direktor und ehem. Leiter des "Human Genome Project", berichtet über die bis jetzt größte, eben erschienene Charakterisierung unseres Mikrobioms.*

Noch betrachten viele Menschen Bakterien und andere Mikroorganismen nur als Keime, die Krankheiten verursachen. Tatsächlich ist die Geschichte aber viel komplizierter. Mehr und mehr wird es klar, dass der gesunde menschliche Körper von Mikroorganismen nur so wimmelt, dass viele davon essentiell zu unserem Stoffwechsel, zu unserer Immunantwort, ja sogar zu unserer geistigen Gesundheit beitragen. Wir sind nicht bloß ein Organismus, wir sind ein "Superorganismus", der sich aus menschlichen und mikrobiellen Zellen zusammensetzt und in dem die Mikroben unsere Zellen an Zahl überbieten. Abbildung 1. Das Human Microbiome Project (HMP) der NIH, das vor einem Jahrzehnt begonnen hat das mikrobielle Makeup gesunder Amerikaner zu erforschen, fördert dieses neue Verständnis.

Abbildung 1. Wir sind ein Superorganismus, der sich aus menschlichen Zellen und Mikroorganismen zusammensetzt.

Vor rund fünf Jahren haben HMP-Forscher ihre erste Runde von Daten herausgegeben: diese boten einen ersten Einblick in Mikroorganismen, die in Mund, Darm, Nase und anderen Teilen des Körpers vorhanden sind [1]. Eine zweite Welle an Daten, die eben im wissenschaftlichen Journal Nature erschienen ist, bietet nun eine drei Mal so große Fundgrube an Information und verspricht unsere Kenntnisse über das menschliche Mikrobiom und seine Rolle in Gesundheit und Krankheit zu vertiefen [2]. Diese neuen Daten sind das Ergebnis einer breiten interdisziplinären Forschungskooperation, die von Curtis Huttenhower (Harvard School of Public Health,Boston, MA und Broad Institute MIT ) geleitet wurde. Insgesamt sind darin zusätzliche 1 631 neue Metagenome (siehe unten) enthalten und erhöhen damit die Datensammlung auf 2 355 Metagenome. Die neuen Metagenome stammen von 265 gesunden freiwilligen US-Bürgern und stellen vollständige Sets mikrobieller DNA-Sequenzen dar, die von jeweils sechs Körperregionen gesammelt wurden; diese schließen ein: Nasenraum, Innenseiten der Wangen, Zahn- und Zungenoberflächen, Regionen des Gastro-Intestinaltraktes und - bei Frauen - den Bereich der Vagina unterhalb des Gebärmutterhalses.

Das menschliche Mikrobiom…

besteht aus einer großen, noch immer nicht bestimmten Zahl an Mikroorganismen. Während Bakterien den Großteil der Keime ausmachen, die unsere Körper besiedeln, gibt es dann noch andere Bewohner wie einzellige Archaea und Pilze. Dazu kommen unterschiedliche Arten von Viren, die Nase und Darm auch vollkommen gesunder Menschen bevölkern.

…Metagenom…

Diese Keime exprimieren Millionen mikrobieller Gene, die in Summe als Metagenom bezeichnet werden. In den eben herausgegebenen Daten sind nun über eine Million mehr Gen-Familien enthalten als in den früher veröffentlichten - es wurde ein wesentlich breiteres Spektrum mikrobieller Diversität eingefangen.

Die DNA-Daten aus der Sequenzierung der Metagenome gestattete es den Forschern Überlegungen über die biochemischen Aktivtitäten und die möglichen Funktionen des menschlichen Mikrobioms anzustellen und wie diese über die Zeit hin in unterschiedlichen Teilen des Körpers und von Mensch zu Mensch variieren.

…und funktionelle Anpasssungen

Wenn auch viele Gene und Stoffwechselwege im Mikrobiom noch nicht biochemisch charakterisiert sind, so fanden sich 19 Wege, die in allen untersuchten Körperregionen verstärkt auftraten. Das bedeutet, dass diese Wege spezifisch in Gruppen von Mikroorganismen vorkommen, die für das Leben in und auf Menschen adaptiert sind.

Diese relativ Wirts-spezifischen Wege weisen wahrscheinlich auf funktionelle Anpassungen hin, die sich für die Mikroben als wichtig für ein harmonisches Zusammenleben mit Menschen erwiesen haben und darüber hinaus sogar Vorteile für den menschlichen Wirt boten.

  • Beispielsweise scheinen die in mehreren Körperregionen gefundenen, mikrobiellen Metagenome die spezielle Fähigkeit zur Synthese von Vitamin B12 zu besitzen, das für unsere Gesundheit ja essentiell ist.
  • Andere spezielle Merkmale waren für bestimmte Regionen des menschlichen Körpers spezifisch. En Beispiel dafür waren die im Mundbereich gefundenen Mikroben. Diese wiesen vermehrt Gene auf, die in die chemische Umwandlung von Nitraten in unserer Nahrung in Nitrite involviert sind . Es ist dies ein Prozess, der - neben anderen Gesundheitszuständen - mit der Regulation von Blutdruck und Vermeidung von Migräne verknüpft wird.
  • Mikroorganismen im Darm haben eine besondere Fähigkeit Mannan abzubauen, ein Kohlehydrat , das in vielen Gemüsesorten vorkommt.

Variable Keimbesiedelung

Es gab auch andere interessante Beobachtungen. Von Haemophilus parainfluenzae war schon lange bekannt, dass dieses Bakterium im oberen Atmungstrakt vorkommt und eine Rolle in der Bronchitis und Sinusitis spielt. Für die Forscher unerwartet war, dass dieser Keim auch mehrere Teile des Mundbereichs bewohnt. Der spezifische Haemophilus-Stamm variierte aber je nachdem, von wo der Abstrich genommen wurde - ob von der Wangeninnenseite, von der Zunge oder der Zahnoberfläche. Dies lässt darauf schließen, dass H. parainfluenzae an meiner Wange dem Keim auf Ihrer Wange ähnlicher sein könnte, als dem auf meiner Zunge.

Es erscheint interessant, dass man keine charakteristischen Unterschiede in den Metagenomen von Personen fand, die in Houston oder in St.Louis lebten. Ob dies auch landesweit für Städte zutrifft, ist eine spannende Frage.

Während einige der Mikroben im Darmbereich eines Individuums die Tendenz hatten über die Zeit hin stabil zu bleiben, zeigten sich andere wesentlich variabler. Erstaunlicherweise unterschieden sich diese" Kern-Mikroben" von Mensch zu Mensch häufig beträchtlich. Anders ausgedrückt: das Mikrobiom im Darm von Menschen - auch wenn diese in derselben Stadt leben - kann ein stark personalisiertes Set von Mikroben enthalten mit noch nicht erforschten Auswirkungen auf unsere Gesundheit.

Fazit

Zusätzlich zu unseren Genen, unserem Lebenstil und unseren Erfahrungen, sind unsere Mikrobiome Teil dessen, was jeden von uns einzigartig macht. Mikrobiome können uns auch erklären helfen, warum manche Menschen anfälliger für Krankheiten sind als andere. Wenn wir in den kommenden Jahren die mikrobiellen Unterschiede besser verstehen werden, die Individuen für Gesundheit oder Krankheit prädisponieren, so ist ein Faktum bereits heute weitestgehend klar:

Mikroben sind für uns ein essentieller Bestandteil.


[1] Structure, function and diversity of the healthy human microbiome. Human Microbiome Project Consortium. Nature. 2012 Jun 13;486(7402):207-14.(open access)

[2] Strains, functions, and dynamics in the expanded Human Microbiome Project. Nature. 2017 Sept 20.


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:"Expanding our View of the Human Microbiome" zuerst (am 26. September 2017) im NIH Director’s Blog: https://directorsblog.nih.gov/2017/09/26/expanding-our-view-of-the-human-microbiome/. Der Artikel wurde von der Redaktion aus dem Englischen übersetzt und geringfügig für den Blog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

NIH Human Microbiome Project. https://hmpdacc.org/
Human Microbiome Project Data Portal: https://portal.hmpdacc.org/

Huttenhower Lab (Harvard H.T. Chan School of Public Health, Boston, MA) https://huttenhower.sph.harvard.edu/

Rob Knight: Wie unsere Mikroben uns zu dem machen, wer wir sind. TED-Talk (2014). Video 17:24 min.

Artikel zum Mikrobiom im ScienceBlog:

Redaktion 22.12.2016: Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?


 

inge Thu, 28.09.2017 - 16:42

FotoQuest GO - Citizen Science Initiative sammelt umfassende Daten zur Landschaftsveränderung in Österreich

FotoQuest GO - Citizen Science Initiative sammelt umfassende Daten zur Landschaftsveränderung in Österreich

Do, 21.09.2017 - 05:42 — IIASA

IIASAIcon Politik & GesellschaftVorgestern war der Start der Citizen Science Initiative FotoQuest GO. Das Ziel dieses vom IIASA geleiteten Projekts ist es Beobachtungen über Landnutzung und Landbedeckung in ganz Österreich zu sammeln, um daraus eine detaillierte und aktuelle Datenbank zu erstellen. Solche Daten sind die Basis für nachhaltige Städteplanung, Klimawandelforschung, Naturschutz und Wassermanagement. Mit Hilfe des GPS des Smartphones navigiert die FotoQuest GO-App an den Ort, zu dem Landschaftsdaten fehlen, und hilft anschließend, die notwendigen Fotos und Informationen abzuspeichern und hochzuladen.*

Am 19. September 2017 startete die Fotoquest GO, eine Citizen Science-Initiative, deren Ziel es ist die Änderung der Landnutzung in ganz Österreich festzustellen und ein Community-basiertes Monitoring zu etablieren.

FotoQuest GO ist ein Projekt des Internationalen Instituts für Angewandte Systemanalyse (IIASA), wird durch das vom ERC geförderte CrowdLand Projekt (GA No. 617754) unterstützt und ist Teil der Geo-Wiki Plattform. Partner sind GLOBAL 2000 und das österreichische Umweltbundesamt. Die von den Wissenschaftlern des IIASA gereinigten und analysierten Datensätze können auf der Geo-Wiki Webseite zur freien Verwendung heruntergeladen werden.

Mit der für einen Zeitraum von drei Monaten anberaumten Initiative soll ein umfassender Datensatz über die Landnutzung und die Landbedeckung in Österreich gesammelt werden. Die Teilnehmer werden dazu gebeten spezielle Orte aufzusuchen, mittels der FotoQuest GO-App (die für Android und iPhone verfügbar ist) zu fotografieren und auch die Art der Landbedeckung zu identifizieren - Ackerland, Wiesen, Wälder, Straßen oder Gebäude. Abbildung1.

Abbildung 1.Beispiele für Landbedeckung (links) und Landnutzung (rechts). (Quelle: LUCAS-Studie. Defining land use, land cover and landscape. cc-by-nc)

Derartige Daten sind wichtig, da in Österreich täglich rund 150 000 m2 Boden in Flächen für Wirtschaft, Wohnen, Erholung oder Verkehr umgewandelt werden. Dabei müssen fruchtbare Böden, Artenvielfalt und natürliche CO2-Speicher Asphalt und Beton weichen - dies bedeutet, dass die ökologischen Funktionen des Bodens praktisch völlig verloren gehen.

Bodenversiegelung…

"Die Versiegelung des Bodens kann das Risiko für Überschwemmungen, für Wasserknappheit unfruchtbare Agrarflächen und Hitzewellen in den Städten erhöhen" sagt IIASA Forscher Steffen Fritz, der die Citizen Science Projekte des IIASA leitet. "Um die Auswirkungen derartiger Veränderungen in unserem Land verfolgen zu können und mitzuhelfen die Vielfalt der Natur für zukünftige Generationen zu erhalten, haben wir FotoQuest Go entwickelt: mittels der FotoQuest Go App können uns Bürger helfen wertvolle Daten über veränderte Landnutzung in Österreich zu sammeln."

…Auswirkungen des Klimawandels

sind in Österreich (dem Sitz von IIASA) und auch in der ganzen Welt bereits deutlich sichtbar. Einem langfristigen Trend folgend war dieser Sommer einer der heißesten in Österreichs Geschichte: in den seit 251 Jahren laufenden Wetteraufzeichnungen fanden die elf heißesten Sommer alle nach dem Jahr 2000 statt. In diesem Jahr begannen die Hitzewellen früher als im Durchschnitt und dauerten auch länger. Dazu kamen in Österreich Überschwemmungen, Murenabgänge und Starkregen. „Die Klimaveränderung ist bereits voll da em Gange und wir müssen entschlossene Maßnahmen treffen, um katastrophale Folgen in der Zukunft abzuwenden. Als Citizen Scientists können wir alle mithelfen bessere Daten über Landnutzung und Landbeschaffenheit zu erhalten, um den vor uns liegenden Herausforderungen gewachsen zu sein“, sagt Johannes Wahlmüller, Klima- und Energiesprecher bei GLOBAL 2000.

Die FotoQuest Go Studie

soll die Daten zu ergänzen, die im Rahmen der EU-Initiative Land Use and Coverage Area frame Survey (LUCAS) gesammelt werden. Die Erhebung der EU Daten ist kostspielig und da diese nur alle drei Jahre stattfindet, kann sich in der Zwischenzeit viel ändern. Die Orte der FotoQuest Go entsprechen den offiziellen Messpunkten der LUCAS -Studie - dies erlaubt eine direkten Vergleich von FotoQuest und LUCAS Daten und damit eine Beurteilung der Qualität der von den Bürgern gesammelten Daten. Abbildung 2.

Abbildung 2. FotoQuest GO: 9000 Lokationen sind auf ganz Österreich verteilt (Quelle; http://fotoquest-go.org/ )

FotoQuest Go ist ein Nachfolge-Projekt der FotoQuest Austria Initiative im Jahr 2015, in welcher 12 000 Bilder an 2000 Plätzen in ganz Österreich gesammelt worden waren. Die Ergebnisse wurden im wissenschaftlichen Journal Remote Sensing veröffentlicht [1] und zeigten deutlich, dass Citizen Science Initiativen Datensammlungen aufwerten und/oder die Kosten von Projekten wie LUCAS senken können. Allerdings zeigte es sich, dass die Citizen Scientists in derKlassifizierung einiger Arten von Landbedeckung unsicher waren, dagegen sehr erfolgreich Oberflächen wie bebaute Gebiete und Straßen einordneten. Ein großes Problem war auch mangelnde Motivation alle Messpunkte zu erreichen. Von den insgesamt 9000 Lokationen der LUCAS Studie hat die FotoQuest Austria Kampagne nur 2000 besucht und die meisten der entlegeneren Orte fehlten.

Mit der neuen Kampagne hoffen die IIASA Forscher bessere Ergebnisse als 2015 zu erhalten und auch die Motivation der teilnehmenden Hobby-Wissenschafter zu steigern. FotoQuest Go verspricht für jede an einer Lokation erfolgreich abgeschlossene Untersuchung einen Euro.

Wie die FotoQuest Go Untersuchung abläuft,

ist in Abbildung 3 dargestellt. Mit Hilfe des GPS des Smartphones navigiert die FotoQuest GO-App an den Ort, zu dem Landschaftsdaten fehlen, und hilft anschließend, die notwendigen Fotos und Informationen abzuspeichern und hochzuladen.

Abbildung 3. Mit der FotoQuest GO App Orte aussuchen, Bilder von der Landschaft machen und ein paar kurze Fragen beantworten. (Quelle: http://fotoquest-go.org/#go)

“Wenn ein Teilnehmer seine Eingaben dann hochlädt, folgt eine Empfangs-Bestätigung. Die Eingaben werden anschließend auf ihre Qualität geprüft und bei entsprechender Eignung wird dem Teilnehmer 1,-€ gutgeschrieben. Der Ort wird dann von der Karte der FotoQuest-App gelöscht”, erklärt Tobias Sturm von IIASA die Funktionsweise der von ihm entwickelten App.

Beim Wandern oder Sport in der Natur kann mit FotoQuest Go etwas für den Umwelt- und Klimaschutz getan werden!


Reference

[1] Laso Bayas JC, See L, Fritz S, Sturn T, Perger C, Dürauer M, Karner M, Moorthy I, et al. (2016). Crowdsourcing In-Situ Data on Land Cover and Land Use Using Gamification and Mobile Technology. Remote Sensing 8 (11): e905. DOI:10.3390/rs8110905.


* Der von der Redaktion aus dem Englischen übersetzte, für den Blog adaptierte Text stammt von der am 19. September2017 auf der Webseite des IIASA erschienenen Pressemitteilung “ Citizen science targets land-use change in Austria" http://www.iiasa.ac.at/web/home/about/news/170919-FotoQuestGo.html . Die Abbildungen wurden von der Redaktion beigefügt: 2 und 3 stammen von der Webseite des FotoQuest GO Projekts http://fotoquest-go.org/#go , Abbildung 1 von der Homepage des EU-LUCAS Projekts. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website in unserem Blog zugestimmt.


Weiterführende Links

CrowdLand (Harnessing the power of crowdsourcing to improve land cover and land use information) European Research Council (ERC) ERC Consolidator Grant 617754

Homepage von FotoQuest GO

FotoQuest GO Video (Deutsch) 1:43 min.

FotoQuest GO App

Geo Wiki Website

inge Thu, 21.09.2017 - 05:42

Climate Engineering: Unsichere Option im Umgang mit dem Klimawandel

Climate Engineering: Unsichere Option im Umgang mit dem Klimawandel

Do, 14.09.2017 - 14:13 — Nils Matzner

Nils MatznerIcon GeowissenschaftenIm 5. Sachstandbericht des Weltklimarats, 2013–2014 (IPCC: Intergovernmental Panel on Climate Change) werden die Maßnahmen gegen den globalen Klimawandel als unzureichend bezeichnet. In den vergangenen Jahren wurden Ideen entwickelt, mittels sogenanntem Climate Engineering gezielt und in großem Rahmen in biochemische Kreisläufe der Erde einzugreifen und damit den Klimawandel zu verlangsamen oder zu stoppen. Im Rahmen eines Schwerpunktprogramms der Deutschen Forschungsgemeinschaft (SPP 1689, http://www.spp-climate-engineering.de) bearbeiten Nils Matzner und Kollegen (Institut für Technik- und Wissenschaftsforschung; Alpen-Adria-Universität Klagenfurt) ein Forschungsprojekt zu Climate Engineering

Seit jeher träumen Menschen davon, das regionale Wetter positiv beeinflussen zu können. Der voranschreitende Klimawandel hat in den vergangenen Jahren nun zur Entwicklung von Ideen geführt, wie in das globale Klimasystem mittels Climate Engineering (auch als Geoengineering bezeichnet) gezielt und im großen Rahmen eingegriffen werden könnte.

Was ist Climate Engineering?

Climate Engineering (CE) unterscheidet sich grundlegend von den Maßnahmen zur Beeinflussung von regionalem Wetter. Bedeutende Wissenschaftsorganisationen aus Deutschland, Großbritannien und den USA definieren CE übereinstimmend als intentionale, großskalige Beeinflussung des Klimasystems, um den globalen Klimawandel zu verlangsamen [1–5]. Drei Merkmale sind charakteristisch:

  • CE ist immer intentional. Emissionen von Treibhausgasen verändern das Klima zwar, jedoch ist die globale Erwärmung kein gewünschter Effekt. Intentionalität bedeutet auch, dass CE von bestimmten Akteuren absichtlich durchgesetzt werden kann, insofern diese dazu in der Lage sind. Einige, aber nicht alle CE-Technologien könnten von einzelnen Staaten oder reichen Individuen eingesetzt werden. Allerdings sind derzeit keine Anzeichen dafür verfügbar, dass irgendein Akteur konkrete Vorbereitungen zu einem Einsatz trifft, die über grundlegende Erforschung hinausgeht.
  • CE ist immer großskalig. Im Gegensatz dazu ist die Beeinflussung von lokalem Wetter – sei es als Versuch der Herstellung eines gewünschten Wetters oder als Verhinderung gefährlicher Wetterlagen (für die Landwirtschaft oder für öffentliche Veranstaltungen) – kleinskalig und daher kein CE. Auch wenn bei beiden Technologien Flugzeuge Material in Wolken versprühen, dann ist das schon die größte Ähnlichkeit: Einige Methoden von CE zielen auf die Stratosphäre (8 bis 50 km Höhe) in globaler Ausdehnung, während Wetterbeeinflussung in sehr geringer Höhe und über kleiner Fläche durchgeführt wird.
  • CE wirkt dem Klimawandel entgegen. Der Klimawandel und seine Folgen werden als eines der wichtigsten globalen Probleme gesehen. Mit dem Klimaabkommen von Paris 2015 wurde eine verbindliche Zielmarke von 2 °C Erwärmung, wenn möglich 1,5 °C, installiert. Aktuell ist höchst umstritten, ob CE als ein legitimes Mittel zur Begrenzung der globalen Erwärmung überhaupt anerkannt werden soll oder nicht. Dass aber CE auf den Klimawandel der Erde und nicht etwa auf lokales Wetter oder andere Planeten zielt, ist aus Sicht von Forschung und Politik weitgehend unumstritten.

Welche Technologien von Climate Engineering werden erforscht?

CE-Technologien werden in zwei grundlegende Typen unterteilt:

  • Technologien, die die Sonneneinstrahlung zur Erde reduzieren (auch Solar Radiation Management, SRM, genannt) und
  • Technologien, die Kohlendioxid (CO2) aus der Atmosphäre entfernen helfen (auch Carbon Dioxid Removal, CDR, genannt).

Als mögliche CE-Methoden im SRM werden beispielsweise die künstliche Wolkenerzeugung oder Spiegel im Weltraum zwischen Sonne und Erde genannt. Im Falle von CDR sind es u.a. die chemische Bindung von CO2 im Meer, die Stimulierung des Phytoplankton-Wuchses durch "Eisendüngung" der Meere, Artificial Upwelling, eine gesteigerte CO2-Aufnahme durch Aufforstung, das Herausfiltern von CO2 aus der Luft (Direct-Air-Capture; eine erste kommerzielle Anlage ist kürzlich in der Schweiz in Betrieb gegangen [6]) und Sequestrierung von CO2 direkt am Entstehungsort. Abbildung 1 fasst diese Technologien zusammen.

Jede Technologie besitzt ein individuelles Risikoprofil, Unsicherheiten, ökonomische Kosten und politische Regulierungsprobleme. Beispielsweise läge im Einbringen von Aerosolen in der oberen Atmosphäre das Risiko, die globalen Niederschlagsmuster zu verändern, sodass Dürren und Überschwemmungen möglich wären. Bei der Düngung der Meere wäre gänzlich unklar, wie dies langfristig auf die maritimen Ökosysteme wirkt. Neben bekannten Risiken und Unsicherheiten existiert ein großer Bereich von nicht einschätzbarem Nichtwissen („unknown unknowns“), da CE-Technologien sich in einem sehr frühen Forschungsstadium befinden.

Abbildung 1. Climate Engineering durch Technologien, die die Sonneneinstrahlung zur Erde reduzieren (Solar Radiation Management) und durch Entfernung von Kohlendioxid aus der Atmosphäre (Carbon Dioxide Removal). Bild: http://www.spp-climate-engineering.de; Lizenz:cc-by-nd4.0.

Wird Climate Engineering bereits eingesetzt?

Seit Ende der 1990er Jahre hat die ernsthafte wissenschaftliche Beschäftigung mit Climate Engineering zugenommen. Bis dahin war CE aus Sicht vieler Wissenschaftler eine akademische Übung, um überhaupt zu verstehen, wie Menschen auf das Klimasystem Einfluss nehmen könnten, ohne jedoch konkrete politische Ziele zu verfolgen. David Keith, zweifelsohne einer der am längsten aktiven CE-Forscher, hat mit seiner Zusammenfassung des Forschungsstandes im Jahr 2000 eine Grundlage nicht nur für naturwissenschaftliche, sondern auch für gesellschaftswissenschaftliche Forschung gelegt [7]. Schon damals prognostizierte Keith Schwierigkeiten in der politischen Regulierung von CE-Technologien und dass CE ein einfacher, aber problematischer Ausweg aus der schwierigen Politik der Emissionsreduktion sein könnte.

CE wird derzeit an Computern, in Laboren und in wenigen kleinen Feldanlagen erforscht – Wetterbeeinflussung wird offen eingesetzt. Tatsächlich betreiben einige Länder, darunter auch Österreich, Programme zur Herstellung gewünschter Wetterlagen oder zur Verhinderung von Unwetterschäden.

Während der Einsatz von Wetterbeeinflussung mittels versprühter Aerosole aus Flugzeugen zum Teil stattfindet, obwohl dessen Effektivität nach wie vor umstritten ist, ist weder ein Experiment, noch ein Einsatz von CE in der Atmosphäre bisher geschehen. Alle CE-Technologien befinden sich aktuell im Planungsstadium. Lediglich ein paar wenige, kleine Feldexperimente zu CE hat es gegeben, welche jedoch nicht atmosphärisch waren. Beispielsweise wurden vor der kanadischen Küste 100 Tonnen Eisen ausgebracht, um die Algenblüte anzuregen, die dann mehr CO2 bindet (Abbildung 1).

Sowohl diejenigen Forscher, die heute eine intensivere Erforschung befürworten, als auch diejenigen, die vor allem die Risiken betonen, lehnen einen baldigen Einsatz von CE ohne vorherige politische Klärung als nicht wünschenswert klar ab.

Welche Kosten sind mit Climate Engineering verbunden?

Die voraussichtlichen Kosten für Climate Engineering unterscheiden sich je nach konkreter Technologie. Um die globale Temperatur abzukühlen und mögliche Klimaschäden abwenden zu können, wären Methoden mit atmosphärischen Aerosolen verglichen mit dem direkten Entzug von CO2 aus der Atmosphäre günstig. Einige CE-Technologien könnten kostengünstiger sein, als eine vergleichbare aggressive Emissionsreduktion binnen wenigen Jahren. Jedoch ginge eine solche Rechnung nur auf, wenn CE risikoarm betrieben werden könnte. In jedem Fall müssten immer noch einige Prozent des globalen Sozialproduktes dafür aufgewendet werden. Wer diese Kosten trägt und ob überhaupt private Investitionen in CE zugelassen werden sollen, befindet sich derzeit in der Diskussion.

Was die Forschung zu Climate Engineering betrifft, so zeigt sich, dass Climate Engineering keine Grundlagenforschung ist, die vergleichbar mit Teilchenphysik wäre. CE-Forschung zeichnet sich durch Anwendungsorientierung aus, wird aber von einer teils proaktiven aber selbstkritischen, teils zurückhaltenden Forschungsgemeinschaft geleitet. Fragen von Governance und Verantwortung sind den Naturwissenschaftlern und Ingenieuren nicht fremd, müssen aber im transdisziplinären Dialog weiterentwickelt werden.

Hinsichtlich der Förderung der CE-Forschung erhält das deutsche Schwerpunktprogramm (SPP), in dessen Rahmen auch unser eigenes Projekt fällt [8], die aktuell höchste Fördersumme (insgesamt über 5 Mio. Euro) an öffentlichen Forschungsgeldern. Diese übersteigt US-amerikanische, britische und chinesische Investitionen. In Österreich findet dazu aktuell kaum Forschung statt, außer der Beteiligung einiger WissenschaftlerInnen am deutschen SPP. Da Österreich in der konventionellen Klimaforschung gut vertreten ist, könnte sich dies noch ändern.

Fazit

Die aktuellen Schwierigkeiten, das Pariser Klimaabkommen umzusetzen – bei stetig neuer Sicherheit aus der Wissenschaft, dass der Klimawandel gefährlich fortschreitet – bereiten weltweit vielen Akteuren große Sorgen. Ob und wie Climate Engineering eine Option gegen die globale Erwärmung sein kann, hängt von neuen Forschungsergebnissen, politischen Verhandlungen und der öffentlicheren Debatte zu diesem Thema ab. CE ist zweifelsohne eine bisher wenig erforschte und politisch kaum regulierte Risikotechnologie. CE als Ersatz für einen umweltfreundlicheren Lebensstil und damit die Einsparung von Treibhausgasemissionen zu verwenden, wäre fatal.


[1] Rickels W. et al., (2011): Large-Scale Intentional Interventions into the Climate System? Assessing the Climate Engineering Debate. Scoping report conducted on behalf of the German Federal Ministry of Education and Research (BMBF), Kiel Earth Institute, Kiel, Online verfügbar unter http://www.kiel-earth-institute.de/scoping-report-climate-engineering.html (open access, abgerufen am 11.9.2017)

[2] Royal Society (2009): Geoengineering the climate: science, governance and uncertainty. London. Online verfügbar unter http://royalsociety.org/policy/publications/2009/geoengineering-climate/. Open access

[3] Shearer, Christine; West, Mick; Caldeira, Ken; Davis, Steven J. (2016): Quantifying expert consensus against the existence of a secret, large-scale atmospheric spraying program. In: Environ. Res. Lett. 11, S 84011. open access: DOI: 10.1088/1748-9326/11/8/084011.

[4] National Acadamy of Sciences (2015a): Climate Intervention [a]. Carbon Dioxide Removal and Reliable Sequestration. Washington, D.C. Online verfügbar unter http://www.nap.edu/catalog/18805/climate-intervention-carbon-dioxide-rem....

[5] National Acadamy of Sciences (2015b): Climate Intervention [b]. Reflecting Sunlight to Cool Earth. Washington, D.C. Online verfügbar unter http://www.nap.edu/catalog/18988/climate-intervention-reflecting-sunligh....

[6] Climeworks, 06.06.2017 - NPO: Erste kommerzielle Anlage saugt CO2 aus der Luft. http://www.scinexx.de/wissen-aktuell-21524-2017-06-06.html

[7] Keith, David W. (2000): Geoengineering the Climate: History and Prospect. In: Annu. Rev. Energy Environ (Annual Review of Energy and the Environment) 25 (1), S. 245–284. Online verfügbar unter https://keith.seas.harvard.edu/files/tkg/files/26.keith_.2000.geoenginee...

[8] CE-SciPol2. Verantwortliche Erforschung und Governance an der Schnittstelle von Wissenschaft und Politik des Klimawandels,

http://www.spp-climate-engineering.de/sci-pol2.html


Weiterführende Links

Info-Portal Geo-Engineering

SPP1689 Schwerpunktprogramm

N. Janich, Ch Stumpf: Naturwissenschaftler antworten Journalisten, wie Ungewissheiten und Unsicherheiten in der Klimaforschung kommuniziert werden (sollten) (SPP 1689 der DFG).

Deutsche Meteorologische Gesellschaft (2017): Stellungnahme zum Climate Engineering.

Nils Matzner (2011): Die Politik des Geoengineering. (PDF-Download)

A. Mihm (FAZ, 15.08.2017): Klimaschutz braucht mehr Forscher und Erfinder.

Artikel im ScienceBlog:

Wir haben dem Komplex einen eigenen Schwerpunkt Klima & Klimawandel gewidmet, der aktuell 29 Artikel enthält.

inge Thu, 14.09.2017 - 14:13

Fipronil in Eiern: unverhältnismäßige Panikmache?

Fipronil in Eiern: unverhältnismäßige Panikmache?

Do, 07.09.2017 - 15:55 — Inge Schuster

Inge SchusterIcon ChemieDer "Gifteier"-Skandal sorgt seit mehr als einem Monat für zum Teil äußerst reißerische Schlagzeilen in allen Medien und hat die Verunsicherung weitester Bevölkerungskreise zur Folge. Dass Fipronil unerlaubterweise nun in Hühnereiern (und auch in Hühnerfleisch) auftaucht, ist ein Fall für die Justiz und soll nicht kleingeredet werden. Auf einem anderen Blatt steht aber, dass die mit der bereits seit langem praktizierten Fipronil Verwendung an Haustieren und zur Schädlingsbekämpfung einhergehende Exposition, bei weitem die potentielle Gefährdung durch die "Gifteier" übersteigt. Die Panikmache wäre besser vermieden worden.

Über einen Mangel an Themen konnten die Medien im heurigen Sommer nicht klagen. Stoff bot nicht nur einer der - laut ZAMG - heißesten Sommer seit Beginn der Aufzeichnungen, auch das Säbelgerassel führender Politiker, die beginnenden Wahlkämpfe bei uns und in unserem Nachbarland und eine Reihe von Skandalen füllten ein ansonsten weit klaffendes Sommerloch. Insbesondere war und ist es aber der "Gifteier"-Skandal, der von Anfang August an bis jetzt zum Teil reißerische Schlagzeilen in allen Medien macht und die Beunruhigung weitester Bevölkerungskreise zur Folge hat. Abbildung 1. Man wurde ja im TV Zeuge, wie täglich Tausende und Abertausende Eier vernichtet wurden, weil sie möglicherweise Spuren des Insektizids Fipronil enthielten - eine Bestätigung dafür, dass hier offensichtlich eine schwerwiegende Gefährdung drohte.

Abbildung 1. Einige Schlagzeilen aus der Medien-Berichterstattung.

Die Angst vor giftigen Chemikalien im Essen im Allgemeinen und im speziellen Fall vor einer Fipronil "Vergiftung" wuchs, auch, wenn sich die Medien bemühten festzustellen: " die derzeit gemessenen Fipronil-Werte in Eiern sind nicht sehr hoch" und sich dabei auf die von offiziellen Stellen gemeldete Entwarnung beriefen. Beispielsweise konstatierte die Österreichische Agentur für Gesundheit und Ernährungssicherheit (AGES): "Bei den Mengen die bisher in den Eiern (Niederlande, Deutschland) gefunden wurden, ist von keiner gesundheitlichen Beeinträchtigung für Menschen auszugehen. Geht man von dem höchsten in einem Ei gemessenen Wert aus, so wäre eine tägliche Aufnahmemenge von 7 Eiern für Erwachsene bzw 1 Ei für ein Kind mit 10 kg Körpergewicht tolerierbar." Noch weniger Gefährdung wäre für verarbeitete Lebensmittel zu erwarten, da aufgrund des Verarbeitungsprozesses die Konzentration von Fipronil sehr gering wäre.

Aufklärung, wie das Insektizid Fipronil in die Eier gelangen konnte - immerhin sind bereits 45 Länder nicht nur in Europa von dem "Eierskandal" betroffen - und entsprechende Konsequenzen für die Verursacher, sind rasch erfolgt. Eben beschäftigen sich die EU-Agrarminister intensiv mit der Causa.

Die bis jetzt zu den Risiken und Auswirkungen von Fipronil -Anwendungen erfolgten Mitteilungen sind - um es positiv auszudrücken - ergänzungsbedürftig und machen nur für weitere Verunsicherung Platz. Einige der weggelassenen Punkte sollen im Folgenden nun behandelt werden.

Was ist Fipronil?

Fipronil ist ein Insektizid, das gegen ein sehr breites Spektrum von Insekten wirkt: gegen Schädlinge im Pflanzenbau und in Haus und Garten -wie Schaben und Ameisen -, sowie gegen sogenannte Ektoparasiten - das sind Gliederfüßer (Arthropoden), die auf der Oberfläche von Wirtsorganismen leben und sich von deren Blut, Hautschuppen, etc. ernähren. Zu den Ektoparasiten zählen etwa Milben (darunter die Zecken), Läuse und Stechmücken, die als Überträger von immer mehr unterschiedlichen Krankheitserregern fungieren - von Viren und Mikroorganismen, die Krankheiten wie beispielsweise Frühsommer-Meningits, Borreliose, Rickettsiose, Vogelgrippe oder auch Malaria auslösen.

Dass Fipronil auch für nützliche Insekten - Bestäuber wie etwa die Bienen - toxisch ist, hat zur Einschränkung seiner landwirtschaftlichen Nutzung geführt (s.u.).

Von der Struktur her ist Fipronil eine relativ kleine synthetische Verbindung aus der Gruppe der Phenylpyrazole (Abbildung 2). Es ist eine hoch lipophile Substanz: in organischen Lösungsmitteln (Oktanol) löst sich Fipronil rund 10 000 besser als in Wasser (Löslichkeit rund 2 mg/l). Dies hat zur Folge, dass sich Fipronil im Fettgewebe tierischer Organismen anreichert, dort lange verweilt und - bei chronischher Exposition - akkumulieren kann. Anreicherungen und langanhaltende Persistenz werden auch in den Böden detektiert. Die Hauptmetabolte des Fipronilin, die durch oxydative (Cytochrom P450 katalysierte) Prozesse in Organismen entstehen und durch photochemische Reaktionen in der Umwelt, haben ähnliche Eigenschaften (und insektizide Wirksamkeiten).

Abbildung 2. Das Insektizid Fipronil ist ein N-Phenylpyrazole mit einem Trifluoromethylsulfinyl-substituenten (rot eingeringelt). Als Hauptmetabolit In Organismen entsteht durch Oxidation das Sulfon, im Licht (ohne Stoffwechsel) das Desulfinyl-Produkt. Beide Metabolite haben vergleichbare insektizide Eigenschaften wie Fipronil.

Wie wirkt Fipronil?

Der Großteil der heute gebräuchlichen Insektizide richtet sich gegen vier unterschiedliche Zielstrukturen im Nervensystem: gegen Cholinesterasen, welche den Neurotransmitter Acetylcholin spalten und so seine Wirksamkeit kontrollieren,und gegen den Acetylcholinrezeptor, gegen einen spannungsabhängigen Natriumionenkanal, und gegen den GABAA -Rezeptor. (GABA steht für den Neurotransmitter γ-Aminobuttersäure). Fipronil fungiert als ein höchstwirksamer Antagonist von GABAA -Rezeptoren (und Glutamat-Rezeptoren, die nur in Insekten vorkommen). Es sind dies Ionenkanäle, die in der Membran der Nervenzellen sitzen und - durch ihre Neurotransmitter gesteuert - für Chloridionen durchlässig werden. Fipronil bindet nun an/in der zentralen Pore eines solchen Kanals und verhindert damit direkt den Einstrom von Chlorid. Dies führt nun zur Hyperpolarisierung (Übererregung) der Zellmembran, als Folge zur Blockierung der Erregungsüberleitung und schließlich zu Paralyse und Tod des Insekts.

Die kurze Erläuterung des Wirkmechanismus ist wichtig, weil GABAA -Rezeptoren sowohl in den Nervensystemen von Wirbellosen als auch von Wirbeltieren in hoher Zahl vorkommen. Eine niedrige Selektivität für den Rezeptor von Insekten über den von Wirbeltieren würde bei letzteren zu einer nicht tolerierbaren Toxizität führen. Tatsächlich zeigt Fipronil aber sehr hohe Selektivität: es bindet sehr fest an die Rezeptoren der Wirbellosen (d.i. Inhibierung tritt im Schnitt bei 3 Nanogramm/ml ein), im Gegensatz dazu ist die Bindung an die GABAA-Rezeptoren verschiedenster Vertebraten (Mensch, Säuger, Vögel, Fische) um mehr als das 100fache schwächer. Dieser Unterschied in der Blockierung der GABAA-Rezeptoren spiegelt sich auch in der Toxizität gegenüber Insekten und Wirbeltieren wider. Dosierungen, wie sie gegen Schädlinge aus dem Insektenreich wirksam sind, sollten daher auf den Anwender keine negativen Auswirkungen zeigen. Einige Fälle von versehentlicher Einnahme oder unsachgemäßer Anwendung hatten - nicht verwunderlich - neurotoxische Symptome zur Folge, die aber reversibel waren.

Wo wird Fipronil angewendet?

Die in den einzelnen Indikationen angewandten Dosierungen werden offensichtlich als nicht gefährdend eingestuft. Die Mittel sind in Lagerhäusern oder (zum Teil rezeptfrei) in Apotheken und Tierhandlungen erhältlich:

Zur Schädlingsbekämpfung

wird Fipronil vor allem gegen Ameisen, Schaben, Termiten in Form von Gießmitteln und Ködergranulaten eingesetzt:

  • Ameisenköder enthalten bis zu 500 mg/kg Fipronil (Celaflor). Die Anwendung sieht vor: "Köderdosen sollten bis zu 2 Monate stehen bleiben, auch wenn keine Ameisen mehr herumlaufen. Bei besonders starkem Befall Köderdosen nach 3 bis 4 Wochen erneuern."
  • Das Gießmittel "zur Bekämpfung lästiger Ameisen auf Terrassen und Wegen" wird durch Verdünnung hergestellt und findet als 2 mg/l Lösung Anwendung - auf ein großes Ameisennest werden 2 l von dieser Verdünnunggeleert.

Zum Pflanzenschutz

Da Fipronil für Bienen giftig ist, hat die EU 2013 beschlossen seine Verwendung zu beschränken. Der Einsatz erfolgt im Gewächshaus oder, wenn es sich um Produkte (Lauch-, Kohl pflanzen) handelt, die vor der Blüte geerntet werden. Die EU-Zulassung zur Saatgutbehandlung läuft 2018 aus.

In der Tiermedizin

Fipronil findet heute vor allem als schnell wirkendes und lang anhaltendes Mittel gegen Parasiten - Milben (Zecken), Flöhe, Läuse bei Hunden und Katzen Anwendung. Es kommt hier als Spot-on Mittel und in Form von Zeckenhalsbändern zum Einsatz. (Die Verbraucherschutz-Zeitschrift Konsument hat über einige dieser Mittel im Mai 2017 positiv berichtet.)

  • Spot-on Mittel als Medikament für Katzen und Hunde sind beispielsweise unter der Bezeichnung „Frontline“ in Apotheken erhältlich. Je nach Größe des Tiers liegt die Dosis zwischen 50,0 mg und 268,0 mg Fipronil. Diese Dosis wird auf einen für das Tier schlecht erreichbaren (ableckbaren) Fleck auf den Rücken gesprüht. "Nach Anwendung bildet sich auf dem Fell des Tieres ein Konzentrationsgradient von Fipronil, ausgehend von der Applikationsstelle in Richtung der peripheren Zonen (Lumbalzone, Flanken...). Mit der Zeit nehmen die Fipronilkonzentrationen im Fell ab und erreichen zwei Monate nach Behandlung eine durchschnittliche Konzentration von ungefähr 1 μg/g Fell." dazu wird konstatiert: "Behandelte Tiere sollten nicht berührt werden und Kinder nicht mit behandelten Tieren spielen, bevor die Applikationsstelle trocken ist." (Quelle: CliniPharm CliniTox https://www.vetpharm.uzh.ch/reloader.htm?tak/06000000/00062811.04?inhalt_c.htm)
  • Bei Tieren,die Lebensmittel liefern, ist die Anwendung von Fipronil in der EU verboten

Dass Fipronil unerlaubterweise nun in Hühnereiern (und auch in Hühnerfleisch) auftaucht, soll nicht kleingeredet werden. Es ist ein Fall für die Justiz und führte bereits zu Festnahmen der mutmaßlichen Verursacher dieses Skandals.

Wie das Insektizid Fipronil in die Eier gelangen konnte,

war bald klar. Hühner leiden unter der Roten Vogelmilbe, einem mobilen Parasiten, der tagsüber sich im Nest, in Ritzen auf Stangen und im Boden/auf Wänden versteckt und nachts die schlafenden Vögel befällt und ihr Blut saugt. Neben den direkten Folgen der "Blutabnahme" - von Juckreiz, Unruhe bis hin zu Blutarmut -, können die Milben auch Krankheitserreger -z.B. Borrelien - übertragen. Für die Bekämpfung sind Geflügelzüchter auf einige wenige, zum Teil wenig wirksame Mittel angewiesen.

Der Skandal nahm seinen Ausgang in Belgien. Dort hatte sich ein für die Nutztierhaltung zugelassenes, ungiftiges rein pflanzliches Desinfektionsmittel ("DEGA-16" aus Eukalyptusöl, Menthol und anderen ätherischen Ölen) als gegen die Vogelmilbe hochwirksam erwiesen. Der Wunsch auf die "chemische Keule" zu verzichten und ökologisch verträglich vorzugehen, führte dazu, dass das Wundermittel auch in Ställen in den Niederlanden und in einigen Fällen auch in Deutschland eingesetzt wurde. Dass die Wirkung auf die Zumischung mit dem für die Nutztierhaltung verbotenen Fipronil zurückzuführen war, wurde erst nach der chemischen Analyse von Proben später erkannt. Fipronil wurde von den Hühnern aufgenommen, auf Grund seines lipophilen Charakters reicherte es sich in Haut, Fettgewebe und in den Eiern (im Eidotter) an. Interessanterweise waren hier nicht nur Hühner in Massentierhaltung betroffen: die Verbraucherzentrale Hamburg listet unter den kontaminierten Proben auch viele auf, die von Tieren in Freilandhaltung stammten oder auch als Bio-Eier deklariert waren (https://www.vzhh.de/themen/lebensmittel-ernaehrung/schadstoffe-lebensmitteln/fipronil-eiern-was-kann-man-noch-essen

Als der Betrug ruchbar wurde, waren die Auswirkungen für die betroffenen Geflügelhalter verheerend. In den Niederlanden schlossen angeblich 180 Betriebe, der Umsatzverlust wurde mit täglich rund 4000 € pro Betrieb geschätzt.

Millionen Eier wurden vernichtet - war dies angemessen?

Eine Milchmädchenrechnung: Fipronil in "Gifteiern" versus Fipronil in erlaubten Anwendungen

In welcher Relation stehen aber nun die in Schädlingsbekämpfung und Tiermedizin angewandten Mengen von Fipronil zu den in den "Gifteiern" gefundenen?

Mit Ausnahme des höchsten in Belgien gefundenen Einzelwertes von 1,2 mg Fipronil pro kg Ei (der für die gesundheitliche Bewertung herangezogen wurde), liegen die Messwerte in allen Ländern bedeutend niedriger; die österreichische "Agentur für Ernährungssicherheit" (AGES) hat in den bis jetzt analysierten Proben Werte zwischen 0,003 und 0,1 Milligramm pro Kilo Ei gemessen. Vergleicht man nun, den Fipronil-Gehalt von Eiern mit den 50 mg Fipronil, die man einer kleinen Katze auf den Rücken sprüht, so entspricht diese Dosis einer Menge von 500 - 15 000 kg Eiern oder - bei einem mittleren Ei-Gewicht von 60 g - von 3000 - 90 000 Stück Eiern. (Das Einsprühen erfolgt dazu auch noch mehrmals im Jahr). Bei großen Hunden kann dies auch 5 x so viel sein.

Ähnliche Relationen erhält man auch für die Anwendung von Fipronil-Ameisenköder.

Natürlich muss man dabei berücksichtigen: wieweit kann Fipronil von Hund und Katze auf Mitbewohner übertragen werden, ist der Fipronil-Klecks für Mitbewohner verfügbar?

Dass dies der Fall ist, belegen einige Untersuchungen:

  • Forscher haben Hunde mit Spot-on Fipronil eingesprüht und sie täglich 5 Minuten lang mit Baumwollhandschuhen gestreichelt. Nach 24 Stunden waren auf den Handschuhen im Mittel 0,59 mg Fipronil/g haften geblieben, nach 8 Tagen waren es noch immer 0,45 mg/g, nach 29 Tagen 0,13 mg/g und erst nach 36 Tagen war Fipronil nicht mehr detektierbar (Jennings, K. A. et al.,Human Exposure to Fipronil from Dogs Treated with Frontline. Controv. Toxicol. 2002, 44 (5), 301-303).
  • In einem weiteren Beispiel wurden Hunde mit Spot-on Fipronil eingesprüht , nach bestimmten Zeitintervallen gewaschen und Fipronil im Waschwasser bestimmt; nach 2 Tagen enthielt das Wasser rund 21 (±22) % der Dosis, nach 7 Tagen 16 (±13) % und 28 Tagen noch immer 4 (±)5%. Neben der Tatsache, dass das Insektizid durchaus in nennenswerter Konzentration auch auf die Familie des Haustiers übertragen werden kann, erscheint hier vor allem von Bedeutung, dass derartige Pestizide in das Abwasser gelangen (Teerlink J et al., Sci Total Environ. 2017 Dec 1;599-600:960-966)

Bedenkt man, wie Haustiere mit uns spielen und kuscheln und dass auf Decken, Sofas und anderen bevorzugten Plätzen Fipronil auch Wochen nach der Anwendung noch abgerieben wird, so übersteigt diese Exposition bei weitem die aktuelle Gefährdung durch die "Gifteier". Dass Fipronil bereits seit den 1990er Jahren in der Tiermedizin an Haustieren Verwendung findet - an Millionen Tieren und jeweils mehrmals im Jahr - und bis jetzt offensichtlich nur sehr, sehr selten zu Nebenwirkungen geführt hat, wurde in den Medienberichten nicht thematisiert.

Die Panikmache wäre besser vermieden worden.

Fazit

Fälle, wie der gegenwärtige Fipronil-Skandal werden wohl auch in Zukunft nicht auszuschließen sein. Es werden ja heute über 800 Chemikalien - Insektizide, Herbizide und Fungizide - in der Produktion landwirtschaftlicher Produkte und zum Schutz unserer Gesundheit eingesetzt. Eine Prüfung auf deren (und ihrer Metabolite) Gehalte ist wohl nur in Stichproben möglich. Wichtig erscheint aber möglichst seriöse umfassende Information an die Bevölkerung weiterzugeben und Maßnahmen mit Augenmaß zu treffen.


Weiterführende Links

AGES: Aktuelles zu Fipronil-Eiern (4.9.2017)

Deutsches Bundesinstitut für Risikobewertung: Fragen und Antworten zu Fipronilgehalten in Lebensmitteln tierischen Ursprungs (15.8.2017 – PDF-Download).

Jackson, D.; Cornell, C. B.; Luukinen, B.; Buhl, K.; Stone, D. 2009. Fipronil Technical Fact Sheet; National Pesticide Information Center, Oregon State University Extension Services.

Casida J.E, Durkin K.A: Pesticide Chemical Research in Toxicology: Lessons from Nature. Chem. Res. Toxicol. 2017, 30, 94−104 Chem. Res. Toxicol. 2017, 30, 94−104

inge Thu, 07.09.2017 - 15:55

Den Seuchen auf der Spur: Genetische Untersuchungen zur Geschichte der Krankheitserreger

Den Seuchen auf der Spur: Genetische Untersuchungen zur Geschichte der Krankheitserreger

Do, 31.08.2017 - 10:03 — Marcel Keller & Johannes Krause

Marcel KellerJohannes KrauseIcon BiologieDas Max-Planck-Institut für Menschheitsgeschichte (Jena) betreibt Grundlagenforschung auf dem Gebiet moderner analytischer Methoden mit dem Ziel einer integrierten Wissenschaft der Menschheitsgeschichte ; es schlägt dabei eine Brücke zwischen den Geschichts- und Naturwissenschaften. Eines der Projekte widmet sich der genetischen Rekonstruktion verschiedener Krankheitserreger vergangener Epochen. Mit innovativen molekularbiologischen Methoden ist es gelungen, aus den sterblichen Überresten von Pestopfern zahlreiche Genome des Pest-Erregers zu entschlüsseln. Die Autoren dieses Essays zeigen auf, wie die Ergebnisse helfen, die Evolution des Pathogens besser zu verstehen und neue Einblicke in die (Vor-)Geschichte zu eröffnen. Weitere Studien untersuchen zum Beispiel den Ursprung der Tuberkulose in der Neuen Welt und die Evolution der Lepra-Erreger.*

Das menschliche Skelett steht in ständiger Wechselwirkung mit Weichgewebe und Blutkreislauf. Deshalb kann es noch lange nach dem Tod einiges über den Gesundheitszustand des Individuums zu Lebzeiten verraten: Stoffwechselstörungen und Mangelernährung können zu charakteristischen Veränderungen des Knochenaufbaus führen, zum Beispiel Osteoporose oder Rachitis, auch Knochentumore und Metastasen lassen sich gelegentlich identifizieren. Jedoch führen nur wenige Infektionskrankheiten wie etwa Lepra oder eine fortgeschrittene Tuberkulose zu sichtbaren Veränderungen am Skelett.

Für andere Seuchen standen den Anthropologen bis vor etwa 20 Jahren keine Nachweismethoden zur Verfügung. Die teilweise verheerenden Infektionskrankheiten, die der Menschheit vor dem Zeitalter von Antibiotika und Impfungen zusetzten, ließen sich damit nur indirekt fassen – etwa durch Symptombeschreibungen in historischen Quellen oder die Entdeckung von Massengräbern, die nur durch katastrophale Ereignisse erklärt werden können.

Abbildung 1. Mit Hilfe von DNA-Analysen konnte dieses Massengrab in Ellwangen (Marktplatz) der Pest zugeschrieben werden. © Regierungspräsidium Stuttgart, Abt. 8 Landesamt für Denkmalpflege

Paläogenetik: Neuer Blick in die Geschichte des Menschen

Dies änderte sich mit der Entdeckung, dass DNA – also jenes Biomolekül, das für alle Lebewesen den genetischen Bauplan bereitstellt – mitunter über Jahrtausende in Skeletten im Boden überdauern kann. Im Mittelpunkt des Interesses der neuen Disziplin Paläogenetik stand dabei zunächst das Erbgut des Menschen, das in Knochen und Zähnen konserviert bleibt. Der Wissenschaftszweig greift aber noch weiter: Auch Bakterien, die sich bei schweren Infektionen über den Blutkreislauf ausbreiten, lassen sich mit den Methoden der Paläogenetik an archäologischem Skelettmaterial nachweisen. Abbildung 1.

Die Analyse der DNA von Krankheitserregern erlaubt dadurch erstmals die zweifelsfreie Diagnose bakterieller Infektionen in vergangenen Zeiten. Mehr noch: So wie die DNA des Menschen etwas über seine Abstammung und Herkunft verrät, so trägt auch das Erbgut von Bakterien Informationen über deren Vergangenheit. Durch die Rekonstruktion kompletter Genome dieser Mikroorganismen (Abbildung 2) kann heute eine Geschichte der Krankheitserreger nachgezeichnet werden, die ihrerseits ganz eigene Fragen aufwirft, aber auch einen neuen Blick auf die menschliche Historie erlaubt.

Abbildung 2. Da die Proben nur geringe DNA-Mengen enthalten, ist die Gefahr einer Verunreinigung sehr hoch. Daher müssen alle Proben im Reinraum bearbeitet werden. © Wolfgang Haak, Max-Planck-Institut für Menschheitsgeschichte

Beispiel Pest

Rund 300 Jahre nach dem letzten großen Ausbruch gilt die Pest in Europa immer noch als Inbegriff einer Seuche. Beginnend mit dem „Schwarzen Tod“ in den Jahren 1348 bis 1352, der nach Schätzungen die europäische Bevölkerung um ein Drittel dezimierte, flammte die Pest in den folgenden Jahrhunderten immer wieder in einzelnen Regionen und Städten auf, bis sie nach dem letzten großen Ausbruch 1720 bis 1722 in Marseille nach und nach aus Europa verschwand.

Das für die Pest verantwortliche Bakterium Yersinia pestis zirkuliert auch heute noch in einigen Regionen der Welt in wild lebenden Nagetieren und infiziert sporadisch Rattenpopulationen. Durch den Rattenfloh kann es dann auch auf den Menschen übertragen werden. Im menschlichen Körper breitet sich das Bakterium über das Lymphsystem oder den Blutkreislauf aus und manifestiert sich als Beulenpest, septikämische Pest oder Lungenpest. Letztere ist über Tröpfcheninfektion auch direkt von Mensch zu Mensch übertragbar. Während sich die Beulenpest bei etwa 50 Prozent der Infizierten wieder zurückbilden kann, führen die anderen Formen unbehandelt fast immer zum Tod.

Perspektivwechsel: Geschichte aus der Sicht eines Krankheitserregers

Durch die molekularbiologischen Untersuchungen von Pestopfern aus ganz Europa können wir die Geschichte der Pest heute quasi aus der Perspektive des Erregers erzählen. Abbildung 3. So konnte der Vergleich mit den modernen Erregerstämmen aus Nagetierpopulationen in Zentralasien nicht nur die Historiker bestätigen, die den Ursprung des „Schwarzen Todes“ im 14. Jahrhundert in China vermutet haben.

Eine weitere Studie konnte darüber hinaus nachweisen, dass der für die Hong-Kong-Pest und die folgende Pandemie Anfang des 20. Jahrhunderts verantwortliche Erregerstamm von der europäischen Linie abstammt, also nach der Zeit des „Schwarzen Todes“ wieder zurück nach Asien gewandert sein muss.

Abbildung 3. Ausbreitungskarte und schematischer Stammbaum des Pest-Erregers. Eingezeichnet sind alle bronzezeitlichen Nachweise sowie die Fundorte der bisher rekonstruierten Genome. © Annette Günzel, Max-Planck-Institut für Menschheitsgeschichte

Die ganze Stärke der Paläogenetik von Krankheitserregern kommt aber erst in der Vor- und Frühgeschichte zum Tragen, wenn nämlich schriftliche Quellen rar sind oder gänzlich fehlen. Das ist beispielsweise für die „Justinianische Pest“ der Fall, die zur Zeit des spätantiken Kaisers Justinian im Jahr 541 n. Chr. wütete. Während aus dem zerfallenden weströmischen und dem byzantinischen Reich zahlreiche zeitgenössische Berichte überliefert sind, verstummen die Quellen jenseits der Grenzen des römischen Reiches. Umso überraschender war schließlich der Nachweis des Pest-Erregers in merowingischen Gräberfeldern aus dem 6. Jahrhundert im heutigen Bayern, der nicht nur die bereits vermutete Identität des Erregers bestätigte, sondern auch den Beweis lieferte, dass die Pest bereits damals die Alpen überquert hatte. Vergleichende Analysen zeigten außerdem, dass diese erste historisch bezeugte Pestpandemie – unabhängig von der zweiten im Spätmittelalter – bereits ihren Ursprung im Fernen Osten hatte.

Blick in die Vorgeschichte

Völlig unerwartet war schließlich auch der Nachweis der Pest in bronzezeitlichen Gräbern von Osteuropa bis ins Altaigebirge. Anders als bei den späteren Pandemien handelte es sich hier jedoch um eine bis dato unbekannte „Urform“ der Pest, die zwar schon eine tödliche Sepsis auslösen konnte, aber vermutlich weder die charakteristischen Lymphknotenschwellungen der Beulenpest verursachte, noch an die effiziente Übertragung durch den Rattenfloh angepasst war. Die Rekonstruktion dieser jahrtausendealten Genome liefert somit Momentaufnahmen aus der Evolution eines vergleichsweise harmlosen Darmkeims zu einem der gefürchtetsten Erreger der Menschheitsgeschichte.

Tuberkulose und Lepra

Auch chronisch verlaufende Infektionskrankheiten wie Tuberkulose, verursacht durch Mycobacterium tuberculosis, können ihren genetischen Fingerabdruck im menschlichen Skelett hinterlassen. So wiesen Analysen an Skelettresten aus der präkolumbischen Neuen Welt nach, dass dort, noch bevor die Europäer Amerika erreicht hatten, Tuberkulosestämme von infizierten Tieren auf den Menschen übergesprungen waren. Andere Studien beschäftigten sich mit den Erregern der Lepra, Mycobacterium leprae und Mycobacterium lepromatosis. Die Infektionskrankheit Lepra verschwand in der Frühen Neuzeit langsam aus Europa, fordert aber in Entwicklungsländern bis heute Opfer. Den modernen Methoden der Genomsequenzierung kommt hier besondere Bedeutung auch für die klinische Forschung zu, da sich die Erreger der Lepra nicht im Labor kultivieren lassen.

Die Ergebnisse dieser Arbeiten revidierten die bisherigen Annahmen zur Evolution dieser Erreger, indem sie zeigen konnten, dass sich beide Pathogene erst in den letzten Jahrtausenden in der menschlichen Population verbreitet haben.

Gletschermumie mit Magenkeim

Das Bakterium Helicobacter pylori ist an die Lebensbedingungen im Magen angepasst und findet sich heute bei der Hälfte aller Menschen. Unter ungünstigen Bedingungen kann es Magengeschwüre und Krebs hervorrufen. Die Archäogenetiker am Max-Planck-Institut für Menschheitsgeschichte waren maßgeblich an der Entschlüsselung des Gastritis-Erregers Helicobacter pylori aus der 5.300 Jahre alten Gletschermumie Ötzi beteiligt. Es handelt sich um den derzeit ältesten Beleg des Bakteriums und dieser unterstützt die Theorie, dass der Mensch schon früh in seiner Geschichte mit dem Bakterium infiziert war, das erst vor etwa 30 Jahren als Verursacher von Magengeschwüren entdeckt wurde. Überraschenderweise ergab der Vergleich mit heutigen Helicobacter-pylori-Bakterien, dass der Stamm aus der Gletschermumie fast vollständig mit asiatischen und nicht mit europäischen Stämmen übereinstimmt. Dieses Ergebnis wirft neue Fragen zu den frühen Wanderungsbewegungen der Menschen in Europa auf.


Literaturhinweise

(bis auf 4. frei zugänglich)

1. Spyrou, M. A.; Tukhbatova, R. I.; Feldman, M.; Drath, J.; Kacki, S.; Beltrán de Heredia, J.; […] Krause, J. Historical Y. pestis Genomes Reveal the European Black Death as the Source of Ancient and Modern Plague Pandemics. Cell Host & Microbe 19 (6), 874–881 (2016). https://doi.org/10.1016/j.chom.2016.05.012

2. Bos, K. I.; Herbig, A.; Sahl, J.; Waglechner, N.; Fourment, M.; Forrest, S. A.; […] Krause, J.; Poinar, H. N. Eighteenth century Yersinia pestis genomes reveal the long-term persistence of an historical plague focus. eLife 5 (11), 949–955 (2016, published online). https://doi.org/10.7554/eLife.12994.002

3. Feldman, M.; Harbeck, M.; Keller, M.; Spyrou, M. A.; Rott, A.; Trautmann, B.; […] Krause, J. A High-Coverage Yersinia pestis Genome from a Sixth-Century Justinianic Plague Victim. Molecular Biology and Evolution 33 (11), 2911–2923 (2016). https://doi.org/10.1093/molbev/msw170

4. Bos, K. I.; Harkins, K. M.; Herbig, A.; Coscolla, M.; Weber, N.; Comas, I.; […] Krause, J. Pre-Columbian mycobacterial genomes reveal seals as a source of New World human tuberculosis. Nature 514 (7523), 494–497 (2014)

5. Singh, P.; Benjak, A.; Schuenemann, V. J.; Herbig, A.; Avanzi, C.; Busso, P.; […] Cole, S. T. Insight into the evolution and origin of leprosy bacilli from the genome sequence of Mycobacterium lepromatosis. Proceedings of the National Academy of Sciences 112 (14), 4459–4464 (2015). http://www.pnas.org/content/112/14/4459

6. Mendum, T. A., Schuenemann, V. J.; Roffey, S.; Taylor, G.; Wu, H.; Singh, P.; […] Stewart, G. R. Mycobacterium leprae genomes from a British medieval leprosy hospital: Towards understanding an ancient epidemic.BMC Genomics 15 (1), 270 (2014). https://bmcgenomics.biomedcentral.com/articles/10.1186/1471-2164-15-270

7. Schuenemann, V. J.; Singh, P.; Mendum, T. A.; Krause-Kyora, B.; Jäger, G.; Bos, K. I.; […] Krause, J. Genome-Wide Comparison of Medieval and Modern Mycobacterium leprae. Science 341 (6142), 179–183 (2013). http://science.sciencemag.org/content/341/6142/179
8. Maixner, F.; Krause-Kyora, B.; Turaev, D.; Herbig, A.; Hoopmann, M. R.; Hallows, J. L.; […] Zink, A.The 5300-year-old Helicobacter pylori genome of the Iceman. Science 351 (6269), 162–165 (2016). http://science.sciencemag.org/content/351/6269/162


* Der Artikel ist unter demselben Titel: "Den Seuchen auf der Spur: Genetische Untersuchungen zur Geschichte der Krankheitserreger" im Jahrbuch der Max-Planck-Gesellschaft 2017 erschienen und wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint ungekürzt.


Weiterführende Links

Das Max-Planck-Institut für Menschheitsgeschichte in Jena wurde 2014 gegründet, um grundlegende Fragen der menschlichen Evolution und Geschichte seit der Steinzeit zu erforschen. Mit seinen drei interdisziplinären Abteilungen – der Abteilung für Archäogenetik (Direktor Johannes Krause), der Abteilung für Archäologie (Direktorin Nicole Boivin) sowie der Abteilung für Sprach- und Kulturevolution (Direktor Russell Gray) – verfolgt das Institut eine dezidiert integrierende Wissenschaft der Menschheitsgeschichte, die den traditionellen Graben zwischen Natur- und Geisteswissenschaften überwindet.

Projekte der Abteilung für Archäogenetik: u..a..


Videos & Interviews Ancient DNA and Human Evolution – Johannes Krause: Ancient European Population History. Video 22:47 min.   Johannes Krause (Max Planck Institute for the Science of Human History) and his research team analyzed more than 200 ancient human genomes spanning the last 10,000 years of Western Eurasian pre-history. They found direct evidence for two major genetic turnover events at the beginning and at the end of the Neolithic time period in Europe, which they attribute to two major migrations (Standard Youtube license)

Das Geheimnis des Schwarzen Tods. Video 5:20 min. (Standard Youtube license)

Johannes Krause: Dunkle Haut - blaue Augen. dctp.tv - April 2017. Video 44 min.

Johannes Krause: Der Europäer ist auch genetisch ein Potpourri.

Johannes Krause im Gespräch mit Korbinian Frenzel (12.8.2016): "Zum Großteil stammen unsere Gene aus Afrika"

inge Thu, 31.08.2017 - 10:03

Jan Ingenhousz, Leibarzt Maria Theresias und Entdecker der Photosynthese

Jan Ingenhousz, Leibarzt Maria Theresias und Entdecker der Photosynthese

Do, 24.08.2017 - 14:05 — Robert W. Rosner

Robert W. RosnerIcon WissenschaftsgeschichteZum dreihundertsten Geburtstag Maria Theresias wird heuer viel über die Rolle dieser außergewöhnlichen Frau als Regentin eines Vielvölkerstaats, Strategin, Reformerin, die u.a. die Schulpflicht eingeführt hat und als Mutter gesprochen. Kaum erwähnt werden dabei aber ihre Verdienste bei der Umgestaltung des medizinischen Unterrichts an der Wiener Universität und ihre Verdienste im Kampf gegen die Pocken. Maria Theresia hat als Leibärzte den Holländer Gerhard van Swieten nach Wien geholt, der den medizinischen Unterricht an der Universität grundlegend umgestaltet hat und den Arzt und Naturforscher Ian Ingenhousz, ebenfalls einen Holländer, um vor vielen anderen Ländern Europas eine Impfung zum Schutz vor den lebensbedrohenden Pocken einzuführen. Mit Ingenhousz kam auch ein herausragenden Forscher nach Wien, dem wir u.a. fundamentale Entdeckungen zur Photosynthese verdanken. Der Chemiker und Wissenschaftshistoriker Robert Rosner stellt den hier wenig bekannten Wissenschafter Jan Ingenhousz vor..*

In den sechziger Jahren des 18. Jahrhunderts waren in Wien die Pocken sehr verbreitet, auch die kaiserliche Familie war davon betroffen. Maria Theresia selbst, ihr ältester Sohn Josef, der spätere Kaiser, und ihre besonders hübsche Tochter Maria Elisabeth erkrankten an den Pocken, gesundeten aber wieder. Dagegen starben andere Kinder Maria Theresias und Mitglieder des Kaiserhauses, wie die erste und zweite Frau Josephs II. und eine seiner Töchter, an dieser Krankheit. Aufgrund der Nachricht, dass sich die Pockenimpfung in England bewährt hatte, wurde das englische Königshaus ersucht, einen Fachmann nach Wien zu schicken. Auf Empfehlung des Leibarztes des englischen Königs, Sir John Pringle, kam Jan Ingenhousz (Abbildung 1) 1768 nach Wien.

Abbildung 1. Jan Ingenhousz (1730 - 1799). Die Inschrift besagt, dass die kaiserlichen Nachkommen durch die Inoculation mit Pocken gerettet wurden (das Bild stammt aus Wikipedia und ist gemeinfrei). Jan Ingenhousz war Holländer. 1730 in der Stadt Breda, die im Süden der Niederlande liegt, geboren, hatte er in Löwen Medizin studiert, in Leiden Physik und Chemie in Paris und Edinburgh. Nach seinem Studium hatte Ingenhousz als Arzt in Breda praktiziert und war dann nach England gegangen, wo er bei der Impfung gegen Pocken viel Erfahrung sammelte.

Die Pockenimpfung

Die Impfmethode, als Inoculation oder Variolation bezeichnet, bestand darin, dass Eiterflüssigkeit aus den Pusteln Erkrankter - also ein Lebendimpfstoff - eingeimpft wurde. Darauf setzte üblicherweise eine Immunreaktion ein, die zu einer weitgehenden Immunität gegenüber Infektionen mit Pockenviren führte. Diese Methode war schon lange in Asien angewandt worden und wurde im Verlauf des 18. Jahrhunderts in England und einigen anderen Staaten Europas eingeführt. (Abbildung 2)

Abbildung 2. Die Impfmethode (Variolation, Inoculation) kommt nach England Lady Mary Wortley Montagu lebte als Frau des englischen Botschafters in der Türkei, sah dort die Erfolge, welche die Impfung während Pockenepidemien erbrachte und überzeugte 1721 nach ihrer Rückkehr nach London u.a. Hans Sloane, den Leibarzt des britischen Königshauses, von der Wirksamkeit der "Orientalischen Methode". (Ausschnitt aus Philosophical Transactions, http://rstl.royalsocietypublishing.org/; der eigentlich bereits für 1736 vorgesehene Bericht wurde erst nach dem Tod von Hans Sloane (1753) veröffentlicht.)

Nachdem Ingenhousz eine größere Anzahl von Kindern aus armen Familien, die zu diesem Zweck nach Meidling bei Schönbrunn gebracht worden waren, geimpft hatte und zeigen konnte, wie erfolgreich die Impfung war, durfte er alle noch nicht infizierten Kinder und andere Mitglieder des Kaiserhauses impfen (Inschrift in Abbildung1). Danach reiste er nach Italien, um auch die Mitglieder der Familie des Herzogs von Toscana - des späteren Kaisers Leopold II - zu impfen.

In Wien war die Methode sehr umstritten, wobei der prominente Mediziner und Universitätslehrer Anton DeHaen massiv gegen die Impfung auftrat (er argumentierte, dass mit der Impfung die Pocken nur verbreitet würden und eine Reihe von Krankheitskeimen in den Körper gelangten).

Ingenhousz wurde als Leibarzt der kaiserlichen Familie angestellt, erhielt ein enorm hohes, lebenslanges Salär von jährlich 5000 Gulden und erfreute sich am Wiener Hof eines großen Ansehens. Er ließ sich in Wien nieder, heiratete die Schwester des berühmten Botanikers Nicolaus von Jacquin und war durch seinen Schwager und seine Freunde, den Mediziner Gerard Van Swieten und den Schriftsteller und Politiker Joseph von Sonnenfels, mit den naturwissenschaftlichen und freimaurerischen Kreisen in Wien eng verbunden. Für seine naturwissenschaftlichen Versuche richtete sich Ingenhousz in Wien ein Labor ein, das auch Joseph II besuchte, und erlangte für seine Leistungen internationales Ansehen.

Auch als Ingenhousz später seine Tätigkeit als Mediziner nicht mehr ausübte, wurde er dennoch zu den ersten Ärzten gezählt und hatte in der Medizin ein gewichtiges Wort mitzureden. Die von ihm in Österreich eingeführte Impfmethode wurde im ganzen Reich ausprobiert. Da es aber immer wieder zu echten Ansteckungen kam, die normalerweise zwar leichter verliefen, wurde die Methode gegen Ende des 18. Jahrhunderts wieder fallen gelassen. Erst als die von Edward Jenner eingeführte Kuhpockenimpfung populär wurde, ist diese allgemeine Impfung bereits 1799 als Schutzmethode vom Wiener Stadtphysikus Pascual Joseph Ferro durchgesetzt worden.

Der Naturforscher Ingenhousz...

Ingenhousz reiste öfters nach Italien , Frankreich und besonders nach England, wo er sich meistens längere Zeit aufhielt. Er hatte sich schon während seines Studiums und später in England mit Fragen der Physik und Chemie beschäftigt und benützte nun seine Reisen, um mit den führenden Naturforschern dieser Länder in Kontakt zu treten. So traf er in Paris Benjamin Franklin und plante mit diesem Versuche zur Wärmeleitfähigkeit von Metallen. Ingenhousz beschäftigte sich auch mit Fragen der Elektrizität und des Magnetismus. Auf Grund seiner eingehenden Beschäftigung mit dem damals neuen Thema "Blitzableiter" errichtete Ingenhousz im Auftrag von Kaiser Joseph II derartige Schutzmaßnahmen in den kaiserlichen Pulvermagazinen und der Hofburg.

Besonders eingehend studierte Ingenhousz die Arbeiten von Joseph Priestley, mit dem er sich anfangs anfreundete. Priestley (1733 - 1804), ein anglo-amerikanischer Chemiker, Physiker, Philosoph und Theologe, war Anhänger der damals generell akzeptierten Phlogistontheorie. Diese ging davon aus , dass brennbare Stoffe eine hypothetische Substanz, das Phlogiston, enthielten, das bei der Verbrennung entweichen würde. In einem berühmt gewordenen Versuch erhitzte Priestley Quecksilberoxid und beobachtete, dass daraus metallisches Quecksilber entstand und ein Gas, das er als Bestandteil der natürlichen Luft erkannte und als "dephlogistierte Luft" bezeichnete. Priestley hatte den Sauerstoff entdeckt, praktisch gleichzeitig mit dem französischen Chemiker Antoine Lavoisier und dem schwedischen Pharmazeuten Carl Wilhelm Scheele.

...entdeckt die Grundprinzipien der Photosynthese

Priestley hatte beobachtet, dass faulige Luft in Gegenwart von Pflanzen verbessert wurde. Im Gegensatz dazu hatte der schwedische Chemiker Scheele gefunden, dass sich die Luft in Gegenwart von Pflanzen sogar verschlechtern könne.

ngenhousz führte nun systematische Versuche durch, um den Widerspruch zu klären. Er stellte fest,

dass die grünen Blätter - und ausschließlich diese und kein anderer Pflanzenbestandteil - unter dem Einfluss des Sonnenlichts "dephlogistierte Luft", also Sauerstoff, abgaben und "fixe Luft" - d.i. CO2 - aufnahmen,

dass die Menge des entwickelten Sauerstoffs von der Intensität der Sonnenstrahlung abhing und

dass im Dunkeln hingegen die Pflanzen sogar "fixe Luft" abgaben.

Durch Vergleichsversuche konnte er beweisen, dass es bei Abwesenheit von Sonnenlicht, selbst in einem erwärmten System, zu keiner Sauerstoffentwicklung kam.

Ingenhousz veröffentlichte diese bahnbrechenden Untersuchungen 1779 in englischer Sprache, an wesentlichen Teilen davon hatte er bereits ab 1773 in Wien gearbeitet. Abbildung 3 gibt die in der Einleitung zusammengefassten Ergebnisse in der Originalsprache wieder.

Abbildung 3. Die Entdeckung der Grundprinzipien der Photosynthese: "Experimente an Pflanzen - Entdeckung, dass diese in hohem Maß die Eigenschaft haben unter Sonnenlicht die Luft zu reinigen und im Schatten und in der Nacht zu verunreinigen (1779)". Ingenhousz fasst die Ergebnisse im PREFACE zusammen. (Internet Archiv, das Buch ist frei zugänglich. https://archive.org/details/experimentsuponv00inge )

Die Messmethode

Den entwickelten Sauerstoff fing Ingenhousz in einer pneumatischen Wanne auf und bestimmte dessen Menge mittels dem von dem italienischen Naturforscher Fontana entwickelten Eudiometer (Abbildung 4). Dieses Gerät arbeitete nach dem Prinzip, dass nitrose Gase in die Probe eingeleitet wurden, die der Sauerstoff zu wasserlöslichem NO2 oxydierte. Aus der Abnahme des Gasvolumens ließ sich so der Sauerstoffgehalt bestimmen. (Es war dies eine ungemein genaue Bestimmung: Ingenhousz gab an, dass er bei 10 Proben einen Streuung von 0,2 % hatte.)

Abbildung 4.Die Bestimmung von Sauerstoff und CO2 mittels des Eudiometers. Das Eudiometer ist ein kalibrierter, einseitig verschlossener Glaszylinder, der vollständig mit Wasser gefüllt ist und mit dem offenen Ende in eine, mit derselben Flüssigkeit gefüllte Wanne eintaucht. Entstehendes, in den Zylinder eingeleitetes Gas verdrängt darin die Flüssigkeit, seine Menge wird an Hand des kalibrierten Maßstabs bestimmt. Links: Bestandteile des Eudiometers (links Messzylinder, ganz oben: die Wanne) Darstellung aus "Experiments upon Vegetables"(1779) p. 292; (Quelle: Internet Archiv, das Buch ist frei zugänglich. https://archive.org/details/experimentsuponv00inge.) Rechts: schematische Darstellung der Funktion des Eudiometers (Bild: Wikipedia).

Ingenhousz's Ideen blieben lange Zeit sehr umstritten.

Die gängige Lehrmeinung war ja, dass Pflanzen ihre Nahrung aus dem Boden aufnehmen. Als Ingenhousz seine Experimente im Jahr 1779 veröffentlichte, wusste er auch noch nicht, was die Natur der "fixen Luft" - des CO2 - war.

In einer späteren Arbeit, 1796 - nachdem er die antiphlogistischen Ideen Lavoisiers voll akzeptiert hatte -, schrieb Ingenhousz: "Von dieser (aus der umgebenden Luft aufgenommenen) Kohlensäure absorbiert die Pflanze im Sonnenlicht den Kohlenstoff, indem diese zur selben Zeit den Sauerstoff allein aushaucht und den Kohlenstoff sich allein aneignet". Und weiter, dass die Pflanzen aus dem Kohlenstoff und Sauerstoff des CO2 ihre essentiellen Inhaltsstoffe - Säuren, Fette, Kohlehydrate, etc. - produzieren (Abbildung 5, untere Box).

John Priestley hatte lange Zeit die Bedeutung des Sonnenlichts auf das Wachstum der Pflanzen nicht akzeptiert - dass die Sauerstoffentwicklung der Pflanzen mit ihrem Wachstum in Verbindung stehe. Sehr pointiert macht dies Ingenhousz in seinem 1796 Essay klar: die von ihm entdeckten fundamentalen Prinzipien (des später als Photosynthese bezeichneten Prozesses) wären von Priestley und auch Scheele nicht einmal vermutet worden und diese hätten ihren Irrtum auch nicht eingesehen (Abbildung 5, mitlere Box).

Erst nach Ingenhousz Ableben anerkannte Priestley (wenn auch etwas verärgert) die Priorität von Ingenhousz in diesem enorm wichtigen Thema.

Abbildung 5. In seinem 1796 erschienenen Essay macht Jan Ingenhousz klar, dass Pflanzen ihre Inhaltsstoffe aus dem CO2 der Luft (untere Box) herstellen. Die Ursachen, warum Pflanzen CO2 aufnehmen und Sauerstoff freisetzen, aber auch CO2 absondern, hat er entdeckt. Seine Kontrahenten Priestley und Scheele hätten Derartiges nicht einmal vermutet (mittlere Box). (Quelle: An Essay on the Food of Plants and the Renovation of Soils; in: Additional Appendix to the outlines of the 15th chapter of the proposed general report from the Board of Agriculture: on the subject of manures;1796, John, Adams Library (Boston Public Library); das Buch ist im Internet Archiv, frei zugänglich. https://archive.org/stream/additionalappend00john#page/n57/mode/2up )

Ausklang

1788 unternahm Ingenhousz eine lange Reise. Sie führte ihn zuerst nach Holland, dann nach Frankreich und schließlich nach England, wo er schwer erkrankte. Er bezog zwar noch bis zu seinem Tod sein Gehalt aus Österreich, aber die immer komplizierter werdende politische Lage (französische Revolution und ihre folgenden politischen Bewegungen) und sein schlechter Gesundheitszustand machten eine Rückkehr nach Wien unmöglich. Ingenhousz starb 1799 in England.

Nach wie vor für transdisziplinäre Forscher zutreffend ist die Beschreibung, welche der Ingenhousz Biograph Wiesner 1905 von Ingenhousz gegeben hat:

"Gerade an Ingenhousz sehen wir, wie Gebiete der Medizin die Grenzen von Theorie und Praxis, von Wissenschaft und Technik verschmelzen. ..Ingenhousz wirkte als forschender Arzt bestrebt, die modernen Errungenschaften der reinen Naturwissenschaft in der Heilkunde nutzbar zu machen und auch durch Erfindung oder Vervollkommnung von Methoden der Medizin in ihren verschiedenen Zweigen zu nutzen."


Robert Rosner, Autor des obigen Beitrags, hat Ingenhousz ein Kapitel in seinem Buch "Chemie in Österreich. 1740 - 1914" Lehre, Forschung, Industrie (2004) 359 S. Böhlau Verlag gewidmet.

Viele der Darstellungen in diesem Artikels stammen aus der 1905 veröffentlichten Ingenhousz-Biographie des Pflanzenphysiologen und Rektors der Universität Wien Julius Wiesner: "Jan Ingen-Housz. Sein Leben und sein Wirken als Naturforscher und Arzt". Das Buch hat das Urheberrecht überdauert und ist nun öffentlich zugänglich: https://archive.org/details/janingenhouszsei00wiesuoft


Weiterführende Links

Medizinisches Archiv von W i e n und Österreich (1802) . Google book: Das Buch hat das Urheberrecht überdauert und ist nun öffentlich zugänglich

Arnold C. Klebs (1914): Die Variolation im achtzehnten Jahrhundert. Ein historischer Beitrag zur Immunitätsforschung. Google book: Das Buch hat das Urheberrecht überdauert und ist nun öffentlich zugänglich

J. F. Draut (1829): Historia de Insitione variolarum genuiarum, Dissertation (deutsch) . Google book: Das Buch hat das Urheberrecht überdauert und ist nun öffentlich zugänglich

Artikel zur Photosynthese in ScienceBlog.at

inge Thu, 24.08.2017 - 14:50

Pubertät - Baustelle im Kopf

Pubertät - Baustelle im Kopf

Sa, 19.08.2017 - 10:33 — Nora Schultz

Nora SchultzIcon Gehirn

Selten verändern sich neuronale Strukturen so sehr wie in der Pubertät. Die Generalüberholung gipfelt in einem hocheffizienten Denkorgan. Doch während der Umbauarbeiten herrscht vorübergehend Chaos. Die Entwicklungsbiologin Nora Schultz erzählt hier über massive Umbauten im jugendlichen Gehirn, in denen Graue Substanz verloren geht, weil überflüssige Synapsen ausgemerzt werden, weiße Substanz zunimmt, weil immer mehr Axone von effizienzsteigernden Myelinscheiden umhüllt werden*.

Wenn eine Raupe zum Schmetterling reift, löst sie sich im Puppenstadium dabei vorübergehend fast vollständig auf. Beim Menschen erscheint der Übergang vom Kinder- ins Erwachsenenleben auf den ersten Blick weniger dramatisch. Zwar sprießen plötzlich Körperhaare, Pickel oder auch Brüste, verrutscht die Stimme und fließen allerlei neue Säfte, doch der radikale Umbau, den das Insekt durchmachen muss, bleibt dem metamorphosierenden Menschenkind erspart – dachte man.

Bis in die 1970er Jahre hinein galt die Gehirnentwicklung mit Abschluss des starken Kopfwachstums in der früheren Kindheit als weitgehend beendet. Doch auch wenn das Gehirn nach dem sechsten Lebensjahr nicht mehr viel wächst, weiß man inzwischen, dass seine Struktur und Funktion sich auch danach noch massiv verändern – gerade in der Pubertät.

Der erste systematische Einblick

in diesen Prozess gelang dem US-amerikanischen Neurowissenschaftler Jay Giedd von der University of San Diego in Kalifornien, als er 1989 mit seinen damaligen Kollegen vom National Institute of Mental Health in Bethesda begann, die Gehirne hunderter Kinder alle zwei Jahre mit einer Magnetresonanztomorgrafie (MRT) zu untersuchen, um zu verfolgen, wie Hirnstrukturen sich im Laufe der Zeit verändern. Inzwischen können die Forscher auf 1171 Scans von 618 sich normal entwickelnden jungen Menschen im Alter von 5 bis 25 Jahren zurückblicken. Was sie dort während der Teenage-Jahre fanden, sind Umbauten, die der Verwandlung im Innern der Schmetterlingspuppe kaum nachstehen.

Das pubertierende Gehirn

löst sich zwar nicht auf, aber es kommt ihm zunehmend graue Substanz abhanden, also die Anteile im Gehirn, die vornehmlich aus Nervenzellkörpern bestehen. Vor allem der Cortex dünnt sich ab ungefähr dem 10. Lebensjahr stark aus. Das liegt weniger an absterbenden Zellen als daran, dass massenhaft Synapsen, die Kontaktstellen zwischen den Zellen, verloren gehen – und zwar vor allen solche, die wenig genutzt werden.

Gleichzeitig nimmt die weiße Substanz im Gehirn weiter zu: Oligodendrozyten, eine besondere Form von Gliazellen, umwickeln immer mehr Axone. Die so gebildete fettreiche Myelinscheide, die der weißen Substanz auch ihre Farbe verleiht, erlaubt es den Axonen, Signale bis zu dreitausend mal schneller zu übertragen.

Der Frühjahrsputz unter den während der Kindheit verschwenderisch gebildeten Synapsen und die aufgemotzten Axone sorgen für mehr Effizienz im jugendlichen Gehirn. Doch diese stellt sich keineswegs überall gleichzeitig ein. Stattdessen folgen die Umbauarbeiten einer komplexen Choreographie, die auch Erklärungen für absonderliches Gebaren von Teenagern anbieten. Die Generalüberholung arbeitet sich nämlich von schlichteren zu komplexeren kognitiven Funktionen vor. Sie beginnt mit acht oder neun Jahren im sensorischen und motorischen Cortex im Scheitellappen, die Sinne und motorischen Fähigkeiten zu schärfen und erfasst dann ab ungefähr dem 10. Geburtstag Bereiche im Stirnlappen, die für Koordinierungsaufgaben zuständig sind, zum Beispiel für sprachliche Ausdrucksfähigkeit und räumliche Orientierung.

Als letztes ziehen im Stirn- und Schläfenlappen diejenigen Regionen nach, die eine besonders wichtige Rolle bei höheren, integrativen kognitiven Funktionen wie z. B. der Willensbildung, Handlungsplanung und Impulskontrolle spielen. Besonders wichtig für solche Vernunft-Leistungen ist der präfrontale Cortex, und gerade dieser entwickelt sich besonders langsam, bis über den 20. Geburtstag hinaus. Jugendliche lassen sich zum Beispiel bei Denkaufgaben noch deutlich leichter ablenken als Erwachsene und zeigen dabei vor allem im präfrontalen Cortex andere Aktivitätsmuster.

Hormonelle Veränderungen

Die Spätzündung im präfrontalen Cortex bedeutet auch, dass sich früher entwickelnde, emotional betonte Gehirnregionen in der Pubertät vergleichsweise ungezügelt austoben können. Männliche und weibliche Geschlechtshormone leisten dazu einen direkten Beitrag, vor allem im limbischen System, das eine wichtige Rolle bei der Verarbeitung von Emotionen und der Steuerung von Impulsen spielt und viele Hormonrezeptoren vorweisen kann. Testosteron fördert das Wachstum der Amygdala (des Mandelkerns), Östrogen eher das des Hippocampus . Beide Regionen sind Teil des Belohnungssystems, und die Amygdala wirkt als emotionaler Verstärker, gerade wenn es um Angst oder Wut geht.

Wie genau hormonelle Veränderungen die Struktur und Funktion dieser Gehirnregionen beeinflussen, ist zwar noch längst nicht klar, aber gerade die Amygdala gilt als heißer Kandidat für einen Motor pubertären Verhaltens. Bestens vernetzt mit anderen Gehirnarealen mischt sie vermutlich bei vielen Jugendexzessen mit – seien es Stimmungsschwankungen, erhöhte Aggression, Furchtlosigkeit und Risikofreude oder die Suche nach aufregenden Kicks. In der Amygdala nimmt die graue Substanz bei Teenagern entgegen dem Trend sogar zu – insbesondere bei Jungs, die schließlich auch mehr Testosteron produzieren. Bessere kognitive Leistungen gehen mit einem massiven Mandelkern nicht unbedingt einher, mitunter sogar das Gegenteil. Jedenfalls die Erkennung von Gesichtern und Gefühlen anderer – eine weitere wichtige Funktion der Amygdala – klappt in der Pubertät zeitweise weniger gut als in der Kindheit oder im Erwachsenenalter.

Der Neurowissenschaftler Peter Uhlhaas von der Universität Glasgow in Schottland fand Hinweise darauf, dass so ein vorübergehendes Leistungstief bei 15- bis 17jährigen direkt mit den Umbauarbeiten im jugendlichen Kopf zusammenhängt. Ihre Gehirne schwingen im EEG (Elektroencephalogramm: Aufzeichnung der elektrischen Aktivität des Gehirns (Hirnströme)) anders als die jüngerer oder älterer Probanden. Gerade hochfrequente Schwingungsmuster, die ein Indiz dafür liefern, wie gut die Kommunikation zwischen unterschiedlichen Gehirnregionen läuft, wurden in dieser Altersgruppe schwächer und weniger synchron.

„Wir beobachten eine einzigartige chaotische Phase, einen richtigen Bruch in der Entwicklung“, sagt Uhlhaas. Kurze Zeit später ist der Spuk schon wieder vorbei und aus dem Chaos entpuppen sich die für das reife Gehirn typischen hocheffizienten funktionalen Netzwerke, in denen auch weit voneinander entfernte Areale in synchroner Harmonie schwingen. Die Verwandlung ist komplett.

Baustelle im Kopf

Wo so viel in Bewegung ist wie auf der Baustelle im Kopf, kann natürlich auch einiges verrutschen. (Abbildung 1)

Abbildung 1. Im jugendlichen Gehirn finden massive Umbauten statt. Am Ende des Umbaus steht ein deutlich leistungsfähigeres Gehirn mit effizienten neuronalen Netzwerken.Während der Umbauphasen herrschen allerdings mitunter chaotische Zustände.

Welche Synapsen ausgemistet werden und wie genau die Kabelisolierarbeiten bei der Myelinisierung ablaufen, hängt auch davon ab, was der metamorphosierende Mensch in dieser Zeit erlebt. Die erhöhte neuronale Plastizität während der Pubertät macht besonders sensibel für äußere Einflüsse – seien es spannende Erfahrungen, eine tolle Ausbildung, Videospiel- und Fernsehexzesse, Drogenmissbrauch oder Gewalt. Das erklärt nicht nur, warum Jugenderlebnisse oft lebenslang die Persönlichkeit prägen, sondern auch, warum viele psychische Erkrankungen erstmals im Jugendalter auftreten.

Mithilfe weiterer EEG-Studien an Jugendlichen, die erste psychiatrische Symptome zeigen, will Peter Uhlhaas daher ein Frühwarnsystem entwickeln, das gefährdete Teenager anhand typischer Schwingungsmuster erkennt und so ein rechtzeitiges Eingreifen ermöglicht.

Bei aller Sorge vor dauerhaften Entgleisungen bleiben extreme Emotionen, Anfälle von Wagemut und die Suche nach krassen Erfahrungen in der Pubertät normal. Sie haben auch einen evolutionären Sinn, ermöglichen sie doch der heranreifenden Generation die Abkopplung von den Eltern und den Aufbau des eigenen Erfahrungsschatzes, den es braucht, um ein unabhängiger Erwachsener zu werden. Initiationsriten, in denen Teenager sich Mutproben oder Gefahren stellen oder auf eigene Faust in der Wildnis klarkommen müssen, sind fester Bestandteil vieler Kulturen und erleben auch bei uns derzeit eine Renaissance. Zu Recht, finden viele Experten und fordern, Jugendliche stärker herauszufordern und ihre Grenzen austesten zu lassen.

In der Pubertät mögen Flegelmanieren, Stimmungsstürme und sprießende Gewebe und Sekrete gehörig nerven und ja, auch Chaos im Kopf herrschen. Ein bisschen mehr Vertrauen in die fast reifen Gehirne ist dennoch nicht fehl am Platz. Man braucht nur einen Blick in einschlägige Schülerwettbewerbe zu werfen, um sich davon beeindrucken zu lassen, zu welchen Höhenflügen die musizierenden, forschenden oder debattierenden Kontrahenten in der Lage sind. Und ausgerechnet beim Zocken um Geld wählen Jugendliche mitunter sogar rationalere Strategien als Erwachsene, fanden Forscher kürzlich heraus .


*Der Artikel wurde am 01.04.2017 auf der Webseite www.dasgehirn.info veröffentlicht: https://www.dasgehirn.info/grundlagen/pubertaet/baustelle-im-kopf und steht unter einer CC-BY-NC Lizenz. www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe


Weiterführende Links

Giedd JN et al: Child Psychiatry Branch of the National Institute of Mental Health Longitudinal Structural Magnetic Resonance Imaging Study of Human Brain Development. Neuropsychopharmacology Reviews. 2015; 40: 43-49 ( zum Volltext )

Natalie Steinmann: Summer of 69 (19.04.2017). https://www.dasgehirn.info/grundlagen/pubertaet/summer-69

Helge Hasselmann: Pubertät: Wenn das Gehirn groß wird (29.05.2017) https://www.dasgehirn.info/grundlagen/pubertaet/pubertaet-wenn-das-gehir...


 

inge Sat, 19.08.2017 - 10:33

Migration und naturwissenschaftliche Bildung

Migration und naturwissenschaftliche Bildung

Do, 10.08.2017 - 14:21 — Inge Schuster

Inge SchusterIcon Politik & GesellschaftMangelnde Kenntnisse in den Naturwissenschaften werden in unserem Land (und leider auch in vielen anderen Ländern) nicht als Bildungslücke angesehen. Regelmäßige Eurobarometer Umfragen zur Einstellung der erwachsenen Bevölkerung zu "Science & Technology" zeichnen ein von Unwissen und Desinteresse geprägtes Bild, PISA-Studien der heranwachsenden Jugend sind ernüchternd. Die letzte dieser Studien - PISA 2015 - mit dem Schwerpunkt auf Naturwissenschaften hat zudem aufgezeigt, dass Schüler mit Migrationshintergrund in diesen Fächern einen besonders großen Rückstand auf die einheimische Jugend haben. Der Einstrom von (niedrigqualifizierten) Migranten aus anderen Kulturkreisen hält an und wirkt sich zweifellos auch auf die naturwissenschaftliche Bildung unserer Gesellschaft aus.

Dass Grundkompetenzen in den Naturwissenschaften notwendig sind, um die Welt in der wir leben zu verstehen und in ihr bestehen zu können, ist wohl jedermann klar und dies umso mehr als viele zukünftige Berufe im Bereich von "Science & Technology" angesiedelt sein werden. Dennoch gehören naturwissenschaftliche Kenntnisse bei uns nicht zum Grundkanon der Allgemeinbildung. In vielen unserer Schulen wird das Verständnis für Naturwissenschaften offensichtlich nur unzureichend vermittelt: Schulabgänger - Berufsschüler und angesehene Meister, Studenten oder auch beispielsweise Politiker -, die nicht wissen, was ein Atom, ein Molekül ist, sind leider keine Ausnahmen.

Seit Jahren untersucht die OECD (Organisation for Economic Co-operation and Development) im sogenannten PISA-Test (PISA steht für: Programme for International Student Assessment) in regelmäßigen Intervallen, wieweit Schüler im Alter von 15 Jahren (am Ende ihrer Pflichtschulzeit) "Kenntnisse und Fähigkeiten erworben haben, die es ihnen ermöglichen, an der Wissensgesellschaft teilzuhaben". Im Jahr 2015 war die Testung in den Naturwissenschaften wieder an der Reihe und mehr als eine halbe Million Schüler in 72 Ländern und Regionen haben daran teilgenommen [1].

Unter den 38 OECD Ländern liegt Österreich mit im Mittel 495 Punkten in den Naturwissenschaften im OECD-Durchschnitt und erreichte gerade den 20. Platz. Besorgniserregender als das mittelmäßige Abschneiden war aber, dass rund 21 % der Schüler den Anforderungen naturwissenschaftlicher Grundkompetenz - Kompetenzstufe 2 (über 410 Punkte) - nicht gerecht wurden - ein Niveau über das - laut PISA - "alle jungen Erwachsenen verfügen sollten, um in der Lage zu sein, weitere Lernangebote wahrzunehmen und uneingeschränkt am sozialen, wirtschaftlichen und politischen Leben einer modernen Gesellschaft teilzunehmen". Dazu kommt, dass mehr als die Hälfte der Schüler der Ansicht waren, dass es sich einfach nicht lohne sich im Unterricht anzustrengen - die Jobaussichten würden damit nicht besser und für ihren künftigen Beruf würden sie Naturwissenschaften auch nicht brauchen.

Nun ist Österreich seit den 1960er Jahren zu einem Einwanderungsland geworden (Abbildung 1), und der anhaltende Zustrom von Menschen aus anderen Kulturkreisen mit anderen Einstellungen zur Bildung wirkt sich zweifellos auf unsere gesamte Gesellschaft aus.

Woher stammen Österreichs Migranten?

Ab der zweiten Hälfte der 1960er-Jahre wurde Österreich - wie auch Deutschland, Frankreich, die Niederlande und Belgien - Zielland für niedrigqualifizierte Einwanderer - die Wirtschaft benötigte Arbeitskräfte, sogenannte Gastarbeiter und diese wurden vorwiegend aus dem ehemaligen Jugoslawien und der Türkei angeworben. Es sollte dies eigentlich ein Rotationssystem temporärer Arbeitskräfte - überwiegend von Männern -werden, viele davon ließen sich aber dauerhaft in Österreich nieder, gründeten Familien oder holten diese nach. Eine zweite große Migrationswelle setzte ein, als der eiserne Vorhang fiel, als die erhöhte Nachfrage nach Arbeitskräften nun Menschen aus Mittel- und Osteuropa (aber auch aus anderen Teilen der Welt) nach Österreich brachte. Dazu kamen Flüchtlinge aus Kriegsgebieten, vor allem aus dem zerfallenden Jugoslawien, aus Afghanistan und Tschetschenien.

Abbildung 1.Die Migration nach Österreich verläuft in Wellen (oben). Rund 21 % der im Jahr 2015 in Österreich lebenden Menschen haben Migrationshintergrund (unten). Rund 30 % der aus Ex-Jugoslawien und 43 % der aus der Türkei stammenden Menschen leben bei uns bereits in zweiter Generation. (Quelle: Statistik Austria: Migration & Integration. Zahlen, Daten, Indikatoren 2016, p. 25 und 27; © STATISTIK AUSTRIA, cc-by-nc)

Eine wachsende Mobilität innerhalb der EU führte in den letzten beiden Jahrzehnten auch zu einer verstärkten Binnenmigration, wobei aus Deutschland stammende EU-Bürger die größte Gruppe darstellen, vor Rumänen und Ungarn. Migration aus Drittstaaten war vorwiegend auf Flüchtlingsmigration aus Asien, insbesondere aus Syrien, Afghanistan und dem Irak, zurückzuführen . An zweiter Stelle liegen afrikanische Länder (Nigeria, Somalia, Ägypten).

Insgesamt lebten im Jahr der PISA 2015 Erhebung in Österreich rund 8,491 Millionen Menschen, davon hatten 1,813 Millionen Migrationshintergrund (von diesen waren 40 % bereits österreichische Staatsbürger). 39 % stammten aus dem Raum EU/EWR/Schweiz, 28 % aus den Nachfolgestaaten Jugoslawiens (ohne die EU-Bürger aus Slowenien und Kroatien) und 15 % aus der Türkei (Abbildung 1).

Naturwissenschaftliche Kompetenzen von Schülern mit Migrationshintergrund

Im OECD-Durchschnitt erreichten Schüler der ersten Einwanderungsgeneration um rund 50 Punkte weniger als Schüler ohne Migrationshintergrund, in der zweiten Generation verringerte sich diese Differenz auf rund 30 Punkte. (30 PISA-Punkte werden in etwa einem Leistungsunterschied von einem Schuljahr gleichgesetzt). Abbildung 2.

Österreich gehört mit Luxemburg, der Schweiz, Irland und Estland zu den europäischen Ländern mit den höchsten Anteilen an Schülern mit Migrationshintergrund. Währen die beiden ersten Länder allerdings einen hohen Anteil hochqualifizierter Zuwanderer aufweisen, in Estland ein hoher Anteil aus den ehemaligen UDSSR-Staaten stammt und in Irland aus EU-Staaten, gehört Österreich - wie auch Deutschland, Frankreich, Belgien und die Niederlande zu den Staaten mit einem hohen Anteil sesshafter, niedrigqualifizierter Zuwanderer. Der Leistungsunterschied zwischen Schülern ohne und mit Migrationshintergrund liegt in der ersten Zuwanderungsgeneration bei 82 Punkten und bei den bereits in Österreich geborenen und aufgewachsenen Schülern immer noch bei 63 Punkten (Abbildung 2). Auch nach Berücksichtigung des sozioökonomischen Status bleibt ein Unterschied von 57 resp. 38 Punkten bestehen (Tabelle I.7a: http://dx.doi.org/10.1787/888933433226).

Tatsächlich dürfte der Leistungsunterschied aber noch negativer ausfallen: 14 % der 15 Jährigen mit Migrationshintergrund versus 6 % Einheimische stehen bereits nicht mehr in Ausbildung - ihre naturwissenschaftlichen Kenntnisse wurden daher nicht erfasst.

Mangelnde Sprachkenntnisse können in der ersten Generation, aber wohl nicht mehr in der zweiten Generation zum schlechten Abschneiden beitragen. Paradebeispiele für gutes Abschneiden von Migranten bieten Schüler aus Festlandchina, die nach Australien einwanderten: in der ersten Generation erzielten diese bereits 500 Punkte, in der zweiten Generation überflügelten sie mit über 580 Punkten die Schüler ohne Migrationhintergrund bei weitem. In Europa erreichten Schüler aus Polen, die nach Deutschland und auch nach Österreich kamen, in der ersten Generation rund 480 Punkte, in der zweiten dann 520, resp. 500 Punkte. Abbildung 2. PISA 2015: Naturwissenschaftliche Schülerleistungen und Migrationsstatus. Es sind nur Länder aufgeführt, in denen der Anteil der Schüler mit Migrationshintergrund über 6,25 % liegt. Die Höhe dieses Anteils wurde im unteren Teil der Abbildung eingefügt. 1. Zuwanderungsgeneration: Schüler und Eltern im Ausland geboren ; 2. Zuwanderungsgeneration: Schüler im Erhebungsland, Eltern im Ausland geboren. (Quelle: OECD, PISA-2015-Datenbank, Tabelle I.7.4a und Tabelle I.1.3; Lizenz: cc-by-nc-sa)

Woher resultieren die Leistungsunterschiede bei Migranten?

Wie aus Abbildung 1 ersichtlich stammten rund 39 % der 2015 in Österreich lebenden Personen mit Migrationshintergrund aus dem Raum EU/EWR/Schweiz, rund 1 Million aus dem Raum des ehemaligen Jugoslawien und der Türkei. Der stark ansteigende Strom von Flüchtlingen stammte vorwiegend aus islamischen Ländern.

Von wichtigen Herkunftsländern der zu uns gelangenden Migranten haben einige an der PISA 2015 Studie teilgenommen - sie geben ein Bild der naturwissenschaftlichen Kompetenzen der Schüler, wenn keine Sprachbarrieren, keine soziale Segregation im Gastland und ausgrenzende systemisch-strukturelle Aspekte des Schulwesens bestehen. Abbildung 3.

Die Herkunftsländer am Balkan

bieten ein erschreckendes Ergebnis. Mit Ausnahme von Kroatien, das aber auch unter dem OECD-Mittelwert abschneidet, weisen alle anderen Balkanstaaten, insbesondere der Kosovo und Mazedonien ein miserables Ergebnis auf. Bis zu zwei Drittel der Schüler erreichten dort die Grundkompetenz - Kompetenzstufe 2 - nicht. Leistungsstarke Schüler - d.i. Kompetenzstufen von 5 aufwärts - gibt es kaum. Besonders tragisch ist, dass die Leistungsschwächen nicht nur die Naturwissenschaften betreffen, sondern, dass bis zu 60 % der Schüler die Grundkompetenzen in allen drei Testfächern: Naturwissenschaften, Lesen und Mathematik nicht erreichten.

Abbildung 3. Ergebnisse von Balkanländern und islamischen Ländern, die an PISA 2015 Studie teilnahmen: In den Naturwissenschaften (N) erzielte Punkte, % der Schüler, welche in N die Grundkompetenz nicht erreichten (< Stufe 2), welche in N leistungsstark waren (>/5) und die in allen drei getesteten Disziplinen - N, Lesen und Mathematik - die Grundkompetenz nicht erreichten. (Quelle: Mittelwerte stammen aus den angegebenen Tabellen; OECD, PISA-2015-Datenbank; Lizenz: cc-by-nc-sa)

Aus den getesteten Ländern lebten 2015 laut Statistik Austria rund 83 000 Rumänen, 70 000 Kroaten, 24 000 Kosovaren, 22 000 Bulgaren und 22 000 Mazedonier in Österreich.

Länder mit überwiegend islamischer Bevölkerung

schnitten im PISA-Test ebenfalls sehr schlecht ab. 44,5 % der Schüler in der Türkei konnten die Grundkompetenzen in den Naturwissenschaften und 31 % nicht die Grundkompetenzen in allen drei Disziplinen erreichen. Die schlechtesten Werte wurden in den Nordafrikanischen Staaten Tunesien und Algerien und im Libanon erzielt. Bis über 70 % der Schüler konnten dort nicht die Grundkompetenz in den Naturwissenschaften, bis über 60 % nicht die in allen drei Fächern erreichen. Dass mangelnde Finanzkraft für die schlechten Bildung ausschlaggebend ist, wird durch die mageren PISA-Ergebnisse aus Katar und den Vereinigten Arabischen Emiraten widerlegt, die zu den reichsten Ländern der Welt gehören.

Eine vor kurzem veröffentlichte Studie de PEW Research Centers gibt an, dass im Durchschnitt 42 % der Muslime im Mittleren Osten und Nordafrika überhaupt keine Schulbildung aufweisen (verglichen mit 19 % Nicht-Muslimen) [2]. In Ländern der Sub-Sahara Zone in Afrika - diese haben an PISA 2015 nicht teilgenommen - liegt der Anteil der muslimischen Bevölkerung ohne Schulbildung bei 65 % (im Vergleich zu 30 % der ebendort lebenden Christen) und gerade einmal 9 % sind auf etwa Hauptschulniveau (verglichen mit 28 % Christen) [2].

Wie geht es weiter?

In der PISA 2015 Erhebung ist der in diesem Jahr einsetzende enorme Flüchtlingsstrom noch nicht berücksichtigt. Es sind vorwiegend muslimische Kriegsgebiete, aus denen Menschen flüchten, aber auch Länder, die für die sich stark vermehrende Populationen keine Zukunftsperspektiven bieten. Zweifellos haben viele der Menschen, die sich auf den gefährlichen und anstrengenden Weg begeben, ein höheres Bildungsniveau, als die in ihrem Land verbleibenden. Dennoch werden die meisten der in unserem Land Ankommenden - auch auf Grund ihrer religiösen Ansichten - sich nur schwer in eine Gesellschaft mit anderen Wertvorstellungen integrieren, zu denen auch Leistungswille und Streben nach Bildung gehören. Frustration über die geringen Chancen in Wunschberufen unterzukommen und mangelnde Akzeptanz in der Mehrheitsgesellschaft werden die Folge sein.

Die islamische Welt hat vor einem Jahrtausend eine dominierende Rolle in der Wissenschaft gespielt. Heute hat sie die damalige Weltoffenheit eingebüßt und weist in den Bereichen Bildung und Wissenschaft schwerste Defizite auf. Dies trifft nicht nur auf die Schulbildung zu. Auch in der für die Wirtschaft essentiellen Forschung und Entwicklung sind in muslimischen Ländern bedeutend weniger Wissenschafter tätig als in vergleichbaren nicht-muslimischen Ländern: Bei nsgesamt rund 1,8 Milliarden heute lebender Muslime steuern diese gerade einmal 1 % der naturwissenschaftlichen Literatur bei [3] und haben erst zwei Nobelpreisträger -den Pakistani Abdul Salaam in Physik und den Ägypter Ahmed Zewail in Chemie - hervorgebracht.

Sollte man den jungen Muslimen nicht aufzeigen, dass - wie vor 1000 Jahren - auch heute eine weltoffene Religion durchaus mit Bildung und Wissenschaft kompatibel sein kann?


[1] Ergebnisse der PISA 2015 Studie: OECD (2016), PISA 2015 Ergebnisse (Band I): Exzellenz und Chancengerechtigkeit in der Bildung, PISA, W. Bertelsmann Verlag, Germany. DOI 10.3278/6004573w

OECD (2016), PISA 2015 Results (Volume II): Policies and Practices for Successful Schools, PISA, http://dx.doi.org/10.1787/9789264267510-en 

[2] Pew Research Center, Dec. 13, 2016, “Religion and Education Around the World” [3] StatPlanet World Bank - Open Data https://www.statsilk.com/maps/statplanet-world-bank-app-open-data/?y=199...


Weiterführende Links

Statistiken zum Asylwesen in Österreich: http://www.bmi.gv.at/cms/BMI_Asylwesen/statistik/start.aspx

Statistik Austria: http://data.statistik.gv.at/web/catalog.jsp#collapse1

Artikel in ScienceBlog.at:

Inge Schuster, 22.6.2017: Der naturwissenschaftliche Unterricht an unseren Schulen


inge Thu, 10.08.2017 - 14:21

Soll man sich Sorgen machen, dass menschliche "Mini-Hirne" Bewusstsein erlangen?

Soll man sich Sorgen machen, dass menschliche "Mini-Hirne" Bewusstsein erlangen?

Do, 03.08.2017 - 08:29 — Redaktion

RedaktionIcon Gehirn

Seit vor vier Jahren eine Wiener Forschergruppe um Jürgen Knoblich (IMBA, ÖAW) aus sogenannten pluripotenten Stammzellen ein "Mini-Hirn" erzeugt hat, werden diese Methoden weltweit angewandt, um Entwicklungsprozesse im Gehirn zu untersuchen und Krankheiten zu erforschen. In einem am 1. August 2017 erschienenen Blog-Beitrag im open access Journal PLOS setzt sich der amerikanische Zell-und Entwicklungsbiologe Mike Klymkowsky (University Colorado) mit der Frage auseinander ob derartige Mini-Hirne bei steigender Komplexität Bewusstsein erlangen können [1].

Die Tatsache, dass Versuche am Menschen nur sehr eingeschränkt möglich sind, ist eines der hauptsächlichen Hindernisse die Entwicklung des Menschen und seine Krankheiten zu verstehen. Bei der deprimierenden Geschichte medizinischer Gräueltaten sind einige dieser Einschränkungen von ethischer Seite nur allzu nachvollziehbar, notwendig und gerechtfertigt. Andere Einschränkungen sind technischer Natur, hängen mit dem langsamen Tempo der menschlichen Entwicklung zusammen.

Modellsysteme

Die Kombination aus moralischen und technischen Faktoren hat experimentelle Biologen dazu gebracht, das Verhalten eines breiten Spektrums von Modellsystemen zu erforschen, die von Bakterien, Hefen, Fruchtfliegen , Würmern über Fische, Frösche, Vögel, Nagetieren bis hin zu Primaten reichen. Dies erscheint durch die evolutionäre Kontinuität zwischen den Organismen zweifellos gerechtfertigt - schließlich stammen alle Organismen von einem gemeinsamen Urahn ab und teilen viele molekulare Eigenschaften. Evolution-basierte Untersuchungen an Modellsystemen haben dementsprechend zu vielen, therapeutisch wertvollen Erkenntnissen über den Menschen geführt - für einen Anhänger des Intelligent Design Kreationismus zweifellos eine sehr schwer vorhersagbare/erklärliche Tatsache.

Menschen sind mit anderen Säugetieren zwar nahe verwandt, es ist aber auch klar, dass wesentliche Unterschiede bestehen - letztendlich sind Menschen ja sofort von nahe verwandten Spezies unterscheidbar und sicherlich sehen sie nicht wie Mäuse aus und verhalten sich auch nicht so. Beispielsweise weist die oberflächliche Rinde unseres Gehirns außerordentliche Faltungen auf, während das Gehirn der Maus glatt ist, wie ein Babypopo. Beim Menschen ist das Fehlen der Gehirnfaltung - die sogenannte Lissenzephalie - mit schweren neurologischen Defekten verbunden.

Mit dem Aufkommen von immer mehr Gensequenzierungsdaten lassen sich nun für den Menschen spezifische, molekulare Unterschiede erkennen. Viele dieser Unterschiede liegen in den Sequenzen unserer DNA, welche regulieren, wann und wo spezifische Gene exprimiert werden. Beispielsweise gibt es den HARS1 (human accelerated region S1) Lokus, einen Abschnitt von 81 Basenpaaren, die in verschiedenen Wirbeltieren - von Vögeln bis hin zu Schimpansen - streng konserviert sind. Diese Sequenz weist beim Mensch 13 spezifische Variationen auf, die deren Aktivität und die Expression benachbarter Gene zu verändern scheinen. Etwa 1000 genetische Elemente, in denen sich der Mensch von anderen Wirbeltieren unterscheidet, wurden bis jetzt identifiziert, eine Zahl, die wahrscheinlich noch steigen wird. Derartige human-spezifische Unterschiede erschweren das Modellieren von spezifisch menschlichem Verhalten in nicht-menschlichen Systemen auf der Ebene von Zellen, Geweben, Organen und Organismen. Aus diesem Grund haben Forscher versucht bessere humanspezifische Systeme zu generieren.

Stammzellen

Ein besonders vielversprechender Ansatz basiert auf den sogenannten embryonalen Stammzellen (ESCs) oder den pluripotenten Stammzellen (PSCs). Humane embryonale Stammzellen werden aus der inneren Zellmasse eines menschliche Embryos gewonnen und bedeuten so die Zerstörung des Embryos - dies lässt ethische und religiöse Bedenken bezüglich der Frage aufkommen:"wann beginnt das Leben".

Humane pluripotente Stammzellen werden dagegen aus den Geweben Erwachsener isoliert, benötigen zur Gewinnung aber meistens invasive Methoden, die ihre Verwendbarkeit limitieren. Beide, ESCs und PSCs, können im Labor vermehrt werden und zur Differenzierung in sogenannte Gastruloide induziert werden. Derartige Gastruloide entwickeln sich dreidimensional, können Achsen in Richtung anterior - posterior (Kopf -Rumpf), dorsal-ventral (Rücken- Bauchseite) und links-rechts ausbilden, in analoger Weise, wie man sie im Embryo und im ausgewachsenem Organismus findet. Abbildung 1. Abbildung 1.Die Entwicklung des Gastruloids aus ESCs oder PSCs erfolgt in Richtung von drei Achsen - in analoger Weise, wie man sie im Embryo und im ausgewachsenem Organismus findet.

Im Fall der PSCs ist das Gastruloid tatsächlich ein Zwilling des Organismus, von dem die Zellen stammen , ein Umstand, der zu schwierigen Fragen Anlass gibt:

  • Ist dies nun ein unterschiedliches Individuum? -
  • Ist es das Eigentum des Spenders?
  •  Ist es die Schöpfung des Labortechnikers?

Das Problem wird noch größer werden, wenn (oder eher wann) es möglich werden wird, lebensfähige Embryonen aus solchen IPCs zu züchten.

Induzierte pluripotente Stammzellen…

Für ihre Methoden, mit denen sie ausdifferenzierte humane Körperzellen in ESC/PSC-ähnliche Zellen umprogrammierten, wurden Kazutoshi Takahashi und Shinya Yamanaka im Jahr 2012 mit dem Nobelpreis ausgezeichnet. Diese sogenannten induzierten pluripotenten Zellen (iPSCs) stellten einen technischen Durchbruch dar, der ein neues Gebiet initiierte. Während die ursprünglichen Methoden Zellen aus Gewebeproben sammelten, können nun- in nicht -invasiver Weise - aus dem Urin isolierte Zellen des Nierenepithels umprogrammiert werden.

…....und zerebrale Organoide

In der Folge haben nun Madeline Lancaster, Jürgen Knoblich und Kollegen (Institut für molekulare Biotechnologie, Wien) einen Ansatz entwickelt, mit dem derartige Zellen induziert werden konnten, um etwas zu bilden, das sie als "zerebrale Organoide" bezeichneten. Die Forscher wandten diese Methode an, um die mit der Mikroenzephalie verbundenen Entwicklungsstörungen zu untersuchen.

Die Bedeutung dieses Verfahrens wurde rasch erkannt, man begann die Methoden zur Untersuchung von humanen Erkrankungen - u.a. Lissenzephalie, durch Infektion mit Zika-Virus verursachte Mikroenzephalie und Down's Syndrom - zu nutzen.

Zerebrale Organoide - Mini-Hirn - Gehirn

Die Erzeugung zerebraler Organoide aus umprogrammierten Körperzellen des Menschen hat die Aufmerksamkeit der Medien erregt. Mit der Bezeichnung Mini-Hirn wurde zwar ein zweifellos griffigerer Begriff geprägt, aber eine weniger genaue Beschreibung - ein wenig Übertreibung - eines zerebralen Organoids, - es ist ja nicht klar, wie weit solche Organoide "zerebral" sind.

Beispielsweise bilden embryonale Signale im sich entwickelnden Gehirn Muster, welche seine Asymmetrien erzeugen; es entsteht am vorderen Ende des Neuralrohrs (daraus entstehen Gehirn und Rückenmark) mit typischen anterior-posterior, dorsal-ventral und links-rechts Asymmetrien. Derartiges ist bei den einfachen zerebralen Organoiden nicht der Fall.

Weiters: um zerebrale Organoide herzustellen, benutzt man gegenwärtig hauptsächlich sogenannte neuroektodermale Zellen. Unser Gehirn (wie auch das anderer Wirbeltiere) geht aus der spezialisierten Zellschicht an der Oberfläche des Embryos hervor, die sich während der Entwicklung nach innen einstülpt. Im Embryo interagiert das sich entwickelnde Neuroektoderm mit dem Kreislaufsystems (Kapillaren, Venen, Arterien) , das von Endothelzellen gebildet wird und sogenannten Perizyten , die diese umschließen. Diese Zellen bilden zusammen mit Gliazellen (Astrozyten - ein nicht-neuronaler Zelltyp) die Blut-Hirn-Schranke. Auch andere Gliazellen (Oligodendrozyten) sind vorhanden. Abbildung 2.

Beide Arten von Gliazellen sind in der derzeitigen Generation von zerebralen Organoiden kaum vorhanden. Es gibt auch keine Gefäße.

Schließlich gibt es im Gehirn auch noch Mikrogliazellen, Immunzellen, die von außerhalb des Neuroektoderms stammen; diese wandern ein, interagieren mit Nerven- und Gliazellen und sind Bestandteil des dynamischen zentralen Nervensystems. Abbildung 2. In den Organoiden fehlen Mikrogliazellen.

Abbildung 2. Schematische Darstellung wie die unterschiedlichen Zellen - Neuronen, Gliazellen, Endothelzellen, Pericyten und Mikrogliazellen - interagieren (links). Die von den Zellen gebildete Blut-Hirn-Schranke ist eine hochselektive Barriere, welche das Gehirn vor den im Blut zirkulierenden Mikroorganismen, Toxinen, Proteinen, etc. schützt. Rechts: Nervengewebe, das (auf Grund der Färbemethode) nur die Neuronen zeigt. Es sind mindestens ebenso viele Gliazellen und Mikrogliazellen anwesend.

Im Verlauf von 6 - 9 Monaten wachsen zerebrale Organoide bis zu einer Größe von 1 - 3 mm Durchmesser an - das ist ganz wesentlich kleiner als das fötale Hirn oder das Hirn eine Neugeborenen.

Zerebrale Organoide können Strukturen ausbilden, die charakteristisch für das Pigmentepithel der Netzhaut (Retina) sind, und lichtempfindliche Neuronen, wie sie mit der Retina assoziiert sind. Es ist dabei aber nicht klar, ob ein nennenswertes Signal in das neuronale Netzwerk im Organoid hinein- oder herausgelangt.

Eine berechtigte Frage

Kann ein zerebrales Organoid - also ein recht einfaches Zellsystem (wenngleich es selbst komplex ist) Bewusstsein haben?

Die Frage wird umso berechtigter, als Systeme mit immer höherer Komplexität entwickelt werden und derartige Arbeiten rasch voranschreiten. Forscher manipulieren bereits das Nährmedium des sich entwickelnden Organoids, um die Ausbildung der Achsen zu fördern. Man kann auch voraussehen, dass Blutgefäße eingebracht werden. Tatsächlich wurde bereits über die Erzeugung von Mikroglia-artigen Zellen aus induzierten pluripotenten Stammzellen berichtet. Derartige Zellen können in zerebrale Organoide eingebaut werden , wo sie auf Schäden an Neuronen in der gleichen Weise reagieren, wie Mikroglia in intaktem Nervengewebe.

Wir können uns nun die Frage stellen, was uns davon überzeugen würde, dass ein, innerhalb eines Inkubators im Labor lebendes, zerebrales Organoid, Bewusstsein hat.

Wie würde sich dieses Bewusstsein manifestieren? Vielleicht durch ein spezifisches Muster neuronaler Aktivität?

Dazu meint der Autor des vorliegenden Artikels, Mike Klymkowsky, der ein hauptsächlich an molekularen und zellulären Systemen interessierter Biologe ist: Bewusstsein ist eine emergente Eigenschaft komplexer Nervensysteme ist, erzeugt durch evolutionäre Mechanismen, aufgebaut während der embryonalen Phase und der darauffolgenden Entwicklung und beeinflusst durch soziale Kontakte.

Es wird spannend werden den Diskussionen auf akademischem, gesellschaftlichem und politischem Niveau zu lauschen, wenn es darum geht, was man mit den Mini-Hirnen anfangen soll, wenn diese an Komplexität zunehmen und vielleicht unvermeidbar zu Bewusstsein gelangen.


[1] Der Artikel "Is it time to start worrying about conscious human “mini-brains”?"von Mike Klymkowsky ist am 1. August 2017 in PLOSBLOGS Sci-Ed erschienen. Der unter einer cc-by Lizenz stehende Artikel wurde von der Redaktion ins Deutsche übersetzt und geringfügig (mit Untertiteln) für den Blog adaptiert. Die Literaturzitate und zwei Abbildungen wurden allerdings weggelassen und können im Originaltext nachgesehen werden: http://blogs.plos.org/scied/2017/08/01/is-it-time-to-start-worrying-abou... 

Zum Autor: Der Biophysiker Mike Klymkowsky ist Professor für Molekulare, Zelluläre und Entwicklungsbiologie an der Universität Colorado Boulder. Er verwendet sich entwickelnde Systeme, um zelluläres Verhalten zu untersuchen; seit kurzem arbeitet er auch mit zerebralen Organoiden. Mehr als ein Jahrzehnt beschäftigt er sich mit der Frage, wie man die Ausbildung von Undergraduate-Studenten (d.i. in Postsekundärer Ausbildung) in biologischen Wissenschaften verbessern kann. Für seine wissenschaftlichen Arbeiten und die Entwicklung von Bildungskonzepten erhielt er zahlreiche Auszeichnungen. Klymkowsky war seit 2010 academic editor von PLOS ONE; er leitet das SciEd Blog Team: http://blogs.plos.org/scied/about/

Homepage: http://klymkowskylab.colorado.edu/


Weiterführende Links

Synthetisches Mini-Hirn. Interviews mit Jürgen Knoblich, Madeline Lancaster. Video 13:34 min. mce mediacomeurope GmbH, Grünwald, im Auftrag von HYPERRAUM.TV - © 2014. https://www.youtube.com/watch?v=Lks3QAkRkv8 . Standard-YouTube-Lizenz

Madeline Lancaster: Growing mini brains to discover what makes us human TEDxCERN (2015) Video 14:24 min. https://www.youtube.com/watch?v=EjiWRINEatQ Standard YouTube Lizenz

Ernst Wolvetang: Growing Mini-Brains To Solve Big Problems TEDxUQ. Video 13:17 min. https://www.youtube.com/watch?v=ulvvjafx8Rc.  Standard YouTube Lizenz

Typ(isch) Stammzelle: Embryonale Stammzellen. Video 8:22 min. https://vimeo.com/19517196

Artikel zu verwandten Themen im ScienceBlog

inge Thu, 03.08.2017 - 08:29

Ein weiterer Meilenstein in der Therapie der Cystischen Fibrose

Ein weiterer Meilenstein in der Therapie der Cystischen Fibrose

Do, 27.07.2017 - 08:35 — Francis S. Collins

Vorname ZunameIcon MedizinCystische Fibrose (CF) ist in unserer Bevölkerung die häufigste angeborene Stoffwechselerkrankung. Auf Grund einer Genmutation kommt es zum Funktionsverlust des Kanalproteins CFTR, welches in den Zellmembranen von Lunge und anderen Teilen des Körpers das Salz- und Wassergleichgewicht reguliert. In der Folge sammelt sich bereits im frühen Alter dicker, klebriger Schleim an und führt zu schwersten Krankheitserscheinungen und vorzeitigem Tod. Francis Collins, Direktor der US National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project", hat 1989 das CF verursachende Gen identifiziert. Er beschreibt hier, wie akribische Forschung die Funktionsweise des Proteins CFTR aufklärte und es zur Zielstruktur für das Design von Wirkstoffen machte, die als Kombinationstherapie eben aufsehenerregende klinische Erfolge erzielten.*

Als NIH-Direktor höre ich häufig Erzählungen, wie Menschen mit schweren Erkrankungen - von Arthritis bis hin zu Zika-Infektionen - davon profitieren, dass NIH-Investitionen in die Grundlagenforschung fließen. Heute möchte ich eines der Beispiele bringen, das ich für besonders aufregend halte: es ist die Nachricht, dass eine Kombination von drei, für Zielmoleküle designte Arzneimittel es möglich machen könnte den Großteil aller an cystischer Fibrose (Mukoviszidose) erkrankten Patienten zu therapieren; es ist dies die in unserer Bevölkerung häufigste genetische Erkrankung. Abbildung 1.

Abbildung 1. Cystische Fibrose ist eine Erbkrankheit der sekretorischen Drüsen verursacht durch Mutationen am CTRF-Gen. Hauptsächlich sind Lunge und Pankreas aber auch Leber, Darm und Geschlechtsorgane betroffen. Dünnflüssiger Mukus, der sezerniert wird, um einige Organe und Körperhöhlen feucht zu halten und zu schützen, wird zu klebrigem Schleim eingedickt, der Luftwege und Sekretionsgänge blockiert. (Bild und Beschriftung von der Redaktion eingefügt; Quelle: https://www.nhlbi.nih.gov/health/health-topics/topics/cf)

Von der Entdeckung der kausalen Ursache zu molekular gezieltem Design von Wirkstoffen

Vorweg etwas zur Geschichte der cystischen Fibrose.

Die erste genetische Mutation, die cystische Fibrose (CF) hervorruft, wurde vor fast 30 Jahren entdeckt - es war eine Zusammenarbeit meines eigenen Forschungslabors in Ann Arbor (Universität Michigan) mit Kollegen vom Kinderkrankenhaus in Toronto [1]. Unterstützt von den NIH und der Cystischen Fibrose-Stiftung, konnte in jahrelanger, akribischer harter Arbeit die Funktion des Proteins aufgeklärt werden, das in der CF verändert ist und als cystic fibrosis transmembrane conductance regulator (CFTR) bezeichnet wird. Das CFTR-Protein ist ein Kanal in der Zellmembran, der das Salz- und Wassergleichgewicht in Lunge und anderen Teilen des Körpers reguliert. Abbildung 2.

Abbildung 2. Das CFTR-Protein. Kryoelektronenmikroskopie. Das aus 1480 Aminosäuren bestehende Protein fungiert als Kanal für Chloridionen in den Membranen von Zellen, die Mukus, Schweiß , Speichel, Tränen und Verdauungsenzyme produzieren. Die Pore des trichterförmigen Kanals wird durch das graue Gitter angezeigt. (Beschriftung von der Redaktion eingefügt; Bild: Credit: Zhang & Chen, 2016, Cell 167, 1586–1597.)

Neue Technologien wie die Kryo-Elektronenmikroskopie (das Journal Nature hat diese zur Methode des Jahres 2015 gekürt) gaben Forschern erst in jüngster Zeit die Möglichkeit die genaue Struktur des Proteins mit den Mutationen zu kartieren, die zu CF führen.

An cystischer Fibrose erkrankte Menschen tragen eine Mutation in beiden Kopien des CFTR-Gen - d.i. sowohl in der vom Vater als auch in der von der Mutter vererbten Kopie. Abbildung 3.

Abbildung 3. Cystische Fibrose ist bei uns die häufigste Erbkrankheit, jeder 20. Mensch trägt ein mutiertes CFTR-Gen. An CF-Erkrankte tragen Mutationen in beiden Kopien des Gens. (Bild von der Redaktion eingefügt; Quelle Armin Kübelbeck / Wikimedia.org. Lizenz: cc-by-sa)

Bis jetzt sind mehr als 1700 derartige Mutationen bekannt, die CF auslösen können. Die häufigste Mutation - die sogenannte F508del Variante (in Position 508 des 1480 Aminosäuren langen Proteins fehlt die Aminosäure Phenylalanin - davon sind rund 2/3 der CF-Patienten betroffen; Anm. Red.) - resultiert in einem falsch gefalteten Protein, das abgebaut wird, bevor es noch seine richtige Position in der Zellmembran erreicht hat. Auf Grund des fehlenden Kanals wird nun der abgesonderte, die Zellen überlagernde dünnflüssige Mukus zu dickem, klebrigem Schleim verdichtet und kann u.a. zu lebensbedrohenden Infektionen und Lungenversagen führen.

Es war ein langer, beschwerlicher Weg Arzneimittel zu entwickeln, welche die Funktion von mutiertem CFTR restaurieren können.

Anfangs haben viele von uns gedacht, dass Gentherapie für die Behandlung dieser Erkrankung die Methode der Wahl wäre. Allerdings waren die Schwierigkeiten durch Gen-Transfer eine langanhaltende Korrektur des CF-Defekts in den Luftwegen zu erreichen ungemein entmutigend.

Aufbauend auf dem, aus NIH-unterstützter akademischer Forschung zunehmend vertieften Verständnis der CFTR-Funktion, entstand vor rund 20 Jahren eine Partnerschaft der Cystischen Fibrose-Stiftung und einer kleinen Firma, die sich Aurora nannte (und später zu Vertex Pharmaceuticals Inc., Boston wurde). Diese begann nach kleinen Molekülen zu suchen, welche einem anormalen CFTR-Protein zur korrekten Faltung verhelfen könnten - derartige Substanzen werden als Korrektoren bezeichnet - und solchen, welche die richtige Funktion ermöglichten, wenn das Protein dann die Zellmembran erreichte - derartige Substanzen werden als "Potentiatoren" (Verstärker) bezeichnet.

Rund 30 000 Amerikaner leiden an CF. Der erste größere Fortschritt in der Behandlung mit auf Zielmoleküle zugeschnittenen Arzneistoffen kam 2012, als die Food and Drug Administration (FDA) Ivacaftor (Kalydeco) zugelassen hat. So aufregend dies auch war, so wussten wir, dass es nur den ersten Schritt auf einem schwierigen Weg allen CF-Patienten zu helfen bedeutete. Dies ist der Fall, weil Kalydeco nur bei rund 4 % der Patienten wirkt, welche eine G551D Mutation tragen (an der Position 551 wurde ein Glycin durch eine Asparaginsäure ersetzt) zusammen mit anderen, die eine von 23 relativ seltenen Mutationen haben, die zu einem teilweise funktionsfähigen CFTR führen.

Der nächste bedeutende Meilenstein in der CF Behandlung wurde dann 2015 mit der Zulassung von Orkambi durch die FDA erreicht. Orkambi, eine Kombination von Ivacaftor mit Lumacaftor, dem ersten "Korrektor", wurde für Patienten bestimmt, die zwei Kopien der F508del Mutante besitzen. Für diese Patientengruppe liegt eine weitere Kombinationstherapie (Ivacaftor plus Tezacaftor) zur Prüfung bei der FDA.

Anlass zum Optimismus

bieten vorläufige Ergebnisse aus klinischen Studien, die vergangene Woche veröffentlicht wurden [2].

Es wurden hier in der Klinik (in Phase I und II) drei "Next-Generation" Dreifachkombinationstherapien untersucht, welche die Funktion des CFTR modulieren. Diese Strategie geht tatsächlich bei 90 % der Patienten, die zumindest eine Kopie von F508del tragen, auf. Vertex berichtete am Dienstag der letzten Woche:

  • mit allen drei "Next-Generation" Dreifachkombinationstherapien konnten markante Verbesserungen der Lungenfunktion bei Patienten erzielt werden, die eine F508del Mutation und eine Minimal-Funktions-Mutante trugen - dies war bis dahin eine Form der CF, die besonders schwierig zu behandeln war. Konkret bedeutete dies: auf eine zwei- bis vierwöchige Behandlung mit der Kombination aus zwei Korrektoren und einem Verstärker sprachen die Patienten mit 10 Prozent Verbesserung des forcierten expiratorischen Volumens pro Sekunde (FEV1) an, welches die zentrale Größe für die Lungenkapazität darstellt. Obwohl die Untersuchungen als Doppel-Blind-Studien ausgeführt wurden, fanden viele von den Patienten, welche die aktive Dreierkombination erhielten, schnell heraus, dass etwas neues, wundervolles mit ihnen passierte.
  • Darüber hinaus: Die "Next-Generation" Dreifachkombinationstherapien waren generell gut verträglich und verringerten die Konzentrationen von Chlorid im Schweiß. Erhöhtes Chlorid im Schweiß ist über Jahrzehnte als diagnostischer Test für CF benutzt worden, der Nachweis einer Senkung ist ein starker Indikator dafür, dass die Arzneistoffe im gesamten Körper wirksam wurden.

Diese Ergebnisse werden - zusammen mit Daten aus einer weiteren klinischen Studie, die heuer beginnen soll, - für Vertex die Grundlage bilden, um die Substanz oder die Kombination von Substanzen auszuwählen, die in der ausgedehnteren Phase 3 Studie eingesetzt werden soll.

Alles in allem

ist nun für rund 40 % der an CF leidenden Menschen eine zielgerichtete Behandlung zugelassen. Wenn allerdings die neuen Dreifach-Kombinationen halten, was sie in den ersten Studien versprechen, so könnte nach Meinung von Michael Boyle, dem Alt-Vizepräsidenten der Cystic Fibrosis Foundation, Bethesda, es möglich werden, bis zu 90 % der an CF Erkrankten zu behandeln.

Unter den Zehntausenden CF-Patienten, denen die nächste Generation zielgerichteter Medikamente nützen sollte, ist auch die kleine Avalyn Mahoney aus Cardiff, CA, die eben zwei Jahre alt wurde. Noch vor wenigen Jahrzehnten hätten Kinder wie Avalyn das Teenageralter nicht überlebt. Dank der Fortschritte, die auf NIH-unterstützter Grundlagenforschung aufbauen, sind die Aussichten für sie und so viele andere wesentlich günstiger.

Das ist eine grandiose Nachricht. Dazu möchte ich anfügen, dass weder die Cystische-Fibrose-Stiftung noch die NIH ruhen werden, bis es effektive und leistbare Behandlungen - oder noch besser Heilungen - für jeden CF-Patienten in den US und auf dem gesamten Erdball geben wird.


[1] Identification of the cystic fibrosis gene: chromosome walking and jumping. Rommens JM1, Iannuzzi MC, Kerem B, Drumm ML, Melmer G, Dean M, Rozmahel R, Cole JL, Kennedy D, Hidaka N, et al. Science. 1989 Sep 8;245(4922):1059-1065.

[2] Positive Early Study Results for Next-Generation CFTR Modulators. Cystic Fibrosis Foundation News Release, July 18, 2017. https://www.cff.org/News/News-Archive/2017/Positive-Early-Study-Results-...


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:"Another Milestone in the Cystic Fibrosis Journey" zuerst (am 20. Juli 2017) im NIH Director’s Blog: https://directorsblog.nih.gov/2017/07/20/another-milestone-in-the-cystic...   Der Artikel wurde geringfügig für den Blog adaptiert und einige Abbildungen wurden von der Redaktion eingefügt. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH)..


Weiterführende Links

What is Cystic Fibrosis (National Heart, Lung, and Blood Institute/NIH).

Genetics Home Reference: Cystic Fibrosis (National Library of Medicine/NIH).

Krankheitsbild Mukoviszidose. Beschreibung und Video 2:32 min (deutsch)

Cystic fibrosis. Video (englisch) 8:28 min. Author: Osmosis(31 August 2016). License: cc-by-sa.

inge Thu, 27.07.2017 - 08:35

Beobachtung der Entstehung der massereichsten Galaxien im Universum

Beobachtung der Entstehung der massereichsten Galaxien im Universum

Do, 20.07.2017 - 09:44 — Alessandra Beifiori & Trevor Mendel

Alessandra BeifioriTrevor MendelIcon PhysikDie vielfältigen Formen von Galaxien ergeben sich aus komplexen physikalischen Prozessen, die die Sternentstehung und das zeitliche Anwachsen der stellaren Massen steuern. Neue Nahinfrarot-Messungen ermöglichten es die Verteilung der Sterntypen und die chemischen Eigenschaften von fernen massereichen Galaxien zu untersuchen. Die Astrophysiker Allessandra Beifiori und Trevor Mendel (Max-Planck-Institut für extraterrestrische Physik, Garching) zeigen hier auf, wie die gemessenen Absorptionsmerkmale in den Galaxienspektren es erlaubten die Entstehungszeiten einzuschränken, eine verbesserte Verteilung der Sternmassen zu erzeugen und ihren dynamischen Zustand zu bestimmen, als das Universum weniger als 4 Milliarden Jahre alt war.*

Reiche Vielfalt bei nahe gelegenen Galaxien

Bis Anfang des 20. Jahrhunderts war unser Verständnis des Universums von unserer eigenen Galaxie, der Milchstraße, dominiert. Die Entdeckung, dass die Milchstraße nur ein kleiner Teil eines viel größeren Universums ist, führte dazu, dass sich hunderte schwache, unscharfe „Nebel“, die von Astronomen wie Charles Messier und Edwin Hubble untersucht wurden, plötzlich zu riesigen, viele Millionen Lichtjahre weit entfernten Sterninseln wandelten.

Ursprünglich wurde die Mehrheit der Galaxien aufgrund ihrer visuellen Erscheinung in eine von zwei Klassen eingeteilt: Spiralgalaxien oder elliptische Galaxien. Während Spiralgalaxien typischerweise eine dominierende, abgeflachte Scheibe und deutliche Spiralarme aufweisen, zeigen elliptische Galaxien stattdessen eine eher diffuse und runde Form mit nur geringen Variationen in ihrer Helligkeit. Im Laufe der Zeit wurde diese „Hubble-Sequenz“ erweitert, um die gesamte Vielfalt der beobachteten Galaxienformen zu beschreiben (Abbildung 1). Diese reichen von massereichen elliptischen Galaxien, über „linsenförmige“ Galaxien, die als Spiralgalaxien sowohl runde als auch Scheibenkomponenten enthalten, bis hin zu Galaxien, die sich jeglicher Klassifizierung entziehen, den sogenannten „Irregulären Galaxien“.

Abbildung 1. Beispiel der Hubble-Sequenz, die alle möglichen, beobachteten Galaxienmorphologien zeigt: Ellipsen linsenförmige, Spiral- und Irreguläre Galaxien. © R. Shelton (University of Georgia)

Diese reiche Vielfalt von Galaxienmorphologien entsteht durch die komplexen physikalischen Prozesse, die die Entstehung von neuen Sternen bedingen und das Wachstum der stellaren Massen im Laufe der Zeit beeinflussen. Im frühen Universum werden Galaxien durch Gasfilamente und -strömungen aus dem Kosmos gespeist (Abbildung 2). Im Laufe der Zeit kühlt dieses Gas ab und es entstehen Sterne. Während sich das Universum weiter ausdehnt, werden die Galaxien immer massereicher bis ihre Gasversorgung schließlich versiegt und die Sternentstehung zum Erliegen kommt. Die neuesten Himmelsdurchmusterungen vom Boden und aus dem All zeigen, dass diese passiven Galaxien bereits 2–3 Milliarden Jahre nach dem Urknall auftauchen. Die massereichsten Galaxien, die Vorläufer der heutigen Ellipsen, sind dabei diejenigen, in denen die Sternentstehung zuerst versiegte.

Abbildung 2. Dieses Bild zeigt das „kosmische Netz“, einen Schnitt mit einer Dicke von 15 Mpc/h durch das Dichtefeld der Millennium-Simulation. Sichtbar ist die großflächige Verteilung der Materie, die sich in Filamenten und Regionen mit hoher Dichte sammelt. © V. Springel & the Virgo Consortium.

Aktuelle Modelle der Galaxienentstehung sagen voraus, dass Galaxien in Ansammlungen Dunkler Materie, den sogenannten „Dunkle-Materie-Halos“, eingebettet sind. Die Entwicklung jeder einzelnen Galaxie wird sowohl durch ihre innere Struktur als auch durch die Eigenschaften dieses Halos aus Dunkler Materie beeinflusst. Man erwartet, dass die massereichsten Halos aus Dunkler Materie zuerst Galaxien bilden, während in weniger massereichen Halos die Galaxienentstehung später einsetzt. Diese Modelle können zwar noch nicht die genauen Eigenschaften von massereichen Galaxien vorhersagen, wenn deren Sternentstehung abgeschlossen ist, dennoch legen sie nahe, dass sich das Erscheinungsbild dieser Galaxien im Laufe der Zeit wesentlich verändern sollte, da sie mit benachbarten Galaxien in Wechselwirkung treten und mit diesen verschmelzen können. Diese Entwicklung sollte umso schneller ablaufen, je mehr Nachbargalaxien vorhanden sind. Ein vollständiges Modell des Galaxienwachstums erfordert daher die sorgfältige Betrachtung mehrerer Evolutionswege; diese wiederum sollten idealerweise durch Daten aus verschiedenen evolutionären Phasen der Galaxien eingeschränkt werden.

Sternpopulationen in massereichen Galaxien

Um die Details der Entstehung massereicher Galaxien verstehen zu können, müssen die urzeitlichen Informationen, die in ihren Sternen gespeichert sind, entschlüsselt werden. Sterne sind langlebig und enthalten somit die vollständige Entwicklungsgeschichte der Galaxie. Die Eigenschaften des von einer Galaxie emittierten Lichts (Helligkeit, Farbe), aufgespalten in das elektromagnetische Spektrum, stehen in direktem Zusammenhang mit den Eigenschaften der zugrunde liegenden Sternpopulation. Wenn wir diese Daten mit verschiedenen Spektralmodellen vergleichen, so können ihr Alter, ihr Staubgehalt und die Häufigkeit verschiedener chemischer Elemente abgeschätzt werden. Mit diesem Ansatz wurden bereits die Eigenschaften von nahen elliptischen Galaxien untersucht und es zeigte sich, dass diese typischerweise sehr alt sind. Allerdings ist es unmöglich, die Entstehungsgeschichte der Galaxien allein mit Daten aus dem nahen Universum zu rekonstruieren.

Die endliche Lichtlaufzeit kommt uns hier zu Hilfe: Die größten Teleskope der Welt können genutzt werden, um „in die Vergangenheit zu blicken“ und die Entstehung der massereichen Galaxien zu frühen kosmischen Zeiten „vor Ort“ zu beobachten. Wenn wir nun aber Objekte betrachten, die immer weiter entfernt liegen, so wird die von ihnen emittierte Strahlung aufgrund der Ausdehnung des Universums „gestreckt“, d. h. die Strahlung wird zu niedrigeren Energien und längeren Wellenlängen verschoben, ähnlich dem bekannten Dopplereffekt. So sind solche Untersuchungen erst mit der Entwicklung effizienter Nahinfrarot-Instrumente möglich geworden, die an die weltweit größten Teleskope gekoppelt sind, wie zum Beispiel der K-Band Multi-Objekt-Spektrograph (KMOS) am „Very Large Telescope“ (VLT) der Europäischen Südsternwarte (ESO), der im nahinfraroten Band messen kann.

Spektroskopische Daten sind unbedingt notwendig, um die Eigenschaften der Sterne in einer Galaxie zu bestimmen. Die relativen Stärken der unterschiedlichen Absorptionsmerkmale zeigen sowohl die Verteilung der Sterntypen als auch ihre chemischen Eigenschaften. Mit KMOS haben wir die einzigartige Möglichkeit, das Licht von 24 unterschiedlichen Galaxien gleichzeitig zu untersuchen. Wenn diese Daten mit Bildern des Hubble-Weltraumteleskops (HST) kombiniert werden, die bei verschiedenen Wellenlängen aufgenommen wurden, können wir eine Vielzahl von Galaxieneigenschaften einschränken. Aus der Breite der Absorptionslinien kann die Relativbewegung der Sterne bestimmt werden und daraus, in Kombination mit den HST-Daten, das Gravitationspotenzial einer Galaxie insgesamt. Aus den Linienstärken können die Eigenschaften der Sternpopulation abgeleitet werden, wie Alter oder die Häufigkeit von chemischen Elementen (mit Ausnahme von Wasserstoff und Helium).

Abbildung 3 zeigt eine Vergrößerung des sogenannten „Hubble Ultra Deep Field“. Dieser kleine Himmelsausschnitt (etwa 1/10 vom Durchmesser des Vollmonds) wurde mit mehreren Instrumenten an Bord des HST abgebildet. Wir konnten eine ferne massereiche elliptische Galaxie identifizieren (im gelben Quadrat in Abbildung 3) und zeigen das Modell für die spektrale Energieverteilung einer derartigen Galaxie im frühen Universum. Beachten Sie die roten Farben der Galaxie.

Abbildung 3. Das Bild zeigt ein viel beobachtetes Himmelsgebiet, das sogenannte „Hubble Ultra Deep Field“. Das Gebiet enthält viele Galaxien unterschiedlichen Alters, unterschiedlicher Größen, Formen und Farben. Die kleinsten und rötesten Galaxien sind wahrscheinlich bei den entferntesten, die derzeit bekannt sind. Eine elliptische Galaxie, vom Typ wie wir sie mit KMOS untersuchten, ist markiert. Dem Bild überlagert ist – in orange – das Modellspektrum eines möglichen Vorläufers für diese Galaxie bei hoher Rotverschiebung (MILES library). © NASA; ESA; N. Pirzkal (ESA/STScI); HUDF Team (STScI)

Wann hörte die Sternentstehung in fernen massereichen Galaxien auf?

Die Nahinfrarotspektroskopie von KMOS ermöglichte es in den letzten Jahren nicht nur, die Anzahl der Messungen von Linienbreiten in fernen, massereichen Galaxien zu verdoppeln, sondern zudem die Entstehungsgeschichte von passiven Galaxien über mehr als 10 Milliarden Jahre hinweg einzuschränken.

Indem wir die Spektren selektierter, isolierter massereicher Galaxien zusammen genommen und die Stärke ihrer Absorptionslinien gemessen haben, konnten wir das Alter dieser Galaxien abschätzen. Die Kombination der KMOS-Daten mit Daten aus der Literatur zeigte, dass die Entstehung passiver Galaxien in zwei Phasen eingeteilt werden kann. Eine frühe, aktive Phase, in der die Galaxien immer noch wachsen, indem sie Gas aus dem Kosmos schnell ansammeln, sowie nach einem raschen Abschalten der Sternentstehung die späte Phase, in der Galaxien sich durch die weitere Entwicklung ihrer Sternpopulationen verändern und somit die Eigenschaften erhalten, die wir heute beobachten.

Elliptische Galaxien im lokalen Universum sind bekannt dafür, dass sie strengen, grundlegenden Regeln folgen. So können Eigenschaften wie die Größe der Galaxie, die Lichtverteilung, die Geschwindigkeitsdispersion der Sterne, die Masse, die Farbe und die Eigenschaften der Sternpopulation miteinander in Beziehung gesetzt werden. Diese Korrelationen dienen als Werkzeuge, um die Modelle zur Galaxienentstehung einzuschränken. So bietet insbesondere die „Fundamentalebene“ die Möglichkeit, die Sternpopulationen von massereichen Galaxien in unterschiedlichen Epochen zueinander in Beziehung zu setzen und damit ihre Entstehungszeiten einzuschränken. Mit spektroskopischen Daten von KMOS konnten wir die Fundamentalebene dazu einsetzen, die Entstehung von Galaxiengruppen und -haufen – einige der massereichsten Strukturen im Universum – zu untersuchen. Wir konnten zeigen, dass die Daten mit theoretischen Modellen konsistent sind, nach denen sich Galaxien zuerst in den massereichsten Strukturen bilden.

Ein genaueres Bild der Sternmasse in entfernten Galaxien

Wir verwendeten außerdem sehr tiefe HST-Photometrie um die Größe und Morphologie von weit entfernten Galaxien in Haufen zu messen. Zusammen mit Modellen für die Sternpopulationen der Galaxien konnten wir daraus Karten ihrer Sternmasse erstellen (Abbildung 4). Die Massenverteilung in fernen Galaxien scheint viel kompakter zu sein als ihr Licht, ein Effekt der von älteren Sternpopulationen im Zentrum im Vergleich zu den Außenbezirken erzeugt wird. Im Vergleich zu nahen Galaxien zeigen die fernen Objekte viel größere Unterschiede zwischen ihrer Massen- und ihrer Lichtgröße – ein Hinweis darauf, dass sich über die Lebensdauer massereicher Galaxien hinweg etwas verändert.

Abbildung 4. Von tiefen Bildern des Hubble-Weltraumteleskops (links) kann die Massenverteilung innerhalb von Galaxien abgeleitet werden (rechts). © Max-Planck-Institut für extraterrestrische Physik / A. Beifiori

Die Änderung der Farben innerhalb der Galaxien lassen sich mit der Annahme erklären, dass es Unterschiede gibt im Alter der Sterne und der Menge der chemischen Elemente zwischen ihrem Zentrum und ihrem Außenbereich. Dies ist das Ergebnis eines Entwicklungsprozesses, in dem allmählich Satellitengalaxien in den Außenbereichen akkretiert (= Materie wird aufgrund der Gravitation aufgesammelt; Anm. Red.) werden. Diese Unterschiede in Alter und Häufigkeit sollten im Laufe der Milliarden Jahre andauernden Galaxienentwicklung abnehmen bis sie die Werte erreichen, die im lokalen Universum zu sehen sind.

In welchem dynamischen Zustand befinden sich massereiche Galaxien?

In den letzten Jahren hat sich die Zahl von fernen massereichen Galaxien mehr als verdoppelt, bei denen sowohl Linienbreitenmessungen mittels Spektroskopie als auch tiefe Bilder in mehreren Wellenlängenbändern vorliegen. Damit können ihre Eigenschaften weit besser charakterisiert werden – zu einer Zeit, wenn die Vielfalt der Hubble-Sequenz ausgebaut wird. Die Kopplung der neuen Daten mit dynamischen Modellen erlaubte es, die gesamte dynamische Masse dieser Objekte einzuschränken und zu zeigen, dass in ihren Kernen nur ein relativ geringer Anteil Dunkler Materie vorhanden ist, verglichen zu den Galaxien in unserer kosmischen Nachbarschaft. Die Änderung scheint mit der Veränderung der äußeren Form der Galaxien einherzugehen, die die Galaxien aufgrund der Wechselwirkungen mit anderen Galaxien über ihre Lebensdauer hinweg erfahren. Außerdem zeigen ferne Galaxien eine größere Rotationsgeschwindigkeit im Vergleich zu nahe gelegenen Galaxien; dies passt zu einem Szenario, bei dem frühe Galaxien eher Scheiben ähneln und noch nicht die heutige elliptische Struktur aufweisen.


* Der Artikel ist unter demselben Titel " Beobachtung der Entstehung der massereichsten Galaxien im Universum" im Jahrbuch der Max-Planck-Gesellschaft 2017 erschienen ( https://www.mpg.de/10989921/mpe_jb_2017 ; DOI 10.17617/1.4M) und wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt.Der Artikel erscheint ungekürzt, allerdings ohne Literaturangaben, da diese großteils nicht frei zugänglich sind. Diese Veröffentlichungen sind im Jahrbuch ersichtlich und können auf Wunsch zugesandt werden.


Weiterführende Links

Max-Planck-Institut für extraterrestrische Physik

Andere Institutionen

MIAPP: Münchner Institut für Astro- und Teilchen Physik, http://www.universe-cluster.de/?L=1

European Southern Observatory (ESO): http://www.eso.org/public/

Videos

Artikel zu verwandten Themen in ScienceBlog.at

inge Thu, 20.07.2017 - 09:44

Marietta Blau: Entwicklung bahnbrechender Methoden auf dem Gebiet der Teilchenphysik

Marietta Blau: Entwicklung bahnbrechender Methoden auf dem Gebiet der Teilchenphysik

Do, 13.07.2017 - 11:17 — Robert W. Rosner

Robert W. RosnerIcon PhysikDie Wiener Physikerin Marietta Blau hat in den 1920er- und 30er-Jahren eine photographische Methode entwickelt, welche die Sichtbarmachung energiereicher Teilchen ermöglichte und Grundlage für die Teilchenphysik wurde. Mit dieser Methode hat Blau zusammen mit ihrer Schülerin und Mitarbeiterin Hertha Wambacher 1937 erstmals die Zertrümmerung eines Atomkerns durch kosmische Strahlen festgehalten. 1938 musste Blau Österreich verlassen, während der Nazi-Zeit wurden ihre bahnbrechenden Ergebnisse ihrer Mitarbeiterin zugeschrieben. Der britische Kernforscher Cecil Powell , der auf den Ergebnissen Blaus aufbaute und das Pion entdeckte, erhielt den Nobelpreis, nicht aber die dafür mehrfach vorgeschlagene Marietta Blau. In Österreich geriet Marietta Blau in Vergessenheit, erst 2003 wurde sie wiederentdeckt..

Marietta Blau (1894 - 1970),

als Tochter eines k.k. Hof-und Gerichtsadvokaten in Wien geboren, stammte aus einer Familie des gehobenen jüdischen Mittelstands. Sie besuchte die Übungsschule der k.k. Lehrerbildungsanstalt in der Hegelgasse, danach die Vorbereitungsklasse und drei Klassen des privaten Mädchen-Obergymnasiums, nahm Privatunterricht und kam schließlich an das Mädchengymnasium in der Rahlgasse (1040 Wien), wo sie 1914 mit Auszeichnung maturierte.

Ab November 1914 war Marietta Blau an der Wiener Universität inskribiert. Sie studierte Physik und Mathematik. Eine TBC-Erkrankung erzwang 1916 eine Unterbrechung des Studiums. Blau dissertierte 1918 an dem von Franz Serafin geleiteten II. Physikalische Institut mit einer Arbeit über die Absorption von γ-Strahlen und wurde im März 1919 zum Dr. phil. promoviert.

Danach hospitierte sie bei Guido Holzknecht am Allgemeinen Krankenhaus, arbeitete 1921 als Physikerin an der Röntgenröhrenfabrik Fürstenau, Eppens & Co in Berlin und nahm schließlich 1922 eine Assistentenstelle am Institut für Physikalische Grundlagen der Medizin in Frankfurt/Main an. Im Herbst 1923 kehrte sie aber nach Wien zurück, da ihre Mutter erkrankt war.

Hertha Wambacher (1903 - 1950)

wurde als Tochter eines Fabrikanten geboren und besuchte - ähnlich wie Marietta Blau - zunächst eine Übungsschule der k.k. Lehrerbildungsanstalt in der Hegelgasse und trat dann in das Mädchengymnasium in der Rahlgasse über, wo sie 1922 mit Auszeichnung maturierte. Sie studierte dann zwei Jahre lang Chemie, gab dieses Studium aus Gesundheitsgründen auf und wandte sich dem Studium der Physik zu. Von 1928 an führte Wambacher ihre Dissertation unter Anleitung der um neun Jahre älteren Marietta Blau am II. Physikalischen Institut der Universitär Wien durch. Nach mäßigen Erfolgen bei den Rigorosen wurde sie im Mai 1932 promoviert.

Marietta Blau und ihre Schülerin und Mitarbeiterin Hertha Wambacher

Nach ihrer Rückkehr nach Wien arbeitete Marietta Blau ohne Bezahlung am Institut für Radiumforschung der Österreichischen Akademie der Wissenschaften - auch Hertha Wambacher, die ab 1928 bei Blau dissertierte, konnte keine Anstellung finden. Beide Frauen waren darauf angewiesen von ihren Eltern erhalten zu werden. Wambacher hatte dasselbe Mädchengymnasium in Wien besucht wie Blau und das mag dazu beigetragen haben, dass die beiden Wissenschaftlerinnen auch nach Abschluss der Dissertation Wambachers über viele Jahre zusammenarbeiteten. Obwohl Wambacher seit 1924 unterstützendes Mitglied der österreichischen Heimwehren war und bereits 1934 der NSDAP beitrat, scheint sich ihre politische Gesinnung lange Zeit nur geringfügig auf die Zusammenarbeit mit Blau ausgewirkt haben. Zwischen 1932 und 1938 veröffentlichten Blau und Wambacher gemeinsam zwanzig Arbeiten. In dieser Zeit gab es keine einzige Veröffentlichung Blaus mit einem anderen Mitarbeiter, und auch Wambacher schrieb nur einen einzigen Aufsatz zusammen mit Gerhard Kirsch , einem ihr politisch nahestehenden Physiker. Gegen Ende der Zusammenarbeit, noch vor dem "Anschluss", scheint es zu schweren Spannungen gekommen zu sein.

Die photographische Methode

Marietta Blau hatte bereits seit 1924 systematisch an der Entwicklung einer photographischen Methode zur Erfassung von energiereichen Teilchen, die bei Kernreaktionen emittiert werden, gearbeitet. Vorher war zum Nachweis derartiger Teilchen hauptsächlich die Szintillationsmethode eingesetzt worden, bei der man die schwachen Lichtblitze beobachtete, die beim Aufprall der Teilchen auf einem Zinksulfidschirm entstehen. Diese sehr fehleranfällige Methode musste in völlig verdunkelten Räumen durchgeführt werden.

Die ersten Untersuchungen Blaus hatten den Zweck schnelle Protonen photographisch zu erfassen, welche beim Aufprall von α-Strahlen auf Wasserstoff (H)-enthaltende Substanzen durch Kernstöße herausgeschleudert werden. Da nicht nur Protonenstrahlen, sondern auch andere energiereiche Strahlen (α-, β-, γ-Strahlen) eine photographische Schicht schwärzen, musste Blau geeignete Methoden entwickeln, um sicher zu stellen, dass die Schwärzung der Emulsion ausschließlich auf die Protonenstrahlen zurückzuführen war. Durch Einbringung von Materialien zur Absorption der α-Strahlen und Verwendung entsprechender Emulsionen gelang es Blau, Fotoplatten herzustellen, bei denen die darauf sichtbaren Bahnen ausschließlich von Protonen stammten. Diese Bahnen bestanden aus einer Reihe von Punkten: die Protonen hatten stellenweise Silberbromidkriställchen zu elementarem Silber reduziert. Abbildung 1. Marietta Blau (links; um 1927) und Hertha Wambacher (rechts, nach 1928) im Labor am Wiener Radiuminstitut (Bilder: Privatbesitz Agnes Rodhe und Archiv Roman und Lore Sexl)

In den folgenden Jahren verfeinerte Blau die photographische Methode. Sie konnte zeigen, wie sich auf der Fotoplatte Bahnen von α-Strahlen von Bahnen von Protonenstrahlen unterscheiden. Aus der Länge der Bahnen konnte sie deren Energie ermitteln. Dank der Mitarbeit von Hertha Wambacher gelang es ihr die Empfindlichkeit der Emulsion durch geeignete Zusätzen zu reduzieren, sodass durch weniger energiereiche Strahlung (wie durch β- und γ- Strahlen) überhaupt keine störende Schwärzung auf der Platte auftrat. Nach der Entdeckung des Neutrons durch Chadwick untersuchten Blau und Wambacher 1932 Protonen, die bei Kernprozessen durch Einwirkung von Neutronen entstanden. Es gelang ihnen Rückschlüsse auf die Energie der im Spiel gewesenen Neutronen zu ziehen. Für ihre Untersuchungen "der photographischen Wirkungen der Alphastahlen, der Protonen und Neutronen" wurden Blau und Wambacher 1937 mit dem Lieben Preis der Österreichischen Akademie der Wissenschaften ausgezeichnet.

Zertrümmerungssterne

Danach untersuchten Blau und Wambacher die Anwendbarkeit ihrer Methode in Hinblick auf die 1912 von Victor Hess entdeckte kosmische Strahlung. In der von Hess eingerichteten Versuchsstation auf dem Hafelekar in 2300 m Höhe wurden Fotoplatten der aus dem Weltraum kommenden Strahlung ausgesetzt. Nach ersten wenig erfolgreichen Versuchen gelang es im Sommer 1937 mit speziellen Fotoemulsionen der englischen Firma Ilford auf Platten, die fünf Monate lang den kosmischen Strahlen exponiert waren, lange Bahnspuren zu erkennen. Diese gingen strahlenförmig von einem zentralen Punkt aus und wiesen auf eine hohe Energie der primären Strahlung hin. Blau und Wambacher nahmen an, dass diese Sterne durch die von der kosmischen Strahlung ausgelösten Zertrümmerung von Brom- und Silberatomen entstanden waren. (Abbildung 2)

Abbildung 2. Zertrümmerungssterne mit von einem zentralen Punkt ausgehenden Spuren auf einer Fotoplatte, die 5 Monate auf 2300 m Höhe der kosmischen Strahlung ausgesetzt war. (Quelle: M. Blau & H. Wambacher. Linkes Photo: Mitteilungen des Instituts für Radiumforschung, Dezember 1937. Rechtes Bild und Text: Disintegration processes by cosmic rays with the simultaneous emission of several heavy particles, Nature (London) 140, (1937), 585)

Die Veröffentlichungen über die Zertrümmerungssterne fanden großes Interesse: sie bestätigten theoretische Annahmen über die Energie der kosmischen Strahlen und zeigten, welche Möglichkeit die photographische Methode für die Kernforschung bot. Cecil Powell, der 1950 den Nobelpreis für die Entdeckung des Pions (π-Meson) erhielt, war von den Möglichkeiten dieser Methode so beeindruckt, dass er ihre Weiterentwicklung zu einem zentralen Punkt seiner Forschungen machte.

Zu Beginn des Jahres 1938 wollte Marietta Blau die Versuche mit kosmischen Strahlen in weit größerer Höhe fortsetzen. Sie bat den renommierten Radiochemiker Fritz Paneth, der bereits 1933 nach England emigriert war und im Zuge seiner wissenschaftlichen Arbeiten Forschungsballone in die Stratosphäre aufsteigen ließ, bei Ballonaufstiegen Fotoplatten mitzunehmen. Da der Ballonaufstieg erst nach dem Einmarsch deutscher Truppen in Österreich erfolgte, schickte Paneth die exponierten Platten nicht nach Wien. Er hoffte, Marietta Blau würde Gelegenheit finden, die Platten auszuwerten - er irrte.

Marietta Blau im Exil

Am Tag des Einmarsches der deutschen Armee (12. März 1938) befand sich Marietta Blau auf dem Weg nach Oslo, wohin sie die norwegische Chemikerin Ellen Gleditsch auf ein Forschungssemester eingeladen hatte. An eine Rückkehr nach Wien war nicht zu denken. Hertha Wambacher, die ja NSDAP-Mitglied war, wurde kurz nach dem Anschluss als Assistentin angestellt, nachdem durch die Entfernung eines jüdischen Assistenten ein Stelle frei wurde.

Glücklicherweise hatte Albert Einstein, der die mangelnden Aufstiegsmöglichkeiten für Jüdinnen in Österreich kannte, noch vor dem 12. März empfohlen, Blau nach Mexiko einzuladen. In seinem Empfehlungschreiben an einen Mitarbeiter des Polytechnischen Instituts in Mexiko wies er auf Blaus Methode zur Erforschung der kosmischen Strahlen hin und bezeichnet sie als Physikerin von hervorragender Begabung. Blau erhielt im Juni 1938 eine Einladung am Technischen Institut in Mexiko zu arbeiten und trat mit 1. Januar 1939 ihre Professur in Mexiko-Stadt an . Leider war der wissenschaftliche Standard am Institut auf einem relativ niedrigen Niveau und Möglichkeiten für Forschungsarbeiten so gut wie nicht vorhanden. Allerdings bedeutete das mexikanische Exil für Marietta Blau und die von ihr mitgenommene Mutter die Rettung vor dem Holokaust.

Die physikalischen Institute nach dem "Anschluss"

In Wien waren bereits kurz nach dem" Anschluss" an den physikalischen Instituten und am Radiuminstitut alle jüdischen und als Antifaschisten bekannten Lehrkräfte entfernt worden. Die Leitung des Instituts wurde von Georg Stetter übernommen, der Mitglied des NS-Lehrerbundes, einer Teilorganisation der NSDAP, war. Hertha Wambacher schloss sich eng an Stetter an.

In den Veröffentlichungen, die nun aus dem Institut kamen, konnte die Pionierleistung Blaus bezüglich der photographischen Methode nicht verschwiegen werden, die Entdeckung der Zertrümmerungssterne wurde aber einzig und allein Wambacher zugeschrieben. Im September 1938 berichtete Wambacher bei einer Physiker-und Mathematikertagung in Baden-Baden über die Mehrfachzertrümmerung von Atomkernen durch kosmische Strahlen. Bei der Erörterung der photographischen Methode erwähnte sie zwar, dass "die diesbezüglichen Arbeiten, auf die hier nicht näher eingegangen werden soll, von Blau in Wien gemacht wurden", bei den Untersuchungen über die Zertrümmerungssterne wurde Blau nicht mehr erwähnt.

Mit diesen Arbeiten suchte Hertha Wambacher im Studienjahr 1939/40 um Habilitation an und es wurde ihr die Lehrbefugnis für Physik erteilt. In den folgenden Jahren erschienen von ihr weitere Arbeiten zu dem Thema, zum Teil in Zusammenarbeit mit Georg Stetter. In dem 1940 erschienenen, sehr ausführlichen Artikel "Höhenstrahlung und Atombau" werden neben den Grundlagen auch verschiedene Methoden zur Messung behandelt. Bei den Abbildungen der Messungen in der Nebelkammer werden stets die Autoren des Experiments angegeben. Bei der Abbildung der Zertrümmerungssterne jedoch scheint der Name Blau nicht auf.

Nach der Befreiung Österreichs

wurden alle Hochschullehrer, die der NSDAP angehört hatten, entlassen, darunter auch Wambacher. Für Wambacher bedeutete dies den endgültigen Abschied von der akademischen Laufbahn, während es anderen (z.B. Georg Stetter und Gustav Ortner) gelang, nach einigen Jahren wieder eine akademische Stellung zu erhalten, oft mit Hilfe von Kollegen, denen sie in der NS-Zeit in der einen oder anderen Weise behilflich waren. 1946 wurde Hertha Wambacher die Diagnose Krebs gestellt. Etliche Mitarbeiter am Radiuminstitut - auch Marietta Blau - erkrankten an Krebs. Dies ist wohl darauf zurückzuführen, dass lange Zeit hindurch praktisch ohne Schutzmaßnahmen mit hoch radioaktiven Präparaten hantiert wurde. Wambacher arbeitete noch einige Jahre an einem Forschungslabor in Wien und starb 1950. Nach ihrem Tod erschienen von Stetter verfasste oder inspirierte Nachrufe, in denen Wambacher als die Entdeckerin der Zertrümmerungssterne dargestellt und Blau kaum erwähnt wurde.

Marietta Blau in den USA

Nach dem Tod der Mutter übersiedelte Blau von Mexiko nach New York. Sie erhielt 1944 eine Anstellung an der "Canadian Radium and Uranium Corporation" und wechselte Anfang 1948 an die Columbia University (N.Y.). Ihre Forschungen - Kernspurplatten für Teilchenbeschleuniger zu adaptieren - führte sie am Brookhaven National Laboratory aus, an dem sie ab 1950 beschäftigt war. Dank ihrer großen Fachkenntnisse konnte Blau bald die Mitarbeiter in die Verwendung der photographischen Methode einschulen und semiautomatische Verfahren entwickeln, um die großen Datenmengen, die in Zyklotronen anfielen, zu erfassen. Die photographische Methode erwies sich auf dem Gebiet der Teilchenphysik als sehr leistungsfähig. Gemeinsam mit ihren Mitarbeitern veröffentlichte Marietta Blau in dieser Zeit sechzehn Arbeiten.

Im Jahr 1956 übersiedelte Marietta Blau - inzwischen 62 Jahre alt - nach Miami, wo sie unterrichtete und mit einer Gruppe junger Physiker ein Labor einrichtete, um wieder an Themen der Teilchenphysik (Antiprotonen, π-Mesonen und K-Mesonen) zu arbeiten.

Rückkehr nach Wien

Marietta Blau hatte sich bald nach Kriegsende bemüht mit ihren ehemaligen Kollegen aus dem Radiuminstitut und den physikalischen Instituten in Wien - Berta Karlik, Stefan Meyer, Hans Przibram, Hans Thirring, nicht aber mit Hertha Wambacher - wieder in Kontakt zu treten.

1960 kehrte sie schließlich nach Wien zurück. Sie betreute noch einige Dissertantinnen im Radiuminstitut und hielt Vorträge bei Seminaren, nahm aber nur in beschränktem Maß am Wissenschaftsleben teil. Schuld daran waren nicht nur gesundheitliche Gründe. Sie war enttäuscht, dass Personen wie der frühere Nationalsozialist Georg Stetter wieder als Professoren am Physikalischen Institut tätig waren.

Mehrmals - von Thirring und Schrödinger - für den Nobelpreis vorgeschlagen, erhielt sie diese höchste Auszeichnung nicht. Sie bekam allerdings den Schrödingerpreis (1962), den Preis für Naturwissenschaften der Stadt Wien (1967) und das Goldene Doktordiplom (1969). Eine Aufnahme als Mitglied der Akademie der Wissenschaften fand nicht die erforderliche Mehrheit.

Wie viele andere Wissenschaftler, die in der Frühzeit der Forschung auf dem Gebiet der Kernphysik die notwendigen Schutzmaßnahmen nicht getroffen hatten, erkrankte Marietta Blau 1969 an Krebs und starb 1970 nach vier Monaten Krankenhausaufenthalt. Ein Nachruf in einer wissenschaftlichen Zeitschrift blieb aus.


Weiterführende Links

R. Rosner , B.Strohmaier (Hrsg.) Marietta Blau - Sterne der Zertrümmerung. Biographie einer Wegbereiterin der modernen Teilchenphysik, Böhlau Verl., Wien 2003

Universität Wien (2003): Gedenkveranstaltung Marietta Blau http://www.zbp.univie.ac.at/webausstellung/blau/rueckblick_blau1.pdf 

Ruth Lewin Sime, Marietta Blau: Pioneer of Photographic Nuclear Emulsions and Particle Physics. Phys. Perspect. 15 (2013) 3–32 (open access)

P. Galison Marietta Blau: Between Nazis and Nuclei Physics Today 50, Nov. 1997 pp 42-48 (Text kann auf Wunsch zugesandt werden)

Artikel zu verwandten Themen in ScienceBlog.at:

R. Rosner (1.6.2017): Frauen in den Naturwissenschaften: die ersten Absolventinnen an der Universität Wien (1900 - 1919). http://scienceblog.at/frauen-den-naturwissenschaften-die-ersten-absolven....

R. Rosner 27.04.2017: Frauen in den Naturwissenschaften: erst um 1900 entstanden in der k.u.k Monarchie Mädchenmittelschulen, die Voraussetzung für ein Universitätsstudium http://scienceblog.at/frauen-den-naturwissenschaften-erst-um-1900-entsta....

Lore Sexl 20.09.2012: Lise Meitner – Weltberühmte Kernphysikerin aus Wien

Siegfried J. Bauer 28.06.2012: Entdeckungen vor 100 Jahren: Kosmische Strahlung durch Viktor Franz Hess, Kontinentalverschiebung durch Alfred Wegener http://scienceblog.at/entdeckungen-vor-100-jahren-kosmische-strahlung-du....


 

inge Thu, 13.07.2017 - 11:17

Grenzenlos scharf — Lichtmikroskopie im 21. Jahrhundert

Grenzenlos scharf — Lichtmikroskopie im 21. Jahrhundert

Do, 07.07.2017 - 10:23 — Stefan W. Hell

Stefan W. HellIcon PhysikFeinere Details als die halbe Lichtwellenlänge, so war eigentlich seit dem 19. Jahrhundert bekannt, lassen sich im Mikroskop wegen der Lichtbeugung nicht auflösen. Heute steht jedoch fest, dass man mit herkömmlicher Optik fluoreszierende Proben mit einer Detailschärfe weit unterhalb dieser sogenannten Beugungsgrenze abbilden kann. Die Stimulated Emission Depletion-Mikroskopie (STED) und weitere, jüngere fernfeldoptische Verfahren können Auflösungen von besser als 20 Nanometern erreichen und sind prinzipiell sogar in der Lage, molekular auflösen. Der Physiker Stefan Hell (Direktor am Max-Planck-Institut für biophysikalische Chemie/ Göttingen) hat mit der von ihm entwickelten STED-Mikroskopie den minimal-invasiven Zugang zur Nanoskala der Zelle eröffnet. Für die Entwicklung der Fluoreszenz-Nanoskopie wurde 2014 der Nobelpreis für Chemie an Stefan Hell Eric Betzig und William Moerner verliehen.*

Sehen ist die für uns wahrscheinlich wichtigste Sinneswahrnehmung. Nicht nur im täglichen Leben "glaubt man nur dem, was man sieht" und "weiß, dass Bilder mehr sagen als 1000 Worte", dies trifft auch auf die modernen Naturwissenschaften zu. Es ist sicherlich kein Zufall, dass deren Beginn mit der Erfindung der Lichtmikroskopie einhergeht. Damit war der Mensch erstmals in der Lage zu sehen, dass jedes lebende System aus Zellen, den Grundeinheiten von Struktur und Funktion, besteht. Jeder von uns hat in der Schule auch sicherlich gelernt, dass die Auflösung des Lichtmikroskops grundsätzlich durch die Wellenlänge des verwendeten Lichts begrenzt ist und bei rund 200 – 350 Nanometern liegt. Will man kleinere Strukturen sehen - beispielsweise Viren -, so benötigt man dazu das Elektronenmikroskop (Abbildung 1).

Abbildung 1. Größenskalen und Auflösungsgrenzen für das menschliche Auge, das Lichtmikroskop und das Elektronenmikroskop. Die Auflösungsgrenze des Lichtmikroskops liegt bei rund 200 nm, der halben Wellenlänge des eingestrahlten Lichts (nm: Nanometer = Millionstel Millimeter, µm: Mikrometer = Tausendstel mm).

Das Elektronenmikroskop wurde in der Mitte des 20. Jahrhunderts erfunden. Es ermöglicht eine um Größenordnungen höhere räumliche Auflösung - in manchen Fällen bis hinab zur Größe eines Atoms - und hat zu zahllosen grundlegenden Entdeckungen geführt.

Wenn wir also mit dem Elektronenmikroskop eine derart hohe Auflösung erzielen…

…warum ist dann die Lichtmikroskopie so wichtig?

Nimmt man erfolgreiche Top-Journale in den Lebenswissenschaften zur Hand und zählt die Untersuchungen, in welchen Mikroskopie angewandt wurde, so findet man, dass im überwiegenden Teil der Fälle die Lichtmikroskopie genutzt wurde, da diese die bei weitem populärste Methode ist. Dafür gibt es zwei wesentliche Gründe:

  • Lichtmikroskopie ist die einzige Form der Mikroskopie, mit der man lebende Zellen in allen Raumrichtungen beobachten kann, und sie ist minimal invasiv. Beispielsweise kann man verfolgen, wie Biomoleküle in den Zellen interagieren oder ihre Position verändern - dies ist mit Elektronenmikroskopie nicht möglich.
  • Üblicherweise wollen wir wissen, wo sich ein bestimmtes Biomolekül, ein Protein, zu einem bestimmten Zeitpunkt aufhält und ob es mit irgendetwas Anderem interagiert. Weil die vielen Tausende Proteine einer Zelle unter Lichteinfall alle gleich aussehen, muss man das zu untersuchende Protein spezifisch markieren. Dies funktioniert in der Lichtmikroskopie viel einfacher als in der Elektronenmikroskopie: man hängt ein fluoreszierendes Molekül an das Protein und - bei Bestrahlung mit Licht passender Wellenlänge - kann man das Protein anhand seiner Fluoreszenz verfolgen.

Fluoreszierende Moleküle als Marker

existieren u.a. in zwei Zuständen: einem Grundzustand (So) und einem angeregten Zustand (S1) mit höherer Energie. Bei Bestrahlung mit Licht passender Wellenlänge (hier: grünes Licht), nimmt das Molekül ein (grünes) Photon auf und geht vom Grundzustand in den angeregten Zustand S1 über. Etwas von dieser Energie geht durch Schwingungen der Atome verloren - das Molekül fällt auf ein tieferes S1-Niveau und kehrt von dort unter Aussenden eines Photons innerhalb von Nanosekunden in seinen Grundzustand So zurück. Infolge des Energieverlusts ist die Wellenlänge des emittierten Photons in den längerwelligen Bereich verschoben (Abbildung 2).

Abbildung 2. Energieschema eines Fluoreszenzmarkers (hier ein Cumarinfarbstoff). Der Marker wird durch Licht (grün) in einen Zustand S1 angeregt, verliert etwas an Energie und relaxiert (geht über) von einem niedrigeren S1-Niveau unter Emission von längerwelligem Fluoreszenzlicht (orange) in den Grundzustand. Aufgrund der unterschiedlichen Wellenlängen kann das Fluoreszenzlicht separiert vom Anregungslicht betrachtet werden. Dies macht Fluoreszenzmessungen enorm sensitiv, man kann auch noch ein einzelnes, mit einem Fluoreszenzmarker versehenes Biomolekül in der Zelle detektieren.

Sensitivität darf aber nicht mit Auflösung verwechselt werden!

Auflösung ist etwas Anderes, es bedeutet, dass man individuelle Strukturen voneinander getrennt wahrnimmt. Dies ist in der Lichtmikroskopie nicht mehr der Fall, wenn der Abstand der einzelnen Strukturen/Moleküle weniger als 200 nm beträgt. Dann erscheinen diese als ein einziger verschwimmender Lichtfleck.

Ein Fluoreszenzmikroskop mit einer wesentlich höheren räumlichen Auflösung, die bis in den Bereich der Biomoleküle reicht, sollte daher einen ungeheuren Einfluss auf die Naturwissenschaften und darüber hinaus haben.

Wodurch wird die Auflösung in der Lichtmikroskopie begrenzt?

Das wichtigste Element in der Lichtmikroskopie ist die Linse des Objektivs. Diese hat die Aufgabe, das Licht in einem Punkt zu bündeln. Da Licht sich aber in Form einer Welle fortpflanzt, kann die Linse dieses nicht an einem einzelnen geometrischen Punkt scharf bündeln - das Licht wird gebeugt und es entsteht ein Lichtfleck, der mindestens 200 nm breit und (entlang der optischen Achse) 500 nm lang ist. Dies hat zur Folge, dass alle Strukturen, die sich innerhalb dieses Flecks befinden, gleichzeitig bestrahlt werden und gleichzeitig Fluoreszenzlicht emittieren. Kein wie auch immer gearteter Detektor kann aufgrund der Beugungsgrenze diese überlappenden Signale voneinander trennen (Abbildung 3).

Dass Lichtbeugung eine fundamentale Grenze für die optische Auflösung setzt, wurde von Ernst Abbe (1840 -1905) erkannt. Abbe hat die nach ihm benannte Formel aufgestellt, die in allen Lehrbüchern der Physik, Optik und Lebenswissenschaften zu finden ist. Diese besagt: um zwei ähnliche Strukturen getrennt beobachten zu können, müssen diese voneinander weiter getrennt liegen als die Wellenlänge des Lichts λ geteilt durch die zweifache numerische Apertur (diese beinhaltet den halben Öffnungswinkel λ und den Brechungsindex n) des Objektivs (Abbildung 3).

Abbildung 3. Zur Beugungsgrenze: Die Linse eines Objektivs kann Licht nicht in einem Punkt fokussieren. Um zwei ähnliche Strukturen getrennt wahrnehmen zu können, müssen diese mindestens um die Hälfte der eingestrahlten Wellenlänge λ voneinander entfernt sein. Ernst Abbe (links oben) hat dies in der nach ihm benannten Formel für die Beugungsgrenze (d, rechts oben) festgelegt. (n: Brechungsindex).

An die Gültigkeit dieser Formel haben auch alle Physiker und Lebenswissenschafter des 20. Jahrhunderts geglaubt. Vielleicht, so dachte man, ließe sich diese Auflösung noch um einen Faktor 2 verbessern, damit wäre dann aber Schluss.

Als Student in Heidelberg war für Stefan Hell in den späten 1980er Jahren die Grenze der optischen Auflösung noch ein Faktum.

Kann die Beugungsgrenze durchbrochen werden?

Viele, wenn nicht die meisten Entdeckungen sind mit den Lebensumständen ihrer Entdecker verknüpft. Hell war mit seinen Eltern von Osteuropa - dem Banat in Rumänien - nach Westeuropa - Ludwigshafen - gezogen und hatte in Heidelberg Physik studiert. Seine Doktorarbeit hatte er bei einem Physiker begonnen, der zusammen mit einem Kollegen am Institut eine Start-up Firma gründete, welche Beziehungen zu IBM und Siemens hatte. Ziel war die Entwicklung von lichtmikroskopischen Methoden - genauer gesagt von konfokaler Mikroskopie - zur Prüfung von Computer-Chips.

Nach einem Jahr Arbeit an dem Thema wuchs Hells Frustration. Für jemanden, der an Grundlagenforschung interessiert war, gab es in der Lichtmikroskopie nichts Neues mehr, nur Linsen und Fokussieren von Licht - es war die Physik des 19. Jahrhunderts. Das einzig Interessante und Wichtige – so dachte er – würde wohl sein, die Beugungsgrenze zu durchbrechen. Er war überzeugt, dass es dafür einen Weg geben müsse. Die Beugungsgrenze war 1873 definiert worden, seitdem war in mehr als 100 Jahren so viel Neues in der Physik dazu gekommen - Quantenmechanik, Quantenoptik, Moleküle und ihre Zustände - es musste zumindest ein physikalisches Phänomen existieren, mit dem sich die Beugungsgrenze austricksen ließe.

In der Hoffnung derartige Phänomene zu entdecken, wälzte Hell Lehrbücher und versuchte Kollegen zu überzeugen, dass es wert wäre dieses Problem anzugehen, möglicherweise von den Eigenschaften der Fluorophore aus. Es bestand in Heidelberg aber kein Interesse, und für Hell bestand die Aussicht ohne Job da zu stehen.

Ein finnischer Kollege schlug ihm schließlich vor zu einem ihm bekannten Professor nach Finnland zu gehen. Dieser würde ihm den Freiraum bieten an seinen Ideen zur Auflösungsgrenze zu arbeiten; falls dies glücken sollte, würden ihn die Deutschen schon bitten zurückzukommen. Hell landete dann mit einem Stipendium der Finnischen Akademie in Turku als ein unabhängiger Postdoc. Als er eines Morgens im Jahr 1993 über Quantenphänomene des Lichts las, blieb er an einer Seite hängen, die von stimulierter Emission handelte. Mit diesem Phänomen, das jeder Physiker in seinem ersten Studienjahr kennenlernt, sollte es möglich sein die Auflösungsgrenze zu umgehen - zumindest was Fluoreszenzmessungen betrifft.

Das Problem der optischen Auflösung war ja, dass eine Linse keinen Lichtfleck produzieren kann, der schärfer als 200 nm ist und alle Moleküle, die in diesem Fleck durch Licht angeregt werden, dann zusammen Fluoreszenzlicht emittieren. Sollte es allerdings gelingen einen Teil der Moleküle in einen Zustand zu bringen, in dem sie kein Licht emittieren können, dann würde die Fluoreszenz von einem engeren räumlichen Bereich als dem Anregungsspot kommen und damit eine höhere Auflösung erbringen.

Die Schlüsselidee war also nicht an der Linse herum zu probieren, sondern mit dem Energiezustand der Moleküle zu spielen.

Das Konzept: ein physikalischer Trick mittels "Stimulierter Emissionsauslöschung (STED)"

In einem Fluorophor gibt es einen Grundzustand und einen angeregten Zustand (s. Abbildung 2). Der letztere ist ein heller Zustand, das Molekül emittiert ein Photon. Im Grundzustand kann das Molekül kein Photon erzeugen, es ist ein dunkler Zustand. Licht kann nun nicht nur ein Molekül anregen, sondern auch ein angeregtes Molekül schlagartig abregen und zwar durch 'stimulierte Emission', einen Prozess, der bereits von Einstein vorhergesagt worden war (Abbildung 4a).

Werden (mit z.B grünem Licht) die Fluorophore angeregt, so emittieren diese normalerweise längerwelliges – hier orange dargestelltes – Fluoreszenzlicht, aus dem grünen Lichtfleck, dessen Auflösung durch die Lichtbeugung limitiert ist. Wird nun aber gleichzeitig längerwelliges (rot dargestelltes) Licht eingestrahlt, so werden die Moleküle in den dunklen Zustand überführt. Ab einem Schwellwert der Intensität (Is) des stimulierenden roten Lichtes wird die Fluoreszenz praktisch vollkommen abgeschaltet.

Abbildung 4. Prinzip des STED-Mikroskops (STimulated Emission Depletion - Stimulierte Emissionsauslöschung). a) Anregung der Fluoreszenzemission durch einen grünen Lichtpuls, und Abregung durch einen roten Lichtpuls. (Die Fluoreszenzemission erfolgt im Bereich von Nanosekunden, die Molekülschwingungen in Pikosekunden) b) Schema des STED-Mikroskops: in der Brennebene des Objektivs überlappen synchron Anregungslichtpuls und doughnut-förmiger Abregungslichtpuls. c) Die Wahrscheinlichkeit für ein Molekül, sich im angeregten hellen Zustand (S1) zu befinden. Oberhalb eines Schwellwertes seiner Intensität Is schaltet der doughnut-förmige Abregungslichtpuls die Fluoreszenzemission de facto ab - nur in seinem Zentrum bleibt der S1-Zustand erlaubt, Moleküle können dort fluoreszieren, und dies führt damit zu Bildern weit unterhalb der Beugungsgrenze. (Hell & Wichmann, 1994 Opt. Letters)

Nun kann man sich bereits vorstellen, wie ein mit stimulierter Emissionsauslöschung arbeitendes Mikroskop funktioniert: Es wird nur ein Teil der Fluoreszenzemission abgeschaltet. Am besten gelingt dies, wenn der rote Lichtstrahl einen doughnut-förmigen Ring im Außenbereich des grünen Anregungsspots bildet - die Emissions-Signale kommen dann nur mehr von den Molekülen im Zentrum. Mit diesem verkleinerten Bereich, für den Moleküle fluoreszieren können, kann man nun über das Probenfeld rastern lassen und das Fluoreszenzlicht mit einer wesentlich höheren Auflösung registrieren als ein normales durch die Lichtbeugung limitiertes Mikroskop (Abbildung 4b, c).

Dieses Konzept hatte Stefan Hell bereits 1994 veröffentlicht - nicht gerade in einem Journal, wie man es von der großen Bedeutung dieser Idee in der Folge erwarten würde - und dann in den USA und in Europa publik zu machen versucht. Er hoffte einen Job, ein Labor angeboten zu bekommen. Man hielt aber die Auflösung im Nanoskalenbereich nicht für möglich. Erst 1997 boten ihm die damaligen Direktoren am Max-Planck-Institut für biophysikalische Chemie in Göttingen (insbesondere auch Tom Jovin, Anm. Red.) die Möglichkeit, als Leiter einer selbstständigen Nachwuchsgruppe dieses Konzept weiter zu erkunden, seine Richtigkeit zu bestätigen.

Die STED-Mikroskopie funktioniert

Es stellte sich heraus, dass das Konzept hervorragend funktionierte. In der Folge erzielten Hell und seine Kollegen Aufnahmen, deren Auflösung weit jenseits der Beugungsgrenze lag. Dies sollen einige Beispiele in Abbildung 5 verdeutlichen.

Abbildung 5. Beispiele für die mit dem STED-Mikroskop erhaltene Auflösung. Oben: Architektur der Kernporen in der Membran eines intakten Zellkerns im Vergleich mit konventioneller konfokaler Mikroskopie. Insert: der Ring mit achtfach-symmetrischer Anordnung eines Proteins hat einen Durchmesser von rund 160 nm, ca. 20 nm Auflösung ermöglichen die getrennte Darstellung der Untereinheiten mit STED-Nanoskopie. Mitte: Das Hüllprotein Env (rot) sammelt sich mit zunehmender Reifung des HIV-Virus (grün) auf dessen Oberfläche an einer Stelle. (Reifes Partikel: oben). Unten: Dendriten in der visuellen Hirnrinde einer lebenden Maus mit den synaptischen Enden. Mittels Zeitrafferaufnahmen wurde deren Plastizität gezeigt.

Beispiel aus der Zellbiologie:

Das STED-Bild des Kernporenkomplexes in der Membran des Zellkerns zeigt eine rund zehnmal höhere Auflösung als es mit konventioneller Mikroskopie (links) möglich ist. Die Architektur der Pore mit einer achtfachen Symmetrie der Protein-Untereinheiten (jeweils Durchmesser 20 - 40 nm) wird deutlich.

Beispiel aus der Virologie:

Viren sind für die konventionelle Lichtmikroskopie zu klein (Durchmesser 30 -150 nm). Will man dann noch die Proteine auf der Virushülle sehen, so ist das auch mit der Elektronenmikroskopie sehr schwierig. Beispielsweise sitzen 15 - 40 Kopien des Env(elope) Proteins auf der Oberfläche eines HIV-Virus. Mit Hilfe der STED-Mikroskopie konnten die Forscher zeigen, dass diese Proteine bei Reifung des Virus sich zu einem einzigen Env-Cluster zusammenfinden - offensichtlich eine Voraussetzung für die Infektiösität.

Beispiel aus der Neurophysiologie:

Ein Blick in das Hirngewebe einer lebenden, Gen-manipulierten Maus, deren Neuronen das fluoreszierendes Protein YFP ("yellow fluorescent protein") exprimieren. In 20 µm Tiefe, in der oberen Schichte der visuellen Hirnrinde sieht man einen Teil eines Dendriten mit den sogenannten" Dornenfortsätzen" - den becherförmigen signal-empfangenden Teilen der Synapsen. Zeitrafferaufnahmen in 5-Minuten-Intervallen zeigen, dass sich diese Dornfortsätze offensichtlich verändern, leicht bewegen, dass eine gewisse Plastizität im Gehirn besteht. Diese Ergebnisse geben zum Optimismus Anlass, dass man mittels STED auch die Vorgänge der Signalübertragung direkt an den Synapsen verfolgen wird können.

Das STED-Mikroskop

Nach anfänglichem Herumprobieren und Optimieren der Parameter, mit denen die Beugungsgrenze umgangen wird, ist das STED-Mikroskop nun am Markt erhältlich und wird von drei Firmen angeboten (Abbildung 6). Die Intensität des STED-Strahls kann so eingestellt werden, dass die Ausdehnung des Bereichs, in dem die Moleküle fluoreszieren können, beliebig verringert werden kann. Mit Lichtstrahlen für einen so verengten fluoreszenzfähigen Bereich wird die Probe abgerastert und somit ein Bild erstellt.

Abbildung 6. Das STED-Mikroskop im Laboraufbau und kommerziell angeboten (u.a. von Abberior Instruments, einer Firma, die Postdocs aus Hells Gruppe in Göttingen gegründet haben).

Die STED-Mikroskopie lässt sich mit dynamischen Methoden wie der Fluoreszenz-Korrelations-Spektroskopie und Techniken der schnellen Lichtstrahl-Rasterung kombinieren. Auch die Einzelmolekül-Methoden PALM/STORM basieren (wie das STED-Mikroskop) auf dem An- und Ausschalten der Fluoreszenzfähigkeit von Molekülen. Der wesentliche Unterschied in diesem Konzept besteht darin, dass dort nur wenige Moleküle angeregt werden, die jeweils weiter entfernt sind als die Beugungsgrenze von 200 nm und daher getrennt wahrgenommen werden können.

Für die Entwicklung der ultra-hochauflösenden Fluoreszenz-Mikroskopie wurde 2014 der Nobelpreis für Chemie verliehen. Gemeinsam mit Stefan Hell erhielten ihn Eric Betzig und William Moerner.

Wo liegt nun die Grenze der Auflösung?

Um Strukturen voneinander getrennt wahrnehmen zu können, hat man im 20. Jahrhundert versucht Licht so scharf wie möglich zu fokussieren. Auch die besten Linsen waren natürlich durch die Lichtbeugung begrenzt.

Heute wird die erzielte Auflösung durch das An- und Abschalten der fluoreszierenden Moleküle bestimmt, durch Schalten zwischen zwei Zuständen des Moleküls. Der Übergang zwischen zwei Zuständen gilt nicht unbedingt nur für fluoreszierende Moleküle. Es können beispielsweise auch Änderungen der Konformation (z.B. cis-trans-Übergänge, die dann auch fluoreszierend/dunkel sind), oder, denkbarerweise, der Absorption, der Streuung oder auch des Spinzustands als Zustandspaar herangezogen werden (Abbildung 7).

Abbildung 7. Ultra-Hochauflösung wird nicht mehr durch die Qualität der Linse sondern durch die Chemie des Moleküls bestimmt. Eine adaptierte Form von Abbes Formel zur Beugungsgrenze wurde aus dem STED-Konzept hergeleitet (I und Is: siehe Abbildung 4).

Heute hängt die Auflösung nicht mehr von der Qualität der Linse sondern von der Chemie des Moleküls ab. Dabei kann prinzipiell eine Auflösung bis in den Größenbereich des Moleküls selbst erzielt werden. Dies geht aus der adaptierten Abbe-Formel hervor, die aus STED-Studien hergeleitet wurde (Die Auflösung wird sehr hoch, wenn der Quotient aus Intensität des STED-Lichtstrahls und Schwellwert-Intensität sehr groß wird; Abbildung 7).

Der Weg zu Mikroskopen, die eine Auflösung bis hinab zur Molekülgröße - und damit ungeahnte Einblicke in die Mechanismen zellulärer Vorgänge - ermöglichen, ist klar. Es ist nur eine Frage der technischen Umsetzung.


*Der vorliegende Artikel ist eine verkürzte, deutsche Fassung des Vortrags "Unlimited sharp: light microscopy in the 21st century", den Stefan Hell am 9. November 2016 anlässlich der Verleihung des Wilhelm-Exner Preises in Wien gehalten hat. Video 45:50 min:  https://slideslive.com/38899163/unlimited-sharp-light-microscopy-in-the-...


Weiterführende Links

Artikel in ScienceBlog.at:

Redaktion 04.09.2015: Superauflösende Mikroskopie zeigt Aufbau und Dynamik der Bausteine in lebenden Zellen

inge Fri, 07.07.2017 - 10:23

Mütterliches Verhalten: Oxytocin schaltet von Selbstverteidigung auf Schutz der Nachkommen

Mütterliches Verhalten: Oxytocin schaltet von Selbstverteidigung auf Schutz der Nachkommen

Do, 29.06.2017 - 09:36 — Redaktion

RedaktionIcon Gehirn

 

Werden Muttertiere zusammen mit ihren Jungen einer Bedrohung ausgesetzt, so unterdrücken die Mütter ihren Trieb zur Selbstverteidigung und schalten auf Schutz ihrer Nachkommen. Wie eine eben im Journal eLife erschienene Untersuchung an Ratten zeigt , fungiert das "Kuschelhormon" Oxytocin in diesem Prozess als Schalter [1, 2]. Auf einen bestimmten Geruch als Gefahr konditionierte Rattenmütter geben die Information über die vermeintliche Gefahr an die Jungen weiter. Wird das Hormon durch einen Antagonisten blockiert, so hören Rattenmütter auf ihre Jungen zu schützen und die Jungen lernen auch nicht den Geruch als Gefahr zu sehen. *

Wenn ein Tier einer Bedrohung ausgesetzt ist, so muss es zwei Probleme abklären: zuerst die Bedrohung selbst -Welche Art von Bedrohung ist es? Wie nahe ist sie? - aber ebenso auch das nähere Umfeld - Kann ich entkommen? Gibt es einen Platz, wo ich mich verstecken kann? Aus einer Reihe möglicher Reaktionen muss das Tier muss dann seine Auswahl treffen: beispielsweise kann es versuchen die Bedrohung abzuwehren oder die Flucht zu ergreifen. Wenn kein sicherer Fluchtweg existiert, besteht eine andere Möglichkeit darin in Starre zu verfallen und zu hoffen, vom Feind nicht bemerkt zu werden. Die Starre kann eine durchaus gangbare Möglichkeit für ein einzelnes, auf sich gestelltes Tier bedeuten, es ist aber keine Alternative für ein Muttertier, das seinen jungen Nachwuchs beschützt. Solange diese Tiere noch sehr jung sind und noch nicht laufen können, gibt es als einzige Möglichkeit sich der Bedrohung entgegen zu stellen. Ist die Nachkommenschaft bereits etwas älter, kann es möglich sein diese in Sicherheit zu bringen. Abbildung 1.

Abbildung 1. Wie eine Rattenmutter auf eine Bedrohung reagiert, hängt vom Alter ihrer Jungen ab. Illustration: Karolina Rokosz. (Quelle: KZ Meyza & E Knapska [1]; der Artikel steht unter einer cc-by Lizenz)

Die neuronalen Mechanismen, die zu verschiedenen defensiven Reaktionen führen sind ganz gut verstanden, der bei weitem überwiegende Teil der heute vorliegenden Studien stützt sich allerdings ausschließlich auf Untersuchungen an männlichen Tieren. Darüber hinaus blieb häufig auch der elterliche Status unberücksichtigt. Im allgemeinen werden weibliche Ratten als weniger territorial als männliche Ratten betrachtet. Das Verhalten ändert sich aber, sobald sie Muttertiere werden: sie können sich gegenüber möglicherweise gefährlichen Eindringlingen aggressiv verhalten , sogar, wenn sie dabei selbst in Gefahr geraten.

Wie schaltet das Hirn zwischen Selbstverteidigung und Verteidigung des Nachwuchses?

Und wird das Repertoire der Verteidigungsmaßnahmen durch das Alter der Jungen beeinflusst?

Im Journal eLife berichtet nun ein Forscherteam (E Rickenbacher, RE Perry, RM Sullivan, M Moita vom Champalimaud Neuroscience Programme in Portugal und der New York University School of Medicine), dass in Gegenwart der Jungtiere die Reaktionen der Selbstverteidigung durch ein Hormon - das sogenannte Oxytocin - in dem als zentrale Amygdala ("Mandelkern") bezeichneten Bereich des Gehirns unterdrückt werden [1,2].

Oxytocin, ein aus 9 Aminosäuren bestehendes zyklisches Peptid, ist ein gut erforschtes Hormon. Es fördert soziale Bindungen, verursacht Kontraktionen von Uterus und Cervix während des Geschlechtsverkehrs und beim Geburtsvorgang und ebenso das Einschießen der Milch beim Säugen. Neulich wurde nun entdeckt, dass Oxytocin auch den Vorgang des Erstarrens reguliert.

Im allgemeinen wird Oxytocin in die Blutbahn ausgeschüttet. Bei der Angstreaktion erfolgt die Sekretion von Oxytocin aber direkt in die zentrale Amygdala - eine der Strukturen des Gehirns, die das Starrwerden kontrolliert.

In einer Reihe eleganter Untersuchungen zeigt nun das Forscherteam, dass Muttertiere in Gegenwart ihrer Jungen nicht in Erstarrung verfallen, wenn sie mit einer Bedrohung konfrontiert werden (in diesem Fall ist es ein schädlicher, mit Geruch verbundener Reiz). Wie sie nun reagieren, hängt vom Alter der Jungen ab. Solange diese noch sehr klein sind - d.i. zwischen 4 und 6 Tage alt - stellen sich die Mütter der Bedrohung. Sind die Jungtiere aber bereits älter - zwischen 19 und 21 Tage alt - so wendet sich das Muttertier ihnen zu und drängt sich mit diesen zusammen - vielleicht, weil die älteren Jungtiere im Notfall bereits weglaufen können. Abbildung 2.

Abbildung 2. Design des Experiments: Rattenmütter wurden mit Pfefferminzgeruch und einem gleichzeitigen elektrischen Schock konditioniert den Geruch als Gefahr zu sehen (oben): Das Verhalten der Muttertiere während einer weiteren Exposition mit Pfefferminze wurde in Gegenwart (A) und Abwesenheit (B) ihrer Jungen getestet. Unten: in Abwesenheit ihrer Jungen verfallen Muttertiere in Starre (Immobilität). Wie sie sich in Anwesenheit ihrer Jungen verhalten, hängt von deren Alter ab. Sind diese noch sehr klein (4 - 6 Tage nach der Geburt), wendet sich die Mutter dem Feind zu (ganz unten), sind diese bereits älter (19 - 21 Tage alt), so wenden sich die Mütter den Jungen zu und drängen sich mit diesen zusammen (nicht gezeigt). (Bild adaptiert nach Figure 1 in [2]. Der Artikel steht unter einer cc-by Lizenz.)

Dieses Verhaltensmuster ändert sich aber dramatisch, wenn ein Antagonist des Oxytocin genau in den zentralen Kern der Amygdala injiziert wird. Wenn die Oxytocin Wirkung durch den Antagonisten blockiert wird, so beginnen die Muttertiere sich so zu verhalten als ob keine Jungen vorhanden wären und auf bedrohliche Situationen mit einem Starrwerden zu reagieren.

Lernen von der Mutter

Diese Veränderung im Verhalten der Mütter hat erhebliche Auswirkungen auf die Kleinen. Unter normalen Umständen wird eine Rattenmutter in Gegenwart ihrer Jungen nicht starr werden, sondern eine Reihe aktiver Abwehrmaßnahmen zeigen. Während dieses Vorgangs lernen die Jungen den schädlichen Stimulus und den Geruch - beides für die Mutter bestimmte Reize - mit etwas Unangenehmen zu verbinden. Wenn die Mutter dagegen erstarrt, wird diese emotionale Information nicht von der Mutter auf die Kinder übertragen. Abbildung 3.

Abbildung 3. Von der Mutter erlerntes Angstverhalten. Nach der Konditionierung der Muttertiere wurde diesen 24 h später ein Oxytocin Antagonist/eine Kontrolle in die Amygdala injiziert und das Verhalten der Tiere gegenüber Pfefferminzgeruch getestet (nicht gezeigt). 2 - 3d später wurden dann Jungratten im Alter von 19 - 21 d ohne Muttertier dem Geruch ausgesetzt.. Von den mit Oxytocin Antagonisten behandelten Müttern stammende Junge haben nicht gelernt auf die Gefahr zu reagieren. (Bild adaptiert nach Figure 5 in [2]. Der Artikel steht unter einer cc-by Lizenz.)

Die Arbeit des Forscherteams beantwortet einige wichtige Fragen an und wirft auch neue Fragen auf. Ist es nur das Oxytocin im zentralen Kern der Amygdala, welches das Erstarren der Muttertiere unterdrückt? Auf welche Wiese lernen Jungtiere über Gefahren?

Die Beantwortung dieser Fragen wird die Neurowissenschafter noch Jahre beschäftigen.


[1] KZ Meyza & E Knapska: Maternal Behavior: Why mother rats protect their children. Insight Jun 13, 2017. eLife 2017;6:e28514 doi: 10.7554/eLife.28514 [2] E Rickenbacher, RE Perry, RM Sullivan, M Moita, Freezing suppression by oxytocin in central amygdala allows alternate defensive behaviours and mother-pup interactions. eLife 2017;6:e24080. DOI: 10.7554/eLife.24080


*Der vorliegende Artikel basiert auf dem unter [1] zitierten Insight Bericht des eLife Journals vom 13.Juni 2017: Maternal Behavior: Why mother rats protect their children. Dieser Bericht wurde weitestgehend wörtlich übersetzt und durch adaptierte Abbildungen aus der zugrundeliegenden Publikation [2] ergänzt: Die Inhalte der eLife Website stehen unter einer cc-by 3.0 Lizenz.


Weiterführende Links

zu Oxytocin

Benjamin Clanner-Engelshofen (2017): Oxytocin. http://www.netdoktor.de/medikamente/oxytocin/

Sue Carter (2017): Oxytocin and the Biology of Love: Too Much of a Good Thing? Video 4:39 min. http://www.medscape.com/viewarticle/879325

Paul Zak: Das Moralmolekül. TEDGlobal 2011 Video 16:34 min. (deutsches Transkript) https://www.ted.com/talks/paul_zak_trust_morality_and_oxytocin/transcrip...

Oxytocin - Video Learning - WizScience.com (englisch, Transkript) 2:22 min. https://www.youtube.com/watch?v=htdRq7BoUPM

Tobias Deschner, 15.08.2014: Konkurrenz, Kooperation und Hormone bei Schimpansen und Bonobos, http://scienceblog.at/konkurrenz-kooperation-und-hormone-bei-schimpansen....

Zum Journal eLife:
Homepage eLife: https://elifesciences.org/

Publishing important work in the life sciences: Randy Schekman at TEDxBerkeley (2014). 10:10 min. https://www.youtube.com/watch?v=-N4Mb8tsyT8

Redaktion,20.04.2017: Wissenschaftskommunikation: das open-access Journal eLife fasst Forschungsergebnisse für die Öffentlichkeit verständlich zusammen. http://scienceblog.at/wissenschaftskommunikation-open-access-journal-elife


inge Thu, 29.06.2017 - 09:36

Der naturwissenschaftliche Unterricht an unseren Schulen

Der naturwissenschaftliche Unterricht an unseren Schulen

Do, 22.06.2017 - 07:52 — Inge Schuster

Inge SchusterIcon Politik & GesellschaftDie ungemein stürmische Entwicklung der Naturwissenschaften und ihrer Anwendungen im letzten Jahrhundert prägt unsere Lebenswelt, spiegelt sich aber nicht in den Lehrplänen unserer Schulen wider. Der Fächerkanon und was wann und in welchem Ausmaß unterrichtet wird, hat sich kaum verändert, Chemie, Physik und Biologie sind unterrepräsentiert geblieben. Wie der jüngste PISA-Test zeigt, schneiden unsere Schüler in diesen Fächern nur mittelmäßig ab, haben zu wenig Interesse sich mit Naturwissenschaften zu beschäftigen und halten diese für ihr zukünftiges Berufsleben entbehrlich. Eine Bildungsreform, die ihren Namen verdient, sollte darauf hinarbeiten dem Naturwissenschaftsunterricht zu einem positiverem Image zu verhelfen und unserer Jugend Wissen und Können in diesen Fächern zu vermitteln, um sie auf eine naturwissenschaftlich orientierte Welt von Morgen vorzubereiten.

Eine Diskussion zur Reform des naturwissenschaftlichen Unterrichts

"Das ist wohl uns allen klar, dass bei jeder Mittelschulreform der nächsten Zeit die Naturwissenschaften eine stärkere Berücksichtigung finden müssen als bisher. Nicht umsonst liegt doch ein ganzes Jahrhundert, das man mit Vorliebe das Jahrhundert der Naturwissenschaften nennt, hinter uns, nicht umsonst ist doch der formale, der sachliche und ethische Bildungswert der Naturwissenschaften so oft betont und erwiesen worden."

Dies ist keine längst überfällige Einsicht der letzten Wochen: vielmehr stammt diese Erkenntnis aus einer breiten Reformdiskussion, die im Jahr 1908 über den naturwissenschaftlichen Unterricht an den österreichischen Mittelschulen stattfand [1]. In der Tat war die naturwissenschaftlich-technische und wirtschaftliche Entwicklung der zweiten Hälfte des 19. Jahrhunderts an den Lehrplänen der Schulen vorbeigegangen. Besonders stiefmütterlich war die Chemie im Unterricht behandelt worden - sie fristete als Anhängsel einerseits der Physik und andererseits der Mineralogie ein Schattendasein. Und dies obwohl man die Chemie als eine Grundwissenschaft t erkannt hatte "welche uns erst mit der Zusammensetzung und inneren Beschaffenheit der Körper bekannt macht, die für das Verständnis der Lebensvorgänge des Menschen, der Tiere und der Pflanzen ebenso notwendig wie für das Verständnis der Bildungsweise der Mineralien. Von ihrer großen praktischen Bedeutung hier ganz zu schweigen"[1]. In letzterer Hinsicht hatte die Chemie ja damals völlig neue, praktisch verwertbare Möglichkeiten geschaffen: von der Herstellung reiner Metalle mit Hilfe elektrochemischer Verfahren über die Erzeugung von Düngemitteln bis hin zur Synthese von Farbstoffen und Derivierung von Naturstoffen, die zur Produktion von Arzneimitteln führte. Eine neue Industrie , die chemische Industrie war entstanden. Konzerne wie BASF, Bayer, Hoechst in Deutschland oder in Österreich beispielsweise die Treibacher Werke waren gegründet worden.

In der Reformdiskussion vom Jahr 1908 stellte Rudolf Wegscheider, damals Professor für Chemie an der Universität Wien, aber auch klar:

"Der Chemieunterricht am Gymnasium ist nicht zu fordern vom Standpunkt der Heranbildung von Chemikern, sondern weil heute chemische (wie überhaupt naturwissenschaftliche) Kenntnisse ein notwendiger Bestandteil der allgemeinen Bildung sind und zahlreiche Hörer der Universität chemische Kenntnisse brauchen."[1]

Als wären seit damals nicht mehr als 100 Jahre vergangen

klingt es sehr ähnlich im Vorwort der vor einigen Monaten veröffentlichten Ergebnisse der PISA 2015 Studie (PISA bedeutet: OECD Programme for International Student Assessment ):

"Kenntnisse und Kompetenzen im Bereich Naturwissenschaften sind nicht nur für die berufliche Tätigkeit von Naturwissenschaftlern von Nutzen, sondern sie sind in einer durch naturwissenschaftliche Technologien geprägten Zeit auch Voraussetzung für eine volle gesellschaftliche Teilhabe. Deshalb sollte darauf hingearbeitet werden, dass der Naturwissenschaftsunterricht ein positiveres Image erhält, indem er als Wissensbereiche präsentiert wird, die interessant sind und Spaß machen." Um an anderer Stelle zu konstatieren: "Besorgniserregend ist, wie vielen jungen Menschen es nicht einmal gelingt, ein Grundniveau an Kompetenzen zu erreichen"[2].

Im 20. Jahrhundert kam es zur Wissensexplosion in den Naturwissenschaften

Basierend auf den Erkenntnissen des 19. Jahrhunderts haben sich die Naturwissenschaften in einem rasanten, sich selbst beschleunigendem Tempo weiterentwickelt. Es sind völlig neue Konzepte entstanden: von Raum und Zeit, vom Aufbau der Materie aus Elementarteilchen, von Aufbau und Evolution des Universums, von Struktur und Funktion einfacher Moleküle bis hin zu den molekularen Eigenschaften der Grundbausteine lebender Materie. Daraus resultierten technologische Entwicklungen - Basisinnovationen u.a. in Elektrotechnik, Petrochemie, Hightech-Materialien - , die unsere heutigen Lebenswelten prägen. Molekulare Biowissenschaften sind entstanden und haben uns fundamentale Erkenntnisse über physiologische Prozesse in Organismen und deren pathologische Entgleisungen gebracht: es sind dies die Grundlagen, die uns erstmals in die Lage versetzen kausal Krankheiten zu verhindern oder zu behandeln, Landwirtschaft bei sinkender Nutzfläche an die Erfordernisse einer wachsenden Weltbevölkerung nachhaltig anzupassen, Ursachen von Umweltproblemen gezielt abzuwehren und - mittels biotechnologischer Verfahren - Nutzorganismen für uns arbeiten lassen. Möglich wird dies alles erst durch eine Informationstechnologie, die uns weltweit vernetzt, die globales Wissen speichert und auf Basis des ungeheuren Datenmaterials uns zu einem mehr und mehr präzisen Modellieren/Vorhersagen komplexer Systeme und darin ablaufender Vorgänge befähigt.

Wie steht es um die naturwissenschaftliche Bildung an unseren Schulen?

Unter "§ 2. Aufgabe der österreichischen Schule" heißt es:

"Die Schule hat die Jugend mit dem für das Leben und den künftigen Beruf erforderlichen Wissen und Können auszustatten und zum selbsttätigen Bildungserwerb zu erziehen" (Schulorganisationsgesetz, Fassung vom 20.06.2017).

Man sollte also annehmen, dass die stürmische Entwicklung der Naturwissenschaften und ihrer Anwendungen im letzten Jahrhundert sich auch in den Lehrplänen unserer Schulen widerspiegelt, in denen nach wie vor gültige Grundlagen und darauf aufbauend ein Überblick über die relevantesten Erkenntnisse ihren Platz finden sollten. Zwangsläufig bedeutet dies eine Ausweitung des naturwissenschaftlichen Unterrichts

Ein Blick auf das Ausmaß naturwissenschaftlichen Unterrichts

während des letzten Jahrhunderts bietet ernüchternde Zahlen (Abbildung 1). Betrachten wir vorerst die allgemeinbildenden höheren Schulen (AHS), an denen während einer achtjährigen Schulzeit zweifellos ein Maximum an naturwissenschaftlicher Bildung vermittelt werden kann, so wurden im Jahr 1908 im Gymnasium für Physik, Chemie und Biologie (PCB) zusammengenommen rund 10 % der Unterrichtsszeit aufgewandt. Mehr als ein Jahrhundert später sind es nun gerade einmal 12,7 %. Nimmt man die Mathematik dazu (MPCB) so ist der Anteil an der Unterrichtsszeit von 20 auf 23,3 % gestiegen.

An Realgymnasien wird - wie der Name sagt - mehr Gewicht auf die realistischen Fächer gelegt. Hier war der Anteil von PCB am Unterricht von Anfang an etwas höher: er lag 1918 bei 11,6 % und ist in rund 100 Jahren nur schwach auf 14,8 % gestiegen; inklusive Mathematik betrug 1918 der Anteil am Unterricht 22 % und heute 25,4 %.

Abbildung 1.In den Gymnasien (G) und Realgymnasien(RG) ist im letzten Jahrhundert der Anteil der Unterrichtstunden in Naturwissenschaften (Physik (P), Chemie (C), Biologie (B)) und Mathematik am Gesamtunterricht nur schwach gestiegen. Es wurden die vollen 8 Jahre Ausbildung berücksichtigt. (1908/9: Zehn Jahre Welser Gymnasium, http://digi.landesbibliothek.at/viewer/image/AC08808691/19/#topDocAnchor, * bedeutet: der Anteil von PCB dürfte etwas höher sein, da auch in Geographie darüber gesprochen wurde ; 1918/19: XXX. Jahresbericht des öffentlichen Mädchen-Lyzeums und Reformgymnasiums in Linz, http://digi.landesbibliothek.at/viewer/image/AC04151117_30191819/42/#topDocAnchor; 1933/34: G: LXIII Jahresbericht des Bundesgymnasiums in Freistadt, OÖ, http://digi.landesbibliothek.at/viewer/image/AC11418645_1933/1/LOG_0003 / und RG: 45. Jahresbericht der städtischen Mädchenmittelschulen in Linz, http://digi.landesbibliothek.at/viewer/image/AC04151241_45193334/15/ ; 2004: Österreichischer AHS-Lehrplan im Bundesgesetzblatt kundgemacht (BGBl. II Nr. 133/2000), https://www.bmb.gv.at/schulen/unterricht/lp/lp_ahs_unterstufe.html, https://www.bmb.gv.at/schulen/unterricht/lp/lp_ahs_oberstufe.html).

Nun gibt es heute im Rahmen der schulautonomen Lehrplanbestimmungen die Möglichkeit Schwerpunkte zu setzen, u.a. einen naturwissenschaftlich-technischen/mathematischen Schwerpunkt und in der Oberstufe der AHS im schülerautonomen Bereich Wahlpflichtgegenstände. ( https://www.ris.bka.gv.at/GeltendeFassung.wxe?Abfrage=Bundesnormen&Geset... ). Sind hier adäquate Einrichtungen und Mittel vorhanden und vor allem Lehrer, die für Naturwissenschaften faszinieren können, so bietet dies einem Teil unserer Schüler die Möglichkeit eine vertiefte up-to-date Bildung in diesen Fächern zu erhalten. Für die Mehrheit der Schüler, deren Schwerpunkte in anderen Fachrichtungen liegen, wird dies vermutlich kaum der Fall sein.

Stundenpläne einst und jetzt

Abbildung 2 zeigt als repräsentative Beispiele die Stundenpläne des Realgymnasiums von heute (Klassen 1 - 4: Unterstufe, Sekundarstufe 1;Klassen 5 - 8: Oberstufe, Sekundarstufe 2) und im Schuljahr 1933/34. Der aktuelle Stundenplan der Unterstufe gleicht dem der Hauptschulen und Neuen Mittelschulen (NMS).

Was besonders ins Auge fällt: in über 80 Jahren, in denen sich die Welt komplett veränderte, hatte dies auf den Kanon der Fächer und die diesen zugeteilten Unterrichtsstunden kaum Einfluss. Wann und in welchem Ausmaß was unterrichtet wird, ist im Wesentlichen gleich geblieben. Auch, dass nach wie vor der Cluster Sprachen + Geschichte den umfangreichsten Teil im Unterricht bildet. Letzteres gilt noch mehr für die Stundenpläne an den Gymnasien (nicht gezeigt). Wesentlich reduziert wurde in beiden AHS-Formen der Unterricht in den klassischen Sprachen Latein und Griechisch (Latein ist ja für viele Studienrichtungen nicht mehr Voraussetzung). Abbildung 2. Der Stundenplan des Realgymnasiums heute und im Schuljahr 1933/34 (Bild: Links: https://www.bmb.gv.at/schulen/unterricht/lp/lp_ahs_unterstufe.html, https://www.bmb.gv.at/schulen/unterricht/lp/lp_ahs_oberstufe.html). und rechts: RG: 45. Jahresbericht der städtischen Mädchenmittelschulen in Linz, http://digi.landesbibliothek.at/viewer/image/AC04151241_45193334/15)

In Mathematik und den naturwissenschaftlichen Fächern gab es mit Ausnahme der Chemie hingegen kaum Änderungen. Für dieses besonders stiefmütterlich bedachte Fach wurden - zumindest seit den 1950er Jahren - zusätzliche 2 Stunden in den 4. Klassen der Unterstufe eigeführt.

Was sollten Schüler am Ende der Pflichtschule in den Naturwissenschaften wissen und können?

Gehen wir nun von den AHS-Absolventen zu den Schülern am Ende der Pflichtschulzeit.

Naturwissenschaften rangieren im österreichischen Unterrichtsministerium offensichtlich nicht unter Top Priority. So hat das Ministerium im Jahr 2009 für die 8. Schulstufe Bildungsstandards für die Pflichtfächer Deutsch, lebende Fremdsprache (Englisch) und Mathematik verordnet (StF: BGBl. II Nr. 1/2009 ), die nun seit dem Schuljahr 2011/12 flächendeckend am Ende der Pflichtschule (Hauptschule, NMS, Unterstufe der AHS) in einem Zyklus von fünf Jahren überprüft werden. Entsprechende Bildungsstandards in den Naturwissenschaften existieren aber (noch) nicht.

Die PISA-Studie 2015.....

Ein internationaler Leistungsvergleich erfolgt in der von der OECD beauftragten PISA Studie (Programme for International Student Assessment), die im Abstand von drei Jahren die Leistungen der 15- und 16-jährigen Schüler/innen in drei zentralen Bereichen – Lesen, Mathematik und Naturwissenschaften – erhebt und international vergleicht. Nach 2006 standen im Jahr 2015 die Naturwissenschaften wieder im Mittelpunkt des Tests, in geringerem Ausmaß wurden auch Lesekompetenz und Mathematik erhoben. Über 540 000 Schüler aus 72 Ländern nahmen 2015 an den Pisa-Tests teil, in Österreich waren es rund 7000 Schüler aus rund 270 Schulen.

Der Test evaluierte dabei drei Kompetenzen, von denen jede einen bestimmten Typ von Wissen über Naturwissenschaften voraussetzt: die Fähigkeiten

i) Phänomene naturwissenschaftlich zu erklären,

ii) naturwissenschaftliche Forschung zu bewerten und naturwissenschaftliche Experimente zu planen,

iii) Daten und Evidenz naturwissenschaftlich zu interpretieren.

Ohne nun auf die Art der Fragestellungen, den Verlauf der Testung und das Verfahren zur Quantifizierung der Ergebnisse auf einer Punkteskala eingehen zu wollen (und auf die darin kritisierten Punkte), gibt PISA durchaus einen Eindruck vom Wissen und Können im internationalen Vergleich. In der 2015-Testung erstreckt sich die Skala vom Durchschnittsergebnis über alle Länder von 493 Punkten nach höheren und niedrigeren Werten. Dabei liegt Singapur mit 556 Punkten an der Spitze der Wertung, die Dominikanische Republik mit 332 Punkten am unteren Ende.

... und die Ergebnisse für die österreichischen Schüler

Österreichs Schüler zeichneten sich leider nicht durch Leistungsstärke aus: mit einem Durchschnitt von 495 Punkten sind sie OECD-Durchschnitt. Unter den 38 OECD Ländern bedeutet dies nun nur mehr den 20. Platz. Unerfreulich ist auch, dass nur ein vergleichsweise sehr kleiner Anteil (7,7 %) dieser Schüler mit der naturwissenschaftlichen Kompetenz (Leistungsstufe größer/gleich 5) im internationalen Spitzenfeld lag, dagegen 20,8 % die naturwissenschaftliche Grundkompetenz (Leistungsstufe unter 2) nicht erreicht haben (unter 409,5 Punkte) . Abbildung 3.

Abbildung 3. Mittlere Punktzahlen auf der Gesamtskala Naturwissenschaften, 2006-2015 (oben) und Prozentsatz leistungsschwacher und besonders leistungsstarker Schüler (unten). (Bild: www.bildungswissenschaft.at Auszug aus [2]; mit freundlicher Genehmigung von Gerhard Riegler)

Bedenklicher als das mittelmäßige Abschneiden unserer Schüler erscheinen deren Einstellungen gegenüber Naturwissenschaften. Abbildung 4. Wesentlich weniger Schüler als im OECD-Schnitt finden Freude an Naturwissenschaften, sind bereit darüber zu lesen, zu lernen und sich mit naturwissenschaftlichen Problemen zu beschäftigen. Unter den OECD-Ländern zeigen nur die Niederländer ein ähnlich geringes Interesse wie die Österreicher.

Mit dem Desinteresse in Einklang meint (mehr als) die Hälfte der Schüler, dass es sich einfach nicht lohnt sich im Unterricht anzustrengen - dass die Jobaussichten damit nicht besser werden und dass sie für ihren künftigen Beruf Naturwissenschaften nicht brauchen werden.

Abbildung 4. Freude an Naturwissenschaften (oben) und Lernmotivation (unten). (Quelle: Auszug aus [2], oben: Tabelle I.3.1a, unten: Tabelle I.3.3a)

Es ist nicht von der Hand zu weisen, dass die Einstellung der Schüler zu den Naturwissenschaften und die Einschätzung der damit verbundenen Zukunftsaussichten von dem in unserem Land grassierenden Misstrauen diesen Fächern gegenüber geprägt sind.

Mangelnde naturwissenschaftliche Bildung führt ja dazu, dass in neuen Erkenntnissen und Anwendungen vor allem Gefahren gesehen werden und die Ängste die Positiva überdecken, die mit den neuen Möglichkeiten verbunden sind. Insbesondere ist das Bild der Chemie negativ besetzt - die Medien werden nicht müde die böse Chemie anzuprangern als Verursacherin von Umweltschäden, Vergiftungen, Nebenwirkungen von Medikamenten und, und, und.....Über die Schlüsselrolle, welche die Chemie in allen Bereichen unseres Lebens hat, wird kaum berichtet. Ebenso werden in der Biologie Gefahrenquellen gesehen; hier werden vor allem Ängste vor Gentechnik , vor der Humangenetik geschürt, Tierversuche verdammt. Dazu kommt die Furcht vor der Kernenergie, vor Versuchen in Teilchenbeschleunigern, vor Radioaktivität. An die Stelle von kritischen Risikoabwägungen treten Vorurteile und es wird Verschwörungstheorien Glauben geschenkt, beispielsweise zu den vermeintlichen Gefahren der Handystrahlung oder zu der Vergiftung durch Chemtrails. Wer im Internet nach einigermaßen seriösen Darstellungen/Videos zu einem naturwissenschaftlichen Thema sucht, muss sich durch einen riesigen Berg mit pseudowissenschaftlichen Inhalten durchkämpfen, deren Richtigkeit er häufig nicht abschätzen kann.

Fazit

Unsere Schulen können das Verständnis für Naturwissenschaften offensichtlich nicht ausreichend vermitteln. Das mag daran liegen, dass diese Fächer nicht ihrer Bedeutung entsprechend im Unterricht repräsentiert sind, aber auch, dass in unserer Gesellschaft ungenügendes naturwissenschaftliches Wissen nicht als Bildungslücke angesehen wird. Es mag auch an einem Mangel an kompetenten Lehrern liegen, die bereit sind gegen Vorurteile und Desinteresse anzukämpfen und für ihre Fächer Faszination auslösen können. Wie bereits eingangs zitiert muss also " darauf hingearbeitet werden, dass der Naturwissenschaftsunterricht ein positiveres Image erhält, indem er als Wissensbereiche präsentiert wird, die interessant sind und Spaß machen[2.]


[1] R.von Wettstein (als Präsident der k.k. zool.- bot. Gesellschaft): Der naturwissenschaftliche Unterricht an den österreichischen Mittelschulen. Bericht über die von der k. k. zoologisch-botanischen Gesellschaft in Wien veranstalteten Diskussionsabende und über die hiebei beschlossenen Reformvorschläge.1908, Wien.

[2] OECD (2016), PISA 2015 Ergebnisse (Band I): Exzellenz und Chancengerechtigkeit in der Bildung, PISA, W. Bertelsmann Verlag, Germany. DOI 10.3278/6004573w

[3] OECD (2016), PISA 2015 Results (Volume II): Policies and Practices for Successful Schools, PISA, http://dx.doi.org/10.1787/9789264267510-en


Weiterführende Links

Artikel im ScienceBlog zu verwandten Themen


 

 

inge Thu, 22.06.2017 - 07:52

Neue Einblicke in eine seltene Erkrankung der Haut

Neue Einblicke in eine seltene Erkrankung der Haut

Do, 15.06.2017 - 17:47 — Francis S. Collins

Francis S. CollinsIcon MedizinIchthyosen sind (zumeist) genetisch bedingte Störungen der Verhornung (Barrierebildung) unserer Haut, charakterisiert durch abnorm trockene, größere Schuppen bildende, verdickte Hautareale, welche die normalen Hautfunktionen stören. Bis jetzt haben Forscher mehr als 50 Mutationen von Genen identifiziert, die für unterschiedliche Typen und Subtypen dieser Krankheit verantwortlich sind. Ein NIH-gefördertes Forscherteam hat nun eine weitere genetische Ursache identifiziert, die wesentliche Auswirkungen auf die Therapie hat. Francis Collins, Direktor der US National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project" berichtet darüber.*

Die Haut ist das größte Organ des menschlichen Körpers und wir betrachten es meistens als selbstverständlich, was die Haut alles an großartigen Funktionen ausübt, um uns gesund zu erhalten. Nicht selbstversändlich ist dies aber für Menschen, die an sogenannten Ichthyosen leiden, d.i. die Sammelbezeichnung für einer Gruppe seltener schuppenbildender Hauterkrankungen (der Name leitet sich vom griechischen Wort für Fisch "ichthys" her). Jedes Jahr werden weltweit mehr als 16 000 Babys mit Ichthyosen geboren [1]. Bis jetzt haben Forscher mehr als 50 Mutationen von Genen identifiziert, die für unterschiedliche Typen und Subtypen dieser Krankheit verantwortlich sind. Ein NIH-gefördertes Forscherteam hat nun eine weitere genetische Ursache identifiziert und diese hat wichtige Auswirkungen auf die Therapie. Es handelt sich dabei um "Schreibfehler" in einem Gen, welches für ein Enzym kodiert, das in der Synthese von Ceramiden eine entscheidende Rolle spielt. Ceramide sind Lipidmoleküle, welche mithelfen die Haut feucht zu halten. Ohne normales Ceramid entwickelt die Haut schuppenähnliche Plaques, welche die Betroffenen anfällig für Infektionen und andere Hautprobleme werden lässt.

Der neue Typ von Ichthyose spricht auf Therapie mit Isotretinoin an

Zwei Patienten mit diesem neu identifizierten Typ der Ichthyose wurden mit Isotretinoin (Accutan) behandelt, einem Medikament, das üblicherweise gegen schwere Akne verschrieben wird (Isotretinoin ist der pharmakologisch aktive Vitamin A-Metabolit 13-cis Retinsäure, der in sehr niedriger Konzentration auch im Organismus vorkommt; Anm. Red.). Es zeigte sich, dass die Symptome praktisch vollständig verschwanden. Abbildung 1. Die Schlußfolgerung aus diesen Ergebnissen: Isotretinoin regt nicht nur den raschen Turnover der Hautzellen an sondern stimuliert die Haut auch zu einer verstärkten Produktion von Ceramid - allerdings geschieht dies über einen anderen biologischen Syntheseweg. Abbildung 1.Die Behandlung eines an progressiver symmetrischer Erythrokeratodermie (PSEK) leidenden Patienten mit Isotretinoin führt zur Normalisierung der Stirnhaut. (Mit freundlicher Genehmigung von of Keith Choate, Yale University School of Medicine, New Haven, CT)

Genetische Ursachen

Keith Choate (Yale University School of Medicine, New Haven, CT) hat seine wissenschaftliche Laufbahn der Forschung an Ichthyosen gewidmet. Das beinhaltet auch, dass er mit seinem Team daran arbeitet mehr als 800 betroffene Familien in das "Nationale Register für Ichthyosen und verwandte Hauterkrankungen" (das sich in Yale befindet) aufzunehmen. In der Fachzeitschrift The American Journal of Human Genetics ist eben eine Untersuchung erschienen, in der Choate und sein Team 750 der in diesem Register gelisteten betroffenen Personen getestet haben, um herauszufinden ob diese Träger einer der bereits bekannten zu Ichthyosen führenden Mutationen wären [2]. Insbesondere waren die Forscher aber daran interessiert Personen zu identifizieren, die keine der bekannten Mutationen aufwiesen. Derartige ungeklärte Fälle von Ichthyose könnten, ihrer Meinung nach, der Schlüssel zur Entdeckung weiterer Gene sein, die wichtige Rollen in gesunder und kranker Haut spielen. Die Testung ergab vier Patienten, die an einer rezessiven Form der Ichthyose litten - der sogenannten progressiven symmetrischen Erythrokeratodermie (PSEK) - und keine der bisher bekannten Mutationen aufwiesen. PSEK ist ein äußerst seltener Typ der Ichthyose, der Bereiche von roter, schuppenartig verdickter Haut zeigt, die symmetrisch über den Körper verteilt sind. Im Laufe der Zeit weiten sich diese betroffenen Stellen häufig aus und verschlimmern sich. Abbildung 2. Abbildung 2. Personen mit PSEK haben eine stark verdickte äußere Hautschichte - stratum corneum -, in welcher in den Zellen die Zellkerne (lila) noch zurückgeblieben sind. (Quelle: Keith Choate, Yale University School of Medicine, New Haven, CT) Auf der Suche nach dem zugrunde liegenden genetischen Defekt für diese Krankheit sequenzierten die Forscher von jedem der vier Patienten den für Proteine kodierenden Teil des Genoms, das sogenannte Exom, das bloß 1,5 % des gesamten Genoms ausmacht. Diese Exom-Sequenzen wiesen in allen Patienten Mutationen in einem Gen auf, das für das Enzym KDSR (3-Ketodihydrosphingosine Reductase) kodiert. Das erschien bemerkenswert: das Enzym KDSR spielt ja eine entscheidende Rolle in dem aus vielen Schritten bestehenden Prozess, mit dem die Haut Ceramide aufbaut. Interessanterweise schienen zwei der Träger von KDSR-Mutanten nur jeweils eine defekte Kopie des Gens zu besitzen. Das war verblüffend - die Forscher wussten ja , dass der Ichthyose-Typ rezessiv war, das heißt, dass zwei defekte Kopien des Gens notwendig waren, um die Krankheit hervorzurufen. Choates Team vermutete daher, dass die anscheinend gute zweite Kopie des KDSR-Gens eine Mutation haben müsste, die sich außerhalb der analysierten Exom-Sequenzen befand.

Die gestörte Ceramid-Synthese kann durch Isotretinoin wieder angekurbelt werden

Um dazu mehr zu erfahren, sequenzierten die Forscher das vollständige Genom von einer der beiden Personen. Tatsächlich zeigten die Sequenzdaten des ganzen Genoms, dass die anscheinend gute Kopie des KDSR-Gens im Genom in die falsche Richtung orientiert, vorlag und daher seine Funktion verloren hatte. Dass das KDSR-Gen tatsächlich nicht funktionierte und es damit zu Störungen in der Synthese des Haut-schützenden Ceramids kam, bestätigten weitere Untersuchungen an der Haut des Patienten. Der neue genetische Beweis vermag zu erklären, warum Isotretinoin so erstaunlich gut in der Behandlung dieser Form von Ichthyose gewirkt hat. Ceramid kann auf drei unterschiedlichen Wegen hergestellt werden:

  • Unsere Haut produziert Ceramide, indem sie die Lipide "von Null an" aus kleineren Bausteinen zusammensetzt. Es ist dies der Weg, der in Patienten mit PSEK unterbrochen ist.
  • Hautzellen können Ceramide aber auch produzieren, indem sie Zellmembranen abbauen, um Komponenten freizusetzen , welche über einen von zwei verwandten biochemischen Wegen in die Lipide umgewandelt werden.
  • Die neuen Befunde lassen den Schluss zu, dass Isotretinoin es den Zellen möglich macht ihren genetischen Defekt zu kompensieren, indem es sie stimuliert Ceramide über die alternativen Wege bereit zu stellen. Für Menschen mit Ichthyosen sind die Ergebnisse ermutigende Zeichen des Fortschritts. Für uns Andere streichen sie jedenfalls heraus, wie wichtig Ceramid - die aktive Komponente in vielen Feuchtigkeitscremen - zur Erhaltung einer gesunden Haut ist.
    [1] What is ichthyosis? Foundation for Ichthyosis & Related Skin Types. http://www.firstskinfoundation.org/what-is-ichthyosis [2] Mutations in KDSR cause recessive progressive symmetric erythrokeratoderma. Boyden LM, Vincent NG, Zhou J, Hu R, Craiglow BG, Bayliss SJ, Rosman IS, Lucky AW, Diaz LA, Goldsmith LA, Paller AS, Lifton RP, Baserga SJ, Choate KA. Am J Hum Genet. 2017 Jun 1;100(6):978-984. https://www.ncbi.nlm.nih.gov/pubmed/28575652
    *Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:"Skin Health: New Insights from a Rare Disease"" zuerst (am 6. Juni 2017) im NIH Director’s Blog: https://directorsblog.nih.gov/2017/06/06/skin-health-new-insights-from-a.. .Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).

    Weiterführende Links

    Ichthyosis Overview (National Institute of Arthritis and Musculoskeletal and Skin Diseases/NIH).

    Leben mit dem Haut-Gendefekt. Video 50 min. BBC worldwide.

    Zu Struktur und Funktion der Haut im ScienceBlog

    Inge Schuster , 17.07.2015: Unsere Haut – mehr als eine Hülle. Ein Überblick.

Redaktion Thu, 15.06.2017 - 14:49

Die Qual der Wahl: Was machen Pflanzen, wenn Rohstoffe knapp werden?

Die Qual der Wahl: Was machen Pflanzen, wenn Rohstoffe knapp werden?

Do, 08.06.2017 - 12:47 — Henrik Hartmann Henrik HartmannIcon BiologieDie Fähigkeit der Pflanzen, Sonnenenergie in chemischen Verbindungen zu speichern und für andere Lebensformen zur Verfügung zu stellen, macht sie zur Grundlage allen Lebens auf unserer Erde. Pflanzen spielen eine entscheidende Rolle in regionalen und globalen Stoff- und Energiekreisläufen und puffern anthropogen bedingte Kohlendioxid-Emissionen ab. Ähnlich wie Kleinunternehmen müssen sie dabei Ressourcen effizient verwalten und gewinnbringend investieren. Der Ökophysiologe Dr. Henrik Hartmann (Leiter der Forschungsgruppe "Plant Allocation" am Max-Planck-Institut für Biogeochemie in Jena) untersucht mit neu entwickelten Methoden, wie Pflanzen ihre Entscheidungen treffen.*

Pflanzen als Kleinunternehmer einer globalen Zuckerfabrik

Der globale Pflanzenbestand setzt jährlich enorme Mengen an Ressourcen um. Pflanzen binden durch Fotosynthese jedes Jahr etwa 123 Petagramm Kohlenstoff aus der Atmosphäre. Diese umgerechnet 123 Milliarden Tonnen entsprechen einem mit Kohle beladenen Güterzug, der 375-mal die Erde umspannt! Auch wenn der Großteil dieses Kohlenstoffs früher oder später durch Zellatmung wieder in die Atmosphäre abgegeben wird, stellt die durch Fotosynthese gebildete Biomasse die Nahrungsgrundlage für alle heterotrophen (nicht fotosynthetischen) Lebensformen wie Menschen, Tiere, Mikroorganismen und Pilze dar. In der Fotosynthese wird der Kohlenstoff zunächst zusammen mit Wasserstoff und Sauerstoff zu kurzen Molekülen mit sechs Kohlenstoffatomen, dem Traubenzucker, zusammengefasst, der als energiereicher Grundbaustein für alle anderen organischen Substanzen dient (siehe Abbildung 1).

Abbildung 1. Durch Fotosynthese wird mittels Sonnenergie und Wasser die Ressource CO2 in energiereichen Zucker (Kohlenhydrat) umgewandelt. Zucker und andere Kohlenhydrate verwenden Pflanzen als Grundbausteine der Biomasse (Zellulose), als Substrate für den Energiestoffwechsel (Zellatmung) und als Speicherstoffe (Stärke, Öle) . Den Kohlenstoffhaushalt einer Pflanze kann man mit der Bilanz eines Kleinunternehmens vergleichen: Der gebildete Zucker dient hier als Zahlungsmittel und als Rohstoff für die Produktion; die Pflanze kann damit Ausgaben begleichen, Investitionen tätigen und Produkte herstellen.© Hartmann & Trumbore

Die meisten Pflanzen sind sessile (festgewachsene) Organismen und können daher unwirtlichen Situationen wie Trockenheit oder Insektenbefall nicht durch Abwanderung entkommen. Sie müssen den zur Verfügung stehenden Zucker effizient und situationsgerecht verwenden, ähnlich einem Kleinunternehmen, das sich an Bedrohungen durch neue Marktsituationen mit gezielten Maßnahmen wie Investitionen anpassen muss.

Der Kohlenstoffhaushalt: eine Ressourcenbilanz der Pflanzen

Anders als bei einem Unternehmen sind die Entscheidungsmechanismen von Pflanzen in der Verwaltung ihrer Energie, Rohstoffe und Speicherstoffe oft nicht eindeutig. Wie reagieren Pflanzen auf konkrete Umwelteinflüsse durch Verteilung von Ressourcen? Wissenschaftlich Theorien gehen davon aus, dass Pflanzen unter Trockenstress mehr Ressourcen in ihr Wurzelwachstum stecken, um damit ein größeres Bodenvolumen auf der Suche nach Wasser erschließen zu können. Oder sie verteidigen sich gegen Angriffe von Fressfeinden, indem sie Substanzen herstellen, die sie entweder unattraktiv oder sogar giftig machen. Wie dabei knappe Ressourcen verteilt werden, bezeichnet man als Allokation.

Trotz ihrer offensichtlichen Schlüsselfunktion in der Reaktion auf widrige Umweltbedingungen sind die bisherigen Erkenntnisse zur Allokation ungenügend. Dies liegt vor allem daran, dass viele der Prozesse und Funktionen, die auf Kohlenstoff als Energie- oder Rohstoffquelle angewiesen sind, sich nicht oder nur schwer experimentell erfassen lassen, etwa wie die zum Wurzelwachstum notwendige Zellatmung im Wurzelbereich oder die Freisetzung flüchtiger Substanzen. Das hat zur Folge, dass sich viele Untersuchungen auf leicht erfassbare, Kohlenstoff-verbrauchende Einzelprozesse wie das Wachstum von struktureller Biomasse konzentrieren und somit nur ein Teilbild der Allokation vermitteln können. Mit einem solchen Teilbild lassen sich Pflanzen aber weder als gesamter Organismus noch in ihrem Zusammenspiel mit der Umwelt verstehen. Dies entspräche in der Analogie dem Versuch, die Finanzbilanz eines Unternehmens nur anhand der bestehenden Produktionsanlagen bewerten zu wollen, ohne dabei Einnahmen, Investitionen und Einlagen zu berücksichtigen.

Pflanzen unter Ressourcenlimitierung: Investitionsmuster werden deutlich

Die Fähigkeit eines Unternehmers, die richtigen Entscheidungen zu treffen, offenbart sich besonders in finanziell schwierigen Situationen. Die Forschungsgruppe Plant Allocation am Max-Planck-Institut für Biogeochemie wendet diese Logik auf Pflanzen an, um Muster, Prioritäten und Strategien der Kohlenstoffallokation zu erkennen. Mit einer eigens zu diesem Zweck entwickelten Anlage (siehe Abbildung 2) lassen sich der Kohlenstoffhaushalt der Pflanzen kontrollieren und ihre Ressourcen künstlich limitieren. Erfasst man all ihre Reaktionen, so wird die gesamte Kohlenstoffbilanz ermittelt, einschließlich schwer messbarer Verbrauchsprozesse wie die Wurzelatmung, die Abgabe flüchtiger Substanzen, das Erzeugen von Verteidigungsstoffen sowie die Speicherung des Kohlenstoffs. Diese Daten liefern dann umfassende Einblicke in die Ressourcenbilanz der Pflanze und deuten auf Entscheidungsmuster hin.

Abbildung 2. Anlage zur Reduzierung der CO2-Konzentration der Luft in Phytokammern. Die Anlage kontrolliert und erfasst den Kohlenstoffhaushalt der darin wachsenden Pflanzen. Durch Verwendung von isotopisch markierten Tracern lassen sich Flüsse von Elementen (etwa Kohlen- und Stickstoff) verfolgen und quantifizieren. Durch künstliches Absenken der CO2-Konzentration in der Luft, erleiden die Pflanzen eine Kohlenstoffunterversorgung. Die dabei entstehenden Verteilungsmuster zeigen Prioritäten in der Allokation auf. © moveslikenature

Wachstum oder Marketing, eine alte, aber immer noch offene Frage

Unternehmen schützen sich in einem heftig umkämpften Markt, indem sie beispielsweise ihre Produktion steigern oder aggressives Marketing betreiben. Auch Pflanzen wenden diverse Strategien zur Abwehr von Fressfeinden an. Sie steigern entweder ihr Wachstum oder bilden kostspielige chemische Abwehrsubstanzen. Aufgrund begrenzter Ressourcen muss eine Pflanze aber die Bildung von Abwehrstoffen gegenüber anderen Funktionen wie das Pflanzenwachstum abwägen. Eine kleine Pflanze mit wenigen Blättern muss diese vor Fressfeinden gut schützen, eine große Pflanze kann hingegen einige „billige“ Blätter opfern, ohne sich ernsthaft zu gefährden; so zumindest die Theorie.

Wie wichtig die Bildung von Abwehrstoffen für die Ressourcenbilanz der Pflanzen ist, wird dann am deutlichsten, wenn die Versorgung mit dem essentiellen Rohstoff Kohlenstoff knapp wird. Am Beispiel der Pfefferminzpflanzen zeigte sich, dass Abwehrstoffe zu produzieren hier einen sehr hohen Stellenwert hat, sogar höher als das Wachstum beizubehalten. Leidet die Pfefferminze unter starkem Kohlenstoffmangel, wird der Anteil des aktuell gebundenen Kohlenstoffs zur Bildung von Monoterpenen, dem Hauptbestandteil ätherischer Öle, beibehalten. Der Anteil für andere Kohlenstoff-verbrauchende Prozesse, wie das Pflanzenwachstum oder die Produktion von Speicherstoffen wird jedoch reduziert (siehe Abbildung 3, links). Interessanterweise wurde eine ähnliche Umverteilung der Ressourcen unter Kohlenstofflimitierung auch im Winterweizen beobachtet. Den aktuell gebundenen Kohlenstoff investierte diese Pflanze jedoch nicht in die Bildung von Abwehrstoffen, sondern in die Produktion flüchtiger Substanzen (siehe Abb. 3, rechts). Die Emission dieser flüchtigen Stoffe soll vermutlich physiologischen Stress der Pflanze mindern.

Abbildung 3. Schematische Darstellung von Allokationsmustern. Die Flächen stellen das Verhältnis des gesamten zur Verfügung stehenden Kohlenstoffs dar, die den jeweiligen Kohlenstoffpools der Pfefferminze (links) oder Funktionen im Winterweizen (rechts) zugeteilt wurden. (Links) Allokation zu Biomasse (Wachstum), Monoterpene (Abwehr) und Stärke und lösliche Zucker (Reserven) in der Pfefferminze. Unter Kohlenstoffmangel (rechte Pflanzenhälfte) werden, relativ zu anderen Investitionen, mehr Ressourcen in die Bildung von konstitutiven Abwehrstoffen gesteckt (größere Anteile an frisch-assimiliertem „neuem“ Kohlenstoff, dunkle Schattierung). Im Winterweizen (rechts) werden unter Kohlenstoffmangel (rechte Pflanzenhälfte) das Wachstum, die Bildung von Rücklagen und die Produktion von Abwehrstoffen zugunsten der Emission flüchtiger Substanzen zum Schutz gegen Stress im Vergleich zur Kontrolle (linke Pflanzenhälfte) zurückgefahren. © moveslikenature

Von vielen, oft komplexen Substanzen, die Pflanzen aufwändig herstellen und gasförmig ausscheiden, sind Funktion und Rolle für die Pflanze noch weitgehend unbekannt. Man nimmt an, dass einige davon wie der Kohlenwasserstoff Isopren oxidativen Stress mindern. Oxidativer Stress verändert Lipide, Proteine, Amino- und Nukleinsäuren und kann dadurch zu Störungen physiologischer Prozesse führen. Unabhängig von ihrer genauen Funktion ist zudem völlig ungewiss, wie die Herstellung und Emission flüchtiger Substanzen von der Kohlenstoffversorgung der Pflanze abhängen. Dieser Frage geht die Forschungsgruppe Plant Allocation zurzeit unter Mitwirkung des Max-Planck-Instituts für Chemische Ökologie in Jena nach. Erste Ergebnisse zeigen, dass auch Fichten unter experimentellem Kohlenstoffmangel die Produktion und Emission flüchtiger Substanzen wie Mono- und Sequiterpene hochfahren. Wahrscheinlich tun sie dies ebenfalls, um oxidativen Stress zu reduzieren. Mit steigender Zufuhr von Kohlenstoff steigt dann die Ausgasung von Methanol und Aceton an, die möglicherweise als Abfallprodukte des gesteigerten Stoffwechsels anfallen.

Pflanzen im Handel mit Partnern: wer bestimmt den Preis?

Der Handel mit anderen Unternehmen erlaubt es, die für die eigene Produktion notwendigen Ressourcen zu erwerben. Die Handelsbedingungen wie etwa die Preise bestimmt oft der stärkere Partner. Pflanzen handeln unter anderem mit Mykorrhizen, fadenförmigen Bodenpilzen, welche die Pflanzen bei der Aufnahme von Nährstoffen, insbesondere Phosphor, unterstützen und die die Pflanzen im Gegenzug mit energiereichen Zuckern versorgen. Doch wer bestimmt die Bedingungen in diesem symbiontischen Handel, die Pflanze oder der Pilz? Um dies zu untersuchen, wurde experimentell eine Situation geschaffen, in der es der Pflanze an Kohlenstoff mangelt, und sie gleichzeitig wichtige Nährstoffe aber nur durch den Handel mit dem Pilz beziehen kann: Reduziert man die Kohlenstoffbilanz des Spitzwegerichs, so wächst er geringer und verringert außerdem die Abgabe von Zucker an Mykorrhizen um rund 60 Prozent; er erhält jedoch im Gegenzug genauso viel Stickstoff wie unter normalen Bedingungen (Abbildung 4). Es scheint also, dass die Pflanze in diesem Handel der stärkere Partner ist, sie bestimmt den Preis. Der ausgeklügelte Versuchsaufbau erlaubte aber noch weitergehende Erkenntnisse: Unter Kohlenstoff-Mangel baut die Pflanze den neu fixierten Kohlenstoff wie auch den preisreduzierten Stickstoff des Pilzes verstärkt in den Spross und die Blätter, also die oberirdischen Pflanzenteile, ein. Der Gesamtorganismus investiert damit gezielt in die fotosynthetisch aktiven Organe, die den Kohlenstoffmangel ausgleichen sollen.

Abbildung 4. Untersuchungen des Ressourcenhandels zwischen Spitzwegerich und Mykorrhizen. Die Pflanze wächst in einem stickstofffreien Substrat. In dem durch ein feines doppeltes Gewebe abgetrennten Teil befindet sich der benötigte Stickstoff. Das Gewebe verhindert zum einen, dass Bodenlösung hinüberfließt und zum anderen, dass Pflanzenwurzeln hindurchdringen, ohne dabei jedoch die mit den Pflanzenwurzeln verbundenen viel feineren Pilzfäden auszugrenzen. Beide Partner sind notwendigerweise aufeinander angewiesen; die Pflanze kann nur durch den Handel mit dem Pilz an den im abgetrennten Teil eingelagerten Stickstoff gelangen. Unter Kohlenstoffmangel (rechts) verringert die Pflanze die Abgabe von Zucker an den Pilz um rund 60 Prozent (grüner Pfeil), ohne dabei Einbußen an Stickstoff hinnehmen zu müssen (gelber Pfeil). Zudem baut die Pflanze den neu fixierten Kohlenstoff und den Stickstoff des Pilzes verstärkt in die oberirdischen Pflanzenteile (Spross, Blätter) ein, weniger in die Wurzeln (Kuchendiagramme), um dadurch die fotosynthetische Kapazität zu erhöhen und den Kohlenstoffmangel besser kompensieren zu können. © moveslikenature.

Nächste Schritte: von Bilanzen zu langfristig festgelegten Strategien der Ressourcenverteilung

Die bisherigen Untersuchungen der Forschungsgruppe Plant Allocation ließen wichtige Muster der Ressourcenverteilung von Pflanzen erkennen: eine Art Zwischenbilanz der Kohlenstoffverteilung. Bilanzen bieten zwar eine Orientierung über zeitlich begrenzte Vermögens-, Finanz- und Ertragslagen, sagen jedoch wenig über die langfristig angelegte Planung, also die zugrunde liegende Unternehmensstrategie aus. Bei Lebewesen sind diese Pläne genetisch kodiert, sie werden durch gezielte Regulation von Genexpression und Enzymaktivität als Reaktion auf die aktuellen Umweltsituationen optimal umgesetzt. Bisherige Untersuchungen zur Analyse komplexer Pflanzenstrategien sind auf Zell- oder Gewebeebene beschränkt [10], Kenntnisse auf organismischer Ebene fehlen bislang. Aktuelle und zukünftige Projekte der Forschungsgruppe Plant Allocation untersuchen, wie Ressourcenänderungen genetisch verfügbare Reaktionsmuster und die Aktivierung von Proteinen beeinflussen, also wie der Gesamtorganismus einschließlich Symbionten und Schädlingen die Investitionsstrategie der Pflanzen umsetzt.


* Der unter demselben Titel " Die Qual der Wahl: Was machen Pflanzen, wenn Rohstoffe knapp werden? " im Jahrbuch der Max-Planck-Gesellschaft 2017 erschienene Artikel (https://www.mpg.de/11023678/mpi-bgc_jb_2017; DOI 10.17617/1.49)  wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint ungekürzt, allerdings ohne Literaturangaben, da diese großteils nicht frei zugänglich sind. Diese Veröffentlichungen sind im Jahrbuch ersichtlich und können auf Wunsch zugesandt werden.


Weiterführende Links:

H. Hartmann: Plant Allocation. Projekte und Publikationen (viele davon open access) https://www.bgc-jena.mpg.de/bgp/index.php/PlantAllocation/PlantAllocation

H.Hartmann et al., Das Jenaer Trockenstress-Experiment- Warum sterben Bäume, wenn das Wasser knapp wird? http://docslide.net/documents/das-jena-trockenstress-experiment-warum-st... (abgerufen am 7.6.2017)

Jenaer Experte zum Waldsterben: Über den Waldrand hinaus schauen. Interview mit H. Hartmann (7.12.2014) http://jena.otz.de/web/jena/startseite/detail/-/specific/Jenaer-Experte-...

Der Wald in einer CO2-reichen Welt http://www.waldwissen.net/wald/klima/wandel_co2/wsl_wald_co2/index_DE (abgerufen am 7.6.2017)

Artikel zum Themenkomplex Kohlenstoffkreislauf - Kohlenstoffspeicherung im Scienceblog

Christian Körner, 29.07.2016: Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt.

Redaktion, 26.06.2015: Die Erde ist ein großes chemisches Laboratorium – wie Gustav Tschermak vor 150 Jahren den Kohlenstoffkreislauf beschrieb

Walter Kutschera, 22.01.2016: Radiokohlenstoff als Indikator für Umweltveränderungen im Anthropozän

Rattan Lal, 27.11.2015: Boden - Der große Kohlenstoffspeicher

Rattan Lal, 11.12.2015: Der Boden – die Lösung globaler Probleme liegt unter unseren Füßen

Knut Ehlers, 01.04.2016: Der Boden - ein unsichtbares Ökosystem

Rupert Seidl, 18.03.2016: Störungen und Resilienz von Waldökosystemen im Klimawandel

Julia Pongratz & Christian Reick, 18.07.2014: Landwirtschaft pflügt das Klima um

Gerhard Glatzel, 21.03.2013: Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 1)

Gerhard Glatzel, 04.04.2013: Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 2)


 

inge Thu, 08.06.2017 - 00:47

Frauen in den Naturwissenschaften: die ersten Absolventinnen an der Universität Wien (1900 - 1919)

Frauen in den Naturwissenschaften: die ersten Absolventinnen an der Universität Wien (1900 - 1919)

Do, 01.06.2017 - 12:41 — Robert Rosner

Robert RosnerIcon WissenschaftsgeschichteWer waren die meist jungen Frauen, die sich im Wien der Jahrhundertwende, in einer Zeit, in der die Naturwissenschaften in Österreich wenig öffentliches Interesse fan­den, entschlossen, ein naturwissenschaftliches Studium aufzunehmen? Der Chemiker und Wissenschaftshistoriker Robert Rosner versucht an Hand der sogenannten „Nationale“ - Angaben, die alle Studenten zu Geburtsort, Religion, und Stand des Vaters oder Vormunds machen mussten - ein Bild dieser so ungewöhnlichen Frauen zu zeichnen.

In der reich­haltigen Literatur, welche die bürgerliche Gesellschaft in Wien (und Prag) um die Jahrhundertwende ausführlich beschreibt, beschäftigten sich junge Menschen - und erst recht die jungen Frauen - mit den schönen Dingen der Welt, mit Kunst, Theater oder Musik. In den Gymnasien - soweit Mädchen Gymnasien überhaupt besuchen konnten - wurde das Hauptgewicht auf Griechisch, Latein und Deutsch gelegt. Die Naturwissenschaften spielten eine untergeordnete Rolle, Chemie nur in zwei Klassen ein halbes Jahr lang als Nebengebiet der Physik unterrichtet. Es müssen also sehr ungewöhnliche Frauen gewesen sein, die sich um ein Doktorat in einem Fach der Naturwissenschaften bemühten, obwohl die Berufsmöglichkeiten gering waren. Bereit waren sich etwa „mit den Temperaturkoeffizienten einiger Jodelemente“ zu beschäftigen (Dissertation von Olga Steindler 1903) oder mit der „Esterbildung einiger Sulfosäuren“ (Dissertation der Margarete Furcht 1902).

Nachdem 1897 Frauen zum Studium an der philosophischen Fakultät der öster­reichischen Universitäten zugelassen wurden, waren es anfangs nur wenige, die tatsächlich ein Studium begannen, häufig mit der Absicht eine Lehramtsprüfung abzulegen, um dann an einem Gymnasium für Mädchen zu unterrichten. Nur ein Teil der ersten Studentinnen an den österreichischen Hochschulen schlossen das Studium mit einem Doktorat ab, gleichgültig in welchem Fach:

In Germanistik waren es drei Frauen, deren Dissertation 1903 angenommen wurde, in Anglistik und Romanistik je eine. In Mathematik gab es die erste Dissertation schon 1900, im Fach Botanik 1901 und im Fach Chemie 1902. Die oben erwähnte Olga Steindler promovierte im Fach Physik 1903; Abbildung 1.

Abbildung 1. Olga Steindler (1879 - 1933) promovierte 1903 als erste Physikerin an der Univ. Wien, legte im selben Jahr auch die Lehramtsprüfung für Mittelschulen ab, unterrichtete in Folge an einem Wiener Mädchengymnasium und befasste sich mit Themen aus dem Bereich der Optik (Rechts: aus Jahresbericht des Mädchen-Obergymnasiums mit Öffentlichkeitsrecht des Vereines für erweiterte Frauenbildung 14 1905/06, 4-11 ÖNB 496086-B.Neu) Bild: http://bit.ly/2qEaeZ5

Als in den folgenden Jahren die Zahl der Studentinnen wuchs, wurde ersichtlich, welche Fachgebiete besonderes Interesse fanden: Bis 1914 gab es In Germanistik nicht weniger als 54 Dissertationen, in Romanistik 14 und in Anglistik 6. Im selben Zeitraum wurden 11 mathematische, 22 botanische 18 chemische und 14 physikalische Dissertationen angenommen worden. In keinem naturwis­senschaft­lichen Fachgebiet gab es auch nur annähernd so viele Studienabschlüsse, wie in der Germanistik.

Die Zahl der Frauen, die an der Universität Wien ihr Studium in den vier Fächern, Mathematik, Botanik, Chemie und Physik mit einem Doktorat abschlossen, war in Relation zu der Zahl der Männer größer als an der Deutschen Universität in Prag und noch viel größer als an der Tschechischen Universität. Abbildung 2.

Zum Vergleich: 50 Jahre später, zwischen 1950 und 1955, war die Zahl der Studentinnen, die in den vier untersuchten Fachgebieten an der Universität Wien promovierten, zwar stark gestiegen aber das relative Verhältnis von Frauen zu Männern noch immer niedrig, mit Ausnahme des Fachs Botanik.

Abbildung 2. Studienabschlüsse in Mathematik, Physik, Chemie und Botanik von Frauen und Männern in den Jahren 1900 - 1914 und zum Vergleich von 1950 -1955.

Herkunft, Religion und Stand des Vaters/Vormundes der Studentinnen

An Hand der sogenannten „Nationale“ - dem Personaldatenblatt, das alle Studenten auszufüllen hatten, - konnten diese Daten von 85 % der Absolventinnen erhoben werden.

Bemerkenswert ist die niedrige Zahl der Studentinnen aus den Bundesländern des heutigen Österreich. Die Ursache dafür mag die geringe Zahl von Bildungsstätten für Mädchen in diesen Gebieten gewesen sein. Wie Otto Neurath in einem 1914 erschienen Artikel behauptete, war Galizien das Gebiet mit der höchsten Dichte an Mädchengymnasien. Abbildung 3 :

Abbildung 3. Herkunft und Religion der Frauen, die im Zeitraum 1900 - 1919 an der Universität Wien in Mathematik oder Naturwissenschaften promoviert haben.

Wenn man sich die Berufsstruktur der Väter anschaut, sieht man, dass die Väter der katholischen Studentinnen vorwiegend höhere Beamte in der Verwaltung, bei Gericht, bei der Nordbahn, in der Armee oder im Unterrichtswesen, waren aber nur wenige Anwälte oder Ärzte. Ähnlich war die Situation bei den Vätern der evangelischen Studentinnen; nur gab es bei ihnen relativ mehr Anwälte. Die Väter der jüdischen Studentinnen waren hingegen vorwiegend in der Privatwirtschaft tätig oder arbeiteten als Anwälte und Ärzte, nur wenige waren Lehrer oder im Staatsdienst tätig. Bemerkenswerte Unterschiede sind bei einzelnen Fachrichtungen festzustellen: bei den Vätern der katholischen Botanikstudentinnen, gab es mehrere, die in der Privatwirtschaft als Direktoren, Hoteliers oder Gutsbesitzer tätig waren.

Die geringe Anzahl von katholischen oder evangelischen Studentinnen, deren Väter in der Privatwirtschaft tätig waren, deutet allerdings darauf hin, dass es in diesem Teil des Bürgertums noch größere Vorurteile gegenüber einem Frauenstudium gab als beim jüdischen Bürgertum.

An der Deutschen Universität in Prag waren die Verhältnisse sehr ähnlich. Außer einem Universitätsprofessor und einem Arzt waren die Väter von den acht jüdischen Studentinnen in der Privatwirtschaft tätig, dagegen - mit Ausnahme eines Landwirts - die Väter von fünf katholischen Studentinnen höhere Beamte. Von den Vätern der zwei evangelischen Studentinnen war einer Professor, der andere Fabrikant.

Die Studienrichtungen

Abbildung 4 bringt eine Zusammenstellung der Studienabschlüsse von Frauen und Männern in den einzelnen Fachgebieten:

Abbildung 4. Promotionen an der Universität Wien in Mathematik und Naturwissenschaften zwischen 1900 und 1919.

Es gab Unterschiede der gesellschaftlichen Herkunft zwischen den Studentinnen der einzelnen Fachrichtungen aber auch zwischen denen, die noch vor dem Krieg ihr Studium abschlossen und denen, die erst während des Krieges promovierten.

Als bei Kriegsausbruch 1914 die Männer einberufen wurden, entstand ein Mangel an männlichen Dissertanten, die mit ihren Untersuchungen die Arbeit der Professoren und Dozenten unterstützen konnten. Es wurde nun für Frauen leichter sich um ein Doktoratsstudium zu bewerben, und es konnten - besonders in den naturwissenschaftlichen Fächern - auf einmal viel mehr Frauen ihr Studium mit einem Doktorat abschließen.

Das Mathematikstudium

hat für die spätere Ausübung des Lehramts wohl mehr Möglichkeiten geboten als ein reines Naturwissenschaftstudium, denn der Lehrplan sah sogar für die humanistischen Gymnasien in den 8 Mittelschuljahren 23 Stunden Mathematik vor, während sich die Fächer Physik und Chemie zusammen mit nur 13 Stunden begnügen mussten. Man kann außerdem davon ausgehen, dass der Abschluss eines Doktorats bei der Bewerbung um eine Stelle einen Vorteil bot.

Rund zwei Drittel der Mathmatikstudentinnen stammte aus Wien und etwas mehr als ein Drittel waren Jüdinnen. In keinem anderen Fachgebiet gab es einen so hohen Anteil an Töchtern von (Hochschul)Lehrern.

Das Chemiestudium

Für Chemikerinnen gab es wenige Möglichkeiten im Schulunterricht unterzukommen. Hingegen gab es zur Jahrhundert­wende in Wien und auch in anderen Teilen des Reiches zahlreiche Betriebe und Laboratorien, in denen die jungen Chemikerinnen offenbar hofften, eine Stellung zu finden. Elisabeth Ekl, die 1918 promovierte, war die einzige, die eine Anstellung als Assistentin erhielt, nämlich an der Technischen Hochschule in Wien, wo sie bis 1923 blieb. An der Universität wurde im untersuchten Zeitraum keine einzige Frau eingestellt.

Die Chemiestudentinnen stammten aus allen Teilen der Monarchie, wobei die größte Gruppe aus Wien kam.

Die erste Frau, die 1902 in Wien ein Chemiestudium beendete, war Jüdin und die Tochter eines Börsensensals. Bis 1914 gehörten rund zwei Drittel der Frauen der jüdischen Religion an, in den Kriegsjahren immerhin noch ein Drittel. Die Struktur der Berufe der Väter änderte sich in dem Maße, in dem es verhältnismäßig mehr katholische und weniger jüdische Studentinnen gab.

Das Physikstudium

Mehr als die Studentinnen der anderen Fachrichtungen waren es die Physikstudentinnen, die ein Studium begannen, um sich Wissen anzueignen in der Hoffnung als Wissenschaftlerinnen arbeiten zu können. Tatsächlich gelang dies in der ersten Generation der Lise Meitner (Abbildung 5). Für die Frauen jener Generation, die im Krieg studierte, sind Marietta Blau (Abbildung 5), Hilde Fonovits oder Elisabeth Bormann anzuführen. Andere beschäftigten sich später mit Kinderpsychologie (wie Hermine Hug von Hugenstein) oder mit Pädagogik und Erziehung (wie Olga Steindler, Abbildung 1) und drückten dem von ihnen gewählten Fachgebiet ihren Stempel auf. Es waren sehr bedeutende Frauen, deren Namen mit Recht in Lexika zu finden sind.

Es ist bemerkenswert, dass einige der Frauen der ersten Generation erst in einem relativ fortgeschrittenen Alter begannen Physik zu studieren. Nicht nur die Offizierstochter Hermine Hug von Hugenstein beendete ihr Studium mit 37 Jahren, auch die Pragerin Marie Buchmayer war 34 Jahre, als sie nach acht Semestern das Studium abschloss und Rosa Uzel, die Tochter eines hohen Beamten der Nordbahn, 32 Jahre. Auch andere, die 30 oder 31 Jahre alt waren, als sie nach einem regulären Studium fertig wurden, mussten offenbar große Schwierigkeiten überwinden bevor sie ihr Physikstudium aufnehmen konnten.

Abbildung 5. Lise Meitner - Mitentdeckerin der Kernspaltung - hat 1906 ihr Physikstudium an der Universität Wien abgeschlossen, Marietta Blau - Entwicklerin des photographischen Nachweises von Kernstrahlung - im Jahr 1919. (Bilder: Lise Meitner: gemeinfrei, adaptiert; MariettaBlau: R.Rosner,B.Strohmaier (Hrsg.): Marietta Blau – Sterne der Zertrümmerung, Biographie einer Wegbereiterin der modernen Teilchenphysik. 2003)

Lag das Verhältnis von Frauen zu Männern, die ihr Studium mit einem Doktorat abschlossen, vor dem Krieg bei 1 : 7, so war in den Kriegsjahren der Bedarf an Dissertantinnen so groß, dass sich das Verhältnis zwischen Männern und Frauen vollständig umdrehte und mehr als doppelt so viele Frauen promovierten. Mehr als 60 % dieser Frauen stammten aus Wien. Die angegebene Religionszugehörigkeit war bei rund 40 % der Studentinnen römisch katholisch, bei einem Drittel jüdisch.

Das Botanikstudium

Das Interesse am Studium der Botanik scheint zu Beginn des 20. Jahrhunderts größer gewesen zu sein, als am Studium der anderen besprochenen Disziplinen. Das Verhältnis zwischen Frauen und Männern lag mit etwas mehr als 1 : 4 niedriger als in der Mathematik (1 : 7), Chemie (1 : 12) oder Physik (1 : 7). Allerdings waren die Berufsaussichten nicht rosig: der Naturge­schichts­unterricht erfolgte in den Mittelschulen nur in der Unterstufe, die Botanik konnte demnach nur als Zweitfach dazu dienen eine Stelle an einer Mittelschule zu erhalten. Auch war die Botanik ein Fach, das nicht so viele Möglich­keiten bot in der Privatwirtschaft unterzukommen, wie es für die Chemie der Fall war.

Dass sich dennoch so viele Studentinnen für ein Botanikstudium entschieden, scheint darauf hinzuweisen, dass dieses Fach für Frauen besonders anziehend war. Es mag damit zusammen­hängen, dass in der traditionellen Frauenrolle in der Familie Gartenpflege, Blumen und dergleichen größere Bedeutung hatten als Themen der Chemie oder der Physik. Vielleicht war das der Grund, dass sich Ida Boltzmann, Tochter des Physikers Ludwig Boltzmann, für ein Botanikstudium entschloss, während ihr Bruder Andreas der Studienrichtung seines Vaters folgte. Eine der ersten Botanikstudentinnen war Emma Stiassny, die sich auch nach Abschluss ihres Studiums als Wissenschaftlerin einen Namen machte. Eine andere Botanikstudentin war Margarete Streicher, die neben Botanik Turnen als Zweitfach unterrichtete und später eine entscheidende Rolle bei der Modernisierung des Turnunterrichtes spielte.

Stammte zwischen 1900 und 1914 mehr als die Hälfte der 22 Studentinnen aus Wien, so sank deren Anteil während des Krieges zugunsten von Studentinnen aus Galizien und Mähren. Als Religionszugehörigkeit wurde vor und während des Krieges von 50 % der Studentinnen römisch-katholisch angegeben, der Anteil der Jüdinnen stieg dagegen von 18 % auf 45 %.

Fazit

Aus den Angaben, die Studentinnen bei der Inskription über Herkunft, Religionszugehörigkeit und Stand ihres Vaters, bzw. ihres Vormunds gemacht hatten, konnte ein grober Eindruck darüber gewonnen werden, aus welchen Gebieten und sozialen Schichten die jungen Frauen kamen, die sich für ein Studium an der Universität Wien entschieden. Unterschiede hinsichtlich der gesellschaftlichen Herkunft gab es zwischen den Studentinnen der einzelnen Fachrichtungen aber auch zwischen denen, die noch vor dem Krieg ihr Studium abschlossen und denen, die erst während des Krieges promovierten. Die geringe Anzahl von katholischen oder evangelischen Studentinnen, deren Väter in der Privatwirtschaft tätig waren, deutet allerdings darauf hin, dass es in diesem Teil des Bürgertums noch größere Vorurteile gegenüber einem Frauenstudium gab als beim jüdischen Bürgertum.


Weiterführende Links

Frauen in Bewegung: 1848-1938. Biographien, Vereinsprofile, Dokumente.

Artikel zu Frauen in den Naturwissenschaften im ScienceBlog

inge Thu, 01.06.2017 - 00:41

Der schlafende Wurm

Der schlafende Wurm

Do, 25.05.2017 - 15:36 — Henrik Bringmann Henrik BringmannIcon Gehirn

Wie und warum wir schlafen ist immer noch ein Rätsel. Schlaf ist wichtig für unsere Gesundheit. Doch wir wissen nicht, wie der Schlaf seine regenerierenden Kräfte entfaltet. Henrik Bringmann (Forschungsgruppenleiter am Max-Planck-Institut für Biophysikalische Chemie, Göttingen) widmet sich mit seinem Team diesen grundlegenden Fragen. Untersucht wird zurzeit der Schlaf in einem, molekularbiologisch betrachtet, sehr einfachen Modellorganismus: dem Fadenwurm Caenorhabditis elegans. Die Forscher konnten zeigen, dass nur ein einzelnes Neuron für das Schlafen dieser Würmer notwendig ist und das Einschlafen von einem definierten molekularen Mechanismus kontrolliert wird.*

Wie und warum schlafen wir?

Manchmal erscheint Schlaf wie Zeitverschwendung. Wir verbringen etwa ein Drittel unseres LebACens mAVit Schlafen. Welche wichtigen Dinge könnten wir alle erledigen, wenn wir nicht schlafen würden? Allerdings können wir auf Schlaf nicht verzichten! Schlafprobleme, insbesondere Ein- und Durchschlafprobleme, sind in unserer Gesellschaft weit verbreitet und die davon betroffenen Mitmenschen leiden unter den Folgen von schlechtem oder zu wenig Schlaf: Sie sind müde, unkonzentriert und wenig produktiv. Das schlafende Drittel unseres Lebens ist also gut investiert. Aber warum braucht unser Körpers Schlaf? Warum können wir uns nicht erholen, indem wir einfach nur wach im Bett liegen und nichts tun? Irgendetwas scheint im Schlaf regeneriert zu werden, aber was, ist nach wie vor ein Rätsel.

Nicht nur wir Menschen brauchen Schlaf, sondern auch Tiere. Schlaf wurde in allen darauf gründlich untersuchten Tieren nachgewiesen, die ein Nervensystem haben. Somit schlafen nicht nur Affen, Hunde und Vögel, sondern auch Schnecken, Fliegen und vermutlich sogar Quallen. Weil Schlaf im Tierreich so weit verbreitet ist geht man davon aus, dass er schon vor sehr langer Zeit entstand - vermutlich bereits nach oder mit der Entstehung von Nervensystemen. Möglicherweise reichen die Wurzeln des Schlafes aber noch weiter zurück.

Man geht davon aus, dass der Schlaf ähnliche Funktionen in verschiedenen Tierarten erfüllt. Daher sollte es möglich sein, durch das Studium von Schlaf in einfachen Modellorganismen bereits Grundlegendes über die Regulation und Funktion des Schlafes zu lernen, das auch für den Schlaf des Menschen von Bedeutung sein könnte. Modellsysteme, die aktuell für die Schlafforschung verwendet werden, reichen von Mäusen über Fische und Fliegen bis hin zu Würmern.

Das Gehirn kontrolliert den Schlaf

Zentral für die Kontrolle des Schlafes in Säugetieren sind spezialisierte Nervenzellen im Gehirn, sogenannte Schlaf-aktive, Schlaf-induzierende Neurone. Diese Nervenzellen werden beim Übergang von der Wach- in die Schlafphase aktiv und induzieren den Schlaf direkt durch das Ausschütten von inhibitorischen Neurotransmittern, nämlich Gammaaminobuttersäure (GABA) und Neuropeptiden. Dies führt zu einer Inhibierung von Wachsein-induzierenden Neuronen.

Schlaf ist somit ein aktiver Prozess, der vom Gehirn gesteuert wird und nicht eine passive Folge von Erschöpfung. Mit anderen Worten: Das Gehirn wird aktiv ausgeschaltet, damit es sich erholen kann. Über die Kontrolle von Schlaf-aktiven Nervenzellen ist nur wenig bekannt und man weiß bisher nicht, was zu einer Aktivierung von Schlaf-Neuronen zu Beginn des Schlafs führt.

Unsere Arbeitsgruppe möchte verstehen, wie Schlaf reguliert wird und wie der Schlaf seine regenerierende Wirkung entfaltet:

Versuchsobjekt ist der Fadenwurm Caenorhabditis elegans

C. elegans ist ein in der modernen Biologie etabliertes Modelltier für die Erforschung von grundlegenden molekularen Mechanismen. Die Arbeit mit C. elegans ist in vielerlei Hinsicht einfacher als die Arbeit mit Säugetiermodellen:

  • Der Wurm hat unter guten Wachstumsbedingungen eine kurze Generationszeit von nur knapp drei Tagen und er lässt sich in großen Mengen züchten - beides erlaubt umfassende genetische Untersuchungen.
  • Der Fadenwurm ist transparent, wodurch sich seine Gehirnaktivität und andere physiologische Prozesse nicht-invasiv beobachten lassen.
  • Nicht zuletzt hat der Wurm ein sehr kleines Gehirn, das aus nur rund 300 Nervenzellen besteht und deren Verknüpfung untereinander bekannt ist.

Wie andere Tiere schläft auch C. elegans. Juvenile Würmer schlafen mehr als adulte, und kranke Tiere mehr als gesunde. Die Arbeitsgruppe hat ein mikrofluidisches Verfahren entwickelt, mit dem die Würmer in winzigen Kammern gehalten und ihr Schlaf-Verhalten direkt untersucht werden kann (Abbildung 1).

Abbildung 1. Agrose-Hydrogel-Mikrokammern erlauben es, Caenorhabditis elegans zu kultivieren und die Entwicklung der Larven und ihren Schlaf zu beobachten. © Max-Planck-Institut für biophysikalische Chemie/Bringmann

Ein einziges Neuron reicht zum Einschlafen

Am Institut wurden genetische Screens durchgeführt, um Schlafmutanten zu identifizieren. Eine der daraufhin gefundenen Mutanten zeigte keinerlei messbaren Schlaf mehr. Dies konnte, so zeigte die nachfolgende Untersuchung, auf die Deletion von APTF-1, eines Transkriptionsfaktors aus der AP2-Familie, zurückgeführt werden.

Dieses Gen ist hochkonserviert und Mutationen in AP2 führen auch beim Menschen zu Schlafstörungen. Durch die Analyse von AP2 konnte ein einziges Neuron determiniert werden, das allein für den Wurm zum Schlafen notwendig ist: Ist nur dieses eine Neuron außer Funktion, wird der betreffende Wurm nie wieder schlafen können. Das Neuron, RIS genannt (Abbildung 2), enthält inhibitorische Neurotransmitter, und zwar, ähnlich wie bei Säugetieren, GABA und Neuropeptide.

Abbildung 2. Functional Imaging verschiedener Neurone inklusive des im Text beschriebenen RIS Neurons im Kopf eines nicht mutierten Exemplars von Caenorhabditis elegans (oben). Mitte: Lichtmikroskopische Aufnahme des Kopfes; unten: Überlagerung der oberen beiden Bilder. © Max-Planck-Institut für biophysikalische Chemie/Bringmann

Durch ein besonderes bildgebendes Verfahren, dem sogenannten funktionalen Imaging, konnte im Wurm-Gehirn gezeigt werden, dass das RIS-Neuron immer dann physiologisch aktiv wird, sobald ein Übergang vom Wach- zum Schlafzustand stattfindet (Abbildung 3).

Abbildung 3. Funktionales Calcium-Imaging zeigt, dass das RIS-Neuron in Caenorhabditis elegans spezifisch zu Beginn der Schlafphase aktiviert ist.(Rot stellt die Wachphase und blau die Schlafphase dar). Die untere Aufzeichnung zeigt die Beweglichkeit des Tieres. © Max-Planck-Institut für biophysikalische Chemie/Bringmann

Durch optogenetische Verfahren konnte der molekulare Mechanismus der Schlafinduktion aufgeklärt werden

Eine artifizielle, optogenetisch erzeugte Aktivierung von RIS durch einen lichtgesteuerten Ionenkanal kann zu jedem beliebigen Zeitpunkt ein waches Tier zum Schlafen bringen. Die Aktivierung des Neurons, wie bereits beschrieben, bewirkt, dass die inhibitorischen Neurotransmitter abgegeben werden mit der Folge, dass die Aktivität des Nervensystems global gedämpft wird. Der kritische Neurotransmitter, so zeigte sich, ist ein Peptid mit dem Namen FLP-11 (Abbildung 4). Das Schlaf-System von C. elegans hat somit eine erstaunliche Ähnlichkeit mit dem Schlaf-System der Säugetiere: Beide Systeme bestehen aus Schlaf-aktiven Schlaf-induzierenden Nervenzellen und nutzen GABA und Peptide zur Schlafeinleitung. Das RIS-System stellt dabei die ultimative Vereinfachung eines Schlaf-Systems dar, da es im Kern aus nur einer einzigen Schlaf-Nervenzelle besteht.

Abbildung 4. Ein Modell für das RIS Neuron, den Motor des Schlafes in Caenorhabditis elegans. (A) Transkriptionsfaktoren (LIM-6, APTF-1) bewirken die Expression der inhibitorischen Neurotransmitter GABA und FLP-11-Neuropeptide. Diese Transmitter sind stets im RIS Neuron vorhanden. (B) Zu Beginn der Schlafphase führt ein noch unbekanntes Signal, bedingt durch transiente Calcium Konzentrationsänderungen, zur Depolarisation von RIS und nachfolgend zum Ausschütten von FLP-11. Freigesetztes FLP-11 dämpft dann, vermutlich über einen endokrinen Mechanismus, die Aktivität von erregbaren Nervenzellen im Gehirn, was zum Schlafen führt. © Max-Planck-Institut für biophysikalische Chemie/Bringmann

Die Erforschung des Schlafneurons RIS in C. elegans stellt eine große Chance dar, die Regulation von Schlaf zu verstehen und mit überschaubarem Aufwand die Kontrolle des Schlafes in C. elegans aufzuklären. Wir wissen nur sehr wenig über die Funktionen des Schlafes. Sobald wir aber verstehen, wie Schlaf kontrolliert wird, können wir dieses Wissen nutzen, um Schlaf zu manipulieren oder die Menge des Schlafes und seine Qualität zu verändern und die Mechanismen, die dahinter stehen, aufzudecken.

C. elegans ist zwar ein hervorragendes System, um die Grundlagen des Schlafes zu eruieren. Doch der Schlaf in Säugetieren inklusive des Menschen ist deutlich komplexer als der Schlaf des Fadenwurmes. Wie können wir diese zusätzlichen Komplexitätsebenen studieren? Da der Schlaf der Tiere vermutlich einen gemeinsamen evolutionären Ursprung hat, sollte es möglich sein, Ergebnisse aus der Schlafforschung beim Wurm auch auf Säugetiermodelle zu übertragen. Ein etabliertes System hierfür ist die Maus, da sie molekularbiologisch zugänglich ist und ihr Schlafverhalten mittels Tests und physiologischen Untersuchungen beobachtet und gemessen werden kann. In vergleichenden Experimenten könnten beispielsweise homologe Gene der Maus ausgeschaltet werden, für die gezeigt wurde, dass sie den Schlaf in C. elegans kontrollieren. Die Ergebnisse könnten einen direkten Weg weisen, Schlafkrankheiten beim Menschen besser zu verstehen und zu behandeln.


Der unter dem Titel " Der schlafende Wurm" im Jahrbuch der Max-Planck-Gesellschaft 2017 erschienene Artikel ( https://www.mpg.de/10937350; DOI 10.17617/1.42 ) wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint ungekürzt, allerdings ohne Literaturangaben. Die links zu den großteils nicht frei zugänglichen Veröffentlichungen sind im Jahrbuch ersichtlich und können auf Wunsch zugesandt werden.


Weiterführende Links

Max-Planck-Institut für Biophysikalische Chemie (Göttingen) http://www.mpibpc.mpg.de/de

Exzellentes Video über den Wurm C. elegans als Modellsystem von Jason Pellettieri: Online Developmental Biology: Introduction to C. elegans Video 26:05 min (englisch) https://www.youtube.com/watch?v=zc1P7lGSzdU Standard-YouTube-Lizenz

A brief introduction to C. elegans. Video 2:11 min (englisch). https://www.youtube.com/watch?v=zjqLwPgLnV0 Standard-YouTube-Lizenz
Virtual Worm Project http://caltech.wormbase.org/virtualworm/ an effort to recreate the nematode Caenorhabditis elegans in virtual form using the "free open source 3D content creation suite," Blender.

Artikel zum Thema Schlaf im ScienceBlog:

Kontrolle der Schlafsteuerung in der Fruchtfliege: Gero Miesenböck, 23.02.2017: Optogenetik erleuchtet Informationsverarbeitung im Gehirn http://scienceblog.at/optogenetik-erleuchtet-informationsverarbeitung-im....

Redaktion, 09.02.2017: Die Schlafdauer global gesehen: aus mehr als 1 Billion Internetdaten ergibt sich erstmals ein quantitatives Bild. http://scienceblog.at/die-schlafdauer-global-gesehen-aus-mehr-als-1-bill....


 

inge Thu, 25.05.2017 - 15:36

Wie körperliche Bedürfnisse und physiologische Zustände die sensorische Wahrnehmung verändern

Wie körperliche Bedürfnisse und physiologische Zustände die sensorische Wahrnehmung verändern

Do, 11.05.2017 - 07:06 — Ilona Grunwald Kadow Ilona Grunwald KadowIcon Gehirn

Körperliche Verfassung und Lebensumstände können sowohl die Wahrnehmung als auch die Reaktion auf den Geruch oder Geschmack bestimmter Nahrung verändern. Was diese Veränderung jedoch auslöst, ist noch unklar. Die Autorin (ehem. Forschungsgruppenleiterin am MPI für Neurobiologie, jetzt Professor für Nervensystem und Metabolismus an der TU München) konnte zeigen, dass befruchtete Weibchen der Fruchtfliege (Drosophila melanogaster) nach der Befruchtung polyaminreiche Nahrung bevorzugen und diese mittels bestimmter Geruchs- und Geschmacksrezeptoren identifizieren. Körperliche Bedürfnisse können also die Sinne und letztlich das Verhalten beeinflussen.*

Sinneseindrücke wie Geruch und Geschmack bilden die Basis für unser Verhalten, unsere Entscheidungen und unsere Präferenzen. Sie sind entscheidend bei der Wahl unserer Nahrung und ermöglichen es, Toxine, Bakterien, Pilze oder sonstige Verunreinigungen zu vermeiden. Unsere Sinne verändern sich aber auch je nach physiologischem Zustand und Bedürfnislage. Hunger erhöht nicht nur unser Interesse an Nahrung, sondern sensibilisiert auch unseren Geruchs- und Geschmackssinn.

Andere wichtige physiologische Veränderungen, zum Beispiel eine Schwangerschaft, beeinflussen ebenfalls die Wahrnehmung von Geruch und Geschmack. Eine große Frage in der neurobiologischen Forschung ist daher, wie der Körper mit dem Nervensystem kommuniziert, um unser Verhalten und unsere Nahrungspräferenzen an solche Zustandsveränderungen anzupassen. Nach wie vor ist unklar, wie die Sinnesveränderungen mit den physiologischen und metabolischen Bedürfnissen des Körpers verbunden sind. Diese Mechanismen haben die Neurobiologen am Max-Planck-Institut in Martinsried/München in der Fruchtfliege untersucht. In zwei aktuellen Arbeiten konzentrierten sie sich auf Polyamine, die ein essentieller Nahrungsbestandteil mit wichtiger Bedeutung für den tierischen und menschlichen Körper sind.

Polyamin-Rezeptoren fördern das Überleben und den Reproduktionserfolg

Polyamine tragen so charakteristische Namen wie Cadaverin, Spermin oder Putrescin (lateinisch putridus bedeutet faulig). Abbildung 1 (von Red. eingefügt).

Abbildung 1. Einige wichtige Polyamine. Es sind kleine, stark basische Verbindungen, die in allen lebenden Zellen vorkommen und essentielle physiologische Funktionen ausüben. (Bild von Red. eingefügt)

Was für uns Menschen und viele Tiere gerade in höheren Konzentrationen durchaus unangenehm riecht, ist gleichzeitig überlebenswichtig. Ein Mangel an Polyaminen wird mit neurodegenerativen Erkrankungen, Altern und Abnahme der Fruchtbarkeit in Verbindung gebracht. Neue Daten zeigen, dass Polyamine als Nahrungsergänzung das Herz schützen und so lebensverlängernd wirken können. Zu viel an bestimmten Polyaminen scheint hingegen bei der Entstehung von Krebs eine Rolle spielen. Obwohl der Körper Polyamine zum Teil selbst herstellt und ein weiterer Teil durch Darmbakterien produziert wird, muss ein variierender Anteil über die Nahrung aufgenommen werden. Mit fortschreitendem Alter sinkt die körpereigene Produktion, sodass die Aufnahme von Polyaminen mit der Nahrung dann immer wichtiger wird.

Das führte zu unserer Hypothese, dass die Polyaminaufnahme an die aktuellen Bedürfnisse des Körpers angepasst sein müsste. Ob und wie Polyamine erkannt werden und wie der Körper die Aufnahme an die jeweilige Bedürfnislage anpasst, war noch weitgehend unerforscht. Anhand des Modells der Fruchtfliege untersuchten die Neurobiologen daher, wie Tiere Polyamine wahrnehmen und welchen Einfluss Körper und Physiologie haben.

Verhaltensstudien an Fliegen...

Wie Verhaltensversuche zeigten, werden Fliegen vom Polyamingeruch stark angezogen; sie legen ihre Eier lieber auf polyaminreiche, ältere Früchte als auf frische. Durch eine Reihe von genetischen Experimenten fanden die Wissenschaftler heraus, dass Fliegen die Polyamine mit dem Geruchs- und Geschmackssinn wahrnehmen. Welche Geschmacks- und Geruchssinneszellen dabei aktiv wurden, zeigte sich unter dem Mikroskop (Abbildung 2).

Abbildung 2. Die chemosensorischen Nervenzellen im Bein der Fruchtfliege werden aktiv, wenn zwei evolutionär sehr alte Rezeptoren Polyamine erkennen. © MPI für Neurobiologie/Loschek

...kombiniert mit genetischen Studien

Durch die Kombination der Verhaltensstudien und genetischen Untersuchungen konnten die Forscher drei Rezeptoren identifizieren, die zu derselben Rezeptorklasse gehören und in den Sinneszellen den Geruch und Geschmack von Polyaminen vermitteln. Diese Rezeptoren gehören zu einer evolutionär sehr alten Klasse von Proteinen, den sogenannten ionotropischen Rezeptoren (IRs). Diese sind mit Rezeptoren verwandt, welche die synaptische Aktivität von Nervenzellen kontrollieren. Interessanterweise werden auch diese synaptischen Rezeptoren durch Polyamine, die unter anderem in synaptischen Vesikeln enthalten sind, beeinflusst. Warum bestimmte Geschmacks- und Geruchsrezeptoren nur spezifische Geschmäcke oder Gerüche erkennen, ist unklar. Die Ähnlichkeit zwischen IRs und synaptischen Rezeptoren könnte helfen, zu verstehen, warum Polyamine von IRs erkannt werden.

Die Ergebnisse zeigen, dass Fliegen eine polyaminreiche Nahrungsquelle zunächst über zwei dieser IRs (IR76b und IR41a) anhand des Geruchs finden (Abbildung 3). Dort hingelangt, erkennen die Geschmacksnervenzellen über den IR76b-Rezeptor zusammen mit einem Bitter-Rezeptor (GR66A)die Qualität der gefundenen Polyamine. Ähnlich wie bei uns Menschen scheint eine zu hohe Polyamin-Konzentration die Fliegen eher abzuschrecken. Sie fraßen oder legten ihre Eier nur dann auf polyaminreiches Futter, wenn zusätzliche Futterkomponenten wie zum Beispiel Zucker den bitteren Geschmack der Polyamine überdeckten.

Abbildung 3. Jeweils zwei Rezeptoren ermöglichen es der Fruchtfliege, die überlebenswichtigen Polyamine in der Nahrung aufzuspüren. © MPI für Neurobiologie/Gompel

Es ist denkbar, dass das Erkennen von Polyaminen mithilfe dieser Rezeptoren bereits früh in der Entwicklungsgeschichte das Überleben von Tieren verbessert hat, da wichtige Nahrungskomponenten gefunden und in der richtigen Menge aufgenommen werden konnten.

Die Untersuchungen der Forscher zeigten auch, dass sich zumindest Mücken vom Geruch der Polyamine ähnlich angezogen fühlen wie Fliegen. Während vergleichbare Mechanismen somit auch bei anderen Tierarten möglich sind, könnten die Ergebnisse ebenfalls bei der Bekämpfung für den Menschen gefährlicher Arten - wie z. B. der Asiatischen Tigermücke (Stegomyia albopicta) - interessant sein.

Neuropeptide verändern Wahrnehmen und Verhalten

Polyamine werden besonders bei körperlicher Belastung vermehrt gebraucht. Eine besonders große Herausforderung für den Organismus ist die Trächtigkeit/Schwangerschaft. Um die heranwachsenden Nachkommen optimal zu versorgen und gleichzeitig die eigenen, gesteigerten Körperfunktionen aufrecht zu erhalten, muss sich die Ernährung auf die geänderten Anforderungen umstellen.

Ähnlich wie beim Menschen oder der Maus wirken sich zusätzliche Polyamine in der Nahrung positiv auf den Reproduktionserfolg von Fliegen aus. So legten Tiere, die eine Nahrung mit hohem Polyaminanteil zu sich nahmen, mehr Eier und produzierten mehr Nachwuchs. Diese Daten legten die Vermutung nahe, dass tragende Weibchen ein höheres Interesse an dieser Art von Nahrung zeigen müssten. Tatsächlich fanden die Forscher, dass Fruchtfliegenweibchen nach der Paarung Nahrung mit einem höheren Polyamin-Anteil stärker bevorzugten als vor der Paarung. Eine Kombination aus Verhaltensstudien und physiologischen Untersuchungen ergab, dass die veränderte Anziehungskraft der Polyamine auf die Fliegen vor und nach der Paarung durch den Neuropeptid-Rezeptor SPR (Sex Peptid Rezeptor) und seinen Bindungspartner MIP (myoinhibitorisches Peptid) ausgelöst wird. Überraschenderweise bewirkte die Aktivierung des SPR nicht nur, dass die Weibchen überhaupt Eier legten, wie in vorangegangen Studien bereits gezeigt wurde, sondern sie veränderte direkt die Nervenübertragung in den Sinneszellen, die für die Erkennung von Polyamin-Geschmack und –Geruch zuständig sind. Diese Veränderung war ausreichend, um die Verhaltensänderung der Tiere zu erklären.

Neuropeptide verändern die Reizbarkeit oder Übertragungsleistung von Nervenverbindungen. Sie spielen in vielen wichtigen Prozessen eine Rolle. Zum Beispiel verändert sich die Wahrnehmung in Tieren, wenn sie hungrig sind, oder sich in einem bestimmten emotionalen oder physischen Zustand befinden. Die neuen Ergebnisse zeigen nun, dass in trächtigen Weibchen deutlich mehr SPR-Neuropeptid-Rezeptoren in die Oberflächen von polyaminsensitiven, chemosensorischen Nervenzellen eingebaut werden. Polyamine werden so bereits am Eingang der Verarbeitungskette von Gerüchen und Geschmäckern verstärkt wahrgenommen. Die Bedeutung des Rezeptors zeigte sich vor allem, als die Forscher durch eine genetische Modifikation das SPR-Vorkommen in Geruchs- und Geschmacksneuronen nicht-trächtiger Weibchen steigerten: Die Veränderung reichte aus, um die Nervenzellen von jungfräulichen Fliegen stärker auf Polyamine reagieren zu lassen. Letztendlich führte dies dazu, dass die Weibchen ihre Vorlieben änderten und wie ihre verpaarten Artgenossinnen die polyaminreiche Nahrungsquelle anflogen.

Zusammenspiel von Körper und Gehirn

Die Ergebnisse der Neurobiologen weisen auf einen Mechanismus hin, wie körperliche Veränderungen (hier Trächtigkeit oder Schwangerschaft) die chemosensorischen Nervenzellen modifizieren und so die Wahrnehmung wichtiger Nährstoffe und die Reaktion darauf verändern können (Abbildung 4).

Abbildung 4. Das Nervensystem und die inneren Organe interagieren, um beispielsweise physiologische Zustände zu kommunizieren. IR76b Nerven innervieren nicht nur das Gehirn und die Sinnesorgane, sondern auch die inneren Organe. Blau: Ovar, Rot: IR76b Nerven, Grün: Darm. © MPI für Neurobiologie/Loschek.

Welche Nervenverbindungen das Körperinnere, wie Darm und Reproduktionsorgane, mit dem Gehirn verbinden und wie sie genau kommunizieren, wollen die Forscher in weiteren Studien klären. Möglicherweise spielen Geschmacks- oder andere Rezeptormoleküle, die direkt Moleküle aus der Nahrung oder in den Reproduktionsorganen erkennen, eine Rolle. Da Geruch und Geschmack in Insekten und Säugetieren ähnlich verarbeitet werden, könnte ein entsprechender Mechanismus auch beim Menschen dafür sorgen, dass das heranwachsende Leben optimal versorgt ist.


* Der unter dem Titel " Wie körperliche Bedürfnisse und physiologische Zustände die sensorische Wahrnehmung verändern" im Jahrbuch der Max-Planck-Gesellschaft 2017 erschienene Artikel (https://www.mpg.de/10957858; ) wurde mit freundlicher Zustimmung der Autorin und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint ungekürzt, geringfügig für den Blog adaptiert (Abbildung 1 wurde von der Redaktion eingefügt und ebenso einige Absätze und Untertitel für's leichtere Scrollen), allerdings ohne Literaturangaben. Die großteils nicht frei zugänglichen Veröffentlichungen sind im Jahrbuch ersichtlich und können auf Wunsch zugesandt werden.


Weiterführende Links

Max-Planck-Institut für Neurobiologie http://www.neuro.mpg.de/ 

Wie der Geruchssinn funktioniert (Animationen): Max-Planck-Film 3:15 min. https://www.mpg.de/785777/Riechen https://www.mpg.de/785777/

Riechen Ulrich Pontes (2013) Riechen und Schmecken – oft unterschätzt. https://www.dasgehirn.info/wahrnehmen/riechen-schmecken/riechen-und-schm...

Im ScienceBlog

Themenschwerpunkt Sinneswahrnehmung/ Riechen und Schmecken: http://scienceblog.at/sinneswahrnehmung-riechen-schmecken



 

inge Fri, 05.05.2017 - 07:06

Überschreitungen von Diesel-Emissionen — Auswirkungen auf die globale Gesundheit und Umwelt

Überschreitungen von Diesel-Emissionen — Auswirkungen auf die globale Gesundheit und Umwelt

Do, 18.05.2017 - 15:33 — IIASA IIASAIcon Politik & Gesellschaft

Ausgehend von dem Skandal um die manipulierten Stickstoffoxidemissionen von Dieselmotoren im Jahr 2015 hat sich herausgestellt, dass unter realen Fahrbedingungen (die meisten) Dieselfahrzeuge die vorgeschriebenen Emissions-Grenzwerte nicht einhalten. Stickstoffoxide (NOx) entstehen als Nebenprodukte bei der Verbrennung fossiler Brennstoffe, wie beispielsweise Kohle oder Öl, und können die Gesundheit gefährden. Unter Beteiligung von IIASA-Forschern ist vorgestern eine Studie erschienen [1], die auf der Basis etablierter Modelle erstmals versucht die globalen Auswirkungen von NOx - Emissionen quantitativ zu erfassen. So werden Überschreitungen von Stickstoffoxid Emissionen weltweit mit rund 38 000 vorzeitigen Todesfällen im Jahr 2015 in Verbindung gebracht - hauptsächlich betroffen waren die Europäische Union, China und Indien.*

Weltweit tragen Stickstoffoxid-Abgase von mit Dieselkraftstoff betriebenen Autos, Lastwagen und Bussen wesentlich zu den Luftverschmutzung hervorgerufenen Todesfällen bei. Und diese Auswirkungen der Abgase steigen an – trotz gesetzlichen Grenzwerten. Als 2015 aufgedeckt wurde, dass Volkswagen und andere Hersteller Abschalteinrichtungen verwenden, um vor den Behörden zu verschleiern, dass ihre Dieselautos zu viel Stickstoffoxide (NOx: Sammelbezeichnung für die verschiedenen gasförmigen Oxide des Stickstoffs; Anm. Red.) produzieren, half dies das Abgasproblem in den Blickpunkt öffentlicher Aufmerksamkeit zu rücken. Das Problem liegt aber nicht nur bei den Abschalteinrichtungen.

Leichte wie auch schwere Dieselfahrzeuge stoßen im Straßenverkehr mehr NOx-Abgase aus als unter zertifizierten Testbedingungen im Labor. Die Gründe dafür sind vielfältig - reichen von Details in der Kalibrierung zu Störungen im Betrieb, mangelhafter Wartung, Manipulationen durch den Fahrzeughalter, absichtlicher Verwendung von Abschalteinrichtungen oder einfach fehlerhaften Verfahren in der Zertifizierungsprüfung. Abbildung 1.

Abbildung 1. Schwere wie auch leichte Nutzfahrzeuge stoßen im Straßenverkehr mehr NOx-Abgase aus als unter zertifizierten Testbedingungen im Labor. © Maznev Gennady | Shutterstock

Wieviel NOx wird von Dieselfahrzeugen emittiert?

Bis jetzt haben solide Daten über die Auswirkungen von Überschreitungen der NOx-Emissionen durch Dieselfahrzeuge gefehlt – sowohl in Hinblick auf die Volksgesundheit als auch auf die Umwelt. Eine neue Untersuchung, die eben im Journal Nature erschienen ist [1], hat nun die 11 wichtigsten Dieselfahrzeugmärkte untersucht, die im Jahr 2015 in Summe mehr als 80 % verkaufter neuer Dieselfahrzeuge repräsentieren (Australien, Brasilien, Kanada, China, EU, Indien, Japan, Mexiko, Russland, Südkorea und die USA). Dabei stellte sich heraus, dass unter realistischen Fahrbedingungen diese Fahrzeuge 13,2 Millionen Tonnen NOx emittieren, das sind um 4,6Mio Tonnen mehr als die auf Grund der offiziellen Labortests erwarteten 8,6 Mio Tonnen.

"Schwere Nutzfahrzeuge – gewerbliche Lastkraftfahrzeuge und Busse – trugen weltweit mit 76 % der gesamten NOx- Emissionen am meisten zu den Überschreitungen bei. Und die Fahrzeuge in fünf Märkten - in Brasilien, China, der EU, Indien und den USA - produzierten 90 % davon. In Hinblick auf leichte Diesel-Nutzfahrzeuge - PKWs und Lieferwagen - war die Europäische Union für nahezu 70 % der Emissionsüberschreitungen verantwortlich" konstatierte Josh Miller, Forscher am International Council on Clean Transportation (ICCT) und Ko-Erstautor der Studie.

Die IIASA-Forscher Zbigniew Klimont und Chris Heyes haben zu dieser Studie Daten über die globalen NOx- Emissionen aus dem IIASA Greenhouse gas - Air pollution Interactions and Synergies (GAINS) Modell beigetragen.

"Während global gesehen Dieselfahrzeuge im Straßenverkehr mit über 20 % zu den gesamten NOx- Emissionen beitragen, ist deren Anteil in einigen Regionen wesentlich höher; in der EU übersteigt der Anteil 40 %, wobei rund die Hälfte davon durch unzureichende Umsetzung bestehender Standards bedingt ist. Die Höhe der Emissionen kann auch die Erreichung anderer Umweltziele gefährden, welche die Einhaltung strengerer Emissionsnormen annehmen" meint Klimont.

Auswirkungen auf die Gesundheit

NOx sind Hauptverursacher der Luftverschmutzung in Form von bodennahem Ozon und sekundären partikelförmigen Stoffen. Langfristige Exposition gegenüber diesen Schadstoffen steht in direktem Zusammenhang mit gesundheitlichen Problemen. Diese schließen Behinderungen mit ein, verlorene Lebensjahre auf Grund von Schlaganfällen, ischämischen Herzerkrankungen, chronisch obstruktiven Lungenerkrankungen und Lungenkrebs. Insbesondere sind sensitive Personengruppen betroffen, die ein höheres Risiko für chronische Krankheiten haben wie z.B. die ältere Bevölkerung.

Um die Schäden abschätzen zu können, die durch NOx- Emissionen von Dieselfahrzeugen entstehen, hat die Studie nun Ergebnisse aus Untersuchungen im realen Fahrbetrieb mit globalen Atmosphärenmodellierungen, Satellitenbeobachtungen und Modellen zu Gesundheit, Ernteerträgen und Klima kombiniert.

Die Studie schätzt nun, dass auf Grund der NOx- Emissionsüberschreitungen durch Dieselfahrzeuge weltweit rund 38 000 vorzeitige Todesfälle eingetreten sind, der Großteil davon in der EU, in China und Indien. Abbildung 2. "Die Folgen für die Bevölkerung sind augenfällig," sagt Susan Anenberg Ko-Erstautorin der Studie und Mitbegründerin der Environmental Health Analytics, LLC. "Die jährliche Mortalität durch Ozonbelastung könnte um 10 % niedriger sein, wenn die NOx- Emissionen von Dieselfahrzeugen innerhalb der festgesetzten Normen lägen."

Abbildung 2. Durch NOx-Emissionen von Dieselfahrzeugen im Jahr 2015 verursachte vorzeitige Todesfälle. (Todesfälle durch NOx innerhalb der gesetzlichen Grenzwerte: blau, durch Emissionsüberschreitungen: schwarz und rot.). Abschätzungen für die 11 wichtigsten Dieselfahrzeugmärkte. © Annenberg et al, 2017

Für 2040 sagt die Studie voraus, dass die globalen Auswirkungen der NOx- Emissionen von Dieselfahrzeugen bereits 183 600 vorzeitige Todesfälle verursachen könnten, sofern die Regierungen nichts dagegen tun. In einigen Ländern könnte die Einführung der strengsten Richtlinien - wie sie anderswo schon etabliert sind - die Situation wesentlich verbessern. "Die wichtigste Einzelaktion zur Reduzierung der Gesundheitsfolgen von NOx- Emissionen ist, dass Länder für Schwerlaster eine EURO VI Auspuffemissions-Richtlinie anwenden und durchsetzen. Zusammen mit einer strengeren Einhaltung der Richtlinien für leichte Nutzfahrzeuge und Standards der nächsten Generation könnten so die Emissionsüberschreitungen nahezu eliminiert werden - Maßnahmen, mit denen im Jahr 2040 an die 174 000 durch Luftverschmutzung verursachte Todesfälle und 3 Millionen verlorene Lebensjahre vermieden werden könnten, " so Ray Minjares, Koautor der Studie und Leiter des Clean Air Program am ICCT.

Die wichtigsten Ergebnisse der Studie zusammengefasst:

  • Die infolge von Diesel NOx-Emissionen gestiegene Luftverschmutzung hat im Jahr 2015 weltweit 107 600 vorzeitige Todesfälle verursacht. Von diesen sind 38 000 auf "Überschreitungen der NOx- Emissionen" - d.i. Emissionen unter realistischen Fahrbedingungen verglichen mit Emissionen unter zertifizierten Labor-Testbedingungen - zurückzuführen. Rund 80 % dieser Todesfälle traten in drei Regionen auf: in der EU, in China und Indien. Im Vergleich dazu sind 2015 etwa 35 000 Menschen bei Verkehrsunfällen in den US gestorben und etwa 26 000 in der EU.
  • China erfuhr die schwerste Gesundheitsbelastung durch Diesel NOx-Emissionen (31 400 Tote, davon 10 700 durch Emissionsüberschreitungen), gefolgt von der EU (28 500 Tote, davon 11 500 durch Emissionsüberschreitungen) und Indien (26 700 Tote, davon 9 400 durch Emissionsüberschreitungen).
  • In der EU waren leichte Dieselfahrzeuge für 6 von 10 durch NOx-Emissionsüberschreitungen verursachte Todesfälle verantwortlich.
  • In den US passierten durch NOx-Emissionsüberschreitungen geschätzte 1 100 Todesfälle - schwere Nutzfahrzeuge führten zu 10 mal so vielen Toten wie die leichten Nutzfahrzeuge.
  • Im Labor hielten zertifizierte Fahrzeuge die vorgeschriebenen Emissionsgrenzwerte ein, unter realistischen Fahrbedingungen produzierten leichte Nutzfahrzeuge 2,3 mal so hohe Werte und schwere Nutzfahrzeuge 1,45 mal so hohe Werte.

[1] Anenberg S, Miller J, Minjares R, Du L, Henze D, Lacey F, Malley C, Emberson L, Franco V, Klimont Z, and Heyes C (2017). Impacts and mitigation of excess diesel NOx emissions in 11 major vehicle markets. Nature 15 May 2017.


* Der von der Redaktion aus dem Englischen übersetzte, für den Blog adaptierte Text und die Abbildungen 1 und 2 stammen von der am 15. Mai 2017 auf der Webseite des IIASA erschienenen Pressemitteilung “ Excess diesel emissions bring global health and environmental impacts" http://www.iiasa.ac.at/web/home/about/news/170515-air-diesel.html . IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website in unserem Blog zugestimmt.


Weiterführende Links

Aus dem Helmholtz Zentrum München (Deutsches Forschungszentrum für Gesundheit und Umwelt):

Weitere

Artikel über Luftschadstoffe im ScienceBlog

inge Thu, 18.05.2017 - 15:33

Manfred Eigen: Von "unmessbar" schnellen Reaktionen zur Evolution komplexer biologischer Systeme

Manfred Eigen: Von "unmessbar" schnellen Reaktionen zur Evolution komplexer biologischer Systeme

Do, 04.05.2017 - 10:04 — Inge Schuster

Inge SchusterIcon WissenschaftsgeschichteIn wenigen Tagen feiert Manfred Eigen seinen 90. Geburtstag. Der langjährige ehemalige Direktor am Max-Planck Institut für Biophysikalische Chemie in Göttingen ist einer der vielseitigsten deutschen Naturwissenschafter: Seine bahnbrechende Arbeiten haben das Tor zu bis dahin für unmessbar schnell gehaltenen chemischen Reaktionen und deren Mechanismen geöffnet. Seine Fragen zur Evolution haben zu Theorien der Selbstorganisation komplexer Moleküle geführt und daraus zur evolutiven Biotechnologie, einem neuen, kommerziellen Zweig der Biotechnologie. Eigen hat zahllose renommierteste Auszeichnungen und Ehrungen erhalten, die Krönung war der Nobelpreis für Chemie im Jahr 1967 . Mein Mann und ich hatten das Glück als Postdocs an Manfred Eigens Institut arbeiten zu können.

Manfred Eigen wird 90!

Wenn wir das Phänomen Leben als eine Regelmäßigkeit im Verhalten der Materie ansehen, so erhebt sich die Frage: Was für ein physikalisches Prinzip steht hinter einer solchen Verhaltensweise, und was beiwrkt es? (Manfred Eigen, Stufen zum Leben; 1987)Manfred Eigen 1992Abbildung 1. Manfred Eigen 1992

Sein Name ist auch vielen Nicht-Wissenschaftern geläufig, Manfred Eigen ist zweifellos ein Topstar unter den Naturwissenschaftern - enorm vielseitig, unkonventionell, ungemein kreativ und visionär.

Manfred Eigen blickt auf einen ungewöhnlichen Werdegang zurück. Am 9. Mai 1927 in Bochum als Sohn eines Kammermusikers geboren, wuchs er in einem Haus auf, das voll von Musik war, Musik, die ihn faszinierte, die ihn bald konzertreif Klavier spielen ließ. Gleichzeitig entstand aber auch sein Interesse an der Chemie; er experimentierte in einem kleinen Labor, das er sich daheim eingerichtet hatte. Dieses Leben wurde durch den 2. Weltkrieg abrupt unterbrochen: als er 15 Jahre alt war, wurde er als Luftwaffenhelfer eingezogen, im April 1945 von amerikanischen Truppen am Salzburger Flughafen gefangen genommen. Zu Kriegsende kam er frei und wanderte zusammen mit einem Freund zu Fuß nachhause: von Salzburg nach Bochum - rund 1000 km weit.

Göttingen - Hochburg der Naturwissenschaften

Die Frage, ob er nun Musiker oder Naturwissenschafter werden wolle, entschied der Achtzehnjährige zugunsten der Naturwissenschaften, die Musik sollte bis heute sein Hobby bleiben. Manfred Eigen machte sich im Sommer 1945 (größtenteils zu Fuß) nach Göttingen auf - damals wie heute eine Hochburg der Naturwissenschaften -, um an der dortigen Universität Physikalische Chemie zu studieren. Die Matura als Voraussetzung zum Studium hatte er (ohne weiteren Schulbesuch) als mündliche Prüfung abgelegt. Unter Anleitung des renommierten Physikochemikers Arnold Eucken entstand die Doktorarbeit über die "spezifische Wärme von schwerem Wasser " (D2O), Bestimmungen, für die Manfred Eigen ein spezielles Messgerät (ein hochpräzises Kalorimeter) baute, die ihm Aussagen über die Wechselwirkungen zwischen den Wassermolekülen und später zwischen Ionen in Lösung erlaubten.

Die Relaxationskinetik

Bereits um 1953 hatte Manfred Eigen die bahnbrechende Idee, wie bis dahin für unmessbar schnell gehaltene chemische Reaktionen - z.B. Neutralisierungsreaktionen - gemessen werden könnten. Mischte man vordem miteinander reagierende Komponenten zusammen und wollte die Produktbildung verfolgen, so nahm der Mischvorgang bereits 1 Millisekunde in Anspruch - schnellere Reaktionszeiten blieben damit unmessbar. Eigen umging das Mischproblem, er begann mit der fertigen Mischung und störte deren Gleichgewicht durch plötzliche Änderung - d.i. einer Änderung mit bis zu weniger als 1 Milliardstel Sekunde Dauer - eines physikalischen Parameters wie Druck, Temperatur oder elektrischem Feld. Das System ging nun – relaxierte – in das neue Gleichgewicht; aus dieser sogenannten Relaxationskinetik ließen sich die kinetischen Parameter auch der schnellsten Reaktionen relativ einfach bestimmen.

Eigen veröffentlichte diese Entdeckung 1954; er hatte nun bereits ein Labor am neu gegründeten Max-Planck Institut für Physikalische Chemie in Göttingen, das aus dem ehemaligen Kaiser Wilhelm Friedrich Institut in Berlin entstanden war. Der Belgier Leo de Maeyer stieß zu der jungen Gruppe und trug wesentlich zur Weiterentwicklung der Relaxationsmethoden bei. Die neuen Techniken machte Furore. Elementarschritte in anorganischen, organischen und auch schon biochemischen Prozessen konnten nun erstmals gemessen werden, die Mechanismen der Prozesse analysiert werden. 1958 wurde Eigen zum Direktor des Max-Plack Instituts für Physikalische Chemie berufen. Er war nun bereits begehrter Vortragender in renommiertesten Instituten und auf internationalen Kongressen, an sein Institut kamen Scharen von Besuchern, die die neuen Techniken sehen, lernen und für ihre Fragestellungen anwenden wollten. Gerade 40 Jahre alt, wurde er 1967 für seine "studies of extremely fast chemical reactions, effected by disturbing the equilibrium by means of very short pulses of energy" mit dem Nobelpreis für Chemie ausgezeichnet.

In den ersten Monaten danach, kamen alle, die in der Wissenschaft Rang und Namen hatten in Göttingen vorbei, hielten Vorträge und standen für Diskussionen bereit.

Wie wir Göttingen erlebt haben

Unsere Postdoc-Zeit hatte mit 1.1.1968 begonnen, von da an konnten wir den Aufbruch der molekularen Wissenschaften an vorderster Front und in einem unglaublich stimulierenden Klima miterleben.

Unmittelbar nach unserem Eintritt fand ein sogenanntes Winterseminar in Sölden statt. Dieses ließ uns beim Schifahren, beim Essen und bei den Vorträgen unsere neuen Kollegen kennenlernen und machte uns mit ihren Interessen und Forschungsgebieten vertraut (bis zum heutigen Tag gab es bereits mehr als fünfzig dieser Seminare). Dazu gab es jeden Mittwoch nachmittags "Teestunden", in denen zwei bis drei von uns Jungforschern ihre Ergebnisse präsentierten, dabei - vor allem von Manfred Eigen -nach Strich und Faden kritisiert wurden und so enorm viel lernten (da alle kritisiert wurden, war dies für den Einzelnen kein Problem).

In Anbetracht der damals noch in den Kinderschuhen steckenden Molekularbiologie konstatierte Manfred Eigen sehr bald: "wir alle müssen mehr über Molekularbiologie lernen" und organisierte ein von der (1964 gegründeten) European Molecular Biology Organization (EMBO) finanziertes Meeting im Schloss Elmau zum Thema: "Physical and Chemical Characterization of Biological Macromolecules". Es müssen an die 150 Personen daran teilgenommen haben, darunter rund 30 der damals prominentesten Wissenschafter als eingeladene Vortragende (u.a. F. Crick, F. Lynen, L. Onsager, J. Wyman, kurzfristig J. Monod, Ch. Longuett-Higgins, H. Gutfreund, L. de Mayer, D. Crothers u.v.a.m.). Eine Kollage (Abbildung 1) soll an dieses Treffen erinnern.

Abbildung 2.Das EMBO-Meeting "Physical and Chemical Characterization of Biological Macromolecules"1968. In der Mitte steht Manfred Eigen. Links ganz unten: Francis Crick und Leo de Maeyer, Links daneben: Lars Onsager, links darüber: Ruthild Oswatitsch-Eigen und Manfred Eigen ,links oben: Peter Schuster und Hermann Träuble. Rechts: Shneior Lifson und Leo de Maeyer, 3 Gruppenbilder.

In den zwei Jahren lernten wir sehr viel. In der Zusammenarbeit mit dem Biochemiker Kaspar Kirschner, der aus der Schule von Feodor Lynen kam, begriff ich nun erst, wie man seriöse Biochemie betreibt; ich habe diese Erfahrungen später an meine Mitarbeiter und Studenten weitergegeben. Aus unserer Zusammenarbeit entstanden in kurzer Zeit fünf Arbeiten, die zeigten, dass kinetische und Gleichgewichts-Untersuchungen an dem Glykolyse-Enzym GAPDH in Einklang mit dem von Eigen und Kirschner postulierten Konzept einer allosterischen konzertierten Konformationsänderung waren.

Mein Mann untersuchte anfänglich Wasserstoffbrückenbindungen mit Hilfe von Relaxationskinetik, begann sich aber sehr bald für Manfred Eigens Überlegungen zur molekularen Evolution zu begeistern und entwickelte dafür Computer-Simulationen. Sie beschrieben das Konzept des Hyperzyklus in einer Reihe hochzitierter Veröffentlichungen: Der meistzitierte Artikel "Hypercycle - principle of natural self-organization. A. Emergence of Hypercycle" (1977) Naturwissenschaften 64:541-65 wurde bis heute 781 mal zitiert.

Die Vision eines neuen Instituts

In unserer Zeit als Postdocs waren wir noch im Institut für Physikalische Chemie in der Bunsenstrasse angesiedelt. Wir hörten von der Initiative Manfred Eigens, dass nun ein neues Institut entstünde, das transdisziplinär - mit biologischen, chemischen und physikalischen Methoden - komplexe Lebensvorgänge erforschen sollte. Die Vision wurde Wirklichkeit: Aus der Zusammenlegung der Institute für Physikalische Chemie und Spektroskopie ging das Institut für biophysikalische Chemie hervor, eine großzügige Anlage, die am Faßberg erbaut und 1971 eingeweiht wurde. Dieses Institut ist enorm erfolgreich: es wurden zahlreiche bedeutende Preise an Forscher des Instituts vergeben. 1991 erhielten Erwin Neher und Bert Sakmann den Nobelpreis für Physiologie oder Medizin für die Erforschung von Ionenkanälen in Membranen von Nervenzellen. 2014 wurde der Nobelpreis für Chemie an Stefan Hell verliehen für seine bahnbrechenden Arbeiten auf dem Gebiet der hochauflösenden Fluoreszenzmikroskopie

Was ist Leben?

Bereits 1967 hatte sich Manfred Eigen mehr und mehr der Biochemie zugewandt - den Mechanismen der Basenpaarung in den Nukleinsäuren, den Fragen zur Optimierung von Enzymfunktionen. Er begann sich mit Evolution zu beschäftigen: Gilt das Darwinsche Prinzip auch auf dem Niveau der Moleküle? Für die Optimierung von Enzymen? Wo findet der Selektionsprozess statt? Eigen begann eine kinetische Theorie der Reproduktion von Nukleinsäuren zu entwickeln. Diese entsprach dem Darwinschen Prinzip in einer wesentlich präziseren Form. Das was Biologen allgemein als "Wildtyp" bezeichnen, stellte sich als ein Spektrum von Mutanten heraus, der Begriff "Quasispecies" wurde für ein breit gestreutes Spektrum an Mutanten gewählt. Wie aber nun die für die Reproduktion nötigen Komponenten zusammenfinden, wurde im Konzept von sogenannten Hyperzyklen beschrieben. Abbildung 3.

Abbildung 3. Stark vereinfachte Darstellung eines Hyperzyklus. Dieser Hyperzyklus weist eine zyklische Folge von Rückkopplungen auf, in welcher Nukleinsäuren (I1 – I5) die Bildung von Enzymen (E1- E5) durch Übersetzung (Translation) katalysieren, welche wiederum die Replikation der Nukleinsäuren katalysieren.

Ein derartiger Hyperzyklus ist ein geschlossener Kreislauf von katalytischen Prozessen und zeigt bereits grundlegende Eigenschaften von Lebewesen: Selbstvermehrung und Vererbung - d.i. Weitergabe von Information -, Stoffwechsel sowie Mutation infolge unscharfer Replikation und er funktioniert nach dem Prinzip der Rückkopplung: Nukleinsäuren katalysieren die Bildung von Proteinen, von denen einige die Replikation der Nukleinsäuren katalysieren. Dies führt zu deren schnelleren Vermehrung. Hyperzyklen sind die Grundlage der Selbstorganisation der Materie.

Von Grundlagen- zur angewandten Forschung

Die Möglichkeit Evolutionsexperimente im Labor auszuführen hat zur Entwicklung von Evolutionsmaschinen und zu deren Anwendung in der Praxis geführt: Manfred Eigen hat damit eine neue Sparte der Biotechnologie, die evolutive Biotechnologie begründet. Mit Hilfe dieser Evolutionsmaschinen können grundlegende Mechanismen der Evolution beispielsweise von pathogenen Krankheitserregern untersucht werden aber auch optimierte neuartige Wirkstoffe entwickelt werden.

Die Arbeiten Manfred Eigens waren Basis für die Gründung zweier erfolgreicher Unternehmen, der Hamburger Evotec AG und der DIREVO Biosystems AG/Köln (heute: Bayer HealthCare AG).


Wenn es so etwas wie wissenschaftliche Prägung gibt, so hat uns unsere Postdoc Zeit in Göttingen für unser weiteres Leben geprägt. Durch Manfred Eigen haben wir den offenen, aber auch kritischen Blick auf eine Wissenschaft erfahren, die kontinuierlich Neues, bisher Undenkbares erschafft und sich an keine Fachgrenzen hält.

Seit nahezu fünfzig Jahren ist uns Manfred Eigen Freund, Lehrer und Vorbild - Seine Faszination an der Wissenschaft hat sich auf uns übertragen, ein Leben ohne fortwährende wissenschaftliche Betätigung ist für uns unvorstellbar geworden.

Dafür einfach "Danke" zu sagen, ist viel, viel zu wenig.

Zum runden Geburtstag gratulieren wir von ganzem Herzen!!


Weiterführende Links

Max-Planck Institut für Biophysikalische Chemie

Manfred Eigen

Immeasurably fast reactions. Nobelpreisrede (1967)

The Origin of Biological Information (1977) Video (Deutsch) 1:24:08.

What is life? - Manfred Eigen (1997) Video 3:47 min. (https://www.webofstories.com/play/manfred.eigen/ , Standard-YouTube-Lizenz)

Manfred Eigen At Work (1967). Video (ohne Ton) 1:35 min. (Quelle: British Pathe, Standard-YouTube-Lizenz)

Schöpfung ohne Schöpfer - Wie das Universum sich selbst organisiert. Video 58:46 min. Diskussion auf 3Sat über Selbstorganisation; Standard-YouTube-Lizenz)

Artikel zu Selbstorganisation/Evolution im ScienceBlog

inge Thu, 04.05.2017 - 10:04

Frauen in den Naturwissenschaften: erst um 1900 entstanden in der k.u.k Monarchie Mädchenmittelschulen, die Voraussetzung für ein Universitätsstudium

Frauen in den Naturwissenschaften: erst um 1900 entstanden in der k.u.k Monarchie Mädchenmittelschulen, die Voraussetzung für ein Universitätsstudium

Do, 27.04.2017 - 09:01 — Robert W. Rosner Robert W. RosnerIcon Wissenschaftsgeschichte

Frauen wurden erst ab 1897 zum Studium an der Philosophischen Fakultät und ab 1900 an der Medizinischen Fakultät zugelassen. Voraussetzung war die Ablegung einer Matura. Da es im ganzen Reich nur sehr wenige vorbereitende Schulen für Mädchen gab, mussten diese als externe Schülerinnen an Knabenschulen zur Matura antreten. Von der Regierung geförderte Schulen für Mädchen waren sechsklassige Lyzeen, die keinen Antritt zur Matura ermöglichten. Deren Absolventinnen konnten an der philosophischen Fakultät nur als außerordentliche Hörerinnen inskribieren, an der medizinischen Fakultät überhaupt nicht studieren. Der Chemiker Robert Rosner hat nach seiner Pensionierung Wissenschaftsgeschichte studiert und beschäftigt sich seitdem vor allem mit der Geschichte der Physik und Chemie in Österreich. *

Genau zur Jahrhundertwende hatten die kaiserlichen Unterrichtsbehörden unter dem Minister für Kultus und Unterricht, Wilhelm Ritter v. Hartl, begonnen, Pläne für eine einheitliche höhere Frauenbildung zu entwickeln. Davor waren in vielen Teilen des Landes private Fortbildungsschulen für Mädchen entstanden, in die Mittelstandsfamilien ihre Töchter schickten. Es gab die verschiedensten Schultypen von zweiklassigen und dreiklassigen „Höheren Töchterschulen“ als Fortsetzung der Bürgerschulen bis zu sechsklassigen Lyzeen, mit entsprechend unterschiedlichen Lehrplänen, sowie Schulen, in denen junge Frauen für ihren Beruf vorbereitet wurden, wie Handels-und Gewerbeschulen. In einigen Kronländern gab es vereinzelt Schulen, in denen Mädchen für die Matura vorbereitet wurden.

Was ist höhere Frauenbildung?

In der Stellungnahme der Landesschulbehörden in Lemberg heißt es: Der Drang nach höherer Bildung ist auch in Galizien unter der weiblichen Jugend fühlbar geworden und betätigte sich sowohl in den Stimmen der öffentlichen Presse als auch in der wachsenden Frequenz aller Arten von Schulen, welche geeignet sind eine höhere Bildung der weiblichen Jugend zu vermitteln.

Eine ähnliche Stellungnahme kam aus Prag und aus Brünn. Dagegen meinte die Statthalterei in Innsbruck - auch in Hinblick auf die Aufbringung der finanziellen Mittel: Mit Rücksicht auf die Bedürfnisse dieses Kronlandes dürfte sich auch fernerhin weniger ein Streben nach Errichtung höherer Mädchenschulen nach Art und Organisation von Mittelschulen fühlbar machen als vielmehr solche Mädchenschulen welche einerseits allgemein ethische beziehungsweise sittlich-religiöse Erziehung fördern und andererseits beruflich praktischen Zwecken dienen, um so die Mädchen in das Berufs-und Wirtschaftsleben einzuführen und sie für die Leitung eines einfachen Haushalts vorzubereiten“….. Die erforderlichen Kenntnisse in der Unterrichtssprache, in Geographie und Geschichte, im Rechnen in der Naturlehre sowie im Zeichnen sind etwa in dem Umfang zu lehren, wie es etwa in den Lehrplänen der Bürgerschulen bestimmt ist – jedoch so können beispielweise im Rechnen die wichtigsten kaufmännischen Rechnungen sowie die Grundlagen der einfachen Buchführung behandelt und an praktischen Beispielen eingeübt werden. Ferner soll im Unterricht der Naturgeschichte auf die einheimischen für den Haushalt wichtigen Naturkörper bezogen werden und-- auf Anschauung gegründet --mit einer Gesundheitslehre verbunden“. Die Landesschulbehörden in Czernowitz, wo es ein sechsklassiges Mädchenlyzeum gab, meinten, „daß nur der geringste Teil der weiblichen Jugend die ausgesprochene Tendenz habe sich einem bestimmten wissenschaftlichen Beruf zu widmen. Der größere Teil derselben strebt eine höhere Bildung aus dem Grunde an um wenn erwachsen auf der geistigen Höhe des gebildeten Mannes zu stehen und ihre Stellung in Haus und Gesellschaft auch in geistiger Beziehung ganz auszufüllen“. ….Die weibliche Mittelschule hat die Aufgabe den Mädchen der psychischen Eigenart des Weibes und ihrer künftigen Bestimmung entsprechende allgemeine wissenschaftliche Bildung zu gewähren, die es einzelnen ermöglicht über sie hinaus die durch die Gymnasial-oder Realmaturitätsprüfung zu einer erhobenen wissenschaftlichen Vorbildung für das betreffende Fakultätsstudium sich anzueignen.

Höhere Töchterschulen

Es ist bemerkenswert wie unterschiedlich die Zahl dieser „Höheren Töchterschulen“ in den verschiedenen Teilen des Landes war. In Niederösterreich, einschließlich Wien, gab es 18 Schulen, davon 8, die einem Lyzeum entsprachen und sogar eine mit einem vollständigen gymnasialen Lehrplan. Die 1892 in Wien gegründete Schule des Vereins für höhere Frauenbildung war zur Jahrhundertwende in der Hegelgasse und übersiedelte später in die Rahlgasse. Bemühungen für diese Schule eine staatliche Subvention zu erhalten, wurde von der Landesschulbehörde schärfstens abgelehnt. In den Jahren 1898 und 1899 maturierten 25 Mädchen, die in dieser Schule für die Matura vorbereitet worden waren. Sie mussten aber die Matura an einer Knabenschule ablegen. Sieben Maturantinnen gaben an, dass sie Medizin studieren wollten, sobald sie zu diesem Studium zugelassen werden.

In den nur deutschsprachigen Ländern Oberösterreich, Steiermark, Kärnten und Schlesien gab es nur ein Lyzeum in der jeweiligen Hauptstadt des Landes. In Tirol gab es höhere Mädchenschulen in Innsbruck und in Bozen. In einigen Kronländern mit anderen Volksgruppen gab es neben einer deutschen Schule für Mädchen auch eine für die andere Volksgruppe; in Laibach außer der deutschen Schule auch eine slowenische Mädchenschule; in Brünn ein deutsches und ein tschechisches Lyzeum. Laut den Berichten der Landesschulräte in Salzburg und in Dalmatien gab es außer den Pflichtschulen keine Schulen für Mädchen.

In Triest gab es nur ein italienisches Mädchenlyzeum mit italienischer Unterrichtssprache; in Böhmen sechs Mädchenschulen für höhere Bildung, davon vier Schulen mit deutscher Unterrichtssprache in Prag, Aussig, Leitmeritz und Reichenberg und zwei Schulen mit „böhmischer“ Unterrichtssprache in Prag. Das deutsche Lyzeum führte ab 1898 Kurse zur Vorbereitung für die Matura.

In Prag war bereits 1890 vom Verein Minerva ein tschechisches Lyzeum gegründet worden, das auch einen Vorbereitungskurs für die Matura führte und 1897/98 in ein Gymnasium umgestaltet wurde.

In Galizien gab es mehrere private „Höhere Töchterschulen“ und außerdem drei von der Stadt subventionierte Klosterschulen für Mädchen in Krakau. Einige dieser Schulen bereiteten die Mädchen für die Matura vor.

Eine Übersicht über Lyzeen und Gymnasium in Cisleithanien ist in Abbildung 1 dargestellt.

Abbildung 1. Um 1900 gab es in Cisleithanien (hellgelb) des k.u.k.Reichs erst wenige Lyzeen und eine noch geringere Zahl an Mädchen-Gymnasien (Landkarte modifiziert aus Wikipedia, gemeinfrei).

Das Mädchenlyzeum als einheitliche Schulform

Laut Plan des Ministeriums für Kultus und Unterricht sollte im ganzen Land die Mittelschulbildung für Mädchen in der Form von sechsklassigen Lyzeen mit einheitlichen Lehrplänen erfolgen. Das Lyzeum sollte „Mit besonderer Berücksichtigung der modernen Sprachen und Literatur eine höhere, der weiblichen Eigenart entsprechende allgemeine Bildung gewähren als es die Volks-und Bürgerschule zu bieten vermag. Hierdurch zugleich für die berufliche Ausbildung vorbereiten.“

Die Mädchen sollten nach der fünfklassigen Volksschule und einer Aufnahmeprüfung im Lyzeum beginnen können. Der Unterricht sollte ausschließlich von Mittelschullehrern durchgeführt werden und in der Unterstufe ähnlich dem Unterricht der Reformrealgymnasien für Knaben sein, wobei allerdings mehr Wert auf Französisch und Englisch gelegt werden sollte und weniger auf die realen Fächer wie Naturgeschichte, Mathematik und Physik. Französisch sollte ab der 1. Klasse und Englisch nach der 4. Klasse unterrichtet werden.

Im Lehrplan waren keine klassischen Sprachen vorgesehen aber Gegenstände wie Gesang, Stenographie oder weibliche Handarbeiten. Es sollten eigene Schulbücher für Lyzeen für Mädchen herausgegeben werden. Die Absolventinnen eines Lyzeums sollten nach der Abschlussprüfung und der Vollendung des 18. Lebensjahres die Möglichkeit haben als außerordentliche Hörerinnen an einer philosophischen Fakultät zu studieren. Da sie nach Beendigung des sechsklassigen Lyzeums in der Regel erst 17 Jahre alt waren, mussten sie ein Jahr warten, bevor sie als außerordentliche Hörerinnen inskribieren konnten. Sie konnten nach den Vorschlägen des Ministeriums dann bereits nach 6 Semestern als außerordentliche Hörerinnen für die Lehramtsprüfung für ein Lyzeum antreten. Sie konnten aber nicht als ordentliche Hörerinnen studieren. Dazu wurde ein Studium mit Matura benötigt.

Einige Lehrerorganisationen kritisierten diese Pläne. Sie fürchteten, dass die Pläne für die Mädchenlyzeen auf Kosten des Ausbaus der öffentlichen Bürgerschulen für Mädchen geschehen werde. Durch die Einrichtung von Mädchenlyzeen würde der weitere Ausbildungsweg eines Mädchens schon mit 10 Jahren bestimmt. In der Eingabe der Reichenberger Lehrer an das Unterrichtsministerium heißt es: „Die großen Kosten eines von dem Wohnort der Eltern weit entfernten Lyzeums sind ferner nur von reichen Eltern zu bestreiten imstande. Dadurch wird das wissenschaftliche Studium der Mädchen ein Monopol der Reichen“

Schließlich wurde im Dezember 1900 ein provisorisches Statut für eine einheitliche Organisation und einen einheitlichen Lehrplan beschlossen.

Kritiken am Lyzeum

Das Statut, das Absolventinnen eines Lyzeums ermöglichte als außerordentliche Hörerinnen an einer philosophischen Fakultät zu inskribieren, fand bald sehr viel Kritik: die Absolventinnen der Lyzeen wären nicht in der Lage, den Seminaren oder Proseminaren zu folgen und die Vortragenden würden gezwungen das Niveau zu senken. Besonders scharf wurde der Beschluss abgelehnt, dass die Absolventinnen eines Lyzeums nach ihrem Studium als außerordentliche Hörerinnen bereits nach 6 Semestern zu einer Lehramtsprüfung als Mittelschullehrerin in einem Lyzeum antreten können, während Maturanten und Maturantinnen, die als ordentliche Hörer oder Hörerin studiert haben, erst nach 8 Semestern zu einer derartigen Prüfung antreten konnten, allerdings dann für alle Mittelschulen. In den folgenden Jahren mussten einige Änderungen im Lehrprogramm durchgeführt werden. Abbildung 2.

Abbildung 2. Zitate von Johann Baptist Degn, Direktor am Mädchen-Lyzeum in Linz, der maßgeblich für den Lehrplan der Lyzeen verantwortlich war. (Bilder links und oben rechts stammen aus den Jahresberichten 1916 und 1896 des Mädchen Lyzeums, die von der oÖ. Landesbibliothek digitaliert wurden und gemeinfrei sind. http://digi.landesbibliothek.at/viewer/image/AC04151117_27191516/1/ und http://digi.landesbibliothek.at/viewer/image/AC02725595_1896/5/LOG_0007 )

Die Frauenvereine blieben sehr kritisch gegenüber der Weiterführung der Lyzeen in der vorhandenen Form und im Lehrplan und verfassten im März 1911 eine Denkschrift (unterzeichnet von Marianne Hainisch, Eugenie Schwarzwald und Melitta Berka und auch von den Leiterinnen der Katholischen Reichsfrauenorganisation Gräfin Melanie Zichy-Metternich und Gräfin Gertrude von Walterskirchen). Darin forderten die Frauenvereine die Umwandlung der Lyzeen in Gymnasien. Die Unterstufe solle der Unterstufe der Knabenreformgymnasien entsprechen. Bei der Oberstufe solle es eine Gabelung geben. Ein Zweig sollte der Maturavorbereitung dienen während der andere Zweig als Frauenoberschule weiter geführt werden sollte.

Trotz dieser Kritiken wurde mit Erlass vom 14.Juni 1912 beschlossen in der Regel die Mädchenlyzeen in einer nur wenig veränderten Form weiter zu führen. Es wurde aber auch die Möglichkeit offen gelassen, diese Schulen auf sieben Klassen zu erweitern wenn es die örtlichen Verhältnisse zuliessen. Sogar Kurse könnten angeschlossen werden, die eine Matura ermöglichen.

Das Interesse an Lyzeen und Mädchengymnasien ist groß

Trotz allen Kritiken zeigte es sich, dass es im ganzen Reich ein großes Interesse für die neu eingeführten Lyzeen für Mädchen gab. Das rasche Anwachsen der Zahl der Lyzeen von 13 Lyzeen mit 2566 Schülerinnen im Schuljahr 1901/2 auf 69 Lyzeen im Schuljahr 1910/11 mit 11.123 Schülerinnen in allen Ländern –von Vorarlberg im Westen bis zur Bukowina im Osten—zeigt dass es ein großes Interesse beim Mittelstand für diese Schulform gab, obwohl die Absolventinnen eines Lyzeums nur als außerordentliche Hörerinnen an einer Universität studieren konnten.

Da an den österreichischen Universitäten ab 1897 Maturantinnen an der philosophischen Fakultät als ordentliche Hörerinnen zugelassen wurden und ab 1900 an der medizinischen Fakultät, entstanden in diesem Jahrzehnt in Wien, in Prag und in Galizien auch Schulen in denen junge Frauen für die Matura vorbereitet wurden, aber keine Schulen dieser Art in den alpinen Kronländern.

Mädchen, die studieren wollten, mussten also als externe Schülerinnen an Knabenschulen maturieren, wenn sie kein Mädchengymnasium besucht hatten. Abbildung 3.

Abbildung 3. Lise Meitner (1878 - 1968) hat die Bürgerschule 1892 abgeschlossen. 1898 nahm sie Privatunterricht, um sich auf die Externistenmatura vorzubereiten, die sie dann 1901 am Akademischen Gymnasium in Wien erfolgreich ablegte (nur 4 von 14 angetretenen Mädchen schafften die Prüfung).

Ebenso wie die Zahl der Lyzeen zwischen 1901 und 1910 schnell wuchs, nahm in dieser Zeit auch die Zahl der Mädchengymnasien rasch. Im Schuljahr 1903/04 gab es laut Statistischer Monatsschrift von A. Lorenz in ganz Cisleithanien ein Gymnasium für Mädchen mit 45 Schülerinnen. Im Schuljahr 1912/13 waren es 32 Gymnasien mit Öffentlichkeitsrecht mit 4797 Schülerinnen. Obwohl die gesetzlichen Möglichkeiten für die Errichtung eines Mädchengymnasiums im ganzen Land die gleichen waren, gab es damals in den verschiedenen Teilen der Monarchie große Unterschiede.

In Wien gab es schon vor der Jahrhundertwende die gymnasiale Mädchenschule des Frauenerwerbsvereins in der Hegelgasse, wo in den Jahren 1898 und 1899 25 Mädchen maturiert hatten. Die Schule übersiedelte 1906 in die Rahlgasse. Das von Eugenie Schwarzwald geleitetes Lyzeum wurde 1911 als Gymnasium zugelassen.

Im Schuljahr 1910/1911 gab es in Wien und Niederösterreich 15 Lyzeen aber nur zwei Mädchengymnasien, die von 395 Schülerinnen besucht wurden. In Salzburg wurde 1910 ein katholisches Mädchengymnasium eröffnet. In den anderen Ländern, die das heutige Österreich bilden, gab es 1910 überhaupt kein Gymnasium für Frauen. Jedoch in Galizien gab es 1910 bereits 15 Gymnasien für Mädchen mit Öffentlichkeitsrecht mit 2027 Schülerinnen und nur 13 Lyzeen. In den folgenden Jahren haben sich diese Unterschiede noch viel klarer gezeigt. Zwei Jahre später, im Schuljahr 1912/13 gab es in Wien 19 Lyzeen und drei Gymnasien für Mädchen mit 548 Schülerinnen und in Galizien 11 Lyzeen und 21 Gymnasien mit 3064 Schülerinnen. Auch in Böhmen und Mähren war das Interesse für Mädchengymnasien viel größer als in den Gebieten des heutigen Österreichs. In diesen beiden Kronländern gab es sechs Mädchengymnasien mit 972 Schülerinnen im Schuljahr 1912/13.

Die Aussichten erfolgreich zu maturieren

waren für junge Frauen, die aus Gymnasien kamen, besser als für die, die als externe Schülerinnen in einer Knabenschule maturieren wollten: Laut Statistik von A. Lorenz haben es im Schuljahr 1910 174 von 176 zur Matura gemeldeten Schülerinnen aus Mädchengymnasien geschafft, hingegen nur 150 von angemeldeten 256 externen Schülerinnen an Knabenschulen.

Sowohl für die Lyzeen wie auch für die Mädchengymnasien musste Schulgeld bezahlt werden, auch wenn sich der Staat an den Kosten für die Lyzeen beteiligte. Beide Schultypen wurden vorwiegend von Töchtern des Mittelstands besucht. Die Statistiken zeigen also, dass die in Galizien wohnenden, meist jüdischen Mittelstandsfamilien viel mehr als in anderen Teilen des Reiches darauf achteten, ihre Töchter in eine Schule zu schicken, die ihnen den Weg zu einem Studium als ordentliche Hörerin an einer Universität ermöglichte.

Erst nach der Gründung der Republik wurden in den Bundesländern Schulen eingerichtet, die es jungen Frauen ermöglichten, zu maturieren. Wenn heute über den langen Kampf für ein Frauenstudium berichtet wird, so soll nicht vergessen werden, dass viele der Impulse zur Modernisierung Österreichs aus Galizien oder der Bukowina, den ärmsten Kronländern der Monarchie, kamen.


*Eine wesentlich ausführlichere Darstellung dieses Themas hat Robert Rosner veröffentlicht unter dem Titel: Mädchenmittelschulen. Mädchenmittelschulen zur Jahrhundertwende von Lemberg bis Innsbruck. Frauenbildung für den „ Five o’clock tea“ oder für die Uni?. https://schulmuseum.schule.wien.at/fileadmin/s/111111/Dateien/Zeitungsartikel/Rosner_M%C3%A4dchenB_LangF_WSM-2015-1_2.pdf


Weiterführende Links

Wiener Schulmuseum: Aus Wiens Schulgeschichte.

Österreichische Schulbücher. Vom Ende der Monarchie bis in die 50er.

Frauen in Bewegung: 1848-1938. Biographien, Vereinsprofile, Dokumente. Paul J. Moebius (1903)

Über den physiologischen Schwachsinn des Weibes. (Der Nervenarzt vertrat die Ansicht, Frauen hätten von Natur aus eine physiologisch bedingte geringere geistige Begabung als Männer.)

Artikel im ScienceBlog

Christian Noe 6.12.2013: Das Ignaz-Lieben Projekt — Über Momente, Zufälle und Alfred Bader

Lore Sexl 20.9.2012: Lise Meitner – weltberühmte Kernphysikerin aus Wien.

inge Thu, 27.04.2017 - 09:20

Wissenschaftskommunikation: das open-access Journal eLife fasst Forschungsergebnisse für die Öffentlichkeit verständlich zusammen

Wissenschaftskommunikation: das open-access Journal eLife fasst Forschungsergebnisse für die Öffentlichkeit verständlich zusammen

Do, 20.04.2017 - 10:15 — Redaktion RedaktionIcon Politik & Gesellschaft

Im Sommer 2011 haben drei der angesehensten Forschungsinstitutionen - das Howard Hughes Medical Institute (US) , die Max-Planck Gesellschaft (D) und der Wellcome Trust (UK) - das "non-profit", open-access Journal "eLife" gegründet. Es ist dies ein umwälzend neues Modell , das - geleitet von einem höchstrangigen Herausgeber-Team - Spitzenforschung in Lebenswissenschaften und Biomedizin veröffentlicht und verbreitet. Ein wesentlicher Aspekt ist dabei die Forschungsergebnisse in allgemein verständlicher Form zusammenzufassen.*

Eines der überzeugendsten Argumente für den offenen Zugang zu Forschungsergebnissen lautet: der Großteil der Forschung wird mit öffentlichen Mitteln finanziert, daher sollen die Früchte aus dieser Forschung der Öffentlichkeit zugänglich sein. Wenn also öffentliches Geld dafür ausgegeben wird, dass Vorgänge in Zellen untersucht werden, dass Ursachen von Krankheiten erforscht werden oder Möglichkeiten Leben auf anderen Planeten zu finden, dann sollte die Bevölkerung in der Lage sein die Veröffentlichungen zu lesen, die aus derartigen Projekten herauskommen. In zunehmendem Maße ist dies bereits der Fall, dank der Zunahme von "open access" Zeitschriften und - in jüngster Zeit - von Vorabdrucken.

Auch bezüglich anderer Aspekte von "open science" hat es Fortschritte gegeben , beispielsweise im freien Zugang zu Datenbanken "open data" oder zur "open-source software". Es liegt aber noch ein weiter Weg vor uns bis die Gebührenschranken verschwunden sind und alle wissenschaftlichen Ergebnisse zum Zeitpunkt ihrer Veröffentlichung frei zugänglich.

Allerdings muss noch mehr geschehen.

Es reicht nicht aus Jedermann Zugang zu jeder Publikation zu verschaffen und es dann dabei zu belassen. Wir müssen uns vielmehr bemühen mit Lesern außerhalb der Forschergemeinde zu kommunizieren : wir müssen zu Lehrern und Schülern sprechen, zu medizinischen Fachleuten und zu Patienten (und deren Angehörigen), zu jedem der an Wissenschaft und Forschung interessiert ist. Und wir haben uns in ihrer Sprache auszudrücken, in der Sprache der Nachrichten-Medien und der Wikipedia. Wir müssen in verständlicher Sprache sprechen und nicht in der formalen, formelhaften Prosa, in der die meisten Veröffentlichungen abgefasst sind. Wir müssen Verba verwenden, nicht Substantiva, wir müssen Worte wie "charakterisieren" und "ermöglichen" vermeiden, die - auch wenn sie von Wissenschaftern besonders gerne angewendet werden - einen Satz, einen Artikel bereits in seinem Keim ersticken können.

Aktivitäten zur Wissenschaftskommunikation…

Diese, auch unter Bezeichnungen wie "Verständnis für Wissenschaften in der Öffentlichkeit", "öffentliches Engagement" oder "Wissenschaft und Gesellschaft", erfolgenden Aktivitäten haben in den letzten paar Jahrzehnten wesentlich zugenommen: Forscher in diesen Gebieten haben ihre eigenen Zeitschriften, Tagungen und natürlich auch spezielle Ausdrucksweisen. Universitäten, Fördereinrichtungen und medizinische Hilfsorganisationen beschäftigen viele Pressesprecher und Öffentlichkeitsarbeiter (gleichwohl beschäftigen Tageszeitungen und Zeitschriften wesentlich weniger Wissenschaftsreporter); Podcasts, Blogs und Soziale Medien florieren, die Zahl der Ausstellungen, der Festivals steigt und auch Veranstaltungen, die an Orten wie Pubs oder Cafes stattfinden, nehmen zu.

…bei eLife

"In diesem reichen Mosaik an Aktivitäten zur Wissenschaftskommunikation wollen wir hier (und in drei weiteren Artikeln [1, 2, 3] ein Nischengebiet betrachten, nämlich eine allgemein verständliche Zusammenfassung eines Forschungsvorhabens oder einer -Veröffentlichung.

Seit dem Start des eLife Journal im Jahr 2012 haben wir in einfachen Worten Zusammenfassungen wissenschaftlicher Veröffentlichungen - sogenannte Digests - herausgebracht [1]."  Abbildung 1.

Abbildung 1. eLife Digests destillieren aus Veröffentlichungen kurze, auch der breiten Öffentlichkeit leicht verständliche Zusammenfassungen (Bild aus [1]; IMAGE CREDIT: vividbiology.com)

Diese Zusammenfassungen sind üblicherweise 250 - 400 Worte lang und scheinen unmittelbar unter dem Abstract - der wissenschaftlichen Kurzfassung - auf. Der Digest hat drei Ziele: i) er soll den Hintergrund der Veröffentlichung darstellen, ii) die wesentlichen Ergebnisse zusammenfassen und iii) kurz diskutieren, was man weiter zu tun beabsichtigt. Dies soll in einer Sprache erfolgen, die ein interessierter oder motivierter Leser verstehen kann.

Derartige eLife Digests richten sich vorzugsweise an Leser außerhalb der Forschergemeinde. Eine vor kurzem erfolgte Umfrage hat nun ergeben, dass die Digests auch weithin bei Forschern beliebt sind . Derartige verständliche Zusammenfassungen erweisen sich auch für die Autoren selbst von Nutzen, wenn es notwendig ist ihre Arbeiten in nicht-technischer Sprache zu erklären (beispielsweise, wenn sie um eine Förderung ansuchen oder sich für einen Posten bewerben).

"Vorerst sind wir so vorgegangen, dass wir für alle in eLife erscheinenden Arbeiten - gleichgültig um welche Themen es sich dabei handelte - Digests verfasst haben. Abbildung 2. Dies war teilweise recht schwierig aber wir zogen es durch. Als die Zahl der akzeptierten Arbeiten jedoch kontinuierlich zunahm, mussten wir dann 2016 - wenn auch widerstrebend - beginnen Arbeiten auch ohne Digest zu publizieren."

Abbildung 2. eLife Digests gibt es zu den verschiedensten Themen der Lebenswissenschaften und der Biomedizin (Bild aus [2]; IMAGE CREDIT: vividbiology.com)

Natürlich ist eLife nicht die einzige Zeitschrift, die Zusammenfassungen wissenschaftlicher Arbeiten in allgemein verständlicher Sprache publiziert. Es gibt hier bereits eine Reihe von Journalen (u.a. auch der Pionier in open access: PLOS), deren weitgefächertes Spektrum von Autismus über Ökologie bis hin zu rheumatischen Erkrankungen reicht [2]. Eine Herausforderung für alle Herausgeber besteht dabei darin, wie sie diese Zusammenfassungen für die angepeilte Leserschaft schnell auffindbar machen können.

Das Gebiet, das wahrscheinlich den dringendsten Bedarf für klare, genaue Information über die laufende Forschung hat, ist die medizinische Forschung - medizinische Hilfsorganisationen und Patientengruppen sind auf diesem Feld sehr aktiv [3]. Einige der Organisationen benötigen Wissenschafter, um verständliche Kurzfassungen in Förderungsansuchen einzufügen, andere haben Parientenvertreter in ihren Gremien, welche die Ansuchen evaluieren.

Von akademischen Forschern erwartet man, das sie mit der Öffentlichkeit kommunizieren - daran ist nichts Neues. Bereits das Gründungsdokument der American Association of University Professors (1915) konstatiert: Zu den Aufgaben eines Akademikers gehört, "dass er die Ergebnisse seiner eigenen Untersuchungen und Überlegungen und auch die Ergebnisse seines Teams sowohl Studenten als auch der breiten Öffentlichkeit vermittelt".

Die Herausforderung einen komplexen Inhalt einem breiten Publikum zu vermitteln, ist nicht auf Wissenschaft beschränkt. Beispielsweise hat im letzten Jahr Jonathan Fulwood (von der Bank of England) die Lesbarkeit von Texten verglichen, die aus fünf unterschiedlichen Quellen stammten. Er konstatierte, dass von seinem Arbeitsgeber und auch von anderen Banken stammende Berichte und Reden am wenigsten lesbar waren, dagegen waren politische Reden am leichtesten verständlich. Der Grund, so meinte er, wäre, dass in der Finanzindustrie die Tendenz zu langen Worten bestehe, diese Worte zu langen Sätzen zusammengefügt würden und diese dann zu langen Paragraphen. Dies ist auch häufig bei wissenschaftlichen Artikeln der Fall.

Fazit

Rund zwei Millionen wissenschaftliche Publikationen erscheinen jährlich. Ausgehend von unseren Erfahrungen mit eLife erscheint es extrem schwierig jede dieser Arbeiten mit einem leicht verständlichen Digest zu versehen. Es ist aber sicherlich angezeigt, dass mehr Journale diese Möglichkeit bieten - zum Nutzen der Autoren, der Journale, anderer Wissenschafter und der breiten Öffentlichkeit.


*Der von Peter Rodgers, Features Editor at eLife, stammende Artikel: "Plain-language summaries of research: Writing for different readers" ist am 15. März 2017 erschienen in: eLife 2017;6:e25408, http://dx.doi.org/10.7554/eLife.25408.

Der Artikel wurde von der Redaktion ins Deutsche übersetzt und geringfügig für ScienceBlog.at adaptiert (Untertitel, 2 Abbildungen aus anderen eLife Artikeln (Quellen zitiert)). eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz


[1] King SRF, Pewsey E, Shailes S. 2017. An inside guide to eLife digests. eLife 6:e25410. DOI: 10.7554/eLife. 25410

[2] Shales S. 2017. Plain-language summaries of research: Something for everyone. eLi fe 6:e25411. DOI: 10.7554/eLife. 25411

[3] Kuehn BM. 2017. The value of a healthy relationship. eLife 6:e25412. DOI: 10.7554/eLife.25412


Weiterführende Links

Homepage eLife

Wie Digests von eLife aussehen

Aktuelle Liste von Journalen, die leicht verständliche Zusammenfassungen bieten

Videos über eLife:

Wissenschaftskommunikation in ScienceBlog.at:

Dazu sind bereits rund 30 Artikel erschienen, die im Themenschwerpunkt Wissenschaftskommunikation zusammengefasst sind.

inge Thu, 20.04.2017 - 10:15

Embryonalentwicklung: Genmutationen wirken komplexer als man dachte

Embryonalentwicklung: Genmutationen wirken komplexer als man dachte

Do, 13.04.2017 - 07:19 — Redaktion RedaktionIcon Biologie

Der Zusammenhang zwischen einer einfachen Genmutation und deren Konsequenz auf die Entwicklung ist komplexer ist, als man bisher angenommen hat. Das zeigt eine ausgedehnte Untersuchung (an der auch Forscher von der Medizinischen Universität in Wien beteiligt waren) an Mausembryonen: In Mäusen mit identem genetischen Hintergrund kann dieselbe Mutation eines Gens in den einzelnen Individuen zu einem unterschiedlichen Spektrum phänotypischer Anomalien führen.*

Wenn man untersuchen will, welche Rolle bestimmte Gene in der Entwicklung und bei Krankheiten des Menschen spielen, so verwendet man bereits seit langer Zeit Tiermodelle als experimentelle Surrogate. Da über die Tierspezies hinweg Gensequenzen und -Funktionen erstaunlich konserviert geblieben sind, hat dieser Ansatz zweifellos seine Berechtigung.

Die genmanipulierte Maus als Modell

Ein übliches Modell zur Erforschung der Genfunktion ist die genmanipulierte Maus. Das ambitionierteste der mit diesem Modell konzipierten Projekte wird derzeit vom International Mouse Phenotyping Consortium (IMPC) koordiniert und hat das Ziel einen Katalog der Funktionen aller Gene zu erstellen. Dazu werden systematisch Mauslinien generiert, in denen genomweit jeweils ein Gen ausgeschaltet ist (knock outs) und die individuellen Gen-knockouts (KO) phänotypisch charakterisiert. Die bis jetzt erfolgten Untersuchungen haben gezeigt, dass rund ein Drittel aller Gene lebensnotwendig sind. Schaltet man diese aus, so führt dies zum Absterben im Embryonalstadium oder um die Geburt herum.

Die Untersuchung derartiger KO-Mauslinien bietet somit eine einzigartige Möglichkeit einen Überblick über die genetischen Komponenten zu erhalten, welche die normale embryonale Entwicklung kontrollieren und - als Schlussfolgerung - welche Gene es sind, die auf Grund von Mutationen zu angeborenen Defekten oder Störungen in der Entwicklung des Menschen führen können.

Die Entschlüsselung der Mechanismen von Entwicklungsstörungen

(Mechanisms of Developmental Disorders- DMDD) ist ein vom Wellcome Trust finanziertes 5-Jahresprogramm, das vom Francis Crick Institute in England koodiniert wird. Das Ziel ist insgesamt 240 embryonal letale Mauslinien phänotypisch zu charakterisieren.

In einer groß-angelegten Studie (die vorgestern von den Reviewern akzeptiert wurde) hat ein Forscherteam insgesamt 220 Mäuseembryonen am Tag 14,5 ((E14,5), d.i. gegen das Ende der embryonalen Entwicklung) untersucht. In jedem dieser Embryos war jeweils eines von 42 Genen ausgeschaltet - untersucht wurden die homozygoten Mutanten (d.i. in den diploiden Zellen trugen beide Allele des Gens die Mutation, Anm. Red.). Wie ein normaler Embryo in diesem Stadium aussieht, ist in Abbildung 1 gezeigt .

Abbildung 1. Normaler Mausembryo am Tag 14,5 der Entwicklung. Die Länge des Tieres beträgt etwa 13 mm. (Abbildung von der Redaktion beigefügt. Das Bild steht unter einer cc.by-Lizenz und stammt aus: Beck-Cormier S, Escande M, Souilhol C, Vandormael-Pournin S, Sourice S, Pilet P, et al. (2014) Notchless Is Required for Axial Skeleton Formation in Mice. PLoS ONE 9(5): e98507. https://doi.org/10.1371/journal.pone.0098507 )

Abgesehen von dem jeweils ausgeschalteten Gen handelte es sich um Mäuse mit identem genetischen Hintergrund.

Indem die Forscher jeden Embryo in minutiösem Detail mittels eines High Resolution Episcope Microscope (HREM, siehe Video in: weiterführende Links) scannten, konnten sie auch winzigste Unterschiede in Merkmalen erkennen, ob es nun einzelne Nerven, Muskeln oder kleine Blutgefäße waren, die Anomalitäten aufwiesen. Die Bewertung der Phänotypen basierte schließlich auf der Analyse von mehr als 1,6 Millionen Bildern.

Das Ergebnis war völlig überraschend

In den einzelnen Individuen einer Linie genetisch identer Mäuse führte die Ausschaltung desselben essentiellen Gens zu einem Spektrum unterschiedlicher, teilweise überlappender physischer Merkmale und Anomalitäten. Dies ist in Abbildung 2 für vier unterschiedliche Mauslinien mit je fünf Individuen dargesstellt: die Differenz zwischen entdeckten Anomalitäten (rot) in den individuellen Tieren einer Linie ist frappant.

Abbildung 2. Phänotypische Charakterisierung von vier Mauslinien, in denen jeweils ein essentielles Gen (hier die Gene Atp11a, Brd2, Celf4 und Tcf712) ausgeschaltet wurde. Die individuellen Embryonen einer Linie zeigen unterschiedliche, teilweise überlappende Anomalien. (Bild: ist aus [1], Figure 2 entnommen.)

Dies lässt darauf schließen, dass der Zusammenhang von Genmutation und deren Auswirkung wesentlich komplexer ist, als man bisher angenommen hat.

Ganz allgemein stellen Kliniker fest, dass Menschen, die denselben genetischen Defekt tragen, unterschiedliche Symptome mit unterschiedlichen Schweregraden zeigen können. Zum Teil dürfte dies wahrscheinlich darauf zurückgeführt werden, dass wir in unserem genauen genetischen Make-up differieren. Die Studie in Mäusen zeigt nun aber:

sogar wenn die einzelnen Individuen einen praktisch identen genetischen Hintergrund haben, kann dieselbe Mutation zu einer Vielfalt unterschiedlicher Ergebnisse in den betroffenen Embryonen führen.

In den Augen des Studienleiters Tim Mohum ist dies ein überaus verblüffendes Ergebnis: "Es zeigt uns, dass sogar mit einer anscheinend einfachen und wohldefinierten Mutation das Ergebnis komplex und variabel sein kann. Um zu verstehen, warum das so ist, müssen wir noch eine Menge über die Rolle dieser letalen Gene in der embryonalen Entwicklung dazulernen." Und Andrew Chisholm , Leiter der Cellular and Developmental Sciences von Wellcome und Finanzier von DMDD, meint: "Diese Untersuchung ändert unseren Blick auf das, was wir als eine einfache Beziehung angesehen haben, zwischen dem, was in unseren Genen kodiert ist und dem, wie wir uns entwickeln. Es ist eine zusätzliche Ebene der Komplexität, welche die Forscher nun miteinbeziehen müssen, ebenso wie das Bestreben die komplizierten Vorgänge der genetischen Steuerung zu entflechten."


*Der vorliegende Artikel basiert auf einem News Article des Wellcome Trust Sanger Institute vom 11.April 2017: http://www.sanger.ac.uk/news/view/how-genetic-mutations-affect-development-more-complex-previously-thought . Dieser Artikel wurde weitestgehend wörtlich übersetzt und durch ebenfalls übersetzte Teile (Einleitung) und Figure 2 aus der zugrundeliegenden Publikation ergänzt:

[1] Wilson R, Geyer SH, Reissig L et al. Highly variable penetrance of abnormal phenotypes in embryonic lethal knockout mice [version 1; referees: 1 approved, 2 approved with reservations] Wellcome Open Research 2016, 1:1 (doi: 10.12688/wellcomeopenres.9899.1).

Die Inhalte der Website des Sanger Instituts und auch [1] stehen unter einer cc-by 3.0 Lizenz.


Weiterführende Links

Wellcome Trust Sanger Institute: http://www.sanger.ac.uk/ (Motto: We use genome sequences to advance understanding of the biology of humans and pathogens to improve human health).

International Mouse Phenotyping Consortium: http://www.mousephenotype.org

High resolution episcopic microscopy (HREM). Wellcome Collection; Video (englisch) 5:10 min https://www.youtube.com/watch?v=t0WEHUpaxlI Tim Mohun, Leiter der oben besprochenen Studie, erklärt die Technik, die unglaublich detaillierte 3D-Bilder von winzigen Strukturen, u.a. von Maus -Embryonen ermöglicht.

Artikel im ScienceBlog

Francis S. Collins, 13.10.2016: Von Mäusen und Menschen: Gene, die für das Überleben essentiell sind.


 

inge Thu, 13.04.2017 - 07:19

Pech gehabt - zufällige Mutationen spielen eine Hauptrolle in der Tumorentstehung

Pech gehabt - zufällige Mutationen spielen eine Hauptrolle in der Tumorentstehung

Do, 06.04.2017 - 13:13— Francis Collins

Francis CollinsIcon MedizinKrebserkrankungen werden durch Mutationen der DNA verursacht, welche durch Vererbung, Einflüsse von Umwelt/Lifestyle oder fehlerhaftes Kopieren der DNA während des normalen Vorgangs der Zellteilung hervorgerufen werden. Welchen Anteil diese Ursachen an den DNA-Mutationen in 32 Tumorarten haben, schätzt eine eben erschienene Studie ab: sie kommt zu dem Schluss, dass zwei Drittel der Mutationen zufällig während des Kopiervorgangs passieren, also unvermeidlich sind. Francis Collins, Direktor der US National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project" berichtet darüber.*

Wenn irgendetwas Böses passiert, so verlangt unsere menschliche Veranlagung nach einem Verursacher zu suchen. Wenn jemand einen Tumor entwickelt, wollen wir den Grund dafür wissen. Möglicherweise liegt ja der Tumor in der Familie. Oder, vielleicht hat der Betroffene geraucht, nie einen Sonnenschutz verwendet , oder viel zu viel Alkohol getrunken. Bis zu einem gewissen Grad sind dies durchaus vernünftige Annahmen, da ja Gene, Lebensstil und Umwelt wichtige Rollen bei Krebserkrankungen spielen. Eine neue Untersuchung behauptet nun, dass die Ursache, warum viele Menschen an Tumoren erkranken, einfach Pech ist.

DNA-Ablesefehler während der Zellteilung

Das Unglück passiert während des normalen Vorgangs der Zellteilung, eines unabdingbaren Prozesses, der unsere Körper wachsen lässt und sie gesund erhält. Jedes Mal, wenn sich eine Zelle teilt, werden die 6 Milliarden Buchstaben ihrer DNA kopiert und die neue Kopie wandert in jede Tochterzelle. Dass während der Duplizierung Schreibfehler entstehen, ist unvermeidlich (Abbildung 1).

Abbildung 1. Beim Kopiervorgang der DNA entstehen zufällige Mutationen.

Die Zelle besitzt nun DNA-Korrekturmechanismen, die Schreibfehler üblicherweise entdecken und ausbessern. Allerdings kann von Zeit zu Zeit ein Fehler durchrutschen. Tritt dieser Fehler dann zufällig in bestimmten Schlüsselbereichen des Genoms auf, so kann er dazu führen, dass die Zelle sich unbegrenzt vermehrt, dass ein Tumor entsteht.

Wie ein Team von NIH-Forschern nun zeigt,

entstehen nahezu zwei Drittel der DNA-Mutationen bei Krebserkrankungen des Menschen auf diese zufällige Art. Damit bekommen Menschen, die wegen vieler Formen von Krebserkrankungen in Behandlung sind, die Bestätigung , dass sie ihre Krankheit vermutlich nicht hätten verhindern können. Diese Ergebnisse enthalten aber auch eine wichtige Mahnung: neben verbesserten Strategien zur Prävention müssen Krebsforscher fortgesetzt innovative Technologien verfolgen, um Tumoren frühzeitig zu entdecken und zu behandeln.

Die erwähnte Untersuchung stammt von Cristian Tomasseti, Lu Li und Bert Vogelstein (John Hopkins Universität, Baltimore, US) und ist im Fachjournal Science erschienen [1]. Die beschriebenen Ergebnisse basieren auf mathematischen Analysen einer Kombination von DNA-Sequenzdaten - aus Tausenden von Tumorproben und normalen Gewebeproben, die im Cancer Genome Atlas niedergelegt sind - und epidemiologischen Informationen von der Cancer Research UK, einer Gesundheitsorganisation in England. Auf Grund dieser Analysen konnten die Forscher den Anteil an DNA-Tippfehlern in 32 Tumorarten abschätzen und zwar danach ob diese der Vererbung , der Umwelt oder zufälligen Fehlern in der Kopierung der DNA zuzuschreiben wären.

Über alle Tumortypen hin gemittelt zeigte das Modell: etwa 66 % der Tumormutationen sind das Ergebnis fehlerhafter DNA-Kopierung. Rund 29 % können auf Umwelteinflüsse, incl. Lifestyle und Verhaltensfaktoren zurückgeführt werden und 5 % auf Vererbung (Abbildung 2).

Abbildung 2. Über alle untersuchten 32 Tumorarten hin gemittelt passieren 2/3 der zu Tumoren führenden DNA-Mutationen durch Zufall während der DNA-Kopierung

Zufall, Umwelt und Vererbung tragen unterschiedlich zu verschiedenen Krebserkrankungen bei

Dabei muss erwähnt werden, dass dieser Verteilungsschlüssel unter den Tumorarten beträchtlich variiert. Beispielsweise hängt die Entstehung von Lungenkrebs stark von Umwelteinflüssen ab, insbesondere vom schädigenden Effekt des Rauchens. Die Forscher schätzen daraus, dass rund 65 % der Lungenkrebs-Mutationen verhindert werden könnten. Dennoch, 35 % der Mutationen entstehen offensichtlich aus Kopierfehlern - damit lässt sich auch erklären, warum auch Menschen Lungenkrebs entwickeln, die niemals geraucht haben.

In anderen Krebsformen - einschließlich der Tumoren von Prostata, Knochen, Gehirn und der meisten Krebserkrankungen in der Kindheit - dürften zufällige Mutationen eine noch viel stärkere Rolle spielen: die Analysen schätzen, dass mehr als 95 % der Krebs-verursachenden Mutationen zufällig entstanden sein dürften (Abbildung 3).

Abbildung 3. Auf welche Weise Mutationen in Treiber-Genen für die Krebsentstehung zustandekommen (Bild wurde von Redaktion eingefügt; Daten sind [1], Table S6 "Proportion of driver gene mutations attributable to E, H, and R" entnommen).

Tumorinzidenzen sind mit der Zahl der Zellteilungen von Stammzellen korreliert

Als weiteren Nachweis für die Bedeutung von zufälligen Kopierfehlern in Tumoren haben die Forscher das Vorkommen - die Fallzahlen - von 17 Tumorarten in 69 Ländern über den ganzen Globus hin untersucht. Basis waren die Daten, die von der International Agency for Research on Cancer in Frankreich erhoben wurden. Die Forscher stellten hier die Frage ob eine unterschiedliche Teilungszahl der Stammzellen die Unterschiede in der Häufigkeit der Tumorvorkommen erklären könnte.

Tatsächlich hatten Tomasetti und Vogelstein ja bereits früher eine enge Korrelation zwischen Tumorinzidenz und Zahl der Stammzellenteilung gefunden und darüber im Jahr 2015 berichtet [2]. Allerdings hatte diese frühere Analyse beträchtliche Kritik erregt - u.a. fehlten ja Daten bezüglich zwei der häufigen Tumoren, Brust- und Prostatakrebs. Darüber hinaus war die Studie auf Einwohner der Vereinigten Staaten beschränkt.

Die neue Studie schließt nun Personen verschiedenster Nationalitäten ein, die für mehr als die halbe Weltbevölkerung repräsentativ sind: sie zeigt, dass in den 17 Arten von Krebserkrankungen - Prostata- und Brustkrebs mit eingeschlossen - tatsächlich eine enge Beziehung zwischen Tumorhäufigkeit und Zellteilungsrate besteht (Abbildung 4).

Abbildung 4. Zwischen dem Risiko während einer Lebenszeit von 80 Jahren an 17 verschiedenen Tumorarten zu erkranken und der Teilungsrate der Stammzellen in den betroffenen Organen besteht eine enge Korrelation. (Bild wurde von Redaktion eingefügt; Daten sind [1], Table 1. "Correlations between the lifetime risk of cancers in 17 tissues and the lifetime number of stem cell divisions in those tissues entnommen")

Fazit

Natürlich sollte keiner der neuen Befunde Menschen davon abhalten gesünderen Lebensgewohnheiten nachzugehen, um das Krebsrisiko zu senken. Wie die neue Studie zeigt, resultiert nahezu ein Drittel aller Krebsmutationen aus Einflüssen der Umwelt und diese können verhindert werden. Da jeder von uns die Perspektive auf unvermeidbare Krebs-erregende Mutationen ins Auge fassen muss, erscheint es angeraten alle zusätzlichen DNA-Mutationen auf ein Minimum zu reduzieren, also nicht zu rauchen, Sonnenschutz anzuwenden, das Körpergewicht zu kontrollieren und andere präventive Maßnahmen zu treffen.

Dennoch - auch Menschen, die alles richtig machen, werden die Diagnose Krebs erhalten. Wenn man den Kampf gegen den Krebs gewinnen will, werden Fortschritte in allen drei Aspekten - Prävention, früher Entdeckung und Behandlung - von zentraler Bedeutung sein.

[1] Stem cell divisions, somatic mutations, cancer etiology, and cancer prevention. Tomasetti C, Li L, Vogelstein B. Science. 2017 Mar 24;355(6331):1330-1334.

[2] Cancer etiology. Variation in cancer risk among tissues can be explained by the number of stem cell divisions. Tomasetti C, Vogelstein B. Science. 2015 Jan 2;347(6217):78-81.


*Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:"Random Mutations Play Major Role in Cancer" zuerst (am 4. April 2017) im NIH Director’s Blog:. https://directorsblog.nih.gov/2017/04/04/random-mutations-play-major-role-in-cancer/#more-8082. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

The Cancer Genome Atlas. https://cancergenome.nih.gov/ This website offers free, credible, current, comprehensive information about cancer prevention and screening, diagnosis and treatment, research across the cancer spectrum, clinical trials, and news and links to other NCI websites.

EMBL: https://www.embl.de/leben/werk/

EMBL: Vom Leben lernen.Eigenleben (Krebs)

Jochen Börner: Entstehung von Krebs. Video 4:14min (Standard-YouTube-Lizenz)


Artikel im ScienceBlog:

Gottfried Schatz 22.08.2014: Jenseits der Gene — Wie uns der Informationsreichtum der Erbsubstanz Freiheit schenkt

inge Thu, 06.04.2017 - 13:13

Eine neue Sicht auf Typ-1-Diabetes?

Eine neue Sicht auf Typ-1-Diabetes?

Do, 30.03.2017 - 06:28 — Ricki Lewis Ricki LewisIcon MedizinEiner eben erschienenen Untersuchung des Teams um B.Petersen (Universität Florida) zufolge, könnte es ein Umdenken hinsichtlich der Entstehung von Typ-1-Diabetes (T1D) geben. Demnach dürfte T1D nicht direkte Folge eines Autoimmundefekts sein und das Verfolgen des Glukosespiegels im Blut nicht der einzige Weg, um die Krankheit in den Griff zu bekommen [1]. Im Fokus steht ein neu entdecktes, bei Patienten im Übermaß vorhandenes Protein, das die Balance von Insulin und seinem Gegenspieler Glukagon in Richtung Glukagon verschiebt und so der Insulin Funktion entgegenwirkt. Die Genetikerin Ricki Lewis fasst hier die faszinierenden Ergebnisse zusammen, die neue Möglichkeiten für Diagnose und Therapie eröffnen dürften.*

Etablierte Vorstellungen in den Wissenschaften lassen sich nur schwer ändern. Beispielsweise:

Proteine sind der Stoff aus dem Gene gemacht sind,

Gene bestehen aus einem zusammenhängenden, immobilen Stück DNA,

das Genom besteht aus 120 000, nein, 80 000, nein 60 000 und schließlich aus 20325 Genen.

Sobald wir mehr in Erfahrung bringen, ändert sich unser Wissen über die Natur. Deshalb gibt es auch keinen strengen wissenschaftlichen Beweis, gerade eben Hinweise, Hypothesen und (selten) ausreichende Befunde um eine Theorie zu untermauern. Wissenschaft ist evidenzbasiert, beruhend auf Beobachtungen und Untersuchungen. Wir glauben nicht an die Evolution oder an den Klimawandel so als ob es eine Religion wäre. Dennoch kann es für einen Forscher schwierig sein Befunde aufzuzeigen, die eine gängige Vorstellung in Frage stellen.

In der Situation gegen ein Dogma anzutreten, befindet sich Bryon Petersen, Direktor des Pediatric Stem Cell Research and Hepatic Disorders Child Health Research Institute an der Universität von Florida. Seine Befunde lassen darauf schließen, dass Typ 1 Diabetes (T1D) nicht direkt aus einem Autoimmundefekt entstehen dürfte und, dass das Verfolgen des Glukosespiegels im Blut nicht der einzige Weg wäre, um die Krankheit in den Griff zu bekommen.

Mit seinem Team hat Petersen eben eine Arbeit veröffentlicht, die ein wenig bekanntes Protein, das Islet Homeostasis Protein (IHoP), in den Fokus rückt [1]:

Menschen, die an Typ 1 Diabetes leiden erzeugen zu viel von diesem IHoP. Untersuchungen an Mäusen und Menschen zeigen, dass eine Reduzierung von IHoP die Regulierung des Glukosespiegels im Blut wiederherstellt und die Zahl der Insulin-produzierenden beta-Zellen in der Bauchspeicheldrüse (dem Pankreas) erhöht. Der vielleicht wichtigste Befund: ein Übermass an IHoP im Blut der Patienten, das es zu einem möglichen neuen Biomarker für T1D macht.

Zur Anatomie des Pankreas

Das Pankreas ist eine zweifache Drüse: Der exokrine Teil erzeugt Enzyme zur Spaltung von Proteinen, Lipiden und Stärke und setzt diese in die Verdauungsflüssigkeit im Dünndarm frei.

Dies ist für Diabetes nicht von Bedeutung. Der endokrine (d.i. Hormon-erzeugende) Teil besteht aus Anhäufungen von Zellen, die als Inseln (Langerhans-Inseln) bezeichnet werden, wobei eine derartige Insel vier unterschiedliche Zelltypen beherbergt . 15 - 20 % der Inselzellen sind sogenannte alpha-Zellen, die Glukagon freisetzen (Abbildung 1). Dieses Hormon steigert den Glukosespiegel im Blut indem es in der Leber den Abbau der Speicherform Glykogen stimuliert und die Neusynthese von Glukose aus Aminosäuren.

Rund 60 % der Inselzellen sind sogenannte beta-Zellen, die ein anderes Hormon - Insulin - produzieren (Abbildung 1). Insulin ist der Gegenspieler zu Glukagon: es stimuliert die Leber Glukose zu Glykogen aufzubauen und verhindert dass andere Nährstoffe in Glukose umgewandelt werden. Zellen, die Rezeptoren für Insulin besitzen, werden durch das Hormon zur Aufnahme von Glukose aus dem Blutstrom stimuliert. Dies ist der Grund warum Training dazu führt, dass die Muskel (Skelettmuskel) Glukose aufnehmen und damit seinen Blutspiegel senken - ein den Diabetikern wohlbekannter Effekt.

Abbildung 1. Das Pankreas im Bauchraum und eine mikroskopische Aufnahme der Anhäufung - Inseln - endokriner Zellen. Glukagon-produzierende alpha Zellen sind rot, Insulin erzeugende beta-Zellenblau.

IHoP fördert die Glukagon Produktion - es wirkt damit der Funktion des Insulin entgegen. Wird im Tiermodell der diabetischen Mäuse die IHoP Produktion herunterreguliert (mittels RNA-Interferenz, auf die hier nicht eingegangen werden soll; Anm. Red), so normalisiert sich der Glukosespiegel in den Tieren.

In Patienten mit T1D enthalten die Inseln wesentlich mehr als 15 - 20 % alpha-Zellen, da die beta-Zellen absterben. Abbildung 2. Dies wird weithin als Trigger für Autoimmunangriffe angesehen, welche als primäre Auslöser der Krankheit betrachtet werden. Petersens Untersuchungen weisen nun darauf hin, dass Autoimmunität erst sekundär auftreten dürfte - dies kann wesentliche klinische Auswirkungen auf Diagnose, Überwachung und Behandlung der Krankheit haben.

Abbildung 2. Vergleich der Insel eines T1D-Patienten (links) mit der Insel eines Gesunden (rechts). Die beta- Zellen sind braun gefärbt. Im linken Bild fehlen intakte beta-Zellen, nur zerstörte Reste sind vorhanden.

Ist Autoimmunität sekundär?

Gegen eine etablierte Meinung anzugehen hat - wie Petersen meint - dazu geführt, dass seine Untersuchung erst nach fünf Jahren angenommen wurde, nachdem eine lange Reihe von Top-Journalen diese abgelehnt hatten.

"Unsere Untersuchungen erregen bei den Diabetesforschern Aufregung, da IHoP nun Dinge deuten kann, die sie selbst nicht erklären konnten. T1D ist keine Autoimmunerkrankung" sagt Petersen.

Die Verbindung zwischen dem Anstieg von IHoP und der Autoimmun-Zerstörung der beta-Zellen könnte in der Ähnlichkeit des IHoP zu Plastin liegen, einem Protein, das dafür bekannt ist, dass es an das Zytoskelett von aktivierten T-Zellen bindet und diesen Beweglichkeit verleiht. Möglicherweise ist IHoP dazu ebenfalls in der Lage - dies gibt das Bild der Autoimmunität, da Aktivierung von T-Zellen ja Bestandteil der Immunantwort ist.

Wurde die Expression von IHoP in den Mäusen herunterreguliert, so konnten deren Inselzellen länger als 35 Wochen von schädigenden Immunzellen freigehalten werden. In Petersens Veröffentlichung findet sich diese Auswirkung in Form einer Waage dargestellt (Abbildung 3): Ein Anstieg von IHoP verändert das Gleichgewicht: Glukagon ist nun oben, Insulin unten - als Folge entsteht Diabetes. Wird IHoP stillgelegt, kommt die Schaukel ins Gleichgewicht. Allerdings muss eine derartige Blockierung schon früh im Krankheitsprozess erfolgen, um die Zerstörung von beta-Zellen zu stoppen sodass das Pankreas sich rechtzeitig noch erholen und die Insulin Produktion wieder aufnehmen kann.

Abbildung 3. In gesunden pankreatischen Inseln sind Glukagon und Insulin balanciert (oben). Bei T1D (unten) wird IHoP verstärkt exprimiert, das die Glukagon-Produktion stimuliert; Insulin sinkt ab.

Das Ergebnis ist mehr als ein Abgehen von der traditionellen Betrachtung der T1D als eine Autoimmunerkrankung - es hat ein bedeutendes klinisches Potential. Petersen erklärt dies so:

"IHoP bewirkt Dreierlei: Erstens und vor allem öffnet es einen neuen Weg zum Verständnis der Krankheit. Zweitens haben wir damit ein neues Target in der Hand, um Arzneimittel/ Behandlungsformen für frisch diagnostizierte Patienten zu entwickeln. Drittens ergibt es für das Gebiet eine neuen Biomarker, der eine frühere Diagnose und damit bessere therapeutische Chancen ermöglicht."

Petersen räumt jedoch ein, dass unser Wissen über Autoimmunität noch recht beschränkt ist, eine - wie er es nennt - unglückselige Konstellation von abweichenden Immunantworten, in denen sich der Organismus gegen seine eigenen gesunden Zellen und Organe richtet und häufig in Krankheit endet. "Es ist eine fehlgeleitete Immunantwort, die möglicherweise aber nicht in einer zufallsbedingten Weise abläuft. Vielleicht ist es nicht so sehr ein Angriff auf das "Selbst", sondern eine Sekundärreaktion auf einen Vorgang, der zur Aktivierung von Antigen-präsentierenden Zellen führt, damit eine T-Zell Antwort auslöst und so den Eindruck von Autoimmunität vermittelt."

Fazit

Diabetes ist ein wesentliches Kapitel in der Geschichte der Medizin: es geht aus von Versuchen, die Frederick Banting und Charles Best (Universität Toronto) in den frühen 1920er Jahren an Hunden ausführten und dabei das ursprünglich "Isletin" genannte Hormon entdeckten und führt über Insulin-Pumpen und Insel-Transplantationen vierzig Jahre später bis zum ersten, mittels rekombinanter DNA-Technologie hergestellten Therapeutikum, 60 Jahre danach.

Möglicherweise wird mit IHop das nächste Kapitel in der Geschichte von Typ1 Diabetes aufgeschlagen.


*Der Artikel ist erstmals am 23. März 2017 in PLOS Blogs - DNA Science Blog unter dem Titel "A New View on Diabetes?" erschienen (http://blogs.plos.org/dnascience/2017/03/23/a-new-view-of-diabetes/) und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt. Die Übersetzung folgt so genau wie möglich der englischen Fassung. Von der Redaktion eingefügt: Beschriftung der Abbildungen, Untertitel.


[1] S-H Oh, ML Jorgensen, CH Wasserfall, A Gjymishka, BE Petersen. Suppression of islet homeostasis protein thwarts diabetes mellitus progression. Laboratory Investigation (2017), 1–14. http://www.nature.com/labinvest/journal/vaop/ncurrent/pdf/labinvest201715a.pdf


Weiterführende Links

Über Typ1 Diabetes (englisch): Type 1 Diabetes Facts. http://www.jdrf.org/about/fact-sheets/type-1-diabetes-facts/

Diabetes (Typ 2) im ScienceBlog

inge Thu, 30.03.2017 - 06:28

Herzmuskelgewebe aus pluripotenten Stammzellen - wie das geht und wozu es zu gebrauchen ist

Herzmuskelgewebe aus pluripotenten Stammzellen - wie das geht und wozu es zu gebrauchen ist

Do, 23.03.2017 - 22:44— Boris Greber Boris GreberIcon MedizinPluripotente Stammzellen gelten als wahre Schatzkiste - aus ihnen können theoretisch sämtliche Gewebe des menschlichen Körpers erzeugt werden, zum Beispiel von selbst schlagendes Herzmuskelgewebe. Der Molekulargenetiker Boris Greber (Forschungsgruppenleiter am Max-Planck Institut für molekulare Biomedizin, Münster) zeigt wie dies funktioniert und wie der Prozess besser kontrolliert werden kann. Mit seinem Team hat er hat herausgefunden, wie und welche zellulären „Steuerungshebel“ zur richtigen Zeit umgelegt werden müssen. Es ist ein eigentlich erstaunlich einfaches, in zwei Schritten verlaufendes Verfahren, das sich nutzen lässt, um an Herzmuskelzellkulturen die Ursachen genetisch bedingter Herzkrankheiten zu ergründen und mögliche Wirkstoffe zu testen.

Klettern im Entscheidungsbaum

Die meisten Zellen unseres Körpers sind hochspezialisiert und nehmen, je nach ihrer Lage, nur die ihnen zugeteilten Aufgaben wahr: Nervenzellen im Gehirn brauchen wir zum Denken, Muskelzellen zur Bewegung und so weiter. Mehr als 200 unterschiedliche Zelltypen tragen wir in uns. Man kann sich diese als Spitzen eines weit verzweigten Baumes vorstellen. Abbildung 1 zeigt das in vereinfachter Form.

Doch wie entsteht die Vielfalt? Die Antwort findet sich in den Anfängen der menschlichen Individualentwicklung. Pluripotente Stammzellen sind die unspezialisierten Vorläufer aller unterschiedlichen Zelltypen unseres Körpers. Sie stellen quasi den Hauptstamm des Baumes dar (Abbildung 1). Durch vielfache Teilung und Differenzierung durchlaufen die Zellen bei der Embryonalentwicklung eine Reihe unterschiedlicher Zwischenstufen, bis sie schließlich einen bestimmten Endzustand annehmen - insgesamt ein Prozess von ungeheurer Komplexität.

Abbildung 1. Humane pluripotente Stammzellen lassen sich im Labor in Kolonieform vermehren. Das untere Bild zeigt eine undifferenzierte Kolonie aus mehreren Hundert Zellen. Durch mehrstufige Differenzierung entlang der Hauptachsen Endoderm, Mesoderm und Neuro-Ektoderm entstehen spezialisierte Körperzellen, die in den Beispielen durch Fluoreszenzfarbstoffe markiert wurden. Die Herzmuskeldifferenzierung beinhaltet Mesodermbildung als Zwischenstufe. © Max-Planck-Institut für molekulare Biomedizin/Greber

Die Umkehrung des Prozesses: induziert-pluripotente Stammzellen

Einmal Nervenzelle, immer Nervenzelle - so dachte man lange Zeit. Aber der Prozess ist umkehrbar! Seit einigen Jahren ist es technisch möglich, beliebige Körperzellen, zum Beispiel Bindegewebszellen der Haut oder sogar Wurzelzellen einzelner Haare, umzuprogrammieren und in den embryonalen Stammzellzustand zurückzuversetzen. Während sich die meisten Körperzellen als spezialisierte Zellen nicht weiter teilen können, lassen sich die so erzeugten, induziert-pluripotent genannten Stammzellen (iPS-Zellen) praktischerweise fast unbegrenzt im Labor vermehren. Dabei behalten iPS-Zellen ihre zweite definierende Eigenschaft, nämlich sich in unterschiedliche spezialisierte Körperzellen differenzieren zu können, fortlaufend bei. Ein besonderer Zustand ist das also offenbar, in dem diese Zellen vorliegen: hochgradig vermehrungsfreudig und allzeit bereit, differenzierungsmäßig „Gas zu geben“.

Dass sich menschliche pluripotente Stammzellen auch im Labor, in einer Kulturschale mit etwas Nährflüssigkeit, in eine Reihe unterschiedlicher Zelltypen differenzieren lassen, macht sie für Forscher so interessant. Denn mit diesem System lassen sich Zusammenhänge zur Entstehung des menschlichen Körpers auf zellulärer Ebene herausfinden. Ein weiteres Ziel ist es, die auf iPS-Zellen basierende Gewebezüchtung medizinisch nutzbar machen. Wenn man iPS-Zellen in einer Kulturschale mit einfacher Nährlösung, das heißt ohne Stoffe, welche ihren undifferenzierten Zustand stabilisieren, sich selbst überlässt, bildet sich tatsächlich eine Reihe spezieller Zelltypen spontan aus, zum Beispiel Leberzellen, Herzmuskelzellen oder Nervenzellen (Abbildung 1). Das Problem: bei dieser Herangehensweise entstehen wilde Gemische differenzierter Zellen.

Wie lassen sich die Zellen auf kontrollierte Weise durch den „Entscheidungsbaum“ navigieren, so dass man ein einzelnes, gewünschtes Zellgewebe in hoher Ausbeute erhält? Diese Frage beschäftigt das Labor für humane Stammzellpluripotenz am Max-Planck-Institut für molekulare Biomedizin.

Heute die grüne Pille, morgen die rote

Viele Jahre entwicklungsbiologischer Forschung lieferten eine Reihe von Erkenntnissen darüber, wie die Stammzelldifferenzierung in einem neu entstehenden Organismus kontrolliert abläuft. Gesteuert werden diese komplexen Prozesse durch Signalstoffe - oftmals spezialisierte Proteine, die von außen an Zellen im Embryo „andocken“. Diese Informationen werden in den Zellkern weitergeleitet. Dort führen sie zur Abschaltung stammzellspezifischer Gene und zur Anschaltung von Genen, die für den angestoßenen Differenzierungsprozesses nötig sind. Eine Reihe biotechnologischer Firmen stellen solche Signalstoffe einzeln her. Mit ihnen lässt sich untersuchen, welche Stoffe in den Zellen welche Prozesse auslösen und welche Gene dabei reguliert werden. Solche Zusammenhänge aufzudecken war ein zentrales Anliegen der Forschergruppe, um zu entschlüsseln, wie aus pluripotenten Stammzellen spontan schlagendes Herzmuskelgewebe entstehen kann (Abbildung 1).

Zunächst wurde durch Ausprobieren herausgefunden, in welcher Kombination und zeitlicher Abfolge die unterschiedlichen Signalfaktoren zugesetzt werden müssen. Dies lässt sich mit folgendem Bild erläutern:

Man stelle sich vor, die Stammzelle (hPS) sei ein Ball, der einen Hügel in gewünschter Richtung - Richtung Herzmuskel – hinunter rollen soll. Hierbei gibt es aber hintereinanderliegende Steine, die aus dem Weg zu räumen sind. Sie entsprechen unterschiedlichen regulatorischen Genen, welche den Differenzierungsprozess an zwei aufeinanderfolgenden Punkten hemmen. Es hätte nun, wie Abbildung 2 verdeutlicht, keinen Sinn, zunächst den weiter talwärts gelegenen Brocken zu beseitigen. Man sollte mit dem ersten anfangen und sich erst anschließend um Nummer zwei kümmern. In der konkreten Forschung heißt das: erst müssen den Zellen die Signalmoleküle BMP und WNT zugeführt werden, die den Austritt aus dem pluripotenten Zustand ermöglichen und die Zellen in einen Zwischenzustand überführen (Mesoderm). In einem zweiten Schritt wird die Nährlösung durch eine solche ersetzt, die einen Gegenspieler zum WNT-Signal enthielt (anti-WNT), so dass der weitere Weg in den Herzmuskelzustand frei wird (Abbildung 2).

Abbildung 2. Die Stammzelldifferenzierung erfordert die Beseitigung regulatorischer Barrieren. Durch die Behandlung der Zellen mit den Signalmolekülen BMP und WNT, und anschließend mit anti-WNT, werden Gene ausgeschaltet, welche die Herzmuskeldifferenzierung hemmen. Die Zellen verlieren im Laufe dieses Prozesses allmählich ihr anfangs hohes Potenzial, unterschiedlichste Zelltypen hervorbringen zu können.© Max-Planck-Institut für molekulare Biomedizin/Greber

Überraschend war für die Forschergruppe die Erkenntnis, dass die Steuerung des Prozesses zum großen Teil auf der Beseitigung dieser Barrieren beruht und nur teilweise auf der Notwendigkeit, dem Ball anfangs einen ordentlichen Tritt zu versetzen. Die initiale Ausschaltung des Regulatorgens SOX2 (Abbildung 2) scheint dabei ein universeller Mechanismus zu sein, um die mesodermale Differenzierung zu starten – sowohl beim Menschen als auch in vielen anderen Organismen.

Derart einfache Eingriffe in die Signalwege der Stammzellen können also durchaus ausreichen, um einen an sich komplizierten, mehrstufigen Prozess hin zu spezialisierten Körperzellen zu steuern.

Krankheitsforschung in der Kulturschale

Im Falle der Herzmuskeldifferenzierung war das Verfahren so effizient, dass nahezu sämtliche Zellen in der Kulturschale in spontan kontrahierendes Gewebe überführt wurden - ähnlich einem autonom schlagenden Herzen im Zuge einer Organtransplantation. Damit war eine wichtige Voraussetzung erfüllt, um das System für angewandte Zwecke zu nutzen. Die Forscher entnahmen einem Patienten mit einer erblichen Herzkrankheit, dem Jervell-Lange-Nielsen-Syndrom (JLNS), Hautzellen und reprogrammierten diese in pluripotente iPS-Zellen (Abbildung 3).

Abbildung 3. iPS-Zellen dienen der patientenspezifischen Krankheitsmodellierung. Arbeitsablauf zur Generierung von iPS-Zellen und daraus abgeleiteten Herzmuskelgewebes aus Zellproben von Patienten. Die farbigen Kügelchen stellen Gene dar, die den Prozess der Reprogrammierung bewerkstelligen.© Max-Planck-Institut für molekulare Biomedizin/Greber

Anschließend differenzierten sie die Stammzellen in patientenspezifische Herzmuskelzellen, die weiterhin den ursächlichen Gendefekt in sich trugen. Diese Zellen brachten sie auf Elektrodenchips auf, um deren elektrische Aktivität messen zu können - zu vergleichen mit der Aufzeichnung eines Elektrokardiogramms bei Herzpatienten, bei der man Elektroden auf der Körperoberfläche anbringt (Abbildung 4).

Abbildung 4. Ein Cluster aus Herzmuskelzellen wurde auf punktförmigen Elektroden mit Leiterbahnen aufgebracht. Auf diese Weise lassen sich elektrische Signale ableiten. Unter Grundbedingungen schlagen Kontroll- und Patientenzellen ähnlich schnell und regelmäßig (obere Aufzeichnung). Nach Zugabe eines Adrenalin-Analogons schlagen die Kontrollzellen schneller (links unten). Die Patientenzellen hingegen entwickeln wellenförmige, sogenannte TdP-Arrhythmien (rechts unten). © Max-Planck-Institut für molekulare Biomedizin/Greber

Im Vergleich zu gesunden Kontrollzellen verhielten sich die Patientenzellen tatsächlich wie erhofft: das Herzmuskelgewebe mit dem Gendefekt zeigte Arrhythmien, wenn man ihm ein Adrenalin-Analogon zusetzte, während die Kontrollzellen lediglich schneller schlugen. Diese Reaktion ähnelt der erhöhten Herzschlagfrequenz in Stressituationen, wobei JLNS-Patienten lebensbedrohliche Rhythmusstörungen erleiden können (Abbildung 4).

Ausblick: patientenspezifische Krankheitsmodellierung

Der Vorteil dieses Verfahrens besteht darin, dass es - durch die Vermehrbarkeit der iPS-Zellen - einen unbegrenzten Zugang zu patientenspezifischem Zellmaterial bietet.

An solchen patientenspezifischen Herzzellen lassen sich mögliche Medikamente testen, ohne den Patienten zu gefährden oder Tierversuche durchführen zu müssen. In der Tat fand die Forschergruppe eine Substanz, welche die Zellen vor der Auslösung von Arrhythmien unter Stress schützte. Die Potenz dieses Wirkstoffes muss weiter verbessert werden, bevor die tatsächliche Anwendung bei Patienten in Frage käme, doch zeigt die Arbeit der Wissenschaftler, wie sich aus grundlagenorientierter Stammzellforschung neue Anwendungsmöglichkeiten für die Medizin ergeben.


* Der unter dem Titel " Herzmuskelgewebe aus pluripotenten Stammzellen - wie das geht und wozu es zu gebrauchen ist" im Jahrbuch der Max-Planck Gesellschaft 2017 erschienene Artikel (https://www.mpg.de/10877559/vasb_jb_2017; DOI 10.17617/1.3B) wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint ungekürzt, geringfügig für den Blog adaptiert (für's leichtere Scrollen wurden einige Absätze und Untertitel eingefügt), allerdings ohne Literaturangaben. Die großteils nicht frei zugänglichen Veröffentlichungen sind im Jahrbuch ersichtlich und können auf Wunsch zugesandt werden.


Glossar

Induzierte pluripotente Stammzellen (iPS-Zellen) sind aus Körperzellen gewonnene Stammzellen, die sich in ebenso viele verschiedene Körperzellen differenzieren können wie embryonale Stammzellen.

Adulte Stammzellen sind in zahlreichen Geweben Erwachsener vorhandene Stammzellen, die nicht pluripotent sind aber sich teilweise in iPS-Zellen verwandeln lassen.

Ausdifferenzierte Zelle ist eine Körperzelle, die auf ihre Funktion spezialisiert ist.


Weiterführende Links

Max-Planck-Institut für molekulare Biomedizin, Münster

Verjüngungskur von Zellen (2010). Video 7:20 min. Prof.Dr.Hans Schöler, Direktor des MPI für Biomolekulare Medizin (Münster), hat das Gen OCT4 entdeckt mit dessen Hilfe normale Körperzellen zu Stammzellen reprogrammiert werden können.

Dazu ein Artikel aus 2009: Potenzmittel für Zellen. (PDF-Download)

The Winding Road to Pluripotency (2012) Nobelpreis-Vortrag (english) von Shinya Yamanaka (Kyoto University), der Körperzellen in pluripotente Stammzellen reprogrammierte. (PDF-Download)

inge Thu, 23.03.2017 - 22:24

Zur Dynamik wandernder Dürren

Zur Dynamik wandernder Dürren

Do, 16.03.2017 - 11:27 — Internationales Institut für angewandte Systemanalyse (IIASA)

IIASAIcon GeowissenschaftenDürreperioden gehören zu den größten Naturkatastrophen und kommen den betroffenen Völkern sehr teuer zu stehen. Unter den besonders starken Dürren gibt es solche, die sich - in der Art eines langsam ziehenden Wirbelsturms - hunderte bis tausende Kilometer von ihren Entstehungsorten fortbewegen. Um derartige Situationen besser vorhersagen und entsprechende Vorkehrungen treffen zu können, ist es unabdingbar zu verstehen, wie Dürren sich entwickeln und welche physikalischen Gegebenheiten ihre Dynamik kontrollieren. Ein Forscherteam des Internationalen Instituts für Angewandte Systemanalyse (IIASA, Laxenburg bei Wien) und der Princeton University (USA) hat nun ein Modell zur Entwicklung von Dürren in Raum und Zeit erarbeitet. Dieses basiert auf der Analyse von Daten über 1420 Trockenheiten, die im Zeitraum 1979 bis 2009 weltweit auftraten.*

Die meisten Menschen glauben, dass Dürren ein lokales oder regionales Problem sind. Dies ist auch größtenteils der Fall. Tatsächlich können aber rund zehn Prozent der Dürren zu "wandern" beginnen. Sie ziehen dabei in der Art eines Wirbelsturms weiter, allerdings wesentlich langsamer: anstelle der für Wirbelstürme üblichen Tage bis Wochen benötigen Dürren für ihre Wanderung Monate bis Jahre. Dabei legen sie Strecken zurück, die - je nach Kontinent - zwischen 1400 und 3100 km betragen können und tendieren dazu die stärksten und schlimmsten Dürren zu sein. Sie haben ein enormes Potential größte Schäden in Landwirtschaft, Energie- und Wasserversorgung anzurichten (Abbildung 1) und enorme Probleme für humanitäre Hilfsbereiche hervorzurufen.

Abbildung 1. Dürre - Fische in einem fast ausgetrockneten See (das von der Redaktion beigefügte Bild stammt von "Max Pixel" und ist gemeinfrei).

Räumliche Muster der Ausbreitung von Dürren

In der vergangenen Woche sind im Fachmagazin"Geophysical Research Letters" die Ergebnisse einer Zusammenarbeit von Forschern des Internationalen Instituts für Angewandte Systemanalyse (IIASA, Laxenburg bei Wien) und der Princeton University (USA) erschienen, die einen neuen Zugang zum Verständnis derartiger wandernder Dürren zeigen. Beschränken sich die meisten der bisherigen Studien darauf entweder die zeitlichen Änderungen der Trockenheit in einer definierten Region zu untersuchen oder aber deren räumliche Variabilität in einem definierten Zeitraum, so berücksichtigt diese neue Arbeit gleichzeitig Raum und Zeit, um die Dynamik sich entwickelnder Dürren zu erfassen [1]:

Als Basis dienten dem Forscherteam Trockenheitsdaten aus dem Zeitraum von 1979 bis 2009 (Quelle: "Climate Forecast System Reanalysis (CFSR)" ). Diese Daten haben die Forscher analysiert und daraus weltweit 1420 Dürren identifiziert. Zusammenhängende, von Dürre betroffene Regionen wurden in Cluster zusammengefasst und diese räumlich und zeitlich verfolgt. Dabei haben sie auf jedem Kontinent Hotspots festgestellt, wo eine Reihe von Dürren ähnliche Wege genommen hat (Abbildung 2). Beispielsweise zeigen im Südwesten der USA auftretende Dürren eine Tendenz vom Süden nach dem Norden zu ziehen. Für Australien fanden die Forscher zwei Hotspots und bevorzugte Wanderungsrichtungen von Dürren, nämlich von der Ostküste in nordwestliche Richtung und von den zentralen Ebenen in nordöstliche Richtung.

Abbildung 2. Hotspots der Routen, die Dürren im Zeitraum von 1979 bis 2009 genommen haben. Justin Sheffield (University Southampton): "There might be specific tipping points in how large and how intense a drought is, beyond which it will carry on growing and intensifying.(Daten basieren auf der Analyse von 1420 Dürren [1]; Bild: http://www.iiasa.ac.at/web/home/about/news/170307-drought.html, ©Julio Herrera-Estrada)

Die Ursache, warum Dürren zu wandern beginnen, bleibt unklar. Die Daten lassen aber darauf schließen, dass es Rückkoppelungen zwischen Niederschlag und Verdunstung in Atmosphäre und Boden sein dürften, die eine wesentliche Rolle spielen. Der Studie zufolge könnte es für das Ausmaß und die Schwere einer Dürre spezifische Schwellwerte geben - werden diese überschritten, so wird die Dürre weiter wachsen und in ihrer Intensität zunehmen.

Die Dynamik der wandernden Dürren

Während der Beginn einer Dürreperiode schwierig vorauszusagen ist, bietet die Studie eine neues Modell, das es Forschern ermöglichen sollte bessere Prognosen zur räumlichen und zeitlichen Entwicklung und Dauer von Dürren zu erstellen, als es bisher möglich war.

Die Studie zeigt aber auch, wie wichtig hier regionale Zusammenarbeit und Austausch von Informationen über alle nationalen Grenzen und Staatsgrenzen hinweg sind. Ein Beispiel dafür ist der Nordamerikanische Dürremonitor (Abbildung 3). Hier laufen Messungen und weitere Informationen aus Mexiko, den US und Canada zusammen und bilden ein umfassendes Überwachungssystem in Echtzeit.

Abbildung 3. Der Nordamerikanische Trockenheitsmonitor (North American Drought Monitor - NADM): wie sich die Trockenheit vom Feber 1987 bis März 1988 entwickelte. (Bilder stammen von der IIASA Website http://www.iiasa.ac.at/web/home/about/news/170307-drought.html). Nach Aussage des US National Centers for Environmental Information haben seit 1980 größere Dürren und Hitzewellen allein in den US Schäden von mehr als 100 Milliarden Dollar verursacht (https://www.ncdc.noaa.gov/temp-and-precip/drought/nadm/overview).

Wie geht es weiter?

In einem nächsten Schritt wollen die Forscher nun die Ursachen für die Wanderung der Dürren untersuchen, indem sie die Rückkoppelung von Niederschlägen und Verdunstung genauer durchleuchten. Julio Herrera-Estrada, der Erstautor der vorliegenden Studie (Bau- und Umwelt­ingenieurwesen, Princeton University, US) möchte auch analysieren welchen Einfluss der Klimawandel auf die Charakteristik von Dürren nimmt.


[1] Herrera-Estrada JE, Satoh Y, & Sheffield J (2017). Spatiotemporal Dynamics of Global Drought. Geophysical Research Letters: 1-25. DOI:10.1002/2016GL071768.


*Der von der Redaktion aus dem Englischen übersetzte, geringfügig für den Blog adaptierte Text und die Abbildungen 2 und 3 stammen von der am 7. März auf der Webseite des IIASA erschienenen Pressemitteilung “Traveling” droughts bring new possibilities for prediction: http://www.iiasa.ac.at/web/home/about/news/170307-drought.html.

IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website in unserem Blog zugestimmt. Die gemeinfreie Abbildung 1 wurde von der Redaktion zugefügt.


Weiterführende Links

Internationales Institut für Angewandte Systemanalyse (IIASA): http://www.iiasa.ac.at/

Die Aufgabe des IIASA besteht darin mit Hilfe der angewandten Systemanalyse Lösungen für globale und universelle Probleme zum Wohl der Menschen, der Gesellschaft und der Umwelt zu finden, und die daraus resultierenden Erkenntnisse und Richtlinien den politischen Entscheidungsträgern weltweit zur Verfügung zu stellen.

inge Thu, 16.03.2017 - 11:27

Vor 76 Jahren: Friedrich Wessely über den Status der Hormonchemie

Vor 76 Jahren: Friedrich Wessely über den Status der Hormonchemie

Do, 09.03.2017 - 07:19 — Inge Schuster Inge SchusterIcon Wissenschaftsgeschichte

Vor 50 Jahren ist der österreichische Chemiker Friedrich Wessely (1897 -1967) gestorben. Wie kaum ein anderer Universitätslehrer hat er an der Universität Wien - beginnend von den 1920er Jahren bis zu seinem Tod - Generationen von Wissenschaftern geprägt und seine Ansichten erscheinen nach wie vor unglaublich aktuell. Der vorliegende Text - die gekürzte Fassung eines Vortrags, den er 1941 über eines seiner Forschungsgebiete gehalten hat - endet mit den Worten: "Das Ziel der Naturwissenschaft: die unendliche Vielheit des Lebens, das uns umgibt und in das auch wir gestellt sind, zu erfassen und, soweit es dem menschlichen Geist gegeben ist, zu erkennen, wird nur erreichbar sein, wenn sich die Vertreter der Einzelwissenschaften zu einem immer enger werdenden Gedanken- und Erfahrungsaustausch zusammenfinden, um durch die Synthese ihrer Einzelergebnisse wieder ein Ganzes zu schaffen." *

Abbildung 1. Univ.Prof. Dr. Friedrich Wessely um 1966 (Quelle unklar, das Bild hat uns F. Wessely geschenkt).

Wessely war ein hervorragender, ungemein motivierender Lehrer, der uns aktuellstes Wissen vermittelte und es verstand das von ihm geleitete Institut für Organische Chemie unter ungemein schwierigen Verhältnissen auf einen modernen Standard zu bringen. Dies bedeutete in den 1960er Jahren die Ausstattung mit neuesten analytisch spektroskopischen Einrichtungen - der Kernresonanz- und Massenspektrometrie - ebenso wie die Etablierung einer Theoretischen Organischen Chemie.

Als noch ganz junger Soldat war Wessely im 1. Weltkrieg schwer verletzt worden. Er hatte dann im Rekordtempo Chemie studiert , wurde Mitarbeiter am Kaiser Wilhelm Institut für Faserchemie (Berlin, Dahlem) und bereits von 1927 an Leiter der Abteilung für Organische Chemie an der Universität Wien. 1948 trat er schließlich die Nachfolge von Ernst Späth als Leiter des II. Chemischen Institutes (später "die Organische Chemie") dieser Universität an.

Wessely liebte die Herausforderung in neue Gebiete vorzudringen. Seine Forschungsarbeiten betrafen Themen aus der Organischen Chemie und speziell aus der Naturstoffchemie. Er leistete u.a. Pionierarbeiten zur Synthese von nieder- und hochmolekularen Peptiden, klärte die Struktur von pharmakologisch wichtigen Naturstoffen (von Coumarinen, Flavonen) auf und beschäftigte sich vor allem auch mit Hormonen, u.a. mit "körperfremden weiblichen Sexualhormonen", die zur Entwicklung einer Reihe von pharmakologisch wichtigen Stoffen führten.

Wie schwierig und langwierig es war aus riesigen Materialmassen kleinste Mengen an Naturstoffen zu isolieren, in ihrer Struktur aufzuklären und durch Synthese neu herzustellen, ohne die heutigen analytischen Möglichkeiten, ist kaum mehr vorstellbar. Vielleicht kann aber der Vortrag "Einige neuere Ergebnisse der Hormonchemie", den Friedrich Wessely am 12. Februar 1941 im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse" gehalten hat, einen Eindruck davon vermitteln. Der Vortrag erscheint im Folgenden in einer für den Blog adaptierten, gekürzten Form mit einigen zusätzlichen Untertiteln.

Friedrich Wessely: Einige neuere Ergebnisse der Hormonchemie

Vortrag am 12. Februar 1941 im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse" *

Ein wichtiger Zweig der heutigen modernen organischen Chemie beschäftigt sich mit der Isolierung und chemischen Erforschung von im Pflanzen- und Tierreich vorkommenden Stoffen. Diese interessieren nicht nur den Chemiker, sondern auch andere naturwissenschaftliche Disziplinen, so z. B. den Zoologen, Botaniker, Biologen und Mediziner. Diese Tatsache bedingt auch die Zusammenarbeit verschiedener Wissenszweige und je größer deren gemeinsames Interesse an einer Frage ist, desto intensiver gestalten sich die wechselseitigen Anregungen, desto fruchtbarer wird die Zusammenarbeit, die in den meisten Fällen zu wirklich wertvollen Ergebnissen führt. Der im Jahre 1941 verstorbene große deutsche Chemiker und Techniker C. Bosch, dem wir neben vielen anderen die technische Ammoniaksynthese verdanken, hat den Satz geprägt: „Alle wirklichen Fortschritte liegen auf Grenzgebieten." Von einem solchen Grenzgebiet soll im folgenden die Rede sein, von den Hormonen.

Wir verstehen unter Hormonen

heute Stoffe, die vom Organismus selbst erzeugt, diesem zur Steuerung bestimmter für sein Leben wichtiger Reaktionen dienen. Sie liegen meist nur in sehr kleinen Mengen vor und der Chemiker hätte die meisten der heute bekannten Hormone noch nicht isoliert, wenn er nicht das biologische Experiment als Ausgangspunkt und als Hilfe für seine Untersuchungen zur Verfügung hätte. Durch den biologischen Versuch wurde und wird auch heute noch der Nachweis geführt, dass bestimmte Vorgänge und Reaktionen des lebenden Organismus isolierbare stoffliche Ursachen haben müssen. Erst wenn dieser Nachweis erbracht ist, beginnt die Arbeit des Chemikers, dem die Feindarstellung, die Aufklärung des chemischen Baues und die Synthese des Wirkstoffes obliegt. Es ist wichtig, die Stoffe, die am Lebensgetriebe beteiligt sind, rein darzustellen, denn nur so kann ihre Wirkung gegen die von anderen Stoffen hervorgerufene abgegrenzt werden.

Mit der Kenntnis bestimmter von gewissen Stoffen hervorgerufenen Endwirkungen stehen wir aber erst am Anfang des Weges. Denn vor uns liegt noch die Aufgabe, in den feineren Mechanismus der biologischen Reaktionen und in deren Neben- und Miteinanderlaufen einzudringen. Hierüber wissen wir fast nichts oder nur sehr wenig. Es liegen hier Forschungsaufgaben für Generationen vor und die Frage, wieweit sich uns überhaupt das Geheimnis der Lebensvorgänge entschleiern wird, muss heute unbeantwortet bleiben. Es ist sicher, dass heute nur ein Teil aller das Getriebe eines Organismus steuernden Stoffe bekannt ist.

Biologische Versuche weisen stoffliche Ursachen für Vorgänge in Organismen nach

Es soll hier zunächst von Hormonen die Rede sein, deren Wirken durch biologische Versuche sichergestellt, deren chemische Untersuchung aber noch nicht abgeschlossen ist.

Thyroxin - das Schilddrüsenhormon

Die Metamorphose bestimmter Tiere wird durch Hormone, also hormonal gesteuert. Es ist schon eine ältere Erkenntnis, daß das Thyroxin (I), das Hormon der Schilddrüse bei der Kaulquappe zu einer verfrühten Metamorphose in die Landform führt.

Man beobachtet im normalen Entwicklungsgang unmittelbar vor der Metamorphose ein Ansteigen der Absonderungstätigkeit der Schilddrüse. Nimmt man die Schilddrüse aus einer Larve heraus, so verwandelt sich diese nicht. Sie ist aber wieder dazu imstande, wenn man ihr Schilddrüsensubstanz oder deren wirksames Prinzip das Thyroxin zufügt. Im Falle des Thyroxins bewirkt also ein altbekanntes, den Stoffwechsel vielfach beeinflussendes Hormon auch als morphogenetisches oder Formbildungshormon den Übergang von einer Entwicklungsstufe zu einer anderen. Richtung und Verlaufsart der Veränderungen sind aber in den reagierenden Zellen vorbestimmt. Wir kennen also von dem Mechanismus der Metamorphose nur das Anfangsglied, das die heute noch unbekannte Reaktionskette der Verwandlung auslöst.

Das Verpuppungshormon

Neuere Versuche haben auch gezeigt, dass die Insektenmetamorphose hormonal gesteuert wird. Schnürt man eine erwachsene Schmetterlingsraupe, die kurz vor der Verpuppung steht, quer durch, so verpuppt sich nur das Vorderende, während das Hinterende unverpuppt bleibt. Ebenso verliert die ganze Raupe die Verpuppungsfähigkeit, wenn man ihr das Gehirn herausnimmt. Sie stirbt dann aber nicht rasch ab, sondern kann als Dauerraupe Wochen, ja Monate unter Verbrauch des angesammelten Fettvorrates weiterleben. Setzt man einer solchen „Dauerraupe" das Gehirn einer anderen erwachsenen Raupe irgendwo in den Leib, dann kann Verpuppung eintreten. Das Gehirn bewirkt die Verpuppung also nicht als nervöses Zentralorgan, sondern als Spender eines Stoffes, des Verpuppungshormons. Die Metamorphosenhormone sind nicht artspezifisch. Aus jungen Schmetterlingspuppen ließ sich ein Extrakt gewinnen, der Verpuppungserscheinungen bei Dauermaden von Fliegen hervorruft, die wie die „Dauerraupen" durch Abschnüren des Vorderendes erhalten wurden. Bei Insekten mit vollständiger Verwandlung setzt sich die Metamorphose aus mehreren einschneidenden Wandlungen zusammen und jede dieser Entwicklungsphasen wird hormonal gesteuert. Bei den Insekten werden mehrere verschiedene Entwicklungsschritte durch mehrere nacheinander auftretende Hormone ausgelöst. In der letzten Zeit sind von dem deutschen Chemiker Butenandt Versuche zur Isolierung und Charakterisierung solcher Verpuppungshormone in Angriff genommen worden.

Organlokalisierende Stoffe

Man kennt auch Versuche, die darauf hinweisen, dass es Wirkstoffe gibt, die die Ausbildung bestimmter Organe an bestimmten Orten bewirken. Man kann in diesem Fall von „organlokalisierenden" Wirkstoffen sprechen. Beispiele kennt man aus der Entwicklung der Wirbeltiere, vor allem der Amphibien. Durch Transplantationsversuche hat Spemann schon vor längerer Zeit gezeigt, dass gewisse Teile eines Molchkeimes an andere Stellen anderer Molchkeime transplantiert, an diesen Stellen die Ausbildung der Organe hervorrufen, die sonst normalerweise aus diesen Keimstücken gebildet werden. Diese induzierte sekundäre Embryonalanlage kann eine beträchtliche Größe und einen hohen Grad der Ausbildung der Körperteile erreichen, sodass der Keim als Doppelbildung erscheint. Das implantierte Material erweist sich also als Organisator, der in dem benachbarten Keimmaterial Organanlagen induziert. Diese Induktionswirkung vollzieht sich offenbar durch ein chemisches Mittel, das von dem implantierten Stück des Keimes gebildet wird. Denn auch ein durch Hitze, Gefrierenlassen, Aceton-Äther abgetötetes Stück ruft zum mindesten einen Teil der von dem intakten Hautstück hervorgerufenen Wirkungen hervor. Ein Teil der Induktionswirkungen lässt sich auch durch chemische bekannte Stoffe, wie z. B. Ölsäure hervorrufen. Die bisher bekannten chemischen Mittel rufen allerdings nie zusammenhängende Organkomplexe hervor, so wie sie von einem Stück lebenden Gewebes hervorgerufen werden. Weitere Versuche zeigten auch, dass die Induktoren nicht artspezifisch sind. Aber welche Organe entstehen, das ist artspezifisch, d. h. die hervorgerufene Organisation entspricht der Natur des reagierenden Materials. Dies wird bewiesen durch Gewebeaustausch zwischen Arten mit sehr verschiedenen Einzelorganen. Die Molchlarven haben auf ihren Kiefern Zähne, die Froschlarven Hornscheiden. Pflanzt man nun in die Gesichtsgegend eines jungen Molchkeimes ein Stück Bauchhaut eines Froschkeimes, so bildet dieses Hautimplantat unter der Induktionswirkung der Umgebung eine Mundbucht mit Mundbewehrung und entsprechend der Natur der Froschhaut erhält die Molchlarve ein Froschmaul mit einem Hornkiefer. Die Reaktion, die durch Induktionsreize ausgelöst wird, wird also durch die Erbanlagen des reagierenden Stückes gesteuert.

Steuerung durch Gene

Diese Erbanlagen oder Gene, die in bestimmten Teilen der Chromosomen im Zellkern lokalisiert sind, verursachen bekanntlich die Übertragung bestimmter Eigenschaften von Generation zu Generation. In die Natur der Gene ist man von der chemischen Seite aus noch nicht sehr weit eingedrungen, wenngleich auch hier in den letzten Jahren wichtige Ergebnisse gewonnen werden konnten. Hier sei einiges über die Art der Genwirkung berichtet. Prinzipiell sind zwei Möglichkeiten der Genwirkung gegeben:

  1. eine einzelne Erbanlage wirkt nur unmittelbar in der Zelle, die damit unter bestimmte Entwicklungsbedingungen kommt (innerzellige Genwirkung);
  2. unter der Wirkung bestimmter Erbanlagen wird in bestimmten Zellen ein Wirkstoff gebildet, welcher an andere Stellen abgegeben wird und in anderen Zellen bestimmte Bildungsvorgänge auslöst (zwischenzellige Genwirkung). In diesem Fall sind also zwischen dem Gen und dem ausgebildeten Merkmal diffusible Wirkstoffe eingeschaltet, die wir wegen ihrer Beziehungen zum Gen als „Genhormone" bezeichnen. (Versuche, die die Existenz derartiger Wirkstoffe sicherstellen, wurden beispielsweise an der Mehlmotte Ephestia ausgeführt.)

Chemische Charakterisierung

Je tiefer wir in das Geheimnis des Zellgeschehens eindringen wollen, desto schwieriger werden die Aufgaben des Chemikers. Wir verfügen heute über keine Methodik, Stoffe, die nur in Gewichtsmengen von Mikrogramm vorliegen, zu isolieren. Unsere heutige Mikrochemie ist für diese Aufgabe noch viel zu grob. Meist ist aber die Isolierung eines Stoffes die unumgänglich notwendige Voraussetzung zur chemischen Charakterisierung.

Manche biologische Reaktionen sind unspezifisch

Bestimmte biologische Reaktionen können nicht allein von dem natürlichen Wirkstoff hervorgerufen werden. Dies hat (neben dem bedeutenden theoretischen Interesse) auch unter Umständen große praktische Bedeutung. Der natürliche pflanzliche Wuchsstoff, das Auxin, ist synthetisch nicht zugänglich und aus seinem natürlichen Vorkommen isoliert ein äußerst kostbarer Stoff. Man kann aber fast alle seine Wirkungen mit dem sogenannten Heteroauxin nachahmen, das heute ein leicht und billig erhältliches Material darstellt. Auch bei den Vitaminen finden wir zahlreiche Fälle von Unspezifität.

In der letzten Zeit hat man in dieser Richtung auch auf dem Gebiet der Zoohormone Erfolge erzielt. Es wurden Verbindungen gewonnen, die in allen wichtigen Wirkungen einem weiblichen Sexualhormon, dem Follikelhormon entsprechen. In quantitativer Hinsicht wird dieses sogar von den künstlichen Stoffen noch übertroffen.

Weibliche Sexualhormone

Zu den weiblichen Sexualhormonen zählen wir die sogenannten gonadotropen Hormone des Hypophysen-Vorderlappens und die Keimdrüsen- oder Gonadenhormone selbst. Gonadotrop werden die Hormone der Hypophyse genannt, weil sie die Tätigkeit der Keimdrüsen regeln. Sie gehören zu den Eiweißstoffen und dementsprechend weiß man sehr wenig über ihren chemischen Bau. Von weiblichen Gonadenhormonen gibt es zwei: das Follikelhormon und das Hormon des Gelbkörpers oder Corpus luteum. Ersteres wird auch als östrogenes Hormon bezeichnet, weil, eine seiner Wirkungen beim Tier in der Auslösung der Brunst, des Östrus besteht. Man kennt mehrere körpereigene Östrogene, die sämtlich in nahen chemischen Beziehungen zu einander stehen. (Abbildung 2). Vom Chemiker werden sie zu den Steroidverbindungen gezählt. Von körpereigenen Hormonen mit Corpus luteum-Wirkung kennen wir bisher nur ein einziges, das sogenannte Progesteron, das ebenfalls zu den Steroiden zu zählen ist

Abbildung 2. Weibliche Gonadenhormone sind nah-verwandte Steroidverbindungen.

Durch eine Unterfunktion der Hypophyse oder der Keimdrüsen wird die Produktion der diesen Organteilen eigentümlichen Hormone gestört. Durch eine Zufuhr der „Ausfallshormone" können die entstandenen krankhaften Zustände meist günstig beeinflusst werden und die Therapie mit weiblichem Sexualhormon ist aus der modernen Medizin nicht mehr wegzudenken.

Die genannten Hormone sind aber recht teure Substanzen und dieser Umstand ließ eine Therapie mit ihnen auf breitester Basis nicht zu. Für die weiblichen Gonadenhormone ist die Totalsynthese bisher nur für das Equilenin gelöst. Der Weg, der zu diesem Stoff führt, ist sehr umständlich. Die anderen weiblichen Gonadenhormone werden entweder aus ihren natürlichen Vorkommen isoliert oder durch entsprechende Umbaureaktionen aus Sterinen dargestellt, beides Wege, die sehr teuer und umständlich sind. Durch die Untersuchungen, über die im folgenden berichtet wird, ist man aber in den Besitz von östrogenen Stoffen gelangt, die wesentlich billiger sind. Seit 1932 liefen anfangs vor allem von Engländern ausgeführte Versuche, die es sich zum Ziele setzten, die für die östrogene Wirkung notwendigen strukturellen Voraussetzungen näher zu bestimmen. Es wurde eine sehr große Zahl der verschiedensten Verbindungen auf ihre östrogene Wirkung hin untersucht. Dabei zeigte sich, daß diese auch bei Stoffen eintrat, die mit den natürlichen östrogenen chemisch gar keine oder zum mindesten nur sehr wenig Beziehungen hatten. Besonders interessant war die östrogene Wirkung von Verbindungen, die sich vom Stilben ableiten lassen. Auch der Verfasser und seine Mitarbeiter haben sich seit 1937 mit der Synthese solcher Stoffe befasst, in deren Verlauf es fast gleichzeitig mit den Engländern gelang, ein besonders hochwirksames Produkt zu gewinnen, das sogenannte Diäthylstilböstrol (Abbildung 3).

Abbildung 3. Vom Stilben abgeleitete Verbindungen sind östrogen wirksam

Auch eine Reihe von anderen Verbindungen, die sich von diesem Stoff durch Absättigung der Doppelbindung durch Wasserstoff oder Sauerstoff ableiten, zeigten hohe östrogene Aktivität. An zahlreichen Stellen des In- und Auslandes durchgeführte biologische Versuche er gaben, dass zwischen diesen künstlichen östrogenen und den natürlichen keine wesentlichen Wirkungsunterschiede bestehen. Für die praktische Verwendung musste auch die Toxizität der synthetischen Verbindungen geprüft werden; dabei ergaben sich keine Hinweise dafür, daß deren Verwendung für den Menschen irgendwie gefährlich sein könne. Es wurden also auch bald das Diäthylstilböstrol und gewisse Derivate von ihm klinisch erprobt. Und es wird heute von allen Klinikern übereinstimmend angegeben, daß die synthetischen Präparate alle Wirkungen der körpereigenen Hormone herzurufen imstande sind. Sie werden also schon heute in großem Umfang bei allen Indikationen der Gynäkologie, inneren Medizin und Dermatologie verwendet, die bisher den körpereigenen Follikelhormonen vorbehalten waren. Auch für die Veterinärmedizin sind diese Verbindungen wegen ihrer Billigkeit von Wichtigkeit.

Ausblick

Die synthetischen Östrogene sind eines von vielen Beispielen, die zeigen, dass eine zunächst aus theoretischen Gründen begonnene Arbeitsrichtung von bedeutendem praktischen Erfolg begleitet sein kann. Man wird erwarten können, dass man auch für andere Hormone und Vitamine billigere Ersatzpräparate finden wird. Es soll hier auch auf die soziale Seite dieser Untersuchungen hingewiesen werden: eine Hormontherapie mit billigeren Präparaten kann die breitesten Volksschichten erfassen.

Bei der Suche nach Ersatzhormonen wird man aber gegenwärtig auf die Empirie angewiesen sein, da man auf Grund der heutigen Kenntnisse nicht angeben kann, welchen chemischen Bau ein Ersatzhormon haben muss. Hier ist noch sehr viel Arbeit zu leisten.

Es gilt den Ursachen für die gleichartige Wirkung chemisch verschieden gebauter Stoffe nachzuspüren und man kann erwarten, dabei auch Einblicke in den Wirkungsmechanismus der natürlichen Wirkstoffe zu gewinnen. Auch diese Untersuchungen setzen wieder eine intensive Zusammenarbeit verschiedener Wissenschaftszweige voraus.

Das Ziel der Naturwissenschaft: die unendliche Vielheit des Lebens, das uns umgibt und in das auch wir gestellt sind, zu erfassen und, soweit es dem menschlichen Geist gegeben ist, zu erkennen, wird nur erreichbar sein, wenn sich die Vertreter der Einzelwissenschaften zu einem immer enger werdenden Gedanken- und Erfahrungsaustausch zusammenfinden, um durch die Synthese ihrer Einzelergebnisse wieder ein Ganzes zu schaffen.


* Friedrich Wessely (1947): Einige neuere Ergebnisse der Hormonchemie. Schriften des Vereines zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien 81-85: 1-23. http://www.zobodat.at/pdf/SVVNWK_81_85_0001-0023.pdf

Der sehr lange Vortrag wurde für den Blog adaptiert und stark gekürzt. Insbesondere fehlt der Teil über Versuche von Franz Moewus, der die Grünalge Chlamydomonas als Modellobjekt der Genetik verwendete: diese Versuche standen später unter der Kritik Fälschungen zu sein.


Weiterführende Links

Redaktion 26.12.2014: Popularisierung der Naturwissenschaften im 19. Jahrhundert. Über den Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien im ScienceBlog

inge Thu, 09.03.2017 - 07:19

Gentherapie - Hoffnung bei Schmetterlingskrankheit

Gentherapie - Hoffnung bei Schmetterlingskrankheit

Do, 02.03.2017 - 09:02 — Eva Maria Murauer

Eva Maria MurauerIcon Medizin

Die Schmetterlingskrankheit - Epidermolysis bullosa (EB) - ist eine derzeit (noch) nicht heilbare, seltene Erkrankung, die durch Mutationen in Strukturproteinen der Haut hervorgerufen wird und in Folge durch eine extrem verletzliche Haut charakterisiert ist. Dr. Eva Maria Murauer vom EB-Haus Austria zeigt, dass sich derartige Mutationen in den Stammzellen von Patienten mittels Gentherapie korrigieren lassen und aus den so korrigierten Zellen Hautäquivalente produziert werden können, welche die Haut von EB-Patienten stückweise ersetzen und (langfristig) die Charakteristik einer stabilen, gesunden Haut bewahren können.*

Was ist Epidermolysis bullosa (Schmetterlingskrankheit)?

Unter die Bezeichnung Epidermolysis bullosa (EB) fällt eine Reihe von angeborenen Erkrankungen, die durch eine extrem verletzliche Haut charakterisiert sind, welche bereits nach leichten mechanischen Reizen Blasen bildet, die Wunden nach sich ziehen. Da die Haut von EB-Patienten in ihrer Fragilität einem Schmetterlingsflügel gleicht, wird EB volkstümlich auch als Schmetterlingskrankheit bezeichnet und die (vorwiegend jungen) Patienten als "Schmetterlingskinder" (Abbildung 1).

Abbildung 1. Epidermolysis bullosa (EB) ist eine angeborene, derzeit noch nicht heilbare Erkrankung, die nicht nur auf die Haut beschränkt bleibt. Bei geringster mechanischer Belastung bilden sich Blasen, es entstehen schmerzende Wunden, oft gefolgt von Vernarbungen. Bei manchen EB-Formen kommt es auch zu Verwachsungen von Fingern und Zehen.

Allerdings bleibt die Erkrankung nicht auf die Haut beschränkt, es können auch innere Organe und die Schleimhäute (z.B. im Mund oder im Verdauungstrakt) betroffen sein, einige bullöse Erkrankungstypen führen zu sehr aggressiven Hautkrebsformen.

EB gehört zu den seltenen Erkrankungen, an der weltweit rund 500 000 Menschen- also einer von 17 000 - leiden (in Österreich rechnet man mit rund 300 "Schmetterlingskindern"). Die Ursachen von EB sind bekannt: es wurden bis jetzt Mutationen in mehr als 18 Genen identifiziert, die für Strukturproteine in der Haut kodieren, welche die Haftung der obersten Hautschichten - der Epidermis - an die darunterliegende Schicht - der Dermis - bewirken (Abbildung 2). Ist eines dieser Proteine defekt oder nicht mehr (in ausreichender Menge) vorhanden, so ist der Zusammenhalt der Hautschichten gestört und es kommt dort bereits bei leichten mechanischen Reizen zu Blasenbildung und schmerzenden Wunden. Je nachdem welches Protein an welcher Stelle der Epidermis/Dermis defekt ist, resultieren unterschiedlich schwer verlaufende Typen von EB (Abbildung 2).

Abbildung 2. Epidermolysis bullosa wird durch defekte und/oder fehlende Strukturproteine (rechts) verursacht, die für den Zusammenhalt der Hautschichten Epidermis und Dermis (linkes Schema und Histologie, Mitte) essentiell sind. Je nachdem wo die Blasenbildung auftritt werden unterschiedliche EB-Typen definiert (EBS: EB simplex, JEB: junktionale EB, DEB: dystrophe EB, KS: Kindler Syndrom).

Wie kann man EB behandeln?

EB ist derzeit (noch) nicht heilbar, es können bloß Symptome behandelt werden, in langwierigen Prozeduren Wunden verbunden, Infektionen vorgebeugt und Schmerzen gelindert werden. Öffentliche Gesundheitssysteme sind auf die besonderen Herausforderungen einer derartigen seltenen Erkrankung kaum vorbereitet. Vor 22 Jahren wurde in Großbritannien von den Eltern an EB erkrankter Kinder und Ärzten eine Selbsthilfegruppe - DEBRA - gegründet. Inzwischen ist DEBRA zu einem internationalen Netzwerk in mehr als 50 Ländern angewachsen und seit 1995 auch in Österreich präsent. Die Organisation finanziert sich aus Spenden. Ihr Ziel ist es die Lebensqualität der Betroffenen zu verbessern, kompetente medizinische Versorgung anzubieten und durch weltweite Förderung von Spitzenforschung mitzuhelfen, wirksame Therapien zu finden und zu entwickeln.

An Strategien zur Behandlung dieser Erkrankungen wird intensiv geforscht - im Fokus stehen vor allem Strategien zur Gentherapie, die ja die Ursache der Erkrankung beheben könnte, daneben das Einbringen von Zellen gesunder Spender (Zelltherapie), das Ersetzen defekter Strukturproteine und die medikamentöse Behandlung zur Linderung der Beschwerden (Abbildung 3).

Abbildung 3. Strategien zur Therapie von Epidermolysis bullosa. Die blau hervorgehobenen Kästchen zeigen einige der von der Forschungseinheit im EB-Haus Austria verfolgten Strategien. Diacerein ist ein synthetisches anti-entzündliches Arzneimittel, das derzeit für EB in der klinischen Entwicklung ist.

Das EB-Haus in Salzburg

DEBRA Austria hat im Jahr 2005 eine Spezialklinik, das EB-Haus Austria, an den Salzburger Landeskliniken eröffnet, das mittlerweile im Bereich EB zu einem europaweit anerkannten "Centre of Expertise" geworden ist. Das EB-Haus ist Teil der Salzburger Universitätsklinik und ermöglicht so unter einem Dach eine umfassende Palette an Untersuchungen und Maßnahmen: von Diagnostik und medizinischer Versorgung für "Schmetterlingskinder" über Grundlagenforschung und klinische Studien bis hin zu Vernetzung und Ausbildung von medizinischem Fachpersonal und Betroffenen.

Im EB-Haus streben wir vor allem an, mittels Gentherapie ein defektes Gen durch ein intaktes zu ersetzen. Daneben entwickeln wir Methoden, um Mutationen auf der Ebene der RNA-Moleküle zu korrigieren - das sogenannte mRNA trans-splicing -, eine Methode, in der kein ganzes Gen eingebracht wird, sondern nur der defekte Teil eines Gens ausgetauscht wird. Seit kurzem untersuchen wir auch den Einsatz einer Genkorrektur mittels der CRISPR-Cas9 Genschere. (Abbildung 3.) Alle diese Methoden bieten viele Vorteile, haben aber auch Schwachstellen.

Eine erfolgreiche ex-vivo Gentherapie - eine Fallstudie

Primär beschäftigen wir uns mit der Entwicklung einer ex-vivo Gentherapie. Dabei werden dem Patienten Hautproben entnommen und die darin befindlichen Stammzellen isoliert. In diese Stammzellen wird dann in der Zellkultur das intakte Gen eingefügt, die so korrigierten Zellen vermehrt und zu sogenannten "skin sheets" (dünnen Oberhautschichten) gezüchtet. Mit dieser neuen Haut können dann Wundflächen des Patienten abgedeckt werden. Da diese Haut einen gesunden Ersatz für das früher defekte Strukturprotein produziert, ist der Zusammenhalt der Hautschichten wieder hergestellt, daher sollte es hier keine Blasenbildung mehr geben. Dies haben wir vor kurzem an einer EB-Patientin verifizieren können.

Es handelte sich dabei um eine vom österreichischen Gesundheitsministerium genehmigte Studie, die in Zusammenarbeit mit dem Zentrum für Regenerative Medizin in Modena (Italien) erfolgte. Die einzelnen Schritte der ex-vivo Gentherapie sind in Abbildung 4 schematisch dargestellt. Die Patientin, eine 49-jährige Frau, litt an der junktionalen EB-Form: sie hatte ein defektes Laminin-Gen und konnte damit das Laminin Protein, einen wesentlichen Bestandteil der Basalmembran zwischen Epidermis und Dermis, nicht bilden. Seit Geburt litt sie an schweren Hauterosionen. Insbesondere hatte sie seit mehr als 10 Jahren eine große offene Wunde am rechten Bein, die trotz aller Therapieversuche nicht heilte und laufend zu schweren Infektionen führte.

Abbildung 4. Erfolgreiche Heilung einer Beinwunde bei junktionaler EB durch Transplantation von körpereigenen korrigierten Stammzellen der Haut. Kooperation: EB-Haus Austria (Salzburg) und Zentrum für Regenerative Medizin, Modena (Italien). Das defekte Laminin-Gen wurde durch ein intaktes Gen ersetzt. Immunfluoreszenzfärbung (grün) zeigt das Laminin-Protein in den korrigierten Stammzellen und 1 Jahr nach Transplantation in einer Hautbiopsie an der korrekten Position zwischen Epidermis und Dermis. Außerhalb der transplantierten Fläche (schwarz umrandet) treten weiter Erosionen auf. (Die obersten 3 Fotos stammen aus J.Bauer et al., 2016 [1] und sind unter cc-by-sa-nd lizensiert.)

Von dieser Patientin entnahmen wir Hautbiopsien aus der Handfläche. Das Team in Modena isolierte daraus Hautstammzellen und korrigierte diese mit einem intakten Laminin-Gen. Dabei wurde ein Retrovirus als Vektor verwendet, der das Gen stabil in die Zellen integrierte. Als wir die korrigierten Zellen untersuchten, zeigte es sich, dass alle Zellen nun ein intaktes Laminin (Abbildung 4, ganz unten) produzierten: Dies war nun keine Korrektur des mutierten Gens - dieses befand sich weiter in den Zellen, es war bloß ein zusätzliches intaktes Gen zugefügt worden (Abbildung 4, Schema).

Aus den so korrigierten Stammzellen wurden dann zwei skin sheets im Ausmaß von jeweils 35 cm2 produziert. Diese neue Haut transplantierten wir dann auf die Beinwunde der Patientin. Bereits neun Tage danach konnten wir dort regenerierende Haut beobachten, Nachuntersuchungen auch nach 12 Monaten zeigten stabile, intakte Haut, die auch nach mechanischem Reiben keine Blasen mehr bildete. Um nachzuweisen, dass diese Haut noch korrigierte Zellen enthielt, haben wir Gewebeproben entnommen und histologisch auf das Vorhandensein des Laminin-Proteins geprüft. Dies war der Fall: Das eingebrachte Laminin-Gen produzierte an der Grenzfläche von Epidermis/Dermis in den Hauttransplantaten nachhaltig funktionierendes Laminin-Protein (Abbildung 4, rechts oben).

Unerwünschte Nebeneffekte der Behandlung traten bis jetzt nicht auf.

Diesen erfolgreichen Ansatz wollen wir nun an einer weiteren EB-Form - der dystrophen EB - in einer Phase 1/Phase 2 klinischen Studie prüfen. Bei dieser EB-Form fehlt den Patienten zwischen Epidermis und Dermis das Protein Kollagen VII, dies führt zu sehr schweren Blasenbildungen. Die Studie wurde von den zuständigen österreichischen Behörden sowie der Ethikkommission bereits genehmigt und kann an bis zu zwölf Patienten durchgeführt werden.

Erste Versuche zur Korrektur des Kollagen VII-Gens mittels der CRISPR Cas9 Technologie

Bei dieser neuen Technologie wird kein zusätzliches Gen in die Hautzelle eingebracht, sondern die Mutation wird im defekten Gen direkt und bleibend korrigiert. Sind dominant vererbte Erkrankungen durch ein falsch funktionierendes Protein bedingt, so ist dies zweifellos gegenüber der oben beschriebenen Methode von Vorteil - es wird kein zusätzliches, fehlerhaftes Protein mehr produziert. Ein weiterer wichtiger Vorteil besteht darin, dass kein Virusvektor notwendig ist, um die Genreparatur zu bewerkstelligen und damit kein, wenn auch geringes, Risiko einer Tumorentstehung eingegangen wird.

Wir haben nun die CRISPR Cas9 Technologie benützt, um eine Mutation auf dem Kollagen VII-Gen in den Hautzellen eines Patienten zu korrigieren, der an dystropher EB leidet. Bei dieser Methode wird das Enzym Cas9 eingesetzt, um das Gen nahe der mutierten Stelle durchzuschneiden, wobei die präzise Positionierung der Schnittstelle durch ein an Cas9 gebundenes kurzes Gegenstück zur zu schneidenden DNA - einer "guide RNA" - ermöglicht wird. Wir haben ein derartiges Cas9-guide RNA-Konstrukt zusammen mit einer Donor-Sequenz (ohne Mutation) angewandt, welche den DNA Strangbruch reparierte ("homologe Rekombination") und zu einem korrekten Kollagen 7-Gen führen sollte. Dies war der Fall: Die korrigierten Zellen produzierten nun das Kollagen VII-Protein (Abbildung 5).

Abbildung 5. Erfolgreiche Korrektur des mutierten Kollagen VII- Gens mittels der CRISPR Cas9 Technologie. (Das Schema von CRISPR Cas9 stammt aus: M.Jinek et al., 2013, https://elifesciences.org/content/2/e00471 und ist unter cc-by-sa lizensiert.)

In weiterer Folge untersuchten wir - im Tierversuch -, ob die korrigierten Zellen nun eine einwandfreie Haut bilden können, mit dem Kollagen VII-Protein an der richtigen Position zwischen Epidermis und Dermis. Dazu haben wir die Zellen in Kultur zu Hautäquivalenten wachsen lassen und diese dann auf den Rücken von Mäusen transplantiert (um die Abstoßung des humanen Gewebes zu verhindern, erfolgten die Versuche an immundefizienten Mäusen). Vier Wochen später wurden dann Biopsien der angewachsenen Transplantate untersucht. Tatsächlich fand sich Kollagen VII an der richtigen Position.

Fazit

EB verursachende Mutationen lassen sich prinzipiell in den Hautzellen von EB-Patienten mittels Gentherapie korrigieren. Die aus korrigierten Zellen produzierten Hautäquivalente bewahren (langfristig) die Charakteristik einer stabilen, gesunden Haut und könnten die Haut von EB-Patienten stückweise ersetzen. Primär geht es dabei um die Abdeckung besonders geschädigter Hautareale. Ähnliches gilt auch für die neue CRISPR Cas9 Technologie: erste Versuche zeigen, dass diese (relativ) einfache und risikoarme Methode zweifellos geeignet ist, um EB-verursachende Mutationen und den EB-Phänotyp zu korrigieren. Bevor dieses Verfahren allerdings am Menschen erprobt werden kann, muss seine Effizienz noch gesteigert und seine Spezifität analysiert werden.


[1] J W. Bauer, Josef Koller, Eva M. Murauer, et al.,(2016) Closure of a Large Chronic Wound through Transplantation of Gene-Corrected Epidermal Stem Cells J Invest Dermatol. 2016 Nov 10. http://www.jidonline.org/article/S0022-202X(16)32636-7/pdf (open access under CC BY-NC-ND license)

*Eine ausführlichere Darstellung des Themas findet sich in dem Vortrag "Gene therapy approaches for epidermolysis bullosa, den die Autorin im November 2016 anlässlich der Feier zur Verleihung des Wilhelm-Exner Preises gehalten hat: https://slideslive.com/38899167/gene-therapy-approaches-for-epidermolysis-bullosa . Video (englisch) 15:45 min .


Weiterführende Links

DEBRA International: http://www.debra-international.org/homepage.html

DEBRA Austria: http://www.debra-austria.org/startseite.html

EB-Haus an den Salzburger Landeskliniken: www.eb-haus.org

Videos

DEBRA Austria - So fühlt sich das Leben für ein "Schmetterlingskind" an. (2015) Video 7:26 min Standard-YouTube-Lizenz

So fühlt sich das Leben für ein Schmetterlingskind an (2011, DEBRAustria) Video 7:56 min. Standard-YouTube-Lizenz

EB-Haus: Spezialklinik für Schmetterlingskinder (2012, DEBRAustria) Video 4:31 min. Standard-YouTube-Lizenz

Das Leben eines Schmetterlingskindes, Teil 1 (DEBRA Südtirol) Video 6:00 min, und Fortsetzung. Standard-YouTube-Lizenz


Artikel zum Thema Gentherapie im ScienceBlog.at

Francis S. Collins, 02.02.2017: Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie

Artikel zum Thema Haut im ScienceBlog.at

I.Schuster, 17.07.2015: Unsere Haut – mehr als eine Hülle. Ein Überblick. http://scienceblog.at/unsere-haut.

inge Thu, 02.03.2017 - 09:02

Optogenetik erleuchtet Informationsverarbeitung im Gehirn

Optogenetik erleuchtet Informationsverarbeitung im Gehirn

Do, 23.02.2017 - 22:01 — Gero Miesenböck Gero MiesenböckIcon Gehirn-Fliege

Optogenetik ist eine neue Technologie, die Licht und genetisch modifizierte, lichtempfindliche Proteine als Schaltsystem benutzt, um gezielt komplexe molekulare Vorgänge in lebenden Zellen und Zellverbänden bis hin zu lebenden Tieren sichtbar zu machen und zu steuern. Diese, von der Zeitschrift Nature als Methode des Jahres 2010 gefeierte Strategie revolutioniert (nicht nur) die Neurowissenschaften und verspricht bahnbrechende Erkenntnisse und Anwendungen in der Medizin. Gero Miesenböck, aus Österreich stammender Neurophysiologe (Professor an der Oxford University), hat diese Technologie entwickelt und zeigt hier auf, wie mit Hilfe der Optogenetik die neuronale Steuerung des Schlafes erforscht werden kann.*

Wenn Sie Puzzles wie Sudoku mögen, haben Sie wahrscheinlich die Erfahrung gemacht, dass die bloße Betrachtung eines schwierigen Problems nicht immer zur Lösung führt. Häufig ist es aussichtsreicher das Problem spielerisch anzugehen, verschiedene Lösungsansätze auszuprobieren, um dann eventuell ein Muster zu finden, das in allen Punkten genügt. Dies gilt ebenso für den Neurowissenschafter, der das Gehirn besser verstehen möchte.

Invasive Eingriffe in das Nervensystem

In der Vergangenheit haben Neurowissenschafter das Gehirn vor allem beobachtet, aber nicht damit "gespielt". Der Grund, dass es so viele Betrachtungen und so wenig invasive Eingriffe gegeben hat, liegt in der enormen Komplexität der Nervensysteme (Abbildung 1). Sogar das Hirn der kleinen Fruchtfliegen, mit denen wir arbeiten, enthält an die 100 000 Nervenzellen und Millionen von Verbindungen zwischen diesen Zellen.

Abbildung 1. Das zentrale Nervensystem: ein undurchdringliches Dickicht aus Zellen und Verbindungen zwischen diesen Zellen.

Wo kann man aber in einem so undurchdringlichen Dickicht zu untersuchen beginnen?

Eines der frühesten und berühmtesten invasiven Experimente steht am Beginn der Neurowissenschaften undstammt von Luigi Galvani. Galvani berichtete 1791 darüber, wie er den Schenkelnerv eines präparierten Frosches durch elektrische Impulse erregte und dabei beobachtete, dass der Schenkel zuckte. Dieses Experiment hat erstmals unwiderlegbar gezeigt, dass elektrische Impulse die Träger der Information im Gehirn sind, und dass man die Funktion des Gehirns durch Einführen von elektrischen Impulsen steuern kann. Allerdings hat das Experiment von dem Frosch nicht viel übrig gelassen. Die unserem intelligenten Verhalten zugrundeliegenden neuronalen Vorgänge wird man nur schwerlich verstehen, wenn man das ganze System auseinandernehmen muss (bottom-up Ansatz), um es untersuchen zu können.

Untersucht man die Funktion von Schaltkreisen mit Hilfe von Elektroden, die man in einem "Meer an erregbarem Gewebe" platziert, so zeigen sich viele Schwachstellen.

  • Erstens ist es ein Herumstochern. Man weiß oft nicht, was sich unter der stimulierten Stelle befindet, was genau stimuliert wird.
  • Für die Zahl der Elektroden, die man gleichzeitig verwenden kann,gibt es eine physikalische Grenze – bestenfalls wird man eine Handvoll Stellen steuern können. Man geht heute davon aus, dass die Rechenleistung des Gehirns auf parallelgeschalteten Prozessen vieler Nervenzellverbände beruht: diese über verschiedene Hirnregionen verteilten Systeme gleichzeitig zu kontrollieren, erscheint praktisch unmöglich.
  • Ein wesentlicher Nachteil ist, dass die Spezifität des Stimulus einzig darauf beruht, wo die Elektrode sitzt. Wenn sich diese Position experimentell-bedingt verschiebt, ändert sich natürlich die Art des Einflusses. Das macht Untersuchungen an Tieren, die sich frei bewegen können, sehr schwierig.
  • Ein massives Problem ist auch, dass die Versuchsanordnung keine biologische Spezifität ermöglicht. Das heißt, man kann sich nicht aussuchen, zu welcher bestimmten Klasse von Neuronen man "spricht". Man weiß nicht einmal, wie weit das Signal reicht, wie viele Zellen in der Umgebung aktiviert werden.

Die Optogenetik hat diese Schwierigkeiten überwunden: anstatt ein Signal exakt zu positionieren, versucht man definierte Nervenzellen durch genetische Manipulation für eine Stimulation sensibilisierbar zu machen.

Was ist überhaupt Optogenetik?

Zwei Bestandteile – Gene und Photonen – haben dem Gebiet den Namen Optogenetik gegeben. Allerdings nicht ganz zutreffend, da wir ja eigentlich nicht die Funktion von Genen kontrollieren, sondern die Funktion von deren Genprodukten, also von Proteinen, die in den betreffenden Zellen erzeugt werden.

Die Nervenzellen des Gehirns besitzen unterschiedliche genetische Signaturen – unterschiedliche Expressionsmuster einer Gruppe von Genen, die für bestimmte Zellpopulationen charakteristisch sind. Die Optogenetik bedient sich nun dieser Signaturen und spricht selektiv Nervenzellen an, die ein Markergen einer solchen Signatur exprimieren. Mit molekularbiologischen Methoden werden in derartige Zellen dann Ionenkanäle eingefügt, welche den Kanälen ähnlich sind, die allen elektrischen Signalen in unserem Nervensystem zugrundeliegen, mit einer wichtigen Ausnahme: Die Kanäle sind an Photorezeptoren gekoppelt (Abildung 2). Diese Photorezeptoren entsprechen in groben Zügen jenen, welche uns in unseren Augen zum Sehen befähigen. Trifft Licht auf einen solchen Rezeptor, so verändert er seine Gestalt, die Formänderung überträgt sich auf die Pore des Ionenkanals und diese öffnet sich: Ein schwacher elektrischer Strom fließt, und das Neuron feuert ein elektrisches Signal.

Abbildung 2. In einem Dickicht von Nervenzellen (oben) wird eine Zellpopulation anhand eines charakteristischen Markergens selektiert (pinkfarbene Neuronen, Mitte). In diese wird gentechnisch ein Ionenkanal eingefügt, der an einen Photorezeptor gekoppelt ist (unten rechts).

Mittels optischer Fernsteuerung lassen sich so Nachrichten an Zellpopulationen senden und lesen, auch, wenn die Zellen im Nervensystem weit von einander entfernt liegen und sich deren Positionen verändern, wenn sich ein Versuchstier bewegt. Die Zellen wissen ja, dass sie selbst die Zielobjekte der Stimulation sind; sie decodieren die Signale und wandeln sie in elektrische Energie um.

Optogenetik öffnet drei bisher versperrte experimentelle Zugänge zum Verständnis des Gehirns

Auffinden der Ursachen des Verhaltens

Optogenetik macht es möglich die Ursachen festzustellen, die intelligentem Verhalten zugrundeliegen. In der Biologie gilt die Rekonstitution eines Systems häufig als strengster Beweis einer Kausalität. Will man als Biochemiker demonstrieren, dass ein bestimmtes Molekül kausal in einem bestimmten Prozess involviert ist, so stellt man dieses Molekül rein her, fügt es dem Testsystem zu und beobachtet, ob man so den Prozess ablaufen lassen kann.

Die Optogenetik ist für den Neurobiologen das Äquivalent der Rekonstitution. Optogenetik erlaubt es – metaphorisch gesprochen – Erregungsmuster, die normalerweise Lebensvorgängen zugrundeliegen, "rein darzustellen", sie ins Hirn zurückzuspielen und zu sehen, ob man auf diese Weise Wahrnehmung, Handeln, Emotion, Gedanken und Gedächtnis rekonstruieren kann.

Gelingt dies, kann man plausibel argumentieren, die unseren Verhaltensweisen zugrundeliegenden Informationsmuster verstanden zu haben.

Auffinden von interneuronalen Verbindungen

Ein zweiter bisher verschlossener Zugang befähigt uns, Verbindungen zwischen den Neuronen zu kartographieren – eine Voraussetzung für die Entschlüsselung der Schaltkreise im Gehirn. Die klassische Methode, nach verknüpften Partnern mittels zweier einzeln platzierter Elektroden zu suchen, ist äußerst mühsam, die Wahrscheinlichkeit solche Zellen aufzufinden sehr gering. Wird nun eine der Elektroden durch einen Lichtstrahl ersetzt, der über das Gewebe rastert und – wann immer er auf einen verbundenen Partner trifft – einen Impuls auslöst, so werden Durchsatz und Spezifität der Suche um Größenordnungen erhöht.

Auffinden von neuronalen Mechanismen

Der dritte Zugang, den wir mit Hilfe der Optogenetik öffnen konnten, ermöglicht die Suche nach neuronalen Mechanismen. Wenn man eine Idee hat, wie ein neuronales System arbeiten könnte, dann kann eine gezielte Manipulation des Systems zeigen, ob man recht oder unrecht hat.

Was dank der technologischen Fortschritte heute bereits möglich ist, möchte ich im Folgenden an Hand eines Beispiels aus unserer rezenten Forschung darstellen, das alle drei Fortschritte veranschaulicht:

Die neuronale Steuerung des Schlafes

Schlaf ist eines der großen biologischen Rätsel. Jede Nacht melden wir uns für 7 - 8 Stunden von der Außenwelt ab - ein Zustand, der uns verwundbar und handlungsunfähig macht, also Risiken und Kosten mit sich bringt. Stellen Sie sich vor, die Evolution hätte ein Tier hervorgebracht, das ohne Schlaf auskommt. Dieses Tier würde alle anderen übertreffen: während die anderen schlafen, könnte es jede Ressource aufstöbern und Feinde außer Gefecht setzten. Die Tatsache, dass es kein derartiges Tier gibt, sagt uns, dass Schlaf etwas Lebenswichtiges ist. Was dieses lebenswichtige Etwas ist, wissen wir jedoch nicht.

Wir versuchen an dieses Problem heranzugehen, indem wir die neuronalen Mechanismen verstehen möchten, die normalerweise Schlafen und Wachen steuern. In allen mit Gehirnen ausgestatteten Lebewesen gibt es dafür zwei Steuerungssysteme, die in unterschiedlicher Weise oszillieren. Abbildung 3.

  • Eine Sinuskurve charakterisiert die zirkadiane Uhr – die innere Uhr –, die synchron mit den vorhersehbaren, durch die Erdrotation verursachten Änderungen der Umwelt oszilliert. Als solcher ist dies ein adaptiver Mechanismus, der uns schlafen lässt, wenn es am wenigsten problematisch ist. Er löst er aber nicht das Rätsel, warum wir überhaupt schlafen müssen, um zu überleben..
  • Die Lösung dieses Rätsels wird wahrscheinlich kommen, wenn wir das zweite Kontrollsystem – den Schlafhomöostat – verstehen, der dem zirkadianen System überlagert ist. Während der Wachphase geschieht etwas (wir wissen nicht, was es ist) in unserem Gehirn oder unserem Körper, und wenn dieses Etwas einen Schwellwert erreicht, schlafen wir ein. Während des Schlafes erfolgt ein Zurückstellen des Systems, und der Zyklus beginnt von Neuem, wenn wir erwachen.

 

Abbildung 3. Schlaf und Wachen werden in allen Lebewesen durch zwei oszillierende Steuerungssysteme- die zirkadiane Uhr (untere Sinuskurve) und den Schlafhomöostat (überlagerte Kurve) – reguliert.

Unter normalen Bedingungen wird uns nicht bewusst, dass wir diese beiden Kontrollsysteme in uns haben, da sie synchron verlaufen. Ein Interkontinentalflug oder eine durchwachte Nacht können aber eine Phasenverschiebung induzieren, und dann stoßen zirkadiane Uhr, die uns wachhält, und Schlafhomöstat, der uns einschlafen lassen will, zusammen und ergeben eine unerfreuliche Mischung von extremer Müdigkeit und Schlaflosigkeit.

Nach mehr als vier Jahrzehnten Forschung ist die Funktionsweise der zirkadianen Uhr auf der molekularen, sowie der zellulären und Systemebene bereits gut verstanden. Im Gegensatz dazu war bis vor Kurzem über den Schlafhomöostat praktisch nichts bekannt.

Steuerung von Schlafen und Wachen am Modell der Fruchtfliege

Vor einigen Jahren hat Jeff Donlea Nervenzellen im Gehirn der Fliege entdeckt, die den Schlaf steuern. Mittels Optogenetik konnten wir zeigen, dass diese Zellen die Outputfunktion des Schlafhomöostaten darstellen (Abbildung 4). Überraschend ist die kleine Zahl der Zellen: von insgesamt 100 000 Neuronen sind es bloß 24. Dennoch, wenn man diese Zellen (wie oben beschrieben) mit Licht stimuliert, schlafen die Fliegen sehr schnell ein.

Wir untersuchen dies auf folgende Weise: wir fixieren eine Fruchtfliege an ihrem Kopf, unter ihren Beinen ist eine drehbare Styroporkugel, auf der sie läuft, solange sie wach ist (Abbildung 4, oben links) die Rotationen der Kugel zeichnen wir optisch auf. Gleichzeitig messen wir die elektrische Aktivität des Gehirns: bei geöffneter Kopfkapsel haben wir in eine der 24 schlafsteuernden Zellen eine Messelektrode platziert; zusätzlich haben wir in alle 24 Zellen die Licht-sensitiven Ionenkanäle eingebaut (Abbildung 4, oben rechts). Solange wir das Licht nicht einschalten, produzieren diese Ionenkanäle keine elektrischen Ströme, und die Fliege läuft munter dahin. Sobald das Licht angeschaltet wird, beginnen die Zellen elektrische Impulse auszusenden, und die Bewegungen des Tieres hören sehr schnell auf – das Tier schläft (Abbildung 4, unten). Schalten wir das Licht wieder aus, so stoppt die elektrische Aktivität,die Fliege erwacht und läuft, schalten wir es ein, schläft die Fliege. Wir haben also einen Schalter gefunden, der es uns erlaubt, mittels optogenetischer Steuerung das Tier zwischen Schlaf und Wachen hin- und herzuschalten.

Abbildung 4. Optogenetische Fernsteuerung von Schlaf- und Wachphasen der Fruchtfliege. In denschlafsteuernden Neuronen (oben rechts, pinkfarben) sind die Licht sensitiven Ionenkanäle exprimiert, Solange diese Zellen nicht stimuliert werden, läuft das Tier auf der Kugel (oben links), deren Rotation aufgezeichnet wird (rote Linien, unten). Durch Licht werden die Zellen sofort aktiviert, senden elektrische Impulse aus und die Rotation hört schlagartig auf - das Tier schläft (unten).

In weiteren Untersuchungen haben wir entdeckt, dass die schlafsteuernden Nervenzellen auch unter natürlichen Bedingungen in zwei Zuständen vorliegen: im aktiven Zustand senden sie elektrische Impulse aus, im anderen Zustand sind sie elektrisch inaktiv. Da diese Zustände exakt mit Schlaf und Wachen der Tiere korrelierten, erschien es wahrscheinlich, dass dieses Schalten zwischen den beiden Zuständen – ein rein biophysikalischer Vorgang – der Mechanismus der homöostatischen Schlafsteuerung sein könnte. Was ist aber das Signal, das ein Umschalten auslöst?

Dopamin – Schalter zwischen Schlaf und Wachen

Ein Hinweis, was dieses Signal sein könnte, kam aus bereits länger zurückliegenden Experimenten, in denen erstmals (von meiner Studentin Susana Lima) das Verhalten eines Lebewesens optogenetisch kontrolliert wurde. Susana untersuchte unter anderem die Funktion des Neurotransmitters Dopamin. Dopamin führte zu hoher Erregung der Tiere; sobald die dopaminproduzierenden Zellen optogenetisch eingeschaltet wurden, liefen Fruchtfliegen wie verrückt im Kreis. Dies entspricht auch der erregenden Wirkung von Dopamin in unserem Gehirn: Psychostimulantien, die uns wach halten, wie beispielsweise Kokain oder Amphetamin, wirken, indem sie die Wiederaufnahme von Dopamin in den Synapsen blockieren (und damit länger aktivierende Wirkung auf die Dopaminrezeptoren erzielen; Anm. Red.)

Falls Dopamin ein auf den Schlafschalter wirkendes Erregungssignal ist,so sollte seine Zufuhr die schlafinduzierenden Zellen abschalten und zum Erwachen führen. Anatomisch gesehen ist das plausibel: Dopaminerge Neuronen, die Dopamin liefern könnten, finden sich in derselben Hirnregion wie die schlafproduzierenden Zellen, und beide Neuronentypen liegen so dicht beieinander, dass man den Eindruck gewinnt, sie seien miteinander verbunden. Die Optogenetik ermöglicht uns dies zu prüfen, indem wir die Aktivität der schlafproduzierenden Zellen aufzeichnen, während wir die dopaminergen Zellen mittels Licht erregen. Eine synaptische Signalübertragung von der dopaminergen auf die schlafproduzierende Zelle sollte deren elektrische Aktivität stilllegen und zum Erwachen führen.

Dies ist tatsächlich der Fall. Fliegen, die am Beginn des Experiments schlafen, werden durch das Lichtsignal auf die dopaminerge Zelle sofort geweckt, beginnen zu laufen und verharren auch nach dem Stop des Lichtsignals über längere Zeit - bis zu einigen Stunden - im Wachzustand. Das System hat also ein Gedächtnis.

Welcher Mechanismus ist dabei am Werk?

Der Sandmann kommt

Kurzgesagt: wir haben einen neuen Kanal für Kaliumionen entdeckt, den wir Sandmann getauft haben. Ist die schlafproduzierende Zelle im elektrisch aktiven Zustand, befindet sich der Kanal im Inneren der Zelle, in den Membranen von Vesikeln. Wenn Dopamin ausgeschüttet wird und an seinen Rezeptor in der Zellmembran bindet, fusionieren die Vesikel mit der Zellmembran, Sandmann wird in die Zellmembran integriert und erzeugt einen Kurzschluss, der die Zellen abschaltet. (Abbildung 5).

Abbildung 5. Der Sandmann kommt. Ein biophysikalisch erklärbarer Mechanismus schaltet vom Schlaf- zum Wachzustand

Es ist der Mechanismus, der dem Aufwachen zugrundeliegt.

Was ich hier beschrieben habe, gleicht einer bekannten Vorrichtung an der Wohnzimmerwand, dem Thermostaten. Es wird hier aber nicht die Temperatur gemessen und die Heizung angeschaltet, wenn es kalt ist. Der Schlafhomöostat misst Etwas, und wenn dieses Etwas einen Schwellenwert erreicht, schaltet er auf Schlaf (Abbildung 6).

Abbildung 6. Der Schlafhomöostat. Die rote Linie zeigt die Schlafphase, in der die Neuronen elektrische Impulse aussenden,und die Wachphase, in der die Zellen ruhig gestellt sind.

Was dieses Etwas ist, wissen wir noch nicht.

Zumindest wissen wir aber, wo wir suchen müssen, um das Rätsel zu lösen.


*Eine ausführlichere Darstellung des Themas findet sich in dem Vortrag "Lighting up the Brain",den der Autor im November 2016 anlässlich der Verleihung des Wilhelm-Exner Preises an ihn gehalten hat: Gero Miesenböcks Exner LectureVideo (englisch) 31:09 min .

Method of the Year 2010, Nature Methods 8,1(2011) doi:10.1038/nmeth.f.321 http://www.nature.com/nmeth/journal/v8/n1/full/nmeth.f.321.html


Weiterführende Links

Gero Miesenböck homepage: http://www.cncb.ox.ac.uk/people/gero-miesenboeck/

Was ist Optogenetik? DFG: SPP 1926 http://www.spp1926.org/public-outreach-deutsch/

PNAS Journal Club: “Sandman” molecule controls when fruit flies wake up. (26.08.2016) http://blog.pnas.org/2016/08/journal-club-sandman-molecule-controls-when-fruit-flies-wake-up/

Videos:

Re-engineering the Brain. TED-Talk (07.2010) Video 17:27 min. http://www.ted.com/talks/gero_miesenboeck

Lights out! An optogenetic sleep switch, Prof. Gero Miesenböck. In a decade and a half, optogenetic control of neuronal activity has developed from a far-fetched idea to a widely used technique. Prof. Miesenböck explains how this happened, drawing on the earliest and latest results from his lab. Video (17.06.2016; SwissTech Convention Center, Lausanne, Switzerland), 16:53 min.


 

inge Thu, 23.02.2017 - 22:01

Placebo-Effekte: Heilung aus dem Nichts

Placebo-Effekte: Heilung aus dem Nichts

Do, 16.02.2017 - 10:45 — Susanne Donner

Susanne DonnerIcon Gehirn

Erwartungshaltung und Konditionierung können bewirken, dass Scheinmedikamente ebenso wirkungsvoll werden wie Arzneien – zumindest gegen Schmerz, bei psychischen Erkrankungen und Allergien. Die Erforschung dieser sogenannten Placebo-Effekte ist zu einem enorm wichtigen, intensiv untersuchten Thema in der Medizin geworden. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner beschreibt hier, wie Veränderungen auf Ebene des Gehirns und Rückenmarks dieses Phänomen erklären können.*

Das Experiment ist ein Lehrstück über die Macht der Gedanken: Opioide sind die stärksten Schmerzmittel überhaupt. Und sie helfen eigentlich immer. Aber als die Neurologin Ulrike Bingel vom Universitätsklinikum Essen einem Teil der 22 Probanden erzählte, dass sie nun einem Hitzeschmerz ausgesetzt würden, aber dass es mehr wehtun könne, da sie keine Opioide bekämen, peinigte sie die Hitze tatsächlich stärker als zuvor. Dabei hatten die Forscher entgegen ihrer Behauptung doch das Medikament verabreicht. Aber es wurde unwirksam, weil die Probanden dachten, dass ihnen nichts helfe. Erzählte Bingel den Versuchspersonen dagegen, dass sie ein starkes Opioid bekämen, wirkte es doppelt so stark wie ohne Vorankündigung – ein klassischer „Placeboeffekt“. Die Aufhebung der Wirksamkeit heißt in Analogie dazu „Noceboeffekt“ (lat. von nocere: schaden). Schon der Wechsel von einem Originalpräparat zu einem Generikum, einem preiswerteren Nachahmerpräparat, kann einen solchen Einbruch in der Wirksamkeit zeitigen. Beide Effekte sind genauso mächtig wie Arzneistoffe, das demonstriert Bingels Experiment von 2011.

Abbildung 1. Placebos enthalten keine Substanzen, die bei der zu behandelnden Krankheit wirksam sein könnten. Grafik: MW

Die Wirkmacht der Placebos

Scheinmedikamente lindern Studien zufolge Schmerzen bei verschiedenen Erkrankungen von der Migräne bis zum Rückenleiden. Aber auch Depressionen und Angsterkrankungen sprechen darauf an. 2008 sorgte der Psychologe Irving Kirsch von der Universität in Plymouth für Gesprächsstoff, als er in einer Metaanalyse zu vier Antidepressiva aufzeigte, dass diese bei leichter und mittelgradiger Erkrankung auch nicht mehr bewirken als ein Placebo. Sogar die Bewegungsfähigkeit von Parkinsonkranken und Heuschnupfen lassen sich über die Beeinflussung des Geistes verbessern.

„Im Grunde können wir alle Symptome mit Placebos behandeln“, macht der Psychologe Paul Enck vom Universitätsklinikum Tübingen deutlich. „Die zugrunde liegenden Krankheitsursachen bleiben aber bestehen.“ Entgegen den Verheißungen etlicher Gegner der Schulmedizin kann der Placeboeffekt aber keine Wunder erklären, stellt der Psychologe Falk Eippert von der Universität in Oxford klar. „Krebs etwa kann man damit nicht heilen. Behauptungen dieser Art sind Humbug.“

Erwartung und Gewöhnung

Abbildung 2. Eine 20 Minuten dauernde Behandlung mit Metallstäben (Perkins Tractors) sollte im 18. Jahrhundert gegen Entzündung, Schmerz im Gesichts-und Schädelbereich wirken. (Das gemeinfreie Bild wurde von der Redaktion zugefügt. Quelle: Gillray - Treatment with tractors.jpg, Created: 1 January 1801; Wikipedia.)

Der Placeboeffekt wird mindestens über zwei unterschiedliche Mechanismen vermittelt. Zum einen wird der Körper auf einen Stimulus hin, das Medikament, konditioniert. So sind Veränderungen auf das Immunsystem zu erklären, das sich willentlich gar nicht beeinflussen lässt. In einem Experiment etwa wurde das Immunsuppressivum Cyclosporin mit grüner Erdbeermilch kombiniert. Das Medikament hemmt bestimmte Entzündungsbotenstoffe. Nachdem die Probanden an diesen Effekt gewöhnt worden waren, beeinflusste grüne Erdbeermilch alleine die Entzündungsparameter in derselben Weise.

Daneben entsteht der Placeboeffekt über die Erwartung des Patienten und damit über eine geistige Manipulation des körperlichen Zustands. Die Erwartungshaltung speist sich auch aus Vorerfahrungen mit demselben Medikament oder aus Vorwissen etwa aus den Medien über die Wirksamkeit. Je positiver der Patient der Therapie gegenübersteht, desto mehr wird sie ihm helfen. Überhaupt zeigen Optimisten ausgeprägtere Placeboeffekte.

Bis heute am besten untersucht ist die Hemmung von Schmerz mit Scheinmedikamenten. Dabei produzieren die Nervenzellen im Gehirn körpereigene Opioide, die dann sozusagen als leibeigenes Medikament auf das Schmerzsystem wirken. Dies beinhaltet verschiedene schmerzhemmende Regionen der Hirnrinde wie den dorsolateralen präfrontalen Cortex und das rostrale anteriore Cingulum. Die Aktivierung dieser Areale zieht eine verminderte Aktivierung schmerzrelevanter Regionen nach sich, etwa im somatosensorischen Cortex.

Der Noceboeffekt wird mutmaßlich über ähnliche Mechanismen ausgelöst, sodass dieselben Hirnstrukturen mit von der Partie sind. Allerdings wird überdies auch der präfrontale Cortex im Stirnhirn aktiviert, berichtet Bingel. „Nachvollziehbar, denn im präfrontalen Cortex werden Ängste verarbeitet. Je ängstlicher Patienten sind, desto eher erleiden sie bei der Einnahme eines Medikamentes einen Noceboeffekt, also einen Schaden, der nicht rein pharmakologisch bedingt ist.“

Hirnrinde, Hirnstamm und Rückenmark sind beteiligt

Die Beteiligung der Hirnrinde lässt vermuten, dass der Placeboeffekt höhere geistige Fähigkeiten erfordert. Allerdings entdeckte der Psychologe Falk Eippert von der Universität Oxford, dass der Placeboeffekt schon auf Ebene des Rückenmarks einsetzt – also einem evolutiv sehr alten und zugleich sehr schnellen Pfad. Die Antwort der Nervenzellen im Rückenmark wird gedämpft, wie er anhand von Aufnahmen mit einem Magnetresonanztomografen nachweisen konnte. Gesteuert wird der Effekt vom Hirnstamm, sagt Eippert. Dort werden Opioide ausgeschüttet, die die Schmerzminderung vermitteln.

Weshalb der Effekt schon auf so früher Ebene einsetzt, beschäftigt die Wissenschaftler. Eippert glaubt, dass der Placeboeffekt auch über eine Ausrichtung der Aufmerksamkeit zustande kommt. „Wenn wir Hunger haben, spüren wir Schmerzen nicht sonderlich“, verdeutlicht er an einem Beispiel. Dies ist aber keine sonderliche kognitive Leistung, sondern das Zentralnervensystem steuert autonom die Verschiebung der Aufmerksamkeit, so die Theorie.

Auch Tiere reagieren

Demzufolge sollten aber auch Tiere auf Scheinmedikamente ansprechen. Und tatsächlich: In Ratten und Mäusen konnten Forscher das beobachten. Todd Nolan von der Universität Florida stellte 2012 gar ein Rattenmodell vor, das sich zum Studium des Placeboeffektes eignet. Wenn er den Tieren Morphium verabreichte, reagierten sie weniger stark auf einen Hitzeschmerz an der Schnauze, auch nachdem er das Medikament absetzte. Eine klassische Konditionierungsreaktion: Ihr Körper produzierte eigenmächtig Opioide. Nolan konnte die erträgliche Schmerzschwelle messen, indem er die Hitzeelektrode so platzierte, dass es den Tieren an der Schnauze unangenehm heiß wurde, wenn sie von einer gesüßten Milch tranken. Je mehr Milch, desto mehr überwanden sie den Schmerz, desto ausgeprägter der Placeboeffekt.

Vom Tierversuch auf den Menschen zu schließen ist allerdings nur bedingt möglich: Schließlich setzt der Placeboeffekt beim Menschen eine mündliche Mitteilung voraus. Tiere haben jedoch keine Sprache, und ihre Erwartungshaltung muss daher im Experiment indirekt – durch Konditionierung – geweckt werden. „Es ist noch immer strittig, inwieweit Tiere wirklich zu einem dem Menschen vergleichbaren Placeboeffekt fähig sind“, bewertet Eippert. „Aber die aktuelle Forschung deutet darauf hin.“

Placebo statt Pille

Unterdessen grübeln die Forscher, wie das Wissen über Placebo- und Noceboeffekte den Patienten zu Gute kommen kann. Denn in den Experimenten wird den Probanden oft eine Lüge aufgetischt, damit ihre Erwartung den Placeboeffekt in die Höhe schraubt. Doch im klinischen Alltag gilt das Ideal des aufgeklärten Patienten. Ärzte dürfen nicht schwindeln oder Informationen unterschlagen. In der Heilkunde anderer Länder gehören Mystik und Geheimhaltung dagegen zur guten Tradition, etwa bei Heilern aus dem afrikanischen Raum. „Schwindeln ist nicht der richtige Weg“, wehrt Enck ab, „wir müssen deshalb damit leben, dass drastische Placeboeffekte nur Gegenstand akademischer Forschung sein können.

Doch in engen Grenzen kann die Manipulation des Geistes auch dem Patienten helfen". So diskutieren einige Ärzte, ob sich der Konditionierungseffekt nutzen lässt, um in gewissen Abständen das Medikament durch ein Placebo zu ersetzen. „Wir könnten Medikamente einsparen und Nebenwirkungen vermindern. Die meisten Patienten wären dazu sofort bereit“, glaubt Enck. Das Konzept ist als „placebo-kontrollierte Dosisreduktion“ in die Literatur eingegangen. Bei Schuppenflechte, allergischem Schnupfen und dem Aufmerksamkeitsdefizitsyndrom haben Wissenschaftler es schon erprobt.

So teilte Adrian Sandler vom Olson Huff Center in Asheville 99 Kinder mit Aufmerksamkeitsdefizitsyndrom in drei Gruppen ein. Acht Wochen lang erhielten alle zunächst die normale Dosis an Methylphenidat, einem gängigen Medikament gegen die Erkrankung. Eine Gruppe fuhr so fort. Eine weitere nahm nur noch die halbe Dosis und eine weitere Gruppe bekam die halbe Dosis samt einer farbigen Tablette, bei der es sich um ein Placebo ohne Wirkstoff handelte. Sandler zufolge war die Wirksamkeit der Behandlung in allen Gruppen gleich gut.

Mitgefühl und Mitverantwortung

Einen anderen Ansatzpunkt die Kenntnisse aus der Forschung in die Praxen zu bringen, hat eine Hamburger Palliativmedizinerin gegenüber Eippert geschildert. Sie schärfe ihren Patienten ein, dass sie es selbst in der Hand hätten, wie gut die Therapie anschlage, weil ihr Körper selbst die Schmerzen vermindern könne, wenn sie an den Behandlungserfolg glaubten. Mit dieser Ausrichtung der Erwartungshaltung versucht sie den Placeboeffekt zugunsten ihrer Patienten zu nutzen.

Die Zuwendung des Arztes kann ein Übriges beitragen. In einem Experiment demonstrierte David Rakel von der Universität Wisconsin in Tampa, dass sich die Dauer einer Erkältung um einen Tag verkürzt, wenn der Kranke einen mitfühlenden Arzt vor sich hat. Die Empathie kann in einigen Experimenten die Wirkung von Scheintherapien erklären.

Vor allem aber zeigt die Forschung eines: Die bisherige Fokussierung des Gesundheitswesens auf pharmakologische Effekte greift viel zu kurz. Es gibt andere ebenso potente Heilmittel wie die Zuwendung und die Orientierung der Erwartung des Kranken, die bisher völlig außer Acht gelassen wurden. Dabei kosten sie fast nichts.


*Der Artikel ist der Webseite www.dasgehirn.info entnommen: https://redaktion.dasgehirn.info/wahrnehmen/schmerz/heilung-aus-dem-nichts,er ist dort am 17.11.2016 erschienen und steht unter einer CC-BY-NC Lizenz. (Abbildung 2 wurde von der Redaktion zugefügt) www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM|Zentrum für Kunst und Medientechnologie Karlsruhe


Weiterführende Links

Placebos - Die Kraft der Einbildung (zdf info, 18.05.2013) Video 14:57 min https://www.youtube.com/watch?v=VuX0mi-L5hM Standard-YouTube-Lizenz

UKF Aktuell: Der Placeboeffekt (Universitätsklinikum Freiburg, 01.04.2015) Video 2:40 min. https://www.youtube.com/watch?v=O6zHRYuWv9A Standard-YouTube-Lizenz

Placebos und Nocebos mit Paul Enck (Arvid Leyh, Datum: 31.08.2012) Audio 16:05 min. https://redaktion.dasgehirn.info/aktuell/foxp2/placebos-und-nocebos-mit-paul-enck-8330/view/ Lizenz: cc-by-nc ,

Stephan Geuter und Schmerz per Nocebo (Martin Vieweg, 11.10.2013) Audio 12:56 min https://redaktion.dasgehirn.info/aktuell/foxp2/stephan-geuter-und-schmerz-durch-nocebo-888/view/ Lizenz: cc-by-nc .



 

inge Thu, 16.02.2017 - 10:45

Die Schlafdauer global gesehen: aus mehr als 1 Billion Internetdaten ergibt sich erstmals ein quantitatives Bild

Die Schlafdauer global gesehen: aus mehr als 1 Billion Internetdaten ergibt sich erstmals ein quantitatives Bild

Do, 09.02.2017 - 11:21 — Redaktion RedaktionIcon Biologie

Das Internet hat die Welt in rasantem Tempo erobert, etwa die Hälfte der Weltbevölkerung ist bereits an das Internet angeschlossen. Wie schnell die Durchdringung des Internets in Staaten erfolgt ist und wo es noch Wachstumspotential gibt, haben K. Ackermann, SD Angus und PA Raschky (Univ. Chikago, Monash Univ. Australia) evaluiert. Daraus entsteht eine noch kaum vorstellbare Möglichkeit Daten über menschliches Verhalten zu extrahieren: Dies haben die genannten Autoren nun erstmals getan: aus mehr als einer Billion Zugriffen haben sie quantitative Informationen über menschliches Verhalten - die Schlafdauer - erhoben[1].

Das Internet ist zweifellos eine der einflussreichsten Erfindungen in der Geschichte der Menschheit. Es durchdringt alle unsere persönlichen und gesellschaftlichen Bereiche, beeinflusst unsere Verhaltensweisen und hat in der kurzen Zeit seines Bestehens die Grenzen aller Länder überwunden. Waren 1995 erst rund 40 Millionen Menschen an das Internet angeschlossen, so stieg deren Zahl 5 Jahre später auf rund 400 Millionen und 2016 auf bereits 3,5 Milliarden. In anderen Worten: rund die Hälfte der gesamten Weltbevölkerung ist heute global miteinander vernetzt, verwendet dieselbe Technologie zur Kommunikation. Die globale Reichweite und das Faktum , dass von jedem Gerät aus umgehend und passiv der Status anderer Geräte - online oder offline - abgefragt werden kann, machen das Internet zu einem aussagekräftigen Sensor, um menschliche Verhaltensweisen zu erfassen.

Derartige Untersuchungen werden in einem vor wenigen Tagen erschienenen Bericht beschrieben [1].

Datenbank zur Internetnutzung - eine Sisyphos-Arbeit

Der ursprünglich aus Österreich stammende Klaus Ackermann und Kollegen (Universität Chikago und Monash University, Australien) haben im Zeitraum von 2006 bis 2012 untersucht, wann weltweit Geräte online und offline waren. Die gewaltigen technischen Herausforderungen dieser Studien sind in Abbildung 1 dargestellt.

Die Forscher haben jede öffentlich zugewiesene IP-Adresse (bestehend aus 4 Zahlen; Internet Protocol Version 4; das bedeutet rund die Hälfte der möglichen 4,3 Milliarden Adressen) im zeitlichen Abstand von 15 Minuten auf Status online/offline abgefragt. Insgesamt ergaben sich daraus mehr als eine Billion (1000 Milliarden) Einzelbeobachtungen. Die erforderliche geographische Lokalisierung der einzelnen Adressen und Geräte wurde über eine kommerzielle Datenbank ermittelt. Insgesamt entstand so eine riesige Datenbank, welche die Internetnutzung in 122 Staaten aufzeigt.

Abbildung 1. Wie die Datenbank zur Internetnutzung in 122 Ländern im Zeitraum 2006 - 2012 zustande kam. Dieses Bild und weitere Details in: Ackermann et al., arxiv.org/abs/1701.05632 (Lizenz: http://arxiv.org/licenses/nonexclusive-distrib/1.0/) Um das wissenschaftliche Leistungsvermögen der Datenbank zu demonstrieren, haben die Forscher zunächst die Dynamik des Internetwachstums charakterisiert und sodann - basierend auf der tageszeitlichen Nutzung des Internets - die globale Schlafdauer der Menschen abgeschätzt.

Die dynamische Ausbreitung des Internets

Mit der beschriebenen Methode wurde erstmals eine genaue Charakterisierung der Internetausbreitung möglich. Diese folgt in allen Gesellschaften einer S-förmigen Kurve, d.h. nach einer anfänglich langsamen Phase, nimmt das Wachstum steil zu, um schließlich abzuflachen und in eine Sättigung überzugehen.

Aus den Daten wurde klar, dass Sättigung erreicht ist, wenn 0,32 IP's pro Person vorhanden sind, das heißt eine IP-Adresse pro 3-Personen Haushalt.

Die Zeit die es braucht, um ein Land mit Internetzugängen zu sättigen, ist von Land zu Land verschieden. Im Mittel von 100 Nationen braucht es 16,1 Jahre, um von 1 % auf 99 % Sättigung zu kommen. Die Internetausbreitung in Österreich folgt in etwa diesem Mittelwert und liegt nun knapp an der Sättigung. Viele Länder - darunter die USA - sind bereits gesättigt, andere - beispielsweise Lettland - werden dazu noch sehr lange brauchen. Abbildung 2.

Abbildung 2. Die Ausbreitung des Internets in 100 Nationen folgt S-förmigen Kurven. Kurven sind für alle Nationen dargestellt, einige Beispiele - darunter Österreich - sind farbig hervorgehoben. Die farbigen Punkte sind die zugrundeliegenden, experimentellen monatlichen Daten. Das Wachstum in Österreich entspricht in etwa dem Mittelwert aus den 100 Nationen (dicke schwarze Kurve). Alle Kurven wurden auf 1% Ausbreitung extrapoliert und standardisiert. Dieses Bild und weitere, detaillierte Darstellungen aller Länder nach Kontinenten in: Ackermann et al., arxiv.org/abs/1701.05632 (Lizenz: http://arxiv.org/licenses/nonexclusive-distrib/1.0/) .

Wie lange schlafen die Menschen auf unserem Globus?

Die Bedeutung, welche Dauer und Qualität des Schlafes für unser körperliches und psychisches Wohlbefinden hat, ist aktuell ein "Hot Topic" in den biomedizinischen Wissenschaften. Schlafforscher haben diesbezügliche Informationen bis jetzt aus persönlich erhobenen Angaben bezogen. Es besteht ein Bedarf für erweiterte Möglichkeiten der Datenerfassung.

Ackermann und Kollegen haben die tageszeitlichen Variationen der IP-Aktivitäten herangezogen, um die Zeit des Schlafengehens, des Aufstehens und der gesamten Schlafdauer abzuschätzen. Berücksichtigt wurden dabei nur Städte mit über 500 000 Einwohnern (ins gesamt waren dies 645 Städte). Aufdrehen des Computers am Tagesbeginn und Abdrehen am Tagesende wurden dabei als mit Aufwachen und Einschlafen korreliert gesehen. (Nach Ansicht der Autoren braucht diese Korrelation nicht exakt sein, auch wenn diese systematisch vor- oder nachläuft, können die gewünschten Informationen erhalten werden.) Wie selbstlernende Verfahren, die von detaillierten Zeitbudgeterhebungen (American Time Use Survey) ausgingen, auf die globalen täglichen IP-Aktivitäten angewandt wurden, kann in [1] nachgelesen werden.

Abbildung 3 fasst die wesentlichen Ergebnisse dieser Untersuchung zusammen.

Abbildung 3. Eine Abschätzung der täglichen Schlafdauer basierend auf der Internet-Aktivität. Selbstlernende Verfahren, die von detaillierten Zeitbudgeterhebungen (American Time Use Survey) ausgingen, wurden auf die globalen täglichen IP-Aktivitäten angewandt. Dieses Bild und weitere detaillierte Angaben in: Ackermann et al., arxiv.org/abs/1701.05632 (Lizenz: http://arxiv.org/licenses/nonexclusive-distrib/1.0/)

Im Einzelnen wurde gezeigt:

  • Die abgeschätzte Schlafdauer variierte in den einzelnen Regionen signifikant (dies dürfte kulturell bedingt sein).
  • Im Allgemeinen schlafen Menschen in Großstädten länger als in den umgebenden Satellitenstädten.
  • Über den Beobachtungszeitraum hin scheint die Schlafdauer zu konvergieren. Während sie sich in Nordamerika wenig ändert, ist sie in Europa zurückgegangen und in Ostasien angestiegen (Abbildung 3D).

Die aus den Daten zur Internetnutzung ermittelte Schlafdauer in europäischen und einigen nicht-europäischen Ländern ist in Abbildung 4 dargestellt.

Abbildung 4. Mittlere Schlafdauer in Städten mit mehr als 500 000 Einwohnern. Daten für den Zeitraum 2006 - 2012 in Ländern Europas und einigen nicht-europäischen Ländern (schwarze Balken). Für die Grafik wurden Daten aus Tabelle 3 in: Ackermann et al., arxiv.org/abs/1701.05632 verwendet (Lizenz: http://arxiv.org/licenses/nonexclusive-distrib/1.0/)

Zusammenfassung

Zur Internetnutzung im Zeitraum 2006 -2012 wurde eine enorm große Datenbank angelegt. Die darin gespeicherten IP-Aktivitätsdaten wurden erstmals angewandt, um ein quantitatives Bild der Dynamik zu erhalten, mit der sich die Internetnutzung global ausbreitet. Die hohe Durchdringung des Internets - es wird bereits von der Hälfte der Menschheit genutzt - macht es zu einem einzigartigen Sensor für menschliche Verhaltensweisen. Ein erstes Beispiel ist die Abschätzung der globalen Schlafdauer.

Nicht abschätzbar ist der Gewinn, den diese Datenbank für andere Forschungszweige haben wird.


[1] Der vorliegende Beitrag basiert auf dem eben erschienenen Bericht: Klaus Ackermann, Simon D Angusy und Paul A Raschky: The Internet as Quantitative Social Science Platform: Insights From a Trillion Observations. (23. 01.2017) arXiv:1701.05632, https://www.technologyreview.com/s/603541/the-trillion-internet-observations-showing-how-global-sleep-patterns-are-changing/ . Daten und Abbildungen sind diesem Bericht entnommen, der unter der Lizenz: arXiv.org - Non-exclusive license to distribute steht.

inge Thu, 09.02.2017 - 11:21

Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie

Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie

Do, 02.02.2017 - 11:42 — Francis S. Collins

Francis S. CollinsIcon MedizinIn der Forschung zur Gentherapie gibt es eine immerwährende Herausforderung: Es ist die Suche nach einem verlässlichen Weg, auf dem man eine intakte Kopie eines Gens sicher in relevante Zellen einschleusen kann, welches dann die Funktion eines fehlerhaften Gens übernehmen soll. Mit der aktuellen Entdeckung leistungsfähiger Instrumente der Genchirurgie ("Gene editing"), insbesondere des CRISPR-Cas9 Systems - beginnen sich nun die Chancen einer erfolgreichen Gentherapie zu vergrößern. Francis Collins, Direktor der US National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project" berichtet hier von einer zukunftsweisenden Untersuchung , die nicht nur Fortschritte in der Heilung der seltenen Erbkrankheit "septische Granulomatose" verspricht, sondern auch von vielen anderen Erbkrankheiten.*

Fortschritte in der Genchirurgie ("Gene editing")

Anstatt, dass man mit einer, ein sperriges Gen enthaltenden Injektionsnadel die Zellmembran durchstößt, versuchen die Forscher die Instrumente des "Gene editings" nun direkt in den Zellkern zu bringen: Ziel ist es, die Krankheit verursachenden Fehler in einem Gen herauszuschneiden und so seine korrekte Funktion zu ermöglichen. Abbildung 1.

Abbildung 1. Das CRISPR/Cas9 System ermöglicht Mutationen gezielt aus einem Gen zu entfernen und durch eine korrekte Version zu ersetzen. Das ursprünglich in Bakterien entdeckte Enzym Cas9 (Kristallstruktur, hellblau) kann eine DNA (gelb) an der gewünschten Stelle durchschneiden. Die präzise Positionierung der Schnittstelle wird durch ein an Cas9 gebundenes kurzes Gegenstück zur zu schneidenden DNA - einer "guide RNA" (rot) - ermöglicht. (Credit: Bang Wong, Broad Institute of Harvard and MIT, Cambridge, MA)

Während diese Forschung gerade anläuft, wurden bereits Fortschritte in einer seltenen, angeborenen Immunschwäche, der sogenannten "septischen Granulomatose" (CGD - chronic granulomatous disease), erzielt.

In einer jüngst in Science Translational Medicine erschienenen Arbeit beschreiben NIH-Forscher, wie sie mit Hilfe des CRISPR/Cas9-Systems eine Mutation in adulten hämatopoietischen (blutbildenden) Stammzellen korrigieren konnten, die eine übliche Form der CGD verursacht [1]. Besonders anzumerken ist dabei, dass diese Korrektur erfolgt, ohne dass irgendwelche neuen und möglicherweise Krankheit verursachenden Fehler in den benachbarten DNA-Sequenzen auftreten.

Als derart behandelte, humane Zellen in Mäuse transplantiert wurden, siedelten sich die Zellen ganz korrekt im Knochenmark an und begannen voll funktionsfähige weiße Blutkörperchen zu erzeugen. Die chirurgisch veränderten Zellen blieben bis zu 5 Monate in Knochenmark und Blutstrom der Tiere nachweisbar - ein prinzipieller Beweis dafür, dass die lebenslange genetische Krankheit CGD und ähnliche Defekte eines Tages geheilt werden können und dies ohne die Risiken und Einschränkungen unserer gegenwärtigen Behandlungen.

Was ist Septische Granulomatose (CGD)?

Menschen, die an CGD leiden, tragen eine oder mehrere genetische Mutationen, die es ihren weißen Blutkörperchen unmöglich machen, infektiöse Eindringlinge - Bakterien, Pilze - anzugreifen und abzutöten. Es sind dies Defekte auf Genen, die für einen Enzymkomplex kodieren, welcher für die antimikrobielle Aktivität verantwortlich ist. Dabei handelt es sich um Komponenten des Enzyms NADPH-Oxidase 2 (NOX2), das reaktiven Sauerstoff (Superoxid) generiert und damit Neutrophile zur Abtötung von Krankheitserregern befähigt (Anm. Red.).

CGD-Patienten müssen daher spezielle Maßnahmen ergreifen, um sich zu schützen; dies inkludiert auch eine permanente Einnahme von Medikamenten gegen diverse Infektionen. Aber auch dann besteht das Risiko lebensbedrohender Infektionen mit Bakterien und Pilzen.

Finden und Ersetzen

Wissenschafter am NIH’s National Institute for Allergy and Infectious Diseases (NIAID) haben nun begonnen das Potential der CRISPR/Cas9 Genschere auszutesten, um Menschen mit GCD helfen zu können [1]:

In einem ersten Schritt haben sie adulte Stammzellen von zwei Patienten gewonnen, die dieselbe GCD-verursachende Mutation aufwiesen - im konkreten Fall war es ein einzelner Buchstabe (d.i. ein einzelnes Nukleotid) in der Sequenz eines Gens auf dem X-Chromosom - und haben sodann die Fähigkeit des CRISPR/Cas9-Systems getestet diese Mutation herauszuschneiden. Abbildung 2.

Abbildung 2. Die zu den weißen Blutkörperchen gehörenden neutrophilen Granulozyten ("Neutrophile") sind essentiell in die Bekämpfung von Infektionen involviert. Links: Zwei Neutrophile in einer Mehrzahl von roten Blutkörperchen (Bild von der Redaktion eingefügt; Quelle: Wikipedia, Mgiganteus (talk | contribs) disease.CC BY-SA 3.0). Rechts: Ein Neutrophiler, dessen DNA "korrigiert" wird, um seine Fähigkeit zur Infektionsabwehr wieder herzustellen (Quelle: Jill George, NIH).

Das CRISPR/Cas9-System

verwendet kleine RNA-Moleküle - sogenannte "guide RNAs" zusammen mit einem scherenartig wirkenden Enzym Cas9 um präzise am richtigen Ort die defekte Stelle in der DNA-Sequenz zu finden und dort zu schneiden (siehe Abbildung 1). Wenn die DNA durchgeschnitten ist, schließt die Zelle den Eingriff ab, indem sie die korrekte Gensequenz einsetzt - diese wird von den Forschern in Form eines DNA-Fragments als Vorlage zur Verfügung gestellt. Man kann diesen Vorgang als ein Finden und Ersetzen sehen.

In ihrem in vitroTestsystem haben die Forscher festgestellt, dass mittels CRISPR/Cas9 etwa 20 - 30 % der Stammzellen "repariert werden konnten. Dort, wo die Genchirurgie funktionierte, war ausschliesslich die defekte Sequenz ersetzt worden. Die guide RNA war tatsächlich genügend spezifisch, um die DNA-Sequenz mit dem falschen Buchstaben zu finden und zu ersetzen.

Genkorrigierte humane Zellen funktionieren in Mäusen

Diese Ergebnis führte zur nächsten groß angelegten Untersuchung, in welcher die Forscher jeweils rund 500 000 der Gen-modifizierten humanen Zellen in jedes Versuchstier einbrachten. Da die Mäuse immundefizient waren und mit dem Zytostatikum Busulfan vorbehandelt worden waren, um die eigenen blutbildenden Zellen zu unterdrücken und für die transplantierten Zellen Platz zu machen, akzeptierten die Tiere die humanen Zellen und gestatteten es, dass deren Immunsystem "in Betrieb" ging.

Zweifelsfrei haben die Infusionen funktioniert. Die reparierten blutbildenden Stammzellen haben sich im Knochenmark der Mäuse angesiedelt und dort reife Blutzellen produziert, inklusive funktionierender neutrophiler Granulozyten, die ja den an GCD Erkrankten fehlen. Nach fünf Monaten trugen noch 10 - 20 % der Blutzellen die Korrektur. Das ist beachtlich viel, da eine langandauernde Präsenz des korrigierten Gens in nur10 % der Blutzellen wahrscheinlich ausreicht um Patienten zu nützen.

Zur Gentherapie am Menschen

Während diese Ergebnisse äußerst vielversprechend sind, muss allerdings noch sehr viel getan werden, bevor eine derartige Vorgehensweise in Patienten mit GCD getestet werden kann. Die Forscher sagen, dass sie die Genkorrektur in einen noch höheren Anteil der Stammzellen einfügen möchten. Der Prozess muss auch hochskaliert werden, um insgesamt viel mehr Zellen korrigieren zu können: Im Vergleich zu den mit 500 000 Zellen behandelten Mäusen werden ja für den ungleich größeren Menschen Hunderte Millionen korrigierter Stammzellen benötigt.

CRISPR Strategien bieten enorme Vorteile zur Präzision der Gentherapie, es zeigen sich aber auch andere Verfahren vielversprechend. Eine klinische Untersuchung ist derzeit an den NIH und anderen Stellen in den US im Laufen, die eine mehr konventionelle Gentherapie von CGD ins Auge fasst. Es wird dabei ein inaktiviertes, nicht-infektiöses Virus verwendet, um ein funktionelles Gen in die Zellen von GCD Patienten einzuschleusen. Es ist aber noch zu früh um zu wissen, ob dieser Ansatz erfolgreich sein wird; die ersten Hinweise sind aber sehr ermutigend.

Fazit

Die Forscher am NIAID haben Jahrzehnte damit verbracht die GCD besser zu verstehen und Wege aufzufinden um diese chronische, lebensbedrohende Krankheit effizienter behandeln zu können. Die jüngsten Ergebnisse sind als ein ermutigendes Zeichen eines Fortschritts zu sehen - nicht nur in der Behandlung von CGD, sondern auch von vielen anderen Erbkrankheiten.

Es ist eine Story, die es wert ist weiter verfolgt zu werden.


*Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:" Find and Replace: DNA Editing Tool Shows Gene Therapy Promise" zuerst (am 24. Jänner 2017) im NIH Director’s Blog:. https://directorsblog.nih.gov/2017/01/24/find-and-replace-dna-editing-tool-shows-gene-therapy-promise/.

Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


[1] CRISPR-Cas9 gene repair of hematopoietic stem cells from patients with X-linked chronic granulomatous disease. De Ravin SS, Li L, Wu X, Choi U, Allen C, Koontz S, Lee J, Theobald-Whiting N, Chu J, Garofalo M, Sweeney C, Kardava L, Moir S, Viley A, Natarajan P, Su L, Kuhns D, Zarember KA, Peshwa MV, Malech HL. Sci Transl Med. 2017 Jan 11;9(372).

[2] Study of Gene Therapy Using a Lentiviral Vector to Treat X-linked Chronic Granulomatous Disease. Clinicaltrials.gov


Weiterführende Links

  • Gen-editing mit CRISPR/Cas9 Video 3:13 min (deutsch) , Max-Planck Gesellschaft (2016) (Standard-YouTube-Lizenz )
    Die Entdeckung, dass sich auch Bakterien mit einer Art Immunsystem gegen Viren wehren können, hat zunächst nur Mikrobiologen begeistert. Seitdem aber bekannt wurde, dass sich mit dem als CRISPR/Cas9 bezeichneten System das Erbgut unterschiedlichster Organismen manipulieren lässt, interessieren sich auch Nicht-Wissenschaftler für die neue Gentechnik-Methode. Doch wie funktioniert die Methode mit dem unaussprechlichen Namen?
  • Schöne neue Gentechnik - Neue Hoffnung in der Medizin - 3sat 2016 - myDoku, Video 44:17 min.
inge Thu, 02.02.2017 - 11:42

Tierversuche in der Grundlagenforschung – Grundsatzerklärung der Max-Planck-Gesellschaft

Tierversuche in der Grundlagenforschung – Grundsatzerklärung der Max-Planck-Gesellschaft

Do, 19.01.2017 - 06:27 — Max-Planck-Gesellschaft

Icon Politik & GesellschaftTierversuche geraten immer mehr unter die Kritik breiter Gesellschaftschichten. Dennoch ist die biologische und medizinische Forschung nach wie vor auf derartige Experimente angewiesen, da nur diese es erlauben das komplizierte Zusammenspiel der Komponenten komplexer Organismen zu verstehen. In ihrer Grundsatzerklärung (White Paper) zum Thema „Tierversuche in der Grundlagenforschung" betont die Max-Planck-Gesellschaft (MPG)“ die Notwendigkeit von Tierversuchen, bekennt sich aber auch zur besonderen Verantwortung des einzelnen Wissenschaftlers für die Versuchstiere und die mit Untersuchungen an Lebewesen verbundenen ethischen Probleme. Das Papier wurde nach umfangreichen Beratungen einer vom Präsidenten der MPG einberufenen international besetzten Kommission renommierter Wissenschafter unter dem Vorsitz des Neurowissenschafters Wolf Singer (http://scienceblog.at/wolf-singer) verfasst.*

Die Max-Planck-Gesellschaft fördert Grundlagenforschung in den Natur- und Geisteswissenschaften, und hat daher die Verantwortung, eine kritische Bewertung der ethischen Folgen wissenschaftlicher Untersuchungen vorzunehmen.

Besondere Herausforderungen entstehen in den Lebenswissenschaften, deren Forschungsprojekte häufig auch Tierversuche erfordern. (Abbildung 1. Tierversuche in der MPG 2015).

Abbildung 1. Tierversuchszahlen in der MPG im Jahr 2015. Es wurden vorwiegend Versuche mit geringer Belastung durchgeführt. Lediglich 0,35 Prozent der Versuche wurden als schwer belastend eingestuft. Affen (keine Menschenaffen!) werden im Tierversuch nur dann eingesetzt, wenn die Fragestellung an keiner anderen Tierart, wie beispielsweise an Mäusen, Fischen oder Fruchtfliegen, untersucht werden kann. (© MPG; https://www.mpg.de/themenportal/tierversuche/tiere)

Daraus ergibt sich eine spezielle Verantwortung der Wissenschaftlerinnen und Wissenschaftler, die den Wert des Wissenserwerbs gegen den möglichen Schaden abwägen müssen, der dabei empfindungsfähigen Lebewesen zugefügt wird. Um sich mit dieser Herausforderung auseinanderzusetzen, hat der Präsident einen umfassenden Diskussionsprozess initiiert. Daran waren die Mitglieder einer internationalen Präsidentenkommission, die Wissenschaftlichen Mitglieder der MPG sowie Vertreter der Generalverwaltung beteiligt. Die Ergebnisse dieser Beratungen sind in dem vorliegenden WhitePaper zusammengefasst, das eine Stellungnahme der MPG zu Tierversuchen in der Grundlagenforschung darstellt.

Nachhaltiger Fortschritt durch erkenntnisorientierte Forschung

Dem Versuch, „die Welt besser zu verstehen“, wird ein Wert an sich zugeschrieben, da er konstitutiv für menschliche Kulturen ist. Zudem bezieht Erkenntnisgewinn auch einen großen Wert daraus, dass er die Voraussetzung für mögliche, allerdings nicht planbare Beiträge zu Problemlösungen ist. Der Beitrag, den erkenntnisorientierte Forschung letztlich am nachhaltigen Fortschritt geleistet hat und leisten kann, ist trotz menschengemachter Katastrophen unbestreitbar:

Verbesserte Erklärungsmodelle der Welt haben dazu beitragen, Herausforderungen zu meistern und werden dies auch weiterhin tun. So haben Fortschritte im Verständnis von Krankheitsmechanismen und der Vorhersage gefährlicher Entwicklungen doch unzweifelhaft zur Verbesserung der Lebensqualität und zur Bekämpfung von Leid beigetragen. Der Mensch hat dank grundlegender Erkenntnisgewinne wirkungsvolle Mittel entwickelt, um auf die unbelebte und belebte Welt einzuwirken. Ein Handeln aber wäre verantwortungslos, wenn es nicht von dem Versuch begleitet wäre, das zur Vorhersage der Folgen benötigte Wissen zu erwerben. Somit sprechen, über einen von vielen attestierten intrinsischen Wert des Erkenntnisgewinns hinaus, langfristige Nützlichkeits- ebenso wie moralische Überlegungen für den hohen Wert wissenschaftlicher Grundlagenforschung.

In den Lebenswissenschaften entstehen besondere ethische Konflikte,

weil der zu erwartende Nutzen wissenschaftlicher Forschung gegen den tatsächlichen oder mutmaßlichen Schaden für empfindungsfähige Lebewesen abgewogen werden muss. Die entstehenden ethischen Konflikte müssen in einem qualifizierten Diskurs aller Beteiligten kontinuierlich aufs Neue gelöst werden. Wissenschaftlerinnen und Wissenschaftler haben folglich die moralische Verpflichtung, die für ethisch verantwortungsvolles Handeln notwendigen Fähigkeiten zu erwerben und die Öffentlichkeit an ihrem Diskurs zu beteiligen. Sie müssen Vertrauen bilden, indem sie offen über die Ziele ihrer Untersuchungen und die dafür eingesetzten Methoden berichten. Ebenso müssen sie die unberechenbare Natur von Entdeckungen, deren mutmaßliche Folgen, sowie die Grenzen wissenschaftlicher Erkenntnisse deutlich machen. Alle Beteiligten müssen hierbei bedenken, dass ethische Einschätzungen stark von subjektiven Einstellungen und Werten abhängen, die zudem einem zeitlichen Wandel unterliegen.

Die größte Herausforderung für die Lebenswissenschaften in den kommenden Jahrzehnten besteht darin, die äußerst komplexen Wechselwirkungen zwischen den einzelnen Komponenten von Organismen zu verstehen. Dank der Untersuchungen in Modellsystemen wie Zellkulturen und in vitro Präparationen sind die Bausteine von Organismen, die Gene, Proteine und individuelle Zellen bereits gut erforscht. Um jedoch integrierte Funktionen zu verstehen, die aus dem Zusammenspiel dieser Komponenten entstehen, müssen intakte Organe und Organismen untersucht werden. Dies gilt insbesondere für komplexe Systeme wie das Herz-Kreislauf-System, das Immunsystem und allen voran das Gehirn.

Über den fortlaufenden Diskurs hinaus müssen ethische Kompromisse auch in einem rechtlichen Regelwerk festgeschrieben werden. Die aktuelle ethische Einstellung einer Mehrheit der Bürgerinnen und Bürger spiegelt sich gegenwärtig in einem Konzept wieder, das den moralischen Status von empfindungs-und leidensfähigen Lebewesen sowie ihre kognitiven Fähigkeiten in den Mittelpunkt stellt. Diese sogenannte pathoinklusive Position ist auch die Grundlage der derzeitigen Tierschutz-Gesetzgebung in der Europäischen Union und in Deutschland.

Das 3R-Prinzip

Trotz strikter gesetzlicher Regelungen bleibt die ethische Abwägung eine außerordentlich herausfordernde Aufgabe, für die sowohl ein informierter Diskurs als auch die Zuweisung und Übernahme von Verantwortung notwendig ist. Die MPG verpflichtet sich daher zu einer Reihe von Maßnahmen zur Verbesserung des Tierschutzes und der Förderung einer Kultur der Fürsorge für die Tiere im Rahmen des gesetzlichen vorgeschriebenen 3R-Prinzips „Replacement, Reduction, Refinement“: Ersatz von Tierversuchen, Reduktion von Tierversuchen, Minimierung der Belastungen der Tiere. Abbildung 2.

Abbildung 2. Die Verantwortung der Max-Planck-Gesellschaft fußt auf dem 3R-Prinzip: „Replacement, Reduction, Refinement“ - dem Vermeiden, dem Verringern und dem Verbessern von Tierversuchen. (© Wolfgang Filser/MPG)

Ein koordinierendes Team in der Generalverwaltung der MPG soll aufgebaut werden und diese Maßnahmen in enger Kooperation mit den Instituten umsetzen.

Die MPG verpflichtet sich unter anderem:

  • in der Tierforschung höchste wissenschaftliche Qualität anzustreben, um den größtmöglichen epistemischen Nutzen zu erzielen
  • Tierversuche durch die Förderung und Finanzierung alternativer Versuchsmethoden zu vermeiden
  • offen und transparent über Tierversuche zu kommunizieren und eine aktive Rolle im öffentlichen Diskurs über alle Aspekte der Tierforschung zu übernehmen.

Als Organisation, die sich der Grundlagenforschung widmet, führt die MPG ein viertes R für „Responsibility“ oder Verantwortung ein. Sie beabsichtigt damit, ihre breitgefächerte wissenschaftliche Expertise in den Lebens- und Geisteswissenschaften zur Beförderung des Tierschutzes zu nützen. Hierzu gehören die Erforschung der kognitiven Fähigkeiten unterschiedlicher Tierarten, ihrer adäquaten Lebensbedingungen und von Verhaltensäußerungen, die auf Leid oder Stress schließen lassen. Wissenschaftliche Fortschritte, die für den Tierschutz von Bedeutung sind, sollen kommuniziert und mögliche Konsequenzen diskutiert werden.

Zur Erfüllung des vierten R verpflichtet sich die MPG unter anderem:

  • das Sozialleben von Versuchstieren zu verbessern
  • die wissenschaftliche Grundlage für eine objektive Ermittlung von Empfindungsfähigkeit, Schmerzerfahrung, Bewusstsein und Intelligenz in der Tierwelt weiterzuentwickeln
  • die Professionalisierung des öffentlichen Diskurses über Fragen der Tierethik aktiv zu unterstützen.

Zur Umsetzung des „White Papers“ wurden folgende Programme entwickelt:

  • Eine interne interaktive Datenbank bietet einen Überblick über alle Tierversuche der MPG und dient als Instrument für die Metaanalyse, zur transparenten Kommunikation und für das Management der Tierhäuser.
  • Forschungsprojekte zur Verbesserung der 3R-Maßnahmen sollen speziell gefördert werden.
  • Um der Notwendigkeit der Transparenz und Vertrauensbildung gerecht zu werden, wurde ein “Kommunikationsleitfaden“ formuliert und den Max-Planck-Instituten zur Verfügung gestellt.
  • Ein verpflichtendes Ethik-Curriculum wird derzeit entwickelt, um alle Mitarbeiterinnen und Mitarbeiter, die mit Tieren arbeiten, zur aktiven Teilnahme an einem professionellen ethischen Diskurs zu befähigen.
  • Die Fortschritte der Institute bei der Umsetzung der Selbstverpflichtungen, die in diesem White Paper formuliert wurden, sollen durch die Fachbeiräte evaluiert werden.

*Die Grundsatzerklärung "Tierversuche in der Max-Planck-Gesellschaft , White Paper" wurde am 12. Januar 2017 vom Senat der Max-Planck Gesellschaft verabschiedet. Im Blog erscheint die ungekürzte Zusammenfassung des White Paper. Wir haben diese durch Untertitel leicht adaptiert und zur Illustration 2 Abbildungen aus dem MPG-Themenportal Tierversuche eingefügt. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung in ScienceBlog.at zugestimmt.


Weiterführende Links

inge Thu, 19.01.2017 - 06:27

Die Proteindatenbank: Strukturen, Modelle und zwingend erforderliche Korrekturen

Die Proteindatenbank: Strukturen, Modelle und zwingend erforderliche Korrekturen

Do, 26.01.2017 - 08:03 — Bernhard Rupp & Inge Schuster Bernhard RuppInge SchusterIcon Chemie

Mit bis jetzt mehr als 120 000 eingespeisten Strukturdaten von Proteinen und daraus erstellten Modellen ist die Proteindatenbank (PDB) zur unentbehrlichen Basis von Grundlagenforschung und angewandter Forschung geworden. Allerdings kontaminieren einige wenige, stark fehlerhafte und sogar erfundene Strukturmodelle die Datenbank und beeinträchtigen Data-Mining, Metaanalysen und vor allem Wissenschafter die auf Basis der Daten aussichtlose, nur Ressourcen vergeudende Untersuchungen starten. Der aus Wien stammende Strukturbiologe Bernd Rupp ruft zu einem gemeinsamen Vorgehen von Strukturbiologen und Herausgebern von Fachzeitschriften auf, um derartige Einträge effizient zu eliminieren.*

Vor knapp 60 Jahren gelang einer der größten Durchbrüche in den Biowissenschaften: John Kendrew und Max Perutz veröffentlichten die ersten dreidimensionalen Strukturen von Proteinen. Es handelte sich dabei um die Strukturmodelle zweier verwandter, Sauerstoff bindender Proteine - Myoglobin und Hämoglobin, die in Jahrzehnte langer, überaus schwieriger Arbeit mittels Röntgenstrukturanalyse bestimmt worden waren. Die räumliche Lage der Atome zu einander war an Hand der Beugungsbilder von Röntgenstrahlen an den Proteinkristallen ermittelt worden. Man erkannte daraus nicht nur, wie sich Proteine falten, sondern konnte nun erstmals deren Funktion auf molekularer Basis verstehen: wie Hämoglobin den Sauerstoff in der Blutbahn aufnimmt, transportiert und abgibt, wie ein genetischer Defekt diese Vorgänge hemmt und wie Myoglobin in der Muskelzelle den Sauerstoff speichert.

Es dauerte dann bis 1967 bis die Struktur eines weiteren Proteins, des aus Hühnereiweiss isolierten Enzyms Lysozym, aufgeklärt wurde. In den nächsten Jahren folgten einige weitere Enzyme (u.a. Chymotrypsin, Carboanhydrase und Laktatdehydrogenase). Erstmals erkannte man nun die molekularen Details, wie Enzyme chemische Reaktionen katalysieren.

Die Protein Datenbank (PDB)

Eine kleine Tagung über "Struktur und Funktion von Proteinen auf 3D-Niveau" am Cold Spring Harbor Laboratory (NY, USA) brachte im Jahr 1971 die Pioniere der Strukturbiologie mit Biochemikern/Biophysikern zusammen, welche die Röntgen-Strukturdaten als Grundlage ihrer Forschung nutzen wollten. Man ahnte, dass dieses neue Gebiet eine Revolution für die gesamte Biologie darstellen würde und beschloss die Gründung einer zentralen Proteindatenbank PDB (untergebracht im Brookhaven National Laboratory, NY). In dieser sollten alle neuen Strukturdaten hinterlegt und für jeden Wissenschafter frei zugänglich sein. Damit begann der Siegeszug der Strukturbiologie. Wuchs diese Datenbank anfangs nur langsam - 1980 enthielt sie Daten von 69 Strukturen, 1990 von 507 Strukturen -, so ermöglichten rasche technologische Entwicklungen in Produktion, Reinigung und Kristallisation von Proteinen immer schnellere Analysen von immer komplizierter aufgebauten Systemen und zu deren Analyse und Visualisierung wurden immer bessere Verfahren entwickelt wurden. PDB wurde zu einer weltweiten Kollaboration (http://www.wwpdb.org/) von Datenbanken in den US (RSCB PDB), Japan (PDBj) und Europa (PDBe), in den letzten Jahren wurden jeweils mehr als 10 000 Strukturmodelle hinterlegt. Abbildung 1.

Abbildung 1. Zahl der in der Proteindatenbank (PDB) hinterlegten Strukturen. In den letzten Jahren sind jeweils rund 10 000 neue Strukturen hinterlegt worden. Das Insert unten zeigt, woher die Autoren dieser Daten stammten. Rund 10 % der Strukturen kommen aus der Industrie, insbesondere aus der pharmazeutischen Industrie, die so selektive Inhibitoren für Targetproteine - beispielsweise für die HIV-Protease - designt. (http://www.rcsb.org/pdb/statistics/contentGrowthChart.do?content=total&seqid=100,Update 17.01.2017)

Es wurden und werden Strukturen von kleinsten bis zu enorm großen Proteinen aufgeklärt, allein und in Wechselwirkung mit ihren natürlichen Liganden (z.B. Hormonrezeptoren mit ihren Hormonen) und mit Molekülen die diese Interaktionen modulieren. Es liegen Analysen riesiger Proteinkomplexe (z.B. das Proteasom), ganzer Viren und Ribosomen vor. Als besonderes Highlight im Jahr 2016 ist hier die erste Struktur des Zika-Virus zu nennen, gefolgt von seinem Komplex mit einem Antikörper

Derzeit enthält die PDB insgesamt 126 060 Strukturmodelle, die zum überwiegenden Teil (92,8 %) von Proteinen und zum kleineren Teil auch von Nukleinsäuren stammen. Rund 90 % der Proteinstrukturen wurden durch Röntgenstrukturanalyse ermittelt, etwa 9 % durch Kernresonanzuntersuchungen(NMR).

Das Interesse an diesen mehr als 120 000 Strukturen ist enorm. Im vergangenen Jahr zählte die Website weltweit mehr als eine Million unterschiedlicher Besucher: Studenten und Forscher in biologischen, biomedizinisch/pharmazeutischen und ökologischen Fachrichtungen. Strukturdaten wurden rund 600 Millionen Mal abgerufen. ( http://cdn.rcsb.org/rcsb-pdb/general_information/news_publications/newsletters/2017q1/home.html).

Von Beugungsdaten zu Proteinmodellen

Liest man Veröffentlichungen, die auf der Analyse von makromolekularen Strukturen basieren, so erwartet man natürlich, dass die dazu gehörigen, in der PDB hinterlegten Strukturmodelle sachgerecht erstellt und verfeinert wurden. Die Strukturbiologen waren ja Vorreiter im Erstellen von Normen für die Hinterlegung von Daten und Modellen. Die meisten wissenschaftlichen Journale sind diesen ethischen Normen gefolgt und haben eine verpflichtende Hinterlegung der Modell Koordinaten und in jüngerer Zeit der Beugungsdaten gefordert.

Nun zeichnet sich der Weg von den rohen Beugungsdaten zu den prozessierten Strukturdaten (wie sie aktuell hinterlegt werden) und von hier zur Rekonstruktion der Elektronendichteverteilung durch große mathematischer Objektivität aus (vereinfacht dargestellt in Abbildung 2). Die Übersetzung der Elektronendichte in ein Atommodell erlaubt dagegen erheblichen Freiraum, der umso größer wird, je niedriger die Qualität der Beugungsmuster und das Fachwissen des Modellierers sind. Wenn man also erwartet, dass jedes Modell die in Form von Elektronendichte vorliegende Evidenz genau widerspiegelt, , ist dies gelegentlich eine arge (Ent)Täuschung.

Abbildung 2. Röntgenkristallographie eines Proteins. Ein Proteinkristall wird fein-gebündelten (kollimierten), intensiven Röntgenstrahlen ausgesetzt, die an den Elektronenhüllen der Atome gebeugt werden. Die Beugungsbilder werden auf einem Flächendetektor aufgenommen und zu einem Set von Beugungsdaten zusammengesetzt – einem reziproken Code für die räumliche Anordnung der Atome im Kristall. Die Übersetzung diese Codes mittels Fourier-Transformation und Kenntnis der zugehörigen Phasenwinkel erlaubt die Rekonstruktion der Elektronendichte für die streuenden Atome. Daraus kann ein dreidimensionales Modell der Proteinstruktur erstellt werden - hier dargestellt in Form eines Ribbon – Modells (Abbildung modifiziert nach © Garland Science 2010).

Falsche und unglaubwürdige Modelle

Praktisch alle Fachgesellschaften und Herausgeber von Fachzeitschriften begrüßten den Ruf der Strukturbiologen nach Hinterlegung von Beugungsdaten und Modellkoordinaten. Dagegen wurde der Frage, was man eigentlich mit Publikationen machen sollte, die nachgewiesenermaßen unrichtige Strukturmodelle enthielten und wie - um die Integrität öffentlicher Datenbanken zu erhalten - derartige Modelle dort gelöscht werden könnten, wesentlich weniger Aufmerksamkeit gezollt.

Falsche und unglaubwürdige Modelle sind kein belangloses Ärgernis. Sie erschweren die Extraktion von Daten (Data-Mining), beeinträchtigen Metaanalysen und beschädigen sicherlich auch Image und Glaubwürdigkeit von Journalen, die strukturbiologische Untersuchungen veröffentlichen. Überdies können Veröffentlichungen, die unrichtige Modelle enthalten, andere Wissenschafter zu aussichtslosen, bloß Ressourcen vergeudenden Versuchen verleiten - ein Dominoeffekt, der nur schwierig zu stoppen ist.

Es erscheint sehr wichtig, dass sich die Gemeinschaft der Strukturbiologen zusammen mit den Herausgebern von Journalen und den Begutachtern auf ein klar umrissenes Protokoll einigen, wie umgehend auf Veröffentlichungen reagiert werden sollte, die in ihren Strukturmodellen nachgewiesene schwere Fehlerenthalten und wie derartige Modelle in Datenbanken wirkungsvoll markiert oder gelöscht werden.

Zurückziehen (obsoleting) von Einträgen in der PDB

Gegenwärtig wird das Problem einer Kontamination der Datenbank durch die Politik der PDB verschärft, dass ein Zurückziehen ("obsoleting" in der Sprache der PDB) der Modell-Koordinaten nur möglich ist, wenn der Autor der hinterlegten Daten es verlangt oder erlaubt. Ein kritisierter Autor stimmt diesem Schritt aber nur selten zu. Insgesamt sind bis jetzt in der PDB von mehr als 120 000 Einträgen nur 3 557 zurückgezogen worden, jedoch häufig nur, weil die Autoren nun bessere experimentelle Daten oder verbesserte Modelle produziert hatten.

Einige wenige ausgewählte Beispiele aus den letzten zehn Jahren sollen einen Eindruck vermitteln, wie schwierig es ist Einträge in Fachjournalen und in der PDB zu korrigieren, sogar wenn es sich um nicht plausible Modelle oder gar nachgewiesene Fabrikationen handelt .

  • Im Jahr 2006 erschien im Top-Journal Nature eine gefälschte Struktur des Komplement-Proteins C3b, das eine wichtige Rolle in der Aktivierung und Regulierung des Immunsystems zur Infektabwehr spielt. Ein kritischer Kommentar stellte die Fälschung sofort fest, wurde im Journal allerdings erst sechs Monate später online gestellt. Die Universität Alabama - Heimatuniversität des C3b-Kristallographen - untersuchte dann den Fall, stellte 2009 die Fälschung fest und, dass noch weitere 11 von dem Autor publizierte und in die PDB eingespeiste Strukturen verschiedener Proteine gefälscht waren. Hinsichtlich der C3b-Struktur meldete Nature erst 2016 das Zurückziehen der ursprünglichen Arbeit. Die Reaktion des Journals führte dann zur Löschung des Eintrags (Code 2HR0) in der PDB - obwohl der Autor nicht zustimmte. Von den anderen 11 inkriminierten Strukturen befinden sich aktuell noch 7 in der PDB (http://www.wwpdb.org/documentation/UAB)
  • Ein weiteres Beispiel, wo zwischen Kritik und Rückziehen der Struktur enorm lange Zeit verstrich, liegt im Fall des 2000 publizierten Komplexes von Botulinumtoxin mit einer Targetsequenz (einem kurzen Peptid) des Proteins Synaptobrevin vor (Synaptobrevin ist in der neuronalen Signalübertragung essentiell und wird bereits durch kleinste Konzentrationen Botulinumtoxin inaktiviert). Obwohl auf Grund der Elektronendichteverteilung das Fehlen des Peptids bereits 2001 aufgezeigt wurde, wurde das Modell des angeblichen Komplexes erst 2009 zurückgezogen.
  • Weitere Beispiele betreffen u.a. Modelle für Antikörper-Antigen Komplexe, die 2006 im Journal Immunity erschienen sind. Die Autoren stellen hier die Hypothese auf, dass das limitierte primäre Repertoire an Antikörpern dadurch erweitert wird, dass ein einzelner Antikörper jeweils verschiedene Antigene an unterschiedlichen Stellen binden kann. Vom Herausgeber in einem Leitartikel prominent herausgestellt, wurde bereits in 69 Publikationen auf diesen attraktiven Mechanismus Bezug genommen. Das Problem ist, dass sowohl die abwesende Elektronendichte als auch die praktisch unmögliche Stereochemie des Modelles nicht auf derartige Lokalisationen der Antigene im Komplex schließen lässt.

Damit ein fauler Apfel nicht das ganze Fass verdirbt

Stark fehlerhafte und sogar erfundene Strukturmodelle von Biomolekülen sind zwar selten, persistieren aber in den Datenbanken. Die sich daraus ergebenden Probleme - die Integrität der Datenbanken selbst und die Persistenz der auf falschen Strukturmodellen basierenden Arbeiten - müssen wirkungsvoll angegangen werden. Es ist ein Aufwand, der nicht nur kritischen Stimmen überlassen werden darf, die sich die Mühe machen die Irrtümer aufzuzeigen (und meistens ignoriert werden). Die gesamte Gemeinschaft der Strukturbiologen und in besonderem Maße die Herausgeber von Fachzeitschriften sind gefordert in einen konstruktiven Dialog einzutreten , damit die Strukturbiologie nicht ihre Glaubwürdigkeit als Evidenz-basierte Wissenschaft verliert.


* Ein ausführlicher Artikel von Bernhard Rupp und Kollegen über dieses Thema ist eben erschienen: B.Rupp et al., Correcting the record of structural publications requires joint effort of the community and journal editors. FEBS Journal 283 (2016) 4452–4457. doi:10.1111/febs.13765.


Weiterführende Links

Proteindatenbank

Ein wunderschöner 2017 Kalender der PDB: http://pdb101.rcsb.org/learn/resource/2017-calendar-geis-digital-archive-calendar (RCSB PDB has published a 2017 calendar highlighting the work of Irving Geis (1908-1997) "Geis was a gifted artist who helped illuminate the field of structural biology with his iconic images of DNA, hemoglobin, and other important macromolecules")

Bernhard Rupp (2009): „Biomolecular Crystallography: Prinicples, Practice, and Application to Structural Biology“ (Garland Science, Taylor & Francis)- ein weltweit anerkanntes Lehrbuch.

Artikel über Kristallstrukturen im ScienceBlog

inge Thu, 26.01.2017 - 08:03

Unser tägliches Brot — Ernährungsicherheit in einer sich verändernden Welt

Unser tägliches Brot — Ernährungsicherheit in einer sich verändernden Welt

Do, 12.01.2017 - 06:42 — IIASA

IIASAIcon GeowissenschaftenWeltweit ist unsere Versorgung mit Nahrungsmitteln in Gefahr. Will man dieses Problem ernsthaft angehen, so bedarf es eines ausreichenden Verständnisses, wie sich das Klima künftig entwickeln wird und welche Auswirkungen dies auf unsere Nahrungsressourcen haben kann. Mit Hilfe der Systemwissenschaft lassen sich dazu Modelle erstellen, die auch einbeziehen wie unsere Aktivitäten - von Kriegen bis hin zu Handelsabkommen - die Ernährungssicherheit beeinflussen können und uns aufzeigen, wie wir uns an die sich verändernde Welt anpassen können. Das "Internationale Institut für Angewandte System-Analysen" - IIASA - in Laxenburg (bei Wien) erstellt derartige, für Politik und Gesellschaft wichtige Systemanalysen.*

Was ist in einer sich verändernden Welt sicher?

Ernährungssicherheit bedeutet nicht einfach, dass wir momentan ausreichend zu essen haben und auch genügend Saatgut vorrätig für die Ernte des nächsten Jahres. In der Welt von heute müssen wir uns für globale, langfristige Änderungen vorbereiten.

Um Auswirkungen des Klimawandels auf unsere Nahrungsressourcen vorherzusagen, bedarf es großer Datenmengen, die aufzeigen, welche Nutzpflanzen wo wachsen, wie empfindlich diese auf einen Klimawandel reagieren und welche Verfahren oder Technologien vor Ort angewendet werden. Um diese Informationen für die Bedürfnisse der Politik zurecht zu schneidern, hat IIASA mit geholfen eine neue interaktive Plattform - Spatial Production Allocation Model "MapSPAM" - zu erstellen, die 42 der weltweit wichtigsten Nutzpflanzen kartiert, bei einer räumlichen Auflösung von 10 km [1]. Abbildung 1 zeigt als Beispiel den Ernteertrag der enorm wichtigen Kulturpflanze Reis in Europa, Afrika und Asien und wie wichtig künstliche Bewässerung vor allem in verschiedenen asiatischen Regionen ist.

Abbildung 1. Reisernte in Europa, Afrika und Asien. Oben: Gesamtertrag (kg/ha), Unten: Ertrag ohne künstliche Bewässerung. Der Ertrag hängt in weiten Teilen Asiens von der Bewässerung ab. Die räumliche Auflösung beträgt 10 km.(Statistische Daten von ca. 2005 . Quelle: You, L., U. Wood-Sichra, S. Fritz, Z. Guo, L. See, and J. Koo. 2014. Spatial Production Allocation Model (SPAM) 2005 v2.0.January 11, 2017. Available from http://mapspam.info; License: cc-by-nc)

Wie IIASA kürzlich gezeigt hat, spielt auch die Bodenbeschaffenheit eine essentielle Rolle [2]. Christian Folberth (IIASA) meint : "Unterschiedliche Böden können sehr verschiedene Charakteristika aufweisen, u.a. hinsichtlich ihrer Gehalte an Nährstoffen oder ihrer Fähigkeit Wasser zu speichern. Manche Böden wirken wie ein Schwamm und versorgen Pflanzen auch während Trockenperioden mit Wasser."

In Gegenden, die nur wenig Dünger oder Bewässerung anwenden - meistens handelt es sich hier um die ärmeren Gebiete -, hängen die Ernteerträge tatsächlich stärker vom bebauten Bodentyp ab als vom Wetter. Abbildung 2.

Dies hat wesentliche Konsequenzen für die Verbesserung der Ernährungssicherheit. Folberth: "Mit genauen Bodendaten in unseren Modellrechnungen können wir die Bauern besser beraten, wie sie für ihre Böden geeignete Nutzpflanzen auswählen und wie sie ihre Böden vor einer Degradierung schützen können."

Abbildung 2. Ernteerträge von Mais als repräsentativer Kulturpflanze: Ohne Zusatz von Dünger und ohne künstliche Bewässerung bestimmt häufig die Bodenqualität die globalen Erträge. Ist ausreichend Dünger und Bewässerung vorhanden, bestimmt das Klima die Erträge. (Quelle: http://www.iiasa.ac.at/web/home/about/news/160621-soil-data.html)

Diversität, um Veränderungen zu bewältigen

Ebenso wie unsere Böden nach und nach ihre Fähigkeit verlieren uns zu versorgen, gibt es eine andere langsam wachsende Bedrohung, nämlich unseren Einfluss auf das Erbgut all der Organismen von denen unsere Ernährung abhängt. Sogenannte "alte Sorten", von lilafarbenen Karotten bis hin zu alten Weizensorten sind plötzlich populär, zum Teil weil es die berechtigte Sorge gibt, dass die genetische Vielfalt unserer Nahrung auf ein gefährliches Niveau abnimmt. Wenn nur ein einzelner Stamm übrig ist, kann Krankheit jede Nutzpflanze dezimieren - tatsächlich haben wir ja bereits einen wichtigen Bananenstamm verloren.

Ebenso wie das Herauszüchten gewisser Eigenschaften den Genpool verändern kann, bewirkt dies auch das Ernten bestimmter Einzelorganismen aus einer Population. Im Zusammenhang mit den wasserbewohnenden Nahrungsressourcen hat dies IIASA gezeigt: intensiver Fischfang - wobei immer die größeren Fische entfernt werden - kann in der Fischpopulation zu einer Änderung des Genpools führen - zu einer sogenannten Fischerei-induzierten Evolution - und damit zu dem Risiko, dass die Bestände kollabieren, ebenso zu einem Absinken ihrer Produktivität und ihres Erholungspotentials. Um dem vorzubeugen, haben IIASA-Forscher ein Programm zur evolutionären Folgenabschätzung - Evolutionary Impact Assessment Framework - entwickelt, welches es Managern ermöglicht die Anfälligkeit unterschiedlicher Fischpopulationen abzuschätzen und Strategien zur Schaffung florierender, nachhaltiger Fischereien zu finden [3].

Instabilität bedeutet Unsicherheit

Wenn Nahrung knapp ist, steigen die Spannungen. Unruhen und Krieg können Nahrungsknappheit verursachen und auch dadurch verursacht werden. Indem es Informationen über sozioökonomische Risikofaktoren (beispielsweise politische Konflikte) mit Satellitendaten über physikalische Bedingungen (etwa Bodenfeuchtigkeit und Wetter) kombiniert, hat IIASA mitgeholfen eine App für das Mobiltelefon - SATIDA COLLECT- zu entwickeln, die von Nahrungsknappheit gefährdete Gemeinschaften identifiziert [4]. Diese App wird gegenwärtig von Ärzte ohne Grenzen in der Zentralafrikanischen Republik erprobt. Abbildung 3.

Abbildung 3. SATIDA COLLECT (Satellite Technologies for Improved Drought Risk Assessment): Eine App für Mobiltelefone, die zur Unterstützung von Ärzte ohne Grenzen entwickelt wurde. (Details: http://www.geo-wiki.org/mobile-apps/satida-collect).

"Wenn man von Nahrungsmittelknappheit bedrohten Gemeinschaften helfen möchte, besteht eine der größten Herausforderungen darin, dass man primär keine Information über die Gefährdung hat und dann, dass man diese nicht rechtzeitig hat," sagt die IIASA-Forscherin Linda See. Die SATIDA COLLECT App ist für die Mitarbeiter der Hilfsorganisationen entworfen: diese nehmen damit Antworten der Bevölkerung auf einfache, die Nahrungsversorgung betreffende Fragen auf. Darunter sind auch Fragen, wie: "Sind Familienmitglieder kürzlich aus der Gegend weggezogen?" "Ist irgendjemand gestorben?" "Wie häufig essen Sie?"

Sobald das Smartphone Internetkontakt hat, kann diese Information hochgeladen werden. Zusammen mit den Satellitendaten über die lokalen physikalischen Bedingungen, können diese verwendet werden, um Orte mit hohem Risiko - Hotspots - für Mangelernährung zu kartieren.

"Ernährungssicherheit kann auf wöchentlicher Basis überwacht werden", sagt See. "Außerdem -, wenn wir wissen, dass ein Desaster bevorsteht (beispielsweise El Nino), das die Nahrungsversorgung gefährdet, können NGOs die Daten nützen, um die Resilienz von Orten mit höchstem Risiko zu erhöhen."

Zusammenhänge schaffen

Die Ernährungssicherheit steht nicht nur in Wechselbeziehung mit einer Reihe von Systemen - von physikalischen bis hin zu sozioökonomischen Systemen -, sie hängt auch eng von anderen, essentiellen Ressourcen ab. Beispielsweise kann eine Intensivierung der Landwirtschaft die Wasserversorgung beeinträchtigen, indem sie Wasser verunreinigt und übermäßig verbraucht. Derartige Abhängigkeiten erstrecken sich auch auf Energie, Waldwirtschaft und internationalem Handel.

Mit Systemanalysen , die solche Abhängigkeiten berücksichtigen, bereitet IIASA nun zusammen mit der Nationalem Akademie der Wissenschaften der Ukraine eine "Politikberatung für die Ukraine" vor - für ein Land, das in der Vergangenheit niedrige Ernteerträge in Kauf nehmen musste und als Folge davon Exportquoten einführte um die heimische Nahrungsmittelversorgung sicher zu stellen und die Auswirkungen auf deren Preise abzuschwächen [5]. Die IIASA-Forscherin Tatiana Ermolieva beschreibt dies: "Wir haben nationale Modelle mit einem globalen, Multiregionen-Modell - dem IIASA "Global Biosphere Management Model" - verknüpft, das die wechselseitigen Abhängigkeiten von einzelnen Ländern und von Wirtschaftszweigen berücksichtigt. Wir haben gefunden, dass im Verlauf der Klimaerwärmung die Ukraine einen Vorteil von Nutzpflanzen erzielen könnte, die anderswo Schaden erleiden - wie beispielweise von einigen Getreidearten, deren Erträge in Frankreich, Deutschland, Italien und Spanien voraussichtlich sinken werden. So kann auch analysiert werden, welche Auswirkungen die EU-Politik auf die Ukraine und vice versa hat und wie beide zusammenarbeiten können, um die regionale und globale Ernährungssicherheit zu stärken."


*Der von der Redaktion aus dem Englischen übersetzte Text von Daisy Brickhill stammt aus dem Options Magazin (Winter 2016) des IIASA, das freundlicherweise der Veröffentlichung von Inhalten seiner Website in unserem Blog zugestimmt hat. http://www.iiasa.ac.at/web/home/resources/publications/options/w16_daily_bread.html. Die Abbildungen wurden von der Redaktion zugefügt und stammen ebenfalls aus IIASA-Unterlagen.


[1] Spatial Production Allocation "MapSpam" http://mapspam.info/

[2] Better soil data key for future food security .http://www.iiasa.ac.at/web/home/about/news/160621-soil-data.html

[3] Protecting fisheries from evolutionary change. http://www.iiasa.ac.at/web/home/about/news/160427-plaice-fish.html

[4] Monitoring food security with mobile phones. http://www.iiasa.ac.at/web/home/about/news/151118-PLOS-food.html

[5] Robust solutions for the food-water-energy nexus. http://www.iiasa.ac.at/web/scientificUpdate/2015/program/asa/Robust-solutions-for-the-food-water-energy-nexus.html


Weiterführende Links

Internationales Institut für Angewandte Systemanalyse (IIASA)

Beiträge im IIASA Research Blog Nexus (englisch)

inge Thu, 12.01.2017 - 06:42

Wie das Schuppentier zu seinen Schuppen kam

Wie das Schuppentier zu seinen Schuppen kam

Do, 05.01.2017 - 06:27 — Ricki Lewis Ricki LewisIcon Biologie

Vor kurzem wurde das Genom des Schuppentiers sequenziert [1]. Es zeigt sich, dass im Vergleich zu anderen Säugetieren bestimmte Genfamilien geschrumpft sind und andere erweitert wurden. Insbesondere dürfte die Bildung des Panzers, der das Tier ja von Infektionen freihält, dazu geführt haben, dass ein Teil der Immunabwehr nicht mehr notwendig war und verloren ging. Die Genetikerin Ricki Lewis berichtet hier über dieses Beispiel natürlicher Selektion, die nach dem Motto erfolgt: Was nicht gebraucht wird, geht verloren.*

Kuriositäten im Tierreich sind allseits beliebt.

Darwin und Lamarck dachten über die Vorteile nach, welche Giraffen von ihren langen Beinen und langem Hals haben. Eine Dekade später erklärte Rudyard Kipling wie der Leopard zu seinen Flecken kam. Die Sequenzierung von Genomen lässt uns heute konkretisieren, was wir über Anpassungen im Tierreich vermuteten.

Anpassungen sind vererbte Eigenschaften, die für das Individuum die Wahrscheinlichkeit erhöhen zu überleben und sich fortzupflanzen. Anpassungen sind die Streifen des Zebras - die es unsichtbar machen, wenn es läuft -, die riesigen Ohren des Wüstenfuchs, die zur Hitzeabfuhr dienen und, um entfernte Raubtiere zu hören.

Vor Kurzem ist im Fachjournal "Genome Research" ein Bericht erschienen [1], der die Grundlage für die Geschichte schafft, wie das Schuppentier - der schuppige Ameisenfresser - zu seinen Schuppen gekommen ist. Diese schützen das Tier - aber in einer Weise die über das Ersichtliche hinausgeht. Wie aus dem Genom herauszulesen ist, hat der Panzer des Schuppentiers einen Teil seines Immunsystems ersetzt.

Gefährdete Spezies

Heute leben acht Spezies der Schuppentiere. Von ihrem gemeinsamen Vorläufer her begannen sie sich vor rund 60 Millionen Jahren zu entwickeln. Dieser diversifizierte sich von Insektenfressern, welche wiederum rund 100 Millionen Jahre den plazentalen Säugetieren vorausgingen, als behaarte Tiere gerade begannen die herrschenden riesigen Reptilien abzulösen.

Vier der modernen Schuppentierarten leben in Asien, vier in Afrika. Die Internationale Union für die Erhaltung der Natur und der natürlichen Ressourcen (IU) hat Schuppentiere auf der "Roten Liste Gefährdeter Spezies" stehen, betrachtet sie als kritisch gefährdet.

Schuppentiere sind die am meistgejagten und (illegal) -gehandelten Säugetiere. In der Vietnamesischen und Chinesischen Küche gilt ihr Fleisch als Delikatesse und ihre zerriebenen Schuppen finden in der Chinesischen Medizin Verwendung als Mittel gegen Krebs, bei verschiedenen Hautdefekten und Kreislauferkrankungen. Im afrikanischen Volkstum wurde dem Häuptling ein gefangenes Schuppentier gebracht, das man eine Zeitlang beobachtete, dann opferte und als Spezialität dem Häuptling und seiner Hauptfrau servierte.

Landwirtschaft und Waldrodung haben den Lebensraum der Schuppentiere ständig verkleinert; in Gefangenschaft lassen sich die Tiere aber nur sehr schwer halten.

Das Schuppentier stellt sich vor

Das Markenzeichen des Tieres ist sein Panzer, eine Hülle aus Haaren (vorwiegend Keratin), die zusammengeklebt in großen überlappenden Schuppen den ganzen Körper bedecken, ausgenommen ist nur der weiche Bauch. Bei Gefahr rollt sich das Tier zur Kugel zusammen und schützt so die weichen Teile. (Abbildung 1)

Abbildung 1. Schuppentiere klettern auf Bäume und rollen sich bei Gefahr zu Kugeln zusammen. (Rechtes Bild: von der Redaktion beigefügt, Quelle: Wikipedia, gemeinfrei.)

Das Tier ist zahnlos und nahezu kieferlos. Seine spitze Schnauze und starke Zunge eignen sich hervorragend um Nahrung in Form von Ameisen und Termiten aufzusaugen. Seine Sehkraft ist sehr schwach, der Geruchsinn jedoch scharf.

Sieben der acht Schuppentierarten sind klein - etwa in der Größe von Katzen -, jedoch das Riesenschuppentier (Manis gigantean) kann bis zu 2 Meter lang werden. Die Tiere leben auf Bäumen und auch im Boden, in Bauten, die von anderen(nur sehr entfernt verwandten) Insektenfressern gegraben wurden.

Das Genom des Schuppentiers

Siew Woh Choo (Universität Malaya) und Kollegen haben das Genom des Schuppentiers sequenziert und zwar von einem malayischen Tier und einem chinesischen Tier, beide waren Weibchen [1]. Das Genom des malayischen Tiers enthält 23 446 Gene, das chinesische 20 298 Gene - eine ganz ähnliche Zahl wie das menschliche Genom. volutionsgenetiker untersuchen Genome auf Anzeichen von positiver und negativer natürlicher Selektion. Gene, die über Individuen hinweg sich nur wenig in der DNA-Sequenz unterscheiden, deuten auf positive Selektion - wie auch immer die Sequenz aussieht, das damit kodierte Protein ist funktionsfähig. Im Gegensatz dazu kann ein nicht mehr funktionierendes Gen voll von Mutationen sein, die von Individuum zu Individuum stark variieren können. Wenn das entsprechende Protein inaktiv ist, oder überhaupt nicht produziert wird, ist es ja gleichgültig, wie die zugrundeliegende DNA-Sequenz aussieht. Gene, die sich in ihrer Sequenz so weit von der ursprünglichen Sequenz entfernt haben, dass sie ihre Funktion verloren haben, werden als Pseudogene bezeichnet.

Was nicht gebraucht wird, häuft Fehler an: Pseudogene und schrumpfende Genfamilien

Eine Reihe von Schuppentier-Genen wurden zu Pseudogenen, haben ihre Funktion verloren.

  • Ein Gen - ENAM - das für das größte Protein im Zahnschmelz kodiert, ist voll von Fehlern - vorzeitigen Stoppcodons, Verdoppelungen und Deletionen. Dies ist ebenso der Fall bei den Genen von zwei weiteren Zahnschmelzproteinen, Ameloblastin und Amelogenin. Andere zahnlose Tiere wie Bartenwale, Schildkröten und Vögel weisen ebenfalls Mutationen in diesen Genen auf.
  • Mehrere Gene, die das Sehen betreffen, sind durch Mutationen stillgelegt
  • Interferone regulieren die Aktivität des Immunsystems. Das Interferon epsilon (IFNE) Gen wird in 71 Spezies von (plazentalen) Säugetieren exprimiert und dient bei Infektionen der Haut als "vorderste Verteidigungslinie". Dieses Gen ist in beiden Schuppentierarten funktionslos und ebenso auch in deren afrikanischen Verwandten. Einige andere Interferone, die mit Infektion, Entzündung und Wundheilung zu tun haben, fehlen ebenso. Während andere Säugetiere ein komplettes Set von 10 Interferongenen aufweisen, hat das malayische Schuppentier drei und das chinesische Tier nur zwei funktionierende Gene.
  • Das Schuppentiergenom weist auch weniger funktionierende Hitzeschockgene auf. Dies erklärt vielleicht die Stressanfälligkeit der Tiere und die Schwierigkeiten sie in Zoos zu halten.

Erweiterte Funktionen

Verglichen mit anderen (plazentalen) Säugetieren gibt es bei Schuppentieren Genfamilien, die mehr Mitglieder enthalten. Diese Gene kodieren für:

  • Proteine, die das Cytoskelett aufbauen, die Zellkontakte bilden, die die Funktion des Nervensystems und der Signalübertragung positiv beeinflussen - notwendige Funktionen für die Schuppenbildung
  • Kathepsine und Septine, welche bakterielle Infektionen unterdrücken,
  • Geruchsrezeptoren, die dem hervorragenden Geruchsinn des Schuppentiers zugrunde liegen.

Die Geschichte des Schuppentiers erzählt von der natürlichen Selektion

An einem bestimmten Zeitpunkt hatten einige Schuppentiere - dank zufälliger Mutationen - stärkere Haare. Weitere Mutationen brachten diese Haare dazu, dass sie schließlich überlappten und den Körper abschirmten. Tiere, deren Haare in überlappende Schuppen übergingen, hatten eine geringere Wahrscheinlichkeit an bakteriellen Infektionen zu erkranken. Sie überlebten vermehrt und konnten ihre Eigenschaften vererben. Vielleicht hat sie der Panzer auch für den Partner attraktiver gemacht und zu mehr Sex geführt.

Die Hinweise im Genom des Schuppentiers - welche Genfamilien geschrumpft sind und welche erweitert wurden - legen es nahe, dass der Panzer einen Teil der Immunabwehr ersetzt hat. Die dicht verwobenen, zähen Schuppen schrecken nicht nur Raubtiere ab (Abbildung 2), sondern halten das Tier auch frei von Infektionen.

Abbildung 2. Der Panzer des Schuppentiers frustriert hungrige Löwen.

Auch wenn es verlockend ist sich Ursachen vorzustellen, warum Tiere so sind, wie sie eben sind - vom Giraffenhals, zur Leopardenzeichnung und dem Panzer des Schuppentiers - , so bieten DNA-Sequenzierungen ein breiteres und weniger subjektives Bild von adaptiven Merkmalen, von Merkmalen, die sich im Verlauf der Evolution als brauchbar erwiesen haben zu solchen, die auf den Müllhaufen des Genoms entsorgt wurden.


*Der Artikel ist erstmals am 20. Oktober 2016 in PLOS Blogs - DNA Science Blog unter dem Titel "How the Pangolin Got Its Scales – A Genetic Just-So Story" erschienen (http://blogs.plos.org/dnascience/2016/10/20/how-the-pangolin-got-its-scales-a-genetic-just-so-story/) und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt. Die Übersetzung folgt so genau als möglich der englischen Fassung.


[1] Siew Wo Choo et al., (2016) Pangolin genomes and the evolution of mammalian scales and immunity. Genome Res. 26:1-11 (free access). http://genome.cshlp.org/content/early/2016/09/13/gr.203521.115


Weiterführende Links

inge Thu, 05.01.2017 - 06:27

2016

2016 Redaktion Wed, 20.03.2019 - 01:04

Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?

Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?

Do, 22.12.2016 - 05:22 — Redaktion

RedaktionIcon BiologieMikroorganismen sind überall -um uns herum und natürlich auch auf und in unserem Körper. In den letzten Jahren ist das Interesse an diesen Mitbewohnern und deren Einfluss auf unseren Metabolismus und unsere Gesundheit enorm gestiegen. Bis vor kurzem ging man davon aus, dass im Organismus zehnmal, ja sogar hundertmal mehr Mikroorganismen als Humanzellen vorliegen- einer kaum hinterfragten Schätzung aus den 1970er Jahren. Der Biologe Ron Milo (Begründer der "BioNumbers database" und Professor am Weizman-Institut, Rehovot) und sein Team haben nun eine kritische Analyse und Quantifizierung der unterschiedlichen Zelltypen ausgeführt: demnach enthält unser Körper etwa 30 Billionen menschliche Zellen, wobei rund 90 % davon hämatopoietische (blutbildende) Zellen sind, die Zahl der Bakterien liegt bei circa 39 Billionen, etwa gleichauf mit der Zahl der Humanzellen. Der folgende Artikel ist eine stark gekürzte, aus dem Englischen übersetzte Version der vor Kurzem in PLoSBiol (open access, cc-by) veröffentlichten Untersuchung von R. Sender, S. Fuchs und R. Milo [1].

Wie viele Zellen enthält der menschliche Körper?

Außer Angaben von Größenordnungen - diese allerdings ohne deren Quelle oder Abweichungsbreite zu nennen - sind hierzu nur sehr wenige detaillierte Abschätzungen erfolgt. Ähnliches gilt für die weltweit kolportierte Feststellung, dass 100 bis 1000 Billionen (1014 bis 1015) Bakterien, d.i. 10- bis 100-mal mehr Bakterien als Humanzellen, unseren Körper besiedeln - es sind dies Zahlen, die ihren Ursprung in einer groben Schätzung aus dem Jahr 1972 haben und offensichtlich nicht mehr hinterfragt wurden.

Vor Kurzem ist eine Untersuchung des Teams von Ron Milo (Weizman Institute of Sciences, Rehovot) in den Fachjournalen Science und PLoSBiol erschienen, die auf eine verlässlichere Abschätzung der humanen und mikrobiellen Zellzahlen in einzelnen Organen abzielt [1, 2]. Diese Schätzungen (die inklusive Unsicherheitsbereichen angegeben werden) basieren auf der kritischen Analyse einer umfassenden Sammlung von älteren bis neuesten Literaturangaben zur Anzahl von Zellen und Größe von Organen. Da der Großteil dieser Angaben an Gruppen von Männern erhoben wurde, geht die Untersuchung von einem "Standard"-Mann aus, der als 20 - 30 Jahre alt, 70 Kilo schwer und 1,70 groß definiert ist.

Unser Mikrobiom

Mikroben gibt es überall im menschlichen Körper, hauptsächlich sitzen sie auf den äußeren und inneren Oberflächen: u.a. im Gastrointestinaltrakt, auf der Haut, im Speichel, auf der Mundschleimhaut und der Bindehaut. Bakterien sind dabei die dominierenden Mikroorganismen, ihre Zahl übersteigt die der Archäa und Eukaryoten (Pilze) um 2 - 3 Größenordnungen, die letzteren spielen bei der Abschätzung der Gesamtzahl unserer Mitbewohner also kaum eine Rolle, sind also vernachlässigbar.

Quantitativ betrachtet sitzt die überwiegende Mehrheit der Bakterien im Verdauungstrakt und hier vor allem im Dickdarm. Jeder Milliliter Dickdarminhalt enthält rund 90 Milliarden Mikroorganismen. Im angrenzenden, unteren Teil des Dünndarms ("Ileum") gibt es nur etwa 100 Millionen Mikroben/ml, im davor liegenden oberen Teil des Dünndarms (Jejunum), im Duodenum und ebenso im (sauren) Magen ist deren Konzentration auf 1000 - 10 000/ml gesunken. Bei einem inneren Volumen des Dickdarms von etwa 400 ml (auf den "Standard"-Mann bezogen) enthält dieser Abschnitt bis zu 38 Billionen Bakterien (Standardfehler 25 %). Alle anderen Abschnitte des Verdauungstraktes und auch der übrigen Organe tragen insgesamt höchstens 1 Billion Mikroben zur Gesamtzahl bei. Im Mundbereich sitzen zwar sehr viele Bakterien im Zahnbelag und im Speichel - in Anbetracht der kleinen Volumina dieser Kompartimente ist der Beitrag zur Gesamtzahl Mikroben aber vernachlässigbar. Abbildung 1 zeigt typische Konzentrationen von Bakterien im Verdauungstrakt uns auf unserer Haut.

Abbildung 1. Konzentration von Bakterien in Organen des menschlichen Körpers. Im Colon wurde die Bakterienzahl in verdünnten Stuhlproben bestimmt, u.a. durch Flureszenzmikroskopie. (Basierend auf den Daten von Tabelle 1 in [1] wurde die Abbildung von der Redaktion erstellt.)

Das Volumen des Dickdarminhalts bestimmt also die Zahl an Bakterien in unserem Körper. Dieses für den "Standard"-Mann mittels MRI (Magnetresonanz) bestimmte Volumen von rund 0,4 l (Standardabweichung 17 %) erhöht sich nach Mahlzeiten um ca. 10 % und ist nach jedem Stuhlgang um etwa ein Viertel bis ein Drittel reduziert.

Wie tragen Bakterien zu unserem Gesamtgewicht bei? Hier braucht wieder nur der Dickdarminhalt berücksichtigt werden, der rund 0,2 kg Bakterien (Trockengewicht 50 - 100g) oder 0,3 % des Körpergewichtes eines 70 kg Mannes entspricht. Damit unterscheiden sich diese Daten wesentlich von früheren Schätzungen, die davon ausgingen, dass der Mensch 1 - 3 kg Bakterien beherbergt.

Zur Zahl unserer Körperzellen…

Die meisten Literaturangaben gehen davon aus, dass es zwischen einer Billion (1012) und 100 Billionen (1014) Körperzellen gibt. Diese Zahlen resultieren aus groben Überschlagsrechnungen, indem man das Körpergewicht durch das Gewicht einer Zelle teilt. Dabei werden für Zellen Volumina von 1 000 bis 10 000 µm3 und der Einfachheit halber eine Dichte ähnlich wie Wasser angenommen -eine durchschnittliche Zelle würde dann 10-12 bis 10-11 kg schwer sein.

Eine differenzierterer Ansatz geht nicht von derartigen durchschnittlichen Zellen aus sondern zählt die unterschiedlichen Zellen ihrem Typ entsprechend - beispielsweise Erythrocyten im Blut oder z.B Muskelzellen oder Fettzellen direkt in ihren Organen (mittels histologischer Bestimmungen). Eine kürzlich erfolgte Studie hat 56 Kategorien von Zelltypen unterschieden und deren Zahl im Körper bestimmt [3]. Ron Milo und sein Team haben diese Daten kritisch revidiert und erheben für den Standard-Mann nun eine Gesamtzahl an Körperzellen von 30 Billionen (3.1013). 13 der 56 Kategorien machen 98 % der gesamten Humanzellen aus (Abbildung 2):

Abbildung 2. Anteil der unterschiedlichen Zelltypen an der Gesamtzahl humaner Körperzellen. Nur Zelltypen, die > 0,4 % zur Gesamtzahl (rund 30 Billionen)beitragen, sind dargestellt. Die Fläche der Vielecke ist proportional zur Zellzahl (Voronoi tree map; Visualization performed using the online tool at http://bionic-vis.biologie.unigreifswald.de/.)

Die roten Blutkörperchen (Erythrocyten) sind die dominierende Zellenart. Bei einem Blutvolumen von 4,9 Liter und einer mittleren RBC-Zahl von 5 Milliarden Zellen im Milliliter kommt man zu einer Gesamtzahl von 2,5 x 1013 (25 Billionen). Nahezu 90 % aller Zellen besitzen keinen Zellkern: es sind dies Erythrocyten (84 %) und Platelets (4,9 %); nur 10 % aller Zellen haben einen Zellkern.

Die differenzierteren Analysen kommen zu wichtigen neuen Ergebnissen: so wird das früher akzeptierte 10 : 1 Verhältnis von Gliazellen zu Neuronen durch eine neue Studie widerlegt: mit jeweils 8,5 x 1010 ist die Anzahl der Glia-Zellen und Neuronen etwa gleich hoch. Abschätzungen der Endothel-Zellen, welche die gesamte Länge des Gefäßsystems als Basis nehmen, ergaben eine auf ein Viertel reduzierte Zellzahl (600 Milliarden). Besonders drastisch reduzierte sich die Zahl der Fibroblasten der Haut - von 1,85 Billionen auf 26 Milliarden - als deren Dichte über die gesamte Dicke der Dermis bestimmt wurde.

…und wie sie zur Gesamtmasse beitragen

Es besteht eine offensichtliche Diskrepanz zwischen den Beiträgen zur gesamten Zellmasse und zur Zahl der Zellen. Abbildung 3.

Abbildung 3. Anzahl und Massen unterschiedlicher Zelltypen im Körper eines 70 kg schweren Mannes. Oben: Zahl der Zellen (in Billionen); Unten: Beiträge zur Masse (in kg; die extrazelluläre Masse von rund 24 kg ist nicht miteinbezogen). Rechts: Zum Vergleich Bakterien, die im Menschen nur 0,2 kg der gesamten Masse ausmachen.

Erythrocyten, mit 84 % die zahlreichsten Zellen, sind die kleinsten Zellen (Volumen: etwa 100 µm3) und tragen insgesamt 3 kg zur Gesamtmasse bei. Im Gegensatz dazu setzen sich 75 % der gesamten Zellmasse aus den großen (>10 000 µm3) Muskel- und Fettzellen zusammen, die aber nur einen kleinen Anteil von 0,2 % an der Gesamtzahl ausmachen.

Bakterien - entsprechend ihrem sehr kleinen Volumen - tragen nur 0,2 kg zur Gesamtmasse bei, sind zahlenmäßig jedoch vergleichbar mit der Gesamtzahl an Körperzellen.

Fazit

Dass das Verhältnis von Bakterien zu Körperzellen nun nahe 1:1 liegt, verringert nicht die biologische Bedeutsamkeit unserer Mitbewohner. Die aktuelle Studie führt uns aber die Grenzen unseres derzeitigen Verstehens vor Augen und zeigt uns die Wichtigkeit eines quantitativen Verständnisses.

Zahlen sollten auf den jeweils besten verfügbaren Daten basieren, um einen quantitativen biologischen Diskurs ernsthaft zu führen, um spezifische biologische Fragen zu beantworten. Die Kenntnis von Zellzahlen konnte beispielweise in einer rezenten Studie Unterschiede in der Tumoranfälligkeit verschiedener Organe verständlich machen [4]. Derartige quantitative Betrachtungen finden ihre Anwendung auch auf dynamische Prozesse in der Entwicklung und auf die Akkumulation von Mutationen.

Von Überschlagsrechnungen zu quantitativem Denken: Welches Problem scheint geeigneter zu sein, um von einer quantitativen Perspektive aus betrachtet zu werden, als die Frage woraus unsere Körper bestehen, der Delphische Imperativ "Erkenne Dich selbst".


[1] Sender R, Fuchs S, Milo R (2016) Revised Estimates for the Number of Human and Bacteria Cells in the Body. PLoS Biol 14-8: e1002533.doi:10.1371/journal.pbio.1002533. Open access. cc-by

[2] Sender R, Fuchs S, Milo R (2016) Are We Really Vastly Outnumbered? Revisiting the Ratio of Bacterial to Host Cells in Humans. Cell 164: 337-340 http://dx.doi.org/10.1016/j.cell.2016.01.013

[3] Bianconi E, Piovesan A, Facchin F, Beraudi A, Casadei R, Frabetti F, et al. An estimation of the number of cells in the human body. Ann Hum Biol 2013; 40:463–71. doi:10.3109/03014460.2013.807878 PMID: 23829164

[4] Tomasetti C, Vogelstein B. Variation in cancer risk among tissues can be explained by the number of stem cell divisions. Science 2015; 347:78–80. doi: 10.1126/science.1260825 PMID: 25554788


Weiterführende Links

Ron Milo: A sixth sense for understanding our cells. TEDxWeizmannInstitute . Video 15:01 min. Veröffentlicht am 20.08.2014 BioNumbers database: http://bionumbers.hms.harvard.edu/ Ron Milo, Associate Professor am Department of Plant and Environmental Sciences at the Weizmann Institute of Science hat diese Datenbank . He created the BioNumbers database when he was a Systems Biology Fellow at Harvard Medical School

inge Thu, 22.12.2016 - 05:22

Wie groß, wie viel, wie stark, wie schnell,… ? Auf dem Weg zu einer quantitativen Biologie

Wie groß, wie viel, wie stark, wie schnell,… ? Auf dem Weg zu einer quantitativen Biologie

Do, 29.12.2016 - 05:08 — Redaktion

RedaktionIcon BiologieIn der vergangenen Woche waren aufsehenerregende Befunde zur Frage, wie viele und welche Zellen der menschliche Körper enthält, im ScienceBlog erschienen. Außer diesen Daten hat der Biologe Ron Milo (Professor am Weizman-Institut, Rehovot) zusammen mit dem Biophysiker Rob Phillips (Professor am Caltech, Pasadena) eine Datenbank "BioNumbers" [1] für biologische Daten geschaffen, die quantitativ und in allen Details schnellstens aufgerufen werden können. Mit dem vor kurzem online und im Printformat erschienenen "Cell Biology by the Numbers" [2] ist den Autoren ein Meilenstein auf dem Weg zu einer quantitativen Biologie gelungen.

Biologie als Lehre von den lebenden Systemen ist lange ohne quantitative Beschreibungen - d.i. ohne eine Basis an konkreten Zahlen und Formeln - ausgekommen. Charles Darwin, beispielsweise hat in seinem Buch „Über die Entstehung der Arten“ keine einzige mathematische Formel verwendet. Allerdings meinte er später: "nach Jahren habe ich es zutiefst bedauert nicht zumindest ein bisschen von den grundlegenden Prinzipien der Mathematik zu verstehen. Menschen, die darin begabt sind, haben einen zusätzlichen Sinn."[3].

Ganz im Gegensatz zu den Disziplinen Physik und Chemie, auf deren Gesetzen ja auch die Biologieaufbaut, hat in dieser quantitatives Denken bislang eine weniger bedeutende Rolle gespielt. Bedingt durch die ungeheure Komplexität lebender Systeme, werden Phänomene auch heute meistens bloß qualitativ beschrieben ohne auf ein "wie viel" oder "wie schnell" einzugehen, werden experimentelle Ergebnisse in Form punktueller Aufnahmen des zellulären Geschehens dargestellt. Handbücher in der Physik oder Chemie ermöglichen Schlüsseldaten/Kenngrößen sehr rasch aufzufinden. Dergleichen hat bis jetzt in der Biologie gefehlt. Es ist ein überaus frustrierender, langwieriger Prozess einigermaßen verlässliche Schlüsseldaten auch zu ganz trivialen Fragen aus der exponentiell wachsenden Fülle an Fachliteratur und online-Informationen zu extrahieren. Quantitative Eigenschaften biologischer Systeme hängen ja vom Organismus/Zelltyp, seinem Zustand und den experimentellen Methoden ab. Was man findet sind Daten, die aus unterschiedlichen Quellen stammen, unter unterschiedlichen experimentellen Bedingungen gewonnen wurden, nicht standardisiert sind und deren Streuung unbekannt ist.

Die Notwendigkeit Schlüsselzahlen und Standardgrößen zusammenzustellen, die das Leben von Zellen beschreiben, ist offensichtlich. Dies haben Ron Milo (Prof. am Weizmann Institute of Sciences, Rehovot) und Rob Phillips (Professor of Biophysics and Biology at California Institute of Technology - Caltech - Pasadena) mit der Schaffung einer Datenbank "BioNumbers" [1] und vor kurzem mit einem online frei zugänglichen Handbuch "Cell Biology in Numbers" [ 2] getan.

"BioNumbers" - eine Datenbank nützlicher biologischer Zahlen

Bereits 2007 haben Ron Milo und Rob Phillips begonnen eine Website [1] zu entwickeln, die als Portal für die enorme Fülle von Messdaten an biologischen Systemen dient und zwar auf der molekularen und zellulären Ebene. Das Ziel dieser Seite ist es jede gängige biologische Zahl "in einer Minute" aufzufinden und dies zusammen mit Angabe der Quelle, der Bestimmungsmethode und anderen relevanten Informationen. Zahlen, die man nicht so leicht findet, etwa zu Fragen wie: welches Volumen haben die unterschiedlichsten Zelltypen, wie lange dauern die Generationszeiten von Organismen, wie hoch sind die Konzentrationen von Ionen und Metaboliten in Zellen oder wie viele Ribosomen sind in verschiedenen Zelltypen. Die Angaben sind mit Kennzahlen - BioNumbers Identification Number (BNID) - versehen, die auf der Website oder von Google aus aufgerufen werden können und alle Details aufzeigen.

Dazu gibt es auch Daten-Kollektionen zu speziellen Fragestellungen wie z.B. zur Photosynthese oder über "erstaunliche BioNumbers" .

Ein Beispiel, wie Daten zusammengefasst werden, findet sich unter der Rubrik "Key Bionumbers" (Schema). Schema. Eine Zusammenstellung fundamentaler Zahlen für den ZellbiologenSchema 1. Eine Zusammenstellung fundamentaler Zahlen für den Zellbiologen. Der Klick auf eine Zahl zeigt deren Quelle und eine ausführliche Beschreibung (häufig in Tabellenform) "BioNumbers" wird koordiniert und entwickelt im Milo lab am Weizmann Institute http://bionumbers.hms.harvard.edu/KeyNumbers.aspx

"Cell Biology by the Numbers"

Das knapp 400 Seiten starke Buch [2] führt den Leser in grandioser Weise zu einem "Zählen in der Biologie". In insgesamt 6 Kapiteln lädt es ein, grundlegende Daten lebender Zellen quantitativ zu erkunden. Die Kapitel befassen sich mit der Größe und Geometrie von Zellen, mit Konzentrationen, mit Energien und Kräften, mit Geschwindigkeiten, mit Information und Fehlerbreite. Jedes Kapitel enthält eine Reihe von Skizzen ("Vignetten"), jeweils eingeleitet durch eine Fragestellung. Die Antwort erfolgt in Form leicht verständlicher, kurzer Geschichten, die alle relevanten Parameter/Zahlen und erklärende Illustrationen enthalten. Fragen im Kapitel "Größe von Zellen" sind beispielsweise:

Wie groß sind Viren? Wie groß ist E.coli und welche Masse hat es? Wie groß ist eine knospende Hefezelle? Wie groß ist eine menschliche Zelle?

Dass menschliche Zellen sehr unterschiedliche Größe haben können, ist in der folgenden Tabelle dargestellt. Tabelle. Charakteristische Volumina menschlicher Zellen.

Tabelle. Charakteristische Volumina menschlicher Zellen. Für Zellen wie Neuronen oder Fettzellen werden Größenunterschiede von bis zu mehr als dem Zehnfachen beobachtet. Andere Zellen - z.B. rote Blutkörperchen - haben nur geringe Größenunterschiede. 1μm: 1/1000 mm; ein Volumen 1μm3 wiegt - auf Wasser bezogen - 1picogram (1/Milliardstel mg). BNID: BioNumbers Identification Number, werden auf der Website "BioNumbers" oder von Google aus aufgerufen und bieten Referenzen und Kommentare. (Quelle: http://book.bionumbers.org/ p. 44; adaptiert)

Ein ganz wesentlicher Aspekt dieser Skizzen ist aber, dass zu einzelnen Fragestellungen Berechnungen ausgeführt werden. Es sind Überschlagsrechnungen. Mit deren Hilfe kann der Leser nachvollziehen, wie einige der Schlüsseldaten zustandekommen und selbst ähnliche Abschätzungen für seine eigenen Zwecke anwenden. Als Beispiel ist hier die Abschätzung angeführt: Wie lange braucht ein Proteinmolekül, um von einem Ende der Zelle zum anderen zu gelangen (Abbildung).

Welche Zeit braucht ein Protein um eine Zelle durch Diffusion zu durchqueren?Abbildung. Welche Zeit braucht ein Protein um eine Zelle durch Diffusion zu durchqueren? Die Überschlagsrechnung nimmt ein relativ kleines Protein (MW: 30 000 D) an, sein Diffusionskoeffizient D (in μm2/s) gilt für das proteinreiche Zellplasma, der Faktor 6 im Nenner der Gleichung berücksichtigt Diffusion in alle 3 Dimensionen. Die Distanz R hängt von der Zellgröße ab. Erstaunliches Ergebnis:Diffusion entlang eines 1 cm langen Axons einer Nervenzelle würde 20 Tage in Anspruch nehmen. (Quelle: http://book.bionumbers.org/ p. 362).

Fazit

Von der Fülle an Informationen, welche die Datenbank "BioNumbers" und das vor kurzem online und im Printformat erschienene "Cell Biology by the Numbers" bieten, konnte hier natürlich nur ein winziger Ausschnitt gebracht werden. Das Buch ist leicht zu lesen, ganz nach Belieben absatzweise, kapitelweise. Es bringt sowohl dem Wissenschafter dringend benötigte Daten als auch dem interessierten Laien Einblicke in die Parameter, die das Leben von Zellen steuern. Es verführt ihn zum Schmökern und macht ihm völlig neue Zusammenhänge klar, lässt ihn vielleicht sogar selbst Abschätzungen über biologische Prozesse ausführen.

Zweifellos ist den Autoren Ron Milo und Rob Phillips mit ihrem Buch ein Meilenstein auf dem Weg zu einer quantitativen Biologie geglückt.


[1] BioNumbers database Milo et al. Nucl. Acids Res. (2010) 38 (suppl 1): D750-D753. http://bionumbers.hms.harvard.edu/

[2] Ron Milo, Rob Phillips, Cell Biology by Numbers . Draft: online free accessible http://book.bionumbers.org/ Printed: Garland Science, Taylor & Francis Group (December 07, 2015) [3] The autobiography of Charles Darwin by Charles Darwin. http://www.gutenberg.org/files/2010/2010-h/2010-h.htm

homepage Ron Milo: http://www.weizmann.ac.il/plants/Milo/
homepage Rob Phillips: http://www.rpgroup.caltech.edu/people/phillips.html


Weiterführende Links

Vorlesungszyklus von Ron Milo

Cell Biology by the Numbers, 2014
6 Vorlesungen, die im Wesentlichen die Kapitel des gleichnamigen Buchs zum Inhalt haben und insbsondere Überschlagsrechnungen zum Inhalt haben. Die Dauer der Vorlesungen liegt zwischen 1:03 und 1:38 Stunden.

1) https://www.youtube.com/watch?v=DV0JjwrBVU4
2) https://www.youtube.com/watch?v=rcFfDkgJG2Y
3) https://www.youtube.com/watch?v=H7DVKQS69W8
4) https://www.youtube.com/watch?v=M54MQ_14UBk
5) https://www.youtube.com/watch?v=YFyC0kus0-E
6) https://www.youtube.com/watch?v=2RBmPLPfzKg

Artikel im ScienceBlog

inge Thu, 29.12.2016 - 05:08

Die Großhirnrinde, ein hochdimensionales, dynamisches System

Die Großhirnrinde, ein hochdimensionales, dynamisches System

Do, 15.12.2016 - 03:48 — Wolf Singer & Andreea Lazar

Wolf SingerAndreea LazarIcon Gehirn

Wie schafft es unser Gehirn aus einer Vielzahl an optischen, klanglichen und haptischen Sinneseindrücken einheitliche Wahrnehmungen zu erzeugen? Wie können daraus kohärente Bilder der Welt entstehen? Wolf Singer (Direktor em. am Max-Planck-Institut für Hirnforschung und Leiter des Ernst Strüngmann Instituts für Neurowissenschaften; Frankfurt/M), einer der weltweit profiliertesten Neurowissenschafter, und Andreea Lazar (Postdoc am Max-Planck-Institut für Hirnforschung) zeigen hier auf , dass die Funktionsabläufe in unserem Gehirn nicht zentral organisiert sind, sondern in hohem Maße parallel erfolgen. Dass in der Großhirnrinde ein Prinzip der Informationskodierung und Verarbeitung verwirklicht ist, welches auf der hohen Dimensionalität dynamischer Zustände von rekurrierend gekoppelten Netzwerken basiert.*

Wahrnehmen beruht auf Rekonstruktion

Damit Sinnessignale Wahrnehmungen werden können, müssen sie unter Hinzuziehung von Vorwissen, das im Gehirn gespeichert ist, geordnet und interpretiert werden. Ein erheblicher Anteil dieser Rekonstruktionen wird von der Großhirnrinde erbracht. Wie einzigartig diese Leistung ist, wird deutlich, wenn man bedenkt, dass zum Beispiel auf der Netzhaut des Auges durch den optischen Apparat lediglich eine zweidimensionale, kontinuierliche Verteilung elektromagnetischer Wellen erzeugt wird, die sich in ihrer Intensität und Wellenlänge unterscheiden.

Aus dieser Information, die über die Nervenzellen in der Netzhaut in neuronale Erregungen verwandelt und an die Hirnrinde weitergeleitet wird, erzeugt das Gehirn dann das, was wir wahrnehmen: dreidimensionale Objekte, die voneinander und dem Hintergrund deutlich abgegrenzt und damit identifizierbar sind. Es ist dies eine Leistung, die selbst von den besten derzeit verfügbaren technischen Mustererkennungssystemen nur unter eingeschränkten und relativ stereotypen Bedingungen erbracht werden kann. Unser Gehirn löst diese Aufgabe mühelos und in Bruchteilen einer Sekunde.

Eine notwendige Voraussetzung für diesen Verarbeitungsschritt, der als Szenen- oder Bildsegmentierung benannt wird, ist der Vergleich der einlaufenden Sinnessignale mit gespeicherten Modellen über die Struktur der Sehwelt. Das Gehirn weiß bereits, wie Objekte beschaffen sind und nutzt dieses Vorwissen, um die verfügbaren Sinnessignale zu ordnen und miteinander so zu verbinden, dass voneinander abgegrenzte Gestalten erkennbar werden. Schon in den Dreißigerjahren des letzten Jahrhunderts haben Gestaltpsychologen wie Wertheimer, Koffka und Köhler, die unter anderem in Frankfurt tätig waren, diejenigen Gestaltprinzipien herausgearbeitet, nach denen unsere Gehirne Objekte voneinander abgrenzen.

So zeichnet sich ein Objekt dadurch aus, dass es eine kontinuierliche, geschlossene Umrandung aufweist, dass sich alle seine Konturen mit der gleichen Geschwindigkeit in die gleiche Richtung bewegen, wenn sich das Objekt bewegt, dass seine Bestandteile gewisse Merkmale gemein haben, beispielsweise miteinander verbunden zu sein, oder die gleiche Farbe oder Textur zu haben. Viele psychophysische Experimente verweisen darauf, dass diese Regeln im Gehirn abgespeichert sind und über alle Spezies hinweg große Ähnlichkeiten aufweisen. Letzteres ist nicht verwunderlich, da wir alle in der gleichen Welt leben, mit den gleichen Wahrnehmungsproblemen konfrontiert sind und sich im Laufe der Evolution der Arten eine optimale Strategie herausgebildet hat.

"Wir bilden nicht ab, wir konstruieren"

Das Wissen über Gestaltprinzipien ist zum großen Teil angeboren und in der Verschaltung der Großhirnrindenareale niedergelegt, die sich mit der Verarbeitung von Sinnessignalen befassen. Uns ist nicht bewusst, dass wir über diese Regeln verfügen, da sie über evolutionäre Ausleseprozesse optimiert, in den Genen gespeichert und in der Architektur unseres Nervensystems niedergelegt wurden. Ein Teil der Gestaltkriterien wird jedoch im Laufe der frühen Hirnentwicklung durch Erfahrung erlernt und ebenfalls durch strukturelle Veränderungen in den entsprechenden Neuronennetzen gespeichert und steht dann genauso wie das angeborene Vorwissen für die Interpretation von Sinnessignalen zur Verfügung.

Eine zentrale und noch weitestgehend ungelöste Frage ist nun, wie die Verrechnung der eingehenden Sinnessignale mit dem gespeicherten Vorwissen erfolgt. Einige Randbedingungen, die im Folgenden erläutert werden, lassen erahnen, dass es sich hier um einen ganz außergewöhnlichen Vorgang handeln muss, für den es keine triviale Erklärung geben kann.

Ein geheimnisvolles Speichermedium

Zur Veranschaulichung des Problems muss in Erinnerung gerufen werden, dass Menschen, aber das gilt auch für die meisten anderen Tierarten mit hoch differenzierten Sehsystemen, etwa viermal in der Sekunde die Blickrichtung wechseln, um die Sehwelt zu erkunden oder Bilder auf ihren Gehalt hin abzutasten. Dies bedeutet, dass die Vergleichsoperationen zwischen einlaufenden Sinnessignalen und dem gespeicherten Vorwissen in etwa 200 Millisekunden erfolgen muss. Wenn der Segmentierungsprozess ein vertrautes Objekt isoliert, ist auch der Erkennungsprozess innerhalb von wenigen hundert Millisekunden abgeschlossen. Dies bedeutet, dass auch das gesamte im Gehirn gespeicherte Wissen über Objekte, denen man im Laufe des Lebens begegnet ist, in einem Speicher abgelegt sein muss, der es erlaubt, auf beliebige Inhalte innerhalb von Bruchteilen einer Sekunde zuzugreifen.

In den heute für die Musterverarbeitung verwendeten Computersystemen ist für jeden gespeicherten Inhalt ein adressierbarer Speicherplatz reserviert und die Suche nach dem gewünschten, für den Abgleich erforderlichen Speicherinhalt erfolgt im Wesentlichen seriell. Diese einfache Strategie ist hoch effizient, weil Elektronenrechner mit sehr hoher Taktfrequenz arbeiten können und deshalb die Suchzeiten erträglich sind.

…ein parallel strukturierter Suchprozess

Im Gehirn kann eine solche Strategie keinesfalls realisiert sein, da die Zeitkonstanten, mit denen Neuronen arbeiten, um viele Größenordnungen länger sind als die von Transistoren. Es muss also ein anderes Prinzip verwirklicht sein. Es muss ein Speicherplatz konfiguriert werden, in dem eine unvorstellbare Zahl von Inhalten so gestapelt werden kann, dass auf sie ein parallel strukturierter Suchprozess angewandt werden kann, sodass die Zugriffszeit nur unwesentlich von der Lage des zu suchenden Inhaltes abhängt.

Bei einer seriellen Anordnung wie in den Speichern von Elektronenrechnern dauert die Suche nach Inhalten am Ende der Liste naturgemäß länger als für solche, die am Anfang stehen. Dies scheint bei dem im Gehirn realisierten Speicherprozess nicht der Fall zu sein. Es muss also ein Raum geschaffen werden, der die Überlagerung einer sehr großen Zahl von Inhalten erlaubt - es ist leicht zu sehen, dass ein solcher Raum eine sehr hohe Dimensionalität aufweisen muss. Der dreidimensionale kartesianische Raum, in diesem Fall also eine anatomisch segregierte Anordnung von Inhalten, scheidet aus. Hochdimensionale Räume können jedoch erschlossen werden, wenn die Zeit als Kodierungsdimension hinzugezogen wird und der Raum durch distinkte Zustände eines dynamischen Systems definiert wird. In diesem Fall muss dafür gesorgt werden, ein dynamisches System zu erzeugen, dass eine sehr, sehr große Zahl unterschiedlicher Zustände annehmen kann. Jedem dieser Zustände könnte dann ein ganz bestimmter Inhalt zugeordnet werden. Es muss dann lediglich eine Möglichkeit gefunden werden, dass dieses System beim Eintreffen der Suchsignale, in unserem Fall der Signale von Sinnesorganen, sehr schnell in den Zustand einschwingt, der einem gespeicherten Inhalt entspricht.

Die Arbeitshypothese, die wir in Frankfurt seit geraumer Zeit verfolgen,

geht davon aus, dass die Großhirnrinde (Abbildung 1) als ein dynamisches System verstanden werden kann, das die geforderten Eigenschaften aufweist.

Abbildung 1. Das Gehirn. Links: Querschnitt des menschlichen Gehirns. Die wenige Millimeter dicke Großhirnrinde (Cortex), Teil der grauen Substanz, ist dicht gepackt mit Nervenzellen- rund 60 000 je mm3 - von denen jede mit bis zu 20 000 anderen Nervenzellen "spricht" und von ebenso vielen aus der Nachbarschaft und von weiter entfernten Bereichen "angesprochen" wird. Die in allen Bereichen nahezu identische interne Struktur der Großhirnrinde weist auf nahezu idente, darin ablaufende Verarbeitungsprozesse hin, die Bereiche erhalten jedoch unterschiedliche Eingangsinformationen. Rechts: Verschaltung der sensorischen Hirnrindenareale (Punkte) von Katzen; neuronale Verkopplungen (Linien) von Milliarden Neuronen.

Eines der dominierenden Verschaltungsprinzipien ist, dass Neuronengruppen in der Großhirnrinde reziprok miteinander verbunden sind, sich also gegenseitig beeinflussen können. Wegen der riesigen Zahl von Neuronen, die in einem bestimmten Hirnrindenareal miteinander wechselwirken können, entsteht eine ungeheuer komplexe, hochdimensionale Dynamik, die den erforderlichen Kodierungsraum bereitstellen könnte. Hinzukommt, und das ist eine Entdeckung, die wir in Frankfurt vor mehr als zwanzig Jahren machten, dass lokale Gruppen von Neuronen – die Knoten im Netzwerk – wie Oszillatoren schwingen können (Abbildung 2). Dies erhöht noch einmal mehr die Komplexität der möglichen Dynamik, da auch der Phasenraum zur Kodierung mit genutzt werden kann.

Abbildung 2. (A) Ein klassisches neuronales Netz, wie es in vielen Mustererkennungssystemen verwendet wird. Eingangssignale werden auf eine Schicht von Neuronen verteilt und durch divergente Verschaltungen in Zielneuronen rekombiniert. Dadurch entsteht ein spezifisches Aktivitätsmuster, das dann von Ausgangsneuronen klassifiziert wird. Die Verbindungen von der Zwischenschicht auf die Ausgangsneuronen werden durch einen maschinellen Lernvorgang so gewichtet, dass auf ein gegebenes Muster in der Zwischenschicht nur ein bestimmtes Neuron in der Ausgangsschicht erregt wird. (B) Die Zwischenschicht wurde durch ein rekurrierend gekoppeltes Netzwerk ersetzt. Dieses entwickelt hoch komplexe, dynamische Zustände, die jedoch nach wie vor für die Eingangsmuster spezifisch sind. Die Aktivität einiger dieser Netzwerkknoten wird wiederum auf Ausgangsneurone verteilt, die dann ebenfalls über einen Lernvorgang zu Klassifikatoren für die komplexen Muster ausgebildet werden.© Ernst-Strüngmann Institut/Singer, Lazar, Benzaid

Falls die Großhirnrinde tatsächlich hochdimensionale Dynamik nutzt, um den Abgleich von einlaufenden Signalen mit gespeicherten Inhalten vorzunehmen, dann müssen eine Reihe von überprüfbaren Voraussagen zutreffen. Bei der Formulierung dieser Voraussagen standen die Ergebnisse von theoretischen Arbeiten und Simulationsstudien über künstliche neuronale Netzwerke Pate.

Die Eigenschaften solcher Netzwerke werden seit etwa einer Dekade untersucht, weil sie wegen ihrer hochdimensionalen Dynamik bestimmte Vorteile für die maschinelle Klassifizierung von raumzeitlich strukturierten Mustern aufweisen. Diese informationsverarbeitende Strategie wurde unter dem Namen "reservoir computing" bekannt. Wenn raumzeitlich strukturierte Eingangssignale an einige Knoten solcher Netzwerke verteilt werden, findet man, dass aufgrund der Wechselwirkungsdynamik die Information über den verwendeten Reiz eine Weile gespeichert bleibt und dass sich die Aktivitätsmuster von sequenziell dargebotenen Reizen überlagern, sodass zu einem bestimmten Zeitpunkt die Information über mehrere Reize gleichzeitig verfügbar ist. Und schließlich erweist sich, dass solche Systeme wegen der hohen Dimensionalität ihres Zustandsraumes die Trennung und Klassifizierung von Eingangsmustern sehr erleichtern.

Bestätigte Voraussagen und Überraschungen

Ein Schwerpunkt unserer Arbeiten lag in den vergangenen Jahren darauf, die oben aufgeführten Voraussagen zu testen. Hierzu ist es erforderlich, die Aktivität einer großen Zahl (>50) von Neuronen (Knoten) der Großhirnrinde gleichzeitig zu erfassen, Sinnesreize darzubieten, die resultierende Netzwerkdynamik zu analysieren und mit Hilfe von Methoden aus dem Bereich des maschinellen Lernens dahingehend zu prüfen, ob reizspezifische Informationen in der raumzeitlichen Verteilung der neuronalen Aktivitätsmuster zu finden sind. Um diese Messungen durchführen zu können, werden Tieren in Vollnarkose haarfeine Elektroden in die Großhirnrinde implantiert, über die später die Aktivität der Nervenzellen registriert werden kann. Die hierbei eingesetzten Verfahren ähneln im Detail jenen, die bei Patienten angewandt werden, die aus diagnostischen Gründen Elektroden implantiert bekommen oder um Hirnstrukturen zu reizen, wie das bei der Therapie der Parkinsonschen Erkrankung routinemäßig erfolgt. Die Messungen selbst sind schmerzfrei und bedeuten für die Tiere keine wesentliche Einschränkung, da das Gehirn schmerzunempfindlich ist und die sehr feinen und flexiblen Elektroden bei sachgemäßer Implantation keine Schäden verursachen. Mit Hilfe solcher Untersuchungen konnten wir im Laufe der letzten Jahre die oben aufgeführten Voraussagen bestätigen und die eingangs formulierte Hypothese stützen (Abbildung 3).

Abbildung 3. Hier wurde überprüft, ob sich aus der Aktivität von 60 zufällig ausgewählten Neuronen der Sehrinde einer Katze rückschließen lässt, welcher Reiz (A oder D) zu Beginn einer Serie von Reizen (A/D, B, C) dargeboten wurde. Linke Ordinate: Prozentsatz der richtigen Klassifizierungen (durchgezogene Linie); Rechte Ordinate: Gemittelte Aktivität der Neuronen (gestrichelte Linie); Abszisse: Zeitverlauf der Reizdarbietung. Etwa 100 Millisekunden nach Darbietung des ersten Reizes lässt sich mit fast 100%iger Sicherheit aus dem Erregungsmuster der Neuronen feststellen, welches der erste Reiz (A oder D) war, und diese Information ist auch nach Darbietung des zweiten Reizes (B) noch fast vollständig erhalten. Erst nach dem dritten Reiz (C) sinkt die Klassifizierbarkeit auf das Zufallsniveau ab (graues Band). © Ernst-Strüngmann Institut/Singer, Lazar, Benzaid

Wie so oft in der Grundlagenforschung zeigten die Daten aber auch vollkommen Unerwartetes. Es stellte sich heraus, dass es im Verlauf der Untersuchungen zunehmend leichter wurde, die von den dargebotenen Reizen erzeugten Aktivitätsmuster zu klassifizieren und den Reizen zuzuordnen. Dies konnte nur bedeuten, dass das kortikale Netzwerk bestimmte, reizspezifische Merkmalskombinationen gelernt und dem Fundus von Vorwissen hinzugefügt hat. Offenbar bewirkte die wiederholte Darbietung der Reizmuster eine Veränderung der Netzwerkeigenschaften, die ihrerseits dafür sorgten, dass die entstehenden hochdimensionalen Muster im Netzwerk weniger überlappten und deshalb besser voneinander unterscheidbar wurden. Diese Vermutung erhält ihre direkte Bestätigung durch eine mathematische Analyse der respektiven Muster.

Als Mechanismus für diese lernbedingten Veränderungen vermuten wir eine aktivitätsabhängige Veränderung der Effizienz der reziproken Verbindungen zwischen den Neuronen. Hinweise für solche erfahrungsabhängigen Veränderungen der synaptischen Effizienz eben dieser Verbindungen hatten wir bereits vor Jahren in Experimenten erhalten, bei denen die Auswirkung von Umweltreizen auf die Ausreifung der Großhirnrinde untersucht wurde. Einen direkten und komplementären Hinweis für das Vorliegen eines solchen Mechanismus lieferte schließlich die Beobachtung, dass die neuronalen Netzwerke auch spontan und ohne jede Reizung die Aktivitätsmuster erzeugen, die von oft gesehenen Reizen hervorgerufen werden. Obgleich weder antizipiert noch gezielt gesucht, bilden diese zusätzlichen Befunde eine starke Stütze für die Hypothese, dass die hochdimensionale Dynamik kortikaler Netzwerke tatsächlich genutzt wird, um sensorische Signale mit gespeicherten Vorwissen zu vergleichen und im Falle der Stimmigkeit zu klassifizieren.

Plausibilitätskontrollen durch Simulationen

Jetzt stand es an zu klären, ob reizspezifische Veränderungen in der Stärke der reziproken Koppelungsverbindungen zwischen den Neuronen (Knoten) tatsächlich eine Verbesserung der Klassifizierungsleistungen solcher Netzwerke mit sich bringen. Hierzu haben Andreea Lazar und Jochen Triesch auf konventionellen Rechnern rückgekoppelte Netzwerke simuliert und die Koppelverbindungen mit adaptiven Synapsen ausgestattet, die ihre Effizienz in Abhängigkeit von der Struktur der auftretenden Aktivierungsmuster verändern können (Abbildung 4).

Abbildung 4. Schematische Darstellung des Effektes wiederholter Reizdarbietung in einem simulierten Netzwerk. Die ursprünglich gleich effizienten Verbindungen zwischen den Neuronen im Netzwerk werden entsprechend den verschiedenen Reizen verstärkt (dicke Verbindungen) oder abgeschwächt (dünne oder fehlende Verbindungen), wodurch die von verschiedenen Reizen induzierten, dynamischen Muster sich zunehmend voneinander unterscheiden und besser klassifizierbar werden. © Ernst-Strüngmann Institut/Singer, Lazar, Benzaid

Diese Modifikationen erfolgten nach Regeln, die bereits bei Untersuchungen von Lernvorgängen an realen neuronalen Strukturen erarbeitet worden waren. Die simulierten Netzwerke mit adaptiven Verbindungen wurden daraufhin mit unterschiedlichen Reizsequenzen aktiviert und es zeigte sich, dass sich die Klassifizierungsleistung dieser sich selbst adaptierenden Netzwerke mit wiederholter Reizdarbietung, man könnte auch sagen mit zunehmender Erfahrung, deutlich verbesserte und weit über das hinaus ging, was konventionelle rekurrierende Netzwerke zu leisten vermögen.

Diese Kongruenz von experimentellen und simulierten Daten macht es in unseren Augen sehr wahrscheinlich, dass in der Großhirnrinde ein Kodierungsprinzip verwirklicht ist, das sich deutlich von allen bisher entweder postulierten oder in künstlichen Systemen realisierten Musterverarbeitungsprozessen unterscheidet. Sollte sich diese Vermutung in zukünftigen Untersuchungen bestätigen, wären wir einen Schritt weiter im Verständnis der nach wie vor rätselhaften Funktion der Großhirnrinde. Vielleicht, so die Hoffnung, wird uns das helfen, die ebenfalls rätselhaften Mechanismen besser zu verstehen, die jenen psychischen Erkrankungen zu Grunde liegen, die auf Störungen von Großhirnrindenfunktionen beruhen.

Mit Sicherheit wird es möglich sein, die gewonnenen Erkenntnisse für die Entwicklung völlig neuartiger informationsverarbeitender Systeme zu nutzen.

Literaturhinweise

1. Lazar, A.; Pipa, G., Triesch, J. SORN: a self-organizing recurrent neural network . Frontiers in Computational Neuroscience 3:23 (2009)

2. Nikolic, D.; Häusler, S.; Singer, W.; Maass, W. Distributed fading memory for stimulus properties in the primary visual cortex. PLOS Biology 7: e1000260 (2009)

3. Singer, W. Cortical dynamics revisited. Trends in Cognitive Sciences 17: 616-626 (2013)


*Der unter dem Titel "Die Großhirnrinde, ein hochdimensionales, dynamisches System" im Jahrbuch der Max-Planck Gesellschaft 2016 erschienene Artikel (https://www.mpg.de/9974873/ESI_JB_2016?c=10583665 ) wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier leicht gekürzt (Abbildung 3 des Originals wurde weggelassen) und für den Blog adaptiert (Für's leichtere Scrollen wurden einige Untertitel und Absätze eingefügt. Zur Erläuterung von Hirnrinde und Verschaltung der sensorischen Hirnrindenareale wurde Abbildung 1 von der Redaktion eingefügt, die beiden Bilder stammen vom Autor.) .


Weiterführende Links

AIL-Talk: Wolf Singer - Neuronale Grundlagen des Bewusstseins. Video 1:29:27 from Angewandte Innovation Lab. 07.09.2016. https://vimeo.com/184970876

Wolf Singer: The encoding of semantic relations. Conference: East-West Connections, NTU Para Limes. Video (englisch) 1:19:15; 11.11.2016. (Standard Youtube Lizenz) Wolf Singer - Vom Bild zur Wahrnehmung. Iconic Turn - Felix Burda Memorial Lectures. Video 2:03:05; 22.08.2012.(Standard Youtube Lizenz) Wolf Singer: Hirnentwicklung und Umwelt oder Wie Wissen erworben und gespeichert wird.


 

inge Thu, 15.12.2016 - 03:48

Wozu braucht unser Gehirn so viel Cholesterin?

Wozu braucht unser Gehirn so viel Cholesterin?

Do, 08.12.2016 - 08:37 — Inge Schuster

Inge SchusterIcon Gehirn

Unser Gehirn enthält enorm hohe Mengen an Cholesterin, das sowohl essentieller Baustein der Nervenfasern ist, als auch Quelle vieler hormonell aktiver Neurosteroide und Oxysterole. Da die Blut-Hirnschranke eine Aufnahme von Cholesterin aus dem Blut verhindert, muss das Hirn seinen Bedarf an Cholesterin selbst synthetisieren. Die empfindliche Balance zwischen Synthese von Cholesterin und Eliminierung von überschüssigem Cholesterin wird durch Oxysterole reguliert.

 

Wenn man nach dem Organ fragt, das den höchsten Cholesteringehalt in unserem Körper aufweist, so ist die Antwort klar: es ist dies unser Gehirn. Mit rund 1,4 kg macht das Hirn zwar nur 2 % der gesamten Körpermasse eines Erwachsenen aus, es enthält aber 25 % des darin enthaltenen Cholesterin. In Zahlen ausgedrückt: bis zu 37 g Cholesterin finden sich im Hirn; bezogen auf die Trockenmasse des Gehirns, das rund 80 % Wassergehalt aufweist, bestehen also > 10% der Gehirnsubstanz aus Cholesterin. In unserem gesamten Blut zirkulieren dagegen nur 7% des gesamten Cholesterins.

Um es gleich vorweg zu nehmen: das Cholesterin im Hirn kann nicht über das Blut dorthin gelangen. Um die Blutgefäße, die das Gehirn versorgen, herum existiert eine sehr effiziente, dichte Barriere - die sogenannte „Blut-Hirn Schranke“ -, die den Import von Cholesterin aus dem Blut und ebenso auch den Export von überschüssigem Cholesterin in den zirkulierenden Blutstrom verhindert. Das Hirn ist also darauf angewiesen, Cholesterin selbst zu synthetisieren.

Wozu aber braucht das Hirn so viel Cholesterin?

Cholesterin ist sowohl ein essentieller struktureller Baustein - vor allem in dem aus Zellmembranen generierten Myelin - als auch eine Quelle vieler hormonell aktiver Substanzen - der sogenannten Neurosteroide - und von Signalmolekülen, den Oxysterolen. Über diese Funktionen gibt Abbildung 1 einen groben Überblick .

Abbildung 1. Cholesterin ist integraler Bestandteil von Zellmembranen, Hauptkomponente der Axone umhüllenden Myelinschichten, Quelle von Steroidhormonen und Oxysterolen. Die Eliminierung aus dem Gehirn kann im Wesentlichen nur über die von CYP46A1 katalysierte Bildung eines Oxysterols erfolgen. (Bilder: Zellmembranen und Neuron stammen aus Wikipedia und sind gemeinfrei).

Cholesterin in Zellmembranen…

Wie auch in allen anderen Körperzellen ist Cholesterin integraler Bestandteil der äußeren Zellmembran und der intrazellulären Membranen von Hirnzellen - d.i. von Neuronen und Gliazellen. Cholesterin trägt entscheidend zur Permeabilitätsbarriere zwischen Zelle und Umgebung, zwischen intrazellulärem Kompartiment und angrenzender Umgebung bei, reguliert die Plastizität (Fluidität) der Membranen und moduliert Aktivität und Funktion von darin eingebetteten Signalmolekülen. Eine einzigartige Rolle kommt dabei den Zellmembranen spezieller Gliazellen zu, sogenannter Oligodendriten, welche kompakte isolierende Myelinschichten bilden.

…speziell im Myelin

Der Großteil des Cholesterins befindet sich in einer fettreichen Myelin genannten Substanz: diese besteht bis zu 80 % aus Lipiden - unterschiedlichen Phospholipiden, Glykolipiden, Sphingolipiden - und inkludiert 22 % Cholesterin, welches damit die in höchster Konzentration vertretene Einzelstruktur ist. Wie erwähnt, entsteht Myelin aus den Zellmembranen von Oligodendriten, die sich spiralförmig viele Male um die Fortsätze (Axone) der Nervenzellen (Neuronen) wickeln und diese so elektrisch von der Umgebung isolieren (Abbildung 2, rechts unten). Die spezielle Struktur dieser Isolationsschicht mit Einschnürungen (Ranvierschen Schnürringen) ermöglicht eine sprunghafte, höchst effiziente und rasche Weiterleitung des elektrischen Nervenimpulses vom Zellköper der Nervenzelle entlang seines Axons zur nächsten Nervenzelle. Abbildung 2.

Da Myelin optisch weiß erscheint, sieht man das Hirn dort, wo die Nervenfasern in sehr hoher Dichte vorliegen, als“weiße Substanz” .

Abbildung 2. Das Axon einer Nervenzelle (links) ist umhüllt von einer (unterbrochenen) Isolationsschicht aus Myelin, entstanden durch vielfache Umwicklung mit der Zellmembran von speziellen Gliazellen (im Querschnitt rechts unten).Die Struktur der Isolationsschicht erlaubt eine wesentlich raschere und effizientere Weiterleitung des elektrischen Signals als dies bei einer ununterbrochenen Nervenfaser der Fall wäre (rechts oben). (Bilder aus Wikipedia. links: H.Hoffmeister, Impulsfortleitung an der Nervenzelle - cc-by-sa 3.0; rechts: Dr. Jana - http://docjana.com/#/saltatory ; https://www.patreon.com/posts/4374048, cc-by 4.0 ; Transmission electron micrograph, Electron Microscopy Facility at Trinity College, Hartford CT)

Cholesterin als Quelle von Neurosteroiden…

Dass Steroidhormone verschiedenste Gehirnfunktionen - von der Entwicklung des Nervensystems, inklusive der Ausbildung von Dendriten, von Konnektivitäten der Synapsen und der Myelinisierung bis hin zu den Vorgängen des Erkennens, der Emotionen und den verschiedenartigsten Verhaltensweisen - regulieren, ist seit langem bekannt. Noch vor etwas mehr als einem Jahrzehnt dachte man, dass diese Hormone in den wesentlichen Steroiderzeugenden Organen - den Gonaden, der Placenta, der Nebenniere - gebildet würden und dann über den Blutkreislauf durch die Blut-Hirnschranke hindurch, in das Hirn transportiert würden, um dort ihre physiologischen Wirkungen zu entfalten. (Der Begriff Hormon war ja ursprünglich definiert als: von speziellen Drüsen erzeugter Botenstoff, der über den Blutstrom zum Zielorgan transportiert wird, wo er seine Wirkung entfaltet.) Erst in letzter Zeit wurde es klar, dass Neuronen ebenso wie Gliazellen alle wesentlichen Enzyme zur Steroidhormonsynthese besitzen (es sind hauptsächlich Enzyme aus den Cytochrom P450 Familien). Dementsprechend sind zahlreiche Hirnregionen - u.a. der zerebrale Cortex, der Hippocampus und der Hypothalamus - selbst in der Lage Cholesterin in ein sehr weites Spektrum hormonell aktiver Steroide umzuwandeln. Diese, hier auch als Neurosteroide bezeichneten, Hormone werden also lokal erzeugt und wirken lokal - in der erzeugenden Zelle selbst (autokrine Wirkung) und/oder in benachbarten Zellen (parakrine Wirkung).

…und von Oxysterolen

Oxysterole entstehen durch oxydative Angriffe auf das Cholesterinmolekül. Verursacher sind einerseits Enzyme und hier wiederum hauptsächlich Mitglieder der Cytochrom P450 Familien (darunter solche, die in die Synthese von Steroidhormonen involviert sind), aber auch reaktive Sauerstoffspezies. Es ist eine Fülle unterschiedlicher Oxysterole, die in Proben menschlichen Gehirns nachgewiesen wurden, wobei einige auch aus dem Organismus ins Gehirn gelangt sein können - für Oxysterole stellt die Blut-Hirnschranke kein Hindernis dar.

Welche (patho)physiologische Rolle einzelne Oxysterole im Gehirn spielen, ist Gegenstand intensiver Untersuchungen. Insbesondere werden einige Oxysterole mit der Entstehung von neurodegenerativen Erkrankungen (u.a. Alzheimer-, Huntington-, Parkinsonkrankheit) in Zusammenhang gebracht. Eine vor kurzem veröffentlichte Analyse von Fallstudien aus den letzten 15 Jahren konnte hier aber (auch auf Grund mangelhafter Vergleichbarkeit der Protokolle) noch zu keinen konsistenten Aussagen gelangen. Feststehen dürfte jedoch der Einfluss von Oxysterolen auf die Homöostase des Cholesterin - also auf die Balance zwischen seiner Synthese und seinem Abbaus.

Die Cholesterin Homöostase

Bis vor rund 20 Jahren dachte man, dass die Neurogenese - die Entstehung neuer Nervenzellen - im Zentralnervensystem bereits im frühen Kindesalter abgeschlossen wäre. Heute weiß man, dass abhängig von diversen Stimuli neuronale Stammzellen auch im Alter noch neue Nervenzellen bilden können und, dass dies in Regionen des Hippocampus der Fall ist. Dafür und auch für den lokalen Bedarf an Neurosteroiden benötigt das Gehirn während unserer gesamten Lebensdauer Cholesterin (Abbildung 1), das es, wie eingangs erwähnt, auch zur Gänze selbst herstellen muss. Die Syntheserate ist im Gehirn Erwachsener niedrig, die Verweildauer des Cholesterins im Gehirn lang (Halbwertszeit 5 Jahre).

Die Cholesterinsynthese findet in Gliazellen und in geringerem Maße auch in Neuronen statt. Es ist dies der gleiche Weg, wie auch in allen anderen Körperzellen, der von der aktivierten Essigsäure ausgeht und über viele Stufen (und viele physiologisch wichtige Zwischenprodukte) zum Cholesterin führt. An mehreren Stellen dieses Weges greifen Oxysterole ein und schalten via Regulierung der Transkription von Target-Genen und der Funktion einzelner Proteine die Cholesterinsynthese an oder ab.

Um stets einen weitgehend konstanten Pegel an verfügbaren Cholesterin zu gewährleisten, muss es nicht nur regulierende Eingriffe in die Synthese geben, sondern auch Wege, um ein Zuviel an Cholesterin zu kompensieren. Überschüssiges Cholesterin (z.B. von abgestorbenen Zellen) kann auf Grund der Blut-Hirnschranke ja nicht direkt eliminiert werden. Ingemar Björkhem, ein führender Forscher auf dem Gebiet der Oxysterole, hat ein ein Enzym - CYP46A1 - entdeckt, das praktisch ausschließlich im Hirn (speziell in den Neuronen) vorkommt und Cholesterin zu dem Oxysterol 24S-Hydroxycholesterin oxydiert. Dieses Oxysterol gelangt direkt über die Blut- Hirn Barriere in den Blutstrom - es ist dies der Hauptweg der Cholesterin-Eliminierung. Die resultierenden 24S-Hydroxycholesterin-Blutspiegel sind demnach ein spezifischer Indikator für den Cholesterin-Stoffwechsel des Hirns aus denen aber auch Aussagen über pathologische Zustände und deren Progression oder Reduktion erhalten werden. CYP46A1 ist damit ein Schlüsselenzym der zerebralen Homöostase von Cholesterin. Die Modulierung dieses Enzyms durch Aktivierung oder Inhibierung könnte eine therapeutische Strategie zur Behandlung kognitiver Defekte/neurodegenerativer Erkrankungen darstellen.

Ausblick

Vor dem Hintergrund einer alternden Bevölkerung und einer Zunahme von neurodegenerativen Erkrankungen ist Forschung an Neurosteroiden und Oxysterolen im Gehirn ein vielversprechendes "Hot Topic", das von zahlreichen Gruppen bearbeitet wird. Es steht dabei nicht nur die Hoffnung auf neue therapeutische Ansätze im Vordergrund sondern auch der Wunsch die noch im Alter andauernde Neurogenese in unserem Lernzentrum, dem Hippocampus, zu verstehen und positiv beeinflussen zu können.

Ein wichtiger Aspekt ist natürlich auch die Klärung der Frage, ob und welchen Einfluss die weltweit angewandten Cholesterinsenker (die auch die Blut-Hirnschranke passieren) auf die Homöostase des Cholesterins im Gehirn und seine Funktion ausüben.


Literatur, die in diesen Artikel eingeflossen ist (kann auf Anfrage zugesandt werden):

I.Björkhem (2006) Crossing the barrier: oxysterols as cholesterol transporters and metabolic modulators in the brain. J Int Med 260, Issue 6, 493–508

Spalding KL et al., (2013). Dynamics of hippocampal neurogenesis in adult humans. Cell 153:1219-1277

L.Iuliano et al., (2015) Cholesterol metabolites exported from human brain. Steroids 45(Pt B) · February 2015. DOI: 10.1016/j.steroids.2015.01.026 ·

Winnie Luu et al., (2016) Oxysterols: Old Tale, New Twists. Annu. Rev. Pharmacol. Toxicol. 56:447–67

Miguel Moutinho et al., (2016) Cholesterol 24-hydroxylase: Brain cholesterol metabolism and beyond. Biochimica et Biophysica Acta 1861: 1911–1920


Weiterführende Links

3sat nano - Mythos Cholesterin Video 5:43 min.

Gerhard Roth (Institut für Hirnforschung , Universität Bremen) Das Gehirn (2) | Wie einzigartig ist der Mensch? (6) Video 14:14 min; https://www.youtube.com/watch?v=JPdha_5cTrE (Standard-YouTube-Lizenz)

Arvid Leyh: Neurone: Bausteine des Denkens. Video 2:51 min. https://www.youtube.comwatch?v=usosLatcMK8 (das Gehirn.info, Lizenz: cc-by-nc)

Zum Thema sind im ScienceBlog erschienen:

Inge Schuster 13.09.2013: Die Sage vom bösen Cholesterin

Walter Kutschera 04.10.2013: The Ugly and the Beautiful — Datierung menschlicher DNA mit Hilfe des C-14-Atombombenpeaks. http://scienceblog.at/ugly-and-beautiful-%E2%80%94-datierung-menschliche....


 

inge Thu, 08.12.2016 - 08:37

Mutterkorn – von Massenvergiftungen im Mittelalter zu hochwirksamen Arzneimitteln der Gegenwart

Mutterkorn – von Massenvergiftungen im Mittelalter zu hochwirksamen Arzneimitteln der Gegenwart

Do, 01.12.2016 - 05:25 — Günter Engel

Günter EngelIcon MedizinDie Verseuchung von Brotgetreide mit Mutterkorn hat vor allem im Mittelalter zu verheerenden Epidemien - dem Antoniusfeuer - geführt. Als später die Ursache der Vergiftungen erkannt worden waren, begann man die Wirkstoffe des Mutterkorns - Ergotalkaloide - zu erforschen und für therapeutische Anwendungen zu nutzen. Der Biochemiker Günter Engel (Sandoz/Novartis) war an der Charakterisierung der Angriffspunkte dieser Wirkstoffe und der Erfindung entsprechender Therapeutika beteiligt. Sein chemisches Arbeitsgebiet erweckte in ihm das Interesse an mittelalterlicher Kunst.

Das Mutterkorn ist die Überwinterungsform (Sklerotium) eines Schlauchpilzes (Claviceps purpurea Tulasne), der vornehmlich Roggen (aber auch viele andere Gräser) befällt und aus dessen Ähren violettschwarze Zapfen herauswachsen (Abbildung 1). Der Name rührt davon her, dass Mutterkorn seit dem frühen Mittelalter von Hebammen zur Beschleunigung der Geburt verwendet wurde. Erst zu Beginn des 20. Jahrhunderts haben englische Chemiker aus Mutterkorn eine auf die Gebärmutter wirkende Substanz isolieren können, die allerdings auf Grund ihrer toxischen Nebenwirkungen- als Ergotoxin bezeichnet - in der Medizin keine Anwendung fand. Mit den Inhaltsstoffen des Mutterkorns, den sogenannten Ergotalkaloiden hat sich dann der Schweizer Chemiker Albert Hofmann (1906 - 2008) in der ersten Hälfte des 20. Jahrhunderts intensiv beschäftigt: auf der Basis dieser Naturstoffe gelang es ihm eine Menge sehr wirksamer Arzneistoffe zu synthetisieren, die heute noch zu den Standardtherapien in einigen Indikationsgebieten zählen.

Abbildung 1. Mutterkorn. Links: das Sklerotium des Schlauchpilzes Claviceps purpurea in einer Roggenähre und der rote aus dem Sklerotium herauswachsende Fruchtträger (Ausschnitt aus Franz Eugen Köhler, Köhler's Medizinal-Pflanzen 1897). Rechts: Meyers Konversationslexikon aus dem Jahr 1888 zeigt, dass damals in Europa lokale Mutterkornepidemien noch vorkamen (Ausschnitt aus: Meyers Konversationslexikon 1888, http://elexikon.ch/1888_bild/10_0208#Bild_1888 ). (Beide Quellen sind älter als 70 Jahre und damit gemeinfrei)

Mutterkornvergiftungen

Pharmakologisch gesehen rufen Ergotalkaloide eine "Myriade" von Wirkungen auf Nervensystem und Blutgefäße hervor. Ergotvergiftungen - Ergotismus - manifestieren sich in zwei Formen: dem Ergotismus gangraenosus ("brandigen" Ergotismus) und dem Ergotismus convulsivus (der "Kriebelkrankheit"). Abbildung 1. In sehr hoher Dosierung verabreicht verursachen Ergotalkaloide eine starke Verengung der arteriellen Blutgefäße. Dies führt unter heftigen, brennenden Schmerzen in den befallenen Gefäßen zu einer Mangeldurchblutung bis hin zum völligen Blutstillstand, gefolgt von einer Nekrotisierung und anschließenden Mumifizierung des Gewebes. Letztendlich ergibt sich eine Trennung der Glieder vom übrigen Körper ohne Blutverlust. Das Absterben einzelner Körperteile erfolgt in ganz verschiedenem Ausmaß. Nur selten, wenn Nässe eindringt kommt es zu einem feuchten Gangrän. Nach dem Verlust der erkrankten Extremität tritt häufig eine vollkommene Heilung ein, der Betroffene kann als Krüppel weiterleben. Abbildung 2.

Abbildung 2. Mittelalterliche Darstellungen von Opfern des Ergotismus gangraenosus. Ein Bettler (oben links) hat seinen durch Ergotismus mumifizierten, abgetrennten Fuß vor sich ausgebreitet, ein anderer humpelt davon. (Hieronymus Bosch, Federzeichnungen, Königliche Bibliothek Brüssel). Unten: amputierter Fuß eines Bettlers, auf einem weißen Tuch. (Hieronymus Bosch, Ausschnitt aus dem Triptychon "Das jüngste Gericht", Akademie der bildenden Künste, Wien). Die Antoniter beschäftigten auch Wundärzte, die ohne Narkose (die Glieder waren abgestorben) wie hier dargestellt den Fuß absägten.

Die konvulsive Form äußert sich mit Parästhesien - Kribbeln, Ameisenlaufen - der Glieder, schmerzhaften Krämpfen, die an Tetanus erinnern und oft tödlich enden, epilepsieartigen Anfällen und Psychosen.

Epidemien im Mittelalter

Da im Mittelalter der Roggen und damit das daraus hergestellte Brot bis zu zwanzig Prozent Mutterkorn enthielt, brachen nach der Ernte immer wieder Mutterkornvergiftungen in verschiedenen Teilen Europas seuchenartig aus. Diese Vergiftungen - damals Antoniusfeuer (auch ignis sacer – heiliges Feuer) genannt - kamen durch den Verzehr großer Mengen von Ergotalkaloiden zustande - der mittelalterliche Mensch kannte die Ursache nicht und hatte keine Möglichkeit zu deren Vermeidung.

Die arme Landbevölkerung litt viel mehr unter diesen Epidemien als die Adeligen, die sich von Weizen und Fleisch ernährten. Die Hauptnahrung der ärmeren Leute bestand ja vornehmlich aus dunklen Getreideprodukten.

Im Mittelalter herrschte eine abergläubische Vorstellung von dieser Krankheit, sie galt als ein Zeichen des göttlichen Zorns über die Missachtung des Gottesfriedens. Die Verstümmelten wurde als ein warnendes Beispiel angesehen, Personen, die am Ergotismus convulsivus litten, galten als vom Teufel oder von Dämonen besessen, die Mortalität soll sehr groß gewesen sein.

Die Entstehung des Antoniterorden

Da der mittelalterliche Mensch der Krankheit völlig hilflos gegenüberstand, wandte er sich an die Schutzheiligen seiner Gegend. Der Schutzheilige, der bald alle überstrahlen sollte, war der etwa 251 in Ägypten geborene hl. Antonius. Dieser war ein Wüstenheiliger, hatte ein Eremitendasein gewählt und - wie Gemälde des Mittelalters und der beginnenden Neuzeit äußerst suggestiv zeigen - offensichtlich erfolgreich gegen "Dämonen" - Versuchungen durch Wünsche, Triebe, Emotionen, Laster - angekämpft (s.u.). Reliquien dieses Heiligen wurden in einer Kirche eines kleinen Ortes - Saint Antoine - in der Dauphine aufbewahrt. Berichten zufolge soll deren Verehrung zu einer Unzahl an Wunderheilungen geführt haben, der Ort wurde zum Wallfahrtsort und es entstand ein Krankenhaus (um das Jahr 1095), um die vielen kranken, von unerträglichen Schmerzen geplagten Pilger zu versorgen. Schließlich kam es zur Gründung des Ordens der Antoniter, der 1247 von Bonifatius VIII bestätigt wurde.

Die Antoniter waren ein mittelalterlicher Spitalorden oder moderner ausgedrückt eine Krankenhausträgerschaft, die sich ausschließlich derjenigen annahm, die am Antoniusfeuer litten oder auf Grund der Krankheit zu Krüppeln geworden waren. Die Zahl der Krankenhäuser nahm unter der Leitung des Ordens rapide zu - um 1500 gab es bereits 364 dieser Anstalten in Europa.

Medizin und Kunst - ein ganzheitlicher Therapieansatz der Antoniter

Jedem Krankenhaus standen die singularia remedia zur Verfügung, die den Ruf der Antoniter über ganz Europa bekannt gemacht hatten und die Erkrankten von überall herbeieilen ließen. Es waren dies der Antoniusbalsam und der Antoniuswein. Der Wein erhielt durch das Eintauchen der Antoniusreliquien seine religiöse Bedeutung und war - wie der gewöhnliche Krankenwein - mit Heilkräutern versetzt, denen gefäßerweiternde (der Ergotwirkung entgegenwirkende) und schmerzstillende Eigenschaften zukommen. Welche Heilkräuter die Antoniter benutzten, geht u.a. aus einem Gemälde des von Matthias Grünewald 1512 - 1516 geschaffenen Isenheimer Altars hervor. Abbildung 3. Die botanisch sehr genau gemalten Pflanzen werden alle in den Kräuterbüchern des Mittelalters zur Bekämpfung des Antoniusfeuers erwähnt.

Eine vor kurzem wiederentdeckte, lange verschollen geglaubte Rezeptur des Antoniusbalsam beschreibt 14 Heilkräuter, die sich als entzündungshemmend und wundheilend erweisen.

Abbildung 3. Matthias Grünewald: Heilpflanzen, die von den Antonitern benutzt wurden. Ausschnitt aus dem unteren Teil des Bildes: Der Besuch des hl. Antonius bei dem Eremiten Paulus auf dem linken Flügel der dritten Schauseite des Isenheimer Altars. Links: die Zahlen bezeichnen 1: Breitwegerich (zur Wundbehandlung), 2: Eisenkraut (durchblutungssteigernd), 3: Spitzwegerich. Rechts: wahrscheinlich handelt es sich hier um Saatmohn, Kreuzenzian, Schwalbenwurz, Ehrenpreis, Taubnessel, kriechenden Hahnenfuß, Weissklee (Museum Unterlinden, Colmar).

Neben dem Balsam und dem Antoniuswein wurde stärkende, gute Nahrung verabreicht: mutterkornfreies Brot - Weizenbrot - und Schweinefleisch. Schweinschmalz - das die Haut sehr gut durchdringt - diente als Salbengrundlage. Schließlich kam noch die regelmäßige Versorgung durch die Wundärzte hinzu.

Bei den Antonitern trafen die Spitalsinsassen auf Leidensgenossen, die gleiche schmerzliche Erfahrungen durchgestanden hatten und schon wieder auf dem Weg der Besserung waren.

Zur Heilungsförderung verordneten die Antoniter zusätzlich den Gang vor den Altar: Als Teil eines ganzheitlichen Therapieansatzes wurden in den Antoniterspitälern im Spätmittelalter Gemälde eingesetzt, die den Betrachter in der Krankheitsbewältigung unterstützen und zum "Heil" führen sollten. Die Ergotismusopfer sollten zu sich selbst finden, in ihrer Krankheit die göttliche Strafe erkennen, symbolisch dargestellt durch den ignis sacer, die Versuchung durch die Dämonen sowie deren Überwindung. Ein Werk mit besonders starker Ausstrahlung ist das von Matthias Grünewald geschaffene Altargemälde "Versuchung des hl. Antonius" im Isenheimer Kloster, einem wohlhabenden, bedeutenden Antoniterkloster im Elsass, nahe Colmar. Abbildung 4.

Zu den bekanntesten weiteren Malern, die damals Aufträge von den Antonitern erhielten, zählten, Martin Schongauer, Niklaus Manuel und wahrscheinlich Hieronymus Bosch. Das Mutterkorn übte in dieser Zeit nicht nur auf die Medizin, sondern auch auf die Kunst einen bedeutenden Einfluss aus.

Abbildung 4. Matthias Grünewald: Die Versuchung des hl. Antonius. Rechter Flügel der dritten Schauseite des Isenheimer Altars. Links: 8 Dämonen- als Repräsentanten der menschlichen Laster - peinigen den Heiligen. Rechts: Ausschnitt des linken unteren Rands: ein Dämon mit den Symptomen des Ergotismus gangraenosus. Die blaugrünen Flossenfüße symbolisieren die Kälte, das Abgestorbene, die Geschwüre zeigen den von Fäulnisbakterien unterwanderten brandigen Ergotismus. (Museum Unterlinden, Colmar).

Aus dem Gift werden hochwirksame Heilmittel

Dass ein Zusammenhang zwischen Mutterkorn und dem Antoniusfeuer besteht, wurde erst im 17. Jahrhundert erkannt und im 18. Jahrhundert streng wissenschaftlich bewiesen. Mit Kenntnis der Ursache der Erkrankung wurden Präventivmaßnahmen - Überwachung und Entfernung des Mutterkornanteils im Brotgetreide - ergriffen. Hinzu kamen steigender Wohlstand und veränderte Essgewohnheiten (die Kartoffel wurde zu einem Grundnahrungsmittel) und führten allmählich zum weitestgehenden Verschwinden des Antoniusfeuer.

Wie einleitend bereits erwähnt, wurden wässrigeMutterkornextrakte über Jahrhunderte traditionell in der Geburtsmedizin angewandt. Diese Extrakte waren wenig haltbar, unrein und daher nicht exakt dosierbar - sie führten häufig zu den für Ergotalkaloide typischen Nebenwirkungen. Dem Naturstoffchemiker Arthur Stoll - er begründete die Pharmaabteilung der ehemaligen Farbenfirma Sandoz - gelang es 1918 mit schonender, chemischer Aufreinigungstechnologie das uterusaktive Prinzip des Mutterkorns zu extrahieren und zu reinigen. Es war ein Alkaloid, das er Ergotamin nannte und das sich an der menschlichen Gebärmutter als hervorragend blutungshemmend erwies. Unter der Bezeichnung Gynergen® fand das Mittel einen führenden Platz in der Geburtshilfe und später auch als Specificum zur Behandlung der Migräne.

Einer der ersten Chemiker in Stolls neuer Naturstoffabteilung war Albert Hofmann, der ab 1935 Substanzen durch Synthese herstellte, die im Mutterkorn nur in sehr kleinen Mengen vorhanden waren, beispielsweise das Ergonovin. Mit seinen Methoden konnte er auch eine Anzahl verwandter Strukturen von Ergotalkaloiden mit hoher pharmakologischer Wirksamkeit synthetisieren: u.a. das von Ergonovin abgeleitete Methergin® und das Lysergsäurediäthylamid - LSD - das stärkste öffentliche Aufmerksamkeit erregte. Erfolgversprechende klinische Untersuchungen des LSD als Hilfsmittel in der Psychoanalyse wurden in den 1960er Jahren allerdings vom Missbrauch als bevorzugte (Party)Droge überschattet und die Substanz auf die Liste der Rauschmittel gesetzt.

Ein besonders wichtiger Schritt Albert Hofmanns war die Hydrierung des aus drei Alkaloiden bestehenden Ergotoxins. Anstelle der blutdrucksteigernden, gefäßverengenden Eigenschaften des Ergotoxins, bewirkten die hydrierten Verbindungen nun Blutdrucksenkung und Gefäßerweiterung - u.a. auch eine verbesserte Gehirndurchblutung und dies bei insgesamt geringerer Toxizität. Unter dem Handelsnamen Hydergin® wurde das Mittel in den 1970er Jahren zum umsatzstärksten Produkt der Firma. Ebenfalls sehr erfolgreich war die Hydrierung des Ergotamin: Als Dihydroergot - DHE - wurde das Mittel in der Hypotonie und bei vaskulären Kopfschmerzen eingesetzt.

Eines der letzten Ergotalkaloide, das Medizingeschichte geschrieben hat, war das Bromokriptin - Parlodel®. Damit wurde ein neues Kapitel in der (Neuro)endokrinologie aufgeschlagen. Dieses Produkt wirkt auf die Sekretion des Prolaktins, Dopamins und Wachstumhormons. Als Hauptindikationen gelten Parkinson, Akromegalie und Tumoren der Hypophyse.

Die Isolierung und Derivierung der Mutterkornalkaloide stellte also über mehr als 60 Jahre eine medizinalchemische "Fundgrube" für Sandoz dar und eine herausragende Erfolgsgeschichte der Naturstoffchemie.


Weiterführende Links

Klaus Roth (FU Berlin) Vortrag: Vom Isenheimer Altar zu den Beatles. Video 1:14:35 min. Lange Nacht der Chemie - Vom Isenheimer Altar zu den Beatles (Prof. Roth - F.U. Berlin). Roth unternimmt eine weite Reise vom heiligen Antonius über einen Getreidepilz hin zu einem psychedelischen Musikvideo der Beatles.

Das "Heilige Feuer" oder "Antonius Feuer" (Sehr ausführliche Seite über die Leistungen der Antoniter , die medizinischen und kunstgeschichtlichen Aspekte)

Mutterkorn: Halluzinogen und Auslöser von Vergiftungen. Peter Schmersahl (2010)

Ergot: the story of a parasitic fungus (Wellcome Library, 1958; d.i. noch vor dem Siegeszug der auf Ergotalkaloiden basierenden Arzneimittel). Video 24.44 min.

LSD - Die Entdeckung einer Wunderdroge (Dr. Albert Hofmann)Video 44:33 min.

Albert Hofmann - Die Bedeutung von LSD aus der Sicht des Entdeckers. Video 32:30 min. Interview mit Albert Hofmann zum Abschluss des Symposiums "LSD - Sorgenkind und Wunderdroge" Internationales Symposium zum 100. Geburtstag von Albert Hofmann (2006, Basel)

inge Thu, 01.12.2016 - 05:25

Das Geburtsjahr bestimmt das Risiko an Vogelgrippe zu erkranken

Das Geburtsjahr bestimmt das Risiko an Vogelgrippe zu erkranken

Do, 24.11.2016 - 14:27 — Francis S. Collins

Francis S. Collins<Icon MedizinWahrscheinlich können Sie sich nicht mehr erinnern, wann Sie als Kind das erste Mal Grippe hatten. Neue Erkenntnisse sprechen dafür, dass das menschliche Immunsystem jedoch seine erste Begegnung mit einem Grippevirus niemals vergisst. Es nützt dieses immunologische "Gedächtnis" möglicherweise sogar, um gegen künftige Infektionen mit neuen Stämmen der Vogelgrippe zu schützen. Diese eben erschienenen, grundlegenden Ergebnisse einer NIH-unterstützten Untersuchung fasst der Chemiker und Mediziner Francis Collins, Direktor der US National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project" hier zusammen.*

Ein NIH-unterstütztes Forschungsteam hat Fälle von Vogelgrippe zwischen 1997 und 2015 in sechs Ländern in Asien und dem mittleren Osten untersucht und gesehen, dass vor 1968 geborene Menschen ein geringeres Risiko hatten an H5N1-Vogelgrippe schwer zu erkranken oder daran zu sterben, als die später geborenen. Genau das Gegenteil war bei dem Vogelgrippestamm H7N9 der Fall: die vor 1968 Geborenen hatten ein wesentlich höheres Risiko, während die später Geborenen häufig besser geschützt waren.

Wie kommt dieser Gegensatz zustande?

Es zeigt sich, dass das H5N1-Vogelgrippevirus (Abbildung 1) näher verwandt ist zu dem Virus der saisonalen Grippe, die vor 1968 dominierte und dass danach zwei saisonale Grippestämme überwogen, die mehr dem H7N9 -Vogelgrippevirus ähnelten. Dies bedeutet, dass die erste Erfahrung mit der Grippe und die sich daraus entwickelnde Immunität Jahrzehnte später über Leben und Tod entscheiden können, wenn der Mensch dann einem völlig neuen Influenzastamm ausgesetzt ist.

Abbildung 1. Wie H5N1-Vogelgrippeviren aussehen. Die Viren haben sich in einer MDCK Zellkultur (eine Nierenzelllinie des Hundes) vermehrt. Anfärbung: Viren: (goldfarben), MDCK Zellen: grün; Transmissionselektronenmikroskopie. Credit: Cynthia Goldsmith, CDC

Diese Ergebnisse haben bedeutende Auswirkungen auf öffentliche Gesundheitsinitiativen, um diejenigen zu schützen, die bei einer künftigen Influenza-Pandemie das höchste Risiko tragen. Die Ergebnisse bieten auch wichtige Einsichten zur Entwicklung universeller Influenzavakzinen, die vor einem weiten Spektrum an Influenzastämmen Schutz bieten könnten.

In welchem Alter sind Menschen am stärksten von Virusgrippe betroffen?

Darüber haben Forscher lange gerätselt. Als das klassische Beispiel, die H1N1-Grippeepidemie im Jahr 1918 Millionen Menschen tötete, waren dies zumeist Erwachsene im Alter von 20 - 30 Jahren. Auch an der H5N1-Vogelgrippe erkrankten mehr Kinder und junge Erwachsene, dagegen betraf H7N9 häufiger ältere Leute.

In einem eben im Journal Science erschienenen Artikel [1] haben James Lloyd-Smith und Kollegen von der University of California, Los Angeles und Michael Worobey von der University of Arizona, Tucson die Vermutung aufgestellt, dass diese eigenartigen Infektionsmuster mehr mit den unterschiedlichen Virusstämmen der Erstinfektion zu tun haben als mit Alter der Menschen. Um diese Möglichkeit zu prüfen, haben die Forscher die Geschichte der saisonalen Grippe in Kambodscha, China, Ägypten, Indonesien, Thailand und Vietnam seit dem Jahr 1918 rekonstruiert. Sodann trugen sie alle bekannt gewordenen Vogelgrippe-Erkrankungen durch H5N1 und H7N9 (1997 erfolgte der Übergang von H5N1 auf den Menschen) zusammen und stellten sie den Geburtsjahren der betroffenen Patienten gegenüber. Abbildung 2.

Abbildung 2. Links: Geburtsjahre von in China lebenden Menschen, die zwischen 1997 und 2015 an der H7N9 Vogelgrippe erkrankten. Rechts: Geburtsjahre von Menschen in Kambodscha, China, Ägypten, Indonesien, Thailand und Vietnam, die zwischen 1997 und 2015 an der H5N1 Vogelgrippe erkrankten. (Quelle: adaptiert aus Science. 2016 Nov 11;354(6313):722-726) Die Daten zeigten, dass eine klarer Zusammenhang zwischen der ersten Begegnung einer Person mit Influenza und späteren Infektionen besteht. Der 1968 beobachtete, plötzliche Sprung in der Anfälligkeit für Grippeinfektionen, lässt sich mit einer abrupten Veränderung in der Häufigkeit der saisonalen Influenzastämme erklären. In diesem Jahr hatte eine Pandemie mit dem H3N2-Stamm - die sogenannte Hongkong-Grippe - die saisonalen Grippestämme H2N2 und H1N1 vollständig abgelöst, die vorher im Umlauf waren.

Darüber, wie die erste Infektion zu einer lebenslangen Immunität einer Person führt, müssen noch detaillierte Kenntnisse gesammelt werden. Zweifellos hängt dieser Vorgang mit der unterschiedlichen Art und Weise zusammen, wie menschliche Antikörper ein spezielles, auf der Virusoberfläche sitzendes Protein - Hemagglutinin - erkennen und darauf reagieren. Jedes Influenzavirus träg eines von 18 unterschiedlichen Typen des Hemagglutinin auf seiner Oberfläche (der Buchstabe "H" gefolgt von einer Nummer charakterisiert den Hemagglutinintyp in der Bezeichnung des Virusstammes). Dabei lassen sich alle 18 Hemagglutinintypen in nur zwei größere Gruppen einteilen: die saisonalen Grippeviren H1 und H2 und der Vogelgrippestamm H5 fallen in eine Gruppe, der saisonale H3-Stamm und das Vogelgrippevirus H7 in die andere Gruppe.

Die in den verschiedenen Ländern erhobenen Infektionsmuster zeigen, dass ein früher Kontakt zu einem bestimmten Influenzastamm einigen Schutz gegen andere Stämme bietet, sofern diese in dieselbe Hemagglutinin-Gruppe fallen (ein als Kreuzreaktivität bekanntes Phänomen). Nach Schätzungen der Forscher kann eine korrekte Prägung des Immunsystems auf ein Hemagglutinin der Gruppe 1 oder 2 einen 75 prozentigen Schutz vor einer schweren Infektion mit H5N1 oder H7N9 und 80 % Schutz vor möglichen Todesfolgen bieten.

In vielerlei Hinsicht sind dies gute Nachrichten.

Wenn dieser Effekt auch auf andere Influenzastämme zutrifft, so sollte es keine komplett neue Grippeepidemie geben. Sogar neue Viren, die noch nie Menschen infiziert haben, werden Charakteristika aufweisen, gegen die einige unserer Immunsysteme geprägt worden sind. Dies bedeutet nicht zwangsweise, dass die mit diesen Viren infizierten Menschen nicht erkranken können, die Grippe wird aber bei denen, die einigen Schutz entwickelt haben, voraussichtlich glimpflicher verlaufen.

Weiters zeigen die Daten, dass ein breiter, lang anhaltender immunologischer Schutz erreicht werden kann. Dieser Schutz basiert offensichtlich auf einem bestimmten Abschnitt des Hemagglutininmoleküls , der bereits vielen Forschern als Zielstruktur für eine universell wirkende Vakzine dient (siehe Artikel im ScienceBlog: http://scienceblog.at/influenza-viren-%E2%80%93-pandemien-sind-universel... ; Anm. Red.) Was sich allerdings zeigt: unsere früheste Begegnung mit Grippeviren prägt unser Immunsystem in einer Weise, die kaum ausgeweitet oder überboten werden kann.

Was eine universell wirksame Influenzavakzine betrifft, so wird diese - in Gegenwart eines bereits existierenden Immungedächtnisses - einen breiten Immunschutz stimulieren müssen, der stärker ist, als ihn Influenzainfektionen im späteren Leben bewirken können. Dies wird verständlich, wenn man vor 1968 geborene Personen betrachtet: diese waren zuerst H1 oder H2 Influenzastämmen ausgesetzt und später, über Jahrzehnte hinweg, den dominierenden saisonalen H3-Stämmen. Die spätere H3-Exposition reichte demnach nicht aus, um diese Menschen zu schützen, als H7N9 auftauchte.

Es ist noch nicht klar, was die Ergebnisse für das Risiko des Einzelnen bedeuten, an einer schweren saisonalen Grippe erkranken. Das ist eine sehr wichtige Frage - immerhin sterben weltweit jährlich bis zu 500 000 Menschen an Grippe [2]. Lloyd-Smith und Worobey meinen dazu, dass man in Zukunft die früheste Influenzainfektion einer Person berücksichtigen sollte, um die beste saisonale Influenza-Vakzine zu wählen - eine Vakzine die das Immunsystem in genau den Bereichen stärken sollte, in denen es Schwächen zeigt.

Im Licht der neuen Ergebnisse sind viele neuen Fragen aufgetaucht und viel Forschungsarbeit ist zu tun. Es gibt auch einige offensichtliche Konsequenzen. H5N1 und H7N9 haben weltweit bereits Hunderte Menschen infiziert. Sollte eines der Viren mutieren und leichter vom Vogel auf den Menschen übergehen, könnte dies die nächste Pandemie verursachen. Die beschriebene Untersuchung zeigt, dass eine sorgfältige Analyse von existierenden Gesundheitsdaten der Bevölkerung in Verbindung mit mathematischen Modellierungen der Krankheitsübertragung es bereits möglich macht, bessere Voraussagen zu treffen und Pläne für derartige Risiken zu entwickeln.


*Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:" Birth Year Predicts Bird Flu Risk" zuerst (am 22. Novemberi 2016) im NIH Director’s Blog:. https://directorsblog.nih.gov/2016/11/22/birth-year-predicts-bird-flu-risk/ . Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


[1] Potent protection against H5N1 and H7N9 influenza via childhood hemagglutinin imprinting. Gostic KM, Ambrose M, Worobey M, Lloyd-Smith JO. Science. 2016 Nov 11;354(6313):722-726. (open access)

[2] Influenza (Seasonal). World Health Organization. March 2014.


Weiterführende Links

Artikel im ScienceBlog

inge Thu, 24.11.2016 - 14:27

Vom Sinn des Schmerzes

Vom Sinn des Schmerzes

Do, 10.11.2016 - 08:56 — Nora Schultz Nora SchultzIcon Gehirn

Keiner will ihn, doch leben ohne ihn ist gefährlich: Der Schmerz ist eine der wichtigsten Empfindungen überhaupt. Die Biologin und Wissenschaftsjournalistin Nora Schultz beschreibt die komplexe Verarbeitung von Schmerz in Körper und Gehirn und liefert zahlreiche Ansatzpunkte, Schmerz auch ohne Medikamente zu lindern*.

 

Mitunter sitzt die ganze Seele in eines Zahnes dunkler Höhle“, dichtete dereinst Wilhelm Busch über den Zahnschmerz. Wer die allumfassende Pein im Reim schon einmal selbst erlebt hat, wird sich spätestens dann gefragt haben, wozu Schmerz eigentlich gut sein soll. Die Antwort ist eigentlich schlicht: Schmerz ist ein Hilferuf des Körpers, dass Schaden droht oder schon eingetreten ist und man sich schleunigst von der Gefahrenquelle entfernen sollte. Ohne Schmerz würde niemand die heiße Herdplatte meiden oder einen Knochenbruch in Ruhe ausheilen lassen.

Wie wichtig Schmerzempfinden ist, zeigt der Blick auf Personen, denen es fehlt. „Menschen, die keinen Akutschmerz spüren können, leiden unter massiver Selbstverstümmelung, zum Beispiel abgebissenen Lippen“, sagt Stefan Lechner von der Universität Heidelberg . Wer schon einmal damit zu kämpfen hatte, sich nach einem Zahnarztbesuch seine noch betäubten Mundpartien nicht zu zerbeißen, wird dies nachvollziehen können.

Sinneszellen als Schadensmelder

Klassischer Schmerz beginnt mit putzig klingenden Sinneszellen: den so genannten Nozizeptoren. Was man aus dem Lateinischen lose als Schadensmelder übersetzen kann, sind Zellen mit freien Nervenenden, die sich in fast allen Geweben des menschlichen Körpers finden, vor allem aber in der Haut. Dort existieren sie in größerer Dichte als sämtliche andere Sinnesrezeptoren – was die Bedeutung der Haut als Schutzorgan unterstreicht. Abbildung 1.

Abbildung 1. Nozizeptoren in der Haut. Mit bis zu 200 Nozizeptoren/cm2Haut übertreffen sie alle anderen Rezeptoren der Sinnesempfindungen in diesem Organ. (Quelle: Arvid Leyh: https://redaktion.dasgehirn.info/wahrnehmen/fuehlen-koerper/reiz-und-rezeptor/. Lizenz: cc-by-nc)

Manche Nozizeptoren reagieren ausschließlich auf mechanische Reize, zum Beispiel einen spitzen Stich, andere auch auf Hitze, Kälte, chemische Reize wie den scharfen Geschmacksstoff Capsaicin oder Botenstoffe, die bei Verletzungen oder Entzündungen freigesetzt werden. Allen Nozizeptoren ist gemein, dass sie im Normalzustand nicht so leicht aus der Ruhe zu bringen sind. Damit sie ein Signal ans Rückenmark losschicken, muss der Reiz ziemlich stark sein. Einige Nozizeptoren sind normalerweise rein gar nicht aus der Reserve zu locken: die so genannten stummen Nozizeptoren sitzen vor allem in inneren Organen und sind in gesundem Gewebe überhaupt nicht erregbar. Kommt es hingegen zu Entzündungen, kann dieser Prozess auch die stummen Nozizeptoren aus dem Dornröschenschlaf wecken. Sie werden erregbar und tragen nun auch zur Schmerzentstehung bei. Die Zellkörper der Nozizeptoren sitzen in den Spinalganglien. Auf dem Weg ins Rückenmark reisen die Signale je nach Zelltyp mit unterschiedlichem Tempo. Nozizeptoren mit so genannten A-Delta-Fasern haben eine Myelinscheide, die eine schnelle Impulsweiterleitung ermöglicht. Sie vermitteln vor allem stechende Schmerzreize. Nozizeptoren mit C-Fasern hingegen sind für die Übertragung von Schmerzen zuständig, die als eher dumpfer und tiefer sitzend empfunden werden. Ihnen fehlt die Myelinummantelung und sie brauchen länger für die Reizübertragung. Eine vereinfachtes Schema der Weiterleitung des Schmerzsignals ist in Abbildung 2 gezeigt.

Abbildung 2. Weiterleitung des Schmerzsignals: ein langer Weg, der nur drei Nervenzellen umfasst. Vom Ort der Entstehung wird das Signal zum Rückenmark weitergeleitet, dort vom zweiten Neuron übernommen und bis ins Gehirn geleitet. Im Cortex wird das Schmerzsignal seinem Ursprungsort (dem schutzbedürftigen Körperteil) zugeordnet. Die somatosensorischen Bereiche orientieren sich an der Rezeptorendichte. (Quelle: Arvid Leyh: https://redaktion.dasgehirn.info/wahrnehmen/fuehlen-koerper/reiz-und-rez....Lizenz:cc-by-nc)

Neben den von Nozizeptoren gemeldeten Reizen, die im Gehirn als Schmerz interpretiert werden, kennt man inzwischen eine Reihe von weiteren Schmerzarten. Oft liegt eine Nervenschädigung zugrunde. Die daraus resultierenden Schmerzen werden dann als „neuropathisch“ bezeichnet. „Dies ist allerdings ein Sammelbegriff für viele Erkrankungen mit sehr unterschiedlichen Mechanismen“, sagt Rohini Kuner, die Sprecherin des Sonderforschungsbereiches 1158, der untersucht, wie chronischer Schmerz entsteht. Neuropathische Schmerzen können zum Beispiel durch mechanische Traumata infolge eines Unfalls ausgelöst werden, durch virale Infektionen, durch zu hohen Blutzucker bei Diabeteserkrankungen oder auch durch Tumorzellen, die entlang von Nervenfasern wandern.

Signal-Verarbeitung noch im Rückenmark

Ist ein Schmerzsignal erst einmal im Rückenmark angelangt, darf man sich die Weiterleitung an die zum Gehirn führende Nervenbahnen keinesfalls wie bei einem Staffellauf vorstellen, wo das Holz einfach an den nächsten Läufer weitergegeben wird: „Im Rückenmark findet Signalintegration in sehr, sehr komplexen Netzwerken statt, die wir gerade erst zu entschlüsseln lernen“, betont Stefan Lechner. So werden die Reize etwa in Nervennetzwerken verknüpft, wodurch die Qualität und Intensität des Schmerzes kodiert wird. Zudem sind Nozizeptoren auch mit Motorneuronen verschaltet, die schnelle Rückziehreflexe von der Schmerzquelle ermöglichen, noch bevor die Schmerzwahrnehmung überhaupt im Gehirn angekommen ist. Selbst Signale, die eigentlich gar nichts mit Schmerz zu tun haben sollten, weil sie zum Beispiel von ganz anderen Sinneszellen kommen oder längst amputierte Gliedmaßen zu peinigen scheinen, können durch Umschaltungen im Rückenmark zu Schmerzbotschaften werden.

Vom Rückenmark wandern Schmerzsignale auf unterschiedlichen Pfaden in verschiedene Gehirnregionen. Sie kreuzen zunächst auf die Gegenseite in den Vorderseitenstrang, durchziehen den Hirnstamm und werden dann im Zwischenhirn vom Ventrobasalkern des Thalamus weiter an andere Gehirnregionen geleitet. Hier ergibt die Zusammenarbeit unterschiedlicher Gehirnareale die eigentliche Schmerzwahrnehmung . Im Cortex beispielsweise ordnen Insellappen und somatosensorische Hinterrinde das Schmerzsignal seinem Ursprungsort zu, damit man über den ersten Rückziehreflex hinaus das schutzbedürftige Körperteil identifizieren kann. Das limbische System hingegen bewertet den Schmerz emotional und der dorsolaterale präfrontale Cortex trägt zur kognitiven Einordnung des Schmerzes bei.

Jeder Schmerz ist einzigartig

Angesichts der vielen beteiligten Gehirnregionen überrascht es kaum, dass die Schmerzwahrnehmung nicht nur höchst subjektiv ist, sondern dass ähnliche Schmerzen auch bei ein und derselben Person je nach Situation sehr unterschiedlich wahrgenommen werden. Akuter Stress zum Beispiel kann das Schmerzempfinden dämpfen und hilft Sportlern oder Soldaten auch schwere Verletzungen vorübergehend zu ignorieren, bis wieder Ruhe einkehrt. Auch die positive Betrachtung bestimmter Schmerzen – zum Beispiel von Geburtswehen – kann zur Linderung beitragen, ebenso gelingt dies mit Entspannungstechniken oder dem schieren Glauben an Placebos. Angst, Traurigkeit, Stress oder Verkrampfung hingegen wirken mitunter wie Schmerzverstärker.

Wo positives Denken an seine Grenzen stößt, greifen Schmerzgeplagte zur Pillenschachtel oder Spritze. Ihnen steht ein überwiegend schon seit Jahrzehnten bewährtes Arsenal an Analgetika zur Verfügung, welches von rezeptfreien Klassikern wie Aspirin und Paracetamol bis hin zu Opioiden reicht. Auch manche Medikamente, die eigentlich für andere Zwecke entwickelt wurden, zum Beispiel zur Behandlung von Depression oder Epilepsie, können als effektive Schmerzmittel wirken. Gänzlich neue Möglichkeiten, Schmerzen zu behandeln, wurden in den letzten Jahren allerdings nicht entdeckt.

Problemfall Chronischer Schmerz

Die bislang eher mageren Erfolge bei der Suche nach neuen Angriffspunkten in der Schmerzbekämpfung tun vor allem da weh, wo Schmerz aus dem Ruder läuft. Das kann zum Beispiel der Fall sein, wenn Patienten Schmerzmittel nicht vertragen oder unter besonders starken und dauerhaften Schmerzen leiden. Gerade chronische Schmerzen bringen Patienten – und auch ihre Ärzte – oft zur Verzweiflung. „Solche Schmerzen sind keine Warnsignale mehr, sondern werden selbst zur Krankheit“, sagt Kuner. Sie entstehen zum Beispiel aufgrund von Nervenschädigungen, die auch nach dem eigentlichen Heilungsprozess fortbestehen, durch dauerhafte Sensibilisierung von Rezeptoren oder durch die bleibende Veränderung von Verschaltungen im Gehirn oder Rückenmark, die zu Schmerzwahrnehmungen führen, obwohl eigentlich keine Gewebeschädigung (mehr) vorliegt. Im Zuge solcher fehlgeleiteten molekularen und zellulären Lernprozesse kann sich ein regelrechtes Schmerzgedächtnis ausbilden, das bislang kaum rückgängig zu machen ist.

Wo chronische Schmerzen eine dauerhafte Schmerzmedikation erforderlich machen, können Nebenwirkungen oder Wirkungsverluste schnell Probleme bereiten. Gerade an Opioide gewöhnt der Körper sich schnell, was dazu führt, dass die Dosis während der Therapie nach und nach erhöht werden muss. „In manchen Fällen kann bereits nach wenigen Wochen eine mehr als zehnfach höhere Dosierung für eine zufriedenstellende Schmerzlinderung erforderlich sein“, berichtet Lechner. Gerade für die Behandlung chronischer Schmerzen hoffen Forscher daher darauf, dass das derzeit rapide wachsende Verständnis der komplexen Vorgänge bei der Schmerzverarbeitung zu neuen Therapieansätzen führen wird. Längst ist zwar klar, dass der Schmerz meist nicht nur eine Ursache hat, sondern aus einem komplexen Zusammenspiel biologischer, seelischer und sozialer Faktoren heraus entsteht. Dieses bio-psycho-soziale Schmerzmodell beantwortet aber nicht automatisch die Frage nach der besten Behandlung. Klar scheint, dass zu den Medikamenten im Rahmen einer multimodalen Therapie zunehmend nicht-medikamentöse Strategien dazu kommen müssen. Ob und wie sich das Schmerzgedächtnis dadurch nachhaltig wieder verlernen lässt, ist derzeit aber noch offen. Wünschenswert wäre es allemal, auch chronischen Schmerz in die Vergangenheit verbannen zu können.

Auch hierfür fand schon Wilhelm Busch die richtigen Worte: „Gehabte Schmerzen, die hab' ich gern.“


* Der Artikel ist der Webseite www.dasgehirn.info entnommen und steht unter einer CC-BY-NC Lizenz: https://www.dasgehirn.info/wahrnehmen/schmerz/vom-sinn-des-schmerzes-1178. Die beiden Abbildungen wurden von der Redaktion eingefügt; sie stammen ebenfalls von der obigen Webseite (Arvid Leyh: https://redaktion.dasgehirn.info/wahrnehmen/fuehlen-koerper/reiz-und-rez...)

www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe


Weiterführende Links

Zum Thema Schmerz ist auf der Webseite "dasgehirn" eben eine umfassende Artikel-Serie erschienen (darunter der obige ScienceBlog Artikel): https://redaktion.dasgehirn.info/

Chronischer Schmerz: Video 25:44 min. https://redaktion.dasgehirn.info/wahrnehmen/schmerz/chronischer-schmerz-... Lizenz: cc-by-nc.

Artikel im ScienceBlog:

Manuela Schmidt, 06.05.2016: Proteinmuster chronischer Schmerzen entziffernhttp://scienceblog.at/proteinmuster-chronischer-schmerzen-entziffern#.

Gottfried Schatz, 30.08.2012: Grausamer Hüter — Wie uns Schmerz schützt – oder sinnlos quält
http://scienceblog.at/grausamer-h%C3%BCter-%E2%80%94-wie-uns-schmerz-sch....

----------------------------------------------------------------------
inge Thu, 10.11.2016 - 08:56

Woher kommt Komplexität?

Woher kommt Komplexität?

Do, 17.11.2016 - 05:25 — Peter Schuster

Vorname ZunameIcon MINTDer Begriff "komplex" ist zu einem Schlagwort geworden, das von der Gesellschaft gerne mit Problemen assoziiert wird, für die man keine simple Lösung parat hat. Dass komplex aber nicht gleichbedeutend mit kompliziert ist, was unter Komplexität eigentlich zu verstehen ist, welche Ursachen uns etwas komplex erscheinen lassen und wie wir Komplexität erfolgreich bearbeiten können, zeigt hier der theoretische Chemiker Peter Schuster (emer. Prof. Univ Wien) auf. Die "Dynamik evolvierbarer komplexer Systeme" gehört seit vier Jahrzehnten zu den Forschungsschwerpunkten des Autors..*

Wenn man Wissenschafter befragt, was sie unter Komplexität verstehen, werden wohl die meisten von ihnen Komplexität als das Ergebnis aus einem oder mehreren von drei Faktoren charakterisieren, nämlich

i) hohe Dimensionalität,

ii) Netzwerke von Wechselwirkungen und

iii) nichtlineares Verhalten. Für sich betrachtet muss hohe Dimensionalität allerdings nicht unbedingt zu Komplexität führen: Beispiele dafür gibt es in der linearen Algebra , wo - unlimitierte Ressourcen an Rechnerzeit und Speicherkapazität vorausgesetzt - Lösungen über Eigenwertprobleme erhalten werden können; es handelt sich vielleicht um komplizierte aber nicht um komplexe Probleme. Dies gilt auch für den Faktor Wechselwirkungen: kompliziert aber nicht komplex ist es, wie sich beispielsweise Moleküle im Gaszustand verhalten - dies ist keineswegs trivial, dennoch können korrekte statistische Beschreibungen für makroskopische Eigenschaften wie Temperatur, Druck etc. gegeben werden. Auch Nichtlinearität ergibt nicht zwangsläufig ein komplexes System - Beispiele dafür gibt es u.a. in der Kinetik chemischer Reaktionen.

Jeder der genannten drei Faktoren reicht - für sich allein - häufig nicht aus, um komplexe Eigenschaften entstehen zu lassen, im allgemeinen kommen zusätzliche Merkmale dazu oder Kombinationen von Faktoren. Abbildung 1.

Abbildung 1. Digital erzeugte komplexe, geometrische Muster. Mit einfachen mathematischen Formeln, die durch Rückkopplung iteriert werden, lassen sich phantastisch aussehende, selbstähnliche geometrische Muster - Fraktale - erzeugen. Derartige fraktale Muster finden sich überall in der Natur (Verästelungen, Pflanzenformen, Blutgefäße, Küstenlinien, etc.) (Bild: gemeinfrei; Pete Linforth https://pixabay.com/en/chaos-complexity-complex-fractal-724096/)

Komplexes Verhalten ist einfach zu diagnostizieren

Im Gegensatz zur Frage, was zu Komplexität führt, lässt sich komplexes Verhalten einfach diagnostizieren.

Das typischste Merkmal ist, dass sich zukünftiges Verhalten kaum oder überhaupt nicht vorhersagen lässt. Die besten Beispiele sind allgemein bekannt: es sind die Probleme langfristige Prognosen zu Wetter oder Aktienmärkten zu erstellen.

Ein weiteres, leicht zu diagnostizierendes Merkmal komplexer Systeme ist das offensichtliche Fehlen kausaler Zusammenhänge. Wir sind in unserem täglichen Leben ja an lineare Kausalitäten - Ursache-Wirkung Beziehungen - gewohnt: entdecken wir irgendwo einen Defekt, so setzt unsere Reparatur direkt an diesem Fehler an - wir versuchen ihn zu eliminieren oder zu kompensieren. Dass es darüber hinaus "vernetzte Kausalitäten" gibt, dürfte vermutlich aus dem Beobachten und Manipulieren von Ökosystemen erkannt worden sein. Wird hier ein Schaden ausgebessert, kann dies zu Schäden an anderen Stellen führen - gewöhnlich gibt es dann kein anderes Mittel der Wahl als den ursprünglichen Zustand wiederherzustellen. Eines der heute sehr häufig erörterten Beispiele für das Fehlen einfacher Kausalitäten kommt aus der Pharmakologie: Auf Grund der hochkomplexen Netzwerke des Stoffwechsels, gibt es keine Arzneimittel, die nicht auch Nebenwirkungen hätten.

Was aber bedingt Komplexität?

Gibt es außer den oben genannten drei Faktoren - hohe Dimensionalität, Netzwerk-Wechselwirkungen und Nichtlinearität - weitere Gründe, die uns etwas komplex erscheinen lassen? Mit derartigen Gründen befasst sich dieser Essay und nennt:

  • fehlendes Wissen,
  • fehlende, zur Problemlösung erforderliche Methoden und
  • das Einbetten eines einfachen Systems in eine komplexe Umgebung.

Ein Beispiel für fehlendes Wissen

kommt aus der Astronomie der Antike. Im geozentrischen Pythagoreischen Weltbild drehten sich die Himmelskörper - Hohlkugeln - rund um die Erde. Aus der Vorstellung heraus, dass die Welt sich in vollkommener Harmonie befindet, mussten auch die Himmelskörper vollkommene Kugeln sein. Sonne und Mond boten hier kaum Probleme, die Bewegung der Planeten widersprachen aber jedem einfachen Modell, das ein einziges Zentrum der Rotation hatte. Es dauerte mehr als 600 Jahre bis Ptolemäus von Alexandria eine Lösung bereit hatte. Abbildung 2. Unter der Voraussetzung von nach wie vor perfekten Kugeln und gleichförmigen Rotationsgeschwindigkeiten zeigte er, dass für eine vollständige Beschreibung der Beobachtungen (die damals noch mit dem bloßen Auge erfolgten) vier Rotationszentren nötig waren. Das Ptolemäische Welt-System behielt bis zum Anbruch der Moderne - bis Nikolaus Kopernikus, Johannes Kepler und Isaak Newton - ihre Gültigkeit . Dann wurde die Komplexität dieses Systems in drei Schritten reduziert: das geozentrische System wurde von Kopernikus durch ein heliozentrisches ersetzt, an Stelle der vollkommenen Kugeln, Kreisbahnen und gleichförmigen Rotationsgeschwindigkeiten führte Kepler eine allgemeinere Form der planetaren Bewegungen auf Ellipsenbahnen ein, in deren einem Brennpunkt die Sonne steht. Abbildung 2. Newtons Gravitations-Gesetze schließlich ermöglichten eine vollständige Beschreibung aller Bewegungen - für die Berechnungen braucht man nur Informationen über die Massen der Körper und die Ausgangsbedingungen, d.i. die relativen Positionen und Geschwindigkeiten. Die Himmelsmechanik bietet zweifellos das beste Beispiel eines alten Problems, das mit zunehmendem Wissen - mathematisch nachvollziehbar - entmystifiziert und vereinfacht wurde.

Abbildung 2. Das Geozentrische Weltbild des Claudius Ptolemäus (oben) und das Heliozentrische Weltbild des Nikolaus Kopernikus (unten). Quelle gemeinfrei: Andreas Cellarius Harmonia Macrocosmica, 1660/6: links oben: "Scenographia systematis mvndani Ptolemaici." und links unten: "Scenographia Systematis Copernicani"; rechts oben: Wikimedia, rechts unten:Abbildung aus dem Werk: Kopernikus: De revolutionibus orbium coelestium(1543)

Das Fehlen geeigneter Methoden

Ein zweiter Grund, warum Dinge komplexer erscheinen, als sie tatsächlich sind, resultiert aus dem Fehlen geeigneter Methoden, um die Probleme zu analysieren und Modelle zu erstellen.

Empirische Wissenschaften basieren auf den zwei Fundamenten: der Theorie und dem Experiment. An der Zeitenwende vom 19. zum 20. Jahrhundert begannen Wissenschafter, aber auch die Öffentlichkeit, Fragen zu stellen, die eine neue Form schwierig zu lösender Probleme generierten. Ein großer Teil dieser Probleme ließ sich weder durch neue Theorien noch durch vorhandene experimentelle Methoden befriedigend angehen. Ein Beispiel dafür war ein von König Oskar II von Schweden initiiertes Preisausschreiben, der einen mathematischen Beweis für die Stabilität des Sonnensystems sehen wollte. Henri Poincare gewann diesen Preis, allerdings enthielten seine Rechnungen einen Fehler und führten zur unrichtigen Schlussfolgerung: "Das Sonnensystem ist stabil". Er war selbst imstande seinen Fehler zu korrigieren - den König ließ er dann mit dem nicht zufriedenstellenden Argument zurück: "Das Sonnensystem kann zerfallen - zugegebenermaßen mit einer sehr geringen Wahrscheinlichkeit".

Heute trägt Computer-unterstütztes Rechnen enorm zur Vereinfachung von Problemen jeglicher Art bei - es ist das dritte Bein, auf dem der wissenschaftliche Fortschritt weitergeht. Überaus komplexe Fragestellungen können mit Hilfe numerischer Methoden in Angriff genommen werden , dies gilt insbesondere für die erst jetzt mögliche Behandlung von stochastischen Prozessen (Zufallsprozessen).

Das Einbetten in eine komplexe Umgebung

Dass an und für sich einfache Reaktionen in ein komplexes Umfeld integriert sind, ist in der Biochemie und Molekularbiologie durchaus üblich. Ein typisches Beispiel dafür, ist die in allen Lehrbüchern beschriebene Glykolyse, eine Kette von aufeinanderfolgenden Reaktionen, in denen zwölf Enzyme die Umwandlung von Glukose in Milchsäure katalysieren. Abbildung 3. Alle diese Enzyme kennt man bereits sehr gut, man hat sie in der zweiten Hälfte des 20. Jahrhunderts isoliert, charakterisiert und ihre 3D-Kristallstruktur bestimmt. Die Einzelreaktionen und auch die gesamte Glykolyse sind ausreichend untersucht - als isolierte Systeme in vitro und in vivo in intakten Zellen und Organismen. Die Glykolyse stellt demnach ein einfaches System von Reaktionen dar, in dem zwei Schritte irreversibel sind. Dieses einfache, an sich nicht komplexe System liegt allerdings in den allgemeinen Stoffwechsel der anderen Zucker - Monosaccharide - eingebettet vor, die an unterschiedlichen Stellen der Reaktionskette mit der Glykolyse interferieren können und damit ein Netzwerk von Reaktionen bilden. Tatsächlich ist aber auch der Monosaccharid-Stoffwechsel nur ein winziges Segment des gesamten überaus komplexen Stoffwechsel-Netzwerkes in lebenden Zellen. Wer sich die Komplexität dieses Netzwerks vor Augen führen möchte, sollte einen Blick auf die (ursprünglich von Böhringer Mannheim herausgegebenen) "Biochemical Pathways" werfen.

Abbildung 3.Die Glykolyse ist eine relativ einfache Kette von aufeinanderfolgenden Reaktionen, in denen aus 1 Molekül Glukose 2 Moleküle Laktat entstehen (schwarze Pfeile: reversible, blaue Pfeile irreversible Schritte). Im Zellmilieu ist die Glykolyse in den Metabolismus der Zucker eingebettet (rot, nicht alle Zucker sind eingezeichnet). Dies ergibt ein komplexes Netzwerk von Reaktionen, dessen Komplexität bei Integration in den vollständigen Metabolismus der Zelle noch ungemein gesteigert wird. Pyruvate fliesst als Substrat in den Citronensäurecylus, kann auch in zwei Schritten zu Äthanol vergoren werden

Wie geht es weiter?

Fehlendes Wissen, fehlende Methoden zur Behandlung von Problemen und deren Einbettung in komplexen Systemen sind Beispiele, die zur Entstehung komplexen Verhaltens führen können - vermutlich gibt es noch zahlreiche weitere Auslöser. Die genannten Beispiele sollen aufzeigen, auf welche Weise wir in Zukunft komplexe Systeme angehen und erfolgreich bearbeiten können. Insbesondere in den Lebenswissenschaften besteht die dringende Notwendigkeit Komplexität zu reduzieren. Enorme Berge von Daten werden generiert und niemand weiß, ob die wichtigen Informationen wirklich gespeichert werden. Es ist auch nicht zu sehen, ob und wie schnell - im Sinne der Vision von Sidney Brenner - eine neue theoretische Biologie, ein "Newton des Grashalms", im Kommen ist. Zumindest hoffen aber viele Biologen, dass neue Konzepte entwickelt werden, welche die Datenflut und verwirrende Interpretationen vereinfachen.

Hier soll noch ein Punkt erwähnt werden, der komplexen Systemen in allen Gebieten - von der Physik der Elementarteilchen bis zu metabolischen Netzwerken - gemeinsam ist. Ergebnisse aus ausgedehntesten Computer-gestützten Berechnungen können kaum mehr mit dem menschlichem Auge, dem menschlichen Hirn überprüft werden. Das gleiche gilt auch für viele modernen Techniken, wie dem "high throughput screeining" - dem gleichzeitigen Testen von Tausenden Proben - oder beispielsweise für die bildgebenden Verfahren in der Mikroskopie und Tomographie. Wir müssen uns also auf unsere Computer und die verwendeten Rechenmodelle verlassen können.

Wer aber kontrolliert die Computer? Das ist wiederum nur über Computerprogramme möglich. Die Entwicklung von Software, die Computerprogramme prüft und korrigiert, ist ein überaus aktives Gebiet in der heutigen Informatik.


Weiterführende Links

Artikel von Peter Schuster zum Thema Komplexität im ScienceBlog:


 

inge Thu, 17.11.2016 - 05:25

Ist Evolution vorhersehbar? Zu Prognosen für die optimale Zusammensetzung von Impfstoffen

Ist Evolution vorhersehbar? Zu Prognosen für die optimale Zusammensetzung von Impfstoffen

Do, 03.11.2016 - 07:26 — Richard Neher

Richard NeherIcon BiologieWir sind umgeben von Mikroorganismen, die sich im Wettstreit ums Überleben ständig verändern. Im Unterschied zu Tieren und Pflanzen dauern solche Veränderungen nicht Tausende von Jahren, sondern oft nur einige Wochen. Um solch schnelle Evolution zu verstehen, benötigen wir neue theoretische Konzepte und müssen die evolutionäre Dynamik direkt beobachten. Die Forschungsgruppe rund um den Biophysiker Richard Neher (Arbeitsgruppenleiter am Max-Planck-Institut für Entwicklungsbiologie, Tübingen) entwickelt dazu Methoden und wendet sie auf Daten von Grippe- und HI-Viren an. Die Ergebnisse ermöglichen Vorhersagen der Zusammensetzung zukünftiger Viruspopulationen.

Virus-Evolution

Evolution gilt gemeinhin als ein langsamer Prozess, der nicht über einen Zeitraum von ein paar Jahren beobachtbar ist. Mikroorganismen hingegen verändern sich oft sehr schnell und können innerhalb von Wochen neue Eigenschaften entwickeln. Zu diesen Mikroorganismen gehören viele Krankheitserreger und deren stetige Anpassung kann dramatische Auswirkungen auf die Gesundheit von Menschen, Tieren und Pflanzen haben, besonders dann, wenn Erreger resistent gegen Medikamente werden.

Die rasante Entwicklung der Sequenzierungstechnologien ermöglicht es, die Veränderung und Ausbreitung von Krankheitserregern, wie zum Beispiel von Grippe-Viren, genau zu beobachten. Das Global Influenza Surveillance and Response System sequenziert jeden Monat Hunderte von Influenza-Viren. Um diese Daten intuitiv und in Echtzeit darzustellen und zu analysieren, hat die Forschungsgruppe um Richard Neher zusammen mit Wissenschaftlern aus Seattle die Webseite nextflu.org (Neher, R.A.; Bedford, T. nextflu: Real-time tracking of seasonal influenza virus evolution in humans, Bioinformatics 31, 3546-3548 (2015)) entwickelt. Abbildung 1 zeigt, wie die Webseite die zeitliche und geographische Ausbreitung von Grippe-Virus Varianten darstellt. Diese Art der Datenanalyse hilft, dass Impfstoffe rechtzeitig an sich verändernde Viren angepasst werden können. Bei anderen Virus Erkrankungen, wie zum Beispiel Ebola, können so Infektionsketten schnell identifiziert werden.

Abb. 1: Fortlaufend aktualisierter Stammbaum und Dynamik von Grippe-Viren, dargestellt auf nextflu.org. Unten rechts ist die Häufigkeit der Virusvarianten 3c2.a und 3c3.a über die Jahre 2013 bis 2015 dargestellt. © Max-Planck-Institut für Entwicklungsbiologie/Neher, Bedford

Neben der Überwachung der Evolution von Krankheitserregern können wir an den sich schnell verändernden Mikroorganismen evolutionäre Prozesse studieren, die in Eukaryonten Millionen von Jahren dauern würden. Die Fülle an Sequenzdaten aus mikrobiellen Populationen erlaubt Einblicke in die Triebkräfte und Gesetze der Evolution. Deren Verständnis wiederum hilft uns, Bedingungen zu definieren, die die Anpassung von Krankheitserregern verlangsamen. Auch Prognosen der Zusammensetzung und Eigenschaften zukünftiger Viruspopulationen rücken in greifbare Nähe. Diese Entwicklungen spielen sich an der Schnittstelle zwischen neuen Sequenzierungstechnologien, Mikrobiologie, Bioinformatik sowie mathematischer Theorie und Modellierung evolutionärer Prozesse ab.

Die Theorie sich schnell verändernder Populationen

Populationsgenetik beschreibt die Dynamik von Mutationen unter dem Einfluss von natürlicher Selektion, Rekombination und den vielfältigen zufälligen Prozessen im Lebenszyklus der Individuen. Traditionell befasst sich die Populationsgenetik mit der Evolution multizellulärer Eukaryonten. Typischerweise wird angenommen, dass die Mehrheit aller beobachteten Mutationen keinerlei Effekt auf den Phänotyp hat und sich nur gelegentlich diejenige Mutation durchsetzt, die Eigenschaften zum Positiven verändert. In Mikroorganismen und insbesondere in RNA-Viren, wozu die Grippe-Viren gehören, sind diese Annahmen nicht gerechtfertigt. Somit wird eine Theorie benötigt, die genau dieser Dynamik schnell adaptierender Populationen Rechnung trägt.

Die Max-Planck-Forschungsgruppe und weitere Wissenschaftlerinnen und Wissenschaftler haben in den letzten Jahren Modelle entwickelt, die der Dynamik mikrobieller Populationen Rechnung tragen und Vorhersagen der genetischen Diversität ermöglichen. Abbildung 2 zeigt schematisch die wesentlichen Züge eines solchen Modells. Individuen in der Population unterscheiden sich durch viele Mutationen, und diese genetische Diversität führt zu phänotypischer Diversität, die wiederum zu Diversität im Replikationserfolg, also der Fitness, führt. Da fitte Individuen im Mittel mehr Nachkommen haben, kommen die Vorfahren der Population typischerweise vom oberen Ende der Fitnessverteilung, während durchschnittliche Individuen auf lange Sicht keine Nachkommen hinterlassen. Der Wettstreit dieser Varianten kann mathematisch beschrieben werden. Diese Theorie liefert explizite Vorhersagen für die Eigenschaften der Stammbäume, die dann mit Sequenzdaten verglichen werden können.

Abb. 2: Schnell evolvierende Populationen sind divers und nur die fittesten Individuen setzen sich durch. Die Vorfahren zukünftiger Populationen kommen vom oberen Rand der Fitnessverteilung, wo seltene Ereignisse die Dynamik dominieren. © Max-Planck-Institut für Entwicklungsbiologie.

Die Evolution von Grippe-Viren ist vorhersehbar

Durch das Studium der Populationsmodelle haben wir verstanden, wie tendenziell erfolgreiche, also fitte Viren von weniger erfolgreichen anhand ihrer Genom-Sequenzen unterschieden werden können. Diese Vorhersagen beruhen auf Mustern im Stammbaum der Viren, der aus den Sequenzen rekonstruiert werden kann. Da die erfolgreichen Viren zukünftige Populationen dominieren, erlaubt diese Einsicht Vorhersagen über die Zusammensetzung zukünftiger Populationen.

Für Grippe-Viren sind zuverlässige Vorhersagen besonders relevant, da der Impfstoff gegen Influenza fast jedes Jahr aktualisiert werden muss. Innerhalb weniger Jahre können sich die Viren so stark verändern, dass veraltete Impfstoffe nicht mehr schützen. Die Produktion eines neuen Impfstoffes dauert allerdings mehr als ein halbes Jahr, sodass die Entscheidung über die Impfstoffzusammensetzung lange im Voraus getroffen werden muss. Hier können Vorhersagen, basierend auf einer auf Grippe-Viren bezogenen, neuen Evolutionstheorie, konkret helfen.

Die Forschungsgruppe hat die Vorhersagen ihrer Theorie mit der Evolution von Grippe-Viren zwischen 1995 und 2014 verglichen. Es zeigte sich, dass in fast allen Jahren die Methode eine Virusvariante identifizierte, die nahe an der zukünftigen, tatsächlich aufgetretenen Population lag – in vielen Jahren fiel die Wahl sogar auf die beste Virusvariante. Momentan verfeinern die Wissenschaftlerinnen und Wissenschaftler diese Methode, um der Weltgesundheitsorganisation (WHO) optimale Prognosen für die Impfstoffzusammensetzung zu liefern.

Evolution von HIV im Patienten

Ein weiteres Beispiel schneller Evolution ist die Anpassung von HIV an das individuelle Immunsystem des Wirts. Dieser Prozess passiert jedes Mal wieder, wenn sich ein Mensch mit HIV infiziert. Um diesen Prozess im Detail zu studieren, haben die Max-Planck-Forscher zusammen mit Jan Albert vom Karolinska Institut in Stockholm archivierte Proben von elf Patienten untersucht. Für jeden dieser Patienten standen ihnen fünf bis zwölf Proben zur Verfügung, die die HIV-Infektion von Beginn an über viele Jahre hinweg repräsentieren. Jede Probe enthält Tausende HIV-Genome, die die Wissenschaftlerinnen und Wissenschaftler mit modernen Sequenzierungsmethoden entschlüsseln konnten. Solche Zeitserien von Proben sind im Grunde wie Filme zu betrachten, dank derer die Forscher nachvollziehen können, wie sich die Virus-Population über die Zeit verändert hat.

Abbildung 3 zeigt die Dynamik von Mutationen in einem kleinen Abschnitt des HIV-Genoms innerhalb eines HIV-positiven Menschen. Innerhalb der 350 Basen werden in diesem Beispiel zehn Mutationen beobachtet, die sich durchsetzen. Noch sehr viel mehr Mutationen findet man als seltene Varianten unter 10% in der Population. Anhand solcher Daten konnten die Forscher zum Beispiel zeigen, dass HIV eine Art optimale Sequenz hat und rund ein Drittel aller Veränderungen Reversionen zurück zu dieser optimalen Sequenz darstellen.

Abb. 3: Die Dynamik von Mutationen im HIV-Protein p17 innerhalb eines HIV-positiven Patienten. Viele Mutationen setzen sich in der Population durch, noch sehr viel mehr erscheinen nur transient. © Max-Planck-Institut für Entwicklungsbiologie, verändert.

Ursprünglich sind diese suboptimalen Varianten vermutlich entstanden, als das Virus dem Immunsystem ausweichen musste. In einem neuen Wirt mit einem anderen Immunsystem können, so wird angenommen, solche Veränderungen dann rückgängig gemacht werden. Diese und andere Resultate zeigen, dass HIV-Populationen problemlos jede mögliche Mutation entdecken können und aus der Fülle an möglichen Mutationen fast deterministisch jene selektieren, die die Virusreplikation insgesamt beschleunigen. Diese Annahme zu prüfen und weitere Methoden zur Vorhersage von Virus-Evolution zu entwickeln, wird die Forscher in Zukunft weiter beschäftigen.


* Der, unter dem Titel "Ist Evolution vorhersehbar? " im Jahrbuch der Max-Planck Gesellschaft 2016 erschienene Artikel (http://www.mpg.de/9826795/MPI_EB_JB_2016) wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier geringfügig für den Blog adaptiert und ohne die im Original ersichtlichen, nicht frei zugänglichen Literaturstellen (diese können auf Anfrage zugesandt werden).


Weiterführende Links

Artikel im ScienceBlog


 

inge Thu, 03.11.2016 - 07:26

Ist Leben konstruierbar? Minimalisierung von Lebensprozessen

Ist Leben konstruierbar? Minimalisierung von Lebensprozessen

Do, 27.10.2016 - 05:13 — Petra Schwille

Petra SchwilleIcon BiologieTrotz der Erfolgsgeschichte der Biowissenschaften in den letzten Jahrzehnten wissen wir die Frage, wo die Trennlinie zwischen belebter und unbelebter Natur genau verläuft, noch immer nicht überzeugend zu beantworten. Eines der wichtigen Kennzeichen der uns bekannten belebten Systeme ist ihre enorme Komplexität. Ist diese aber eine notwendige Bedingung? Die Biophysikerin Petra Schwille (Direktorin am Max-Planck Institut für Biochemie, München) versucht zusammen mit ihrem Team belebte Systeme auf nur wenige Grundprinzipien zu reduzieren. Ihr Ziel ist eine durchweg biophysikalisch, quantitativ beschreibbare und aus definierten Ausgangskomponenten zusammengesetzte Minimalzelle. Auf dem Weg zu einem künstlichen, sich selbst organisierenden Minimalsystem der Zellteilung wurde bereits ein aufsehenerregender Erfolg erzielt .*

Synthetische Biologie in biophysikalischer Perspektive

Unsere Kenntnis dessen, welche Prozesse in lebenden Zellen ablaufen und auf welchen Molekülen sie beruhen, hat in den letzten 50 Jahren enorme Ausmaße angenommen. Wir verstehen immer besser, was in der Informationszentrale der verschiedenen Zellen, ihrer DNA, geschrieben steht, welche komplexen Proteinmaschinen in ihnen hergestellt werden und haben einen Begriff von der Breite und Vielfalt der Interaktionsnetzwerke dieser Proteine. Bereits in einfachen Zellen ähneln diese Netzwerke mit ihrer Vielzahl von Akteuren, Wechselwirkungen und Schaltstellen, an denen verschiedene Prozessketten zusammenlaufen, durchaus dem Internet als dem vermutlich komplexesten Netzwerk, das wir heute kennen.

Unsere modernen Analysemethoden erlauben uns mittlerweile bereits riesige Proteine bis auf ihre Einzelatome herab abzubilden oder einzelnen Molekülen in der Zelle bei der Arbeit zuzuschauen. Damit legen sie es nahe, über die Biologie immer mehr auch in technologischen Konzepten nachzudenken, sie also wie jedes technische System in einzelne wohldefinierbare und verstehbare Funktionsmodule zu zerlegen. Mit dem zunehmenden Wissen über diese Module und deren Handhabung entsteht wie in anderen wissenschaftlichen Disziplinen zuvor - das letzte Mal in der Chemie vor etwa 100 Jahren - der Drang, nicht nur zu analysieren, sondern diese Module ganz neu zu kombinieren, also nicht nur Analyse, sondern auch Synthese zu betreiben. Wie damals aus der analytischen die synthetische Chemie entstanden ist, der wir einen nicht unerheblichen Teil der uns umgebenden Welt verdanken, so entsteht gegenwärtig aus der analytischen Biologie die synthetische Biologie.

Diese Synthetische Biologie kann man nun mit verschiedenen Zielen betreiben:

  • Das eine Ziel, das insbesondere aus der angewandten Biotechnologie kommt, ist es, lebende Organismen, die als Produktionssysteme für neue Medikamente, Chemikalien, Materialien oder Energie eingesetzt werden, so zu verändern, dass deren Herstellung effizienter oder überhaupt erst möglich wird.
  • Das andere Ziel ist fundamentaler, es beruht auf der Frage, ob es so etwas wie einen Basissatz von Funktionsmodulen, also Molekülen und ihren Wechselwirkungen, gibt, mit dem Leben überhaupt beginnt. Diese Spielart nennen wir bottom-up, also Synthese lebender Systeme von unten, aufbauend auf einzelnen molekularen Bausteinen (Abbildung 1). Ob so etwas im Labor überhaupt möglich ist, ist ungewiss, allerdings hat die Natur selbst diesen Schritt vor etwa 3,5 Milliarden Jahren vollzogen.

Abbildung 1. Welche Minimalausstattung an Molekülen und Prozessen benötigt eine Zelle? Dieser Frage kann man sich von zwei Seiten nähern, von oben (top down), indem lebenden Zellen nicht unbedingt erforderliche Module entnommen werden, oder von unten (bottom-up), indem gerade nur so viele essenzielle Module, das heißt, funktionale Moleküle, zusammengebracht werden, dass das Gesamtsystem die lebensnotwendigen Kennzeichen des Lebens zeigt. © Max-Planck-Institut für Biochemie/Schwille

Die Attraktivität des bottom-up Ansatzes für die Biophysik ist offensichtlich: Erstmals wären nicht nur Teilsysteme und Aspekte lebender Zellen quantitativ und durchgängig erfassbar, sondern auch das Gesamtsystem der - minimalen - Zelle. Erst dann könnte man von einem wirklichen physikalischen Verständnis des Phänomens Leben reden.

Bis dahin ist es aber noch ein weiter Weg. Nicht nur kennen wir die Moleküle und Bedingungen nicht mehr, die auf der Erde oder sonst im Universum an der Entstehung des Lebens beteiligt waren, sondern unsere heutigen Organismen haben sich im Laufe dieser langen Zeit durch Evolution auch so weit davon fortentwickelt, dass eine rückwärtige Extrapolation praktisch unmöglich ist. Der einzige Ansatzpunkt ist der Versuch, bekannte biologische Teilsysteme und Phänomene ihrerseits auf eine nicht Organismus spezifische Quintessenz hin zu analysieren. Dies geschieht durch eine sogenannte Rekonstitution, also den Transfer eines Prozesses in zellfreie Systeme, wo er isoliert vom zellulären Kontext analysiert und verstanden werden kann.

Ein minimaler Zellteilungsapparat?

Welche Funktionen lebender Systeme mit Hilfe eines bottom-up Ansatzes zuerst nachgestellt werden sollen, hängt natürlich von der wissenschaftlichen Schwerpunktsetzung ab. Unsere Forschung hat sich zunächst eine Rekonstitution der Zellteilung zum Ziel gesetzt.

Welche Minimalausstattung von (Protein-) Funktionselementen ist hierfür nötig?

Die Hülle der meisten heutigen Zellen besteht im Wesentlichen aus einer Membran - einer Sandwichstruktur aus sogenannten Lipiden. Lipide sind Fettsäuremoleküle mit einem wasserlöslichen und einem wasserunlöslichen Ende. Lagern sie sich in wässriger Umgebung spontan zusammen, entstehen seifenblasenähnliche Vesikel. In diesen Blasen können sich alle Stoffe sammeln, die auch in Wasser löslich sind. Die Membranblasen sind zwar sehr weich und leicht verformbar, aber praktisch undurchdringbar für größere Moleküle. Die ideale Struktur also, um eine minimale Zelle zu begrenzen. Doch wie können sich jetzt in diesen einfachen Seifenblasen so etwas wie Strukturen ausbilden? Wie können die eingeschlossenen Moleküle erfassen, was und wie groß genau ihre Hülle ist und vor allem: Wie können sie diese Hülle zur Teilung bringen?

Das Bakterium Escherichia coli

Diese Aufgaben sind in allen heute bekannten Zellen auf so komplizierte Weise geregelt, dass der Nachbau einer dieser Zellteilungsmaschinerien, auch schon von primitiven Mikroorganismen, eine Herkulesaufgabe zu sein scheint. Und doch gibt es Motive und Moleküle, die so interessant und vielversprechend sind, dass sie sich als Modelle zum Nachbau geradezu anbieten. So zeigt zum Beispiel das Bakterium Escherichia coli, eines der „Haustierchen“ der modernen Biotechnologie, eine höchst bemerkenswerte Abfolge von Prozessen bei der Zellteilung: Das Bakterium ist stäbchenförmig und wächst in Längsrichtung, bis es ab einer bestimmten Länge einen sogenannten Teilungsring aus Proteinen ausbildet, der sich durch eine bislang nicht verstandene Kraft zusammenzieht und die Zelle in zwei Tochterzellen abschnürt.

Wie „weiß“ nun aber dieser Ring, wo die Mitte ist, und wie kommt er dort hin?

Der Positionierung dieses bakteriellen Teilungsrings liegt ein spektakulärer Musterbildungsmechanismus zugrunde. Hierfür organisieren sich die sogenannten MinDE Proteine unter Nutzung der zellulären Energiewährung ATP derart, dass sie im Minutentakt zwischen den beiden Polen des Bakteriums hin und her oszillieren. Durch diese Oszillation entsteht im zeitlichen Mittel eine höhere Konzentration an den Polen als in der Mitte. Und ein drittes Protein MinC sorgt dafür, dass sich nur dort, wo die anderen Proteine nicht sind, der Ring anlagern kann, also in der Mitte. Durch die unterschiedliche „Laufzeit“ der Oszillationen kann die Zelle auch genau bestimmen, bei welcher Länge sie eine Teilung durchführt (Abbildung 2).

Abbildung 2. Pol-zu-Pol Oszillation der Proteine MinD und MinE zur Ausbildung des Teilungsrings in Escherichia coli. Nähere Erläuterungen im Text. © Max-Planck-Institut für Biochemie/Schwille

Dass der Ausbildung dieser Oszillationen ein sehr einfacher Reaktionsmechanismus zugrunde liegt, der tatsächlich nur auf der Wechselwirkung zweier verschiedener Molekülarten, einer Membran und der Energiewährung ATP beruht, konnten wir in den letzten Jahren durch Rekonstitution von MinD und MinE auf künstlichen Membranen zeigen. Auf nicht begrenzten Oberflächen entstehen anstelle von Oszillationen fortschreitende Konzentrationswellen, die alle Kennzeichen selbst organisierter Systeme zeigen (Abbildung 3). Der Positionierungsapparat funktioniert also offenbar tatsächlich bereits in minimaler Form.

Abbildung 3. Selbstorganisationsmuster, die im Reagenzglas durch Rekonstitution der gereinigten Proteine MinD und MinE auf einer künstlichen Membran entstehen. © Max-Planck-Institut für Biochemie/Schwille.

Rekonstitution zellulärer Oszillationen und Vorstadien der Zellteilung

Im nächsten Schritt wurde untersucht, ob die MinDE-Konzentrationswellen in begrenzten Volumina wie Zellen tatsächlich Oszillationen ausbilden und auf diese Weise eine raumzeitliche Positionierung des Teilungsringes erreichen können. Hierzu wurden mithilfe der Mikrosystemtechnik kleine zellähnliche Kompartimente in Silikon erzeugt und mit Membran ausgekleidet. Formt man die Kompartimente in derselben Weise wie eine Bakterienzelle, entstehen bei Zugabe des Teilungsproteins FtsZ tatsächlich nach einiger Zeit allein durch Selbstorganisation der Proteine in der Mitte scharfe Konzentrationsprofile, die der Vorstufe des bakteriellen Teilungsrings entsprechen (Abbildung 4).

Abbildung 4. Rekonstitution einer Teilungszone als Vorstadium des Teilungsrings in minimalen Zellmodellen. (A) zellähnliche Kompartimente in Silikon, die durch Mikrostrukturtechnik hergestellt werden, (B) Gegenoszillationen der Min-Proteine (rot) und der Ringproteine (blau), (C-E) Durch Selbstorganisation eingestellte Konzentrationsprofile mit Vorstufen des Teilungsrings (blau). © Max-Planck-Institut für Biochemie/Schwille

Fazit

Hiermit sind wichtige Meilensteine hin zu einem Minimalsystem der bakteriellen Zellteilung bereits erreicht, weitere Ziele wie die Rekonstitution dieser Proteinmaschinerie in leicht verformbare Membranvesikel stehen noch aus. Natürlich ist auch ein sich autonom teilendes System noch lange kein Leben, aber doch eine essenzielle Vorstufe, an die sich weitere wichtige Funktionselemente wie die autonome Energieerzeugung (Metabolismus) und vor allem die Replikation einer Informationseinheit (DNA/RNA) anschließen müssen.


* Der, unter dem Titel "Minimalisierung von Lebensprozessen" im Jahrbuch der Max-Planck Gesellschaft 2016 erschienene Artikel (https://www.mpg.de/9839917/MPIB_JB_20161?c=10583665, DOI 10.17617/1.2K) wurde mit freundlicher Zustimmung der Autorin und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier geringfügig für den Blog adaptiert und ohne die im Original ersichtlichen, nicht frei zugänglichen Literaturstellen (diese können auf Anfrage zugesandt werden).


Weiterführende Links


 

inge Thu, 27.10.2016 - 05:13

Wissensvermittlung - Wiener Stil. 30 Jahre Wiener Vorlesungen

Wissensvermittlung - Wiener Stil. 30 Jahre Wiener Vorlesungen

Do, 20.10.2016 - 09:25 — Inge Schuster

Inge SchusterIcon GebietSeit 1987 gibt es die Wiener Vorlesungen. Hubert Christian Ehalt, Historiker, Soziologe und Wissenschaftsreferent der Stadt Wien (und auch einer unser ScienceBlog Autoren) hat diese Initiative ins Leben gerufen und organisiert sie seitdem mit grenzenlosem Enthusiasmus und ungeheurem Arbeitseinsatz. Als Referenten fungieren führende Wissenschafter, Künstler, Experten und Politiker des In-und Auslands, die ein breites Spektrum an Themen - von Sozial-und-Kulturwissenschaften, (Gesellschafts)politik bis hin zu naturwissenschaftlichen und medizinischen Fragestellungen - diskutieren. Bis jetzt fanden 1500 Veranstaltungen - meistens im Festsaal des Wiener Rathauses - mit insgesamt rund 5000 Vortragenden statt. Öffentlich frei zugänglich erfreuen sich die Vorlesungen großer Beliebtheit - Tausend und mehr Besucher sind keine Seltenheit.

"Wenn wir wollen, dass alles so bleibt, wie es ist, müssen wir alles verändern"

Giuseppe Tomasi:" Il Gattopardo"

Nichts beschreibt das offensichtliche Lebensmotto von Christian Ehalt besser, als der Ausspruch aus dem Roman "Il Gattopardi" (auf Deutsch nicht ganz richtig mit "Der Leopard" übersetzt), den er am vergangenen Montag zitiert hat. Anlass war eine Feier im Wiener Rathaus zu seinen "Wiener Vorlesungen", die nun ins dreißigste Jahr ihres Bestehens gehen.

Entsprechend dem obigen Motto wollte und will der Sozialhistoriker Ehalt den ständigen Veränderungsprozess, dem wir alle ausgesetzt sind, nicht passiv miterleben sondern die Möglichkeit nutzen diesen Wandel aktiv mitzugestalten. Dies hat er u.a. mit seinem Konzept der "Wiener Vorlesungen" bewirkt. Als Wissenschaftsreferent der Stadt Wien für die Förderung von Wissenschaft und Forschung zuständig, hat Ehalt im Jahr 1987 mit diesen Vorlesungen ein - wie er es ausdrückt - "intellektuelles Scharnier zwischen den Wiener Universitäten und dem Rathaus" geschaffen.

Was sind nun die "Wiener Vorlesungen"?

Die Information auf der Webseite der Stadt Wien nimmt sich eher sehr bescheiden aus:

"Die Wiener Vorlesungen laden wichtige Persönlichkeiten des intellektuellen Lebens in die Festsäle des Rathauses, um Analysen und Befunde zu den großen aktuellen Problemen der Welt vorzulegen. Seit 2. April 1987 sind die Wiener Vorlesungen das Dialogforum der Stadt Wien im Rathaus: öffentlich und frei zugänglich, kritisch, am Puls der Zeit.

Seither analysieren, befunden und bewerten die Wiener Vorlesungen die gesellschaftliche, politische und geistige Situation der Zeit."

Es ist auch vermerkt, dass die Konzeption und Koordination dieses Dialogforums Christian Ehalt innehat. Erst, wenn man dann unter den einzelnen Links auf der Seite nachsieht, wird man sich der enormen Dimensionen bewusst , welche die Wiener Vorlesungen inzwischen angenommen haben: enorm, sowohl was die Zahl der Veranstaltungen betrifft als auch das immens weite Spektrum der behandelten Themen. Dazu kommt deren Anspruch auf höchste Qualität und auch darauf schwierigste Sachverhalte leichtverständlich zu vermitteln.

Das Ausmaß der Veranstaltungen:

Unter dem Link "Veranstaltungsarchiv" findet man Titel und Referenten aller Vorträge: bis jetzt haben 1500 Veranstaltungen - Vorträge und/oder Diskussionen - stattgefunden mit insgesamt rund 5000 Referenten. Auf die einzelnen Jahre umgelegt sieht dies etwa so aus (Abbildung 1): Abbildung 1. Wiener Vorlesungen. Nach einer Anfangsphase hat sich die Zahl der jährlichen Veranstaltungen auf rund 50 eingependelt (für 2016 gibt es noch nicht alle Termine). Erfreulicherweise ist ein beträchtlicher Anteil naturwissenschaftlich/medizinischenThemen gewidmet. (Daten zusammengestellt aus: https://www.wien.gv.at/kultur/abteilung/vorlesungen/Veranstaltungsarchiv).

Im Schnitt finden also jährlich rund 50 Veranstaltungen statt; wie oben erwähnt, konzipiert und koordiniert von Christian Ehalt, der - mit Enthusiasmus und ungeheurem Arbeitseinsatz - dazu noch mindestens die Hälfte der Veranstaltungen moderiert und die Diskussionen leitet.

Ein Projekt der Aufklärung des 21. Jahrhunderts

Nicht minder imposant wie die Zahl der Vorlesungen ist das immens breite Spektrum der Themen: Fachgrenzen überschreitend werden brennende Probleme der Gegenwart, Fragen des sozialen und kulturellen Lebens diskutiert, nach den biologischen Grundlagen des Lebens und den Möglichkeiten dieses gesund und lang zu erhalten, gesucht.

Die Grenzen zum Bürger überschreitend bieten die Wiener Vorlesungen eine beispielgebende Form von Volksbildung - Aufklärung über die Welt, in der wir leben und wie wir darin leben -, die von den Besuchern geschätzt wird. Tausend und mehr Besucher im Festsaal des Rathauses sind keine Seltenheit.

Eine Zusammenstellung wesentlicher Themen ist in Form einer Schlagwortwolke in Abbildung 2 gegeben: bei der riesigen Fülle an unterschiedlichen, transdisziplinären Vortragsinhhalten wären zweifellos noch wichtige Ergänzungen anzubringen, auch bietet die Darstellung keine korrekte Gewichtung der einzelnen Themen.

Abbildung 2. Wesentliche Themen der Wiener Vorlesungen.

Wer sich über die Themenvielfalt informieren möchte, sollte am besten auf der oben erwähnten Webseite der Wiener Vorlesungen nachsehen. Medienberichte und auch ein einschlägiger Artikel in Wikipedia betonen vor allem die politischen, gesellschaftlichen und kulturellen Angebote und verschweigen, dass ein nicht unerheblicher Anteil der Vorlesungen (zum Teil bahnbrechende) naturwissenschaftliche Erkenntnisse und mögliche Durchbrüche in der medizinischen Forschung betrifft. (Auch die Reden anlässlich der 30-Jahr Feier der Wiener Vorlesungen haben da keine Ausnahme gemacht.)

Wissenschaft wirksam machen

Die Wiener Vorlesungen bieten also:

  • Ein ungemein breites Spektrum an hochaktuellen Themen: nach dem Motto "wer vieles bringt, wird manchem etwas bringen" wird nahezu jeder für ihn interessante Themen vorfinden.
  • Wissenschafter zum Anfassen: Es ist ein Reigen prominenter Wissenschafter - darunter zahlreiche Nobelpreisträger - , Künstler, Philosophen und Politiker aus dem In- und Ausland, die als Referenten in den Wiener Vorlesungen fungieren und mit denen das Publikum auf Augenhöhe diskutieren kann.
  • Wissenschaft als Fest: die meisten Veranstaltungen finden im prächtigen Festsaal des Wiener Rathauses statt; trotz seiner riesigen Dimensionen ist dieser häufig bis auf den letzten Platz gefüllt.
  • Wissenschaft zum Nulltarif: die Veranstaltungen sind öffentlich und gratis für jeden zugänglich.
  • Wissenschaft ohne Grenzen: Kooperationen mit den TV-Sendern ORF III und OKTO ermöglichen Interessierten auch außerhalb Wiens die Vorlesungen mitzuerleben. Zu knapp 60 Vorlesungen gibt es im Netz frei abrufbare Videos. Eine Reihe von Vorträgen liegt in 300 Bänden zum Nachlesen vor.

Fazit:

Die Wiener Vorlesungen sind aus dem kulturell-geistigen Leben Wiens nicht mehr wegzudenken. Man kann jedem nur empfehlen an der einen oder anderen Vorlesung teilzunehmen!

Lieber Christian Ehalt:

Was du hier tust, ist sehr wichtig, wir brauchen das und wollen das auch weiterhin!


Links:

Wiener Vorlesungen - das Dialogforum der Stadt Wien 61 Videos diverser Vorlesungen

Hubert Christian Ehalt in ScienceBlog:

06.02.2015: Herausforderung Alter(n) – Chancen, Probleme und Fragen einer alternden Gesellschaft


 

inge Thu, 20.10.2016 - 09:25

Von Mäusen und Menschen: Gene, die für das Überleben essentiell sind.

Von Mäusen und Menschen: Gene, die für das Überleben essentiell sind.

Do, 13.10.2016 – 13:53 — Francis S. Collins

Francis S. CollinsIcon MedizinDer enormen internationalen Anstrengung, die vor 13 Jahren zur Entschlüsselung des menschlichen Genoms führte, hat sich ein nicht minder gewaltiges Projekt angeschlossen: ein internationales Forschungs-Konsortium strebt an die Funktion jedes einzelnen der rund 20 000 Gene im Organismus aufzuklären und deren mögliche Rolle in der Entstehung von Krankheiten festzustellen. Da praktisch alle humanen Gene ihre Entsprechung im Mäusegenom haben (das kurz nach dem humanen Genom entschlüsselt wurde), erfolgt nun eine systematische Untersuchung der Merkmale (des Phänotyps) von Mäusen, bei denen jeweils eines der 20 000 Gene ausgeschaltet wurde ("Gen-Knockout"). Der Chemiker und Mediziner Francis Collins, Direktor der US National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project" weist hier auf den eben erschienenen, richtungsweisenden Bericht des Konsortiums über die erste Phase des Projekts hin.*

Wahrscheinlich betrachten viele Menschen Mäuse nur als unerwünschte Schädlinge in ihrem Haushalt. Tatsächlich erweisen sich Mäuse für die medizinische Forschung bereits seit mehr als einem Jahrhundert als unglaublich wertvoll. Um eines unter den vielen Beispielen zu nennen: Untersuchungen an Mäusen helfen gegenwärtig den Forschern zu verstehen wie die Genome von Säugetieren - das menschliche Genom miteingeschlossen - funktionieren. Wissenschafter haben Jahrzehnte damit zugebracht einzelne Gene in Labormäusen zu inaktivieren oder "Knockouts" zu generieren, um daraus abzuleiten, welche Gewebe oder Organe betroffen sind, wenn ein spezielles Gen defekt ist und damit dann wichtige Informationen über dessen Funktion zu erhalten. Abbildung 1.

Abbildung 1. Symbolbild zum Knockout Maus Projekt (KOMP) (Bild: "Courtesy: National Human Genome Research Institute", https://www.genome.gov/)

Vom Knockout Maus Projekt (KOMP)…

Vor mehr als zehn Jahren hat das NIH ein Projekt mit dem Namen Knockout Mouse Project (KOMP) gestartet [1]. Das Ziel war es in embryonalen Stammzellen eines Standard Mäusestamms mittels homologer Rekombination ( d.i. Austausch von ähnlichen oder identischen Sequenzen der DNA) alle für Proteine kodierende Gene auszuschalten. Die aus dieser Arbeit hervorgehenden Zelllinien wurden weithin Forschern, die an speziellen Genen interessiert waren, zur Verfügung gestellt und damit Zeit und Geld gespart.

…zum Internationalen Knockout Maus Konsortium

Eine Zelllinie mit einem Knockout-Gen herzustellen, ist eine Sache; wesentlich interessanter (und herausfordernder) ist es den Phänotyp, die beobachtbaren Charakteristika, jedes Knockouts zu bestimmen. Um diesen Prozess nach streng wissenschaftlichen Kriterien und in systematischer Weise zu beschleunigen, sind das NIH und andere Forschungsförderungs-Institutionen zusammengetreten, und haben ein internationales Forschungskonsortium ins Leben gerufen. Abbildung 2. Das Ziel dieses Konsortium ist es von den manipulierten embryonalen Stammzellen Mäuse zu generieren und schlussendlich die Funktion der rund 20 000 Gene, die Menschen und Mäuse gemeinsam haben, zu katalogisieren.

Abbildung 2. Knockout Mouse Project (KOMP) and Knockout Mouse Production and Phenotyping (KOMP2)  (Bild aus: Colin Fletcher (2013), https://commonfund.nih.gov/sites/default/files/CF-KOMP1-2_for_web.pdf)

Bericht über die erste Phase des Projekts

Über die Phänotypen der ersten 1 751 neuen Linien von Knockout Mäusen ist eben eine Analyse des Konsortiums (des International Mouse Phenotyping Consortium) im Fachjournal Nature erschienen [2], Daten zu wesentlich mehr Knockout-Stämmen sollen in den nächsten Monaten folgen. An den Untersuchungen waren Wissenschafter (insgesamt 84 Autoren, Anm. Red) von drei Kontinenten beteiligt, unter der Leitung von Stephen Murray (Jackson Laboratory, Bar Harbor, ME) und anderen hervorragenden Forschern.

Die Forscher haben die zur Verfügung stehenden Ressourcen an manipulierten embryonalen Stammzelllinien (s.o.) genutzt, um 1 751 Stämme von Knockout Mäusen zu generieren, die bisher noch nicht untersucht worden waren. Jeder Stamm trug zwei inaktivierte Kopien eines Gens auf einem ansonsten genetisch identen Genom. Die Studie zeigt, dass es sich bei 410 der insgesamt 1751 Gene um essentielle Gene handelt, deren Ausfall mit einer Lebendgeburt nicht vereinbar ist.

Knockouts essentieller Gene

Um über diese essentiellen Gene mehr herauszufinden, haben die Forscher ein ausführliches Procedere entwickelt, das ein präzises Timing für das Absterben von Embryos erlaubte. Sie verwendeten auch das aktuellste, hochauflösende 3D-bildgebende Verfahren, um Probleme in der (embryonalen) Entwicklung zu entdecken, die ansonsten unter den Tisch gefallen wären.

Zu den am häufigsten beobachteten Anomalien zählte eine Verlangsamung von Wachstum und embryonaler Entwicklung. Es gab auch zahlreiche Anomalien in der Entwicklung des kardiovaskulären Systems, Missbildungen des Schädels und des Gesichts und Defekte in der Entwicklung der Gliedmaßen.

Dass die Mausdaten Relevanz für das Verstehen humaner Krankheiten haben dürften, wiesen die Forscher nach, indem sie zeigten, dass mit Funktionsverlust einhergehende Mutationen in essentiellen Mausgenen, in den entsprechenden Genen gesunder Menschen kaum auftreten. Dies deutet darauf hin, dass diese Gene auch für Leben und Gesundheit des Menschen essentiell sind und geeignete Ansatzpunkte darstellen um nach Antworten zu Fehlgeburten, Totgeburten oder auch ungeklärten genetischen Gegebenheiten des Menschen zu suchen.

Es gab auch Überraschungen. Obwohl alle Forscher in dem Konsortium ihre Untersuchungen nach standardisierten Protokollen ausführten und die embryonalen Mäuse das exakt gleiche Set an Genen aufwiesen, zeigten diese nicht immer die gleichen physischen Merkmale, das gleiche Endergebnis - Leben oder Tod. Diese Befunde weisen darauf hin, dass neben den Genen und Umweltfaktoren noch weitere, anscheinend zufällige, Ereignisse während des Entwicklungsprozesses eine wichtige Rolle spielen können.

Outlook

Die Untersuchungen laufen weiter. Tatsächlich hat das Konsortium bereits Daten zu mehreren Hundert weiteren Knockout-Mäusen vorliegen, die darauf warten analysiert zu werden. Alles, was an Ergebnissen anfällt, wird in Echtzeit Wissenschaftern aus aller Welt frei zur Verfügung gestellt, die diese nach Bedarf nutzen und darauf aufbauen können. Das Konsortium macht auch die Knockout-Mäuse selbst verfügbar, um anderen Forschern noch detailliertere Untersuchungen zu ermöglichen.

Es zeigt sich hier, welch ein außergewöhnlicher Fortschritt in der Biomedizin erzielt werden kann, wenn Wissenschafter aus aller Welt sich als Team um ein gemeinsames Vorhaben zusammenscharen, um ein gemeinsames Ziel zu erreichen. Das ist eine großartige Quintessenz!


*Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:" Of Mice and Men: Study Pinpoints Genes Essential for Life" zuerst (am 20. Septemberi 2016) im NIH Director’s Blog:. https://directorsblog.nih.gov/2016/09/20/of-mice-and-men-study-pinpoints.... . Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


[1] Knockout Mouse Project (KOMP) Repository (University of California, Davis and Children’s Hospital Oakland Research Institute). ] Knockout Mouse Project (KOMP) Repository [2] Dickinson ME, et al.,(insgesamt 84 Autoren), Nature. 2016 Sep 14. High-throughput discovery of novel developmental phenotypes.

Links zu den Konsortien:


Weiterführende Links

International Mouse Phenotyping Consortium (IMPC) Overview. Video 2:00 min (englisch)

The Human Genome: Collaboration is the New Competition. Dr. David Haussler | TEDxSantaCruz (Juli 2015); Video: 15:55 min (englisch, leicht verständlich).


 

inge Thu, 13.10.2016 - 15:30

Autophagie im Rampenlicht - Zellen recyceln ihre Bausteine. Nobelpreis für Physiologie oder Medizin 2016

Autophagie im Rampenlicht - Zellen recyceln ihre Bausteine. Nobelpreis für Physiologie oder Medizin 2016

Fr, 07.10.2016 - 08:57 — Redaktion

RedaktionIcon MedizinDer diesjährige Nobelpreis für Physiologie oder Medizin [1] geht an Yoshinori Ohsumi, der die Grundlagen zum Verständnis der Autophagie geschaffen hat. Autophagie - ein fundamentaler Mechanismus in eukaryotischen Zellen - ist ein Selbstverdauungsprozess: wenn Zellen hungern oder gestresst werden, bauen sie überschüssige und/oder beschädigte Proteine und Zellorganellen ab und erzeugen daraus neue Bausteine, die für ihr Überleben essentiell sind.

"The one who is finally awarded the Prize has made a discovery that has changed the paradigm in an area of physiology or medicine, one who has changed our understanding of life or the practice of medicine." Göran Hansson, Sekretär des Nobelkomitees für Physiologie oder Medizin.

Abbildung 1. Yoshinori Ohsumi (Jg.1945) , Tokyo Institute of Technology, Tokyo, Japan. http://www.ohsumilab.aro.iri.titech.ac.jp/english.html

Es kommt nicht allzu häufig vor, dass der Nobelpreis einem einzelnen Wissenschafter verliehen wird. Yoshinori Ohsumi (Tokyo Institute of Technology), der diesjährige Laureat für Physiologie oder Medizin, ist einer von gerade einmal sieben Forschern, die in diesem überaus weitem Forschungsfeld in den letzten 50 Jahren allein ausgezeichnet wurden. Abbildung 1. Ohsumis Arbeiten waren bahnbrechend: sie haben geholfen einen fundamentalen Prozess höherer Organismen - d.i. von Pilzen, Pflanzen, Tieren - aufzuklären, nämlich wie deren Zellen (eukaryotische Zellen) ihre Organellen abbauen und recyceln.

Aufbau - Abbau - Recycling

Intakte, lebende Zellen befinden sich in einem dynamischen Gleichgewichtszustand (der Homöostase), in welchem Aufbau und Abbau diverser molekularer Komponenten und subzellulärer Organellen sich die Waage halten müssen. Wie diese Komponenten - Proteine, Lipide, Zucker und diverse im Stoffwechsel aktive Moleküle - und Organellen aufgebaut werden, war ein prioritäres Forschungsgebiet des 20. Jahrhunderts und bleibt es auch weiterhin. Was aber mit diesen nun einmal aufgebauten Zellkomponenten geschieht - wenn sie Beschädigungen aufweisen, altern oder einfach nicht mehr gebraucht werden - stieß lange Zeit auf wesentlich geringeres Interesse.

Wohin also mit dem Abfall

und - in Anbetracht begrenzter Ressourcen - inwieweit kann, muss dieser wieder verwertet, recycelt werden?

Es ist dies ja ein ganz allgemeines Problem. Es gilt in gleicher Weise auch für unsere modernen Gesellschaften, die mehr und mehr Güter produzieren, für die aber das Entsorgen von unbrauchbaren und/oder überschüssigen Produkten zu einem gravierenden Problem geworden ist.

Eukaryotische Organismen haben hier eine generelle Lösung gefunden: es ist dies ein hochkonservierter Prozess, der in allen Zellen abläuft und in dessen Verlauf Strukturen in effizienter Weise abgebaut und recycelt werden.

Ab der Mitte des 20. Jahrhunderts konnte man sich daran machen zu untersuchen, wo Abbau-/Umbau-Prozesse in den Zellen stattfinden. Es standen nun geeignete Verfahren zur Verfügung, um die Strukturen im Zellinneren (Organellen) isolieren zu können und enorm verbesserte mikroskopische und analytisch-chemische Methoden zu deren Detektion und Charakterisierung. Ein Höhepunkt dieser Forschungen war die Entdeckung eines neuen Typus von Zellorganellen, den sogenannten Lysosomen, durch den belgischen Biochemiker Christian de Duve (der für diese Entdeckung 1974 den Nobelpreis erhielt). Lysosomen sind von einer Lipidmembran umgebene Kompartimente (Vesikel), die beträchtliche Teile des Cytosols (d.i. des Zellinhalts ohne Zellorganellen) einschließen und überdies eine breite Palette an Verdauungsenzymen enthalten, welche das cytosolische Material (Proteine, Lipide und Kohlehydrate) in kleine (d.h. niedermolekulare) Bruchstücke zerlegen. Diese Abbauprodukte werden aus den Lysosomen ins Cytoplasma transportiert und stehen dort als Bausteine zur Synthese benötigter neuer Moleküle zur Verfügung.

Selbstverdauung – der Begriff Autophagie wird geprägt

Etwas später wurde entdeckt, dass Lysosomen auch ganze, offensichtlich zum Abbau bestimmte Zellorganellen (beispielsweise Mitochondrien, endoplasmatisches Retikulum, Peroxisomen) enthalten können und dass ein anderer Typ von Vesikeln sich derartige Organellen einverleibt und als Fracht zum Lysosom befördert. Den Vorgang, der zur "Verdauung" und Verwertung der zelleigenen Strukturen führt, hat de Duve mit Autophagie (griechisch von "autos" - selbst und "phagein" - essen) bezeichnet, den neuen Vesikeltyp entsprechend Autophagosomen. Abbildung 2.

Abbildung 2. Ein passendes Symbol für Autophagie/Recyceln: die Schlange, die sich selbst vom Schwanz her auffrisst ("Ouroboros"). Der Ouroboros ist ein bereits im Altertum bekanntes Symbol. Die hier gezeigte Darstellung stammt von Theodoros Pelecanos aus Synosius, einem alchemistischen Traktat (1648).

Wie aber dieser Vorgang startet, wie er abläuft, welche Rolle die Autophagie in intakten Zellen spielt und inwieweit Störungen der Autophagie Erkrankungen hervorrufen können, an Erkrankungen beteiligt sein können, blieb bis zu den Arbeiten Yoshinori Ohsumis ein Rätsel.

Die Autophagie wird entschlüsselt

"Ich glaube, dass es grundlegende Funktionen von Zellen gibt, die von der Hefe bis hin zu den Säugetieren konserviert sein sollten. Natürlich unterscheidet sich eine Vakuole von einem Lysosom, ich dachte aber, dass fundamentale Mechanismen erhalten bleiben mussten." (Yoshinori Ohsumi [2])

Yoshinori Ohsumi hat vor rund 28 Jahren begonnen den Prozess der Autophagie zu erforschen. Als Modell dienten ihm Hefezellen, deren Vakuolen das funktionelle Äquivalent zu den Lysosomen tierischer Zellen darstellen. Hefe war für ihn ein ideales System: zur Isolierung der Vakuolen hatte er bereits als Postdoc in Gery Edelmanns Labor (an der Rockefeller-University) eine einfache Methode entwickelt und diese Vakuolen waren groß genug, um sie unter dem Lichtmikroskop untersuchen und morphologische Änderungen erkennen zu können. Für den Forscher, der nur ungern in einem hochkompetitiven Gebiet arbeiten wollte, kam hinzu, dass Hefe-Vakuolen damals als wenig interessant galten, bloß als Müllcontainer der Hefezellen gesehen wurden. Man musste also kaum mit Konkurrenz rechnen.

Dass Autophagie in Hefezellen eine Rolle spielt, konnte Ohsumi in ebenso eleganten wie einfachen Versuchen nachweisen [3] (Abbildung 3): Er induzierte den Autophagieprozess durch Nahrungsentzug, wodurch - wie er annahm - mehr und mehr abzubauendes Zellmaterial via Autophagosomen in der Vakuole landen sollte, blockierte dort aber gleichzeitig Protein-abbauende Enzyme (Proteasen). Tatsächlich kam es nun in der Vakuole zu einer hohen Anhäufung von Autophagosomen (autophagic bodies, s.u.) gefüllt mit unzerlegbarem Zellmaterial.

Abbildung 3. Autophagosomen in Hefezellen. Oben: Zellen unter Nährstoff(Stickstoff)mangel, deren Proteasen ausgeschaltet wurden. In den großen runden Vakuolen (V) haben sich Autophagosomen (AB - "autophagic body") angesammelt. Mitte: vergrößerte Hefezelle, wie oben (Balken: 1 micrometer). Unten: intakte Autophagosomen aus Hefezell-lysaten, die mittels eines spezifischen Fluoreszenzmarkers detektiert wurden (Balken: 0,2 micrometer). (Bilder: Oben und Mitte stammen aus: Takeshige, K. et al., (1992) [3] und stehen unter cc-by-nc-sa lizenz, Unten stammt aus Suzuku et al., [5] und steht unter cc-by Lizenz. )

Sehr wichtig war auch, dass das Hefe-Genom zu dieser Zeit entschlüsselt wurde und damit die Möglichkeit gegeben war durch Mutation und Ausschalten von Genen solche Gene zu identifizieren, die eine essentielle Rolle im Autophagie Prozess spielen.

Bereits 1992/93 erschienen bahnbrechende Ergebnisse: Ohsumi und sein Team hatten 15 Gene identifiziert (Autophagie-related proteins - Atg 1 - 15), die für die Aktivierung des Autophagie-Prozesses in eukaryotischen Zellen essentiell sind [3, 4]. In den folgenden Jahren konnten dann molekulare und mechanistische Details geklärt werden, wie der Prozess aktiviert wird und welche Proteine in welcher Weise in den Prozess eingreifen und diesen regulieren.

Untersuchungen, die in der Folge auch an tierischen und pflanzlichen Zellen ausgeführt wurden, bestätigten, dass der Autophagieprozess über die Evolution hin konserviert blieb, für alle eukaryotischen Zellen gilt.

Wie läuft der Autophagieprozess ab?

Autophagie ist in allen eukaryotischen Zellen immer existent (konstitutive Autophagie), allerdings läuft der Prozess auf einem niedrigen Level . Bei Stress - verursacht etwa durch Nahrungsknappheit, Strahlen, Hitze, aber auch durch infektiöse Partikel - wird der Prozess aktiviert. Er erfordert eine weitreichende Umstrukturierung von Lipidmembranen. Abbildung 4.

Abbildung 4. Der Autophagieprozess. Stark vereinfachtes Schema. Zellorganellen (hier Mitochondrien und endoplasmatisches Retikulum) und Proteine werden abgebaut und recycelt.

  • Eine anfänglich tassenförmige Doppel-Membran (Phagophor) beginnt sich um das abzubauende Zellmaterial zu bilden und dieses in Form des sogenannten Autophagosom vom Rest der Zelle zu isolieren.
  • Die äußere Membran des Autophagosoms fusioniert mit der Membran des Lysosoms/der Vakuole (oder auch des Endosoms - d.i. ein Vesikel, das durch Einstülpung der Zellmembran entsteht).
  • Von der inneren Membran umgeben liegt das Autophagosom ("autophagic body") in der Vakuole. Seine Membran wird dort von Abbauenzymen angegriffen.
  • Das anfänglich vom Autophagosom umschlossene Zellmaterial ist nun nicht mehr durch die Membran geschützt und wird durch die Enzyme der Vakuole/des Lysosoms abgebaut. Die Abbauprodukte werden ins Cytosol transportiert.

Was bedeutet Autophagie für die Zelle?

Autophagie ist das einzige System, das ganze Zellorganellen - wie Mitochondrien, Peroxisomen, endoplasmatisches Retikulum - und darüber hinaus langlebige Proteine abbauen kann. Da das System bei unterschiedlichsten Stresszuständen sehr rasch anspringt, kann es beschädigte Proteine und Organellen (zumeist) ausschalten, bevor diese für die Zelle toxisch werden. Autophagie ist aber auch Bestandteil physiologischer Prozesse: die Differenzierung von Zellen oder auch die Embryogenese erfordern ja weitgehendste Umstrukturierung ihrer Komponenten.

Im finalen Schritt der Autophagie entstehen Abbauprodukte, die ins Cytosol abgegeben werden und dort als Nährstoffe dienen. Sie können aber auch zu neuen Strukturen zusammengesetzt werden - etwa in der erwähnten Differenzierung, der Embryogenese oder auch um eine verbesserte Anpassung an die Umgebung zu ermöglichen.

Autophagie erhält Zellen also funktionsfähig: beschädigte und/oder nicht mehr (dringend) gebrauchte Strukturen werden abgebaut und zu Nährstoffen recycelt. Damit können Zellen auch magere Zeiten überstehen.

Wie bei allen physiologischen Vorgängen, gibt es auch Störungen des Autophagieprozesses. Diese können zu Krankheiten beitragen/diese hervorrufen, aber ebenso auch den normalen Alterungsprozess betreffen. Es funktionieren dann weder die "Müllabfuhr" noch das Recycling wichtiger Bausteine zur Zellregeneration. Derartige Störungen werden insbesondere mit verschiedenen neurodegenerativen Erkrankungen - von Parkinson, Alzheimer bis zu Huntington - assoziiert. Neuronen leben ja sehr, sehr lange und sind für die laufende Synthese ihrer im Vergleich dazu kurzlebigen Bestandteile von einer effizienten Müllabfuhr und Versorgung mit Nährstoffen abhängig. Auch an unterschiedlichsten anderen Erkrankungen von Infektionskrankheiten über Stoffwechselkrankeheiten (u.a. Diabetes) bis hin zu Krebserkrankungen dürften Anomalitäten der Autophagie beteiligt sein. Beispielsweise haben rezente Untersuchungen einen Zusammenhang zwischen Mutationen eines Autophagie-Gens und der Inzidenz von Brust- und Eierstockkrebs gezeigt.

Ausblick

Als Ohsumi vor 28 Jahren über Autophagie zu arbeiten begann, hat er ein neues Forschungsgebiet eröffnet. Von der Zeit der ersten Erwähnung durch de Duve bis dahin gab es zu diesem Thema nur einige wenige Veröffentlichungen im Jahr. Ohsumis Erfolge haben Hunderte Wissenschafter inspiriert in die Autophagie-Forschung einzusteigen: aktuell verzeichnet die Datenbank PubMed unter dem Schlagwort "Autophagy" 25 980 Publikationen in Fachzeitschriften, wobei in den letzten Jahre jeweils bis zu 4000 Arbeiten veröffentlicht wurden.

Es ist unbestritten, dass Autophagie essentiell ist, um Zellen gesund zu erhalten, dass Stresszustände Autophagie ankurbeln, dass Mutationen in Autophagie-Genen Krankheiten verursachen können. Sowohl akademische Institutionen als auch die Pharmaindustrie bemühen sich dieses Wissen therapeutisch zu nutzen, um Arzneimittel zu entwickeln, die Störungen im Autophagieprozess entgegenwirken.


[1] The Nobel Prize in Physiology or Medicine 2016. Nobelprize.org. Nobel Media AB 2014. Web. 6 Oct 2016. http://www.nobelprize.org/nobel_prizes/medicine/laureates/2016/

[2]Caitlin Sedwick (2012) Yoshinori Ohsumi: Autophagy from beginning to end. JCB 197 (2):164-5. http://jcb.rupress.org/content/197/2/164

[3] Takeshige, K., Baba, M., Tsuboi, S., Noda, T. and Ohsumi, Y. (1992). Autophagy in yeast demonstrated with proteinase-deficient mutants and conditions for its induction. Journal of Cell Biology 119, 301-311

[4] Tsukada, M. and Ohsumi, Y. (1993). Isolation and characterization of autophagy-defective mutants of Saccharomyces cervisiae. FEBS Letters 333, 169-174

[5] Suzuki K., Nakamura S., Morimoto M, Fujii K, Noda N.N., Inagaki F, Ohsumi Y, (2014) Proteomic Profiling of Autophagosome Cargo in Saccharomyces cerevisiae. Published: March 13, 2014, http://dx.doi.org/10.1371/journal.pone.0091651


Weiterführende Links

inge Fri, 07.10.2016 - 08:57

Wie Nervenzellen miteinander reden

Wie Nervenzellen miteinander reden

Fr, 30.09.2016 - 06:03 — Reinhard Jahn

Reinhard JahnIcon Gehirn

Nervenzellen sind miteinander durch Synapsen verbunden, an denen Signale in Form von Botenstoffen übertragen werden. Diese Botenstoffe liegen- portionsweise in kleine Membranbläschen (die synaptischen Vesikel) verpackt - im Inneren der Nervenzellen bereit. Wenn elektrische Signale anzeigen, dass eine Botschaft übermittelt werden soll, verschmelzen einige synaptische Vesikel mit der Zellmembran und entleeren ihren Inhalt nach außen. Wie dies genau funktioniert, hat der Biochemiker Reinhard Jahn, Direktor am Max-Planck-Institut für biophysikalische Chemie in Göttingen, erforscht. Nach zahlreichen hochkarätigen Preisen für seine wegweisenden Arbeiten wird er im November mit dem Balzanpreis 2016, einem der bedeutendsten Wissenschaftspreise, ausgezeichnet.*

Unser Nervensystem besteht aus etwa 100 Milliarden Nervenzellen, die untereinander vernetzt sind und dadurch zu komplexen Rechenleistungen in der Lage sind. Die Nervenzellen besitzen eine Antennenregion, die durch den Zellkörper und deren Fortsätze (Dendriten) gebildet wird. Hier empfangen sie die Signale anderer Nervenzellen.

Abbildung 1: Schematische Darstellung einer Nervenzelle (links) und einer Synapse (rechts). © MPI für biophysikalische Chemie

Eine Zelle redet, die andere hört zu

Die Signale werden dann verrechnet und durch ein „Kabel“, das Axon, in Form von elektrischen Impulsen weitergeleitet. In der Senderregion verzweigt sich das Axon und bildet Kontaktstellen aus, die Synapsen, an denen die Signale auf andere Nervenzellen übertragen werden (Abbildung 1). Dort werden die aus dem Axon eintreffenden elektrischen Impulse in chemische Signale umgewandelt. Die Information fließt dabei nur in einer Richtung: Eine Zelle redet, die andere hört zu.

Die Zahl der Synapsen, die eine einzelne Nervenzelle ausbilden kann, variiert sehr stark: Je nach Zelltyp kann sie zwischen genau einer und über 100.000 Synapsen betragen, im Mittel sind es ungefähr 1000 pro Nervenzelle.

Synapsen – elementare Einheiten der neuronalen Informationsübertragung

Synapsen bestehen aus

  • dem Nervenende des Sender-Neurons (präsynaptisch),
  • dem synaptischen Spalt, der die Sender- und Empfängerzelle trennt, und
  • der Membran des Empfänger-Neurons (postsynaptisch).

Die präsynaptischen Nervenenden enthalten die als Neurotransmitter bezeichneten Signalmoleküle, die in kleinen membranumschlossenen Vesikeln gespeichert sind. Jedes Nervenende im zentralen Nervensystem enthält durchschnittlich mehrere 100 synaptische Vesikel. Dennoch gibt es hier große Unterschiede: So gibt es beispielsweise Spezialisten unter den Synapsen, die mehr als 100.000 Vesikel enthalten. Dazu zählen die Synapsen, die unsere Muskeln steuern. In jeder Synapse befinden sich stets einige Vesikel in Startposition und ‚lauern‘ direkt an der präsynaptischen Plasmamembran, an der sie angedockt haben.

Molekulare Maschinen bei der Arbeit

Wenn ein elektrisches Signal im Nervenende eintrifft, werden Calcium-Kanäle in der Plasmamembran aktiviert, durch die Calcium-Ionen vom Außenraum in das Innere der Synapse strömen. Sie treffen auf eine molekulare Maschine, die sich zwischen der Membran der Vesikel und der Plasmamembran befindet und die durch die hereinströmenden Calcium-Ionen aktiviert wird. Diese Maschine bewirkt, dass die Membran der Vesikel, die sich in der Startposition befinden, mit der Plasmamembran verschmilzt. Dadurch werden die Botenstoffe, die in den Vesikeln gespeichert sind, in den synaptischen Spalt ausgeschüttet.

Auf der anderen Seite des synaptischen Spaltes treffen die Botenstoffe auf Andockstellen in der Membran des Empfänger-Neurons, die die elektrischen Eigenschaften dieser Membran regulieren. Dadurch ändert sich der Membranwiderstand. Die Empfängerzelle kann die Spannungsänderung, die dadurch entsteht, in einem rasanten Tempo verarbeiten Zwischen dem Eintreffen des Impulses bis zur Spannungsänderung auf der anderen Seite des synaptischen Spalts vergeht nur etwa eine tausendstel Sekunde.

Damit stellt die synaptische Übertragung einen der schnellsten biologischen Vorgänge dar. Dennoch: Im Vergleich mit einem Transistor ist sie immer noch geradezu schneckenartig langsam.

Synaptische Vesikel: Nicht nur Speicherorganellen

Abbildung 2: Molekulares Modell eines synaptischen Vesikels. Links: Aufsicht mit Bezeichnung der wesentlichen Proteine. Rechts: Geöffnetes Vesikel. Innenraum gefüllt mit Neurotransmittern (rot). Die kleinen grauen Photos sind elektronenmikroskopische Aufnahmen realer synaptischer Vesikel; großes graues Photo: so würde das Modell im Elektronenmikroskop aussehen (Bild rechts von Redaktion übernommen aus: http://www.mpibpc.mpg.de/de/grubmueller). © MPI für biophysikalische Chemie

Die synaptischen Vesikel sind keineswegs nur eine Art membranumhüllte „Konservendose“ zur Speicherung der Botenstoffe. In ihrer Membran befindet sich eine ganze Reihe von Proteinen, die sich seit Millionen von Jahren durch die Evolution kaum verändert haben (Abbildung 2). Eine Gruppe dieser Proteine, die Neurotransmitter-Transporter, ist dafür verantwortlich, die Botenstoffe aus dem Zellplasma in die Vesikel hineinzupumpen und dort anzureichern. Dazu ist viel Energie erforderlich. Diese wird von einem weiteren Proteinmolekül bereitgestellt, einer Protonen-ATPase (V-ATPase), die unter Verbrauch von Adenosintriphosphat (ATP) Protonen in die Vesikel hineinpumpt. Das dadurch entstehende Konzentrationsgefälle nutzen die Pumpen ihrerseits für die Aufnahme von Botenstoffen aus.

Neben diesen für das „Auftanken“ erforderlichen Proteinen enthalten die Membranen synaptischer Vesikel weitere Komponenten, die dafür sorgen, dass die Vesikel mit der Plasmamembran verschmelzen können (darunter das SNARE-Protein Synaptobrevin und den Calcium-Sensor Synaptotagmin) und nach der Membranfusion wieder in das Nervenende zurücktransportiert werden. Die synaptische Vesikel werden anschließend im Nervenende über einige Zwischenschritte wieder recycelt und neu mit Botenstoffen befüllt. Und das immer und immer wieder, viele tausend Male im Lebenszyklus eines Vesikels.

Die Funktionsweise der synaptischen Vesikel auf molekularer Ebene zu verstehen, ist eine aufwendige Arbeit. Wir haben dazu vor einigen Jahren ein umfassendes Inventar aller Vesikelbestandteile erstellt. Da die Vesikel winzig klein und komplex in ihrer Zusammensetzung sind, war dieses Unterfangen keineswegs einfach: Mehrere Teams aus Deutschland, Japan, der Schweiz und den USA mussten jahrelang zusammenarbeiten, um die Eiweiß- und Fettkomponenten der Vesikel zu identifizieren und ein quantitatives molekulares Modell eines Standard-Vesikels zu erstellen.

Dabei mussten Probleme gelöst werden, die keineswegs so einfach waren, wie man annehmen möchte, z. B. das Auszählen der Vesikel in einer Lösung oder die quantitative Bestimmung des Gehaltes von Proteinen und Membranlipiden. Die Ergebnisse waren auch für Experten überraschend. So stellte sich heraus, dass ein biologisches Transportvesikel in seiner Struktur viel stärker durch Proteine bestimmt wird als zuvor angenommen: Wenn man von außen auf das Vesikelmodell schaut (Abbildung 2), kann man die Lipidmembran (gelb) vor lauter Proteinen kaum erkennen, und dabei sind im Modell nur ca. 70 Prozent der Gesamtmenge an Protein enthalten.

Diese Arbeiten bildeten die Grundlage zu weiterführenden Untersuchungen. So ist es gelungen, Vesikel, die unterschiedliche Botenstoffe transportieren, voneinander zu trennen und miteinander zu vergleichen. Anders als vorher vermutet, unterscheiden sie sich nur geringfügig in ihrer Zusammensetzung. Außerdem konnten verschiedene Vesikel isoliert werden, die bereits an der Plasmamembran angedockt sind, was ebenfalls eine Analyse ihrer Proteinzusammensetzung erlaubte.

Wie fusionieren die Membranen?

Ein zweiter Schwerpunkt der Forschung besteht darin, die Proteinmaschine, die die Membranfusion bewerkstelligt, in ihren funktionellen Details zu verstehen. Die dafür verantwortlichen Proteine sind bereits seit über zehn Jahren bekannt, doch ist immer noch nicht klar, wie sie es schaffen, innerhalb von weniger als einer Millisekunde nach Einstrom der Calcium-Ionen die Membranen zu verschmelzen.

Für die Fusion selber sind SNARE-Proteine verantwortlich – kleine Proteinmoleküle, die in der Plasmamembran wie in der Vesikelmembran sitzen. Kommen die Membranen nahe aneinander, lagern sich die dieser Proteine aneinander, wobei sie sich in Richtung der Membran wie Taue miteinander verdrillen (Abbildung 3).

Abbildung 3. Modell der Membranfusion (links) und Strukturmodell des SNARE-Komplexes (rechts). © MPI für biophysikalische Chemie

Bei dieser Zusammenlagerung wird Energie freigesetzt, die für das Verschmelzen der Membranen benutzt wird. Neuere Untersuchungen haben ergeben, dass das verdrillte Bündel bis in die Membran hineinreicht.

Um zu verstehen, wie diese Zusammenlagerung die Verschmelzung der Membranen bewirkt, wurden die SNARE-Proteine in künstliche Membranen eingebaut, an denen man die Fusion mit hochauflösenden Methoden, darunter der Kryo-Elektronenmikroskopie, untersuchen konnte. Dabei wurden erstmalig Zwischenstufen der Fusionsreaktion identifiziert. Dadurch konnte ein Modell der einzelnen Schritte auf molekularer Ebene erstellt werden.

Fortschritte sind ebenfalls bei der Frage erzielt worden, wie die einströmenden Calcium-Ionen die Fusionsmaschine aktivieren. Dies wird durch ein weiteres Protein in der Membran synaptischer Vesikel vermittelt, das Synaptotagmin, das die Calcium-Ionen bindet und dann die Membranen etwas näher aneinander bringt.

Trotz großer Fortschritte sind die komplexen molekularen Prozesse immer noch nicht vollständig verstanden: Umso erstaunlicher ist es, wie reibungslos Nervenzellen miteinander kommunizieren, wie effektiv die Fusionsmaschinerie in der Synapse funktioniert, bei jeder unserer Bewegungen, in unserem Fühlen und Denken. Deshalb forschen Wissenschaftler auf der ganzen Welt weiterhin daran, diese Prozesse noch besser zu verstehen. Es besteht die berechtigte Hoffnung, dass dadurch auch ein besseres Verständnis von neurodegenerativen Erkrankungen, wie Parkinson, Alzheimer und Chorea Huntington erzielt werden kann.


* Der gleichnamige Artikel erschien am 16. September 2016 auf der Webseite der Max-Planck Gesellschaft (https://www.mpg.de/synapse) und wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier geringfügig für den Blog adaptiert (u.a. wurde eine Grafik von der Webseite http://www.mpibpc.mpg.de/de/grubmueller in Abbildung 2 eingefügt).


Weiterführende Links

Max-Planck Institut für Biophysikalische Chemie (Göttingen), Abteilung Neurobiologie: http://www.mpibpc.mpg.de/de/jahn

Was passiert an Synapsen? Video 3:56 min. https://www.mpg.de/6915155/synapsen_langzeitpotenzierung

Synapsen: Schnittstellen des Lernens. Video 2:26 min. Arvid Leyh, dasGehirn.info (Lizenz: cc-by-nc) Lhttps://www.dasgehirn.info/entdecken/kommunikation-der-zellen/synapsen-schnittstellen-des-lernens-3588/

Nervenzelle, Nerv, Axon, Synapsen - Grundbegriffe des Nervensystems, Video 5:34 min (Alexander Giesecke und Nicolai Schork: The simple Biology; Standard-YouTube-Lizenz). https://www.youtube.com/watch?v=20m6fhh-G7U

Die Macht der Synapsen-Proteine. Video 13:57 min. Ragnar Vogt (dasGehirn.info) spricht mit dem Biochemiker Nils Brose (Max-Plack Institut für experimentelle Medizin, Göttingen). Lizenz: cc-by-nc. https://www.dasgehirn.info/aktuell/hirnschau/die-macht-der-synapsen-prot...


 

inge Fri, 30.09.2016 - 06:03

Gehen wir auf eine Post-Antibiotika Ära zu?

Gehen wir auf eine Post-Antibiotika Ära zu?

Fr, 23.09.2016 - 15:26 — Inge Schuster

Inge SchusterIcon mediACzinAbgesehen von einem (relativ geringen) Risiko von Nebenwirkungen tragen Antibiotika wesentlich dazu bei, dass wir gesund bleiben und lang leben. Allerdings entwickeln Bakterien gegen diese Substanzen schnell Resistenzen, in vielen Fällen werden sie multiresistent. Es besteht die Gefahr, dass die vorhandenen Antibiotika schneller unwirksam werden als innovative, neue Substanzen auf den Markt kommen. Dies könnte zu einer Pandemie führen.

Vor kurzem hat mich ein Freund angerufen. Er hatte am 15. September das ARD-Magazin "Kontraste" gesehen und war nun zutiefst verunsichert. In dieser Sendung wurde über dauerhafte Gesundheitsschäden berichtet, die durch die Einnahme des Antibiotikums Ciprofloxacin entstanden waren. Dieses Arzneimittel war meinem Freund eben verschrieben worden, da er nach einer Operation an einer massiven Infektion im Urogenitaltrakt litt. Er fürchtete sich nun vor Nebenwirkungen - Sehnenabrisse, Nervenschäden sowie Angstattacken und Psychosen -, wie dies in der TV-Sendung an Hand zweier nahezu bewegungsunfähiger junger Männer überaus drastisch vor Augen geführt wurde.

Bereits der einleitende Satz der Sprecherin machte klar, wer für diese Schäden die Verantwortung zu tragen hätte: "unsere Geschichte handelt von fahrlässigen Ärzten, einer trägen Arzneimittelbehörde und einem tatenlosen Minister." In den folgenden rund siebeneinhalb Minuten wurden Ängste geschürt - es gäbe keine aktuellen Warnungen von Seiten der Arzneimittelbehörde oder gar eine dick-schwarz umrandete (Black Box) Warnung auf den Beipackzetteln, wie dies die amerikanische Arzneimittelbehörde FDA (allerdings erst vor 4 Monaten) getan hatte und auch keine breite öffentliche Aufklärung der Patienten (wie in den USA). Ein Patient klagte " ich bin hinterhältig vergiftet worden, ohne überhaupt gewarnt zu werden" Dass der Beipackzettel [2] alle Risiken und für die Anwendung wichtigen Informationen enthält, wurde kommentiert "da steht dermaßen viel drin, dass kein Mensch, kein Verbraucher und auch kein Arzt überblicken kann, was alles drin steht". Viele Zuseher fühlten sich von diesem Report offensichtlich sehr betroffen, gerieten in Panik und setzten ihre Medikamente ab - zumindest war dies aus Diskussionen In Internetforen zu entnehmen.

Was ist Ciprofloxacin?

Ciprofloxacin ist bereits seit rund 30 Jahren am Markt. Die Grundstruktur - ein Chinolon - stammt (wie auch das verwandte Chinin) aus der China-Rinde. Erfolgreiche Derivatisierung hat dann zu einem breiten Spektrum an behandelbaren Keimen geführt, zu erhöhter Wirksamkeit, verbesserter Stabilität im und Verfügbarkeit für den menschlichen Organismus (zum Unterschied zu vielen anderen Antibiotika kann es oral verabreicht werden). Abbildung 1.

Abbildung 1. Ciprofloxacin ist ein kleines, synthetisches Molekül, das 1987 von Bayer auf den Markt gebracht wurde. Als oral anwendbares Breitbandantibiotikum hat es sich zum Blockbuster (> 1Mrd $ Umsatz) entwickelt.

Ciprofloxacin ist ein Breitbandantibiotikum: es wirkt gegen gram-positive (u.a. Pneumokokken) und gram-negative Keime (u.a. Chlamydien, Pseudomonas, E. coli,…) und tötet diese ab. Besondere Bedeutung hat es in der Behandlung von schweren Infektionen, vor allem von solchen, die durch Pseudomonas aerugenosa hervorgerufen wurden. Es wird bei Infektionen des Bauchraums, der Atemwege, von Harnwegsinfektionen, akute Nierenbeckenentzündung, Infektionen der Gallenwege und auch bei Milzbrand (Anthrax) angewandt, gilt aber auch als Reserveantibiotikum (kommt zum Einsatz, wenn andere Antibiotika - u.a. beta-Lactame, Tetracycline - erfolglos waren).

In den letzten Jahrzehnten sind praktisch keine neuen, gegen gram-negative Bakterien gerichtete, Antibiotika auf den Markt gekommen. Ciprofloxacin ist und bleibt also auch weiterhin ein wichtiger Bestandteil des antibiotischen Armentariums:

  • Die World Health Organisation (WHO) führt Ciprofloxacin in der Liste essentieller Arzneistoffe unter Antibacterials (14 beta-Lactame und 14 "other antibacterials", darunter Ciprofloxacin).
  • Chinolone gehören - trotz ihrer Nebenwirkungen (siehe unten) - auch weiterhin zu den Strukturen, die modifiziert werden und als Entwicklungssubstanzen in die klinische Prüfung kommen. Derzeit befinden sich 39 Substanzen in den klinischen Phasen 1 -3, darunter sind 7 Chinolone, 3 davon in der letzten Phase (Phase III) [4].

Nutzen versus Risiko

Im vergangenen Jahrhundert ist die Lebenserwartung in der westlichen Welt stark gestiegen. Lag sie für Neugeborene in Deutschland um 1900 bei rund 42 Jahren (Mittel aus m + f), so war sie um 1960 auf 67 (m) und 72 (w) Jahre angestiegen. Dies war neben besserer Ernährung und Hygiene vor allem der wirksamen Bekämpfung von Infektionskrankheiten mit Medikamenten, insbesondere von bakteriellen Infektionen mit Antibiotika, und Vakzinen zu verdanken. Vormals tödliche Erkrankungen wie Tuberkulose oder Lungenentzündung konnten nun geheilt werden.

Insgesamt stehen heute rund 200 unterschiedliche Wirkstoffe zur Verfügung, die gegen verschiedene Erreger eingesetzt werden, zum Teil sind sie gegen ein weites Spektrum von Bakterien wirksam - sogenannte Breitband-Antibiotika -, zum Teil nur gegen einzelne spezielle Keime.

Allerdings ist mit jeder Antibiotikatherapie auch das Risiko von Nebenwirkungen verbunden (auch, wenn diese zum Glück vhm. selten auftreten). Um nur einige davon zu nennen:

  • bei beta-Laktamen (Penicillinen, Cephalosporinen, Penemen) können neben gastrointestinalen Beschwerden vor allem allergische Reaktionen bis hin zum anaphylaktischen Schock auftreten.
  • Bei Folsäureantagonisten können es Veränderungen des Blutbilds und Knochenmarksschädigungen sein,
  • bei Makroliden Hörstörungen und Leberschäden bis hin zur cholestatischen Hepatitis.
  • Bei der Gruppe der Chinolone, zu denen das bereits erwähnte Ciprofloxacin gehört, sind es u.a. gastrointestinale Beschwerden, Ausschlag, Leberschäden, Sehnenentzündungen bis hin zu Sehnenrissen, Nervenschäden und Psychosen. Ob Chinolone mehr Nebenwirkungen verursachen als Cephalosporine, darüber differieren die Meinungen.

Einer Antibiotikabehandlung sollte daher eine Risikoabwägung vorausgehen: ist die Wirkung weitaus höher einzuschätzen als der Schaden durch mögliche Nebenwirkungen? (So wie er Gebrauchsanweisungen für diverse Geräte studiert, sollte der mündige Patient auch den Beipackzettel zu seinem Medikament ansehen.)

Ein sozio-ökonomisch weit bedrohlicheres Szenario als das Risiko von Nebenwirkungen, ist allerdings die sich ausbreitende Resistenz gegenüber den Antibiotika.

Resistenzentwicklung – Antibiotika verlieren ihre Wirksamkeit

Dass Bakterien - aber auch andere Mikroorganismen - gegen antimikrobielle Substanzen resistent werden, ist ein ganz natürlicher Vorgang. Viele dieser Organismen produzieren ja selbst Antibiotika und müssen daher Mechanismen haben, um sich davor schützen. Resistenz ist aber auch logische Folge eines Evolutionsprozesses - von Mutation und Selektion: Bakterien vermehren sich sehr rasch und machen bei der Kopierung ihres Erbguts relativ viele Fehler. Beeinträchtigt eine Mutation nun die Zielstruktur (Target) gegen die ein Antibiotikum wirkt, so hat das betroffene Bakterium einen Vorteil, es kann sich in Gegenwart des Antibiotikums munter weiter vermehren und es entsteht eine neue, resistentere Population.

Bakterienpopulationen sind stets heterogen. Bei Behandlung mit Antibiotika werden zuerst die dagegen empfindlichsten Populationen eliminiert/abgetötet, dann die weniger sensitiven, dann die noch weniger sensitiven, usf. Wird die Behandlung zu früh abgebrochen, oder war die Dosis zu gering, so bleiben die resistenteren Keime über und vermehren sich - auf das Antibiotikum in der üblichen Dosierung spricht diese Population nicht mehr an.

Resistenzgene können auch von einem auf andere Bakterien - über die Speziesgrenzen hinweg - übertragen werden und diese damit gegen unterschiedliche Antibiotika resistent werden. So entstehen dann multiresistente Erreger.

Gegen Antibiotika resistente Bakterien findet man überall und in allen Ländern . Sie sind in Lebensmitteln , in der Umwelt, in Tier und Mensch. Eine enorme Bedrohung stellen sie in Spitälern und in Pflegeeinrichtungen dar.

Die Resistenzentwicklung wird durch exzessive Anwendung von Antibiotika und Missbrauch beschleunigt, beispielsweise, wenn oft allzu leichtfertig Antibiotika gegen virale Infektionen wie Influenza oder Erkältungen verschrieben werden, gegen die sie ja völlig wirkungslos sind, oder wenn sie tonnenweise in der Viehzucht eingesetzt werden, um schnelleres Wachstum zu erreichen. Ein Beispiel aus West-Bengalen zeigt, wie dort pathogene Erreger (E. coli) in den letzten Jahren zunehmend gegen das gesamte Arsenal an Antibiotika resistent wurden. Abbildung 2

Abbildung 2 . Wie E.coli in den Jahren 2008 bis 2013 Resistenzen gegen das Spektrum von Antibiotika entwickelte. Insgesamt 5476 Isolate aus Harnproben (von Harnwegsinfektionen) wurden analysiert, rund 2/3 der enthaltenenKeime waren E. coli, rund 22 % Klebsiellen (die Resistenzentwicklung ist hier noch dramatischer). Bei den beiden Angaben zu Cephalosporinen handelt es sich um Cephalosporine der dritten und vierten Generation. Daten aus West-Bengalen, Indien (Quelle: S.Saha et al., Front. Microbiol., 18 September 2014 | http://dx.doi.org/10.3389/fmicb.2014.00463) cc-by-Lizenz

Dass Antibiotika gegen virale Infektionen wirkungslos sind, ist EU-weit leider noch nicht allgemein bekannt. Dies zeigt eine eben erschienene Eurobarometer-Umfrage [5]. Immerhin glauben über 40 % unserer Landsleute, dass Antibiotika gegen Erkältung und Grippe wirken und merkwürdigerweise nahezu zwei Drittel, dass Viren durch Antibiotika zerstört werden. Abbildung 3. Zweifellos haben diese Einschätzungen negative Auswirkungen auf die Nutzung, trägt zur weiteren Resistenzentwicklung bei.

Abbildung 3. Spezial-Eurobarometer 445: Antibiotikaresistenz (April 2016). Fragen zur Wirksamkeit von Antibiotika gegen Viren, Grippe und Erkältungen, zum Wirkungsverlust durch Missbrauch und zu Nebenwirkungen. (Quelle: ebs_445_fac_at_de.pdf)

Wir haben dringenden Bedarf für neue Antibiotika

In etwas mehr als 50 Jahren wurde ein breites Arsenal an Antibiotika entdeckt und zu hochwirksamen Arzneimitteln optimiert : es waren dies vor allem die ersten Verteter der beta-Lactame - Penicillin (1938) und Cephalosporin -, Aminglykoside (1946), Tetracycline (1952), Makrolide (1951) und Chinolone (1968). Allerdings begannen sich bald Resistenzen auszubilden und zwar gegen alle Antibiotika. Bis nach der Einführung die ersten Resistenzen beobachtet wurden, dauerte es von weniger als 1 Jahr bis zu mehreren Jahren.

Erkrankungen durch multiresistente Bakterien sind nun nicht mehr selten: im Jahr 2013 waren es in den USA bereits rund zwei Millionen Menschen, von denen 23 000 starben; 400 000 Erkrankungen und eine ähnliche Zahl an Todesfällen - 25 000 wurden auch für die EU geschätzt.

Wenn sich diese Entwicklung fortsetzt, ohne dass neue Medikamente auf den Markt kommen, werden 2050 voraussichtlich bereits 10 Millionen Menschen an Infektionskrankheiten sterben, mehr als an der bisherigen Nummer 1, den Krebserkrankungen. Abbildung 4.

Abbildung 4. Schlechte Aussichten für 2050: Infektionskrankheiten werden mehr Todesopfer fordern als Krebserkrankungen (Quelle: Niall McCarthy, https://www.statista.com/chart/3095/drug-resistant-infections. Lizenz: cc-by-nd

Antibiotika-Dämmerung

Der Anstieg von Resistenzen gegen vorhandene Antibiotika und die Entwicklung von multiresistenten Erregern, gegen die das vorhandene Arsenal an Antibiotika nichts mehr ausrichtet, wirkt bedrohlich. Insbesondere, weil offensichtlich vorhandene Wirkstoffe schneller unwirksam werden als innovative, neue auf den Markt kommen. Abbildung 5.

Abbildung 5. Die Zahl der in den USA neu-zugelassenen Antibiotika sinkt rapide (Quelle: EFPIA)

Die Gründe dafür sind erklärbar: Das "Goldene Zeitalter" der Antibiotikaforschung in den1950 - 1960-Jahren hat viele Pharmakonzerne bewogen in Infektionskrankheiten zu investieren. Praktisch alle großen Konzerne - Roche, Ciba, Sandoz, Pfizer, Bristol-Myers Squibb , Eli-Lilly und wie sie damals alle hießen - haben Forschungseinrichtungen gebaut, die sich nun diesem großen, erfolgsverheißenden Thema widmeten.

Einige Jahre später schlug bei nahezu allen Firmen die Aufbruchstimmung in eine Mischung aus wissenschaftlicher und kommerzieller Frustration um.

  • Wissenschaftliche Frustration, weil trotz enormer Anstrengungen es nur wenige innovative, neue Substanzen bis in die klinische Prüfung schafften, und noch weniger den Markt erreichten. Der Blick auf das nun größer gewordene Arsenal der Antibiotika ließ das Marketing aber argumentieren, es gäbe bereits ausreichend Antibiotika, für neue bestünde nur mehr wenig Bedarf, sie würden nur miteinander konkurrieren. (Anders als bei nicht-ansteckenden chronischen Erkrankungen dauern Antibiotika-Therapien nur Tage bis wenige Wochen - man braucht also hohen Absatz, um die enormen Entwicklungskosten adzudecken.) Dass Resistenzentwicklung einen Kahlschlag unter den Antibiotika verursachen könnte, wusste man damals noch nicht.
  • Kommerzielle Frustration, weil das Return on Investment (ROI) nicht den Erwartungen entsprach und das Management sich nach einiger Zeit Gebieten zuwandte, die lohnender schienen (O-Ton unseres Forschungsleiters bei Sandoz: "Wir wollen gutes Geld nicht dem schlechten Geld nachwerfen").

Später, als die Auswirkungen der Resistenzentwicklung klarer wurden, kam noch ein weiterer, sehr wichtiger kommerzieller Aspekt dazu: Um gegen ein neues hochwirksames Antibiotikum nicht schnell Resistenzen entstehen zu lassen, dürfte es nur äußerst sparsam eingesetzt werden, nur in Fällen, wo nichts anderes mehr helfen würde. Das heißt, das Mittel wäre dann im wesentlichen auf Spitäler beschränkt, die aber davon auch nur ganz wenige Packungen auf den Regalen stehen hätten, gleichbedeutend mit minimalem Absatz. Pharma müßte also die extrem hohen Forschungs-und Entwicklungskosten auf ein Produkt aufwenden, von dem dann nur sehr wenig Absatz findet. Wenn aber der geringe Absatz in den Preis kalkuliert wird, ist das Mittel nahezu unerschwinglich.

So endete für viele große Firmen der Ausflug in die Infektionskrankheiten relativ bald. Die Experten wurden anderen (Forschungs)richtungen zugeteilt oder freigesetzt, die sehr umfangreichen Sammlungen von pathogenen Bakterienstämmen wurden aufgelasen und das Das Know-How ging verloren. Sandoz stieg bereits 1986 aus den Infektionskrankheiten aus, das halbierte Forschungsinstitut in Wien widmete sich bis zu seiner Einebnung dem Hoffnungsgebiet Dermatologie. Interessanterweise wurde die anfangs der 1970er Jahre in Wien entdeckte Gruppe der Pleuromutiline nun wieder reanimiert, eine Substanz ist bereits in der letzten Phase der klinischen Prüfung.

Wie kann es weitergehen?

Sowohl auf der wissenschaftlichen Seite als auch auf der organisatorisch-ökonomischen Seite sind viele Fragen noch offen.

Was die unzähligen Naturstoffe betrifft, deren antibiotische Wirksamkeit man entdeckt hat, wissen wir nur von den allerwenigsten, wo ihre Angriffspunkte (Targets) im/am Bakterium liegen . Auf der anderen Seite hat man bis jetzt nur wenige der bakteriellen Genprodukte als Targets untersucht und verwendet. Hier liegt die Möglichkeit zu innovativen neuen Wirkstoffen, die man dann gezielt hinsichtlich Wirkspektrum und Stabilität und vor allem nach weniger (schweren) Nebenwirkungen optimieren kann.

Die organisatorisch-ökonomische Seite ist komplex: Wir brauchen dringendst neue Antibiotika - dafür ist hoher finanzieller und personeller Aufwand erforderlich - neue Antibiotika bleiben dann in Reserve/werden äußerst sparsam verwendet - der Aufwand wird nicht ersetzt. Dies ist für einzelne Firmen, aber auch für die öffentliche Hand (in den meisten Staaten) nicht machbar. Es sind nun eine Reihe auf Kooperation basierender Initiativen gegründet worden:

  • Von besonderer Bedeutung ist hier die " Declaration by the Pharmaceutical, Biotechnology and Diagnostics Industries on Combating Antimicrobial Resistance" (January 2016) [6] Darin haben sich 85 Pharma-, Biotech-und Diagnostische Unternehmen (darunter die TOP-Unternehmen) auf gemeinsame globale Prinzipien in der Entwicklung neuer Arzneimittel , Diagnostika und Vaccinen geeinigt. (Über die Finanzierung wird allerdings nichts gesagt.)
  • "New Drugs 4 Bad Bugs" (ND4BB) ist ein gemeinsames europäisches Projekt der "Innovative Medicines Initiative" (IMI) der EU und der "European Federation of Pharmaceutical Industries and Associations" (EFPIA), das Mittel (223,7 mio €) zur Unterstützung der Forschung von kleinen und mittleren Unternehmen und akademischen Einrichtungen zur Verfügung stellt.
  • "Antimicrobial Resistance Diagnostic Challenge" ist ein 20 Mio$ Preis der "National Institutes of Health" (NIH) und deren "HHS Office of the Assistant Secretary for Preparedness and Response (ASPR)"

Wie der Wettlauf zwischen Resistenzentwicklung und Einführung neuer Antibiotika zu gewinnen ist? Die Red Queen (Alice im Wunderland (Carol Lewis)) würde dazu meinen:

"Now, here, you see, it takes all the running you can do, to keep in the same place. If you want to get somewhere else, you must run at least twice as fast as that!"

So einfach wäre das! :-)


 

[2] Beipackzettel https://www.bayer.at/static/documents/produkte/gi/Ciprox500FT.pdf

[3] http://www.who.int/medicines/publications/essentialmedicines/EML2015_8-M...

[4] Antibiotics Currently in Clinical Development http://www.pewtrusts.org/~/media/assets/2015/12/antibiotics_datatable_20...

[5] Spezial-Eurobarometer 445: Antibiotikaresistenz (April 2016). ebs_445_fac_at_de.pdf

[6] Declaration by the Pharmaceutical, Biotechnology and Diagnostics Industries on Combating Antimicrobial Resistance. January 2016. https://amr-review.org/sites/default/files/Declaration_of_Support_for_Co...


Weiterführende Links

Wie wirken Antibiotika? Video 5:44 min. Eine sehr leicht verständliche Zusammenfassung (2015; Standard YouTube Lizenz)

Wachsende Bedrohung durch Keime und gleichzeitig steigende Antibiotika-Resistenzen? Video 7:18 min (aus der Uniklinik Bonn - stimmt auch für Österreich) Standard YouTube Lizenz.

Warum gibt es Antibiotika-Resistenzen? Video 2:43 min (Standard YouTube Lizenz)

 

inge Fri, 23.09.2016 - 15:26

Genetische Choreographie der Entwicklung des menschlichen Embryo

Genetische Choreographie der Entwicklung des menschlichen Embryo

Fr, 16.09.2016 - 08:00 — Ricki Lewis

Ricki LewisIcon MedizinIn den ersten zwei Monaten des Lebens entwickelt der menschliche Embryo bereits alle Organe und Gewebe; darüber, wie diese Prozesse ablaufen, ist aber relativ wenig bekannt. Gene, die an- und abgeschaltet spielen eine zentrale Rolle als Regulatoren der Organogenese. Angeschaltet, wird die DNA eines Gens in RNA transkribiert und diese dann häufig in ein Protein übersetzt, das Zellprozesse initiiert und kontrolliert. Die Genetikerin Ricki Lewis berichtet hier über die eben publizierte Entdeckung eines wesentlichen neuen Programms in der embryonalen Entwicklung: DNA wird zu mehr als 6000 RNAs transkribiert, die nicht für Proteine kodieren und offensichtlich die Organogenese spezifisch steuern.*

Als ich vor Jahren an einer staatlichen Universität unterrichtete, hatte ich die Möglichkeit meinen Genetik-Klassen echte menschliche Embryonen und Föten vorzuführen. Es waren dies Präparate aus den 1950er Jahren, stammten von Fehlgeburten, die ein Gynäkologe - mit dem Einverständnis der Frauen, wie mir versichert wurde - aufbewahrt und der Sammlung der Biologieabteilung geschenkt hatte.

Meine Studenten waren überrascht über die Formen, die da in Reagenzgläsern und Fläschchen schwebten, der Größe nach aufgereiht bis hin zum einem 8-Monate Fötus in einem riesigen Mayonnaise Glas. Ich ging mit diesen Präparaten sehr vorsichtig und respektvoll um.

Als ich einmal die Sammlung in einem Einkaufswagen über den Campus zu meiner Klasse transportierte, sprachen mich Studenten an. Sie nahmen an ich wäre auf dem Weg zu einer "Recht auf Leben"-Veranstaltung. Nein, korrigierte ich, "das gehört für den Biologie-Unterricht". Ein anderes Mal begleitete mich meine vierjährige Tochter auf den Campus. Als sie den 8-Monate Fötus sah, brach sie in Tränen aus - er sah ihrer ganz kleinen Schwester zu ähnlich.

Jahre später stieß ich wieder auf eines der wertvollen Reagenzgläser, eingerollt in Papiertücher lag es in einer Schachtel mit Prüfungsunterlagen. Ich hatte es damals wohl unabsichtlich mitgenommen. Ich bewahrte es auf und zeige es nun hier: es ist ein 44 Tage alter Embryo - zum Größenvergleich liegt ein Penny daneben (Abbildung 1).

Abbildung 1. Menschlicher Embryo, 44 Tage nach der Befruchtung. Zum Größenvergleich liegt ein Penny daneben

Ein Blick auf die Organbildung (Organogenese)

Menschliche Embryonen und Föten erzeugen starke Bilder. Auf meine Studenten machten damals die Präparate einen unvergesslichen Eindruck – in einer Weise, wie es Abbildungen, Fotos und Filme kaum je vermögen. Heute sehe ich auf den Plakatwänden nahe meinem Haus fröhliche Babys und dazu Angaben in welcher Schwangerschaftswoche bereits Herzschlag, Fingerabdrücke und ein Lächeln bemerkbar wurden. Vermutlich, um Schuldgefühle in Frauen hervorzurufen, die den Abbruch der Schwangerschaft wählen müssen.

Die Carnegie-Stadien

Üblicherweise haben Embryologen (alias Entwicklungsbiologen) für die Embryonalentwicklung ein Klassifizierungssystem angewandt, das auf den physischen Merkmalen beruht, die nach bestimmten Zeitabschnitten erkennbar werden: es ist dies eine Einteilung in 23 Stufen – die Carnegie-Stadien:

Beispielsweise ist am Tag 32 ein Embryo 4 – 6 mm groß, hat Ansätze ("Knospen") aus denen dann Beine entstehen, Vertiefungen aus denen Ohren, Verdickungen der Außenschicht, aus denen Linsen werden und 30 Körpersegmente (Somiten), die sich zu spezialisierten Teilen des Körpers entwickeln werden.

Am Tag 56 misst der Embryo 27 – 32 mm und sein Kopf ist halb so groß wie der ganze Körper. Er hat ein Kinn, ausgedehnte Extremitäten, gesäumt mit Fingern oder Zehen und andeutungsweise erkennbare Genitalien. Abbildung 2.

Abbildung 2. Modell eines 8 Wochen alten menschlichen Embryos

Die Phase der embryonalen Entwicklung dauert von der Befruchtung der Eizelle bis zum Tag 58, dem Ende der 8. Woche. Die 2. Woche wird durch das Auftauchen der drei Keimblätter – Ektoderm, Endoderm und Mesoderm – markiert, die sich zur Form der klassischen Gastrula biegen. Nach einem präzisen genetischen Programm entfalten und entwickeln sich daraus die Organe.

Ungefähr ab der dritten Woche beginnen sich die Ansätze der Organe zu formieren und die Organogenese beschleunigt sich in der darauffolgenden Woche. Der Übergang vom Embryo zum Fötus findet am Ende der 8. Woche statt, wenn alle Vorläuferstrukturen bereits vorhanden sind (die Zeit wird übrigens von der Empfängnis an gerechnet, nicht von dem Kürzel der Gynäkologen "letzte Menstruation"). Die Begriffe Embryo und Fötus bezeichnen zwei biologisch völlig unterschiedliche Phasen der pränatalen Entwicklung, werden aber gerne durcheinander geworfen - von Gegnern der Familienplanung ("Planned Parenthood") und von den Medien - sogar im Lesestoff, der in den Ordinationen von Gynäkologen aufliegt, habe ich derartige Verwechslungen gesehen.

Wie die Expression von Genen während der Entwicklung des Embryos verläuft

Die Carnegie-Stadien basieren auf dem, was sichtbar ist. Aber das Genom kontrolliert den Start der beobachtbaren anatomischen Veränderungen, die die Reise des Embryos zum Fötus vorantreiben. Eine grandiose, eben im Journal eLife erschienene Veröffentlichung bietet nun einen völlig neuen Einblick in die embryonale Entwicklung des Menschen, basierend auf der Genexpression in den spezifischen Organen [1].

Diese Arbeit - mit "Ein integrativer Atlas des Transkriptoms der Organentwicklung in menschlichen Embryos (An integrative transcriptomic atlas of organogenesis in human embryos)" übertitelt - unterscheidet sich grundlegend von früheren Forschungsrichtungen, die zur Untersuchung der pränatalen Entwicklung eingeschlagen wurden. So hatte man die RNA ganzer Embryos analysiert (damit war keine Aussage zur Entwicklung spezifischer Organe möglich), die Differenzierung von humanen Stammzellen und deren Tochterzellen verfolgt, Tiermodelle von Krankheiten des Menschen entwickelt, humane Organoide im Labor produziert und Schlussfolgerungen gezogen, welche Fehlentwicklungen hinter bestimmten Geburtsfehlern stehen.

Die aktuelle Studie wendet das statistische Verfahren der Hauptkomponentenanalyse (principal component analysis (PCA)) auf die sich ausweitenden Entwicklungswege der Zelllinien an, wenn aus den ersten Zellteilungen und der Schichtung von Geweben Organogenese wird. Die PCA erlaubt es, die überaus umfangreichen Datensätze auf ein überschaubares Ausmaß zu reduzieren, das die Trends (Substrukturen) unter den vielen Variablen aufzeigt. Dieser Ansatz (“lineage guided PCA” -LgPCA) identifiziert Gruppierungen von Genen ("Metagene"), die sich an der Bildung spezifischer Körperteile des Embryos beteiligen, einige davon in vielen Geweben.

Die Untersuchung katalogisiert nun die RNAs, die von Genen während der embryonalen Entwicklung vom Ende der 3. Woche bis zum Ende der 8. Woche transkribiert werden. Diese Forschung war möglich, weil es in England jahrzehntelange Erfahrung gibt, embryonales Gewebe in ethisch zulässiger Weise von Frauen zu erhalten, die sich freiwillig einem Schwangerschaftsabbruch unterziehen. Auf der Webseite der Human Tissue Authority ist jedes Detail beschrieben, wie mit humanen Zellen, Geweben und Organen gearbeitet werden muss. Die Seite berücksichtigt auch bioethische Bedenken hinsichtlich Zustimmung und Menschenwürde, Ausstellungen in Museen, religiösen und kulturellen Vorstellungen zu Organspenden, Verwendung von Stammzellen und Zelllinien und von embryonalem und fötalem Gewebe, das von Schwangerschaftsabbrüchen stammt.

Die Forscher sammelten Material und präparierten 15 spezifische Teile für ihre Analysen. Darunter waren ganze Organe wie beispielsweise die Nebennieren, Leber und Lunge aber auch bestimmte Segmente wie das Pigmentepithel der Retina des Auges, der Magen losgelöst von den Schließmuskeln und Knospen der Gliedmaßen. Um ausreichend RNA für die Analyse isolieren zu können wurden jeweils mehrere Präparate zusammengefasst (gepoolt) und die Abschnitte am Genom von denen Transkription erfolgte, identifiziert. Abbildung 3.

Abbildung 3. Menschlicher Embryo mit den 15 Geweben und Organen, die für die RNA-Analysen herangezogen wurden. (Bild von der Redaktion eingefügt; es ist Figure 1 aus Gerrard et a., (2016) entnommen [1] und steht unter cc-by Lizenz)

Über 6000 RNAs transkribiert, die nicht für Proteine kodieren

Indem sie die RNAs aus unterschiedlichen Regionen des Körpers isolierten, konnten die Forscher DNA-Sequenzen identifizieren, die komplexen angeborenen Anomalien zugrunde liegen und mehr als einen Gewebetyp betreffen, beispielsweise den Wolfsrachen (Gaumenspalte) und einige Formen der angeborenen Herzschwäche.

Das überraschendste Ergebnis war, dass von den 6 251 identifizierten neuen RNA-Transkripten rund 90 % keine der üblichen RNAs waren, die für Proteine kodieren. Sie waren vielmehr Transkripte von langen, zwischen den Genen liegenden Abschnitten der DNA und werden demgemäß als "long intergenic non-coding RNAs" ("LINC RNAs") bezeichnet. Diese LINC RNAs sind hochspezifisch für die einzelnen Körperteile, wo sie offensichtlich die Bereitstellung von Transkriptionsfaktoren regulieren – also von Proteinen, die ihrerseits nun wieder das Programm der Gen-Aktivierung und -Suppression steuern, das dann die Veränderungen in der Entwicklung direkt überwacht.

Mittels der oben erwähnten Hauptkomponentenanalyse (PCA) konnten aus dem riesigen Datensatz 11 Metagene identifiziert werden, also Gruppierungen von Genen, die sich an der Bildung spezifischer Körperteile des Embryos beteiligen. Ein Beispiel ist Metagen2, das 39 Gene umfasst, welche die Leber des Embryos formen. Da der PCA-Ansatz auf Zellinien basiert, kann er die genetischen Programme aufzeigen, die zu Entwicklungsdefekten führen: ein Beispiel ist das Holt-Oram Syndrom, das Hand und Herz betrifft (Fehlbildungen von Daumen oder Speiche und Herz).

Das Wissen, wie die Organentstehung genetisch kontrolliert wird, kann einerseits zur Entwicklung von Diagnosetests führen oder vielleicht sogar zu neuen Zielstrukturen (Targets) für die Entwicklung von Arzneimitteln. In der Forschung kann die Kenntnis von Genexpressionsmustern und Signalen, die ein Ereignis – wie beispielsweise die Bildung einer Milz – einleiten, Benchmarks ergeben, die für die Erzeugung induzierter pluripotenter Stammzellen und deren Differenzierung genutzt werden könnten.

Die großen Zusammenhänge

Die neue Sichtweise auf die Entstehung der Organe fasziniert mich ungemein. Welche Auswirkungen ihre Arbeit haben kann, beschreiben die Forscher beschreiben wohl am besten: "Die Entdeckung eines wesentlichen neuen Programms von nicht-kodierender Transkription fügt der raum-zeitlichen Regulierung des menschlichen Genom eine neue Ebene hinzu.

Die Identifizierung der Rolle von nicht-proteinkodierenden RNAs in der Ausbildung der embryonalen Organe, ist meiner Meinung auf der gleichen Linie zu sehen, wie die Entdeckung, dass Gene gestückelt sind – die Introns herausgeschnitten – und nur die Exons für Proteine kodieren. Dies hat Walter Gilbert im Jahr 1978 klargemacht [2] und damit mit einem Schlag die lange Zeit vertretene Ansicht zerstört, dass Gene in Form eines einzelnen DNA-Stücks für ein RNA-Molekül kodieren.

Abbildung 4. Eine DNA-Sequenz ist nicht "junk" (Müll), bloß weil wir ihre Funktion nicht kennen.

Wie ehemals Introns wurden auch LINC RNAs als Teil des Müllhaufens des Genoms, als "junk DNA" (Müll-DNA) betrachtet , eine Bezeichnung (u.a. von Francis Crick), welche von den Medien gleich vereinnahmt wurde und bis zum heutigen Tag weiterlebt. Abbildung 4.

Ich zweifle daran, dass viele Genetiker meinen, DNA-Sequenzen könnten ohne Nutzen oder Bedeutung sein, nur weil wir diese noch nicht entdeckt haben.

Das Wunder der Genetik liegt darin, dass wir oft meinen, wir wüssten bereits nahezu alles, was es zu wissen gibt, um dann doch wieder eine andere Sprache des Lebens zu entdecken.


[1] DT Gerrard, AA Berry, RE Jennings, KP Hanley, N Bobola, NA Hanley (2016) An integrative transcriptomic atlas of organogenesis in human embryos. eLife 2016;5:e15657. DOI: 10.7554/eLife.15657. https://elifesciences.org/content/5/e15657

[2] W Gilbert (1978) Why genes in pieces? Nature. 1978 Feb 9;271(5645):501


*Der Artikel ist erstmals am 8. September 2016 in PLOS Blogs - DNA Science Blog unter dem Titel "Genetic Choreography of the Developing Human Embryo" erschienen (http://blogs.plos.org/dnascience/2016/09/08/genetic-choreography-of-the-...) und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung durch ScienceBlog.at einverstanden erklärt. Diese folgt so genau als möglich der englischen Fassung.


Weiterführende Links

Zeitleiste der embryonalen Entwicklung (Carnegie Stadien) Fotos mit Beschreibung (deutsch) http://www.embryology.ch/carnegie/carnegiede.html?number=10

The Multi-Dimensional Human Embryo (Bradley Smith et al., collaboration funded by the National Institute of Child Health and Human Development (NICHD), Bethesda, Maryland): a 3D- image reference of the Human Embryo Carnegy stages 13 - 23 based on magnetic resonance imaging. https://www1.cgmh.org.tw/intr/intr5/c6700/OBGYN/F/embryo/carnStages.html

Embryo – Fetus (Howard Hughes Medical Institute) Video 2:18 min (englisch)

Ricki Lewis: Genetics and Reproduction: How Far Should We Go? Talk TEDxSchenectady. Video 21:48 min (englisch)

inge Fri, 16.09.2016 - 08:00

Wie sich Europas Bevölkerung ändert - das "Europäische Demographische Datenblatt 2016"

Wie sich Europas Bevölkerung ändert - das "Europäische Demographische Datenblatt 2016"

Fr, 09.09.2016 - 05:05 — IIASA

IIASAIcon Politik & GesellschaftVor wenigen Tagen ist das in Zusammenarbeit vom Internationalen Institut für angewandte Systemanalyse (IIASA) und dem Institut für Demographie der Österreichischen Akademie der Wissenschaften erstellte "Europäische Demographische Datenblatt 2016" (http://www.populationeurope.org/) erschienen [1]. Neben einer weiter steigenden Lebenserwartung weist die Prognose für das Jahr 2050 in vielen europäischen Staaten - darunter auch in Österreich und der Schweiz - auf eine massive Umschichtung der Bevölkerungsstrukturen hin, die durch Migration und sinkende Fertilitätsraten bestimmt sein wird.*

Vor wenigen Tagen ist die "European Population Conference" (31.8. - 3.9.2016, Mainz) zu Ende gegangen, die unter dem Motto " Demographischer Wandel und politische Auswirkungen" gestanden ist. Zu Beginn dieser Tagung wurde das "Europäische Demographische Datenblatt 2016" veröffentlicht. Dieses Datenblatt – entstanden aus der Kooperation zwischen dem Internationalen Institut für angewandte Systemanalyse (IIASA) und dem Institut für Demographie der Österreichischen Akademie der Wissenschaften – ist online frei zugänglich und bietet eine umfassende Zusammenstellung wesentlicher demographischer Indikatoren und Trends inklusive einer Prognose, wie sich die Bevölkerung bis zum Jahr 2050 entwickeln wird. So findet man darin Geburtenraten, Mortalitätsraten, Zahlen zu Migration und Bevölkerungsstrukturen einschließlich der Alterspyramiden für alle Staaten Europas und für europäische Regionen (West-, Nord-, Süd-, Zentralost-, Südost- und Osteuropa), für Japan und die USA. Das Datenblatt zeigt Landkarten, Bevölkerungspyramiden, Ranglisten, Tabellen, Grafiken und Themenboxen, die ausgewählte Fragen beleuchten - (adjustierte) Indikatoren für Fertilitäten, Pensionsalter und EU-weite Bevölkerungstrends (incl. Änderungen mit und ohne Brexit). Besondere Aufmerksamkeit richtet sich dabei auf die Bedeutung , welche die Migration auf heutige und zukünftige Änderungen der Bevölkerungsstrukturen auf unserem Kontinent hat und auf neue, von IIASA entwickelte Indikatoren für die Alterung der Bevölkerung [2].

Alterung - neue Maßzahlen

Federführend für die Erstellung des Datenblatts war Sergej Scherbov, Vizedirektor des "IIASA World Population Program" . Hinsichtlich Alterung meint er: "Wir berücksichtigen hierzu die sich ändernde Lebenserwartung (Dieser „prospective approach“ stuft Menschen als alt ein, wenn sie 15 (und weniger) Jahre Lebensspanne vor sich haben; siehe [2], Anm. Red.). Dies führt zu einer massiven Änderung des Bildes , das wir von einem alternden Europa haben." (Abbildung 1). Mit diesen neuen Maßzahlen sieht Scherbov, dass die Bevölkerung östlicher europäischer Staaten am raschesten altert (wohingegen übliche Standardindikatoren hier fälschlicherweise nur langsame Alterung in dieser Region angeben).

Abbildung 1. Die Altersgrenze, ab der die verbleibende Lebensspanne (weniger als) 15 Jahre beträgt, wird bis 2050 um bis zu 5 Jahre ansteigen. Entsprechend der steigenden Lebenserwartung und dem längeren Erhalt von physischen und psychischen Fähigkeiten definiert IIASA Alter vorausschauend durch die noch verbleibende Lebensspanne [2]. (Abbildung: European Demographic Data Sheet 2016 [1])

Das Datenblatt untersucht auch einige Ergebnisse des Projekts "Reassessing Aging from a Population Perspective (Re-Aging)", das Scherbov zusammen mit dem IIASA-Forscher Warren Sanderson leitet: das Konzept eines generationenübergreifend fairen Alters des Pensionsantritts (intergenerationally equitable normal pension age – IENPA). Dies bedeutet, dass die Balance zwischen Pensionsbeiträgen und späteren Pensionsleistungen für jede Generation in gleicher Weise sichergestellt ist und die Pensionssysteme sich ausreichend flexibel an Änderungen anpassen. (Abbildung 2).

Abbildung 2. Generationenübergreifend faires Alters des Pensionsantritts (intergenerationally equitable normal pension age - IENPA). Um die Balance zwischen Pensionsbeiträgen und späteren Pensionsleistungen für jede Generation in gleicher Weise sicherzustellen, ist die Anpassung des Pensionsantrittalters an die steigende Lebenserwartung Voraussetzung. Links: IENPA bis 2050 in Deutschland. Rechts: Im Jahr 2050 solllte IENPA im EU-28 Mittel bei 69,3 Jahren liegen, dies ist auch die Prognose für Österreich (Abbildungen: European Demographic Data Sheet 2016 [1])

Migration bewirkt große Änderungen

Die neuen Daten zeigen, wie Migration in den verschiedenen Ländern zu Wachstum oder Abnahme der Bevölkerung beiträgt. An Hand von Bevölkerungspyramiden sieht man welchen Anteil einheimische und zuwandernde Bewohner ausmachen. Abbildung 3.

Abbildung 3. Altersspyramiden für Österreich und Schweiz im Jahr 2015. Der Anteil an im Ausland geborenen Bewohnern ist nur in Luxemburg(44,2 % - vorwiegend EU-Ausländer) höher, in Zypern liegt er bei 20 %. Schweden (16,4 %), Deutschland (12,5 %), Frankreich (11,9 %), Italien (9,5 %), Spanien (12,5 %) weisen niedrigere Anteile als Österreich auf; besonders niedrige Zahlen mit unter 2 % haben haben Polen, Rumänien und Bulgarien. (Abbildungen und Zahlen: European Demographic Data Sheet 2016 [1])

Trends der Bevölkerungsentwicklung bis zum Jahr 2050 wurden für die Szenarios mit Migration und ohne Migration berechnet:

Für die EU als Ganzes genommen stellen die Prognosen bis 2050 ein Bevölkerungswachstum von 6,6 % in Aussicht (es werden dann 540 Mio Menschen sein), wenn Migration berücksichtigt wird. Andernfalls, ohne Migration, würde die Bevölkerung um 5,4 % (auf 479 Mio Menschen) abnehmen. In Zahlen ausgedrückt: Migranten, die zwischen 2015 und 2050 in die EU strömen und ihr Nachwuchs würden EU um 61 Mio Einwohner vergrößern. In einigen europäischen Ländern würde dies sogar zu über 30 % Zunahme der Einwohner führen. (Wenn UK im Jahr 2018 die EU verlässt, wird eine Abnahme von 13 % erwartet. )Abbildung 4.

Abbildung 4. Prognose: Wie sich die Bevölkerungszahlen in ausgewählten europäischen Staaten von 2015 - 2050 ändern . Der Bevölkerungszunahme in West-und Nordeuropa steht eine stark schrumpfende Bevölkerung in Zentral-Ost-, Südost- und Osteuropa gegenüber. Unter Berücksichtigung der Migration wird für Österreich nach Norwegen, Schweiz und Schweden das vierthöchste Bevölkerungswachstum (22 %) prognostiziert. Im Jahr 2050 wird es demnach 10,5 Mio Einwohner verzeichnen, ohne Migration (29,9 %) würde es auf 7,9 Mio schrumpfen. Deutschland kann sein Schrumpfen durch Migration gerade kompensieren. (Abbildung und Zahlen: European Demographic Data Sheet 2016 [1])

Migration führt in zahlreichen europäischen Ländern zur Umgestaltung der Bevölkerungsstruktur - der Treiber des Wachstums ist zumeist Migration und nicht Fertilität. Länder mit niedriger Fertilität wie beispielsweise Österreich, Schweiz oder Spanien (vor der Rezession im Jahr 2008) haben auf Grund von Einwanderung in den letzten Jahrzehnten einen massiven Bevölkerungszuwachs erlebt. Abbildung 5.

Abbildung 5.Prognose: Wie sich die Zahl der Lebendgeburten von 2015 - 2050 ändern wird. Vor allem für die skandinavischen Länder, England und die Schweiz werden steigende Geburtenraten erwartet, dagegen stark reduzierte Raten in Zentral-Ost-, Südost- und Osteuropa. In der Schweiz waren 2014 bereits 39%, in Österreich 31 % der Lebendgeburten auf ausländische Mütter zurückzuführen(mit Ausnahme von Luxemburg waren dies die höchsten Anteile in Europa). (Abbildung und Zahlen: European Demographic Data Sheet 2016 [1])

Im Gegensatz dazu ist in vielen Teilen Osteuropas, inklusive Rumänien und Litauen, die Einwohnerzahl geschrumpft - die Menschen sind in wohlhabendere Regionen Europas abgewandert. Moldavien könnte um die 40 % seiner Bevölkerung verlieren.

Zum Demographischen Datenblatt

Dieses erscheint seit 2006 im Abstand von zwei Jahren und stellt die vorrangige Quelle für Politiker und Demographen dar, die sich über die Dynamik der europäischen Bevölkerungsentwicklung ein Bild machen wollen. Zum ersten Mal gibt es dieses Datenblatt nun in einer frei zugänglichen online-Version [1], welche die Daten in einer Reihe unterschiedlicher Darstellungen präsentiert zusammen mit Details zur Herkunft der Daten und der Erklärung von Definitionen.


[1] European Demographic Datasheet 2016, Vienna Institute of Demography (VID) and International Institute for Applied Systems Analysis (IIASA). 2016. Wittgenstein Centre (IIASA, VID/OEAW, WU), Vienna.i>(Explore, visualize, and compare population indicators, charts, and maps for 49 European countries.)

[2] IIASA: Ab wann ist man wirklich alt?


*Der Blogartikel basiert auf der IIASA-Presseaussendung “New population data provide insight on aging, migration“ vom 25. August 2016. Diese wurde von der Redaktion aus dem Englischen übersetzt, geringfügig für den Blog adaptiert und mit Texten und Abbildungen aus dem European Demographic Datasheet 2016 (oder aus dessen Daten zusammengestellt) versehen. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.

inge Fri, 09.09.2016 - 05:05

Die Erkundung der verborgenen prähistorischen Landschaft rund um Stonehenge

Die Erkundung der verborgenen prähistorischen Landschaft rund um Stonehenge

Fr, 02.09.2016 - 08:25 — Wolfgang Neubauer

Wolfgang NeubauerIcon MINT>Im Rahmen des bisher größten archäologischen Forschungsprojekts "Stonehenge Hidden Landscape Project" haben das Ludwig Boltzmann Instituts für Archäologische Prospektion und Virtuelle Archäologie (LBI ArchPro) und die Universität Birmingham den Untergrund der Landschaft rund um das weltweit wohl berühmteste neolithische Monument Stonehenge mittels modernster zerstörungsfreier Erkundungsmethoden systematisch "durchleuchtet" und erstmals eine detaillierte archäologische Landkarte erstellt. Wolfgang Neubauer (Direktor des LBI ArchPro) berichtet hier über die sensationellen Forschungsergebnisse, welche die Geschichte von Stonehenge in einem völlig neuen Licht erscheinen lassen.

Vor rund 10 000 Jahren wurde nach der letzten Eiszeit das Klima in Europa wieder wärmer. In der mittleren Steinzeit ab 8 500 v. Chr. können in der Landschaft von Stonehenge, im Süden Englands, Spuren der ersten Jäger und Sammler nachgewiesen werden. Es gab hier warme Quellen - wenige Kilometer von dem Ort entfernt, wo später Stonehenge entstand -, ein immergrünes Gebiet, das Wildtiere vor allem in den kalten Jahreszeiten aufsuchten. Über Jahrtausende bis etwa 4300 v. Chr. zog dieses Gebiet - Blick Mead genannt - Jäger an . Sie bauten hier immer wieder saisonale Unterstände und errichteten Totems.

Wenige Jahrhunderte, nachdem sich die letzten Spuren der Jäger verloren, die Landverbindung zum Kontinent durch den steigenden Wasserspiegel im Meer versank, fanden in der Landschaft von Stonehenge Feste neuer vom Kontinent eingewanderter Bevölkerungsgruppen statt. Wo deren Siedlungen lagen, ist bis heute unbekannt, wir kennen aber die monumentalen Erdwerke und Grabanlagen, die sie im 4. Jahrtausend v. Chr. errichteten (siehe unten: Identifizierung und 3D-Visualisierung eines Gemeinschaftsgrabes).

Stonehenge – prähistorisches Design der Superlative

"Henges" - Räume, die von einem kreisförmigen oder ovalen Graben mit einem daran anschließenden Erdwall umschlossen wurden - waren prähistorische Kultplätze, von denen es auf den Britischen Inseln viele Beispiele unterschiedlicher Komplexität und Größe gibt und deren Entstehung zwischen 3000 und 2300 v. Chr. datiert wird.

Das bekannteste neolithische Bauwerk der Welt ist die heute noch sichtbare Ruine Stonehenge: es ist eine unvergleichliche Anordnung von kreisförmigen , im Zentrum hufeisenförmigen Steinstrukturen, die sich in der Mitte eines stark erodierten Walls und Grabens erhebt; außerhalb des zentralen Monuments stehen isolierte Steine. Es ist eine Anlage, die beginnend von rund 3000 v. Chr. an über einen Zeitraum von mehr als tausend Jahren in mehreren Phasen gebaut und genutzt wurde. Mit einfachen Werkzeugen wurden die riesigen Steine präzise zugerichtet und sorgfältig zu einem Bauwerk ineinander gefügt, das prähistorische Ingenieurkunst verkörpert und hohe Eleganz ausstrahlt . Abbildung 1.

Abbildung 1. Stonehenge: weltweit bekannteste neolithische Kultanlage und Weltkulturerbe. Der Bau erfolgte über mehr als ein Jahrtausend: in der frühesten Phase um 3000 v. Chr. bestand die kreisförmige Anlage aus einem Erdwall mit einer Einfriedung aus Holzpfosten, hatte einen Durchmesser von rund 115 m und war ein Begräbnisplatz (links unten). Später, ab 2.600 v. Chr. wurden Gruppierungen aus ca 4 t schweren, aufrecht stehenden Steinen ("Blausteinen) errichtet, die aus rund 240 km entfernten Regionen in Wales stammten (unten Mitte). Kreisförmige Strukturen aus 25 - 50 t schweren Sandsteinblöcken (Sarsensteinen) kennzeichnen die 3. Bauphase, von der heute noch die Reste zu sehen sind (unten rechts). Die Anordnung der Steine kennzeichnet den Tag der Sommer- und Wintersonnenwende. Über die Nutzungen als Observatorium und/oder auch als Heilstätte wird diskutiert (Bilder: © LBI ArchPro, Jakob Kainz; ©7reasons).

Die Kultanlage Stonehenge stand allerdings nicht isoliert,

sondern war in eine rituelle Landschaft mit Hunderten von Monumenten eingebettet. Einige davon sind bis heute im Gelände sichtbar, aber weit mehr liegen im Boden verborgen. Diese wurden erst jetzt im Rahmen des Stonehenge Hidden Landscapes Project (SHLP) mit Erkundungsmethoden aus der Luft und modernsten, nicht-invasiven Methoden der Bodenerkundung entdeckt. In diesem bisher größten archäologischem Forschungsprojekt hat das Ludwig Boltzmann Institut für Archäologische Prospektion und Virtuelle Archäologie (LBI ArchPro) gemeinsam mit seiner britischen Partnerinstitution, der Universität Birmingham und internationalen Partnern erstmals den Untergrund rund um Stonehenge auf einer Fläche von 12 Quadratkilometern detailliert "durchleuchtet". Mit großflächigen Messungen des Erdmagnetfelds, 3D-Laserscannern und Bodenradar wurden die im Boden verborgenen archäologische Strukturen aufgespürt und bisher unbekannte Details zu den bereits bekannten Monumenten ans Licht gebracht. Aus Terabytes von so gewonnenen Daten kann nun erstmals eine genaue Karte der archäologischen Landschaft erstellt und deren Entwicklung über die Zeit hin verfolgt werden. Abbildung 2. (Die genannten prospektiven Methoden wurden bereits vorgestellt in: Die zerstörungsfreie Vermessung der römischen Provinzhauptstadt Carnuntum [1]).

Abbildung 2. Eine archäologische Landkarte des rund 12 km2 großen Gebietes rund um Stonehenge herum. Hier eingezeichnet: das bereits früher entdeckte Woodshenge, das riesige Durrington Walls (s.u.) und ein ca 3 km langer, rund 150 m breiter "Cursus", der bereits einige Jahrhunderte vor Stonehenge angelegt wurde und dessen Funktion unbekannt ist. Unten: An Hand der bodenmagnetischen Untersuchungen (links) wurden 17 Henges neu entdeckt (rechts). Diese sind im Bild oben als rote Punkte markiert. (Bilder: © LBI ArchPro, Wolfgang Neubauer und © LBI ArchPro, Mario Wallner)

Das Stonehenge Hidden Landscapes Project (SHLP): neue Kapitel in der Geschichte von Stonehenge

Die neuen Entdeckungen im Rahmen des SHLP umfassen Henge-Monumente (Abbildung 2), Einfriedungen, Palisadengräben, Grabbauten und Tausende von Menschen gegrabene Gruben. Davon sollen hier nur zwei der spektakulärsten Entdeckungen kurz beschrieben werden.

Identifizierung und 3D-Visualisierung eines Gemeinschaftsgrabes

Zahlreiche, durch die Landwirtschaft bereits eingeebnete Grabhügel konnten identifiziert und im Detail erkundet werden: zwischen 3 800 und 3 500 v. Chr. errichteten die ersten Bauern und Viehzüchter Gemeinschaftsgräber für ihre Toten, sogenannte long barrows. Dies waren lange Hügel aufgeschichtet aus Erde und Kreidegestein, die hausartige Grabkammern aus Holz oder Stein überdeckten. Wie ein derartiges Totenhaus im Detail ausgesehen haben mag, kann an Hand der Visualisierung eines 2,6 km von Stonehenge entfernten long barrow aufgezeigt werden, das in der ersten Hälfte des vierten Jahrtausends v. Chr. entstanden sein dürfte. (Abbildung 3).

In den Bodenradarmessungen zeichnet sich die Form eines hölzernen Langhauses von über 30 m Länge ab und in dessen Inneren zahlreiche einzelne Bestattungskammern. Der Zugang wurde durch einen massiven Pfosten blockiert, sodass nur ein schmaler Durchgang in das Innere offen blieb. Die zangenförmig ausgreifende hölzerne Fassade umschloss einen Vorplatz, der Raum für Totenrituale bot.

Abbildung 3. Ein Haus für die Toten - ein sogenannter long barrow. Daten aus geophysikalischen Untersuchungen (oben links), Interpretation und 3D-Rekonstruktion. (Bilder: © LBI ArchPro, Joachim Brandtner)

Das Superhenge Durrington Walls

3 km nordöstlich von Stonehenge liegt dieses seit langem bekannte, prähistorische Monument, das größte Henge Englands mit über 500 m Durchmesser (im Vergleich dazu hatte Stonehenge einen Durchmesser von "nur" 115 m). Es besteht aus einem tiefen, innen liegenden Graben mit bis zu 17 m Breite begleitet von einem außen liegenden Wall. Zwei Pfostenkreise und kleinere Einfriedungen im 20 Hektar großen Innenraum waren der Mittelpunkt für saisonale Zeremonien und Feste (man hat dort große Mengen an Keramik und Tierknochen gefunden). Das Superhenge besaß einen nach Südosten gerichteten Eingang, von dem aus eine zur Wintersonnenwende ausgerichtete Avenue zum Fluss Avon führte.

Unter dem Wall verborgen liegen die Ruinen einer älteren Siedlung und die kürzlich vom SHLP mittels Bodenradarmessungen entdeckten Reste eines weit älteren, spektakulären Monuments. Es sind dies die Überreste des ersten großen Steinmonuments in der Landschaft von Stonehenge. Um die natürliche Senke, in der später das Henge errichtet wurde, hatte man bis zu 200 tonnenschwere, bis zu viereinhalb Meter hohe Steine in einer langen, C-förmigen Reihe aufgerichtet. Manche der Steine wurden dann spätestens um 2600 v. Chr. umgestoßen, einige liegen unter der Wallaufschüttung verborgen. Die größten davon haben die Dimension der Monolithen im äußeren Steinkreis von Stonehenge, andere sind gebrochen, die meisten wurden aber entfernt und können nur durch die großen Fundamentgruben nachgewiesen werden (möglicherweise dienten sie als Baumaterial für das später entstandene Stonehenge). Abbildung 4.

Abbildung 4. Durrington Walls, die (vermutlich) weltweit größte neolithische Henge-Anlage. Oben links: Visualisierung des riesigen Walls, des innenliegenden Grabens und der zwei Pfostenkreise. Oben rechts und unten: Wie die durch Bodenradarmessungen unter dem Wall entdeckte lange Steinreihe ausgesehen haben mag. (Bilder: © LBI ArchPro, Juan Torrejón Valdelomar, Joachim Brandtner)

Fazit

Modernste naturwissenschaftliche Untersuchungsmethoden revolutionieren die archäologische Forschung. Die vom LBI ArchPro entwickelten Techniken - vor allem Messungen mittels Bodenradar und hochauflösenden Magnetometern - bieten noch nie dagewesene Möglichkeiten ganze Landschaften systematisch und zerstörungsfrei auf die im Boden verborgenen Überreste früherer Kulturen zu durchleuchten und diese zu rekonstruieren. Das bisher größte archäologische Forschungsprojekt - "Stonehenge Hidden Landscape Project" - hat nun erstmals zu einer detaillierten Landkarte einer prähistorischen Landschaft geführt: eine Vielzahl neuer Monumente wurde rund um Stonehenge entdeckt, ebenso wie neue, den Archäologen bis dato unbekannte Arten von Monumenten. Über die Bedeutung und Funktion vieler dieser Denkmäler kann zur Zeit nur spekuliert werden.

Wie diese prähistorische Landschaft ausgesehen hat, kann nun in einer weltweit erstmaligen Ausstellung Stonehenge. Verborgene Landschaft im Museum Mistelbach bis 27.11. 2016 besichtigt werden (Details: [2], [3])). Aufwendige Visualisierungen vermitteln einen dreidimensionalen Eindruck der Landschaft von Stonehenge und der faszinierenden Kultdenkmäler, inklusive der neuesten Forschungsergebnisse zum noch viel größeren und älteren Steinkreis bei Durrington Walls. Ohne dafür die Kultstätte selbst bereisen zu müssen, lassen maßstabsgetreue, auf 3D-Laserscandaten basierende Rekonstruktionen der Steine die Größe und Dimension dieses Kultmonuments erfahren,


[1] Wolfgang Neubauer, 01.07.2016: Die zerstörungsfreie Vermessung der römischen Provinzhauptstadt Carnuntum. .

[2] Museum Mistelbach: Stonehenge. Verborgene Landschaft.

[3] Stonehenge. A Hidden Landscape - Exhibition Mamuz Museum: Video 8:50 min


Weiterführende Links

Ludwig Boltzmann Institute for Archaeological Prospection and Virtual Archaeology: http://archpro.lbg.ac.at Videos: LBI ArchPro - Durrington Walls new Stones: 1:20 min, Stonehenge Royal Society: 6:25 min Ground penetrating radar at Stonehenge: 2:34 min

BBC Operation Stonehenge What Lies Beneath 2of2 720p HDTV x264 AAC MVGroup org: 1:24:16


 

inge Fri, 02.09.2016 - 08:25

Wie Gene aktiv werden

Wie Gene aktiv werden

Fr, 26.08.2016 - 10:22 — Patrick Cramer

Patrick CramerIcon MolekularbiologieUm die Erbinformation in lebenden Zellen zu nutzen, müssen Gene aktiviert werden. Die Gen-Aktivierung beginnt mit einem Kopiervorgang, der Transkription, bei dem eine Genkopie in Form von RNA erstellt wird. Der Biochemiker Patrick Cramer (Direktor am Max-Planck Institut für biophysikalische Chemie, Göttingen) erforscht mit seinem Team, wie diese Kopiermaschinen ("RNA-Polymerasen") im Detail aufgebaut sind, wie sie arbeiten und gesteuert werden. Es sind bahnbrechenden Untersuchungen mittels strukturbiologischer Methoden, die nun erstmals eine Beschreibung des Kopiervorgangs und der Kopiermaschinen - der RNA-Polymerasen - in atomarem Detail ermöglichen.*

Gene zum Sprechen bringen

Zu den Kennzeichen des Lebens gehört, dass Organismen sich entwickeln und am Ende die Art erhalten. Dazu bedarf es der Erbinformation, die in lebenden Zellen in Form der DNA vorliegt. Die DNA ist ein fadenförmiges Molekül mit tausenden von funktionalen Abschnitten, wozu die Gene gehören. Gene sind für sich genommen stumm. Doch es kann ihnen Sprache verliehen werden. Dies geschieht während der Gen-Ausprägung, auch Gen-Expression genannt, bei der die genetische Information zur Synthese von Proteinen genutzt wird. Der erste Schritt in diesem Prozess ist die Transkription, ein Kopiervorgang, bei dem RNA-Kopien von Genen erstellt werden. Die biologischen Kopiermaschinen heißen RNA-Polymerasen und sind in der Lage, DNA in RNA zu übersetzen. Zu verstehen, wie Gene aktiviert werden und wie Genaktivität reguliert wird, ist von großem biomedizinischem Interesse.

Die Gen-Kopiermaschinen

In eukaryontischen Zellen gibt es mehrere RNA-Polymerasen, die verschiedene Gene kopieren. Dreidimensionale Strukturen von Polymerasen wurden in den letzten Jahren mit Hilfe der Röntgenkristallographie bestimmt. Die Struktur der RNA-Polymerase I umfasst 14 Untereinheiten und zeigt, wie diese Maschine in einem inaktiven Zustand auf ihren Einsatz zur Kopie ihres Zielgens wartet (Abbildung. 1; [1]).

Abbildung 1: Atomare Struktur der RNA-Polymerase I. Die Struktur dieses sehr großen (Molekulargewicht 590 000), aus 14 Untereinheiten bestehenden Enzyms wurde im Labor des Autors mithilfe der Röntgenkristallographie ermittelt [1]. © Max-Planck-Institut für biophysikalische Chemie/Cramer.

Die Struktur der RNA-Polymerase II ist bereits aus mehreren aktiven und inaktiven Zuständen bekannt [2]. Aus der Vielzahl der strukturellen Schnappschüsse konnte so ein Film der Gen-Transkription erstellt werden (Abbildung 2; [3]). Eine spezialisierte, viel kleinere RNA-Polymerase findet sich in den Kraftwerken der Zelle, den Mitochondrien [4].

Alle Polymerasen haben ein aktives Zentrum, das RNA-Moleküle anhand einer DNA-Vorlage synthetisieren kann. Die Kopiermaschinen unterscheiden sich aber auf ihrer Oberfläche. Dies ermöglicht es, verschiedene Polymerasen zu ihren spezifischen Zielgenen zu bringen und individuell zu regulieren.

Abbildung 2: Atomare Struktur der RNA-Polymerase II. Auch die Struktur dieses großen, komplexen Proteins (Molekulargewicht 550 000) wurde im Labor des Autors mithilfe der Röntgenkristallographie ermittelt [2]. Die Doppelhelix der DNA (blau-türkis), im aktiven Zentrum des Enzyms angedockt, ist hier bereits geöffnet, ein Strang dient als Vorlage (Template) für die Synthese eines neuen RNA-Strangs (roter Strang). © Max-Planck-Institut für biophysikalische Chemie/Cramer

Wie die Gen-Abschrift beginnt

Wie die Transkription startet, ist am besten für die RNA-Polymerase II verstanden. Dieses Enzym arbeitet dazu mit mehreren spezifischen Faktoren zusammen. Die Faktoren helfen zunächst, den Beginn eines Gens auf der DNA zu finden. Dann wird die DNA, die als Doppelhelix vorliegt, entwunden, was den Matrizenstrang freilegt. Nun kann die RNA-Polymerase den Matrizenstrang binden und den Kopiervorgang einleiten. Wie einige der Schritte dieser sogenannten Initiation ablaufen, konnte kürzlich sichtbar gemacht werden [5, 6]. Dabei weisen sowohl die RNA-Polymerase als auch die zusätzlichen Faktoren eine große Flexibilität auf. Die Dynamik der Transkription und die Beteiligung dutzender von Faktoren, die nur vorrübergehend präsent sind, erschweren allerdings die Strukturanalyse und eine vollständige Aufklärung des Prozesses.

Wie der Kopiervorgang reguliert wird

In menschlichen Zellen sind über Tausend Faktoren bekannt, die die Transkription regulieren. Sie sorgen dafür, dass die Transkription nur an denjenigen Genen startet, die zu einer bestimmten Zeit und an einem bestimmten Ort im Organismus aktiviert werden müssen. Die regulatorischen Faktoren können den Prozess der Initiation nur indirekt steuern, indem Sie auf sogenannte Koaktivatoren Einfluss nehmen. Der prominenteste Koaktivator ist der sogenannte Mediator-Komplex, der fast dreimal so groß wie die RNA-Polymerase II selbst ist und aus 25 bis 35 Untereinheiten besteht. Es ist jetzt gelungen, Einsichten in den Aufbau des Mediators zu erlangen [7] und seine Position auf der RNA-Polymerase II zu bestimmen (Abbildung 3; [8]).

Abbildung. 3: Regulierung des Transkriptionsvorgangs. Oben: Schematische Darstellung der RNA-Polymerase II, die zusammen mit vielen Faktoren - darunter dem riesige Mediatorkomplex - eine hochkomplexe, dynamische Genkopiermaschine bildet (Bild von der Homepage des Autors eingefügt; Red.). Unten: Derzeitiges Modell der RNA-Polymerase II (silber) mit gebundenem Mediatorkomplex (blau) und weiteren Faktoren. Diese Struktur wurde mithilfe der Kryo-Elektronenmikroskopie bestimmt. © Max-Planck-Institut für biophysikalische Chemie/Cramer

Für diese Arbeiten wurde die Kryo-Elektronenmikroskopie angewandt, die es nun aufgrund von technischen Entwicklungen ermöglicht, auch sehr große und flexible Komplexe in molekularem Detail sichtbar zu machen. So wurde beispielsweise erkannt, wie der Mediator den Prozess der Initiation der Transkription erleichtern und so Gene aktivieren kann.

Vom Molekül zum System

Zukünftig muss die Genaktivität möglichst als Ganzes im lebenden System der Zelle untersucht werden, um so Zusammenhänge zwischen der Ausprägung einzelner Gene besser zuordnen zu können. Dazu werden immer mehr Methoden entwickelt, die es erlauben, die Aktivität aller Gene gleichzeitig zu studieren. In jüngeren Studien wurde gezeigt, dass alle aktiven Gene eine besondere, modifizierte Form der RNA-Polymerase II tragen [9]. Auch gibt es in Zellen einen Mechanismus, der dafür sorgt, dass fehlgeleitete Transkription generell gestoppt wird [10]. So werden Polymerasen, die fälschlicherweise Regionen im Erbgut kopieren, die außerhalb der Gene liegen, von der DNA losgelöst. Das unbrauchbare RNA-Produkt wird nachfolgend abgebaut.

Nun gilt es, die molekularen und systemischen Ansätze derart zu kombinieren, dass ein umfassendes Verständnis der Genaktivität erreicht wird. Ein tiefes Verständnis dieser fundamentalen Prozesse könnte es ermöglichen, eine Fehlregulation der Genaktivität, wie sie bei vielen Krankheitsprozessen und insbesondere beim Krebs auftritt, zu korrigieren.


Literaturhinweise

[1] Engel, C.; Sainsbury, S.; Cheung, A. C.; Kostrewa, D.; Cramer, P. RNA polymerase I structure and transcription regulation. Nature 502, 650-655 (2013)

[2] Cheung, A.C.; Cramer, P. Structural basis of RNA polymerase II backtracking, arrest and reactivation. Nature 471, 249-253 (2011)

[3] Cheung, A.C.; Cramer, P. A movie of RNA polymerase II transcription. Cell 149, 1431-1437 (2012)

[4] Ringel, R.; Sologub, M.; Morozov, Y.I.; Litonin, D.; Cramer, P.; Temiakov, D. Structure of human mitochondrial RNA polymerase. Nature 478, 269-273 (2011)

[5] Kostrewa, D.; Zeller, M.E.; Armache, K.J.; Seizl, M.; Leike, K.; Thomm, M.; Cramer, P. RNA polymerase II-TFIIB structure and mechanism of transcription initiation. Nature 462, 323-330 (2009)

[6] Sainsbury, S.; Niesser, J.; Cramer, P. Structure and function of the initially transcribing RNA polymerase II-TFIIB complex. Nature 493, 437-440 (2013)

[7] Laivière, L.; Plaschka, C.; Seizl, M.; Wenzeck, L.; Kurth, F.; Cramer, P. Structure of the Mediator head module. Nature 492, 448-451 (2012)

[8] Plaschka, C.; Larivière, L.; Wenzeck, L.; Seizl, M.; Hemann, M.; Tegunov, D.; Petrotchenko, E.V.; Borchers, C.H.; Baumeister, W.; Herzog, F.; Villa, E.; Cramer, P. Architecture of the RNA polymerase II-Mediator core initiation complex. Nature 518, 376-380 (2015)

[9] Mayer, A.; Heidemann, M.; Lidschreiber, M.; Schreieck, A.; Sun, M.; Hintermair, C.; Kremmer, E.; Eick, D.; Cramer, P. CTD tyrosine phosphorylation impairs termination factor recruitment to RNA polymerase II. Science 336, 1723-1725 (2012)

[10] Schulz, D.; Schwalb, B.; Kiesel, A.; Baejen, C.; Torkler, P.; Gagneur, J.; Soeding, J.; Cramer, P.Transcriptome surveillance by selective termination of noncoding RNA synthesis. Cell 155, 1075-1087 (2013)


* Der gleichnamige im Jahrbuch der Max-Planck Gesellschaft 2016 erschienene Artikel ( https://www.mpg.de/9956356/MPIbpc_JB_20161?c=10583665&force_lang=de ) wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier geringfügig für den Blog adaptiert (u.a. wurde eine Grafik von der homepage des Autors in Abbildung 3 eingefügt). Die nicht frei zugänglichen Literaturstellen können auf Anfrage zugesandt werden.


Weiterführende Links

Max-Planck-Institut für biophysikalische Chemie, Göttingen http://www.mpibpc.mpg.de/de

A movie of RNA Polymerase II transcription, (Cramer Group). Der erste Film, der den Prozess der Transkription in atomarer Auflösung zeigt. Video 6:05 min, (Standard-YouTube-Lizenz). (Unter dieser Adresse finden sich weitere 5 Videos aus der Cramer Gruppe zu Mechanismen der Transkription)

Animation: The Central Dogma, Nature Video, 10:47 min (englisch; Standard-YouTube-Lizenz)

inge Fri, 26.08.2016 - 10:22

Das Ende des Moore'schen Gesetzes — Die Leistungsfähigkeit unserer Computer wird nicht weiter exponentiell steigen

Das Ende des Moore'schen Gesetzes — Die Leistungsfähigkeit unserer Computer wird nicht weiter exponentiell steigen

Fr, 19.08.2016 - 07:27 — Peter Schuster

Peter SchusterIcon MINTSeit mehr als 50 Jahren sind Wissenschafter ebenso wie Laien an die Nutzung von Rechnern gewohnt , die immer schneller und dabei immer effizienter werden, insbesondere, was Prozessorleistung, Größe des internen Speicher und Speicherkapazität betrifft. Der theoretische Chemiker Peter Schuster (emer. Prof. Univ Wien) erklärt hier welche Auswirkungen die - entsprechend dem Moore'schen Gesetz - bis jetzt anhaltende, exponentielle Steigerung der Computerleistung auf die wissenschaftlichen Disziplinen hatte und warum diese bald ein Ende finden wird.

Kürzlich hat Mitchell Waldrop, US-amerikanischer Teilchenphysiker und Redakteur des Journals Nature, die gegenwärtige Lage der Chip-Hersteller analysiert. Er kommt zur Schlussfolgerung: die von Moore im Jahr 1965 vorausgesagte, bis jetzt anhaltende exponentielle Steigerung der Computerleistung wird nun ein Ende erreichen [1].

Ist dies tatsächlich realistisch?

Als Nutzer von Rechnern seit nahezu deren Anbeginn, möchte ich im Folgenden versuchen die spektakuläre Entwicklung der Computer zu beleuchten: die Erfolge, die bis jetzt für die Mathematik, Naturwissenschaften und Technologien erzielt wurden, ebenso aber auch die möglichen Konsequenzen, die das Ende dieser Entwicklung bedeutet.

Das Moore'sche Gesetz

Nur wer bereits an den Rechenanlagen der frühen 1960er Jahre arbeitete, kann die enormen, seitdem erfolgten Fortschritte - im Großen wie auch in jedem kleinsten Detail - wirklich bewerten. Abbildung 1.

Man braucht sich nur an all die lästigen Unannehmlichkeiten von Damals erinnern: an das Stanzen von Lochstreifen, an die Fernschreibgeräte und dann an Prozessoren (Central Processing Units - CPU), die gerade einmal Speicher von 16 KB aufwiesen.

Abbildung 1. 50 Jahre Computer. Links: Einer der ersten Computer in Österreich war das mit 1.600 Elektronenröhren ausgestattete Burroughs 205 Datatron, an dem ich ab 1962 für meine Doktorarbeit rechnete (links unten die Stromversorgung). Das , was damals einen großen Raum füllte, enorme Wärme entwickelte und überaus störanfällig war, brachte unvergleichlich weniger Rechenleistung als (rechts) heute ein kleiner, moderner Laptop. (Bilder links: https://zid.univie.ac.at/chronik , rechts: https://www.wired.com/2013/01/samsung-chromebook-3/; Lizenz cc-by)

In diesem damaligen Szenario gab die Prophezeiung Hoffnung , dass die Computer-Leistungsfähigkeit eine exponentielle Steigerung erfahren werde. Diese Voraussage machte Gordon Moore, der ursprünglich ein Doktorat in Chemie, Nebenfach Physik, an der Caltech-Universität erworben hatte, als Postdoc in die angewandte Physik wechselte und schließlich ein führender Wissenschafter und Unternehmer in der Halbleiter-Technologie wurde. In seiner Funktion als Direktor von Forschung & Entwicklung des Fairchild Halbleiter Unternehmens wurde er - anlässlich des 35 jährigen Bestands des Jorurnals Electronics im Jahre 1965 gebeten einen Artikel zu schreiben. Er sollte darstellen, wie sich seiner Meinung nach die Halbleiter-Industrie in den nächsten zehn Jahren entwickeln werde.

Moore's Vorhersage der exponentiellen Steigerung der Leistungsfähigkeit von Computern basierte auf der überaus erfolgreichen Miniaturisierung der Komponenten in dichte integrierte Schaltkreise. Diese Extrapolation aus der beobachteten Entwicklung in der Vergangenheit in die Zukunft - üblicherweise als Moore'sches Gesetz bezeichnet, obwohl es sich augenscheinlich weder um ein physikalisches noch um ein ökonomisches Gesetz handelt und damit besser als Moore'sche Regel gelten sollte - wurde zum Leitprinzip für das Design von Computerspeichern und Mikroprozessoren. Die zur Verdopplung der Leistung nötige Zeit schätzte Moore vorerst auf ein Jahr und korrigierte dies 10 Jahre später auf 2 Jahre. Damals war er bereits Vizepräsident der NM Electronics (später Intel Cooperation), die er 1968 zusammen mit Robert Noyce gegründet hatte.

Exponentielles Wachstum kann nicht ewig fortdauern

Meiner Ansicht nach grenzt es geradezu an ein Wunder, dass das Moore'sche Gesetz über 50 Jahre gelten konnte. Nach Ansicht des eingangs zitierten Waldrop hat dies teilweise mit dem Forschungs- und Entwicklungsplan - der Road Map - der Halbleiterforschenden Industrie zu tun, die seit den 1990er Jahren alle zwei Jahre die Agenda ihrer Hersteller und Zulieferer koordinierte, nach dem Motto "More Moore". Moore's Gesetz wurde damit zur selbsterfüllenden Prophezeiung und bis jetzt betrachtete die Semiconductor Industry Association (SIA) diese Regel als Grundlage ihrer Strategien für die Zukunft. Abbildung 2.

Abbildung 2. Das Moore'scheGesetz: Die Zahl der Rechenoperationen steigt exponentiell und wird immer billiger. Laut Waldrop sollte ab 2020 eine Stagnation des Wachstums eintreten (rote, gestrichelte Linie; Bild modifiziert nach: https://www.flickr.com/photos/jurvetson/3656849977).

Miniaturisierung stößt an Grenzen

Exponentielles Wachstum wird erwartungsgemäß bald an seine Grenzen stoßen. Dasselbe gilt für die Miniaturisierung. Wenn die Zahl an Transistor-Elementen auf einem Chip zunimmt, sinkt der Abstand in dem Halbleitereigenschaften zum Tragen kommen. Abbildung 3. Die Grenze ist bei etwa atomaren Abständen erreicht, wo bereits Quanteneffekte von Bedeutung werden. Daher wurde vielfach die Ansicht vertreten, dass es der physikalische Abstand ist, der die Grenze der Miniaturisierung und damit das Ende der Moore'schen Extrapolation bestimmt. Es zeigte sich allerdings, dass zuvor eine andere Beschränkung, nämlich die Wärmeentwicklung, bestimmend ist.

Abbildung 3. Ein Mikroprozessor (Intel i486DX2) für einen Personal Computer 1992. Nach Öffnen des Gehäuses des Chips sieht man rund 1,2 Millionen Transistoren auf einer Fläche von etwa 76 mm2 untergebracht. Heute sind es bereits Milliarden Transistoren. (Bild: cc-by-sa. Englische Wikipedia).

Bereits der Computer-Pionier Rolf Landauer hatte auf Basis grundlegender thermodynamischer Überlegungen und der Irreversibilität der Rechenvorgänge das Problem einer unvermeidbaren Wärmeentwicklung erkannt. Die Alternative - unendlich langsames Rechnen und kein Löschen von Daten - würde zwar zu reversiblen Vorgängen führen, aber nicht den Anforderungen an einen Computer entsprechen können.

Der Anstieg der Leistungsfähigkeit der Rechner war bis 2002 teilweise auf das Steigen der Taktfrequenzen zurückzuführen. Seitdem blieben diese aber annähernd konstant - üblicherweise unter 3 GHz, während die Zahl der Transistoren auf einem Chip weiterhin exponentiell anstieg. Früher brachte ein Verkleinern automatisch Vorteile: die Elektronen hatten geringere Distanzen zurückzulegen, die Chips arbeiteten schneller und die Energieaufnahme sank. Als aber zur Jahrhundertwende die Abstände auf den Chips sich unter 90 nm verringerten und der rasche Elektronenfluss mehr Hitze erzeugte als abgeführt werden konnte, wurden dir Chips zu heiß. Die Lösung dieses Problems bestand in der Etablierung von Multiprozessor CPU's - im Prinzip erreicht man mit 4 CPU's, die bei 250 MHz arbeiten, dieselbe Leistung, wie mit einem 1 GHz-Rechner.

Der Rekord im Miniaturisieren von Schaltkreisen liegt derzeit bei einem Durchmesser von 14 nm, entsprechend dem Moore'schen Gesetz könnten 2 - 3 nm in den 2020er Jahren erreicht werden. Dies bedeutet dann aber eine nicht mehr überwindbare Grenze. Mit nur zehn oder weniger Atomen Distanz zwischen den Einheiten kommt man in den Bereich von Quanteneffekten - die Transistoren würden dann hoffnungslos unverlässlich werden. Dieser Quanten-bedingten Grenze steht aber noch eine ökonomische Grenze im Weg. Die Kosten für Chips-Produzenten steigen mit der Zahl der auf einem Chip befindlichen Transistoren exponentiell an - eine experimentelle Beobachtung, die gerne auch als 2. Moore'sches Gesetz bezeichnet wird. Wir stehen damit eines Tages vor der Situation, dass die erforderlichen Investitionen höher werden, als dass sie auch von den größten Unternehmen getragen werden könnten.

Anforderungen des Markts

Ein anderes Faktum, das die Industrie zum Aufgeben des Moore'schen Gesetzes veranlassen wird, wird durch die Forderungen des Markts diktiert. Bis zur Jahrtausendwende dominierten Chips, die in Großrechnern, Minicomputern, Personalcomputern und Laptops eingesetzt wurden. Danach hat sich das Spektrum der Anwendungen enorm erweitert: Smartphones und Tablets benötigen zwar unterschiedliche Prozessoren, die Chips sind aber den früheren Chips aber durchaus vergleichbar. Mit dem Einsatz in Anlagen und Geräten des täglichen Lebens änderte sich die Situation gewaltig. Prozessoren in einer Waschmaschine, einem Geschirrspüler, einem Auto, einer Klimaanlage, etc. müssen ja nicht auf einem "Allzweck"-Chip lokalisiert werden und sie benötigen im allgemeinen auch keine wesentlich höhere Leistungsfähigkeit als derzeit vorhanden ist. Ganz im Gegenteil: auf die spezielle Anwendung getrimmte Geräte erfüllen die Anforderungen fast immer besser und sind, wenn sie in großen Zahlen produziert werden, auch billiger. Die Halbleiter-Industrie geht also in Richtung Spezialisierung und wird damit den Pfad des Moore'schen Gesetzes verlassen.

Eine neue Moore-Ära?

Was wird nun mit den restlichen Firmen, die der Moore'schen Road Map folgen, wenn in den frühen 2020er Jahren eine weitere Miniaturisierung auf Grund störender Quanteneffekte nicht mehr stattfinden kann? Es gibt hier eine Reihe von Ideen wie, um nur zwei Beispiele zu nennen, den Quantencomputer oder neuromorphes Rechnen. Bis jetzt haben diese nur wenig erreicht und es besteht eine Menge an Skepsis. Ungeachtet der Probleme, die mit grundlegend neuen Rechenmethoden zu lösen sein werden - welche deshalb weiter verfolgt werden müssen - erscheint es unwahrscheinlich, dass damit eine neue, ein weiteres halbes Jahrhundert dauernde " Moore Ära" der ComputerEntwicklung eingeleitet wird. Wir können zweifellos punktuelle Verbesserungen der Rechneranlagen erwarten aber nichts davon wird eine über Dekaden andauernde Leistungssteigerung erbringen.

Steigerung der Rechnerleistungen = Fortschritt in den Wissenschaften

Es ist überflüssig zu sagen, dass die Verwendung von Rechnern das Stadium praktisch aller wissenschaftlichen Disziplinen ganz wesentlich verändert hat. Zu den zwei Säulen - Theorie und Experiment - auf denen der wissenschaftliche Fortschritt beruht, ist als dritte Säule die Computersimulation hinzu gekommen.

Dass riesengroße Rechenjobs ausgeführt werden können, hat die Entwicklung neuer, hocheffizienter Algorithmen gefördert , die wiederum maßgeblich zur Steigerung der Rechnermöglichkeiten beigetragen haben. Es ist hier immer wieder zu betonen: für den Fortschritt der Computer-unterstützten Lösung von Problemen ist der Beitrag der numerischen Mathematik mindestens ebenso wichtig wie der Fortschritt in der Hardware.

in der Mathematik

Um kurz auf den Nutzen gesteigerter Rechnermöglichkeiten für die einzelnen Disziplinen einzugehen: In der reinen Mathematik sind vor allem zwei Auswirkungen zu erwähnen: es gibt nun i) das sogenannte "symbolisches Rechnen", das die Analyse von früher als hoffnungslos kompliziert angesehenen Problemen ermöglicht und ii) mathematische Beweise durch "erschöpfendes Rechnen". Computer-unterstützte Beweise werden zwar nicht von allen Mathematikern akzeptiert , sie tragen aber mehr und mehr zur Lösung alter und neuer offener Probleme bei.

…in der Chemie

Was die Chemie betrifft, so waren vor der Ära der modernen Computer quantenchemische Berechnungen von kleinen Molekülen und Kristallen von sehr ungenauen Näherungen abhängig und verlässliche Resultate gab es nur in außerordentlichen Fällen. Heute bietet die Rechner-Technologie ausreichend Leistung, um sehr genaue Lösungen der stationären Schrödinger-Gleichung für kleine Moleküle zu ermöglichen; die so berechneten Strukturen und Spektren von Molekülen sind häufig genauer als die experimentell bestimmten. Für die Entwicklung von Rechnermethoden in der Quantenchemie wurden Walter Kohn und John Pople 1988 mit dem Nobelpreis ausgezeichnet.

…in den Ingenieurwissenschaften

Hier sind die Erfolge der rechnerunterstützten Anwendungen überaus beeindruckend. Die äußerst genaue „Methode der finiten Elemente“ - grundsätzlich handelt es sich um den Einsatz numerischer Lösungsmethoden für Differentialgleichungen - kann für verschiedenste physikalische Fragestellungen angewandt werden. Beispielsweise sind Berechnungen der Strömungsdynamik bereits so verlässlich geworden, dass sie in ernsthafte Konkurrenz mit Versuchen im Windkanal getreten sind. Rechnergestützte Mechanik zur Stabilität von Beton ist aus den Planungsunterlagen im Tunnel- und Brückenbau nicht mehr wegzudenken, ebenso wie auch Berechnungen zur präzisen Demolierung von Gebäuden. Es könnten hier noch viele andere Beispiele angeführt werden, die interdisziplinäre, komplexe, von vielen Variablen abhängige Optimierungsprobleme lösen. Zu all diesen Anwendungen gibt es bereits Übersichtsartikel.

…in biologisch/medizinischen Wissenschaften

In all den vorher genannten Disziplinen wäre eine weitere Steigerung der Rechnerleistungen im Sinne des Moore'schen Gesetzes zwar wünschenswert, aber - wenn man Berechnung und Experiment in Hinblick auf Genauigkeit und Verlässlichkeit vergleicht - kaum notwendig. Es gibt allerdings Disziplinen, die ein Mehr an Computerleistung erfordern: Dies trifft für die Lösung von Problemen in der molekularen Dynamik zu, für bestimmte Gebiete der theoretischen Biologie, wie beispielsweise der Systembiologie, für die Bioinformatik, deren Ziel das Verwalten und Analysieren von Big Data ist oder auch für die rechnerunterstützte Medizin. Im letzteren Fall würde es wohl einer zweiten, mindestens 50 Jahre anhaltenden Steigerung der Rechnerkapazitäten bedürfen um die Standards einigermaßen erfolgreicher Berechnung zu erreichen. Schon jetzt wird intensiv an verlässlichen Vereinfachungen gearbeitet. Eine Stagnation im weiteren Anstieg der Computerleistung wird diese Entwicklungen entscheidend vorantreiben und könnte damit einen durchaus positiven Impuls auf die Methodenentwicklung und die Implementierung effizienterer Berechnungen haben.

Fazit

Betrachtet man die Chip-erzeugende Industrie und die sich ändernden Anforderungen des Markts, so kommt man zu dem Schluss, dass das Moore'sche Gesetz nun seinEnde findet. Zukünftige Steigerungen der Computer-Leistung werden wohl punktuelle sein, nicht jedoch - wie in den vergangenen 50 Jahren - das ganze System betreffen. Auch, wenn damit kein wesentliches Weiterkommen in der Leistung der Hardware verbunden ist, können wir dennoch einen enormen Fortschritt in der numerischen Mathematik und der Entwicklung von Algorithmen erwarten, die zukünftige Berechnungen noch erfolgreicher machen werden. Es gibt also keinen Grund für Pessimismus!


[1] Waldrop, M.M. More than Moore. Nature 2016, 530:145-147


Der vorliegende Essay ist die deutsche Fassung des Artikels „The end of Moore’s law. Living without an exponential increase in the efficiency of computational facilities?“, der in Kürze im Journal Complexity 21 (1) erscheinen wird und eine komplette Liste von Literaturzitaten enthält.


Weiterführende Links

zu diesem Themenkreis sind im ScienceBlog erschienen:

von Peter Schuster

von Gerhard Weikum:

inge Fri, 19.08.2016 - 07:27

Meilenstein der Sinnesphysiologie: Karl von Frisch entdeckt 1914 den Farbensinn der Bienen

Meilenstein der Sinnesphysiologie: Karl von Frisch entdeckt 1914 den Farbensinn der Bienen

Fr, 12.08.2016 - 09:22 — Redaktion

RedaktionIcon BiologieDer aus Wien stammende Karl von Frisch (1886 - 1982) war einer der bedeutendsten deutschsprachigen Verhaltensforscher. Seine Untersuchungen betrafen die Sinnesphysiologie und das Verhalten insbesondere von Fischen und Bienen. Er wies deren Fähigkeit nach Farben zu sehen, den Geruchs- und Geschmacksinn der Bienen, das Hörvermögens der Fische und entdeckte die Tanzsprache der Bienen. Diese nehmen die Schwingungsrichtung des polarisierten Himmelslichtes wahr, nützen diese zu ihrer Orientierung und geben durch bestimmte Tanzformen die Information an andere Bienen weiter. 1973 wurde von Frisch - zusammen mit dem Österreicher Konrad Lorenz und dem Holländer Nikolaas Tinbergen - mit dem Nobelpreis für "Entdeckungen zur Organisation und Auslösung von individuellen und sozialen Verhaltensmustern" ausgezeichnet.

Abbildung 1. Karl von Frisch, als Professor an der Universität Breslau (Bild um 1923 -1925: http://www.7cudow.eu/en/eksponaty/noblisci) "Es war mir stets daran gelegen, die Ereignisse wissenschaftlicher Forschung in allgemein verständlicher Form auch dem Laien nahezubringen" — Karl von Frisch, 1980 [1]

Karl von Frisch war nicht nur ein außergewöhnlicher, kreativer Forscher, er verstand es auch seine "Wissenschaft" in einfacher, jedem Laien verständlicher Sprache zu vermitteln. Auch als ein noch recht junger Forscher. Davon zeugt der Vortrag „Über den Farbensinn der Fische und der Bienen“ , den er am 27. November 1918 im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien" gehalten hat und der im Jahrbuch 1919 des Vereins veröffentlicht wurde [2]. Auf Grund der Länge dieses Textes, beschränken wir uns im Folgenden nur auf den Teil "Farbensehen der Bienen", den wir ungekürzt und geringfügig für den Blog adaptiert wiedergeben (ergänzt mit einigen Untertiteln und Abbildungen aus dem 1914 erschienenen Buch "Der Farbensinn und Formensinn der Biene" von Karl von Frisch [3]).

Wer mehr über Karl von Frisch erfahren möchte: ein 1980 von ihm selbst verfasster Lebenslauf findet sich unter [1].


Karl von Frisch: Über den Farbensinn der Bienen

Es wird das Folgende besser verständlich machen, wenn ich einige Worte über den Farbensinn des Menschen vorausschicke.

Das normale, farbentüchtige Menschenauge vermag zahlreiche Farbennuancen zu unterscheiden. Es gibt aber auch gar nicht wenige Menschen, deren Farbensinn einen gewissen Defekt hat, deren Unterscheidungsvermögen für Farbtöne stark beschränkt ist. Es gibt ferner als seltene Ausnahmen auch Menschen, die überhaupt keine Farben wahrnehmen können. Sie sehen die Welt so, wie sie uns Farbentüchtigen in farblosen Photographien erscheint; sie sehen alle Gegenstände grau, nur je nach ihrer Farbe und Beleuchtung in verschiedener Helligkeit. Sie haben also keinen Farbensinn, sie sind „total farbenblind".

Können niederer organisierte Tiere Farben sehen?

Es wäre möglich, dass totale Farbenblindheit, die uns beim Menschen als seltene pathologische Erscheinung begegnet, bei so viel niederer organisierten Tieren, wie es etwa die Fische sind, der normale, allen Individuen gemeinsame Zustand ist. Doch war man bis vor wenigen Jahren allgemein der Ansicht, dass die meisten Tiere mit gut entwickelten Augen Farbensinn besitzen. Gewisse Experimente schienen den Beweis dafür zu liefern. So hat man Fischen in einem Bassin durch längere Zeit hindurch das Futter stets an einem roten Stäbchen dargeboten. Zeigte man ihnen dann ein rotes und ein grünes Stäbchen, so schossen sie nur auf das rote los und ließen das grüne unbeachtet. Oder: einer Hummel wurde auf blauem Papier Honig dargeboten. Bei ihrer Wiederkehr wurde ihr ein blaues und ein rotes Papier vorgelegt. Sie ließ das rote unbeachtet und flog direkt zum Blau.

Erst der Münchner Ophthalmologe Carl v. Hess hat mit Nachdruck darauf hingewiesen, dass solche und ähnliche Versuche keineswegs als Beweise für einen Farbensinn gelten können. Auch ein total farbenblinder Mensch ist leicht imstande, z. B. einen roten von einem blauen Gegenstand zu unterscheiden, und zwar dadurch, dass ihm die Farben in ganz verschiedener Helligkeit erscheinen. Er sieht Rot sehr dunkel, nahezu schwarz, Blau dagegen sieht er wie ein helles Grau. So könnte auch die Hummel das Blau vom Rot an der Helligkeit und nicht an der Farbe unterschieden haben.

Von Hess hat im letzten Jahrzehnt den Farbensinn zahlreicher Tierarten untersucht und ist zu dem Resultat gekommen, dass die Wirbeltiere mit Ausnahme der Fische, also die Lurche und Kriechtiere, die Vögel und Säugetiere einen Farbensinn haben, der dem des Menschen gleich oder ähnlich ist, dass dagegen die Fische, ferner die Insekten, Krebse und anderen wirbellosen Tiere total farbenblind seien.

Sind Blumenfarben für Insekten also bedeutungslos?

Es würde unsere altgewohnte Auffassung von der Bedeutung der Blumenfarben von Grund aus umgestürzt, wenn es sich bewahrheiten würde, dass die Insekten total farbenblinde Tiere seien. Es dürfte Ihnen ja bekannt sein, wie wichtig die Tätigkeit der Insekten, vor allem der Honigbienen, für die Befruchtung der Blüten ist. Nicht aller Blüten. Es gibt solche in nicht geringer Zahl, bei welchen die Übertragung des Blütenstaubes von den Pollenblättern auf die Narben durch den Wind geschieht (Gräser, Nadelhölzer u. a.). Die Blüten dieser Pflanzen pflegen wir nicht als „Blumen" zu bezeichnen; sie sind unscheinbar und duftlos; sie produzieren auch keinen Nektar, denn eine Anlockung von Insekten liegt nicht in ihrem Interesse. Anders sind die Blüten eingerichtet, welche auf Insektenbesuch angewiesen sind. Sie sondern im Blütengrunde einen süßen Saft ab, eben den Nektar, der von Insekten als Nahrung gesammelt wird. Beim Besuch solcher Blüten bepudern sich die nektarsaugenden Insekten mit Blütenstaub, und indem sie dann zu einer andern Blüte der gleichen Pflanze oder der gleichen Pflanzenart fliegen, übertragen sie den Blütenstaub auf deren Narbe und befruchten sie.

Solche Blüten sind in der Kegel durch große, auffallend gefärbte Blumenblätter, oft auch durch einen weithin wahrnehmbaren Duft ausgezeichnet, um, wie man annimmt, die Blüten den Insekten schon von weitem kenntlich zu machen und ihr Auffinden zu erleichtern, zu beiderseitigem Nutzen. Die Blumenpracht wäre ein völliges Rätsel, wenn sie nicht mehr als Anpassung an den Insektenbesuch gedeutet werden könnte.

Ein einfaches Experiment zum Nachweis des Farbensinns

Darum ist es von besonderem Interesse, zu wissen ob unsere eifrigste Blütenbestäuberin, die Biene, Farbensinn hat oder nicht. Darüber lässt sich durch ein einfaches Experiment Aufschluss gewinnen.

Ein Tisch im Freien soll unser Versuchsplatz sein. Nun müssen wir zunächst für die Versuchstiere sorgen und eine Anzahl Bienen herbeilocken. Zu diesem Zwecke stellen wir auf den Tisch eine große, flache Schale mit Honig. Eine Biene, die zufällig vorbeifliegt, findet den duftenden Süßstoff, nimmt von dem Honig auf, soviel sie kann, fliegt heim und kehrt nach wenigen Minuten wieder, von einigen anderen Bienen ihres Stockes begleitet. Bieten wir reichlich Honig, so nimmt die Zahl der Tiere rasch zu und nach 1 — 2 Stunden verfügen wir über mehrere Dutzend Bienen, die den Honig einsammeln und in regelmäßigem Fluge zwischen der neu entdeckten Futterquelle und ihrem Heimatstocke verkehren.

Wir nehmen nun eine Serie grauer Papiere, die, von Weiß angefangen, in feinen Abstufungen bis zu Schwarz führt, und legen diese Papiere auf den Tisch, in mehreren Reihen nebeneinander, nicht nach ihrer Helligkeit geordnet, sondern in beliebigem Wechsel. An irgendeiner Stelle fügen wir in diese Reihen ein farbiges, z. B. ein gelbes Papier ein, welches den grauen Papieren in Form und Größe genau gleicht und nur durch die Farbe von ihnen verschieden ist. Da das Gelb einem total farbenblinden Wesen wie ein Grau von bestimmter Helligkeit erscheint, und da bei unseren grauen Papieren jede Helligkeit von Grau vertreten ist, müssen die Bienen, wenn sie total farbenblind sind, das Gelb mit wenigstens einem der grauen Papiere verwechseln. Wenn sie es von allen Grauabstufungen mit Sicherheit unterscheiden; sagen sie uns hiermit, dass sie Farbensinn haben. Aber wie können sie es sagen?

Sagen können sie es freilich nicht. Wir müssen sie dazu veranlassen, es auf andere Weise zu verraten. Den Honig entfernen wir jetzt, da sein Duft den Versuch stören könnte, und geben statt dessen Zuckerwasser, welches auch gierig genommen wird. Wir bieten aber das Futter von jetzt ab ausschließlich auf dem gelben Papier, indem wir ein mit Zuckerwasser gefülltes Uhrschälchen daraufstellen. Damit nicht das Uhrschälchen an sich schon den Bienen verrät, wo das Futter zu finden ist, setzen wir auf alle grauen Papiere ebensolche Uhrschälchen, aber diese lassen wir leer. So ist die gelbe Farbe wohl das Einzige, was die Bienen als auffälliges Merkzeichen des Futterplatzes verwerten können. Und in der Tat scheinen sie dies rasch erfasst zu haben, denn schon nach kurzer Zeit sehen wir die vom Stock zurückkehrenden Tiere aus einer Entfernung von mehreren Metern direkt auf das Gelb losfliegen.

Aber haben sie sich nicht etwa, bei ihrem ausgezeichneten Ortsgedächtnis, einfach den Platz in unseren Papierreihen gemerkt, wo das Futter zu finden ist? Das lässt sich leicht prüfen. Wir geben das Futterschälchen samt dem gelben Papier an eine andere Stelle und legen ein graues Papier auf den früheren Platz des gelben. Abbildung 2, links oben.

Abbildung 2. Nachweis des Farbensinns (von der Redaktion aus [3] eingefügt). Links oben: Das Futterschälchen samt dem farbigen Papier (hier in blau*) wird an eine andere Stelle gegeben. Die Bienen versammeln sich nahezu ausschließlich dort. Links unten: den auf Farbe dressiertenBienen wurde ein leeres farbiges Blatt in einer Serie von grauen Blättern vorgelegt. Rechts: Die detaillierte, 222 Seiten starke Publikation [3] verfasste von Frisch im Alter von 28 Jahren. (* "Es lag mir daran, das Versuchsergebnis auch photographisch festzuhalten. Da sich die dunklen Bienenkörper auf den Photographien vom gelben Untergrund schlecht abhoben, dressierte ich sie nun in gleicher Weise auf Blau."[3].)

Die Bienen lassen sich nicht beirren und fliegen wieder direkt zum Gelb. Ihr feiner Ortssinn war also nicht der maßgebende Faktor. Aber vielleicht riecht das gelbe Papier schon nach Bienen? Vielleicht haben sie einen sehr viel schärferen Geruchsinn als wir, vielleicht riechen sie sogar aus einiger Entfernung das Zuckerwasser im Schälchen, obwohl es für uns geruchlos ist?

Wir müssen also den Versuch noch anders gestalten. Wir entfernen das gelbe und alle- grauen Papiere und ebenso alle Schälchen vom Versuchstisch. Statt dessen legen wir eine andere, ebensolche Serie grauer Papiere und ein neues gelbes Papier (an einem vom letzten Futterplatz abweichenden Ort) auf den Tisch und setzen auf jedes Papier ein neues Uhrschälchen. Keiner der Gegenstände war mit Bienen je in Berührung, in keines der Uhrschälchen, auch nicht in das auf dem gelben Papier, geben wir Zuckerwasser. Was tun die Bienen jetzt? Abbildung 2, links unten.

Sie fliegen in Scharen nach dem gelben Papier und suchen dort nach dem gewohnten Zuckerwasser, die grauen Papiere beachten sie gar nicht.

Immer noch wäre ein Einwand gegen die Beweiskraft des Versuches denkbar, wenn er auch schon recht weit hergeholt werden muss. Die Bienen könnten einen so feinen, einen von dem unsrigen so abweichenden Geruchsinn haben, dass das gelbe Papier, welches für uns so geruchlos ist wie die grauen Papiere, für sie einen deutlichen, spezifischen Geruch hat. Vielleicht sehen sie also das Gelb doch farblos grau und erkennen es nur mit Hilfe ihres Geruchsinnes!

Wir müssen den Versuch noch einmal modifizieren. Wieder legen wir ein gelbes und alle grauen Papiere auf den Tisch, dann decken wir über die ganze Anordnung eine große Glasplatte. Ein etwaiger Geruch kann durch das Glas nicht wahrnehmbar sein. Trotzdem benehmen sich die Bienen genau so wie beim früheren Versuch. Sie sammeln sich auf der Glasplatte über dem Gelb in Scharen an und lassen die grauen Papiere ganz unbeachtet. So können wir nicht mehr daran zweifeln, dass sie das Gelb anders sehen als jedes beliebige Grau, dass sie Farbensinn haben.

Bienen lassen sich auch auf andere Farben dressieren

Wie wir bei diesem Versuch die Bienen durch Verabreichung von Futter auf Gelb „dressiert" haben, damit sie zum Aufsuchen des Gelb veranlasst werden und uns zeigen, ob sie das Gelb von jedem Grau zu unterscheiden vermögen, so können wir sie auch auf jede andere Farbe zu dressieren versuchen. Abbildung 3.

Abbildung 3. Die untersuchte Farbpalette (von der Redaktion aus [3] eingefügt)

Ausgedehnte Versuchsreihen in dieser Richtung führten zu einem interessanten Ergebnis. Die Dressur gelingt einwandfrei bei Verwendung von Orangerot, von Gelb, von einem gelblichen Grün, Blau, Violett oder Purpurrot. Alle diese Farben werden von grauen Papieren jeder beliebigen Helligkeit mit Sicherheit unterschieden. Füttern wir aber die Bienen auf einem rein roten Papier, welches kein Blau und möglichst wenig Gelb enthält, und legen ihnen dann ein solches Rot und die Grauserie vor, so werden sie, wenn nur das Rot unbeschmutzt und das Schälchen darauf ohne Zuckerwasser ist, von schwarzen und sehr dunkelgrauen Papieren ebenso stark angelockt wie von dem Rot: Ein reines Rot verwechseln die Bienen mit Schwarz. In analoger Art lässt sich zeigen, dass sie ein gewisses Blaugrün von einem Grau mittlerer Helligkeit nicht unterscheiden können. Der Farbensinn einer Biene ist also gegenüber dem eines farbentüchtigen Menschen beschränkt.

Dies offenbart sich auch noch auf andere Weise. Stellen wir den auf eine bestimmte Farbe dressierten Bienen die Aufgabe, die Dressurfarbe aus einem bunten Gemisch der verschiedensten Farben herauszufinden, so machen sie regelmäßig Verwechslungen zwischen gewissen Farben, die für ein farbentüchtiges Menschenauge voneinander sehr verschieden sind. Ein Grün, das auch nur schwach gelblich ist, aber auch Orangerot wird mit reinem Gelb, Blau wird mit Violett und Purpurrot verwechselt. Dagegen werden die „warmen" Farben einerseits, die „kalten" Farben anderseits ebenso sicher voneinander unterschieden wie von farblos grauen Papieren.
h

Sehr ähnliche Verhältnisse finden wir. bei einer bestimmten Art von Farbensinnstörung- des Menschen, nämlich bei einer Form der sogenannten „Rot-Grün-Blindheit". Solche Menschen sind für reines Rot unempfindlich, sie verwechseln ein gewisses Blaugrün mit einem Grau von mittlerer Helligkeit und haben innerhalb der „warmen" Farben einerseits, der „kalten" Farben anderseits kein Unterscheidungsvermögen für die Farbennuancen. Die Bienen sind also, wie manche Menschen, rotgrünblind.

Durch diese Erkenntnis wird eine blütenbiologische Erscheinung verständlich,

die, seit langem bekannt, bisher der Erklärung harrte: die auffallende Seltenheit rein roter Blütenfarben bei unseren heimischen Blumen. Was wir gewöhnlich „rote" Blumen nennen, hat fast durchwegs purpurrote Farben, die reichlich Blau enthalten. So die Eriken, Zyklamen, die roten Klee- und Orchideenarten usw. Solche Blüten sehen die Bienen „blau". Scharlachrote Blüten sind bei uns seltene Ausnahmen. Ich sage bei uns, denn in den Tropen sind sie weit verbreitet, aber auch dort — und das ist eben das Auffällige — nicht bei Blüten, die auf Insektenbestäubung eingerichtet sind, sondern nur bei solchen Blüten, welche durch Kolibri und Honigvögel bestäubt werden. Jetzt, da wir wissen, dass die Bienen (und wahrscheinlich auch alle anderen Insekten) ein reines Rot nicht farbig sehen, verstehen wir, warum sich diese Farbe nicht als Anpassung an Insektenbesuch entwickeln konnte. Mit um so größerer Gewißheit dürfen wir die tatsächlichen Blütenfarben der insektenblütigen Pflanzen als Anpassung an die Blumengäste auffassen.

Blumenstetigkeit" der Bienen

Doch dürfen wir bei der biologischen Deutung der Blumenfarben nicht die Beschränkung des Farbensinnes der Biene vergessen, von der eben die Rede war. Die Fülle von Farbennuancen, die uns auf einer blumenreichen Wiese entgegenleuchtet, besteht nicht für das Bienenauge. Und gerade diese Fülle von Nuancen schien eine notwendige Voraussetzung, für die bekannte „Blumenstetigkeit" der Bienen zu sein. Beobachtet man Bienen beim Blütenbesuch, so sieht man fast immer ein und dasselbe Individuum nur Blüten ein und, derselben Pflanzenart befliegen. Diese „Blumenstetigkeit" ist für beide Seiten von Nutzen: Die Blüte erhält so den ihr zugehörigen Blütenstaub, die Biene aber trifft überall auf die gleiche Blüteneinrichtung, mit der sie schon vertraut ist, und spart Zeit. Sie kann natürlich nur blumenstet sein, wenn sie die Blüten, die sie sucht, von den vielen andersartigen Blüten der Umgebung zu unterscheiden vermag. Dass sie dies rasch und sicher trifft, sehen wir, und was lag näher, als die vielen Farbtöne, durch welche die Blüten verschiedener Pflanzen für unser Auge schon aus der Ferne voneinander abstechen, damit in Beziehung zu bringen! Nun haben wir aber gesehen, dass den Bienen ein feineres Unterscheidungsvermögen für Farbennuancen abgeht Daher müssen sie neben der Farbe auch andere Merkmale der Blüten beachten, um die Sorten so sicher voneinander zu unterscheiden.

Tatsächlich lässt sich experimentell nachweisen, dass auch die Form der Blüten und ihr so verschiedenartiger Duft von den Bienen als Merkzeichen verwertet wird. Sie lassen sich auf blumenartige Formen und auf blumige Düfte ebenso gut dressieren wie auf Farben.

Der Mechanismus der Farbanpassung hat biologische Bedeutung

Auch bei anderen wirbellosen Tieren, z. B. bei niederen Krebsen, hat man sich in jüngster Zeit durch Versuche, die in ihrer technischen Durchführung an die Lebensgewohnheiten der betreffenden Tiere angepasst waren, davon überzeugt, dass sie Farbensinn besitzen. Doch hat dieser Befund wohl in keinem anderen Falle so weittragende Konsequenzen für unsere Auffassung biologischer Vorgänge wie gerade bei Insekten und bei Fischen.

Der Mechanismus der Farbenanpassung, die wir bei einer Reihe von Fischarten kennen, wäre unverständlich, ihr buntes Hochzeitskleid eine Laune der Natur — wenn sich die These von ihrer totalen Farbenblindheit bestätigt hätte.

Und wieviel mühevolle Untersuchungen, wieviel sorgfältige Beobachtungen waren es, auf Grund deren uns Christian Konrad Sprengel, Charles Darwin, Hermann Müller und andere hochgeschätzte Forscher lehrten, die Blumenfarben als Anpassung an den Blütenbesuch der Insekten zu betrachten! Beobachtungen in freier Natur, Statistik und Experiment haben vereint diese Überzeugung bei den älteren Untersuchern begründet und gefestigt. Kämen wir jetzt zu der Erkenntnis, dass das Insektenauge die Farben gar nicht sieht, so müssten wir resigniert zugeben, dass allgemein übliche Methoden naturwissenschaftlicher Forschung in den besten Händen hier völlig versagt hätten.

Dass wir zu diesem traurigen Eingeständnis nicht veranlasst sind, glaube ich Ihnen gezeigt zu haben.


[1] Lebenslauf von Karl von Frisch, den er im Alter von 94 Jahren selbst verfasst hat: http://www.vbio.de/der_vbio/landesverbaende/baden_wuerttemberg/karl_von_... (abgerufen 11.8.2016)

[2] Karl von Frisch (1918): Über den Farbensinn der Fische und der Bienen, Schriften des Vereines zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien 59: 1-22. http://www.zobodat.at/pdf/SVVNWK_59_0001-0022.pdf (abgerufen 11.8.2016)

[3] Karl von Frisch (1914): Der Farbensinn und Formensinn der Biene (Verlag Gustav Fischer, Jena) https://ia800203.us.archive.org/19/items/derfarbensinnund00fris/derfarbe... (abgerufen 11.8.2016)


Weiterführende Links

Nobel Vortrag von Karl von Frisch (in Deutsch) 12 Dezember 1973, Video 43 min, Copyright © Karolinska Institutet 2011, http://www.nobelprize.org/mediaplayer/index.php?id=1586
Der Forscher, der auf Bienen flog (Max Planck Forschung 1/10) https://www.mpg.de/786131/W006_Kultur-Gesellschaft_076-082.pdf
Geruchssinn der Bienen” by Karl von Frisch (1927) Video 5:37 min. https://vimeo.com/98312381

inge Fri, 12.08.2016 - 09:22

Wie die Schwangere, so die Kinder

Wie die Schwangere, so die Kinder

Fr, 05.08.2016 - 06:27 — Susanne Donner

Susanne DonnerIcon Gehirn

Schon Einflüsse im Mutterleib prägen das ungeborene Kind, zum Teil lebenslang. Stress der Mutter führt dazu, dass ihr Kind schneller und oft gestresst ist, andererseits aber unter Stress auch vergleichsweise gute Leistungen erbringt. Ängstliche Schwangere haben tendenziell eher vorsichtige Babys - u.U. ein Vorteil, um Gefahren blitzschnell zu erkennen, aber auch ein Nachteil in einer sicheren Welt. Eine der neuesten Hypothesen besagt, pränataler Stress könnte den geistigen Abbau im Alter bedingen. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner fasst den gegenwärtigen Stand der Forschung zu diesem ungemein wichtigen Thema zusammen*.

Wie der Vater, so der Sohn, heißt es. Besser wäre: Wie die Schwangere, so ihr Kind. Denn was eine werdende Mutter isst, wie gestresst und ängstlich sie sich fühlt, prägt sich in Gene und Gehirn ihres Babys ein – und beeinflusst es zeitlebens.

Es klingt eigentlich zu platt, um wahr zu sein: Glückliche Schwangere gebären glückliche Kinder. Wer in den Umständen cool bleibt, bekommt ein gelassenes Baby und wer überängstlich durch die zehn Monate schlingert, hat auch ein unausgeglichenes Kind. Kann das stimmen?

Abbildung 1. Fetale Entwicklung. Grafik: MW/AL

Fragt man Neonatologen, Geburtsmediziner und Neurowissenschaftler nach den Zusammenhängen zwischen der Zeit im Mutterleib und dem späteren Charakter des Kindes, erstaunt die Antwort: „Vieles ist zwar noch Gegenstand der Grundlagenforschung, aber es ist naheliegend, dass eine glückliche Mutter tendenziell eher ein glückliches Kind bekommt“, sagt Andreas Plagemann, Geburtsmediziner an der Charité (Berlin). Während der zehn Monate werden zentrale Regelkreise im Gehirn und in den Genen kalibriert. Dieser Vorgang der fetalen Programmierung prägt ein Leben lang das Verhalten. „Das ist wie ein Stempel, den ich in eine Knetmasse drücke“, sagt Plagemann. (Abbildung 1).

Der Stempel „Stress“

Ein solcher Stempel zum Beispiel ist der Stress, den eine werdende Mutter während der Schwangerschaft empfindet. Unter Stress wird im Körper Cortisol ausgeschüttet. Etwa zehn Prozent des Hormons passieren die Plazentaschranke und erreichen das kindliche Gehirn. Die Auswirkungen von Cortisol auf Kinder sind sehr gut erforscht – auch deshalb, weil etwa jede zehnte Schwangere vorzeitig Wehen bekommt und die Ärzte dann Stresshormone spritzen, um die Lunge des Babys schneller heranreifen zu lassen. Der pharmakologische Stresslevel lässt sich messen und mit dem Verhalten des Kindes in Beziehung setzen.

Ein bisschen scheint zu genügen, um das Verhalten dauerhaft zu verändern: Wenn Schwangere nur an zwei Tagen Stresshormone bekamen, waren ihre Kinder noch mit acht Jahren wesentlich stressempfindlicher, zeigte Matthias Schwab, Neurologe vom Universitätsklinikum Jena, in einer noch unveröffentlichten Untersuchung. Er machte bei den entsprechenden Kindern auch häufiger ein Aufmerksamkeitsdefizitsyndrom aus: Die Betroffenen können sich dabei schlechter konzentrieren und seltener ruhig verhalten als andere Altersgenossen. Selbst der Intelligenzquotient lag niedriger. Auch eine Frühgeburt könnte solche Auffälligkeiten erklären. Schwab macht die Stresshormone verantwortlich.

Gene und Gehirn reagieren

Stress wird im Gehirn vornehmlich von Hippocampus und Hypothalamus reguliert. Ist beim Baby während der Schwangerschaft der Cortisolspiegel dauerhaft erhöht, wird dies als Normalzustand festgelegt. Die körpereigenen Stresssysteme werden so justiert, dass das Kind schneller und auch häufiger gestresst ist – was es aber auch braucht, um zur Höchstform aufzulaufen. Die Stressachse, also die Aktivierungskette innerhalb der Stresssysteme, wird hyperaktiv, erläutert Schwab. Für einen einmaligen Beziehungsstreit oder eine Auseinandersetzung auf der Arbeit hat aber bisher niemand eine solche Veränderung des Verhaltens beim Nachwuchs beobachtet. Die Wirkungen werden vielmehr bei jenen Personen festgestellt, die sich fast immer sehr gestresst und nervös fühlten.

Einen detaillierten Einblick in die Mechanismen dieser frühen Justierung der Stressempfindsamkeit geben Tierversuche von Forschern um Tracy Bale von der University of Pennsylvania School of Veterinary Medicine. Sie konnten in einer Studie zeigen, dass mütterlicher Stress die Synthese eines Enzyms namens OGT – ortho-N-Acetylglucosamintransferase - vermindert, wodurch das Gehirn ihrer Feten vor der Geburt reprogrammiert wird. OGT verändert die Übersetzung vieler Gene in Proteine und bedingt eine energetische Unterversorgung der Zellen im Hypothalamus, wie man sie auch bei Autismus und Schizophrenie beobachtet hat.

Dement durch pränatalen Stress?

Schon bei Geburt auf Stress geeicht zu sein, ist dennoch nicht per se schlecht. „Evolutiv ist das von Vorteil“, betont Schwab, „weil diese Menschen schneller auf der Hut sind und sich kaum leichtfertig in Gefahr begeben.“ Doch für die Nervenzellen ist die ständige Alarmbereitschaft auf lange Sicht ungünstig. Cortisol fördert den Zelltod, hemmt das Zufriedenheitshormon Serotonin und bedingt einen erhöhten Blutdruck. Deshalb bekommen Dauergestresste auch häufiger Schlaganfälle und haben eine kürzere Lebenserwartung.

Und damit der Nachteile nicht genug, vermutet Schwab: Weil das Stresshormon den Zelluntergang antreibt, erwartet er, dass Stress im Mutterleib den geistigen Abbau im Alter vorzeichnet. Rührt die Epidemie der Demenzen in den Industrienationen also vom Dauerstress der Schwangeren? Diesem Verdacht geht Schwab zurzeit im EU-Projekt BrainAging auf den Grund. Entsprechende Langzeituntersuchungen am Menschen fehlen noch. Doch Tierversuche deuten in diese Richtung, findet Schwab: Pränataler Stress führe zu einer vorzeitigen Alterung des Gehirns bei Mäusen und auch bei Primaten. „Wir sehen eine frühere Atrophie. Das Gehirn wird vereinfacht gesprochen runzliger.“

Nicht nur Stress, sondern sogar spezifische Emotionen wie die Angst der Mutter in der Schwangerschaft hinterlassen Spuren im Kind. Das legen nicht nur, aber vor allem die Untersuchungen der Psychologin Bea van den Bergh von der Tilburg University in Belgien nahe. Diese erhob schon 1989 anhand eines standardisierten psychologischen Tests die Angst von 86 Schwangeren zu verschiedenen Zeitpunkten. Ihr fiel auf, dass Kinder von Müttern, die zwischen der 12. und 22. Schwangerschaftswoche sehr furchtsam waren, in den ersten sieben Lebensmonaten viel schrien und besonders unregelmäßig schliefen und aßen.

In der ersten Schwangerschaftshälfte werden nahezu alle Nervenzellen im Gehirn angelegt und, so vermutet van den Bergh, das limbische System, die Stressachse und verschiedene Neurotransmittersysteme im Gehirn der Babys auf den erlebten Angstlevel hin geeicht. Zumal Angst in den grauen Zellen ähnlich verarbeitet wird wie Stress. War die Mutter sehr besorgt, produzieren die Kleinen später beim kleinsten Anlass schnell und viele Stresshormone, um auf ihren Normwert zu kommen.

Immer alarmiert

Solche Erfahrungen im Mutterleib würden sich bestimmt herauswachsen, könnte man meinen. Doch dem widersprechen van den Berghs Arbeiten. Mit acht bis neun Jahren beurteilten Lehrer und Mütter jene Kinder häufiger als besonders schwierig, unkonzentriert und rastlos, die von einer überängstlichen Frau ausgetragen wurden. Diese Mütter hatten in einem standardisierten Test zur Ermittlung der Ängstlichkeit besonders hohe Werte erzielt, weil sie beispielsweise angaben, sehr oft nervös, rastlos, besorgt, unruhig zu sein und sich vor einem Unglück fürchten würden. Dieser seelische Dauerzustand wirkte sich auf ihre Kinder nachhaltig aus. Auch als Jugendliche im Alter von vierzehn bis fünfzehn sind sie in Tests noch immer impulsiver. Etwa antworten sie schneller, aber machen mehr Fehler als andere Kinder. Auch mit knapp zwanzig Jahren blieben die Unterschiede zu van den Berghs Überraschung bestehen: „Sie sind in den kognitiven Tests nicht unbedingt schlechter. Sie sind beispielsweise kreativer und reagieren viel stärker auf Lob“, betont sie. „Aber in Settings mit wenig Reizen, etwa einer langweiligen Schulstunde, fallen sie häufig in ihrem Verhalten aus dem Rahmen. Sie können sich nicht konzentrieren. Nur unter Stress – ihrem Normalzustand - kommen sie gut klar.“

In den vergangenen Jahren konnte van den Bergh ergründen, wie die Angst der Mutter sich auf das Baby niederschlägt. Über die Maßen besorgte Frauen haben besonders wenig von einem spezifischen Enzym, dass dafür sorgt, dass das Stresshormon Cortisol abgebaut wird, ehe es die Plazenta passiert. Das Gehirn und die Gene des Ungeborenen werden deshalb besonders hohen Werten von Cortisol ausgesetzt.

Das wirkt sich auf ganz spezifische Verhaltensweisen aus. Babys ängstlicher Schwangerer reagierten etwa einer Studie zufolge auf einen harmlosen da-da-dada-Ton im Alter von neun Monaten fortwährend mit innerer Alarmbereitschaft. Gewöhnlich lernen die Säuglinge, wenn sie das Geräusch einige Male gehört haben, dass es nichts bedeutet und beachten es nicht weiter. „In einer sicheren Umwelt ist diese sensible Reaktion von Nachteil und begünstigt Angsterkrankungen und andere psychische Auffälligkeiten“, glaubt van den Bergh.

Die Kleinen reagierten in einem standardisierten Test aber auch stärker auf panische Frauenstimmen und schenkten ihnen verglichen mit heiterem Geplauder mehr Aufmerksamkeit. Sie sind also nicht nur ängstlicher, sondern filtern auch angsterzeugende Informationen viel stärker aus ihrer Umwelt. Für Kinder, die in einem Krisengebiet geboren werden, ist das von Vorteil. Sie spüren sofort, wenn Gefahr droht.

Krank gegessen

Nicht nur die emotionale Lage, auch das Essverhalten der Mutter beeinflusst das Kind, das sie austrägt. Wie stark dieser Einfluss sein kann, fiel Forschern schon vor Jahren bei der Krankheit Diabetes mellitus auf. Sie wird zwei bis drei Mal häufiger über die mütterliche Linie weitergegeben. Warum, war lange nicht klar. Heute ist die Antwort bekannt: Das Überangebot an Nahrung und Blutzucker während der Schwangerschaft macht die Stoffwechselschieflage auch beim Baby zur Norm. Gewöhnlich helfen die Hormone Leptin und Insulin die Zuckerflut zu bewältigen und vermitteln auch das Signal fürs Sattsein. Doch das Gehirn der Babys von Diabetikerinnen spricht auf diese Stoffe kaum an. Das wirkt sich zeitlebens auf ihr Essverhalten aus. Sie brauchen viele Kalorien, um ihren Hunger zu stillen.

Sogar Hinweise auf eine mögliche Suchtgefährdung durch die Ernährung der Mutter fanden Forscher – zumindest bei Tierversuchen. So berichtet die Psychiaterin Nicole Avena von der University of Florida 2013, dass Rattenweibchen, die während der Schwangerschafts- und Säugezeit viel Zucker und Fett fraßen, eher einen Wurf zur Welt brachten, der später mehr von einer Alkohollösung trank und auch schlechter von Amphetaminen lassen konnte.

Abhängig geboren?

Zucker und Alkohol sprechen im Gehirn die gleichen Belohnungssysteme an. Kinder, in deren Familien Alkoholmissbrauch vorkommt, verzehren oft auch besonders viele Süßwaren. Vierzehn Teelöffel in einem Glas Wasser sind ihnen gerade Recht – doppelt so süß wie handelsübliche Cola. Andere Kinder sind dagegen schon mit zehneinhalb Löffeln zufrieden, belegt eine Studie der amerikanischen Entwicklungsbiologin Julie Mennella aus dem Jahr 2010.

Werden im Mutterleib also schon die Weichen für eine spätere Sucht gestellt, wenn die Schwangere viel Süßes isst? Die Meinungen der Forscher darüber gehen auseinander. „Die weißen Kristalle machen süchtig“, sagt der Epidemiologe Simon Thornley vom Auckland Regional Public Health Service. Doch Avena, die die bedenklichen Befunde erhob, schreckt davor zurück, Zucker als pränatale Einstiegsdroge einzuordnen. Sie will weitere Studien abwarten.

Schwanger und nicht krank

Die Forschung zur fetalen Programmierung kann, so erhellend sie ist, leider auch einen bestehenden, unguten Trend verschärfen: die Pathologisierung der Schwangerschaft. Werdende Mütter sehen sich mit einer Fülle von Vorsorgeuntersuchungen konfrontiert und müssen so oft wie sonst nie zum Arzt. „Das trägt wenig zur Entspannung und zur Ermutigung der Frauen bei, die doch an sich am besten wissen, was ihnen guttut“, kritisiert van den Bergh. Sie hofft, dass sich Schwangere aller Entdeckungen zum Trotz weder von Spezialisten noch von populärer Ratgeberliteratur beirren lassen und auf ihr Gespür vertrauen.

Mozart etwa hört das Kleine im Bauch sowieso nicht, weil die Musik nicht bis zu ihm durchdringt, dafür den Verkehrslärm von der Hauptstraße. Aber jedes Lied, das die werdende Mutter mag und sie entspannt, tut schon deshalb gewiss auch dem Baby gut. Also Led Zeppelin, Buena Vista Social Club oder Bach – wie es ihr gefällt.


*Der Artikel ist der Webseite www.dasgehirn.info entnommen: https://redaktion.dasgehirn.info/entdecken/kindliches-gehirn/wie-die-sch... er ist dort am 1.4.2016 erschienen und steht unter einer CC-BY-NC Lizenz.

www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe


Weiterführende Links

Prof.Dr. Bea van den Bergh: https://www.tilburguniversity.edu/webwijs/show/bea.vdnbergh.htm

Impact of Prenatal Stress on brain ageing, EU-Project BrainAge: http://www.brain-age.eu/

Prof. Dr. Matthias Schwab: Leiter AG Fetale Hirnentwicklung und Programmierung von Krankheiten (Univ.Klin, Jena) http://www.neuro.uniklinikum-jena.de/Forschung/AG+Fetale+Hirnentw_-p-252...

Susanne Donner im ScienceBlog: Mikroglia: Gesundheitswächter im Gehirn. http://scienceblog.at/mikroglia-gesundheitsw%C3%A4chter-im-gehirn#.


 

inge Fri, 05.08.2016 - 06:27

Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt

Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt

Fr, 29.07.2016 - 07:49 — Christian Körner

Christian Körner

Icon Wald

Das Pflanzenwachstum beruht auf dem Prozess der Photosynthese . Entgegen der weitverbreiteten Vorstellung, dass dieser Vorgang durch Trockenheit oder Kälte limitiert wird und dies die Versorgung der Pflanzen mit den, für ihr strukturelles Wachstum essentiellen Kohlehydraten begrenzt, ist das Gegenteil der Fall. Univ.Prof. Christian Körner (Botanisches Institut, Univ. Basel) zeigt hier auf, dass es die zellulären Vorgänge der Gewebebildung sind, die zuerst von einem Mangel an Wasser und Nährstoffen und von Kälte betroffen sind und damit die Rate des Wachstums bestimmen. In der freien Natur, wo Pflanzen um die meist knappen Ressourcen konkurrieren, bestimmt die Gewebebildung den Bedarf an den Produkten der Photosynthese (und deren Generierung). Dies demonstriert Körner in einer einzigartigen Langzeitstudie an einem naturbelassenen Wald: ein vermehrtes CO2-Angebot führt nicht zu einem verstärktem Wachstum der Bäume.

Unsere belebte Welt basiert auf dem Element Kohlenstoff. Anders als alle anderen Elemente kann Kohlenstoff auf Grund seiner einzigartigen Chemie eine ungeheure Mannigfaltigkeit an Biomolekülen bilden und bleibt darin auch die Hauptkomponente. Dementsprechend besteht die gesamte Biomasse (bezogen auf ihr Trockengewicht) zu rund 50 % aus Kohlenstoff.

Der Kohlenstoff durchläuft einen globalen Kreislauf; für die Biosphäre sind darin zwei grundlegende Funktionen bestimmend:

  • die Input-Funktion - die Aufnahme (Assimilation) von Kohlenstoff in seiner oxydierten Form CO2 aus der Luft durch die Ökosysteme der Pflanzenwelt via Photosynthese - und
  • die Output Funktion, d.i. der Prozess der Atmung, über den alle Organismen CO2 an die Atmosphäre wieder abgeben (Abbildung 1):

 

Abbildung 1. Input von CO2 via Photosynthese und Output via Atmung sind grundlegende Funktionen im globalen Kohlenstoffkreislauf.

Die Input-Funktion (grüne Kurve in Abbildung 1) zeigt, dass die Kohlenstoffaufnahme von vorhandenem Licht und CO2 abhängt und steigt, wenn diese zunehmen, schließlich aber in eine Sättigung übergeht . Die rote Kurve gibt eine grundsätzliche Charakteristik physiologischer Vorgänge wieder, dass nämlich (bio)chemische Prozesse - die Atmung mit eingeschlossen - mit steigender Temperatur schneller werden und damit auch wieder mehr CO2 freigesetzt wird.

An die mit zunehmendem CO2 steigende Inputfunktion knüpft sich eine weitverbreitete Hoffnung, dass mehr CO2 in der Atmosphäre auch ein Mehr an Pflanzenwuchs und damit einen Vorteil für das Leben auf unserem Planeten bewirken sollte.

Wodurch wird das Pflanzenwachstum gesteuert?

Das Pflanzenwachstum nur als Funktion von Input und Output zu behandeln, ist zweifellos zu kurz gegriffen. Ob der Kohlenstoffpool in der Biosphäre steigt oder sinkt wird tatsächlich durch die Wechselwirkungen zwischen Input- und Output bestimmt und diese hängen von Umweltbedingungen und verfügbaren Ressourcen ab. Ausreichend Licht vorausgesetzt sind dies

ausreichend Wasser, adäquate Temperaturen und das Vorhandensein von Nährstoffen.

Für die Existenz von Leben sind außer Kohlenstoff ja noch 24 weitere chemische Elemente essentiell. Während Kohlenstoff und Stickstoff in der Atmosphäre theoretisch unbegrenzt für den Bedarf der Pflanzenwelt zur Verfügung stehen, ist das Vorkommen anderer Ressourcen, wie etwa das von Phosphor, Kalium, Magnesium, Mangan, Molybdän, Selen, u.a. limitiert und von der Gegend und dem jeweiligen Boden abhängig.

Pflanzenwachstum als Baustelle betrachtet

Wenn man ein Haus bauen will, braucht man natürlich Bausteine, die in einer Fabrik (ich benutze dafür den Term "Quelle") hergestellt werden, und Maurer, die das Haus bauen. Die Schnelligkeit mit welcher an der Baustelle (für die ich den Term "Senke" verwende) der Hausbau erfolgt, hängt von vielen Umständen ab: vom Arbeitseinsatz der Maurer, vom Vorhandensein benötigter Materialien, von den Wetterbedingungen, etc. - zweifellos aber kaum von der Zustellrate der Bausteine zur Baustelle. Diese erfolgt dem Baufortschritt entsprechend, nach Bedarf. Abbildung 2.

Abbildung 2. Das Wachstum einer Pflanze gleicht dem Bau eines Hauses. Ausgangsstoffe werden in der Photosynthese/Fabrik - d.i. an der Quelle – in Baumaterial (Zucker, Ziegel) umgewandelt, an die Baustelle geschafft und dort (von Biokatalysatoren, Maurern) zum Aufbau des Baumes/Hauses verwendet. Wie schnell an dieser Senke dann der Aufbau erfolgt, wird zumeist durch limitierende "Umweltbedingungen" und nur selten durch den Antransport der Baustoffe bestimmt (aus C. Körner (2012) Biologie in unserer Zeit 42:238-243)

Dass Bausteine nach Bedarf zugestellt werden, gilt ebenso für das Pflanzenwachstum, für die Produktivität im Ackerbau und insgesamt für die Produktivität der Biosphäre. Die Fabrik (Quelle) ist hier die Photosynthese, die den Rohstoff des Lebens - Zucker - herstellt und dieser wird dann in das Wachstum der Pflanze investiert. Wie schnell das Wachstum aber erfolgt, ist von der Aktivität der der teilungsfähigen Bildungsgewebe (Meristeme) und damit von der Verfügbarkeit benötigter Ressourcen abhängig. Der Zucker wird nach Bedarf über das Leitungssystem (Phloem) der Pflanze bezogen.

Ein Paradigmenwechsel

Wir alle sind mit der Vorstellung aufgewachsen, dass die Assimilation von CO2 - die Photosynthese - der entscheidende Treiber für das Pflanzenwachstum ist. (Das ist gerade so als ob wir annehmen würden, dass der Baufortschritt eines Hauses von der Produktionsrate der Baustoffe abhängt.) Die Quelle - die Aufnahme von CO2 aus der Atmosphäre - würde die Aktivitäten der Senken - der Stellen, an denen es zur Bildung neuer Zellen, zum Wachstum der Pflanze, zur Bildung neuer Wurzeln, kommt - bestimmen und die Aufnahme anderer benötigter Ressourcen regulieren. Die Versorgung mit CO2 würde also das Wachstum kontrollieren.

Genau das Gegenteil ist der Fall:

Die auf der Verfügbarkeit anderer Ressourcen basierende Aktivität des Meristems zur Gewebebildung steuert je nach Bedarf an Zucker die Photosynthese, reguliert also die Aktivität dieser Quelle. Abbildung 3.

Abbildung 3. Die Aktivität der Gewebebildung (Senke) reguliert den Bedarf an Zucker und damit die CO2-Aufnahme (C. Körner (2015) Curr.Opinion in Plant Biology 25:107-114).

Limitierende Bedingungen

Im allgemeinen wird das Pflanzenwachstum durch den Mangel an anderen Ressourcen als an CO2 begrenzt, das in der Atmosphäre ja reichlich vorhanden ist. Dies möchte ich in der Folge an den limitierenden Bedingungen Trockenheit und Kälte aufzeigen.

Betrachten wir vorerst den Wassermangel,

so kommt es bei zunehmender Trockenheit zu einer raschen Reduzierung des Wachstums und schließlich zu dessen völligem Erliegen. Die Photosynthese wird dagegen erst bei wesentlich höherem Trockenheitsstress verringert. Diese Charakteristik zeigt sich bei allen bis jetzt untersuchten Pflanzensystemen: Wassermangel äußert sich zuerst durch reduzierte Leistungsfähigkeit der Senken, d.i . der Gewebeneubildung und erst viel später in der Beschränkung der CO2-Aufnahme. Abbildung 4.

Abbildung 4. Wassermangel bremst primär das Wachstum (rote Kurven) und erst bei viel höherem Wassermangel die Photosynthese(grüne Kurven). Wassermangel ist hier auf das Gewebe (Blattwasserpotential) bezogen und nimmt nach negativen Werten hin zu. (nach Muller et al. 2011, J Exp Bot 62:1715-1729).

Für die Folgen von Wassermangel entsteht damit ein neues, völlig anderes Bild:

Nach der alten Lehrmeinung dachte man, dass Blätter bei Trockenheit ihre kleinen Poren ("Stomata") schließen, um dem Wasserverlust vorzubeugen. Dies würde aber um den Preis einer limitierten CO2-Aufnahme erfolgen -somit die Bereitstellung von Zucker durch die Photosynthese- einschränken und als Folge zu einem "Hungern" der Pflanzen führen.

Dieses Bild erweist sich nun als völlig falsch. Tatsächlich geht die Wachstumsreduktion nicht von der Quelle - der Photosynthese - aus, sondern von den Senken: die Produktion neuer Zellen (d.i. vor allem die Bildung der Zellwand aus vornehmlich Zellulose, der auf unserer Erde am häufigsten vorkommenden biochemischen Verbindung) wird stillgelegt, die empfindliche Balance zwischen dem Innendruck (Turgor) der Pflanzenzelle und der Expansion von Zellwand und Zelle gestört. Die Photosynthese läuft indes noch weiter. Es werden Kohlehydrate erzeugt, die allerdings nicht für strukturelles Wachstum eingesetzt werden können, sondern als Zucker und Stärke gespeichert werden. Der Trockenheit ausgesetzte Pflanzen enthalten also tatsächlich mehr und nicht weniger Kohlehydrate, wie die alte Vorstellung von der Hunger leidenden Pflanze glauben machte.

Auch Kälte wirkt sich primär auf die Senken aus

und führt zuerst zur Reduktion des Pflanzenwachstums. Abbildung 5. Zur Verdopplung der Zellzahl - als Maß für das Wachstum genommen - braucht es bei warmer Temperatur rund 10 Stunden, bei Abkühlung auf 10 °C sind es bereits 60 Stunden , bei 5 °C rund 120 Stunden und bei 2 °C geht die Verdopplungszeit gegen unendlich - es findet kein Wachstum mehr statt. Dagegen arbeitet die Photosynthese bereits bei 0 °C mit 30 % und bei 5 °C mit 70 % ihrer maximalen Leistung. Bei weiter steigender Temperatur erreicht die Photosynthese ein breites Maximum zwischen 10 °C und 28 °C und sinkt dann bei noch wärmeren Temperaturen wieder ab.

Dass das Wachstum bei 5 °C aufhört, dürfte für alle Pflanzen gelten, für winterhartes Getreide ebenso wie für andere an Kälte adaptierten Pflanzen und Bäume der Waldgrenze. Welche Mechanismen für diesen universellen Stopp verantwortlich gemacht werden können, ist zur Zeit noch nicht völlig verstanden (es kommen die Proteinsynthese, Energieproduktion in den Mitochondrien, Synthese von Lignin und/oder Zellulose in Betracht). Da die Photosynthese aber noch weiter arbeitet, sollte der Gehalt an niedermolekularen Kohlehydraten in den Pflanzen erwartungsgemäß steigen. Dies wird tatsächlich in der Pflanzenwelt kalter Klimazonen beobachtet.

Abbildung 5. Das Pflanzenwachstum wird durch Kälte in viel stärkerem Ausmaß beschränkt als die Photosynthese. Während bei 0 °C kein Wachstum mehr erfolgt, läuft die Photosynthese (grüne Kurve) dagegen noch mit 30 % ihrer maximalen Leistung. Wachstum (blaue Kreise) wurde an Hand der Verdopplungsrate von Kohorten von Zellen gemessen(nach Körner C (2003) Alpine Plant Life. Springer, Berlin).

Nach dem alten Paradigma würde die Photosynthese in der Kälte zum Wachstums-limitierenden Prozess. Tatsächlich reduziert Kälte die Aktivität der Senke, sodass die Rohstoffe der Photosynthese nicht mehr in die Neubildung von Geweben eingesetzt werden können.

Experimentell untersucht: Wie wirkt sich ein Mehr an CO2 auf das Ökosystem Wald aus?

Wälder speichern den überwiegenden Anteil (> 80 %) des in der Biomasse gebundenen Kohlenstoffs unserer Biosphäre. Welchen Effekt ein erhöhtes CO2-Angebot auf das Wachstum der Bäume hat , wurde bisher im wesentlichen nur unter "gestörten Bedingungen untersucht: auf jungen Böden mit ausreichend Nährstoffen, an jungen Bäumen, die oft ohne Konkurrenz zu Nachbarn aufwuchsen. Unter diesen Bedingungen- einem nicht limitierendem Angebot an Ressourcen - kann CO2 einen stimulierenden Effekt von auf das Wachstum haben.

Welchen Effekt hat ein erhöhtes CO2-Angebot aber unter realen Wald-Bedingungen?

In einem bis jetzt einzigartigem Versuchsdesign ("Swiss Canopy Crane Project") haben wir in einem naturbelassenen, artenreichen Mischwald bei Basel das CO2 der Luft rund um die Wipfel von 110 Jahre alten Bäumen auf einen Stand angereichert, der dem voraussichtlichen CO2-Pegel des Jahres 2080 entspricht (530 ppm). Die ausgewählten Bäume waren bis zu 40 m hoch und die CO2 Anreicherung der Luft erfolgte über poröse, feine Schläuche, die von einem 50 m hohen Baukran aus in die Kronen der Bäume (rund 1 km Schlauch pro Baum) gelegt wurden. Abbildung 6.

Das stabile 13C-Isotop als Indikator

Das Experiment lief über 8 Jahre, in denen wir täglich 2 Tonnen CO2 verströmten. Es handelte sich dabei um ein kommerziell erhältliches, auf Lebensmitteltauglichkeit gereinigtes Abfallprodukt der Industrie. Eine Besonderheit dieses CO2 liegt darin, dass es im Vergleich zum atmosphärischen CO2 ein unterschiedliches Verhältnis der beiden natürlich vorkommenden, stabilen Isotope des Kohlenstoffs – 12C und 13C - aufweist: kommen in der Atmosphäre 13C : 12C im Verhältnis von rund 1 : 99 vor, so enthält das aus fossilen Pflanzenresten (Erdöl, Kohle) stammende CO2 Gas etwas weniger 13C. Nach Aufnahme des angereicherten CO2-Gemisches über die Blätter lässt sich die veränderte Isotopensignatur in den pflanzlichen Geweben mittels Massenspektrometrie bestimmen. Damit kann nicht nur bewiesen werden, dass das "neue" CO2 assimiliert wird, sondern, dass - und auch wie rasch - das 13C -Signal tatsächlich in alle Teile des Baumes sickert, in den hölzernen Stamm (Abbildung 6), ebenso wie in die Wurzeln. Der gesamte Weg von der Photosynthese bis zur Verteilung ihrer Produkte und schließlich der Freisetzung im Boden kann so verfolgt werden.

Abbildung 6. Das Swiss Canopy Crane Project: Experimentelle Anreicherung von CO2 in den Kronen hoher Bäume in einem naturbelassenen Mischwald. Oben: Schematische Versuchsanordnung. Die Besprühung mit CO2 erfolgt über poröse Schläuche, die von einem hohen Kran aus in die Kronen der Bäume verlegt wurden, Unten links: Nach Beginn der Besprühung (im Jahr 2000) sinkt der relative 13C-Gehalt in in den Baumringen auf einen konstanten Level, um nach Ende der Behandlung (2008) wieder auf den Anfangswert zu steigen. Unten rechts: Die Dicke der Jahresringe ist unabhängig davon ob Bäume mit CO2 besprüht wurden (grün) oder unbehandelt blieben (blau). (C. Körner et al. 2005 Science 309:1360-1362 und unveröff Daten)

Die Produktivität der Bäume

– von Laubbäumen ebenso wie von Nadelbäumen – wurde mittels mehrerer Methoden bestimmt: u.a. durch Quantifizierung des jeweiligen gesamten Abfalls – Laub oder Nadeln, Zapfen, etc. – oder auch durch Messung der Breite der Jahresringe (Abbildung 6). Weder das Ausmaß des Abfalls noch die Breite der Jahresringe ließen einen Effekt der CO2–Anreicherung auf das Wachstum erkennen . Wir haben solche Versuche auch in anderen Lebensräumen, so zum Beispiel in alpinen Rasen durchgeführt - mit dem gleichen Ergebnis.

Es gibt also keinen Hinweis darauf, dass in naturbelassenen Ökosystemen CO2 in seinem gegenwärtigen Pegel eine für das Wachstum limitierende Ressource darstellt. Ein Mehr an atmosphärischem CO2 wirkt sich daher nicht wie ein Dünger auf das Pflanzenwachstum aus.

Austausch von Kohlenstoff zwischen den Bäumen

Innerhalb von 3 Monaten nachdem wir die CO2-Begasung der Baumkronen begonnen hatten, war das 13C-Signal bereits in den im Umfeld wachsenden Pilzen angelangt. Es war über die feinen Wurzeln der besprühten Bäume dorthin gelangt. Ein völlig unerwartetes Ergebnis war aber, dass sich das Signal auch in den Wurzeln der umliegenden, unbehandelten Bäume ausbreitete. Es hatte offensichtlich den Weg über die verzweigten Myzelien der in Symbiose lebenden Mycorrhizapilze - Täublinge, Schleierlinge, Milchlinge und Ritterlinge - genommen. Rund 40 % der Photosyntheseprodukte in den Wurzeln eines Baums waren so in das Wurzelgeflecht des Nachbarn übergetreten (Klein et al. 2016, Science 352:342-344).

Dies eröffnet eine neue Dimension in dem komplexen Ökosystem Wald: Bäume konkurrieren nicht nur um Licht, Wasser und andere Ressourcen, sie treiben auch ausgedehnten Handel von Baum zu Baum mit den Produkten der Photosynthese. In Hinblick auf den Kohlenstoffhaushalt – Input versus Output – kann ein Baum also nicht mehr als unabhängiges Einzelwesen behandelt werden.

Fazit

Der Kohlenstoffkreislauf wird vom Nährstoffkreislauf und anderen das Pflanzenwachstum begrenzende Bedingungen gesteuert. Die am meisten mangelnde Ressource und die am stärksten limitierenden Umweltbedingungen kontrollieren primär die Prozesse der Gewebeneubildung und diese wiederum bestimmen den Bedarf an Photosyntheseprodukten und damit die Assimilation von CO2.

Erhöhtes CO2 kann das Pflanzenwachstum nur dann steigern, wenn auch ausreichend Nährstoffe zur Verfügung stehen. Wie in Untersuchungen über die Auswirkungen von angereichertem CO2 auf das Pflanzenwachstum gezeigt wurde, ist dies in naturbelassenen Wäldern kaum der Fall. Dass erhöhtes CO2 in der Atmosphäre zu einem nachhaltigen Anstieg der Kohlenstoffspeicherung in der Biomasse führt, ist demnach unwahrscheinlich .


Weiterführende Links

Webseite von Christian Körner: https://plantecology.unibas.ch/koerner/index.shtml

Der Wald in einer CO2-reichen Welt http://www.waldwissen.net/wald/klima/wandel_co2/wsl_wald_co2/index_DE (abgerufen am 19.7.2016)

Interview mit Christian Körner (28.10.2014) http://www.basellandschaftlichezeitung.ch/basel/basel-stadt/die-pflanzen... (abgerufen am 19.7.2016)

Kohlenstoffhandel von Baum zu Baum (15.4.2016) http://www.arboristik.de/baumpflege_wissen_15042016.html (abgerufen am 19.7.2016)

Swiss Plant Science Web: Ecosystem function and biodiversity under global change. https://swissplantscienceweb.ch/nc/research/home/portfolio/koerner/ (abgerufen am 19.7.2016)

Videos (in Englisch)

Christian Körner: On Plants and Carbon. Special Lecture in commemoration of Professor Kurt Komarek (6.6.2016). 43:12 min. https://www.youtube.com/watch?v=i56VcHoBvjE

Christian Körner: Is the biosphere carbon limited? (23.6.2015). 34:14 min. https://www.youtube.com/watch?v=Cav2czzjDFQ

Christian Körner: What carbon cyclists can learn from bankers (BES Science Slam 2015). 10:37 min. British Ecological Society https://www.youtube.com/watch?v=O5kQHw23VbY

Artikel zum Themenkomplex Kohlenstoffkreislauf - Kohlenstoffspeicherung im Scienceblog

Redaktion, 26.06.2015: Die Erde ist ein großes chemisches Laboratorium – wie Gustav Tschermak vor 150 Jahren den Kohlenstoffkreislauf beschrieb

Walter Kutschera, 22.01.2016: Radiokohlenstoff als Indikator für Umweltveränderungen im Anthropozän

Rattan Lal, 27.11.2015: Boden - Der große Kohlenstoffspeicher

Rattan Lal, 11.12.2015: Der Boden – die Lösung globaler Probleme liegt unter unseren Füßen

Knut Ehlers, 01.04.2016: Der Boden - ein unsichtbares Ökosystem

Rupert Seidl, 18.03.2016: Störungen und Resilienz von Waldökosystemen im Klimawandel

Julia Pongratz & Christian Reick, 18.07.2014: Landwirtschaft pflügt das Klima um

Gerhard Glatzel, 21.03.2013: Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 1)

Gerhard Glatzel, 04.04.2013: Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 2)

Antje Boetius, 13.05.2016: Mikrobiome extremer Tiefsee-Lebensräume

Christa Schleper, 19.06.2015: Erste Zwischenstufe in der Evolution von einfachsten zu höheren Lebewesen entdeckt: Lokiarchaea

Gerhard Herndl, 21.10.2014: Das mikrobielle Leben der Tiefsee

Gottfried Schatz, 27.09.2012: Sonnenkinder — Wie das atomare Feuer der Sonne die Meerestiefen erhellt

Gottfried Schatz, 23.02.2012: Erdfieber — Das Unbehagen der Wissenschaft bei der Klimadebatte


 

inge Fri, 29.07.2016 - 07:49

Kann Palmöl nachhaltig produziert werden?

Kann Palmöl nachhaltig produziert werden?

Fr, 22.07.2016 - 06:06 — IIASA

IIASAIcon GeowissenschaftenEine neue Studie [1] zeigt auf wo und in welchem Umfang Palmölplantagen ausgeweitet werden können, ohne dass eine weitere Entwaldung von naturbelassenen, kohlenstoffreichen tropischen Wäldern erfolgt*

Laut einer eben im Journal "Global Environmental Change" erschienenen Untersuchung [1] könnten die Landflächen zur Produktion von Palmöl nahezu verdoppelt werden, ohne dass dafür geschützte oder sehr artenreiche Wälder geopfert werden müssten. Zum ersten Mal wird in dieser Studie eine globale Karte des für die Palmölproduktion geeigneten Landes erstellt, wobei gleichzeitig auch Auswirkungen auf Umwelt und Klima berücksichtigt werden. (Abbildung 1)

"Es gibt Raum, um die Palmölproduktion auszuweiten und dies auch in nachhaltiger Weise zu tun" sagt der Leiter dieser Studie, der IIASA-Forscher Johannes Pirker.

Die Palmölproduktion ist enorm angestiegen: von 6 Millionen Hektar Plantagen im Jahr 1990 auf 16 Millionen Hektar im Jahr 2010 - eine Fläche, die insgesamt der Größe Uruguays entspricht. Das Öl, das für's Kochen und als Nahrungsmittelzusatz verwendet wird, macht rund 30 % aller weltweit verbrauchten Pflanzenöle aus.

Abbildung 1. Ölpalmenplantage in Malaysia und Ölfrüchtein Kamerun (Bild:Links Wikipedia, public domain; rechts: credit IIASA, Aline Soterroni)

Palmöl wird kontroversiell gesehen, insbesondere, weil seine gesteigerte Erzeugung ja auf Kosten artenreicher tropischer Wälder erfolgte, die geschlägert wurden, um Raum für neue Plantagen zu schaffen. Andererseits hat der Anbau von Palmen aber Millionen Menschen in Indonesien und Malaysia - den Hauptproduzenten von Palmöl - aus der Armut herausgeführt. Ein bedeutender Teil der Öl-Produzenten sind ja Kleinbauern, deren primäres Einkommen von dieser Ware herrührt. Palmöl ist in Asien die Nummer 1 beim Kochen und mit der dort steigenden Bevölkerungszahl wird auch der Bedarf an Palmöl weiter zunehmen. Viele Entwicklungsländer trachten daher danach ihre Ölproduktion auszuweiten. Allerdings war bis jetzt nicht klar, wie viel Land dafür zur Verfügung steht. In der neuen Untersuchung [1] haben die Forscher nun eine globale Karte geschaffen - basierend auf Temperaturen, Niederschlägen, Geländeeigenschaften und Bodentypen -, die anzeigt, wodie Bedingungen für Palmölplantagen geeignet sind. Von einer rein biophysikalischen Betrachtungsweise aus gesehen fanden sie, dass prinzipiell nahezu 1,37 Milliarden Hektar Landfläche für Ölpalmenplantagen in Frage kommen, es sind Flächen in Afrika, Zentral- und Südamerika und Asien (Abbildung 2: oben).

Von dieser Gesamtfläche zogen sie dann die Gebiete ab, die bereits für andere Zwecke genutzt werden wie beispielsweise für Landwirtschaft, Wohnsitze und Städte. Dabei stützten sie sich auf die "hybrid land cover maps", die IIASA unter Zuhilfenahme von Crowdsourced Daten entwickelte.

Abbildung 2. Geeignete Flächen für Palmölplantagen und Ausschnitte von drei Regionen: Amazonas, Zentralafrikanische Küste und Borneo. Oben: Gesamtflächen.Unten: nach Abzug bereits genutzter oder geschützter Gebiete, unter Berücksichtigung von Nachhaltigkeits-Kriterien. (Bilder aus [1], cc-license).

Schließlich schlossen die Forscher gesetzlich geschützte Flächen aus und ebenso Wälder, die hinsichtlich ihres Artenreichtums oder ihrer Kohlenstoffspeicherung als besonders schätzenswert schienen. Nach Abzug all dieser Flächen enthielt die Karte nun 19,3 Millionen Hektar geeignetes Land, das für eine zukünftige Ölproduktion zur Verfügung stehen könnte (Abbildung 2: unten). Das ist etwas mehr als die gegenwärtige Gesamtfläche – 18,1 Millionen Hektar – der Ölproduktion. Diese Karte kann heruntergeladen werden. Allerdings ist rund die Hälfte der neuen Flächen mehr als zehn Stunden Fahrt von der nächsten Stadt entfernt, sodass die Ölproduktion ökonomisch unrentabel erscheint.

"Diese Analyse wird sich gut eignen, um Landflächen für künftige Ölpalmenplantagen zu identifizieren und dies unter Berücksichtigung einiger grundlegender Umweltstandards. Die Pläne sind den Akteuren zugänglich und diese können sie mit lokalen Informationen verbinden, sodass es zu einer nachhaltigen Entwicklung kommt", meint Aline Mosnier, die an dieser Studie mitgearbeitet hat. Eine wachsende Aufmerksamkeit richtet sich auf das, wegen der Palmölproduktion erfolgende, Roden von Wäldern. Viele Firmen beginnen daher eine Zertifizierung der Nachhaltigkeit ihrer Lieferungen anzustreben.

Verbraucher und Firmen sollten nach Meinung der Forscher aber noch einen Schritt weiter gehen. Pirker sagt: "Es ist ein Irrtum, Palmöl verbieten zu wollen. Was wir statt dessen machen sollten, ist auf die Herkunft des Öls zu schauen: wer ist der Produzent und wo wird es produziert. Eine Zertifizierung ist der erste Schritt in die richtige Richtung. Firmen, die sich der Nachhaltigkeit verpflichten, sollten genauer auf ihre Lieferanten sehen, und Konsumenten können dies von ihnen auch verlangen."


[1] Pirker, J., Mosnier, A., Kraxner, F., Havlik, P. and Obersteiner, M. (2016) What are the limits to oil palm expansion? Global Environmental Change 40, 73-81 doi:10.1016/j.gloenvcha.2016.06.007


*Der Blogartikel basiert auf der IIASA-Presseaussendung “Can Palm Oil be Sustainable?“ vom 21. Juli 2016. (http://www.iiasa.ac.at/web/home/about/news/160722-Palm_Oil.html ) . Diese wurde von der Redaktion aus dem Englischen übersetz, geringfügig für den Blog adaptiert und mit Abbildungen versehen. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.


Weiterführende Links

Homepage IIASA: http://www.iiasa.ac.at/

Artikel von IIASA im ScienceBlog

inge Fri, 22.07.2016 - 06:06

Die Muskel-Hirn Verbindung: Training-induziertes Protein stärkt das Gedächtnis

Die Muskel-Hirn Verbindung: Training-induziertes Protein stärkt das Gedächtnis

Fr, 15.07.2016 - 11:01 — Francis S. Collins

Francis S. CollinsIcon Gehirn

Bewegung ist für einen starken und gesunden Körper wichtig aber offensichtlich ebenso für einen starken gesunden Geist. Francis Collins, Direktor der US National Institutes of Health, fasst hier eine neue Studie zusammen, die überzeugend demonstriert, dass eine Muskel - Hirn Verbindung existiert: während des körperlichen Trainings geben Muskelzellen das Enzym Cathepsin B in die Blutbahn ab, das über die Blut-Hirnschranke ins Gehirn gelangt und regenerierend wirkt.*

Wir alle wissen es: Bewegung ist wichtig für einen starken und gesunden Körper wichtig. Weniger beachtet wird aber, dass körperliche Aktivität anscheinend auch für einen starken gesunden Geist wichtig ist, dass sie Gedächtnis und Lernen stärkt und dabei vielleicht auch ein altersbedingtes Nachlassen der kognitiven Fähigkeiten hinauszögert. Wie kann man sich das vorstellen?

Forscher finden immer mehr Bestätigung dafür, dass Muskelzellen während des Trainings Proteine und andere Faktoren (sogenannte Myokine; Anm Red,) in die Blutbahn sezernieren, die regenerierend auf das Gehirn wirken.

Eine aktuelle NIH-unterstützte Untersuchung hat nach derartigen Proteinen gesucht, die von Muskelzellen sezerniert und ins Hirn transportiert werden können. Dabei wurde das Enzym Cathepsin B identifiziert, als ein neuer Kandidat, der helfen kann die Verbindung Muskel-Hirn zu erforschen. Die Ergebnisse der von Hyo Youl Moon und Henriette van Praag (NIH’s National Institute on Aging) geleiteten Untersuchung sind eben im Journal Cell Metabolism erschienen [1].

Die Suche nach einem Training-induzierten Muskelfaktor

Das Forscherteam begann mit Muskelzellen in der Laborschale, die man mit einer AICAR genannten chemischen Verbindung behandelte. AICAR (ein Analogon des Adenosinmonophosphat mit Doping-Eigenschaften; Anm. Red.) imitiert die Wirkung, die ein Training auf Muskeln hat und kann bei untrainierten Mäusen die Ausdauer beim Laufen erhöhen. AICAR verbessert auch die Gehirnfunktion bei Mäusen in ähnlicher Weise wie ein Training.

Die Suche führte zu einer kurzen Liste, die potentiell wichtige Proteine enthielt. Diese Liste wurde mit bereits existierenden Daten zu sezernierten Proteinen und veränderten Genexpressionen verglichen, wie sie nach Training oder AICAR-Behandlung erhalten wurden. Dabei stach ein Protein hervor: Cathepsin B. Dies ist kleines Enzym (eine sogenannte Protease, Anm. Red.), das primär in der Zelle eine Rolle im Abbau und Umsatz von Proteinen und Peptiden spielt. Cathepsin B wird aber auch von einigen Zellen sezerniert - welche Wirkung es im extrazellulären Raum zeigt, ist nur wenig bekannt.

Cathepsin B steigt in trainierten Mäusen…

Um mehr über Cathepsin B Im Zusammenhang mit körperlichem Training zu erfahren, gingen die Forscher zu Tierversuchen an Mäusen über. Sie sahen, dass die Konzentrationen von Cathepsin B im Blut anstiegen, wenn die Tiere regelmäßig 2 Wochen oder länger im Laufrad rannten. Sie zeigten auch, dass dieses Protein im Muskel zunahm, nicht aber in anderen Organen und Geweben. In Summe ließen die Ergebnisse darauf schließen, dass das Lauftraining spezifisch zur Produktion von Cathepsin B im Muskel führte und zu dessen Abgabe in den Blutstrom.

Die Forscher setzten die Mausversuche fort. In einem nächsten Schritt untersuchten sie genmanipulierte (knockout) Mäuse, die unfähig waren Cathepsin B zu produzieren. Während normale erwachsene Mäuse nach dem Training im Laufrad neue Neuronen im Gyrus dentatus, einem Teil des Hippocampus, der mit dem Erinnerungsvermögen verknüpft ist, bildeten (Abbildung), gab es bei den genmanipulierten Tieren nach dem Training keine Neurogenese. Das Training erbrachte auch keine Verbesserung der räumlichen Orientierung und der Fähigkeit in einer für Mäuse typischen Weise aus einem Labyrinth herauszufinden.

Abbildung. Erwachsene Mäuse bilden nach dem Training im Laufrad neue Neuronen (grün) im Gyrus dentatus (Credit: Henriette van Praag and Linda Kitabayashi)

Wurden die Hirnzellen direkt mit Cathepsin B behandelt, so reagierten sie mit molekularen Änderungen, verbunden mit der Bildung neuer Neuronen.

…und gelangt aus dem Blut ins Gehirn

Damit Cathepsin B Vorgänge im Gehirn beeinflussen kann, muss es aus dem Blut ins Hirn gelangen. Es muss die Blut-Hirnschranke überwinden, eine Barriere, die den Eintritt von Proteinen blockiert, die zu groß sind oder eine falsche Biochemie haben. Die Forscher injizierten Cathepsin B in Mäuse, die selbst kein Cathepsin B produzieren konnten. Innerhalb von 15 Minuten sahen sie, dass das Protein über die Blut-Hirnschranke in das Gehirn gelangt war. Die Wirkung von Cathepsin B auf Hirnzellen war aus Genexpressionsdaten ersichtlich, die die Bildung neuer Neuronen anzeigte.

Cathepsin B steigt in trainierten Personen

Um herauszufinden ob die Ergebnisse auch jenseits von in vitro- und Mausversuchen Gültigkeit haben, folgten Untersuchungen an Menschen. Es wurden nun Cathepsin B-Spiegel von Personen nach 4 Monaten regelmäßigem Training mit solchen von untrainierten Personen verglichen. Diese Studie lief in Deutschland und 40 junge (19 - 34 Jahre) gesunde Erwachsene nahmen daran teil; etwa gleich viele Frauen und Männer. . Tatsächlich demonstrierte diese Studie einen signifikanten Anstieg des Cathepsin B im Blut bei regelmäßigem Training. Man fand auch eine Korrelation zwischen dem Anstieg des Cathepsin B und der Fähigkeit der Studienteilnehmer sich an eine komplexe Zusammenstellung von Linien und geometrischen Formen zu erinnern und diese genau nachzuzeichnen - ein Test der häufig für das visuelle Erinnerungsvermögen verwendet wird.

Ausblick

Die beschriebenen Entdeckungen zu Cathepsin B sind durchaus überraschend. Bis jetzt wurden erhöhte Cathepsin B-Werte mit einer weiten Palette von Krankheiten - von Krebs bis hin zur Epilepsie - in Verbindung gebracht. Es gibt auch widersprüchliche Befunde zur Rolle von Cathepsin B in der Entwicklung der Alzheimer-Krankheit. Arzneimittel, die Cathepsin B blockieren, wurden neben vielen anderen Defekten zur Behandlung von Schädel-Hirn Traumata vorgeschlagen.

Dennoch: Substanzen, die in Mausmodellen der Alzheimerkrankheit Cathepsin B erhöhen, haben sich als neuroprotektiv erwiesen . Dies erscheint auch in Einklang mit Tierversuchsdaten, die zeigen, dass körperliche Aktivität Alzheimer verhindern oder den Ausbruch verzögern kann.

Zweifellos sind viele Fragen zur Rolle von Cathepsin B im Gehirn und im restlichen Körper offen. Wenige, frühere Studien haben sich mit der Funktion dieses Proteins in Personen befasst, die im allgemeinen gesund waren. Die Forscher der aktuellen Studie hoffen kontinuierlich fortzusetzen, zu verstehen, wie Cathepsin B seinen Weg ins Gehirn findet und, dort angelangt, die Entwicklung neuer Nervenzellen beeinflusst. Was immer dann herauskommen mag, eines ist sicher:

Es zahlt sich aus körperlich aktiv zu sein!


[1] Running-induced systemic cathepsin B secretion is associated with memory function. Moon HY, Becke A, Berron D, Becker B, Sah N, Benoni G, Janke E, Lubejko ST, Greig NH, Mattison JA, Duzel E, van Praag H. Cell Metabolism. 2016 June 23. [Epub ahead of print]


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:" Exercise Releases Brain-Healthy Protein" zuerst (am. 28. Juni 2016) im NIH Director’s Blog:. https://directorsblog.nih.gov/2016/06/28/exercise-releases-brain-healthy... Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).

Mit Ausnahme der Veröffentlichung von HY Moon et al., ([1], s..)sind keine weiteren, im Original vorhandenen, Literaturzitate angegeben. Diese können dort nachgesehen und auf Verlangen zugesandt werden.


Weiterführende Links

National Institutes of Health (NIH). https://www.nih.gov/

Francis Collins: Creative Minds: The Muscle-Brain Connection https://directorsblog.nih.gov/2014/09/23/creative-minds-the-muscle-brain...



 

inge Fri, 15.07.2016 - 11:01

Schwärme von Zellen der angeborenen Immunantwort bekämpfen eindringende Mikroorganismen

Schwärme von Zellen der angeborenen Immunantwort bekämpfen eindringende Mikroorganismen

Fr, 08.07.2016 - 13:58 — Tim Lämmermann

Tim LämmermannIcon BiologieWenn Krankheitserreger in den Körper eindringen, vermitteln Zellen der angeborenen Immunantwort eine schnelle Abwehrreaktion, um schädliche Mikroorganismen zu eliminieren und unsere Gewebe zu schützen. Der Immunologe Tim Lämmermann (Forschungsgruppenleiter am Max-Planck Institut für Immunbiologie und Epigenetik) untersucht, wie verschiedene Immunzellen ihr Verhalten am Ort einer Entzündung aufeinander abstimmen, um eine optimale Immunantwort zu gewährleisten. Mittels spezieller Mikroskopie konnten bereits diejenigen Signale entschlüsselt werden, die Fresszellen zu großen Schwärmen zusammenschließen lassen, um Erreger im infizierten Gewebe gemeinsam zu attackieren.*

Ein Verbund aus Wächter- und Fresszellen als angeborener Immunschutz

In unserem täglichen Leben begegnen wir einer Vielfalt von Bakterien, Viren, Pilzen und anderen Mikroorganismen. Weil uns einige davon schädlich werden können, hat der menschliche Körper zu seinem Schutz eine mehrschichtige Immunabwehr entwickelt.

  • Als erste Verteidigungslinie verhindern natürliche Körperbarrieren, zum Beispiel die Haut und Schleimhäute, ein einfaches Eindringen von Erregern in unseren Körper.
  • Werden diese Barrieren durchbrochen, beispielsweise durch Verletzungen, versuchen Zellen der angeborenen Immunabwehr, krankheitserregende Eindringlinge abzufangen und diese zu eliminieren. Dabei kooperieren mehrere Zelltypen, die sich durch unterschiedliche Fähigkeiten auszeichnen, um gemeinsam das Gewebe zu schützen (Abbildung 1).

Abbildung 1: Mehrere verschiedene Zelltypen der angeborenen Immunantwort (gelb, blau, rot) stimmen sich am Ort einer Entzündung (hier: Fettzellen, grau) ab, um mögliche Eindringlinge gemeinsam zu attackieren. © Max-Planck-Institut für Immunbiologie und Epigenetik/Lämmermann

Um Erreger schnell in unserem Körper aufzuspüren, sind bereits mehrere Arten von Wächter- und Fresszellen - Makrophagen, Dendritische Zellen, Mastzellen - in den Geweben unserer Organe verteilt. Weitere Typen von Fresszellen - neutrophile Granulozyten und Monozyten - zirkulieren ständig durch die Blutgefäße und patrouillieren durch unseren gesamten Körper. Sie verlassen die Gefäße nur, wenn im Laufe einer Entzündung oder Infektion die gewebsständigen Zellen nach ihrer Hilfe und Unterstützung rufen. Die Prozesse der angeborenen Immunantwort sind schnell und richten sich unspezifisch gegen Mikroorganismen aller Art. Ziel dabei ist es, binnen Stunden eine mögliche Verbreitung von schädlichen Erregern zu unterbinden. Gleichzeitig stößt das angeborene Immunsystem die Reaktionen des adaptiven Immunsystems - T und B Lymphozyten - an, die dann über den Zeitraum von mehreren Tagen eine spezifische Immunantwort auf einen einzelnen Erreger anpassen.

Auf der Basis jahrzehntelanger Forschung sind mittlerweile die verschiedenen Typen von Immunzellen und deren spezielle Funktionen gut charakterisiert. Ebenso sind viele der immunaktivierenden Substanzen und Signalstoffe des angeborenen Immunsystems bekannt. Allerdings versteht man bisher nur bedingt, wie diese zusammenspielen, um das Verhalten von verschiedenen Zelltypen in der Komplexität eines entzündeten Gewebes zu koordinieren. Untersucht werden daher jetzt diejenigen Voraussetzungen, die Immunzellen benötigen, damit sie sich in entzündeten und infizierten Geweben orientieren und fortbewegen können. Des Weiteren studieren die Wissenschaftlerinnen und Wissenschaftler, wie einzelne Immunzellen miteinander kommunizieren, um zusammen eine optimale Immunantwort zu gewährleisten. Die Forscher nutzen dazu eine spezielle Methode, die sogenannte Zwei-Photonen-Mikroskopie, die es erlaubt, das Verhalten von Immunzellen am Ort einer realen Entzündung oder Infektion in Echtzeit zu beobachten. Basierend auf diesen Erkenntnissen werden Methoden entwickelt, um das komplexe Milieu einer Entzündung und dessen Einfluss auf die Dynamiken von Immunzellen in der Zellkulturschale nachzustellen. Aus den daraus resultierenden Ergebnissen erhoffen die Wissenschaftler die Identifizierung von Molekülen, die das Verhalten von angeborenen Immunzellen regulieren, was wiederum die Erkennung potenzieller therapeutischer Angriffspunkte für die Beeinflussung von entzündlichen Zuständen, Infektionen und überschießenden Immunreaktionen mit sich ziehen wird.

Neutrophile Granulozyten bekämpfen Eindringlinge im Schwarm

Einer der Forschungsschwerpunkte im Labor liegt auf der Betrachtung des Wanderungsverhaltens neutrophiler Granulozyten, kurz Neutrophile genannt, einer speziellen Art von Fresszellen, die besonders für die Bekämpfung von Bakterien und Pilzen wichtig sind. Neutrophile werden im Knochenmark gebildet und mit dem Blutstrom im Körper verteilt. Am Ort einer lokalen Entzündung oder Infektion treten sie aus den Gefäßen und gehen dann im Gewebe auf die Jagd nach möglichen Erregern. Dort finden sich große Schwärme dieser Fresszellen zusammen, die gemeinsam die Eindringlinge bekämpfen ([1]; Abbildung 2).

Abbildung 2: Echtzeit-Aufnahmen aus einem entzündeten Gewebe mittels Zwei-Photonen-Mikroskopie. Spezielle Fresszellen der angeborenen Immunantwort, sogenannte Neutrophile (rot), bilden am Ort einer lokalen Hautwunde (Kollagenfasern des Bindegewebes, grau) innerhalb von Minuten große Schwärme. Auf der rechten Seite sind die Bewegungsverläufe der einzelnen Zellen dargestellt. © Max-Planck-Institut für Immunbiologie und Epigenetik/Lämmermann

Wie sich Neutrophile im Gewebe orientieren und diese imposanten Zell-Schwärme bilden, war lange Zeit unbekannt. Mittels Zwei-Photonen-Mikroskopie gelang es Wissenschaftlern des Lämmermann-Labors in Zusammenarbeit mit Kollegen aus den National Institutes of Health (NIH, USA), die molekularen Grundlagen dieses Schwarmverhaltens zu entschlüsseln. Nach diesen Ergebnissen sind mehrere verschiedene Moleküle an der Zusammenballung zu einem Schwarm beteiligt [2]:

Eine Schlüsselrolle kommt hierbei dem Lipid Leukotrien B4, kurz LTB4, zu. Bei LTB4 handelt es sich um einen Botenstoff, der Entzündungsreaktionen des Körpers einleitet und aufrechterhält. Wie die Forscher beweisen konnten, schütten Neutrophile selbst das LTB4 aus, das wiederum von weiteren Neutrophilen erkannt wird und ihnen das Signal gibt, sich dem Schwarm anzuschließen. Damit wiesen die Forscher erstmals nach, dass Neutrophile in der Tat miteinander kommunizieren können.

Neutrophile besitzen in ihrem Zellinneren Substanzen, die für Mikroorganismen schädigend sind und sie töten können. Die Wissenschaftler vermuten, dass die Zusammenballung zu einem Schwarm wahrscheinlich eine sehr hohe lokale Konzentration der antimikrobiellen Wirkstoffe ermöglicht und somit der Verbreitung von Erregern erfolgreich entgegenwirkt. Kommt es jedoch zu einer unkontrollierten Ausschüttung dieser sehr reaktiven Substanzen, so kann auch das umliegende Gewebe einen Schaden davon tragen. Solch überschießende Antworten von Neutrophilen können am Ende negative Folgen für einen Organismus haben und einen Nährboden für chronische Entzündungen oder nicht-heilende Wunden bieten.

Ausblick

In weiteren Arbeiten wollen wir nun herausfinden, wie genau sich die Neutrophilen-Schwärme wieder auflösen und nachfolgend sich die Entzündungsstelle regeneriert. Von diesen Arbeiten erhoffen wir neue grundlegende Erkenntnisse über diejenigen molekularen Prozesse der angeborenen Immunantwort, die eine optimale Balance zwischen Schutz vor Erregern und unerwünschten Gewebeschäden gewährleisten.


[1] Lämmermann, T. In the eye of the neutrophil swarm – navigation signals that bring neutrophils together in inflamed and infected tissues. Journal of Leukocyte Biology (ePub ahead of print: pii:jlb.1MR0915-403)

[2] Lämmermann, T.; Afonso, P.V.; Angermann, B.R.; Wang, J.M.; Kastenmüller, W.; Parent, C.A.; Germain, R.N. Neutrophil swarms require LTB4 and integrins at sites of cell death in vivo. Nature 498, 371-375 (2013). DOI: 10.1038/nature12175


* Der unter dem Titel "Im Rampenlicht: Zellen der angeborenen Immunantwort erstrahlen in Freiburg" im Jahrbuch der Max-Planck Gesellschaft 2016 erschienene Artikel (https://www.mpg.de/9907852/MPIIB_JB_20161?c=10583665)  wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier ungekürzt, die nicht frei zugänglichen Literaturstellen können auf Anfrage zugesandt werden.


Weiterführende Links

Max-Planck Institut für Immunbiologie und Epigenetik: http://www.ie-freiburg.mpg.de/de

Tim Lämmermann: Infektion und Entzündung: Wie Immunzellen ihren Weg zur Wunde finden. Video 36: 29 min. (Standard-YouTube-Lizenz)

Unspezifische Immunabwehr - Immunsystem. Video 4:47 min (2015). (Standard-YouTube-Lizenz)

T. Boehm & J. Swann: Evolution der Immunsysteme der Wirbeltiere.

inge Fri, 08.07.2016 - 13:58

Die zerstörungsfreie Vermessung der römischen Provinzhauptstadt Carnuntum

Die zerstörungsfreie Vermessung der römischen Provinzhauptstadt Carnuntum

Fr, 01.07.2016 - 06:50 — Wolfgang Neubauer

Wolfgang NeubauerIcon MINTWas verbirgt sich unter dem Boden auf dem wir leben? Welche Spuren haben unsere fernen Vorfahren dort hinterlassen? Modernste naturwissenschaftlich-technologische Methoden - Fernerkundungsverfahren aus der Luft und geophysikalische Verfahren am Boden - revolutionieren die Archäologie, ermöglichen erstmals große Areale im Untergrund systematisch und zerstörungsfrei zu untersuchen und abzubilden. Der Archäologe, Mathematiker und Computerwissenschafter Wolfgang Neubauer ( Direktor des neu gegründeten Ludwig Boltzmann Instituts für Archäologische Prospektion* und Virtuelle Archäologie (LBI ArchPro)) steht an der Spitze eines internationalen Teams, das derartige Verfahren entwickelt und damit die Grundlagen für eine effiziente Dokumentation gesamter archäologischer Landschaften erstellt. Eine umfassende Bestandsaufnahme Carnuntums, der größten archäologischen Landschaft Österreichs, hat bereits zu sensationellen Entdeckungen geführt.

Das römische Carnuntum ist die größte archäologische Landschaft Österreichs und ein bedeutender Teil des europäischen Kulturerbes. Beinahe die gesamte römische Stadt, die einst über 10 Quadratkilometer bedeckte, ist bis heute unter den Feldern und Weingärten der Orte Petronell-Carnuntum und Bad Deutsch-Altenburg, 40 km östlich von Wien, in der Erde erhalten (Abbildung 1).

Der bis heute vergleichsweise gute Erhaltungszustand der antiken Bodendenkmäler und die großflächige Ausdehnung von Carnuntum in einer sich dynamisch entwickelnden Region führen immer wieder zu Spannungsfeldern zwischen Denkmalschutz und notwendiger gesellschaftlicher und wirtschaftlicher Entwicklung. Insbesondere die natürliche Erosion, beschleunigt durch modernen Ackerbau und Flurbereinigungen, aber auch Rohstoffabbau, Straßen- und Eisenbahnbau, die Errichtung von Industriearealen und Windparks, Siedlungserweiterungen und der Ausbau der modernen Infrastruktur bedrohen das im Boden verborgene kulturelle Erbe.

Wurden in der Vergangenheit großflächige archäologische Ausgrabungen vorgenommen, um den Gesamtplan der römischen Stadt zu rekonstruieren und die archäologische Landschaft Carnuntum zu erkunden, nutzt die moderne Archäologie in immer höherem Ausmaß zerstörungsfreie, nicht invasive Methoden zur Auffindung und Kartierung des im Boden verborgenen archäologischen Erbes (Abbildung 1).

Abbildung 1 . Das Gebiet des römischen Carnuntum, das sich über mehr als 10 km² erstreckt, am orographisch rechten Ufer der Donau. Oben: aktuelle Ansicht des Gebietes. Wien liegt rund 40 km westlich. Mitte: vollständige geomagnetische Prospektion des Gebietes (graue Flächen mit weißen bereits visualisierten Bereichen, im Text erwähnte Entdeckungen sind eingezeichnet.) Unten: Virtuelle Rekonstruktion von Carnuntum zur Römerzeit. (Quelle: © 7reasons / IKAnt / LBI ArchPro)

Archäologie ohne Spaten

Verglichen mit traditioneller Feldarchäologie bieten Prospektionsmethoden eine außerordentlich kostengünstige Möglichkeit, um rasch und detailliert Information über den Untergrund zu gewinnen. Diese, für die zukünftige archäologische Forschung immens wichtigen, zerstörungsfreien Verfahren wurden seit 1990 in Österreich durch die interdisziplinäre Forschungsgruppe Archeo Prospections® (eine interdisziplinäre Kooperation der Zentralanstalt für Meteorologie und Geodynamik - ZAMG - mit VIAS - Universität Wien) intensiv weiterentwickelt und sowohl national wie auch international auf zahlreichen archäologischen Fundstellen zum Einsatz gebracht.

Die Gründung des Ludwig Boltzmann Instituts für Archäologische Prospektion und Virtuelle Archäologie (LBI ArchPro) im Jahr 2010 hat zu grundlegenden technologischen Fortschritten geführt. Diese haben die Gesamtprospektion des römischen Carnuntum logistisch und technisch mit der notwendigen Auflösung erst möglich und mit vertretbarem finanziellem Aufwand realisierbar gemacht. Für die Kartierung und Detaildokumentation von römischen Städten haben sich die luftbildarchäologische und die geophysikalische Prospektion neben weiteren Fernerkundungsverfahren hervorragend bewährt.

Fernerkundung aus der Luft

Die Luftbildarchäologie basiert auf Senkrechtaufnahmen und auf Schrägaufnahmen aus Kleinflugzeugen oder Hubschraubern, die photogrammetrisch ausgewertet und archäologisch interpretiert werden. Mit flugzeuggetragenem (Airborne) Laser- Scanning (ALS) und Airborne Imaging Spectroscopy (AIS) lässt sich die Erdoberfläche in kurzer Zeit vermessen und aus den Messdaten digitale Geländemodelle erzeugen, in denen sich alle in der Topographie noch erhaltenen archäologischen Strukturen erkennen lassen. Dies ist auch in bewaldeten Bereichen möglich, da sich mit speziellen, durch das LBI ArchPro entwickelte und verbesserte Verfahren die Vegetation wegfiltern lässt.

Bodenbasierte geophysikalische Prospektion

Zur Verdichtung der aus der Luft gewonnenen Information werden am Boden verschiedene sich ergänzende Methoden der geophysikalischen Prospektion eingesetzt. Am effektivsten für archäologische Anwendungen sind Magnetometer- und Bodenradarmessungen.

Die Magnetometermethode beruht auf der hochauflösenden Messung geringster Abweichungen im Erdmagnetfeld. Diese Abweichungen oder Anomalien beruhen zum einen auf der Veränderung der magnetischen Eigenschaften des Oberbodens durch Verwendung von Feuer in der Vergangenheit und die Füllung von Gruben, Pfostenlöchern und Gräben mit magnetisch angereichertem Material. Aber auch Feuerstellen, Eisenverhüttungsplätze und Ziegel- wie auch Kalksteinmauern verursachen Anomalien und lassen sich dadurch unter geeigneten Umständen kartieren (Abbildung 2).

Abbildung 2. Erkundung mit Magnetometern. Links: motorisiertes Multisensor-Magnetometer. In Reihen angebrachte Magnetfeldsensoren werden von einem Quad-Bike nachgezogen, das mit 20 - 40 kmh flächendeckend das Untersuchungsgelände abfährt. Rechts: Anomalien im Boden (beispielsweise ehemalige Feuerstellen) verursachen eine detektierbare Veränderung des Magnetfeldes. (LBI ArchPro/Geert Verhoeven, Immo Trinks; Screenshots: Magnetometry at Stonehenge: LBI ArchPro, https://www.youtube.com/watch?v=7ippAA86Bdc. )

Die Bodenradarmethode gleicht im Prinzip einem Echolot für Anwendung an Land: Eine Senderantenne schickt ein kurzes elektromagnetisches Signal in den Boden, welches von Schichtgrenzen oder Objekten, wie zum Beispiel vergrabenen Steinen, reflektiert und von einer Empfängerantenne aufgezeichnet wird. (Abbildung 3). Die in engem Raster erfassten Radardaten ergeben ein dreidimensionales Messergebnis, vergleichbar mit einem Computertomogramm.

Das Abbild des Untergrundes in diesem Radardatenblock kann scheibchenweise oder mithilfe spezieller virtueller Werkzeuge dreidimensional von den Archäologen ohne einen einzigen Spatenstich erkundet werden. Aus den Messdaten lassen sich Gebäude bis in kleinste Details ableiten und die im Boden verborgenen Strukturen in 3D am Computer rekonstruieren. Mauern, Türschwellen, Treppen, Fundamente von Säulen und Statuen, Wasserleitungen, Abwasserkanäle, Kellerräume, Wasserbecken, Fußbodenheizungen, Estrichböden, Sarkophage und vieles mehr können deutlich erkannt werden. Sie bieten dem Archäologen einen Einblick in die Reste der versunkenen Römerstadt, wie er bisher nur über langjährige Ausgrabungen möglich war. Abbildung 3. Dreidimensionale Erkundung mittels Bodenradar. Elektromagnetische Signale, die von Radarantennen emittiert werden, dringen in den Boden und werden von den Schichten reflektiert. Mit 400MHz-Antennen wird eine enorm hohe Auflösung von 8 x 8 x 2 cm erzielt mit der Gebäude bis ins kleinste Detail erkundet und am Computer rekonstruiert werden.(Bild links: Erich Nau; Bild rechts: Immo Trinks; screenshot "Ground Penetrating Radar at Stonehenge"LBI ArchPro, https://www.youtube.com/watch?v=VDgwWpftatw ).

Integrierte Auswertung der Big Data

Die Auswertung der hochauflösenden magnetischen, elektrischen und elektromagnetischen Daten, der Messaufnahmen aus der Luft und am Boden erfolgt mit speziell entwickelter Software durch die Umsetzung der Messwerte in digitale Bilder oder in Form von dreidimensionalen Datenblöcken. Die erfassten digitalen Daten werden innerhalb angepasster Spezialprogramme oder mittels eines Geographischen Informationssystems (GIS) mit allen weiteren zur Verfügung stehenden Informationen (digitale Geländemodelle, Grabungsinformationen, geographischen Daten, terrestrischen Laserscans, Katasterkarten, geologischen Karten) kombiniert.

Das GIS bildet die Grundlage für die Erstellung spezifischer Karten und Visualisierungen, dient als Informationssystem zum römischen Carnuntum und sichert die langfristige Verfügbarkeit der Daten für ein nachhaltiges Kulturmanagement und Raumplanung. Auf der Grundlage dieser Karten, Pläne und dreidimensionalen Interpretationsmodelle können digitale Rekonstruktionen erstellt werden, welche die römische Landschaft im virtuellen Raum, zum Beispiel im Wikitude World Browser, für Besucher wieder auferstehen lassen.

Eine einzigartige archäologische Landschaft

Carnuntum diente über mehrere Jahre hinweg als eine der wesentlichsten Testflächen für die Entwicklung von hochauflösenden geophysikalischen Prospektionsmethoden durch das bereits erwähnte interdisziplinäre Team Archeo Prospections®.

Unter der Leitung des neugegründeten LBI ArchPro wurde dann im Rahmen des von 2012 bis 2015 laufenden Projektes „ArchPro Carnuntum“ das 10 km2 große römisch Stadtgebiet von Carnuntum vollständig prospektiert (Abbildung 1).

Zu den spektakulärsten Entdeckungen, die mit Hilfe der zerstörungsfreien Methoden gemacht wurden, gehören das Forum der Zivilstadt Carnuntum (2001), die Gladiatorenschule (2011), das früheste Militärlager Carnuntums (2014) und Kasernen, in denen die Garde des Statthalters untergebracht war (2016).

Das Forum der Zivilstadt von Carnuntum

Bereits vor 15 Jahren gelang eine der bisher bedeutendsten Entdeckungen innerhalb eines Gebiets, in dem die Luftbilder nur wenige Strukturen erkennen ließen. Mit einer Bodenwiderstandsmessung (d.i. Messung der Varianz der elektrischen Leitfähigkeit des Erdbodens aufgrund von Einschlüssen) wurde der monumentale Gebäudekomplex um einen offenen Platz entdeckt (Abbildung 4). Abbildung 4. Forum der Zivilstadt Carnuntum. Von der zerstörungsfreien geophysikalischen Prospektion zur virtuellen Visualisierung. Lage des Forums: Abbildung 1. (LBI ArchPro/Wolfgang Neubauer, Klaus Löcker, 7reasons)

Die Entdeckung einer Gladiatorenschule (Ludus)

Außerhalb der Zivilstadt von Carnuntum liegt das in der ersten Hälfte des zweiten Jahrhunderts gebaute Amphitheater. Es wurde in den Jahren 1923 bis 1930 ausgegraben (Lage: siehe Abbildung 1). Nach zeitgenössischen Inschriften war es das viertgrößte Amphitheater des gesamten römischen Reiches, fasste bis zu 13.000 Zuschauer und war Schauplatz zahlreicher Gladiatorenspiele. Das davon westlich gelegene Areal, in dem nun die Gladiatorenschule entdeckt wurde, fand zuvor nur wenig Beachtung. Luftbildaufnahmen zeigen hier eine deutliche Anomalie; Mauerstrukturen wurden jedoch erst im Frühling 2011 auch aus der Luft ausgemacht. Bei einer Untersuchung mithilfe eines hochauflösenden Bodenradarsystems konnten 2010 in nur wenigen Stunden Messeinsatz die Reste einer in ihrer Vollständigkeit und Größe international einzigartigen Gladiatorenschule detailliert erkundet werden (Abbildung 5). Abbildung 5. Die Gladiatorenschule (Ludus). Von der Lufterkundung zur Bodenradarmessung und Visualisierung. Lage des Ludus und des benachbarten Amphitheaters: Abbildung 1. (li oben, re oben: LBI ArchPro/Mario Wallner; li unten: LBI ArchPro/Mario Wallner 7reasons; re unten: LUDUS SW/NW, 7reasons; unten Mitte: LUDUS W/O 7reasons)

Aus den über 20 Gigabyte umfassenden Rohdaten wurden dreidimensionale Visualisierungen der im Untergrund verborgenen archäologischen Strukturen erstellt und archäologisch interpretiert:

Die Gladiatorenschule liegt in einer 11.000 m2 großen, von einer Mauer umgebenen Parzelle. An deren südlichem Ende befindet sich ein abgeschlossener Gebäudekomplex mit einem Ausmaß von, 2800 m2, der um einen großen Innenhof angelegt ist. In diesem haben Radarmessungen eine kreisrunde Trainingsarena mit einem Durchmesser von 19 m nachgewiesen und Fundamentreste der hölzernen Zuschauertribünen. Hinsichtlich der Gebäudeteile können in den detailreichen Radarbildern deutlich die Fundamente einer beheizbaren Trainingshalle erkannt werden, einer daran anschließenden ausgedehnten Badeanlage, eines großen Verwaltungstraktes/Wohnbereiches und zweier länglicher Trakte, die durchschnittlich 5 m2 große Wohnzellen der Gladiatoren beherbergten. Aber auch die notwendige Infrastruktur - Wasserleitungen, Fußbodenheizungen, Abwasserkanäle - sowie Zugangswege, Portale oder die Fundamente von Gedenksteinen und schließlich ein Gräberfeld direkt hinter der Gladiatorenschule sind in den hochauflösenden Radardaten klar feststellbar.

An Deutlichkeit der erfassten Baustrukturen ist die Gladiatorenschule von Carnuntum derzeit nur mit der großen Gladiatorenschule, dem LUDUS MAGNUS, hinter dem Kolosseum in Rom zu vergleichen. In seiner Vollständigkeit und Dimension ist dieser sensationelle archäologische Befund derzeit weltweit einzigartig.

Frühes römisches Militärlager durch Bodenradar entdeckt

Am West-Ausgang der römischen Stadt hat sich entlang der römischen Straße nach Vindobona (Wien) ein ausgedehntes Straßendorf entwickelt. Unter den Resten dieses Dorfes - in den tieferen Datenschichten verborgen - entdeckten 2014 die Forscher des LBI ArchPro einen typischen Befestigungsgraben eines direkt an der Donau gelegenen römischen Zeltlagers im Ausmaß von ca. 6 Fußballfeldern (57.600 m2). Aufgrund der späteren Überbauung gehen die Wissenschaftler davon aus, dass es sich bei diesem Zeltlager um eines der frühesten Militärläger im Rahmen der römischen Okkupation des Raumes von Carnuntum handeln dürfte. Abbildung 6.

Abbildung 6. Das frühe Militärlager in Carnuntum. Bodenradarmessungen. Screenshots .Die ersten Römer in Carnuntum https://www.youtube.com/watch?v=glr-vCcNKc4&feature=youtu.be (techlab 7reasons) und Idealrekonstruktion Marschlager in Carnuntum7reasons

Die Garde des Statthalters

Im März 2016 wurde eine weitere außergewöhnliche Entdeckung vorgestellt: westlich des Legionslagers und unmittelbar an den Statthalterpalast und auf der Gegenseite an den Campus (Legionsübungsplatz) angrenzend konnten die Kasernen der Leibgarde des Statthalters - Castra Singularium – identifiziert werden (Abbildung 7). In diesem rund 1,8 ha großen, von einer massiven Mauer umschlossenen Areal ließen sich sechs bis sieben Mannschaftsbaracken, Offiziersunterkünfte, ein Zentralgebäude und weitere Gebäude erkennen. Es ist dies bislang der einzige in dieser Eindeutigkeit und Dimension nachweisbare Fund im gesamten Gebiet des ehemaligen Imperium Romanum.

Abbildung 7. Castra Singularium - die Unterkünfte der Leibgarde des Statthalters lagen zwischen Statthalterpalast und Campus, westlich des Legionslagers. Von der zerstörungsfreien geophysikalischen Prospektion (GPR) zur Interpretation und virtuellen Rekonstruktion. (LBI ArchPro/Mario Wallner, 7reasons / IKAnt / Christian Gugl/ LBI ArchPro.)

Ausblick

Hochauflösende naturwissenschaftlich-technische Methoden zur Prospektion ganzer Landschaften ermöglichen die Auffindung, Erkundung ,Visualisierung und Interpretation archäologischer Stätten. Das Fallbeispiel Carnuntum hat dabei Vorbildcharakter: es zeigt, wie rasch, kostengünstig und zerstörungsfrei eine außergewöhnliche Fülle an detaillierten räumlichen Befunden generiert werden kann - einerseits zur Klärung archäologischer Fragen, anderseits aber auch als Grundlage zur wirtschaftlichen Planung und Nutzung des Kulturerbes.

Prospektionsmethoden, wie sie das LBI ArchPro entwickelt und mit Partnern national und international erfolgreich anwendet, sind zur Zeit noch ungebräuchlich, besitzen aber ein sehr hohes Potential für die Zukunft der Archäologie. Schließlich ist es eine Forderung der Valletta-Konvention der Europäischen Union zum Schutz und Erhalt des archäologischen Kulturerbes (Council of Europe 1992), dass zerstörungsfreie Prospektionsmethoden aus der Luft und am Boden vor jeder archäologischen Ausgrabung eingesetzt werden.


*Prospektion: Erkundung und Erfassung von archäologischen Stätten in Landschaften

Weiterführende Links

Ludwig Boltzmann Institute for Archaeological Prospection and Virtual Archaeology – http://archpro.lbg.ac.at

Zentralanstalt für Meteorologie und Geodynamik – http://www.zamg.ac.at
Institut für Kulturgeschichte der Antike – http://www.oeaw.ac.at/antike

Römerstadt Carnuntum (Archäologische Kulturpark Niederösterreich Betriebsges.m.b.Gradehttp://www.carnuntum.at

7reasons Medien GmbH – http://www.7reasons.net

Entdeckungen ohne Spaten

Die Garde des Statthalters. Sensationsfund in Carnuntum. Pressemitteilung. http://www.7reasons.net/wp-content/uploads/2016/03/pr_car_30_03_2016.pdf

Carnuntum - Die Garde des Statthalters. Video 2:56 min. https://www.youtube.com/watch?v=S5JMvmOymkg&feature=youtu.be (Quelle: techlab7reasons, Standard YouTube Lizenz)

Archäologischer Park Carnuntum: Die ersten Römer in Carnuntum . http://carnuntum.7reasons.net/TXT/2014_PA_Carnuntum_Frueheste_Marschlage...

Die ersten Römer in Carnuntum. Video 3:27 min. https://www.youtube.com/watch?v=glr-vCcNKc4&feature=youtu.be (Quelle: techlab7reasons, Standard YouTube Lizenz)

Reconstruction of a roman city - Carnuntum 2011 - Making of the scale model. Video 11:21 min https://www.youtube.com/watch?v=HMjiWlvSsSc (Quelle: techlab7reasons, Standard YouTube Lizenz)

Gladiatorenschule

LBI ArchPro 05.09.2011 Video 5:25 min https://www.youtube.com/watch?v=5IZ99v14aaU (Quelle: techlab7reasons, Standard YouTube Lizenz)

Gladiatoren Schule Video 3:07 min https://www.youtube.com/watch?v=aJFH3TCVzTk
RGZM Gutachten Dr. Scholz Video (deutsch) 7:17 min. Archäologisches Gutachten zum Befund eines ludus beim Amphitheater Carnuntum. https://www.youtube.com/watch?v=bWTLa8rJrJU (Quelle: techlab7reasons, Standard YouTube Lizenz)

Über das römische Carnuntum

Carnuntum (im Austria-Forum). http://austria-forum.org/af/AEIOU/Carnuntum

Municipum Aelium Carnuntum = Colonia Septimia Aurelia Antoniniana Carnuntum – Petronell. (ausführliche Darstellung des Römisch-Germanischen Zentralmuseums) http://www2.rgzm.de/Transformation/Noricum/Carnuntum/Pannonia_Carnuntum.htm

 

inge Fri, 01.07.2016 - 06:50

Ein Dach mit 36 Löchern abdichten - vorsichtiger Optimismus in der Alzheimertherapie.

Ein Dach mit 36 Löchern abdichten - vorsichtiger Optimismus in der Alzheimertherapie.

Fr, 24.06.2016 - 06:03 — Inge Schuster

Inge SchusterIcon Gehirn

Vor wenigen Tagen ist in der Fachzeitschrift "Aging" ein Artikel erschienen, der einen neuen Therapieansatz für die Alzheimer-Krankheit beschreibt, mit dem bei einem (allerdings) kleinen Patientenkollektiv ein noch nie dagewesener Erfolg erzielt wurde [1]. Der Ansatz beruht auf den Forschungsergebnissen von Dale Bredesen, einem international renommierten Experten auf dem Gebiet der Mechanismen neurodegenerativer Erkrankungen. Er strebt dabei eine Optimierung der Signale von Nervenzellen an, die hinsichtlich Bildung und Abbau von Synapsen in ein Ungleichgewicht geraten sind.

Erfreulicherweise werden wir immer älter. Aktuell haben in der Eurozone Knaben bei Geburt bereits eine Lebenserwartung von 79,2 Jahren und Mädchen von 84,7 Jahren [2]. In allen Regionen der Welt sinkt die Mortalitätsrate der 60+ Bevölkerung, die Lebenserwartung steigt. Österreich betreffend zählt die Statistik Austria 2016 rund 770 000 Personen, die 75 Jahre und älter sind - dies sind schon um etwa 100 000 mehr als es 2010 gewesen sind; dabei gibt es 1290 Personen, die mindestens 100 Jahre alt sind [3].

Demenz-Erkrankungen

Die Kehrseite der Medaille: die "zusätzlichen" Jahre sind oft mit chronischen Erkrankungen, Schmerzen und einem Verlust an Fähigkeiten verbunden. Zu diesen Defekten trägt auch der jeweilige Lebensstil maßgeblich bei. Ein besonderes Problem ist dabei die mit dem Lebensalter weltweit steigende Tendenz an Demenz zu erkranken (Abbildung 1). In allen untersuchten Regionen ist dabei die Zugehörigkeit zum weiblichen Geschlecht mit einem erhöhten Demenz-Risiko verbunden: von den über 90-jährigen Frauen in SO-Asien, N-Amerika und insbesondere Lateinamerika sind über 50 % von Demenz betroffen.

Abbildung 1. Die Häufigkeit der Demenzerkrankungen nach Altersgruppen und Geschlecht (m, w). Daten aus: World Alzheimer Report 2015. The Global Impact of Dementia[4]

Wie viele Demenzerkrankte gibt es?

Aktuelle Schätzungen gehen davon aus, dass weltweit 46,8 Millionen Menschen an Demenz leiden und, dass deren Zahl 2030 bereits auf 74,5 und 2050 auf 131,5 Millionen angestiegen sein wird [3]. In Österreich gibt es etwa 100.000 Demenz-Kranke, bis 2050 rechnet man mit einem Anstieg auf etwa 230.000 [5]. In Deutschland leben nach Schätzungen der Deutschen Alzheimer Gesellschaft derzeit etwa 1,5 Millionen Demenzkranke, bis 2050 wird diese Zahl auf rund 3 Millionen ansteigen.

Neben dem physischen und psychischen Leid der Betroffenen und deren Betreuer, die in den späteren Phasen der Erkrankung ja die Patienten versorgen und ihnen in allen Verrichtungen des täglichen Lebens Hilfestellung leisten müssen, kommen auch die sozialen und ökonomischen Konsequenzen zum Tragen. Global rechnet man für das Jahr 2018 mit Kosten von 1 000 Mrd US $ [4]. In Österreich waren es 2014 rund 1 Mrd €, die zum überwiegenden Teil für nicht-medizinische Leistungen ausgegeben wurden.

Der Großteil der Demenz-Fälle, nämlich 60 - 70 %, sind auf die Alzheimer-Krankheit zurückzuführen.

Was ist die Ursache der Alzheimer-Krankheit?

In ihrem, im April 2016 herausgegebenen Factsheet schreibt die WHO:

"Derzeit ist keine Therapie verfügbar, die Demenz heilen oder ihr Fortschreiten verzögern könnte. Zahlreiche neue Behandlungsmöglichkeiten werden in den verschiedenen Phasen der klinischen Testung untersucht"[6].

Tatsächlich wird seit Jahrzehnten intensiv nach wirksamen Medikamenten gegen Alzheimer gesucht. Diese Forschungen richt(et)en sich im Wesentlichen auf eine Reduktion der unlöslichen Proteinablagerungen, welche die Krankheit charakterisieren, nämlich die beta-Amyloid Plaques außerhalb und die verklumpten Tau-Protein Fibrillen innerhalb der Nervenzellen des Gehirns. Bis jetzt blieb dieser Suche der Erfolg versagt. Der US-amerikanische Forscher Dale E. Bredesen, ein international anerkannter Experte auf dem Gebiet der Neurodegeneration, geht von einem anderen Ansatz aus. (Bredesen ist Leiter des Mary S. Easton Center for Alzheimer's Disease Research, University of California, Los Angeles (UCLA) und Gründungsdirektor und CEO des Buck Institute for Age Research, Novato, CA).

Bredesen versucht die Krankheit zu verstehen. Er fragt nach der Chemie, welche die veränderten Fähigkeiten des Lernens und Erinnerns bewirkt, wendet die modernsten Methoden der Molekularbiologie und Informatik an. Basierend auf seinen Forschungsergebnissen postuliert er, dass Störungen nicht eines einzelnen Stoffwechselweges sondern erst mehrerer Wege zur Entstehung von Alzheimer führen. Die bis jetzt versuchten Monotherapien, die auf ein einziges definiertes Biomolekül, einen einzigen Mechanismus abzielten, mussten seiner Meinung nach deshalb erfolglos bleiben.

Vereinfacht und kurz dargestellt: Bredesen charakterisiert Alzheimer als einen metabolischen Defekt, als eine Störung im Stoffwechselnetzwerk der Nervenzellen und eine Vielfalt an Modulatoren, die diese Störung beeinflussen können. Im Gegensatz zur gegenwärtigen Anschauung, dass Alzheimer durch die Ablagerung unlöslicher, toxischer Proteinplaques bewirkt wird, postuliert Bredesen, ein Ungleichgewicht der von den Nervenzellen ausgehenden Signalwege als Ursache:

Während Nervenzellen in einem normal funktionierenden Hirn laufend neue Erinnerungen speichern und dafür irrelevante Erinnerungen löschen, kann diese Balance zwischen Bildung neuer Nervenverbindungen -Synapsen - ("synaptoblastische Aktivität") versus Abbau bestehender Synapsen ("synaptoclastische Aktivität") mit zunehmendem Alter in Richtung Abbau verschoben werden. Erinnerungen werden dann gelöscht, neue Inhalte nicht mehr gespeichert.

Bildung von Synapsen < Abbau von Synapsen

Das in der Alzheimer Krankheit Plaque-bildende Amyloid-beta-Peptid hat im normalen Hirn eine essentielle Funktion, nämlich in dem Gleichgewicht zwischen Bildung und Abbau das "Löschen" von Synapsen einzuleiten. Der Vorläufer des Peptids, das Amyloid-Precursor-Protein APP, übt hier mit seinen Spaltprodukten eine physiologische Schalterfunktion aus. Eine Vielzahl an Faktoren kann diese Balance modulieren, ihr Mangel oder Überschuss kann das Gleichgewicht stören. Es sind viele, für Alzheimer bereits bekannte Risikofaktoren, die hier eingreifen: das Apolipoprotein E4, Hormone wie Östradiol, Testosteron, Thyronin/Thyroxin, Melatonin, körperliches Training, Schlaf, u.v.a.m.

Eine gesteigerte Bildung des Amyloid-beta Peptids führt zur Verlagerung des Gleichgewichts in Richtung Abbau von Nervenverbindungen.

Paradigmenwechsel in der Alzheimertherapie - die MEND Strategie

Ausgehend von dem gestörten Stoffwechsel-Gleichgewicht der Nervenzellen und dessen Modulierung durch unterschiedlichste Effektoren hat Bredersen eine neuen Ansatz zur Alzheimer Therapie entwickelt, den er " metabolic enhancement for neurodegeneration (MEND)" nennt.

Es ist ein systembiologischer Ansatz.

Ein Dach mit 36 Löchern

Aus seinen Untersuchungen hat Bredesen 36 hauptsächliche Faktoren (inklusive beta Amyloid) identifiziert, die zum Ungleichgewicht zwischen synaptoblastischen und synaptoklastischen Prozessen führen, dieses verstärken können. Eine Therapie, welche die Optimierung nur eines oder nur weniger dieser Ursachen anpeilt, hält Bredesen für wenig sinnvoll:

Er erklärt Demenz mit der Metapher eines Daches, das 36 Löcher aufweist: Eine Monotherapie, also das Abdichten eines Loches wird das darunterliegende Gebäude kaum vor einem starken Regen schützen können.

Um Demenz zielführend zu behandeln, ist es also notwendig möglichst viele - 10, 20 und mehr - dieser 36 Löcher zu schließen. Um welche es sich dabei handelt, ist individuell verschieden, basiert auf der Analyse einer Vielzahl an metabolischen Laborwerten und deren Einfluss auf das Stoffwechselgleichgewicht der Nervenzellen. Es wird dabei das genetische, metabolische, hormonelle Profil und Verhalten des Patienten berücksichtigt und daraus ein personenbezogenes therapeutisches Programm - "Therapeutic System 1" - erstellt, das vom Optimieren der Ernährung und deren Timing, über Stressreduktion, Optimieren von Schlafdauer und - Qualität, regelmäßigem körperlichen und geistigen Training bis hin zur Optimierung von Hormonspiegeln, Wachstumsfaktoren, Antioxidantien, Vitaminen u.a. reicht. Die physiologischen Auswirkungen der einzelnen Programmpunkte sind experimentell verifiziert. Insgesamt gesehen führen sie zu einer Änderung der Lebensführung, die auch bei anderen chronischen Erkrankungen positive Auswirkungen haben sollte.

Ein Durchbruch in der Alzheimer-Therapie

Die MEND-Strategie wurde bis jetzt an einer kleinen Gruppe von 10 Personen, Frauen und Männern im Alter von 49 - 74 Jahren, angewandt, die an Alzheimer im Frühstadium, am sogenannten MCI (Mild Cognitive Impairment), oder SCI (Subjective Cognitive Impairment) litten. Die Behandlungsdauer war 5 - 24 Monate und brachte ein beispiellos erfolgreiches Ergebnis: Alle Patienten, deren Angehörige und Kollegen berichteten von eindeutigen, anhaltenden kognitiven Verbesserungen, die auch objektiv in neuropsychologischen Tests bestätigt wurden. 6 Patienten, die zu arbeiten aufgehört hatten oder bereits große Schwierigkeiten in ihrem Beruf hatten, konnten wieder ihren Beruf ausüben oder verbesserten ihre Leistung. Quantitative MRI Analysen bei einem der Patienten zeigten, dass auch das anfänglich geschrumpfte Volumen des Hippocampus - des Lernzentrums im Gehirn - sich unter der Therapie dramatisch vergrößert hatte.

Fazit

Die Alzheimer Krankheit ist komplex und multifaktoriell, Monotherapien, die sich nur auf ein gestörtes Zielmolekül/einen defekten Mechanismus richteten, haben bis jetzt keinen therapeutischen Erfolg erbracht.

Wenn bislang auch nur wenige Patienten nach der MEND-Strategie behandelt wurden, zeigt der bislang beispiellose Erfolg, dass metabolische Prozesse die Treiber der Alzheimerkrankheit - zumindest in ihrer Frühform - sind. Der mit der Krankheit einhergehende Prozess des Abbaus kognitiver Fähigkeit konnte nicht nur nachhaltig aufgehalten, sondern erstmals umgekehrt werden.

Bei den Schlüsselfaktoren der MEND-Strategie, handelt es sich dabei um Faktoren, die von jedem angewandt werden können und die - abgesehen von ihrem Effekt auf den Stoffwechsel der Nervenzellen - insgesamt auch zu einem gesünderen Lebensstil führen.

Es ist offensichtlich, dass der, in diesen Pilot-Untersuchungen zutage tretende, Durchbruch nun in ausgedehnten klinischen Untersuchungen bestätigt werden muss. Das Problem dabei: die lange Behandlungsdauer und die kostspielige Testung und Beobachtung der Patienten vor, während und nach Ende der Untersuchung. Pharmazeutische Konzerne werden wohl kaum Interesse daran haben derartige, bis zu 1 Mrd US $ teure klinische Untersuchungen zu beginnen, wenn sie keine Möglichkeit zur Patentierung des Verfahrens zu haben. Überdies sind sie darauf ausgerichtet klinische Versuche mit einem einzigen, völlig definierten Entwicklungskandidaten und nicht mit einer Palette unterschiedlichster Faktoren zu unternehmen.

Derartige Untersuchungen müßten meiner Ansicht nach von großen nationalen und übernationalen Einrichtungen - wie beispielweise der WHO - in die Wege geleitet und finanziert werden.


  [1] Dale E. Bredesen et al., Reversal of cognitive decline in Alzheimer’s disease. Aging, June 2016, 8: 1-9.

[ [2] Lebenserwartung, Stand: 2014. http://wko.at/statistik/eu/europa-lebenserwartung.pdf
[3] STATISTIK AUSTRIA, Volkszählungen, Statistik des Bevölkerungsstandes (erstellt am 14.06.2016) und http://www.statistik.at/web_de/presse/108135.html
[4] World Alzheimer Report 2015. The Global Impact of Dementia. An analysis of prevalence, incidence, cost and trends. https://www.alz.co.uk/research/WorldAlzheimerReport2015.pdf
[5] Österreichischer Demenzbericht 2014. http://www.bmg.gv.at/cms/home/attachments/6/4/5/CH1513/CMS1436868155908/...
[6] Dementia. Fact sheet, April 2016. http://www.who.int/mediacentre/factsheets/fs362/en/


Weiterführende Links

Reversal of Cognitive Decline. Vortrag von Dale E. Bredesen (at 56 th Annual Conference Am. College of Nutrition) Nov. 2015 Video 45:05 min. https://www.youtube.com/watch?v=QqQ_X3mD16U

STEM-Talk Episode 12 Dale Bredesen discusses the metabolic factors underlying Alzheimer’s Disease. Video 1:25:39 min. https://www.youtube.com/watch?v=HS7VZydS8HI

Relevante Artikel in Scienceblog.at

Francis S. Collins, 27.05.2016. Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts. http://scienceblog.at/die-alzheimerkrankheit-tau-protein-zur-fr%C3%BChen....

Susanne Donner, 08.04.2016. Mikroglia: Gesundheitswächter im Gehirn. http://scienceblog.at/mikroglia-gesundheitsw%C3%A4chter-im-gehirn#.

Gottfried Schatz, 03.07.2015. Die bedrohliche Alzheimerkrankheit — Abschied vom Ich. http://scienceblog.at/die-bedrohliche-alzheimerkrankheit#.


 

inge Fri, 24.06.2016 - 06:03

Der Dunklen Materie auf der Spur

Der Dunklen Materie auf der Spur

Fr, 17.06.2016 - 12:58 — Josef Pradler

Josef PradlerIcon PhysikZu den prioritären Zielsetzungen der modernen Teilchenphysik zählt die Entschlüsselung der sogenannten Dunklen Materie, welche die dominierende Form der Materie im Universum darstellt. Bis jetzt konnte Dunkle Materie noch nicht direkt detektiert werden, ihre mikrophysikalischen Eigenschaften sind weitgehend unbekannt. Der Teilchenphysiker Josef Pradler (Juniorforschungsgruppenleiter am Institut für Hochenergiephysik - HEPHY - der ÖAW) entwickelt Modelle zur Dunklen Materie und überprüft diese auf ihre Konsistenz mit experimentellen Daten, die mittels hochsensitiver Detektoren und auch mittels hochenergetischer Kollisionen von Protonen (am Large Hadron Collider des CERN) erhalten werden.*

Scherzend meinte noch der sowjetische Physiker Lev Landau (1908-1968) in der ersten Hälfte des 20. Jahrhunderts: “Kosmologen sind oft im Irrtum, aber nie im Zweifel.” Auch wenn die Arbeiten Landaus zu den großen Errungenschaften der theoretischen Physik zählen und seine Buchserie dazu beinahe biblisch verehrt wird, hat sich das von ihm gezeichnete Bild praktizierender Kosmologen grundlegend überholt. Der Urknall, einst Hypothese philosophischer Natur, ist heute Faktum der Wissenschaft.

Das Universum dehnt sich aus

Zwei Entdeckungen des letzten Jahrhunderts die Kosmologie betreffend werden wohl für immer zu den bemerkenswertesten der Menschheit zählen dürfen.

Die erste Entdeckung der späten 1920er Jahre, dass sich das Universum ausdehnt, ist heute weithin bekannt. Im Umkehrschluss folgt daraus allerdings, dass der Kosmos sich einst in einem Zustand extremer Dichte und Temperatur befunden haben musste. Selbst wenn es noch keine gesicherte Theorie zum “wie” des Ursprungs gibt, sehen wir den Beweis dafür heute in der kosmischen Mikrowellenhintergrundstrahlung; bildlich gesprochen: das Nachglühen des Urknalls (Abbildung 1).

Die zweite Entdeckung wurde erst 1998 gemacht: der Kosmos dehnt sich nicht nur aus, in jüngster kosmischer Vergangenheit tut er das sogar in beschleunigter Weise (Saul Perlmutter, Adam Riess, Brian Schmidt erhielten dafür 2011 den Nobelpreis).

Abbildung 1. Nachglühen des Urknalls: das Licht der kosmischen Hintergrundstrahlung, aufgenommen durch den Planck-Satelliten. Es war 13.7 Milliarden Jahre unterwegs zur Erde. Die hellen und dunklen Bereiche zeigen in mehr als 10.000-facher Kontrastverstärkung die winzigen Dichte-Schwankungen aus der mit Hilfe Dunkler Materie alle Struktur im Universum entstand: die Sterne und Galaxien von heute. (Quelle: http://www.esa.int/spaceinimages/Images/2013/03/Planck_and_the_cosmic_microwave_background )

Das Universum steckt also voller Dynamik - nicht nur was Sterne und Galaxien betrifft, sondern auch auf den größten beobachtbaren Skalen. Diese Dynamik unterliegt zunächst Einstein’s Allgemeiner Relativitätstheorie. Aus ihr lässt sich die Expansionsrate des Kosmos als Funktion des in ihm befindlichen Energie- und Materiegehalts ableiten. Aus der Beobachtung der kosmischen Hintergrundstrahlung ergibt sich folgende einfache Rezeptur:

5% Atome, 26% dunkle Materie, und 69% dunkle Energie.

Die fehlende Masse

Betrachten wir nur den Materiegehalt des Universums, schließen wir also, dass 84% (das relative Verhältnis von dunkler zu normaler Materie) nicht verstanden sind. Das Problem der Dunklen Materie ist also ein Problem der fehlenden Masse.

Dieses Problem manifestiert sich nicht nur in den Präzisionsmessungen der kosmischen Hintergrundstrahlung, sondern setzt sich auf praktisch allen astronomischen Beobachtungen jenseits unseres Sonnensystems fort. Die ersten Hinweise auf dunkle Materie finden sich bereits seit den 1930er Jahren in den Beobachtungen der Bewegungen von Galaxien in Galaxienhaufen und wurden in den 1970er Jahren durch die Messung von Rotationsgeschwindigkeiten von Spiralgalaxien wie unserer eigenen Milchstraße verschärft. Das Phänomen Dunkle Materie ist also seit über 80 Jahren bekannt.

Man könnte zunächst vermuten, dass Dunkle Materie aus noch unentdeckten astronomischen Objekten, wie braunen Zwergen oder schwarzen Löchern besteht. Solche Objekte würden sich allerdings gelegentlich, während ihres Transits vor Sternen am Himmel, zeigen, ganz so, wie man heutzutage tatsächlich Planeten in fernen Sonnensystemen entdeckt. Sogenannte “microlensing” Beobachtungen schliessen mittlerweile die Möglichkeit aus, dass Dunkle Materie aus solchen makroskopischen Objekten besteht. Eine zweite Möglichkeit ist, dass die Gravitation selbst auf astronomischen Skalen anderen Gesetzen unterliegt, als wir sie auf der Erde und im Sonnensystem beobachten. Während eine (sehr schwache) Modifikation in der Tat theoretisch bestehen könnte, kann man heute eine hinlänglich stark modifizierte Gravitationstheorie als Ursprung für das augenscheinliche Phänomen der fehlenden Masse mit ziemlicher Sicherheit ausschliessen.

Die einzige überzeugende Lösung des Problems der fehlenden Masse liegt in der Form einer oder mehrerer noch unentdeckter Teilchenart(en). Trotz der Vielzahl astronomischer Beobachtungen sind uns - bis dato - die konkreten mikroskopischen, teilchenphysikalischen Eigenschaften weitgehend unbekannt. Wir können mit Bestimmtheit sagen, dass Dunkle Materie, wenn überhaupt, nur sehr schwach elektromagnetisch wechselwirkt—ansonsten würde sie Licht aussenden, wir hätten sie bereits beobachtet, und sie wäre nicht “dunkel”. In der Tat gibt es aber guten Grund zur Annahme, dass dieser uns noch verborgene Sektor mit “uns”, dem sogenannten Standardmodell der Teilchenphysik, wechselwirkt. Dieser Grund ist u.A. kosmologisch motiviert.

Das 1:5 Verhältnis aus beobachtbarer und dunkler Materie kann ein Zufall sein, jedoch darf man durchaus hoffen, dass beide Komponenten mehr verbindet. Das Verhältnis könnte ohne weiteres um Größenordnungen verschieden sein. Dass es jedoch im scheinbar engen Verhältnis steht, deutet darauf hin, dass dunkle und normale Materie im frühen, heißen Universum im engen Wechselspiel agiert haben. Die Wechselwirkung beider Sektoren impliziert, dass selbst, wenn man mit einem Universum ohne Dunkle Materie beginnt, diese sich durch Kollisionen von Standardmodellteilchen wie von selbst erzeugt (et vice versa). Man sagt: beide Sektoren kommen ins thermodynamische Gleichgewicht. Theoretische Teilchenphysiker haben in so einer Situation attraktive Szenarien entwickelt, die anschließend jenes 5:1 Verhältnis dynamisch in der weiteren Ausdehnung und Abkühlung des Universums erklären. Die Modelle beruhen auf Teilchensorten mit einer Masse eines Vielfachen der Masse von Wasserstoff (z.B. genau einen Faktor 5, aber auch ein bis zu tausendfaches davon).

Die Erwartungshaltung der Theoretiker zur Masse und nicht-gravitativen Wechselwirkung der Dunklen Materie-Teilchen lässt gleichzeitig das Herz der experimentellen Teilchenphysiker höher schlagen. Es eröffnet nämlich die Möglichkeit zum experimentellen Nachweis im Labor und damit zum Test dieses Paradigmas und damit zur Entschlüsselung eines der akutesten ungelösten Fragestellungen der modernen Teilchenphysik.

Suche nach Dunkler Materie

Es gibt zwei prinzipielle Methoden, die die experimentelle Suche nach Dunkler Materie im Labor dominieren. An beiden ist das Institut für Hochenergiephysik der Österreichischen Akademie der Wissenschaften aktiv beteiligt (www.hephy.at).

  • Erstere betrifft die sprichwörtliche Erzeugung Dunkler Materie am Large Hadron Collider (LHC) am CERN in Genf. Man erhofft sich—ähnlich wie im frühen Universum—durch hochenergetische Kollisionen von Protonen Dunkle Materie in Paarproduktion zu erschaffen. Auch wenn Dunkle Materie-Teilchen nicht direkt beobachtet werden können und sie dem Detektor geisterartig "entfleuchen", liefern das augenscheinliche Energieungleichgewicht sowie die Beiprodukte in der Produktion genügend Information, um Rückschluss auf die Natur der erzeugten Teilchen zu ziehen. Die Suche nach Dunkler Materie am LHC bleibt eine der zentralen Aufgaben des Teilchenbeschleuniger-Programms am CERN.
  • Die zweite experimentelle Methode versucht, die Dunkle Materie-Teilchen, die unsere Galaxis wie eine homogene Wolke füllen (der sogenannten “Halo”), direkt zu beobachten. Aus der Bewegung von Sternen ums Zentrum der Milchstraße sowie einer Vielzahl anderer Beobachtungen können wir heute relativ genau auf die durchschnittliche lokale Massendichte Dunkler Materie zurück schließen. Pro Kubikzentimeter entspricht diese ca. einem Drittel der Masse eines Protons. Ist Dunkle Materie also so schwer wie ein Proton, ergibt sich damit ein Teilchenfluss von ungefähr zehn Millionen Teilchen pro Sekunde und Quadratzentimeter Oberfläche. Ständig werden wir—und unsere Detektoren—durchdrungen von einer Vielzahl von sehr schwach-wechselwirkenden Teilchen.

Der erwartete Teilchenfluss klingt zunächst dramatisch, ist es aber nicht: der lokale Fluss von Neutrinos, der als Beiprodukt nuklearer Kernreaktionen im Zentrum der Sonne entspringt, ist um ein tausendfaches größer. Tatsächlich hat es Jahrzehnte großen experimentellen Aufwandes bedurft, die schwache Wechselwirkung von Neutrinos zu kartographieren. (Anmerkung: Neutrinos wurden einst als Dunkle Materie-Kandidaten gehandelt, deren mittlerweile bekannte fast verschwindende Masse schließt dies jedoch aus.) Es verwundert also nicht, dass die direkte Suche nach Dunkler Materie eine experimentelle Herausforderung darstellt und hochsensitiver Detektoren bedarf. Konkret hält man bei der direkten Suche Ausschau nach Rückstoßstreuprozessen von Dunkler Materie an den Atomkernen des Detektors. Dieser Prozess ist extrem selten, und diese Experimente operieren daher in Untergrundlabors, abgeschirmt von kosmischer Strahlung. Das Institut für Hochenergiephysik ist mit dem CRESST -Experiment an der direkten Suche nach Dunkler Materie beteiligt (Abbildung 2).

Abbildung 2. Mit hochsensiblen Detektoren wie dem CRESST-Detektor ist man der galaktischen Dunklen Materie auf der Spur. Das Institut für Hochenergiephysik der Akademie der Wissenschaften ist an dem Experiment beteiligt. http://www.cresst.de/pictures/img_1860.jpg

Heute wird in einer Vielzahl solcher direkter Detektionsexperimente nach der Dunklen Materie gesucht. Neben diesen und den Teilchenbeschleunigerexperimenten befindet sich ein drittes Fenster zur Natur der Dunklen Materie in der Astrophysik. Hier wird z.B. nach den Endprodukten von Dunkler Materie-Paarvernichtung (z.B. Gammastrahlung) in den Zentren von Galaxien gesucht. Beispielsweise zu nennen sind hier das Satellitenexperiment FERMI oder die H.E.S.S. Teleskope (mit Beteiligungen der Universität Innsbruck).

Modelle zur Dunklen Materie

Aufgabe der theoretischen Teilchenphysik ist es, Modelle zur Dunklen Materie zu entwickeln, die sich einerseits in die kosmologischen Messungen einreihen und sich andererseits im Experiment oder in astrophysikalischen Beobachtungen überprüfen lassen. Theoretiker treffen Vorhersagen für die oben angesprochenen Experimente, verbinden die verschiedenen Stoßrichtungen oder arbeiten deren Komplementarität heraus, bzw. suchen nach völlig neuen Signaturen und Nachweismöglichkeiten. Selbst wenn es keine Garantie dafür gibt, dass Dunkle Materie mit unserem Sektor in nicht-gravitativer Wechselwirkung steht (die Voraussetzung für einen direkten Nachweis), so gibt es doch starke theoretische Argumente dafür, dass diese durchaus signifikant sein kann.

Die Erwartungshaltung der Experten im Feld geht sogar soweit, dass man sich ein definitives Signal in den nächsten zwei Dekaden erhofft. Die Erwartung gründet u.a. auf einer Erklärung der möglichen Entstehungsgeschichte der Dunklen Materie im frühen Universum, auf einer möglichen Auflösung einer noch unverstandenen Hierarchie zwischen fundamentalen in der Natur beobachteten Massenskalen (siehe z. Bsp. “Hierarchieproblem” und/oder “Supersymmetrie”) und nicht zuletzt auf dem signifikanten experimentellen Fortschritt seit den frühen 1990er Jahren, in denen man erstmals begann, die Suche systematisch voranzutreiben.

Outlook

Das theoretische Spektrum an Möglichkeiten zur Teilchennatur der Dunklen Materie ist breit. Es gilt als wahrscheinlich, dass die Lösung dieses Jahrhundert-Problems der fehlenden Masse im tiefen Zusammenhang zwischen Astrophysik, Kosmologie und fundamentaler Teilchenphysik zu finden ist. In der Grundlagenforschung gibt es keine Garantien, aber die Entschlüsselung der mikrophysikalischen Eigenschaften dunkler Materie wäre ein Erkenntnisgewinn von monumentaler Signifikanz.

Sie ist nicht zuletzt die im Universum alles dominierende Form der Materie und damit u.a. verantwortlich dafür, dass Sterne, Galaxien, und vielleicht damit das Leben selbst im Universum überhaupt erst entstehen kann. Einhergehend mit den technologischen Entwicklungen, die die experimentellen Suchen abwerfen, wäre ein besseres Verständnis des uns noch verborgenen Sektors nicht zuletzt ganz einfach und ergreifend: ein Kulturgut.

Eine Analogie sei hier zum Schluss noch angebracht: vor 100 Jahren hatte Einstein das Phänomen der Gravitationswellen vorhergesagt. Der direkte Nachweis gelang schließlich im Februar, nach 40 Jahren experimenteller Suche. Das Higgs-Boson wurde 1964 vorhergesagt. Gefunden wurde es fast 50 Jahre später 2012 am CERN. Die experimentelle Suche nach Dunkler Materie ist kaum zwei Dekaden alt und könnte - so die Hoffnung - ein im Vergleich kurzweiliges Unterfangen bleiben.


* Der Beitrag ist in Zusammenarbeit mit dem Hochenergiephysiker Doz. Dr. Wolfgang Lucha entstanden. Lucha leitet am Institut für Hochenergiephysik - HEPHY - der ÖAW eine Forschungsgruppe, die sich der Beschreibung der starken Wechselwirkung widmet, d.i. der Kräfte die Quarks und Gluonen zu Protonen und Neutronen und schließlich zu Atomkernen verbinden.


Weiterführende Links

Institut für Hochenergiephysik der Österreichischen Akademie der Wissenschaften (HEPHY) http://www.hephy.at/

HEPHY-Broschüre: wir gehen Teilchen auf den Grund. http://www.unserebroschuere.at/hephy/MailView/

CRESST - Die Suche nach der Dunklen Materie. Video 5:38 min. Was habe ich davon? Spinoffs der Teilchenphysik. Video: 3:57 min.

inge Fri, 17.06.2016 - 00:58

Biofilme - Zur Architektur bakterieller Gemeinschaften

Biofilme - Zur Architektur bakterieller Gemeinschaften

Fr, 10.06.2016 - 10:45 — Knut Drescher

Knut DrescherIcon BiologieViele bakterielle Spezies besiedeln Oberflächen und bilden dicht gepackte Gemeinschaften, die als Biofilme bezeichnet werden. Solche Biofilme sind resistent gegen Antibiotika und machen einen Großteil der globalen bakteriellen Biomasse aus. Der Biophysiker Knut Drescher (Univ. Prof. und Forschungsgruppenleiter am Max-Planck-Institut für terrestrische Mikrobiologie in Marburg) untersucht den Entstehungsprozess von Biofilmen, über den bisher nur wenig bekannt ist. Dieser Prozess beginnt mit der Oberflächenhaftung einer einzigen Zelle und führt nach vielen Zellteilungen zur Bildung von turmförmigen Strukturen. Wie kürzlich entdeckt wurde, ändert sich dabei die Biofilmarchitektur in einigen kritischen Phasen dramatisch.

Bakterielle Biofilme

Bakterien können Gemeinschaften bilden, in denen die Zellen von einer Polymermatrix umschlossen und eingebettet sind. Diese dreidimensionalen bakteriellen Gemeinschaften werden als Biofilme bezeichnet. Biofilme beschichten häufig die Oberflächen zwischen harten Materialien und wässrigen Lösungen sowie die Oberflächen zwischen wässrigen Lösungen und Luft.

Einige Biofilmgemeinschaften sind vorteilhaft für die menschliche Gesundheit, zum Beispiel als Teil der gesunden Haut- und Darmflora. Andere können jedoch dramatische Probleme in der Mundhöhle als Plaque hervorrufen, chronische Infektionen auslösen oder Katheter und Prothesen besiedeln. Zusätzlich können Biofilme erhebliche Kosten durch das Verfaulen von industriellen Flusssystemen und Rohren verursachen. In allen diesen Bereichen, von der Industrie bis zur Klinik, ist das Biofilmwachstum sehr schwer zu kontrollieren oder zu verhindern, da Biofilme resistent gegen diverse Arten von chemischen und physikalischen Stressen sowie gegen Antibiotikabehandlung sind.

Seitdem in den 1980er Jahren erkannt wurde, dass Biofilme allgegenwärtig sind, wird das Biofilmwachstum intensiv erforscht, wobei besonders die essentiellen Gene und die genregulatorischen Mechanismen viel Aufmerksamkeit der Forscher auf sich gezogen haben. Diese Arbeiten haben zu der Entdeckung von neuen regulatorischen Schaltkreisen und wichtigen Matrixkomponenten geführt, die beim Biofilmwachstum zentrale Rollen übernehmen. Dennoch sind viele grundlegende physikalische, chemische und biologische Faktoren, die während des dynamischen Selbstorganisationsprozesses der Biofilmentwicklung mitwirken, noch unbekannt.

Die interne und externe Architektur von Biofilmen ist vermutlich das Resultat von Wechselwirkungen zwischen dem Wachstum von einzelnen Zellen, physiologischer Differenzierung der Zellen, sekretierten Proteinen, Botenstoffen und Heterogenität in der mikroskopischen Umgebung einzelner Zellen. Versuche, diese einzelnen Faktoren und deren Interaktionen zu untersuchen, stützen sich zunehmend darauf, bakterielle Gemeinschaften in mikrofluidischen Kanälen ("haarfeine", transparente Kanäle, Anm. Red.) mikrosopisch zu untersuchen, in denen zentrale Eigenschaften der natürlichen Habitate von Biofilmen nachgebildet werden können. Seitdem ausgereifte Methoden für die Herstellung von mikrofluidischen Kanälen durch Fortschritte in der Lithographieforschung nun auch der biologischen Forschung zur Verfügung stehen, ist die größte methodische Hürde für die Erforschung der Biofilmentstehung, dass bislang keine Methoden verfügbar waren, um einzelne Zellen und deren Genexpression in Biofilmen zu untersuchen. Die meisten Biofilmstudien konnten bisher Biofilme nur als dreidimensionale „Wolken“ aus bakterieller Biomasse untersuchen – mit Ausnahme wiederum von elektronenmikroskopischen Studien, die fixierte, aber nur tote Biofilme mit hoher Auflösung beschreiben konnten. Eine Auflösung einzelner lebender Zellen innerhalb der Bakteriengemeinschaft war dadurch nicht möglich und daher ist bisher wenig über die Prinzipien der zellulären Organisation bekannt, die am Ende aus dem Wachstum von einzelnen bakteriellen Zellen makroskopische Biofilme entstehen lassen.

Globale und interne Biofilmarchitektur

Um die Architektur der Biofilme während ihrer Entstehung zu verstehen, wird eine neuartige mikroskopische Methode benötigt, um alle einzelnen Zellen in Biofilmen zu beobachten. Daher wurde für diese Aufgabe vom Leiter der Forschungsgruppe ein an die speziellen Bedürfnisse der Biofilmforschung angepasstes Mikroskop (ein konfokales Spinning-Disk Mikroskop) entwickelt, das die Einzelzellauflösung in Biofilmen und gleichzeitig nur eine schwache Photobleichung der Fluoreszenzfarbstoffe (mit denen die Zellen markiert wurden, Anm.Red.) hervorruft.

Abbildung 1 zeigt Bilder, in denen die einzelnen Zellen von Vibrio cholerae (Erreger der Cholera) Biofilmen zu sehen sind, die auf Glasoberflächen gewachsen und einem permanenten Strom von Nährmedium für 24 Stunden ausgesetzt worden sind.

Abbildung 1:Die mikroskopische Auflösung von allen einzelnen Zellen in Vibrio cholerae Biofilmen zeigt eine charakteristische interne Architektur, in der Zellen, wie bei einer Asternblüte, eine hohen Grad an Ordnung in der Orientierung aufweisen.© Max-Planck-Institut für terrestrische Mikrobiologie/Drescher

Um alle einzelnen Zellen automatisch zu erkennen und Merkmale wie Position, Größe, Form und Genexpression zu messen, wurde eine Bildverarbeitungssoftware entwickelt, deren Resultat eine automatisierte Zellsegmentierung darstellt (Abbildung 2).

Wachstum des Biofilms durch Zellteilung

Nach Anwendung der neuartigen Mikroskopietechnik wurde in Untersuchungen von einzelnen Zellen, die sich an Oberflächen angeheftet hatten und verschiedenfarbige Fluoreszenzproteine produzierten, entdeckt, dass sich Biofilmwachstum von V. cholerae hauptsächlich durch Zellteilung vollzieht und nicht durch das Zusammenkommen und Anheften von externen Zellen an schon existierende Biofilme. Dieses Resultat steht im Einklang mit Studien von V. cholerae Infektionen, die zur Cholera-Erkrankung führen können. In diesen wurde gezeigt, dass wenn die Versuchstiere - junge Hasen - mit V. cholerae Zellen, die verschiedene Fluoreszenzproteine exprimieren, infiziert wurden, die infektionsverursachenden Biofilme im Tierdarm hauptsächlich aus Zellen mit jeweils dem gleichen Fluoreszenzprotein bestehen.

Abbildung 2: Segmentierung und Rekonstruktion von allen einzelnen Zellen des Biofilms aus Abbildung 1. Jede Zelle ist mit einer Farbe koloriert, die die Höhe des Zellzentrums (z: in micrometer) über der Glasoberfläche, auf der der Biofilm wächst, widerspiegelt.© Max-Planck-Institut für terrestrische Mikrobiologie/Drescher

Dank der mikroskopischen Einzelzellauflösung und Bilderkennungssoftware konnten auch grundlegende Prozesse während des Biofilmwachstums untersucht werden. Für V. cholerae wurde entdeckt, dass das Wachstum von einzelnen Biofilmkolonien einen sehr heterogenen Zeitverlauf aufweist, obwohl eine Konstanz der mikroskopischen Umgebung innerhalb der bereits erwähnten mikrofluidischer Kanäle gewährleistet werden konnte. Anstelle der Wachstumszeit als Kontrollparameter für Biofilmdynamik konnte eine sehr genaue Korrelation der Biofilmarchitektur mit der Anzahl der Zellen in Biofilmen nachgewiesen werden. Die Zellzahl in Biofilmen erscheint also der natürliche Kontrollparameter der Biofilmdynamik zu sein.

Phasen des Biofilmwachstums von Vibrio cholerae

Durch die Erkennung und Vermessung von allen einzelnen Zellen in V. cholerae Biofilmen in verschiedenen Entwicklungsstadien konnten die grundlegenden Phasen des Biofilmwachstums entdeckt werden (Abbildung 3). Zwischen diesen Phasen erfolgen teils dramatische architektonische Veränderungen.

In Phase I wachsen die Zellen in einer eindimensionalen Linie durch Zellwachstum an den jeweiligen Zellpolen und darauffolgender mittiger Zellteilung.

Dieses eindimensionale Wachstum geht anschließend, wenn die Oberflächenadhäsion der Zellen stärker wird als die Zellpol-zu-Zellpol-Adhäsion, in ein zweidimensionales Wachstum (Phase II) über. In Phase II wachsen dann alle Zellen in einer ungeordneten zweidimensionalen Schicht.

Wenn die Oberflächenadhäsion der Zellen kleiner wird als die Kraft, die die Zellen durch ihr Wachstum aufeinander ausüben, faltet sich die zweidimensionale Zellschicht, was zu einem dreidimensionalen Wachstum des Biofilms mit zueinander ungeordneten Zellen führt. Diese Phase wird als Phase III bezeichnet.

Durch Zellwachstum innerhalb der Polymermatrix erhöht sich die Zellkonzentration erheblich und bewirkt bei Biofilmen mit mehr als 2000 Zellen einen Übergang zu einem Zustand mit hoher Ordnung in der Zellorientierung. Diese Ordnung der Zellen innerhalb größerer V. cholerae Biofilme ist in Abbildung 3, Phase IV, zu sehen: Die Zellen sind radial orientiert, zeigen in der untersten Ebene des Biofilms horizontal nach außen und im Zentrum des Biofilms vertikal nach oben.

Abbildung 3: Die vier verschiedenen Wachstumsphasen von Vibrio cholerae Biofilmen. Phase I erfolgt wenn Biofilme von einer Zellzahl N = 1 bis ca. N = 6 wachsen. Phase II beschreibt das räumlich zweidimensionale Wachstum von Biofilmen mit Zellzahlen zwischen 20 und 100. Phase III beschreibt Biofilme mit 200-1000 Zellen und in Phase IV befinden sich Biofilme mit mehr als 2000 Zellen. Die räumlichen Koordinaten werden durch x, y, z dargestellt, wobei z die Höhe über der Glasoberfläche (in Mikrometer) angibt. Die Orientierung jeder Zelle wird durch die z-Komponente des Einheitsorientierungsvektors dargestellt und als nz bezeichnet. Der Mittelwert von nz von vielen Zellen an der gleichen räumlichen Position in verschiedenen Biofilmen wird als (nz) bezeichnet. Der Radius eines Biofilms in der xy-Ebene wird als ρ bezeichnet.© Max-Planck-Institut für terrestrische Mikrobiologie/Drescher

Schlussfolgerung

Die äußeren und inneren Biofilmarchitekturen durchlaufen starke Veränderungen während des Entwicklungsprozesses von einzelnen Zellen zu großen und reifen Biofilmgemeinschaften. Physikalische Mechanismen, die auf Wachstumsmechanik und Adhäsion basieren, können die architektonischen Veränderungen teilweise erklären. Wie sich jedoch die Biofilmmatrix, in der die Zellen während des Biofilmwachstums eingebettet sind, im Laufe des Entwicklungsprozesses verändert und welchen Einfluss die sich ändernde zelluläre Architektur und Matrix auf die Wirksamkeit beispielsweise von verschiedenen Antibiotikabehandlungen haben, werden zukünftige Experimente zeigen. Deren Ergebnisse versprechen die bessere Behandlung von durch Biofilmen hervorgerufenen Krankheiten.


*Der gleichnamige, aus dem eben erscheinenden Jahrbuch der Max-Planck Gesellschaft 2016 entnommene Artikel ist aufrufbar unter: Forschungsbericht 2016, https://www.mpg.de/9864442/mpi_terr_Mikro_JB_2016?c=10583665 . Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier ungekürzt aber ohne die zugrundeliegenden, nicht frei zugänglichen Literaturstellen. Diese können im Forschungsbericht nachgelesen und auf Anfrage zugesandt werden.


Weiterführende Links

Max Planck Institute for Terrestrial Microbiology, Forschungsgruppe: Bakterielle Biofilme (Knut Drescher) http://www.mpi-marburg.mpg.de/drescher

Science Action: How is bacterial quorum sensing influenced by microfluidics? (Drescher) Video (englisch) 4:46 min. https://www.youtube.com/watch?v=vKwQceN4qDE (1st Place "Science Mechanic" prize: Discover how the cell-to-cell communication between bacteria can be studied with unprecedented detail inside microfluidic chambers, in order to inhibit formation of sticky biofilms on medical devices such as catheters and stents. Produced by Team Microfluidics: Zach Donnell, David Harris, and Carey Nadell)

How bacteria form a biofilm. Video (englisch) 2:35 min. https://vimeo.com/30571458 (Andrew Dopheide , animations produced for the Centre for Microbial Innovation, at the University of Auckland, New Zealand.

Biofilm formation. Video (englisch) 4:36 min. (Banu Prakash, GIMS; (Standard YouTube Lizenz) https://www.youtube.com/watch?v=FfY19rpnbew

Microfluidics: The laboratory in the palm of your hand. Video (englisch) 3:22 min (Standard YouTube Lizenz) https://www.youtube.com/watch?v=e9eKZ3lNK-E

inge Fri, 10.06.2016 - 10:45

Von Elementarteilchen zu geordneten Strukturen

Von Elementarteilchen zu geordneten Strukturen

Fr, 03.06.2016 - 17:42 — Redaktion

RedaktionIcon Physik Themenschwerpunkt: Aufbau der Materie Woher stammt die Materie auf unserer Erde, was ist Materie überhaupt, woraus besteht sie und durch welche Kräfte wird sie zusammengehalten?

Diese Fragen beschäftigen seit jeher die Menschheit. Das "Woher" überstieg jedes Vorstellungsvermögen - dafür wurden (und werden auch heute noch) übernatürliche Kräfte bemüht. Es entstanden folglich Schöpfungsmythen und diese entsprachen naturgemäß den jeweiligen Lebensumständen der einzelnen Kulturen. Geradezu modern wirkt hier aber bereits der Vorsokratiker Anaxagoras (der allerdings auch wegen Gottlosigkeit angeklagt wurde). Anaxagoras lebte im 5. vorchristlichen Jahrhundert, übte großen Einfluss auf die Zeit des Perikles und danach aus und formulierte für die Anfangssituation ein "Apeiron" - ein Grenzenloses:

"Alle Dinge waren anfänglich zusammen, grenzenlos was ihre Zahl betraf, ebenso wie ihre kleinen Ausmaße. Auch die Kleinheit war unbegrenzt (Abbildung 1, frei übersetzt: Redn.)

Abbildung 1. Das Apeiron des Anaxagoras (aus Fragments and Commentary. The First Philosophers in Greece. K. Paul et al., 1898: Hanover Historical Texts Project)

Dass Materie aus Grundbausteinen besteht, die nicht mehr teilbar sind, ist in schriftlichen Fragmenten des griechischen Philosophen Demokrit (460 - 371 v. Chr.) postuliert:

"Nichts existiert, als die Atome und das Leere. Alles andere sind Anschauungen."

Vom griechischen Wort für unteilbar "atomos" leitet sich unser Begriff der Atome ab, auch wenn sich deren Unteilbarkeit als überholt herausgestellt hat. Die Vorstellung eines leeren Raums, in dem die Atome umherschwirren, wurde von den nachfolgenden Kulturen und philosophischen Richtungen kategorisch abgelehnt. Man hat vielmehr die Welt auf der Basis der vier Elemente - Feuer, Wasser, Luft und Erde - zu erklären versucht.

Erst rund 2200 Jahre später sollte der Atombegriff wieder aktuell werden.

Abbildung 2. Elemente verbinden sich miteinander in ganzzahligen Verhältnissen zu Verbindungen. Erste Seite von John Dalton's "A New System of Chemical Philosophy" (1808; Bild: Wikipedia). Es waren Chemiker - Joseph L. Proust und John Dalton - die am Beginn des 19. Jahrhunderts herausfanden, dass die chemischen Elemente sich nur in ganzzahligen Verhältnissen miteinander zu Molekülen verbinden. Dalton folgerte:

„Elemente bestehen aus für das jeweilige Element charakteristischen, in sich gleichen und unteilbaren Teilchen, den Atomen“

(Abbildung 2). Bei chemischen Reaktionen handelte es sich dementsprechend darum, dass sich die Atome der Ausgangsstoffe neu anordneten.

Atome sind nicht unteilbar

Dass Atome weiter zerlegt werden können, wurde im 20. Jahrhundert eindrucksvoll demonstriert:

  •  Ionisation führt zur Abspaltung der negativ geladenen Elektronen, 
  • der Atomkern lässt sich in Protonen mit elektrisch positiver Ladung und ungeladene Neutronen teilen.

Chemische Elemente werden durch eine jeweils idente Zahl von Protonen im Kern -die "Ordnungszahl" -definiert und besitzen (im elektrisch ungeladenen Zustand) eine jeweils gleiche Zahl an Elektronen in der Elektronenhülle. Die Atome eines Elements können aber eine unterschiedliche Zahl an Neutronen aufweisen - es sind dies dies die Isotope eines Elements.

Radioaktivität: das Verhältnis von Protonen zu Neutronen im Kern ist für dessen Stabilität verantwortlich. Isotope eines Elements mit relativ zu vielen oder zu wenigen Neutronen sind radioaktiv, d.h. unter Emission von Teilchen/Stahlung - radioaktiver Strahlung - wandelt sich der Kern in einen anderen Kern um oder ändert seinen Energiezustand.

Elementarteilchen

Elektronen gelten als - unteilbare - Elementarteilchen, Protonen und Neutronen sind dagegen intern strukturiert, aus jeweils drei Elementarteilchen, den Quarks, zusammengesetzt (Abbildung 3).

Abbildung 3. Grundbausteine der Materie- Elementarteilchen (stark vereinfachte Chronologie)

In der Folge wurden weitere Arten von Elementarteilchen entdeckt, Teilchen, die beim Zerfall von radioaktiven Atomen oder bei Zusammenstößen hochenergetischer anderer Teilchen erzeugt werden können. Das Letztere geschieht auf natürliche Weise, wenn hochenergetische Teilchen aus der kosmischen Strahlung (Höhenstrahlung) auf die Atome in der Erdatmosphäre treffen. Ebenso entstehen sie in den Experimenten an großen Teilchenbeschleunigern, wo auf enorm hohe Geschwindigkeit - annähend Lichtgeschwindigkeit - gebrachte Teilchen - zumeist Protonen aber auch ganze Atome - zur Kollision gebracht werden. Eine schier unendliche Vielfalt an Teilchen wurde so entdeckt - man spricht von einem Teilchenzoo. Derartige Versuche, wie sie vor allem am größten Beschleuniger Forschungszentrum CERN (Europäische Organisation für Kernforschung) bei Genf durchgeführt werden, haben fundamentale Erkenntnisse erbracht, wie die Materie aus Elementarteilchen aufgebaut ist und wie diese miteinander wechselwirken

Auf dem Weg zur Weltformel: das Standardmodell

Das Standardmodell der Elementarteilchenphysik ist die bis jetzt umfassendste Theorie zum Aufbau unserer Welt. Auf Basis der nun bekannten Elementarteilchen - zusammengefasst in die Gruppen Leptonen (dazu gehören Elektron und Neutrino), Quarks und Kraftteilchen (Photon, Gluon, W-, Z-Boson) - und 3 der 4 fundamentalen Wechselwirkungen zwischen diesen (starke, schwache und elektromagnetische Wechselwirkungen) lässt sich die uns bekannte Materie beschreiben. Die Gültigkeit des Standardmodells wird an Hand experimenteller Bestätigungen von Voraussagen des Modells erhärtet. Eine zentrale Voraussage war hier die Existenz eines Feldes (Higgs-Feld), das das Universum durchzieht, mit dem die Elementarteilchen wechselwirken und daraus ihre Masse beziehen. 2012 konnte in Experimenten am Large-Hadron-Collider (LHC) des CERN ein neues Teilchen entdeckt werden, dessen detektierte Eigenschaften dem des postulierten Higgs-Teilchens entsprechen.

Das Standardmodell ist ein grandioser Meilenstein auf dem Weg zu einer Weltformel, hat aber noch Schwächen. Insbesondere wird die 4. fundamentale Kraft, die besonders schwache Gravitation noch nicht erfasst, das Modell ist auch nicht in der Lage "Dunkle Materie" zu beschreiben. Mit der seit dem Vorjahr wesentlich erhöhten Energie des Teilchenbeschleuniger LHC am CERN und neuen hochpräzisen Analysemethoden erwarten die Forscher Abweichungen im Standardmodell zu entdecken, die zu dessen Weiterentwicklung führen könnten. Aus diesen Experimenten gibt es aktuell einen Hinweis darauf, dass ein neues, superschweres Materieteilchen existieren könnte, das mit den bisherigen Theorien nicht erklärbar ist.

Aufbau der Materie im ScienceBlog

Die Hauptgewicht dieses Schwerpunkts erstreckt sich von (der Entstehung der) Elementarteilchen über Atome und Moleküle bis zu geordneten Strukturen (Abbildung 4). Es sind dies Gebiete, die überwiegend der Physik und der physikalischen Chemie zuzuordnen sind.

Abbildung 4. Von Elementarteilchen zum Atom zum Molekül zur geordneten Struktur (Kristallstruktur) am Beispiel von Wasserstoff und seiner Verbindung Wasser dargestellt. (Die Eisstruktur stammt aus Wikimedia: https://commons.wikimedia.org/wiki/File:Liquid-water-and-ice.png; CC BY-SA 3.0 )

In Hinblick auf fundamentale Erkenntnisse der Teilchenphysik liegt naturgemäß ein besonderer Fokus auf dem größten und leistungs­stärksten Teilchen­beschleuniger der Welt, dem LHC am CERN.


Folgende Artikel sind bereits erschienen:

Teilchen im Weltall:

Elementarteilchen:

Radioaktivität

Vom Molekül zur Struktur

inge Fri, 03.06.2016 - 17:42

Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts

Die Alzheimerkrankheit: Tau-Protein zur frühen Prognose des Gedächtnisverlusts

Fr, 27.05.2016 - 15:18 — Francis S. Collins

Francis S. CollinsIcon Gehirn

Lange vor den ersten Anzeichen von Gedächtnisproblemen erfolgen bei Alzheimerkranken bereits Veränderungen im Gehirn. Charakteristisch dafür sind zwei Typen unlöslicher Proteinablagerungen: beta-Amyloid Plaques ausserhalb und verklumpte Tau-Protein Fibrillen innerhalb der Nervenzellen des Gehirns. Francis Collins, Direktor der US National Institutes of Health, weist hier auf eine neue Studie hin, die Kartierungen dieser Ablagerungen mittels bildgebender Verfahren (PET- und MRI-Scans) ausgeführt hat. Die Anreicherung des Tau-Proteins im Schläfenlappen korreliert dabei eng mit den Symptomen des Gedächtnisverlustes. Demnach könnten PET-Scans der Tau-Protein Verteilung bereits frühzeitig Aussagen über das Stadium der Krankheit und Prognosen über deren Fortschreiten erlauben und das Ansprechen auf Therapien kontrollieren.

Viele Jahre bevor noch erste Anzeichen von Gedächtnisproblemen auftreten, setzen bei Menschen mit Alzheimerkrankheit bereits Veränderungen im Gehirn ein. Zu derartigen Veränderungen zählt eine allmähliche Ansammlung von beta-Amyloid Peptiden und Tau-Proteinen, die Plaques (unlöslichen Proteinablagerungen außerhalb der Nervenzellen, Anm. Red.) und verklumpte Tau-Fibrillen (innerhalb der Zellen, Anm. Red.) bilden und allgemein als Erkennungszeichen der Krankheit gelten. Während Amyloid-Plaques breite Aufmerksamkeit als frühe Anzeiger der Erkrankung erlangt haben, gab es bis vor Kurzem keine Möglichkeit die Zunahme von unlöslichem Tau-Protein im Gehirn eines lebenden Menschen zu bestimmen. Dementsprechend weiß man viel weniger über den Zeitablauf und die Verteilung der Tau-Protein Fibrillen und wie dies mit dem Gedächtnisverlust zusammenhängt.

Kartierung von Tau-Protein und beta-Amyloid

In einer eben erschienenen Untersuchung hat ein vom National Institute of Health (NIH) unterstütztes Forscherteam eine Reihe erster Kartierungen erstellt, die zeigen wo sich in frühen Stadien der Alzheimerkrankheit Tau-Proteine in den Gehirnen ansammeln [1]. Abbildung 1. Diese neuen Befunde weisen darauf hin, dass beta-Amyloid zwar ein verlässliches frühes Anzeichen der Alzheimerkrankheit darstellt, dass Tau-Protein aber wesentlich bessere Vorhersagen über das Nachlassen des Gedächtnisses eines Patienten und sein mögliches Ansprechen auf eine Therapie erlauben könnte.

Abbildung 1. Positronen-Emissions-Tomographie (PET) zeigt die Verteilung von Tau-Protein (obere Reihe) und beta-Amyloid (untere Reihe) im Gehirn in einer frühen Phase der Alzheimerkrankheit. Rot: höchste Konzentration von Protein-gebundenem Diagnostikums, blau: niedrigste Konzentration, gelb. orange: mittlere Konzentrationen.(Credit: Brier et al., Sci Transl Med)

Ziel der von Beau Ances und Matthew Brier (Washington University, St. Louis) geleiteten Studie war es zu erkunden wie die Anhäufung von Tau-Proteinen und beta-Amyloid Plaques - auch wenn diese mit unterschiedlichen pathologischen Prozessen zusammenhängen - klinisch mit dem Fortschreiten der Alzheimerkrankheit korrelieren. Sie wandten dazu bildgebende Verfahren für beta-Amyloid und Tau-Protein an, wobei sie ein neu erhältliches Diagnostikum für das Tau-Protein anwandten: wenn dieses Diagnostikum intravenös injiziert wird, bindet es an das Tau-Protein und kann mittels Positronen-Emissions-Tomographie (PET) im Gehirn sichtbar gemacht werden.

Die Forscher untersuchten insgesamt 46 Personen mit einem Durchschnittsalter von 75 Jahren - 36 Personen dienten als gesunde Kontrolle, 10 litten laut Diagnose an einer leichten Form der Alzheimerkrankheit. Die Verteilung von beta-Amyloid und Tau-Protein im Gehirn wurde an den Studienteilnehmern jeweils mittels der bildgebenden Verfahren Magnetresonanz-Tomographie (MRI) und Positronen-Emissions-Tomographie visualisiert. Alle Teilnehmer unterzogen sich auch standardisierten Gedächtnistests auf Demenz. Zusätzlich erfolgten bei den meisten Teilnehmern die Bestimmung von beta-Amyloid und Tau-Protein in der Rückenmarksflüssigkeit und eine neuropsychologische Testung.

Verglichen mit den gesunden Kontrollen ließen die Gehirnaufnahmen der Patienten mit leichter Alzheimerkrankheit deutlich gestiegene Gehalte an Tau-Proteinen erkennen. Abbildung 2. Die Unterschiede waren insbesondere im Schläfenlappen zu beobachten, einer Gehirnregion, deren Rolle für das Gedächtnis bekannt ist. Die Forscher beobachteten auch Anstiege des beta-Amyloid an Personen mit Alzheimer, aber ebenso auch in einigen kognitiv nicht beeinträchtigten Personen. Derartige Amyloid-Plaques entwickelten sich besonders ausgeprägt in den Frontal- und Scheitellappen des Gehirns - Regionen, die für die Integration von Sinneswahrnehmungen und höhere kognitive Prozesse von zentraler Bedeutung sind, Gedächtnis und operative Funktionen miteingeschlossen.

Abbildung 2. Zusammengesetztes PET-Scan Bild. (Zunehmende Intensität der Rotfärbung bedeutet mehr Tau-Protein.) Links: mittlere Tau-Proteinkonzentrationen von Personen mit normalen kognitiven Fähigkeiten, Rechts: gemittelte Tau-Proteinkonzentrationen von Personen mit milden Symptomen der Alzheimerkrankheit. (Credit: Matthew R. Brier, Washington University, St. Louis)

Anreicherung von Tau-Protein korreliert mit Symptomen des Gedächtnisverlustes

Obwohl beta-Amyloid und Tau-Protein tendenziell in unterschiedlichen Regionen des Gehirns akkumulieren, fanden die Forscher, dass die Anreicherung des Tau-Protein im Schläfenlappen eng mit den Symptomen des Gedächtnisverlustes korrelierte, die mit Hilfe standardisierter schriftlicher Tests für kognitive Fähigkeiten erhoben wurden. Die beta-Amyloid Aufnahmen zeigten dagegen nicht dieselbe Aussagekraft für die kognitiven Eigenschaften einer Versuchsperson.

Die auf PET-Imaging basierende Bestimmung der Gesamtbelastung mit Tau-Protein spiegelte genau die auf Grund von Analysen der Rückenmarksflüssigkeit erhaltenen Werte wider. Die Bilder bieten darüber hinaus aber mehr an Information: wo Tau-Protein zu akkumulieren ansetzt, wenn sich das Gedächtnis zu verschlechtern beginnt. Zweifellos sind weitere Untersuchungen an einer größeren Zahl von Probanden über einen größeren Zeitraum nötig.

Auf Grund ihrer Daten vermuten Ances und seine Kollegen, dass beta-Amyloid sich vorerst in diffuser Weise im ganzen Hirn anreichert. Gedächtnisprobleme tauchen erst später auf, dann wenn beide Typen von Ablagerungen - von Amyloid und Tau-Proteinen - in bestimmten Regionen des Gehirns vorliegen.

PET-Verfahren zur Diagnose, Prognose des Krankheitsverlaufs und Kontrolle der Wirksamkeit von Therapien

Die Amyloid-Visualisierung ist ein vielversprechendes Verfahren, um die Alzheimerkrankheit bereits in einer frühen Phase zu diagnostizieren. Menschen suchen den Arzt aber häufig erst dann auf, wenn bereits Probleme mit ihrem Gedächtnis begonnen haben. Hier kann die Visualisierung des Tau-Proteins ein wichtiges Mittel sein, um das Stadium der Erkrankung zu bestimmen. Mit dem Fortschritt in der Entwicklung neuer Alzheimer-Therapien - inklusive solcher, die gegen beta-Amyloid und Tau-Protein gerichtet sind - könnten PET-Verfahren sich sehr nützlich erweisen, um eine für den Patienten möglichst günstige Therapie auszuwählen und deren Wirksamkeit auf den weiteren Verlauf der Erkrankung zu kontrollieren.

Inzwischen unterstützt die Forschungsförderung des NIH gezielt PET-Imaging des Tau-Proteins in klinischen Studien. Ein wichtiges Beispiel dafür ist das Projekt "The Accelerating Medicines Partnership-Alzheimer’s Disease (AMP-AD) Biomarkers Project", das vom National Institute on Aging des NIH überwacht wird. Diese Projekt stellt ein Konsortium von drei klinischen Studien (in Phase II/III) dar, in welchen anti-Amyloid Therapien zur Prävention oder Verzögerung der Alzheimerkrankheit getestet werden. Das Imaging des Tau-Protein ist bereits in diese Studien aufgenommen. Der Fortschritt im Visualisieren von Tau-Protein und Prognostizieren von kognitivem Abbau könnte eine Hilfe für die rund 5 Millionen Amerikaner darstellen, die schon an der Alzheimerkrankheit leiden [2, 3 ]. Darüber hinaus wird diese Entwicklung den Forschern ein wichtiges Instrument in die Hand geben, um eine Reihe neuer präventiver Therapien zu testen, deren Entwicklung höchste Priorität hat.


[1] Tau and Aβ imaging, CSF measures, and cognition in Alzheimer’s disease. Brier MR, Gordon B, Friedrichsen K, McCarthy J, Stern A, Christensen J, Owen C, Aldea P, Su Y, Hassenstab J, Cairns NJ, Holtzman DM, Fagan AM, Morris JC, Benzinger TL, Ances BM. Sci Transl Med. 2016 May 11;8(338):338ra66.

[2] Alzheimer disease in the United States (2010–2050) estimated using the 2010 census. Hebert LE, Weuve J, Scherr PA, Evans DL.Neurology. 2013 May 7;80:1778-1783.

[3] Alzheimer’s Disease. Centers for Disease Control and Prevention. 2016 March 5.


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien zuerst (am. 24. Mai 2016) im NIH Director’s Blog, https://directorsblog.nih.gov/2016/05/24/alzheimers-disease-tau-protein-... . Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).

Im Artikel angeführte Links:

- Alzheimer’s Disease Fact Sheet (National Institute on Aging/NIH) https://www.nia.nih.gov/alzheimers/publication/alzheimers-disease-fact-s...

- Beau Ances (Washington University School of Medicine, St. Louis) https://neuro.wustl.edu/research/research-labs-2/ances-laboratory/

- Accelerating Medicines Partnership (NIH) https://www.nih.gov/research-training/accelerating-medicines-partnership.... NIH Support: National Institute on Aging; National Institute of Neurological Disorders and Stroke; National Center for Advancing Translational Science


Weiterführende Links

National Institutes of Health (NIH). https://www.nih.gov/

Alzheimer: Eine dreidimensionale Entdeckungsreise. Video 6:28 min. https://www.youtube.com/watch?v=paquj8hSdpc

Tau-Protein gegen Gedächtnisverlust (ohne Ton). Max-Planck Film 1:44 min, http://www.mpg.de/4282188/Tau-Protein_gegen_Gedaechtnisverlust

Planet Wissen - Diagnose Alzheimer .Video 58:17 min, https://www.youtube.com/watch?v=mp9A2esKt-A

Francis Collins: Wir brauchen bessere Medikamente – und zwar sofort (TEDMED 2012) Video 14:33 min. https://www.ted.com/talks/francis_collins_we_need_better_drugs_now?langu...

Artikel im ScienceBlog

Gottfried Schatz: 03.07.2015: Die bedrohliche Alzheimerkrankheit — Abschied vom Ich. http://scienceblog.at/die-bedrohliche-alzheimerkrankheit.


 

inge Fri, 27.05.2016 - 15:18

Nachhaltige Erhöhung der landwirtschaftlichen Produktivität - eine Chance gegen Hunger und Armut

Nachhaltige Erhöhung der landwirtschaftlichen Produktivität - eine Chance gegen Hunger und Armut

Fr, 20.05.2016 - 12:35 — Bill and Melinda Gates Foundation

Bill and Melinda Gates FoundationIcon PolitikKriegerische Konflikte und Verfolgung, ebenso wie Armut, Hunger und ein Fehlen von Zukunftsperspektiven veranlassen Menschen aus ihrer Heimat zu flüchten, in der Hoffnung anderswo ein menschenwürdiges Auskommen zu finden. Steigende Flüchtlingsströme sind insbesondere aus afrikanischen Staaten zu erwarten, die zudem ein enormes Bevölkerungswachstum aufweisen. Eine Chance die Migration abzuschwächen birgt die "Alliance for a Green Revolution in Africa" (AGRA), die auf der Überzeugung basiert, dass Investitionen in die Landwirtschaft das beste Mittel zum Kampf gegen Armut und Hunger darstellen. In die landwirtschaftliche Entwicklung - eine der wichtigsten Initiativen der Bill & Melinda Gates-Stiftung - wurden bis jetzt mehr als 2 Milliarden US-Dollar investiert. Der folgende Artikel wurde mit freundlicher Zustimmung der Gates Foundation der Website der Stiftung [1] und dem Jahresbrief 2015 [2] entnommen.

Zwischen 1960 und 1980, während der sogenannten „Grünen Revolution“ in Asien und Lateinamerika, wurde die Nahrungsmittelproduktion verdoppelt und es wurden Hunderte von Millionen Menschenleben gerettet. Diese „Grüne Revolution“ veränderte Bewirtschaftungsmethoden und verbesserte den Anbau von Hauptgetreidesorten, wie Mais, Weizen und Reis.

Daran anschließend verlagerten zahlreiche Regierungen und Spender ihre Aufmerksamkeit auf andere Problembereiche, weil sie der Meinung waren, dass das Problem unzureichender Nahrungsmittelversorgung in den Entwicklungsländern gelöst worden war. Das war allerdings nicht der Fall in Afrika südlich der Sahara, wo einige der Ansätze der Grünen Revolution erprobt wurden, aber scheiterten.

Seither haben Bevölkerungswachstum, steigendes Einkommen, nachlassende natürliche Ressourcen und der Klimawandel dazu geführt, dass die Nahrungsmittelpreise gestiegen sind und die landwirtschaftliche Produktivität erneut an der Kapazitätsgrenze ist.

Probleme der Kleinbauern

Viele der Betroffenen sind Kleinbauern. Drei Viertel der Ärmsten der Welt sind für ihre Nahrungsmittel und ihr Einkommen auf kleine Landflächen angewiesen, die nicht größer als ein Fußballfeld sind. Die meisten von ihnen kommen nur schlecht über die Runden und müssen gegen unproduktive Böden, Pflanzenkrankheiten, Ungeziefer und Dürre kämpfen. Ihre Nutztiere sind häufig schwach oder krank. Zuverlässige Märkte für ihre Produkte und zuverlässige Informationen zur Preisbildung sind schwer zu finden und die Regierungen handeln selten in ihrem Interesse.

Aufgrund dieser Faktoren leiden Millionen von Familien unter Armut, Hunger und Mangelernährung, die zu den weltweit schwersten Krankheiten führen und wesentlich zur Kindersterblichkeit beitragen. Gleichzeitig betont eine der Folgen der ersten Grünen Revolution, nämlich der übermäßige Einsatz von gewässerverschmutzenden Düngemitteln, wie wichtig Nachhaltigkeit für den Schutz der Umwelt und die Gesundheit des Menschen ist.

Geringe Ernteerträge…

In Afrika südlich der Sahara arbeiten 70% der Menschen in der Landwirtschaft. (Im Vergleich zu nur 2% in den Vereinigten Staaten). Trotzdem ist Afrika zum Überleben auf Importe und Nahrungsmittelhilfe angewiesen. Obwohl der afrikanische Kontinent der ärmste der Welt ist, gibt er pro Jahr ca. 50 Milliarden US-Dollar aus, um Nahrungsmittel aus reichen Ländern zu kaufen.

Das liegt weitgehend daran, dass afrikanische Bauern nur einen Bruchteil des Ernteertrags amerikanischer Bauern haben. Der durchschnittliche Maisertrag in Afrika liegt zum Beispiel bei 30 Bushel pro Acre Land (ca 1,9 t/ha, Anm. Red.) In den Vereinigten Staaten ist der Ertrag fünfmal so hoch (Abbildung 1).

Abbildung 1. Afrikanische Bauern haben einen fünfmal niedrigeren Maisertrag als die USA (Source: United Nations Food and Agriculture Organization )

…und Mangelernährung

Ein weiteres damit verbundenes Problem ist, dass die Nahrungsmittel in Afrika nicht nahrhaft oder abwechslungsreich genug sind, um eine gesunde Ernährungsgrundlage zu bieten. Zahlreiche Afrikaner ernähren sich fast hauptsächlich von stärkehaltigen Grundnahrungsmitteln—Mais, Reis oder Maniok. Daher herrscht Mangelernährung auf einem Kontinent mit viel Landwirtschaft, die sich auf die kognitive und physische Entwicklung von Kindern auswirkt und letztendlich die Kindersterblichkeitsrate, Lernerfolge in der Schule und die Produktivität von Arbeitnehmern in den Städten beeinträchtigt.

Das Ziel der Gates Foundation

Wir wollen diesen Bauernfamilien dabei helfen,

  • mehr Nahrungsmittel zu produzieren und
  • ihr Einkommen zu erhöhen und gleichzeitig
  • das Land für zukünftige Generationen zu erhalten.

Wenn Bauern mehr Nahrungsmittel anbauen und mehr verdienen, können sie ihre Kinder ausreichend ernähren, sie auf eine Schule schicken, sich um die Gesundheit ihrer Familie kümmern und in ihre landwirtschaftlichen Betriebe investieren. Dadurch werden ihre Gemeinschaften wirtschaftlich stärker und stabiler.

Bauern bei der Erhöhung des Ernteertrags zu helfen, erfordert einen umfassenden Ansatz, einschliesslich des Einsatzes von Samen, die widerstandsfähiger gegenüber Krankheiten, Dürre und Überschwemmungen sind; Informationen von zuverlässigen lokalen Quellen über produktivere Landwirtschaftsmethoden und –Technologien; besseren Zugang zu den Märkten und eine Regierungspolitik im Interesse der Bauernfamilien.

Wir konzentrieren uns besonders auf Bäuerinnen, weil Frauen einen Großteil der landwirtschaftlichen Arbeiten ausführen und sich ihr Wohlbefinden auf die ihr Wohlbefinden auf die Gesundheit, das Wohlergehen und die Ausbildung ihrer Kinder auswirkt (Abbildung 2). Abbildung 2. Frauen unterstützen. Über ein lokales Landwirtschaftsprogramm hat die fünffache Mutter Maria Mtele (grünes T-Shirt) gelernt, wie sie das Einkommen für ihre Familie erhöhen kann, um ein neues, stabileres Haus zu bauen

Die Strategie der Gates Foundation

Landwirtschaftliche Entwicklung ist eine der wichtigsten Initiativen der Bill & Melinda Gates-Stiftung. Bisher haben wir mehr als 2 Milliarden US-Dollar in die landwirtschaftliche Entwicklung investiert, hauptsächlich in Afrika südlich der Sahara und in Südasien. Unser Ansatz basiert auf den folgenden Prinzipien:

  • Wir hören den Bauern zu und gehen auf ihre jeweiligen Bedürfnisse ein. Wir sprechen mit den Bauern über das Getreide, das sie anbauen und essen möchten und über ihre speziellen Herausforderungen. Wir arbeiten mit Organisationen zusammen, die diese Herausforderungen verstehen und darauf eingehen können, und wir investieren in Forschung, um relevante und günstige Lösungen zu finden, die von den Bauern gefordert und eingesetzt.
  • Erhöhung der landwirtschaftlichen Produktivität. Wir unterstützen ein Gesamtkonzept, um Kleinbauern zum Erfolg zu verhelfen. Dazu gehören Zugang zu gesünderen Samen, wirksamere Werkzeuge und landwirtschaftliche Managementverfahren, lokal relevantes Wissen, neue digitale Technologie und zuverlässige Märkte. Wir setzen uns auch für Landwirtschaftspolitik ein, die den Bauern dabei hilft, sich und ihre Gemeinschaften besser zu ernähren.
  • Die Unterstützung von nachhaltigen landwirtschaftlichen Verfahren. In einer Ära von zunehmend knapper werdenden Ressourcen und zunehmenden Auswirkungen des Klimawandels fordern wir Bauern dazu auf, nachhaltige Verfahren zu akzeptieren und einzusetzen, die es ihnen ermöglichen, den Anbau auf weniger Land, mit weniger Wasser, Düngemitteln und anderen teuren Aufwendungen zu erhöhen und gleichzeitig die natürlichen Ressourcen für zukünftige Generationen zu schützen.
  • Mehr Einfluss mit Partnern erreichen. Wir werden unsere Strategie effektiver den Fördergelder-Empfängern und anderen Partnern, wie Regierungen, Nicht-Regierungsorganisationen, traditionellen und neuen Spendern und dem privaten Sektor mitteilen und mit ihnen das Gelernte teilen. Wir verfügen zwar über signifikante Ressourcen, aber diese sind nur ein Teil dessen, was wirklich benötigt wird. Wenn wir wirksam mit anderen zusammenarbeiten können wir Bauernfamilien wesentlich besser helfen.

Unsere Fokusbereiche

Wir investieren in die folgenden strategischen Bereiche, mit deren Hilfe wir auf die Herausforderungen und die Realtitäten der Bauernfamilien in Entwicklungsländern eingehen können:

Forschung und Entwicklung

Wir unterstützen Forschung, um produktivere und nahrhaftere Sorten von Hauptgetreiden zu entwickeln, die von Bauernfamilien angebaut und konsumiert werden. Dazu gehören Sorten, die den jeweiligen Bedingungen vor Ort angepasst sind und den Bauern Vorteile, wie höhere Erträge, mehr Nährwert sowie Widerstandsfähigkeit gegenüber Dürre, Überschwemmungen und Ungeziefer bieten. Wir finanzieren Forschungsprojekte, um bessere Möglichkeiten für den Umgang mit Boden- und Wasserressourcen zu finden sowie Ernteverluste durch Verderb, Unkraut, Ungeziefer, Krankheiten und andere Bedrohungen zu reduzieren.

Landwirtschaftspolitik

Rechtzeitige, relevante und genaue Informationen sind für Bauern sehr wichtig. Politische Entscheidungsträger in Entwicklungsländern benötigen auch gute Daten, die ihnen bei der Entscheidungsfindung helfen. Wir unterstützen das Erfassen von Daten, sowie Forschungsprojekte und die Analyse landwirtschaftlicher Politik, um die Auswirkungen verschiedener Ansätze zu bewerten, die Bauern mit richtigen Informationen zu versorgen und die Auswirkungen nationaler und internationaler Landwirtschaftspolitik zu beurteilen. Bei unseren Forschungsprojekten messen wir auch den Forschritt unserer Fördergelder, um sicherzugehen, dass die Bauernfamilien auch wie geplant davon profitieren.

Nutztiere

Nutztiere sind ein wichtiger Teil der Landwirtschaft in Entwicklungsländern und wichtig für das Leben von mehr als 900 Millionen Menschen in Afrika südlich der Sahara und in Südasien. Wir unterstützen Projekte zur Verbesserung der Gesundheit und der Produktivität der Nutztiere, insbesondere von Hühnern, Ziegen und Kühen, durch die Verbesserung des genetischen Materials der Tiere und ihre tierärztliche Versorgung. Um sicherzugehen, dass Bauern von den Technologien für Tiergesundheit und Genetik profitieren, testen wir Modelle, um Bauern mit dem erforderlichen Wissen und den Werkzeugen auszustatten, die ihnen eine Produktionserhöhung und Zugang zu stabilen Märkten ermöglichen. Unsere Arbeit zielt insbesondere darauf ab, einkommenschaffende Chancen für Frauen zu schaffen, die möglicherweise nur wenig Kontrolle über produktive Ressourcen wie Land haben, die aber gelegentlich Nutztiere besitzen, besonders Geflügel und Ziegen.

Zugang und Marktsysteme

Wir unterstützen Projekte, um neue und angemessene Werkzeuge und landwirtschaftliche Verfahren zu den Bauern zu bringen. Dazu gehören verbesserte Samen und Zugang zu besserem Boden, mehr Wasser und Tierhaltungslösungen. Wir suchen nach Möglichkeiten, wie wir den Wissensaustausch mithilfe von Technologien, wie Mobiltelefonen und Funkgeräten, stärken können. Wir arbeiten auch mit Bauernverbänden zusammen, um Bauern dabei zu helfen, ihre betriebswirtschaftlichen Kenntnisse zu verbessern, ihre Kaufkraft und Marketingwirkung zu erhöhen und um ihre Anbau- und Ressourcen-Managementfähigkeiten zu verbessern. Weitere Prioritäten sind, den Bauern dabei zu helfen, die Lagerung des Getreides nach der Ernte zu verbessern, die nachgefragte Qualität und Quantität zu liefern, Zugang zu großen und zuverlässigen Märkten zu haben und Partnerschaften mit Käufern, Verarbeitungsunternehmen und Bauernverbänden aufzubauen.

Strategische Partnerschaften und Fürsprache

Um das Ziel, nachhaltiger landwirtschaftlicher Produktivität zu erreichen, müssen wir uns bei unserer Strategie auf starke Partnerschaften mit Spenderländern, multilateralen Institutionen, privaten Stiftungen und anderen Organisationen verlassen können. Wir stärken existierende Partnerschaften und bauen neue mit Ländern wie Brasilien und China auf, die ihre eigenen Landwirtschaftssektoren mithilfe technologischer und politischer Innovationen entwickelt haben und in den Regionen, in denen wir tätig sind, immer wichtiger für das landwirtschaftliche Wachstum werden. Durch unsere Fürsprache und Investitionen suchen wir innovative Lösungen für agrarpolitische Herausforderungen und arbeiten daran, den politischen Willen und die öffentliche Unterstützung zu nutzen, um uns diesen Herausforderungen zu stellen. Wir wollen sicherstellen, dass Investitionen und die Politik in den Spender- und Entwicklungsländern die Produktivität von Kleinbauern nachhaltig unterstützen.


[1] Landwirtschaftliche Entwicklung: http://www.gatesfoundation.org/de/What-We-Do/Global-Development/Agricult...

[2] Bill Gates Jahresbrief 2015: https://www.gatesnotes.com/2015-annual-letter?lang=de&page=0


Weiterführende Links

Alliance for a Green Revolution in Africa (AGRA) http://www.gatesfoundation.org/How-We-Work/Resources/Grantee-Profiles/Gr...

 

inge Fri, 20.05.2016 - 00:35

Mikrobiome extremer Tiefsee-Lebensräume

Mikrobiome extremer Tiefsee-Lebensräume

Fr, 13.05.2016 - 13:00 — Antje Boetius

Antje Boetius Icon Meere Die Tiefsee birgt eine astronomisch hohe Zahl von Mikroorganismen mit einer bisher kaum erschlossenen genetischen Vielfalt. Sie zu kennen ist wichtig für das Verständnis des Erdsystems und seiner Stoffkreisläufe. Di e prominente Meeresbiologin Antje Boetius (Prof. für Geomikrobiologie, Univ. Bremen und Leitung der HGF-MPG Brückengruppe für Tiefsee-Ökologie und -Technologie) untersucht das Mikrobiom extremer Lebensräume der Tiefsee mit dem Ziel Antworten auf Fragen zur Entstehung und zu den Grenzen des Lebens sowie zu Anpassungsmöglichkeiten an eine dynamische Umwelt zu erhalten.*

Volkszählung der Meere

Die Vielfalt an Mikroorganismen auf der Erde – Bakterien, Archaea und einzellige Eukaryonten - kann man bisher kaum beziffern. Das internationale Programm "Volkszählung der Meere" (Census of Marine Life, 1990-2000) hat geschätzt, dass die Ozeane eine Milliarde unerforschter Bakterien und Archaeen-Arten enthalten. Sie werden im Folgenden „Typen“ genannt, weil der Artbegriff bei Mikroorganismen umstritten ist und gerade der Tiefseeboden besonders reich an nahe verwandten, unbekannten Mikroorganismen ist (Abbildung 1; [1]).                                     Abbildung 1. Leben am Meeresboden. (a) Algenklumpen dienen als Nahrungsquelle für Tiefseetiere (hier: Seegurken), denen eine Vielfalt von Bakterien bei der Verdauung hilft. (b) Schema von Mikroorganismen des Tiefseebodens und der Vielfalt ihrer Stoffwechselleistungen. Tiefsee-Mikroben recyclen über 99% des abgelagerten organischen Materials und speisen Nährstoffe und gelöstes organisches Material ins Meerwasser zurück. © Max-Planck-Institut für marine Mikrobiologie/Boetius

Man stellt sich die Tiefsee zumeist als einen Ort der Dunkelheit, Kälte und des Nahrungsmangels vor, an dem sich das Leben ausschließlich von herabsinkenden Algenflocken ernährt. Doch die Entdeckungen von so verschiedenen Tiefsee-Lebensräumen wie heiße schwarze Raucher, kalte Methanquellen und riesige Korallenriffen mittels Tauchbooten und Unterwasser-Robotern sowie von der kilometertiefen Biosphäre unter dem Meeresboden durch Bohrschiffe revolutionierte unsere Kenntnis von den Grenzen des Lebens auf der Erde und seinen Anpassungen. Immer mehr Bakterien und Archaeen werden gefunden, die durch Nutzung von Energie aus dem Meeresboden bunte Lebensgemeinschaften von Tieren ernähren. Sie verwenden dafür reduzierte Moleküle wie Wasserstoff, Methan, Schwefelwasserstoff und Eisen und fixieren ganz ohne Sonnenlicht Kohlendioxid. Dieser Vorgang wird als Chemosynthese bezeichnet. Da Tiere selbst keine Chemosynthese betreiben können, bilden sie in solchen Ökosystemen oft Symbiosen mit Bakterien, die sie mit Nährstoffen versorgen. Chemosynthetische Ökosysteme findet man an kalten und heißen Quellen, aber auch dort wo große Mengen von organischem Kohlenstoff auf den Tiefseeboden fallen. So können die Kadaver verendeter Wale, aber auch abgesunkene Baumstämme der nahrungsarmen Tiefsee auf einen Schlag so viel organisches Material zuführen, dass die Zersetzungsprozesse durch Mikroorganismen die nähere Umgebung für Jahrzehnte verändert [2].

Neben den Tiefseerobotern, mit denen solch extreme Lebensräume erkundet werden können, erlauben noch ganz andere Maschinen Tauchgänge in die molekulare Vielfalt des Lebens selbst: Hochdurchsatz-Sequenzierer, die riesige Bibliotheken genetischer Information aus wenigen Gramm Tiefseeboden erzeugen. Dabei wird die gesamte mikrobielle DNA oder RNA - das sogenannte Mikrobiom - aus einer Probe extrahiert, vervielfältigt und sequenziert. Mittels bioinformatischer Methoden können dann die Gene der Mikroorganismen aus den Sequenzabschnitten rekonstruiert werden und uns einen Einblick in die vorhandene Diversität und Stoffwechselkapazität der dort lebenden Organismen geben. Zellzählungen an Bodenproben aus verschiedenen Ozeanregionen und Wassertiefen zeigen dabei, dass jedes Gramm Meeresboden durchschnittlich eine Milliarde Zellen enthält. Die Sequenzanalysen aus einer solchen Probe ergeben im Durchschnitt über 1000 Typen von Bakterien und um die 100 Archaeen-Typen. Keine zwei Bodenproben enthalten dabei die gleichen Mikroorganismen [3], auch wenn die Proben nur wenige Meter voneinander entfernt sind. Jede Probe enthält Sequenzen, die bis dato noch nie woanders entdeckt wurden. Und jeder einzelne Typ Mikrobe birgt dabei wiederum Tausende von Genen, die Stoffwechsel, biologische Interaktion und Anpassung an die Umwelt steuern. Diese Gene tragen die Information zur Herstellung von Eiweißen, Fettsäuren, Vitaminen, Pigmenten, Klebstoffen, Giftstoffen, antimikrobiellen Substanzen, Oberflächen, chemischen Rezeptoren und vieles mehr, doch die meisten Funktionen bleiben bisher unbekannt. Aufgrund der ungeheuren Ausdehnung des Lebensraums Tiefseeboden und der Mächtigkeit der von Bakterien und Archaeen belebten Schichten ergeben Hochrechnungen, dass die Mikroorganismen des Meeresbodens mindestens ein Zehntel der gesamten lebenden Biomasse auf der Erde ausmachen, und dazu aufgrund ihrer genomischen Verschiedenheit auch einen Großteil der genetischen Ressourcen unseres Planeten beherbergen. Und noch ist nur eine Handvoll solcher Tiefsee-Mikroorganismen kultiviert.

Woher kommt diese enorme Vielfalt? Mikrobielle Populationen nehmen Nischen in der marinen Umwelt ein, die durch Temperatur, Druck, pH-Wert, Salinität, durch die Verfügbarkeit von Nährstoffen und Elektronenakzeptoren, aber auch durch verschiedene Mortalitätsfaktoren bestimmt werden. Die Tiefsee umfasst zwar einen riesigen Raum, birgt dabei aber kleinräumig extreme Unterschiede, zum Beispiel zwischen kaltem Polarwasser und heißen Quellen, zwischen Grundwasseraustritten und tiefen Salzseen, zwischen sauren und basischen Fluiden, zwischen Bodenschichten mit und ohne Sauerstoff. Auch die Zusammensetzung der anorganischen und organischen Stoffe im Porenwasser des Meeresbodens kann sich stark unterscheiden. Von allen Bewohnern am Meeresgrund sind die Einzeller zwar die unscheinbarsten, doch sind sie wichtig für die Stoffkreisläufe der Erde, denn sie führen die Nährstoffe aus abgesunkenem Algendetritus ins Meer zurück [4] und kontrollieren den Austritt von giftigen oder klimaschädlichen Substanzen aus dem Meeresboden, wie zum Beispiel von Methan [5]. Dabei gibt es fantastische Anpassungen des Lebens zu entdecken, von denen im Folgenden ein paar Beispiele genannt sein sollen.

Holzabbau in der Tiefsee

In der Tiefsee wachsen keine Bäume, und doch kann aus einem abgesunkenen Baumstamm am Meeresgrund eine Oase des Tiefseelebens werden – zumindest bis das Holz vollständig zersetzt ist. Alle helfen sich gegenseitig: Schiffbohrwürmer (Xylophaga-Muscheln) zerkauen die Holzfasern in Späne, Bakterien des Tiefseebodens können dann die schwerverdauliche Cellulose aus dem Holz weiter zersetzen, andere fixieren dabei Stickstoff und verbessern so die Nahrungsqualität des Holzes. Der Umsatz von Holz verbraucht Sauerstoff und ermöglicht dann die Produktion von Schwefelwasserstoff durch sulfatreduzierende Mikroorganismen. So können von Schwefel als Energiequelle abhängige Muschelarten, die sonst nur an kalten oder heißen Quellen vorkommen, das Holz vorübergehend besiedeln [2]. Die zufälligen Holzeinträge begünstigen also nicht nur die Verbreitung seltener Tiefseetiere, sondern bilden auch Hotspots des Lebens am Meeresgrund (Abbildung 2).                                                                                                        Abbildung 2. Leben von Holz: Besiedlung von Holz in der Tiefsee und die Ausbildung sulfidischer Nischen am Meeresboden. Nähere Erläuterungen im Text. © Max-Planck-Institut für marine Mikrobiologie/aus [2]

Methanzehrende Mikroorganismen im Meeresboden

In methanreichen Tiefseeböden leben Archaea in Symbiose mit sulfatreduzierenden Bakterien. Sie wandeln das durch Fäulnis organischer Materie gebildete Methan zu Kohlendioxid und Sulfid um und verhindern die Entgasung in den Ozean und die Atmosphäre. Der hohe hydrostatische Druck bedingt, dass sich in der Tiefsee wesentlich mehr Methan im Wasser lösen kann als unter den Bedingungen an Land. Die Energie des Methans wird durch die Mikroorganismen ins Nahrungsnetz gespeist und bildet die Grundlage reichhaltiger Ökosysteme [6].

Einige wenige dieser methanotrophen Mikroorganismen kommen in allen Tiefseeböden vor [7] und wirken dem Treibhauseffekt des Methans also entscheidend entgegen. Würde alles Methan, das im Meeresboden entsteht, auch in die Atmosphäre gelangen, zeigten sich das Erdsystem und das Klima völlig anders, als wir es heute kennen. Kürzlich wurde entdeckt, dass für die Umwandlung von Methan zu Kohlendioxid und Sulfide die Archaeen und sulfatreduzierenden Bakterien winzige Kabelnetzwerke zwischen den Zellen bilden, vermutlich, um direkt Elektronen austauschen zu können (Abbildung 3; [6]).

Abbildung 3. Leben von Methan. (a) Mikroskop-Aufnahmen verschiedener methanotropher Mikroorganismen vom Tiefseeboden. (b) Elektronenmikroskopie von Nano-Drähten zwischen methanotrophen Archaeen und Bakterien. Die Länge des weißen Balkens entspricht einem Mikrometer. Die Pfeile verweisen auf die im Text erwähnten Kabelnetzwerke (Nano-Drähte). (A=ANME-Archaeen, H=HotSeep-1 Partnerbakterien).© Max-Planck-Institut für marine Mikrobiologie/Knittel, Ruff und Max-Planck-Institut für biophysikalische Chemie/nach [8], verändert

Leben in Säure

Eine viel diskutierte technische Lösung, den zunehmenden Kohlendioxidgehalt der Atmosphäre in den Griff zu kriegen, ist, das bei industriellen Prozessen entstehende CO2 abzuscheiden und im Meer in tiefe Bodenschichten einzuleiten – zum Beispiel in entleerte Erdöl-Speicher. Doch was, wenn es Lecks gäbe und das CO2 auslaufen würde? Kohlendioxid löst sich nämlich gut in Meerwasser und könnte dieses stark ansäuern, besonders unter den hohen Drücken der Tiefsee. Ein niedriger pH-Wert und hoher CO2-Gehalt könnten sich sehr schädlich auf die Tiefseeumwelt auswirken. Daher wird derzeit in einer Reihe von internationalen Projekten erforscht, wie die Meeresumwelt reagieren könnte – eine Frage, die sich zusätzlich aus der zunehmenden CO2-Lösung im Meer ergibt, genannt Ozeanversauerung. Forschung an natürlichen heißen CO2-Quellen im Meer zeigt, dass der Säuregehalt einen erheblichen Einfluss auf die biogeochemischen Funktionen sowie die Verteilung und Zusammensetzung der Mikroorganismen an sauren Quellen hat [9]. Bei Übersäuerung kommen manche Funktionen gar und ganz zum Erliegen, eine Anpassung scheint für die meisten Lebewesen nur bei geringen Säuregraden möglich. Einige wenige Arten können sich wiederum - bei hoher Energieverfügbarkeit - an ein Leben in Säure anpassen (Abbildung 4), doch welche zellulären Prozesse sie dabei nutzen, ist noch nicht bekannt.

Abbildung 4. Leben in Säure: Wenige Arten können die sauren Fluide der heißen CO2-Quellen des Yonaguni Mounds (Okinawa-Trog) überleben, dazu gehört eine Krabbenspezies, auf deren Panzer Schwefelbakterien leben. © MARUM, Zentrum für Marine Umweltwissenschaften der Universität Bremen: FS SONNE Expedition SO196; ROV QUEST

Ausblick

Auch wenn die Wissenschaft erst ganz am Anfang steht, die Vielfalt und Funktionen unbekannter Mikroorganismen am Meeresboden zu erfassen, so ist dieses Wissen wichtig, um Fragen zur Vergangenheit, Gegenwart und Zukunft der Erde zu beantworten. Es wird genutzt, um zu beurteilen, wie der Klimawandel Leben in der Tiefsee der Arktis verändert, ob Bakterien nach Erdölunfällen in der Tiefsee die Verschmutzung beseitigen können oder ob ein möglicher Tiefseebergbau die Recycling-Funktionen des Meeresbodens verringern könnte. Es stehen neue Technologien zur Verfügung, das Leben am Meeresboden zu beobachten und seine Interaktion mit der Umwelt zu untersuchen. Dabei sind einige der kürzlich entdeckten Meeresumwelten so fremdartig, dass sie als Parallelen zu möglichen Lebensräumen auf anderen Himmelskörpern gelten – zum Beispiel Leben im und unter dem Eis [10], im Gashydrat, in CO2-Seen, in Salzlaken und im tiefen Untergrund. Besonders faszinierend ist die neue Erkenntnis, dass trotz der enormen Vielfalt des Lebens in der Tiefsee einige wenige Typen von Mikroorganismen dominieren, die eine bisher ungeahnte Rolle in globalen Stoffkreisläufen spielen.


* Der gleichnamige, aus dem eben erscheinenden Jahrbuch der Max-Planck Gesellschaft 2016 entnommene Artikel ist aufrufbar unter: Forschungsbericht 2016 https://www.mpg.de/9910224/MPI_MM_JB_2016 . Der Artikel wurde mit freundlicher Zustimmung der Autorin und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier ungekürzt, die nicht frei zugänglichen Literaturstellen können auf Anfrage zugesandt werden. 


Literaturhinweise

[1] Zinger, L.; Amaral-Zettler, L.A.; Fuhrman, J.A.; Horner-Devine, M.C.; Huse, S.M.; Welch, D.B.; Martiny, J.B.H.; Sogin, M.; Boetius, A.; Ramette, A. Global patterns of bacterial beta-diversity in seafloor and seawater ecosystems. PLOS ONE: e24570 (2011). DOI

[2] Bienhold, C.; Pop Ristova, P.; Wenzhöfer F.; Dittmar, T., Boetius, A. How Deep-Sea Wood Falls Sustain Chemosynthetic Life. PLOS ONE 8: e53590 (2013) DOI

[3] Jacob, M.; Soltwedel, T.; Boetius, A.; Ramette, A. Biogeography of benthic bacteria at regional scale in the deep Fram Strait (LTER HAUSGARTEN, Arctic). PLOS One 8: e72779 (2013) DOI

[4] Boetius, A., Albrecht, S.; Bakker, K.; Bienhold, C.; Felden, J.; Fernández-Méndez, M.; Hendricks, S.; Katlein, C.; Lalande, C.; Krumpen, T.; Nicolaus, M.; Peeken, I.; Rabe, B.; Rogacheva, A.; Rybakova, E.; Somavilla, R.; Wenzhöfer F.; and the RV Polarstern ARK27-3-Shipboard Science Party. Export of algal biomass from the melting Arctic sea ice. Science 339, 1430-1432 (2013) DOI

[5] Feseker, T.; Boetius, A.; Wenzhöfer, F.; Blandin, J.; Olu, K.; Yoerger, D.R.; Camilli, R.; German, C.R.; de Beer, D. Eruption of a deep-sea mud volcano triggers rapid sediment movement. Nature Geosciences 5: 5385 (2014) DOI

[6] Boetius, A.; Wenzhöfer, F. Seafloor oxygen consumption fuelled by methane from cold seeps Nature Geoscience 6. 725-734 (2013). DOI

[7] Ruff, S.E.; Biddle, J.; Teske, A.; Knittel, K.; Boetius, A.; Ramette, A. Global dispersion and local diversification of the methane seep microbiome. Proceedings of the National Academy of Sciences USA 112, 4015-4020 (2015). DOI

[8] Wegener, G.; Krukenberg, V.; Riedel, D.; Tegetmeyer, H.E.; Boetius, A. Intercellular wiring enables electron transfer between methanotrophic archaea and bacteria. Nature 526, 587-590 (2015). DOI

[9] de Beer D.; Haeckel, M.; Neumann, J.; Wegener, G.; Inagaki, F.; Boetius, A. Saturated CO2 inhibits microbial processes in CO2-vented deep-sea sediments. Biogeosciences 10, 5639–5649 (2013) DOI

[10] Boetius, A.; Anesio, A.M.; Deming, J.W.; Mikucki, J.A.; Rapp, J.Z. Microbial ecology of the cryosphere: sea ice and glacial habitats. Nature Reviews Microbiology 13, 525 (2015)


Weiterführende Links

Antje Boetius in Videos

Planet Wissen - Expedition in die Tiefsee. Video 58:36 min. https://www.youtube.com/watch?v=7sG8nJoeMOg (Standard-YouTube-Lizenz)

Die geheime Welt der Ozeane: Erforschung des Lebensraums Tiefsee (Vortrag). Video 49:52 min. Tiefseeforscherin Prof. Dr. Antje Boetius über ihre Ziele und Ideen für Wissenschaft im Dialog . Video 3:46 min.

Artikel zu verwandten Themen im ScienceBlog:

Christa Schleper, 19.06.2015 Erste Zwischenstufe in der Evolution von einfachsten zu höheren Lebewesen entdeckt: Lokiarchaea.

Gerhard Herndl , 21.02.2014: Das mikrobielle Leben in der Tiefsee

Gottfried Schatz, 22.09.2011: Der kleine warme Tümpel — Was urtümliche Einzeller von der Frühzeit des Lebens berichten


 

inge Fri, 13.05.2016 - 22:00

Proteinmuster chronischer Schmerzen entziffern

Proteinmuster chronischer Schmerzen entziffern

Fr, 06.05.2016 - 11:39 — Manuela Schmidt

Manuela SchmidtIcon Gehirn

Schmerz ist ein Hauptsymptom vieler Krankheiten und weltweit der häufigste Grund für Menschen, medizinische Hilfe zu suchen. Während akuter Schmerz ein Warnsignal darstellt, bergen chronische Schmerzen große Herausforderungen sowohl für Patienten als auch für behandelnde Ärzte. Für die Entwicklung nebenwirkungsarmer und effizienter Schmerztherapien wäre die Entzifferung von Proteinen, die ausschließlich an chronischen Schmerzen beteiligt sind, von enormer Bedeutung. Die Neurowissenschafterin Manuela Schmidt ( Max-Planck Institut für experimentelle Medizin, Göttingen) arbeitet an den molekularen Grundlagen der Schmerzentstehung und -weiterleitung.*

Stellen Sie sich vor Sie begegneten einer guten Fee, die Ihnen verspricht, dass Sie von heute an schmerzfrei leben könnten. Sie würden sicher, ohne mit der Wimper zu zucken, der Erfüllung dieser Verheißung zustimmen. Wie würde allerdings Ihr Leben ohne Schmerzen in Alltagssituationen aussehen? Sie stehen morgens auf, trinken Ihren Kaffee und würden nicht bemerken, dass er zu heiß ist und sich daher die Zunge verbrennen; im Sportverein würden Sie der Knieverletzung keine Beachtung schenken, weiterspielen und dadurch möglicherweise langanhaltende Gewebeschäden hervorrufen; die Entzündung des Blinddarms würden Sie aufgrund fehlender Schmerzen erst sehr spät bemerken, was potenziell lebensgefährliche Konsequenzen nach sich zöge ... Dies sind nur wenige Beispiele, die die enorme Schutzfunktion von Schmerzen als Warnsignal widerspiegeln. Besonders prägnante Beispiele liefert die Betrachtung von Menschen, deren Schmerzempfindung durch Mutationen in ihrem Erbgut beeinträchtigt ist. Deren Alltag ist gezeichnet von zahlreichen, oft schwerwiegenden Verletzungen und Entzündungen, welche im Allgemeinen zu einer verringerten Lebenserwartung führen.

Während allerdings dieser akute oder sogenannte nozizeptive Schmerz als überlebenswichtiges Warnsignal für schädliche Bedingungen fungiert, stellen chronische Schmerzen eine Fehlanpassung des Nervensystems dar. Chronische Schmerzen bergen essenzielle Herausforderungen, weil sie mit heute bekannten Schmerzmedikamenten nicht adäquat therapierbar sind. Patienten mit chronischen Schmerzen sind aus diesem Grund hohem Leiden und überdies starken Nebenwirkungen der Therapien ausgesetzt. Letzteres resultiert größtenteils daraus, dass heutige Schmerztherapeutika Proteine angreifen, die im gesamten Organismus vorkommen.

Um also die positive Seite der Verheißung auf ein schmerzfreies Leben genießen zu können, müsste man von der guten Fee verlangen, nur chronische Schmerzen zu verhindern. Zur Erfüllung dieses Wunsches ist ein besseres Verständnis der molekularen Mechanismen, die spezifisch für chronische Schmerzen sind, unabdingbar.

Schmerz und Membranproteine

Schmerz ist ein Hauptsymptom vieler Krankheiten und weltweit der häufigste Grund für Menschen, medizinische Hilfe zu suchen. Wirbeltiere, einschließlich des Menschen, besitzen spezialisierte somatosensorische Nerven, deren Zellkörper in den Hinterwurzelganglien parallel zum Rückenmark gruppiert sind. Mittels dünner zellulärer Fortsätze innervieren diese somatosensorischen Nervenzellen die Haut und innere Organe. Um sowohl normale als auch schmerzhafte Reize unterschiedlicher Qualität (mechanisch, thermisch und chemisch) zu erkennen, sind diese Nervenzellen mit Proteinen ausgestattet, welche als primäre molekulare Signaldetektoren fungieren. Dabei handelt es sich um Membranproteine (d.h. sie sind in der Plasmamembran der Nervenzellen exprimiert), welche die einzigartige Fähigkeit zur Erkennung und Weiterleitung normaler und schädlicher Reize besitzen – von einer sanften Berührung bis zur schmerzhaften Wahrnehmung eines spitzen Nagels.

Bahnbrechende Forschungsergebnisse haben vor erst 15 bis 20 Jahren die molekulare Identität wichtiger Signaldetektoren entschlüsselt und damit die Erforschung der molekularen Grundlagen von Schmerzentstehung maßgeblich vorangebracht. Eine prominente Gruppe dieser Signaldetektoren bilden sogenannte Transient Receptor Potential (TRP)-Ionenkanäle. Vertreter der TRP-Ionenkanalfamilie werden durch verschiedenste pflanzliche Substanzen aktiviert, wie z. B. die „brennende“ Substanz aus feurigen Chilischoten, das Capsaicin. Arbeiten aus dem Labor von David Julius (UCSF, USA) konnten an Mäusen zeigen, dass Capsaicin einen bestimmten TRP-Ionenkanal (sogenannte TRPV1-Kanäle) in sensorischen Nervenfasern aktiviert. Dieser Prozess löst das feurig-brennende Gefühl aus, welches wir auch mit dem Essen von Chilischoten verbinden. Interessanterweise wird derselbe Ionenkanal auch durch noxische Hitze, also Temperaturen über 42°C, aktiviert, was gleichermaßen zu einem feurig-brennenden Hitzegefühl führt. Im Gegensatz dazu wurde im Labor von Ardem Patapoutian (Scripps Research Institute, USA) ein anderer TRP-Kanal, TRPA1, kloniert und charakterisiert, der sowohl durch noxische Kälte (Temperaturen unter 15°C), als auch durch verschiedenste pflanzliche und chemische irritierende Substanzen aktiviert wird, wie z. B. Senföle, die sich in Senf- und Wasabi-Produkten finden, aber auch Tränengase, die Atemwegsirritationen auslösen.

Diese Beispiele zeigen, dass molekulare Sensoren ein unglaubliches Repertoire von schmerzhaften Reizen detektieren können, wobei diese sowohl exogener als auch endogener Natur (z. B. Substanzen, die während Entzündungen freigesetzt werden) sein können. Die Aktivierung der Signaldetektoren erzeugt einen elektrischen Impuls, der durch weitere Membranproteine in ein sogenanntes Aktionspotenzial in der Nervenzelle umgewandelt wird. Wiederum mittels bestimmter Membranproteine löst das Aktionspotenzial komplexe Signalweiterleitungskaskaden im Rückenmark und daraufhin in verschiedenen Gehirnarealen aus, die letztendlich für die Empfindung von Schmerz verantwortlich sind (Abbildung 1).

Abbildung1: Schematische und stark vereinfachte Darstellung der „Schmerzachse“ in Wirbeltieren. Die Aktivierung molekularer Signaldetektoren wie z. B. TRP-Kanäle in der Membran peripherer sensorischer Nerven durch noxische oder irritierende Reize erzeugt einen elektrischen Impuls, der in ein sogenanntes Aktionspotenzial in der Nervenzelle umgewandelt wird. Wiederum mittels bestimmter Membranproteine löst das Aktionspotenzial komplexe Signaltransduktionskaskaden im Spinalganglion und daraus folgend im Rückenmark aus. Daraufhin wird die Information zu verschiedenen Gehirnarealen weitergeleitet, die letztendlich für die Empfindung von Schmerz verantwortlich sind.© Max-Planck-Institut für experimentelle Medizin/Schmidt

Das Konzept der „molekularen Maschinen“

Bereits diese kurze Beschreibung der generellen Grundlagen zur Schmerzdetektion, -weiterleitung und -empfindung veranschaulicht die enorme Bedeutung von Membranproteinen, welche in der „Schmerzachse“ exprimiert werden. Gemeint sind damit die Regionen des peripheren (PNS) und des zentralen Nervensystems (ZNS), die an der Verarbeitung von Schmerzsignalen beteiligt sind. Aufgrund vieler technischer Hürden in der Analyse von Membranproteinen wissen wir bisher nur relativ wenig darüber, welche Membranproteine für bestimmte Schmerzformen relevant sind und vor allem wie diese im Detail reguliert sind. Würde man allerdings Membranproteine oder deren Regulationsmechanismen identifizieren, die selektiv nur während chronischer Schmerzen zum Einsatz kämen, könnte man diese als Angriffspunkte für zukünftige Therapien heranziehen, um Schmerzbehandlungen wirksamer zu machen und Nebenwirkungen zu reduzieren .

Allerdings erfolgte die Erforschung der Pathomechanismen chronischer Schmerzen bisher vor allem auf der genomischen oder der Transkriptom-Ebene, das heißt vor der Umsetzung der Nukleinsäuren in Proteine. Da Proteine die funktionellen Einheiten einer Zelle bilden und nur bedingt vom Trankriptom auf das Proteom, also die Gesamtheit der Proteine einer Zelle, geschlossen werden kann, ist eine detaillierte Proteomanalyse unverzichtbar. Auf welche Art und Weise wird die Aktivität von Membranproteinen während der Schmerzen gesteuert? Um die Frage zu beantworten, ist es wichtig, assoziierte oder auch interagierende Proteine zu identifizieren. Kern dieses Denkansatzes ist das Konzept der „molekularen Maschinen“, welches besagt, dass die Funktion einzelner Proteine durch deren Interaktion mit anderen Proteinen in sogenannten Multi-Proteinkomplexen dynamisch moduliert werden kann. Konsequenterweise sollte die Aufklärung der Komponenten solcher Proteinkomplexe Aufschluss über die Funktion und Regulation eines Proteins geben können. Die Gültigkeit dieses Konzepts wurde bereits anhand vieler Beispiele gezeigt, allerdings wurde es nur spärlich zur Erforschung der molekularen Grundlagen von Schmerzen angewandt.

Das erklärte Ziel der Max-Planck-Forscher ist es daher, die Regulation von Membranproteinen und assoziierten Proteinnetzwerken während nozizeptiver und chronischer Schmerzen vergleichend zu untersuchen. Mit diesem Ansatz konnte die Forschungsgruppe um Manuela Schmidt bereits zeigen, dass die Aktivität von TRPA1-Kanälen in Mäusen durch ein interagierendes Protein, Annexin A2, sowohl während nozizeptiver als auch chronischer Schmerzen gebremst wird. Diese Arbeit wurde mit dem Förderpreis für Schmerzforschung der Deutschen Schmerzgesellschaft e. V. ausgezeichnet. In einem nächsten Schritt weiteten die Max-Planck-Forscher Ihre Arbeit auf die ungleich schwierigere Aufgabe aus: Sie suchten mithilfe modernster quantitativer Massenspektrometrie nach solchen Proteinkomplexen, die spezifisch während chronischer Schmerzen mit TRPA1-Kanälen assoziiert sind (in Kollaboration mit Dr. Olaf Jahn, MPIem, und Dr. Henning Urlaub, MPIbpc). Tatsächlich lassen die daraus resultierenden Ergebnisse darauf schließen, dass TRPA1-Kanäle mit unterschiedlichen Proteinen einen Komplex bilden, je nach angewandten Schmerzparadigmen, d. h. je nachdem, ob zuvor im Mausmodell nozizeptive oder chronische Schmerzen ausgelöst wurden (Abbildung 2). Ähnliche Ergebnisse haben die Forscher auch für die eingangs erwähnten TRPV1-Kanäle erhalten.

Abbildung 2: Schematische und stark vereinfachte Darstellung der Regulation von TRPA1-Kanälen (hellgrün) in der neuronalen Membran durch assoziierte Proteine (farbige Formen) in Abhängigkeit vom Schmerzparadigma. Diese Unterschiede können unter anderem zu erhöhter Aktivität von TRPA1 während chronischer Schmerzen führen (dargestellt durch erhöhte Anzahl von Kalziumionen (Ca+2). © Max-Planck-Institut für experimentelle Medizin/Schmidt

Ausblick

Aktuelle Projekte in der Forschungsgruppe "Somatosensorische Signaltransduktion und Systembiologie" am Max-Planck-Institut für experimentelle Medizin beschäftigen sich nun mit der Charakterisierung der neuen und bisher unbeschriebenen Komponenten dieser TRP-Kanal-Proteinkomplexe sowie ihrer pathologischen Relevanz für chronische Schmerzen am Mausmodell. Zusätzlich zu dem hier dargestellten Kandidaten-fokussierten Ansatz, d. h. Studien, die sich mit bestimmten TRP-Kanälen beschäftigen, untersucht die Forschungsgruppe nun auch die differenzielle Regulation mehrerer tausend Proteine während verschiedener Schmerzformen in einem systembiologischen Ansatz. Diese Arbeit wurde mit dem Max von Frey-Preis 2015 der Deutschen Schmerzgesellschaft e. V. ausgezeichnet. Möglich wurde dieser Fortschritt durch die Kombination von Mausmodellen, biochemischen Arbeiten und neuesten Entwicklungen in der massenspektrometrischen Proteomanalyse.

Derartige Studien gewähren neue Einblicke in die molekulare Signatur der Schmerzentstehung auf Proteinebene – Wissen, das unabdingbar für die Entwicklung effizienter und spezifischer Schmerztherapien ist.


*Der gleichnamige, aus dem eben erscheinenden Jahrbuch der Max-Planck Gesellschaft 2016 entnommene Artikel ist aufrufbar unter: Forschungsbericht 2016 (DOI 10.17617/1.E) h https://www.mpg.de/9873897/MPIEM_JB_2016. Der Artikel wurde mit freundlicher Zustimmung der Autorin und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier ungekürzt aber ohne die zugrundeliegenden, nicht frei zugänglichen Literaturstellen. Diese können im Forschungsbericht nachgelesen und auf Anfrage zugesandt werden.


Weiterführende Links

Arvid Leyh: Reiz und Rezeptor. Interaktive Darstellung : Schmerz, Temperatur, Berührung – Reize wie diese werden von unterschiedlichen Rezeptoren der Haut verarbeitet. Von dort aus geht es über das Rückenmark ins Gehirn, ein langer Weg, der doch nur drei Neurone umfasst. https://www.dasgehirn.info/wahrnehmen/fuehlen-koerper/reiz-und-rezeptor/(Lizenz: cc-by-nc)

Christian Büchel: Schmerz und Schmerzwahrnehmung. Vorlesung Video 55:26 min. (© 2013 www.dasGehirn.info; Lizenz: cc-by-nc)

Artikel im ScienceBlog

Gottfried Schatz (30.08.2012): Grausamer Hüter — Wie uns Schmerz schützt – oder sinnlos quält. http://bit.ly/1SPdpr5


 

inge Fri, 06.05.2016 - 11:39

Infektionen mit Noroviren - ein enormes globales Problem

Infektionen mit Noroviren - ein enormes globales Problem

Fr, 29.04.2016 - 10:19 — Redaktion

RedaktionIcon MedizinNoroviren sind hochansteckend und verursachen Brechdurchfall. Die meisten Menschen infizieren sich damit mehrmals in ihrem Leben. Die gravierendsten Folgen - Hospitalisierung und Tod - betreffen hauptsächlich Kinder und alte Menschen, vor allem in Ländern mit niedrigem Einkommen. Jedes Jahr verursachen Noroviren mehr als 200 000 Todesfälle. In dem open access Journal PLOS - the Public Library of Science - ist vor drei Tagen eine Sammlung von Artikeln über Noroviren erschienen, in denen Experten den gegenwärtigen Stand des Wissens darlegen mit dem Ziel eine so dringend benötigte Vakzine zu entwickeln [1]. Der folgende Blog-Beitrag basiert auf dem Artikel "Norovirus – a tragedy of being common" [2] und wurde von der Redaktion in Deutsch übersetzt. Der Autor Ben Lopman* ist auch der führende Autor der PLOS Kollektion.

Eine überaus häufige Erkrankung

Noroviren gehören zu den häufigsten Krankheitserregern im Menschen. Weltweit sind sie die Hauptursache von Gastroenteritis (bei uns üblicherweise als Magen-Darmgrippe bezeichnet ; Anm. Redaktion) und diese wiederum gehört zu unseren häufigsten Beschwerden. Noroviren sind in bestimmten Risikogruppen eine verbreitete Krankheitsursache. Historisch gesehen waren es früher hauptsächlich Rotaviren, die schwere Gastroenteritiden bei Kindern verursachten und medizinische Behandlung nötig machten. Jetzt, wo in Industrieländern routinemäßig gegen Rotaviren geimpft wird, sind Infektionen mit diesen Viren stark zurückgegangen und Noroviren an deren Stelle getreten. Auch in den Entwicklungsländern stellen Norovirus-Infektionen ein massives Problem dar. Dies zeigt eine gut geplante und ausgeführte Multizentren Studie an Kindern in Afrika und Asien: in deren ersten Lebensjahren rangieren Noroviren gleich hinter Rotaviren, an zweiter Stelle, als Verursacher von Durchfallerkrankungen.

Global betrachtet werden Noroviren als Hauptursache lebensmittelbedingter Krankheiten gesehen.

Die Häufigkeit der Erkrankung birgt eine Tragödie in sich: Schätzungen zufolge verursachen Noroviren jährlich 200 000 Todesfälle, davon die allermeisten in den Entwicklungsländern - Noroviren tragen dort wesentlich zur Kindersterblichkeit bei. In den Industrieländern kommt es zu den meisten Ausbrüchen von Norovireninfektionen in Gesundheitseinrichtungen, wie etwa in Pflegeheimen (nein, nicht auf Kreuzfahrtschiffen, wie uns Zeitungsberichte glauben machen). In solchen Einrichtungen leben krankheitsanfällige Personengruppen - eine Infektion kann zu schwerer Krankheit, Hospitalisierung oder sogar zum Tod führen.

Wenn Sie sich an Ihre letzte Norovirus Infektion erinnern können, werden Sie vermutlich gegen deren alte Beschreibung als "leichte und sich selbst limitierende Erkrankung" protestieren - auch , wenn Sie ansonsten kerngesund sind. Erbrechen, Durchfall und daraus resultierend Dehydrierung mögen zwar nur kurz dauern, sind aber sehr heftig. Man kann sich leicht vorstellen, wie stark ein mangelernährtes Kind von einer Norovirus Infektion betroffen sein kann, das in einer Gemeinschaft mit nur begrenztem Zugang zu einer Gesundheitsversorgung lebt oder auch ein älterer Mensch, der bereits an anderen Grunderkrankungen leidet.

Was sind Noroviren?

Noroviren sind sehr stabile, hochansteckende RNA-Viren. Sie besitzen keine äußere Umhüllung, die einzelsträngige RNA (ssRNA) ist von einem Capsid aus 180 gleichen Proteinen umgeben (Abbildung 1). Eine ganz wesentliche Charakteristik ist die genetische Diversität und eine sehr rasche Evolution- neue Typen treten all 2 - 4 Jahre auf und verdrängen die vorher dominierenden.

Abbildung 1. Noroviren haben einen Durchmesser von ca. 38 nm und besitzen keine äußere Hülle. Das genetische Material - eine einzelsträngige RNA - wird von einem Capsid aus 180 gleichen Proteinmolekülen umgeben (rechts oben und unten). Der Kontakt des Capsid-Proteins mit dem Wirt ist der Beginn der Infektion (Bilder: http://collections.plos.org/norovirus, Elektronenmikroskopie: US Center of Disease Control, Virusmodell: New Mexico State University Learning Games Lab., Standard YouTube License)

Mangelnde wissenschaftliche Kenntnisse, unzureichende Mittel der Bekämpfung

Nach Meinung des auf Infektionskrankheiten spezialisierten US-amerikanischen Epidemiologen Benjamin Lopman gibt es zwei enorme Barrieren, die einem wesentlichen Fortschritt zur Bekämpfung des Norovirus im Wege stehen.

  • Das erste Hindernis besteht aus einer Reihe technischer Probleme, die das Vorankommen verlangsamt haben - vor allem das Problem Noroviren in Zellkultur effizient wachsen zu lassen. Ohne ein solches Zellkultur-System war es aber schwierig diagnostische Verfahren, Infektionstests und Vakzinen zu entwickeln. Zum Glück hat es im letzten Jahrzehnt hier wichtige Fortschritte gegeben - darunter die Erstellung einer sensitiveren Diagnostik und es ist auch gelungen das Norovirus in Zellkultur zu bringen; diese Erfolge sollten die Bemühungen zur Bekämpfung des Virus beschleunigen.
  • Das zweite Hindernis liegt darin, dass das Norovirus in so vielen unterschiedlichen Sparten eine wesentliche Rolle spielt. Ist das Norovirus nun als ein Problem der Kindersterblichkeit einzuordnen oder der Nahrungssicherheit oder einer mit Gesundheitseinrichtungen assoziierten Infektion? Alles davon trifft zu - dies mag die Gemeinschaft unserer Forscher und die im öffentlichen Gesundheitswesen Beschäftigten gehindert haben rund um dieses zentrale Problem zusammenzuwachsen.

Fortschritt

Im vergangenen Jahr haben sich das US Center for Disease Control and Prevention (CDC), die Gates Foundation und andere Partner in Atlanta getroffen und Vertreter aus Regierung, Akademie, Industrie und philanthropischen Einrichtungen zusammengebracht. Diese Gruppe wurde beauftragt die aktuellen Forschungsergebnisse über Noroviren kritisch durchzusehen, wesentliche Wissenslücken darin zu identifizieren und diesbezügliche, notwendige Untersuchungen vorzuschlagen. Ziel des Zusammentreffens war es den Weg zur Entwicklung einer Norovirus Vakzine anzustreben, die größtmöglichen Nutzen bringen sollte: nämlich den Kindern in den Entwicklungsländern zu helfen. Dabei wurde klar, dass Noroviren ein sehr großes globales Problem darstellen und auf viele Fragen noch keine wissenschaftlich fundierten Antworten gegeben werden können. Zumindest wissen wir jetzt, dass sich das globale Problem der Noroviren mit einem jährlichen Verlust von rund 60 Milliarden $ beziffern lässt.

Das Ergebnis der Tagung in Atlanta ist zum Teil in der PLOS-collection ( (http://collections.plos.org/norovirus; open access) nachzulesen.


[1] PLOS Collection: The Global Burden of Norovirus & Prospects for Vaccine Development. http://collections.plos.org/norovirus und Video (20:11 min) https://www.youtube.com/watch?v=SkayAf2RNos
[2] Ben Lopman: Norovirus – a tragedy of being common http://blogs.plos.org/collections/norovirus-a-tragedy-of-being-common/


* Zum Autor:

Ben Lopman, PhD ist ein Epidemiologe, der auf Infektionskrankheiten spezialisiert ist. Er hat an der London School of Hygiene and Tropical Medicine studiert (MSc), und den PhD-Grad in Epidemiologie an der Health Protection Agency erworben. Als Postdoc am Department of Infectious Disease Epidemiology des Imperial College London arbeitete er an der HIV-Epidemiologie in der Subsahara Region (Afrika). Er wurde dann Leiter der Viral Gastroenteritis Epidemiology Gruppe an der UK Health Protection Agency und Senior Lecturer an der London School of Hygiene and Tropical Medicine.

Seit 2009 arbeitet Lopman im Team Virale Gatroenteritis in der Abteilung für Viruserkrankungen der US Centers for Disease Control and Prevention (CDC) und ist auch Adjunct Assistant Professor in den Departments of Global Environmental Health and Epidemiology an der Emory University. Die Forschungsinteressen Lopman's richten auf die Epidemiologie von viralen Gastroenteriden (hervorgerufen vor allem durch Rotaviren und Noroviren) und ebenso auf wirksame Methoden zu deren Bekämpfung. Seine Ergebnisse sind in mehr als hundert peer-reviewed Arbeiten und zusätzlichen Buchkapiteln publiziert.


Weiterführende Links

Bill and Melinda Gates Foundation 29.08.2014: Der Kampf gegen Darm- und Durchfallerkrankungen.

WHO Durchfallerkrankungen: http://www.who.int/mediacentre/factsheets/fs330/en/

Norovirus. Video (englisch) 3:02 min. Transmission of Norovirus Video (englisch) 3:35 min. Orientation to the Molecular Structure of Norovirus Video (englisch) 2:36 min.

inge Fri, 29.04.2016 - 10:19

Neuronale Netze mithilfe der Zebrafischlarve erforschen

Neuronale Netze mithilfe der Zebrafischlarve erforschen

Fr, 22.04.2016 - 09:44 — Ruben Portugues

Ruben PortuguesIcon Gehirn

Eine Hauptfunktion unseres Gehirns ist es, Sinneseindrücke zu verarbeiten, um das optimale Verhalten zu wählen. Die Berechnungen, mit denen das Gehirn Sinneseindrücke und Verhalten verbindet, sind kaum verstanden. Um diese komplexen Vorgänge zu verstehen, untersucht Ruben Portugues, Forschungsgruppenleiter am Max-Planck-Institut für Neurobiologie (Martinsried), einfachere Modellorganismen, nämlich die transparente Larve des Zebrafisches. Diese ermöglicht es, mit neuesten optischen Methoden dem gesamten Gehirn und selbst einzelnen Nervenzellen bei der Arbeit zuzuschauen und hilft zu verstehen, wie neuronale Netzwerke Sinneseindrücke in Verhalten übersetzen.*

Eine der größten Herausforderungen der Neurowissenschaften ist es zu verstehen, wie die Aktivität von Milliarden miteinander verbundener Nervenzellen die Planung und Auswahl passender Verhaltensmuster entsprechend den äußeren Umständen beeinflusst. Bis jetzt haben Wissenschaftler nur ein sehr eingeschränktes Verständnis von der Funktion solcher neuronalen Netzwerke. Dies liegt vor allem daran, dass diese Netzwerke hochkomplex sind und es kaum passende Methoden gibt, um ihre Aktivität präzise in Zeit und Raum zu erfassen. Durch die einzigarten Eigenschaften der Zebrafischlarve können Forscher einige dieser Einschränkungen bewältigen, sodass Nervenzellverbände detailliert erforscht werden können.

Die Larve des Zebrafisches (Abbildung 1), ursprünglich als Zebrabärbling bekannt, ist ein zirka vier Millimeter langes Wirbeltier. Sie besitzt rund 100.000 Nervenzellen. Im Vergleich zum menschlichen Gehirn hat die Larve gut eine Million Mal weniger Nervenzellen. Sie kann jedoch damit immer noch komplexe Verhaltensmuster abrufen. Der größte Vorteil für die Forschung ist jedoch, dass die Larve durchsichtig ist. Dieser entscheidende Vorteil ermöglicht es, das komplette Gehirn mit einer Einzelzellauflösung zu beobachten. Das Beste ist, dass alles am wachen und sich verhaltenden Tier beobachtet werden kann und keine invasiven Arbeiten nötig sind. Mit Hilfe der neuesten bildgebenden Verfahren können die Wissenschaftler am Max-Planck-Institut für Neurobiologie so gewisse Aktivitätsmuster der Nervenzellen mit spezifischen Sinneseindrücken und Verhaltensmustern korrelieren. Ein essenzieller Schritt, um zu verstehen, wie das eine ins andere übersetzt wird.

Abbildung 1. (Oben) Eine Zebrafischlarve. Das grüne Viereck im oberen Bild ist im unteren Bild vergrößert dargestellt. (Unten) Das Gehirn der Zebrafischlarve leuchtet grün, da hier in allen Nervenzellen ein fluoreszierender, genetisch-kodierter Kalzium-Sensor vorhanden ist. Das blaue Viereck gibt die Ansicht in Abbildung 3 wieder.© Max-Planck-Institut für Neurobiologie / Portugues

Visuell gesteuerte Verhaltensmuster

Zebrafischlarven können spezifische Verhaltensmuster abrufen, wenn sie mit verschiedenen Klassen von visuellen Reizen konfrontiert werden (Abbildung 2). Ein Beispiel für eine solche Klasse ist die

  • optokinetische Reaktion: Mit gezielten Augenbewegungen versucht die Larve den Bewegungen von Objekten im visuellen Feld zu folgen. Auf diese Weise bleibt der Blick der Larve möglichst stabil und die Netzhaut nimmt weniger Bildbewegung wahr.
  • Ein weiteres, stereotypes Verhaltensmuster ist die optomotorische Reaktion. Hier versucht die Zebrafischlarve in die Richtung der wahrgenommenen Bewegung des kompletten Sichtfeldes zu schwimmen. Im Labor kann dieses Verhalten nachgestellt werden, indem der Larve von unten schwarz-weiße Balken gezeigt werden, die sich von ihr weg bewegen. Dies gaukelt der Larve vor, dass sie durch den Strom des Wassers weggerissen wird. Durch Schwimmen versucht sie, die wahrgenommene Umwelt zu stabilisieren.

Abbildung 2. Die Larve schwimmt in einer transparenten Schale mit dem visuellen Stimulus darunter. Zwei Verhaltensmuster sind illustriert: (Oben rechts) Bewegt sich das visuelle Feld nach vorne (hier: schwarz-weiße Balken), versucht die Larve nach vorne zu schwimmen – was nicht gelingt, da der Kopf fixiert ist. (Unten rechts) Rotiert ein visueller, zentrierter Stimulus am Kopf des Fisches (hier ein Windmühlenstimulus), versucht die Larve ihn mit Augenbewegungen zu verfolgen. In diesem Experiment ist der Körper fixiert. © Max-Planck-Institut für Neurobiologie / Portugues

Dieses Verhaltensmuster können die Neurobiologen auch dynamisch regeln: Sie fixieren den Kopf der Larve temporär in einem Gel. Der Schwanz ist dabei frei und kann sich bewegen. Die Forscher nehmen dann die Schwanzbewegungen durch eine Hochgeschwindigkeitskamera auf und analysieren die spezifischen Schwimmcharakteristiken. Durch das Modulieren der Geschwindigkeit der schwarz-weißen Balken kann eine geschlossene, künstliche Realität gestaltet werden, in der beispielsweise die Geschwindigkeit der Balken von den Bewegungen der Larve abhängt: Je schneller oder stärker die Larve schwimmt, desto langsamer bewegen sich die Balken. Mit diesem Trick wird der Larve vorgegaukelt, dass sie sich frei bewegen kann. Mit Hilfe dieses Versuchsaufbaus können die Martinsrieder Forscher auch die Regeln ändern, nach denen die virtuelle Realität funktioniert. Beispielsweise können sie die Larve künstlich stärker oder schwächer machen, je nachdem ob die Geschwindigkeit der Balken schneller oder stärker programmiert wird. Die Larve versucht daraufhin ihr Verhalten an die neuen Regeln anzupassen. Erscheint die Larve zum Beispiel schwächer, versucht sie länger und stärker zu schwimmen um an Ort und Stelle zu bleiben. Diese einfachen aber sehr präzisen Manipulationen können Hinweise darauf geben, wie die Larve lernt, eine alte Erwartungshaltung durch eine neue zu ersetzen und sich den neuen Gegebenheiten anzupassen.

Funktionelle Bildgebung von neuronalen Netzwerken

Mit Hilfe der im Martinsrieder Labor etablierten Verhaltensmuster können die Wissenschaftler die Aktivität involvierter Nervenzellen aufnehmen. Diese werden dann mit spezifischen Parametern korreliert, die Eigenschaften von Sinneseindrücken oder Bewegungsabläufen darstellen. Die Aktivität der Nervenzellen kann anhand von transgenen Tieren erforscht werden, die in bestimmten Nervenzellen einen genetisch-codierten Kalziumsensor exprimieren. Potenziell ist es sogar möglich, diesen Sensor in alle Nervenzellen des Gehirns zu bringen. Diese Sensoren erlauben es, die Nervenzellaktivität live zu beobachten: Sie fluoreszieren unterschiedlich stark, je nachdem, wieviel Kalzium in der Nervenzelle vorhanden ist. Ist eine Zelle aktiv, ist die Kalziumkonzentration in der Zelle hoch, der Sensor fluoresziert stark und die Zelle ist hell. Damit können die Forscher erkennen, welche Nervenzellen welche Eigenschaften eines Sinneseindruckes verarbeiten. Beispielsweise können sie auf diese Weise erkennen, welche Nervenzellen die Geschwindigkeit der schwarz-weißen Balken codieren bzw. verarbeiten. Interessant ist dabei natürlich auch, wie sich die Aktivität dieser Nervenzellen verändert, wenn sich die Geschwindigkeit ändert. Es wäre möglich, dass die Geschwindigkeit von einer gewissen Anzahl an Nervenzellen codiert wird. Diese würden aktiver, wenn sich die Geschwindigkeit erhöht. Eine alternative Hypothese wäre, dass Geschwindigkeit durch die Anzahl aktiver Nervenzellen codiert ist: Je höher die Geschwindigkeit, desto mehr Nervenzellen sind aktiv.

Am Modell des Zebrafisches können die Wissenschaftler verfolgen, wie diese Codierung auf Sinnesebene die Bewegungsabläufe beeinflusst, indem sie die Aktivität der Nervenzellen mit dem resultierenden Schwimmverhalten korrelieren. So können sie untersuchen, welche Nervenzellen direkt Muskelzellen kontrollieren und welche die Schwimmgeschwindigkeit der Larve regulieren. Wie oben beschrieben, können die Regeln der virtuellen Realität geändert werden, um neuronale Korrelate der motorischen Anpassung zu finden. Wird die Reaktion des visuellen Stimulus auf das Verhalten der Larve geändert, kann die Larve eventuell die neuen Regeln erlernen und ihre Bewegungen darauf einstellen. Ein Vergleich zwischen den Nervenzellaktivitäten bei verschiedenen Bedingungen kann Hinweise auf die Gehirnregionen geben, die an Lernen und Adaption beteiligt sind. Beispiele hierfür sind das Kleinhirn (Cerebellum) und die untere Olive, eine ovale Struktur im Hirnstamm. Für beide wurde bereits eine funktionelle Rolle in der Adaption bestätigt [1].

Abbildung 3 zeigt die aktiven Nervenzellen, wenn eine Larve mit ihren Augen einer Rotationsbewegung folgt. Die Farbe entspricht der Bewegungsphase. © Max-Planck-Institut für Neurobiologie / Portugues

Interessanterweise zeigt ein Vergleich von Wiederholungen des gleichen Verhaltensmusters in einigen Fällen, dass es in einem hohen Grad ähnliche Aktivitätsmuster gibt. Beispielsweise erfolgt die zugrundeliegende Nervenzellaktivität der optokinetischen Reaktion in einem stereotypen, geordneten Muster. Auch fanden die Wissenschaftler weitere neuronale Module, die mit Sinneseindrücken und Bewegungssignalen korrelieren (Abbildung 3), [2]. Zudem können mithilfe eines Referenzgehirns verschiedene individuelle Larven kartiert werden. So können die Forscher Unterschiede und Ähnlichkeiten zwischen Larven analysieren. Die daraus entstehenden Karten geben detaillierte Einsicht in die funktionelle Anatomie des Gehirns einer Zebrafischlarve. Solche funktionellen Daten können beispielsweise erklären, welcher Anteil des Gehirns bei einer untersuchten Verhaltensweise aktiv ist und welche Aktivitätsmuster sich bei gleichem Stimulus zwischen den Individuen unterscheiden.

Wie sich Änderungen der Nervenzellaktivität auf das Verhalten auswirken

Funktionelle Bildgebung kann Aufschluss darüber geben, welche Gehirnstrukturen mit welchen Sinneseindrücken oder Bewegungsmustern korrelieren. Um jedoch festzustellen, welche Gehirnstrukturen wirklich notwendig und welche für ein gewisses Verhaltensmuster ausreichend sind, ist es zwingend notwendig, die Aktivität des Gehirns zu beeinflussen. Es ist möglich, eine Gehirnstruktur "stummzuschalten" und so ihre Beteiligung an einem Verhalten zu untersuchen: Zeigt die Larve immer noch das gleiche Verhaltensmuster?

Dieses „Stummschalten“ kann auf verschiedene Arten erreicht werden. Beispielsweise können die Forscher Nervenzellen mithilfe von Laserlicht aus dem Zellverband herausnehmen. Werden die Nervenzellen, die zur Gruppe der unteren Olive gehören, aus dem Schaltplan entfernt, kann die Larve sich nicht an verschiedene Geschwindigkeiten visueller Stimuli anpassen (im Falle der optomotorischen Reaktion). Die Larve schwimmt immer gleich, egal wie stark sie die Geschwindigkeit kompensiert [1]. Ein weiterer Weg, um die Notwendigkeit einer Gehirnstruktur zu überprüfen, ist ihre direkte Aktivierung. Die Wissenschaftler können die Stärke der Aktivierung in einer Gehirnregion verändern und so überprüfen, wie dies das Verhalten beeinflusst. Solch eine Strategie ermöglichte es ihnen, eine Nervenzellgruppe im Mittelhirn zu identifizieren, die die Geschwindigkeit der Fortbewegung steuert [3].

Zukünftige Schritte

Obwohl die Fortschritte deutlich sind, gibt es noch immer eine Vielzahl an dringenden Fragen:

  • Welche präzisen Stimulus-Eigenschaften verursachen ein bestimmtes Verhalten?
  • Wie können Änderungen in diesen Eigenschaften verschiedene Verhaltensweisen hervorrufen?
  • Was macht das Gehirn, wenn mehrere Sinneseindrücke gegensätzliche Informationen vermitteln?
  • Welche Gehirnstrukturen sind verantwortlich in der Wahl des optimalen Verhaltens und wie ist diese Wahl im Gehirn repräsentiert?
  • Was passiert im Gehirn, wenn ein neues Verhaltensmuster gelernt wurde?

Mit dem breiten Angebot an Geräten, Methoden und etablierten Verhaltensmodellen in der Zebrafischlarve wollen die Martinsrieder Wissenschaftler Schritt für Schritt Antworten auf die genannten Fragen finden. Jede Antwort bringt sie ihrem Langzeitziel näher, besser zu verstehen, wie auch unser Gehirn durch Berechnungen Sinneseindrücke in ein geeignetes Verhalten übersetzt.


* Der gleichnamige, aus dem eben erscheinenden Jahrbuch der Max-Planck Gesellschaft 2016 entnommene Artikel ist aufrufbar unter: Forschungsbericht 2016 https://www.mpg.de/9834158/MPIN_JB_2016 . . Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint hier ungekürzt, die nicht frei zugänglichen Literaturstellen können auf Anfrage zugesandt werden.

Literaturhinweise

1. Ahrens, M. B.; Li, J. M.; Orger, M. B.; Robson, D. N.; Schier, A. F.; Engert, F.; Portugues, R. Brain-wide neuronal dynamics during motor adaptation in zebrafish. Nature 485(7399), 471-477 (2012)

2. Portugues, R.; Feierstein, C. E.; Engert, F.; Orger, M. B. Whole-brain activity maps reveal stereotyped, distributed networks for visuomotor behavior. Neuron 81(6), 1328-1343 (2014)

3. Severi, K. E.; Portugues, R.; Marques, J. C.; O'Malley, D. M.; Orger, M. B.; Engert, F. Neural control and modulation of swimming speed in the larval zebrafish. Neuron 83(3), 692-707 (2014)


Weiterführende Links

Max Planck Institut für Neurobiologie (Martinsried, München), Forschungsüberblick: http://www.neuro.mpg.de/forschung

Zebrafische in der Matrix (zeigt die im Artikel beschriebenen Versuche; Gruppe um F. Engert in Harvard -R. Portugues hat dort 6 Jahre geforscht). Video 2:47 min.

-------------------------------------------------------------- Videos vom Janelia Farm Research Campus, Howard Hughes Medical Institute, Ashburn, Virginia, USA:

  • Zebrafish Brain: Video 0:53 min.
  • Flashes of Insight: Whole-Brain Imaging of Neural Activity in the Zebrafish (Howard Hughes Medical Institute, October 2015) Video 4:48 min

 

inge Fri, 22.04.2016 - 09:44

Big Pharma - ist die Krise schon vorbei?

Big Pharma - ist die Krise schon vorbei?

Fr, 15.04.2016 - 14:38 — Inge Schuster

Inge SchusterIcon GebietSeit den späten 1990er Jahren war es nicht mehr wegzudiskutieren: die Pharmazeutische Industrie war in eine tiefe Krise geraten. Trotz geradezu explodierender Kosten ihrer Forschung und Entwicklung (F&E) erreichten immer weniger neue Arzneimittel den Markt. Dazu liefen die Patente der umsatzstärksten Medikamente aus und billige Generika traten an ihre Stelle. In den letzten Jahren kommt es nun zu einem Anstieg der Neuzulassungen - allerdings hat sich das Produktespektrum verändert, der Anteil an "Nischenprodukten" wird immer größer. Ist die Krise nun vorbei?

----------------------------------------------------------------------------- ----------------------

"Trotz der beeindruckenden Durchbrüche in den biomedizinischen Wissenschaften hat sich der Strom neuer Arzneimittel zu einem Tröpfeln verlangsamt. Dies beeinträchtigt die therapeutischen Fortschritte ebenso wie die kommerziellen Erfolge der Pharmaunternehmen. Die verringerte Produktivität der Pharmabranche wird hauptsächlich durch eine Firmenpolitik verursacht, die Innovation entmutigt. " Pedro Cuatrecasas, 2006 [1]

-------------------------------------------------------------------------------------------------------

Nach wie vor wächst die Pharmabranche. Die Zahl der Firmen, die aktiv Forschung und Entwicklung (F&E) von Therapeutika betreiben, hat sich in den letzten 15 Jahren verdreifacht (von 1198 auf 3687), fast ebenso stark sind die globalen Umsätze gestiegen. 2014 wurde die Marke 1000 Mrd US $ bereits überstiegen. Dabei ist rund ein Drittel des globalen Umsatzes auf die 10 größten Pharmakonzerne (Novartis, Pfizer, Roche, Sanofi, Merck & Co, Johnson & Johnson, GlaxoSmithKline, Astra Zeneca, Gilead, AbbVie) zurückzuführen.

F&E sind Voraussetzung für Innovation, sie sind unabdingbar für das Auffinden neuer wirksamer Therapeutika für den Großteil der Krankheiten, die heute noch nicht zufriedenstellend behandelt werden können. Die Pharmaindustrie hat in den letzten Jahren im globalen Durchschnitt über 14 % ihres Umsatzes in F&E investiert (die Top 10 Unternehmen bis zu 21 %) - damit liegt Pharma als forschungsintensivste Branche an der Spitze weit vor allen anderen Industriezweigen.

Woran lag es nun, dass trotz der großen Fortschritte in der Biomedizin und immenser Investitionen in F&E über lange Zeit immer weniger neue Therapeutika auf den Markt gekommen sind (Abbildung 1)?

Abbildung 1. Neue, vom CDER (Center for Drug Evaluation and Research) der FDA zugelassene Arzneimittel (links).Nach einer langen Phase sinkender Neuzulassungen ist seit 2011 ein Aufwärtstrend zu beobachten.(NCE (new chemical entity): kleine (niedermolekulare) synthetisch hergestellte Verbindungen, NBE (new biological entity): neue biotechnologisch produzierte Therapeutika.) Die F&E-Kosten sind enorm gestiegen:um ein neues Medikament auf den Markt zu bringen, werden im Mittel bereits mehr als 1,5 Mrd US $ ausgegeben (rechts). (Daten: CDER, Nature www.nature.com/nrd 15 (2016 und http://www.efpia-annualreview.eu))

Explodierende F&E-Kosten

Die Kosten um ein neues Medikament auf den Markt zu bringen wurden immer höher (Abbildung 1). Dazu hat zweifellos das enorm zunehmende biochemisch/biologische Wissen beigetragen, das eine Flut neuer Untersuchungsmethoden ermöglichte. Dementsprechend verlangten die Zulassungsbehörden mehr und mehr Testungen. Vor allem waren die Phasen der klinischen Entwicklung davon betroffen: Multi- Center Studien und riesige Patientenkollektive an denen die therapeutische Wirksamkeit eines neuen Produktes bei gleichzeitig vernachlässigbaren Nebenwirkungen bestätigt werden musste, führten zu einer drastischen Verlängerung und Verteuerung des F&E Prozesses. (Der F&E Prozess wurde bereits früher im ScienceBlog dargestellt [2,3]).

Von der Entdeckung bis zur Einführung eines neuen Medikaments dauerte es nun im Durchschnitt 14 - 15 Jahre. Das ohnehin hohe Risiko aus dem F&E Prozess auszuscheiden - die Ausfallsrate - war dabei noch größer geworden: von 100 Kandidaten, die nach der positiv abgeschlossener Präklinik - d.i. nach etwa 6 Jahren F&E-Dauer - in die klinische Prüfung eintraten, schieden um die 94 aus - die meisten in der Phase 2 auf Grund mangelnder Wirksamkeit und/oder nicht tolerierbarer Nebenwirkungen, ebenso häufig jetzt aber auch auf Grund merkantiler Interessen.

Warum aber sank die Produktivität?

Das am Anfang des Artikels stehende Zitat (es stammt aus dem 2006 publizierten Artikel Drug discovery in jeopardy [1] ) gibt darauf kurz und präzise Antwort: infolge verfehlter Firmenpolitik. Der Autor Pedro Cuatrecasas wusste wovon er schrieb; er war ein Leben lang überaus erfolgreich gewesen: als akademischer Forscher (u.a. gehen die Affinitätschromatographie und bahnbrechende Arbeiten zu Membranrezeptoren und Signaltransfer auf ihn zurück) ebenso wie als Präsident/Direktor großer Pharmakonzerne (Warner-Lambert, Parke-Davis, Glaxo, Burroughs Wellcome), wo er maßgeblich an Forschung, Entwicklung und Registrierung von rund 45 neuen Medikamenten beteiligt war.

Nach Cuatrecasas Meinung lag der Grund für die sinkende Produktivität in einem überhand nehmenden Missmanagement der Pharmakonzerne, die alle nach demselben Schema agierten:

Ehemals hervorragend funktionierende Strukturen wurden zerschlagen, in die Führungspositionen traten moderne Manager, die häufig aus anderen Branchen kamen und wenig oder gar keine Erfahrung in Pharma-relevanter F&E hatten. Marketingleute, nicht aber fachlich kompetente Wissenschafter, definierten und kontrollierten nun die Forschung , das essentielle, eigenliche Kernstück der Pharma. Anstelle langfristiger therapeutischer Planungen wurden schnelles Wachstum der Umsätze und die Zufriedenheit der Anleger vorrangige Ziele. Profitmaximierung wollte man vor allem durch sogenannte Blockbuster erreichen. (Unter Blockbuster versteht man Arzneimittel, die gegen sehr häufige Erkrankungen bei sehr vielen Patienten angewandt werden - also einen sehr großen Mark haben und jährliche Umsätze von mindesten 1 Milliarde US $ garantieren.) Das Marketing diktierte die Prioritäten: da ja nicht unbegrenzte F&E-Budgets zur Verfügung standen, wurden zu Gunsten der Entwicklung potentieller Blockbuster "kleinere" Produkte häufig aufgegeben - auch, wenn deren Entwicklung schon weit fortgeschritten war und erfolgversprechend schien.

Dass diese "Strategien" zweifellos zu vielen Fehleinschätzungen führten, weiss jeder, der in Pharma gearbeitet hat: "Nearly all drugs that have become blockbusters had early histories of major disinterest and skepticism" schreibt Cuatrecasas . Dies kann ich an Hand meiner Erfahrungen bei Novartis voll bestätigen: Blockbuster wie Cyclosporin, Parlodel oder das (aus Wien stammende) Antimykotikum Lamisil wären unter den jetzigen Bedingungen bereits sehr früh vom Marketing gestoppt worden.

Die Merger-Manie

Ein wesentlicher Schritt zur Profitmaximierung war (und ist auch weiterhin) der Trend zur Fusionierung mit anderen Pharmaunternehmen oder deren mehr oder weniger feindliche Übernahme. Man erweiterte so sein eigenes Portfolio durch neue, als wichtig erachtete Gebiete und hatte sofort das nötige Know-How und eine repräsentative "pipeline" an Entwicklungsprodukten in möglichst fortgeschrittenem Stadium zur Verfügung. Innerhalb eines Jahrzehnts entstanden so aus 50 bereits sehr großen Pharmakonzernen 10 Megakonzerne.

Die Zusammenschlüsse brachten den Konzernen Synergien - in anderen Worten: Doppelgleisigkeiten wurden eliminiert, Standorte geschlossen und insgesamt viel, viel Personal abgebaut. Dass dabei aber auch wertvolles, über lange Zeit aufgebautes Know-How verlorenging, braucht wohl nicht erwähnt zu werden Dass sich Zusammenschlüsse nicht unbedingt positiv auf die Produktivität auswirken mussten, zeigt das Beispiel des amerikanischen Pharmamultis Pfizer.

Pfizer - Merger am laufenden Band

Mit Jahresumsätzen von mehr als 50 Mrd US$ und rund 100 000 Beschäftigten führte Pfizer bis 2012 das Ranking der Top 10 Pharmaunternehmen an (dann wurde es von Novartis überholt). Zwischen 2000 und 2009 hatte Pfizer mehrere andere große Konzerne akquiriert, die selbst aus Fusionen und Übernahmen anderer Konzerne entstanden waren [3].

Der erste Mega- Deal mit Warner-Lambert im Jahr 2000 (um US $ 111,8 Mrd.) brachte Pfizer u.a. den Cholesterinsenker Lipitor, der zum bis dato bestverkauften Medikament wurde und bis zum Auslaufen des Patents über 120 Mrd US $ erlöste. 2 Jahre später erwarb Pfizer um 60 Mrd US $ Pharmacia (und damit auch u.a. das Arthritismittel Celebrex), sieben Jahre danach Wyeth, das Biologika und Vakzinen in das Portfolio von Pfizer einbrachte.

In den letzten Jahrzehnten vor diesen Zusammenschlüssen hatte Pfizer im Durchschnitt jährlich 1 neues Arzneimittel auf den Markt gebracht. Weder der Erwerb von Warner-Lambert noch von Pharmacia oder Wyeth (oder viele kleinere weitere Deals) konnten diesen Output steigern (Abbildung 2).

Abbildung 2. Die Übernahme mehrerer großer Konzerne (samt deren Produktespektrum) änderte nichts daran, dass Pfizer im Schnitt jährlich nur 1 Medikament auf den Markt brachte.

Was sich aber massiv änderte, war die Zahl der Beschäftigten und der Standorte: Mit der Übernahme der drei großen Konzerne hatte Pfizer insgesamt auch 134 000 Beschäftigte übernommen - bis Ende 2013 waren allerdings 107 000 Posten wegrationalisiert und viele kleinere und größere Standorte aufgelassen. Synergien eben!

Der bisher größte Deal - die Übernahme des in Irland ansässigen Botox-Herstellers Allergan um 160 Mrd US $ - sollte Pfizer eine massive Ersparnis der in den US fälligen Steuer bringen. Dieser Deal scheiterte letzte Woche wegen einer Verschärfung der US-Steuergesetzgebung.

Ein Aufwind mit Biologika - "Nischenbusters"

Die Jahresbilanz für 2015 fiel erfreulich aus: Die weltweit wichtigste Zulassungsbehörde für Arzneimittel -die amerikanische FDA (Food and Drug Administration) - hatte insgesamt 45 neue Arzneimittel registriert (Abbildung 1). Auch das europäische Pendant EMA (European Medicines Agency) hat 39 neue Produkte zugelassen - mit Ausnahme von 3 Therapeutika waren dies Produkte, die im selben Jahr oder im Vorjahr von der FDA zugelassen worden waren.

Damit setzte sich ein 2011 begonnener Aufwärtstrend fort, nachdem zuvor ein Jahrzehnt lang die jährlichen Zulassungen bei etwa der Hälfte der Therapeutika dahingedümpelt waren. Viele der neuen Präparate haben neue Wirkmechanismen, zeigen u.a. eine Stimulierung er körpereigenen Abwehr, Wirksamkeit gegen multiple Sklerose und vor allem Heilung von Hepatitis C bei nahezu allen Patienten. Das Spektrum der in diesen letzten Jahren eingeführten Produkte unterscheidet sich wesentlich von dem früherer Jahre:

  • ein beträchtlicher Teil der Neuzulassungen sind nun Biologika, biotechnologisch hergestellte große Moleküle (hauptsächlich Antikörper(fragmente), Enzyme und andere Proteine), Vakzinen, Blutprodukte bis hin zu modifizierten Organismen. Ein Beispiel für die letzteren ist Imlygic (Talimogen) aus dem Biotechkonzern AMGEN, das für die Indikation Melanom zugelassen wurde. Imlygic ist ein modifiziertes Herpesvirus, das sich in den Tumorzellen vermehrt und diese abtötet. Darüber hinaus bewirkt seine Modifizierung eine Stimulierung des Immunsystems, das seinerseits dann zur Vernichtung der Tumorzellen beiträgt.
  •  etwa die Hälfte der Neuzulassungen sind nicht mehr wie früher auf die Therapie häufiger Krankheiten ausgerichtet, sondern auf seltene Krankheiten, sogenannte orphan diseases (Inzidenz je nach Land unterschiedlich: von 1 - 7,5 Erkrankte je 10 000 Menschen), von denen es sehr viele verschiedene gibt. Um die Entwicklung entsprechender (im Prinzip unrentabler)Therapeutika zu fördern, bieten die Behörden Erleichterungen hinsichtlich deren Registrierung und Vermarktung.

Biologika machen auch am globalen Umsatz einen immer größeren Anteil aus, ersetzen frühere Blockbuster - synthetische Arzneimittel, deren Patente in den letzten Jahren ausgelaufen sind (zwischen 2009 und 2013 bedeutete dies einen Umsatzrückgang von rund 120 Mrd US $ ). Von den Top 10 Arzneimitteln im Jahr 2014 waren bereits sechs Biologika (Gesamtumsatz 55 Mrd US $ ). 2016 sollen schon 8 der Top 10 Präparate Biologika sein mit einem geschätzten Umsatzvolumen von rund 68 Mrd US $ [4].

Ist die Krise nun vorbei?

Die Pharmalandschaft hat sich stark verändert. Viele Patente umsatzstärkster Medikamente - synthetisch hergestellter Arzneimittel - sind ausgelaufen und wesentlich billigere Generika an ihre Stelle getreten. Der Umsatzrückgang war beträchtlich, die Firmen haben dies teilweise durch massive Preiserhöhungen ihrer Produkte kompensiert. Zur Erhöhung der Rentabilität fanden Fusionen und Übernahmen von Unternehmen am laufenden Band statt - das vergangene Jahr brachte einen richtigen Tsunami an Zusammenschlüssen - und ein Ende ist nicht abzusehen.

Auch die Forschungsrichtung hat sich verändert. Anstatt wie früher Medikamente für breite Bevölkerungsschichten zu entwickeln, geht der Trend nun in Richtung Nischenprodukte zur spezifischen Behandlung seltener Krankheiten, zu einer personenbezogenen Medizin. Dies klingt natürlich vielversprechend.

Einige der Nischenprodukte - vorwiegend Biologika - haben sich auch bereits zu Blockbustern entwickelt (s.o.). Da die Zahl der Anwender definitionsgemäss niedrig ist, sind die Preise für derartige Produkte sehr hoch angesetzt -man will ja die enormen Entwicklungskosten einigermaßen hereinbekommen.

Beispielsweise hat Gilead mit seinem Produkt Solvadi einen echten Durchbruch in der Therapie von Hepatitis C erreicht: bis zu 95 % der damit behandelten Patienten sind geheilt. Die Heilung kostet bis zu 80 000 €. Von solchen Erfolgen kann man in der Onkologie nur träumen: wenn die neuen Biologika z.B. zur Behandlung von Leber- oder Pankreaskrebs eingesetzt werden, bedeutet das eine Lebenserlängerung von vielleicht 2 - 3 Monaten gegenüber Standardtherapien allerdings um den Preis von mehreren Tausend € im Monat.

Die Frage ist, wer für derartige Kosten aufkommt. Im Falle der Hepatitis C, an der rund 0,4 % der Bevölkerung leiden, erscheint die Übernahme durch die Gesellschaft vertretbar - es bedeutet ja hier die Heilung von einer schweren chronischen Erkrankung. Ist es noch aber noch finanzierbar 5 % der Bevölkerung mit exorbitant teuren Nischenprodukten zu behandeln, die möglicherweise nur mäßige Erfolge bringen? (Nach einer Milchmädchenrechnung müßten dafür bereits 10 % des BIP aufgewendet werden). Oder noch größere Teile der Gesellschaft?

Kann daher der nun eingeschlagene Weg zu Nischenprodukten eine langfristig profitable Option für die Pharma darstellen?


[1]Pedro Cuatrecasas (2006) Drug discovery in jeopardy. J Clin Invest 116 (11) 2838-2842
[2] Inge Schuster (2012) Zur Krise der Pharmazeutischen Industrie http://scienceblog.at/zur-krise-der-pharmazeutischen-industrie#.
[3] Peter Seeberger (2014) Rezept für neue Medikamente. http://scienceblog.at/rezept-fuer-neue-medikamente#.Vw44gXr95pM
[4] Looking Ahead: Pharma Projections for 2016 - And Beyond. http://www.drugs.com/slideshow/looking-ahead-pharma-projections-for-2016...

Sofern nicht gesondert angeführt, stammen die Daten in diesem Essay aus:

Efpia.The Pharmaceutical Industry in Figures. Key Data 2015 http://www.efpia.eu/uploads/Figures_2015_Key_data.pdf

statista http://www.statista.com/statistics/258022/top-10-pharmaceutical-products...

FiercePharma http://wwwfiercepharma.com

Forbes http://www.forbes.com/search/?q=pharma


Weiterführende Links

Die Phasen der Arzneimittelforschung und Entwicklung Der F&E Prozess verläuft weltweit in allen Pharmaunternehmen auf die gleiche Weise.

Francis Collins: We need better drugs -- now Video (englisch) 14:40 min. (Der Genetiker Collins war u.a. Leiter des Human Genome Projects und ist derzeit Direktor des National Institute of Health (NIH))

inge Fri, 15.04.2016 - 14:38

Der Boden - ein unsichtbares Ökosystem

Der Boden - ein unsichtbares Ökosystem

Fr, 01.04.2016 - 10:58 — Knut Ehlers

Knut EhlersIcon BiologieWie fruchtbar Böden sind, wird von vielen Faktoren bestimmt: vom Alter, vom Ausgangsgestein, vom Humusgehalt, von den Klimaverhältnissen und den Menschen. Der Agrarwissenschaftler Dr. Knut Ehlers (Umweltbundesamt, Dessau-Roßlau, Deutschland) gibt eine prägnante Übersicht, die von den Bodenorganismen bis hin zu den globalen Beschaffenheiten und Eigenschaften der Böden reicht.*

Mindestens Jahrhunderte, eher Jahrtausende und Jahrmillionen vergehen, bis das entstanden ist, was wir Boden nennen. So viel Zeit wird gebraucht, damit Gestein an der Erdoberfläche verwittert und eine mehrere Meter mächtige Schicht bildet. Sie besteht etwa zur Hälfte aus mineralischen Partikeln wie Sand und Ton, zu jeweils grob 20 Prozent aus Luft und Wasser und zu etwa 5 bis 10 Prozent aus Pflanzenwurzeln, Lebewesen und Humus, der den Lebensraum und die Nahrungsquelle für weitere Organismen darstellt.

Der Lebensraum Boden

Der Humus verleiht dem Boden nahe der Oberfläche eine dunkle, braunschwarze Farbe. Dieser Oberboden wimmelt von Leben: Neben Regenwürmern, Asseln, Spinnen, Milben und Springschwänzen leben in einer Hand voll Boden mehr Mikroorganismen (etwa Bakterien, Pilze oder Amöben) als Menschen auf der Erde (Abbildung 1). Diese Lebewesen zersetzen abgestorbene Pflanzenteile, bauen sie in Humus um und verteilen diese fruchtbare Substanz im Boden. Humus speichert Nährstoffe und Wasser und sorgt dafür, dass der Boden eine stabile Struktur mit vielen Poren erhält. Zudem enthält er viel Kohlenstoff, der ursprünglich von Pflanzen im Form des Klimagases CO2 aus der Luft aufgenommen wurde. Der Boden ist einer der bedeutendsten Kohlenstoffspeicher überhaupt: Er bindet mit etwa 1.500 Milliarden Tonnen allein im Humus fast dreimal mehr Kohlenstoff als die gesamte lebende Biomasse, also alle Lebewesen inklusive Bäumen, Sträuchern und Gräsern. Abbildung 1. Der Boden lebt: es gibt wesentlich mehr Organismen in als auf dem Boden. Der Lebensraum Boden birgt noch viele Geheimnisse, nur ein Bruchteil der vielen Arten, die in ihm leben, ist bisher erforscht. (Urheber: Heinrich-Böll-Stiftung u.a. Das Bild steht unter der Creative Commons Lizenz CC-BY-SA)

Die Poren des Bodens

Beim Boden ist es wie beim Käse: Das beinahe Wichtigste sind die Löcher. Die Poren des Bodens, also die Hohlräume zwischen den festen Bestandteilen wie Mineralien und Humuspartikeln, sorgen dafür, dass der Boden durchlüftet und so die Pflanzenwurzeln und Bodenlebewesen ausreichend mit Sauerstoff versorgt werden. Wasser wird durch Adhäsions- und Kapillarkräfte gegen die Schwerkraft gehalten – ein Boden kann bis zu 200 Liter pro Kubikmeter speichern und Pflanzen auch dann noch mit Flüssigkeit versorgen, wenn es länger nicht mehr geregnet hat. Das Porenvolumen eines Bodens ist abhängig von der Größe der mineralischen Bodenpartikel, dem Humusgehalt und der Durchwurzelung sowie der Aktivität der Bodenlebewesen.

Insbesondere Regenwürmer haben hier eine wichtige Funktion, denn ihre Gänge sind wichtige Wasserleitbahnen, die bei starken Niederschlägen die Aufgabe haben, das Wasser von der Oberfläche in den Unterboden zu transportieren. Dieser enthält weniger Humus und Lebewesen als der Oberboden und ist heller, durch unterschiedliche Eisenverbindungen häufig gelblich-ockerfarben oder auch rötlich. Ein tiefgründiger, gut durchwurzelbarer Unterboden spielt für die Bodenfruchtbarkeit eine große Rolle. Die Pflanze kann sich über ihre Wurzeln auch dann noch mit Wasser versorgen, wenn der Oberboden bereits trocken ist.

Die geografische Lage ist häufig entscheidend dafür, über welchen Zeitraum die Böden entstanden sind. In Mit­teleuropa kamen zum Beispiel in den Eiszeiten immer wie­der Gletschermassen dazwischen. Sie machten ­Tabu­la rasa, indem sie neue Sedimente ablagerten und bereits ent­­standene Böden umwühlten. Die ty­pischen braunen Böden in Mitteleuropa sind daher mit etwa 10.000 Jahren im internationalen Vergleich recht jung und wenig verwittert. Häufig enthalten sie noch viele Minerale, aus denen sich Pflanzennährstoffe wie Kalium und Phosphor langsam herauslösen. Die typischen roten Böden der Tropen hatten dagegen Millionen Jahre Zeit für die Verwitterung, mit der die Mineralien aufgelöst, umgebildet und teilweise ausgewaschen wurden. Der freigesetzte Phosphor wurde dabei von ebenfalls frei gewordenen Eisen- und Alumini­umoxiden fest gebunden, sodass die Pflanzenwurzeln ihn nun kaum mehr aufnehmen können. Diese Böden sind daher nährstoffarm. Die Nährstoffe für die reiche Vegetation sind statt im Boden in den lebenden Pflanzen gespeichert, denn abgestorbene Pflanzenteile werden sehr schnell zersetzt und die freigewordenen Nährstoffe sofort wieder aufgenommen.

Wertvoll sind auch wenig fruchtbare Böden

Welche Eigenschaften sie herausbilden, ist maßgeblich abhängig von dem Ausgangsgestein. Ist es quarzreich, ent­stehen leichte, eher grobkörnige und sandige Böden, die gut durchlüftet sind, aber nur wenig Wasser und Nährstoffe speichern können. Ist das Ausgangsgestein dagegen reich an Feldspat, entsteht aus den immer feiner werdenden Par­­tikeln ein schwerer, tonreicher Boden, der viel Nährstoffe und Wasser speichert, aber schlechter durchlüftet ist. Auch ist das Wasser hier so stark im Boden gebunden, dass die Pflanzenwurzeln es nur zum Teil nutzen können. Optimal für die Landwirtschaft sind daher weder die sandigen leich­ten noch die tonreichen schweren Böden, sondern solche, die lehmig und reich an Schluff sind. Schluffpartikel sind kleiner als Sand und größer als Ton. Sie verbinden die Vor­teile von beiden: gute Durchlüftung und gutes Wasser- und Nährstoffspeichervermögen. Einen Überblick über die unterschiedlichen Bodengruppen auf unserer gibt Abbildung 2. Abbildung 2. Forscher sortieren die Böden nach Eigenschaften, etwa dem Grad der Verwitterung oder der Bedeutung des Wassers. (Urheber: Heinrich-Böll-Stiftung u.a. Dieses Bild steht unter einer CC-BY-SACreative Commons Lizenz.)

Besonders fruchtbare Böden sind interessante Ackerflächen; eingeschränkt fruchtbare Böden eignen sich noch für die Wiesen- und Weidennutzung oder als Waldfläche. Auch weniger fruchtbare Böden können wertvoll sein, etwa als Lebensräume seltener Arten. Moorböden wiederum sind für eine intensive landwirtschaftliche Nutzung zu feucht, speichern aber besonders viel Kohlenstoff.

Wenn der Boden falsch und zu intensiv genutzt wird, verliert er seine Funktionsfähigkeit und degradiert. Schät­zungsweise 20 bis 25 Prozent aller Böden weltweit sind be­reits davon betroffen, und jedes Jahr verschlechtern sich weitere 5 bis 10 Millionen Hektar. Das entspricht in der Grö­ßenordnung der Fläche Österreichs (8,4 Millionen Hektar). Dabei gibt es durchaus Böden, etwa im Auenbereich von Eu­phrat und Tigris oder im Hochland von Neuguinea, die seit 7.000 Jahren unter ganz unterschiedlichen Bedingungen ge­nutzt werden – und nach wie vor fruchtbar sind.


* Der dem Bodenatlas - Daten und Fakten über Acker, Land und Erde entnommene Artikel wurde geringfügig für den Blog adaptiert und erscheint mit freundlicher Zustimmung des Autors. Der Bodenatlas war ein Kooperationsprojekt zum internationalen Jahr des Bodens von der Heinrich-Böll-Stiftung, IASS, BUND, Le Monde diplomatique, 2015. (Alle Grafiken und Texte stehen unter der offenen Creative Commons Lizenz CC-BY-SA ) https://www.bund.net/fileadmin/bundnet/publikationen/landwirtschaft/1501...

Literatur

UBA, Verlust der Biodiversität im Boden: http://www.umweltbundesamt.de/themen/boden-landwirtschaft/bodenbelastung...

Thomas Caspari/ISRIC; World Reference Base for soil resources 2014, Annex 1, S. 135-172 (PDF) http://www.fao.org/3/a-i3794e.pdf


Weiterführende Links

Zum Thema Boden sind bereits einige Artikel im ScienceBlog erschienen, die im Themenschwerpunkt Biokomplexität unter der Überschrift ›Ökosysteme‹ zusammengefasst sind.


inge Fri, 01.04.2016 - 10:58

Mikroglia: Gesundheitswächter im Gehirn

Mikroglia: Gesundheitswächter im Gehirn

Fr, 08.04.2016 - 08:07 — Susanne Donner

Susanne DonnerIcon Gehirn

Mikrogliazellen sind die erste Linie des Verteidigungssystems im Gehirn. Sie wachen mit ihren mobilen Fortsätzen dauernd über den Gesundheitszustand unseres Denkorgans. Bei Krankheit oder Verletzung begeben sie sich sofort zum Katastrophenherd. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner beschreibt wie Mikroglia andere Immunzellen zu Hilfe rufen und Bakterien beseitigen, aber auch bei ganz gewöhnlichen Denkvorgängen, wie sie zum Lernen und Umdenken nötig sind, helfen.*

Man muss sich das einmal bildhaft vorstellen: Da oben in der Denkzentrale werkeln nicht nur Milliarden Nervenzellen, also Neuronen, sondern auch so genannte Mikrogliazellen. Diese scannen fortlaufend mit haarfeinen Ärmchen das Gewebe – in etwa wie ein ruhender Tintenfisch, der mit seinen Tentakeln dauernd um sich greift. Gibt es einen Notfall, verwandelt sich die Zelle in eine Art Amöbe und begibt sich flott zum Katastrophenherd. Ja, da oben in der Denkzentrale bewegen sich wirklich ganze Zellen: kein Fleckchen ohne umherschwirrende Wächter mit mobilen Ärmchen. (Abbildung 1)

Abbildung 1. Mikrogliazellen (grün) in der Gehirnrinde einer adulten Maus bilden stark verzweigte Ausläufer, mit denen sie ihre Umgebung abtasten. Benachbarte Neurone sind violett angefärbt, Zellkerne anderer Zellen des Hirngewebes erscheinen blau. / © Marina Matyash

Kein Wunder also, dass die kuriosen Mikroglia – die zu den Gliazellen gehören – hunderte Forscher weltweit in ihren Bann ziehen: Wie machen diese Zellen das bloß?

Immunsystem des Gehirns

Im Groben ist seit vielen Jahren klar: Die mobilen Wächter bilden das Verteidigungs- und Immunsystem des Gehirns. Die Mikroglia wehren an vorderster Front gefährliche Keime - etwa die von Zecken übertragenen Borrelien - ab, wenn diese ins Zentralnervensystem eindringen. Schon 1919 entdeckte Pio del Rio Hortega die Wächterzellen. Aber erst heute weiß man, dass die Mikroglia äußerst wandelbar in ihrer Gestalt und ihren Funktionen sind.

Wächter auf Streife und auf ihrem Beobachtungsposten

Im gesunden Gehirn kommt die Mikrogliazelle zu Hunderttausenden vor und bleibt mit ihrem Zellkörper an einer Stelle im Gewebe. Sie hat jedoch sehr feine Tentakel, mit denen sie ständig das Gewebe ringsum abtastet. Mit ein bis zwei Mikrometern je Minute schieben sich diese Ausläufer voran. An Synapsen, den Verknüpfungen zwischen Nervenzellen, verweilen sie aber mehrere Minuten. Sie scannen also ihre Umgebung und kontrollieren jeweils ein Gebiet mit einem Radius von 15 bis 30 Mikrometern. Dabei hat jede Mikrogliazelle ihr eigenes Territorium. Sie arbeiten sozusagen wie Wächter auf einem Beobachtungsposten. Das Gehirn wird von diesen Aufpassern alle paar Stunden einmal komplett durchforstet, haben Forscher ausgerechnet.

Es ist die sich am schnellsten bewegende Struktur in unserem Gehirn“, sagt Helmut Kettenmann, Neurowissenschaftler am Max-Delbrück-Centrum für molekulare Medizin in Berlin.

Woher man das so genau weiß? Seit 2005 kann man die Mikrogliazellen sogar bei der Arbeit beobachten. Zumindest in Mäusen. In einer genetisch modifizierten Variante stellen die Zellen ein fluoreszierendes Protein her und leuchten unter dem Laser-Mikroskop. Axel Nimmerjahn, Frank Kirchhoff und Fritjof Helmchen (damals an den Max-Planck-Instituten für Medizinische Forschung in Heidelberg und für Experimentelle Medizin in Göttingen) waren die ersten Forscher, die auf diese Weise den Wächtern beim Tagesgeschäft zuschauten.

Neben der sesshaften Form kann die Mikroglia aber auch ganz anders: Verwundet man das Gehirn punktuell, zum Beispiel in einem Experiment mit einem Laser, dann verwandeln sich die umliegenden Mikrogliazellen zu Amöben. Sie ziehen ihre Tentakel teilweise oder komplett ein, dehnen ihren bis dahin runden Zellkörper aus und sind dabei so flexibel, dass sie bildlich gesprochen in jede Nische schlüpfen können. In dieser Gestalt begeben sie sich auf Streife und wandern dann zu einer Wunde. Einige Mikrogliazellen vermehren sich, sodass die Zahl der Einsatzkräfte vor Ort steigt. Sie können andere Immunzellen zu Hilfe rufen, indem sie entsprechende Signalstoffe ausschütten. Und indem sie Sauerstoff- und Stickstoff-Radikale freisetzen, können sie auch eigenmächtig Bakterien und Zellen abtöten. Nicht zuletzt wird an Ort und Stelle aufgeräumt: Bakterien-Bestandteile oder abgestorbene Zellen nehmen die Mikrogliazellen zu diesem Zweck in ihr Inneres auf.

Frühe Geburt der Wächter

Deswegen dachten Wissenschaftler bis vor kurzem, dass die Mikroglia mit den Fresszellen unmittelbar verwandt sind, also jenen Abwehrzellen, die im Blut schwimmen. Auch diese nehmen Bakterien, Viren und andere Krankheitserreger in ihr Inneres auf und machen sie so unschädlich.

Trotz der Ähnlichkeit besteht aber nur wenig Verwandtschaft, wie Neuropathologen um Marco Prinz von der Universität Freiburg nachweisen konnten. Die Mikroglia entstünden vielmehr ganz früh in der Embryonalentwicklung aus embryonalen Stammzellen – die Fresszellen unter den weißen Blutkörperchen hingegen aus Stammzellen des Knochenmarks. Deswegen seien die Mikroglia eine eigenständige Zellklasse, schrieb Prinz 2013 im Journal Nature Neuroscience. „Das weist einmal mehr auf die Bedeutung dieser Zellen hin. Das Zentralnervensystem hat also ein ganz eigenständiges, sich getrennt entwickelndes Immunsystem“, kommentiert Kettenmann.

Nur, woher wissen Mikroglia eigentlich, was sie tun sollen? Diese Frage beschäftigt Kettenmanns Team besonders. Längst geht die Zahl der Signalstoffe, auf die Mikrogliazellen reagieren, in die Hundert. Auf der Oberfläche der Wächterzellen findet man immer neue Andockstellen für solche Substanzen. Interessanterweise ist auch der Energielieferant Adenosintriphosphat (ATP) darunter, der Zellen im Körper generell mit Energie versorgt und nur Experten als Signalmolekül bekannt ist. An Wunden und Entzündungsherden wird es in größerer Menge bereitgestellt und bietet womöglich so den energieintensiven, weil beweglichen Mikroglia reichlich Nahrung für ihre Arbeit. Auch wenn Hirngewebe in einem Experiment mit einem Laser punktuell verletzt wird, sei es vermutlich ATP, das die Mikroglia herbeigerufen hat, schrieb Sharon Haynes von der University of California in San Francisco 2005.

Hunderte Signalstoffe

Die Forscher unterteilen die Fülle der Signalstoffe, auf die die Mikroglia reagieren, in „On-Signale“ und „Off-Signale“. On-Substanzen sind für gewöhnlich nicht oder nur in geringer Menge im Gehirn zu finden. Bei Erkrankungen nimmt dann ihre Konzentration zu und aktiviert die Mikroglia. Dazu zählen die Amyloid-Plaques bei der Alzheimer-Erkrankung, aber auch Zellwandbestandteile von eingedrungenen Bakterien und Entzündungsstoffe wie Zytokine. Off-Substanzen sind hingegen solche Stoffe, die im Gehirn selbst vorkommen. Wenn ihre Konzentration abfällt, dann ist das ein Zeichen für die Mikroglia, sich auf den Weg zu machen zu einem Entzündungsherd. Dazu zählen beispielsweise Chemokine, die von den Nervenzellen gebildet werden.

Forscher gehen derzeit davon aus, dass die Mikrogliazellen wohl bei Krankheiten des Gehirns mit von der Partie sind – ob bei Alzheimer oder Autismus, ob bei Parkinson, nach einem Schlaganfall oder bei Schizophrenie. Und da sie als Wächter fähig sind, Bakterien und sogar andere Zellen umzubringen, vermuteten Forscher lange Zeit, dass sie bei einigen dieser Leiden außer Rand und Band geraten und massenhaft Zellen umbringen. So könnten sie den Untergang Tausender Neuronen bei einer Demenz zu verantworten haben. Bei einer Multiplen Sklerose richten sie sich nachweislich gegen Myelin, die schützende Hüllsubstanz der Nervenzellfortsätze. Die Mikrogliazellen sind vom Immunsystem so fehlgesteuert, dass sie das körpereigene Myelin als etwas Körperfremdes ansehen und wie einen Eindringling in ihr Inneres aufnehmen. Sie präsentieren sogar Myelin-Fragmente auf ihrer Zelloberfläche als Antigen und rufen somit andere Immunzellen herbei, zunächst T-Zellen und diese dann wiederum Makrophagen, die Fresszellen. „Damit bringen die Mikroglia die Körperabwehr gegen das Schutzmaterial für Nervenfasern auf und begründen womöglich die Autoimmunerkrankung“, sagt Mathias Heikenwälder, Virologe vom Helmholtz Zentrum München. Indem Mikroglia Antigene präsentieren, lenken sie das Immunsystem.

Geschwächte Wächter

Doch mittlerweile geht man davon aus, dass die Mikroglia bei vielen Erkrankungen nicht übereifrig sind, sondern – im Gegenteil – ihren Aufgaben aus den verschiedenen Gründen nicht richtig nachkommen können. „Einige Arbeiten weisen nach, dass eine Verminderung der Mikroglia schlecht für den Gesundheitszustand ist“, schildert Heikenwälder. Die Mikroglia könnten insofern sogar ein Ansatzpunkt für Therapien sein. Darauf deuten Experimente an Mäusen mit einer Form des Autismus hin, dem Rett-Syndrom. Die Tiere haben Bewegungsstörungen und leben kürzer. Auch ihre Mikroglia sind gestört. Die Zellen nehmen nicht mehr genug defekte Zellen und Bakterien in ihr Inneres auf, um diese so unschädlich zu machen. Wird nur diese Fähigkeit durch einen Eingriff ins Erbgut wieder hergestellt, schwinden die Beeinträchtigungen der Mäuse.

Für Gesprächsstoff unter Forschern sorgt auch, dass die Mikroglia, anders als bislang vermutet, bei normalen Gedächtnisfunktionen mit von der Partie sind. So können sie Verknüpfungen zwischen Nervenzellen, so genannte Synapsen, beseitigen. Dieser Vorgang ist für das Lernen, aber auch das Vergessen bedeutsam. Damit wirken die Mikroglia im Guten wie im Schlechten, denn wir müssen vergessen, um Neues zu lernen, aber wir müssen uns auch erinnern, um im Alltag zurechtzukommen. „Die Mikroglia sind nicht nur ein pathologischer Sensor, sondern haben auch im normalen gesunden Gehirn allerhand Funktionen“, bekräftigt Kettenmann.

In dieses Bild passt auch, dass die Mikroglia im alternden Gehirn oft geschwächt sind: Sie bekommen eine andere Form, sie reagieren langsamer oder wandern gar nicht mehr in Schadensgebiete. Der lahme Wächter dürfte also zum altersbedingten Nachlassen der Geisteskraft beitragen.

zum Weiterlesen:

Kettenmann H, Verkhratsky A: Neuroglia, der lebende Nervenkitt. Fortschritte der Neurologie – Psychiatrie. 2011 Oct; 79(10): 588-597 (Abstract: https://www.mdc-berlin.de/1157090/en/research/research_teams/cellular_ne...).

Kettenmann H, Kirchhoff F, Verkhratsky A: Microglia: New Roles for the Synaptic Stripper, Neuron Perspective. 2013 Jan; 77(1): 10-18 (http://www.cell.com/neuron/abstract/S0896-6273%2812%2901162-2?_returnURL...).

Kierdorf K et al.: Microglia emerge from erythromyeloid precursors via PU.1 and IRF-8 dependent pathways. Nature Neuroscience. 2013 Mar;16(3): 273-280 (http://www.ncbi.nlm.nih.gov/pubmed/23334579).


*Der Artikel ist der Webseite www.dasgehirn.info entnommen und steht unter einer CC-BY-NC Lizenz: https://redaktion.dasgehirn.info/entdecken/glia/mikroglia-die-mobilen-un...

www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe

 


Weiterführende Links der Webseite www.dasGehirn.info:

Arvid Leyh: Die Welt der Gliazellen, Video 3:37 min. (Lizenz: CC-BY-SA ) https://redaktion.dasgehirn.info/entdecken/glia/die-welt-der-gliazellen-...

Arvid Leyh: Gliazellen live. Video 3:30 min (Lizenz: CC-BY-SA-ND) https://redaktion.dasgehirn.info/entdecken/glia/gliazellen-live-1886/

Arvid Leyh: Helmut Kettenmann über Gliazellen. Video 13:07 min. (Lizenz: CC-BY-NC ) https://redaktion.dasgehirn.info/entdecken/glia/helmut-kettenmann-ueber-...


 

inge Fri, 08.04.2016 - 08:07

150 Jahre Mendelsche Vererbungsgesetze - Erich Tschermak-Seyseneggs Beitrag zu ihrem Durchbruch am Beginn des 20. Jahrhunderts

150 Jahre Mendelsche Vererbungsgesetze - Erich Tschermak-Seyseneggs Beitrag zu ihrem Durchbruch am Beginn des 20. Jahrhunderts

Fr, 25.03.2016 - 08:29 — Redaktion

RedaktionIcon BiologieVor 150 Jahren hat der alt-österreichische Biologe und Augustinermönch Gregor Mendel seine epochalen Beobachtungen zur Vererbung bestimmter Farb- und Formeigenschaften in Kreuzungen von Pflanzen veröffentlicht [1]. Diese, später als "Mendelsche Regeln" bekannt gewordenen Hypothesen haben einerseits die bis zur Schwelle des 20. Jahrhunderts rein empirisch vorgehende Pflanzenzüchtung und ebenso auch die Tierzucht revolutioniert und sind andererseits zum Grundpfeiler der molekularen Genetik geworden. Maßgeblich zum Durchbruch der Mendelschen Vererbungslehre hat der Wiener Botaniker und Pflanzenzüchter Erich von Tschermak-Seysenegg beigetragen, der sich selbst als einen der drei Wiederentdecker von Mendels Vererbungsgesetzen sieht und auf diesen basierend Regeln für deren züchterische Verwertung erstellt. Dies unterstreicht er auch in dem hier wiedergegebenem populären Vortrag "Die Mendelschen Vererbungsgesetze", den er 1908 im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien" [2] gehalten hat.

Abbildung 1. Erich Tschermak-Seysenegg um 1900 (Acta horti bergiani bd. III, no.3 (1905), Gemeinfrei) und Titelblatt der Vorlesung "Die Mendelschen Vererbungsgesetze [2]

Erich Tschermak-Seysenegg (1871 - 1962, Abbildung 1) stammte aus einer Wiener Gelehrtenfamilie. Er war der Sohn des prominenten Chemikers, Mineralogen und Petrographen Gustav Tschermak [3], Enkel des Botanikers Eduard von Fenzl , der Professor an der Universität Wien und Direktor des Botanischen Gartens war, und Bruder des Physiologen Arnim Tschermaks, Rektor der Veterinärmedizinischen Universität Wien. Der vielfach ausgezeichnete Botaniker und Pflanzenzüchter Erich Tschermak war Professor an der Universität für Bodenkultur in Wien und gründete dort den Lehrstuhl für Pflanzenzüchtung. Er gilt als einer der Wiederentdecker von Mendels Regeln*.

Sein am 15. Jänner 1908 im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien" gehaltener Vortrag [2] erscheint hier stark gekürzt (er hätte ansonsten die übliche Länge von Blogbeitragen sehr weit üerschritten) und für den Blog adaptiert (d.i. es wurden Untertitel und Abbildungen eingefügt):

Erich Tschermak-Seysenegg: Die Mendelschen Vererbungsgesetze

Das Studium jener Faktoren, welche zur Bildung neuer Formen führen können, ist heute für den modernen Pflanzen- und Tierzüchter eine conditio sine qua non. Die zahlreichen Entdeckungen auf dem Gebiete der Selektion, der Mutation, der direkten Bewirkung der Befruchtung und Vererbung, speziell der Bastardierung (auch als Hybridisierung bezeichnet: Entstehung von Nachkommen mit genetisch verschiedenen Eltern; Anm. Red.) haben auch tatsächlich eine völlige Neugestaltung unserer Vorstellungen über die Entstehung neuer Formen bewirkt.

Wie sehr sich jedoch die normale Lebenslage gerade bei der Züchtung unserer landwirtschaftlichen Kulturpflanzen durch Änderung bezüglich der Düngung, Bodenbearbeitung, des Klimas etc. verschoben hat, ist uns ja allen bekannt. Der Einfluss äußerer Faktoren kann jedenfalls den Anstoß geben zu einem sogenannten Durchbrechen der Vererbung, zu einem Hervortreten latenter Eigenschaften oder zur exzessiven Steigerung vorhandener. Haben doch gerade in jüngster Zeit einige Beobachtungen gelehrt, dass äußere Einflüsse, speziell wachstumstörende wie z. B. Frost, Dürre, Pflanzenkrankheiten, selbst Verletzungen etc. direkt als Ursachen der Mutation anzusprechen sind. Wir sehen also, dass wir die Wirkungen der einzelnen formbildenden Faktoren nur dann richtig beurteilen und studieren können, wenn wir dieselben nach Möglichkeit voneinander trennen.

Die Mendelschen Regeln

Während noch bis vor relativ kurzer Zeit die Neuzüchtung von Pflanzenformen durch künstliche Kreuzung verschiedener Rassen oder auch Arten als ein wenig rationelles Gebiet erschien, auf dem vielmehr Unregelmäßigkeit und Zufall, Unfruchtbarkeit und Rückschlag die Regel sein sollte, sprechen wir seit acht Jahren von einer gesetzmäßigen Gestaltungs- und Vererbungsweise der Mischlinge und Bastarde. Diese Vererbungsgesetze waren, soweit sie die einfachen sogenannt typischen Fälle betreffen, bereits vor 43 Jahren von dem Augustinermönche, dem späteren Prälaten des Augustinerstiftes in Brünn Gregor Mendel formuliert worden (Abbildung 2).

Abbildung 2. Gregor Mendel (1822 - 1884) um 1862 (Quelle: W. Bateson "Mendels Principles of Heredity (1909); https://ia802604.us.archive.org/29/items/mendelsprinciple00bate/mendelsp...)  

Doch blieben sie infolge einer merkwürdigen Verkettung ungünstiger Umstände bis zum Jahre 1900 ungekannt und unverwertet. Ihre Wiederentdeckung, welche gleichzeitig und unabhängig von de Vries*, Correns* und mir erfolgte, hat nicht bloß zur Bestätigung der Mendelschen Regeln in einer reichen Fülle von Fällen sowie bereits zu züchterischer Verwertung des Mendelismus geführt. Dazu kommen vielmehr noch als neue Errungenschaften die weitgehende Abstufung und Modifikation der Vererbungsgesetze für die sogenannten atypischen Fälle, ferner die Erkenntnis der Vererbungsweise latenter Merkmale oder die Lehre von der Kryptomerie und endlich das vielerörterte Problem der Reinheit oder Unreinheit der Fortpflanzungszellen bei den Bastarden.

Durch die strenge Durchführung von zwei Prinzipien

brachte Gregor Mendel Ordnung in das bisher noch so dunkle Gebiet der Bastardlehre und erwies die Geltung ganz bestimmter, allgemein bedeutsamer Gesetze für die Bastardbildung.

  • Erstens zerlegte er den Gesamteindruck, den sogenannten Habitus jeder zur Kreuzung benutzten Pflanzenform in einzelne elementare Eigenschaften und zergliederte den Unterschied der beiden Elternformen nach einzelnen Merkmalen, die er paarweise einander gegenüberstellte: das Prinzip der biologischen Merkmalsanalyse (Abbildung 3). Die Bedeutung dieses Verfahrens für die Biologie ist eine ganz ähnliche wie die Zerlegung einer chemischen Verbindung in scharf getrennte, selbständige konstante Einheiten

Abbildung 3. Mendel untersuchte 2 Erbsensorten an Hand von 7 Merkmalen (Quelle: Mariana Ruiz LadyofHats - http://de.wikipedia.org/wiki/Datei:Mendel_seven_characters.svg, cc0 )

  • Züchterischen Wert gewann jedoch diese exakte Analyse am Einzelindividuum erst durch Hinzufügung eines zweiten Prinzips, des sogenannten Isolationsprinzips, das in der Sonderung von Samenertrag und Deszendenz nach den einzelnen Stammpflanzen besteht. Mit einem Schlage verschwand nun die scheinbare Regellosigkeit und wie von selbst bot sich die Gesetzmäßigkeit dar. Heute bilden die Grundzüge der Individualzüchtung und der methodischen Zerlegung des Pflanzenhabitus, beziehungsweise des Rassenunterschiedes nach Einzelmerkmalen das Fundament der modernen rationellen Pflanzenzüchtung.

Dominanzregel

Machen wir uns nun in aller Kürze mit dem Inhalte der Mendel sehen Vererbungsgesetze vertraut. Der erste Hauptsatz derselben, die sogenannte Dominanzregel sagt uns, dass von zwei gewissermaßen in Konkurrenz tretenden Merkmalen der Eltern das eine sich als „dominierend" oder überwertig erweist, das ändere als „rezessiv" oder unterwertig.

Abbildung 4. Die Kreuzung zweier Pflanzen mit dem unterschiedlichen Merkmal "Farbe": Dominanz der braunen Farbe, Spaltung im gesetzmäßigen Verhältnis 3:1.

Kreuze ich weißsamigen Senf mit braunsamigen, so dominiert die braune Samenfarbe. Das rezessive Merkmal „weiß" ist in der ersten Generation (Filialgeneration 1: F1; Anm. Red.) scheinbar völlig verschwunden. Schütze ich diese Pflanzen gegen Fremdbestäubung, so dass nur Selbstbefruchtung eintreten kann, so gewinne ich wieder Samen, aus denen nun aber — im dritten Versuchsjahre — eine Mehrzahl von braunsamigen, aber auch weißsamige Individuen hervorgehen (Filialgeneration 1: F2; Anm. Red.). Zähle ich die Vertreter beider Gruppen, so erhalte ich — bei genügender Anzahl — sehr genau das Zahlenverhältnis 3 : 1 , d. h. unter durchschnittlich vier Individuen sind drei braunsamig und eines weißsamig, auf hundert gerechnet finden sich 75% braunsamige und 25 % weißsamige (Abbildung 4).

Spaltungsregel

An der zweiten Bastardgeneration ist also eine Aufteilung der elterlichen Merkmale, eine sogenannte Spaltung von ganz gesetzmäßiger Art eingetreten. Diese Erscheinung von Zwiespältigkeit in der zweiten Generation bildet den Inhalt des zweiten Hauptsatzes der Mendelschen Lehre, den Inhalt der sogenannten Spaltungsregel.

Nun lasse ich wieder durch Selbstbefruchtung Samenbildung eintreten und baue die Samen von jedem weiß- und braunsamigen Individuum der zweiten Bastardgeneration auf einem besonderen Beete nach. Da zeigt sich, dass die Nachkommenschaft, die dritte Bastardgeneration (F3), von einigen braunsamigen Individuen gleichförmig braun bleibt; eine Minderzahl der braunsamigen Bastarde zweiter Generation erweist sich also als bereits samenbeständig, als konstant. Und zwar lehrt mich eine genaue Nachzählung, dass dies gerade ein Drittel oder ca. 33 % ist- Die anderen zwei Drittel oder 66 % liefern hingegen braun- und weißsamige Nachkommen; sie „spalten", und zwar im gesetzmäßigen Zahlenverhältnisse 3:1. Die weißsamigen liefern hingegen völlig konstante Nachkommen. Das rezessive Merkmal war also in der ersten Generation zwar verschwunden, in der zweiten kehrte es aber wieder und blieb sofort konstant. Das dominierende Merkmal bezeichnete die ganze erste Generation, ebenso die Mehrzahl der zweiten Generation, blieb aber nur zu einem Drittel der Individuen konstant (Abbildung 4).

Viele Pflanzen und Tiere "mendeln"

Die hiermit geschilderte gesetzmäßige Vererbungsweise wird als der Mendelsche „ Erbsentypus" bezeichnet, da sich sehr viele Eigenschaften, durch welche sich die vielen Erbsenrassen voneinander unterscheiden, genau ebenso verhalten wie das Merkmalpaar: Braun- und Weißsamigkeit beim Senf.

Aber auch von sehr zahlreichen anderen Pflanzen finden wir Merkmale, die typisch „mendeln" — wie man heute schon allgemein zu sagen pflegt. Solche Merkmale konstatierte ich unter anderen an Erbsen und Bohnen, an den Getreidearten, an Rüben, Möhren und Radieschen, an Senfarten, an Levkojen, Verbenen, Primeln, am Löwenmaul, Gauchheil, Leinarten, Petunien. Auch für zahlreiche Tiere gelten die Mendelschen Gesetze. Einschlägige Kreuzungsversuche wurden bisher hauptsächlich an Mäusen, Ratten, Kaninchen, Meerschweinchen, Kühen, Schafen, Pferden, Katzen, Kanarienvögeln, Tauben, Hühnern, Seidenraupen, Schmetterlingen, Schnecken und Axolotln vorgenommen. Eine große Menge solcher Einzeluntersuchungen sind in allen Weltteilen von Botanikern, Landwirten, Zoologen und Tierzüchtern in Angriff genommen worden, auch die wissenschaftlichen Abteilungen zahlreicher landwirtschaftlicher und gärtnerischer Kongresse und Ausstellungen stehen heute schon im Zeichen des Mendelismus.

Auf die Frage, was denn darüber entscheidet, ob ein Merkmal dominiert oder rezessiv ist, kann heute noch keine befriedigende Antwort gegeben werden. Nur für die Mehrzahl der Fälle lässt sich etwa die Regel ableiten, dass das stammesgeschichtlich ältere Merkmal dem jüngeren überlegen ist, ferner die einfachere Ausbildung der komplizierteren, das Normale dem Abnormen — doch steht dieser Regel eine ganze Anzahl entgegengesetzter Fälle gegenüber.

Eine Erklärung des charakteristischen Spaltungsverhältnisses 3 : 1 hat bereits Mendel in scharfsinnigster Weise gegeben. Er machte nämlich die seither mehr und mehr erhärtete Annahme, dass die Bastarde erster Generation ihr sichtbares dominantes und ihr unsichtbares rezessives Merkmal auf die von ihnen gebildeten Fortpflanzungszellen sozusagen verteilen, also zwei Arten von verschieden veranlagten Fortpflanzungszellen, und zwar in gleicher Anzahl bilden.

Die Unabhängigkeitsregel - Vererbung mehrerer Merkmale führt zu "Neuheiten"

Praktische Wichtigkeit haben erst die Fälle, in welchen mehrere Paare von Merkmalen nebeneinander stehen, weil dann neue Kombinationen der in den beiden Eltern gegebenen Merkmale resultieren.

So erhalten wir bei Kreuzung einer niedrigen, grünhülsigen Bohnenrasse mit einer hohen, gelbhülsigen in der ersten Generation durchwegs hohe Individuen mit grünen Hülsen. In der zweiten Generation kehren aber bei der Spaltung nicht bloß die elterlichen Merkmalkombinationen wieder, sondern es treten auch die weiteren zwei möglichen Kombinationen, niedrig mit gelben Hülsen und hoch mit grünen Hülsen, auf. Auch hier gelten wieder gesetzmäßige Zahlen: es verhält sich grünhülsig-hoch zu grünhülsig-niedrig: gelbhülsig-hoch: gelbhülsig-niedrig wie 9:3:3:1. Von jenen 9 ist nur 1 Individuum weiterhin konstant, 8 spalten noch, von den je dreien eines konstant, 2 Spalter, nur die Kombination der beiden rezessiven gelb und niedrig ist sofort und durchwegs samenbeständig. Durch sorgfältige Auswahl nach Individuen können wir also konstante Vertreter von 2 neuen Kombinationen erhalten — also durch Kreuzung sogenannte „Neuheiten" züchten. Benützen wir Elternsamen von dreifacher Verschiedenheit, so erhalten wir gar 8 Kombinationen, bei vier Paaren konkurrierender Merkmale 16 usw.

Intermediärformen

Allerdings müssen wir noch einige weitere komplizierende Zusätze mit in Kauf nehmen. Der Mendelsche Erbsentypus, wie ich ihn früher geschildert habe, besitzt wohl für sehr viele Rassenmerkmale Gültigkeit — es gibt aber doch auch nicht wenige Eigenschaften, für welche andere Vererbungstypen gelten. Ich spreche hier zunächst von solchen, welche dem Mendelschen Schema nahe verwandt sind, indem auch bei ihnen die erste Generation gleichförmig gestaltet ist, die zweite hingegen Spaltung aufweist.

Die Abweichung vom Mendelschen Erbsenschema ist nun dadurch gegeben, daß die Bastarde erster Generation wirkliche Merkmalmischung aufweisen und daß auch die Spaltung in der zweiten Generation Zwischenformen produziert, also als eine unreine zu bezeichnen ist. Der einfachste dieser Vererbungstypen ist der sogenannte „Maistypus", charakterisiert durch Merkmalmischung in der ersten Generation und Spaltung in konstantbleibende Vertreter des einen und des anderen reinen Merkmales einerseits, in weiter spaltende Intermediärformen anderseits nach dem Verhältnis M1 : Intermediäre : M2 = 1 : 2 : 1 . Die Merkmale zeigen eben in diesem Falle keine gegenseitige Exklusion und gleiche Wertigkeit. Ein Beispiel für diesen Typus gibt die Kreuzung einer weißen und einer roten Rasse der Wunderblume.

Die erste Generation ist rosa, die zweite zeigt weiß, rosa und rot im Verhältnisse 1 : 2 : 1 . Die rosafarbigen Individuen sind nicht konstant zu züchten. Besonders häufig scheint dieser Typus für physiologische Merkmale zu gelten, z. B. für Frühreife und Spätreife. Auf eine Reihe ähnlicher, aber komplizierter Fälle kann hier bloß hingewiesen werden.

Für die praktische züchterische Verwertung

der oben skizzierten Mendelschen Vererbungslehre lassen sich, nachstehende Regeln formulieren

  1. Der Rassenunterschied ist nach einzelnen Merkmalen zu analysieren und für jedes Paar von einzelnen Merkmalen, von denen je eines in eine neue Kombination gebracht werden soll, ist die gesetzmäßige Wertigkeit oder das Vererbungsschema besonders festzustellen. Über die Wertigkeit der einzelnen Charaktere, ob dominierend, rezessiv oder intermediär, belehrt uns das Aussehen der gleichmäßigen ersten Generation, welche in einer verhältnismäßig großen Zahl von Individuen beobachtet werden soll.
  2. Die mehrgestaltige zweite Generation ist in möglichst großer Zahl anzubauen, um nach Tunlichkeit alle möglichen Merkmalskombinationen behufs Auswahl der gewünschten zu erhalten — eventuell auch, um das Spaltungsverhältnis festzustellen. Die einzelnen Individuen sind, wenn nötig, vor Fremdbestäubung zu schützen — eine allerdings oft schwer zu erfüllende Forderung. Unter den Individuen gleicher Form darf hier nicht sofort eine Auswahl getroffen werden, da die bereits konstanten von den noch nicht samenbeständigen nicht äußerlich unterscheidbar sind.
  3. Der Samenertrag ist, mit Ausnahme der ersten Generation, nicht promiscue, sondern nur nach einzelnen Individuen gesondert zu ernten und weiter zu bauen, sonst werden die bereits konstanten Individuen nicht herausgefunden oder wieder verunreinigt. Gerade in diesem Punkte hat die ältere Kreuzungszüchtung am meisten gefehlt. Die erste Generation dient wesentlich der primitiven Wertigkeitsbestimmung, die zweite der Produktion neuer Kombinationen, die dritte, eventuell vierte der Prüfung einzelner Individuen von gewünschter Form auf Samenbeständigkeit. Dieser Prüfungsanbau soll in möglichst großer Zahl und wenn nötig unter Schutz vor Fremdbestäubung erfolgen. Es müssen nämlich die einzelnen Individuen der zweiten Generation erst durch gesonderte Beobachtung ihrer Nachkommenschaft, also in dritter Generation auf ihre Samenbeständigkeit geprüft werden. Die konstant befundenen Individuen stellten dann die Stammeltern der neugewonnenen Formen dar. Es ist demnach ohne weiters ersichtlich, um wieviel schwieriger die Züchtung neuer Rassen bei solchen Pflanzen ist, welche ganz oder wenigstens fast selbststeril, also auf Fremdbestäubung angewiesen sind, so z. B. beim Roggen.

Unter Anwendung dieser Grundsätze habe ich seit einer Reihe von Jahren umfangreiche Versuche unternommen, um die Wertigkeit für die einzelnen Merkmale gerade bei landwirtschaftlichen Kulturgewächsen systematisch zu bestimmen und zur Züchtung neuer, wünschenswerter Kombinationen auszunützen.

Die bisher erörterten Gesetzmäßigkeiten betreffen die an zwei Rassen deutlich und konstant ausgeprägten Unterscheidungsmerkmale. Ein ähnliches regelrechtes Verhalten hat sich aber auch für eine ganze Anzahl von eigentlichen Kreuzungsneuheiten ergeben, also für solche neuauftretende Merkmale, welche an der bei Inzucht völlig konstanten Vater- oder Muttersorte nicht sichtbar sind. Allerdings dürfte der eine Elter oder gar beide diese Merkmale vorgebildet im latenten Zustande enthalten.

Die Forschungen der letzten Jahre haben uns eine Reihe solcher Rassen kennen gelehrt, welche bei Inzucht völlig konstant sind, bei Fremdkreuzung jedoch in gesetzmäßiger Weise Nova produzieren, die teils als Atavismus, teils als Kreuzungsnova im engeren Sinne aufzufassen sind. Sie seien „kryptomere" Rassen genannt.

Aber nicht bloß hervortreten kann ein neues Merkmal im Anschluß an Kreuzung, ein bisher manifestes kann auch äußerlich verschwinden. In all diesen Fällen erweist sich die Fremdkreuzung in Analogie zur Spontanmutation und im Gegensatze zur Selektion als imstande, den Zustand der Merkmale entweder in aufsteigender oder in absteigender Richtung zu verändern; die Hybridisation erscheint somit als ein wichtiger Faktor für die Neubildung pflanzlicher und tierischer Formen, für die Erzeugung von Hybridmutation. Die hierher gehörigen Beobachtungen bedeuten eine wesentliche Ergänzung der seinerzeit von Mendel erhobenen Befunde.

Damit ist aber die mögliche und die bereits erwiesene Komplikation auf unserem Gebiete noch immer nicht erschöpft. Schon Mendel konstatierte, daß nicht alle Merkmalspaare spalten, sondern, dass es auch Bastarde gibt, die sofort durchwegs konstant bleiben. Auch gibt es Kreuzungsfälle, in denen die einen Merkmale „mendeln", die anderen jedoch nicht mehr spalten.

So scheint den von Mendel entdeckten Vererbungsregeln auch eine besondere, geradezu differentialdiagnostische Bedeutung für die Unterscheidung von Varietäten und Arten zuzukommen. Für die Lehre von der Abstammung der Pflanzenformen voneinander eröffnet sich damit ein neuer Weg, der exakte Versuche, nicht gewagte Spekulationen erfordert, aber auch zuverlässige, wertvolle Ausbeute verspricht.


*Die sogenannte Wiederentdeckung der Mendelschen Regeln, die angeblich parallel und voneinander unabhängig durch den deutschen Botaniker Carl Correns, den niederländischen Botaniker Hugo deVries und Erich Tschermak erfolgte, wird heute von den Wissenschaftshistorikern bezweifelt. Die Wissenschafter dürften damals sowohl Mendels Arbeit gekannt haben, als auch von ihren jeweiligen Aktivitäten gewusst haben.

[1] Gregor Mendel (1865) " Versuche über Pflanzen-Hybriden" http://www.mendelweb.org/MWGerText.html
[2] Tschermak Erich von Univ.-Prof. Dr. (1908): Die Mendelschen Vererbungsgesetze. — Schriften des Vereines zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien 48: 145-164. http://www.zobodat.at/pdf/SVVNWK_48_0145-0164.pdf
[3] siehe: Die Erde ist ein großes chemisches Laboratorium – wie Gustav Tschermak vor 150 Jahren den Kohlenstoffkreislauf beschrieb. http://scienceblog.at/kreislauf-des-kohlenstoffes.


Weiterführende Links

Mendel s Arbeiten haben den Grundstein zur modernen Genetik gelegt. Mit den Methoden der Molekularbiologie lassen sich die Mendelschen Regeln erklären: von den Genen, die den Genotp prägen zu den davon kodierten Proteinen, die zu den beobachtbaren Merkmalen (dem Phänotyp) führen.

Ein Vierteiler:


 

inge Fri, 25.03.2016 - 08:29

Störungen und Resilienz von Waldökosystemen im Klimawandel

Störungen und Resilienz von Waldökosystemen im Klimawandel

Fr, 18.03.2016 - 06:38 — Rupert Seidl

Rupert Seidl

Icon Wald

Der Klimawandel setzt Waldökosysteme zunehmend unter Druck und verursacht einen Anstieg von Störungen im Wald. Daher ist es zunehmend wichtig, Mechanismen der Resilienz von Ökosystemen (i.e., deren Fähigkeit, sich von einer Störungen zu erholen) zu identifizieren und in der Waldbewirtschaftung zu berücksichtigen. Rupert Seidl (assoz.Professor für Waldökosystemmanagement, Universität für Bodenkultur Wien) forscht zur Rolle von geänderten Klima- und Störungsregimes in Waldökosystemen und ihren Auswirkungen auf die nachhaltige Waldbewirtschaftung.

Wald unter Druck

Wälder sind ein wichtiger Teil der Landschaft – nicht zuletzt besteht Österreichs Landesfläche fast zur Hälfte aus Wald. Große Teile des Alpenraumes wären ohne Wald unbewohnbar, da Wald nicht nur nachwachsende Rohstoffe bereitstellt sondern auch flächig vor Naturgefahren wie Hochwasser, Steinschlag und Lawinen schützt. Global gesehen beherbergen Wälder in etwa drei Viertel der am Land lebenden Arten und sind der größte terrestrische Kohlenstoffspeicher, was sich positiv auf das Klima auswirkt. Wälder und die von ihnen bereitgestellten Ökosystemservices sind daher ein Schlüsselfaktor für eine nachhaltige Entwicklung unserer Gesellschaft.

Wald gerät jedoch zunehmend unter Druck. Die steigende Weltbevölkerung führt vielerorts zu einem zunehmenden Nutzungsdruck auf Wälder. Weiters steigen auch die menschlichen Ansprüche an den Wald, sodass heute oft eine Vielzahl von mitunter konfligierende Leistungen von Wäldern gefordert werden (z.B. nachhaltige Produktion von Holz und Speicherung von Kohlenstoff, Bereitstellung von Trinkwasser und Bioenergie, Rückzugsraum für geschützte Arten und Erholungsraum für Menschen).

Gleichzeitig setzt auch der fortschreitende Klimawandel den Wald zunehmend unter Druck. Die menschlich verursachte Klimaänderung läuft bezogen auf den Wald sehr schnell ab – innerhalb der Lebensdauer von nur einer Baumgeneration könnte sich die Temperatur um zwischen 2°C und 4°C erwärmen [1]. Mit anderen Worten: Ein heute im Gebirgswald in Österreich keimender Baum wird am Ende seines Lebens Umweltbedingungen ausgesetzt sein, wie sie aktuell seine Artgenossen in 300 – 700 Höhenmeter tiefer gelegenen Gebieten vorfinden. Die hohe Geschwindigkeit der Veränderung relativ zur langen Lebensdauer von Bäumen schränkt eine evolutionäre Anpassung an den globalen Wandel stark ein.

Dazu werden die für die Zukunft erwarteten Bedingungen vermehrt zu Störungen führen, also einem Absterben von Bäumen durch Faktoren wie Wind, Borkenkäfer und Waldbrand [2]. Diese Mortalitätsursachen sind grundsätzlich ein natürlicher Teil der Ökosystemdynamik und Wälder sind gut an derartige Prozesse angepasst. Es ist jedoch bereits heute ein starkes Ansteigen von derartigen Störungen beobachtbar (z.B. sind Borkenkäferschäden (Abb. 1) in Europa in den letzten 40 Jahren um +600% angestiegen) und der für die Zukunft erwartete weitere Anstieg könnte mancherorts zu großen ökologischen Veränderungen führen. Schon heute geben 57.7% der in einer Umfrage befragten Waldbewirtschafter in Österreich an, bereits Folgen des Klimawandels im Wald zu beobachten [3], und die Anpassung an geänderte Umweltbedingungen stellt eine große Herausforderung für das Ökosystemmanagement dar

. Abb. 1: Borkenkäferschäden werden auch in Zukunft zunehmen (Foto: R. Seidl)

Resilienz als Schlüssel

Ein Kernproblem in der Klimaanpassung ist, dass die zukünftige Klimaentwicklung mit Unsicherheiten behaftet ist. Während z.B. ein weiterer Temperaturanstieg in den nächsten Jahrzehnter sehr wahrscheinlich ist, ist eine etwaige Niederschlagsänderung vor allem in Gebirgsregionen mit komplexer Topographie noch mit hohen Unsicherheiten behaftet. Darüber hinaus hängt die Klimaentwicklung der nächsten 100 Jahre ursächlich an politischen und individuellen Entscheidungen in Hinblick auf Energieträger und Energieverwendung und kann somit nicht vorhergesagt werden. Auch das konkrete Auftreten von Waldschäden wie Windwürfen oder Borkenkäferausbrüchen ist durch hohe Stochastizität geprägt und nicht präzise in Zeit und Raum vorhersehbar. Diese Unsicherheiten erschweren eine gezielte Risikoreduktion (Abb. 2) und rücken einen zweiten, komplementären Ansatz in den Mittelpunkt: die Resilienz [4].

Abb. 2: Der Grad der Unsicherheit bestimmt den Umgang mit sich ändernden Umweltbedingungen im Ökosystemmanagement (Quelle: [4])

Resilienz beschreibt die Eigenschaft eines Systems, nach einer Störung wieder zu seinem Ausgangspunkt zurückzukehren bzw. auch nach einer Perturbation seine Organisationsweise zu erhalten und die selben Prozesse und Funktionen aufzuweisen [5]. Mit anderen Worten geht es hier als um die Eigenschaft von Ökosystemen, sich nach störenden Einflüssen wieder zu erholen und mit derartigen Störungen umgehen zu können. Grundsätzlich weisen Wälder eine hohe Resilienz auf und sind meist in der Lage, sich nach störenden Einflüssen rasch wieder zu verjüngen und nach einer kurzen Phase der Reorganisation wieder zu einem geschlossenen Waldbestand zurückzukehren. Ein gutes Beispiel hierfür ist der Nationalpark Bayerischer Wald, in welchem in den letzten 20 Jahren mit 65 km² vom Borkenkäfer befallenem Wald eine der größten ökologischen Störungen in Mitteleuropa stattfand. Heute hat sich im Bayerischen Wald vielerorts bereits wieder die nächste Generation des Waldes einstellt [6] – ganz ohne menschliches Zutun. Ob eine derartige hohe Resilienz jedoch auch unter den geänderten Klimabedingungen der Zukunft erhalten bleiben wird, ist eine aktuell intensiv diskutierte Forschungsfrage.

Um dieser Frage nachzugehen werden unter anderem Simulationsmodelle eingesetzt, welche die Ökosystemdynamik von Wäldern im Computer nachbilden. Derartige Modelle sind ein mathematisches Abbild unseres aktuellen Verständnisses von im Wald ablaufenden ökosystemaren Prozessen (ein Beispiel gibt das vom Autor und seinem Team entwickelte Modell iLand – the individual-based forest landscape and disturbance model, http://iland-model.org/startpage ). Nach ausführlichen Tests gegen beobachtete Daten können derartige Modelle dazu eingesetzt werden, die Waldentwicklung unter geänderten Klimabedingungen abzuschätzen. Es kann dabei z.B. ein weiteres Ansteigen der Temperatur unterstellt und dessen Auswirkungen auf die Baumartenzusammensetzung untersucht werden. Weiters kann eine klimabedingt steigende Frequenz von Störungen simuliert werden um zu testen, wie stark dadurch die Verjüngungskapazität und Resilienz einer Waldlandschaft beeinflusst wird. Auch können in Computersimulationen verschiedene Bewirtschaftungsstrategien durchgespielt werden, um deren Potential zur Reduktion von Klimarisiken und zur Steigerung der Resilienz zu quantifizieren.

Ergebnisse und Implikationen für die Waldbewirtschaftung

Ein Kernergebnis dieser Untersuchungen mit wichtigen Implikationen für die Waldbewirtschaftung betrifft die funktionale Rolle von Diversität in Ökosystemen. Mittels Simulationen konnte gezeigt werden, dass eine Erhöhung der Baumartendiversität negative Effekte von Störungen zum Teil abfedern kann (Abb. 3). Der Grund dafür ist, dass verschiedene Baumarten unterschiedlich auf Störungen reagieren, wodurch Mischbestände und ihre „Reaktionsdiversität“ (Englisch: response diversity) eine weite Palette an unterschiedliche Perturbationen besser abfedern können als Monokulturen [7].

Abb. 3: Baumartendiversität (hier: die Anzahl der in einer Waldlandschaft vorkommenden Baumarten) federt die negativen Effekte von Störungen auf Kohlenstoffaufnahme (links) und Kohlenstoffspeicherung in lebender Biomasse (rechts) ab. Quelle: [7]

Ein weiterer Mechanismus der Resilienz von Ökosystemen gegenüber Störungen sind sogenannte „Legacies“, als das Vermächtnis des Systemzustandes vor der Störung. Gemeint sind damit z.B. Bäume die einen Windwurf oder einen Waldbrand überleben, totes Holz aus dem Vorbestand das wiederum günstige Bedingungen für die Etablierung neuer Bäume schafft, oder im Boden überdauernde Baumsamen. Diese Mechanismen tragen signifikant zur Resilienz von Wäldern bei [8] – sie in der Waldbewirtschaftung als „Vorlage“ zu verwenden bzw. gezielt in Bewirtschaftungskonzepte einzubauen kann Wälder also auf steigende Störungen in der Zukunft vorbereiten. Hierbei müssen jedoch wieder die sich ändernden Klimabedingungen proaktiv mitgedacht werden: Simulationen zeigten z.B., dass die Regenerationsfähigkeit von Fichten bei Jahresniederschlägen von unter 700 mm stark zurückgeht. In Gebieten in denen in Zukunft derartige Schwellenwerte unterschritten werden könnten sollten Störungen also eher zum Anlass genommen werden, um neue, zukunftsfähigere Baumarten (wie z.B. trockenheitstolerantere Eichen, Buchen oder Kiefern) einzubringen.

Gerade solche proaktiven, vorausschauenden Handlungen des Menschen können Wäldern helfen, sich an eine rasch ändernde Umwelt anzupassen [9] und dadurch negative Folgen für die Bereitstellung von Ökosystemleistungen abfedern. Es ist also wichtig, schon heute die Wälder fit für die Zukunft zu machen, um die gesellschaftlichen Anforderungen an den Wald auch unter geänderten Umweltbedingungen nachhaltig erfüllen zu können. Dabei ist für die Resilienz eines gekoppelten Mensch – Umwelt – Systems nicht nur die ökologische Resilienz sondern auch die soziale Anpassungsfähigkeit von großer Bedeutung [10]. Eine Herausforderung liegt diesbezüglich in der sehr kleinteiligen Besitzerstruktur im Österreichischen Wald – ca. die Hälfte des Waldes wird von Kleinwaldbesitzern bewirtschaftet. Da diese Waldbesitzer im aussetzenden Betrieb arbeiten und in vielen Fällen nur geringen Bezug zum Wald haben, erschwert sich eine konzertierte Anpassung an geänderte Klimabedingungen. Andererseits kann die hohe soziale Diversität an Waldeigentümern wiederum auch eine hohe „soziale Reaktionsdiversität“ nach sich ziehen und damit zu einer höheren Struktur- und Artendiversität führen, was wiederum positiv für die Resilienz von Wäldern ist [9]. Risiken und Störungen durch den Klimawandel sind also oft auch Chancen – und sollten auch in der Bewirtschaftung von Ökosystemen in Zukunft stärker als solche erkannt und genutzt werden.


Literatur

[1] IPCC (2013) Climate Change 2013: The physical science basis. Working Group I contribution to the IPCC fifth assessment report., Intergovernmental Panel on Climate Change, Cambridge University Press.

[2] Seidl, R. et al. (2014) Increasing forest disturbances in Europe and their impact on carbon storage. Nat. Clim. Chang. 4, 806–810

[3] Seidl, R. et al. (2015) The sensitivity of current and future forest managers to climate-induced changes in ecological processes. Ambio DOI: 10.1007/s13280-015-0737-6

[4] Seidl, R. (2014) The Shape of Ecosystem Management to Come: Anticipating Risks and Fostering Resilience. Bioscience 64, 1159–1169

[5] Gunderson, L. (2000) Ecological resilience - in theory and application. Annu. Rev. Ecol. Syst. 31, 425–439

[6] Zeppenfeld, T. et al. (2015) Response of mountain Picea abies forests to stand-replacing bark beetle outbreaks: neighbourhood effects lead to self-replacement. J. Appl. Ecol. 52, 1402–1411

[7] Silva Pedro, M. et al. (2015) Tree species diversity mitigates disturbance impacts on the forest carbon cycle. Oecologia 177, 619–630

[8] Seidl, R. et al. (2014) Disturbance legacies increase the resilience of forest ecosystem structure, composition, and functioning. Ecol. Appl. 24, 2063–2077

[9] Rammer, W. and Seidl, R. (2015) Coupling human and natural systems: Simulating adaptive management agents in dynamically changing forest landscapes. Glob. Environ. Chang. 35, 475–485

[10] Seidl, R. et al. (2016) Searching for resilience: addressing the impacts of changing disturbance regimes on forest ecosystem services. J. Appl. Ecol. 53, 120–129

Weiterführende Links

Waldsterben. Prof. Seidl zu Gast beim Wissenschaftsgespräch (12.2020). Video: 1:54:24 min.

Institut für Waldbau, Universität für Bodenkultur Wien, zum Thema Waldbewirtschaftung im Klimawandel http://www.wabo.boku.ac.at/waldbau/forschung/fachgebiete/bewirtschaftung...

APCC: Österreichischer Sachstandsbericht Klimawandel 2014

Das Waldökosystemmodell iLand: http://iLand.boku.ac.at

Europäische Wissensplattform zur Rolle der funktionalen Diversität in Wäldern (in Englisch) http://www.fundiveurope.eu/

Resilience Alliance (in Englisch) http://www.resalliance.org/

Rund um das Thema Wald - Artikel im ScienceBlog:

• Gerhard Glatzel; 28.06.2011: Hat die Menschheit bereits den Boden unter den Füßen verloren?

• Gerhard Glatzel; 24.01.2013: Umweltökologie und Politik - Der Frust der nicht gehörten Wissenschaftler

• Gerhard Glatzel; 21.03.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 1 - Energiewende und Klimaschutz

• Gerhard Glatzel; 05.04.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 2 - Energiesicherheit

• Gerhard Glatzel; 18.04.2013: Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? Teil 3 – Zurück zur Energie aus Biomasse

• Julia Pongratz & Christian Reick; 18.07.2014: Landwirtschaft pflügt das Klima um

• Gerhard Markart; 16.08.2013: Hydrologie: Über die Mathematik des Wassers im Boden

inge Fri, 18.03.2016 - 06:38

Saubere Energie könnte globale Wasserressourcen gefährden

Saubere Energie könnte globale Wasserressourcen gefährden

Fr, 11.03.2016 - 09:37 — IIASA

IIASAIcon GeowissenschaftenIn einem vorangegangenen Bericht war davon die Rede, dass die Auswirkungen des Klimawandels auf Fließgewässer die Stromerzeugung erheblich beeinträchtigen könnten [1]. Vice versa könnten aber auch die Anstrengungen zur Reduktion von Treibhausgas-Emissionen im Energiesektor einen massiven Druck auf die Wasserressourcen ausüben, einen Anstieg des Wasserverbrauchs und eine thermische Wasserverschmutzung zur Folge haben. Neue Untersuchungen des IIASA fordern gezielte Anpassungsmaßnahmen, um potentielle Konflikte zu vermeiden, die als Folge der Auswirkungen des Wasser- und Klimawandels auf das Energiesystem entstehen [2].*

Wie eine eben Im Journal Environmental Research Letters erschienene Studie aufzeigt, könnten Klimaschutzbestrebungen im Energiesektor zu einem steigenden Druck auf die Wasserressourcen führen [2]. Diesem Problem könnte laut Studie durch eine Steigerung der Energieeffizienz begegnet werden, wobei der Fokus auf die weniger Wasser verbrauchenden Wind- und Solarenergien läge, oder durch effizientere Kühlwasser Technologien.

Das Ziel dieser neuen Studie war die systematische Ermittlung der Faktoren, die für den Wasserverbrauch im Energiesystem verantwortlich sind. Für das Energiesystem der Zukunft wurden dabei 41 Szenarios durchgespielt, die mit einer Begrenzung des Klimawandels unterhalb des 2oC Ziels kompatibel sein sollten, das 2012 unter Führung des IIASA im Global Energy Assessment [3] festgelegt wurde (Abbildung 1).

Abbildung 1. Komponenten der Szenarios, die mit einer Begrenzung der globalen Erwärmung um 2 °C kompatibel sind. GEA: Global Energy Assessment, CCS: CO2 Capture &Storage. (Bild: Beschriftung der Figure 1 aus der besprochenen IIASA Studie [2], die unter CC BY lizensiert ist, wurde in Deutsch übersetzt).

„Zweifellos gibt es mögliche alternative Wege der Energiewende, die es uns erlauben die globale Erwärmung auf 2oC zu limitieren - viele davon würden aber langfristig zu einer nicht-nachhaltigen Wassernutzung führen“, sagt der IIASA Forscher und Studienleiter Oliver Fricko. „Abhängig davon welcher Weg der Energiewende eingeschlagen wird, kann der daraus entstehende Wasserbrauch Probleme hinsichtlich der Wasserversorgung anderer Sektoren herbeiführen - beispielsweise der Landwirtschaft oder der privaten Nutzung.“

Bereits jetzt zeichnet der Energiesektor für rund 15 % des globalen Wasserverbrauchs verantwortlich; dieser könnte bis 2100 um mehr als 600 % steigen. Der Großteil des Wasserverbrauchs ist auf thermoelektrische Kraftwerke zurückzuführen, die Wasser als Kühlmittel benötigen, d.i. auf Solarkraftwerke, ebenso wie auf Kernkraftwerke und mit fossilen Brennstoffen oder Biomasse betriebenen Kraftwerken. Der Wasserverbrauch stellt aber nicht das einige Problem dar. Werden Fließgewässer oder Meerwasser zur Kühlung eines Kraftwerks verwendet, so treten sie aus diesem mit einer höheren Temperatur wieder in die Umgebung aus. Dieses, als thermische Wasserverschmutzung bezeichnetes Problem kann die im Wasser lebenden Organismen gefährden. Die genannte Studie moniert, dass diese Verschmutzung zunehmen wird, wenn nicht geeignete technologische Maßnahmen zu deren Eindämmung getroffen werden.

Die Studie betont besonders die Bedeutung der Energieeffizienz. Der an der Studie beteiligte IIASA-Forscher Simon Parkinson meint: „der einfachste Weg, um den Druck des Energiesektors auf die Wasserressourcen zu verringern, ist es unseren Energieverbrauch zu reduzieren indem wir die Energieeffizienz erhöhen. Dies trifft im besonderen Maße für Entwicklungsländer zu, in denen der Energiebedarf massiv anzusteigen beginnt“.

Die Studie zeigt, wie wichtig einer integrierte Analyse ist, wenn man miteinander verknüpfte globale Herausforderungen - Wasserressourcen, Klimawandel und Energiebedarf – verstehen will. Sie ist die Fortsetzung einer vor kurzem publizierten IIASA Untersuchung, die klarmachte: die Auswirkungen des Klimawandels auf Fließgewässer können auch die Stromerzeugung erheblich beeinträchtigen [1].

„Unsere Ergebnisse haben erhebliche Folgen auf die Art und Weise wie Strategien zur Abschwächung des Klimawandels konzipiert werden sollten. Energieplaner müssen den Auswirkungen auf die lokalen Wasserressourcen mehr Gewicht beimessen, welche die Entscheidungsmöglichkeiten limitieren können. Schlussendlich brauchen wir integrierte Strategien, die ein Maximum an Synergien erbringen und Konflikte zwischen den auf Wasser , Klimawandel und Energie bezogenen Zielen vermeiden.“ So die Meinung von Keywan Riahl , dem Direktor des Energieprogramms bei IIASA.

Fazit

Die neue Studie baut auf der Forschung des von IIASA koordinierten Global Energy Assessment auf und bietet eine Analyse, die Wasser, Energie und Abschwächung des Klimawandels verknüpft, ein zentraler Gesichtspunkt einiger neuer IIASA -Forschungsprojekte.


*Der Blogartikel basiert auf der IIASA-Presseaussendung “Clean energy could stress global water resources“ vom 4. März 2016. ( http://www.iiasa.ac.at/web/home/about/160304-erl-water-energy.html ). Er wurde von der Redaktion aus dem Englischen übersetzt und geringfügig für den Blog adaptiert. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung seiner Nachrichten in unserem Blog einverstanden.


[1] IIASA (08.01.2016) Klimawandel und Änderungen der Wasserressourcen gefährden die weltweite Stromerzeugung. http://scienceblog.at/klimawandel-und-%C3%A4nderungen-der-wasserressourc....
[2] Fricko O, Parkinson SC, Johnson N, Strubegger M, Van Vliet MTH, Riahi K, (2016). Energy sector water use implications of a 2-degree C climate policy. Environmental Research Letters  11 034011 doi:10.1088/1748-9326/11/3/034011 http://iopscience.iop.org/article/10.1088/1748-9326/11/3/034011

[3] Global Energy Assessment: Energy Pathways for Sustainable Development (Keywan Riahi, IIASA, Convening Lead Author) http://www.iiasa.ac.at/web/home/research/Flagship-Projects/Global-Energy...


Weiterführende Links

Homepage IIASA

Artikel von IIASA im ScienceBlog

08.01.2016: Klimawandel und Änderungen der Wasserressourcen gefährden die weltweite Stromerzeugung

25.09.2015: Verringerung kurzlebiger Schadstoffe – davon profitieren Luftqualität und Klima

07.08.2015: Ab wann ist man wirklich alt? 10.07.2015: Die großen globalen Probleme der Menschheit

Artikel zur Kohlendioxid Sequestrierung und Speicherung (CCS) im ScienceBlog

11.12.2015, Rattan Lal: Der Boden – die Lösung globaler Probleme liegt unter unseren Füßen

22.05.2015, N.S. Sariciftci (22.05.2015): Erzeugung und Speicherung von Energie. Was kann die Chemie dazu beitragen?


 

inge Fri, 11.03.2016 - 09:37

Die großen Übergänge in der Evolution von Organismen und Technologien

Die großen Übergänge in der Evolution von Organismen und Technologien

Fr, 04.03.2016 - 09:34 — Peter Schuster

Peter SchusterIcon MINTEbenso wie die biologische Evolution verläuft auch die Entwicklung neuer Technologien in großen Sprüngen - „großen Übergängen“. Der theoretische Chemiker Peter Schuster charakterisiert derartige große Übergänge und diskutiert die Voraussetzungen, die zu neuen Organisationsformen in der Biosphäre und zu radikalen Innovationen in der Technologie führen. An Hand eines neuartigen Modells für große Übergänge zeigt er, dass diese nur bei Vorhandensein reichlicher Ressourcen stattfinden können, während Mangel an Ressourcen zur bloßen Optimierung des bereits Vorhandenen taugt.

Im Lauf der biologischen Evolution hat die Komplexität der Organismen zugenommen, ein Prozess der aber nicht graduell sondern in großen Sprüngen ablief. Diese Evolutionssprünge werden als „große Übergänge“ („major transitions“) bezeichnet und sie fallen mit der Entstehung neuer hierarchischer Organisationsebenen zusammen.

Was sind große Übergänge?

In ihrem viel beachteten Buch „The Major Transitions in Evolution“ (1995) haben John Maynard Smith und Eörs Szathmáry erstmals große Übergänge zusammengefasst und mögliche auslösende Mechanismen diskutiert. Die nach ihrer Meinung wichtigsten Übergänge erfolgen:

  • von sich replizierenden, unabhängigen RNA-Molekülen einer RNA-Welt zu strukturierten Chromosomen,
  • von der RNA in ihrer Funktion als Gen und als Enzym zu DNA und Proteinen,
  • von Prokaryoten zu Eukaryoten,
  • von asexuellen Klonen zu sexuell sich vermehrenden Populationen,
  • von einzelligen eukaryotischen Organismen(Protisten) zu Vielzellern – Pilzen, Pflanzen, Tieren - mit differenzierten Zellen,
  • von solitär lebenden Individuen zu Tierkolonien mit Rangordnungssystemen und schließlich
  • von den sozialen Gruppen der Primaten zu den menschlichen Gesellschaften.

Ein gemeinsames Prinzip

Auch, wenn in diese Übergänge sehr unterschiedliche molekulare, metabolische und organisatorische Veränderungen involviert sind, ist ihnen doch ein Prinzip gemeinsam:

Vor dem Übergang haben sich die einzelnen Individuen voneinander unabhängig repliziert und entwickelt; in Populationen haben sie entsprechend dem Darwin’schen Selektionsmechanismus miteinander konkurriert.

Nach dem Übergang liegt eine neue Einheit vor, in welcher die vormaligen Konkurrenten integriert und zur Kooperation gezwungen sind. Sie haben ihre Unabhängigkeit verloren - auch, wenn der Grad zu dem sie noch Individualität beibehalten konnten in den unterschiedlichen Übergängen sehr variabel ist. Der natürliche Selektionsvorgang wird durch verschiedene Mechanismen unterdrückt, der einfachste davon ist die katalysierte Reproduktion (wie sie beispielsweise in mathematischen Modellen der Symbiose eingesetzt wird).

In diesem Zusammenhang sollte erwähnt werden, das bereits in den 1970er-Jahren Niles Eldridge und Stephen Gould die Theorie eines sogenannten „punctuated equilibrium“ (gestörten Gleichgewichts) aufgestellt haben. Diese Theorie besagt, dass ein sprunghafter Evolutionsverlauf wesentlich besser mit den Fossilienfunden in Einklang zu bringen ist, als ein gradueller Verlauf. Gradualismus würde bedeuten, dass die Evolution auf langsamen, nahezu kontinuierlichen Veränderungen der Organismen beruht und fehlende Zwischenglieder nur auf eine bis dato unvollständige Sammlung von Fossilien zurückzuführen wären.

Evolutionäre Veränderungen auf der Ebene der Moleküle

Evolutionäre Veränderungen in Biomolekülen – also in Nukleinsäuren und Proteinen - kommen hauptsächlich durch sogenannte Punktmutationen zustande: in einer Nukleinsäure hat dies den Austausch einer Base zur Folge (Abbildung 1), in einem Protein den Austausch einer Aminosäure Eine derartige Modifikation kann eine sehr starke oder auch nur eine minimale Änderung der molekularen Funktionen zur Folge haben, jedenfalls aber nicht zu einem Kontinuum an Eigenschaften führen.

Die zurzeit vorliegenden Daten unterstützen die Vorstellung, dass es eine ungeheure Vielfalt von Entwicklungsschritten – von äußerst kleinen bis zu sehr großen - gibt. Die großen Übergänge entsprechen riesigen Schritten - sie lassen sich nicht bloß durch eine einzelne Mutation erklären.

Wie entstehen neue Technologien?

Mehr denn je zuvor hängen wir davon ab technologische Lösungen für die Probleme unserer Welt zu finden. Wie aber kommt es zu Innovationen, zu neuen Technologien? Brian Arthur, Mathematiker. Techniker und einer der Pioniere der Komplexitätsforschung, hat dazu 2009 ein bahnbrechendes Buch herausgebracht: „The nature of technology: What it is and how it evolves“.

Arthur sieht in der Entstehung neuer Technologien einen evolutionären Mechanismus wirksam werden:

„Neue Elemente bauen auf den bereits existierenden auf und diese bieten sich selbst als mögliche Bausteine für weitere Elemente an.“

Und er argumentiert, dass die soziokulturelle Evolution unserer Gesellschaften eng mit der technologischen Entwicklung verbunden ist. Die Parallelität von biologischer Evolution und Technologie ist zu erwarten, stellt doch die Evolution der Gesellschaften die bis dato letzte Episode der Evolution in der Biosphäre dar.

Technologien bauen aufeinander auf und haben - wie die von ihnen abhängigen Berufe - nur eine beschränkte Lebensdauer. Hier wird häufig das Beispiel von den Hufschmieden und Wagnermeistern strapaziert: Der Niedergang der „Pferdetechnologie“ hat zum Abstieg beider Handwerkszünfte geführt, aus Repräsentanten einstiger Schlüsseltechnologien wurden Zulieferer für Freizeitunterhaltung und Sport. Ein ebenso exzellentes Beispiel für technologische Evolution bietet das Transportsystem. Oder der Buchdruck, der den Schreiber ersetzte. Wobei der gegenwärtige Übergang von Büchern zur online-Speicherung von Information den Beruf des Buchdruckers zu dem eines Hobby-Handwerkers für bibliophile Sammler machen wird (Abbildung 1).

Abbildung 1. Technologien und die mit ihnen verknüpften Berufe haben begrenzte Lebensdauer: vom Schreiber im alten Ägypten, zum Buchdruck im 16. Jahrhundert, zur Digitalisierung (Quellen: Sitzender Schreiber, wohl 4. Dynastie, https://commons.wikimedia.org/w/index.php?curid=7841464; Buchdrucker 1568, Wikipedia, gemeinfrei)

Was ist technologischer und biologischer Evolution gemeinsam?

  • Die Lebensdauer: wie bereits erwähnt, Technologien und die davon abhängigen Berufe haben ebenso wie die biologischen Spezies eine begrenzte Lebensdauer.
  • Effizienz und Fitness: Effizienz und andere ökomische Kriterien sind essentiell für das Überleben von Technologien; sie spielen hier dieselbe Rolle wie die Fitness in der biologischen Evolution. Das Optimierungsprinzip richtet sich im ersten Fall auf die ökonomische Effizienz aus, im zweiten Fall auf die Zahl der Nachkommen: eine Technologie, die das gleiche Produkt teurer herstellt, als ein anderes Verfahren, wird sehr schnell zum Auslaufmodell. Ebenso, wie eine Variante einer Population, die zu wenige Nachkommen hat.
  • Netzwerke: Technologien bilden komplexe Netzwerke gegenseitiger Abhängigkeiten – gerade so, wie die Nahrungsketten der Ökosysteme.
  • Prinzip des Bastelns: Dies ist ein weniger augenfälliges gemeinsames Charakteristikum. Innovation baut auf bereits vorhandenen Technologien auf und startet nur ganz selten, in außergewöhnlichen Fällen, von Null. Eine dieser Ausnahmen war die Einführung der Elektrizität. Die Natur selbst ist ein obligatorischer Bastler- tatsächlich wurde das Prinzip des Bastelns ja erstmals im Zusammenhang mit der biologischen Evolution formuliert. Die biologische Evolution kann nur von den Einheiten Gebrauch machen, die bereits existieren; vorhandene Funktionen werden in unterschiedlichen Kombinationen und Zusammenhängen neu verwendet.
  • Impulse: nicht –technologische Beiträge können Impulse für technologische Innovationen setzen, neue wissenschaftliche Entdeckungen den Weg zu völlig neuen Technologien öffnen. Die schon erwähnte Elektrizität ist dafür nur ein Beispiel, unschwer lassen sich weitere aufzählen, wie beispielsweise elektromagnetische Wellen, Halbleiter, Kunststoffe, etc. Die Umsetzung von Wissenschaft in Technologien erfolgte bis zum Beginn des 19. Jahrhundert eher selten, dann aber wurde die Zeitspanne zwischen wissenschaftlicher Entdeckung und technologischer Anwendung immer kürzer. Natürlich setzen nicht-biologische Beiträge auch Impulse zur biologischen Evolution. Diese sind von viel generellerer Art, wie beispielsweise der Klimawandel oder die Verfügbarkeit von neuen Habitaten.

Was sind die Voraussetzungen für große Übergänge? Ist die treibende Kraft die Fülle an Ressourcen oder der Mangel?

„Notwendigkeit ist die Mutter der Erfindung“: dies ist eine bei Ökonomen populäre Phrase - sie deutet auf Mangel als Triebkraft hin. Das Problem ist allerdings subtiler – man muss hier zwischen Optimierung und radikaler Innovation unterscheiden.

Optimierungen

Optimierung im Sinne der natürlichen Selektion Darwins beruht auf Variation und Selektion. Die Optimierung verbessert die Funktion und steigert die Effizienz eines Systems, verändert aber nicht seine grundlegende Organisationsform, seine Eigenschaften und Charakteristika.

Optimierung ist nicht kostspielig, beispielsweise in der Molekularen Genetik die Optimierung durch Mutation: Die Replikation von Nukleinsäuren (RNA oder DNA) erfolgt nach demselben Mechanismus ob nun eine korrekte Kopie entsteht oder parallel dazu eine Kopie mit einer Punktmutation; die Kosten für die fehlerfreie und die fehlerhafte Kopie sind gleich (Abbildung 2).

Abbildung 2. Gleichgültig ob korrekt oder mutiert: die Replikation der DNA erfolgt nach demselben Mechanismus.

Die Konsequenz einer vorteilhaften Mutation bringt aber mehr Nachkommen und die natürliche Selektion arbeitet nun ohne Mehrkosten.

Ähnliche Argumente gelten auch für die Technologie: die Erfindung verbesserter Werkzeuge kostet im Allgemeinen kein Vermögen und wird sofort wirksam. Ganz im Sinne von „Notwendigkeit ist die Mutter der Erfindung“ erhöht ein Mangel an Ressourcen den Nutzen, der aus einer Optimierung erzielt wird.

Radikale Innovationen

werden von größeren Änderungen der Organisationsstruktur begleitet. Dies hat die Konsequenz, dass dafür teure Investitionen notwendig werden. Um dies an Hand des alten Beispiels der Mühle, die Getreide zu Mehl vermahlt, verständlich zu machen: es reicht nicht aus nur ein Haus für die Mühle zu errichten. Bevor die Mühle mit der Arbeit beginnen kann, werden weitere (maschinelle) Ausrüstungen wie Mühlengetriebe, Kollergang benötigt und ein Mühlbach muss angelegt werden (Abbildung 3).

Abbildung 3. Investitionen sind notwendig um eine funktionsfähige Wassermühle zu errichten. Im Uhrzeigersinn: Wassermühle von Holxen, Suderburg, Mittelalterliche Darstellung einer Wassermühle (Handschrift British Library, Cotton Manuscript Cleopatra C XI, fol. 10), Kollergang (Molen De Hoop, Oldebroek: Foto Rasbak), Mühlengetriebe (www.limburg-bernd.de), Mühlbach (alte Wassermühle, Luhmühlen). Alle Bilder stammen aus Wikipedia (CC 3.0 license).

Ein triviales Beispiel ist auch das Eisenbahnsystem. Um schnellen und billigen Transport zu ermöglichen, müssen zuvor ein Eisenbahnnetz und Bahnhöfe eingerichtet werden. Es erscheint unmöglich, dass der Übergang des Reisens von der Pferdekutsche zur Eisenbahn in einer Zeit des Mangels passiert wäre.

Auch Übergänge in der Biologie benötigen Investitionen: unterschiedliche funktionelle Einheiten müssen ja an ihren Platz gesetzt werden, bevor eine neue Organisationsebene wirksam wird. Hier sieht sich der Darwin’sche Mechanismus vor ein generelles Problem gestellt: wie kann die Evolution langfristig zu Vorteilen führen, wenn die Strecke dahin über ungünstige Situationen führt. Ein berühmtes Beispiel ist die Evolution von Sex, dessen überlegene Charakteristika - schnellere Evolution und verzögerte Anhäufung schädlicher Varianten – ja erst auf viel längeren Zeitskalen wirksam werden, als der kurzfristige Vorteil der Parthenogenese. Von einer Reihe mehr oder weniger plausibler Erklärungen für dieses Problem, scheint eine praktisch immer zu gelten:

Billige Ressourcen schaffen ein Szenario, das notwendige Investitionen zu verhältnismäßig niedrigen Kosten ermöglicht.

Dies soll an Hand von zwei Beispielen – aus Biologie und Technologie – aufgezeigt werden:

  • Der Übergang von Prokaryoten zu Eukaryoten wird als ein Akt von Endosymbiose beschrieben. Ursprünglich unabhängige Organismen – die Vorläufer der Zellorganellen Mitochondrien und Chloroplasten – finden sich in einer Eukaryoten-Vorläuferzelle inkorporiert, die einen Zellkern mit darin umschlossener DNA enthält. DNA ist auch in Mitochondrien und Chloroplasten enthalten. In allen drei Kompartimenten replizieren sich die DNA-Moleküle voneinander unabhängig, sie werden jedoch durch den Prozess der Zellteilung synchronisiert. Voraussetzung für die Entstehung der eukaryotischen Zelle war eine ausreichend hohe Sauerstoff-Konzentration in der Atmosphäre. Die Verfügbarkeit des Sauerstoffs ermöglichte den Stoffwechselweg der oxydativen Phosphorylierung, des „Verbrennungsfeuers“, zu etablieren, die den beim Abbau von Kohlehydraten erzielten Energiegewinn maximierte. Dem Übergang zum eukaryotischen Leben standen also die Ressourcen zur Verfügung, billige Energie an seinem Beginn.
  • Die industrielle Revolution wurde ebenfalls mit billiger Energie gestartet. Kohleabbau und die Verrichtung mechanischer Arbeiten mittels Dampfmaschinen ergaben einen sich selbst-verstärkenden industriellen Kreislauf, der durch die nahezu unerschöpflichen Vorräte fossiler Treibstoffe angeheizt wurde. Reiche Kohlelager waren die Voraussetzung für einen Kohleabbau in industriellem Maßstab, der ja hohe Investitionen benötigte.

Reichlich vorhandene Ressourcen scheinen also unabdingbar für alle radikalen Neuerungen zu sein, da ja die Schaffung jeder neuartigen Funktion oder Technologie Kapital erfordert.

Selbstverstärkung

ist ein Charakteristikum aller Arten von Übergängen und scheint auch eine essentielle Eigenschaft der hier diskutierten großen Übergänge zu sein. In der Biologie geht nichts ohne Selbstverstärkung: alle Einheiten, die an einem Übergang beteiligt sind, müssen sich reproduzieren, ansonsten würden sie ja aussterben. Reproduktion auf der Ebene der Population bedeutet Selbstverstärkung oder - um es in der Sprache der chemischen Kinetik auszudrücken – Autokatalyse, die – bei fehlenden Beschränkungen - zu exponentiellem Wachstum führt. Wenn Konkurrenten kooperieren, kommt es zu einer höheren Ordnung von Katalyse: daraus entsteht eine hohe Selbstverstärkung, die Gefahr läuft instabil zu werden, sofern keine Kontrolle ausgeübt wird.

Das Pendant zur Autokatalyse sind in der Ökonomie die steigenden Renditen. Wenn ein Produkt sich einen eigenen Markt schafft und mehr von diesem Produkt mehr Nachfrage erzeugt, ergibt dies einen autokatalytischen Zyklus. Dass steigende Renditen zur Instabilität führen können, hat die Finanzkrise im Jahr 2008 eindrucksvoll belegt.

Ein „Spielzeugmodell“ für biologische Übergänge

Ein einfaches mathematisches Modell für große Übergänge in der biologischen Evolution konnte mittels Computersimulationen erstellt werden. Es ging dabei darum den Einfluss der Ressourcen auf das Kräftespiel von Konkurrenz und Kooperation aufzuzeigen. Entsprechend dem Einstein’schen Prinzip: „jedes Ding sollte so einfach wie möglich dargestellt werden, aber nicht einfacher“ vereinigt dieses Modell direkte Reproduktion – dargestellt durch eine einstufige, autokatalytische chemische Reaktion – mit katalysierter Reproduktion, wie sie in Form der Symbiose (hier: Kooperation von zwei Spezies) oder Hyperzyklen (selbst-replizierende Einheiten, die zusammen einen autokatalytischen Zyklus bilden).

Ohne nun im Detail auf dieses Modell eingehen zu wollen, zeigt es klar: Sind nur geringe Ressourcen vorhanden, so kommt es zu einer natürlichen Selektion (zu einem Optimierungsprozess, s.o.). Sind dagegen Ressourcen reichlich verfügbar, bilden sich kooperative Systeme aus, die als solche Voraussetzung für große biologische Übergänge sind.

Mangel ist also eine Antriebskraft für Optimierung. Für echte Innovation und große Übergänge bedarf es aber reichlicher Ressourcen.


Weiterführende Links

Artikel von Peter Schuster in ScienceBlog.at zu verwandten Themen:

Evolution, Selbstorganisation, „Basteln“, Hyperzyklus, Replikation, Ressourcen

3.11.2011: Gibt es Rezepte für die Bewältigung von Komplexität?

16.02.2012: Zum Ursprung des Lebens — Konzepte und Diskussionen

11.04.2012: Wie universell ist das Darwinsche Prinzip?

11.07.2012: Unzähmbare Neugier, Innovation, Entdeckung und Bastelei.

12.07.2013: Können wir Natur und Evolution übertreffen? Teil 1: Gedanken zur Synthetischen Biologie.

19.07.2013: Können wir Natur und Evolution übertreffen? Teil 2: Zum Design neuer Strukturen

Vortrag von Peter Schuster,

der ab min 43:00 das Thema der großen Übergänge behandelt:

Evolution und Design - Gedanken zur spontanen Bildung biologischer Strukturen Video 52:19 min

Videos mit den im Artikel zitierten Autoren:

Brian Arthur: The Evolution of Technology – How does it work? Video 1:09h

John Maynard Smith: Major transitions in evolution Video 2:52 min

John Maynard Smith: Examples of major transitions in evolution Video 3:53 min

Powerpoint Präsentation

Eörs Szathmáry: The major transitions in evolution

inge Fri, 04.03.2016 - 09:34

Wie steuerten die Wikinger ihre Schiffe über den Ozean?

Wie steuerten die Wikinger ihre Schiffe über den Ozean?

Fr, 26.02.2016 - 08:13 — Anthony Robards

Icon wissenschaftsgeschichte

Anthony RobardsJahrhundertelang haben die Wikinger den Nordatlantik gequert und es standen ihnen dabei nur primitive Navigationshilfen zur Verfügung. Nach der Methode des „Breitensegelns“ fuhren sie einer Küste entlang bis zum gewünschten geographischen Breitengrad und segelten dann auf dieser Breite nach Osten oder Westen zum Zielort. Um auf offener See Kurs zu halten dürften sie sich eines Sonnenkompasses und doppelbrechender Kristalle – sogenannter „ Sonnensteine“ - bedient haben. Der Biowissenschafter Tony Robards (Universität York) zeigt, dass mit derartigen Sonnensteinen der Sonnenstand tatsächlich genau bestimmt werden kann, auch bei trübem Wetter und wenn die Sonne schon knapp unter dem Horizont steht..

Vor mehr als einem Jahrtausend kamen aus den Ländern, die wir jetzt als Norwegen, Dänemark und Schweden bezeichnen, Seefahrer, welche die Meere und Wasserstraßen vom Schwarzen Meer bis nach Nordamerika, von Island bis ins Mittelmeer befuhren. Wir nennen diese Menschen heute Wikinger; im Zeitraum vom 9.bis zum 13. Jahrhundert befanden sie sich auf der Höhe ihrer Seemacht. Abbildung 1.

Abbildung 1. Die Eroberung Englands durch Wilhelm den Eroberer im Jahr 1066: „HIC WILHELM DVX IN MAGNO NAVIGIO MARE TRANSIVIT ET VENIT AT PEVENESAE“ Wilhelms Flotte überquert den Kanal. (Die Normandie war seit 911 ein Lehen dänischer Wikinger.) Die schlanken, ca. 20 m langen Drachenschiffe waren mit relativ dicht angebrachten Ruderbänken ausgestattet. Ausschnitt aus dem rund 70 m langen Teppich von Bayeux, der bereits in der 2. Hälfte des 11. Jahrhunderts entstand und in einem eigenen Museum (Musée de la Tapisserie de Bayeux (Bayeux)) ausgestellt ist. (Bild: Wikipedia; Das Kunstwerk ist gemeinfrei).

Meeres-Historiker und Archäologen beschäftigte viele Jahre lang die wichtige Frage, wie es die Wikinger schaffen konnten ihren Weg durch die Meere zu finden, insbesondere, wenn kein Land in Sicht war. Sie unternahmen auf ihren robusten Schiffen ja äußerst beeindruckende Querungen – hin und zurück über den Nordatlantik – und das ohne Navigationshilfen, die ein Seemann heute als unerlässlich erachten würde.

Segeln entlang der Küste…

Über Tausende von Jahren waren Seeleute in aller Welt hauptsächlich den Küsten entlang gesegelt und bedienten sich dazu der vor Ort gesammelten Erfahrungen und fähiger Lotsen. Wenn sie sich von der Küste weiter entfernen, helfen ihnen auch heute noch zahlreiche Hinweise, um ihre Position und Fahrtrichtung zu bestimmen. Die Art der Wolkenformationen, Geräusche, Gerüche, die Windgeschwindigkeit und -Richtung, Seegang und Meeresströmungen, Farbe, Temperatur und Geschmack des Wassers, die Beobachtung von Vögeln und deren Flugrichtung und von wandernden Meeressäugern (wie z.B. von Walen) – all dies hätte auch damaligen Seeleuten wertvolle Anhaltspunkte über Position und Fahrtrichtung geben können.

Wikinger, die mit ihren kleinen Schiffen ja so grandios den Ozean beherrschten, mussten zweifellos alle derartigen Erfahrungen und Fertigkeiten besessen und weitergegeben haben. Bei der geringen Sichtweite - weniger als 10 Seemeilen -, die sie vom niederen Deck ihrer Schiffe aus hatten, bedurfte es allerdings noch zusätzlicher Hilfsmittel um sich wesentlich weiter von der Küste zu entfernen.

…und Breitensegeln

Bis zur Erfindung der Schiffsuhr (Marinechronometer; zur Bestimmung des Längengrads auf hoher See) durch John Harrison in der Mitte des 18. Jahrhunderts konnten sich Seeleute nie ganz sicher sein auf welcher geographischen Länge sie sich befanden - auch, wenn sie auf Grund ihrer Kenntnisse der Bewegungen von Sonne und Sternen ihre geographische Breite sehr gut abschätzen konnten. Aus diesem Grund wandten Seeleute daher jahrhundertelang die Methode des sogenannten „Breitensegelns“ an: das heißt, sie fuhren einer Küste entlang nach Norden oder Süden bis sie die gewünschte geographische Breite erreicht hatten und segelten von dort dann entlang dieser Breite nach Osten oder Westen zum Zielort. Den Kurs entlang der Breite zu halten, kann sich aber als schwierig erweisen, wenn auf offener See das Ziel noch hunderte Meilen entfernt ist und der Ausgangsort schon weit hinten liegt. Dies haben die Wikinger als eine ihrer Hauptfähigkeiten zur Perfektion gebracht.

Es erscheint einleuchtend, dass die meisten frühen Erkundungen der Wikinger sie an den Küsten entlang geführt haben. Beispielsweise der Überfall auf das an der Nordostküste Englands gelegene Kloster Lindisfarne im Jahr 793, der vermutlich von der Westküste Norwegens aus gestartet wurde. Die Wikinger könnten dieses Ziel erreicht haben, ohne sich wesentlich außerhalb Landsicht begeben zu haben. Über die nächsten 300 – 400 Jahre wurden die Seefahrten dann immer abenteuerlicher und die Navigationskünste entsprechend verfeinert. Abbildung 2.

Das áttir-System

Welche Hilfsmittel standen den Wikingern also zur Verfügung und – ebenso wichtig – was fehlte?

Wir alle kennen den magnetischen Kompass als das grundlegende Instrument eines jeden Seemanns. Dieser dürfte aber vor dem 13 Jahrhundert in Europa noch nicht vorhanden gewesen sein – hundert Jahre nach seiner Entdeckung in China. Tatsächlich ist in den nördlichen Breiten, der Heimat der Wikinger, der Kompass auf Grund variierender Magnetfelder aber ein ziemlich unverlässlicher Begleiter.

Es wurde auch vermutet, dass die Wikinger das natürlich vorkommende Eisenmineral Magnetit als eine primitive Art von Kompass verwendet hätten. Dafür gibt es aber bislang keinen Beweis.

Nichtsdestoweniger entwickelten sie eine Art Kompasspeilung durch ihr áttir-System – ein System der Hauptrouten. Das Fehlen von schriftlichen Aufzeichnungen oder Protokollen bedeutete, dass ihre Ozeanquerungen grundsätzlich vom Start bis zum Ziel geplant wurden und dieses Wissen von Seefahrer zu Seefahrer weitergegeben und in deren Gedächtnis gespeichert wurde.

Um das 8. Jahrhundert herum hatten die Nordmänner bereits auf den Shetland-Inseln, den Orkneys und Hebriden Fuß gefasst. Island wurde von den Wikinger zwischen 860 und 870 entdeckt – irische Mönche waren allerdings rund 100 Jahre früher dort gewesen. Im 10. Jahrhundert hatten die Wikinger dann Grönland erreicht, von wo aus sie schließlich Nord Amerika entdeckten. Die mutigen Seefahrers waren nun Herrscher über den Nordatlantik. Abbildung 2.

Abbildung 2. Sieben Schifffahrtsrouten der Wikinger im und über den Nordatlantik, die in den Sagas beschrieben werden. Die Route 3 verläuft über den 61. Breitegrad und erstreckt sich über 1500 Seemeilen von Hernar in Norwegen nach Hvarth in Grönland. (Adapted, with permission, from Thirslund, S., Sailing Directions of the North Atlantic Viking Age (from about the year 860 to 1400). Journal of Navigation, 1997. 50(01): p. 55-64.) Allerdings dauerte es bis in das frühe 14. Jahrhundert, dass ihre Segelanweisungen nicht mehr mündlich weitergeben wurden sondern zum ersten Mal schriftlich niedergelegt und zwar in den Island Sagas. Zwei herausstechende Titel sind das „Landnámabόk“ und das „Hauksbόk“, in welchen sieben unterschiedliche Segelrichtungen samt der voraussichtlichen Fahrtzeit beschrieben wurden. Als Beispiel soll eine derartige Schilderung aus dem Hauksbόk dienen:

„Weise Männer… sagen….von Hernar (Insel im Norden von Bergen und idealer Ausgangspunkt für Segelreisen nach dem Westen) in Norwegen halte dich nach Westen Richtung Hwarf in Grönland und segle nördlich von Hjaltland (Shetland Inseln), sodass Du sie bei klarem Wetter gerade noch erblickst, aber südlich der Färoer Inseln, sodass das Meer (der Horizont) mitten zwischen den entfernten Bergen liegt und auch im Süden von Island.“

Hernar als Ausgangspunkt und ein Kurs der etwa entlang des 61. nördlichen Breitegrads verlief, sollte die Seeleute zu den 1 500 Seemeilen entfernten südlichen Gebieten Grönlands führen, von wo sie der Küste entlang an die Westseite segeln konnten. Ein zu weites Abweichen südlich des 61. Breitegrads wäre dagegen fatal, da man damit Grönland verfehlen würde. Diese schmerzliche Erfahrung musste Bjarni Herjólfsson machen, der im Jahr 896 von Island aus aufbrach, aber durch Stürme und Meeresströmungen nach Süden verschlagen wurde. Er wurde zwar so der erste Wikinger, der den Nordamerikanischen Kontinent erblickte, konnte dort aber nicht landen.

Stad oder Trondheim als Ausgangsorte sollten in ähnlicher Weise ein „Breitensegeln“ zu den Färoer Inseln oder an die Südküste Islands erlauben.

Der Sonnenkompass

Wie aber konnten die Wikinger beim Breitensegeln über so weite Distanzen genauen Kurs halten? Hier beginnt die Geschichte ebenso spannend wie spekulativ zu werden. Von allen Navigationsinstrumenten, welche die Wikinger benutzt haben könnten, gibt es bislang ein einziges archäologisches Relikt: Dies ist ein halbkreisförmiges Bruchstück einer Holzscheibe mit einem Durchmesser von 7 cm, das 1948 in einem alten Benediktinerklosters in Uunartoq, im Süden Grönlands, entdeckt wurde. Abbildung 3.

Abbildung 3. Das Uunartoq Bruchstück (Reproduced by courtesy of the Viking Ship Museum, Roskilde, Denmark, who hold the Copyright. Photograph by Werner Karrasch)

Dieses Fundstück wurde als Sonnenkompass gedeutet, der ursprünglich einen vertikalen Stab (ein Gnomon – Schattenzeiger) in der Mitte gehabt haben musste. Vor dem Fahrtantritt hätte dann der Seefahrer über einen Tag hin die Projektion des Schattens der Sonne von der Spitze des Gnomons auf den Rand der Scheibe verfolgt und markiert – die Einkerbungen am Rand der Scheibe werden für derartige Markierungen gehalten. In den darauffolgenden nächsten Tagen wäre der Sonnenstand ausreichend ähnlich gewesen, um festzustellen ob die Fahrtrichtung nördlich oder südlich von der vorgegebenen Route nach Westen oder Osten abwich. (Neuere Untersuchungen haben einige faszinierende Vorschläge für ähnliche, aber abgewandelte Instrumente dargestellt, auf die hier aber nicht eingegangen werden soll.)

Während der Schifffahrtssaison der Wikinger waren die Tage lang und die Nächte relativ kurz. In den Nächten konnte eine gewisse Navigationshilfe auch durch die Beobachtung der im Zenith stehenden Sterne oder beispielsweise des Polarsterns erhalten werden, dessen Höhenwinkel ja ungefähr dem Breitengrad entspricht, auf dem sich ein Beobachter befindet.

Allerdings erfolgte der Großteil der Fahrt bei Tageslicht und für die Orientierung war es wichtig zu wissen, wo die Sonne stand, auch wenn man sie nicht sah, sodass man mittels des Sonnenkompasses den Breitengrad bestimmen konnte. Hier kommt nun die bemerkenswerte Hypothese ins Spiel, dass die Wikinger einen Sonnenstein benutzten.

Der Sonnenstein

Ein Sonnenstein wird in den Wikinger Sagas erwähnt: angeblich demonstrierte der Bauernsohn Sigurd seinem König Olaf, dem Heiligen, dass er mit einem solchen Stein in der Lage war den Sonnenstand bei bedecktem Himmel festzustellen. Dies dient als eindeutiges Beispiel dafür, dass die Wikinger über den Sonnenstein Bescheid wussten, auch wenn dieser nicht in direktem Zusammenhang mit der Seefahrt genannt wurde.

Es war der dänische Archäologe Thorkild Ramskou, der 1969 postulierte, Sonnensteine könnten zur Bestimmung des Sonnenstandes genutzt worden sein und zwar auch dann, wenn die Sonne unter dem Horizont verschwand oder durch Wolken oder Nebel verdeckt war. Diese Idee wurde zwar von ein oder zwei Protagonisten begeistert akzeptiert, blieb aber lange nicht mehr als eine Theorie. Erst vor kurzem unternahmen Wissenschafter rund um Gabor Horvath einige Experimente, um herauszufinden ob man Sonnensteine tatsächlich zur Bestimmung des Sonnenstandes bei bedeckter Sonne nutzen konnte.

Was ist also überhaupt ein Sonnenstein und wie könnte er funktionieren?

Dazu eine kurze Einführung: entsprechend seiner Natur als elektromagnetische Welle schwingt Sonnenlicht als Transversalwelle senkrecht zu seiner Ausbreitungsrichtung, wobei diese Schwingungen radial in beliebige Richtungen erfolgen (das Licht ist unpolarisiert). Beim Eintritt in die Erdatmosphäre werden die Sonnenstrahlen dann an den kleinen Teilchen (an Molekülen, Aerosolen) der Luft gestreut und polarisiert, d.h. das Licht schwingt nur mehr in einer Ebene. Die Richtung der Polarisation ist senkrecht zu der ursprünglichen Ausbreitungsrichtung und erreicht ein Maximum im 90o Winkel zum Sonnenstandort. Abbildung 4a. Dies lässt sich leicht mit Hilfe eines Polarisationsfilters beobachten (ein derartiger Filter lässt Licht einer Polarisationsrichtung durch und sperrt Licht mit einer um 90o gedrehten Polarisationsrichtung). Wenn Sie beispielweise durch das Glas einer Polaroid Sonnenbrille zum Himmel sehen und dieses drehen, wird es komplett dunkel werden, wenn seine Polarisationsrichtung im 90o-Winkel zur Polarisationsebene der Sonnenstrahlen steht, aber - parallel zu den Sonnenstrahlen - einen klaren Durchblick erlauben.

Abbildung 4. Die Streuung des Sonnenlichts an kleinsten Teilchen in der Atmosphäre führt zur Polarisierung des Lichts (4a). Die Richtung der Polarisation ist senkrecht zu der ursprünglichen Ausbreitungsrichtung und erreicht ein Maximum im 90o Winkel zum Sonnenstandort Der Beobachter kann an Hand dieses Maximums auf den Sonnenstand schließen. 4b: Der Sonnenstein beruht auf der Detektion des polarisierten Lichts: Eine Markierung auf der Außenfläche des doppelbrechenden Calcits erscheint - gegen den Himmel gehalten- als zwei Markierungen unterschiedlicher Intensität. Verdrehen des Kristalls bis beide Markierungen gleiche Intensität zeigen, gibt die Richtung des Sonnenstands an (Details: http://www.atoptics.co.uk/fz767.htm; Illustration/Photograph by the author/A.W.Robards).

Kristalle, die doppelbrechende Eigenschaften haben, können als Sonnenstein fungieren. Dies kann etwa ein Turmalin sein, ein Cordierit oder der am häufigsten genannte Calcit, ein Kristall aus Calciumcarbonat, der auf Grund seiner reichen Vorkommen in Island auch Islandspat genannt wird. Doppelbrechende Kristalle spalten einen durchgehenden Lichtstrahl in zwei Teilstrahlen auf, die beide polarisiert sind und deren Schwingungsebenen senkrecht zueinander stehen. Auf Grund unterschiedlichen Brechungsverhaltens haben die Strahlen einen unterschiedlichen, vom Einfallswinkel abhängigen Verlauf. Wird eine dunkle Markierung auf einer Seite des Kristalls aufgebracht und gegen den Himmel gehalten, werden auf der anderen Seite zwei Markierungen mit unterschiedlicher Stärke gesehen. Wenn der Stein so gedreht wird, dass beide Markierungen gleiche Intensität haben, kann daraus die Position der Sonne abgeleitet werden. Abbildung 4b. Der Stein funktioniert also! Natürlich ist damit noch nicht bewiesen, dass die Wikinger ihn benutzt haben und wenn, ob er ausreichend genaue Ergebnisse am Deck eines Schiffes lieferte.

Ein Sonnenstein wurde zwar nie im Zuge archäologischer Forschungen über Wikinger entdeckt. In einem Schiffswrack vor der Insel Alderney aus dem Jahr 1592, fand man aber im Arsenal der Navigationsinstrumente auch einen Calcit (LeFloch 2013). Dies unterstützte die Theorie, dass der Stein für die Navigation verwendet wurde, möglicherweise wurde damit die Genauigkeit des magnetischen Kompasses überprüft.

Fazit

Von Seiten der Physik wurde bewiesen, dass doppelbrechende Kristalle tatsächlich zur Bestimmung des Sonnenstandes geeignet sind. Von Seiten der archäologischen Forschung muss aber noch viel mehr getan werden, um die Verwendung dieser Technik durch die Wikinger eindeutig zu belegen.


* Der Blogbeitrag basiert auf zwei Artikeln, die im CoScan Magazin in englischer Sprache erschienen sind und uns vom Autor freundlicherweise für den Blog zur Verfügung gestellt wurden:

Anthony Robards: Viking Navigation part 1 and 2. CoScan (Confederation of Scandinavian Societies) Magazine http://issuu.com/evarobards/docs/coscan_magazine_2015_1 und http://issuu.com/evarobards/docs/coscan_magazine_2015_2

Der Blogartikel verzichtet auf die im obigen Original aufgelisteten Literaturangaben, da diese nicht frei zugänglich sind.


Weiterführende Links

Die Wikinger (Dokumentation) . Video 52:52 min (enthält auch Beschreibung des Sonnenkompasses)
Planet Wissen – Wikinger. Video 58:17 min.

inge Fri, 26.02.2016 - 08:13

Von der Experimentalphysik zur anti-metaphysischen Wissenschaftsphilosophie: zum 100. Todestag von Ernst Mach

Von der Experimentalphysik zur anti-metaphysischen Wissenschaftsphilosophie: zum 100. Todestag von Ernst Mach

Fr, 19.02.2016 - 08:59 — Karl Sigmund

Karl SigmundWissenschaftsgeschichteGenau auf den Tag vor 100 Jahren ist der weltbekannte österreichische Physiker, Physiologe und Pionier der Wissenschaftsphilosophie Ernst Mach gestorben. Mach war radikaler Empirist, ein „Denkökonom“, der alle, über das Beobachtbare hinausgehenden Spekulationen als metaphysisch von sich wies. Damit wurde Mach zu einem der geistigen Gründungsväter des philosophischen Zirkels „Wiener Kreis“, der das Geistesleben und die Sozialgeschichte in der Zwischenkriegszeit des 20. Jahrhunderts prägte. Der vorliegende Artikel ist die verkürzte Fassung eines Kapitels aus dem Buch „Sie nannten sich Der Wiener Kreis“. Der Autor dieses, eben als Wissenschaftsbuch des Jahres ausgezeichneten Buches - der Mathematiker Karl Sigmund-, hat freundlicherweise und mit Einwilligung des Verlages den Text dem ScienceBlog zur Verfügung gestellt.*.*

Ernst Mach kam 1838 bei Brno, damals Brünn, zur Welt. Er wuchs in Untersiebenbrunn auf, einer kleinen Ortschaft nahe bei Wien, die so bäuerlich war, wie der Name klingt. Sein Vater, ursprünglich ein Lehrer, betrieb dort eine Landwirtschaft und unterrichtete seine Kinder oft selbst. Als Zehnjähriger wurde Ernst Mach in ein Internat ins niederösterreichische Benediktinerstift von Seitenstetten geschickt. Bald stellte sich heraus, dass das kränkliche Kind den Anforderungen des Gymnasiums nicht gewachsen war. So kehrte er nach Untersiebenbrunn zurück. Den Mittelschulstoff der Unterstufe konnte ihm zur Not auch sein Vater vermitteln.

Beim Stöbern in den Büchern seines Vaters stieß der Halbwüchsige auf Kants „Prolegomena zu einer jeden künftigen Metaphysik, die als Wissenschaft wird auftreten können“. Dieser Moment war entscheidend, wie Mach später mehrfach festhielt:

„Vom Kant’schen Idealismus kam ich bald ab. Das „Ding an sich“ erkannte ich noch als Knabe als eine unnütze metaphysische Erfindung, als eine metaphysische Illusion.“

Bald nach seiner Begegnung mit der Metaphysik versuchte es der junge Ernst Mach wieder mit einem Gymnasium – diesmal bei den Piaristen im mährischen Kremsier (heute Kromeriz). Dieser zweite Versuch verlief wesentlich besser. Mit 17 maturierte Mach und inskribierte Mathematik und Physik an der Universität Wien. Dort hatte das physikalische Institut zu einem Höhenflug angesetzt, gestützt auf das Wirken von Christian Doppler (1803 – 1853), Johann Loschmidt (1821 – 1893) und Josef Stefan (1835 – 1893). Diese Blüte war umso erstaunlicher, als es davor keine besonders bemerkenswerte Tradition gegeben hatte. Erst mit dem aufziehenden Liberalismus konnten sich die wissenschaftlichen Talente der Donaumonarchie entfalten.

Mach schafft sich einen Namen

Der junge Ernst Mach gehörte zu diesen Talenten. Schnell fiel er am Institut durch seinen Einfallsreichtum und seine Geschicklichkeit auf. Noch als Student konstruierte er einen Apparat, der den Dopplereffekt überzeugend demonstrierte, also dass ein Ton höher wird, wenn sich die Schallquelle rasch nähert. Mit 22 Jahren erwarb Ernst Mach das Doktorat. Schon im Jahr darauf wurde er Dozent, erhielt also das Recht an der Universität zu lehren. Bereits mit 26 wurde Mach in Graz ordentlicher Professor, erst für Mathematik, dann für Physik. Dort heiratete er im Jahr 1867, aus der Ehe entstammten fünf Kinder.

Im selben Jahr 1867 wurde der noch nicht dreißigjährige Mach auf die Lehrkanzel für Experimentalphysik in Prag berufen, wo er fast dreißig Jahre wirkte, bis zu seiner Übersiedlung nach Wien.

Im Labor erwarb sich Mach vor allem durch seine Untersuchungen zur Überschallgeschwindigkeit einen Namen. Das gilt im buchstäblichen Sinn: „Mach zwei“ ist gleichbedeutend mit doppelter Schallgeschwindigkeit. Die Experimente machten ihn zum Pionier der wissenschaftlichen Fotografie. Seine Aufnahmen von Strömungslinien und Schockwellen (Abbildung 1) faszinierten die Zeitgenossen und inspirierten noch Jahrzehnte später die italienischen Futuristen bei ihren Versuchen, rasche Bewegung möglichst sinnfällig darzustellen. Abbildung 1. Stoßwelle um ein mit Überschallgeschwindigkeit fliegendes Geschoss. Das Foto wurde von Ernst Mach 1888 mittels Schlieren-Fotographie aufgenommen (Bild: Wikipedia; gemeinfrei.).

Grundlagen der wissenschaftlichen Erkenntnis

Noch viel mehr als seine Experimente waren es aber Machs Gedanken zur Grundlegung der Physik, die ihn weltbekannt machen sollten. Wissenschaftler, die philosophieren und Philosophen, die Wissenschaft betreiben, hat es viele gegeben. Doch Mach ragte heraus: er wurde zum Pionier einer neuen Disziplin: der Wissenschaftsphilosophie.

Für Mach bot die Wissenschaft selbst den Anlass zum Philosophieren. Die Naturwissenschaften konnten nicht länger als Steckenpferd vereinzelter Träumer und Grübler gelten; sie waren im Lauf des vergangenen Jahrhunderts zu einem Generationen umspannenden, weltweitem Unterfangen geworden, zur Triebkraft hinter der industriellen Revolution. Wenn nun der Fortschritt der Menschheit auf den Naturwissenschaften gründete, worauf gründeten die Naturwissenschaften?

Die Fragen nach den Grundlagen aller Erkenntnis war und ist eine der Grundfragen der Philosophie. Mach ging es um die Grundlagen der wissenschaftlichen Erkenntnis. Er befasste sich damit in drei Büchern: Die Mechanik in ihrer Entwicklung (1883), Die Prinzipien der Wärmelehre (1896) und Die Prinzipien der physikalischen Optik (posthum 1921).

Wie begründet man physikalische Begriffe wie „Kraft“, „ Wärme“, „Entropie“? Was ist „Materie“? Wie misst man „Beschleunigung“? Mach untersuchte diese Fragen von Grund auf, von den einfachsten Beobachtungen ausgehend, durch kritische Analyse der historischen Wurzeln.

Mach führte die physikalischen Begriffe auf unmittelbar gegebene Empfindungen, also Sinneseindrücke zurück und kam dadurch aus philosophischen Gründen zur Physiologie. Auch in diesem Fach bewies er erstaunlichen Spürsinn. So entdeckte er die Lokalisierung des Gleichgewichtssinnes im Innenohr, etwa gleichzeitig mit Josef Breuer, jenem Wiener Arzt, der später gemeinsam mit Sigmund Freud die Psychoanalyse begründete (Abbildung 2). Diese Arbeiten wurden von Robert Barany fortgesetzt, der dafür mit dem Nobelpreis für Medizin ausgezeichnet wurde.

Abbildung 2. Der Hexenstuhl Ernst Machs, mit dem er den Gleichgewichtssinn untersuchte. (Aus: Ernst Mach - Grundlinien der Lehre von den Bewegungsempfindungen; Bild: Wikipedia; gemeinfrei).

Sparsam denken

Die Wissenschaft hat sich auf Erfahrungstatsachen zu beschränken aber besteht natürlich nicht nur aus dem bloßen Sammeln von Fakten. Ihre Aufgabe ist die übersichtliche Darstellung des Tatsächlichen. Im Vordergrund steht für Mach die Denkökonomie: Es geht darum möglichst viel mit möglichst geringem Aufwand zu beschreiben:

„Alle Wissenschaft hat Erfahrungen zu ersetzen oder zu ersparen durch Nachbildung und Vorbildung von Tatsachen in Gedanken, welche Nachbildungen leichter zur Hand sind als die Erfahrung selbst und diese in mancher Beziehung vertreten können. Diese ökonomische Funktion der Wissenschaft, welche deren Wesen ganz durchdringt, wird schon durch die allgemeinsten Überlegungen klar. Mit der Erkenntnis des ökonomischen Charakters verschwindet auch alle Mystik aus der Wissenschaft.“

Mach ist radikal: Für ihn liefern Theorien lediglich denkökonomische Hilfen, keine Erklärungen. Er sieht in den Naturgesetzen nur subjektive Vorschriften für unsere Erwartungen und in der Kausalität nichts als eine regelmäßige Verknüpfung der Vorgänge, eine funktionelle Abhängigkeit.

Die ökonomischen Grundsätze betreffen nicht nur die Wissenschaft sondern auch die Lehre:

„Die Mitteilung der Wissenschaft durch den Unterricht bezweckt, einem Individuum Erfahrung zu ersparen durch Übertragung der Erfahrung eines anderen Individuums“.

Der Unterricht war für Mach Aufklärung:

„Ich werde auf keinen Widerstand stoßen, wenn ich sage, dass der Mensch ohne eine wenigstens elementare mathematische und naturwissenschaftliche Bildung ein Fremdling bleibt in der Welt, in der er lebt, ein Fremdling in der Kultur der Zeit, die ihn trägt.“

Das Ich und seine Empfindungen

Das philosophische Hauptwerk von Mach erschien 1886: Die Analyse der Empfindungen. Es hebt an mit Antimetaphysischen Vorbemerkungen, die zum Halali auf das „Ding an sich“ blasen, überhaupt auf das Ding, auf die Substanz. Ernst Mach lässt nur die vergängliche Erscheinung gelten. Sein Empirismus ist radikal: Alles Wissen beruht auf Erfahrung und alle Erfahrung auf Wahrnehmungen, also letztlich auf Sinneswahrnehmungen, den „Empfindungen“ Machs.

Die Körper, die wir wahrnehmen, bestehen in regelmäßigen Verbindungen von Sinnesdaten. Es gibt nicht außerdem einen Gegenstand, der unabhängig von den Empfindungen existiert, ein „Ding an sich“. Ebenso wenig wie das „Ding an sich“ existiert das „Ich“:

„Als relativ beständig zeigt sich ferner der an einen besonderen Körper (den Leib) gebundene Komplex von Erinnerungen, Stimmungen, Gefühlen, welcher als Ich bezeichnet wird. Das Ich ist so wenig absolut beständig als die Körper.“

In einer berühmt gewordenen Zeichnung stellte Mach scherzhaft „die Selbstbetrachtung des Ichs“ dar (Abbildung 3).

Abbildung 3. Machs Ich betrachtet sich selbst, Illustration aus: Ernst Mach: „Antimetaphysische Vorbemerkungen“ in: Die Analyse der Empfindungen und das Verhältnis des Physischen zum Psychischen (Quelle: Wikipedia).

Das Ich sind Empfindungen. Dahinter steht - nichts.

„Wenn ich sage „Das Ich ist unrettbar“, so meine ich damit, dass es nur in der Einfühlung des Menschen in alle Dinge, in alle Erscheinungen besteht, dass dieses Ich sich auflöst in allem, was fühlbar, hörbar, tastbar ist. Alles ist flüchtig: Eine substanzlose Welt, die nur aus Farben, Konturen, Tönen besteht. Ihre Realität ist ewige Bewegung, chamäleonartig schillernd.“

Machs Welt ohne Substanz, die auf Sinneseindrücken beruht, war eine impressionistische, also im vollsten Einklang mit dem Geist der Zeit. In den Wiener Salons des fin de siècle wurde der Gelehrte mit dem Prophetenhaupt geradezu umschwärmt.

Die Berufung auf einen Lehrstuhl für Philosophie an der Universität Wien

Im neunzehnten Jahrhundert hatten sich die Wände zwischen den Disziplinen verhärtet und die universitären Hierarchien versteift. Dass ein Naturwissenschaftler philosophisch dilettierte, mochte noch angehen; doch, dass er eine philosophische Lehrkanzel übernahm, ohne je über Kantianer oder Scholastiker examiniert worden zu sein, schien schon allerhand. Ein Vortrag, den der weltbekannte Experimentalphysiker in Wien hielt, gab den Ausschlag für seine Berufung. Ernst Mach (Abbildung 4 zeigt ihn im Jahr 1900) übernahm 1895 die eigens für ihn neu benannte Lehrkanzel für Geschichte und Theorie der induktiven Wissenschaften an der Universität Wien.

Abbildung 4. Mach im Jahr 1900. Heliogravüre von HF Jütte, Leipzig.(Bild: Wikipedia; gemeinfrei).

Der Schritt von der Physik zur Philosophie war in Machs Lebensweg längst vorgezeichnet gewesen:

„Meine Lebensaufgabe war es, von Seiten der Naturwissenschaft der Philosophie auf halbem Wege entgegenzukommen.“

Die Stelle war Mach gewissermaßen auf den Leib geschneidert; aber wenig später - im Jahr 1901 -musste er sie niederlegen, halbseitig gelähmt durch einen Schlaganfall, den er auf einer Eisenbahnfahrt erlitten hatte. Seinen rechten Arm und sein rechtes Bein konnte er nie wieder bewegen. Trotz seiner Lähmung blieb Mach geistig so rege wie immer und weiterhin in lebhafte Auseinandersetzungen mit den besten Wissenschaftlern seiner Zeit verwickelt, so etwa mit Boltzmann, Planck oder Einstein. Denn Machs Auffassungen waren zwar von bestechender Eleganz, aber sie warfen doch viele Fragen auf, wie etwa: Wenn die Welt nur aus Erlebnissen besteht, wie verhält es sich dann mit der Existenz von Dingen, die nicht wahrgenommen werden?

Sein Gebrechen trug Mach, der Philosoph des „unrettbaren Ich“ mit heiterer, fast buddhistischer Abgeklärtheit. Im Jahr 1913 zog Ernst Mach zu seinem Sohn nach München. Als er der österreichischen Akademie der Wissenschaften seine Adressänderung bekannt gab, schloss er mit dem schmunzelnden Hinweis, möglicherweise postalisch bald nicht mehr erreichbar zu sein.

1916 verstarb Ernst Mach im Alter von 78 Jahren. Machs Vorlesung übernahm ein anderer Physiker, Ludwig Boltzmann. Auch dies währte nicht lang, denn Boltzmann erhängte sich. Doch innerhalb weniger Jahre hatten die beiden weltberühmten Physiker durch ihre Passion für die Philosophie eine Generation von Studierenden geprägt. Dies macht die beiden zu Urvätern des philosophischen Zirkels „Wiener Kreis“ [1].


*

Karl Sigmund: Sie nannten sich Der Wiener Kreis. Exaktes Denken am Rand des Untergangs. Wiesbaden: SpringerSpektrum 2015. ISBN 978-658-08534-6 http://mlwrx.com/sys/w.aspx?sub=dAvsT_2A6MTL&mid=8d03ba11

Dieses Buch wurde vor wenigen Tagen zum Wissenschaftsbuch des Jahres 2016 in der Kategorie Naturwissenschaft und Technik gewählt. http://www.wissenschaftsbuch.at/

[1] Karl Sigmund: Der Wiener Kreis – eine wissenschaftliche Weltauffassung.

Weitere Artikel von Karl Sigmund in ScienceBlog.at:

inge Fri, 19.02.2016 - 08:55

Biologische Kollagenimplantate in der Hernienchirurgie – quo vaditis?

Biologische Kollagenimplantate in der Hernienchirurgie – quo vaditis?

Fr, 12.02.2016 - 10:50 — Alexander Petter-Puchner

Alexander Petter-PuchnerIcon GebietBei der Leistenbruchoperation ist das Kunststoffnetz seit zwei Jahrzehnten der Standard, der zur Verstärkung des Verschlusses eingesetzt wird. Auf der Suche nach verbesserten Materialien erschienen Bionetze aus Kollagen besonders erfolgsversprechend und fanden breiten Eingang in die Hernienchirurgie – ohne, dass aussagekräftige klinische Studien vorangegangen wären. Der Wiener Chirurg Alexander Petter-Puchner, Experte für Herniechirurgie, zeigt hier die Problematik der übereilten Einführung eines biomedizinischen Produktes auf.

Jedes Jahr werden weltweit mehr als drei Millionen Operationen an Bauchwand-, oder Leistenbrüchen („Hernien“) durchgeführt, bei denen Kunststoffnetze oder biologische Matrices („Bionetze“) zum Einsatz kommen. Diese Implantate verfolgen den Zweck, das Gewebe zu verstärken und die Spannung, die erforderlich ist, um den Defekt der Bauchwand (Abdominalwand)zuverlässig zu verschließen, zu reduzieren. Der Standard ist seit mehr als zwanzig Jahren der Einsatz von Netzen aus Polypropylen oder Polyester: diese werden zwar vom Körper generell sehr gut toleriert, können aber je nach Porengröße und Beschichtung anfällig für eine Besiedelung mit Bakterien sein und auch nicht abgebaut werden. Ausgehend von Diskussionen über Sinn und Risiken von nicht resorbierbaren Fremdmaterialen und dem starken Aufkommen von biologischen, abbaubaren Fixationsmaterialien (zB Fibrinkleber, siehe [1]) erschien es naheliegend, sogenannte biologische Netze aus bovinem (vom Rind), porcinem (vom Schwein) oder auch humanem Kollagen zum Einsatz in der Hernienchirurgie zu bringen (Abbildung 1). Diese Materialien stellten ursprünglich allesamt keine Neuentwicklungen für diese Anwendungen dar, sondern waren Adaptionen bestehender Produkte aus der Gefäß- und der Wiederherstellungschirurgie.

Abbildung 1. Kollagenfasern im Bindegewebe der Haut als Ausgangsmaterial der biologischen Netze (mit den Augen des Graphikers gesehen). Die Kollagenfasern (Längs-und Querschnitt) der Dermis (Lederhaut) bilden ein dichtes Netzwerk. In den Bildern jeweils links: ein Fibroblast (blau), die Hauptzelle der Dermis, rechts: eine angeschnittene Blutkapillare, aus der ein rotes Blutkörperchen (Erythrozyt) austritt, oben:basale Zellschicht (Keratinozyten) der Epidermis (Oberhaut). Quelle: N0019489 Credit Medical Art Service, I. Christensen, Wellcome Images. Licensed CC by-nc-nd 4.0.

Man ging davon aus, dass diese Materialien sich vollständig in das Narbengewebe integrieren und dieses damit verstärken würden ohne mit dem Verbleib von Fremdmaterial das Risiko von Fremdkörper- oder immunologischen Abstoßungsreaktionen in Kauf nehmen zu müssen.

Die Einführung auf den Markt war von vielen Versprechungen und Argumenten geprägt, die zu diesem Zeitpunkt weder bewiesen noch widerlegt worden waren. Damit stellt die Geschichte der „Bionetze“ ein gutes Beispiel dafür dar, wie biomedizinische Produkte besser nicht die klinische Bühne betreten sollten.

Der folgende Text versucht die Entwicklung der letzten zehn Jahre nachzuvollziehen – wie ursprüngliche „Hype und Euphorie“ in „Ernüchterung“ umschlugen.

Hype und Euphorie

Wie bereits erwähnt, fanden anfänglich (2005-2009) viele Kollagenprodukte aus anderen chirurgischen Gebieten Eingang in die Hernienchirurgie. Dabei gab es anfangs drei, später zwei voneinander deutlich abgesetzte Produktgruppen:

  • humane Kollagenimplantate, die aus Leichenhaut gewonnen wurden. Während diese Implantate (zb. Alloderm® oder Allomax®) in den USA Verbreitung fanden, konnten sie aufgrund der extrem aufwändigen Herstellungs- und Prüfverfahren und eines sehr hohen Verkaufspreises (>40 € pro cm2!), in Europa nie Fuß fassen.
  • Die zwei anderen Gruppen sind bis zum heutigen Tag quervernetzte und nicht quervernetzte, tierische Kollagenimplantate.

Die Quervernetzung bedingt, dass die Kollagen- (landläufig: Bindegewebs-) –fasern chemisch oder physikalisch stabilisiert werden und damit vor dem Abbau durch Enzyme (Kollagenasen) geschützt werden. Kollagenasen sind Teil des enzymatischen Cocktails, der bei jeder Entzündungsreaktion freigesetzt wird, da sie das Gewebe eben „andauen“, um so das Feld für die Einwanderung immunkompetenter Zellen aufzubereiten. Quervernetzte Implantate sollten mechanisch dauerhaft stabiler sein, wenn auch um den Preis eines langsameren Einwachsens körpereigener Zellen. Korrekterweise soll angemerkt werden, dass auch sogenannte nicht quervernetzte Implantate durch die Sterilisierungsverfahren soweit stabilisiert werden, dass das Kollagen als feste Matrix und nicht als Paste vorliegt.

Nicht quervernetzte Implantate, so die Theorie, würden zwar rascher resorbiert, also abgeräumt, würden jedoch, so das Versprechen der Hersteller, das Narbengewebe dennoch dauerhaft verstärken.

Diese neue Auswahl an „Netzen“ (wobei der Begriff irreführend ist, da es sich wie bemerkt um dreidimensionale Matrices handelt) erschien für die Chirurgie weltweit verlockend. Vollständige Resorption bei gleichzeitiger Verstärkung des vorhandenen Bindegewebes, sowie eine besonders gute Eignung in infizierten Wundgebieten - das war das Versprechen in dieser Zeit der Euphorie.

Gerade die letztgenannte Eigenschaft, die Kollagenimplantaten zugeschrieben wurde und lange das Hauptargument der Fürsprecher der Bionetze war, nämlich die Resistenz gegen Keimbesiedelung, ja sogar die Keimreduktion, ist seit über einer Dekade ein heftig umstrittenes Thema, das sich eines schlüssigen Nachweises hartnäckig entzogen hat. Experimentelle Studien haben von Anfang an kritische Fragen zur Verträglichkeit und den scheinbar kaum vorhersehbaren Abbauprozessen gestellt. (Es wurde extrem rascher Abbau nicht quervernetzter, sowie eine gegenteilige Reaktion, im Sinne einer ausgeprägten Granulombildung bei quervernetzten Kollagenimplantaten beobachtet.)

Im Nachhinein erscheint es unverständlich, warum diese experimentellen Arbeiten über Jahre hinweg so vehement negiert wurden, obwohl sie Komplikationen, die in den klinischen Publikationen noch als Einzelfälle beschrieben und als individuelle Phänomene abgetan wurden, im Detail systematisch auflisteten.

Ernüchterung

Während, wie eingangs erwähnt, Kollagenimplantate in großem Stil v.a. in Nordamerika und im Süden Europas zum Einsatz kamen und einen Milliarden schweren Markt begründeten, blieb der zentraleuropäische Raum skeptisch. Bald schon häuften sich klinische Berichte über hohe Rezidivraten (Wiederauftreten des Bruches) und Komplikationsraten. (Abbildung 2)

Abbildung 2. Histologische Aufarbeitung eines nach zwei Monaten explantierten, nicht quervernetzten Kollagenimplantates zur Verstärkung einer Bauchwandhernie. Das Implantat imponiert als dunkelrote Struktur unterhalb des hellrot/ rosa erscheinenden geraden Bauchmuskels. Auffällig ist, dass diese beiden Schichten gar nicht verbunden sind, d.h. dass es hier nach längerer Zeit zu keiner, für eine Verstärkung wesentlichen, Einheilung oder einem Einwachsen von Gefäßen gekommen ist. Die langsame Integration und die individuell sehr unterschiedlich ausgeprägte Fremdkörperreaktion ist leider protototypisch für viele Kollagenimplantate in der Hernienchirurgie. Insert rechts unten: dasselbe Implantat am Ort der Verwendung zeigt sich stark geschrumpft und gefältelt.

Man versuchte dies mit mangelnder Quervernetzung zu erklären, bzw. einer zellschädigenden Wirkung der chemischen Verfahren zur Quervernetzung. Abbildung 3. Die Kontroverse über die beste Art der Quervernetzung und die prinzipielle Notwendigkeit derselben sollte die Phase der aufkommenden Ernüchterung lange kaschieren.

Abbildung 3. Histologie von einem quervernetzten Kollagenimplantat, ebenfalls aus der Bauchwand. Selbst für einen Laien ist das unruhige Zellbild sofort erkennbar, welches eine massive Fremdkörperreaktion darstellt. Nicht nur ist die Immunabwehr noch zwei Monate nach der OP in vollem Gange, es ist bereits zur Bildung kleinerer Abszesse und der Formation von Granulomen gekommen. Granulome stellen den Versuch des Körpers dar, Fremdmaterialien weitgehend abzukapseln und in letztendlich in einem Sarkophag aus Kalk zu lagern. Alle eigenen Beobachtungen wurden in der Literatur von zahlreichen anderen Gruppen bestätigt.

Immerhin hatte sich die Debatte gerade unter dem Zwang der Tatsache entwickelt, dass zahlreiche klinische Studien wegen inferiorer Ergebnisse oder methodologischer Schwierigkeiten abgebrochen werden mussten: beispielsweise wegen der Schwierigkeit der Stratifizierung (Einteilung der Patienten in risikoangepasste Behandlungsgruppen, Anm. Red.) ausreichend großer und vergleichbarer Gruppen von Patienten, oder auf wegen der zunehmende Ablehnung von Chirurgen Kollagenimplantate überhaupt zu verwenden, Die Dramatik der Situation zeigte sich in der Konklusion einer prospektiven Studie, durchgeführt von einer der renommiertesten Forschungsgruppen der USA (Prof. Dr. Michael Rosen aus Cleveland, OH). Angesichts einer Rezidivrate von mehr als zwei Drittel aller mit einem „Bionetz“ versorgten Patienten mit Bauchwandhernie in einer klinischen Studie postulierte man, dass „Bionetze“ lediglich einen „sehr teuren Bruchsack“ bilden würden. Ende 2015 wurde eine ausgezeichnete Arbeit publiziert, die anhand von aus Patienten wieder explantierten, biologischen Matrices klar postulierte, dass deren Verhalten hinsichtlich Einheilung, Abbau, Verstärkung des Defektes individuell unterschiedlich und vollkómmen unvorhersehbar sei.

Ausblick

Heute gibt es nach wie vor keine zwingenden Indikationen für den Einsatz von biologischen Netzen in der Hernienchirurgie. Übrig bleibt der Auftrag, die Markteinführung neuer Produkte in der Hernienchirurgie mit dem zu Gebote stehenden, wohlwollend-distanzierten und kritischen Blick zu begutachten und mit der skeptischen Erfahrung der oben geschilderten Entwicklung der Kollagenimplantate


[1] Petter-Puchner, H. Redl: Fibrinkleber in der operativen Behandlung von Leistenbrüchen — Fortschritte durch „Forschung made in Austria“ http://www.scienceblog.at/fibrinkleber-leistenbruch#.  *Stratifizierung: bereits bei der Planung der klinischen Studie werden Patienten nach definierten, klinisch relevanten Untergruppen randomisiert.


Weiterführende Links

A. Petter-Puchner beschreibt die Technik der Netzfixation mittels Fibrinkleber in Chirurgie, 1 (2014) p. 14: How I do it: Netzfixierungen bei der laparoskopischen Hernienchirurgie. http://trauma.lbg.ac.at/sites/files/trauma/puchner_hernia.pdf

Minimal –invasive Operation eines Leistenbruchs in TAPP Technik (Netzfixierung mit Fibrinkleber), Video: 9:18 min, https://www.youtube.com/watch?v=58FHsHHVL0A

Die folgenden vom Autor genannten, allerdings nicht frei-zugänglichen, Arbeiten zu dem Thema können auf Anfrage zugesandt werden:

  • Guillaume O, Teuschl AH, Gruber-Blum S, Fortelny RH, Redl H, Petter-Puchner A. Emerging Trends in Abdominal Wall Reinforcement: Bringing Bio-Functionality to Meshes. Adv. Healthc. Mater. 2015 Aug 26;4(12):1763-89.
  • Petter-Puchner AH, Dietz UA. Biological implants in abdominal wall repair. Br. J. Surg. 2013 Jul;100:987-8. doi: 10.1002/bjs.9156. Epub 2013 May 15.
  • De Silva GS, Krpata DM, Gao Y, Criss CN, Anderson JM, Soltanian HT, Rosen MJ, Novitsky YW. Lack of identifiable biologic behavior in a series of porcine mesh explants. Surgery. 2014 Jul;156(1):183-9. doi: 10.1016/j.surg.2014.03.011. Epub 2014 Mar 15.
  • Harth KC, Krpata DM, Chawla A, Blatnik JA, Halaweish I, Rosen MJ. Biologic mesh use practice patterns in abdominal wall reconstruction: a lack of consensus among surgeons. Hernia. 2013 Feb;17(1):13-20.
  • Pérez-Köhler B, Sotomayor S, Rodríguez M, Gegúndez MI, Pascual G, Bellón JM. Bacterial adhesion to biological versus polymer prosthetic materials used in abdominal wall defect repair: do these meshes show any differences in vitro? Hernia. 2015 Dec;19(6):965-73. doi: 10.1007/s10029-015-1378-1. Epub 2015 Apr 11.
  • Mulder IM, Deerenberg EB, Bemelman WA, Jeekel J, Lange JF. Infection susceptibility of crosslinked and non-crosslinked biological meshes in an experimental contaminated environment. Am. J. Surg. 2015 Jul;210(1):159-66.

inge Fri, 12.02.2016 - 10:50

Zum Schutz persönlicher Daten im Internet – Ergebnisse der EU-weiten Umfrage Eurobarometer 431.

Zum Schutz persönlicher Daten im Internet – Ergebnisse der EU-weiten Umfrage Eurobarometer 431.

Fr, 05.02.2016 - 15:05 — Inge Schuster

Inge SchusterIcon Politik & GesellschaftVor wenigen Wochen ist der Entwurf einer neuen Europäischen Datenschutz-Grundverordnung finalisiert worden: diese soll den Bürgern mehr Kontrolle über ihre eigenen Daten in einer digitalisierten Welt einräumen und gleichzeitig Klarheit und Rechtssicherheit für Unternehmen bringen. Der Reform war eine EU-weite Umfrage – Spezial Eurobarometer 431: Datenschutz - vorausgegangen, um die Ansichten und Sorgen der EU-Bürger zu verschiedenen Aspekten des Datenschutzes in Erfahrung zu bringen.

Innerhalb nur weniger Jahre hat die Digitalisierung alle Bereiche unseres Lebens durchdrungen und verwandelt unsere Welt nun in rasantem Tempo. Digitale Geräte gehören bereits zur Standardausrüstung eines jeden Haushalts, mit dem Ziel unser Zuhause zu einem „smart home“ und unser Dasein insgesamt angenehmer und bequemer zu machen. Digitale Medien ermöglichen, dass wir uns via Internet orts- und zeitunabhängig mit der ganzen Welt vernetzen, Handel betreiben und jede Art von Information austauschen. Für die Wirtschaft bedeutet dies einen gewaltigen Umbau: globale Optimierung von Produktion, Transport und Handel führen zweifellos zu gesteigerter Effizienz und Produktivität, allerdings bei zunehmendem Ersatz der menschlichen Arbeitskraft durch Automation. Ein enormer Durchbruch ist insbesondere in der Wissenschaft zu erwarten: im Zuge des „Open Access“ werden neueste Forschungsergebnisse öffentlich frei zugänglich gemacht und erfahren schnellste, weltweite Verbreitung. Dies schafft die Basis zu einer neuen Art globaler, transdisziplinärer Zusammenarbeit, bildet die Voraussetzung zu einem gesteigerten kreativen Input und daraus entspringender Innovation siehe (Siehe SB-Artikel v. 29.01.2016: Kreatives Gemeingut – Offener Zugang zu Wissenschaft und Kultur

Mit einer gesteigerten Nutzung der digitalen Netzwerke für private und berufliche Zwecke wächst allerdings die Sorge um den Schutz der Privatsphäre. Wieweit werden persönliche User-Daten von Internetkonzernen für ihre wirtschaftlichen Zwecke verwertet? Wie steht es um den Datenschutz in der Medizin? Wieweit speichern Regierungen Userdaten, um Terrorismus und organisiertem Verbrechen auf die Spur zu kommen?

Zum Schutz persönlicher Daten gibt es bereits seit 1995 Europäische Datenschutzrichtlinien. Damals war allerdings ein verschwindender Anteil der Europäer im Internet aktiv. Um den rasanten technologischen Entwicklungen und den völlig veränderten Nutzungen einigermaßen Rechnung zu tragen, erfuhren diese Regeln dann laufend Anpassungen. So entstand so ein Flickwerk, das nun durch eine echte Reform ersetzt werden sollte. Nach vier Jahren Diskussion einigten sich die Unterhändler von EU-Kommission, EU-Staaten und Europaparlament im Dezember 2015 schlussendlich auf einen Kompromiss, der nun als Entwurf einer Europäischen Datenschutz-Grundverordnung vorliegt [1]. Voraussichtlich wird diese Grundverordnung im Frühjahr 2016 beschlossen werden und nach einer zweijährigen Übergangszeit in der ersten Jahreshälfte 2018 in Kraft treten. Ihr Ziel wird es sein den Bürgern mehr Kontrolle über ihre eigenen Daten in einer digitalen Welt einzuräumen und gleichzeitig Klarheit und Rechtssicherheit für Unternehmen zu bringen [2].

Um überhaupt die aktuelle Einstellung der EU-Bürger zu verschiedenen Aspekten des Datenschutzes und ihre diesbezüglichen Forderungen kennenzulernen, hatte unmittelbar vor der Finalisierung der Datenschutz-Reform eine EU-weite Umfrage stattgefunden [3]. (Eine frühere Umfrage war bereits 5 Jahre alt). Die Antworten zeugen von der Besorgnis der Europäer um den Schutz ihrer Privatsphäre und scheinen Einfluss auf den Text des Entwurfs gehabt zu haben.

Die Umfrage „Special Eurobarometer 431“

Im Feber/März 2015 wurden rund 28 000 Personen in den 28 EU-Staaten zu wesentlichen Punkten rund um den Datenschutz befragt. Es waren dies persönliche (face to face) Interviews, in denen in jedem Mitgliedsstaat jeweils rund 1000 Personen aus verschiedenen sozialen und demographischen Gruppen in ihrem Heim und in ihrer Muttersprache befragt wurden:

  1. wie viel Kontrolle jeder Einzelne - seiner Meinung nach - über die von ihm preisgegebenen Informationen im Internet habe,
  2. welche Einstellung er zur Preisgabe seiner persönlichen Daten im Internet habe,
  3. Über Rechte und Schutz bei persönlichen Daten,
  4. Über die Verwaltung persönlicher Daten durch andere Parteien (Behörden, Unternehmen)

1. Zur Kontrolle über persönliche Informationen im Internet

  • Die überwiegende Mehrheit (im EU28-Durchschnitt 81 %) der Europäer war überzeugt ihre persönlichen Daten nur unzureichend oder überhaupt nicht kontrollieren zu können; nur 15 % der Befragten glaubten darüber vollständige Kontrolle zu haben. Besonders negativ war die Einstellung der Deutschen Bürger, wo dies nur 4 % der Befragten annahmen. (Abbildung 1).
  • Über die fehlende Kontrollierbarkeit ihrer Daten zeigten sich 67 % der Befragten besorgt.

 

Abbildung 1. Kontrolle über persönliche Daten im Internet. (Basis: 69,4 % der 27 980 Befragten, die bejahten persönliche Daten im Internet anzugeben. Quelle: QB4 [3]).

  • Beunruhigt zeigten sich die Europäer auch über Aufzeichnungen ihres Alltagslebens. Die Mehrheit (55 %) darüber, dass ihre Aktivitäten an Hand der Handy-Telefonate und Verwendung von Kreditkarten aufgezeichnet würden. Hinsichtlich der Spuren, die man aus der Nutzung des Internets hinterlässt, war nur etwas mehr als ein Drittel der Befragten unbesorgt. Noch weniger beunruhigt waren sie über die Verfolgung ihres Konsumverhaltens via Kundenkarten oder Restaurantsbesuchen und am wenigsten (allerdings auch noch 33 %) über die Überwachung an öffentlichen Plätzen.
  • Enthüllungen in jüngster Zeit hatten erwiesen, dass die Regierungen einiger Länder aus Sicherheitsgründen die persönlichen Daten ihrer Bürger in Massen gespeichert hatten. Erstaunlicherweise hatte im EU28-Durchschnitt nur die Hälfte der EU-Bürger von diesen Geheimdienstüberwachungen gehört, wobei Deutschland (76 %) Österreich (75 %) und Holland (73%) an der Spitze lagen und Bulgarien mit 22 % am unteren Ende. Bei der Mehrzahl derer, die von diesen Vorgängen gehört hatten, wirkte sich dies negativ auf ihr Vertrauen aus.

2. Zur Angabe persönlicher Daten

Hier sollte es darum gehen, wie weit das Preisgeben persönlicher Informationen als notwendig erachtet und in welchem Maße als Problem gesehen würde (Abbildung 2):

  • die überwiegende Mehrheit (71 %) der EU-Bürger stimmte zu, dass ein Preisgeben persönlicher Informationen ein Teil des modernen Lebens ist,
  • 58 % der EU-Bürger meinten, dass persönliche Informationen unabdingbar wären, um Dienstleistungen oder Produkte zu erhalten
  • Persönliche Informationen würden in steigendem Maße auch von staatlicher Seite gefordert (56 % der EU-Bürger),
  • 43 % im EU28 Schnitt meinten, dass sie im Internet persönliche Daten angeben müssten
  • Für die Mehrzahl (57 %) der EU-Bürger stellte die Angabe persönlicher Daten aber ein großes Problem dar und zwar
  • auch dann, wenn sie dafür freie online-Dienste erhalten konnten.

Abbildung 2. Haltung zur Offenlegung persönlicher Daten. Im Vergleich zum EU28-Schnitt haben sich die Österreicher vermehrt mit der Preisgabe von privaten Daten abgefunden. (Quelle: ebs_431_fact_at_de.pdf)

  • Die Möglichkeit, dass Internet-Firmen die Information über die online-Aktivitäten der User nutzen, um maßgeschneiderte Angebote zu erstellen lehnte die Mehrzahl (53 %) ab.
  • Ein wichtiges Anliegen von 67 % der Befragten ist die Möglichkeit bei einem Providerwechsel persönliche Daten auf den neuen Provider zu übertragen.

3. Rechte und Schutz bei persönlichen Daten

Der bei weitem überwiegende Teil der Europäer war der Ansicht, dass immer die gleichen Rechte und derselbe Schutz für ihre persönlichen Informationen gelten sollte, unabhängig davon, in welchem Land der Dienstanbieter (Privatunternehmer, Behörde) ansässig ist (Abbildung 3 links).

Abbildung 3. Rechte und Schutz bei persönlichen Daten. Die Meinung der Österreicher im Vergleich zum EU28-Durchschnitt (Quelle: ebs_431_fact_at_de.pdf)

Auf die Frage auf welcher Ebene die Bestimmungen zum Schutz persönlicher Informationen durchgesetzt werden sollten, meinten etwa gleichviele EU-Bürger, dass dies auf der EU-Ebene zu geschehen habe und ebenso viele votierten für die nationale Ebene. Etwas mehr österreichische Bürger (12 %) als im EU28-Schnitt (8 %) wollten dies auf regionaler/lokaler Ebene geregelt wissen (Abbildung 3 rechts).

4. Zur Sammlung und Verwendung persönlicher Daten durch Behörden und Privatunternehmen

  • Hier war sich der überwiegende Teil (69 %) der Befragten einig, dass ihre explizite Zustimmung erforderlich wäre, bevor noch irgendeine persönliche Information gesammelt und weiterverarbeitet werden dürfte. Nur 5 % fanden dies nicht als notwendig.
  • Was hier besonders interessant erscheint: Hinsichtlich des Sammelns und Speicherns persönlicher Daten haben Europäer offensichtlich mehr Vertrauen zu Behörden und Finanzinstitutionen als zu Privatunternehmen. Abbildung 4.

Abbildung 4. Inwieweit vertrauen Sie Behörden und Privatunternehmen, dass diese ihre persönlichen Daten schützen? Österreicher zeigen offensichtlich noch mehr Vertrauen zu behördlichen Institutionen als der EU28-Schnitt. (Quelle: ebs_431_fact_at_de.pdf)

Besonders hoch ist diese Vertrauen in nationale Einrichtungen des Gesundheitswesens, in Sozialversicherungen und Finaninstitutionen, geringer in Institutionen der EU und sehr gering in Internetfirmen, soziale Netzwerke, Suchmaschinen, etc.

(Allerdings ist seit der früheren EU-weiten Umfrage zum Datenschutz im Jahr 2010 das Vertrauen in Behörden und besonders in Finanzinstitutionen gesunken, nicht aber das ohnehin geringere Vertrauen in Privatunternehmen; [3]).

  • Rund 70 % der Befragten befürchteten, dass ihre Daten zweckentfremdet verwendet werden.
  • Nahezu alle Europäer (91 %) verlangten informiert zu werden, wenn ihre Daten in Verlust geraten oder gestohlen werden sollten und zwei Drittel wünschten, dass diese Information von der öffentlichen Stelle oder dem Privatunternehmen kommen müsste, welche(s) die Daten verwaltet.
  • Der Großteil würde sich schwere Sorgen machen, wenn die auf ihrem Computer oder Mobileinrichtungen gespeicherten Daten gestohlen würden.

Abschliessend zu den Befürchtungen über eine mögliche missbräuchliche Verwendung persönlicher Informationen sollte nicht unerwähnt bleiben: nur 20 % der Befragten gaben an, dass sie über das Sammeln von Daten und deren Verwendung voll informiert wären, ebenfalls nur 20 % hatten die entsprechenden Datenschutzbestimmungen ganz durchgelesen. Die Meisten hatten davon abgesehen, hauptsächlich, weil der Text zu lang und/oder unverständlich war.

Fazit

Die Europäer haben akzeptiert, dass sie im digitalen Zeitalter persönliche Daten preisgeben müssen, um am modernen Leben teilzunehmen, um zu kommunizieren, um Informationen und Dienstleistungen über das Internet zu beziehen. Sie sind aber darüber beunruhigt, dass sie ungenügende Kontrolle über ihre persönlichen Daten haben und dass diese zweckentfremdet verwendet werden können. Insbesondere haben sie wenig Vertrauen zu Internetfirmen wie beispielsweise Suchmaschinen. So verlangt der Großteil der Befragten, dass ihr explizites Einverständnis eingeholt wird, bevor noch private Daten gesammelt und verarbeitet werden dürfen. Ob das Regelwerk der neuen Europäischen Datenschutz-Grundverordnung (siehe dazu: Factsheet [4]) ausreichen wird, um die Privatsphäre ihrer Bürger zu schützen und ebenso die Notwendigkeiten staatlicher Institutionen und Interessen der Unternehmer wahrzunehmen, ist abzuwarten.


[1] Proposal for a Regulation of the European Parliament and of the Council on the protection of individuals with regard to the processing of personal data and on the free movement of such data (General Data Protection Regulation) [first reading] - Preparation for trilogue. http://www.statewatch.org/news/2015/dec/eu-council-dp-reg-prep-trilogue-...

[2] EU-Datenschutzreform: Mehr Rechte für Europas Internetnutzer. Pressemitteilung - Grundrechte − 17-12-2015. http://www.europarl.europa.eu/news/de/news-room/20151217IPR08112/EU-Date...

[3] Special Eurobarometer 431. Data Protection . Juni 2015 http://ec.europa.eu/COMMFrontOffice/PublicOpinion/index.cfm/Survey/getSu...

[4] Factsheet EU-Datenschutz Neu. http://oegfe.at/wordpress/wp-content/uploads/2015/12/EUDataP_final.pdf

 

inge Fri, 05.02.2016 - 15:05

Radiokohlenstoff als Indikator für Umweltveränderungen im Anthropozän

Radiokohlenstoff als Indikator für Umweltveränderungen im Anthropozän

Fr, 22.01.2016 - 08:51 — Walter Kutschera

Walter KutscheraIcon PhysikSeit dem Beginn der Industrialisierung nimmt der Mensch einen so massiven Einfluss auf die geologischen, atmosphärischen und biologischen Prozesse der Erde, dass es berechtigt erscheint dafür ein neues Zeitalter, das „Anthropozän“, zu definieren. Als ein wichtiger Indikator für die anthropogenen Einwirkungen dient der Radiokohlenstoff (14C), dessen natürliche Konzentrationen durch fossile Brennstoffe und atmosphärische Kernwaffentests verändert wurden. Mittels ultrasensitiver Messmethoden, an deren Entwicklung der Autor maßgebend beteiligt war, lässt sich so die Dynamik des Austausches von CO2 zwischen Atmosphäre, Hydrosphäre und Biosphäre verfolgen.*

Das Element Kohlenstoff (C) kommt in der Natur in Form der zwei stabilen Isotope 12C (99 %) und 13C (ca. 1 %) und Spuren des instabilen 14C (auf 1 Billion 12C -Atome kommt ein 14C ) vor. 14C entsteht fortwährend durch Kernreaktionen in der Atmosphäre (s.u.) und zerfällt mit einer Halbwertszeit von rund 5 700 Jahren. Ebenso wie die stabilen C-Isotope ist 14C über den Kohlenstoffkreislauf in den CO2-Austausch zwischen Atmosphäre, Biosphäre, Hydrosphäre eingebunden. Es wird über die Photosynthese in Pflanzen eingebaut, abgeatmet und verteilt sich über die Nahrungskette in der gesamten Biosphäre.

In den Jahrmillionen und Aber-Jahrmillionen, in denen es produziert wird, hat das Verhältnis von 14C zu 12C praktisch einen Gleichgewichtszustand erreicht – alle belebte Materie auf der Erde weist in etwa dasselbe Isotopenverhältnis von 14C /12C auf. Beim Tod eines Lebewesens hört aber der Austausch mit der Materie auf, zerfallendes 14C wird nicht mehr ersetzt. Darauf beruht die Altersbestimmung mittels 14C (Radiocarbonmethode), die seit langem in der Archäologie aber auch in anderen Gebieten erfolgreich eingesetzt wird: aus dem abnehmenden Isotopenverhältnis von 14C /12C lässt sich auf den Todeszeitpunkt des biologischen Materials schliessen.

Was ist die Bedeutung von 14C im Anthropozän?

Bei einer Halbwertszeit von 5700 Jahren ist der Zerfall von 14C viel zu langsam, als dass er in der erst sehr kurzen Zeitspanne des Anthropozän (für die manche Wissenschaftler etwa 200 Jahre ansetzen) eine Bedeutung für Altersbestimmungen hätte. Es gibt aber zwei menschliche Aktivitäten, die das Isotopenverhältnis von 14C /12C in charakteristischer Weise geändert haben, nämlich:

  • die atmosphärischen Kernwaffentests in den Jahren 1950 bis 1963 und
  • die Emissionen von CO2 durch Verfeuerung fossiler Brennstoffe, die seit ungefähr 1900 andauern.

14C wird damit zu einem außerordentlichen Spurenisotop für Veränderungen der Umwelt im Anthropozän; seine Bestimmung erlaubt eine Vielzahl von Anwendungen, von denen einige klimarelevant sind, andere überraschende Untersuchungen in der Biologie ermöglichen [1].

Der 14C-Bombenpeak

Die Bilder von den oberirdischen Atombombenexplosionen gingen um die Welt; der Pilz, der beim ersten Wasserstoffbombentest der Amerikaner entstand und bis in die Stratosphäre hinaufstieg, wurde berühmt.

Abbildung1. Der erste Wasserstoffbombentest der USA im Pazifik am 1. November 1952. Das Schema rechts zeigt die Entstehung des radioaktiven Kohlenstoffisotops 14C durch Bombardierung des Stickstoffs 14N mit Neutronen, die durch kosmische Strahlung oder bei der Bombenexplosion entstehen. (Bild aus [1])

Wie in Abbildung 1 angedeutet, entsteht 14C auf natürliche Weise, durch die hochenergetische kosmische Strahlung, die permanent auf die Teilchen in der Atmosphäre herabprasselt und deren Atomkerne zerbricht. Dabei werden Neutronen (n) freigesetzt, die den atmosphärischen Stickstoff 14N in 14C umwandeln, wobei auch noch ein Proton (p) freigesetzt wird. Neutronen, die von Kernexplosionen kommen, machen genau dasselbe, sie erzeugen ebenfalls 14C.

Gleichgültig ob 14C durch Bombentests oder kosmische Strahlung generiert wurde, wird es in gleicher Weise in der Atmosphäre zu 14CO2 oxydiert, das sich einerseits gut in der Hydrosphäre löst (man denke an Bier und Sodawasser) und andererseits über die Photosynthese in die Pflanzen und über die Nahrungskette letztlich in die gesamte Biosphäre gelangt. Das führt dazu dass wir alle 14C in unseren Körpern haben, die älteren von uns zusätzlich auch 14C von den Bombentests. Dies kann genutzt werden, um fundamentale Rückschlüsse über die Erneuerungsraten unserer Körperzellen zu ziehen [1].

Zum 14C /12C Gleichgewicht im CO2 unserer Luft vor 1950 liegen Daten aus den Jahresringen von Bäumen vor, deren Alter genau bekannt ist. Diese zeigen, dass in den letzten 4 000 Jahren vor dem Einsetzen der Bombentests nur geringfügige Schwankungen von wenigen Prozent stattgefunden haben. Die Tests haben das atmosphärische 14CO2 aber um 100 Prozent – auf das Doppelte – ansteigen lassen (Abbildung 2).

Abbildung 2. Der 14C Bombenpeak. Als Folge der oberirdischen Bombentests stieg das 14CO2 in der Atmosphäre an: auf das Doppelte in der Nordhalbkugel und um 60 % auf der Südhalbkugel, wo weniger Tests stattfanden. Nach Ende der Tests glichen sich die 14CO2 Werte in beiden Hemisphären sehr schnell an. (Bild aus [1])

Die Älteren unter uns erinnern sich wohl noch daran, dass die Großmächte USA und UdSSR und Großbritannien sich 1963 einigten, die Atomwaffentests in der Atmosphäre einzustellen (die Einigung kam trotz des damals herrschenden, überaus bedrohlichen kalten Krieges zustande – man hat wohl die Folgen des radioaktiven Ausfalls noch mehr gefürchtet). Seit diesem Teststopp fällt das 14C in der Luft nun wieder ab – nicht auf Grund des radioaktiven Zerfalls, der ja in der kurzen Zeitspanne praktisch nicht ins Gewicht fällt, sondern durch die Austauschvorgänge des Kohlenstoffs zwischen Atmosphäre, Biosphäre, Hydrosphäre und Lithosphäre. Ein für die globale Verwendung von 14C sehr wichtiger, aus Abbildung 2 ersichtlicher Befund: die Austauschvorgänge in der Atmosphäre erfolgen sehr rasch: der wesentlich höhere 14CO2 Anstieg auf der Nordhemisphäre (dort fanden ja die Haupttests statt) und der niedrigere Anstieg auf der Südhalbkugel haben sich nach Ende der Tests in wenigen Jahren angeglichen.

Fossile Brennstoffe reduzieren das 14C /12C Verhältnis

Seit dem Beginn der Industrialisierung ist der CO2 -Gehalt der Atmosphäre stetig angestiegen, wobei die Nutzung fossiler Brennstoffe ein wesentlicher Mitverursacher der anthropogenen Emissionen ist. Messungen, die seit fast 60 Jahren auf Hawaii durchgeführt werden, machen es deutlich: das System Erde kann die steigenden CO2 -Emissionen nicht mehr schnell genug aufnehmen/umsetzen: Wenn in der Vegetationsperiode durch Photosynthese Biomasse aufgebaut wird (auf der Nordhalbkugel im Frühjahr), führt dies zu einer nur teilweisen Senkung der vorangegangenen CO2 –Emissionen und damit kommt es zur fortlaufenden Steigerung des CO2 – Gehalts in der Luft. Global bleibt etwa die Hälfte des durch menschliche Aktivitäten emittierten CO2 in der Luft (pro Jahr steigt dadurch der CO2-Gehalt um etwa 0.5 %).

Nun sind fossile Brennstoffe bereits so alt, dass alles ursprünglich darin enthaltene 14C schon zerfallen ist. Bei der Verfeuerung dieser Brennstoffe reduzieren wir damit das 14C /12C-Verhältnis und dies nicht nur in der Atmosphäre. Es handelt sich ja um ein dynamisches System, in welchem CO2 ständig zwischen Atmosphäre, Biosphäre und Hydrosphäre ausgetauscht wird. Mit hochpräzisen Bestimmungen des 14C/12C-Verhältnis kann man diese Austauschprozesse verfolgen: man findet beispielsweise, dass etwa ein Fünftel des atmosphärischen CO2 jährlich in die Biosphäre und Hydrosphäre geht und wieder zurückkommt. Man untersucht auch das Eindringen von CO2 in die Tiefe des Ozeans und damit die Dynamik der Meeresströmungen (dies soll weiter unten beschrieben werden) und bestimmt auch die Anteile und den Transport von fossilen Brennstoffen in Aerosolen.

Je nachdem wie sich der CO2–Gehalt in der Atmosphäre weiter entwickeln wird (der 14C-Überschuss vom Bombenpeak beträgt heute nur noch wenige Prozent), kann dies zu einem Problem für die Altersbestimmung mittels 14C werden: ein durch den fossilen Eintrag stark reduziertes 14C /12C-Verhältnis kann ein wesentlich höheres Alter einer Probe vortäuschen.

Höchstempfindliche 14C-Bestimmung mit der „Atomzählmaschine“

Vor 70 Jahren hat Williard F. Libby den Grundstein für die Altersbestimmung mittels der Radiocarbonmethode gelegt (dafür wurde er 1960 mit dem Nobelpreis für Chemie ausgezeichnet), wobei 14C über seinen radioaktiven Zerfall (Beta-Zerfall) gemessen wurde. Dies war mühsam und man brauchte dazu ziemlich große Probemengen: wegen der langen Halbwertszeit von 5 700 Jahren zerfällt von den 60 Millionen 14C –Atomen, die in 1 mg reinem, modernem Kohlenstoff enthalten sind, bloß etwa 1 Atom in der Stunde.

In den späten 1970er Jahren kam eine neue Methode- die Beschleunigermassenspektrometrie (AMS = Accelerator Mass Spectrometry) - auf, die eine Revolution in der 14C-Messung bedeutete. Seitdem lassen sich die Kohlenstoffisotope aufgrund ihrer unterschiedlichen Massen (diese sind durch je 6 Protonen aber 6, 7 oder 8 Neutronen bestimmt) voneinander und auch vom 14-Stickstoff (besteht aus 7 Protonen und 7 Neutronen) separieren. Anstatt die wenigen radioaktiven Zerfälle zu zählen, ist es nun möglich 14C –Atome direkt zu zählen. Von den oben genannten 60 Millionen 14C –Atomen je mg Kohlenstoff können wir mit der AMS 1,2 Millionen in 1 Stunde zählen. Gegenüber der Zählung der radioaktiven Zerfälle bedeutet dies eine Steigerung der Nachweisempfindlichkeit um eine Million. Da die früher notwendige Probengröße von mehreren Gramm Kohlenstoff auf Milligramme, ja sogar Mikrogramme reduziert werden kann, eröffnen sich völlig neue Anwendungsmöglichkeiten.

VERA (Vienna Environmental Research Accelerator)

Die Anlagen, mit denen man derartige Atomzählungen ausführen kann, sind natürlich wesentlich komplizierter als die Detektoren für radioaktive Strahlung (ursprünglich Geiger-Zählrohre). Eine derartige Anlage – VERA - steht an der Universität in Wien, misst stolze 200 m² und feiert heuer bereits ihren 20. Geburtstag (Abbildung 3).

Abbildung 3. Stark vereinfachtes Schema der Beschleunigermassenspektrometrie (AMS). Das Prinzip der Massenspektrometrie, erweitert um einen Beschleuniger und mehrfache Ionenstrahlanalysen, ermöglicht die Separierung und Quantifzierung von 0,00000000012 % 14C aus wenigen mg bis hin zu Mikrogramm modernem Kohlenstoff. Darunter: VERA - der Tandem-Beschleuniger. Ausschnitt aus der 200 m² grossen Anlage an der Universität Wien.

Wir messen hier nicht nur 14C, sondern auch viele andere natürlich vorkommende und vom Menschen erzeugte Isotope, auch solche, die über Radioaktivitätsmessungen nicht nachweisbar wären. Eine unserer wichtigen Anwendungen ist übrigens die Trennung des 239-Plutonium vom 240-Plutonium: das Verhältnis der beiden Isotope zueinander zeigt uns, ob das Material aus einem Kernreaktor kommt oder Atombombenmaterial ist.

Weltweit gibt es heute etwa 100 derartige „Atomzählmaschinen“, etwa die Hälfte davon wird ausschließlich zur 14C –Bestimmung eingesetzt. Die modernsten derartigen Systeme sind auf Grund technologischer Verbesserungen in ihren Dimensionen stark geschrumpft. Das derzeit kompakteste System, das „Mini Carbon Dating System“ – MICADAS – wurde an der ETH Zürich entwickelt und nimmt bei gleicher Nachweisempfindlichkeit wie VERA nur mehr rund 7.5 m² Fläche ein. Interessanterweise wird eine so kleine Anlage von einer amerikanischen Pharmafirma eingesetzt um mit 14C markierte Medikamente am Menschen auszutesten. Infolge der enormen Nachweisempfindlichkeit können derart niedrige Radioaktivitäten eingesetzt werden, dass keine zusätzliche Strahlenbelastung entsteht. In diesem Zusammenhang ist interessant zu erwähnen, dass der natürliche 14C-Gehalt im Menschen zu 3 000 bis 4 000 radioaktiven Zerfällen pro Sekunde führt (je nach Gewicht enthält der menschliche Körper 12 bis 16 kg organischen Kohlenstoff). Da diese Zerfälle das ganze Leben hindurch stattfinden, haben wir offenbar geeignete Reparaturmechanismen im Körper entwickelt, die mit den dadurch verursachten Strahlenschäden umgehen können.

Die Untersuchung des Anthropozän mittels der 14C-Sprache

Wie eingangs beschrieben verändern anthropogene Aktivitäten (Verfeuerung fossiler Brennstoffe, atmosphärische Kernwaffentests) das 14C /12C-Verhältnis im Ökosystem Erde, da ja 14C über den CO2‐Kreislauf in den Austausch zwischen Atmosphäre, Biosphäre und Hydrosphäre eingebunden ist. Die rasche und hochsensitive Bestimmung des 14C /12C-Verhältnisses mittels AMS, die auch Hochdurchsatzmessungen erlaubt, zeigt die Dynamik sowohl der Transportprozesse in den einzelnen Geosphären und als auch des Austausches zwischen diesen auf. Auf Grund der minimal benötigten Probenmengen gelingen (nahezu) zerstörungsfreie Untersuchungen auch heikelster Proben.

Eine Reihe dieser, für das Anthropozän relevanter, Forschungsrichtungen ist in Abbildung 4 dargestellt.

Abbildung 4. 14C –Bestimmungen mittels Beschleunigermassenspektrometrie (AMS) zur Erfassung anthropogener Einwirkungen auf alle Bereiche der Geosphäre.

Von diesen Forschungsrichtungen sollen hier zwei besonders hervorgehoben werden: i) die Datierung von Körperzellen an Hand des 14C-Bombenpeaks und ii) die Erfassung der Strömungen im Ozean.

Zur Datierung von Körperzellen

Da alle in den letzten 50 Jahren lebenden Menschen mit dem 14C-Bombenpeak „markiert“ wurden, zeigt das 14C /12C-Verhältnis in der DNA von Körperzellen an, wann sich diese das letzte Mal geteilt haben. Die Kenntnis der Erneuerungsrate von Zellen ist nicht nur für die (regenerative) Medizin von fundamentaler Bedeutung. Zu diesem Thema wurde in diesem Blog bereits berichtet [1].

Strömungen in den Weltmeeren und das Klima

Ozeane bedecken ⅔ unserer Erdoberfläche; sie transportieren Wärme von den Gebieten am Äquator in die höheren Breiten, haben damit enormen Einfluss auf das Klima und geben unserer Erde das heutige Aussehen. Um die weitere, globale Entwicklung des Klimas modellieren und prognostizieren zu können, ist ein Verstehen der Strömungen in den Ozeanen – und zwar in drei Dimensionen – äußerst wichtig.

Messungen des 14C /12C-Verhältnis an den Oberflächen und in den Tiefen der Ozeane haben bereits in den frühen 1970er Jahren begonnen, noch bevor es die AMS Technik gab. Man hat an repräsentativen Stellen der Ozeane jeweils an der Oberfläche und in 3 000 m Tiefe gemessen, wobei man für eine einzige 14C –Bestimmung 250 l Wasser benötigte. Aus den Altersunterschieden von Oberflächen- zu Tiefenwässern (im Atlantik 250 Jahre, im Pazifik bis zu 3 000 Jahre) konnte ein erstes, einfaches Bild davon entworfen werden, was mit den Wassermengen im Ozean geschieht. Dieses als „Großes Ozeanisches Förderband (Great Ocean Conwayer)“ benannte System zeigt Zirkulationsströme, die alle Ozeane miteinander verbinden: das warme Wasser, das in den äquatorialen Ebenen an der Oberfläche gebildet wird, strömt nach Norden, kühlt sich dort ab, wird dichter, sinkt in die Tiefe und kommt im indischen Ozean und im Pazifik wieder an die Oberfläche (Abbildung 5).

Abbildung 5. Das Große Ozeanische Förderband. Die kalten Tiefenströmungen sind blau, die warmen Oberflächenströmungen rot eingezeichnet. (modifiziert nach: http://oceanservice.noaa.gov/education/tutorial_currents/05conveyor2.html)

Dieses Bild verbessert sich seit der Anwendung der AMS-Technik: für eine 14C –Bestimmung wird nur ein halber Liter Wasser benötigt und Hochdurchsatzverfahren, beispielsweise an der National Ocean Sciences AMS-Anlage am Woods Hole Oceanographic Institution (Boston) erlauben tausende und abertausende Messungen. Das international Projekt “World Ocean Circulation Experiments (WOCE)[2]” hat über 13 000 Wasserproben der großen Weltmeere auf 14C analysiert und daraus eine ungeheure Fülle an Informationen über Meeresströmungen erhalten. Um diese in Modellrechnungen zum Treibhauseffekt/Klimawandel einfließen zu lassen, müssen natürlich auch die Anteile der durch fossile Brennstoffe verringerten 14CO2-Gehalte berücksichtigt werden.

Fazit

Die rasche und hochsensitive Bestimmung des 14C /12C-Verhältnisses mittels AMS erlaubt es unsere Umwelt und unseren Organismus in bisher nicht gekannter Weise zu erforschen und anthropogene Einwirkungen zu erfassen.


* Einen Vortrag mit ähnlichem Inhalt hat Walter Kutschera anlässlich des Symposiums der Kommission für Geowissenschaften der ÖAW „Anthropozän. Ein neues Erdzeitalter?“ am 7. Dezember 2015 gehalten. 


[1] Walter Kutschera (04.10.2013): The Ugly and the Beautiful — Datierung menschlicher DNA mit Hilfe des C-14-Atombombenpeaks. http://www.scienceblog.at/ugly-and-beautiful-%E2%80%94-datierung-menschl....

[2] Ocean Circulation and Climate. World Ocean Climate Experiment. WOCE Report No. 154/97. http://www.nodc.noaa.gov/woce/wdiu/wocedocs/brochure97.pdf (free access)


Weiterführende Links

Zur Radiocarbon-Datierung:

Walter Kutschera: Das Sortieren von Atomen „One by One“. Physik in unserer Zeit / 31. Jahrg. 2000 / Nr. 5, 203-208. http://www.uni-ulm.de/fileadmin/website_uni_ulm/nawi.inst.220/lehre/Atom... (free download)

MICADAS: präzise Radiocarbonmessungen (Universität Bern) Video 3:26 min. https://www.youtube.com/watch?v=UVtaAjVdzSc

C14-Datierung / Radiokarbonmethode, Einführung & Schritte Video 16:13 min; https://www.youtube.com/watch?v=5KaKDPDYRmA

Harald Lesch: Wie bestimmt man das Alter von Gesteinen? Youtube Video 14:33 min http://www.youtube.com/watch?v=OqVLyt06zds

How Does Radiocarbon Dating Work? - Instant Egghead #28. Video 2:0 min (englisch) https://www.youtube.com/watch?v=phZeE7Att_s

Carbon Dating: (How) Does It Work? Video 10:59 min (englisch) https://www.youtube.com/watch?v=udkQwW6aLik

Zu Ozean/Strömungen/Klima

NASA | The Ocean: A Driving Force for Weather and Climate. Video 6 min. (englisch)https://www.youtube.com/watch?v=6vgvTeuoDWY

Peter Lemke (06.11.2015): Klimaschwankungen, Klimawandel – wie geht es weiter. http://www.scienceblog.at/klimaschwankungen-klimawandel-wie-geht-es-weiter#.

World Ocean Reviews: http://worldoceanreview.com/ (Hsg. :„Ozean der Zukunft“- Kieler Exzellenzcluster, International Ocean Institute (IOI), „mare“ ; freier download). Bis jetzt sind sehr empfehlenswerte 4 Ausgaben erschienen, die umfassend und profund über den Zustand der Weltmeere und die Wirkungszusammenhänge zwischen dem Ozean und ökologischen, ökonomischen und gesellschaftspolitischen Bedingungen berichten.

1. Mit den Meeren leben – ein Bericht über den Zustand der Weltmeere. http://worldoceanreview.com/wor-1/
2. Die Zukunft der Fische – die Fischerei der Zukunft. http://worldoceanreview.com/wor-2/
3. Rohstoffe aus dem Meer – Chancen und Risiken. http://worldoceanreview.com/wor-3-uebersicht/
4. Der nachhaltige Umgang mit unseren Meeren – von der Idee zur Strategie. http://worldoceanreview.com/wor-4-uebersicht/


 

inge Fri, 22.01.2016 - 08:51

Die Evolution des Geruchssinnes bei Insekten

Die Evolution des Geruchssinnes bei Insekten

Fr, 15.01.2016 - 08:55 — Ewald Grosse-Wilde & Bill S.Hansson

Ewald Grosse-WildeBill S. HanssonIcon BiologieDer Geruchssinn ist für die meisten Insekten von zentraler Bedeutung. Wie dieser das Verhalten von Insekten steuert und auf welchen neurobiologischen Grundlagen dies beruht, wird am Max-Planck Institut für Chemische Ökologie (Jena) sowohl aus einer funktionellen als auch aus einer evolutionstheoretischen Perspektive untersucht. Bisher hatte man angenommen, dass die wichtigste, dem Geruchsinn zugrunde liegende Rezeptorfamilie, die sogenannten olfaktorischen Rezeptoren, in der Evolution im Zuge des Landganges entstanden ist. Neueste Untersuchungen der Autoren an flügellosen Insekten zeigen nun aber, dass dies nicht der Fall ist. Wahrscheinlich war der entscheidende Faktor nicht der Landgang, sondern der Flug: Fliegende Insekten müssen Duftfahnen in weit höherer Geschwindigkeit auflösen können, wofür die älteren Rezeptorfamilien wahrscheinlich nicht ausreichten *

Der Geruchssinn ist für die meisten Insekten von zentraler Bedeutung. Bisher hat man angenommen, dass die wichtigste, ihm zugrunde liegende Rezeptorfamilie, die sogenannten olfaktorischen Rezeptoren, in der Evolution im Zuge des Landganges entstanden ist. Neueste Untersuchungen an flügellosen Insekten haben nun aber gezeigt, dass dies nicht der Fall ist. Wahrscheinlich war der entscheidende Faktor nicht der Landgang, sondern der Flug: Fliegende Insekten müssen Duftfahnen in weit höherer Geschwindigkeit auflösen können, wofür die älteren Rezeptorfamilien wahrscheinlich nicht ausreichten.

Der Geruchssinn – ein Wunder der Evolution

Der Geruchssinn ermöglicht es Tieren, die chemischen Eigenschaften ihrer Umgebung aus der Distanz wahrzunehmen. Dadurch ist es unter anderem möglich, Beutetiere oder Blütenpflanzen aufzuspüren, faulende Futterquellen zu vermeiden oder auch – über sogenannte Pheromone – mit Artgenossen zu kommunizieren, zum Beispiel bei der Partnerwahl.

Aufgrund der Vielseitigkeit des Geruchssinnes ist dieser häufig an einer Vielzahl wichtiger Verhaltensweisen beteiligt. Dabei ist interessant, dass die Bedeutung bestimmter Duftquellen je nach Tierart stark wechselt. So ist z. B. verwesendes Fleisch sehr wichtig für einen Aasfresser, aber ohne besondere Bedeutung für eine Honigbiene und gar abstoßend für den Menschen. Dementsprechend gibt es sehr starke Unterschiede zwischen den Arten, sowohl bezüglich der Detektion von Duftmolekülen als auch bei deren Interpretation.

Zur Detektion werden je nach Art einige Dutzend bis über tausend Rezeptoren eingesetzt, wobei die große Zahl auch im Vergleich zu anderen Sinnen – das Sehen beim Menschen benötigt nur drei – schon die Sonderstellung des Geruchsinnes verdeutlicht.

Olfaktorische Rezeptoren – eine Anpassung an das Leben an Land?

Besonders wichtig ist der Geruchssinn für viele Insektenarten, wo er häufig sogar wichtiger ist als die visuelle Wahrnehmung. In der Insektenantenne befinden sich Neuronen, in deren Membran Rezeptorproteine sitzen. Dabei werden zwei wichtige Rezeptortypen unterschieden (Abbildung 1).

Abbildung 1: Schematische Darstellung der Geruchsrezeptorproteine von Insekten. Oben: Der Komplex von olfaktorischen Rezeptoren mit deren Korezeptor: in braun der eigentliche Duftstoff detektierende (olfaktorische) Rezeptor. Dieser bildet mit dem Korezeptor (gelb) einen funktionellen Komplex in der Nervenzellmembran. Unten: Ionotrope Rezeptoren. Diese liegen ebenfalls in Komplexen aus ionotropen Rezeptoren (blau) und Korezeptoren (grün) vor, allerdings sind diese Proteine deutlich anders strukturiert als die olfaktorischen Rezeptoren; sie sind zum Beispiel anders in die Membran eingebettet, nämlich mit drei Transmembran-Domänen statt sieben. Ebenfalls dargestellt sind die für ionotrope Rezeptoren typischen Domänen außerhalb der Zelle, die den olfaktorischen Rezeptoren ganz fehlen. Abgeändert aus [7]. © Max-Planck-Institut für chemische Ökologie/Wicher

Zum einen gibt es antennale ionotrope Rezeptoren (IR):

Sie sind evolutionär viel älter als Insekten und dort in einer geringen Anzahl vorhanden. Neben Insekten kommen sie unter anderem auch in Schnecken vor [1].

Von besonderer Bedeutung ist der zweite Typ von Rezeptoren, die sogenannten olfaktorischen Rezeptoren (OR).

Zuerst wurden diese in der Taufliege Drosophila melanogaster entdeckt, wo es etwa 60 dieser Rezeptoren gibt. Dabei weisen diese Rezeptoren mehrere einzigartige Merkmale auf:

  • Sie sind von außerordentlicher Variabilität, die ihrer Aufgabe entspricht, eine große Anzahl chemisch sehr unterschiedlicher Duftstoffe zu binden.
  • Sie weisen einen eigenen Korezeptor auf, ein Protein das mit dem eigentlichen Rezeptor im Komplex vorliegt. Dieser Korezeptor dient der Signalweiterleitung und Signalverstärkung; er agiert im Komplex mit dem eigentlichen Rezeptor. Die Bindung eines Duftstoffes an den olfaktorischen Rezeptor aktiviert eine intrazelluläre Signalkaskade und kann bei hinreichender Konzentration den durch den Rezeptor gebildeten Kanal öffnen, durch den ein Ionenstrom fließt [2]. Die intrazellulären Signalprozesse können die Empfindlichkeit erhöhen, indem der Korezeptor aktiviert wird [3]. Der Korezeptor ist im Gegensatz zu den eigentlichen Rezeptoren stark konserviert; es gibt einen Korezeptor in jeder Insektenart und zwischen den Arten sind die Korezeptor-Proteine sehr ähnlich [4].

In den Jahren nach der ursprünglichen Entdeckung der olfaktorischen Rezeptoren wurden die zugehörigen Gene in einer Vielzahl von Insekten gefunden. Schnell stellte man fest, dass diese Rezeptoren nur in Insekten zu finden waren und nicht in anderen Kerbtieren, wie z. B. dem Wasserfloh Daphnia pulex. Es wurde die Hypothese aufgestellt, dass die olfaktorischen Rezeptoren im Verlauf der Evolution entstanden sind, als die Vorfahren der heutigen Insekten an Land gegangen sind [5]. Da Luft, im Vergleich zu Wasser, ganz andere Stoffe aufnehmen und deutlich schneller transportieren kann, wurde angenommen, dass die olfaktorischen Rezeptoren vor allem notwendig wurden, um der Herausforderung durch diese stark veränderte Verfügbarkeit an Duftmolekülen zu begegnen.

Flügellose Insekten…

Die Abteilung Evolutionäre Neuroethologie hat in Zusammenarbeit mit der Abteilung Entomologie sowie der Universität Gießen jetzt diese Hypothese überprüfen können. Es wurden moderne physiologische und molekularbiologische Methoden eingesetzt, um basale flügellose Insekten zu untersuchen. Dabei handelte es sich zum einen um Felsenspringer der Art Lepismachilis y-signata, zum anderen um das Ofenfischchen Thermobia domestica, einen Verwandten des Silberfischchens (Abbildung 2). Diese beiden Gruppen, Felsenspringer und Fischchen, haben sich vor mehr als 350 Millionen Jahren von den anderen Insekten getrennt, die Felsenspringer dabei etwas früher. Im Gegensatz zu anderen Insekten haben beide keine Flügel, können also nicht fliegen.

Abbildung 2: Das Ofenfischchen Thermobia domestica. Diese flügellosen Insekten weisen keine olfaktorischen Rezeptoren auf, was die Vermutung unterstützt, dass diese Rezeptoren erst zusammen mit der Entstehung fliegender Insektenarten entstanden sind. © Max-Planck-Institut für chemische Ökologie/Schroll

…und ihr Geruchssinn

Die Forscher haben zeigen können, dass beide Arten etwa ein Dutzend funktionell unterschiedliche olfaktorische Neuronentypen auf der Antenne besitzen. Dies ist viel weniger als bei bisher untersuchten geflügelten Insektenarten, welche meist 50 bis 60, in bestimmten Fällen mehrere hundert funktionell unterschiedliche Neuronentypen aufweisen. Weiterhin konnten bei beiden Arten nur antennale ionotrope Rezeptoren (IR) gefunden werden, welche im Felsenspringer in wahrscheinlich allen olfaktorischen Neuronen aktiv sind. Olfaktorische Rezeptoren wurden nicht gefunden. Anscheinend ist der Geruchssinn dieser Arten allein über antennale ionotrope Rezeptoren realisiert.

Dies legt nahe, dass die gemeinsamen Vorfahren beider Gruppen ebenfalls keine olfaktorischen Rezeptoren besaßen. Wahrscheinlich sind die olfaktorischen Rezeptoren erst sehr lange nach dem Landgang erschienen, vermutlich zu der Zeit, als Insekten nicht das Land sondern die Luft eroberten, also anfingen zu fliegen [6]. In der Luft liegen Duftstoffe in Filamenten vor, ähnlich wie Zigarettenrauch. Die Erkennung der Richtung, aus der der Duft kommt, erfolgt also durch Integration eines Signales, das in einem bestimmten Takt auf der Antenne ankommt. Bei fliegenden Tieren ist der Takt schneller und aufgrund der hohen Geschwindigkeit sind niedriger konzentrierte Düfte von weiter entfernten Quellen interessanter als für nicht-fliegende Tiere.

Die Forscher haben allerdings auch eine Überraschung erlebt: Das Ofenfischchen besitzt, in großem Kontrast zu anderen Insekten, zwar keine olfaktorischen Rezeptoren, aber gleich mehrere Proteine, die stark dem Korezeptor ähneln. Diese Ähnlichkeit ist sogar sehr hoch, dennoch fehlen den meisten dieser Proteine einzelne funktionelle Bereiche eines klassischen olfaktorischen Korezeptors. Dies betrifft vor allem Bereiche, die in den geflügelten Insekten im Zusammenspiel mit dem eigentlichen olfaktorischen Rezeptor notwendig sind. Die Forscher spekulieren daher, dass der Korezeptor nicht zusammen mit den olfaktorischen Rezeptoren entstanden ist, sondern ursprünglich einem anderen Zweck diente und erst in den geflügelten Insekten zu den olfaktorischen Rezeptoren fand und mit ihnen einen Komplex einging. In den Fischchen gingen die Korezeptoren einen anderen Weg, den es noch aufzuklären gilt [6].

Fazit

Für die meisten Insekten ist der Geruchssinn überaus wichtig. Die ihm zugrunde liegende wichtigste Rezeptorfamilie, die olfaktorischen Rezeptoren, sind aber anscheinend nicht in den ersten, flügellosen Insekten entstanden. Sie stellen also keineswegs eine Anpassung an den Landgang dar. Vielmehr sind sie wahrscheinlich notwendig geworden, als fliegende Insekten Düfte auch bei hoher Geschwindigkeit wahrnehmen mussten.


* Der gleichnamige, im Jahrbuch der Max-Planck Gesellschaft 2015 erschienene, Artikel http://www.mpg.de/8878225/MPICOE_JB_20151?c=9262520 wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert. Die größtenteils nicht frei zugänglichen Literaturstellen können auf Anfrage zugesandt werden.


Literaturhinweise

  1. Croset, V. et al., Ancient Protostome Origin of Chemosensory Ionotropic Glutamate Receptors and the Evolution of Insect Taste and Olfaction. PLoS Genetics 6, e1001064 (2010)
  2. Touhara, K.; Vosshall, L. B. Sensing odorants and pheromones with chemosensory receptors Annual Review Physiology 71, 307–32 (2009)
  3. Wicher, D. Sensory receptors-design principles revisited. Frontiers in Cellular Neuroscience 7, 1 (2013)
  4. Krieger, J. et al. A candidate olfactory receptor subtype highly conserved across different insect orders. Journal of Comparative Physiology A 189, 519–526 (2003)
  5. Robertson, H. M. et al., Molecular evolution of the insect chemoreceptor gene superfamily in Drosophila melanogaster. Proceedings of the National Academy of Sciences USA 100 Suppl. 2, 14537–14342 (2003)
  6. Missbach, C. et al. Evolution of insect olfactory receptors. eLife 3:e02115 (2014)
  7. Croset, V. et al. Ancient Protostome Origin of Chemosensory Ionotropic Glutamate Receptors and the Evolution of Insect Taste and Olfaction. PLoS Genetics 6, e1001064 (2010)

Weiterführende Links

Im Scienceblog sind bereits zahlreiche Artikel über Sinneswahrnehmungen erschienen, die unter: Themenschwerpunkt: Sinneswahrnehmung — Unser Bild der Aussenwelt gelistet sind.

Passend zum Thema des gegenwärtigen Artikels:

Videos:


 

inge Fri, 15.01.2016 - 08:55

Klimawandel und Änderungen der Wasserressourcen gefährden die weltweite Stromerzeugung

Klimawandel und Änderungen der Wasserressourcen gefährden die weltweite Stromerzeugung

Fr, 08.01.2016 - 10:44 — IIASA

IIASA LogoIcon GeowissenschaftenDie Auswirkungen des Klimawandels auf Flüsse und Ströme könnten die Kapazitäten der Stromerzeugung weltweit enorm reduzieren. Wissenschafter am Internationalen Institut für Angewandte Systemanalyse (IIASA) und an der Universität Wageningen haben zum ersten Mal die Zusammenhänge zwischen Klimawandel, Wasserressourcen und Stromerzeugung auf globaler Ebene untersucht (basierend auf Daten zu mehr als 24 000 Wasserkraftwerken und 1400 thermoelektrischen Kraftwerken). Die eben erschienene Studie ruft zu verstärkten Anpassungsmaßnahmen an die Veränderungen auf, um die Energieversorgung in Zukunft zu gewährleisten.*

Die Auswirkungen des Klimawandels und die damit einhergehenden Änderungen der Wasserressourcen könnten im Zeitraum 2040 -2069 die Stromerzeugungskapazität von mehr als 60 % der globalen Kraftwerke reduzieren. Zu diesem Schluss kommt eine Studie aus der Gruppe um Michelle van Vliet (IIASA und Universität Wageningen), die eben im Journal Nature Climate Change erschienen ist[1]. Anpassungsmaßnahmen, die auf die Steigerung von Wirkungsgrad und Flexibilität der Kraftwerke abzielen, könnten diese Reduktion aber wesentlich abschwächen.

Wasserkraftwerke ebenso wieWärmekraftwerke – Kraftwerke, die thermische Energie aus fossilen Brennstoffen, Biomasse oder Kernkraft in Strom umwandeln – sind auf das Wasser aus Flüssen und Strömen angewiesen. Bei Wärmekraftwerken spielt zudem die Temperatur des Kühlwassers eine ganz wesentliche Rolle (Abbildung 1).

In Summe stellen heute Wasser- und Wärmekraftwerke 98 % der globalen Stromproduktion bereit, wobei Wärmekraftwerke in den meisten Regionen der Erde als Energielieferanten dominieren. Dies wird wahrscheinlich auch das 21. Jahrhundert über so bleiben, auch wenn Solar- und Windkraftwerke rasch zunehmen.

Abbildung 1. Wasserkraftwerke (oben) und ebenso Wärmekraftwerke (unten) sind auf Fließgewässer angewiesen. (Bilder: Wikipedia, gemeinfrei)

Modellprojektionen zeigen, dass der Klimawandel Auswirkungen auf die Verfügbarkeit der Wasserressourcen haben wird und in vielen Regionen der Erde zur Erhöhung der Wassertemperatur führen wird.

Bereits in einer früheren Untersuchung, die sich auf Europa und die USA bezog, hatten van Vliet et al. darauf hingewiesen: der mit dem Klimawandel einhergehende Wassermangel in den Sommermonaten und die höheren Wassertemperaturen könnten die Energieversorgung aus Wärmekraftwerken entscheidend reduzieren [2].

Die neue Studie basiert nun auf einem hydrologischen Modell, dem weltweite Daten von 24 515 Wasserkraftwerken und 1427 thermoelektrischen Kraftwerken zugrundeliegen. „Es ist das erste Mal, dass die Zusammenhänge zwischen Klimawandel, Wasserressourcen und Stromerzeugung auf globaler Ebene hier untersucht werden. Wir zeigen ganz klar, dass Kraftwerke nicht nur zum Klimawandel beitragen, sondern, dass sie durch diesen auch massiv beeinträchtigt werden können“ sagt der Direktor des IIASA Energie Programms, der auch Koautor der Studie ist.

Zu den gefährdeten Regionen zählen insbesondere die USA, das südliche Südamerika, Südafrika, Zentral- und Südeuropa, Südostasien und der Süden Australiens: für diese Regionen werden Rückgänge der mittleren jährlichen Flussraten prognostiziert und gleichzeitig starke Anstiege der Wassertemperatur. Dies verringert das Potential der Stromerzeugung sowohl für Wasserkraftwerke als auch für Wärmekraftwerke.

Die Studie untersucht auch die möglichen Auswirkungen von Anpassungsmaßnahmen wie etwa von technologischen Entwicklungen, die den Wirkungsgrad der Kraftwerke erhöhen, von einem Wechsel von Kohlekraftwerken zu mit Gas betriebenen Kraftwerken oder auch von einem Wechsel von Süßwasser als Kühlmittel zur Luftkühlung oder Meereswasserkühlung für Anlagen, die an Küsten liegen.

„Wir zeigen, dass technologische Entwicklungen zur Steigerung des Wirkungsgrads von Anlagen und Änderungen in deren Kühlsystemen die Störbarkeit durch Wassermangel in den meisten Regionen herabsetzen können. Verbessertes, sektorübergreifendes Wassermanagement in Dürrezeiten ist natürlich auch sehr wichtig.“ Und Van Vliet schliesst: „Um die Wasser – und Energieversorgung auch in den nächsten Dekaden sicherzustellen, wird der Elektrizitätssektor vermehrt Strategien zur Anpassung an den Klimawandel ins Auge fassen müssen, zusätzlich zu den Maßnahmen diesen abzuschwächen.“


* Die IIASA-Presseaussendung “ Worldwide electricity production vulnerable to climate and water resource change ” vom 4. Jänner 2016 wurde von der Redaktion aus dem Englischen übersetzt und geringfügig für den Blog adaptiert. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung ihrer Nachrichten in unserem Blog einverstanden. Die Abbildungen wurden von der Redaktion zugefügt .

[1] Van Vliet MTH, Wiberg D, Leduc S, Riahi K, (2016). Power-generation system vulnerability and adaptation to changes in climate and water resources. Nature Climate Change. https://doi.org/10.1038/NCLIMATE2903

[2] Van Vliet MTH, Yearsley JR, Fulco L, Vögele S, Lettenmaier DP and Kabat P.( 2012). Vulnerability of US and European electricity supply to climate change. Nature Climate Change, https://doi.org/10.1038/NCLIMATE1546

inge Fri, 08.01.2016 - 10:44

Wer zieht die Grenze zwischen Gesundheit und Krankheit? Zur 2016 stattfindenden Konferenz über die Vermeidung von Überdiagnosen

Wer zieht die Grenze zwischen Gesundheit und Krankheit? Zur 2016 stattfindenden Konferenz über die Vermeidung von Überdiagnosen

Fr, 01.01.2016 - 06:31 — Redaktion

RedaktionIcon MedizinDank hochsensitiver medizinischer Testmethoden zeigen Routinetests häufig Anomalitäten, die aber in den meisten Fällen auch langfristig kein Risiko für den Patienten bedeuten –weder führen sie zu Krankheitssymptomen, noch zu einem vorzeitigen Tod. Dennoch werden Krankheitsdiagnosen gestellt – Überdiagnosen -, die nutzlose Tests und Behandlungen inklusive Nebenwirkungen nach sich ziehen. Überdiagnosen und ihre Vermeidung sind ein junges, sehr rasch wachsendes Forschungsgebiet. Ein in PLOS Blogs veröffentlichtes Interview* mit Vertretern des wissenschaftlichen Komitees der 2016 stattfindenden Konferenz „Preventing Overdiagnosis“ schildert die zu behandelnden Fragen und Zielsetzungen dieser Tagung.

Zum Jahreswechsel wünscht man sich üblicherweise alles Gute und insbesondere Gesundheit für das kommende Jahr. Explizit betrachtet bedeutet das Letztere Prävention und Heilung von Krankheiten. Dies wünscht auch der ScienceBlog seinen Lesern, schließt hier aber noch die sogenannte Quartäre Prävention mit ein: die Vermeidung von Überdiagnosen, einer daraus resultierenden Übermedikation und damit verbundener Nebenwirkungen.

Was bedeutet Überdiagnose?

Die medizinische Diagnostik verfügt über eine ungeheure Fülle von Tests, die immer sensitiver werden, um Krankheiten bereits in ihren frühesten Phasen detektieren zu können. Dies bringt in vielen Fällen Erfolge. Bei Routinetests – beispielsweise bei großangelegten Vorsorgeuntersuchungen - führt dies aber noch viel häufiger dazu, dass Anomalitäten festgestellt werden, welche aber auch langfristig nicht mit einem wesentlichen Gesundheitsrisiko verbunden sind - weder führen sie zu Krankheitssymptomen, noch zu einem vorzeitigen Tod. Wo liegt nun die Grenze zwischen gesund und krank? Der Arzt fürchtet nun eine Krankheit nicht rechtzeitig zu erkennen, der Patient ist verunsichert und möchte eine Absicherung. Wie und wieweit sollte weiter abgeklärt werden, behandelt werden? Durch Tests und Behandlungen, die dem symptomlosen Individuum kaum nützen, ihm aber schaden können?

Überdiagnosen führen dazu, dass Krankheiten ohne ausreichende Befunde angenommen werden, dass bei zu geringem klinischem Verdacht zu viele Befunde erhoben werden. Überdiagnosen gewinnen in unseren Gesellschaften mehr und mehr an Bedeutung. Für Überdiagnosen gibt es bereits überwältigende Evidenz: sie reichen u.a. vom Aufmerksamskeitsdefizit-Syndrom bei Kindern, über Brustkrebs, Prostatakrebs, hohem Bludruck bis hin zur viel zu häufig konstatierten Depression in der Geriatrie. Menschen erhalten so das Label an einer häufigen Erkrankung zu leiden, und es werden dann übliche Behandlungsschemata verordnet, die dem Individuum eigentlich mehr schaden als nützen.

Das Problem der Überdiagnosen wurde in der Medizin erkannt. Die Zahl der Studien zu diesem Thema nimmt enorm zu: unter dem Stichwort „Overdiagnosis“ finden sich in der größten medizinischen Datenbank PubMed (US, National Library of Medicine) bereits über 8000 Publikationen (Abbildung 1).

Abbildung1. Overdiagnosis ist ein”hot topic” in der Medizin. Insgesamt verzeichnet PubMed unter dem Stichwort overdiagnosis 8132 Publikationen; deren Zahl steigt seit 1995 rasant an. (http://www.ncbi.nlm.nih.gov/pubmed/?term=overdiagnosis)

Internationale Konferenzen zum Thema Vermeidung von Überdiagnosen

Seit 2013 richtet ein international zusammengesetztes Board eine jährliche Konferenz zum Thema Vermeidung von Überdiagnosen aus. Diese Konferenzen setzen sich zum Ziel Überdiagnosen zu definieren, ihre Ursachen und Konsequenzen zu analysieren und Möglichkeiten zu ihrer Vermeidung zu suchen. Es sind dies Tagungen, die von der Industrie weder direkt noch indirekt gefördert werden dürfen. Zu den vergangenen Tagungen gibt es reichlich Unterlagen und Videos der Hauptvorträge, die online frei verfügbar sind (http://www.preventingoverdiagnosis.net/?page_id=1180)

Im September 2016 wird diese Tagung in Barcelona stattfinden. Zu den Themen, die hier zur Diskussion stehen, und den erwarteten Ergebnissen, hat Dr. Jack O’Sullivan (University of Oxford) die beiden Co-Vorsitzenden des wissenschaftlichen Ausschusses der Konferenz - Alexandra Barratt, Professor of Public Health at the University of Sydney, und Ray Moynihan, Senior Research Fellow from Bond University, Australia, befragt.

Das folgende, von der Redaktion in deutsche Sprache, übersetzte Interview wurde am 17. Dezember 2015 in PLOS Blogs – Speaking of Medicine – veröffentlicht*

Interview zur 2016 stattfindenden Konferenz über die Vermeidung von Überdiagnosen

Dr. Jack O’Sullivan (University of Oxford) befragt die beiden Co-Vorsitzenden des wissenschaftlichen Ausschusses der Konferenz:

  • Alexandra Barratt, Professor of Public Health (University of Sydney), und
  • Ray Moynihan, Senior Research Fellow (Bond University, Australia).

Jack: Was können wir 2016 in Barcelona, dem Tagungsort der Preventing Overdiagnosis conference (PODC - Vermeidung von Überdiagnose Konferenz) erwarten?

Alexandra: Barcelona bietet eine einzigartige Gelegenheit die Perspektive der Konferenz auszuweiten und Gedanken zur Überdiagnose zwischen englischsprachigen und nicht- englischsprachigen Ländern auszutauschen. Dies ist auch wirklich wichtig – Übermedikation ist ja ein internationales Problem.

Ray: Da die 2016 Konferenz in einem spanischsprachigen Land stattfindet, ergeben sich sofort Verbindungen zu Lateinamerika. Für Entwicklungsländer, die beschränktere Gesundheitsbudgets als Industriestaaten haben, wird es noch wichtiger zu entscheiden, wofür sie ihr Geld sinnvoll ausgeben („choosing wisely“). Wir haben hier die Chance das Ausmaß an Überdiagnosen unter anderen Situationen kennenzulernen.

Jack: Spielt das Internet eine Rolle in diesen Situationen und Ländern? Welche Rolle spielt es in der Überdiagnose?

Alexandra: Wenn man in der Vergangenheit einen Test benötigte, musste man einen lokalen Gesundheits-Dienstleister aufsuchen. Dies ist nun nicht mehr der Fall. Man kann den Test jetzt online anfordern und so den Amtsweg umgehen. Das ist eines der Themen, die an der 2016 Konferenz zur Debatte stehen. Wenn jemand mit familiärer Vorbelastung für eine Krankheit vor einem Jahrzehnt zum Arzt ging, so hat dieser möglicherweise eine Handvoll genetischer Tests angefordert. Heute werden ganze Serien von 50 - 200 Genen geprüft, bis hin zur Sequenzierung des vollständigen Genoms von 22 000 Genen. Das geht heute so schnell und billig vonstatten, dass daraus vielfache Fragen erwachsen: wie interpretieren wir alle diese Informationen, wie wenden wir sie an, wie speichern wir sie und rufen sie erneut ab?

Ray: Ein direct-to-patient-marketing (Werbung, die gezielt Patienten anspricht; Anm. Red.) birgt zweifellos reale Gefahren in sich. Andererseits ist das Internet aber auch ein großartiges Instrument, um mehr kritische und genaue Informationen zu verbreiten und damit den Menschen zu helfen, sich gegen die Werbeschlachten zu wappnen.

Alexandra: Ich meine, dies streicht auch heraus, wie wichtig die Patienten selbst für einen Rückgang von Überdiagnosen sind. Patienten können damit Triebkräfte für große Veränderungen werden: uns allen wird ja zunehmend klar, dass Testungen und Behandlungen nicht ohne Risiko sind

Jack: dass Patienten wesentlich zur Reduktion von Überdiagnosen beitragen können - hat diese Überlegung das wissenschaftliche Komitee beeinflusst das Thema „Kulturelle Triebkräfte“ in das Programm der Konferenz aufzunehmen?

Alexandra: Ja, wir möchten wirklich erreichen, dass der Einfluss von Patienten und Bevölkerung bei solchen Konferenzen ausgeweitet wird. Überdiagnose ist ein soziales Problem, die Gründe dafür sind mannigfaltig und ebenso die Triebkräfte. Um hier voran zu kommen, wird es sehr wichtig sein, dass Patienten und Bevölkerung gemeinsam mit Klinikern, Politik und akademischer Forschung einen Beitrag leisten.

Ray: Als caveat ist dabei anzumerken: die Themen, die wir ausgewählt haben, sind alle sehr wichtig:

  • Erweiterung der Krankheitsdefinitionen, die Überdiagnosen verursachen
  • Genomik und ihr Potential für Überdiagnosen
  • Wirtschaftliche Konsequenzen von Überdiagnosen
  • Altern: Überdiagnosen, De-Diagnosen und deprescribing (s.u., Anm. Red.)
  • Kulturelle und existentielle Triebkräfte von Überdiagnosen
  • Maßnahmen, um Schädigungen durch Überdiagnosen zu mindern

Es wird aber wohl nicht möglich sein alle diese Themen auf nur einer Konferenz definitiv abzuhandeln und abzudecken. Wahrscheinlich werden uns diese Themen über Dekaden begleiten – sie stellen erhebliche Herausforderungen für die gegenwärtigen Gesundheitssysteme dar. Sie sind komplex und kontrovers und es sind einflussreiche Interessen im Spiel, die das Problem der medizinischen Überversorgung fördern. Die Diskussionen darüber werden über Jahrzehnte andauern.

Jack: Eines der Themen in der Konferenz im nächsten Jahr lautet “Erweiterung der Krankheitsdefinitionen, die zu Überdiagnose führen“. Was können die Delegierten zu diesem Thema erwarten?

Ray: Zwei der Plenarsitzungen werden Diskussionen über kontroverse Probleme gewidmet sein, eine dieser Sitzungen wird die Erweiterung ung der Krankheitsdefinitionen betreffen. Wir wollen dazu einem Panel, das unterschiedliche Ansichten vertritt, die Fragen stellen: wer sollte für die Änderung der Krankheitsdefinitionen die Verantwortung übernehmen und wie sollte dieser Prozess ablaufen. Dies ist für jedermann ein unglaublich relevantes Problem:

Wer sind die Leute, welche die Grenze ziehen zwischen Gesundheit und Krankheit?
Und wie ziehen sie diese Grenze?

Es gibt einige Evidenz dafür, dass es problematisch ist, wie der Prozess derzeit abläuft. Und es gibt globale Anstrengungen diesen Prozess zu reformieren. Konkret hat das Guidelines International Network (G-I-N). G-I-N eine Arbeitsgruppe Überdiagnose laufen, die erarbeitet, wie man den Prozess der Änderung von Krankheitsdefinitionen straffer führen kann.

Hier ist es auch wichtig zu bemerken, dass diese Konferenz nicht über die Überdiagnosen bei Krebserkrankungen geht. Zweifellos sind Überdiagnosen von Krebserkrankungen ein ernstes Problem und die Evidenzgrundlage ist hier ganz allgemein auch ausgereifter als bei nicht-Krebserkrankungen. Dennoch sollen bei unseren Sitzungen die Nicht-Tumorbedingungen im Vordergrund stehen.

Jack: Ein anderes Thema der 2016er Konferenz ist Alterung und Überdiagnose, Reduktion der Dosis/Stop des Medikaments (de-prescribing). Warum hat das Komitee dieses Thema angesetzt und was erwartet man davon?

Ray: Es gibt einen großartigen Geriatriker: Professor David Le Couteur, der über Prädemenz forscht und schreibt. Einen Großteil seiner Zeit in der Klinik verbringt er mit „Undiagnose“ (eine (klare) Diagnose kann nicht erstellt werden; Anm. Red.) und „De-Prescribing“. Le Couteur sieht sich alles an, womit man die alten Leute "gelabelt" hat und ob und wieweit das hilfreich ist. In Rücksprache mit den Patienten und deren Familien streicht er dann medizinische Produkte, die mehr schaden als nutzen. Wenn alles planmäßig verläuft, wird Professor Couteur zusammen mit anderen Klinikern eine Sitzung leiten und zwar darüber, wie sich in der Praxis auf den Stationen (Über)Behandlungen gefahrlos rückgängigmachen lassen.

Alexandra: Diese Bemerkung führt zu einem grundlegenden Thema der Konferenz: Quartäre Prävention (d.i. das Vermeiden unnötiger medizinischer Maßnahmen oder Übermedikalisierungen; Anm. Red.); für Menschen mit einem Risiko der Überdiagnose den Schaden auf ein Minimum reduzieren.

Ray: Quartäre Prävention ist ein aus Europa stammendes Konzept, das jetzt in Lateinamerika hohe Popularität besitzt. Dahinter steht der Gedanke, dass ein Schutz vor iatrogenen Schäden**, vor Übermedikalisierungen, ebenso wichtig ist wie Primär- und Sekundärprävention**.

Jack: Es ist offensichtlich, dass die Barcelona Konferenz – ähnlich wie die voran gegangenen Konferenzen - Kliniker, Patienten und akademische Forscher miteinbezieht. Wo wird die Politik ihren Platz finden?

Alexandra: Gastgeber der Konferenz wird eine staatliche Stelle sein, die Agency for Health Quality and Assessment of Catalonia. Viel Politik wird täglich von den Richtlinienausschüssen gemacht, die - wie Ray bereits erwähnt hat – in Barcelona durch G-I-N vertreten sind. Weiters gibt es ist die Choosing Wisely Campaign, die auf die tägliche Praxis Einfluss nimmt (wie oben angeführt ist Choosing Wisely ein Dialog zur Vermeidung überflüssiger/unwirtschaftlicher medizinischer Tests und Behandlungen; Anm. Red.). Deren Empfehlungen werden in vielen Ländern verbreitet, sie wurden bereits auf den vergangenen Konferenzen vorgestellt und werden auch diesmal in Barcelona präsentiert.

Jack: Was ist das eigentliche Ziel der Vermeidung von Überdiagnose Konferenzen?

Alexandra: Wir brauchen ein Gesundheitssystem, das bestmögliche gesundheitliche Ergebnisse für die Menschen bietet, bei minimalen durch Untersuchungen und Behandlungen hervorgerufenen Schädigungen. Gleichzeitig soll das Gesundheitssystem kosteneffizient und gerecht sein. Viele Tests und Behandlungen sind enorm nützlich, wir müssen aber die richtige Balance finden und nicht das ganze System und die Patienten mit unnötigen und schädlichen Eingriffen überschwemmen.

Ray: Wir konzentrieren uns im Moment noch sehr darauf das Problem wissenschaftlich abzudecken. Wir bemühen uns noch sehr Wesen und Ausmaß des Problems über das gesamte Gesundheitsgebiet hin zu erfassen.


* Who Draws the Line Between Health and Illness? A Look Ahead to the 2016 Preventing Overdiagnosis Conference. Posted December 17, 2015 by PLOS Guest Blogger in Conference news, Global Health http://blogs.plos.org/speakingofmedicine/2015/12/17/who-draws-the-line-b...

PLOS (The Public Library of Science) ist ein Non- profit Publisher; Artikel in den online Journalen und Blog-Einträge sind open access und können unter der Lizenz CCBY weiterverwendet werden).

**Primärprävention: das Ziel ist es, die Gesundheit zu fördern und zu erhalten und die Entstehung von Krankheiten so gut wie möglich zu verhindern.

**Sekundärprävention: soll das Fortschreiten einer Krankheit durch Frühdiagnostik und -behandlung verhindern.

**iatrogene Schäden: Krankheitsbilder, die durch ärztliche Maßnahmen verursacht wurden


Weiterführende Links

inge Fri, 01.01.2016 - 06:31

2015

2015 Redaktion Wed, 20.03.2019 - 01:03

Vom Newtonschen Weltbild zur gekrümmten Raumzeit – 100 Jahre Allgemeine Relativitätstheorie

Vom Newtonschen Weltbild zur gekrümmten Raumzeit – 100 Jahre Allgemeine Relativitätstheorie

25.12.2015 - 08:18 — Peter Christian Aichelburg Peter Christian AichelburgIcon physik

Am 25. November 1915 hat Albert Einstein seine Allgemeine Relativitätstheorie an der Preußischen Akademie der Wissenschaften präsentiert. Diese Theorie hat das Weltbild revolutioniert, wurde Grundlage sowohl der modernen Kosmologie als auch praktischer Anwendungen, wie beispielsweise des Navigationssystems GPS. Der theoretische Physiker Peter C. Aichelburg (emer. Prof. Universität Wien), dessen Forschungsgebiet selbst im Bereich der Allgemeinen Relativitätstheorie liegt, führt uns hier in die Zeit ihrer Entstehung und zeigt ihre moderne Bedeutung.

 „Es handelt sich um die Prüfung der sogenannten allgemeinen Relativitätstheorie. Diese Theorie gründet sich auf die Voraussetzung, dass Zeit und Raum keine physikalische Realität zukomme; sie führt zu einer ganz bestimmten Theorie der Schwerkraft, gemäß welcher die klassische Theorie Newtons nur in erster, wenn auch vorzüglicher Näherung gültig ist. Die Prüfung der Ergebnisse jener Theorie sind nur auf astronomischem Wege möglich….. „ Albert Einstein, Brief an Otto Naumann am 7. Dezember 1915

Stellen Sie sich vor, Sie kommen mit dem Auto in eine fremde Stadt und wollen zum gebuchten Hotel. Sie schalten das Navigationssystem ein, das Sie sicher durch das Straßengewirr bringen soll. Anfangs stimmen die Hinweise recht gut, aber schon nach zehn Minuten werden die Hinweise ungenau. Die Straße, in die Sie aufgefordert werden einzubiegen, ist die falsche, und alsbald sind die Hinweise unbrauchbar. So oder so ähnlich muss es dem US-Geheimdienst ergangen sein, als er das erste Globale Positionierung-System (GPS) getestet hat. Gott sei Dank haben die Verantwortlichen auf die Physiker gehört und eine Korrekturmöglichkeit eingebaut, um die Folgen aus der Einsteinschen Relativitätstheorie zu berücksichtigen.

Diese Theorie, die nun ihren 100. Geburtstag feiert, hat damals das Weltbild revolutioniert: Im Newtonschen Verständnis waren Raum und Zeit vorgegebene Größen, gleichsam die Bühne, auf der sich die physikalischen Begebenheiten zutragen. Mit der Allgemeinen Relativitätstheorie wurden sie zur gekrümmten Raumzeit und somit zum Teil des dynamischen Geschehens.

/pics/2015/20151225/abb1.jpegAbbildung 1. Albert Einstein, im Jahr 1921. (Foto: Ferdinand Schmutzer; das Bild ist in der Public Domain)

Beweis bei Sonnenfinsternis

Am 20. November 1915 legt der Göttinger Mathematiker David Hilbert in einer Mitteilung an die „Königliche Gesellschaft der Wissenschaften zu Göttingen“ jene Gleichungen einer geometrischen Formulierung der Gravitation vor, um die sich Einstein jahrelang bemüht hat. Fünf Tage später gibt Einstein dieselben Gleichungen der Preußischen Akademie bekannt.

Wie konnte dies geschehen? Einstein war im Juni 1915 zu Vorträgen in Göttingen, in denen er über seine Ideen zu einer neuen Theorie der Gravitation und den noch ungelösten Problemen berichtete. Als er am 25. November die endgültigen Gleichungen vorlegt, kannte er zwar Hilberts Ableitung flüchtig. Aber es ist unwahrscheinlich, dass er diese aus Hilberts Arbeit übernommen hat. Jedenfalls führte dies zu einer Verstimmung mit Hilbert – bis dieser ausdrücklich feststellte, dass die neue Gravitationstheorie ganz das Werk Einsteins sei.

Eine der Konsequenzen der Einsteinschen Theorie ist, dass Licht im Schwerefeld eine Ablenkung erfährt. Dieser Effekt sollte sich bei Sternenlicht, das nahe am Sonnenrand vorbei geht, bemerkbar machen. Abbildung 2. Um diese Ablenkung zu beobachten, bedarf es einer totalen Sonnenfinsternis, weil sonst das Sonnenlicht das Sternenlicht überstrahlt. Einstein wollte bereits 1914, also noch bevor er die endgültigen Gleichungen hatte, diesen Effekt bei einer Sonnenfinsternis in Russland testen. Dazu kam es aber wegen des Ausbruchs des Ersten Weltkriegs nicht. Erst 1919 plante der britische Astronom Sir Arthur Eddington eine entsprechende Expedition nach Westafrika. Als ein halbes Jahr später in einer feierlichen Sitzung der „Royal Society“ und der „Royal Astronomical Society“ in London die Vorhersage der neuen Theorie offiziell bestätigt wurde, war Einstein über Nacht international bekannt.

/pics/2015/20151225/abb2.jpegAbbildung 2. „Die Theorie ergibt das Resultat, dass ein neben einem Himmelskörper vorbeigehender Lichtstrahl eine Ablenkung erfährt“ (Bild und Zitat: A. Einstein 7.12.2015, Brief an Otto Naumann; siehe weiterführende Links) Unten: Diesen Effekt konnte Sir Arthur Eddington bei Sternenlicht - d.i. bei einer totalen Sonnenfinsternis - nachweisen.

Welche Bedeutung aber kommt Einsteins Theorie heute noch zu?

Viele der Konsequenzen sind schwer nachzuweisen und doch spielen sie, wie sich am Beispiel des GPS zeigt, auch in unser tägliches Leben hinein. Unbestritten sind die Effekte der Theorie für die Erforschung des Kosmos. Die oben erwähnte Lichtablenkung im Gravitationsfeld wird heute dazu benützt, um etwa die Masse von Galaxienhaufen abzuschätzen. Das durch Materie-Ansammlungen hervorgerufene Schwerefeld führt zu einer Bündelung der Lichtstrahlen, die von einer dahinter liegenden Quelle stammen. Diese sogenannten Gravitationslinsen ermöglichen es, auch Objekte zu sehen, die wegen ihrer Lichtschwäche sonst kaum zu beobachten wären. Eine der wohl spektakulärsten Konsequenzen aus Einsteins Theorie sind Schwarze Löcher: auf dem Papier Lösungen für Gleichungen, bei denen die Geometrie in einem Gebiet so stark gekrümmt ist, dass nichts daraus entweichen kann – nicht einmal Licht, daher der Name. Solche Schwarzen Löcher entstehen, wenn ein massereicher Stern am Ende seiner Entwicklung durch die Gravitation in sich zusammenbricht. Heute sind Forscher überzeugt, dass es unzählige solcher Objekte auch in unserer Milchstraße gibt. Die Beobachtung erfolgt indirekt durch das Aufleuchten hineinfallender Materie. Zuletzt ist es evident geworden, dass sich riesige Schwarze Löcher im Zentrum vieler Galaxien befinden – in unserer Milchstraße etwa eines mit circa vier Millionen Sonnenmassen. Dies zeigen Beobachtungen von Sternen, die das Schwarze Loch umkreisen.

Einsteins „kosmologische Konstante“

Allerdings ist es bis jetzt nicht gelungen, eine der Vorhersagen von Einsteins Theorie direkt nachzuweisen: Während sich die Gravitationswirkung nach der Newtonschen Theorie instantan, also augenblicklich ausbreitet, so verlangt schon die Spezielle Relativitätstheorie, dass sich jedes Signal höchstens mit Lichtgeschwindigkeit fortpflanzt. Wie aber sieht es mit Veränderungen in der Geometrie aus?

1918 publiziert Einstein eine Arbeit über Gravitationswellen, in der er nachweist, dass sich Störungen der Geometrie mit Lichtgeschwindigkeit ausbreiten und Energie transportieren, ähnlich wie elektromagnetische Wellen. Gravitationswellen werden durch bewegte Massen erzeugt, sind aber meist zu schwach, um bemerkt zu werden. Indirekt gibt es Beweise für die Existenz von Gravitationswellen, denn sie entziehen dem System Energie.

Rund um den Erdball gibt es Forschungsteams, die sogenannte Gravitationswellen- Detektoren entwickelt haben und laufend Messungen durchführen. Dieses Ziel verfolgt nun auch das „eLISA“-Projekt der Europäischen Raumfahrtagentur ESA. Hier arbeiten Theoretiker und Experimentalphysiker zusammen. Denn um das extrem schwache Signal aus dem Hintergrund herauszufiltern, bedarf es einer genauen Vorhersage über die Form des zu erwartenden Signals. In den nächsten Jahren sollte es gelingen, Gravitationswellen direkt nachzuweisen. Dies würde ein neues Fenster in den Kosmos öffnen und uns Kunde von dramatischen Vorgängen in fernen Galaxien bringen – und somit auch zu einem besseren Verständnis der Entwicklung des Universums beitragen.

Schon 1917 hat Einstein seine Theorie auf den Kosmos als Ganzes angewandt. Er war der Meinung, das Universum sei im Großen unveränderlich, und hat daher nach einer statischen Lösung gesucht. Als der exzentrische Physiker erkannte, dass seine Gleichungen eine solche nicht zulassen, fügte er die „kosmologische Konstante“ ein: Dies hat er später angeblich mit „die größte Eselei meines Lebens“ quittiert. Denn er hätte die Expansion des Kosmos, die 1929 der Astronom Edwin Hubble durch Beobachtung des Auseinander-Driftens der Galaxien entdeckte, vorhersagen können.

Zurück in die Ursuppe

Die Einsteinsche Theorie ist die Grundlage für die moderne Kosmologie. Wir haben starke Hinweise, dass sich das Universum vor circa 14 Milliarden Jahren aus einer extrem dichten und heißen „Ursuppe“ entwickelt hat, aus der die heute zu beobachtenden Strukturen nach und nach entstanden sind. Dennoch zeigt diese Urknall-Theorie die Grenzen der Einsteinschen Theorie auf: Denn verfolgt man die Entwicklung des Kosmos in der Zeit zurück, so gelangt man zu immer höheren Dichten bis, wie die Theoretiker es nennen, eine „Singularität“ entsteht. Hier muss die Theorie durch Neues ersetzt werden.

Quantengravitation ist das neue Schlagwort, denn den Gesetzen des Mikrokosmos sollte auch die Gravitation unterworfen sein. Trotz interessanter Ansätze wie etwa die String-Theorie oder die Schleifengravitation gibt es aber noch keine zufriedenstellende Lösung. Zweifellos gehört Einsteins Gravitationstheorie auch noch nach hundert Jahren zu den größten geistigen Leistungen in der Physik. Und sie prägt unsere Vorstellung von Raum und Zeit bis heute.


*Der vorliegende Text ist die leicht modifizierte Fassung eines Artikels, den Die Furche am 3. Dezember 2015 brachte.


Weiterführende Links

Eine umfassende Sammlung der Schriften Albert Einsteins ist zu finden in: PRINCETON'S SERIES Collected Papers of Albert Einstein. http://press.princeton.edu/catalogs/series/title/collected-papers-of-alb... .

Alle Dokumente sind in der ursprünglichen Sprache wiedergegeben. Der Zeitraum 1914 – 1917 findet sich in Band 6: http://einsteinpapers.press.princeton.edu/vol6-doc .Darunter ist auch die Präsentation der Allgemeinen Relativitätstheorie an der Preußischen Akademie der Wissenschaften und eine „gemeinverständliche“ Darstellung Einsteins „Über die speziell und allgemeine Relativitätstheorie“.

Was die Collected Papers bieten:

“Selected from among more than 40,000 documents contained in the personal collection of Albert Einstein (1879-1955), and 15,000 Einstein and Einstein-related documents discovered by the editors since the beginning of the Einstein Project, The Collected Papers will provide the first complete picture of a massive written legacy that ranges from Einstein's first work on the special and general theories of relativity and the origins of quantum theory, to expressions of his profound concern with civil liberties, education, Zionism, pacifism, and disarmament. The series will contain over 14,000 documents and will fill twenty-five volumes. Sponsored by the Hebrew University of Jerusalem and Princeton University Press

The Digital Einstein Papers is an exciting new free, open-access website that puts The Collected Papers of Albert Einstein online for the very first time, bringing the writings of the twentieth century’s most influential scientist to a wider audience than ever before.”

inge Fri, 25.12.2015 - 08:18

EU-Umfrage: Der Klimawandel stellt für die EU-Bürger ein sehr ernstes Problem dar

EU-Umfrage: Der Klimawandel stellt für die EU-Bürger ein sehr ernstes Problem dar

Fr, 18.12.2015 - 06:55 — Inge Schuster Inge SchusterIcon Politik & Gesellschaft

Vor wenigen Tagen haben sich 195 Länder in Paris auf einen ersten rechtsverbindlichen, globalen Klimavertrag geeinigt, der die Erderwärmung eindämmen soll (Framework Convention on Climate Change [1]). Die Ziele sind sehr ehrgeizig und werden – wenn sie ernstgenommen werden – den Abschied von der fossilen Energie bedeuten und damit unsere Welt völlig verändern. Die Europäische Union hat zu dieser Übereinkunft ganz wesentlich beigetragen. Wieweit aber stehen die EU-Bürger selbst hinter einem derartigen Abkommen, welchen Stellenwert räumen sie dem Klimawandel unter den globalen Problemen ein und welche Aktivitäten setzen sie/haben sie bereits zu seiner Bekämpfung gesetzt? Eine EU-weite Umfrage zu diesem Thema hat im Frühsommer d.J. stattgefunden; die Ergebnisse sind unmittelbar vor Beginn der Klimakonferenz veröffentlicht worden und zeigen, dass die Menschen den Ernst der Situation erfasst haben und zu Klimaschutzmaßnahmen bereit sind (Special Eurobarometer 435 [2]).

Die Umfrage „Spezial Eurobarometer 435“

Im Auftrag der Europäischen Kommission wurde im Frühjahr 2015 eine Umfrage in den 28 Mitgliedsländern durchgeführt, welche die Einstellung der Bevölkerung zum Klimawandel, deren diesbezügliche Verhaltensweisen und Erwartungen für die Zukunft erkunden sollte. Es war dies nicht das erste Mal, dass die EU-Bürger rund um dieses Thema befragt wurden. Derartige Erhebungen hatten schon 2008, 2009, 2011 und 2013 stattgefunden und liefen auch jetzt nach dem bereits bewährten Muster ab. Ein Heer von Interviewern (Mitarbeiter der global arbeitenden Marktforschungsinstitution TNS opinion & social network) schwärmte aus, um in jedem Mitgliedsstaat jeweils rund 1000 Personen in ihrem Heim und in ihrer Muttersprache zu befragen. Insgesamt waren dies 27 718 Personen, die aus verschiedenen sozialen und demographischen Gruppen stammten und einen repräsentativen Querschnitt durch die jeweilige Bevölkerung eines Landes boten. In diesen persönlichen Interviews wurden dieses Mal Fragen zu vier Themenkreisen gestellt:

  1. Zur Wahrnehmung des Klimawandels: welchen Stellenwert nimmt der Klimawandel ein unter anderen globalen Problemen und als wie ernstes Problem wird er selbst gesehen?
  2. Zur Bekämpfung des Klimawandels: wer ist primär für Maßnahmen zur Bekämpfung verantwortlich und hat der Befragte selbst Schritte zur Verringerung von Treibhausgasemissionen gesetzt?
  3. Zur Einstellung hinsichtlich Bekämpfung des Klimawandels und Reduktion des Imports fossiler Brennstoffe: bringt die Bekämpfung des Klimawandels Vorteile für die Wirtschaft und können derartige Maßnahmen wirksam sein ohne, dass alle Länder der Welt sich daran beteiligen?
  4. Zu Zukunftsperspektiven: sollen Staaten Ziele für erneuerbare Energien festlegen und Energieeffizienz fördern?

Im vorliegenden Bericht soll ein allgemeiner Überblick über die Ergebnisse dieser Umfrage gegeben werden, wobei der Fokus auf Österreich und Deutschland gelegt wird. Weitere Details, auch zu den anderen EU-Staaten, sind unter [2] und [3] zu finden.

Die Ergebnisse der Umfrage

Themenkreis 1: Wie wird der Klimawandel wahrgenommen?

Der Klimawandel bleibt eine Hauptsorge der europäischen Bevölkerung: Insgesamt 91 % der Befragten betrachten den Klimawandel als ernstes Problem und 69 % als sehr ernstes Problem. Die Meinung der befragten Österreicher entspricht hier dem EU-Durchschnitt; auch in Deutschland sind es 91 %, die den Klimawandel als ernstes Problem sehen und – etwas mehr als im EU-Durchschnitt - 72 % als sehr ernstes Problem.

Vom sozial-demographischen Standpunkt aus betrachtet scheint der Bildungsgrad wenig Einfluss darauf zu haben, ob der Klimawandel als ernstes Problem gesehen wird oder nicht. Probleme, denen die Welt aktuell gegenübersteht: welche sind die wichtigsten? Dazu meint nahezu die Hälfte (47 %) der Europäer, dass der Klimawandel zu den größten Problemen gehört und etwa jeder Sechste (15 %), dass dieser überhaupt das Hauptproblem darstellt. EU-weit gesehen rangiert damit der Klimawandel hinter den globalen Problemen „Armut, Hunger, Trinkwassermangel“ (30 %), „Internationaler Terrorismus“ (19 %) und „Wirtschaftliche Situation“ (16 %) an vierter Stelle (Abbildung 1).

Dieses Ranking zeigt aber starke regionale Unterschiede:

An erster Stelle steht bei den Befragten in 19 der 28 Staaten – darunter auch in Österreich und Deutschland – die Armut. In jeweils 2 Staaten nehmen der internationale Terrorismus (Malta, Tschechien) und die wirtschaftliche Situation (Zypern, Italien) die Spitzenposition ein; in drei osteuropäichen Staaten (Lettland, Estland und Polen) ist es die Angst vor bewaffneten Konflikten und in den drei nordeuropäischen Staaten Schweden, Dänemark und Finnland der Klimawandel.

In Österreich rangiert der Klimawandel – über dem EU-Durchschnitt - etwa gleichauf mit der wirtschaftlichen Situation bereits hinter der Armut (Abbildung 1).

Abbildung 1. Welches der genannten Probleme betrachten Sie als das Hauptproblem für die Menschheit? (Quelle: European Commission, Special Eurobarometer 435. Climate Change, Fact sheets in national languages- Austria [3])

Noch gravierender sehen die Deutschen den Klimawandel: 26% der Befragten sehen ihn als wichtigstes globales Problem; damit liegt er nur knapp hinter der Armut, die 28 % als Hauptproblem angaben.

Themenkreis 2: Bekämpfung des Klimawandels

Hier stand zuerst die Frage im Vordergrund: „Wer ist innerhalb der EU für die Bekämpfung des Klimawandels verantwortlich?“ (Abbildung 2).

EU-weit wird hier die Verantwortung primär bei den nationalen Regierungen gesehen, dahinter liegen gleichauf Wirtschaft & Industrie und die Europäische Union.

In Österreich, Deutschland und einigen anderen Staaten (CZ, FI, HU, SI, LT, BG, LV) wird dagegen der Wirtschaft & Industrie die Hauptverantwortung zugeschrieben. In Österreich meinen auch wesentlich mehr Menschen als im EU-Durchschnitt, dass sich Umweltschutzorganisationen um das Problem kümmern sollten (dieser Ansicht sind auch viele osteuropäische Staaten).

Abbildung 2. „Wer ist innerhalb der EU für die Bekämpfung des Klimawandels verantwortlich? (Mehrfachnennungen möglich).“ Angaben in % der Befragten (Quelle: European Commission, Special Eurobarometer 435. Climate Change, Fact sheets in national languages- Austria [3])

Interessant erscheint: in Österreich und Deutschland wird ein hohes Maß an Eigenverantwortung angegeben (nur übertroffen von den nordeuropäischen Ländern). Wie die sozial-demographische Analyse der Antworten zeigt, beeinflussen Bildungsgrad und Alter die Bereitschaft Eigenverantwortung zu übernehmen: je früher Personen ihren Bildungsweg beendet hatten und je älter sie waren, desto geringer war ihre Bereitschaft.

Wie weit tragen Sie persönlich zum Klimaschutz bei? Dass sie bereits persönlich Maßnahmen zum Klimaschutz getroffen hätten, gaben im EU-Durchschnitt 49 % der Befragten an. Dabei zeigten sich aber große regionale Unterschiede. Die meisten positiven Antworten- von über 70 % der Befragten - kamen aus Schweden, Slowenien und Luxemburg, die wenigsten – 19 -28 % - aus Bulgarien, Lettland, Estland und Rumänien (Abbildung 3).

Mehr als die Hälfte der Bürger in Österreich (54 %) und Deutschland (66 %) sagten, dass sie im letzten Halbjahr etwas zum Klimaschutz beigetragen hätten

 Abbildung 3.Haben Sie selbst im letzten Halbjahr Maßnahmen zum Klimaschutz getroffen? (Quelle: European Commission, Special Eurobarometer 435. Climate Change, Report [2])

Als nun aber an Hand einer Liste von Handlungen nach den konkreten Maßnahmen gefragt wurde, erwies es sich, dass im EU-Durchschnitt tatsächlich 93 % der Menschen, in Österreich und Deutschland 98 % Beiträge geleistet hatten. Diese Maßnahmen betreffen vor allem

  • die Reduktion von Abfall und Trennung zur Wiederverwertung
  • die Reduktion des Verbrauchs von Wegwerfartikeln
  • die Anschaffung energieeffizienter Haushaltsgeräte
  • die Nutzung umweltfreundlicher Verkehrsmittel
  • der Einkauf lokal produzierter Lebensmittel

Im Vergleich mit dem EU-Durchschnitt wurden nahezu alle Maßnahmen in Österreich und Deutschland bedeutend häufiger ergriffen. Abbildung 4 zeigt die Daten für Österreich, auf die Wiedergabe der sehr ähnlichen Daten für Deutschland wird verzichtet). Abbildung 4. „Welche dieser Handlungen treffen, wenn überhaupt, auf Sie zu? (Mehrfachnennungen möglich).“ Angaben in % der Befragten. (Quelle: European Commission, Special Eurobarometer 435. Climate Change, Fact sheets in national languages- Austria [3])

Themenkreis 3: Einstellung der Europäer zur Bekämpfung des Klimawandels - wer ist verantwortlich?

Hier gibt es eine sehr positive Einstellung der EU-Bürger: die überwiegende Mehrheit in allen Staaten (im Durchschnitt 81 %, Österreich und Deutschland liegen mit 75 % und 79 % knapp darunter) stimmte zu, dass die Bekämpfung des Klimawandels und eine effizientere Energienutzung die Wirtschaft und den Arbeitsmarkt in der EU ankurbeln würden.

Noch beeindruckender war, dass die überwältigende Mehrheit der Befragten (im EU-Durchschnitt 93%) der Meinung war, dass die Bekämpfung des Klimawandels nur wirksam sein wird, wenn alle Länder der Welt gemeinsam handeln.

Etwas differenzierter war die Haltung zu Fragen, die den Import von fossilen Brennstoffen betrafen:

  • Kann die EU wirtschaftlich profitieren, wenn weniger fossile Brennstoffe von außerhalb der EU importiert werden? Dies bejahten im EU-Durchschnitt zwar 55 % (in Österreich 70 %, in Deutschland 63 %), allerdings verneinten dies 30 % der Holländer und 28 % der Schweden.
  • Kann die Sicherheit der Energieversorgung in der EU erhöht werden, wenn weniger fossile Brennstoffe von außerhalb der EU importiert werden? Hier liegt die durchschnittliche Zustimmung bei 65 % (Österreich 74 %, Deutschland 65 %), in Estland, Holland und Lettland unter 50 %.

Themenkreis 4: Ausblick in die Zukunft

Festlegung von Zielen für erneuerbare Energien

Hier herrscht ein weitgehender Konsens in allen EU-Staaten: die große Mehrheit der Befragten – 91 % - hält es außerdem für wichtig, dass ihre Regierung Ziele festlegt, um den Anteil der Nutzung erneuerbarer Energien wie beispielsweise Wind- und Solarenergie zu erhöhen. Abbildung 5.

Abbildung 5. Wie wichtig ist es Ihrer Ansicht nach, dass die Nationale Regierung Ziele festlegt, um die Nutzung erneuerbarer Energien wie beispielsweise Wind- und Solarenergie zu erhöhen? Quelle: European Commission, Special Eurobarometer 435. Climate Change, Report [2])

Verbesserung der Energieeffizienz

Auch zu der Frage ob es wichtig ist, dass die Nationale Regierung die Verbesserung der Energieeffizienz bis 2030 unterstützt - z.B, durch Förderung der Wärmedämmung von Wohngebäuden oder des Kaufs von Energiesparlampen – herrschte weitestgehende Zustimmung (EU-Durchschnitt 92 %; Österreich 86 %, Deutschland 90 %)

Fazit

  • Die Europäer betrachten den Klimawandel als eines der ernstesten Probleme mit denen die Menschheit konfrontiert ist, aber auch als eine große Herausforderung.
  • Sie meinen, dass der Kampf gegen den Klimawandel und eine effizientere Energienutzung zu einem Aufschwung der Wirtschaft und zur Schaffung neuer Jobs führen wird.
  • Ebenso wird eine Reduktion der Importe fossiler Brennstoffe die Wirtschaft beleben und die Sicherung der Energieversorgung erhöhen.
  • Die Bekämpfung des Klimawandels wird aber nur dann wirksam sein, wenn alle Länder der Welt gemeinsam handeln. Allerdings kann jeder dazu persönlich beitragen und der Großteil der Europäer hat auch schon diesbezügliche Maßnahmen gesetzt.

Der eben in Paris erwirkte, erste globale Klimavertrag ist auf der Basis erdrückender wissenschaftlicher Erkenntnisse entstanden. Die Wissenschaft konnte die Politik überzeugen und offensichtlich auch Europas Einwohner. Die gegenwärtige EU-Umfrage zeigt, dass das Vertragswerk auch im Sinne der Ansichten unserer Bevölkerung ist.


[1] Adoption of the Paris Agreement. Proposal by the President (12.12.2015). FCCC/CP/2015/L.9/Rev.1 http://unfccc.int/documentation/documents/advanced_search/items/6911.php...

[2] Special Eurobarometer 435. Climate Change (Fieldwork May – June 2015, published: 26. 11.2015) Report http://ec.europa.eu/COMMFrontOffice/PublicOpinion/index.cfm/Survey/getSu...

[3] Special Eurobarometer 435. Climate Change, Factsheets in national languages http://ec.europa.eu/COMMFrontOffice/PublicOpinion/index.cfm/Survey/getSu...

inge Fri, 18.12.2015 - 06:55

Der Boden – die Lösung globaler Probleme liegt unter unseren Füßen

Der Boden – die Lösung globaler Probleme liegt unter unseren Füßen

Fr, 11.12.2015 - 10:28 — Rattan Lal

Rattan LalIcon GeowissenschaftenBöden sind nicht nur die Basis unserer Lebensführung, Nahrungsmittelproduktion und Wasserversorgung. Wie der weltbekannte Bodenwissenschafter Rattan Lal (Ohio State University) zeigt, besitzen Böden auch eine enorme Kapazität zur Kohlenstoffspeicherung und können damit wesentlich zur Regulierung der Treibhausgasemissionen beitragen*. Dieses Potential dürfte bei den Spitzen der Weltpolitik auf Resonanz stoßen: Als das „Internationale Jahr der Böden (IYS)“ im Hauptsitz der FAO am 5. Dezember 2015 feierlich zu Ende ging (die Klimakonferenz COP 21 in Paris läuft noch), appellierte Ban Ki Moon, der Generalsekretär der UNO an die Versammlung: “Wir müssen die nachhaltige Nutzung unseres terrestrischen Ökosystems sicherstellen, während wir den Klimawandel und seine Folgen bekämpfen. Die Speicherung von Kohlenstoff in den Böden bedeutet einen essentiellen Beitrag zur Eindämmung des Klimawandels“. Der nachfolgende Essay ist die Fortsetzung des vor einer Woche erschienenen Artikels:“Der Boden – Grundlage unseres Lebens“**


„Böden sind die Grundlage irdischen Lebens, der Nutzungsdruck durch den Menschen erreicht aber kritische Grenzen. Ein sorgsamer Umgang mit dem Boden ist essentieller Bestandteil einer nachhaltigen Landwirtschaft und bietet auch einen wertvollen Ansatz zur Regulierung des Klimas und einen Weg die Leistungen des Ökosystems und die Biodiversität zu erhalten.“ (Präambel: World Soil Charter, FAO, 2015)

Was ist nachhaltige Bodennutzug?

Meiner Meinung nach bedeutet das:

  • Ersetze, was entfernt wurde – wenn Nährstoffe verloren gingen, ersetze sie.
  • Reagiere umsichtig auf veränderte Bedingungen - wenn die Struktur eines Bodens (die räumliche Anordnung der Bodenteilchen) geändert wurde, ist davon auch seine Wasserbindungskapazität betroffen.
  • Mach Dir bewusst, was anthropogene und natürliche Störungen bewirken können und sei bereit diesen zu begegnen.

Will man eine sichere Ernährungslage für die steigende Weltbevölkerung gewährleisten, muss die nachhaltige Landnutzung gleichzeitig aber auch mit einer nachhaltigen Intensivierung der Produktivität verbunden sein. Wir können ein „Mehr aus Weniger“ produzieren: ein Mehr

  • auf weniger Landfläche
  • pro jeden Tropfen Wasser
  • pro Menge an eingesetztem Dünger und Pestiziden
  • pro Energieeinheit pro Einheit der CO2-Emission

Dazu kommt, dass wir auch weniger verbrauchen und weniger vergeuden dürfen.

Ernterückstände zur Erzeugung von Biotreibstoff?

Die Erzeugung von Biotreibstoff ist zweifellos eine wichtige Strategie, um die Abhängigkeit von fossilen Brennstoffen zu verringern. Ist es ökonomisch vertretbar Ernterückstände dafür einzusetzen? Welche Folgen hat das für den Boden?

Ich möchte dazu von einem Langzeitexperiment berichten, das wir von 1972 bis 1987 in Nigeria durchführten. Die Fragestellung war: was passiert, wenn ein Landwirt nach jeder Ernte die Ernterückstände komplett entfernt (in Afrika wird dieses Material ja für Zäune, Dächer, Einstreu, Brennmaterial, etc. verwendet) oder, wenn er sie am Feld belässt. In beiden Fällen wurden dieselben Pflanzen angebaut und es wurde in derselben Weise gedüngt. Nach 15 Jahren war der Unterschied nur zu deutlich (Abbildung 1).

Der Grund für diesen Unterschied: durch die exzessive Entfernung der Ernterückstände wurde den Mikroorganismen und Tieren, die im Boden leben, die Nahrungsquelle entzogen. Bodenorganismen sind aber der biologische Antrieb der Erde.

Abbildung 1. Was passiert, wenn über längere Zeit die Ernterückstände vom Feld entfernt wurden? Dies war auf dem Maisfeld im Vordergrund 15 Jahre lang der Fall, während auf dem ansonsten gleichbehandelten Feld im Hintergrund die Rückstände belassen wurden.

Sind ähnliche Auswirkungen auch in Gegenden mit gemäßigtem Klima zu erwarten?

Wir starteten dazu einen in gleicher Weise designten Langzeitversuch in Ohio. 8 Jahre nach Beginn der Studie – das war 2012 – gab es in den US ein besonders trockenes Jahr (es fielen 50 % der üblichen Regenmenge). Dort, wo die Ernterückstände immer entfernt worden waren fiel die Maisernte, um 60 % niedriger aus als auf dem Feld, auf dem die Rückstände belassen wurden. Der Verbleib der Rückstände machte den Boden offensichtlich gegen Trockenheit widerstandsfähiger!

Derartige Auswirkungen auf die Produktivität muss man sich überlegen, wenn man Ernterückstände zur Produktion von Bioethanol heranziehen möchte. Biotreibstoff aus Ernterückständen ist nicht gratis! Man zahlt dafür einen sehr hohen Preis.

Man sollte also die Biomasse liegenlassen – für die aktiven Bodenorganismen, die den Boden lebendig erhalten. Da Mikroorganismen die Kohlenstoffverbindungen der Biomasse in ihre eigene Biomasse umwandeln, ist dies eine sehr effiziente Strategie, um organischen Kohlenstoff in den Böden („soil organic carbon“ SOC) zu binden und zu speichern (Kohlenstoff-Biosequestrierung).

Biosequestrierung des CO2 der Atmosphäre

Wieviel CO2 aus der Atmosphäre in Biomasse umgewandelt wird, ist in Abbildung 2 schematisch dargestellt:

Abbildung 2. Die globale terrestrische Bindung und Speicherung von Kohlenstoff. GPP: Bruttoprimärproduktion durch autotrophe Pflanzen. NPP: Nettoprimärproduktion (= GPP minus Abatmung durch autotrophe Pflanzen). NEP: Nettoproduktion des Ökosystem (= GPP minus Zersetzung: Abatmung durch heterotrophe Organismen/mikrobiellen Abbau). NBP: Nettoproduktion aller Ökosysteme (alle natürlichen und anthropogenen Störungen miteingerechnet). Gt: Gigatonne = 1Mrd t.

Von der Sonnenstrahlung, die die Erdoberfläche erreicht, nutzen die Pflanzen nur etwa 0,05 % der Energie, um mittels Photosynthese das CO2 der Luft und Wasser in organische Kohlenstoffverbindungen – insgesamt 123 Gt/Jahr – umzuwandeln. Etwa die Hälfte dieser sogenannten Bruttoprimärproduktion (gross primary production - GPP) atmen die Pflanzen als CO2 wieder ab - die Nettoprimärproduktion (net primary production - NPP) beträgt jährlich also insgesamt 63 Gigatonnen (Gt) organisch fixierten Kohlenstoffs. Davon wird ein Großteil durch heterotrophe Atmung zersetzt – über Aufnahme und Abbau entlang der Nahrungskette und mikrobielle Zersetzung von totem Material – aber auch durch große Flächenbrände: die Nettoproduktion des Ökosystems (net ecosystem productivity - NEP) liegt bei 10 Gt organisch fixierten Kohlenstoffs. Alle durch natürliche und anthropogene Störungen verursachten Verluste zusammengerechnet verbleibt rund 1 Gt organisch fixierter Kohlenstoff (net biome productivity – NBP).

Kohlenstoffspeicherung im Boden

In der Nettoprimärproduktion entstehen jährlich 63 Gt organisch fixierten Kohlenstoffs: in der gleichen Zeit generieren wir 6 x so hohe Emissionen aus dem Verbrauch fossiler Brennstoffe und zusätzlich aus der landwirtschaftlichen Bodennutzung. Wenn wir steuern können, was mit der wichtigen Kohlenstoffquelle der Nettoprimärproduktion geschieht, können wir das Problem des CO2 in der Atmosphäre in den Griff bekommen.

Die Frage ist, wie wir das schaffen.

Wenn wir den globalen Kohlenstoffgehalt im Boden betrachten, so liegen bis zu einer Tiefe von 2 – 3 m rund 6 000 Gt C vor; zwei Drittel bis drei Viertel (in den obersten 30 cm) davon in Form von organisch gebundenem Kohlenstoff.

Wie und wieweit können wir diesen Kohlenstoffgehalt erhöhen?

Hier wird sehr schnell klar: mit dem Zufügen von Biomasse allein – beispielsweise in Form von Ernterückständen - ist es nicht getan. Diese bewirken zwar, dass der Boden seine Feuchtigkeit behält, die biochemische Umwandlung in Humus erfordert aber zusätzliche Nährstoffe. Denn: Im Vergleich zum Humus ist der Gehalt von N, P und Schwefel in den Rückständen stark abgereichert (Abbildung 3).

Abbildung 3. Es werden Nährstoffe gebraucht um Biomasse in Humus umzuwandeln

Ohne den Zusatz der Nährstoffe kann also keine Humusbildung erfolgen – der Kohlenstoff wird bloß als CO2 in die Atmosphäre abgeatmet.

Der Kohlenstoffkreislauf ist eng gekoppelt an die Kreisläufe von Wasser, Stickstoff, Phosphor und Schwefel.

Was kostet die Kohlenstoff-Sequestrierung?

Die Nährstoffe und damit die Kohlenstoff-Sequestrierung sind nicht gratis. Meine Schätzungen gehen dahin, dass der Gegenwert für die Speicherung von 1 t Kohlenstoff etwa 120 $ beträgt. Jemand muss also dafür zahlen. Da Landwirte der gesamten Gesellschaft nützen, wenn den atmosphärischen Kohlenstoff durch Sequestrierung reduzieren, müssen sie dafür entsprechend entschädigt werden.

Wir benötigen solide wissenschaftliche Daten

Die C-Sequestrierung setzt auch eine detaillierte Kenntnis des Kohlenstoffkreislaufs voraus. Dieser ist in groben Zügen in Abbildung 4 dargestellt: Abbildung 4. Der globale Kohlenstoffkreislauf – Kohlenstoffsenken und -emittenten (1Pg = 1Gt)

Der Kohlenstoffpool in der Atmosphäre beträgt zurzeit rund 840 Gt - Jährlich kommen 4 Gt aus der Verwendung fossiler Brennstoffe dazu und 1 Gt aus der Entwaldung. Die Photosynthese der Pflanzen entzieht CO2 der Atmosphäre und atmet die Hälfte davon wieder ab. Emissionen kommen auch aus den Böden, in denen (ohne Permafrostgebiete) etwa 4 000 Gt organischer Kohlenstoff gespeichert sind: Bodenatmung und beschleunigte Erosion führen zur Reduktion des organisch gebundenen Kohlenstoffs. (Aktuell wird der Verlust durch Erosion allerdings kaum diskutiert). Ein Teil des C im Boden geht auch in den Ozean, der das größte Kohlenstoffreservoir ist und Kohlenstoff ebenfalls emittiert.

Wir können dieses Geschehen modellieren, auch die Verweilzeit des Kohlenstoffs in den einzelnen Systemen berechnen – auf globaler Basis, auf nationaler Basis bis hin zur Verweilzeit auf einzelnen Landflächen (siehe Abbildung 4). Die Voraussetzung dazu: um die Modelle, die diesen Berechnungen zugrundeliegen, zu validieren, benötigen wir solide Daten, experimentell erhobene Daten.

Der Verlauf der Kohlenstoffanreicherung

Wenn Wälder oder Grasland in Ackerland umgewidmet werden, sinkt der Kohlenstoffgehalt im Boden auf etwa 50 % und wird durch Erosion weiter reduziert. Wird die Erosion unter Kontrolle gebracht, ist nach etwa 50 Jahren im gemäßigten Klima und nach vielleicht 10 Jahren im tropischen Klima (etwa in Nigeria) ein neuer Gleichgewichtszustand erreicht. Wenn zu diesem Zeitpunkt Maßnahmen ergriffen werden –beispielsweise hinsichtlich der Ernterückstände -, so kann der C-Gehalt über Jahre hinweg wieder ansteigen bis ein neues Gleichgewicht erreicht ist, wobei der so erreichbare C-Gehalt aber niedriger ist als der ursprüngliche. Unter Einsatz weiterer Technologien – etwa Abdecken der Felder, Zugabe von Nährstoffen, Biokohle, Düngemitteln – kann vielleicht auch ein maximaler Kohlenstoffgehalt erreicht werden, der dem des Ausgangszustands entspricht, in manchen Fällen diesen sogar übertreffen kann. Der Unterschied zwischen Minimum und Maximum gibt die Kapazität des Bodens als Kohlenstoffsenke an.

Wie schnell die C-Anreicherung im Boden erfolgt, muss experimentell bestimmt werden. Und es muss auch herausgefunden werden, welche Verfahren sich dazu am besten eignen. Zur Anwendung können u.a. kommen: konservierender Ackerbau, Anwendung von Biokohle, Agrarforstwirtschaft, Aufforstung, Bekämpfung von Wüstenbildung, Wasserspeicherung, unterschiedliche Landwirtschaftssysteme. Es gibt kein einzelnes Verfahren, das für alle Böden der Erde (davon gibt es mehrere hunderttausende verschiedene Typen) taugt.

Für eine nachhaltige Bodenbewirtschaftung - 10 grundsätzliche Regeln

  • 1. Ursachen der Bodendegradation. Die Verschlechterung der Böden ist ein biophysikalischer Prozess, der ökonomische, soziale und politische Ursachen hat. Die Gefährdung der Böden liegt aber eher in dem „wie“ als in dem „was“ kultiviert wird.
  • 2. Verantwortung für die Böden und menschliches Leid. Bevor Menschen für ihre Böden verantworlich gemacht weden können, müssen zuerst ihre existenziellen Grundbedürfnisse gesichert sein.
  • 3. Nährstoffe, Kohlenstoff, Wasser. Ohne die Bodenqualität zu beeinträchtigen ist es unmöglich mehr dem Boden zu entnehmen als man eingesetzt hat. Nur, wenn das Entnommene – Kohlenstoff, Nährstoffe, Wasser - ersetzt wird, bleibt der Boden fruchtbar und lässt sich steuern.
  • 4. Marginalitätsprinzip. Schlechte Böden, die mit marginalem Einsatz bebaut werden, erbringen marginale Erträge und ein marginales Leben. Nur qualitativ gute Böden und gutes Saatgut erzielen gute Erträge und ermöglichen ein gutes Leben.
  • 5. Organische vs. mineralische Nährstoffe. Pflanzen können nicht unterscheiden ob Nitrate oder Phosphate aus Mineraldünger oder organischen Quellen stammen. Es ist eine Frage der Logistik – können wir auf 1 500 Mio ha jährlich 10 Tonnen Stallmist/Jauche aufbringen, transportieren? (Wenn ja, ist dies sicherlich die beste Lösung). Unsere Strategie muss lauten: mehr aus weniger zu erzeugen!
  • 6. Kohlenstoff im Boden und Treibhausgase. Es hat den gleichen Effekt auf das Klima ob nun CO2 aus dem organisch gebundenen Kohlenstoff der Böden emittiert wird oder ob es bei der Verbrennung fossiler Brennstoffe oder der Trockenlegung von Mooren entsteht. Abhängig davon wie er bearbeitet wird, kann der Boden kann eine Quelle oder auch eine Senke von Treibhausgasen sein.
  • 7. Boden und Saatgut. Spitzensaatgut kann nur dort Erfolg haben, wo es unter optimalen Bedingungen wächst. Auch Spitzensorten können Wasser und Nährstoffe nicht aus jedem Boden (beispielsweise aus Felsen).
  • 8. Boden als Senke für atmosphärisches CO2 Böden sind integraler Bestandteil jeder Strategie zur Reduktion der Klimaerwärmung und zum Schutz der Umwelt.
  • 9. Motor der ökonomischen Entwicklung. Nachhaltige Bodenbearbeitung ist Motor der ökonomischen Entwicklung, der politischen Stabilität und des Wandels der Bevölkerung vor allem in den Entwicklungsländern.
  • 10. Moderne Innovationen - tradiertes Wissen. Nachhaltige Bodenbearbeitung bedeutet die Anwendung moderner Innovationen, die auf überliefertem Wissen beruhen. Wir können die Krankheiten von heute nicht mit der Medizin von gestern heilen – wir können aber auf dieser aufbauen!

Ausblick

Wenn ich nächstes Jahr die Präsidentschaft der International Union of Soil Sciences (IUSS) antrete, kommt die schwierige Aufgabe auf mich zu, einen Fahrplan für die Bodenwissenschaften im 21. Jahrhundert zu skizzieren.

Ich beginne also auf dieser Straße zu fahren und sehe ich meinen ersten Halt in der Periode 2015 – 2025. Welche Aufgaben kommen hier auf die Bodenwissenschaften zu? Ich denke es sind dies:

  • Nachhaltige Intensivierung der Produktivität
  • Steuerung des Phytobioms (d.i. alle Faktoren die Pflanzen beeinflussen oder von Pflanzen beeinflusst werden)
  • Entwicklung von Böden, die Pflanzenkrankheiten unterdrücken (sodass keine Pflanzenschutzmittel mehr nötig sind)
  • Urbane Landwirtschaft
  • Weltraum-Landwirtschaft (Versuche auf dem Mond oder Mars)
  • Sequestrierung von Kohlenstoff in Boden und Biosphäre (ich hoffe diese enorm wichtige Aufgabe wird bei der COP 21 Zustimmung finden)
  • Der Nexus Ansatz (die Sicherstellung von Wasser, Energie und Nahrung, die miteinander verknüpft sind).

Wenn ich auf dieser Straße weiterfahre, sehe ich für den nächsten Abschnitt in der Periode 2025 – 2050 weitere Herausforderungen:

  • Entwicklung einer Nährwert-bezogenen Landwirtschaft (wir müssen dem versteckten Hunger den Kampf ansagen, dem Mangel an Vitaminen und Mineralstoffen)
  • Auffinden von pharmazeutisch wirksamen Stoffen(der Großteil derartiger Substanzen sind Naturstoffe)
  • Herstellung synthetischer Böden und von
  • Böden aus extraterrestrischen Komponenten
  • Untersuchung von Bodenprozessen bei verringerter Schwerkraft
  • Bodenumwandlungen und Klimawandel

Als großes Ziel sollte eine Landwirtschaft mit Null Emissionen angestrebt werden.


*Rattan Lal; 27.11.2015 Boden - Der große Kohlenstoffspeicher **Prof. Rattan Lal hat seinen Vortrag „The Solutions Underfoot: The Power of Soil“ (gehalten am 2. November 2015 im Konferenzzentrum Laxenburg) freundlicherweise dem ScienceBlog zur Verfügung gestellt. Mit seinem Einverständnis wurde der Vortrag transkribiert, daraus eine deutsche Version geschaffen und diese geringfügig für den Blog adaptiert. Auf Grund der Länge des Artikels ist dieser in zwei Teilen erschienen (Teil 1 am 4. Dezember 2015). Ein Video-Mitschnitt des Vortrags kann abgerufen werden unter: https://www.youtube.com/watch?v=Uh0TwQyw37A&feature=youtu.be


Weiterführende Links

Artikel zum Thema „Boden“ im ScienceBlog:

inge Fri, 11.12.2015 - 10:28

Der Boden – Grundlage unseres Lebens

Der Boden – Grundlage unseres Lebens

Fr, 04.12.2015 - 07:30 — Rattan Lal

Rattan LalIcon GeowissenschaftenDie vielen miteinander konkurrierenden Nutzungen des Bodens durch die noch immer wachsende Weltbevölkerung machen ihn zur stark gefährdeten Ressource. Der sorgsame, nachhaltige Umgang mit dem Boden und die Wiederherstellung degradierter und verarmter Böden sind daher unerlässlich, sie sind die Lösung wesentlicher globaler Probleme des 21. Jahrhunderts . Rattan Lal (Ohio State University), einer der weltweit führenden Bodenwissenschaftler, zeigt hier die Bedeutung des Bodens und seine Rolle im globalen ökologischen Wandel auf.*

 „Hallo, Ihr Leute. Wisst Ihr wer ich bin, was ich bin?

Ich bin die Geomembran der Erde. Ich bin der Euch schützende Filter, Euer Puffer, Euer Vermittler von Energie, Wasser und biogeochemischen Stoffen. Ich bin der Erhalter Eures fruchtbaren Lebens, bin Quelle der Elemente und Lebensraum für den Großteil der Organismen. Ich bin die Grundlage, die Euch trägt, die Wiege Eurer Mythen und der Staub, aus dem Ihr wiederkehrt. Ich bin ein Boden!“ (Richard Arnold) -

Mit diesen wenigen Worten hat der bekannte amerikanische Bodenwissenschafter Richard Arnold zusammengefasst was der Boden ist, was er vermag und welche fundamentale Rolle er für unsere Existenz spielt.

Der Boden reagiert auf (die von Menschen geschaffenen) globalen Herausforderungen und Probleme. Deren Lösungen finden wir - im wahrsten Sinn des Wortes - unter unseren Füßen.

Auswirkungen des Menschen auf den Boden (Abbildung 1)

Ein zentraler Punkt ist die Zunahme der Weltbevölkerung. Gegenwärtig gibt es 7,3 Milliarden Menschen, im Jahr 2050 werden es 9,7 Milliarden sein - stellen Sie sich vor, es erscheinen zusätzliche 2,4 Milliarden Gäste zum Abendessen - und 11,2 Milliarden im Jahr 2100.

Bodendegradation ist ein Problem, vom dem rund 24 % der Landfläche betroffen sind: durch Wassererosion gingen bereits 1,1 Mrd ha verloren, durch Winderosion 0,55 Mrd. ha. (Unter Bodendegradation versteht man: dauerhafte/irreversible Veränderungen bis hin zum Verlust der Strukturen und Funktionen von Böden durch natürliche oder anthropogene Störungen)

Abbildung 1. Wechselbeziehungen zwischen Mensch und Ökosystem Boden. Mit dem enormen Anstieg der Weltbevölkerung entsteht ein immer stärkerer Nutzungsdruck auf das Ökosystem (Beschreibung im Text).

Sekundäre Versalzung der Böden: diese tritt bei rund 20 % der bewässerten Landfläche - dies sind rund 300 Mio ha - auf.

Die Algenblüte ist Folge von Wasserverschmutzung, von übermäßigem Transport von Phosphor und anderen Elementen aus dem Agro-Ökosystem in das Wasser-Ökosystem. Vom Veralgen sind viele Wasserflächen betroffen, u.a. die großen Seen in den US, der Golf von Mexico.

Problem Urbanisierung: schon heute lebt die Hälfte der Weltbevölkerung bereits in Städten, im Jahr 2050 werden dies 60 – 70 % sein. Stadtgebiete werden bis 2030 um 152 Mio ha zugenommen haben. Dies entspricht 10 % der gesamten gegenwärtigen Ackerbaufläche.

Reduzierung der Biodiversität: mit dem Anstieg der menschlichen Bevölkerung geht ein sehr rascher Verlust an Arten einher – jährlich verschwinden 1000 bis zu 10 000 Spezies (ohne Einwirkung des Menschen wären es gerade 5 Spezies).

Entwaldung insbesondere in den Tropengebieten: in den 1990-er Jahren gingen dadurch jährlich 8 Mio ha verloren, in den 2000-er Jahren 7,6 Mio ha – dies bedeutet, dass jährlich Flächen in der Größe von Sri Lanka entwaldet werden.

Wasserressourcen: extensive Nutzung des - zum Teil fossilen – Grundwassers aus Grundwasserleitersystemen (Aquifere) führt zum drastischen Absinken der Grundwasserspiegel: einige Aquifere (u.a. der Ogallala Aquifer in den US, Aquifere in den Ebenen von Südasien und Nordchina) verzeichnen ein Absinken von bis zu 2 m im Jahr. Die Zahl der in Gebieten mit Wassermangel lebenden Menschen nimmt jedoch zu; waren es 2,3 Mrd im Jahr 2000, so werden es bereits 2025 schon 3,5 Mrd Menschen sein.

Emission von Treibhausgasen: Seit den Anfängen des Ackerbaus vor 10 000 Jahren haben wir aus dem gesamtem Kohlenstoffpool der terrestrischen Biosphäre – d.i. Vegetation und Böden zusammengenommen - bereits 486 Gigatonnen (Gt; 1 Gt = 1 Mrd t) Kohlenstoff in die Atmosphäre verloren. Aus den Böden des Ackerlands waren es nach meinen Schätzungen 80 Gt Kohlenstoff.

Böden sind endliche Ressourcen

Böden entstehen äußerst langsam - es dauert meistens mehrere tausend Jahre bis sich eine dünne fruchtbare Schicht gebildet hat. Böden sind daher in menschlichen Zeitdimensionen nicht erneuerbar. Zum Verbrauch der Ressource Boden tragen sehr, sehr viele Nutzungen bei, die miteinander konkurrieren: Landflächen dienen nicht nur der Landwirtschaft, sie werden der Industrialisierung gewidmet, der Urbanisierung einschließlich der notwendigen Infrastruktur (s.u.), der Schaffung von Erholungsräumen, u.a.m. Insbesondere greift auch die nutzungsbedingte Änderung der Artenvielfalt (der Bodenorganismen) in das System Boden ein. Dazu kommen viele weitere Öko-Dienstleistungen des Bodens, die wir noch sehr wenig verstehen.

Haben wir den „Peak Soil“ bereits überschritten?

Für viele knappe Ressourcen kann der Zeitverlauf der Gewinnung in Form einer glockenförmigen Kurve, wie der sogenannten „Hubbert Kurve“ dargestellt werden (benannt nach dem Geophysiker MK Hubbert, der mit dieser Kurve erstmals die Erdölförderung beschrieb): Am Beginn nimmt die Förderungsrate zu, bis ein Maximum – der Peak - erreicht ist. Dadurch werden die noch vorhandenen, endlichen Vorräte immer rascher aufgebraucht - ein exponentielles Abklingen der Förderrate ist die Folge. Es gibt einen „Peak Öl“, „Peak Phosphor“, „Peak Wasser“.

Ein derartiger Kurvenverlauf mit einem „Peak Soil“ erscheint auch für die Ressource Boden plausibel (Abbildung 2), der Peak dürfte hier aber schon überschritten sein. Nicht nur die Landwirtschaft, auch sehr viele andere Nutzungen konkurrieren ja um die endliche Ressource Boden (siehe oben). Naturschutz, die Erhaltung unserer Böden sind von unabdingbarer Wichtigkeit: „Peak Soil“ bedeutet gefährdete oder bereits tote Böden - ebenso wie gewisse Arten von Vögeln und Tieren können auch Böden gefährdet oder schon vernichtet sein. Als Beispiel sind hier weite Flächen der Sahel-Zone zu nennen – es sind tote Böden, die bereits fast einen halben Meter Dicke und ihre ursprüngliche Charakteristik eingebüßt haben. Ein hoffnungsloses Bild: Die Bodenerosion wird in Afrika besonders gravierend ausfallen: Schätzungen gehen davon aus, dass bis 2090 dort 36 % des Bodens von Erosion betroffen sein werden, während es im globalen Mittel 14 % sein werden.

Abbildung 2. Haben wir den „Peak Soil“ bereits überschritten? Hypothetischer Zeitverlauf der endlichen Ressource Boden. Rechts unten: der tote Boden in der Sahel Zone.

Das Problem der steigenden Urbanisierung

Um für 1 Million Menschen Unterkunft und Infrastruktur zu schaffen werden 40 000 ha Land benötigt. Bei dem aktuellen Anstieg der Weltbevölkerung um 75 Millionen Menschen im Jahr bedeutet das, dass jährlich 3 Mio ha landwirtschaftlich nutzbare Flächen dafür umgewidmet werden müssen.

Mit der zunehmenden Verstädterung ist auch ein Wachsen der Megacities – d.i. von Städten mit mehr als 10 Millionen Einwohnern - verbunden: gibt es davon heute 28, werden es 2030 bereits 41 sein. Dies wirft enorme logistische Probleme auf. Eine Megacity mit 10 Mio Einwohnern benötigt täglich 6000 t Nahrungsmittel, die in die Stadt geliefert werden und nicht mehr an ihren Ursprungsort zurückkehren, die Abfälle verursachen und Umwelt und Gesundheit gefährden. In ausgedehnten Regionen, wo es wenige Bäume und Steine gibt – beispielsweise in Teilen NW-Indiens –wird zudem Boden abgetragen, um daraus Ziegel für den Hausbau zu produzieren.

Inwieweit können sich Böden erholen?

Die Fähigkeit eines Systems nach exogenen Störungen wieder zu seiner ursprünglichen Funktion zurückzukehren, wird als Resilienz (resilire = „zurückspringen“) bezeichnet. Der Boden verändert sich laufend. Als Folge von Störungen kann er eine Reihe von stabilen Zuständen einnehmen, in denen er seine Funktion (Produktivität) noch beibehält oder sich wieder erholt. Dies ist in Abbildung 3 vereinfacht dargestellt. Diese Resilienz ist gegeben, solange die Störungen mäßig ausfallen. Überschreiten sie aber einen kritischen Schwellenwert, so kann der Boden nicht in seinen vorherigen Status zurückkehren, sich nicht mehr erholen – sein Charakter und seine Funktion sind verloren gegangen (wie es beispielweise bei den erwähnten toten Böden in der Sahel Zone der Fall ist), er ist irreversibel degradiert.

Abbildung 3. Die Resilienz des Boden-Ökosystems. Der funktionsfähige Boden - hier durch eine graue Kugel gekennzeichnet- behält bei mäßigen Störungen die Funktion bei. Bei Überschreiten des kritischen Schwellenwertes kann das System nicht mehr in einen funktionsfähigen Zustand zurückkehren, sein Charakter ist verloren gegangen (rote Kugel).

Was sind nun die wesentlichen Eigenschaften der Böden? und Was sind die Schwellenwerte? Hier müssen wir erst die zugrunde liegenden wissenschaftlichen Prinzipien verstehen, um geeignete Maßnahmen treffen zu können, bevor der kritische Schwellenwert überschritten wird, der zur irreversiblen Degradation führt.

Die landwirtschaftliche Bodennutzung

Analysiert man die gegenwärtige Landnutzung, so

  • beansprucht die Landwirtschaft - das heißt Ackerbau und Viehzucht - rund 40 % der globalen Landflächen. Davon sind 75 % - rund 3,7 Mrd ha – der Viehzucht gewidmet (teilweise kann auf diesen Flächen auch nichts anderes gemacht werden),
  • werden für die Bewässerung dieser Flächen rund 70 % des globalen Süßwassers verbraucht,
  • werden 30 – 35 % der globalen Treibhausgas-Emissionen durch die landwirtschaftliche Nutzung hervorgerufen.

Dennoch: für 1 von 7 Menschen – d.i. für mehr als 1 Mrd Menschen - ist die Ernährungslage unsicher und, 2 – 3 von 7 Menschen gelten als mangelernährt.

Der Nahrungsmittelbedarf in der Zukunft

Wie kann der Ernährungsbedarf beispielsweise im Jahr 2050 – bei einem Zuwachs von rund 2,4 Mrd Menschen - sichergestellt werden?

Die häufige Antwort darauf: indem wir die landwirtschaftlich genutzten Flächen erweitern. Natürliche Ökosysteme – seien es nun Wälder, Steppen oder Feuchtgebiete – in Ackerbau- und Viehzuchtsgebiete umwandeln.

Diese Anschauungen kann ich nicht teilen! Ich meine, wir müssen andere Wege ins Auge fassen und die Natur vor weiterer Ausbeutung schützen. Es gibt dazu eine Reihe von Möglichkeiten. Vorauszuschicken ist dabei, dass global gesehen bereits ausreichend Nahrungsmittel produziert werden, um auch 10 Mrd Menschen zu ernähren. Eine sichere Ernährungslage kann gewährleistet werden, indem

  • Abfälle drastisch (um 30 – 50 %) reduziert werden,
  • der Zugang zu Nahrungsmitteln erleichtert wird – Maßnahmen gegen Armut, Ungleichheit, politische Instabilitäten und Konflikte ergriffen werden,
  • die Verteilung von Nahrungsmitteln global verbessert wird,
  • mehr pflanzlich basierte Nahrung zum Einsatz kommt (dies bedeutet nicht den Verzicht auf Nahrung tierischen Ursprungs, sondern, dass vielleicht nicht alle drei Mahlzeiten täglich vom Tier kommen),
  • persönliche Verantwortung übernommen wird, nichts als selbstverständlich vorausgesetzt wird. Jeder von uns ist „Täter“ und „Opfer“. Wenn jeder auch nur eine geringfügige Verbesserung bewirkt: bei 7,3 Mrd Menschen kann dies eine enorme Auswirkung haben,
  • die Produktivität der bereits landwirtschaftlich genutzten Flächen erhöht wird, degradiertes Land wiederhergestellt wird. Mit den gegenwärtigen etablierten Technologien kann in vielen Regionen Afrikas (wo ich 20 Jahre lang gearbeitet habe) und auch in Südasien der Ertrag des Ackerlands um das Doppelte ja sogar um das Vierfache gesteigert werden.

Warum sollte man also die vorhandenen Ressourcen nicht in angemessener Weise nutzen, bevor man daran denkt ursprüngliches Land in Kulturland umzuwandeln?

Ernährungssicherheit zu erreichen, Landökosysteme zu schützen, wiederherstellen und eine nachhaltige Landwirtschaft zu fördern: diese Ziele gehören auch zu den „Sustainable Development Goals“ (SDGs; „Zielen nachhaltiger Entwicklung“), welche die Vereinten Nationen im September 2015 verabschiedet haben. Es sind dies 17 Hauptziele mit 169 Unterzielen, die für alle Staaten Gültigkeit haben und - mit einer Laufzeit von 15 Jahren - am 1.Jänner 2016 in Kraft treten.


*Prof. Rattan Lal hat freundlicherweise seinen Vortrag „The Solutions Underfoot: The Power of Soil“ (gehalten am 2. November 2015 im Konferenzzentrum Laxenburg) dem ScienceBlog zur Verfügung gestellt. Mit seinem Einverständnis wurde der Vortrag transkribiert, übersetzt und geringfügig für den Blog adaptiert. Auf Grund der Länge des Artikels erscheint dieser in zwei Teilen (Teil 2 am 11. Dezember 2015). Ein Video-Mitschnitt des Vortrags kann abgerufen werden unter: https://www.youtube.com/watch?v=Uh0TwQyw37A&feature=youtu.be.


Weiterführende Links

Artikel zum Thema „Boden“ im ScienceBlog:

inge Wed, 04.02.2015 - 07:30

Boden - Der große Kohlenstoffspeicher

Boden - Der große Kohlenstoffspeicher

Fr, 27.11.2015 - 11:41 — Rattan Lal

Rattan LalIcon GeowissenschaftenIn drei Tagen treffen 25 000 Delegierte aus mehr als 190 Ländern zur diesjährigen UN-Klimakonferenz (COP 21) in Paris zusammen. Deren Ziel ist es ein globales Klimaschutzabkommen zustande zu bringen, welches die drohenden katastrophalen Auswirkungen des Klimawandels verhindert aber dennoch ein Wirtschaftswachstum in gefährdeten Entwicklungsländern ermöglicht. Der renommierte Bodenexperte Rattan Lal (Ohio State University) hat in bahnbrechenden Untersuchungen das Potential des Bodens zur Kohlenstoffspeicherung aufgezeigt und darauf basierende, effiziente Verfahrensweisen, um dem globalen Wandel entgegenzuwirken. Von diesen Konzepten überzeugt, wird der französische Landwirtschaftsminister Stephane Le Foll diese unter die empfohlenen Maßnahmen der COP 21 aufnehmen. Im nachstehenden Artikel* gibt Rattan Lal einen summarischen Überblick über die Kohlenstoffspeicherung in unterschiedlichen Bodentypen. Dies ist als Einleitung zu weiteren Artikeln des Autors zu sehen, in denen er über die anthropogenen Auswirkungen auf Boden und Klima berichten und Lösungsvorschläge geben wird.

Wenn Böden richtig behandelt werden, nehmen sie aus der Atmosphäre Kohlenstoff auf – ein wichtiger Beitrag gegen die Erderwärmung. Doch die industrielle Landwirtschaft nimmt darauf keine Rücksicht.

Boden und Klima

Das Klima trägt aktiv dazu bei, wie sich der Boden ausbildet, ist untrennbar mit seiner Qualität verbunden. Der Boden wiederum beeinflusst in erheblichem Maße das Klima. Beide befinden sich in einem dynamischen Gleichgewicht.

Gräbt man mit einem Spaten ein rund 50 cm tiefes Loch und glättet dessen Wände, so sieht man eine Reihe verschiedener Schichten. Die oberste Schicht ist wahrscheinlich schwarz, es folgen braune oder graue Farbtöne, vielleicht mit schwarzen oder roten Bändern dazwischen. Diese Schichten werden „Horizonte“ genannt und sind charakteristisch für bestimmte Klimazonen. In den Nadelwäldern, die sich in den nördlichen Breiten ausdehnen, findet sich ein typisches graues Band, das wie Asche aussieht und „Podsol“ genannt wird. Viele Böden der Feuchttropen sind rot oder gelb wegen des darin enthaltenen Eisens oder Aluminiums. Sie heißen „Ferralsole“.

Die Schichten werden vom Klima verursacht. Regen löst bestimmte Mineralien und Salze und führt diese im durchsickernden Wasser nach unten. Verdunstung und Kapillarwirkung befördern sie wieder nach oben, wo sie sich in charakteristischen Schichten oder eben auf der Oberfläche ablagern. Feinpartikel können sich in einer bestimmten Tiefe ansammeln und eine wasserstauende „Ortstein“-Schicht bilden. Wasser und Säure nagen am Fels, brechen ihn auf und bilden neuen Boden. Durch das Zusammenspiel aus Klima, dem Grundgestein und der Topografie sowie durch menschliche Eingriffe wie Pflügen oder Bewässerung entstehen Böden, die entweder sandig, schluffig oder lehmig sind, sauer oder basisch, wassergesättigt oder gut entwässert, fruchtbar oder unfruchtbar.

Das Klima beeinflusst den Boden auch durch die Vegetation, die auf ihm wächst, und die Tiere und Mikroorganismen, die in ihm leben. Pflanzenwurzeln und Pilzmyzelien binden die Erde und ziehen Wasser und Nährstoffe heraus; Regenwürmer, Maulwürfe und Insekten wühlen und graben darin und sorgen für Durchlüftung und Kanäle für die Wasserabfuhr. Wenn Pflanzen absterben, werden sie zu Humus zersetzt, dieser schwarzen Schicht an der Oberfläche vieler Böden. Diese organischen Substanzen sind für die Fruchtbarkeit des Bodens von entscheidender Bedeutung. Sie halten die Bodenpartikel zusammen und schließen Wasser und Nährstoffe ein, die somit erreichbar für Wurzeln sind.

Wächst nichts oder zu wenig – zum Beispiel nach dem Pflügen oder in trockeneren Gebieten – ist der Boden den Elementen ausgesetzt. Regentropfen brechen Klumpen auf und waschen Partikel fort. Wenn starker Regen auf die Oberfläche prasselt, können sich Krusten bilden, die verhindern, dass Wasser rasch einsickern kann. Es läuft auf der Oberfläche ab und spült dabei den wertvollen Mutterboden mit weg, lässt Flüsse braun werden und Rückhaltezonen verlanden. In Trockenzeiten kann der Wind Staub und Sand aufwirbeln und hunderte Kilometer weit tragen.

Der Boden ist eine gewaltige Kohlenstoffsenke

Klima beeinflusst also den Boden – und umgekehrt wirkt sich die Beschaffenheit des Bodens auch auf das Klima aus. Kohlendioxid und andere Treibhausgase spielen hier eine besonders wichtige Rolle. Der Boden ist eine gewaltige Kohlenstoffsenke: Er enthält mehr Kohlenstoff als die Atmosphäre und die gesamte Erdvegetation zusammen(Abbildung 1). Vergleichsweise geringe Verluste der Menge organischer Substanzen im Boden können eine große Wirkung auf die Atmosphäre und damit auf die Erwärmung der Erde haben.

Abbildung 1. Kohlenstoff in Boden und Vegetation. In Europa sammelt sich der Kohlenstoff mehr in den Böden als in den Pflanzen – in Afrika ist es umgekehrt.[1].

Ackerland, das rund 1,5 Milliarden Hektar der Erdoberfläche ausmacht, enthält im Allgemeinen weniger organische Substanzen als Böden mit natürlicher Vegetation. Das Pflügen von landwirtschaftlichen Nutzflächen und das Ernten von Feldfrüchten beschleunigt die Freisetzung von Kohlendioxid in die Atmosphäre. Der Reisanbau setzt Methan frei, ein 25-fach stärkeres Treibhausgas als Kohlendioxid. Stickstoffdünger führt zur Emission von Distickstoffmonoxid (N2O), einem noch schädlicheren Gas. Bessere Bewirtschaftungsmethoden wie beispielsweise eingeschränktes Pflügen, Erosionsschutz, Gründüngung oder Kompost und Dung können dem Boden wieder Kohlenstoff zuführen.

Rund 3,5 Milliarden Hektar weltweit sind Weideland. Rinder und andere Wiederkäuer sind große Verursacher von Treibhausgasen: Durch Aufstoßen, Blähungen und Dung werden Methan und N2O abgegeben. Weideland in Trockengebieten nimmt relativ wenig Kohlenstoff pro Hektar auf. Da es sich jedoch über große Flächen erstreckt, kann es insgesamt sehr viel Kohlenstoff absorbieren, wenn es gut bewirtschaftet, also zum Beispiel kontrolliert beweidet wird, wenn Brände vermieden, Bäume gepflanzt, Boden und Wasser bewahrt werden, wenn erodiertes und versalztes Land sich erholen kann und Feuchtgebiete wiederhergestellt werden.

Abbildung 2. Gespeicherter Kohlenstoff nach Ökosystemen [2]. Die Renaturierung von Mooren und Feuchtgebieten lohnt sich besonders. Aber kein Ökosystem darf vernachlässigt werden.

Wälder bedecken rund 4 Milliarden Hektar Fläche auf der Erde. Die Böden, auf denen tropischer Regenwald wächst, sind erstaunlich unfruchtbar: Regen schwemmt die Nährstoffe schnell fort. Die meisten Pflanzennährstoffe und Kohlenstoffe im Regenwald sind in der Vegetation selbst enthalten. Sterben die Organismen, so zersetzen sie sich rasch in dem heißen, feuchten Klima, und die Nährstoffe werden in neuen Pflanzen wiederverwertet. Wenn Bäume gefällt oder verbrannt werden, dann werden große Mengen Kohlenstoff in die Atmosphäre abgegeben. Die Böden unter den ausgedehnten nördlichen Wäldern Nordamerikas, Skandinaviens und Nordrusslands hingegen enthalten riesige Mengen Kohlenstoff, insbesondere in Torfmooren (Abbildungen 2, 3).

Abbildung 3. Kohlenstoffgehalt des Bodens [3]. Europa emittiert viel mehr Treibhausgase als es bindet, Zudem sinkt die Qualität der Böden. Doch je weniger er lebt, umso weniger speichert er.

Vorausgesetzt, er wird richtig bewirtschaftet, ist der Boden grundsätzlich in der Lage, reichlich Kohlenstoff aufzunehmen und so zu helfen, dass die Erde sich nicht weiter erwärmt.

Entscheidend wird sein, ob es gelingt, die Fähigkeit des Bodens zur Speicherung des Kohlenstoffes wiederherzustellen.


[1] FAO, Global Forest Resources Assessment 2005, nach Atlas der Globalisierung spezial: Klima,2008 S. 35, http://bit.ly/1vZlQqi
[2] EC, Soil organic matter management across the EU, Technical Report 2011-051, S. 20, http://bit.ly/1yQrKct.
[3] JRC Topsoil Organic Carbon Content, 2003, http://bit.ly/1DcY51f


*Der Artikel stammt aus: Bodenatlas - Daten und Fakten über Acker, Land und Erde (Kooperationsprojekt zum internationalen Jahr des Bodens von Heinrich-Böll-Stiftung, IASS, BUND, Le Monde diplomatique, 2015. Alle Grafiken und Texte stehen unter der offenen Creative Commons Lizenz CC-BY-SA ) https://www.bund.net/fileadmin/bundnet/publikationen/landwirtschaft/1501...  

In den nächsten Wochen werden zwei weiteren Artikel des Autors folgen, in denen er über die anthropogenen Auswirkungen auf Boden und Klima berichten und Lösungsvorschläge geben wird.


Weiterführende Links

Zum Thema Boden und Klima sind zahlreiche Artikel im ScienceBlog, vor allem im Themenschwerpunkt ›Klima & Klimawandel‹, erschienen:

Weitere Artikel zum Thema:

inge Fri, 27.11.2015 - 11:41

Comments

Von Bakterien zum Menschen: Die Rekonstruktion der frühen Evolution mit fossilen Biomarkern

Von Bakterien zum Menschen: Die Rekonstruktion der frühen Evolution mit fossilen Biomarkern

Fr, 20.11.2015 - 11:23 — Christian Hallmann

Christian HallmannIcon BiologieDas Leben auf der Erde ist erstaunlich alt. Nach ihrer Entstehung vor ca. 4,5 Milliarden Jahren war die Erde ein äußerst lebensfeindlicher Ort – ohne verfestigte Kruste, ohne Wasser und mit häufigen Meteoriteneinschlägen. Sobald die Umweltbedingungen sich erstmalig stabilisierten und flüssiges Wasser vorkam, sollte es nicht lange dauern, bis erstes Leben in Form primitiver einzelliger Bakterien erschien. Christian Olivier Eduard Hallmann, Leiter der Forschungsgruppe Organische Paläobiogeochemie (MPI Biogeochemie, Jena) erforscht, wie sich das Leben auf der Erde zwischen seinem ersten Aufkommen und den heutigen komplexen Ökosystemen entwickelt hat.*

Die ältesten Spuren des Lebens

Die ältesten Spuren irdischen Lebens befinden sich fernab der Zivilisation im Westaustralischen Outback (Abbildung 1). In einer geologischen Formation, welche als Warrawoona-Gruppe bekannt ist, enthält teilweise verkieseltes 3,5 Milliarden Jahre altes Karbonatgestein kleine, jedoch regelmäßige konische Strukturen, sogenannte Stromatolite, deren Entstehung unverkennbar auf Mikroorganismen zurückzuführen ist.

Mikrobiell gebildete StromatolitenAbbildung 1. Mikrobiell gebildete Stromatoliten in der ca. 3,5 Milliarden Jahre alten Warrawoona-Gruppe (Westaustralien) bilden den zurzeit ältesten anerkannten Nachweis für die Existenz von Leben auf der Erde © C. Hallmann

Dies allein ist allerdings kein Indiz für den Ursprung des Lebens.

Sedimentäres Gestein, welches sich als Sand, Ton und Karbonat in Meeresbecken und Seen ablagert, durchläuft mitsamt den Kontinenten, auf denen sich die Gesteine befinden, sogenannte Wilson-Zyklen. Durch die tektonische Bewegung der Kontinentalplatten werden Gebirge wie Falten aufgeworfen und im Laufe der Zeit wieder abgetragen. Vulkanische Aktivität bricht das umgebende Gestein auf und wenn eine Platte sich unter ihre Nachbarplatte schiebt, schmilzt diese langsam auf und Ihre Gesteinsinformation fließt in das große Mantelreservoir ein. So ist es nicht verwunderlich, dass im Laufe der Zeit immer weniger ursprünglich abgelagertes Sedimentgestein vorhanden ist. Die Warrawoona-Gruppe enthält die ältesten Sedimentgesteine auf der Erde, welche nicht unter hohem Druck und hohen Temperaturen umgewandelt wurden.

Das Leben auf der Erde könnte also noch älter sein, doch diese Information ist durch die gesteinsverändernden Prozesse für immer verloren gegangen.

Parallelentwicklung von Leben auf dem Mars

Falls das Leben sich gleichzeitig auf Erde und Mars entwickelt hat (es gibt die Hypothese, dass die notwendigen organischen Moleküle des Lebens mit Meteoriten auf die Erde gekommen sind – diese wären somit ebenfalls auf dem Mars gelandet), wäre es möglich, weitere Einblicke zum frühesten Leben auf unserem Nachbarplaneten zu finden. Dort hat die Aktivität der Plattentektonik irgendwann aufgehört und wesentlich älteres Gestein ist noch unverändert vorhanden. Die technischen und methodischen Anforderungen an die Mars-Forschung, welche aktuell von der NASA mit dem Curiosity Rover durchgeführt wird, sind allerdings viel höher als auf der Erde und die Fragestellung ist höchst spekulativ.

Fragen zur frühen Evolution

Zeitbalken der 4,5 Milliarden Jahre irdischer Entwicklung mit den bedeutendsten Übergängen und EreignissenAbbildung 2. Zeitbalken der 4,5 Milliarden Jahre irdischer Entwicklung mit den bedeutendsten Übergängen und Ereignissen: (1) flüssiges Wasser, (2) Warrawoona-Gruppe Stromatolite, (3) bis vor kurzem die ältesten vermuteten Biomarker, (4) Schwefelisotope deuten auf steigende atmosphärische Sauerstoffkonzentrationen, (5) älteste eindeutige cyanobakterielle Mikrofossilien, (6) möglicher Ursprung der Eukaryonten nach Molekular-Uhr Studien, (7) älteste eindeutige Mikrofossilien eukaryontischer Algen, (8 ) älteste unangefochtene reguläre Steroidbiomarker eukaryotischen Ursprungs. Der Sauerstoffgehalt der Atmosphäre (‘atmospheric oxygen’) stieg zum ersten Mal während des GOE (Great Oxidation Event) und erreichte möglicherweise 1% des heutigen Atmosphärengehalts (PAL: present atmospheric level). Starke Schwankungen in sedimentären Kohlenstoffisotopen (‘carbon isotopes’) deuten auf eine Instabilität des marinen Kohlenstoffzyklus‘.© C. Hallmann

Doch zurück zur Erde – über Jahrmilliarden entwickelten sich die Mikroben der Warrawoona-Gruppe zu dem Leben, welches uns heute umgibt – unter anderem Insekten, Fische, Vögel, Säugetiere und den Menschen. Diese Entwicklung nahm sehr viel Zeit in Anspruch und die mechanistischen Details der Evolution gehören immer noch zu den großen Fragestellungen der Molekularen Geobiologie – dem höchst interdisziplinären Forschungszweig an der Grenze der Chemie, Biologie und Geologie, mit dem sich die Max-Planck Forschungsgruppe beschäftigt. Eines der größten verbleibenden Rätsel ist der Faktor Zeit, denn die Evolution verlief nicht linear (Abbildung 2). Die ältesten Lebensspuren sind 3,5 Milliarden Jahre alt. Komplexere Lebensformen erschienen allerdings erst vor etwa 500 Millionen Jahren – dann allerdings in rapidem Tempo während der Kambrischen Explosion.

Stellen wir uns den Ablauf der gesamten Erdgeschichte an einem 24-stündigen Tag vor, so liegt die Warrawoona-Gruppe mitsamt Ihrer mikrobiell-gebildeten Stromatolite bei ungefähr 5:15 Uhr morgens. Das erste komplexe Leben entstand allerdings erst um etwa 21:05 Uhr abends (kleine Anmerkung: Homo sapiens erschien irgendwann in den letzten 5 bis 7 Sekunden).

Die große Frage ist: Was geschah tagsüber auf der Erde?

Makrofossilien, Mikrofossilien und molekulare Fossilien

Chromatogramme aus der gekoppelten Analyse von Gaschromatographie und MassenspektrometrieAbbildung 3. Chromatogramme aus der gekoppelten Analyse von Gaschromatographie und Massenspektrometrie zeigen ein „modernes“ Steroidverteilungsmuster (oberes Chromatogramm), und eines, das typisch ist für die Zeit vor der Kambrischen Explosion (unteres Chromatogramm)© C. Hallmann

Aus dem traditionellen Blickwinkel der Paläontologie würde man fossile morphologische Überreste einstiger Lebensformen zunächst miteinander vergleichen. Das Problem dabei ist allerdings, dass komplexes Leben erst mit der Kambrischen Explosion – vor etwa 550 Millionen Jahren oder in unserem Bild um 21:00 Uhr abends – anfing, die Erde zu besiedeln. Alle skelettragenden Lebensformen entstanden nach dieser Zeit. Zwar hinterlassen Bakterien und einzellige Algen auch Überreste ihrer Zellwände, jedoch sind diese Mikrofossilien, oder Akritarchen im Falle von eukaryotischen Algen, taxonomisch sehr schwer innerhalb der modernen Organismen einzuordnen. Die Lösung ist, die paläontologische Herangehensweise auf die Ebene der Moleküle zu übertragen, da die molekulare Zusammensetzung eines jeden Organismus die größte Menge an phylogenetischer Information trägt. Nukleinsäuren sind sehr instabil und zerfallen rapide, nachdem die tote Biomasse von Bakterien und Algen im Sediment eingebettet wurde, weshalb genetische Analysen für unseren Ansatz nicht in Frage kommen. Glücklicherweise gibt es aber mehrere Fette, die unter bestimmten Umweltbedingungen nicht nur sehr stabil sind, sondern sich zusätzlich durch eine hohe taxonomische Spezifität auszeichnen. Zwar verändern sich die Moleküle leicht während der Jahrmillionen, die sie unter erhöhten Temperaturen und Drücken im Sediment verbringen, aber das verbleibende Kohlenwasserstoff-Gerüst ist dem Ausgangsprodukt in bestimmten Fällen so ähnlich, dass anhand dieser analogen Struktur und manchmal aufgrund der Zusammensetzung aus Kohlenstoffisotopen eine eindeutige Verbindung zu einem Vorgängermolekül und daher einem Mutter-Organismus erstellt werden kann.

Mithilfe unseres Wissens über den Aufbau komplexer organischer Verbindungen in modernen Organismen kann so die einstige Organismenvielfalt mit dem molekularen Inventar alter Gesteine rekonstruiert werden.

Kontamination und Beprobung

SchwarzschieferAbbildung 4. Schwarzschiefer, wie in diesem 2,8 Milliarden Jahre alten Gesteinskern, der 2012 unter beispiellos sauberen Bedingungen erbohrt wurde, hat man bis vor kurzem als Lagerstätte für die ältesten molekularen Überbleibsel mariner Algen angesehen.© C. Hallmann

Lange Zeit gab es wenig Beachtung für die Tatsache, dass die winzigen Mengen solcher Biomarker-Moleküle in uraltem Gestein höchst anfällig für Verunreinigungen sind. Biomarkersignaturen aus Gesteinen, die eine halbe, eine und zwei Milliarden Jahre alt sind, zeigten häufig ein Verteilungsmuster, das dem in sehr jungem Gestein stark ähnelte (Abbildung 3) – das Leben hätte sich demnach sehr früh sehr schnell entwickelt und aufgefächert. Zusammen mit amerikanischen und australischen Kollegen erbohrte Hallmann sehr altes Gestein unter äußerst sauberen Bedingungen. Seine Analysen ergeben ein leicht anderes Bild: Die ältesten molekularen Überreste von marinen Algen, zum Beispiel, stammen nicht aus der Zeit um 2,5 Milliarden Jahren, sondern sind lediglich 750 Millionen Jahre alt (Abbildung 2), was darauf hindeutet, dass eukaryotische Algen erst dann eine ökologisch relevante Rolle einnahmen. Außerdem unterscheidet sich das Verteilungsmuster von Steroiden – Moleküle, welche hochspezifisch für alle Eukaryonten sind, sowohl für marine Algen als auch für uns Menschen – zu dem Zeitpunkt stark vom Verteilungsmuster, welches in Gesteinen der letzten 550 Millionen Jahre, also nach der Kambrischen Explosion, vorherrscht (Abbildung 4). Somit ändert sich allmählich das Bild der frühen Evolution des Lebens und in kleinen Schritten wird deutlich, was in den fehlenden 16 Stunden passierte.


* Der im Jahrbuch der Max-Planck Gesellschaft 2015 erschienene Artikel http://www.mpg.de/8896172/MPI-BGC_JB_2015?c=9262520 wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert und ohne (die im Link angeführten) Literaturzitate.


Weiterführende Links

Von und über Christian Hallmann

Artikel zur Evolution von Organismen im ScienceBlog

Im Themenschwerpunkt Evolution gibt es zahlreiche Artikel zur

inge Fri, 20.11.2015 - 11:23

Big Data - Kleine Teilchen. Triggersysteme zur Untersuchung von Teilchenkollisionen im LHC.

Big Data - Kleine Teilchen. Triggersysteme zur Untersuchung von Teilchenkollisionen im LHC.

Fr, 13.11.2015 - 07:00 — Manfred Jeitler

Manfred JeitlerIcon physik

Calibri (Textkörper)Wenn Pakete hochenergetischer Elementarteilchen am Teilchenbeschleuniger „Large Hadron Collider“ (LHC) des CERN zur Kollision gebracht werden, können neue Teilchen entstehen (z. B. das Higgs-Teilchen) und daraus fundamentale Erkenntnisse über den Aufbau der Materie gewonnen werden. Um derartige Prozesse aus einer ungeheuren Datenflut verlässlich herauszufiltern zu können, wurden – unter entscheidender Mitwirkung des Instituts für Hochenergiephysik (HEPHY) der ÖAW – elektronische Triggersysteme entwickelt. Der daran beteiligte Hochenergiephysiker Manfred Jeitler (HEPHY/CERN) veranschaulicht hier die Funktionsweise derartiger Trigger.

 

Wenn Forscher kleine Objekte untersuchen, so macht das die Arbeit nicht unbedingt einfacher. Die erforderlichen Instrumente werden oft nicht nur komplizierter, sondern auch größer. Je kleiner die Mikroben, Bazillen, Viren sind, desto größer und teurer werden die Mikroskope, mit denen man sie untersuchen kann. Die Bausteine von Atomen, die so genannten Elementarteilchen, sind noch eine Milliarde Mal kleiner. Zu ihrer Untersuchung verwendet man Teilchenbeschleuniger.

Warum viele Ereignisse?

Hat man so einen großen Teilchenbeschleuniger gebaut, reicht es jedoch noch lange nicht, einfach ein paar „Fotos“ der gesuchten Elementarteilchen zu schießen. Warum? Wir können ja Elementarteilchen gar nicht „sehen“, wir können nur aus indirekten Signalen auf sie schließen. In einem Kollisionsbeschleuniger können wir Teilchen miteinander zusammenstoßen lassen – so stark, dass sie sich dabei verändern, und wir nach dem Zusammenstoß andere Teilchen feststellen. Diese neu geschaffenen Teilchen sind meistens nicht stabil, sondern zerfallen wiederum in andere Teilchen, in manchen Fällen auf viele verschiedene Weisen. Manche dieser Kollisions- und Zerfallsprozesse sind häufiger, manche aber sehr selten. Dass sie selten sind, heißt aber nicht, dass sie unwichtig wären. So, wie Biologen manchmal hartnäckig nach einer Art suchen, deren Existenz sie aus irgendeinem Grund vermuten, so sagen auch die physikalischen Theorien manchmal Teilchen oder Prozesse mit diesen vorher, die man dann finden kann – oder auch nicht. Man kann die Theorie also verifizieren oder falsifizieren.

Wenn man zum Beispiel zwei Protonen mit großer Energie aufeinander schießt, kann das zu den verschiedensten Prozessen führen. Unter anderem kann z.B. auch ein so genannten „Higgs-Teilchen“ entstehen. Das wurde von Theoretikern vor über 50 Jahren vorhergesagt, und seine Existenz ist für unsere Theorien von entscheidender Bedeutung. Erst 2012 hat man dieses Teilchen dann endlich am Teilchenbeschleuniger des CERN in Genf gefunden. Der Grund für diese lange Suche war vor allem, dass man früher Protonenstrahlen ausreichender Energie nicht zur Verfügung hatte. Aber selbst, als der Beschleuniger bereits bei der entsprechenden Energie lief, musste man noch Jahre lang suchen! Wieso? Weil die Produktion eines Higgs-Teilchens selbst bei diesen Energien so selten ist! Zehn Milliarden Mal passiert bei einer Protonenkollision etwas anderes, und nur einmal entsteht das, was man wirklich sucht! Stellen Sie sich vor, Ihre Tochter (oder Schwester, oder sonst wer) hat einen chinesischen Freund, und den wollen Sie bei Ihrer Chinareise natürlich kennen lernen. Sie wissen aber nicht, wo er wohnt und wie er heißt, kennen seine Handynummer nicht, Sie haben ihn nur einmal etwas verzerrt auf Skype gesehen. Sie müssen also ganz China abklappern und jeden Chinesen genau anschauen. Das wird mühsam! Dabei gibt es ja eh nur eine Milliarde Chinesen ... beim Higgs-Teilchen müssen Sie noch zehn Mal länger suchen!

Abbildung 1. CMS Event Display: Bei diesem in der Computer-Rekonstruktion dargestellten Ereignis könnte es sich um den Zerfall eines Higgs-Teilchens in zwei Photonen handeln. Erst aus vielen ähnlichen Ereignissen aber kann man die Eigenschaften dieses Teilchens ableiten.

In Wirklichkeit kommt es noch schlimmer: Das Higgs-Teilchen kann man, so wie die anderen Elementarteilchen, nicht wirklich „sehen“. Sie können nur gewisse Zerfälle in andere Teilchen beobachten, die Sie vom Higgs-Teilchen erwarten (Abbildung 1). Sie lassen zum Beispiel zwei Protonen kollidieren und suchen nach Ereignissen, bei denen Sie nachher zwei Photonen (also hochenergetische Lichtteilchen) sehen (die können wir in unseren Geräten, den Teilchendetektoren, feststellen). Es gibt aber noch viele andere Prozesse, die zwei Photonen produzieren. Nur, wenn diese bestimmte Energien und Flugrichtungen haben, könnten sie auf den Zerfall eines Higgs-Teilchens zurückzuführen sein. So, jetzt haben wir also das Kochrezept:

Man nehme: zehn Milliarden Protonzusammenstöße, suche alle Ereignisse, bei denen zwei Photonen entstehen, und messe deren Energien und Impulse. Im Durchschnitt wäre darunter jetzt vielleicht ein Higgs-Zerfall. Aber von einem wissen wir noch nichts - wir müssen uns das viele Male ansehen, um festzustellen, ob wir wirklich Higgs-Teilchen sehen, weil sich bestimmte Verhältnisse von Energien und Impulsen immer wieder wiederholen. Um das halbwegs genau zu wissen, müssen wir das wenigstens tausend Mal wiederholen. Also: „Herr Ober, bitte zehntausend Milliarden Protonenkollisionen!“

Wie kann man diese vielen Ereignisse untersuchen?

Solche unglaublichen Mengen an Zusammenstößen zwischen Protonen kann uns tatsächlich der „Large Hadron Collider“, kurz LHC am CERN liefern. (Protonen und auch alle anderen, aus so genannten „Quarks“ bestehenden Teilchen, werden in der Physik als „Hadronen“ bezeichnet, daher der Name dieses Beschleunigers.) Aber irgendwer muss sich dann ja auch diese Unmengen an Daten ansehen! Für jeden Zusammenstoß von zwei Protonpaketen – an die 40 Millionen Mal pro Sekunde – muss man alle „Kanäle“, also alle einzelnen Sensoren des Detektors, auslesen, und von denen gibt es an die 100 Millionen (Abbildung 2). Das ist nicht nur für uns Menschen ein bisschen zu viel, das schaffen nicht einmal die modernsten Computer so leicht.

Abbildung 2. CMS Detektor: Will man zu einem Ereignis alle Informationen sammeln, die der CMS-Detektor aufgenommen hat, so muss man an die hundert Millionen Kanäle berücksichtigen.

Wenn man genug Geld hat, kann man sich viele Computer kaufen und parallel arbeiten lassen. Damit ist es aber noch nicht getan: man muss zuerst die Daten aus dem Detektor herausholen, und auch das ist keineswegs trivial. Um so viele Daten so rasch „herauszuschaufeln“, braucht man viele Datenleitungen und auch viel elektrische Leistung. Die dafür erforderlichen Stromleitungen, die Datenleitungen und die bei so viel Leistung erforderlichen Kühlanlagen würden dann aber kaum mehr Platz für die eigentlichen Detektoren lassen, die die Teilchen wahrnehmen sollen. Wie kann man sich aus dieser Zwickmühle befreien?

Arbeit machen - oder Arbeit vermeiden?

Am besten wäre es, gar nicht alle Informationen aus dem Detektor herausholen zu müssen. Wie wir oben gesehen haben, suchen wir ja eigentlich recht seltene Ereignisse, das meiste, was bei den Protonenkollisionen passiert, ist für uns nur störender „Untergrund“. Es geht uns ein bisschen wie einem Astronomen in einer Großstadt: er will die Sterne beobachten, hauptsächlich sieht er aber nur das Licht der Straßenbeleuchtung. Man müsste das irgendwie filtern können, irgendwie schon vorher wissen, welche Ereignisse nun interessant sind und welche nicht. Wie soll man das anstellen?

Die Lösung nennt sich „Trigger“, also „Auslöser“. Ausgelöst werden soll hier aber natürlich nicht der Schuss eines Revolvers, wie bei irgendwelchen „trigger-happy cowboys“, sondern die Aufzeichnung der Daten. Die Idee ist, dass man sich an Hand von wenigen Informationen ein erstes Bild von einem Ereignis macht und damit bereits viele Untergrundereignisse, die einen nicht interessieren, verwerfen kann. Stellen Sie sich vor, Sie sind eine Dame auf einem Ball und suchen einen Tänzer. Leider sind ja viele junge Männer tanzfaul, und auf den Bällen herrscht dann manchmal Damenüberschuss und Herrenknappheit. Wenn Sie einen männlichen Tanzpartner haben wollen, werden Sie zuerst einmal alle Damen ausfiltern. Wer also im Abendkleid daherkommt, wird gar nicht erst näher angesehen. Erst, wenn Sie Beine in einer schwarzen Anzughose sehen, brauchen Sie den Blick zu heben und genauer untersuchen: ist es wirklich ein Herr oder vielleicht eine Dame in einem Hosenanzug? Sieht er halbwegs attraktiv aus? Kann er einigermaßen tanzen?

Der Trigger

Ähnlich gehen die Physiker mit dem „Trigger“ vor, der natürlich, auf Grund der vielen Untergrundereignisse, automatisch funktionieren muss. Zuerst werden auf Grund grober Kriterien schon viele weniger interessant erscheinende Ereignisse verworfen, dann bleiben schon weniger über, und man kann sich den Rest immer genauer ansehen. Dafür liest man die Informationen zuerst rasch, aber mit grober Auflösung aus. Dadurch bekommt man einen ersten Eindruck davon, in ungefähr welche Richtung Teilchen davonfliegen, und mit ungefähr welchem Impuls. Dann wissen wir im Nachhinein, welche Ereignisse vielleicht interessant gewesen wären und eine genauere Untersuchung verdient hätten. Aber ist es jetzt nicht schon zu spät dafür? Nein! Alle Teile des Detektors sind mit „memories“, mit Kurzzeitgedächtnissen ausgestattet, und wenn das Triggersignal nur rasch genug in den Detektor zurückkommt, können von dort noch alle Detailinformationen abgeholt werden. Wenn das Triggersignal zu spät kommt, dann hat der Detektor bereits „vergessen“, was gesehen wurde: genauer gesagt, die entsprechenden Einträge im Speicher wurden bereits überschrieben, also durch andere ersetzt.

So können die Physiker also der ungeheuren Datenmengen Herr werden:

  • alles mit hoher Präzision lokal auf kurze Zeit abspeichern;
  • ein grobes Bild an das rasche elektronische Triggersystem schicken (das sind spezielle elektronische Geräte, normale Computer wären hier zu langsam);
  • wenn dieses das Ereignis für interessant wertet und ein entsprechendes Signal zurückschickt, die Daten mit voller Präzision aus dem Speicher holen und an eine Computerfarm weiterschicken;
  • viele Computer können sich nun die Arbeit teilen und an Hand der genauen Daten, die ihnen zur Verfügung stehen, nochmals viele Ereignisse als doch nicht so interessant verwerfen; diese Computerfarm bezeichnet man dann auch als „zweite Triggerstufe“ oder „High-Level Trigger“.

Das Triggersystem erinnert ein bisschen an die Tauben im Aschenputtel (Abbildung 3): alleine hätte es die arme Physikerin Aschenputtel nie geschafft, alle Erbsen zu prüfen, aber die vielen Tauben haben ihr dabei geholfen, die guten herauszulesen: „Die guten ins Töpfchen, die schlechten ins Kröpfchen.“

Abbildung 3. Aschenputtel: So wie die Tauben dem Aschenputtel beim Erbsensortieren helfen, so hilft der Trigger den Physikern bei der Auswahl der interessanten Ereignisse.

Bei Experimenten am LHC-Beschleuniger des CERN müssen so die elektronischen Triggersysteme 40 Millionen Mal in der Sekunde eine erste Entscheidung liefern (der Techniker sagt, sie laufen mit 40 MHz – Megahertz). Sie dürfen höchstens 100 000 Mal in der Sekunde eine positive Entscheidung treffen, sonst geht es sich nicht aus, alle Daten aus dem Detektor herauszuholen (d.h. sie schicken Daten mit 100 kHz – Kilohertz – an die Computerfarm weiter). Die Computer wählen dann nochmals aus dieser Zahl zwischen 100 und 1000 Ereignissen pro Sekunde aus, die wirklich so interessant scheinen, dass die Physiker sie auf Dauer abspeichern und genau analysieren.

Kann sich der Trigger irren?

Wichtig ist es natürlich, hier nicht das Kind mit dem Bade auszuschütten und womöglich auch eine Menge interessanter Ereignisse zu verwerfen. Wie kann man überprüfen, ob das nicht passiert? Hierfür akzeptiert man zusätzlich einen kleinen Teil der weniger interessant scheinenden Ereignisse, also z.B. nur jedes hundertste oder jedes tausendste. Die kann man sich dann getrennt anschauen und prüfen, ob hier wirklich nur uninteressante Ereignisse sind, ob man vielleicht bei irgendeiner Auswahlbedingung zu streng war (dann wäre der Trigger „ineffizient“). Umgekehrt prüft man natürlich in den ausgewählten Daten, ob man auch nicht zu viele uninteressante Ereignisse irrtümlich doch aufgezeichnet hat (ob der Trigger „sauber“ genug ist).

Nur so ist es möglich, aus der Unmenge von Daten schlussendlich doch die wenigen, hochinteressanten Ereignisse herauszufiltern, die es uns dann ermöglichen, unsere physikalischen Theorien zu überprüfen und weiter zu entwickeln. Einen ganz entscheidenden Beitrag hat dabei das Institut für Hochenergiephysik der Österreichischen Akademie der Wissenschaften geleistet, von dessen Mitarbeitern einige sehr wesentliche Teile der Triggerelektronik am LHC-Experiment „CMS“ („Compact Muon Solenoid“) entwickelt und gebaut wurden (Abbildung 4).

Wenn Sie uns in Genf besuchen, werden wir Ihnen das gerne zeigen und noch genauer erklären!

Abbildung 4. CMS Globaler Trigger: Ein Teil der von Wien entwickelten Triggerelektronik für das CMS-Experiment am CERN in Genf.


Weiterführende Links

Artikel von Manfred Jeitler im ScienceBlog:

07.02.2013: Woraus unsere Welt besteht und was sie zusammenhält — Teil 1: Ein Zoo aus Teilchen

21.02.2013: Woraus unsere Welt besteht und was sie zusammenhält — Teil 2: Was ist das Higgs-Teilchen?

23.08.2012: CERN: Ein Beschleunigerzentrum — Wozu beschleunigen?

06.09.2013: CERN: Ein Beschleunigerzentrum — Experimente, Ergebnisse und wozu man das braucht.

CERN: Europäische Organisation für Kernforschung (Conseil Européen pour la Recherche Nucléaire). Am CERN wird der Aufbau der Materie aus Elementarteichen erforscht und wie diese miteinander wechselwirken - also woraus das Universum besteht und wie es funktioniert.

Auf der Webseite des CERN findet sich u.a. eine Fülle hervorragender Darstellungen der Teilchenphysik (Powerpoint-Präsentationen)

Publikumsseiten des CERN: http://home.cern/about

Large Hadron Collider (LHC) http://home.cern/topics/large-hadron-collider

HEPHY (Institut für Hochenergiephysik der Österreichischen Akademie der Wissenschaften) http://www.hephy.at/. HEPHY liefert signifikante Beiträge zum LHC Experiment CMS am CERN, Genf, sowie zum BELLE Experiment am KEK in Japan.

Der CMS Trigger: http://www.hephy.at/forschung/cms-experiment-am-lhc/trigger/ , http://www.hephy.at/de/innovation/elektronikentwicklung/


 

inge Fri, 13.11.2015 - 07:00

Klimaschwankungen, Klimawandel – wie geht es weiter?

Klimaschwankungen, Klimawandel – wie geht es weiter?

Fr, 06.11.2015 - 12:20 — Peter Lemke

Peter LemkeIcon KlimaSeit dem Beginn der Industrialisierung ist der CO2-Gehalt der Atmosphäre sprunghaft angestiegen und verstärkt damit den natürlichen Treibhauseffekt: es wird wärmer, die (polaren) Eisschilde schmelzen und der Meeresspiegel steigt. Peter Lemke, ehem. Leiter des Fachbereichs Klimawissenschaften am Alfred-Wegener-Institut in Bremerhaven und dzt. Leiter der Klimainitiative REKLIM der Helmholtz-Gemeinschaft, beschreibt an Hand von Klimaprojektionen das in den nächsten Jahrzehnten zu erwartende Szenario und mögliche Lösungswege.*

Reflektivität (Albedo) und Treibhauseffekt sind mitbestimmend für die Oberflächentemperatur eines Planeten (siehe: „Wie Natur und Mensch das Klima beeinflussen und wie sich das auf die Energiebilanz der Erde auswirkt“ *). Unter Albedo versteht man die Helligkeit, mit der der Planet nach außen hin erscheint, d.h. mit der er die Sonnenstrahlung reflektiert. Der Treibhauseffekt beruht darauf, dass die Wärmeabstrahlung der Planetenoberfläche mit den Gasteilchen der Atmosphäre wechselwirkt und diese dabei erwärmt. Dem natürlichen Treibhauseffekt verdanken wir, dass die Oberflächentemperatur unserer Erde von -18 °C (die tatsächlich am äußeren Rand der Atmosphäre gemessen wird) auf lebensfreundliche +15 °C gestiegen ist.

Unser Einfluss auf den Treibhauseffekt

Der Treibhauseffekt wird im Wesentlichen durch Wasserdampf und CO2 verursacht. Auch andere Gasemissionen, beispielsweise von Methan (CH4) und Lachgas (N2O) aus der Landwirtschaft, tragen bei, bewirken in Summe genommen aber einen geringeren Effekt, als das in hohen Konzentrationen vorliegende CO2.

Auf den Wasserdampf haben wir keinen Einfluss, Wasserdampf ist physikalisch geregelt: wenn zu viel davon in der Luft ist, dann regnet es.

Beim CO2 ist das nicht so. Es bleibt mehrere Jahrhunderte in der Atmosphäre.

Wie Oberflächentemperaturen und atmosphärische CO2-Konzentrationen schwanken

Aus den Luftblasen, die in den Eisbohrkernen der polaren Eisschilde eingeschlossen sind, können die atmosphärischen Gaskonzentrationen quantitativ bestimmt werden (Abbildung 1). Mittels chemischer Analyse lassen sich die CO2-Konzentrationen (und auch die Konzentrationen anderer Gase wie Methan oder Stickoxyde) bis 860 000 Jahre zurückverfolgen. Informationen zu den entsprechenden Temperaturen kann man u.a. aus den Verhältnissen der Isotope des Wasserstoffs (2H : 1H)und Sauerstoffs (18O : 16O) ableiten.

Aus diesen Untersuchungen an den Bohrkernen ist eine periodische Abfolge von Eiszeiten auf Warmzeiten erkennbar – Eiszeit folgte auf Warmzeit, auf Eiszeit, auf Warmzeit, usw. Die letzte Eiszeit liegt 20 000 Jahre zurück, die letzte Warmzeit 120 000 Jahre. Die Periodizität dieser Abläufe spiegelt die Änderungen der Sonneneinstrahlung auf Grund periodisch geänderter Erdbahnparameter – der Neigung der Erdachse (41 000 Jahre), Präzession (19 000 und 23 000 Jahre) und Exzentrik der Erdbahn (100 000 Jahre) – wider. Dieselbe Periodizität ist für die CO2–Konzentrationen der Luft ersichtlich: diese lagen in den Eiszeiten durchweg bei 180 ppm (ppm: parts per million = millionstel Volumenanteile), in den Warmzeiten typischerweise bei 280 ppm (Abbildung 1).

Abbildung 1. Bestimmung der atmosphärischen CO2-Konzentrationen aus Eisbohrkernen. CO2Bestimmungen über eine Zeitskala von 800 000 Jahren (links) lassen eine Abfolge von Eiszeiten und Warmzeiten erkennen, die durch unterschiedlich hohe CO2-Konzentrationen charakterisiert sind. Der enorme CO2-Anstieg in den letzten 200 Jahren ist rot eigezeichnet. Rechts: Luftblasen in einem Bohrkern aus einem polaren Eisschild.

Erst in den letzten 200 Jahren – seit dem Beginn der Industrialisierung - ist der CO2-Gehalt sprunghaft auf nahezu 400 ppm angestiegen – d.h. um mehr als die bis dahin beobachtete, natürliche Schwankungsbreite zwischen Warmzeiten und Eiszeiten betragen hat. Während die Natur aber typischerweise 20 000 Jahre gebraucht hat, um vom CO2-Minimum in den Eiszeiten zum Maximum in den Warmzeiten zu gelangen, haben wir den rasanten Anstieg in nur 200 Jahren bewirkt.

Abbildung 2. CO2-Gehalt der Atmosphäre am Mauna Loa (Hawaii) von 1958 - 2013. Die Reduktion von CO2 infolge des Aufbaus von Biomasse in den Frühjahr/Sommer-Phasen macht den jährlichen Anstieg nicht wett. Seit dem Beginn der Messungen im Jahr 1958 ist das CO2 der Luft von 315 ppm auf 398,8 ppm angestiegen (September 2015; http://co2now.org/) und die Emissionsrate steigt weiter an (rote Pfeile).

Das Problem dabei ist, dass das System Erde das CO2 nicht schnell genug aufnehmen/umsetzen kann – es hinkt hinterher und als Folge steigt der CO2-Gehalt der Atmosphäre kontinuierlich an. Dies zeigt sich beispielsweise in den direkten CO2- Messungen am Mauna Loa (Hawaii), die seit 1958 durchgeführt werden. Wenn im Frühjahr auf der Nord-Halbkugel Biomasse mittels Photosynthese aufgebaut wird, sinkt der CO2-Gehalt der Atmosphäre, um im Herbst/Winter wieder anzusteigen. Das Absinken im nächsten Frühjahr geht aber nicht bis zum Ausgangswert des Vorjahrs zurück. So kommt es zu einer fortlaufenden Steigerung der CO2-Emissionsrate (Abbildung 2). Grund dafür sind die Emissionen der Menschen durch Nutzung fossiler Brennstoffe.

Es ist wärmer geworden,…

Abbildung 3. Die globalen Temperaturen an der Erdoberfläche steigen deutlich an. Oben: Globale Lufttemperaturen im Vergleich zu dem über 3 Dekaden – 1951 -1980 – gemittelten Wert. Der Trend ist von natürlichen Schwankungen überlagert, u.a. durch das El Niño Phänomen oder Oszillationen im Nordatlantik. Unten: globaler Trend seit 1963. (GISS 1963 – 2012).

Verfolgt man den Verlauf der jährlichen Mitteltemperaturen seit rund 150 Jahren (d.h. seit dem Beginn weltweit geregelter Temperaturmessungen), so wird ersichtlich, dass seit der Mitte des vorigen Jahrhunderts eine globale Erwärmung stattfindet, insbesondere in den letzten 3 Dekaden (Abbildung 3).

Jede dieser Dekaden war wärmer als die vorhergegangene. Der Zeitraum 2001 – 2010 war überhaupt die wärmste Dekade seit Beginn der Aufzeichnungen.

Flacht dieser Temperaturanstieg in den letzten Jahren jetzt ab? Die Antwort ist: die Energie, die durch den zusätzlichen Treibhauseffekt entstanden ist, ist nicht nur in der Atmosphäre stecken geblieben: 93 % davon wurden benutzt, um die Ozeane zu erwärmen, 3 % um Eisschilde zu schmelzen, 3 % um die Kontinente zu erwärmen und nur 1 % um die Atmosphäre zu erwärmen (Abbildung 4).

Abbildung 4. Die globale Erwärmung ist eindeutig. Die durch den Treibhauseffekt erhaltene Energie hat insbesondere die Erwärmung der Ozeane bedingt, in geringerem Ausmaß das Abschmelzen der polaren Eismassen und den Anstieg der Lufttemperatur. Links: beobachtete Änderung der globalen Oberflächentemperatur zwischen 1850 und 2012; oben: Jahresmittel, unten: dekadische Mittelwerte. Rechts oben: Meereisbedeckung der Arktis im Sommer (in Millionen km2) Rechts unten: Änderung des mittleren Wärmegehalts in oberen Ozeanschichten (0–700m) verglichen mit dem Mittelwert von 1970

…die Eismassen schmelzen, die Meeresspiegel steigen

Die letzten drei Dekaden waren die wärmsten, die wir seit 1952 zu verzeichnen haben, der Wärmeinhalt des Ozeans ist gestiegen und das arktische Meereis gewaltig geschrumpft. Es kommt in den letzten Jahren zu einem verstärkten Anstieg des Meeresspiegels, den sowohl Meeresstationen als auch Satellitenfotos dokumentieren. War im vergangenen Jahrhundert ein mittlerer Anstieg von 1,7mm/Jahr zu verzeichnen, so liegt der gegenwärtige Anstieg bei 3,2mm jährlich.

Abbildung 5.Die Gletscher gehen weltweit zurück und tragen zum Anstieg der Meeresspiegel bei. Nicht nur der Morteratsch-Gletscher in der Berninagruppe (Schweiz) ist so stark geschrumpft, sondern alle Gletscher weltweit.

Auch die Gletscher gehen weltweit zurück, vor allem seit dem Beginn der 1990er Jahre. Aktuell trägt dieser Rückgang jährlich bereits 0,8mm zum Meeresspiegelanstieg bei (Abbildung 5). Besonders hoch ist auch das Abschmelzen der Eisschilde – in der Dekade 2003 – 2012 übertreffen die Eismassenverluste in Grönland (0,6mm/Jahr) und in der Antarktis (0,4mm/Jahr) zusammen schon die Summe der Schmelzmasse aller Gletscher.

Was bringt die Zukunft? Klimamodelle

Wie sich das Klima entwickeln wird, lässt sich an Hand von Computermodellen simulieren. Diese sind zwar noch nicht perfekt, stellen jedoch die besten Vorhersagemodelle dar, die unsere Gesellschaft heute besitzt (besser als beispielsweise Modelle für Marktprognosen oder die Steuerschätzung).

Die Klimamodelle berechnen die Wechselwirkungen und Rückkopplungen der verschiedenen Komponenten des komplexen Klimasystems – Atmosphäre, Ozeane, Eismassen und Biosphäre am Land und in den Meeren. Von der physikalischen Seite her sind die Ansätze eigentlich simpel. So basieren funktionierende Klimamodelle für das System Atmosphäre – Ozean – Eis

  • auf etablierten, einfachen physikalischen Grundgleichungen, nämlich dem Massenerhaltungssatz, dem Energieerhaltungssatz und dem Impulserhaltungssatz, und
  • auf Messdaten von sechs grundlegenden Zustandsvariablen - Temperatur, Salzgehalt, Feuchte, Druck, Strömung, Wind (dies sind regelmäßig von Bodenstationen, Flugzeugen, Satelliten, Forschungsschiffen, driftenden Bojen etc. erhobene Daten), mit denen die Modelle validiert werden. Zusätzlich werden noch andere Variablen, wie z.B. Wolkenbedeckung und Niederschlag einbezogen.

Um Simulationen des sehr komplexen globalen Klimasystems zu ermöglichen, wird ein dreidimensionales Gitternetz über den Globus gelegt und für jede der so entstehenden Boxen (horizontale Abstände > 100km, vertikal 1km) mit Hilfe der genannten Gleichungen z.B. die Energiebilanz berechnet: d.i. wie viel Wärme geht in die Box, wie viel Wärme kommt heraus und wie viel bleibt drin und verändert dort die Temperatur (Abbildung 6).

Abbildung 6. Das Klimamodell berechnet die Wechselwirkungen zwischen den Komponenten Atmosphäre und Ozean mit Hilfe einfacher physikalisch-chemischer Grundgleichungen und einer Reihe von Variablen. (3D-Gitter: SNAP - Scenarios Network for Alaska and Arctic Plannin. Creative Commons Attribution 3.0 License)

Klimaprojektionen

Um an Hand der Klimamodelle Prognosen über langfristige künftige Entwicklungen des Klimas erstellen zu können, werden Szenarien durchgespielt, die auch ökonomische und soziale Entwicklungen (Wachstum der Bevölkerung, Ressourcenverbrauch) berücksichtigen und darauf basierend unterschiedliche Emissionen von CO2 und anderen Treibhausgasen in Rechnung stellen. (Im 5. Sachstandsbericht des IPPC - Intergovernmental Panel on Climate Change – treten diese Szenarien als sogenannte „Repräsentative Konzentrationspfade“ (Representative Concentration Pathways - RCPs) in Erscheinung).

Alle diese Prognosen zeigen: wenn wir – im günstigsten Fall – versuchen, die Emissionen schon jetzt zu drosseln, in der zweiten Hälfte dieses Jahrhunderts auf Null herunterzufahren und die CO2 Konzentration bis 2100 durch negative Emissionen (Carbon Capture and Storage) auf 400 ppm zu reduzieren (Szenario RCP 2.6), können wir bis zum Jahr 2100 unterhalb eines Temperaturanstiegs von 2 °C bleiben. Auch dann wird aber das arktische Meereis um ca. ein Drittel schrumpfen und der Meeresspiegel um rund 0,4m ansteigen. Wenn wir aber wie gehabt weitermachen, den Ausstoß von Treibhausgasen nicht bremsen, werden wir eine Erwärmung von bis zu 6 °C verursachen (RCP 8.5). Das arktische Meereis im Sommer könnte dann bereits 2070 verschwinden, der Meeresspiegel um bis zu einem Meter ansteigen. (Abbildung 7)

Abbildung 7. Klimaprojektionen für 4 RCP-Szenarien (RCP: repräsentative Konzentrationspfade). RCP 2,6 bedeutet, dass die aktuelle CO2- Konzentration von 400 ppm nicht weiter ansteigt, RCP8,5 berücksichtigt den steigenden Energieverbrauch und die entsprechenden Emissionen bei einem Anstieg der Weltbevölkerung auf 12 Milliarden im Jahr 2100. (5. Sachstandsbericht IPPC)

Die globale Erwärmung verändert auch die Kapazität der unteren Atmosphäre für Wasserdampf. Wie nun Wetterextreme eintreten werden, Niederschläge sich entwickeln werden, ist insbesondere für die Landwirtschaft von Interesse. Hier stimmen alle Projektionen dahingehend überein, dass in Mitteleuropa die Sommer heißer und trockener werden und sich die Trockenzone im Mittelmeergebiet nach Norden ausdehnen wird. Ein heißer Sommer, wie beispielsweise im Jahr 2003, wird 2050 wahrscheinlich bereits als normal und 2070 schon als kühl angesehen werden. Die Winter werden dagegen nasser werden – das bedeutet, dass zwar genügend Grundwasser vorhanden sein wird, die Bauern die Felder im Sommer aber bewässern werden müssen.

Der zu erwartende Anstieg des Meeresspiegels von bis zu einem Meter wird vor allem dichtbesiedelte, flache Küsten ohne geeignete Schutzvorrichtungen bedrohen – zig Millionen Menschen in Entwicklungsländern können davon betroffen sein.

Was kann getan werden?

Die Wissenschaft hat das Problem des Klimawandels und seiner Ursachen erkannt und Lösungswege ermittelt. Diese Lösungswege benötigen politische, sozio-ökonomische aber auch persönliche Umsetzung und können zusammengefasst unter den Begriffen Anpassung und Vermeidung subsummiert werden.

Anpassung bedeutet, dass wir

  • dem Anstieg des Meeresspiegel durch den Bau höherer Deiche begegnen,
  • verbesserte Schutzvorrichtungen gegen Überschwemmungen errichten,
  • Katastrophenschutz gegen extreme Wettersituationen einplanen,
  • uns vor Hitzewellen schützen müssen.

Vermeidung bedeutet, dass wir

  • Energie einsparen,
  • alternative Energietechnologien anwenden,
  • und vor allem Emissionen von Treibhausgasen zu vermeiden versuchen,

Unsere Herausforderung ist es, unseren sich stetig wandelnden Planeten nachhaltig zu nutzen.


*Der Artikel basiert auf dem zweiten Teil des Vortrags, den Peter Lemke anlässlich der Tagung „Diversität und Wandel - Leben auf dem Planeten Erde“ gehalten hat, die am 13. Juni 2014 im Festsaal der ÖAW in Wien stattfand. Ein Audio-Mitschnitt und die von ihm gezeigten Bilder finden sich auf der Seite: http://www.oeaw.ac.at/kioes/wandel.htm . Der erste Teil des Vortrags: „Wie Natur und Mensch das Klima beeinflussen und wie sich das auf die Energiebilanz der Erde auswirkt“, ist bereits am 30. Oktober erschienen.


Weiterführende Links

inge Fri, 06.11.2015 - 00:20

Wie Natur und Mensch das Klima beeinflussen und wie sich das auf die Energiebilanz der Erde auswirkt

Wie Natur und Mensch das Klima beeinflussen und wie sich das auf die Energiebilanz der Erde auswirkt

Fr, 30.10.2015 - 06:30 — Peter Lemke Peter LemkeIcon Klima

Das Klima auf unserer Erde ist das Resultat einer über Milliarden Jahre dauernden Entwicklung, in der die Wechselwirkungen zwischen Atmosphäre, Kryosphäre, Ozeanen und Biosphäre einen relativ stabilen Gleichgewichtszustand geschaffen haben. Peter Lemke, ehem. Leiter des Fachbereichs Klimawissenschaften am Alfred-Wegener-Institut in Bremerhaven und dzt. Leiter der Klimainitiative REKLIM der Helmholtz-Gemeinschaft, beschreibt hier natürliche Ursachen für Klimaschwankungen, die sich auf von Monaten bis hin zu Jahrmillionen reichenden Zeitskalen abspielen.

Unser Klima wird in einem sehr komplexen System geschaffen, dessen Hauptkomponenten Atmosphäre, Ozean, Eismassen und Biosphäre auf dem Land und in den Meeren sind. Dieses System wird von der Sonne angetrieben, wobei die Sonnenenergie durch die Drehung der Erde und die Strahlungseigenschaften der Atmosphäre dann global verteilt wird.

Die Komponenten des Klimasystems wechselwirken miteinander und es finden zwischen ihnen permanent Austauschprozesse statt (Abbildung 1). Es sind dies:

  • ein Austausch von Masse: es regnet – Wasser gelangt von der Atmosphäre in den Ozean – Wasser verdunstet,
  • ein Austausch von Wärme,
  • ein Austausch von Impuls: der Wind streicht über den Ozean, die Reibung regt die Ozeanzirkulation an.

Abbildung 1. Das Klimaproblem ist multidisziplinär. Zwischen den Komponenten des Klimasystems – Atmosphäre, Biosphäre, Land, Ozean und Eismassen – findet ein permanenter Austausch von Wärme, Impuls und Masse statt (grün, blau). Natürlicher Einfluss auf das Klima: lila Pfeile, anthropogener Einfluss: rot schraffierte Pfeile.

Die Randbedingungen für das Klimasystem werden von der Sonne geprägt, inzwischen aber auch von der Einmischung des Menschen – dadurch, dass er die Landoberflächen und die Gaszusammensetzung der Atmosphäre verändert.

Das in diesem System entstehende Klima weist Schwankungen um einen relativ stabilen Gleichgewichtszustand auf. Diese Schwankungen spielen sich auf Zeitskalen ab, die von Monaten bis hin zu Jahrmillionen reichen – dies wird durch geologische Bestimmungen in marinen Sedimenten und Eisbohrkernen, durch Analysen von Baumringen, historische Aufzeichnungen und moderne Messmethoden belegt.

Was sind die treibenden Kräfte von Klimaänderungen?

Natürliche Ursachen von Klimaschwankungen, die von außen kommen:

  • Erst einmal sind dies Änderungen der Sonneneinstrahlung, welche ja die Temperatur auf der Erde bestimmt. Die Sonnenstrahlung ist zurzeit allerdings sehr konstant, selbst der 11-Jahreszyklus („Sonnenzyklus“) ist nur wenig ausgeprägt und reicht energetisch nicht aus, um die aktuellen Klimaschwankungen zu erklären. Andere Änderungen, welche die Sonneneinstrahlung beeinflussen, beruhen auf einem unterschiedlichen Abstand der Erde von der Sonne, Neigungen der Erdachse und Umlaufbahnen: diese Änderungen erfolgen aber auf Zeitskalen von 20 000 Jahren und länger.
  • Kurzfristige Ursachen von Klimaänderungen durch große Vulkanausbrüche erleben wir dagegen immer wieder. So hat in den folgenden ein bis zwei Jahren nach dem Ausbruch des Pinatubo auf den Philippinen (1991) die herausgeschleuderte Asche zu einer Absenkung der mittleren Temperatur um 0,5 °C auf der Nord-Hemisphäre geführt. Derartige Ursachen sind nicht vorhersagbar.

Den Großteil der natürlichen Veränderungen bewirken aber interne Ursachen

Primär entstehen natürliche Klimaschwankungen dadurch, dass die Erde eine Kugel ist, und die Sonneneinstrahlung an den unterschiedlichen Breitegraden unterschiedlich ankommt:

  • Die Tropen empfangen viel mehr Energie als die Polargebiete, dadurch entstehen Temperaturgradienten.
  • Temperaturgradienten können – in Wasser und Luft – nicht stabil nebeneinander bestehen: kalte Luft rutscht sofort unter die warme – es kommt dadurch zu einer Zirkulationsänderung. Die Temperaturgradienten erzeugen Bewegung in der Atmosphäre und im Ozean, die Wärme wird dann polwärts transportiert (Abbildung 2). Beispielsweise transportiert der Golfstrom 1 Petawatt (1015 W) – in Strompreis umgerechnet wären das 31 Millionen €/Sekunde.
  • Die durch die Temperaturunterschiede entstehende Bewegung in der Atmosphäre und im Ozean ist turbulent, laminare Strömungen treten kaum auf. In der Atmosphäre treten Hoch-und Tiefdruckgebiete auf, im Meer Wirbel. (Beispielsweise zeigt der Golfstrom warme Wirbel in einer kalten Umgebung und kalte Wirbel in warmer Umgebung, Abbildung 2.)

Abbildung 2. Temperaturunterschiede erzeugen Bewegungen in Atmosphäre und Ozean (Bilder: oben: ESA, unten: NASA).

Natürliche Klimaschwankungen sind auch eine Folge der Neigung der Erdachse: Dadurch, dass diese schief steht, gibt es Jahreszeiten und damit eine zeitlich unterschiedliche Einstrahlung der Sonne.

Durch die Gravitationseinwirkung der anderen Planeten ändern sich die Neigung der Erdachse und auch die anderen Erdbahnparameter (Präzession, Exzentrizität) und somit ändert sich die Energie, die pro Breitengrad auf der Erde ankommt. Die entsprechenden Perioden von 41 000, 23 000 und 100 000 Jahren findet man auch in allen Klimadaten wieder.

Die Komponenten des Klimasystems sind nicht unabhängig, sie wechselwirken miteinander in komplexer Weise. Diese Wechselwirkungen sind durch vielfältige Rückkopplungen geprägt, die verstärkende oder abschwächende Wirkungen haben (Abbildung 1). Ein Beispiel dafür ist das Eis – Albedo – Temperatur System: Wenn Eisflächen schrumpfen, werden die hellen Flächen kleiner, auf den dunklen Flächen wird mehr Sonnenenergie absorbiert, es wird wärmer und in Folge werden die weißen Eisflächen weiter reduziert. Dieser Prozess kann auch umgekehrt verlaufen.

Dazu kommt, dass die Komponenten des Klimasystems unterschiedliche Reaktionszeiten haben: Die Atmosphäre reagiert schnell – der Durchzug eines Tiefdruckgebiets dauert wenige Tage. Der Ozean reagiert dagegen langsam. Für Änderungen an seiner Oberfläche braucht es einige Monate, in seiner Tiefe tausende Jahre.

  • Veränderungen der Landoberfläche. Dabei hat die Infrastruktur – Städte, Straßen etc. – die wir auf der Erde gebaut haben, nur einen kleineren Anteil an unserem Einfluss. Der größere Teil kommt von den riesigen Flächen, die wir für die Landwirtschaft angelegt haben. Ein Feld reflektiert die Sonnenstrahlung anders als ein Wald.
  • und steigende CO2-Emissionen. Die erwähnte Flächenänderung in den Ökosystemen trägt zum CO2 Anstieg nur 22 % bei. Rund 78 % kommen dadurch zustande, dass wir fossile Energie – Kohle, Öl, Gas – nutzen. Verwenden wir dagegen Holz in dem Ausmaß, in dem es wieder nachwächst, ist das ein Nullsummenspiel: Bäume nutzen das CO2 aus der Luft zur Photosynthese ihrer Biomasse, bei deren Verbrennung wird es wieder freigesetzt. Gemessen an der Zeitskala, die die Natur gebraucht hat, um aus Biomasse fossile Brennstoffe zu generieren, verbrennen wir diese viel zu rasch.

Zur Energiebilanz der Erde

Die Energiebilanz wird durch die Aufnahme der Sonnenenergie und die Wärmeabstrahlung der Erde bestimmt (Abbildung 3).

Abbildung 3. Strahlungsbilanz der Erde. Im thermischen Gleichgewicht wird ebenso viel Sonnenenergie (gelb) aufgenommen, wie Wärmeenergie auch wieder abgestrahlt wird (rot). (Die Strahlungstemperatur T wird in Kelvin (K) – absoluter Temperatur – angegeben; der absolute Nullpunkt 0K liegt bei –273,15 °C)

Energieaufnahme

Wir bekommen von der Sonne am oberen Rand der Atmosphäre 1368 W/m2 (S, Energieflussdichte) geliefert. Davon nimmt die Erde aber nicht alles auf. Was von den Strahlenbündeln der Sonne ausgeschnitten wird, entspricht dem Kreisquerschnitt der Erde multipliziert mit der Energieflussdichte (πr2×S), wobei einiges an Energie, nämlich 30 % durch Wolken, reflektiert wird (α ist die Albedo).

Wärmeabstrahlung

Die Physiker Josef Stefan & Ludwig Boltzmann haben um 1879 herausgefunden, dass die Wärmeabstrahlung eines Körpers proportional zur 4. Potenz seiner absoluten Temperatur und zu seiner Oberfläche erfolgt. Die Proportionalitätskonstante σ ist eine Naturkonstante.

Im thermischen Gleichgewicht wird ebenso viel Energie abgegeben, wie aufgenommen wurde.

Berechnet man nun die Strahlungstemperatur T eines Planeten (Abbildung 4), so sieht man, dass dessen Größe dabei keine Rolle spielt. T ist nur vom Energieangebot der Sonne S und von der Reflektivität α des Planeten abhängig, d.h. von der Helligkeit mit der der Planet nach außen hin erscheint, mit der er die Sonnenstrahlung reflektiert.

Abbildung 4. Strahlungstemperatur T für die Planeten Venus, Erde und Mars.

Wie gewaltig der Einfluss der Reflektivität ist, lässt sich am Vergleich der Abstrahlungstemperatur der drei Planeten Venus, Erde und Mars aufzeigen (Abbildung 4).

  • Für die Erde errechnet man -18 °C, ein Wert, der in der Space-Station mit dem Strahlungsthermometer tatsächlich gemessen wird. Es ist dies die Temperatur mit der die Erde mit dem Weltraum kommuniziert, zum Glück nicht ihre Oberflächentemperatur (s.u.). Selbst, wenn die Erde ganz schwarz wäre, d.h. alle Sonnenenergie absorbierte, kämen wir nur auf eine Strahlungstemperatur von 5 °C. Für die Entwicklung des Lebens, wie wir es heute sehen, eine etwas niedrige Temperatur – ohne den natürlichen Treibhauseffekt wäre das Leben auf der Erde sicher nicht so geworden, wie es heute ist.
  • Die Venus ist dichter an der Sonne, bekommt doppelt so viel Energie, wie die Erde, sie ist aber nach außen hin viel kälter, weil sie ganz hell ist, bewölkt ist . (Innen ist sie aber sehr heiß).
  • Der Mars ist ähnlich hell wie die Erde, aber weiter weg und erhält nur die Hälfte unserer Sonnenenergie; er ist deswegen kalt (-62 °C).

Was ist der Treibhauseffekt?

Wie bereits erwähnt, ist die Abstrahlungstemperatur der Erde nicht gleich der Temperatur am Erdboden: wir haben hier eine Gasschicht (Wasser, CO2, Methan,.. ), die transparent ist für die Sonneneinstrahlung, nicht aber für die langwellige, nach oben gerichtete Wärmeabstrahlung der Erdoberfläche. Diese wechselwirkt mit den Gasteilchen und erwärmt die Lufthülle, die dann Wärme nach oben und unten abstrahlt und damit der Oberfläche einen Teil der Wärmestrahlung zurückgibt (Abbildung 5). Die Atmosphäre absorbiert also einen Teil der thermischen Ausstrahlung der Erdoberfläche.

Abbildung 5. Der Treibhauseffekt der Erde. 38 % der Wärmeabstrahlung (rot) wird in der Gasschichte der Atmosphäre absorbiert und erwärmt diese.

Dieser Anteil (1-β) – der Treibhauseffekt – ergibt sich aus der Oberflächentemperatur von 15 °C und der Strahlungstemperatur am oberen Rand der Atmosphäre von –18 °C: er beträgt 0,38, d.h. 38 % der Abstrahlung, die von der Erdoberfläche ausgeht, wird in der Atmosphäre absorbiert und teilweise wieder zurückgestrahlt.

Im Falle des Planeten Venus kennen wir die Strahlungstemperatur nach außen (-46 °C) und die Oberflächentemperatur (487 °C). Der Treibhauseffekt ist hier 99 %, verursacht durch eine Atmosphäre, die zu 99,2 % aus CO2 besteht.

Schlussfolgerungen

Reflektivität (Albedo) und Treibhauseffekt eines Planeten haben einen enormen Einfluss auf seine Oberflächentemperatur. Hätte die Erde nur eine Wasseroberfläche – ein Ozeanplanet ist dunkel, hat nur 10 % Reflexion -, so kämen wir bei gleichem Treibhauseffekt auf eine Oberflächentemperatur von 32 °C.

Wäre die Erde dagegen völlig vereist (dies soll nach Ansicht einiger Geologen ja einmal der Fall gewesen sein), so wäre die Rückstrahlung des dann weißen Planeten 80 %, die Oberflächentemperatur läge bei gleichem Treibhauseffekt bei -62 °C.

Zurzeit lassen wir die weißen Flächen schrumpfen, weil die Temperaturen durch die erhöhten Treibhausgase in der Atmosphäre steigen. Die Erde wird dunkler, absorbiert mehr Sonnenenergie und wird zusätzlich wärmer.


*Der Artikel basiert auf dem ersten Teil eines Vortrags, den Peter Lemke anlässlich der Tagung „Diversität und Wandel - Leben auf dem Planeten Erde“ gehalten hat, die am 13. Juni 2014 im Festsaal der ÖAW in Wien stattfand. Ein Audio-Mitschnitt und die von ihm gezeigten Bilder finden sich auf der Seite: http://www.oeaw.ac.at/kioes/wandel.htm

Der zweite Teil des Vortrags: „Klimaschwankungen, Klimawandel – wie geht es weiter?“ wird in der folgenden Woche online gestellt.


Weiterführende Links

inge Fri, 30.10.2015 - 06:30

Wissenschaftskommunikation

Wissenschaftskommunikation

Fr, 23.10.2015 - 07:24 — Redaktion

Redaktion

Icon Politik & Gesellschaft

 

Wissenschaft und Gesellschaft – Themenschwerpunkt Wissenschaftskommunikation

„Wissenschaft und Technologie beeinflussen fast alle Bereiche unseres täglichen Lebens. Trotzdem kann die Haltung zur Wissenschaft in der Gesamtgesellschaft sich als zwiespältig erweisen, und frühere Untersuchungen haben gezeigt, dass nicht immer ein breites Verständnis für Wissenschaft oder wissenschaftliche Methoden vorhanden ist.“

Mit diesem Satz beginnt der Bericht „Spezial Eurobarometer 401: Verantwortungsvolle Forschung, Innovation, Wissenschaft und Technologie“ [1]. Wie die detaillierten Ergebnisse dieser, v on der Europäischen Kommission in Auftrag gegebenen Umfrage zeigen, trifft dieses Statement auf viele Staaten – nicht nur in Europa – zu, in besonderem Maß aber auf Österreich. Was den Grad des Interesses und Informationsstandes an naturwissenschaftlichen Themen betrifft, nimmt unser Land die untersten Plätze der Skala ein. Mehr als die Hälfte unserer befragten Mitbürger gibt an über naturwissenschaftliche und technologische Wissensgebiete weder informiert noch daran interessiert zu sein und diesbezügliche Kenntnisse für das tägliche Leben auch nicht zu brauchen.

Naturwissenschaft ist unpopulär

Für das fehlende Verständnis und die daraus folgende Ablehnung naturwissenschaftlicher Bildung gibt es mehrere Gründe. Diese beginnen in den Schulen, wo man den Naturwissenschaften geringe Bedeutung zumisst – es sind bloß Nebengegenstände, für die (noch) keine Bildungsstandards existieren –, und setzen sich im Erwachsenenleben fort. Ja, man ist gebildet, kann vielleicht Goethes Lebensabschnittspartnerinnen aufzählen, die aus der Schulzeit stammenden, bestenfalls rudimentären naturwissenschaftlichen Kenntnisse aber kaum mehr verbessern. Man bezieht nun die Informationen aus den Medien: vorzugsweise aus dem Fernsehen, in zweiter Linie aus den Printmedien und – was die jüngere Generation betrifft - aus dem Internet. Keines dieser Medien vermittelt zurzeit Laien in befriedigender Weise Information.

Wissenschaftsmeldungen in den Medien – bringt das Quote?

Sowohl im TV als auch in den Zeitungen werden Naturwissenschaften als wenig quotenbringend angesehen und rangieren zumeist an unterster Stelle.

  • Das öffentlich-rechtliche österreichische Fernsehen hat von 2009 bis jetzt die Sendezeit für Wissenschaft (+ Bildung) um 30 % reduziert (zugunsten Unterhaltungs- und Sportsendungen) – es bleiben jetzt in beiden Programmen nur mehr magere 1,2 % der Gesamtsendezeit (216 von 17 637 Stunden – etwa die Hälfte der Zeit, die der Werbung gewidmet wist)[2]. Dass davon nur ein Teil naturwissenschaftliche Inhalte hat und auch hier auf Quoten geschielt wird (herzige Viecherln, interessante Landschaften), sollte nicht unerwähnt bleiben.
  • Was die Zeitungen betrifft, weisen nur wenige eine eigene Wissenschaftsrubrik auf (Zeitungen mit der höchsten Reichweite fallen nicht darunter). Es ist offensichtlich wenig Bedarf dafür da, keine Lobby, die sich über mangelnde wissenschaftliche Information beklagt. Ein Problem ist auch, dass Wissenschaftsjournalisten kaum Zeit haben, um in diversen Gebieten komplexe Sachverhalte ausreichend zu recherchieren und zu verstehen (und dafür auch nicht angemessen entlohnt würden). So resultieren dann Artikel, die für Laien wenig verständlich sind (manchmal Fehler enthalten) und damit deren Interesse nicht steigern können. Natürlich, gibt es auch Meldungen mit hohem Unterhaltungswert: wirkliche oder vermeintliche Skandale – beispielsweise Fälschungen, die genussvoll ausgewalzt werden. Oder Jubelmeldungen, die von PR-Büros wissenschaftlicher Institutionen stammen („Krebs besiegt“, „ Alzheimer geheilt“). Viele dieser „Durchbrüche“ enden kurz darauf im Nichts.

Wissenschaft im Internet

Kann der Mangel an naturwissenschaftlicher Bildung durch das ungeheure Wissensangebot im Internet wettgemacht werden? Man kann ja googeln, Wikipedia schmökern, Videos auf Youtube sehen, etc. Leider ist für interessierte Laien seriöse, leicht verständliche Information nur schwer zu finden.

Googeln führt zu enorm vielen Resultaten und es erscheint schwierig hier die unseriöse Spreu vom seriösen Weizen zu trennen. Seriös ist natürlich (zumindest meistens) die eigentliche Fachliteratur, in ihrem „Fachchinesisch“ jedoch weitestgehend unverständlich.

Auch Wikipedia-Artikel sind meistens seriös, erweisen sich aber in vielen Fällen als zu schwierig: wenn bereits im ersten Absatz zu zehn weiterführenden Erklärungen verlinkt wird, wirft der Leser bald entnervt das Handtuch.

Videos schließlich eignen sich hervorragend zur Wissenschaftsvermittlung. Es gibt vor allem im anglikanischen Sprachraum didaktisch großartig aufgebaute Videos. Ein Großteil der Videos auf Youtube, aber auch viele Diskussionsplattformen und auf den ersten Blick seriös wirkende Webseiten erweisen sich bei näherem Ansehen als zu wenig verständlich oder krass pseudowissenschaftlich.

Aus eigener Erfahrung gesprochen: für die Links, die wir hier zwecks weiterer Information den einzelnen Artikeln des ScienceBlog zufügen, bedarf es oft eines tagelangen Suchens , Ansehens und Aussortierens eines zum überwiegenden Teil unbrauchbaren Materials.

Die Kommunikation zwischen Wissenschaft und Öffentlichkeit

Der Mangel an naturwissenschaftlicher Bildung ist erkannt. Es ist zweifellos nicht mehr nur die Bringschuld der Wissenschafter. Viele von ihnen möchten mithelfen das Interesse an ihren Wissenszweigen zu wecken, Wissen zu vermitteln und die Faszination der Forschung erlebbar zu machen. Die Frage ist dabei: wie kann Wissenschaft so effizient als möglich kommuniziert werden und möglichst viele Menschen erreicht werden? Wie kann man die zwischen Wissenschaft und Öffentlichkeit stehende Mauer von Ignoranz und Desinteresse durchbrechen?

Vielleicht kann hier unser ScienceBlog einige Anregungen geben. Eine Reihe von Wissenschaftern, Experten in ihren speziellen Fächern, äußern sich hier zur Rolle der akademischen Institutionen in der Gesellschaft, zum Stand der Wissenschaft in der Gesellschaft, zur Kommunikation Wissenschaft – Gesellschaft und schließlich auch zu negativen Aspekten der Kommunikation.

Artikel zum Themenschwerpunkt:

Forschungsträger/Wissenschaftspolitik

Naturwissenschaften und Gesellschaft

Wissenschaftskommunikation


inge Fri, 23.10.2015 - 07:24

Heiße Luft in Alpbach? 70 Jahre wissenschaftlicher Diskurs

Heiße Luft in Alpbach? 70 Jahre wissenschaftlicher Diskurs

Fr, 16.10.2015 - 09:24 — Peter C. Aichelburg

Peter Christian AichelburgIcon Politik & Gesellschaft

Seit 1945 findet alljährlich im August das Europäische Forum Alpbach statt. In dem kleinen Tiroler Dorf treffen Experten aus Politik, Wirtschaft und Wissenschaft und auch Studenten zusammen, um über wesentliche (globale) Fragen zu diskutieren und Lösungsansätze zu erarbeiten. Der wissenschaftliche Teil der Konferenz – die Seminarwoche – wird von einem hochrangigen wissenschaftlichen Kuratorium gestaltet, dessen Vorsitzender in den letzten 15 Jahren der theoretische Physiker Peter C. Aichelburg (emer. Prof. Universität Wien)war. Diese interdisziplinären Seminare und Diskurse mit Spitzenwissenschaftern und Tagungsteilnehmern finden in den Medien allerdings nicht die gebührende Beachtung.

In einer der Ausgaben des Magazins des Wissenschaftsfonds (FWF) findet sich eine Karikatur, die einen Heißluftballon über dem Kongresshaus in Alpbach zeigt, versehen mit dem Text „ Wenn österreichische Wissenschaft ein Heißluftballon wäre, würde sie durch Alpbach einen enormen Auftrieb erfahren“ (Abbildung 1)

Karikatur AlpbachAbbildung 1. Auftrieb der österreichischen Wissenschaft in Alpbach? (Copyright: FWF/scilog/Raoul Nerada)

Das EUROPÄISCHE FORUM ALPBACH hat dieses Jahr sein 70 jähriges Bestehen gefeiert. Grund genug um sich der Frage zu stellen, wie es um die „heiße Luft“ in Alpbach steht.

Ist es tatsächlich so, dass es beim alljährlich im August stattfindenden Forum hauptsächlich darum geht, sehen und gesehen zu werden? Und wie steht es mit der Wissenschaft in Alpbach? Was war die ursprüngliche Idee und wo steht das Forum heute?

„Der andere Zauberberg“

Erstmals, am 25. August 1945 trafen etwa 80 Personen, Österreicher, Franzosen, Schweizer, Amerikaner – sowohl Wissenschaftler, Künstler, Offiziere der Besatzungstruppen als auch Studenten- in dem kleinen Bergdorf Alpbach zusammen, um, wie es Otto Molden, einer der beiden Gründer in seinem Buch „ Der andere Zauberberg“ beschreibt, an den „Internationalen Hochschulwochen des Österreichischen College “ teilzunehmen. Und dies nur wenige Wochen nach der Kapitulation der deutschen Wehrmacht und wenige Tage vor der japanischen Kapitulation. Otto Molden , damals Student der Staatswissenschaften und Geschichte, und der junge Philosophiedozent Simon Moser, hatten die Idee, das durch den Weltkrieg isolierte Österreich intellektuell zu öffnen. Diese Idee eines intellektuellen Austausches über Grenzen hinweg, war so fruchtbar, dass daraus eine Institution geworden ist. Eine Institution, die im Laufe ihres Bestehens große Geister nach Alpbach bringen konnte:

Theodor Adorno, Ernst Bloch, Sir John Eccles, Viktor Frankl, Friedrich A. Hayek, Konrad Lorentz, Erwin Schrödinger , Sir Karl Popper und Hans Albert, um nur einige der bekanntesten Namen zu nennen.

Unterschiedliche Vorstellungen über die Ausrichtung des Forums

Nun ist die Frage berechtigt, ob eine Veranstaltung, die alljährlich über Jahrzehnte immer wieder stattfindet, sich nicht überlebt. Zumindest aber kann man nach der heutigen Funktion bzw. dem Sinn eines solchen Unternehmens fragen. Der frühere Präsident Heinrich Pfusterschmid stellte anlässlich des 50. Jubiläums die rhetorische Frage, ob das Forum nicht mit einem Geburtsfehler behaftet sei. Denn schon in den Anfängen waren die Vorstellungen der beiden Gründer über die Ausrichtung unterschiedlich:

Während Otto Molden ein politisch vereintes Europa im Auge hatte und in Alpbach dafür die Diskussionsbasis schaffen wollte, ging es Simon Moser darum das Forum zu einem Ort der wissenschaftlich-philosophischen Diskussion zu machen.

In gewissem Sinn finden sich die Auswirkungen dieser Auffassungsunterschiede in der Ausrichtung noch heute im Selbstverständnis des Europäischen Forums. Denn wie kann eine Veranstaltung, zu der während der zweieinhalb Wochen über 4000 Teilnehmer anreisen, auch Ort des wissenschaftlichen Diskurses sein?

Alpbacher Gespräche

Auf der einen Seite ist Alpbach mit seinen „Gesprächen“ Treffpunkt für Politiker, Repräsentanten aus Wirtschaft und Industrie, sowie von Entscheidungsträgern der Verwaltung und den öffentlichen Institutionen. Diese Gespräche sind zum Teil Großveranstaltungen, wie etwa die Technologiegespräche, zu der mehr als 900 Teilnehmer für zwei Tage anreisen, darunter einige Nobelpreisträger.

Natürlich hat sich in den letzen Jahren viel geändert. Die schon unter dem Präsidenten Erhard Busek erfolgreiche Initiative mehr Jugend nach Alpbach zu bringen findet eine Kontinuität unter dem jetzigen Präsidenten Franz Fischler. Es gibt heute über 30 assoziierte Alpbach Clubs in ganz Europa und darüber hinaus. Diese Clubs bemühen sich nicht nur lokal um Stipendien für die Teilnahme am Forum, sondern bilden untereinander ein Netzwerk mit zahlreichen Aktivitäten. Über 700 Stipendiaten aus mehr aus 40 Ländern treffen sich beim Forum, tauschen Ansichten aus und knüpfen Freundschaften. Wohl ein Betrag zu einem besseren europäischen Verständnis. Neben den traditionellen Gesprächen sind unter der neuen Geschäftsleitung erfolgreiche Formate hinzugekommen, die das Forum interaktiver und flexibler gestalten.

Wo aber bleibt die Wissenschaft? Die Seminarwoche

Ich behaupte der wissenschaftliche Schwerpunkt des Forums (Abbildung 2) war und ist immer noch die Seminarwoche.

Peter Christian Aichelburg, Vorsitzender des wissenschaftlichen Kuratoriums, bei der Eröffnung des Europäischen Forums Alpbach 2013Abbildung 2. Peter Christian Aichelburg, Vorsitzender des wissenschaftlichen Kuratoriums, bei der Eröffnung des Europäischen Forums Alpbach 2013 (Photo: Philipp Naderer, Copyright - Luiza Puiu / European Forum Alpbach)

Sie bildet sozusagen jenen Teil den Simon Moser bei der Gründung im Auge hatte. Es gibt zwar andere Formate bei denen renommierte Wissenschaftler zu Wort kommen, wie etwa bei den Technologiegesprächen oder in den Gesundheitsgesprächen. Aber über 6 Halbtage hindurch ein bestimmtes Gebiet der Wissenschaft zu analysieren mit aktiver Teilnahme der jungen Stipendiaten, findet nur in den Seminaren statt.

Die Seminarwoche, die ein breites Spektrum an Themen anbietet, soll weder eine Fachtagung ersetzen, noch soll sie eine Sommerschule mit festem Lehrplan und Prüfungscharakter sein. Ziel ist es, den Teilnehmern die Möglichkeit zu bieten über das eigenes Studienfach hinaus zu blicken und damit Orientierung und Kompetenz zu aktuellen gesellschaftlichen Fragen zu vermitteln. Im Vordergrund steht nicht die Wissensvermittlung sondern der interdisziplinäre Diskurs. Eines der Grundprinzipien des Forums ist die Freiheit für die Teilnehmer bei der Wahl des Seminars. Seminarleiter sind mit einer heterogenen Zusammensetzung von Stipendiaten konfrontiert und gefordert sich thematisch und auch sprachlich darauf einzustellen. Es sei auch nicht verheimlicht, dass Alpbach aus „allen Nähten platzt“. Wegen der stark gestiegenen Zahl an Teilnehmern wurde die Anzahl der Seminare in den letzten Jahren auf 16 verdoppelt.

Mag sein, dass der philosophische Diskurs in den letzten Jahren etwas zu kurz gekommen ist und die Tradition von Karl Popper und Hans Albert in Alpbach nicht seine adäquate Fortsetzung gefunden hat. Dafür sind andere Schwerpunkte entstanden. Davon seien zwei herausgegriffen: Die Seminare zu aktuellen Fragen der Neurowissenschaften haben eine festen Platz in den letzten Jahren gefunden, ebenso die Seminare über Evolutionsbiologe.

Schwerpunkt Neurowissenschaften So z.B. hat der berühmte französische Neurobiologe Jean-Pierre Changeux ein Seminar über „Gehirn und neuronale Netzwerke“ geleitet oder der Neurobiologe Hans Flohr, zusammen mit dem Philosophen Ansgar Beckermann ein Seminar über „Theorien des Bewusstseins“ oder der Philosoph und Bewusstseins Forscher Thomas Metzinger ein Seminar mit dem Titel „Was ist ein bewusstes Subjekt?“ Zu erwähnen wäre auch der Rechtsphilosoph Reinhard Merkel, der ein viel beachtetes Seminar über „Verantwortung und rechtliche Schuld“ geleitet hat. Schwerpunkt Evolutionsbiologe Zur Evolutionsbiologie sei das Seminar mit dem ungarischen Biochemiker und Koautor von John Maynard Smith, Eörs Szathmáry und der israelischen Genetikerin vom Cohen Institut in Tel Aviv, Eva Jablonka, bekannt für ihre Forschung über epigenetische Vererbung, genannt.

Gut in Erinnerung sind die Laute die der japanische Primatenforscher Tetsurō Matsuzawa von der Universität in Kyoto durch den vollbesetzten Schrödingersaal erschallen ließ, als er die Lockrufe seiner Schützlinge, den Bonobos, nachahmte. Dies im Rahmen eines Seminars über „How do animals think? Animal cognition in human context" Ein weiterer Höhepunkt auf diesem Gebiet war das Seminar "Evolutionäre Wurzeln von Konflikten und Konfliktlösungsstrategien" mit dem renommierten niederländischen Verhaltensforscher Frans de Wall, aber auch das Seminar über „Molecules and Evolution“ mit dem theoretischen Chemiker und ehemaligen Präsidenten der österreichischen Akademie der Wissenschaften, Peter Schuster. Dies nur beispielhaft für die zahlreichen Seminare auf den unterschiedlichsten Gebieten. Man kann also nicht behaupten, dass die Wissenschaft in Alpbach vernachlässigt wurde.

Wissenschaft stößt auf wenig mediales Interesse

Es sei aber nicht verheimlicht, dass es immer schwieriger wird Personen für eine Seminarleitung zu gewinnen. Geht es doch darum für 16 Seminare nach Möglichkeit Spitzenleute einzuladen, die bereit sind in der Urlaubszeit für eine Woche nach Alpbach zu kommen.

Der Philosoph Hans Albert, der seit 1955 jedes Jahr am Forum teilgenommen und die Philosophie in Alpbach maßgeblich geprägt hat, wurde anlässlich 50 Jahre EFA gebeten einen Beitrag über die Rolle der Wissenschaft beim Forum zu schreiben:

„… der Schwerpunkt verschob sich damit in Richtung auf Vermittlung zwischen Wissenschaft und Praxis. Aber die wissenschaftlichen Arbeitskreise, die Seminare, blieben stets ein Kernbereich der Alpbacher Aktivitäten. Von Journalisten wurden sie allerdings nur selten beachtet, was zu außerordentlich irreführende Darstellungen der Alpbacher Veranstaltungen in der Presse führt“

Leider behält diese Aussage bis heute ihre Gültigkeit. Die mediale Unterbelichtung mag Anlass für die eingangs erwähnt Karikatur gewesen sein.


Weiterführende Links

Europäisches Forum Alpbach: http://www.alpbach.org/de/

Maria Wirth: A Window to the World. The European Forum Alpbach 1945 to 2015 (Kurzfassung, englisch) http://www.alpbach.org/wp-content/uploads/2013/04/%C3%9Cbersetzung-Maria...

inge Fri, 16.10.2015 - 09:24

Naturstoffe, die unsere Welt verändert haben – Nobelpreis 2015 für Medizin

Naturstoffe, die unsere Welt verändert haben – Nobelpreis 2015 für Medizin

Fr, 09.10.2015 - 09:11 — Redaktion

Redaktion

Icon Medizin

 

Der diesjährige Nobelpreis für Physiologie oder Medizin wurde für Durchbrüche in der Behandlung parasitärer Erkrankungen verliehen. Der halbe Preis ging an die Chinesin YouYou Tu “für die Entdeckung einer neuen Therapie der Malaria”. Die andere Hälfte erhielten zu gleichen Teilen der aus Irland stammende US-Amerikaner William C. Campbell und der Japaner Satoshi Ōmura "für ihre Entdeckung einer neuen Therapie der durch Fadenwürmer hervorgerufenen Infektionen“. Das Nobelkomitee begründete die Entscheidung: „Diese Entdeckungen haben der Menschheit wirksame Mittel zur Bekämpfung dieser verheerenden Krankheiten zur Verfügung gestellt, die jährlich hunderte Millionen Menschen befallen. Die Auswirkungen – verbesserte Gesundheit, verringertes Leiden – sind unermesslich groß“.*

 

Naturstoffe spielen seit jeher eine dominierende Rolle in der Behandlung von Krankheiten; die ältesten dazu bekannten Aufzeichnungen stammen aus Babylon (vor rund 4400 Jahren) und Ägypten (Ebers Papyrus , 1534 a.C.). Allerdings handelte es sich dabei um vorwiegend pflanzliche Tinkturen und Extrakte, deren Zusammensetzung und Gehalt an wirksamen Naturstoffen sehr stark variieren konnte. Erst ab Ende des 19. Jahrhunderts ermöglichte eine immer leistungsfähigere analytische Chemie die Isolierung, Reindarstellung und Charakterisierung der wirksamen Substanzen (wie beispielsweise von Salizylsäure – Aspirin - aus Weidenextrakten). Die synthetische Chemie wandelte diese dann ab (Derivierungen) zu immer potenteren und nebenwirkungsärmeren Arzneistoffen.

Der Großteil der heute am Markt vorhandenen Medikamente sind Naturstoffe oder von Naturstoffen abgeleitete Substanzen. Für die Entdeckung von zwei dieser Substanzen wurde der Nobelpreis 2015 verliehen. Der Wirkstoff einer jahrtausendealten Rezeptur und ein in Bodenbakterien entdeckter Naturstoff haben, wie das Nobelkomitee es ausdrückte, die Behandlung einiger der verheerendsten, durch Parasiten hervorgerufenen Erkrankungen – Malaria, Flussblindheit und Elephantiasis - revolutioniert und Millionen Menschen vor Siechtum und verfrühten Tod gerettet.

Parasitäre Erkrankungen

betreffen gut 1/3 der Weltbevölkerung, insbesondere Menschen, die in armen Regionen südlich der Sahara, in Südostasien und Lateinamerika leben. In diesen Gebieten werden von Insekten Malaria, Flussblindheit (Onchocerciasis) und Elephantiasis (lymphatische Filariose) übertragen (Abbildung 1). Risikogebiete für Malaria, Flussblindheit (Onchocerciasis) und Elephantiasis (lymphatische Filariasis)

Abbildung 1. Risikogebiete für Malaria, Flussblindheit (Onchocerciasis) und Elephantiasis (lymphatische Filariasis) (Quelle: World Health Organization – WHO)

Malaria wird durch Plasmodien hervorgerufen, das sind einzellige Parasiten, welche von damit infizierten Stechmücken (Anopheles) übertragen werden. Im Jahr 2010 erkrankten mehr als 200 Millionen Menschen an Malaria, ca. 655 000 Menschen starben an der Krankheit. Die meisten Opfer waren Kinder unter fünf Jahren [1].

Ebenfalls von infizierten Mücken übertragen werden Fadenwürmer (Filarien), die Elephantiasis und Flussblindheit verursachen. Rund 120 Millionen Menschen sind gegenwärtig an Elephantiasis erkrankt [2]. Deren Erreger (größtenteils Wuchereria bancrofti) reifen im menschlichen Organismus heran, verbreiten sich im Lymphsystem und schädigen es. Es entstehen Ödeme, die vor allem die Beine extrem anschwellen lassen und monströs deformieren. Schmerzen und Stigmatisierung der Betroffenen sind die Folge. Der Erreger der Flussblindheit (Onchocerca volvulus) wird von Mücken übertragen, die an Fließgewässern leben. Diese infizieren Menschen mit Fadenwürmern im Larvenstadium, die dann unter der Haut zu adulten Würmern reifen, dichte Knäuel von Mikrofilarien bilden und schwere Entzündungen hervorrufen (Abbildung 3). Eine besondere Affinität haben diese Parasiten zu den Augen und verursachen Erblindung.

Artemisinin, die Nummer 1 im Kampf gegen Malaria

Die Entdeckung von Artemisinin durch die chinesische Wissenschafterin Youyou Tu liegt bereits mehr als 4 Jahrzehnte zurück und zeigt den langwierigen Weg von der Entdeckung bis zum Einsatz eines neuen Arzneimittels.

Im Vietnamkrieg war China Verbündeter der Nordvietnamesen. Als die Malaria bereits mehr Opfer forderte als der Krieg – das Malariamittel Chloroquin wirkte nicht mehr -, startete die chinesische Regierung unter Mao tse tung 1967 ein Geheimprojekt, das nach Mitteln gegen diese Krankheit suchen sollte, nach synthetischen Wirkstoffen ebenso wie nach Wirkstoffen in Heilkräutern. Insgesamt 500 Wissenschafter wurden eingesetzt, darunter Youyou Tu, eine ausgebildete Pharmazeutin, die am Pekinger Akademieinstitut für chinesische Medizin kräutermedizinische Forschungen betrieb.

Im Zuge ihrer Suche durchforstete Youyou Tu rund 2000 alte chinesische Rezepturen, die Wirksamkeit gegen malariatypische Symptome versprachen. Zum Ziel führte schließlich eine fast 1600 Jahre alte Vorschrift, die einen Extrakt aus dem einjährigen Beifuß Artemisia annua (einem Verwandten unseres Wermutkrauts) - qinghao – beschrieb (Abbildung 2). Nach einigen Schwierigkeiten konnte Youyou Tu einzelne biochemisch aktive Komponenten aus der Pflanze isolieren und an infizierten Mäusemodellen testen (das war 1972). Die in der westlichen Welt nun als Artemisinin bezeichnete, neuartige Substanz erwies sich zu 100 % aktiv.

Die Testungen gingen weiter, es sollte aber noch lange Jahre dauern bis man im Westen auf Artemisinin aufmerksam wurde. Von der WHO erhielt die Substanz im Jahr 2000 Unterstützung, allgemein verfügbar wurde sie erst 2006.

Artemisia annuaAbbildung 2. Aus dem einjährigen Beifuß – Artemisia annua – wird das hochwirksame Malariamittel Artemisinin gewonnen. Dies ist ein Sesquiterpen mit einem Endoperoxid, das Radikale bildet und vermutlich damit die Parasiten zerstört.

Nach WHO Aussagen ist Artemisinin in den letzten 15 Jahren zur tragenden Säule der Malariatherapie geworden (es gab in diesem Zeitraum mehr als 1 Milliarde Behandlungen). Die Fortschritte in Therapie und begleitenden Maßnahmen haben in vielen Ländern die Zahl der Malariaerkrankungen um mehr als 50% reduziert, die Todesrate auf 20 % gesenkt. Da gegen die Monotherapie mit Artmisinin bereits beginnende Resistenzen bemerkt werden, wird heute eine artemisininhaltige Kombinationstherapie (ACT) angewandt, die hochwirksam ist und von Patienten gut vertragen wird.

Die noch immer sehr hohe Zahl an Erkrankten bedeutet natürlich einen enormen Bedarf an reinem Wirkstoff. Schwankende Wirkstoffgehalte der Pflanze und Ernteerträge führen jedoch zu Lieferengpässen. Um davon unabhängig zu sein wurden auf Basis von genmanipulierter Bäckerhefe semi-synthetische Verfahren zur Produktion von Artemisinin entwickelt - es sind Paradebeispiele der synthetischen Biologie [3].

Interessanterweise zeigt Artemisinin auch gegen unterschiedliche Tumoren vergleichbare Wirkung wie herkömmliche Krebsmittel. Das Interesse der Pharmaindustrie den billigen und nicht patentierbaren Wirkstoff zu einem massentauglichen Krebsmedikament zu entwickeln ist endenwollend [4].

Ivermectin - eine Revolution in der Therapie der durch Fadenwürmer (Filarien) hervorgerufenen Infektionen

Wie im Falle des Artemisinin wurde auch die Wirkstoffklasse der Avermectine - Ivermectin ist ein Derivat - bereits in den 1970er Jahren entdeckt.

Der japanische Mikrobiologe Satoshi Ōmura hatte neue Stämme von Bakterien der Gattung Streptomyces aus Bodenproben isoliert und in Zellkultur gebracht, um möglicherweise neue hochwirksame Antibiotika zu finden (derartige Bakterien produzieren ja eine Reihe wichtiger Antibiotika , wie z.B. Streptomycin). Aus rund 1000 unterschiedlichen Kulturen testete er dann 50 auf ihre Wirkung gegen fremde, krankmachende Keime. Er sandte Bakterienkulturen zur Untersuchung auch an William C. Campbell, einen Experten in der Parasitenforschung.

Als Campbell Extrakte aus diesen Kulturen gegen verschiedene Parasiten testete, zeigte sich einer davon hochaktiv gegen Parasiten in Nutz- und Haustieren. Der daraus isolierte Wirkstoff erhielt die Bezeichnung Avermectin , eine geringfügige Derivatisierung führte zum noch wirksameren Ivermectin, das zum Standard in der Therapie von Wurmerkrankungen des Menschen wurde (Abbildung 3). Ivermectin ist nun seit 1987 auf dem Markt und wird weltweit eingesetzt. Laut WHO hat dieses Medikament das Leben von Millionen Menschen mit Elephantiasis oder Flußblindheit enorm verbessert. Die Wirksamkeit, die sich spezifisch auf die Parasiten richtet, ist so hoch, dass eine Ausrottung dieser Krankheiten plausibel erscheint.

Lebenszyklus des Erregers der Flußblindheit (Onchocerca volvulus) und Strukturformel des IvermectinAbbildung 3. Lebenszyklus des Erregers der Flußblindheit (Onchocerca volvulus) und Strukturformel des Ivermectin (Quelle des Lebenszyklus: Giovanni Maki, derived from a CDC image at http://www.dpd.cdc.gov/dpdx/HTML/Filariasis.htm)


Ausblick

Der heurige Nobelpreis für Physiologie oder Medizin hat die Bedeutung der Naturstoffforschung ins zentrale Blickfeld gerückt und ihr weiteren Auftrieb gegeben. Pharmafirmen, die in den letzten Jahren von dieser Strategie der Wirkstoff-Entdeckung abgerückt sind, könnten diesen erfolgversprechenden Weg wieder einschlagen. Die ungeheure Biodiversität der Lebensformen im Wasser und an Land bietet ja ein schier unerschöpfliches Reservoir an neuartigen, biologisch wirksamen Substanzen und die Suche nach diesen hat erst begonnen.

Ein wesentlicher Punkt wurde noch nicht angesprochen: wer finanziert Programme, welche die globale Ausrottung von Krankheiten zum Ziel haben, beispielsweise die Ausrottung der in Entwicklungsländern endemischen parasitären Erkrankungen?

Hier gibt es in zunehmendem Maße gemeinsame Anstrengungen von Regierungen, WHO, UNITAID, Weltbank und anderen multilateralen Organisationen. Besonders hervorzuheben ist die von Bill Gates und seiner Frau Melinda eingerichtete Stiftung, die sich sowohl der Therapie als auch der Ausrottung (nicht nur) der genannten parasitären Krankheiten verschrieben hat. Diese Stiftung stellt großzügigste Ressourcen zur Entwicklung von Diagnosetests und Behandlungsmethoden (mit Medikamenten ebenso wie mit Impfstoffen) bereit und ebenso zur Bekämpfung der übertragenden Stechmücken und Schaffung der benötigten Infrastrukturen [1,2]. Allein den Kampf gegen die Malaria hat die Gatesfoundation bis 2014 mit 2 Milliarden Dollar gefördert. Der Mäzen und Philanthrop Bill Gates sieht die grundlegende Aufgabe der Philanthropie darin, vielversprechende Lösungswege zu testen, die sich Regierungen und Unternehmen finanziell nicht leisten können.


* * Nobel Prize in Physiology or Medicine 2015. http://www.nobelprize.org/nobel_prizes/medicine/laureates/2015/

[1] Bill and Melinda Gates Foundation: Der Kampf gegen Malaria http://scienceblog.at/kampf-gegen-malaria

[2] Bill and Melinda Gates Foundation: Der Kampf gegen Vernachlässigte Infektionskrankheiten http://scienceblog.at/vernachlaessigte-infektionskrankheiten#

[3] Rita Bernhardt Aus der Werkzeugkiste der Natur - Zum Potential von Cytochrom P450 Enzymen in der Biotechnologie http://scienceblog.at/cytochrom-p450

[4] Peter Seeberger, Rezept für neue Medikamente http://scienceblog.at/rezept-fuer-neue-medikamente

inge Fri, 09.10.2015 - 09:11

Gottfried Schatz (1936 – 2015) Charismatischer Brückenbauer zwischen den Wissenschaften, zwischen Wissenschaft und Kunst, zwischen Wissenschaft und Öffentlichkeit

Gottfried Schatz (1936 – 2015) Charismatischer Brückenbauer zwischen den Wissenschaften, zwischen Wissenschaft und Kunst, zwischen Wissenschaft und Öffentlichkeit

Fr, 02.10.2015 - 13:45 — Inge Schuster

Inge SchusterIcon Wissenschaftsgeschichte„Wissenschaft ist keine Hüterin von Stabilität und Ordnung, sondern eine unverbesserliche Revolutionärin, die unablässig kreative Unruhe stiftet. Sie macht unser Leben nicht ordentlicher oder ruhiger, sondern freier und interessanter. Innovative Wissenschaft missachtet Dogmen und verunsichert, ebenso wie innovative Kunst.“ (G. Schatz [1]) Das letzte Mal habe ich Jeff Schatz am 23. Juni dieses Jahres getroffen. Er war nach Wien gekommen, um hier am renommierten Institut für Molekulare Pathologie (IMP), aus seinem Roman „Postdoc“ zu lesen. Seine Tochter Kamilla, eine großartige Violinistin, begleitete ihn, umrahmte die Lesung musikalisch. Es war eine Veranstaltung, die Jeff in vielen seiner Facetten zeigte. Die Textstellen demonstrierten sein hohes literarisches Talent, seinen Reichtum an farbigen Details und seine meisterhafte Beherrschung sprachlicher Ausdrucksformen, die Inhalte sein immerwährendes Plädoyer für die Naturwissenschaften, aber auch ein Aufzeigen der Gedanken- und Gefühlswelt des Forschers. Die Brücke von der Wissenschaft zur Kunst – ein besonderes Anliegen von Jeff Schatz, der ja selbst ein virtuoser Musiker war - schlug seine Tochter Kamilla.

Jeff und Kamilla SchatzAbbildung 1. Jeff und Kamilla Schatz bei der Lesung aus dem „Postdoc“ am 23.6.2015 am IMP

Wer war Jeff Schatz? (Fast leichter zu beantworten wäre: wer war er nicht?) Er war vor allem ein höchst renommierter Wissenschafter, ein Vollblutforscher; um es in seinen eigenen Worten auszudrücken: Seine „Heimat war nicht das gesicherte Wissen, sondern dessen äusserste Grenze, wo Wissen dem Unwissen weicht“[1]. Wir verdanken ihm fundamentale Erkenntnisse vor allem im Gebiet der Mitochondrien. Bereits früh, als Postdoc (wie die Zentralfigur seines Buches verbrachte er diese Zeit in einem Labor in New York) hatte er im wahrsten Sinn des Wortes Feuer gefangen: er untersuchte mechanistische Details zur oxydativen Phosphorylierung in Mitochondrien, des wesentlichen energieliefernden „Verbrennungs“-Prozesses aller höheren Lebewesen [2]. Berühmt wurden vor allem seine Arbeiten zur Biogenese von Mitochondrien und die Entdeckung der in diesen enthaltenen DNA, ebenso wie auch die Aufklärung des Transports von Proteinen in diesen Zellorganellen.

Von besonderer Wichtigkeit war für Schatz immer die Wissenschaftskommunikation, eine Brücke zu bauen: als akademischer Lehrer zur Jugend, als charismatischer Redner und Essayist zur Öffentlichkeit, als Forschungspolitiker zu den Regierenden. Schatz hat es verstanden Jung und alt mit dem Feuer zu infizieren, das in ihm brannte, zu überzeugen, dass „es Menschen braucht, die sehen, was jeder sieht, dabei aber denken, was noch niemand gedacht hat. Es braucht Menschen, die intuitiv erkennen, dass der von allen gesuchte Weg von A nach C nicht über B führt - wie jeder vermutet - sondern über X oder Z. All dies erfordert intellektuellen Mut. Er ist die wichtigste Gabe eines Forschers.” [1]. Schatz bei seiner Festansprache

Abbildung 2. Schatz bei seiner Festansprache anlässlich des Jubiläums 650 Jahre Universität Wien (Quelle: Universität Wien)

Wir sind dankbar, dass wir Jeff Schatz kennen und von ihm lernen durften.


[1] Gottfried Schatz: Universitäten – Hüterinnen unserer Zukunft . Rede anlässlich des Festaktes 650 Jahre Universität Wien. http://scienceblog.at/universitaeten-hueterinnen-unserer-zukunft#.

[2] Diesen Werdegang hat Gottfried Schatz in einer Autobiographie beschrieben, die er dem berühmten Biochemiker Efraim Racker, dem Betreuer seiner Postdoc Zeit in New York, widmete: Feuersucher. Die Jagd nach dem Geheimnis der Lebensenergie (2011). Wiley-VCH Verlag & Co KGaA.


Wer Jeff Schatz näher kennenlernen möchte: 

Er ist der Hauptautor von ScienceBlog.at; Sein Lebenslauf findet sich unter: http://scienceblog.at/gottfried-schatz

Er hat uns 37 Essays zur Verfügung gestellt, die links zu diesen finden sich ebenso unter http://scienceblog.at/gottfried-schatz

Eine Rezension des Postdoc ist nachzulesen unter: Postdoc – eine Suche nach dem Ich http://scienceblog.at/postdoc.

inge Fri, 02.10.2015 - 14:50

Verringerung kurzlebiger Schadstoffe – davon profitieren Luftqualität und Klima

Verringerung kurzlebiger Schadstoffe – davon profitieren Luftqualität und Klima

Fr, 25.09.2015 - 09:48 — IIASA

IIASAIcon GeowissenschaftenEin internationales Forscherteam hat untersucht, welche Auswirkungen die Reduktion kurzlebiger Luftschadstoffe auf Luftqualität und Klimawandel hat. Wissenschafter am Internationalen Institut für Angewandte Systemanalyse (IIASA) haben Szenarios für die analysierten Schadstoffe entwickelt, Maßnahmen zur Reduktion der kurzlebigen, klimatreibenden Stoffe identifiziert und abgeschätzt, wie sich diese auf die Gesundheit in Europa und Asien auswirken würden. *

Verglichen mit CO2 haben Ozon (O3), Methan (CH4) und Aerosole zwar eine kürzere Verweilzeit in der Atmosphäre, können aber sowohl die Luftqualität als auch das Klima beeinträchtigen. Dennoch pflegt die Umweltpolitik beide Sparten getrennt zu betrachten – in der Folge wirken sich Maßnahmen, welche die Luftverschmutzung bekämpfen, nicht immer günstig auf das Klima aus und umgekehrt. Ein aus mehreren europäischen Staaten und China stammendes Forscherteam hat sich nun mit dem Problem der kurzlebigen Luftschadstoffe befasst; die Ergebnisse wurden gestern publiziert [1]. Daraus können Maßnahmen für staatliche Schritte abgeleitet werden, die sowohl der Verbesserung der Luftqualität als auch dem Kampf gegen den Klimawandel dienen.

Das ECLIPSE Projekt

Im Rahmen des Europäischen Projekts ECLIPSE [2] hat das internationale Forscherteam die Emissions-Szenarien verschiedener kurzlebiger Substanzen untersucht, die nicht nur zur Klimaerwärmung beitragen, sondern Luftschadstoffe sind oder in der Atmosphäre zu Schadstoffen umgewandelt werden. Dazu zählen Methan, Kohlenmomoxyd (CO), Ozon, Stickoxyde, Schwefeldioxyd (SO2), Ammoniak (NH3), nicht-Methan flüchtige oganische Verbindungen, Partikel unterschiedlicher Größe (< 2,5µm, < 10µm), Ruß, u.a.m. (siehe [3]).

Methan, beispielsweise, liefert nach CO2 den zweitstärksten Beitrag zur Klimaerwärmung. Während auch Ruß-Aerosole zur Erwärmung beitragen, haben andere Aerosole, wie die von Schwefeldioxyd (SO2) gebildeten, einen abkühlenden Effekt (SO2-Emissionen entstehen u.a. bei Vulkaneruptionen und bei Kohlekraftwerken).

Forscher des IIASA um Markus Amann (Leiter des Programms zur Minderung von Luftschadstoffen und Treibhausgasen) haben wesentlich zu dem Projekt beigetragen. Sie haben Szenarios für die in der Studie analysierten Schadstoffe und Treibhausgase entwickelt, Maßnahmen zur Reduktion der kurzlebigen, klimatreibenden Stoffe identifiziert und abgeschätzt, wie sich diese auf die Gesundheit in Europa und Asien auswirken würden.

Verbesserte Luftqualität erhöht die Lebenserwartung

Im Jahr 2010 hat die Luftverschmutzung im EU-Raum eine Reduktion der Lebenserwartung von 7,2 Monaten verursacht. Bereits geltende Rechtsvorschriften zur Verbesserung der Luftqualität sollen bis 2030 diese Reduktion auf 5,2 Monate verringern. Nach Berechnungen des Forscherteams sollten die Maßnahmen zur Verringerung der kurzlebigen Schadstoffe (ECLIPSE-Maßnahmen) die Luftqualität steigern und damit auch die Lebenserwartung: um rund ein Monat in Europa, zwei Monate in China und ein Jahr in Indien (Abbildung 1).

Abbildung 1. Luftschadstoffe verkürzen die Lebenserwartung: in der EU (oben links) um 7,5 Monate (dunkelblau). Die geltenden Rechtsvorschriften zur Verbesserung der Luftqualität werden zu einem geringeren Verlust an Lebenszeit führen, der mit der Reduktion der Luftschadstoffe (ECLIPSE Maßnahmen: hellblau) noch weiter abnimmt. Oben rechts: in den Nicht-EU-Ländern erhöhen die ECLIPSE –Maßnahmen die Lebenserwartung um einen Monat. Auf Grund der hohen Luftschadstoffe ist die Lebenserwartung in China und Indien (unten) viel stärker verkürzt. Dazu kommt in Indien ein rasch wachsender Energieverbrauch, bei fehlender Kontrolle der Emissionen. ECLIPSE –Maßnahmen (hellblau) könnten die Lebenserwartung in China um 1,8 Monate, in Indien um bis zu 1 Jahr steigern. Steigerung der Lebenserwartung bei Anwendung der EU-Rechtsvorschriften (hellgrün) (Bild: aus [1] Creative Commons Attribution 3.0 License)

Methan ist auch in die Entstehung von Ozon in der Troposphäre involviert, eines Schadstoffes, der erhebliche Gesundheitsrisiken mit sich bringt. „Wir haben festgestellt, dass die Maßnahmen zur Reduktion von Methan und anderen „Ozon-Vorläufern“ auch die Ozon- Luftqualität wesentlich verbessern würden, insbesondere über den nördlichen Ländern. Dies würde unserer Gesundheit nützen und die Ernteerträge steigern –zusätzliche positive Effekte einer Schadstoffreduktion“, meint William Collins (University Reading, UK) einer der Koautoren der Studie.

Reduktion der kurzlebigen Schadstoffe wirkt der Klimaerwärmung entgegen

Die Verringerung kurzlebiger Schadstoffe sollte sich auch vorteilhaft auf das Klima auswirken: Prognosen an Hand von vier unterschiedlichen globalen Klimamodellen ergaben, dass diese Maßnahme im Jahr 2050 eine Reduktion des globalen Temperaturanstiegs um 0,22oC mit sich bringen würde. In der Arktis sollte - mit nahezu 0,5oC – die Reduktion noch stärker ausfallen.

Im südeuropäischen Raum würden nicht nur die Temperaturen niedriger ausfallen, es würde auch feuchter werden - der Regen um etwa 15 mm/Jahr – etwa 4 % des gesamten Niederschlags – zunehmen (Abbildung 2). „Dies könnte zu einer Milderung der zukünftig erwarteten Trockenheit und Wasserknappheit im Mittelmeerraum beitragen“ meint der Erstautor der Studie, Andreas Stohl (Norwegisches Institut für Luftforschung).

Abbildung 2. Mittlere jährliche Unterschiede in der Oberflächentemperatur (oben) und in den Regenmengen (unten), wenn das Szenario geltende Rechtsvorschriften mit dem Szenario zusätzliche ECLIPSE-Maßnahmen verglichen wird. Positive Werte bedeuten höhere Temperaturen (oben) und höhere Regenmengen (unten). (Bild: aus [1] Creative Commons Attribution 3.0 License)

Insgesamt gesehen würden durch die neuen(ECLIPSE-) Maßnahmen die globalen anthropogenen Emissionen von Methan um 50 % gesenkt werden und die Ruß –Aerosole um 80%.

ECLIPSE-Maßnahmen

Die wichtigsten Maßnahmen betreffen die Erdöl- und Gasindustrie. Wird beispielsweise verhindert, dass bei der Extraktion von Ölschiefern undichte Stellen auftreten, so verringert dies die Emission von Methan. Wenn das Abfackeln des Begleitgases während der Förderung von Erdöl eingestellt wird, bedeutet dies niedrigere Emissionen von Russ.

„Andere wesentliche Maßnahmen betreffen beispielsweise die Reduktion von Methanemissionen beim Kohlebergbau, die kommunale Abfallbeseitigung, ebenso wie die Verminderung der Rußemissionen durch eine Abkehr von stark emittierenden Fahrzeugen, die Verwendung umweltfreundlicher Biomasse für Koch- und Heizzwecke, den Ersatz von Petroleumlampen durch LED-Lampen, usw.“ ergänzt Zbigniew Klimont, der den Beitrag des IIASA zur Studie geleitet hat.


Die Wissenschafter hoffen nun, dass die ECLIPSE- Maßnahmen von Seiten der Politik eingeführt werden, meinen aber dazu, dass die kurzlebigen Luftschadstoffe nur ein Teil des Problems sind und, dass deren Reduktion keineswegs die Reduktion der CO2-Emissionen ersetzen kann:, „Es besteht kein Zweifel, dass CO2-Emissionen die Hauptursache der Klimaerwärmung sind und diese daher auch das primäre Angriffsziel unserer Klimapolitik sein müssen. Dennoch sollte man die anderen Klimatreiber nicht außer Acht lassen, welche – insbesondere in den nächsten Dekaden – auf die Geschwindigkeit der Erwärmung einen Einfluss haben können,“ meint Stohl. „und was möglicherweise noch mehr zählt: Wenn man gegen diese Schadstoffe vorgeht, wird dies auch zu einer massiven Verbesserung der globalen Luftqualität führen.“


*Die IIASA-Presseaussendung “Curbing short-lived pollutants: win-win for climate and air quality” vom 24.September 2015 wurde von der Redaktion aus dem Englischen übersetzt und geringfügig für den Blog adaptiert. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung ihrer Nachrichten in unserem Blog einverstanden. Die Abbildungen wurden von der Redaktion zugefügt und stammen aus der dem Bericht zugrundeliegenden Publikation [1].

[1] Stohl A. et al., (2015) Evaluating the climate and air quality impacts of short-lived pollutants. Atmos. Chem. Phys., 15, 10529-10566, 2015. www.atmos-chem-phys.net/15/10529/2015/

[2] ECLIPSE (Evaluating the Climate and Air Quality Impacts of Short-Lived Pollutants): the initiative is a EU 7th Framework Programme Collaborative Project. Further information on ECLIPSE, including a policy brochure, is available from the ECLIPSE website: http://eclipse.nilu.no/

[3] Global emissions data developed through the ECLIPSE project are available on the IIASA Web site: Global emission fields of air pollutants and GHGs

inge Fri, 25.09.2015 - 09:48

Das Erdbeben in Nepal – wie ein Forschungsprojekt ein abruptes Ende fan

Das Erdbeben in Nepal – wie ein Forschungsprojekt ein abruptes Ende fan

Fr, 18.09.2015 - 08:13 — Viktor Bruckman Viktor BruckmanIcon Wissenschaftsgeschichte

Am 25. April 2015 ereignete sich in Nepal ein verheerendes Erdbeben (nach der Momenten-Magnitudenskala Stärke 7,8) in einer Tiefe von rund 15 km. Das Epizentrum lag rund 70 km westlich von der Hauptstadt Kathmandu. Der Forstwissenschafter Viktor Bruckman (Kommission für interdisziplinäre ökologische Studien, OEAW) war an diesem Tag mit seinem Team in ein entlegenes Tal des Gaurinshakar Schutzgebietes im Nordosten Nepals aufgebrochen, um im Rahmen eines internationalen Projektes die Landnutzung und Forstbewirtschaftung dieses Gebietes zu studieren. Das Beben machte diesen Plan zunichte. Bruckman beschreibt, wie er diesen Albtraum erlebte.

„Möglichkeiten für eine integrierte Forstwirtschaft im Gaurinshankar Schutzgebiet“

Dies ist der Titel eines meiner laufenden Projekte, in welchem Partner aus Nepal, China und Österreich zusammenarbeiten. Das Gaurinshankar Schutzgebiet (GCA) - 2010 von der Nepalesischen Regierung ausgerufen - hat eine Fläche von 2'179 km2 und liegt im Nordosten Nepals. Im Osten grenzt es an den Mt. Everest National Park, im Westen an den Langtang National Park und im Norden an die autonome Chinesische Region Tibet (Abbildung 1).

35% der Fläche des GCA sind von Wäldern bedeckt. Bedingt durch die gebirgige Region mit Höhen zwischen 1'000 und 7'000 m liegt ein komplexes Ökosystem vor mit 16 wesentlichen Vegetationstypen und einer hohen Diversität von Fauna und Flora. Auch die etwa 60'000 in dieser Region lebenden Menschen weisen auf Grund einer langen und komplexen Besiedlungsgeschichte eine außergewöhnliche kulturelle Vielfalt auf und gehören unterschiedlichen Ethnien und Religionen an. Die gesamte Region ist reich an Wasservorkommen und Einzugsgebiet mehrerer Flüsse- einige größere Wasserkraftwerksprojekte laufen bereits oder sind in Planung.

Gaurinshankar SchutzgebietAbbildung 1, Das Gaurinshankar Schutzgebiet. Grün: die kleinsten politischen Verwaltungseinheiten (Village Development Committees: VDCs). Die in dem Bericht genannten Örtlichkeiten sind eingezeichnet.

Das Ziel unseres Projektes

war es die Landnutzung und Waldbewirtschaftung in einer der entlegensten Gegenden des seit kurzem bestehenden Gaurinshankar Schutzgebietes zu untersuchen. In einem Zweistufenprogamm wollten wir zuerst einen Einblick in die Wechselbeziehung Mensch und Ökosystem gewinnen. Dies sollte partizipativ aus Einzel- und Gruppen-Interviews mit der Landbevölkerung hervorgehen (Fragen hinsichtlich Landnutzung und Existenzgrundlagen, Erhebung von wirtschaftlichen Möglichkeiten und Aktivitäten). Im zweiten Schritt planten wir entsprechend den lokalen Gegebenheiten und den im ersten Schritt gewonnenen Erkenntnissen eine Reihe von Beobachtungsplots einzurichten. Von Anfang an wollten wir auch lokale Interessensvertreter in das Projekt mit einbeziehen: unsere Ergebnisse sollten ja schließlich der lokalen Bevölkerung und nicht nur der Wissenschaft zugutekommen.

Insgesamt ist dieses Konzept ein gutes Beispiel für eine interdisziplinäre Fragestellung, die nötig ist, um den Komplex lokale Energieerzeugung, Ressourcen und Auswirkungen auf die Umwelt und das soziale Gefüge zu verstehen.

Unser Projekt startete am 22. April 2015 mit einem Workshop in Kathmandu. Wir hatten dazu einige wichtige Interessenvertreter der Regierung und lokaler Nichtregierungsinstitutionen (NGO’s) eingeladen und ihnen das Projekt und dessen Ziele vorgestellt. Es ging uns auch darum, einen Überblick zu bekommen, wie sich die seit Gründung des Schutzgebietes bestehenden Auflagen zur Landnutzung bereits auf die reale Nutzungssituation auswirkt.

Ein kurzer Einblick zur Landnutzung und Existenzgrundlage

Tags darauf begannen wir mit den ersten Interviews. Wir erfuhren, dass von dem am oberen Tamakoshi-Fluss in Bau befindlichem Wasserkraftwerk große Auswirkungen auf Bevölkerung und Landnutzung erwartet werden. Mit einer Kapazität von 456 MW soll es das größte Wassserkraftwerk Nepal s werden. Eine dieser Auswirkungen betrifft die neu geschaffene Infrastruktur: Um die Zufahrt zur Baustelle des Staudamms im Ort Lamabagar (etwa 7 km von der Grenze zu Tibet entfernt) zu erleichtern, wurde eine Straße gebaut. Nun sind ehemals abgelegene Siedlungen an das Straßennetz angeschlossen und es wurde von Verbesserungen in Gesundheitsbereich, Ausbildung und Vermarktung lokaler Produkte berichtet.

Zur Landnutzung

In niedrigeren Lagen des Schutzgebietes dominieren Terrassen-Ackerbau und Tierhaltung. Bodenstreu wird in den Wäldern gesammelt und zusammen mit Stallmist kompostiert. Dies dient als natürlicher Dünger für die Landwirtschaft. In höheren, für Ackerbau bereits ungeeigneten Lagen herrscht Tierzucht mit Yaks und Chauri (Hybride von Yaks und lokalen Rindern) und Ziegen vor. In der ganzen Gegend ist es aufgrund des Mangels an Weideflächen üblich, grüne Zweige und Äste aus dem Wald – vor allem von Eichen – als Tierfutter zu verwenden. Terrassen-Ackerbau und die regelmäßig beschnittenen „Futterbäume“ kommen in tieferen Lagen gemeinsam vor und sind ein gutes Beispiel für Agrarforstwirtschaft (Abbildung 2).

In den entlegenen Teilen des Tales stromaufwärts von Lamabagar sind die Wälder weitgehend intakt, die Forstwirtschaft wird offenbar seit Jahrhunderten nachhaltig betrieben: Produkte sind Tierfutter, Bodenstreu, Kräuterpflanzen und medizinische Pflanzen, Brennholz und in gewissem Umfang auch Bauholz. Die Baumgrenze liegt bei etwa 3600 – 3700 m. In einigen vorangegangenen Studien konnte gezeigt werden, dass eine Kreislaufwirtschaft im Sinne des Nährstoffumsatzes die Basis der nachhaltigen Nutzung ist, die ohne industrielle Düngemittel auskommt. Die Bodenbewirtschaftung muss in diesen Gegenden sehr sorgsam und überlegt betrieben werden, denn Erosion ist aufgrund der Topographie ubiquitär und kann zur vollständigen Degradation der Böden führen.

Gaurinshankar SchutzgebietAbbildung 2. Der imposante Gaurishankar (7'134 m), an der Grenze zu China gelegen, ist namensgebend für das Schutzgebiet. Das Bild zeigt die typische Bodenbewirtschaftung: Terrassen und Bäume, die Futtermittel liefern, also eine Art Agrarforstwirtschaft, in der das volle Potential der Böden ausgeschöpft werden kann.

Zur Existenzgrundlage

In diesen abgelegenen Gebieten ist das Leben hart. Die Versorgung mit Lebensmitteln aus eigener Produktion reicht laut dem “Gaurishankar Conservation Area Management Plan” von 2013 je nach Gegend für 3,4 bis 8,7 Monate im Jahr. Um Nahrungsmittel für die restliche Zeit kaufen zu können, benötigen Familien zusätzliche Einkommen.

Die männlichen Familienmitglieder suchen daher Arbeitsmöglichkeiten in der Hauptstadt Kathmandu oder auch weiter weg oft in Indien, Qatar oder Malaysia. Die Frauen kümmern sich um Landwirtschaft und Tierhaltung. Eine einzigartige Einkommensquelle in dieser Region ist das Sammeln von Yartsa Gunbu, dem Fruchtkörper eines Pilzes (Ophiocordyceps sinensis), der auf Weiden oberhalb der Baumgrenze Schmetterlingsraupen im Boden befällt, die dann absterben und mühsam gesucht und ausgegraben werden müssen (Abbildung 3). Speziell in der traditionellen Chinesischen Medizin besteht große Nachfrage nach diesem Pilz, dem man heilende Wirkung bei Krebserkrankungen zuschreibt und sein Verkauf kann bis zu 60 % zum jährlichen Familieneinkommen beitragen. Üblicherweise sammeln Jugendliche den Pilz und verbringen dazu einige Tage in den Bergen. Die Yartsa Gunbu Saison ist kurz: als wir in Lamabagar ankamen, war dies gerade der Fall – 1'500 – 4'000 Jugendliche waren zu den erhofften Fundplätzen aufgestiegen.

Frisch gesammelter Yartsa GunbuAbbildung 3. Frisch gesammelter Yartsa Gunbu; zu sehen sind die abgestorbenen Schmetterlingsraupen und der stielförmige Fruchtkörper des Pilzes, der aus der Erde ragt.

Die Expedition startet

Lambagar, auf 2'000 m Seehöhe, war der Ausgangspunkt unserer Expedition. Hier endet die Straße an der Baustelle des Wasserkraftwerks. Wir brachen am Morgen des 25. April auf und hatten vor das Lapchi Kloster an der Grenze zu Tibet am 27. April zu erreichen (siehe Abbildung 1). Das Lapchi Kloster liegt auf 3'800 m Höhe und gilt als einer der wichtigsten spirituellen Orte in der gesamten Tibetanischen Region. Auf dem Weg dahin wollten wir in kleineren Ansiedlungen weitere Interviews führen und auch geeignete Plätze für die geplante Errichtung von Beobachtungsflächen markieren, die am Rückweg installiert werden sollten. Wir planten eine Inventarisierung von Biomasse und des Bewuchses durchzuführen, Bodenprofile zu erstellen und entsprechende Proben zur organisch chemischen Analyse zu entnehmen.

Am Morgen des 25. April regnete es leicht, einerseits eine eher ungünstige Situation für den anstrengenden Aufstieg, andererseits würde es nicht zu heiß werden und wir könnten schneller als geplant vorankommen. Unsere drei Träger stießen zu uns und wir übergaben ihnen den Großteil unserer Verpflegung und auch einen Teil der wissenschaftlichen Ausrüstung. Die Verpflegung für den zweiten Teil der Expedition (Abstieg und Installation der Beobachtungsflächen) war bereits per Hubschrauber zum Kloster geflogen worden. Von dort sollten Träger diese zu vorher festgelegten Stationen im Tal bringen. Gewohnt Lasten von 30 kg und darüber zu tragen, forderten die Träger uns auf, sie mehr zu beladen. Ich entschloss mich ihnen einige sperrige Ausrüstungsgegenstände - wie Schlafsack und aufblasbare Luftmatratze – mitzugeben, behielt aber das tragbare Wasserfiltergerät: Ich hatte nur einen Liter Trinkwasser mitgenommen – zweifellos zu wenig für eine Tagestour.

Die Träger wollten vorerst noch frühstücken, bevor sie nachfolgten. Sie würden uns, wie sie meinten, vor Mittag leicht eingeholt haben. Wir brachen also zu unserem ersten Tagesziel, der kleinen Siedlung Lumnang, auf. Es handelt sich dabei um die letzte in diesem Tal permanent bewohnten, aus etwa 15 Gebäuden bestehenden Ansiedlung. Alle anderen flussaufwärts gelegenen Siedlungen – mit Ausnahme des Lapchi Klosters – werden nur in den Sommermonaten von Hirten genutzt.

Auch wenn es ununterbrochen leicht regnete oder nieselte, waren wir von der Schönheit der Landschaft überwältigt. Steile Felswände aus metamorphen Gesteinen begleiteten uns während der ersten Stunden unseres Aufstiegs. Urtümliche gemischte Laubwälder von hoher Diversität fanden sich entlang der Flusstäler und auf den Bergrücken (Abbildung 4).

Frisch gesammelter Yartsa GunbuAbbildung 4. Auf dem Anstieg zur ersten (und letzten) Etappe unserer Expedition. Oben: Nach etwa 2 Stunden Aufstieg: Blick zurück nach Lambagar. Unten: der Albtraum bricht los; Gerölllawinen stürzen herab.

Um etwa 11:30 befanden wir uns in dem vermutlich schwierigsten Abschnitt, einem Gelände mit einer Reihe kraftraubender Steilstufen. Auf der Höhe angekommen, konnten wir eine Stupa sehen, die am Zusammenfluss (von hier an Tamakoshi Fluss genannt) des Lapchi Flusses und eines weiteren Flusses aus Tibet liegt.

Nach einer kurzen Rast stiegen wir dann zum Eingang des Lapchi Flusstales hinab. Dieses ist durch steile, 300 – 400 m hohe Felswände an der Ostseite des Flusses und dicht bewaldete Abhänge an seiner Westseite charakterisiert, der Pfad verläuft in etwa 10 – 50 m Entfernung vom Fluss. Der Regen hatte nun aufgehört und es gab erste, kurze sonnige Momente.

Der Albtraum beginnt

Die friedliche Aussicht endete abrupt um 12:05 Lokalzeit. Der Boden unter unseren Füßen, die Sträucher und Büsche um uns herum begannen zu vibrieren und das Wasser von den uns umgebenden Bäumen ergoss sich plötzlich wie Starkregen über uns. Nach einigen Sekunden wurde aus dem Vibrieren ein Beben und die ersten Felsbrocken - groß wie ein Fußball – stürzten auf unserer Seite den Hang hinab. Zu diesem Zeitpunkt befand ich mich neben meinem nepalesischen Kollegen Mohan Devkota, sein Student Puskar war irgendwo oberhalb von uns in etwa 50m Entfernung und Klaus Katzensteiner von der BOKU ebenfalls vor uns.

Als wir begriffen hatten, dass wir gerade ein Erdbeben erlebten, suchten wir nach einem sicheren Standort, während immer mehr und größere Felsbrocken hinabfielen. Das Unterstellen unter einen Baum bot nur wenig Schutz, der Steinschlag wurde immer heftiger. Jenseits des Flusses beobachteten wir, wie haushohe Felsen und Erdrutsche unter enormen, explosionsartigen Getöse über die Wände in den Fluss stürzten und dort sofort in Trümmer barsten (Abbildung 4). Die in alle Richtungen zerstiebenden Trümmer warfen teils ganze Bäume um.

Einige dieser Felsen fielen genau in das Bachbett vor dem wir in einigen Metern Entfernung standen, nur geschützt durch einen schmalen Streifen Bewuchs. Eingehüllt in eine Wolke von Staub, der markant nach Schwefel roch, dem ohrenbetäubenden Lärm von fallenden Bäumen und der surrealen Situation war ich überzeugt, dass dies die letzten Eindrücke in meinem Leben sein würden. Aber Devkota und ich hatten Glück – wir kamen davon ohne einen Kratzer abbekommen zu haben. Sofort begannen wir nach unseren Kollegen zu suchen, fanden aber nur Katzensteiner, der unter einem überhängenden Felsen Schutz vor dem anhaltenden Steinschlag (die Folge weiterer, konstant auftretender Nachbeben) gesucht hatte. Er erzählte uns, dass ein Mönch (Lama) in unsere Richtung abgestiegen wäre und vermutlich den Studenten getroffen hätte. Allerdings fehlte von beiden jede Spur, unser Rufen war bisweilen ohne Ergebnis. Wir warteten etwa fünf Minuten unter dem überhängenden Felsen, da kamen glücklicherweise die Gesuchten, offensichtlich unverletzt. Sie waren bei Beginn des Steinschlags bergauf gelaufen, um den Steingeschossen aus dem Flussbett zu entgehen. Der Lama hatte unserem Studenten das Leben gerettet, der von einem großen Felsbrocken bereits gestreift wurde (welcher bloß die außen am Rucksack angebrachte Wasserflasche zerstörte).

Wir suchen Zuflucht

Der Lama führte uns nun zu einer vom Fluss ausgewaschenen, heiligen Höhle, nur wenige hundert Meter von dem Platz entfernt, wo wir das Beben erlebt hatten. Wir dachten an Erdrutsche, die flussaufwärts den Wasserlauf möglicherweise blockiert hatten und an die verheerenden Folgen einer Springflut. Unsere Beunruhigung wuchs zunehmend und wir starrten auf den Wasserspiegel des Flusses, der inzwischen eine dunkelbraune Farbe angenommen hatte. Nach einer Stunde entschlossen wir uns zusammen mit dem ortskundigen Lama das Tal schnellstmöglich zu verlassen. Als wir nun aber wieder den Taleingang am Zusammenfluss des Lapchi erreicht hatten, sahen wir, dass es hier kein Weiterkommen gab. Der Weg war völlig zerstört und es bestand keine Möglichkeit einer Umgehung, auch nicht für unseren erfahrenen Führer. Dieser empfahl uns daher flussaufwärts zu einem Meditations-Zentrum zu steigen, wo sich etwa 20 Lamas unterhalb einer überhängenden Felswand in Zelten aufhielten.

Der Weg zu diesem Platz erwies sich als etwa 2 Stunden Fußmarsch von der Ansiedlung Lumnang - unserem eigentlichen Tagesziel – entfernt und war durch Erdrutsche sehr schwer passierbar geworden. Wir querten einige gefährliche Abschnitte, während weitere Nachbeben erfolgten, und erreichten schließlich den Meditationsplatz (Abbildung 5).

Der Meditationsplatz der LamasAbbildung 5. Der Meditationsplatz der Lamas bietet uns Schutz.

Die Lamas boten uns Tee mit Milch und Speisen an und einen Schlafplatz – in unserer Lage ein unwahrscheinliches Glück! Wir hatten ja nur wenig Verpflegung für maximal einen Tag mit, nur eine ganz leichte Ausrüstung, keine Schlafsäcke, keine Matten…

Die Lamas meinten am nächsten Tag, dass wir - mit viel Glück - an einer bestimmten Stelle in den Bergen eine Funkverbindung bekommen könnten – auf Grund der lokalen Gegebenheiten und der langjährigen Erfahrung der Mönche wäre das aber nur zwischen 10 – 12 Uhr vormittags möglich. Wir hatten Glück: einige Sekunden lang. Die Zeit reichte, um mitzuteilen, dass wir in Sicherheit wären, aber nur mit einem Hubschrauber aus dem Tal herauskommen könnten. In diesem Moment wussten wir noch nicht, dass dies der einzige Zeitpunkt sein würde, um Kontakt mit der Außenwelt aufzunehmen. Trotz verzweifelter Bemühungen gelang es in den folgenden Tagen nicht eine Funkverbindung herzustellen. Wir hatten keine Ahnung, wann wir aus dem Tal herausgeholt würden, wir sorgten uns um unsere Familien, die vermutlich nichts über unsere Lage wussten. Von einem alten Radio, das uns den Empfang eines indischen Senders ermöglichte, erfuhren wir, dass das erlebte Beben ein besonders schweres war, und nicht nur lokale Auswirkungen hatte.

Tatsächlich waren bereits Alle an unserer Rettungsaktion beteiligt: unsere Familien, Vertreter unserer Institutionen, Ministerien, Botschaften und die örtlichen Militärlager. Wir hatten davon bloß keine Ahnung.

Die Rückkehr

Nach fünf Tagen war der Albtraum für uns zu Ende. Ein Hubschrauber kam und brachte uns nach Charikot ins Armeelager (Abbildung 6). Er flog dann noch einmal zurück, um die Bewohner von Lumnang mit Nahrung und Medikamenten zu versorgen. Wie wir aus Berichten von Lamas und Einwohnern erfuhren, war diese Ansiedlung komplett zerstört worden. Es gab auch Tote – deren Zahl wäre zweifelhöher gewesen, hätte das Erdbeben nicht zu einer Zeit stattgefunden, zu der sich der Großteil der Menschen im Freien aufhielt.

Der Meditationsplatz der LamasAbbildung 6. Glücklich entkommen: Puskar, Mohan Devkota, Viktor Bruckman, Klaus Katzensteiner (von links nach rechts).

Auf dem Flug sahen wir erst das Ausmaß der Katastrophe. Etwa 80 % der Gebäude waren komplett zerstört, große Abschnitte des Weges durch Erdrutsche völlig verwüstet - unsere Chancen zu Fuß zu entkommen, wären minimal gewesen. Später erfuhren wir, dass einer unserer Träger bei einem Erdrutsch umgekommen war, ein anderer wurde schwer verletzt. Nur einer schaffte es sicher nach Lamabagar zurückzukehren. Einige Gruppen von Leuten, die gleichzeitig unterwegs waren –darunter Wasserkraft-Techniker, die nach Lamabagar wollten und andere Personen, die wir am Weg nach Lapchi überholt hatten -, wurden vermisst. Lokale Berichte sprachen von vielen Toten im Flußbett des Tamakoshi , von den Yartsa Guma sammelnden Jugendliche werden Hunderte vermisst.

Wir haben überlebt. Unser Mitgefühl ist mit den Opfern der Katastrophe, insbesondere dem Opfer unseres Teams, und ihren Angehörigen. An eine Fortsetzung unseres ursprünglichen Projekts ist nicht zu denken. Nach sorgfältiger Analyse der aktuellen Situation, wollen wir ein neues Konzept zur langfristigen und nachhaltigen Unterstützung der in den entlegenen Gebieten lebenden Menschen erstellen.


Weiterführende Links

Viktor Bruckman. Projekthomepage: IFM-GCA: Options for integrated forest management in Gaurishankar Conservation area (GCA), Eastern Nepal Himalayas.

European Geosciences Union

Kommission für interdisziplinäre ökologische Studien

Auf der Suche nach dem Raupenpilz Video 6:49 min.

inge Fri, 18.09.2015 - 08:13

Modelle – von der Exploration zur Vorhersage

Modelle – von der Exploration zur Vorhersage

Fr, 11.09.2015 - 14:46 — Peter Schuster Peter SchusterIcon MINTWissenschaftliches Rechnen (computational science) ist neben Theorie und Experiment zur dritten Säule naturwissenschaftlicher Forschung geworden. Computer-Modelle erlauben Gesetzmäßigkeiten komplexer unerforschter Systeme zu entdecken, Vorhersagen für komplexe dynamische Systeme zu erstellen und reale Vorgänge in einer Präzision zu simulieren, die experimentell erreichbare Genauigkeiten bereits übertreffen kann. Der theoretische Chemiker Peter Schuster ist seit den frühen 1960er Jahren auf dem Gebiet der Modellierungen tätig. An Hand einiger typische Beispiele zeigt er hier Wert und Aussagefähigkeit von Computer-Modellen auf.*

Bis in die zweite Hälfte des vorigen Jahrhunderts schritten die Naturwissenschaften auf zwei Beinen voran – auf der Theorie und auf dem Experiment. Dies waren auch die beiden Säulen, auf denen Karl Popper 1935 seine Erkenntnistheorie der modernen Naturwissenschaft, die „Logik der Forschung“ aufbaute. Auf eine kurze Formel gebracht, besagt diese:

  • etablierte Theorien spiegeln den aktuellen Stand der Naturwissenschaften wider,
  • neue experimentelle Daten falsifizieren die Theorien,
  • daraus erwachsen neue Theorien, welche in der Lage sind die neuen Befunde zusammen mit dem vormaligen Wissensstand zu erklären.

Für Poppers Erkenntnistheorie gibt es zwei klassische Paradebeispiele: i) Einsteins Relativitätstheorie und ii)die Quantenmechanik.

Eine dritte Säule der Forschung

Als Mitte des 20. Jahrhunderts die ersten elektronischen Rechner aufkamen, änderte sich die Situation – das wissenschaftliche Rechnen betrat die Bühne der Forschung und spielt seitdem entscheidend mit. Die frühen Computer boten allerdings noch sehr bescheidene Möglichkeiten, sie waren äußerst langsam, die Speicherkapazitäten sehr begrenzt. Dementsprechend konnten damals nur sehr einfache Modelle und das auch nur „so ungefähr“ behandelt werden; über die daraus getätigten Prognosen rümpfte jeder hartgesottene Experimentator die Nase.

Seitdem haben sich die elektronischen Rechenanlagen mit atemberaubendem Tempo weiterentwickelt und es liegt heute eine völlig veränderte Situation vor. Wissenschaftliches Rechnen (computational science) ist zur dritten Säule, zum fest etablierten Werkzeug der Forschung geworden. Der enorme Zuwachs zu unserem Wissensstand fußt auf dieser Säule. Nichtsdestoweniger gibt es auf einigen Gebieten Fehlschlüsse und falsche Erwartungen, die in die Aussagefähigkeit der Ergebnisse von Computer-Modellen gesetzt werden. Einige von den allgemeinen Schwierigkeiten sollen im Folgenden beleuchtet werden.

Modelle basieren auf Vereinfachungen

Vorausschicken möchte ich zwei Zitate: i) die moderne, üblicherweise Einstein zugeschriebene Version von Ockhams Razor: „Alles sollte so einfach wie möglich gemacht werden, aber nicht einfacher“ und ii) die Charakterisierung von Modellen durch den amerikanischen Statistiker George Box: „Alle Modelle sind falsch, aber einige sind nützlich.“

Abbildung 1. Wilheln von Ockham. Das nach diesem Mönch benannte erkenntnistheoretische Prinzip „Occam’s Razor“ hat dieser nie so formuliert, wohl aber dem Sinn nach in seinen Schriften verwendet. (Quelle: Wikipedia;. aus Ockham's Summa Logicae, 1341)

Um praktisch anwendbar sein zu können, müssen Theorien und Modelle die Natur vereinfachen. Dabei erhebt sich die Frage, wieweit eine Vereinfachung noch zulässig ist, ohne dass dabei die eigentliche Aussage verzerrt wird. Es ist trivial, wird aber häufig vergessen: die Zulässigkeit von Vereinfachungen hängt stark vom Kontext ab, in dem das Modell angewandt werden soll. Dies mag das folgende Beispiel erläutern:

Newtons Gravitationsgesetze gelten korrekt in der Himmelsmechanik solange relativistische Effekte vernachlässigbar klein sind. Im Alltag wird ein Fehler des Newtonschen Gesetzes aber sofort augenfällig, wenn man zu Boden fallende Körper beobachtet und die Ursache dafür sind definitiv nicht relativistische Effekte. Sieht man, wie ein Papierblatt, eine Feder und ein Stein zu Boden fallen, erscheint die Voraussage, dass alle Körper gleich schnell fallen, absurd. Der Fehler liegt in der Vernachlässigung des Luftwiderstands, der – in der Himmelsmechanik nicht existent – im Kontext der Erdatmosphäre das Modell zu stark vereinfacht hat.

In diesem Sinne erscheint es angebracht die oben erwähnte Aussage von George Box umzuformulieren:

„Zwangsläufig sind alle Modelle falsch, denn ohne Vereinfachungen sind sie unbrauchbar, aber mit Vereinfachungen wird es immer Umstände geben, unter denen diese zu komplett falschen Vorhersagen führen.“

Es ist die hohe Kunst erfolgreicher Modellierungen, dass die Vereinfachungen auf den Kontext abgestimmt werden, unter denen das Modell angewendet werden soll. In den Naturwissenschaften wird vorausgesetzt, dass Modelle validiert sind oder zumindest validiert werden können. Dies ist nicht immer der Fall in Politik oder bei Systemanalysen – unter gewissen Vorsichtsmaßnahmen erscheint es hier aber legitim auch unzureichend validierte Modelle anzuwenden.

Modell ist nicht gleich Modell

Entsprechend ihren Zielen lassen sich Modelle in 3 Typen einteilen:

1. Exploratorische Modelle. Der Informatiker Steve Banks definiert diese knapp und präzise als „eine Forschungsmethode, die Computer-Simulationen benutzt, um komplexe und unbekannte Systeme zu analysieren“. Der Zweck exploratorischer Modelle ist es daher neue Gebiete für die wissenschaftliche Forschung zu erkunden und vorzubereiten. Das primäre Ziel ist es Gesetzmäßigkeiten zu entdecken, nicht aber Vorhersagen zu machen.

2. Prädiktive Modelle. Diese basieren auf bereits gesicherten wissenschaftlichen Grundlagen und werden erstellt, um Voraussagen für zukünftige Entwicklungen zu erhalten. Im Allgemeinen sind die Informationen über ein System aber unvollständig und komplexe Dynamik und chaotisches Verhalten fügen noch weitere Unsicherheiten dazu. Die Vorhersagekraft eines derartigen Modells hängt daher sowohl von der Qualität der vorhandenen Daten als auch von der Verlässlichkeit des Modells ab.

3. Präzise Simulation. Diese dritte Klasse rechnerischer Modelle strebt an, experimentelle Daten präzise simulieren/reproduzieren zu können. Quantitative Eigenschaften werden hier mit hoher Genauigkeit bestimmt, entsprechen den genauesten experimentellen Messungen oder übertreffen diese sogar.

Validierung und Verifizierung

Alle rechnerischen Modelle werden dem Prozess der Validierung und Verifizierung unterworfen (oder sollten dies zumindest werden). Die Validierung bestimmt dabei inwieweit das Modell das reale System aus der Perspektive der beabsichtigten Anwendungen widergeben kann. Die Verifizierung prüft die Qualität der Aussagen des Modells, beispielsweise den Grad korrekter Aussagen.

Im Folgenden sollen einige typische Beispiele für diese drei Klassen an Modellen in Physik, Chemie, Ingenieurwissenschaften und Lebenswissenschaften aufgezeigt werden.

Ursprung des Lebens – ein Fall für das Design exploratorischer Modelle (Typ 1)

Überflüssig darauf hinzuweisen: in diesem Forschungsgebiet ist das zu modellierende System sowohl komplex als auch durch unsichere und unvollständige Daten charakterisiert. Ein typisches Beispiel dafür ist das sogenannte GARD-Modell (graded autocatalysis replication domain), das Doron Lancet (Weizmann Institute of Science, Rehovot) entwickelt hat.

Lancet beschäftigt sich mit der Frage, wie kleine Moleküle – solche, die unter präbiotischen Bedingungen entstehen konnten - spontan Aggregate (er bezeichnet diese als „Composome“) bilden, ihre chemische Information weitergeben und einem Selektions-und Evolutionsprozess unterliegen können. Soweit es die Rechnungen betrifft, hat das Modell eine solide mathematische Basis: Differentialgleichungen zur Beschreibung der autokatalytischen Aggregationsprozesse, stochastische Simulationen für den Selektions-/Evolutionsprozess. Allerdings fehlen Versuchsanordnungen, welche die rechnerischen Ergebnisse experimentell verifizieren könnten. Validation und Verifikation des Modells beziehen sich nur auf dessen interne Konsistenz und die nummerische Richtigkeit der Berechnungen. Nichtsdestoweniger können auf dieser Basis wichtige Eigenschaften des Modells diskutiert werden, beispielsweise ob derartige Composome überhaupt einen Evolutionsprozess durchlaufen können.

Wettervorhersage – ein bestens untersuchtes und populäres prädiktives Modell (Typ 2)

In diesem Fall sind beide Voraussetzungen für ein prädiktives Modell erfüllt: i) die Dynamik der Atmosphäre basiert auf der Physik von Flüssigkeiten und ist wohlverstanden, und ii) eine Unmenge an empirischen Daten wird täglich erhoben. Dies geschieht aus leicht nachvollziehbaren Gründen: eine verlässliche Wettervorhersage stellt ja einen enorm wichtigen Faktor in der globalen Ökonomie, Soziologie und im Katastrophenmanagement dar.

Abbildung 2. Wetter(Klima)vorhersagen sind prädiktive Modelle. Sie basieren auf etablierten physikalischen/chemischen Gesetzen. Die Erde wird in ein dreidimensionales Gitter eingeteilt und die atmosphärischen/terrestrischen Prozesse in jedem Abschnitt und in den Wechselwirkungen benachbarter Abschnitte modelliert. (Bild: Wikipedia; NOAA)

Nichtsdestoweniger bleiben Ungewissheiten zurück und die Vorhersage beruht auf Wahrscheinlichkeitsannahmen. Für diese Unsicherheiten gibt es zwei wesentliche Gründe: i) die Erdoberfläche weist eine zu komplizierte klein- und mittelräumige Strukturierung auf, als dass dies mir ausreichender Genauigkeit berücksichtigt werden könnte, und ii) die Dynamik von Flüssigkeiten nimmt bereits bei mäßigen Geschwindigkeiten einen turbulenten Verlauf - dies führt zu den all den Problemen, die mit einer Vorhersage bei einem deterministischen Chaos einhergehen.

Versuche das Wetter auf der Basis von Berechnungen vorherzusagen, nahmen bereits im frühen 20. Jahrhundert ihren Anfang. Die Daten dazu kamen ausschließlich von der Erdoberfläche und von Wetterballons, die rechnerischen Möglichleiten waren bescheiden. Effektive Rechner-basierte Vorhersagen starteten 1966 in Westdeutschland und den US, England folgte 1972, Australien 1977. Seitdem ist die Geschwindigkeit der Computer enorm gestiegen und noch wesentlich mehr hat sich die Effizienz der Algorithmen verbessert. Sicherlich gibt es hier noch weitere Steigerungsmöglichkeiten. Dennoch bleiben die oben genannten Einschränkungen – Turbulenzen in der Atmosphäre, komplizierte kleinräumige Strukturierung der Erdoberfläche – bestehen und Wettervorhersagen werden auch weiterhin auf Wahrscheinlichkeitsannahmen beruhen.

Quantenchemie – präzise Simulation chemischer Problemstellungen (Typ 3)

Simulationsmodelle bauen auf physikalischen Gesetzen oder auf etablierten empirischen Gesetzmäßigkeiten auf. Wie erwähnt erreichen derartige Modelle eine numerische Präzision, die sogar über die der experimentell en Messungen hinausgehen kann.

Die Quantenchemie - die Anwendung der Quantenmechanik auf chemische Problemstellungen – blieb bis in die 1960er Jahre weitgehend chancenlos. Es fehlten ja ausreichend große Rechnerkapazitäten und man setzte grobe Näherungsmethoden ein, um Lösungen der Schrödingergleichung für Moleküle zu finden. Diese waren so ungenau, dass sie von Experimentatoren bestenfalls milde belächelt wurden. Chemiker rasteten aus als Paul Dirac – Mitbegründer der Quantenphysik und Nobelpreisträger konstatierte:

„Die zugrundeliegenden physikalischen Gesetze, die für die mathematische Theorie eines großen Teils der Physik und der gesamten Chemie benötigt werden, sind vollständig bekannt. Die Schwierigkeit besteht ausschließlich darin, dass eine präzise Anwendung dieser Gesetze zu Gleichungen führt, die für Lösungen viel zu kompliziert sind. Es wird daher wünschenswert praktische Näherungsmethoden zur Anwendung der Quantenmechanik zu entwickeln, die – ohne ein Übermaß an Rechnerleistung - zu einer Erklärung der wesentlichen Eigenschaften komplexer atomarer Systeme führen.“

Tatsächlich erfüllte sich Diracs Traum sechsachtzig Jahre später. Moleküle mit nicht zu vielen Atomen und im idealen Festkörperzustand können nun berechnet werden. Allerdings: der im Nebensatz geäußerte Wunsch „ohne ein Übermaß an Rechnerleistung“ erfüllte sich nicht. Die für die numerische Quantenmechanik benötigte Rechnerleistung ist enorm hoch. 1998 wurden Walter Kohn und John Pople mit dem Nobelpreis ausgezeichnet für „die Entwicklung von Rechenverfahren, die Näherungslösungen der Schrödingergleichungen für Moleküle und Kristalle erzielen“. Heute werden die meisten spektroskopischen Eigenschaften von kleinen Molekülen berechnet: dies ist einfacher und genauer als die experimentalle Bestimmung.

Computational Mechanics – präzise Simulierungen im Bauingenieurwesen (Typ 3)

diese neue Fachrichtung beschäftigt sich mit einer enormen Vielfalt von Problemen, die in verschiedensten Ingenieurbereichen auftreten (beispielsweise in Strömungslehre, Statik und Materialwissenschaften). Um nur einige Anwendungen herauszugreifen:

  • Im Flugzeugbau reduziert die Simulation von Windkanälen die Anzahl realer Experimente und erspart damit Millionen Dollars.
  • Modelle, die Materialwissenschaften und Statik kombinieren, lösen Konstruktionsprobleme vom Errichten von Gebäuden über den Brückenbau zum Tunnelbau (ei n Beispiel ist hier die Berechnung der Strukturen von Beton). Ein besonders spektakulärer Erfolg ist der Rechner-unterstützte Abbruch alter Bauwerke.
  • Schlussendlich ist auch das große Gebiet der Industriemathematik zu erwähnen, das ausgefeilte mathematische Modelle und Computer-Simulationen anwendet, um Optimierungsprobleme in Industrieverfahren zu lösen. Ein Beispiel ist die Bestimmung der Temperaturprofile im Innern von Hochöfen.

Schlussfolgerungen - Ausblick

An Hand einiger willkürlich herausgegriffener Beispiele wird offensichtlich, wie interdisziplinär einsetzbar wissenschaftliche Modellierung und Simulation sind. Ausgezeichnete Ergebnisse in Physik, Chemie und Technik machen wissenschaftliches Rechnen zum unentbehrlichen Werkzeug in diesen Fächern. Darüber hinaus findet man Anwendungen des Rechner-unterstützten Modellierens im nahezu gesamten Spektrum aller Disziplinen: in der Theoretischen Ökonomie ebenso wie in der Soziologie, in den Lebenswissenschaften und auch in Medizin und der Pharmakologie – um nur einige Beispiel zu nennen.

Wissenschaftliches Rechnen ist tatsächlich zu einer dritten Säule geworden, gleichberechtigt mit Theorie und Experiment in Physik, Chemie und Technik. In den Lebenswissenschaften und in weiteren Disziplinen ist die Einstellung zu Computermodellen allerdings eine andere. Die Modell-basierte Theoretische Biologie hat einen schlechten Ruf bei experimentell arbeitenden Biologen ebenso wie bei Mathematikern.

Warum ist dies so? Die Gründe sind mannigfach:

einer davon ist zweifellos die inhärente Komplexität lebender Systeme, die bedingt, dass ein Großteil der Modelle exploratorischen Charakter hat. Man sollte nie vergessen, dass das Ziel exploratorischer Modelle die Entdeckung von Gesetzmäßigkeiten in den untersuchten Vorgängen ist und dass dies ein sehr wertvolles Ziel in unbekanntem Neuland darstellt. Meiner Meinung nach werden viele dieser exploratorischen Modelle oft falsch interpretiert und als prädiktiv missbraucht. Hier gilt: Falsche Prognosen sind schlimmer als keine Prognosen!

Ein zweiter Grund für den schlechten Ruf ist eher von psychologischer Art. Theoretische Biologen tendieren häufig dazu ihre Modelle über deren Wert zu verkaufen. Wenn beispielsweise ein Forscher eine interessante Regelmäßigkeit bei einem irregulären Zellwachstum errechnet hat, so verkündet er üblicherweise, dass er das Krebsproblem gelöst hat. Man sollte sich hier an ein Faktum halten, das zwar trivial ist, häufig aber übersehen wird und das (sinngemäß übersetzt) der britische Chemiker und Lesley Orgel so kommentiert:

„Wenn wir nahezu nichts über einen Term in einer Kette wissen, so wissen wir auch nahezu nichts über die Summe der Terme, auch, wenn wir die Werte der übrigen Terme kennen.“


Literatur

(unvollständige Liste) Popper, K. Logik der Forschung. Zur Erkenntnistheorie der modernen Naturwissenschaft. Verlag von Julius Springer, Wien 1935.

Box, G.E.P., Draper, N.R. Empirical model-building and response surfaces. John Wiley & Sons. Hoboken, NJ 1987. Bankes, S. Exploratory modeling for policy analysis. Operations Research, 1993, 41, 435-449.

Segré, D., Ben-Eli, D., Lancet, D. Compositional genomes: Prebiotic information transfer in mutually catalytic noncovalent assemblies. Proc.Natl.Acad.Sci.USA, 2000, 97, 4112-4117.

Orgel, L.E. The origin of life – How long did it take? Orinigs of Life and Evolution of the Biosphere, 1998, 28, 91-96.


*Die (leicht unterschiedliche) englische Version des Artikels ist eben in der Zeitschrift Complexity erschienen, deren Herausgeber der Autor ist. Dort ist auch eine vollständige Liste der Literaturangeben zu finden. Die meisten der zitierten Arbeiten sind allerdings nicht frei zugänglich, können aber auf Wunsch zugesandt werden Peter Schuster. Models – From exploration to prediction. Bad reputation of modeling in some disciplines results from nebulous goals. Complexity, Article first published online: 9 SEP 2015 | DOI: 10.1002/cplx.21729


Weiterführende Links

Artikel von Peter Schuster zu verwandten Themen im ScienceBlog

inge Fri, 11.09.2015 - 14:46

Superauflösende Mikroskopie zeigt Aufbau und Dynamik der Bausteine in lebenden Zellen

Superauflösende Mikroskopie zeigt Aufbau und Dynamik der Bausteine in lebenden Zellen

Fr, 04.09.2015 - 16:33 — Redaktion

Redaktion

Icon MINT

Vor einer Woche ist im Fachjournal Science eine Studie erschienen*, die weltweites Aufsehen erregt. Mittels neuer fluoreszenzmikroskopischer Methoden gelang es Forschern um Eric Betzig (Howard Hughes Medical Institute, Janelia Farm) den inneren Aufbau lebender Zellen und darin ablaufende Prozesse in hoher räumlicher Auflösung – bis hin zur Sichtbarmachung einzelner Proteine - und zeitlicher Auflösung (Millisekundenbereich) zu filmen. An Hand von Beispielen - u.a. dem Aufbau/Umbau des Zytoskeletts oder der Entwicklung von Mitochondrien – lässt sich das ungeheure Potential dieser superauflösenden Mikroskopie erahnen, die in unterschiedlichsten Labors leicht implementierbar sein dürfte und damit eine Revolution der biologischen, biomedizinischen (Grundlagen)Forschung verspricht.

Jeder biologisch arbeitende Forscher wünscht sich wohl biochemische Prozesse nicht nur unter mehr oder weniger artifiziellen Bedingungen im Reagenzglas - in vitro - untersuchen zu können. Vielmehr möchte er direkt verfolgen, wie die Vorgänge ablaufen, wie Biomoleküle in ihrer komplexen natürlichen Umgebung, der lebenden Zelle, reagieren, wie dort Strukturen auf- und umgebaut werden, wie Organellen entstehen und funktionieren.

Die Grenzen des Lichtmikroskops

Der zellbiologisch arbeitende Forscher verbringt meistens sehr viel von seiner Zeit über das Mikroskop gebeugt, in die Beobachtung seiner wachsenden, sich teilenden, verändernden, sterbenden Zellen vertieft. Für Untersuchungen auf molekularer Ebene erweisen sich herkömmliche Lichtmikroskope allerdings kaum geeignet. Auch wenn sie mit den denkbar besten Optiken ausgestattet sind, können Lichtmikroskope Objekte nur dann getrennt, scharf wahrnehmen, wenn diese mindestens 200 – 300 Nanometer (nm - Milliardstel Meter) voneinander entfernt vorliegen. Diese Grenze der Auflösung wird physikalisch durch die Beugung der Lichtwellen bestimmt und hängt im Wesentlichen von der Wellenlänge des verwendeten Lichts (der Wellenlängenbereich des für Menschen sichtbaren Lichtspektrums erstreckt sich von etwa 380 nm bis 780 nm) und dem Öffnungswinkel des Objektivs ab. Diese – nicht nur auf Lichtwellen beschränkte - Erkenntnis hat der deutsche Physiker Ernst Carl Abbe um 1870 in dem berühmten, nach ihm benannten Gesetz formuliert (Abbildung 1).

Dass man mit dem Lichtmikroskop Strukturen unterhalb einer Größe von 200 nm nicht sehen kann, wurde zu einem über 100 Jahre streng geltenden Dogma. Damit erschien eine direkte Betrachtung essentieller Zellbausteine in ihrem natürlichen Umfeld ausgeschlossen. Als Beispiele sind Proteinmoleküle zu nennen, deren durchschnittliche Abmessungen im niedrigen Nanometerbereich liegen. Auch viele gerade noch erkennbare Zellorganellen (beispielsweise Mitochondrien, Endosomen) sind zu klein für detailliertere Untersuchungen zu Aufbau und Funktion.

Abbe’sche FormelAbbildung 1. Die Auflösung in der Mikroskopie – die Abbe’sche Formel. Der Wellenlängenbereich des für Menschen sichtbaren Lichtspektrums erstreckt sich von etwa 380 nm bis 780 nm. Daraus berechnet sich ein Grenzwert der Auflösung von 200 – 300 nm. (Objektiv: olivgrün, Objekt: rot)

Sichtbarmachung von Nanostrukturen

Die Abbe’sche Formel zeigt: eine höhere Auflösung kann erreicht werden, wenn i) der Öffnungswinkel des Objektivs und/oder der Brechungsindex des Mediums, welches das Objekt umgibt, vergrößert wird und/oder ii) Strahlung mit niedrigerer Wellenlänge und damit höherer Energie angewendet wird.

  1. Im ersteren Fall wird das Objekt näher an das Objektiv herangebracht - dies führt aber (ebenso wie eine Erhöhung des Brechungsindex) nur zu mäßiger Zunahme der Auflösung (sin 45o = 0,707 bis hin zu sin 90o = 1).
  2. Die zweite Möglichkeit wird unter anderem in Methoden der Röntgenstreuung, Neutronenstreuung und insbesondere der Elektronenmikroskopie realisiert: es sind dies Standardtechniken der modernen Biowissenschaften, welche die Grundlage unserer Kenntnisse über den Aufbau von Biomolekülen geschaffen haben. Diese Methoden bieten die zur Analyse von Nanostrukturen – Molekülen bis hin zu Atomen - benötigte Auflösung. Die eingestrahlte Energie ist aber so hoch, die Versuchsbedingungen so lebensfeindlich – z.B. Arbeiten im Vakuum, bei sehr tiefen Temperaturen -, dass Messungen unter lebensnahen Bedingungen, direkte Beobachtungen biologischer Prozesse in lebenden Zellen nicht möglich sind.

Die Umgehung der Abbe‘schen Beugungsgrenze: Das Lichtmikroskop wird zum Nanoskop

In den letzten beiden Jahrzehnten wurden Methoden entwickelt, welche die bislang für absolut gehaltene, Abbe‘sche Grenze der optischen Auflösung in der Lichtmikroskopie - speziell in der in Biologie und Biomedizin sehr häufig verwendeten Fluoreszenmikroskopie - umgehen und Nanostrukturen und deren Dynamik sichtbar machen. Dies haben die US-Amerikaner Eric Betzig (Howard Hughes Medical Institute, Janelia Farm) und William Moerner (Stanford University, CA) und der Deutsche Stefan Hell (Max-Planck Institut für Biophysikalische Chemie/Göttingen) voneinander unabhängig und mit unterschiedlichen Strategien erreicht. Sie wurden dafür 2014 mit dem Nobelpreis für Chemie ausgezeichnet.

Prinzipiell werden in der Fluoreszenzmikroskopie Moleküle der Zelle mit fluoreszierenden Farbstoffen markiert. Ein Lichtstrahl (Laserlicht) einer bestimmten Wellenlänge regt diese Moleküle an –schaltet sie an –, sodass sie leuchten. Üblicherweise leuchtet dann die gesamte Probenoberfläche, sodass die Abstände zwischen den einzelnen angeregten Molekülen unter dem Abbeschen Grenzwert liegen und Strukturen unter 200 nm nicht mehr gesehen warden können.

Die STED-Mikroskopie

Stefan Hell hat hier mit der von ihm entwickelten STED-Mikroskopie (STimulated Emission Depletion, „stimulierte Emissions-Löschung“) einen Ausweg gefunden. Dem Lichtpuls, der die Fluoreszenzmoleküle anschaltet, schickt er sofort einen zweiten Lichtpuls – den STED-Puls – hinterher, der gezielt bis auf einen winzigen Ausschnitt alle angeregten Moleküle „abschaltet“ (d.h. zwingt ein Photon abzugeben = stimulierte Emission), sodass sie nicht mehr leuchten. Nur der winzige (Nanometer-kleine) leuchtende Ausschnitt wird detektiert – je kleiner dieser ist, desto höher wird die erzielte Auflösung. Nach diesem Anregung-Abschaltung Schema scannen die beiden Lichtpulse die gesamte Probenoberfläche. Aus den einzelnen detektierten Lichtpunkten wird dann via Computerprogramm das gesamte Bild zusammengesetzt. Mit dieser Technik werden Auflösungen von wenigen Nanometern, d.i. von der Größenordnung von Proteinen, erreicht.

Neben der enorm hohen räumlichen Auflösung wird auch eine sehr rasche zeitliche Auflösung erzielt. In einer eben erschienen Untersuchung** demonstriert die Hell-Gruppe die Dynamik von Vesikeln in der Nervenzelle einer lebenden Fliegenlarve und die Aufnahme von Viruspartikeln in lebende Zellen mit einer zeitlichen Auflösung von 5 – 10 Millisekunden.

Die SIM-Mikroskopie („Strukturierte Illuminationsmikroskopie“)

Auch die von Eric Betzig und William Moerner unabhängig entwickelten Strategien basieren auf der Fluoreszenzmikroskopie. Moerner, der als erster die Lichtabsoption an Einzelmolekülen gemessen hatte und Betzig experimentierten mit einem damals neu entdeckten, aus Quallen stammenden Protein, dem sogenannten Green Fluorescent Protein (GFP), dessen Fluoreszenz sich durch entsprechende Lichtpulse gezielt ein- und ausschalten lässt. GFP (aber auch andere fluoreszierende Proteine) können in Zellen eingeschleust und an andere Proteine gekoppelt werden: die Position und Dynamik dieser Proteine in der Zelle kann dann an Hand der angekoppelten anregbaren Fluoreszenz verfolgt werden.

Der Trick zur Umgehung der Abbe’schen Beugungsgrenze: die Probe wird mit einem sehr schwachen Lichtimpuls angeregt, welcher nur einen so kleinen Teil der Moleküle zum Fluoreszieren bringt, dass deren Abstände voneinander größer als 200 nm sind. Nach dem Ausbleichen dieser Moleküle wird die nächste kleine Untergruppe belichtet, dann die nächste, usf. Die resultierenden Bilder werden von Kameras aus verschiedenen Richtungen registriert und über Computeralgorithmen zu superaufgelösten Bildern zusammengesetzt und mit hoher zeitlicher Auflösung zu kurzen Videos. Mehr als lange Beschreibungen vermögen, zeigen diese Videos erstmals faszinierende Einblicke in die Vorgänge lebender Zellen in Echtzeit und auf molekularem Niveau (Video 1, Video 2).


Video 1. Dynamik der Verankerung des Zytoskeletts. Das fadenförmige Strukturprotein Aktin (violett fluorezierend: mApple-F-tractin) interagiert mit den bipolaren Kopfgruppen (EGFP, grün) des verankernden Proteins Paxillin . Aufnahmen:81 Zeitpunkte in Intervallen von 20 sec. (Movie 1, High NA SIM of actomyosin dynamics von HHMI NEWS PRO Mo 17. August 2015; weitere Details unter*)


Video 2. Dynamik von Mitochondrien in einer COS-7 Zelle. Markierung mit einem fluoreszierenden Membran-Marker (Skylan-NS-TOM20) Man kann beobachten, wie einzelne Mitochondrien sich kontrahieren, teilen und auch fusionieren, Aufnahmen: 20 Zeitpunkte in Intervallen von 2 min, der Farbcode zeigt die Entfernung vom Sunstrat. (Movie 10, 3D nonlinear SIM of mitochondrial dynamics von HHMI NEWS PRO vor 2 Wochen; weitere Details unter*)

Ausblick

Die faszinierenden neuen Techniken der „Nanoskopie“ stellen einen außerordentlichen Durchbruch dar für Grundlagen- und angewandte Forschung, dem weltweit Mit der Möglichkeit einzelne Biomoleküle in ihrem natürlichen Umfeld - auch in der Dynamik ihrer Wechselwirkungen - zu erfassen, wird die Basis zu einer wesentlich aussagekräftigeren systembiologischen Behandlung „Komplexer biologischer Systeme“ geschaffen. Die Pioniere in diesem Gebiet selbst wenden ihre Techniken an, um Einblicke in fundamentale biologische/pathologische Mechanismen zu gewinnen: Stefan Hell in die Mechanismen in Nervenzellen und an ihren Synapsen, W. E.Moerner in die Entstehung der Huntigton’schen Erkrankung und Eric Betzig in die Zellteilung in Embryonen.


*Dong Li e al., Extended-resolution structured illumination imaging of endocytic and cytoskeletal dynamics. Science (28. August 2015) 349 (6251)

** Jale Schneider et al., Ultrafast, temporally stochastic STED nanoscopy of milliseconds dynamics. Nature Methods, 12 (9) September 2015.


Weiterführende Links

How the optical microscope became a nanoscope. Populäre Information zum Nobelpreis in Chemie 2014 (PDF-Download; englisch)

Pushing the Envelope in Biological Fluorescence Microscopy. Distinguished Lecture by Dr. Eric Betzig (das Video zeigt großartige Bilder; in English) Video 36:45 min.

Nanoscopy with focused light. Stefan W. Hell: Nobel Lecture at Uppsala University (2014). Video 47:48 min.

Sehr weitreichende Informationen zu den Techniken der Superauflösenden Mikroskopie sind von den homepages der 3 Nobelpreisträger abrufbar:

Eric Betzig: http://janelia.org/lab/betzig-lab

Stefan W. Hell: www3.mpibpc.mpg.de/groups/hell

William W. Moerner: http://web.stanford.edu/group/moerner

inge Fri, 04.09.2015 - 16:33

Der Kampf gegen Poliomyelitis

Der Kampf gegen Poliomyelitis

Fr, 28.08.2015 - 07:51 — Bill & Melinda Gates Foundation

Bill & Melinda Gates FoundationIcon MedizinNoch im Jahr 1947 erkrankten in Österreich über 3500 Personen – überwiegend Kinder – an Poliomyelitis (Kinderlähmung, „Polio“), ein Großteil trug schwere Lähmungen davon, rund 10 % starben. Seit 1988 Impfkampagnen zur Ausrottung von Polio (Global Polio Eradication Initiative - GPEI) begannen und weltweit ca. 2,5 Milliarden Kinder geimpft wurden, konnte die Anzahl neuer Polio-Fälle um mehr als 99 Prozent gesenkt werden. Kürzlich meldete die Weltgesundheitsorganisation (WHO), dass auf dem gesamten afrikanischen Kontinent bereits seit einem Jahr kein neuer Polio Fall mehr aufgetreten ist, das Polio-Virus nur mehr zwei Ländern- Pakistan und Afghanistan – endemisch ist [1]. Da aus diesen Ländern eingeschleppte Krankheitserreger sich rasch ausbreiten können, sind lückenlose Impfungen gegen Polio weiterhin erforderlich. Die Gates-Stiftung ist einer der Hauptunterstützer der GPEI, die von Landesregierungen, der WHO, Rotary International, der US-Gesundheitsbehörde (CDC) und UNICEF geleitet wird. Der folgende Artikel wurde mit freundlicher Zustimmung der Gates Foundation der Website der Stiftung[2] entnommen.

Ausrottung von Polio – eine globale Initiative

In den letzten beiden Jahrzehnten wurden große Fortschritte bei der Ausrottung von Polio gemacht. Als sich die Weltgesundheitsversammlung 1988 die Ausrottung der Krankheit zum Ziel setzte und die Global Polio Eradication Initiative (GPEI) gestartet wurde, war das Poliovirus in 125 Ländern noch endemisch vorhanden und es kam jährlich zu 350.000 Lähmungen durch Polio, hauptsächlich bei kleinen Kindern. Seither konnte durch weltweite Impfkampagnen die Anzahl der Poliofälle um mehr als 99 Prozent gesenkt werden und es konnten mehr als 10 Millionen Kinder weltweit vor Lähmungen geschützt werden (Abbildung 1, eingefügt von Redaktion). Polio ist nur noch in drei Ländern endemisch vorhanden: Nigeria (siehe [1]; Red.), Pakistan und Afghanistan. Im Jahr 2012 wurden weniger als 250 Fälle gemeldet. Im Vergleich dazu gab es 2011 noch 650 Fälle.

Abbildung1. Seit dem Beginn der weltweiten Impfkampagnen „Global Polio Eradication Initiative (GPEI)“ im Jahr 1988 ist die Verbreitung von Polio massiv zurückgegangen. Im vergangenen Jahr war in Afrika keine Polioinfektion festgestellt worden. (Bilder: http://www.polioeradication.org/Polioandprevention/Historyofpolio.aspx; © Copyright World Health Organization (WHO). Insert: Polioviren.TEM-Aufnahme; Balken: 50 nm (Quelle: F.P. Williams, http://www.epa.gov/nerlcwww/polio.htm; gemeinfrei)

Allerdings sind die Erfolge, die durch effektive und sichere Impfstoffe und Impfkampagnen, eine globale Partnerschaft und ein globales Mandat zur Ausrottung von Polio erreicht wurden, ständig bedroht. Seit 2008 ist Polio in mehr als 20 Ländern aufgetreten. Die Krankheit wurde teilweise mehrfach aus endemischen Ländern eingeschleppt. Versuche, ungeimpfte Kinder zu erreichen, werden oft durch Sicherheitsrisiken sowie geografische und kulturelle Barrieren verhindert. Die hohen Kosten der Impfkampagnen, die sich jährlich auf 1 Milliarde US-Dollar belaufen, können nicht langfristig getragen werden. Wenn wir diese höchst ansteckende Krankheit im nächsten Jahrzehnt nicht ausrotten, könnte das pro Jahr 200.000 neue Fälle dieser Krankheit zur Folge haben.

Strategien zur Ausrottung von Polio

Bei der Weltgesundheitsversammlung im Jahr 2012 erklärten 194 Mitgliedstaaten die völlige Ausrottung von Polio zu einem „programmatischen Notfall für die Weltgesundheit“. Durch gemeinsame Anstrengungen zur Ausrottung von Polio können alle Kinder weltweit für immer vor der Kinderlähmung geschützt werden. Schätzungen zufolge wird die GPEI in den 20 Jahren nach der Ausrottung Nettogewinne von 40 bis 50 Milliarden US-Dollar erwirken, von denen rund 85 Prozent aus Ländern mit geringem Einkommen stammen. Bei dieser Zahl wurden keine weiteren gesundheitlichen Verbesserungen durch die GPEI beachtet, wie die Versorgung mit Vitamin A, oder die höheren Nettogewinne der Ausrottung in Ländern, die Polio bereits vor Beginn der GPIE ausgerottet haben.

Indien, das im Februar 2012 als poliofrei erklärt wurde,

ist vielleicht das beste Beispiel dafür, wie erfolgreich ein vollfinanziertes Programm mit engagierten Verantwortlichen und Mitarbeitern sein kann. Indien wurde lange als das Land bezeichnet, in dem aufgrund der hohen Bevölkerungsdichte, der hohen Migrationszahlen, der schlechten sanitären Einrichtungen, der hohen Geburtenrate und der geringen Anzahl von Routineimpfungen die Ausrottung von Polio am schwierigsten zu bewerkstelligen sein würde.

Abbildung 2. Die Polio-Impfteams holen sich Impfstoffe am Bahnhof im Staat Bihar in Nordindien ab.

Nach mehrjähriger Arbeit haben zahlreiche Faktoren zur Ausrottung von Polio in Indien beigetragen. Dazu gehörten u. a. eine sehr zielgerichtete, datengestützte Planung, gut geschulte und motivierte Mitarbeiter, gründliche Überwachung, wirksame Kommunikation, Zusammenarbeit mit zuverlässigen Gemeinde- und Religionsführern, der politische Wille auf allen Ebenen und ausreichende Finanzierung. Indien stellt den Ländern Nigeria, Afghanistan und Pakistan technische Hilfe und Beratung über bewährte Vorgehensweisen bereit.

Durch globale Zusammenarbeit und Innovationen sind neue Maßnahmen und Ansätze entstanden, die bei der Logistikplanung für die Ausrottung von Polio helfen können. Verbesserungen am Polio-Impfstoff haben zu einer besseren Immunreaktion auf die verbleibenden Typen der Krankheit geführt. (Der Wildtyp 2 des Polio-Erregers wurde 1999 eliminiert.) Neue Diagnoseverfahren, Überwachungen, Kartierungen und Modelle ermöglichen eine schnellere und präzisere Verfolgung von Poliofällen und Übertragungsmustern.

Um die Übertragung in ihren Ländern schneller zu stoppen

haben die Regierungen in Nigeria, Pakistan und Afghanistan nationale Notfallpläne ausgearbeitet, die von den entsprechenden Regierungsoberhäuptern kontrolliert werden und die die Zuverlässigkeit und Qualität der Polio-Impfkampagnen von der nationalen bis zur lokalen Ebene verbessern. Die WHO bietet diesen Ländern eine wesentliche technische Hilfe und verbesserte Strategien für Impfkampagnen, mit denen sichergestellt werden kann, dass mehr Kinder erreicht werden können. Bessere Planung und Modellansätze stellen den besseren Einsatz der Ressourcen sicher.

Durch diese Verbesserungen konnte Pakistan die Anzahl der Poliofälle von 198 im Jahr 2011 auf 56 im Jahr 2012 senken. Afghanistan konnte die Anzahl der Fälle im gleichen Zeitraum von 80 auf 35 senken. In Nigeria stieg die Anzahl der Fälle von 62 im Jahr 2011 auf 119 im Jahr 2012 (seit einem Jahr ist keine Neuinfektion mehr aufgetreten: [1] Red.).

Die GPEI arbeitet an der Entwicklung einer Sechsjahresstrategie bis 2018,

die zur Grundlage für alle Aktivitäten zur Eindämmung der Polio-Übertragung werden und zu einer poliofreien Welt führen wird. Dazu gehört die Nutzung und gründliche Analyse von Daten zur Festlegung spezifischer landesweiter Impfziele sowie der Einsatz neuer Hilfsmittel und Ansätze, die eine effektivere und effizientere Programmumsetzung ermöglichen werden. Die Kosten für die Vollfinanzierung dieses Projekts werden sich auf schätzungsweise 1 Milliarde US-Dollar pro Jahr belaufen.

Eine weltweite erfolgreiche Ausrottung von Polio würde zu ähnlichen Programmen führen, um Kinder in den ärmsten und am wenigsten zugänglichen Gegenden vor Krankheiten zu schützen, die sich durch Impfung verhüten lassen. Die Ausrottung von Polio ist auch ein wichtiger Meilenstein der Initiative „Decades of Vaccines“ und gemeinsames Ziel von fast 200 Ländern, um bis 2020 allen Menschen dieser Erde die Vorteile von Impfstoffen zu bieten.

Polio: eine der Top-Prioritäten der Bill & Melinda Gates Foundation

Als einer der Hauptunterstützer der GPEI konnten wir unseren GPEI-Partnern technische und finanzielle Ressourcen bieten, damit diese ihre Bemühungen zur Ausrottung von Polio beschleunigen konnten Viele dieser Strategien sind bewährt, wie zum Beispiel zielgerichtete Impfkampagnen, Einbindung von Gemeinden und verstärkte Routineimpfungen. Wir arbeiten auch gemeinsam mit Partnern an innovativen Möglichkeiten zur besseren Überwachung von Polio und schnelleren Reaktion auf Epidemien, zur Beschleunigung der Entwicklung und des Einsatzes sicherer und wirksamerer Polioimpfstoffe. Darüber hinaus bemühen wir uns um die finanzielle und politische Unterstützung der Ausrottungsbemühungen seitens der Geberländer und der von Polio betroffenen Länder.

Die Stiftung hat hier die ganz besondere Chance, einen Beitrag zur Ausrottung von Polio zu leisten, indem sie große Risiken eingeht und alternative Investitionen vornimmt, die zu wertvollen Programmverbesserungen führen können. Beispiele hierfür sind unsere Finanzierung der Kartierung durch das Geographic Information System (GIS), die bisher per Hand gezeichnete Karten ersetzt und zur Planung von Kampagnen dient, die Verfolgung der Aktivitäten der Impfkampagnen-Teams mittels GPS und Investitionen in Polio-Impfstoff-Forschung.

Polio-Impfkampagne

Durch die Ausweitung der Polio-Impfkampagne, einen besseren Mitarbeiterstab, technische und Programminnovationen, sowie eine Verbesserung in den Bereichen Datenerfassung und -analyse, kann die erforderliche Durchimpfungsrate erzielt werden, um die GPEI-Ziele zu erreichen. Dabei konzentrieren wir uns vor allem darauf, die Qualität der Kampagnen in Nigeria, Afghanistan und in Pakistan zu verbessern.

Ein Eckpfeiler der GPEI-Strategie zur Polioausrottung ist das Ziel, in den Ländern mit dem höchsten Risiko alle Kinder im ersten Lebensjahr durch mehrere Dosen Schluckimpfung zu immunisieren. Dazu sollen nationale und lokale Impfkampagnen eingesetzt werden. Dazu wird in Gegenden, in denen der Polio-Erreger vorkommt oder in denen ein Verdacht auf Polio-Infektionen besteht, in Gebieten, in denen ein Risiko für eine erneute Einführung von Polio besteht und Regionen mit begrenztem Zugang zu Gesundheitsdienstleistungen, hoher Bevölkerungsdichte und Mobilität, schlechten sanitären Einrichtungen und geringen Routineimpfungen per Hausbesuch geimpft.

Wir möchten verstehen, welche lokalen, sozialen, kulturellen, politischen und religiösen Gründe eine Steigerung der Durchimpfungsrate verhindern und wie diese überwunden werden können. Wir möchten die Zusammenarbeit mit und Unterstützung durch die politischen Verantwortlichen und Mitarbeiter des Gesundheitswesens, einschließlich niedergelassener Ärzte und ärztlicher Vereinigungen, fördern. Zu unseren Prioritäten zählen auch das Einstellen zusätzlicher Mitarbeiter und die Schulung von Impfteams sowie bessere technische Unterstützung. W

ir wollen den Einsatz moderner Kartierungs- und Verfolgungs-Tools fördern, damit wir Haushalte in Dörfern finden können, in denen Kinder noch keine Schluckimpfung erhalten haben. Diese Tools helfen Impfteams dabei, Nomaden zu folgen, um sie zu impfen.

Routine-Impfsysteme

Gemeinsam mit unseren Partnern möchten wir die umfassenden Routineimpfprogramme verstärken. Dazu gehören Impfprogramme gegen Polio und andere vermeidbare Krankheiten, wie Diphtherie, Tetanus, Keuchhusten und Masern. Derzeit bleiben weltweit 20 Prozent der Kinder ungeimpft.

Um alle Gemeinden mit Routineimpfungen zu erreichen, müssen wir wissen, wie wir lokale Hindernisse überwinden können, und anspruchsvolle Hilfsmittel zur Verfolgung und Planung einsetzen. Ein starkes, koordiniertes Immunisierungssystem kann auch als Plattform für andere wichtige Gesundheitsprogramme dienen. Andere Teams der Stiftung arbeiten an der Zusammenstellung aller notwendigen Komponenten eines solchen Systems und suchen nach Möglichkeiten, Poliomaßnahmen und Schulungsprogramme zu erweitern und so zu zuändern, dass diese für Routineimpfungen gegen eine Vielfalt von Krankheiten verwendet werden können.

Überwachung und Monitoring

Es ist wichtig herauszufinden, wo und wie der Wildtyp des Polio-Erregers noch zirkuliert, und die erfolgreiche Ausrottung des Virus zu bestätigen. Ein starkes und empfindliches Überwachungssystem ist wichtig, um zielgerichtete Kampagnen auszuführen, Programmänderungen rechtzeitig und effizient vorzunehmen und um Epidemien schnell zu erkennen und darauf zu reagieren.

Die Überwachung von Polio ist vor allem deshalb problematisch, weil nur ein kleiner Prozentsatz der Infektionen in klinisch erkennbaren Lähmungen resultiert Eine Infektion mit dem Polio-Erreger kann durch Stuhlproben von Personen mit Verdacht auf eine Infektion bestätigt werden. Diese Proben werden im Labor auf die Anwesenheit des Poliovirus untersucht.

Wir bewerten und verbessern aktuelle Überwachungsprogramme und konzentrieren uns dabei auf die Gegenden mit dem höchsten Risiko. Ein Verbesserungsbereich ist die Überwachung der Umwelt, einschliesslich der Entnahme und des Testens von Wasserproben aus Abwassersystemen und anderen Wasserquellen. Diese Proben können Aufschluss über eine Polio-Infektion in den umgebenden Gemeinden geben. Wir haben in eine Technologie investiert, die eine empfindlichere Diagnose mit kleineren Proben sowie eine hygienischere Probenentnahme ermöglichen soll. Außerdem unterstützen wir die Entwicklung günstigerer und zuverlässigerer Diagnosetests für das Labor. Wir arbeiten an einem Diagnosetest, mit dem kleinere Labors vor Ort schnell negative Proben ausschließen und positive Proben zur Bestätigung an größere Referenzlabore schicken können.

Produktentwicklung und Marktzugang

Obwohl die aktuellen Impfstoffe und Diagnosetests bei der Beseitigung des Wildtyps des Polio-Erregers in den meisten Ländern sehr wirksam waren, eignen sie sich möglicherweise nicht für eine komplette Ausrottung der Krankheit. Wir arbeiten gemeinsam mit Partnern daran, die Wirksamkeit der existierenden Hilfsmittel zu verbessern und die Entwicklung sichererer Impfstoffe, besserer Diagnosemittel, neuer antiviraler Medikamente und anderer Produkte zu beschleunigen. Wir arbeiten auch mit Partnern, Lieferanten und Regierungen daran, eine ausreichende Versorgung mit Impfstoffen sicherzustellen und die Konkurrenz auf dem Markt zu fördern.

Wir unterstützen die Entwicklung neuer Impfstoff-Formulierungen für die Schluckimpfung (die aus lebenden, abgeschwächten Erregern besteht), sowie Alternativen zur Polio-Schluckimpfung. Wir setzen uns dafür ein, dass die Kosten des inaktivierten Impfstoffs, der regelmäßig in den meisten Industrieländern verwendet wird, der aber aufgrund der hohen Kosten nicht weit verbreitet ist und von geschultem medizinischem Personal injiziert werden muss, verringert werden und die erforderlichen Schulungen, Lieferungen, Versorgungsmöglichkeiten und die Kommunikationsinfrastruktur geschaffen werden.

Wir investieren auch in die Entwicklung besserer Hilfsmittel, um die Immunität gegen Polio zu messen. die derzeit nur mit einer Blutprobe bestimmt werden kann. Bluttests unter größeren Bevölkerungsgruppen werden jedoch dadurch behindert, dass bei der Entnahme von Blutproben eine Zustimmung der Regierung erforderlich ist.

Datengestützte Entscheidungen

Die Erfassung und Weitergabe von Daten ist wichtig für die Ausrottung von Polio. Wir möchten den Zugang zu und die Nutzung von Daten verbessen, um bessere Entscheidungen in Bezug auf Programme treffen, Fortschritte verfolgen, die Überwachung der Umwelt verbessern sowie die Entwicklung von Impfstoffen und Diagnosetests vorantreiben zu können. Wir arbeiten mit einer Gruppe von Modellierern unter Leitung der University of Pittsburgh über die Vaccine Modeling Initiative zusammen, um einen allgemein gültigen Entscheidungsrahmen für die Kampagnen zur Ausrottung von Polio zu entwickeln.

Gemeinsam mit den GPEI-Partnern möchten wir erreichen, dass zur Berechnung des Fortschritts und des Risikos nicht mehr länger die aufgetretenen Poliofälle verwendet werden, sondern die Immunität der Bevölkerung. Wir unterstützen Kid Risk, eine gemeinnützige Organisation mit umfassender Erfahrung in der Polio-Risikomodellierung, die ein System entwickelt hat, mit dem die Immunität der Bevölkerung kontinuierlich eingeschätzt werden kann.

Um den Zugang zu Daten und deren Weitergabe zu verbessern, entwickeln wir bei der Weltgesundheitsorganisation eine Datenzugangsplattform mit wichtigen Daten zu Polio, die standardisiert und qualitätsgeprüft sind und für die Auswertung und Entscheidungsfindung zur Verfügung stehen.

Eindämmungspolitik

Die Eindämmung und endgültige Ausrottung der Polio-Erreger vom Wildtyp in Laboren ist ein wichtiger Schritt, um zu vermeiden, dass das Virus freigesetzt wird und die Krankheit wieder ausbricht.

Wir unterstützen unsere GPEI-Partner dabei, umgehend eine internationale Vereinbarung zu treffen, die regelt, wie übrig gebliebene Polio-Erreger, die für die Impfstoffproduktion, für die Forschung und für die diagnostische Reagenzproduktion verwendet werden, sicher gehandhabt werden. Wir benötigen auch Vorgehensweisen zur Lagerung und Zerstörung von Viren sowie Kriterien und Methoden für möglicherweise wieder eingeführte oder neu auftretende Polio-Erreger.

Bisherige Planung

In den 20 Jahren des Bestehens der Initiative wurden im Rahmen der GPEI Millionen Mitarbeiter und Freiwillige geschult und mobilisiert, es wurden Haushalte und Gemeinden erfasst und erreicht, die von anderen Initiativen nie erfasst worden waren, und es wurde ein zuverlässiges globales System zur Überwachung und Reaktion eingeführt.

Durch die Polio-Ausrottungsbemühungen haben die GPEI-Partner gelernt, wie man logistische, geografische, soziale, politische, kulturelle, ethnische, geschlechterspezifische, finanzielle und andere Hindernisse überwindet und wie man mit den Menschen in den ärmsten und am schwierigsten zugänglichen Gegenden zusammenarbeitet. Der Kampf gegen Polio hat zu neuen Möglichkeiten geführt, die Gesundheit der Menschen in den Entwicklungsländern zu verbessern – sei es durch politisches Engagement, Spenden, Planungs- und Managementstrategien oder Forschung. In der Folge hat die GPEI eine Reihe nützlicher Ressourcen entwickelt. Dazu zählen die genaue Kenntnis der hochriskanten Gruppen und der Migrationsmuster, wirksame Planungs- und Überwachungsmethoden, gut geschulte Mitarbeiter, lokale und regionale technische Berater sowie politisches und organisatorisches Engagement. Das letztere muss auf erfolgreichen Partnerschaften zwischen globalen, nationalen, religiösen und lokalen Führungspersönlichkeiten beruhen. Diese Ressourcen wurden bereits für andere gesundheitliche Bedrohungen und bei Notfällen eingesetzt, wie bei Fällen von Meningitis in West- und Zentralafrika, der H1N1-Grippe in Afrika südlich der Sahara und auf dem asiatischen Subkontinent sowie bei Hochwasser- und Tsunami-Katastrophen in Südasien.

Gemeinsam mit der GPEI möchten wir erforschen, wie die Polio-Infrastruktur, z. B. die Versorgungsketten, Überwachungs- und Laborsysteme sowie die sozialen Mobilisierungsnetzwerke, langfristig für andere Gesundheitsinitiativen und Immunisierungsprogramme genutzt werden kann, vor allem nachdem Polio erfolgreich ausgerottet wurde.

Interessengruppen und Kommunikation

Gemeinsam mit unseren GPEI-Partnern arbeiten wir an der Geldmittelbeschaffung und einer nachhaltigen globalen und nationalen politischen Unterstützung im Kampf für die Ausrottung von Polio. Dazu gehört auch, dass wir Regierungen davon überzeugen für Maßnahmen gegen Polio zu spenden und neue Spender aus anderen Bereichen suchen. Wir suchen auch weitere Mitstreiter im Kampf gegen Polio. Dabei denken wir an einflussreiche Mitglieder der Gemeinschaft wie Religionsführer, Freiwilligenorganisationen und Arbeitgeber. Mit unseren Partnern, wie Rotary International, der UNICEF und dem Global Poverty Project, nutzen wir traditionelle und soziale Medien, um in der Öffentlichkeit Bewusstsein zu wecken für die Unterstützung bei der Ausrottung von Polio, die Unterstützung von Immunisierungsprogrammen in Geberländern sowie in den Ländern, in denen Polio noch existiert, bzw. in Ländern, in denen es zu einem erneuten Auftreten von Polio kommen könnte. Wir möchten unsere Kommunikation spezifischen sozialen, kulturellen und politischen Gegebenheiten anpassen, um die Nachfrage nach Impfungen zu steigern und um Missverständnisse in Bezug auf die Sicherheit und Wirksamkeit von Impfstoffen auszuräumen


[1] World Health Organisation (WHO), August 2015: Highlight: Africa advances toward a polio-free continent

[2] Gates Foundation: Polio - Strategischer Überblick http://www.gatesfoundation.org/de/What-We-Do/Global-Development/Polio . (Der im Original sehr lange Artikel erscheint geringfügig modifiziert und leicht gekürzt; Redaktion)


Weiterführende Links

Herwig Kollaritsch, Marta Pauke-Korinek: Poliomyelitis. ÖAZ 22 (25. November 2014): 24 -33. PDF-Download. Hervorragender, leicht verständlicher Übersichtsartikel.

Global Polio Eradication Initiative

inge Fri, 28.08.2015 - 07:51

Comments

Bill Gates auf LinkedIn: »I traveled to Pakistan with the Bill & Melinda Gates Foundation's polio team to learn from their country’s polio program leaders.
 
Thanks to dedicated health workers, partners, and government, Pakistan has made tremendous progress — it has been over a year since wild polio paralyzed a child in Pakistan, presenting an incredible opportunity to stop this disease for good.
 
Polio cases have been reduced by 99% globally and I am optimistic that if everyone remains vigilant, we can reach every child with a polio vaccine and end polio.


Gates Foundation https://www.gatesfoundation.org/ideas/articles/eradicating-polio-in-pakistan-with-vaccine-data?utm_source=BG&utm_medium=LI&utm_campaign=polio«


 

Paul Ehrlich – Vater der Chemotherapie

Paul Ehrlich – Vater der Chemotherapie

Fr, 21.08.2015 - 14:21 — RedaktionIcon Gebiet

Am 20. August jährt sich der Todestag von Paul Ehrlich (1854 – 1915) zum hundertsten Mal. Ehrlich war Mediziner ebenso wie Biologe und Chemiker, ein Ausnahmewissenschafter, der wesentliche Grundlagen der modernen Medizin geschaffen hat.

 

Abbildung 1. Paul Ehrlich um 1905 – 1910 (Quelle: KRUIF, Paul de. Mikrobenjäger. Orell Füssli, Zürich, 1927; Public domain)

So hat er neue Färbemethoden entwickelt und mikroskopische Verfahren verbessert und mit diesen Krankheiterreger, unterschiedliche Zellarten und Gewebe untersucht. Abgesehen von der Entdeckung einer neuen Form der Leukozyten, der Mastzellen, ist ihm damit eine differenzierte Darstellung der weißen und auch der roten Blutzellen gelungen – dies war die Basis der modernen Hämatologie.

Mit der Erkenntnis, dass bestimmte Zellen unterschiedlich mit Farbstoffen reagieren, spezifisch angefärbt werden können, wandte er sich einem elementaren therapeutischen Thema zu: er suchte nach (synthetisch) chemischen Substanzen – Zauberkugeln, wie er sie nannte -, die spezifisch auf einen Krankheitserreger wirkten, ohne die Körperzellen des Wirtes zu beeinträchtigen. Diese Strategie bezeichnete er als Chemotherapie. Mit dem Salvarsan entdeckte er eine derartige Zauberkugel – es war das erste wirksame, leicht zu verabreichende Medikament gegen Syphilis. Auf ihn gehen auch u.a. die Begriffe „Rezeptor“ (Andockstelle an/in einer Zelle), „Pharmakophoren“ (Teile von Substanzstrukturen, die die Wirkung vermitteln) und grundlegende Überlegungen zur Verteilung von Substanzen im Organismus zurück. Auch hinsichtlich der Wirksamkeitsprüfung von Substanzen an Tieren war Ehrlich ein Pionier – er führte die Testung an relevanten Krankheitsmodellen ein..

Man kennt Ehrlich aber nicht nur als Vater der Chemotherapie, sondern auch (als einen der Väter) der Immunologie. In diesem Gebiet hat er u.a. eine erste umfassende Theorie der spezifischen Immunabwehr formuliert, die- etwas abgeändert- die Basis des modernen Antikörperkonzeptes darstellt. Ehrlichs „Seitenkettentheorie“ besagt, dass an bestimmten Körperzellen kettenförmige Molekülstrukturen – Rezeptoren – sitzen, an welche Fremdstoffe oder Infektionserreger in spezifischer Weise (d.i. nach dem „Schlüssel-Schloss-Prinzip“) andocken. Derartige Seitenketten ins Blut abgegeben, neutralisieren dann die Erreger/Gifte. Für diese fundamentalen Arbeiten wurde Ehrlich im Jahre 1908 mit dem Nobelpreis ausgezeichnet [1], gemeinsam mit Elias Metschnikow, der die Phagozytose entdeckt hatte.

Eine weitere Aufzählung der vielen bedeutenden und enorm einflussreichen Arbeiten Paul Ehrlichs würde den Rahmen dieser kurzen Vorstellung sprengen. Details dazu und zu seinem Lebenslauf finden sich am Ende des Artikels unter „Weiterführende Links“. Im Folgenden soll vielmehr Paul Ehrlich selbst zu Wort kommen und zwar mit einer Rede, die er 1906 anlässlich der Eröffnung des Speyer-Hauses hielt [2]. Mit der Gründung dieses chemotherapeutischen Forschungsinstituts i n Frankfurt [3]– ermöglicht durch eine großzügige Stiftung der Bankierswitwe Franziska Speyer – war ein Wunschtraum Ehrlichs wahr geworden; es war eine ihm gewidmete Forschungsstätte, deren erster Direktor er war und an der er u.a. mit der Entdeckung und Entwicklung des Salvarsan „seiner“ Chemotherapie zum Durchbruch verhalf.

Die Rede „Die Aufgaben der Chemotherapie“ [2] erscheint geringfügig für den Blog adaptiert (d.i. es wurden Untertitel und Abbildungen eingefügt) und durch eine Passage aus einer späteren Rede [4] ergänzt. Die einzelnen Themen, die Ehrlich anspricht – ob es sich nun um Prinzipien von Struktur-Wirkungsbeziehungen, um kausale anstelle symptomatischer Therapien, um geeignete Tierversuche oder auch um die erforderliche Zusammenarbeit von akademischer und industrieller Forschung zur Entwicklung neuer Pharmaka handelt - sind nach wie vor von brennender Aktualität.

Die Aufgaben der Chemotherapie [2]

"Es handelt sich heute nicht nur um die Eröffnung eines neuen wissenschaftlichen Instituts, sondern auch um die Schöpfung einer neuartigen Stätte wissenschaftlicher Forschung. Die neue Schöpfung stellt die Verwirklichung meiner schon in den frühen Jugendjahren gehegten Wünsche und Hoffnungen dar."

Abbildung 2. Georg-Speyer-Haus zur Einweihung am 3.September 1906 und Paul Ehrlich im Labor, in welchem er – nach Aussagen von Kollegen- alle 7 Tage der Woche verbrachte (Quelle: http://wellcomeimages.org/i)

Zur Verteilung von Substanzen

"Von Anfang an ist es mein Bestreben gewesen, Beziehungen zwischen der organisierten Materie und bekannten Stoffen der Chemie aufzufinden und auf diese Weise Einblick in den feinsten Bau der lebenden Ideen und Organe und deren Beeinflussung zu erhalten. Einmal kann man aus der Verteilung der von außen eingeführten Substanzen im lebenden Organismus gewisse Rückschlüsse ziehen auf die chemische Konstitution der einzelnen Organe. So werden z.B. durch Injektion von Methylenblau die peripheren Nervenendungen blau gefärbt und man muss daher annehmen, dass das Methylenblau gerade zu den Nervenendungen eine besondere Verwandtschaft hat. Man sagt, das Methylenblau ist neurotrop. Die Mehrzahl der Farbstoffe färbt eine größere Zahl von Geweben, sie sind „polytrop“. Dass das Studium der Verteilung aber von besonderer Wichtigkeit ist, liegt auf der Hand, da ja die Substanzen im Organismus an den Stellen ihre Wirkung entfalten können, an die sie gelangen an denen sie gespeichert werden." (Heute wird dies mit „Bioverfügbarkeit“ bezeichnet; Redaktion)

"Die Verteilungsgesetze zu kennen, ist daher die wichtigste Vorbedingung eines rationellen therapeutischen Handelns. Was nützt es, wenn wir Arzneimittel in Händen haben, denen zwar auf Grund ihrer chemischen Konstitution eine Fähigkeit der Heilwirkung zugeschrieben werden kann, die aber an das erkrankte Organ oder an den Feind. Der im lebenden Körper weilt, nicht herangelangen können und darum versagen! "

"Natürlich genügt die einfache Speicherung noch nicht zur Wirkung".

"Es muss noch ein zweites determinierendes Moment in der chemischen Substanz hinzukommen, welches die spezifische Wirkung vermittelt. Man muss also bei der Konstitution zwei verschiedene Faktoren unterscheiden:

  1. die Verteilung regulierenden distributiven Bestandteile und
  2. die die spezifische Wirkung veranlassende pharmakophore Gruppe. Erst die Resultante beider Faktoren erlaubt Schlüsse auf die Beziehungen zwischen Konstitution und Wirkung.

Den markantesten Ausdruck finden diese Beziehungen bei den von lebenden Organismen selbst produzierten toxischen Substanzen, welche die Immunitätslehre kennengelehrt hat. Es handelt sich hier um Gifte, an denen man ohne weiteres einen die Verteilung beherrschenden Komplex, die haptophore Gruppe, und die Giftigkeit bedingende toxophore Gruppe unterscheiden kann. Bei einer besonderen Klasse diese Gifte sind sogar haptophore und toxophore Gruppe an zwei trennbare Substanzen gebunden, durch deren Zusammentritt erst die Wirkung hervorgebracht wird."

"Eine wesentliche Aufgabe des neuen Instituts wird es nun sein, Substanzen und chemische Gruppierungen aufzufinden, welche eine besondere Verwandtschaft zu bestimmten Organen besitzen (organotrope Stoffe). Von besonderer Wichtigkeit wird es aber sein, solche gewissermaßen als Lastwagen fungierende Substanzen (heute sagt man „Carrier“ dazu; Redaktion) mit chemischen Gruppierungen von pharmakologischer oder toxikologischer Wirkung zu versehen, so dass sie gleichzeitig die ihnen anvertraute wirksame Last an die geeigneten Stellen befördern."

"Wenn auch der Nutzen dieser Art pharmakologischer Forschung evident ist und die schönen Erfolge, welche die Pharmakologie gezeitigt hat, von größter praktischer Bedeutung sind, so lässt sich doch nicht verkennen, dass die Mehrzahl der in den Arzneischatz übergegangenen Substanzen reine Symptomatika sind, die gewissen Krankheitssymptome günstig beeinflussen, aber nicht gegen die Krankheit selbst oder ihre Ursache gerichtet sind. Es wird sich jetzt aber darum handeln, wirkliche Heilstoffe, organotrope oder ätiotrope wirksame Substanzen zu gewinnen."

"Voraussetzungen dieser Untersuchungen ist die Möglichkeit, bestimmte Krankheiten an Tieren zu erzielen und daran die therapeutischen Versuche vorzunehmen, und in dieser Richtung hat die medizinische Wissenschaft bereits auf dem Gebiet der Infektionskrankheiten die schönsten Erfolge gehabt. "

Abbildung 3. Mitarbeiter von Paul Ehrlich mit Versuchstieren. (Quelle: Wellcome Images Keywords: Paul Ehrlich Gallery: http://wellcomeimages.org/indexplus/image/M0013269.html)

"Hier ist aber nun der lebende Organismus die Retorte, die ohne unser Zutun automatisch spezifische ätiotrope Heilstoffe, Antitoxine usw. darstellt, die noch dazu ausschließlich gegen die Krankheitsursache gerichtet, also monotrop sind. Ist und bleibt das Studium dieser Stoffe die Aufgabe des Instituts für experimentelle Therapie, so werden die Ziele des Speyerhauses dahin gehen, solche Heilsubstanzen in der Retorte des Chemikers entstehen zu lassen."

"Die Aufgabe einer derartigen „Chemotherapie“

erscheint schwierig, aber andererseits sind bei einer Reihe von Erkrankungen, bei denen die Immunisierung außerordentlich schwer und unvollkommen vor sich geht, gerade der Chemotherapie viel bessere Chancen des Erfolgs geboten. Verheißungsvolle Anfänge bestehen schon, wenn auch die Grundlagen rein empirisch sind (Behandlung der Syphilis durch Quecksilber, der Malaria durch Chinin, usw.). Ein weiterer Fortschritt kann aber nur durch systematische Heranziehung der zahlreichen Stoffe der Chemie erzielt werden. So ist es bereits gelungen einen Farbstoff (Trypanrot) aufzufinden, der es ermöglicht, Mäuse von der Infektion durch eine bestimmte Art von Trypanosomen, nicht durch alle Arten, zu heilen und sie von dem Tode zu erretten. Der Körper dieser Mäuse wird also durch den Farbstoff in Bezug auf die in ihm weilenden Parasiten vollständig sterilisiert. Laveran hat weiter gezeigt, dass man durch kombinierte Behandlung mit Trypanrot und Arsenik besonders günstige Heilerfolge erzielen kann, und es hat sich fernerhin ergeben, dass das Atoxyl das geeignetste Arsenpräparat darstellt. Der Erfolg ist nicht nur an kleinen Versuchstieren erzielt, sondern durch Lingard auch in Heilversuchen an großen infizierten Tieren, Pferden, an den die Trypanosomenkrankheit große Verwüstungen anrichtet, bestätigt."

"Dieses sehr ermutigende Beispiel kennzeichnet zugleich die Arbeitsrichtung des Speyer-Hauses. "


Nachsatz aus der 4 Jahre später gehaltenen Rede „Die Grundlagen der experimentellen Chemotherapie“ [4]:

"Wenn ich den Zweck eines chemotherapeutischen Institutes in kurzen Worten klarlegen soll, so besteht derselbe darin, durch systematische und ausgiebige Tierversuche für bestimmte Krankheiten "wirkliche" Heilmittel auffindig zu machen und nicht bloße Symptomatika, die ein oder das andere Symptom, wie Fieber, Neuralgie, Schlaflosigkeit, günstig beeinflussen. Ein solches Institut muss mindestens zwei Abteilungen besitzen, nämlich eine biologisch-therapeutische und eine chemisch-synthetische, die über den Aufbau neuer Arzneimittel zu wachen hat. Außerdem glaube ich aber nicht - und ich muss das besonders betonen -, daß ein derartiges Institut allein seinen Weg machen kann, wenn es ihm nicht gleich mir vergönnt ist, sich auf die erfolgreiche Beihilfe der chemischen Großindustrie mit ihren hervorragenden Köpfen und ihren großen Hilfsmitteln. zu stützen. "


[1] Nobelpreis 1908 http://www.nobelprize.org/nobel_prizes/medicine/laureates/1908/ehrlich-b... und Nobelvortrag „Partial cell functions” (englisch) http://www.nobelprize.org/nobel_prizes/medicine/laureates/1908/ehrlich-l...

[2 Paul Ehrlich (1906): Die Aufgaben der Chemotherapie. Frankfurter Zeitung und Handelsblatt:Zweites Morgenblatt 51.

[3] Chemotherapeutisches Forschungsinstitut Georg-Speyer-Haus (heute: Institut für Tumorbiologie und experimentelle Therapie) http://www.georg-speyer-haus.de

[4] Die Grundlagen der experimentellen Chemotherapie (1910) Vortrag gehalten in der ersten allgemeinen Sitzung der Hauptversammlung zu Frankfurt. Zeitschrift fuer angewandte Chemie und Zentralblatt fuer technische Chemie 23: 2-8.


Weiterführende Links

inge Fri, 21.08.2015 - 14:21

Evolution der Immunsysteme der Wirbeltiere

Evolution der Immunsysteme der Wirbeltiere

Fr, 14.08.2015 - 08:59 — Thomas Boehm & Jeremy Swann A

Thomas BoehmJeremy SwannIcon BiologieAlle Wirbeltiere besitzen eine erworbene (adaptive) Immunantwort und der Thymus ist ein zentrales Organ dieser Immunabwehr. Hier entwickeln sich Immunzellen, die Eindringlinge und entartete Körperzellen vernichten können. Das Team um Thomas Boehm, Direktor am Max-Planck Institut für Immunbiologie und Epigenetik (Freiburg), konzentriert sich auf Fragen zur Entwicklung und Funktion des Thymus und der darin heranreifenden Zellen und hat hier bahnbrechende Entdeckungen gemacht. Molekularbiologische Untersuchungen dieser Vorgänge in einer Reihe von Tierarten, von einfachsten Wirbeltieren bis hin zum Menschen, zeigen gemeinsame Merkmale in der Evolution des adaptiven Immunsystems: auf dieser Basis kann die Entwicklung künstlicher immunstimulierender Gewebe in Angriff genommen werden..*

Alle Lebensformen besitzen Immunsysteme, um sich gegen Fremdeinwirkung, besonders gegen Pathogene, zu schützen. Entscheidend dabei ist die Unterscheidung zwischen Selbst und Fremd. Wissenschaftler widmen sich bei ihren Studien zur Evolution und Funktion der Immunsysteme der Wirbeltiere deren gemeinsamen Organisationsprinzipien und artspezifischen Besonderheiten und versuchen, die Immunfunktionen ausgestorbener Tiere zu rekonstruieren. Mit dem daraus entwickelten Verständnis werden die Grundlagen geschaffen, Teile des Immunsystems künstlich herzustellen und für therapeutische Zwecke zu nutzen.

Fremde oder Freunde?

Das Phänomen der Immunität ist in der belebten Welt weit verbreitet. Es findet sich nicht nur bei Pflanzen und Tieren, sondern schon bei einzelligen Organismen und dient dem Erhalt genetischer, zellulärer und bei vielzelligen Organismen auch körperlicher Integrität. Allen Formen der Immunität liegt die Unterscheidung zwischen Selbst und Fremd (Nicht-Selbst) zugrunde, wobei verschiedene Organismen zu diesem Zweck im Laufe der Zeit ganz unterschiedliche Systeme herausgebildet haben.

Bei Studien zur Evolution und Funktion der Immunsysteme verschiedener Tierarten werden deshalb unter anderem die folgenden Fragen bearbeitet:

  • Gibt es grundlegende, allen Wirbeltieren gemeinsame Organisationsprinzipien?
  • Welche artspezifischen Besonderheiten haben sich im Laufe der Evolution herausgebildet
  • Lassen sich Immunfunktionen ausgestorbener Tiere wenigstens in Teilen rekonstruieren?

Mit der Beantwortung dieser und ähnlicher Fragen sollen sowohl ein tieferes Verständnis der Immunität erreicht als auch die Grundlagen dafür geschaffen werden, Teile des Immunsystems für therapeutische Zwecke künstlich herzustellen.

Die Immunsysteme der Wirbeltiere

Im Laufe der Evolution wurden für die Immunabwehr verschiedenste Lösungen gefunden. Ob ihrer Leistungs- und Anpassungsfähigkeit besonders eindrucksvoll sind dabei die Immunsysteme der Wirbeltiere. Diese Tiergruppe entstand vor etwa 500 Millionen Jahren und bevölkert in zwei Grundformen alle Ökosysteme der belebten Welt:

Den etwa 100 Spezies der sogenannten Rundmäuler, deren in unseren Breiten bekannteste Vertreter die Neunaugen sind, steht die weitaus größere Gruppe der Kiefermäuler mit weit über 50.000 Arten gegenüber, zu denen der Hai ebenso gehört wie der Mensch. Vergleichende Studien der letzten Jahre haben überraschende Gemeinsamkeiten in den Organisationsprinzipien der Immunsysteme der beiden Schwestergruppen aufgedeckt.

  • So besitzen alle Wirbeltiere spezielle Zellen für die Antikörperbildung, mit denen Fremdstoffe erkannt und für das Erkennen durch sogenannte Fresszellen markiert werden können.
  • Ein weiterer Typ von Immunzellen ist darauf spezialisiert, kranke oder infizierte Zellen zu erkennen und gezielt abzutöten.

Die für die Differenzierung von Selbst und Nichtselbst genutzten Antigenrezeptoren unterscheiden sich allerdings zwischen Rund- und Kiefermäulern. Dies lässt vermuten, dass sich im Immunsystem eines gemeinsamen Vorfahrens aller Wirbeltiere zunächst die verschiedenen Zelltypen herausbildeten, bevor dann, nach der Trennung in Rund- und Kiefermäuler, in einem zweiten Schritt die Ausprägung strukturell diversifizierter Antigenrezeptoren einsetzte. Diese Zweischritt-Hypothese lässt das Studium der für die Bildung von Abwehrzellen wichtigen Organe als allen Wirbeltieren gemeinsame Grundfunktion besonders interessant erscheinen. In der Abteilung Entwicklung des Immunsystems wird daher versucht, die Evolution eines dieser Organe, des Thymus, zu rekonstruieren, um damit ein vertieftes Verständnis seiner Funktion in heute lebenden Wirbeltieren einschließlich des Menschen zu erlangen.

Funktion des Thymus

Der Thymus ist ein wichtiges Organ des Immunsystems der Wirbeltiere (Abbildung 1). Er ist notwendig, um aus unreifen Zellen des blutbildenden Systems die für die Abwehr von Krankheitserregern notwendigen T (von Thymus)-Zellen zu bilden. Sie töten kranke Zellen entweder direkt ab (daher der Name Killerzellen) oder arbeiten bei der Infektabwehr als sogenannte Helferzellen mit den antikörperbildenden Zellen des Immunsystems zusammen.

Abbildung 1. Der Thymus (das Bries), ein kleines Organ, das bis zur Pubertät wächst und danach schrumpft, liegt oberhalb des Herzens. Er ist in Nischen gegliedert, in welchen T-Zelltypen heranreifen und dann in den Körper entlassen werden. (Bild von der Redaktion zugefügt; Quelle: http://de.slideshare.net/amyottmers/lymphatic-system-31966663)

Funktionell entscheidend für die Immunzellbildung ist die ausschließlich im Thymus vorhandene Mikroumgebung, die sich im Verlauf der Embryonalentwicklung in der Schlundregion ausbildet. Dieser Prozess vollzieht sich unter dem Einfluss eines bestimmten regulatorischen Proteins, des FOXn1 genannten Transkriptionsfaktors. FOXn1 steuert die koordinierte Aktivität einer großen Anzahl von Genen, die in ihrem Zusammenwirken nicht nur für die Anlockung von Vorläuferzellen zum Thymus, sondern auch für deren nachfolgende Differenzierung in reife T-Zellen verantwortlich sind. Aufgrund der zentralen Funktion von FOXn1 führen Mutationen dieses Transkriptionsfaktors bei Säugetieren zu einer schweren Immunschwäche .

Evolution des Thymus

Inzwischen ist bekannt, dass alle Wirbeltiere thymusähnliche Gewebe besitzen. Der vorläufige Schlusspunkt einer über hundertjährigen Forschungsanstrengung konnte in Zusammenarbeit mit einer amerikanischen Arbeitsgruppe kürzlich gesetzt werden, als es gelang nachzuweisen, dass auch die Rundmäuler im Rachenraum thymusähnliche Strukturen, die sogenannten Thymoide, besitzen. Weiterführende Studien zur Thymusfunktion bei Fischen zeigten, dass neben dem FOXn1 Transkriptionsfaktor auch sein evolutionärer Vorläufer, FOXn4, vergleichbare Funktionen in der Mikroumgebung des Thymus übernehmen kann. Dies lässt vermuten, dass beim Übergang von den einfach gebauten wirbellosen Tieren zu den komplexeren Wirbeltieren die Funktion eines ursprünglichen Thymus nicht durch FOXn1, sondern möglicherweise durch FOXn4 gewährleistet wurde. Geleitet von dieser Hypothese, ersetzten die Freiburger Forscher im Thymus von Mäusen die Funktion von FOXn1 mit der von FOXn4, dem ursprünglichen Faktor.

Überraschenderweise zeigte sich dabei, dass eine solcherart gebildete Mikroumgebung nicht nur wie erwartet die T-Zellentwicklung unterstützte, sondern zugleich auch der Entwicklung antikörperbildender B-Zellen Raum bot. Detaillierte Analysen ergaben einen zweiten überraschenden Befund. Die B-Zellen entwickelten sich in einer anatomisch abgegrenzten Region des Thymus, und zwar in der Nähe der den Thymus versorgenden Blutgefäße (Abbildung 2). Diese Strukturen ähneln denjenigen, die die B-Zellen im Knochenmark vorfinden, ihrem eigentlichen Bildungsort.

Abbildung 2: Links: Der normale Thymus einer Maus enthält nur wenige B-Zellen, hier mit einem roten Farbstoff markiert. Das die Blutgefäße umschließende Bindegewebe ist mit einem grünen Farbstoff sichtbar gemacht. Rechts: Wird der üblicherweise im Thymus aktive Foxn1-Transkriptionsfaktor durch seinen evolutionären Vorläufer Foxn4 ersetzt, ist die Struktur des Thymus einer solchermaßen veränderten Maus durch eine hohe Anzahl an B-Zellen gekennzeichnet. Interessanterweise finden sich diese B-Zellen in erweiterten Bindegewebsstrukturen der Blutgefäße, ähnlich ihrer normalen Bildungsorte im Knochenmark. Der Maßstabsbalken entspricht 50 µm. © Max-Planck-Institut für Immunbiologie und Epigenetik/Boehm

In weiteren Studien soll nun geklärt werden, ob evolutionär noch ältere Formen des FOXn4-Faktors gleiche oder ähnliche Funktionen haben. Von besonderem Interesse ist dabei die Frage, ob die aus vergleichenden Studien abgeleitete, schrittweise Entwicklung der T-Zelldifferenzierung rekapituliert werden kann. Damit könnte der entwicklungsgeschichtlichen Sequenz der T-Zellreifung eine evolutionäre Abfolge zugrunde gelegt werden.

Ausblick: Herstellung künstlicher Thymusgewebe

Die Aufdeckung der den Immunsystemen der Wirbeltiere gemeinsamen Merkmale erlaubt es, die Entwicklung künstlicher immunstimulierender Gewebe in Angriff zu nehmen. Diese Anstrengungen haben nicht nur den Zweck, die Richtigkeit der Schlussfolgerungen aus vergleichenden Studien zu bestätigen, getreu dem Feynmanschen Diktum “What I cannot create, I do not understand”, sondern sie stellen auch erste Schritte in Richtung einer klinischen Anwendung dar. Sollte es beispielsweise eines Tages gelingen, dem Thymus nachempfundene künstliche Gewebe zu schaffen, so könnten diese helfen, eine im Alter oder nach Behandlung von Tumorerkrankungen häufig auftretende Immundefizienz zu mildern. Dazu ist es nötig, die das Thymusgewebe auszeichnenden Funktionen auf deren präzise molekulare Grundlagen zurückführen zu können, um sie dann schrittweise und von Grund auf neu aufzubauen.


*Der Artikel Evolution der Immunsysteme der Wirbeltiere ist im Forschungsmagazin 2015 der Max-Planck Gesellschaft erschienen http://www.mpg.de/8847152/MPIIB_JB_2015?c=9262520. Er wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt und erscheint hier geringfügig für den Blog adaptiert, aber ohne Literaturangaben. Diese (nicht frei abrufbar)können im Original nachgesehen und, wenn gewünscht, zugesandt werden.


Weiterführende Links

Max-Planck Institut für Immunbiologie und Epigenetik (Freiburg) www.ie-freiburg.mpg.de Thomas Boehm Labor:

Cells of the Immune System (Howard Hughes Medical Institute)

Das Immunsystem: Schutz durch Wandel (uni-bonn TV) Video 5:58 min.

Das menschliche Immunsystem: Abwehr von Infektionen . Video 7:34 min.

Telekolleg Biologie Immunsystem (sehr allgemeine Darstellung), Video 29:40 min.

inge Fri, 14.08.2015 - 08:59

Ab wann ist man wirklich alt?

Ab wann ist man wirklich alt?

Fr, 07.08.2015 - 06:08 — IIASA

IIASA LogoPolitik & GesellschaftKonventionell gesehen gilt man mit 65 Jahren als alt. Die Bevölkerungsgruppe der über 65-Jährigen nimmt auf Grund einer kontinuierlich steigenden Lebenserwartung und einer gleichzeitig sinkenden Fertilität enorm zu, deren Unterhalt und Pflege bedeuten eine enorme ökonomische Belastung für die Gesellschaft. Tatsächlich bedeutet ein Alter + 65 aber nicht automatisch Abhängigkeit und Krankheit. Forscher am Internationalen Institut für Angewandte Systemanalyse (IIASA) erarbeiten bahnbrechend neue Maßstäbe, die – weg von der Zahl der bereits gelebten Jahre – Alter durch die noch zu erwartende Lebensspanne definieren („prospective age“) und in einem weiteren Schritt die physischen und psychischen Fähigkeiten („characteristics approach“) miteinbeziehen [1].

"Altern ist ein multidimensionaler Prozess. Menschen können in bestimmten Aspekten alt sein, in anderen dagegen ganz jung." Sergej Scherbow

Im Jahr 1877 hat Tschaikowsky in einem Brief den damals 49 jährigen Schriftsteller Tolstoi als einen geschwätzigen alten Mann beschrieben. Im Jahr 2012 hat die damals 46-järige Schwimmerin Dara Torres Dutzende junge Spitzenathleten besiegt und die Qualifikation für die Olympischen Spiele nur knapp verfehlt, nachdem sie zuvor 3 Silbermedaillen von den Olympischen Spielen 2008 nachhause gebracht hatte.

Das Alter ist nicht mehr das, was es früher einmal war, insbesondere nicht in den entwickelten Ländern. Heute leben die Menschen länger und bleiben über viele der zusätzlichen Jahre gesünder. Heute beträgt die durchschnittliche Lebenserwartung in Europa bereits über 80 Jahre, um 1900 lag sie um die 50 Jahre.

Die steigende Lebenserwartung verbunden mit einer sinkenden Fertilitätsrate hat aber in vielen Industriestaaten Beunruhigung über die rapide Alterung der Gesellschaft und die damit verbundenen volkswirtschaftlichen Auswirkungen ausgelöst. Sergei Scherbov, der stellvertretende Leiter des Weltbevölkerungs-Programm am Internationalen Institut für angewandte Systemanalyse (IIASA), sieht dies etwas anders. Er und seine Kollegen schwächen die Befürchtungen ab, weil diese auf überholten und zu starren Definitionen dessen beruhen, was Alter heute bedeutet. Im Rahmen eines Advanced Grant des Europäischen Forschungsrats (ERC) arbeiten sie nun daran neue Messmethoden zu entwickeln, um das Altern der Gesellschaft zu erfassen und die Politik diesbezüglich umfassender beraten zu können.

Wer ist alt? Eine neue Betrachtungsweise

Scherbow und Kollegen wenden in zunehmendem Maße einen neuen Maßstab an, um Personen als alt einzustufen. Anstatt zu sagen „mit 65 Jahren sind Menschen alt“, zählen sie nun von der voraussichtlichen Lebenserwartung einer Person zurück und bezeichnen jemanden als alt, wenn dieser im Mittel nur mehr 15 Jahre Lebensspanne vor sich hat. Mit diesem „vorausschauenden Ansatz“ („prospective approach“) erscheint Altern in einem völlig anderen Licht, als wenn man herkömmliche Maßstäbe ansetzt (Abbildung 1).

Altern in EuropaAbbildung 1. Das Altern in Europa – neu bestimmt. Üblicherweise wird der Beginn des Alters mit 65 Jahren festgesetzt und der Anteil der + 65 Bevölkerung zur Bevölkerung im erwerbsfähigen Alter (meist 20 – 64 Jahre) in Beziehung gesetzt (=old-age dependency ratio (OADR) – gelbe Linien). Der „prospective approach“ stuft dagegen Menschen als alt ein, wenn sie 15 (und weniger) Jahre Lebensspanne vor sich haben. Wird der Bevölkerungsanteil ab diesem Grenzwert in Beziehung gesetzt zur Bevölkerung 20 Jahre - bis zu diesem Grenzwert (= prospective old-age dependency ratio (POADR) – blaue Linien), so fällt die prognostizierte Alterung der Bevölkerung viel schwächer aus als nach der konventionellen fixen Altersfestlegung.(Abbildung von der Redaktion beigefügt; Quelle: European Demographic Data Sheet 2014 [2])

So zeigen Scherbov und sein Kollege Warren Sanderson (IIASA und Stony Brook University, N.Y.) in einer eben erschienenen Studie [3], dass unter Anwendung des neuen „vorausschauenden Ansatzes“ schnellere Anstiege in der Lebenserwartung tatsächlich zu einer langsameren Alterung der Bevölkerung führen. „Der Zeitpunkt, ab dem jemand als alt gilt, ist sehr wichtig“, sagt Sanderson, „weil dieses Alter ja häufig als Indikator für zunehmende Behinderung, Abhängigkeit und verringerte Erwerbsfähigkeit herangezogen wird. Ein Anpassen an das, was wir als Beginn des Alters betrachten, ist unerlässlich – sowohl, um das Altern einer Bevölkerung wissenschaftlich zu verstehen, als auch um Richtlinien auszuarbeiten, die in Einklang mit unserer gegenwärtigen demographischen Situation stehen." (Abbildung 2).

Altersgrenze ab der die verbleibende Lebensspanne (weniger als) 15 JahreAbbildung 2. Die Altersgrenze ab der die verbleibende Lebensspanne (weniger als) 15 Jahre beträgt; 2013 und Prognose für 2050 (Abbildung von der Redaktion beigefügt; Quelle: European Demographic Data Sheet 2014 [2])

Nach Meinung der Wissenschafter müsste eine der Konsequenzen darin bestehen, dass das Pensionierungsalter nicht festgelegt sein dürfte, sondern sich entsprechend der Lebenserwartung und den Fähigkeiten von Personen in den verschiedenen Altersstufen dynamisch ändern sollte.

Paradigmenwechsel – Alter definiert auf Grund von physischen und mentalen Fähigkeiten

Auch dem „vorausschauenden Ansatz“ der Altersbestimmung können wichtige Aspekte fehlen. Wenn Menschen zwar länger leben, dafür aber gegen das Lebensende hin über längere Zeit krank oder behindert sind, hat das andere gesellschaftliche Auswirkungen, als wenn Menschen in höherem Alter gesund und auch noch erwerbsfähig bleiben. Scherbov und Sanderson erarbeiten nun eine Reihe neuer Maßzahlen, die in Summe ein wesentlich umfassenderes Bild des Status der Bevölkerung geben können. Sie bezeichnen dies als „characteristics approach“, eine Methode, bei der messbare physische und mentale Eigenschaften im Mittelpunkt stehen. Ein erstes Set dieser Eigenschaften kann in einem 2013 erschienenen Artikel nachgelesen werden [4]. Im vergangenen Jahr zeigten die Forscher beispielsweise, dass die Kraft eines Händedrucks sehr gut mit anderen Indikatoren des Alterns – zunehmende Behinderung, Verringerung kognitiver Fähigkeiten, Sterblichkeitsrate - korreliert und als Maßstab verwendet werden könnte, um Alterung in verschiedenen Bevölkerungsgruppen zu vergleichen [5].

„Altern ist ein multidimensionaler Prozess. Menschen können in bestimmten Aspekten alt sein, in anderen dagegen ganz jung“ sagt Scherbow. „ Beispielweise ist man mit 20 Jahren bereits zu alt, um anzufangen Geige zu spielen. Andererseits wurden Mitglieder des Sowjet-Politbüros für jung erachtet, wenn sie 60 waren. Es hängt davon ab, was wir von den Menschen erwarten“.

Ausblick

Die IIASA Forscher dehnen ihre Untersuchungen nun auch auf Länder außerhalb Europas aus. Beispielsweise zeigen viele Länder in Asien ähnlich niedrige Fertilitätsraten wie Europa und steigende Lebensspannen. Rund um die demographischen Studien des IIASA wächst die Gemeinschaft der Forscher, die neue Methoden der Altersmessung entwickeln. Von Scherbov und Sanderson organisiert, hat eine erste große internationale Konferenz zu “New Measures of Age and Ageing“ im Dezember 2014 in Wien stattgefunden. Ein Großteil der Präsentationen, die sich auch mit den Auswirkungen der neuen Methoden der Altersbestimmung auf Gesellschaft und Politik befassten, sind online abrufbar [6].

Schlussendlich reagiert dieses Gebiet demographischer Forschung auf die um sich greifenden Änderungen biologischer und sozialer Natur, reflektiert also die reale Welt um uns herum. Das Alter muss dynamisch definiert werden - wie es Scherbov einfach ausdrückt: „Wir können nicht sagen, dass ein 65-jähriger Mensch heute dasselbe bedeutet, wie ein 65-Jähriger vor 100 Jahren oder, wie ein 65-Jähriger in 100 Jahren sein wird.“


[1] Forever joung? Der von der Redaktion aus dem Englischen übersetzte Text stammt aus dem Options Magazin (Juni 2015) der IIASA, die freundlicherweise einer Veröffentlichung in unserem Blog zugestimmt hat. http://www.iiasa.ac.at/web/home/resources/publications/options/150614-fo.... Die Abbildungen wurden von der Redaktion zugefügt und stammen ebenfalls aus IIASA-Unterlagen.

[2] European Demographic Data Sheet 2014 http://www.iiasa.ac.at/web/home/research/researchPrograms/WorldPopulatio...

[3] W.C.Sanderson, S. Scherbov. Faster Increases in Human Life Expectancy Could Lead to Slower Population Aging. PLOSone (2015), DOI: 10.1371/journal.pone.0121922 http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0121922

[4] Sanderson, W. C. and Scherbov, S. (2013), The Characteristics Approach to the Measurement of Population Aging. Population and Development Review, 39: 673–685. doi: 10.1111/j.1728-4457.2013.00633.x

[5] Sanderson, W., and S. Scherbov. (2014) Measuring the Speed of Aging Across Population Subgroups. PLOS ONE. http://dx.plos.org/10.1371/journal.pone.0096289

[6 ] International Conference on New Measures of Age and Ageing , Vienna, 3 - 5 December 2014. http://www.oeaw.ac.at/vid/newage/


Weiterführende Links

"New Measures of Age and Aging" Interview mit Sergej Scherbov Video 8:40 min. https://www.youtube.com/watch?v=aYT-whbRSwQ

Unterschiedliche Aspekte des Themas „Altern“: damit haben sich bereits mehrere Autoren im ScienceBlog auseinandergesetzt: Christian Ehalt, Ilse-Kryspin Exner, Gottfried Schatz, Georg Wick.

inge Fri, 07.08.2015 - 06:08

Feuer und Rauch: mit Satellitenaugen beobachtet

Feuer und Rauch: mit Satellitenaugen beobachtet

Fr, 31.07.2015 - 10:15 — Johannes Kaiser & Angelika Heil Johannes KaiserAngelika HeilIcon GeowissenschaftenDas Abbrennen von Biomasse verändert die Landoberfläche und führt zu massiven Emissionen von Rauchgasen und -partikeln. Johannes Kaiser und Angelika Heil - Wissenschaftler des Max-Planck-Instituts für Chemie in Mainz – zeigen hier Verfahren auf, die sie zur weltweiten Abschätzung von Emissionen aus Wald-, Savannen- und anderen Vegetationsfeuern aus Satellitenbeobachtungen entwickeln. Mithilfe dieser Verfahren berechnet der EU-finanzierte, frei verfügbare Copernicus Atmosphärendienst täglich diese Emissionen und ihren Einfluss auf die globale Atmosphärenzusammensetzung und die europäische Luftqualität. Zudem werden die Berechnungen zur Überwachung des globalen Klimawandels eingesetzt.*

Feuer im Erdsystem

Savannen-, Wald- und andere Vegetationsfeuer sind ein weltweites Phänomen. Sie sind integraler Bestandteil verschiedenster Ökosysteme, in denen sich die Feuer in Abständen von einem Jahr bis zu einigen Jahrhunderten wiederholen. Vegetationsbrände treten natürlich auf, und können mit versteinerten Holzkohlefunden bis zum Devon zurückverfolgt werden. Heutzutage überwiegt die absichtliche oder versehentliche Entzündung durch Menschen, die andererseits auch die Feuerausbreitung bekämpfen. Abbildung 1 zeigt links die globale Feuerverteilung während eines Jahreszyklus.

Abbildung 1: Feinstaubemissionen aus Vegetationsbränden im Jahr 2005 [7]. Die Farbskala bezieht sich auf die Emissionen in Tonnen pro Jahr pro 50 km x 50 km (links). Prozentualer Beitrag von Vegetationsbränden an den gesamten Feinstaubemissionen im Jahr 2005 (rechts). Die Gesamtemissionen beinhalten anthropogene Emissionsquellen plus Vegetationsbrände. © Max-Planck-Institut für Chemie

Feuer verursachen einen jährlichen Kohlenstofffluss von ca. zwei Gigatonnen in die Atmosphäre. Das entspricht etwa 20 Prozent des Flusses aus fossilen Brennstoffen und ist somit ein wichtiger Teil des globalen Kohlenstoffkreislaufs. Zwar wird der Großteil des freigesetzten Kohlendioxids durch erneuten Pflanzenwuchs wieder aufgenommen, aber die Abholzung und Verbrennung tropischer Wälder sowie Torf- und Tundrafeuer sind irreversibel.

Toxische Rauchgase und -partikel beinträchtigen die lokale und regionale Luftqualität. Beispielsweise haben Feuer in Sumatra im Juni 2013 in Singapur zu einer zwölffachen Überschreitung des Feinstaubrichtwertes der Weltgesundheitsorganisation geführt. Die Feuer wurden im Zusammenhang mit der Anlage von Palmplantagen gelegt. Feuer sind eine signifikante Quelle für viele atmosphärische Spurenstoffe. Global tragen sie rund ein Drittel zu den Emissionen von Kohlenmonoxid und Feinstaub bei. Der relative Anteil an den gesamten Feinstaubemissionen ist in Abbildung 1 rechts illustriert.

Rauchpartikel beeinflussen auch das Klima. Sie enthalten Ruß und organisches Material in unterschiedlichen Anteilen. Die beiden Anteile haben entgegengesetzte Wirkungen auf die Energiebilanz der Erde: Dunkler Rauch mit hohem Rußanteil bewirkt eine Erwärmung. Heller Rauch mit niedrigem Rußanteil bewirkt eine Abkühlung. Im globalen Mittel überwiegt der Kühlungseffekt. Auf Eis und Schnee abgelagerte Rußpartikel erhöhen die Absorption von Sonnenlicht und tragen so zu der vermehrten Eisschmelze in der Arktis bei. Die Rauchpartikel fungieren auch als Wolkenkondensationskerne und haben entsprechend komplexe Wirkungen auf Wolken und Niederschlag.

Frühe Feuerquantifizierung

Schon im 19. Jahrhundert berechnete Alexander von Danckelman [1] die Menge der in Afrika südlich des Äquators jährlich verbrannten Biomasse aus Abschätzungen der verbrannten Savannenfläche und der Biomassedichte (kg m-2). Seiler und Crutzen erweiterten den Ansatz 1980 auf die gesamte Erde und die Abschätzung von Spurengasemissionen [2]. Der Berechnungsansatz beruht auf der Multiplikation der verbrannten Fläche, der pro Flächeneinheit verbrannten Biomasse und der Emissionsfaktoren (pro Kilogramm verbrannter Biomasse freigesetzte Spurengase oder Rauchpartikel). Diese Berechnungsgrößen werden jeweils vom Vegetationstyp abhängig parametrisiert. Mangels besserer Alternativen mussten die Berechnungsgrößen mittels Extrapolation von demographischen Statistiken und Landnutzungsdaten abgeschätzt werden.

In den darauffolgenden zwei Dekaden konnte ein Teil der Unsicherheiten durch weiterführende Arbeiten deutlich reduziert werden. So wurden bei gezielt gesetzten Vegetationsbränden in den Tropen und in borealen Gebieten Feldmessungen am Boden und von Flugzeugen aus durchgeführt. Daraus konnten wesentliche Erkenntnisse über das Brand- und Emissionsverhalten gewonnen werden. Abbildung 2 zeigt eines der größten Experimente dieser Art. Parallel wurde der Einfluss der Rauchwolken auf die atmosphärische Umwelt und das Klima erstmalig beleuchtet [3].

Abbildung 2: Höhepunkt des Feuersturms des interdisziplinären „Bor Forest Island Fire Experiment“ im Juli 1993 in der Region Krasnoyarsk, Russische Föderation, durchgeführt und von der Arbeitsgruppe Feuerökologie / Global Fire Monitoring Center des Max-Planck-Instituts für Chemie, Abteilung Biogeochemie. © Max-Planck-Institut für Chemie / Global Fire Monitoring Center

Globale Satellitenbeobachtungen von Feuern

Die Satellitenfernerkundung ermöglicht seit den 1980er Jahren zunehmend genauere Abschätzungen der globalen Verteilung von Brandflächen, einschließlich ihrer zeitlichen Trends und Variabilität. Seit 1999 gibt es mit dem MODIS-Instrument (MODerate-resolution Imaging Spectroradiometer) erstmals einen Satellitensensor mit speziellen Merkmalen für die Beobachtung von Vegetationsbränden [4]. Mit dem Start des zweiten MODIS-Instrumentes wird die gesamte Erde seit 2003 alle sechs Stunden beobachtet, was aufgrund der kurzen Lebensdauer der meisten Feuer wichtig ist.

Die Vegetationsbrände werden auf zwei verschiedene Arten beobachtet:

Die verbrannte Fläche (burnt area) wird nach dem Brand als plötzliche Verringerung der Bodenreflektion registriert. Mit diesen Beobachtungen und dem Ansatz von Seiler und Crutzen werden nun globale Emissionsinventare berechnet [5].

Bereits während des Feuers wird erhöhte Wärmestrahlung registriert (active fire). Aus der Anzahl der detektierten Feuer lässt sich die verbrannte Fläche abschätzen, allerdings mit relativ großer Unsicherheit. Eine quantitative Auswertung ergibt auch die Leistung der Wärmestrahlung, die sog. fire radiative power (FRP). In Laborstudien hat FRP eine Proportionalität zur Verbrennungsrate der Biomasse gezeigt [6]. Wissenschaftler des Max-Planck-Instituts für Chemie (MPIC) haben in der Vergangenheit gezeigt, wie die Feueremissionen auch aus den satellitengestützten FRP-Beobachtungen berechnet werden können [7]: Zunächst werden durch Wolken bedingte Beobachtungslücken überbrückt, um kontinuierliche globale FRP-Abschätzungen zu erhalten. Daraus wird die Menge der verbrannten Biomasse mit einem zu Seiler und Crutzen alternativen, feuertypspezifischen Ansatz berechnet. Schließlich werden die Emissionen der verschiedenen Rauchbestandteile mit Emissionsfaktoren berechnet. Das ermöglicht einerseits eine globale Bestimmung der Feueremissionen in Echtzeit und reduziert andererseits Unsicherheiten, die aus geringer Kenntnis der zum Zeitpunkt des Feuers vorhandenen Biomasse und des davon tatsächlich verbrannten Prozentsatzes entspringen.

Feuerüberwachung im Copernicus Atmosphärendienst

Die Europäische Union finanziert den operationellen Copernicus Atmosphärendienst als Teil des weltweit größten zivilen Erdbeobachtungsprogramms Copernicus. In den Vorläuferprojekten GEMS und MACC-I/-II/-III haben die Forscher des MPIC die neuen, FRP-basierten Emissionsberechnungen als Global Fire Assimilation System (GFAS) entwickelt und implementiert. Derzeit leitet das MPIC die Weiterentwicklung von GFAS in MACC-III.

Der Atmosphärendienst und seine Vorläuferprojekte produzieren mit GFAS seit 2008 tagesaktuelle Emissionsdaten für 44 verschiedene Spurengase und Aerosolkomponenten. Diese sind ein essenzieller Input für die globalen Analysen und Fünf-Tages-Vorhersagen der chemischen Atmosphärenzusammensetzung und der europäischen Luftqualität, die der Atmosphärendienst täglich produziert.

Abbildung 3 zeigt ein Beispiel von interkontinentalem Transport von Rauchpartikeln aus großen Feuern in Sibirien. Dabei stammen die Feuerdaten aus GFAS, während die Aerosoldaten mit dem globalen MACC-Atmosphärenmodell, das auch Information von GFAS und satellitengestützten Aerosolbeobachtungen berücksichtigt, berechnet wurden.

Abbildung 3: Transport von Rauch sibirischer Feuer über den Pazifik. Feuer FRP aus GFAS und Aerosol optische Dicke (AOD) des Rauchaerosols für drei Tage im Sommer 2012. Video auf http://atmosphere.copernicus.eu/news/seattle_haze/seattle_haze_details © European Centre for Medium-range Weather Forecasts Feuer ist eine sogenannte Essential Climate Variable, die durch burnt area, active fire und FRP charakterisiert wird. Deswegen tragen Forscher des MPIC seit mehreren Jahren GFAS-basierte Analysen zum jährlichen State of the Climate Report der US-amerikanischen Wetterbehörde NOAA bei [8].

Abbildung 4 zeigt sowohl die in der Einleitung erwähnten Feuer auf Sumatra als auch, wie die damit vorhergesagte Rauchfahne über Singapur bläst. Beide Grafiken wurden routinemäßig noch während der Brände auf den MACC-Webseiten veröffentlicht. Alle Produkte des Atmosphärendienstes sind frei verfügbar.

Abbildung 4: GFAS-Repräsentation von Feuern auf Sumatra (links) und eine darauf basierende Rauchvorhersage in Einheiten von Aerosol optischer Dicke (AOD) im Juni 2013. © European Centre for Medium-range Weather Forecasts

Abbildung 5 zeigt die GFAS Zeitreihe der globalen monatlichen Feueraktivität im Vergleich zur burnt area-basierten GFED Zeitreihe. Die beiden Datensätze haben unterschiedliche Stärken und Schwächen. Beispielsweise repräsentiert FRP die relativ schwachen Feuer auf abgeernteten Feldern in Osteuropa, Nordamerika und Teilen Asiens besser als burnt area. Dies führt zu den weniger ausgeprägten globalen Minima. Die regionale Variabilität ist deutlich ausgeprägter als die globale. So wurde 2014 eine zweifach überdurchschnittliche Feueraktivität in Nordamerika und im tropischen Asien durch circa 15 Prozent weniger Feuer in Afrika und Südamerika ausgeglichen.

Abbildung 5: Monatlich global verbrannte Biomasse entsprechend der Inventare GFED [5] und GFAS [7]. © Max-Planck-Institut für Chemie

Ausblick

Trotz weltweit aktiver Forschung bestehen noch große Unsicherheiten bei der Abschätzung von Emissionen aus Vegetationsfeuern. Dies drückt sich z. B. in der Streuung der mit verschiedenen Methoden berechneten regionalen Emissionen um bis zu einer Größenordnung aus [9]. Die Analyse von Feuerbeobachtungen weiterer, insbesondere geostationärer, Satelliten wird die Unsicherheit in Zukunft verringern.

Für Feinstaub scheinen die aus Satellitenbeobachtungen der Rauchwolken indirekt bestimmten Flüsse (top-down) systematisch höher zu liegen als die aus Feuerbeobachtungen (bottom-up) bestimmten [7]. Diese Diskrepanz hängt unter anderem mit den beobachteten schnellen chemischen Prozessen in der Rauchfahne zusammen [10]. Diese Prozesse können nur in Modellen mit einer höheren Auflösung adäquat dargestellt werden, als sie derzeitige globale Modelle (40 Kilometer und mehr) verwenden.

Die umfangreiche Validierung der operationell vorhergesagten Rauchverbreitung innerhalb des Copernicus Atmosphärendienstes lässt umfassende Rückschlüsse auf die Genauigkeit der verwendeten Feueremissionen zu. Das MPIC wird diese mit seiner etablierten Expertise in globaler Atmosphärenchemie, Multiphasenchemie, Aerosol- und Wolkenphysik sowie Satellitenbeobachtungen kombinieren, um die Feueremissionen genauer zu bestimmen. Darüber hinaus hat das MPIC den Vorsitz der von der Weltorganisation für Meteorologie mit ins Leben gerufenen Forschungsinitiative Interdisciplinary Biomass Burning Initiative, IBBI).


Literaturhinweise

  1. von Danckelman, A. Die Bewölkungsverhältnisse des südwestlichen Afrikas. Meteorologische Zeitschrift 1, 301-311 (1884)
  2. Seiler, W.; Crutzen, P. J. Estimates of gross and net fluxes of carbon between the biosphere and the atmosphere from biomass burning. Climatic Change 2, 207-247 (1980)
  3. Crutzen, P. J.; Andreae, M. O. Biomass burning in the tropics: Impact on atmospheric chemistry and biogeochemical cycles. Science 250, 1669-1678 (1990)
  4. Justice, C. O.; Giglio, L.; Korontzi, S.; Owens, J.; Morisette, J. T.; Roy, D.; Descloitres, J.; Alleaume, S.; Petitcolin, F.; Kaufman, Y. The MODIS fire products. Remote Sensing of Environment 83, 244-262 (2002)
  5. van der Werf, G. R.; Randerson, J. T.; Giglio, L.; Collatz, G. J.; Mu, M.; Kasibhatla, P. S.; Morton, D. C.; DeFries, R. S.; Jin, Y.; van Leeuwen, T. T. Global fire emissions and the contribution of deforestation, savanna, forest, agricultural, and peat fires (1997–2009). Atmospheric Chemistry and Physics 10, 11707-11735 (2010)
  6. Wooster, M. J.; Roberts, G.; Perry, G. L. W.; Kaufman, Y. J. Retrieval of biomass combustion rates and totals from fire radiative power observations: FRP derivation and calibration relationships between biomass consumption and fire radiative energy release. Journal of Geophysical Research 110, D24311 (2005)
  7. Kaiser, J. W.; Heil, A.; Andreae, M. O.; Benedetti, A.; Chubarova, N.; Jones, L.; Morcrette, J.-J.; Razinger, M.; Schultz, M. G.; Suttie, M.; van der Werf, G. R. Biomass burning emissions estimated with a global fire assimilation system based on observed fire radiative power. Biogeosciences 9, 527-554 (2012)
  8. Kaiser, J. W.; van der Werf, G. R. [Global climate] Biomass burning [in ”State of the Climate in 2013”]. Bulletin of the American Meteorological Society 95, S47-S49 (2014)
  9. Zhang, F.; Wang, J.; Ichoku, C.; Hyer, E. J.; Yang, Z.; Ge, C.; Su, S.; Zhang, X.; Kondragunta, S.; Kaiser, J. W.; Wiedinmyer, C.; da Silva, A. Sensitivity of mesoscale modeling of smoke direct radiative effect to the emission inventory: a case study in northern sub-Saharan African region. Environmental Research Letters 9, 075002 (2014)
  10. Vakkari, V.; Kerminen, V.-M.; Beukes, J. P.; Tiitta, P.; van Zyl, P. G.; Josipovic, M.; Venter, A. D.; Jaars, K.; Worsnop, D. R.; Kulmala, M.; Laakso, L. Rapid changes in biomass burning aerosols by atmospheric oxidation. Geophysical Research Letters 41, 2644-2651 (2014)

*Dieser Artikel ist im Forschungsmagazin 2015 der Max-Planck Gesellschaft erschienen http://www.mpg.de/9177479/mpch_JB_2015?c=9262520 Er wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt und erscheint hier geringfügig für den Blog adaptiert, vom Autor J.W.K. wurde eine zusätzliche Abbildung (Abb. 4) plus Beitext eingefügt. Alle Literaturzitate außer [2] und [3] sind frei aufrufbar.


Weiterführende Links

Max-Planck Institut für Chemie, Abteilung Atmosphärenchemie

Copernicus Atmosphere Monitoring Service

Vincent Henri Peuch, head of the Copernicus Atmosphere Monitoring Service, operated by the European Centre for Medium-Range Weather Forecasts(ECMWF). Video 2:30 min.

Jean Noel Thepaut, head of the Copernicus Climate Change Service, operated by the European Centre for Medium-Range Weather Forecasts (ECMWF). Video 2:00 min.

FIR Global Fire Monitoring

European Centre for Medium-Range Weather Forecasts (ECMWF) (PDF-Download)

inge Fri, 31.07.2015 - 10:15

Die Evolution des menschlichen Gehirns

Die Evolution des menschlichen Gehirns

Fr, 24.07.2015 - 13:53 — Philipp Gunz Philipp GunzIcon Gehirn

Die Evolution der menschlichen Linie ist untrennbar mit der Evolution des Gehirns verknüpft. In einem Projekt am Max-Planck-Instituts für evolutionäre Anthropologie (Leipzig) vergleicht Philipp Gunz die Schädelknochen moderner Menschen mit denen ihrer engsten lebenden und fossilen Verwandten. Ziel ist, Erkenntnisse über die evolutionären Veränderungen der Gehirnentwicklung zu gewinnen.*

Abbildung 1. Schematisierte Darstellung der evolutionären Veränderung des Gehirnvolumens im Laufe der letzten sechs Millionen Jahre. Die Gehirnvolumina unserer fossilen Vorfahren waren mit denen heute lebender Menschenaffen vergleichbar. Vor allem in den letzten zwei Millionen Jahren kam es dann zu einer dramatischen Volumenzunahme. Der aufrechte Gang entwickelte sich allerdings bereits am Beginn unserer evolutionären Linie. © Max-Planck-Institut für evolutionäre Anthropologie

Das Gehirnvolumen heute lebender Menschen ist etwa dreimal so groß wie das von Schimpansen. Die Gehirnvolumina unserer fossilen Vorfahren, wie zum Beispiel der Art Australopithecus afarensis (bekannt durch ihre wohl berühmteste Vertreterin „Lucy“), waren mit denen heute lebender Schimpansen vergleichbar (Abbildung 1). Vor allem in den letzten zwei Millionen Jahren kam es zu einer dramatischen Größenzunahme des menschlichen Gehirns. Diskussionen über die kognitiven Fähigkeiten unserer fossilen Vorfahren oder Verwandten drehen sich daher meist um archäologische Funde und Schädelvolumen.

Das Volumen allein kann aber die herausragenden Fähigkeiten des menschlichen Gehirns nicht hinreichend erklären. Für die kognitiven Fähigkeiten ist die innere Struktur des Gehirns wichtiger als dessen Größe. Diese Vernetzung des Gehirns wird in den ersten Lebensjahren angelegt. Jüngste Forschungsergebnisse betonen daher die Bedeutung des Wachstumsmusters im Laufe der Kindesentwicklung. Wie und wann das Gehirn wächst, trägt entscheidend zur Entwicklung kognitiver Fähigkeiten bei.

Der erste Schritt und seine Folgen

Um das menschliche Gehirn besser zu verstehen, muss man sechs Millionen Jahre zurückblicken, zu dem Zeitpunkt, als die Schimpansenlinie sich von der Linie der menschlichen Vorfahren, der sogenannten Homininen1, trennte. Die ersten Stationen dieser Zeitreise nach Afrika haben aber noch nichts mit dem Gehirn zu tun, sondern mit Beinen und Hüfte. Vor etwa sechs Millionen Jahren entwickelte sich innerhalb der Linie der Homininen eine für Primaten ungewöhnliche Art der Fortbewegung: der aufrechte Gang. Da es nur wenige fossile Fragmente aus dieser Zeit gibt, sind viele Details über diesen entscheidenden Schritt noch unklar und umstritten. Sicher ist, dass die Vertreter der Gattung Australopithecus vor 3,6 Millionen Jahren aufrecht gehen konnten. Dieser Zeitpunkt gilt deshalb als gesichert, weil in den 1970er-Jahren die versteinerten Fußspuren von aufrecht gehenden Homininen in Tansania gefunden wurden. Diese Fußabdrücke haben Individuen der Art Australopithecus afarensis in einer Schicht feuchter Vulkanasche hinterlassen, die sich auf exakt 3,6 Millionen Jahre datieren lässt. Die Evolution des aufrechten Gangs ging also der dramatischen evolutionären Expansion des Gehirnvolumens um bis zu vier Millionen Jahre voraus. Diese Chronologie der Ereignisse ist wichtig, weil die evolutionären Anpassungen an den aufrechten Gang das Skelett dramatisch verändert haben. Unter anderem wurde das Becken schmaler und dadurch der Geburtskanal des knöchernen Beckens kleiner. Im Laufe der Evolution der aufrecht gehenden Homininen musste also bei der Geburt ein Baby mit immer größerem Kopf durch den bereits verengten knöchernen Geburtskanal. Die Geburt wurde zu einem immer größeren Risiko für Mutter und Kind und damit auch zu einem evolutionären Risiko für die gesamte Art. Die evolutionäre Lösung für dieses Dilemma war ein Strategiewechsel mit dramatischen Folgen.

Die Lösung eines evolutionären Dilemmas

Nicht nur bei den Vögeln, sondern im gesamten Tierreich gibt es im Grunde zwei Strategien: Nestflüchter und Nesthocker. Nesthocker sind für einen unterschiedlich langen Zeitraum von der Zuwendung der Eltern abhängig und können sich weder alleine fortbewegen noch ernähren. Primaten sind typischerweise Nestflüchter und bereits nach kurzer Zeit sehr selbstständig.

Menschenkinder hingegen sind Nesthocker und weichen damit von der Strategie der Primaten ab. Bereits bei der Geburt hat das Gehirn eines menschlichen Babys (Abbildung 2A) mit circa 400 ml etwa die Größe eines erwachsenen Schimpansengehirns. Die Speziesunterschiede sind also bereits pränatal eindeutig (Abbildung 3A): Schon in der 22. Schwangerschaftswoche nimmt die Wachstumsgeschwindigkeit des Gehirns beim Schimpansen ab. Bei Menschen verdreifacht sich das Volumen des Gehirns in den ersten Lebensjahren (Abbildung 3B). Auch bei Schimpansen und anderen Menschenaffen wächst das Gehirn noch nach der Geburt, aber bei Menschen findet ein größerer Anteil des Gehirnwachstums und der Gehirnentwicklung nach der Geburt statt. Im Vergleich zu Menschenaffen nimmt das Gehirn des Menschen im Laufe der Kindesentwicklung also deutlich schneller an Volumen zu und wächst über einen etwas längeren Zeitraum. Relativ gesehen bedeutet das aber eine Verlangsamung der Gehirnentwicklung bei Menschen. Menschliche Gehirne zeichnen sich durch besonders hohe Plastizität aus und sie reifen langsamer heran als etwa die der Schimpansen.

Abbildung 2: Die Computertomografie macht es möglich, die Gehirnschädel bei fossilen und lebenden Primaten zu vergleichen. Bereits bei der Geburt unterscheiden sich die Schädel von Homo sapiens (A) und Schimpansen (B) deutlich. Ein virtueller Abguss („Endocast“, rot) des inneren Gehirnschädels (C) gibt Aufschluss über Gehirnvolumen und Gehirngestalt. © Max-Planck-Institut für evolutionäre Anthropologie

Bei Menschen sind zum Zeitpunkt der Geburt zwar alle Nervenzellen bereits angelegt, aber noch kaum miteinander verknüpft. Die ersten Lebensjahre sind entscheidend für die Vernetzung des Gehirns. Klinische Studien haben gezeigt, dass in der frühen Kindheit selbst geringfügige Abweichungen im Muster der Gehirnentwicklung die Struktur des Gehirns und damit Kognition und Verhalten beeinflussen. Dieses dynamische Netzwerk ist das Substrat für Kognition und entwickelt sich besonders beim Menschen unter dem Eindruck der Stimuli außerhalb des Mutterleibes. Die Verbindungen zwischen unterschiedlichen Gehirnregionen, die in den ersten Lebensjahren geknüpft werden, sind bei modernen Menschen wichtig für soziale, emotionale und kommunikative Fähigkeiten. Abbildung 3: Vergleich der Wachstumskurven des Gehirns bei Menschen und Schimpansen vor (A) und nach der Geburt (B). Bereits in der 22. Schwangerschaftswoche nimmt die Wachstumsgeschwindigkeit des Gehirns beim Schimpansen ab. Bei Menschen verdreifacht sich das Volumen des Gehirns in den ersten Lebensjahren. Daten basierend auf. © Max-Planck-Institut für evolutionäre Anthropologie

Versteinerte Gehirnabdrücke

Da Gehirne nicht versteinern, kann man bei Fossilien nur den Innenabdruck des Gehirns und seiner umgebenden Strukturen im Schädel untersuchen. Zuerst werden mittels Computertomografie (CT) hochauflösende dreidimensionale Röntgenbilder der Schädel aufgenommen. Dann wird am Computer ein virtueller Abdruck des Gehirnschädels erstellt (ein sogenannter Endocast). Diese Abdrücke der inneren Schädelkapsel geben Aufschluss über Größe und Gestalt des Gehirns (Abbildung 2C). Mit modernsten Mess- und Analysemethoden ist es möglich, die Gestaltveränderungen des Endocasts im Laufe der Kindesentwicklung zwischen lebenden und ausgestorbenen Arten zu vergleichen. Das erlaubt zusätzliche Einblicke in die Evolution des menschlichen Gehirns.

Gehirnentwicklung bei Neandertalern

Ob es zwischen Neandertalern und modernen Menschen Unterschiede in geistigen und sozialen Fähigkeiten gab, ist eines der großen Streitthemen in der Anthropologie und Archäologie. Da Neandertaler und moderne Menschen ähnlich große Gehirne hatten, gehen einige Forscher davon aus, dass auch die kognitiven Fähigkeiten dieser Spezies ähnlich gewesen sein mussten. Manche archäologischen Befunde deuten allerdings auf Unterschiede im Verhalten zwischen modernen Menschen und Neandertalern hin. So konnten Wissenschaftler nachweisen, dass sich das Muster der endocranialen Gestaltveränderung direkt nach der Geburt zwischen Neandertalern und modernen Menschen unterscheidet. Das wichtigste Indiz dafür waren die fossilen Fragmente der Schädel von zwei Neandertalern, die bei der Geburt oder kurz danach verstorben waren. Bereits 1914 hatte ein Team französischer Archäologen in der Dordogne das Skelett eines Neandertalerbabys entdeckt. Die versteinerten Kinderknochen wurden aber kaum beachtet und schließlich vergessen. Erst neunzig Jahre später wurden die verschollenen Knochen im Lager des Museums von Les Eyzies-de-Tayac-Sireuil in Frankreich wiederentdeckt. Die zerbrechlichen Fragmente wurden daraufhin mit einem hochauflösenden µCT-Gerät gescannt und dann an Computern im Max-Planck-Institut für evolutionäre Anthropologie in Leipzig rekonstruiert. Das gleiche Verfahren wendeten die Forscher an den Fragmenten des Neandertalerbabys von Mezmaiskaya im Kaukasus (Abbildung 4) an. Zur Zeit der Geburt ist das Gesicht eines Neandertalers bereits größer als das eines modernen Menschenbabys. Die gut dokumentierten Unterschiede in der Gehirngestalt zwischen erwachsenen modernen Menschen und Neandertalern entwickeln sich aber erst nach der Geburt. Sowohl Neandertaler als auch Homo sapiens haben bei der Geburt längliche Schädel (Abbildung 2A) mit etwa gleich großen Gehirnen. Erst im Laufe des ersten Lebensjahres entwickelt sich bei modernen Menschen die charakteristisch runde Schädelform. Kurz nach der Geburt sind die Schädelknochen sehr dünn und die knöchernen Nähte sind noch weit offen (deutlich zu sehen zum Beispiel an der Fontanelle). Da sich die knöcherne Gehirnkapsel an das expandierende Gehirn anpasst, bedeutet das, dass die Gehirne von modernen Menschen und Neandertalern von der Geburt bis etwa zum Durchbrechen der ersten Milchzähne unterschiedlich wachsen. Neandertaler und moderne Menschen erreichen also ähnliche Gehirnvolumina im Erwachsenenalter entlang unterschiedlicher Entwicklungsmuster. Abbildung 4. Virtuelle Rekonstruktion eines Neandertalerbabys. Die versteinerten Knochenfragmente wurden mittels Computertomografie digitalisiert und dann in monatelanger Arbeit am Computer zusammengefügt. Sowohl Neandertaler als auch Homo sapiens haben bei der Geburt längliche Schädel mit etwa gleich großen Gehirnen. Im Laufe des ersten Lebensjahres entwickelt sich bei modernen Menschen die charakteristisch runde Schädelform. Neandertaler und moderne Menschen erreichen daher ähnliche Gehirnvolumina im Erwachsenenalter entlang unterschiedlicher Entwicklungsmuster.© Max-Planck-Institut für evolutionäre Anthropologie

Moderne Menschen unterscheiden sich von Neandertalern in einer frühen Phase der Gehirnentwicklung. Sobald die Milchzähne durchgebrochen sind, unterscheiden sich die Wachstumsmuster dieser beiden Menschengruppen allerdings nicht mehr. Diese Entwicklungsunterschiede direkt nach der Geburt könnten Auswirkungen auf die neuronale und synaptische Organisation des Gehirns haben. Erst kürzlich ergaben genetische Studien, dass sich der moderne Mensch vom Neandertaler durch einige Gene unterscheidet, die wichtig für die Gehirnentwicklung sind. Die Ergebnisse der Gestaltanalyse könnten also dazu beitragen, die Funktion jener Gene zu verstehen, die uns vom Neandertaler abheben.


*Der im Forschungsmagazin der Max-Planck Gesellschaft 2015 erschienene Artikel http://www.mpg.de/8953555/MPI_EVAN_JB_2015?c=9262520 wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier geringfügig für den Blog adaptiert und ohne (die im link angeführten) Literaturzitate und Danksagung. 1: Hominine: Unterfamilie der Menschenaffen , inkludiert Gorillas, Schimpansen, Menschen einschließlich aller Vorfahren bis zu deren Trennung von der Linie der Orang-Utans


Weiterführende Links

Abteilung für Human Evolution im Max-Planck-Institut für evolutionäre Anthropologie (MPI EVA)http://www.eva.mpg.de/evolution/index_german.htm

Evolution des Gehirns
http://www.geo.de/GEO/natur/tierwelt/das-gehirn-evolution-des-gehirns-57...

Komplexität vor Größe: Altweltaffe hatte ein winziges aber komplexes Gehirn
http://www.mpg.de/9310032/victoriapithecus-affe-gehirn

Fossiler Schädel schließt die Lücke
http://www.archaeologie-online.de/mediathek/videos/fossiler-schaedel-sch...

Great Transitions: The Origin of Humans — HHMI BioInteractive Video
(veröffentlicht Dezember 2014, großartiges Video aus dem Howard Hughes Medical Institute, leicht verständliches Englisch) 19:44 min https://www.youtube.com/watch?v=Yjr0R0jgct4&feature=youtu.be


 

inge Fri, 24.07.2015 - 13:53

Unsere Haut – mehr als eine Hülle. Ein Überblick

Unsere Haut – mehr als eine Hülle. Ein Überblick

Fr, 17.07.2015 - 20:15 — Inge Schuster Inge SchusterIcon BiologieUnsere Haut ist nicht nur unser größtes Organ, sie ist auch ein ungemein komplexes Organ. Sie ist aus mehreren Schichten aufgebaut, die jeweils unterschiedlich strukturiert sind und eine Vielzahl verschiedenartiger Funktionen ausüben. Als Grenzschicht zur Umwelt ist die Haut eine Barriere, die vor schädigenden Einflüssen schützt, uns Sinneseindrücke von außen vermittelt und unser Erscheinungsbild prägt.

Abbildung 1. Unsere Haut ist mehr als seine bloße Hülle. (Bildausschnitt aus der Geburt der Venus, Botticelli)

In erster Linie ist die Haut eine Barriere, die unseren Organismus sehr effizient vor einer gefährlichen Umwelt schützt (Abbildung 1). Sie schützt vor mechanischen Schäden, vor Schäden durch UV-Strahlung, davor, dass möglicherweise toxische Fremdstoffe in den Körper aufgenommen werden, dass pathogene Keime eindringen können. Ebenso verhindert diese Barriere auch einen übermäßige Abgabe von Körperwasser und körpereigenen Substanzen nach außen.

Mit unterschiedlichen Sensoren ausgestattet nimmt die Haut Sinnesreize wahr, lässt uns Wärme und Kälte empfinden und reagiert auch darauf. Sie lässt uns ein Spektrum von Druckempfindungen spüren, die von sanftesten Berührungen bis hin zum Schmerz reichen.

Über alle ihre Funktionen hinaus prägt die Haut aber unser Erscheinungsbild und damit unser Selbstwertgefühl. Emotionen, die zu veränderter Hautdurchblutung führen, lassen uns erröten oder auch erblassen. Wir kommunizieren so Gefühle wie Scham, Wut, Furcht mit der Außenwelt. Wenn man sich „in seiner Haut wohlfühlt“, ist dies synonym mit Lebensqualität zu verstehen.

Was ist die Haut?

Über lange Jahrhunderte hinweg blieben die Haut und die Lehre von ihren Krankheiten, die Dermatologie, ein Stiefkind der Medizin. Erst im 19. Jahrhundert änderte sich die Situation. Unter anderem feierte damals die „Wiener Schule der Medizin“ einen Durchbruch, als Ferdinand von Hebra erstmals Hautkrankheiten auf Grund pathologisch veränderter Hautstrukturen klassifizieren konnte. Die Grundlage dafür waren verbesserte mikroskopische Methoden, welche den Aufbau der Haut im Detail erkennen ließen.

Dies war der Beginn einer Wissenschafts-basierten Dermatologie. Der von Hebra 1856 verfasste „Atlas der Hautkrankheiten“ und das 1878 entstandene „Lehrbuch der Hautkrankheiten“ (zusammen mit seinem Schwiegersohn, dem Dermatologen Moriz von Kaposi) waren für Generationen von Dermatologen richtungsweisend. Wie Kaposi damals seinen Studenten den Aufbau der Haut veranschaulichte, hat auch heute noch Gültigkeit: die grundlegenden Strukturen – Epidermis, Dermis und Subcutis – und die sogenannten Hautanhangsgebilde (Haare, Schweißdrüsen, Talgdrüsen,..) werden in modernen Lehrbüchern in sehr ähnlicher Weise dargestellt (Abbildung 2).

Abbildung 2. Moriz Kaposi: „Architektonischer Aufbau und innere Structur der Haut- aus nach der Natur gezeichneten mikroskopischen Präparaten schematisch zusammengestellt“ in „Pathologie und Therapie der Hautkrankheiten in Vorlesungen für praktische Ärzte und Studierende“ (5. Auflage (1899), Urban & Schwarzenberg, Wien).

Die Frage „Was ist die Haut?“ konnte nun mit der Aufzählung der hauptsächlichen Komponenten der Haut und deren pathologischen Veränderungen bei Hauterkrankungen beantwortet werden. Nicht aber damit, welche Funktionen die einzelnen Komponenten nun besitzen und welche Störungen es sind, die Hauterkrankungen verursachen. Effiziente Therapien gab es für die meisten dieser Krankheiten nicht (und gibt es auch heute noch nicht) - ob es sich nun beispielsweise um Psoriasis, atopische Dermatitis, Hauttumoren (von Aktinischer Keratose bis zum Melanom), bullöse Dermatosen (u.a. „Schmetterlingskinder“) handelt, um Allergien oder auch um Akne. Viele dieser Krankheiten verändern zudem das Erscheinungsbild - der Patient fühlt sich stigmatisiert, die Lebensqualität sinkt nicht nur durch die Krankheit selbst.

Erst in der zweiten Hälfte des 20. Jahrhundert erfolgte ein neuer, ungeheurer Aufschwung der Dermatologie. Das Aufkommen hochsensitiver analytischer und mikroskopischer Methoden, vor allem aber der Siegeszug der Molekularbiologie erlaubte nun die Frage nach der Funktion der Haut in Angriff zu nehmen. Mit neuen zellbiologischen Verfahren konnten die unterschiedlichen Zellen der Haut kultiviert werden, ihre Funktionen und Regulierung unter definierten Bedingungen untersucht werden. Diese neuen Möglichkeiten nutzten akademische Institutionen und ebenso die Pharma-Industrie. Mit dem Ziel Hautkrankheiten zu verstehen und gezielt behandeln zu können, schossen etwa um die 1980er Jahre weltweit dermatologische Abteilungen in die Höhe, in welchen auch massiv Grundlagenforschung betrieben wurde. Dieser weltweite Boom hat einen enormen Anstieg unseres Wissens über die Haut bewirkt. Allerdings konnte dieses Wissen über Ursachen und vielversprechende Angriffspunkte der meisten Hauterkrankungen noch nicht in adäquater Weise in wirksame Therapien umgesetzt werden. Die Ernüchterung darüber hat zum Schließen zahlreicher Institutionen geführt (darunter fiel auch das durchaus erfolgreiche Novartis Forschungsinstitut in Wien).

Zum funktionellen Aufbau der Haut

Insgesamt ist die Haut mit rund 16% des Körpergewichts und einer Oberfläche von 1,6 – 2,0 m² (bei Erwachsenen) unser größtes Organ, allerdings ein sehr dünnes Organ. Aus drei Schichten – Epidermis, Dermis und Subcutis aufgebaut, ist sie an vielen Körperstellen nur einige Millimeter dick.

Die Epidermis (Oberhaut) – die Barriere zur Außenwelt

besteht zum überwiegenden Teil aus einem Zelltyp, den sogenannten Keratinozyten. Diese sind in mehreren verschiedenartigen Lagen angeordnet und bilden zusammen eine sehr dünne Schichte von 0,1 Millimeter bis wenige Millimeter(an den Füßsohlen, s.u.) Dicke (Abbildung 3). Die Epidermis ist nicht von Blutgefäßen durchzogen und muss von der Dermis her mit Nährstoffen und Sauerstoff versorgt werden, die sich durch Diffusion über ihre gesamte Dicke ausbreiten.

An der Basalmembran, die die Grenze zur darunterliegenden Dermis bildet, ist eine Lage Keratinozyten, die sich – aus Stammzellen heraus – kontinuierlich und rasch teilen. Dadurch werden Zellen laufend in die nächsthöheren Schichten gedrängt, wandern nach aussen. Diese hören bereits im sogenannten Stratum spinosum auf sich zu teilen. Sie beginnen ein Programm der Veränderung (der terminalen Differenzierung), in welchem sie Lipid-Organellen – Lamellar Bodies - bilden und sezernieren, alle Zellstrukturen inklusive Zellkern verlieren/abbauen, sich mit Keratinen und einem Gemisch vernetzter unlöslicher Proteine füllen und schlussendlich mit der Bildung von Lagen toter, verhornter Zellen, dem Stratum corneum, enden. Die oberste Schicht dieses Stratum corneum wird laufend in Form von Schuppen abgeschiefert. Es dauert etwa 4 Wochen bis Zellen aus der Basalschicht an die Oberfläche gelangen und dort abgeschiefert werden; täglich sind es 10 - 14 g dieser Schuppen.

Abbildung 3. Querschnitt durch die Epidermis (links, Bild: Wikipedia). Das Stratum Corneum ist wie eine Ziegelmauer aufgebaut (rechts oben): die Ziegel – verhornte Keratinozyten – sind in einen „Mörtel“ von Lipiden eingebettet. So etwa sehen Keratinozyten in der Basalschicht aus (rechts, Keratinozyten aus Humanhaut in Zellkultur; Laborprotokoll, Inge Schuster).

  • Die Hornschicht ist je nach Körperstelle verschieden dick, resultiert aus 10 bis über 200 abgestorbenen Zellschichten (letzteres an den Fußsohlen)und stellt die eigentliche Barriere zur Außenwelt dar. Wie diese Barriere zustandekommt, hat der amerikanische Dermatologe Peter M.Elias in bahnbrechenden Untersuchungen gezeigt:

vereinfacht dargestellt sind die toten Zellen „wie Ziegel in einer Mauer“ in einen „Mörtel“ aus Lipiden – einer aus gleichen Anteilen von Fettsäuren, Cholesterin und Ceramiden bestehenden Mischung - eingebettet. Stoffe, die aus der Außenwelt in die Haut einzudringen versuchen, müssen entweder durch diesen Mörtel und/oder durch die völlig verhornten Zellleichen hindurch. Dies ist für alle Stoffe sehr schwierig – für wasserlösliche Stoffe, Peptide und Proteine fast unmöglich und auch für Lipid-lösliche kleine Verbindungen nur beschränkt möglich. Die Barriere verhindert ebenso, dass wir Körperwasser mit Salzen außer an den dafür vorgesehenen Öffnungen der Schweißdrüsen verlieren.

Die Epidermis hat eine weitere Reihe von Funktionen eingebaut:

  • Im Bereich der Basalzellen finden sich sogenannte Melanozyten (Abbildung 4). Das sind Zellen, die Melanin produzieren, dieses über dendritische Fortsätze an basale Keratinozyten weitergeben und diese damit sehr effizient vor UV-Strahlung schützen.

Abbildung 4. Oben: Zellen der Epidermis aus Humanhaut in Primärkultur. Zwischen den Keratinozyten finden sich zahlreiche Melanozyten. (rote Pfeile) Mit ihren Fortsätzen docken sie an Keratinozyten an und entleeren in dieseden Farbstoff Melanin. Unten: Fibroblasten aus Humanhaut in Zellkultur (Bilder: Laborprotokoll, Inge Schuster).

  • UV-Licht, das in die Keratinozyten dringt, generiert aus einer Vorstufe des Cholesterins das Vitamin D3, ein Prohormon, das von dort in Blutzirkulation des Körpers gelangt, zum aktiven Hormon Calcitriol umgewandelt wird und zahlreiche wichtige Vorgänge im Körper reguliert. Die Keratinozyten können Vitamin D3 aber auch selbst in Calcitriol umwandeln. Dieses hat offensichtlich auf Struktur und Funktion der Haut einen positiven Einfluss: es induziert unter anderem die lokale Synthese von hocheffizienten, körpereigenen antibiotischen Peptiden, reguliert den Prozess der Differentiation und Prozesse der Immunantwort in der Haut.
  • Im Bereich der bereits differenzierenden Zellen treten sogenannte Langerhans-Zellen auf. Dies sind dendritische Zellen, die nach Kontakt mit Antigenen aktiviert werden und eine fundamentale Rolle im Immunsystem der Haut (u.a. in der Entstehung von Allergien) spielen.

Die Dermis (Lederhaut)

ist die nächste Hautschicht. Es ist ein lockeres elastisches Bindegewebe in welchem Fibroblasten der dominierende Zelltyp sind (Abbildung 4). Zum Unterschied zur Epidermis ist die Dermis gut durchblutet (und versorgt auch die Epidermis) und von Lymphbahnen, und Nerven durchzogen (siehe auch Abbildung 2). Das Immunsystem ist hier mit vielen Zelltypen vertreten, welche die Abwehrfunktion der Haut aufzeigen: Lymphozyten, Makrophagen, Monozyten, Mastzellen, Plasmazellen . Der untere Teil der Dermis ist von festen Bindegewebsfasern aus Kollagen und Elastin durchzogen, die der Haut Spannung und Elastizität verleihen (Leider gehen diese positiven Effekte im Alter verloren – es entstehen Falten.)

Die Dermis trägt wesentlich zur Kommunikation mit der Außenwelt bei. Sie enthält eine Reihe von Sinnesorganen. Es sind Rezeptoren, die Druck wahrnehmen (100/cm²) und Schmerz (200/cm²), Kälte und Wärme (12 resp. 2/cm²).

Dazu kommen Schweißdrüsen (100/cm²), die durch Abgabe und Verdunstung von Kühlmittel - Schweiß - der Temperaturregulierung des Körpers dienen (ekkrine Drüsen) und andere Schweißdrüsen, die in den Haarschäften enden (apokrine Drüsen) und den individuellen Geruch – Duftschweiß (u.a. enthält er Metabolite des Testosteron) - des Menschen erzeugen.

Im unteren Teil der Dermis (manchmal auch in der Subcutis) sitzen auch die Haarfollikel. Haare selbst sind linear angeordnete, verhornte Hautzellen, deren Farbe durch Melanin erzeugt wird – die dafür verantwortlichen Melanozyten sitzen in den Haarfollikeln. In diesen Follikeln enden auch die Talgdrüsen (40/cm²). Der produzierte Talg wird über den Haarschaft an die Oberfläche geschoben und über diese verteilt.

Die Subcutis

besteht ebenfalls aus lockerem Bindegewebe und Fettgewebe, die von Blutgefäßen, Lymphgefäßen und Nerven durchzogen sind. Bindegewebsstränge aus der Dermis durchziehen die Subcutis und verbinden sie mit den darunterliegenden Geweben resp. der Knochenhaut. Zwischen diesen Strängen ist Fettgewebe eingelagert, das eine Polsterung bewirkt, als Kälte- und Wärmeisolator dient und ein massiver Energiespeicher des Organismus ist.

Unsere Mitbewohner - das Mikrobiom der Haut

Als Grenzschicht zur Umgebung ist die Haut an ihrer Oberfläche mit einer immensen Diversität von Mikroorganismen - Viren, Bakterien, Archaea, Pilzen – besiedelt, dazu kommen auch Milben. Schätzungen gehen von einer Milliarde Organismen/cm² Haut aus. Die Populationen sind stark variabel, finden unterschiedliche Habitate vor: trockene Haut, feuchte Haut, Stellen unterschiedlicher Temperatur. Sie besiedeln Schweißdrüsen und Talgdrüsen; entlang des Haarschafts dringen sie bis in die Haarpapille vor. Einfluss auf die Zusammensetzung der Populationen haben natürlich auch umweltspezifische Faktoren und wirtspezifische Lebensumstände, beispielsweise Hygieneprodukte oder Kleidung.

Das Mikrobiom der Haut ist zurzeit Gegenstand intensiver Forschung, insbesondere auch in Hinblick auf dessen mögliche Rolle bei Hauterkrankungen wie beispielsweise Psoriasis, Atopischer Dermatitis oder Hauttumoren. Mittels neuer genetischer Methoden („Metagenomik“) werden die Populationen auf gesunder Haut mit denen auf kranker Haut verglichen. Soweit Aussagen bereits möglich sind, dürften unsere Mitbewohner eine wesentlich wichtigere Rolle in der Erhaltung einer gesunden Haut und ebenso auch in der Pathogenese von Hauterkrankungen spielen, als ursprünglich angenommen wurde.

Ausblick

In den letzten Jahrzehnten ist das Wissen um Struktur und Funktionen unserer Haut enorm gewachsen. Aus einem lange weniger beachteten Fach ist ein ungemein spannendes Forschungsgebiet geworden, das noch viele überraschende Entdeckungen verspricht. Es bietet auf der einen Seite Grundlagenforschung pur, auf der anderen Seite ein breites Spektrum an Anwendungsmöglichkeiten. Wie bereits erwähnt, besteht bei den meisten Hauterkrankungen ein dringender Bedarf für effiziente und dabei nebenwirkungsarme Therapien, die zudem noch kostengünstig sein sollen. Die Anwendungen betreffen aber nicht nur Krankheiten, wichtig ist den meisten Menschen auch Ihr Erscheinungsbild. Einige der Fragen sind hier beispielsweise: welche Prozesse können wie reguliert werden, um den Alterungsprozess der Haut zu stoppen, um diesen vielleicht umzukehren? Wie kann man dem Haarausfall oder auch übermäßiger Behaarung wirkungsvoll begegnen?


Weiterführende Links

Atlas der Hautkrankheiten” von F. Hebra aus dem Jahre 1856 Ein von Th.L.Diepgen geleitetes Projekt, das diesen Atlas beschreibt und daraus großartige Bilder zeigt.

Zwei kurze deutsche Videos zum Aufbau der Haut:

FWU - Die Haut. Video 2:28 min.

 

Unsere Haut ist unser grösstes Organ Video 3:04 min.

Hier noch zwei Doppelreferate und ein Interview (bei etwas tiefergehendem Interesse geeignet. Aufnahmebedingt ist der Ton der Referate leider nicht in Studioqualität):

Hauterkrankungen - MINI MED Studium mit Dr. Klemens Rappersberger und Dr. Theresia Stockinger Video 1:00:18

Hauterkrankungen - MINI MED talk mit Univ.-Prof. Dr. Klemens Rappersberger. Video 17:34 min.

Unsere Haut - MINI MED Studium mit Univ.-Prof. Dr. K. Rappersberger und Dr. med. T. Stockinger . Schwerpunkt Nesselausschlag, Juckreiz, Trockenheit und die neuesten Therapiemöglichkeiten. Video 55:30 min.

inge Fri, 17.07.2015 - 20:16

Die Erde ist ein großes chemisches Laboratorium – wie Gustav Tschermak vor 150 Jahren den Kohlenstoffkreislauf beschrieb

Die Erde ist ein großes chemisches Laboratorium – wie Gustav Tschermak vor 150 Jahren den Kohlenstoffkreislauf beschrieb

Fr, 26.06.2015 - 11:26 — Redaktion

Icon GeowissenschaftenGustav Tschermak (1836 – 1927) war im Wien der Donaumonarchie Professor für Mineralogie und Petrographie, einer der prominentesten Vertreter und Begründer einer Wiener Schule dieser Fachgebiete. Tschermaks fachlicher Hintergrund war die Chemie, er wandte deren Methoden zur Untersuchung von Mineralien, Gesteinen und Meteoriten an und hatte damit bahnbrechende Erfolge. In seinen frühen wissenschaftlichen Arbeiten befasste sich Tschermak mit Fragestellungen der Chemie/Geochemie, wie beispielsweise mit dem Kreislauf des Kohlenstoffs.

Gustav Tschermak (Bild: Wikipedia)

Gustav Tschermak hat am 16. Jänner 1865 im Verein zur Verbreitung naturwissenschaftlicher Kenntnisse einen Vortrag über „Der Kreislauf des Kohlenstoffs“ gehalten, der im Folgenden in einer für den Blog adaptierten, leicht gekürzten Form mit einigen zusätzlichen Untertiteln widergegeben wird (die ursprüngliche Schreibweise wurde beibehalten). Der Originaltext kann in [1] nachgelesen werden.

Ein ausführlicher Lebenslauf von Gustav Tschermak findet sich unter [2]

Gustav Tschermak: Der Kreislauf des Kohlenstoffes

Die chemische Geologie, ein neuer Zweig der Naturwissenschaft, beruht auf der Erkenntnis: Die Erde ist ein großes chemisches Laboratorium, in welchem beständig chemische Processe von Statten gehen und so lange von Statten gehen werden, als sie ihre Bahn um die Sonne beschreiben wird.

Doch nicht ein planloses Wirken der chemischen Kräfte in und auf der Erde hat die Wissenschaft erkannt. Vielmehr erscheint uns unsere Erde im Lichte der bisherigen Erfahrung nunmehr wie ein grosser Organismus, in welchem unter beständigem Wechsel der Form, unter beständiger Zerstörung und Verjüngung, unter beständiger Umwandlung ein ewiges Kreisen der Stoffe wahrzunehmen ist nach bestimmten Gesetzen, die wir theils schon erkennen, theils nur ahnen, bis uns die Leuchte der chemischen Forschung die klaren Umrisse des heute Verborgenen erkennen lasst.

Die Erde ist ein großes chemisches Laboratorium.

Das Kreisen der Stoffe, der unaufhörliche Wechsel der Formen und des Ortes wird unserer Phantasie durch das Beispiel näher gerückt, welches uns das Wasser bietet. Wie das Wasser, so finden wir auch andere Stoffe in beständiger Bewegung. Dieselben kehren in kürzerer oder längerer Zeit, nach wenigen oder vielen Zwischenstadien wieder zu demselben Zustande zuweilen auch an denselben Ort zurück, um dann von Neuem die Wanderung zu beginnen. Ich wähle für heute den Kohlenstoff aus, um dessen Schicksale in raschem Ueberblicke zu verfolgen.

Der Kohlenstoff

ist ein einfacher Stoff der Chemie, ein Grundstoff, ein Element. Er bildet zugleich mit dem Wasserstoff, Sauerstoff, Stickstoff, die Grundlage aller Organismen, und ist deshalb so wie diese Stoffe in häufigen und raschen Wanderungen begriffen. Die Formen, in welchen er auftritt, sind unzählige. Wir sehen ihn isolirt, frei von anderen Begleitern als Holzkohle oder Russ, ebenso als Graphit, jener schwarze Körper, den wir zu Schreibstiften verwenden; wir bewundern ihn als Diamant wegen seines prachtvollen Farbenspieles. Alle diese Körper sind brennbar, sie verbinden sich bei der Verbrennung mit Sauerstoff und liefern einen gasförmigen Körper, die Kohlensäure (H2CO3 = CO2 + H2O, Anm. Red.). Diese Luftart, welche Jeder von den schäumenden Getränken her kennt, ist die gewöhnlichste der gasförmigen Verbindungen des Kohlenstoffes.

Weniger häufig sind jene Luftarten, die aus Kohlenstoff und Wasserstoff zusammengesetzt sind, wie das Grubengas oder Sumpfgas, welches als Zersetzungsproduct der Kohlen und Pflanzenstoffe, in Kohlenbergwerken, in Sümpfen und Morasten sich entwickelt.

In fester und flüssiger Form treffen wir Verbindungen des Kohlenstoffes mit Wasserstoff und Sauerstoff im Holze und allgemein in allen Pflanzenstoffen, ebenso in deren Zersetzungsresten im Pflanzenmoder, im Torf, in der Braunkohle und Steinkohle, im Erd- oder Steinöl (Petroleum).

Im Fleische und in den Thierstoffen überhaupt tritt als wesentlicher Bestandtheil der Stickstoff in merklicher Menge hinzu. In allen diesen Verbindungen ist das Schicksal jedes einzelnen Stoffes mit dem der übrigen innig verknüpft. Je mehr sich dabei der Kohlenstoff von seinen Begleitern trennt, desto mehr trotzt er allen Lockungen zur Veränderung, so dass er in dem Stadium der Steinkohle, des Graphites sehr träge erscheint, wenig geneigt, in den allgemeinen Kreislauf wieder einzutreten.

CO2 in der Atmosphäre

Als Anfangspunkt und als Endziel aller grösseren Wanderungen kann man die Atmosphäre betrachten.

Die Luft besteht aus einem Gemenge von Sauerstoffgas, Stickstoffgas, Wasserdampf und Kohlensäuregas.

Von dem letzteren enthält die Luft gleichwohl verhältnissmässig wenig; höchstens 6 Theile in 10.000; wenn man indessen bedenkt, welch grosse Luftmenge die Erde umgiebt, so erscheint die Menge des darin enthaltenen Kohlenstoffes nicht gering. Liebig (Deutscher Chemiker, 1803 – 18773; Anm. Red) schätzt dieselbe auf 2800 Billionen Pfunde. Mit diesem Capital arbeitet die Atmosphäre beständig fort, indem sie auf der Erde das Leben der Organismen erhält, und der geheimnissvollen Werkstätte unter der Erde das Material zu ihren chemischen Processen liefert.

Der kürzeste Kreislauf ist jener, den die Kohlensäure in Gesellschaft des atmosphärischen Wassers ausführt. Dasselbe absorbirt jenes Gas und bringt bei jedem Niederschlage ein gewisses Quantum zur Erde herab. Beim Verdampfen des Wassers und dem Wiederaufsteigen zur Atmosphäre kehrt auch die Kohlensäure wieder zurück. Ein Theil des Wassers aber und mit ihm die Kohlensäure dringen in den Boden ein, um dort die Wanderung fortzusetzen.

Kohlenstoff in der Biosphäre

Von grossem Interesse ist der Kreislauf des Kohlenstoffes in jener Bahn, welche durch das Pflanzen und Thierleben vorgezeichnet ist. Der Boden, in welchem die Pflanzen wurzeln, absorbirt Kohlensäure. Die Pflanzen nehmen diesen Nahrungsstoff durch ihre Wurzeln auf und verarbeiten ihn zu Pflanzensubstanz (die CO2-Fixation durch Photosynthese war noch unbekannt; Anm. Red).

Dabei geben sie indes auch namentlich zur Nachtzeit, Kohlensäure ab, welche wieder zur Atmosphäre zurückkehrt. Im übrigen wird Kohlenstoff in dem Pflanzenleibe aufgespeichert, worauf er einem dreifachen Schicksale entgegen geht. Die Pflanze unterliegt dem Verwesungs- oder Verbrennungsprozesse, ihre Substanz zerfällt in Wasser und Kohlensäure, die letztere kehrt wieder an den Anfangspunkt ihrer Wanderung zurück. Oder der Pflanzenkörper wird von Schlamm und Erdschichten bedeckt und so der raschen Verwesung entzogen. Der dritte Weg führt durch den Thierleib. Die Thiere nähren sich direct oder indirect von Pflanzenstoffen. Von dem so aufgenommenen Kohlenstoff wird ein Theil durch den Athmungsprocess und die Excremente wieder ausgeschieden, ein Theil in dem Thierleibe aufgespeichert. Nach dem Tode unterliegt derselbe so wie der Pflanzenleib entweder einer rascheren Zersetzung und es kehrt der Kohlenstoff in der Form der Kohlensäure zur Atmosphäre zurück oder die Natur conservirt den thierischen Moder in den Erdschichten für ihre ferneren Zwecke.

Beständig senken grosse Massen von Kohlenstoff sich in unsichtbarer Weise aus der Atmosphäre zu uns herab, um die Formen des Pflanzen- und Thierleibes anzunehmen und endlich nach Tagen, Monaten oder Jahren wieder emporzusteigen zu den luftigen Höhen, nachdem sie die verschiedensten Phasen durchgemacht haben.

Nicht immer geht die Wanderung rasch vonstatten, vielmehr bedarf es zuweilen geologischer Zeiträume, bis der Kreislauf vollendet ist. Nicht alle Pflanzen- und Thierstoffe vermodern und verwesen an der Oberfläche der Erde, gar viele werden durch den beständig fortdauernden Absatz der Sand-, Thon und Kalkschichten bedeckt und eingeschlossen, namentlich jene, die von Wasserbewohnern herrühren.

Daher findet man die Gesteinschichten durchwegs mit mehr oder weniger Moder durchdrungen. Die kohligen Theilchen ertheilen dem Stein häufig eine graue, auch schwarze Farbe. Manche Schichten sind vollständig erfüllt von Kohle, Erdharz, Erdöl oder Anthracit, Graphit; sämmtlich Stoffe, die von Pflanzen und Thieren herrühren und stellenweise finden sich selbständige Lager davon. Der auf solche Weise tief in der Erde begrabene Kohlenstoff beträgt gewiss viel mehr als die Menge des in der Atmosphäre enthaltenen.

Wenn man sich die vorhin erwähnte Kohlenstoffmenge; welche in der Atmosphäre als Kohlensäure schwebt, in fester Form auf der ganzen Erdoberfläche vertheilt denkt, so würde dies eine Schicht von kaum einer Linie Höhe geben. Die Quantität des in den Erdschichten vergrabenen Kohlenstoffes hingegen schätzt Bischof (Carl Gustav Bischof, 1792 – 1870, deutscher Pionier der Geochemie; Anm.Red.) so gross, dass derselbe bei gleicher Vertheilung eine 46 Fuss hohe Schicht bilden würde.

Kehrt nun von diesen Kohlenstoffmengen nichts mehr in den allgemeinen Kreislauf zurück?

Vielleicht blos durch das Verbrennen der Mineralkohlen und des Steinöls von Seite des Menschen? Die auf solche Weise wieder empor geschickte Kohlenstoffmenge beträgt verhältnissmässig nur wenig; viel bedeutender ist das Quantum, das auf anderem Wege aufsteigt. Der in den Gesteinschichten enthaltene Moder so wie die Ablagerungen von Kohle sind in einer beständigen Zersetzung begriffen. Die eine Art dieser Zersetzung liefert das früher erwähnte Grubengas und ähnliche luftförmige Verbindungen des Kohlenstoffes mit Wasserstoff, welche aus dem Boden emporsteigen als brennbare Luftarten ähnlich wie das allen wohlbekannte Leuchtgas.

So in Steinkohlenlagern, in Quellen und Bächen, im angeschwemmten Lande. Der grossartigste Process aber, durch welchen der Kohlenstoff, nachdem er lange in den Schichten der Erde geschlummert hat, zu neuer Thätigkeit geweckt wird, ist der Oxydationsprocess, welchen die unterirdischen Wässer vermitteln. Das aus der Atmosphäre niederfallende Wasser bringt nicht blos jene kleine Quantität Kohlensäure, sondern eine viel grössere Menge von Sauerstoff in Auflösung mit herab. Die in den Boden eindringenden Wässer führen daher dem in dem Gesteine eingeschlossenen Kohlenstoffe beständig grosse Mengen von Sauerstoff zu. In solcher Weise entwickelt sich in den vom Wasser durchsickerten Gesteinschichten ein reger chemischer Process, wodurch wieder Kohlensäure gebildet wird. Ein grosser Theil der letzteren wandert in den Wasseradern weiter, um vorzeitig oder zugleich mit dem Wasser zur Erdoberfläche zu dringen. Was wir beim kühlen Brunnen oder am sprudelnden Quell an perlender Kohlensäure im frischen Trunke geniessen, empfangen wir aus dem Schosse einer längst untergegangenen Schöpfung! So werden fortwährend ungeheure Mengen Kohlenstoffes aus den Tiefen der Erde zu Tage gefördert. Die Natur holt hier gleichsam nach, was sie bei der Verwesung der Pflanzen- und Thierkörper versäumte. Seine Neigung zum Sauerstoffe und seine Wanderungen in Gestalt der Kohlensäure haben in der unterirdischen Werkstätte die merkwürdigsten Folgen. Die Bildung der wertvollsten Erzlagerstätten, die Umbildung loser Schutt-, Sand und Thonablagerungen zu festem Gestein, die Umwandlung kalkiger Gesteine in kieslige und umgekehrt, die Auflösung der Schichten und die gleichzeitige Entstehung von unterirdischen Hohlräumen oder von Niveauveränderungen auf der Erdoberfläche — dies sind Erscheinungen, bei welchen ausser dem Wasser der Kohlenstoff als Moder oder Kohlensäure die Hauptrolle spielt.

Das Festland, von dem ich jetzt zumeist gesprochen, umfasst nicht den ganzen Kreislauf des Kohlenstoffes.

Das Reich des Wassers

ist viel grösser und viel mehr belebt als das Landreich. Dort circuliren fortwährend grosse Stoffmengen nach ähnlichen Gesetzen wie auf dem Lande. Als Träger der Kohlensäure fungirt das nasse Element das ebenso auch den zum Leben nöthigen Sauerstoff in Auflösung enthält. Die Aufnahme der Kohlensäure, die Wanderung der Pflanzenstoffe in den Thierkörper, die Athmung, die Verwesung sind wiederum die Hauptmomente des Kreislaufes. Während bei den Lebenserscheinungen kein auffallender Unterschied im Stoffwechsel gegenüber den Verhältnissen auf dem Festlande auftritt, so sind nach dem Absterben der Organismen die Umstände mehr geeignet, die Conservirung der Moderstoffe zu begünstigen. In den Absätzen des Meeres werden viel mehr kohlige Ueberreste eingeschlossen und für den künftigen Oxydationsprocess aufbewahrt, als es bei den Landbildungen der Fall ist. Im Wasserreiche, namentlich im Meere, gibt es noch einen Vorgang, der eine Wanderung grosser Kohlenstoffmengen bedingt. Viele Wasserthiere (aus den Abtheilungen der Mollusken, Radiaten, Rhizopoden) ebenso viele Algen sondern Kalk ab, indem sie Kalkgehäuse oder Kalkinkrustationen bilden. Der Kalk nun besteht aus Kalkerde und Kohlensäure. So wie die Luftthiere Kohlensäure ausathmen, in ähnlicher Weise bilden die Wasserthiere Kalk, indem der zweite Bestandtheil, die Kalkerde aus dem von den Thieren verzehrten Meerwasser hinzukömmt. Aus den unzähligen Kalkgehäusen dieser Thiere bilden sich Ablagerungen und in geologischen Zeiträumen Kalksteinschichten und Kalkgebirge. Aller Kalkstein, den wir sehen hat sich wohl auf diese Weise gebildet.

Welche ungeheuren Massen von Kohlenstoff sind in den Kalkgebirgen fixirt! Hier erscheint dieser Stoff schließlich in fester Form als unbezwinglicher Felsblock, als zackige Gebirgsmasse, scheinbar zu ewiger Ruhe verurtheilt. Und doch gibt es Wege, die ihn wieder zum Leben, zur Bewegung führen. Millionen von Jahren mögen dahingehen, denn nur allmälig wirken die sickernden Gewässer; aber unaufhörlich dringen sie durch die Gesteinschichten und lösen die festen Massen auf. So wird auch kohlensaure Kalkerde fortgeführt durch die Quelle, den Bach in den Strom. Während dieser Reise macht sich eine bedeutende Menge Kohlensäure aus der Verbindung los, und entweicht zur Atmosphäre. Das ins Meer gelangende Wasser enthält im Verhältnis zu den übrigen aufgelösten Stoffen viel weniger Kohlensäure als das Quell- und Bachwasser.

Ausser diesem ist noch ein zweiter Vorgang zu betrachten, welcher sehr grosse Mengen von Kohlensäure an die Atmosphäre zurückgibt. Es ist bekannt, dass in vielen, namentlich in vulcanischen Gegenden warme Kohlensäure führende Quellen emporsprudeln und ebenso, dass dort häufig aus den Spalten der Erde Ströme von Kohlensäuregas empordringen, die sogenannten Mofetten. Man erklärt sich diese Erscheinungen dadurch, dass man annimmt, in Tiefen, wo Siedhitze oder eine noch höhere Temperatur herrscht, komme Kalkstein mit kieselsäurehaltigen Gesteinen und mit Wasser in Berührung. Die Kieselsäure verbindet sich mit der Kalkerde des Kalksteines und vertreibt auf diese Weise die Kohlensäure. Die leztere entweicht und wenn sich eine Spalte findet, die einen Ausweg gestattet, so presst das Kohlensäuregas eine Wassersäule empor, es entsteht eine Sprudelquelle. Im anderen Falle oder wenn die Zersetzung des Kalksteines in der Tiefe ohne die Gegenwart des Wassers stattfindet, dann entweicht Kohlensäuregas allein. Da durch einen einfachen Versuch im Laboratorium gezeigt wird, dass sich Kohlensäure entwickelt, wenn in siedendem Wasser kohlensaure Kalkerde und Kieselsäure zusammen gebracht werden, ebenso, wenn bei höherer Temperatur ohne Beisein von Wasser Kalkstein und kiesliches Gestein sich berühren, so hat diese Erklärung viele Wahrscheinlichkeit für sich. Wir hätten demnach die bedeutenden Mengen von Kohlensäure, welche die Thermen und die Mofetten beständig emporsenden, ebenfalls dem Kalkstein, also indirect jenen Thieren zu verdanken, die vor Aeonen gelebt und Kalkablagerungen gebildet haben.

Der Kohlenstoffkreislauf in einer modernen, vereinfachten Version. Die Zahlen geben die gelagerten/produzierten Mengen Kohlenstoff (C) in Gigatonnen an (Bild:https://eo.wikipedia.org/wiki/Cesare_Emiliani#/media/File:Carbon_cycle-cute_diagram-german.svg)

Diese kurze Ueberschau einiger chemischer Vorgänge auf und in der Erde hat Ihnen gezeigt, wie ein Stoff in mannigfachem Wechsel der Form und des Ortes durch die belebte und unbelebte Natur ewig kreist, in engeren und weiteren Bahnen, in kurzen und in lange dauernden Wanderungen, dass ein Zusammenhang besteht zwischen den heterogensten Erscheinungen.

Wir dürfen das Bild erweitern, ergänzen, denn dasselbe gilt für viele andere Stoffe, für alle Erscheinungen im Getriebe der Natur.


[1] Gustav (Edler von Seysenegg) Tschermak: Der Kreislauf des Kohlenstoffes. Schriften des Vereins zur Verbreitung naturwissenschaftlicher Kenntnisse Wien (1866) 5: 197 – 212. http://www.landesmuseum.at/pdf_frei_remote/SVVNWK_5_0197-0212.pdf

[2] Bernhard Fritscher (2004): Mineralogie und Kultur im Wien der Donaumonarchie – Zu Leben und Werk Gustav Tschermaks. Jb. Geol. B.-A.144 (1):67-75 http://www.landesmuseum.at/pdf_frei_remote/JbGeolReichsanst_144_0067-007...


Literatur von Gustav Tschermak.

Gustav Tschermak (1885): Die mikroskopische Beschaffenheit von Meteoriten. Engl. Übersetzung: "The Microscopic Properties of Meteorites" von John A. Wood und E. Mathilde Wood, Smithsonian Institution, Washington D.C. (1964). https://repository.si.edu/bitstream/handle/10088/6641/SCAS-0030.pdf?sequ...

Gustav Tschermak (1897) Lehrbuch der Mineralogie.

inge Fri, 26.06.2015 - 11:26

Die bedrohliche Alzheimerkrankheit — Abschied vom Ich

Die bedrohliche Alzheimerkrankheit — Abschied vom Ich

Fr, 03.07.2015 - 09:49 — Gottfried Schatz Gottfried SchatzIcon Gehirn

Unser Gehirn droht im Alter zu versagen. Die häufigste Form von geistigem Verfall ist die Alzheimerkrankheit, die wegen der Überalterung der Bevölkerung immer häufiger wird. Ihre Ursache ist noch unbekannt. Der renommierte Biochemiker Gottfried Schatz beschreibt die aktuellen Ansätze, welche das Krankheitsbild auf molekularem Niveau zu erklären versuchen, um auf dieser Basis therapeutische Strategien zu entwickeln.

«Ich beginne nun die Reise, die mich zum Sonnenuntergang meines Lebens führt, in der Gewissheit, dass über Amerika immer wieder ein strahlender Morgen heraufdämmern wird.» Mit diesen bewegenden Worten gestand der dreiundachtzigjährige ehemalige US-Präsident Ronald Reagan der amerikanischen Öffentlichkeit seine Alzheimer-Erkrankung, an deren Folgen er zehn Jahre später sterben sollte. Auf seiner tragischen Reise war er nicht allein; zeitgleich mit ihm litten mindestens zwanzig Millionen Menschen an dieser Krankheit.

Der junge Münchner Psychiater Alois Alzheimer beschrieb sie zum ersten Mal am 3. November 1906 vor einer Versammlung südwestdeutscher Irrenärzte und veröffentlichte dann seine Befunde in einem kurzen Artikel mit dem Titel «Über eine eigenartige Erkrankung der Hirnrinde». Der Artikel schloss mit den prophetischen Worten: «Es gibt ganz zweifelsfrei viel mehr psychische Krankheiten, als sie unsere Lehrbücher aufführen.»

Eiweissablagerungen

Die Alzheimerkrankheit lässt sich heute weder heilen noch wirksam behandeln. Versuche, ihr Fortschreiten wesentlich zu verlangsamen, hatten bisher nur mässigen Erfolg. Nach der ersten Diagnose sterben die Patienten im Durchschnitt nach sechs bis zehn Jahren, meist an infizierten Liegewunden oder einer Lungenentzündung. Ihr Gehirn ist durch das massive Absterben von Nervenzellen deutlich geschrumpft. Dies erklärt den geistigen Verfall, der sich gewöhnlich mit einem Verlust des Gedächtnisses und anderer Hirnleistungen ankündigt und schliesslich zu völliger Teilnahmslosigkeit führt.

Abbildung 1. Das Gehirn schrumpft durch das massive Absterben von Nervenzellen (links). Rechts: Unlösliche Proteinablagerungen außerhalb der Nervenzellen – Plaques – und Bildung von verklumpten Tau-Fibrillen in den Zellen (siehe auch Abb. 2), die zu deren Absterben führen. (Bild: modifiziert nach Wikipedia)

Charakteristisch für die Krankheit sind zwei Typen von unlöslichen Proteinablagerungen, eine ausserhalb und eine innerhalb der Nervenzellen des Gehirns. Die äusseren Ablagerungen – die «Plaques» – sind verklumpte, abnormale Spaltprodukte eines Proteins, das fest in der Oberflächenmembran der Nervenzellen verankert ist und wie eine Mobilfunkantenne aus dieser herausragt. Wir wissen noch nicht mit Sicherheit, welche Funktion dieses Protein im gesunden Gehirn erfüllt, vermuten aber, dass es die Vernetzung von Gehirnzellen fördert. Sein offizieller Name ist «Amyloid-Precursor-Protein» – oder kurz «APP». Wie fast jedes Protein wird APP laufend abgebaut und neu gebildet. Der normale Abbau liefert lösliche Spaltprodukte, die von der Zelle schnell entsorgt werden und unschädlich sind. Bei Alzheimerkranken führt der Abbau jedoch zu einem abnormalen Spaltprodukt, dem Beta-Amyloid, das sich zu unlöslichen Plaques zusammenklumpt, die von der Zelle nicht weiter abgebaut werden können und diese schliesslich töten.

Die Proteinablagerungen innerhalb der Gehirnzellen bestehen aus einem Protein, das normalerweise das innere Stützgerüst der Nervenzellen festigt und es den Zellen ermöglicht, lange Ausstülpungen zu bilden und über diese mit anderen Nervenzellen elektrische Kontakte auszubilden. Dieses stützende «Tau-Protein» ist bei Alzheimerkranken chemisch verändert, so dass es sich nicht mehr an das innere Stützgerüst der Zellen anlagert, sondern unlösliche Neurofibrillen im Inneren der Zellen bildet und so deren elektrische Vernetzung verhindert. Abbildung 2. Das Tau-Proteins festigt normalerweise das Stützgerüst (Mikrotubuli) der Nervenzelle (Neuron). Veränderungen im Tau-Protein führen zur Bildung von verklumpten Fibrillen im Zellinneren (Ausschnitte aus dem Axon rechts vergrößert), zum Zerfall der Mikrotubuli, das Neuron stirbt (ganz rechts). (Quelle: http://www.nia.nih.gov/alzheimers/publication/alzheimers-disease-unravel..., gemeinfrei).

Die Ursachen all dieser Veränderungen und des damit verbundenen geistigen Verfalls sind noch nicht mit Sicherheit bekannt. Es mehren sich jedoch die Hinweise, dass die Krankheit von einer Veränderung – einer Mutation – gewisser Gene begleitet ist. Gene sind meist Baupläne für bestimmte Proteine. In Familien, in denen die Alzheimerkrankheit ungewöhnlich häufig und typischerweise bereits im Alter von vierzig bis fünfzig Jahren auftritt, ist mindestens eines von drei Genen mutiert. Eines von ihnen trägt den Bauplan für das erwähnte APP, so dass eine Mutation in diesem Gen zu einem abnormalen APP führt, das offenbar nicht zu harmlosen Spaltprodukten, sondern zu unlöslichen Plaques abgebaut wird. Tatsächlich entwickelt eine Maus, der man dies mutierte menschliche APP-Gen mit gentechnischen Methoden einpflanzt, Lerndefizite und Plaques im Gehirn.

Das Gen für APP befindet sich auf Chromosom 21, von dem etwa 0,1 Prozent aller Menschen nicht die üblichen zwei, sondern drei Exemplare besitzen. Diese Trisomie 21 (auch «Down-Syndrom» genannt) führt wahrscheinlich zu einer Überproduktion und, als Folge davon, zu einem abnormalen Abbau von APP, so dass fast alle vom Down-Syndrom Betroffenen vor ihrem vierzigsten Lebensjahr Alzheimerdemenz entwickeln. Die beiden anderen Gene, die in Familien mit gehäufter und früh einsetzender Alzheimerkrankheit mutiert sind, tragen die Namen «Präsenilin-1» und «Präsenilin-2». Sie bestimmen die Struktur von Proteinen, die im Verein mit anderen Proteinen normales APP abbauen. Wenn sie durch eine Mutation verändert sind, spalten sie APP an den falschen Stellen, so dass die Spaltprodukte wiederum unlösliche Plaques bilden. Plaques können sich also als Folge einer veränderten APP-Struktur, einer Überproduktion von APP oder einer veränderten Abbaumaschine bilden. Derart klare genetische Korrelationen finden sich jedoch nur bei einer sehr kleinen Minderheit von Alzheimerpatienten. In den meisten Fällen sind wahrscheinlich andere Gene, Krankheiten wie Bluthochdruck sowie Lebensstil und Umweltfaktoren beteiligt.

Warum hat die Evolution die Gene, welche Alzheimerkrankheit verursachen oder das Risiko für sie erhöhen, nicht völlig ausgemerzt? Ein Grund ist wahrscheinlich, dass diese Gene in früheren Zeiten ihre Wirkung nur sehr selten entfalten konnten, weil die meisten ihrer Träger vor Ausbruch der Krankheit starben – und heute zeigt sich die Wirkung dieser Gene in den meisten Fällen erst in einem Lebensabschnitt, in dem die Betroffenen keine Kinder mehr zeugen. Damit schlagen diese Gene der biologischen Selektion ein Schnippchen. Ein zweiter Grund könnte sein, dass einige dieser Gene unserem Körper auch nützen können. Die Spaltprodukte von APP zerstören die Zellmembran von Bakterien und wirken deshalb bakterizid. Wahrscheinlich trifft dies nicht nur für die normalen, sondern auch für die abnormalen APP-Spaltprodukte zu. Diese Abbauprodukte könnten also ein Verteidigungssystem sein, mit dem unser Gehirn eindringende Bakterien bekämpft. Sollte diese Vermutung zutreffen, dann wäre eine Alzheimer-Erkrankung die Entgleisung einer Verteidigungsstrategie unseres Körpers, die uns schweren Schaden zufügt. Ähnliches gilt auch für das Immunsystem, das sich gelegentlich nicht nur gegen eindringende Viren und Bakterien, sondern auch gegen uns selbst richtet und lebensbedrohende Autoimmunerkrankungen auslösen kann.

Die abnormalen APP-Abbauprodukte bilden aber nicht nur unlösliche Plaques ausserhalb der Nervenzellen, sondern können vielleicht sogar in diese eindringen und die Funktion der Mitochondrien stören. Mitochondrien sind die Organe der Zellatmung, die unseren Zellen die lebensnotwendige Energie liefern. Ist ihre Funktion beeinträchtigt, kommt es nicht nur zu einer Energiekrise, sondern auch zur Freisetzung stark oxidierender Nebenprodukte der Atmung, die den Zellstoffwechsel hemmen und die Zellen abtöten. Eine solche Störung der Mitochondrien ist aber noch nicht gesichert, und wir wissen auch nicht, ob sie Ursache oder Folge der Alzheimerkrankheit wäre.

Eine eindeutige Früherkennung der Krankheit ist selbst heute noch schwierig. Sie stützt sich auf Auffälligkeiten in neuropsychologischen Tests oder einen verringerten Zuckerverbrauch bestimmter Gehirnregionen. Zunehmend wichtig werden auch der Nachweis abnormaler APP-Spaltprodukte oder veränderter Tau-Proteine im Nervenwasser sowie bildgebende Verfahren, welche die Plaques im Patientengehirn sichtbar machen. Allerdings ist die Frühdiagnose einer unheilbaren Krankheit, deren Verlauf sich nicht wesentlich beeinflussen lässt, grundsätzlich fragwürdig. Eine eindeutige Diagnose ist erst nach dem Tod der Patienten durch eine histologische Untersuchung des Gehirns möglich.

Beunruhigende Fragen

In Europa und den USA ist Alzheimerdemenz eine der kostspieligsten Krankheiten. Die USA geben gegenwärtig für die Betreuung von Alzheimerpatienten jährlich etwa hundert Milliarden Dollar aus. Wenn die Überalterung der amerikanischen Gesellschaft wie erwartet weiter zunimmt und es nicht bald wirksame Waffen gegen Alzheimerdemenz gibt, dürfte diese Summe bis zum Jahr 2050 etwa zehnmal höher sein. Im Durchschnitt litte dann jeder hundertste Amerikaner an Alzheimerdemenz. Rund zwei Drittel der medizinischen Kosten entfallen auf die langfristige Pflege, die das Pflegepersonal bis an seine physischen und psychischen Grenzen belastet. Die psychische Belastung der Pfleger ist bei der Betreuung von Alzheimerpatienten in der letzten Krankheitsphase wahrscheinlich noch höher als bei Patienten, die ohne Hoffnung auf Gesundung völlig gelähmt oder jahrelang bewusstlos sind. In Japan mit seiner stark überalterten Bevölkerung ist die Betreuung von Alzheimerkranken besonders prekär, weil das Land den Mangel an eigenen Pflegern nur ungern durch Fachkräfte aus dem Ausland ausgleicht. Japanische Firmen entwickeln deshalb Pflegeroboter, die in Gestalt eines putzigen Bären oder eines anderen Kuscheltieres Kranke aus ihrem Bett heben und in dieses zurücklegen und auch andere Tätigkeiten menschlicher Pfleger wahrnehmen.

Was aber ist der angemessene Umgang mit Menschen, die ihre Funktionen, welche das Menschsein ausmachen, verloren haben? Worin besteht dieses Menschsein? Und wann hört ein Mensch auf, Mensch zu sein? Diese Fragen führen unmittelbar zu jener nach dem würdigen Ende unseres Lebens und – zumindest für mich persönlich und mit aller Vorsicht gesagt – zu der Möglichkeit, dieses Leben freiwillig beenden zu dürfen. Ich wage es kaum, diese beunruhigenden Fragen zu denken, doch unseren Kindern und Enkelkindern wird es wohl nicht erspart bleiben, sie zu beantworten.


Weiterführende Links

Alzheimer: Eine dreidimensionale Entdeckungsreise. Video 6:28 min. https://www.youtube.com/watch?v=paquj8hSdpc
Tau-Protein gegen Gedächtnisverlust (ohne Ton). Max-Planck Film 1:44 min, http://www.mpg.de/4282188/Tau-Protein_gegen_Gedaechtnisverlust

Planet Wissen - Diagnose Alzheimer .Video 58:17 min, https://www.youtube.com/watch?v=mp9A2esKt-A


 

inge Fri, 03.07.2015 - 09:49

Die großen globalen Probleme der Menschheit: das weltberühmte Internationale Institut für Angewandte Systemanalyse (IIASA) erarbeitet Lösungsansätze

Die großen globalen Probleme der Menschheit: das weltberühmte Internationale Institut für Angewandte Systemanalyse (IIASA) erarbeitet Lösungsansätze

Fr, 10.07.2015 - 11:28 — IIASA IIASA LogoIcon Politik & Gesellschaft

Österreich ist Sitz zahlreicher bedeutender, internationaler Organisationen, deren abgekürzte Bezeichnungen – u.a. UNO, IAEO, OPEC, OSZ E – und jeweilige Aufgaben jedermann in unserem Land (zumindest oberflächlich) bekannt sind. Für das seit bereits mehr als 40 Jahren bestehende, im Schloss Laxenburg angesiedelte, Internationale Institut für Angewandte Systemanalyse (IIASA) ist dies nicht der Fall. Der folgende Artikel gibt einen Überblick über das IIASA und seine fundamentale Rolle in der Erarbeitung von Lösungsansätzen zu den großen globalen Problemen rund um Energie, Klimawandel, Ernährung, Wasser und Armut. Die Texte stammen von der Website der IIASA [1], die freundlicherweise einer Veröffentlichung in unserem Blog zugestimmt hat.

Das Internationale Institut für Angewandte Systemanalyse (IIASA)

Das IIASA wurde im Jahre 1972 gegründet und ist ein internationales Forschungsinstitut, das politisch relevante Forschung in Problembereichen durchführt, die zu umfangreich oder zu komplex sind, um von einem einzelnen Land oder von einer einzigen Disziplin bewältigt zu werden. Dies sind Probleme, wie z.B. der Klimawandel, die eine globale Reichweite haben und nur durch internationale Zusammenarbeit gelöst werden können, oder Probleme, die viele Länder betreffen, und sowohl auf nationalem als auch auf internationalem Niveau in Angriff genommen werden müssen, wie z.B. Energiesicherheit, Bevölkerungsalterung, oder nachhaltige Entwicklung. Finanziert von wissenschaftlichen Institutionen in Nord- und Südamerika, Europa, Asien, Ozeanien und Afrika, ist das IIASA eine unabhängige Institution — völlig frei von politischen oder nationalen Interessen.

Die Aufgabe des IIASA besteht darin mit Hilfe der angewandten Systemanalyse Lösungen für globale und universelle Probleme zum Wohl der Menschen, der Gesellschaft und der Umwelt zu finden, und die daraus resultierenden Erkenntnisse und Richtlinien den politischen Entscheidungsträgern weltweit zur Verfügung zu stellen [2].

Wie kam es zur Gründung des IIASA?

Howard Raiffa , der erste Direktor des IIASA erinnert sich [3]:

"1966 hielt der amerikanische Präsident Lyndon Johnson eine äußerst bemerkenswerte Rede. Er sagte, es wäre an der Zeit, dass Wissenschafter der Vereinigten Staaten und Russlands zusammenarbeiteten und zwar an anderen Problemen als Militär- und Raumfahrt- Fragen, nämlich an Problemen die alle hochentwickelten Gesellschaften belasten wie Fragen über Energie, unsere Meere, Umwelt und Gesundheit. Und er rief zu einem Zusammenschluss von Wissenschaftern aus Ost und West auf.

Johnson beauftragte seinen (und vorher auch J.F. Kennedy’s) Berater McGeorge Bundy, dieses Vorhaben umzusetzen. Bundy traf sich mit Jermen Gvishiani, dem stellvertretenden russischen Minister für Wissenschaft und Technologie, und war von der Reaktion begeistert. Bundy und Gvishiani erkannten, eine derartige Institution wäre nur dann auf Dauer stabil, wenn sie nicht von Regierungen finanziert und multilateral sein würde. Am ersten Planungstreffen in Sussex (UK) sollten auch England, Italien Frankreich und aus dem Ostblock Polen, die Deutsche Demokratische Republik und Bulgarien teilnehmen. Bemerkenswert daran: diese Verhandlungen spielten sich mitten im kalten Krieg ab, in der Zeit des Vietnamkriegs und des Aufstands in der Tschechoslowakei."

Wie Österreich zum Sitz des IIASA bestimmt wurde [3]

"Ursprünglich dachten wir das IIASA in Großbritannien zu errichten. Als am Beginn der 1970er Jahre an die hundert sowjetische Diplomaten aus England ausgewiesen wurden, erkalteten die Beziehungen zwischen den beiden Staaten und als Alternative wurde das ehemalige Hauptquartier der alliierten Streitkräfte in Fontainebleau ins Auge gefasst. Dies war ein großartiger Platz; massenhaft historische Räume und Wandteppiche. Als wir aber fragten: „Können wir Tafeln aufstellen, Computer installieren, eine Bibliothek errichten?“ war die Antwort „Nein. Ihr müsst alles so lassen, wie es ist.“

"Wir entschlossen uns nach anderen Möglichkeiten zu suchen. Österreich bot das baufällige Schloss Laxenburg (Abbildung 1) an, Einladungen kamen auch aus Italien, Holland und der Schweiz."

IIASA – Laxenburg (bei Wien)Abbildung 1. Das Internationale Institut für angewandte Systemanalyse (IIASA) ist im sogenannten Blauen Hof des Schlosses Laxenburg, einer bis ins 14. Jh. zurückdatierenden Anlage (etwa 15 Kilometer südlich von Wien), untergebracht. Ds Schloss diente über lange Zeit als Frühlingsresidenz der Habsburger. (Bild: https://www.flickr.com/photos/iiasa/sets/72157648154449307)

Österreich war zweifellos die richtige Wahl, passte phantastisch als Symbol. Die Renovierung von Schloss Laxenburg dauerte zwar bis 1975, wir hatten aber schon 1973 den Großteil der Gemächer bezogen. 1975 gab es bereits eine Ansammlung sprudelnder Talente, die an Fragen zu Energie, Ökologie, Wasservorräte und Methodenentwicklung arbeiteten.

Das IIASA heute

Über 300 Mathematiker, Geisteswissenschaftler, Naturwissenschaftler, Wirtschaftler und Technologen aus mehr als 45 Ländern forschen am IIASA in Laxenburg bei Wien, im Herzen Europas. Hier arbeiten sowohl weltbekannte Wissenschaftler — vier Nobelpreisträger waren am IIASA tätig — wie auch junge Wissenschaftler am Anfang ihrer Karriere. Außerdem bezieht das IIASA aus seinem weltweiten Netz von ca. 2500 externen Forschern in 65 Ländern lokale und regionale Daten, die in seine hochentwickelten wissenschaftlichen Modelle integriert werden. Durch diese wissenschaftliche Zusammenarbeit stellt das IIASA auch Verbindungen zwischen den einzelnen Ländern her.

Das IIASA hat 3475 ehemalige Mitarbeiter in über 90 Ländern, unter ihnen führende Persönlichkeiten aus Wissenschaft, Politik und Privatwirtschaft. Seit 1977 nahmen 1772 junge Wissenschaftler aus 84 Ländern am Sommerprogramm für junge Wissenschaftler (Young Scientists Summer Program, YSSP) des IIASA teil.

Das Jahresbudget

betrug im Jahr 2014 €19,4 Millionen, die zu 56% aus renommierten wissenschaftlichen Institutionen, nämlich den nationalen Mitgliedsorganisationen des IIASA (NMOs) in 22 Ländern in Nord- und Südamerika, Asien, Europa, Ozeanien und Afrika stammen. Weitere Mittel stammen aus Verträgen und Subventionen. Zwischen 2006 und 2014 wurden der Forschung des IIASA Subventionen in der Höhe von €69 Millionen gewährt. Dies war ein Teil des Gesamtfinanzierungsaufkommens von €329 Millionen für die externen Projekte, an denen das IIASA in Zusammenarbeit mit seinen Mitgliedsländern beteiligt ist.

Wissenschaftliche Veröffentlichungen

2014war das erfolgreichste Jahr des IIASA. IIASA Wissenschaftler publizierten nahezu 250 Artikel in wissenschaftlichen Zeitschriften und die Forschung des IIASA wurde über 9100 Mal zitiert (Quelle: SCOPUS).

Die Aufgabe

des IIASA besteht darin, mit Hilfe der angewandten Systemanalyse Lösungen für globale und universelle Probleme zum Wohl der Menschen, der Gesellschaft und der Umwelt zu finden, und die daraus resultierenden Erkenntnisse und Richtlinien den politischen Entscheidungsträgern weltweit zur Verfügung zu stellen. Systemanalytische Ansätze werden dazu verwendet, komplexe Systeme — wie z.B. Klimawandel, Energieversorgung, Landwirtschaft, Atmosphäre, Risiko- und Bevölkerungsdynamik — unter besonderer Beachtung ihrer Wechselwirkungen zu erforschen. Das IIASA blickt auf eine lange und erfolgreiche Geschichte bei der Entwicklung von systembezogenen integrierten Lösungen und politischen Richtlinien für die dringendsten Probleme der Welt, wie Energieressourcen, Klimawandel, Umweltverschmutzung, Bevölkerungsdemographie, Landnutzung und nachhaltige Entwicklung, Risiko- und Belastbarkeit zurück.

Das IIASA ist sowohl ein internationales Institut — mit aktiver Zusammenarbeit in über 60 Ländern — wie auch ein unabhängiges Institut, das von seinen nationalen Mitgliedsorganisationen (NMOs) in 23 Ländern, die über 60% der globalen Bevölkerung ausmachen, geleitet und großteils finanziert wird.

Der strategische Schwerpunkt

der Forschung des IIASA liegt im Wesentlichen auf drei Gebieten (Abbildung 2):

Forschung im IIASAAbbildung 2. Forschung im IIASA: die drei Gebiete sind komplex und wechselwirken auch miteinander (Abbildung aus [2] adaptiert)

  • Energie und Klimawandel: untersucht die Wechselwirkungen zwischen Energieerzeugung, Treibhausgasemissionen, Luftverschmutzung, Klimawandel, und die Anwendung und Verbreitung neuer Technologien.
  • Ernährung und Wasserversorgung: ist unter Einbeziehung eines weiten Spektrums von Disziplinen — von der Biologie bis zur Geowissenschaft — darauf ausgerichtet, ein Gleichgewicht zwischen der Erhaltung der Biodiversität und den Erfordernissen der Landwirtschaft und der Nahrungsmittelversorgung herzustellen.
  • Armut und Verteilungsgerechtigkeit: analysiert die menschliche Komponente der Entwicklung, und zwar von der bestmöglichen Anpassung der Bevölkerung der armen Länder der Welt an die Auswirkungen des Klimawandels bis zu den Auswirkungen der Bevölkerungsalterung auf die Bevölkerung der entwickelten Länder.

Die Forschung in diesen drei globalen Problembereichen wird gestützt durch die Erforschung der zentralen Triebkräfte des Wandels, der in unserer Welt stattfindet, und zwar Bevölkerung, Technologie und Wirtschaftswachstum.

Die Forschung des IIASA entspricht den höchsten internationalen wissenschaftlichen Standards, sie ist politisch relevant und auf die Erstellung robuster Lösungen für die politische Entscheidungsfindung auf der internationalen, nationalen und regionalen Ebene ausgerichtet.

Die am IIASA seit seiner Gründung im Jahr 1972 angewandte Methodologie ist die fortgeschrittene Systemanalyse. Sowohl die Methodologie als auch die Daten werden am IIASA laufend aktualisiert und verfeinert, um den neuen Forschungserfordernissen gerecht zu werden.

Die größte Stärke des IIASA liegt darin, dass seine multidisziplinären Forschung problemgesteuert und lösungsorientiert ist, und auf der Grundlage von wissenschaftlicher Exzellenz und politischer Relevanz betrieben wird.

Der Jahresbericht des IIASA gibt einen Überblick über die jüngsten Forschungshöhepunkte in diesen wesentlichen Forschungsbereichen.


[1] Website der IIASA, der Artikel im ScienceBlog enthält Abschnitte aus:

[2] Das Internationale Institut für Angewandte Systemanalyse (IIASA) im Überblick (PDF-Download)

[3] The founding of the Institute - IIASA's first director Howard Raiffa on the negotiations that led to IIASA's creation (die Übersetzung aus dem Englischen erfolgte durch die Redaktion).


Weiterführende Links

Towards a sustainable future. Video 6:10 min. http://www.iiasa.ac.at/web/home/resources/multimedia/Featured-Video-8-Ap...

Interview mit Pavel Kabat, IIASA Director/Chief Executive Officer (2012-present): Pavel talks about IIASA activities and plans for the future. Video 35:17 min. Veröffentlicht am 30.07.2013

inge Fri, 10.07.2015 - 11:28

Erste Zwischenstufe in der Evolution von einfachsten zu höheren Lebewesen entdeckt: Lokiarchaea

Erste Zwischenstufe in der Evolution von einfachsten zu höheren Lebewesen entdeckt: Lokiarchaea

Fr, 19.06.2015 - 12:08 — Christa Schleper Christa SchleperIcon Biologie

“Under the Sea, a Missing Link in the Evolution of Complex Cells” hat die New York Times am 6. Mai 2015 einen Artikel übertitelt, der über eine Entdeckung berichtete, die weltweites Aufsehen erregte: Ein internationales Team um die Wiener Mikrobiologin Christa Schleper (Leiterin der Archaea Biologie und Ökogenomik Division des Dept. für Ökogenomik und Systembiologie, Universität Wien) und aus Forschern in Uppsala und Bergen hat am Meeresboden des Nordatlantik eine neue Gruppe von Mikroben entdeckt. Mit diesen, als Lokiarchaea bezeichneten, Organismen wurde erstmals eine Zwischenstufe in der Evolution von Prokaryoten zu den komplexen Zellen (Eukaryoten) aufgefunden, aus denen alle höheren Lebewesen bestehen*.

Die biologische Evolution hat auf unserem Planeten drei grundsätzlich verschiedene Klassen von Organismen geschaffen. Zwei dieser, als Domänen des Lebens bezeichneten Klassen – Bakterien und Archaea - sind einfachste Lebensformen: Einzeller, die keinen Zellkern oder andere durch Membranen abgetrennte Kompartimente besitzen, sogenannte Prokaryoten. Derartige Zellen lebten bereits vor 3,5 Milliarden Jahren in den Wässern des Urozeans.

Rund 1,5 Milliarden Jahre später ist dann die dritte Domäne des Lebens entstanden. Es sind die sogenannten Eukaryoten: komplexe Zellen mit einem Zellkern, in welchem das Erbmaterial lokalisiert ist und verschiedenartigen Organellen, welche spezifische Funktionen ausüben (Abbildung 1). Aus derartigen Zellen bestehen alle höheren Lebewesen – Protisten, Algen, Pilze, Pflanzen und Tiere.

Abbildung 1. Die 3 Domänen des Lebens und eine stark vereinfachte Darstellung der Zellen. Eukaryotische Zellen sind wesentlich größer als Prokaryoten- bei einem Durchmesser von 10 - 20 µm haben sie ein rund 1000 fach größeres Volumen – und sind im Inneren kompartimentiert (Schema modifiziert nach Wikipedia).

Wie die ersten eukaryotischen Zellen entstanden sind, ist eines der größten Rätsel der biologischen Evolution. Die meisten Hypothesen gehen von einem Übergang von den Prokaryoten zu den Eukaryoten aus. Das Erbmaterial eukaryotischer Zellen enthält ja -neben spezifisch eukaryotischen Genen – Gene der Prokaryoten. Diese stammen sowohl von Bakterien als auch von Archaea. Dabei ist allgemein akzeptiert, dass die Mitochondrien eukaryotischer Zellen bakteriellen Ursprungs sind, also dadurch entstanden sind, dass eine Vorläuferzelle ein Bakterium „geschluckt“ hat.

Was war aber diese Vorläuferzelle? War dies ein Ur-Archaeon, das so zur Mutterzelle aller Eukaryoten wurde?

Was sind überhaupt Archaea?

Diese Mikroorganismen wurden erst in den 1970er Jahren als eigenständige Gruppe entdeckt. Sie können extremste Lebensräume besiedeln und sind rein äußerlich kaum von Bakterien unterscheidbar. Zuerst wurden sie daher auch als eine urtümliche Form der Bakterien angesehen und als Archaebakterien (Arche ist griechisch und bedeutet Anfang) bezeichnet. Der fundamentale Unterschied zwischen Bakterien und Archaea wurde besonders durch biochemische Studien und die Genomforschung in den 1990er Jahren belegt. Im Hinblick auf viele Proteine und viele Schritte, die mit dem Ablesen, Kopieren und Exprimieren der genetischen Information zu tun haben, ähneln Archaea viel mehr den Eukaryoten, als den Bakterien. Offensichtlich gab es also gemeinsame Vorfahren von Archaea und Eukaryoten die diese Funktionen entwickelten.

Hinsichtlich der Verbreitung

dachte man ursprünglich, dass Archaea nur an besonders unwirtlichen Orten, die an die frühen Bedingungen auf unserem Planeten erinnern, zu finden wären. Beispielsweise in heißen Quellen, Black Smokern der Tiefsee oder in sehr salzhaltigen Habitaten. Da die Kultivierung dieser Mikroorganismen im Labor sich als sehr schwierig erwies, waren die auf Reinkultur basierenden Genomanalysen auf nur wenige Spezies beschränkt. Mit neuen Methoden – der Metagenomik - kann nun das Problem der Kultivierung umgangen werden: es zeigt sich, dass Archaea, ebenso wie die Bakterien, weitest verbreitet und an die unterschiedlichsten Lebensbedingungen angepasst sind. Eine enorme Zahl und Vielfalt von Archaea finden sich in allen bis jetzt untersuchten terrestrischen und aquatischen Habitaten: unter arktischen Bedingungen und in Vulkanen, in marinen Sedimenten und in den unterschiedlichsten Böden, in unserem Verdauungstrakt ebenso, wie auf unserer Haut. Die meisten Archaea-Arten leben unter anaeroben Bedingungen, d.h. sie kommen ohne Sauerstoff aus.

Archaea zeigen einzigartige Stoffwechselaktivitäten,

die sie u.a. zu enorm wichtigen Playern in den biogeochemischen Kohlenstoff- und Stickstoff –Kreisläufen machen:

Sogenannte methanogene Archaea können CO2 oder auch (aus Verrottungsprozessen stammende) organische Substanzen in Methan (CH4) umwandeln. Derartige Mikroben werden in vielen anaeroben Habitaten angetroffen, beispielweise in Mooren, Gewässersedimenten aber auch im Pansen der Wiederkäuer und im menschlichen Darm. Schätzungen zufolge erzeugen sie jährlich etwa 1 Milliarde Tonnen Methan. Die negative Seite: Methan ist ein 25 x stärkeres Treibhausgas als CO2. Die positive Seite: ein ungeheures Potential der Archaea liegt in der Weißen Biotechnologie zum gezielten Einsatz in CO2-Bindungsprozessen und darauf basierender Produktion von Bioenergie.

Gegenspieler der methanogenen Archaea sind Methan oxidierende Archaea, die ebenfalls in diversen anaeroben Habitaten gefunden werden. Von besonderer Bedeutung sind solche, in Meeressedimenten lebende Archaea, die 90% des dort von methanogenen Archaea erzeugten Methans konsumieren und damit das Entweichen des Treibhausgases in die Atmosphäre kontrollieren.

Archaea, die Ammoniak (NH3) oxidieren (Thaumarchaeota) wurden relativ spät entdeckt, gehören aber zu den häufigsten und am weitesten verbreiteten Mikroorganismen und sind in allen terrestrischen und aquatischen Habitaten anzutreffen. Mit ihrer Fähigkeit, reduzierten Stickstoff in eine oxidierte Form umzuwandeln, spielen sie zusammen mit den Proteobakterien eine eminent wichtige Rolle im globalen Stickstoffkreislauf. Dabei wird Ammoniak zu Nitrit (NO2) umgesetzt. Andere Mikroorganismen in den Böden oxidieren Nitrit weiter zu Nitrat (NO3), das von Pflanzen leicht aufgenommen wird und für deren Stickstoffversorgung wichtig ist.

Lokiarchaea – Entdeckung der nächsten Verwandten der Eukaryoten

In der Nähe eines unwirtlichen, hydrothermal aktiven Feldes – „Loki’s Castle“ wurde in marinen Sedimenten eine neue Gruppe von Archaea entdeckt. Der Fundort - zwischen Norwegen und Grönland in 3000 m Tiefe auf dem mittelatlantischen Rücken (Abbildung 2) - ist starken geochemischen Veränderungen unterworfen: es driften die eurasische und die nordamerikanische Platte auseinander. Dort existierende Organismen müssen sich fortwährend an die extremen Bedingungen und raschen Umgestaltungen der Habitate anpassen – dies ist eine Antriebskraft der Evolution. Abbildung 2. Der Fundort Loki’s Castle. Links: liegt auf dem arktischen mittelatlantischen Rücken, dem Zusammenstoß der Eurasischen und Nordamerikanischen Platten (roter Kreis). Rechts: Ein Schlot des hydrothermalen Feldes – austretendes Wasser erreicht Temperaturen von 300 °C -, davor ein ferngesteuerter Probennehmer. (Bilder: Wikipedia) Im übrigen: Namensgebend für den unwirtlichen Ort war Loki, ein zwielichtiger Gott der nordischen Mythologie, dessen Kinder Hel, Fenriswolf und Midgardschlange der Welt feindlich gesinnt sind.

In den, nach dem Fundort benannten Lokiarchaea wurden nun zum ersten Mal Charakteristika entdeckt, die diese Zellen als Zwischenstufe in der Evolution von Prokaryoten zu eukaryotischen Zellen erkennen lassen.

Was unterscheidet Lokiarchaea von den bis jetzt bekannten Gruppen?

Wenn Lokiarchaea (Lokis) auch bis jetzt noch nicht in Kultur gebracht und untersucht werden konnten, so erlaubt die Analyse des Genoms einer Spezies wesentliche Aussagen, nämlich:

  1. Lokis sind offensichtlich wesentlich komplexer aufgebaut als alle bis jetzt bekannten Arten der Archaea und
  2. neben Archaea-Genen und solchen, die über „horizontalen Gentransfer“ von Bakterien übertragen wurden, kodiert ein wesentlicher Anteil ihres Erbmaterials für Proteine, die zuvor nur bei Eukaryoten bekannt waren. Es sind dies insgesamt 157 Proteine. Darunter finden sich:
    • Strukturproteine - homologe Formen von Aktin und Gelsolin eukaryotischer Zellen, die in diesen ein Netzwerk (Cytoskelett) bilden und essentielle Rollen u.a. in Prozessen der Zellteilung, Zellmotilität, intrazellulären Transportprozessen und der Aufnahme von Partikeln in die Zelle(Endocytose, Phagocytose) spielen.
    • Proteine, die in eukaryotischen Zellen Schlüsselpositionen in der Signalübertragung innehaben, die zelluläre Prozesse an- oder abschalten, den Transport von intrazellulären Vesikeln bewerkstelligen können. Rund 2 % des Lokigenoms enthält derartige, der Ras-Familie zugehörige G-Proteine.
    • Proteine, die den Membranumbau bewerkstelligen.
    • Proteine, die den Abbau beschädigter oder überflüssiger Proteine bewirken.

Schlussfolgerungen

Lokiarchaea besitzen offensichtlich bereits die Urform einer Maschinerie, die sie möglicherweise dazu befähigen kann Membranen im Zellinneren zu Vesikeln zu formen, d.i. Kompartimente/Organellen zu schaffen und von außen Material aufzunehmen (durch Endocytose, Phagocytose). Dies wäre auch die Voraussetzung, dass u.a. Proteobakterien inkorporiert werden konnten, die sich dann zu Mitochondrien, den Kraftwerken der Zellen, entwickelten.

Mit dem Auffinden von Loki ist die Lücke im Übergang von Prokaryoten zu Eukaryoten kleiner geworden, da sie die nächsten lebenden Verwandten der Eukaryoten sind. Eine wesentliche Erkenntnis hieraus ist auch, dass Eukaryoten als „Schwesterlinie“ der Lokiarchaea direkt aus einem Ur-Archaeon entstanden sind, das bereits wesentliche Merkmale höherer Zellen entwickelt haben könnte. Der Stammbaum des Lebens hätte also 2 Äste (und nicht 3, wie man früher annahm): die der Bakterien und der Archaea; aus den Letzteren sind dann durch Aufnahme von Bakterien die Eukaryoten entstanden (Abbildung 3).

Abbildung 3. Der Stammbaum des Lebens. Ausgehend von der Urzelle hat sich der Ast der Bakterien (grüne Linien) unabhängig vom Ast der Archaea (rote Linien) entwickelt. Eukaryoten (orange), aus denen alle höheren Organismen hervorgingen, sind durch Aufnahme von Bakterien in eine Archaea Mutterzelle entstanden. (Die Buchstaben T, A,C, K und E stehen für: Thaumarchaeota, Aigarchaeota, Crenarchaeota, Korarchaeota und Euryarchaeota.).

Eine ungeheure Fülle und Diversität an Archaea ist bis jetzt noch nicht untersucht worden. Die Methoden stehen nun zur Verfügung. Es erscheint sehr plausibel, dass dabei Stämme entdeckt werden, die noch näher mit Eukaryoten verwandt sind, die es erlauben das Rätsel der Entstehung von Eukaryoten zu lösen.


*A.Spang et al., Complex archaea that bridge the gap between prokaryotes and eukaryotes. Nature 521, 173–179 (14 May 2015) doi:10.1038/nature14447 Homepage: http://genetics-ecology.univie.ac.at/


Weiterführende Links:

Verwandte Themen in ScienceBlog.at:

inge Fri, 19.06.2015 - 00:08

Von der Natur abgeschaut – das Austrian Center of Industrial Biotechnology (acib)

Von der Natur abgeschaut – das Austrian Center of Industrial Biotechnology (acib)

Fr, 12.06.2015 - 07:00 — Thomas Stanzer Thomas StanzerIcon MINTWie macht man industrielle Verfahren umweltfreundlicher und gleichzeitig wirtschaftlicher? Rund 200 Beschäftigte mit bis zu 30 Jahren Erfahrung in industrieller Biotechnologie forschen dazu am Austrian Center of Industrial Biotechnology (acib)*an mehr als 50 Projekten. Der Biochemiker Thomas Stanzer – zuständig für die Unternehmenskommunikation am acib - zeigt an Hand repräsentativer Beispiele, wie Methoden der Natur als Vorbild genutzt und daraus Technologien entwickelt werden, die unser aller Leben lebenswerter machen können.

Biologischer Pflanzenschutz

Das Übel kommt heimlich und ist erst kurz vor der Ernte sichtbar: Bei der späten Rübenfäule befallen Pilze Rüben oder Mais im Wurzelbereich unter der Erde. Die Fäulnis arbeitet sich von unten und innen vor, bis sie im Herbst sichtbar wird. Die Ernte ist dahin. Jahr für Jahr berichten Medien über Ernteausfälle, weil Nutzpflanzen trotz des Einsatzes vom Spritzmitteln von Schädlingen befallen werden. Oder weil Nützlinge wegen der Spritzmittel sterben, wie beispielsweise Bienen durch Neonicotinoide.

Das müsste nicht sein.

acib-Forscherin Christin Zachow arbeitet am biologischen Pflanzenschutz – zusammen mit Gabriele Berg (TU Graz), einer Vorreiterin in diesem Forschungsfeld. Ziel des biologischen Pflanzenschutzes ist es Mikroorganismen (Bakterien) zu Leibwächtern für Nutzpflanzen wie Mais, Raps, Tomate, Hirse oder die Zuckerrübe zu machen. Dazu werden spezielle, an extremen Standorten vorkommende, Bakterien zusammen mit der Pflanzensaat am Acker ausgebracht. Während die Saat keimt, vermehren sich gleichzeitig die Mikroorganismen, versorgen die Pflanze mit Nährstoffen, fördern deren Wachstum, wehren Schädlinge ab, verringern den Stress für die Nutzpflanze und erhöhen deren Widerstandsfähigkeit. Spritzmittel braucht man quasi nicht mehr. Die Lebensmittel wachsen besser und sind auch noch gesünder. Ein sehr positive Nebeneffekt dieser Methode: Die Bakterienmischungen regenerieren belastete Böden.

Biotechnologische Produktionssysteme

Ein Forschungsschwerpunkt in Wien widmet sich dem Verbessern biotechnologischer Produktionssysteme. Die Industrie verwendet Bakterien wie Escherichia coli, Hefen wie Pichia pastoris oder die Eizellen des chinesischen Hamsters (CHO-Zellen) als Fabriken, um verschiedenartigste Produkte herzustellen. Das können Enzyme sein, die später in der chemischen Industrie zum Einsatz kommen, oder auch therapeutische Antikörper und andere Proteine, wie sie beispielsweise in der Behandlung von Krebserkrankungen angewandt werden. Beim acib werden Bakterien, Hefen oder auch Hamsterzellen an die jeweiligen Anforderungen angepasst, denn jedes Produkt braucht sozusagen seine eigene Zelle. In einem dieser Projekte geht es etwa um eine Produktionsplattform zur Herstellung von Enzymen, mit denen sich Pilzgifte – Mykotoxine - abbauen lassen. Das ist beispielweise für die Tierernährung besonders wichtig, weil Futter immer wieder mit derartigen Giften belastet ist. Das kann nicht nur für Nutztiere tödlich enden, die Gifte können über die Nahrungskette auch uns Menschen gefährden. Der Zusatz geeigneter (kostengünstiger) Enzyme zum Futter macht derartige Mykotoxine unschädlich.

Enzymatische Synthesen

Enzyme sind überhaupt ein Schwerpunkt beim acib. Diese Werkzeuge der Natur im Mikroformat zeichnen sich dadurch aus, dass sie chemische Umsetzungen präzise abwickeln und dies bei Raumtemperatur und in wässrigen Umgebungen. Ersetzt man also die klassische chemische Synthese durch enzymatische Biokatalyse, so spart das Energie und problematische Lösungsmittel und verbessert die Ausbeute der Reaktion. Erfolge werden in der Entwicklung neuer (mehrstufiger) biokatalytischer Reaktionswege erzielt: so ist es einem Team in Graz gelungen, Kohlendioxid (CO2) als Rohstoff zu verwenden und daraus biokatalytisch Salicylsäure herzustellen – die Vorstufe der Acetylsalicylsäure, dem Wirkstoff in Aspirin. Das Projekt schlägt quasi zwei Fliegen auf einen Streich, weil einmal das Klimagas CO2 zum Rohstoff wird – recycelt wird - und zum anderen ein wertvolles Produkt entsteht.

Bioreaktoren im LabormaßstabOptimieren eines Produktionsprozesses mit Bioreaktoren im Labormaßstab

Recyceln von Kunststoff

Enzyme sind es auch, die beim Abbau von Kunststoffen helfen. 250 Millionen Tonnen Plastik werden pro Jahr hergestellt. Das meiste ist nicht abbaubar, belastet die Umwelt über Jahrzehnte oder wird verbrannt. Eine Forschungsgruppe am acib hat mit Hilfe von Enzymen den weltweit am häufigsten verwendeten Kunststoff Polyethylentherephthalat (PET) in seine Ausgangsbausteine zerlegt, die als Rohstoffe für die Erzeugung neuer funktioneller Materialien dienen. Mit Hilfe des patentierten Verfahrens lassen sich zB Getränkeflaschen aus PET recyceln.

Ein acib-Team in Tulln arbeitet auch an neuen, biologischen Kunststoffen, die in einer Kläranlage innerhalb eines Tages abgebaut werden können.

Biosprit 2.0

Unter Biosprit im klassischen Sinn versteht man Bioethanol, das aus Getreide gewonnen wird. Das acib beteiligt sich am Entwickeln alternativer Methoden, d.h. Methoden, die ohne den Einsatz von Lebensmitteln auskommen. Basis für „Biosprit 2.0“ sind landwirtschaftliche Abfälle, etwa das fein gehäckselte Stroh, das nach der Getreideernte übrig bleibt. Geeignete Enzyme aber auch intakte Mikroorganismen können daraus Biosprit machen. Eine andere Rohstoffquelle sind Energiegräser wie Miscanthus: diese Pflanze nimmt keiner Kulturpflanze Platz weg, weil sie sehr anspruchslos ist und in Bereichen wachsen kann, in denen Lebensmittelpflanzen kaum noch gedeihen. Nichtsdestoweniger enthält Miscanthus viel wertvolle Cellulose, aus der Zucker und letztendlich Biosprit entstehen kann.

Große Fermenter für große ProduktmengenVom Labor ins Technikum : Große Fermenter für große Produktmengen

Enzym-Google

Enzyme gewinnen immer mehr Bedeutung in industriellen Verfahren und es werden laufend neue, noch nicht beschriebene Enzymfunktionen benötigt. Die Suche nach geeigneten Enzymen für derartige Funktionen war bis jetzt äußerst aufwendig, vergleichbar mit der Suche nach der Nadel im Heuhaufen. acib-Forscher in Graz haben nun eine Internet-Suchmaschine – das Catalophor System – entwickelt, das von den angenommenen Strukturmerkmalen in und um das aktive Zentrum eines gesuchten Enzyms ausgeht. Damit durchforstet dieses „Enzym-Google“ zur Zeit rund 100.000 Datenbankeinträge von Enzymstrukturen nach Ähnlichkeiten und listet mögliche Kandidaten auf. Die vielversprechendsten Kandidaten können dann biotechnologisch hergestellt und auf die gewünschte Funktion experimentell geprüft werden. Die Datenbank erweitert sich selbständig, durchsucht öffentlich zugängliche Datenbanken nach neuen Enzymstrukturen. Das Projekt hat 2014 den Innovationspreis bei der er weltgrößten Messe für die chemische und Pharmaindustrie (CPhI: Convention of Pharmaceutical Ingredients) gewonnen.

Über das acib

Die genannten Beispiele sind eine Auswahl aus mehr als 50 Forschungsprojekten, die derzeit am acib zusammen mit internationalen Partnern aus Wissenschaft und Wirtschaft abgewickelt werden. Das acib

  • gibt es als öffentlich gefördertes Kompetenzzentrum seit 2010 mit dem Ziel, die Forschung in industrieller Biotechnologie in Österreich zu bündeln und ein Zentrum von internationalem Gewicht zu schaffen.
  • entwickelt neue, umweltfreundlichere und ökonomischere Prozesse für die Industrie (Biotech, Chemie, Pharma) und verwendet dafür die Methoden der Natur als Vorbild und Werkzeuge der Natur als Hilfsmittel.
  • beschäftigt rund 200 Personen mit bis zu 30 Jahren Erfahrung in industrieller Biotechnologie.
  • verzeichnet bereits mehr als 1100 Publikationen und Konferenzbeiträge und mehrere Dutzend Patente und Erfindungen.

Mit Standorten in Graz, Wien, Innsbruck, Tulln, Hamburg, Heidelberg und Bielefeld (D), Pavia (I) und Barcelona (E) ist das acib ein Netzwerk von 130+ internationalen Projektpartnern, darunter BASF, DSM, Sandoz, Boehringer Ingelheim RCV, Jungbunzlauer, voestalpine, VTU Technology und Clariant.

Eigentümer sind die Universitäten Innsbruck und Graz, die TU Graz, die Universität für Bodenkultur Wien sowie Joanneum Research.

Öffentliche Fördermittel bekommt das acib von der nationalen Forschungsförderung. Es wird im Rahmen von COMET – Competence Centers for Excellent Technologies - durch das BMVIT, BMWFW sowie die Länder Steiermark, Wien, Niederösterreich und Tirol gefördert. Das Programm COMET wird durch die FFG abgewickelt. In der ersten, bis Ende 2014 laufenden Förderperiode funktionierte das mit einem Budget von rund 60 Mio Euro (die Hälfte davon sind öffentliche Förderungen, die andere Hälfte kommt von den Industriepartnern) so gut, dass das Budget für die zweite, bis Ende 2019 laufende Förderperiode auf 65 Mio Euro aufgestockt wurde.


* Austrian Center of Industrial Biotechnology (acib) homepage: www.acib.at


Weiterführende Links

acib -- Innovationen aus der Natur. Video 3:35 min. https://www.youtube.com/watch?v=_FVa2glNTl4
Take Tech 2014 - ACIB GmbH. Video 2:17 min. https://www.youtube.com/watch?v=8PKu8Vaky80
acib - innovations on video Video 2:02 min https://www.youtube.com/watch?v=fD4hapu0Gwo
Höhepunkte der industriellen Biotechnologie Video 2:45 min. https://www.youtube.com/watch?v=q56-lIr9D-Q

inge Fri, 12.06.2015 - 07:00

Artenvielfalt und Artensterben

Artenvielfalt und Artensterben

Fr, 05.06.2015 - 07:36 — Frank Stollmeier Frank StollmeierIcon MINT

Die heutige Artenvielfalt ist das Resultat eines langen Prozesses aus Entstehung und Aussterben von Arten. Der Verlauf dieses Prozesses lässt sich mithilfe von Fossiliendatenbanken nachvollziehen. Ein neues mathematisches Modell des Netzwerkes von Abhängigkeiten zwischen den Arten hilft, die Mechanismen dieses Prozesses besser zu verstehen. Der Physiker Frank Stollmeier (Max-Planck Institut für Dynamik und Selbstorgansisation) zeigt an Hand des Modells, unter welchen Bedingungen das Aussterben einzelner Arten ein Massenaussterben auslösen kann und weshalb die Artenvielfalt im Meer und auf dem Land einem qualitativ unterschiedlichen Wachstum folgt.*

Etwa 20 bis 40 Prozent der heute bekannten Arten gelten als vom Aussterben bedroht. Ihr Aussterben würde unseren Lebensraum dramatisch verändern. Diese bedrohten Arten leben natürlich nicht jede für sich allein, sondern sind Teil eines komplexen Ökosystems. Das Überleben einer Tierart kann beispielsweise davon abhängig sein, dass es bestimmte Beutetiere gibt, welche wiederum von bestimmten Futterpflanzen abhängen, deren Verbreitung von bestimmten Vögeln oder Insekten abhängt, und so weiter. Es gibt nur wenige Arten, die nicht in irgendeiner Weise von anderen Arten abhängig sind. Das bedeutet, dass zu den 20 bis 40 Prozent bedrohter Arten noch einmal eine unbekannte Zahl indirekt bedrohter Arten hinzukommt. Wie häufig führt das Aussterben einer Art zum Aussterben einer anderen Art? Könnte das Verschwinden einer einzelnen Art eine ganze Kettenreaktion von aussterbenden Arten auslösen?

Wenn wir das ganze Netzwerk von Abhängigkeiten zwischen den Arten kennen würden, ließen sich diese Fragen leicht beantworten. Davon sind wir allerdings weit entfernt. Die allermeisten der heute lebenden Arten sind noch gänzlich unbekannt. Und selbst die wenigen intensiv erforschten Arten sind erst seit Jahren oder einigen Jahrzehnten unter systematischer Beobachtung, was für Aussterbeprozesse ein vergleichsweise kurzer Zeitraum ist.

Um etwas über das Netzwerk von Abhängigkeiten zu lernen sind die bereits ausgestorbenen Arten besser geeignet als die heute lebenden. Es gibt Datenbanken ausgestorbener Arten, die erstellt wurden indem Tausende von Fossilienfunden nach ihrer jeweiligen Familie, Gattung und Art klassifiziert und auf ihre Entstehungszeit datiert wurden. Dies ermöglicht einen Beobachtungszeitraum von mehreren hundert Millionen Jahren. Natürlich sind auch diese Beobachtungen unvollständig, da nur von einem Bruchteil der jemals existierten Arten Fossilien gefunden wurden. Deshalb wird die Anzahl der Familien als ein Indikator für die Anzahl der Arten benutzt. Bei den Familien kann man davon ausgehen, dass diese fast vollständig erfasst sind und ihre Anzahl mit der Anzahl der Arten korreliert.

Aussterbeereignisse

Ein bekanntes Phänomen, das mithilfe der Fossiliendaten untersucht werden kann, sind die Aussterbeereignisse (Abb. 1). Bei den fünf größten Massenaussterben sind jeweils mehr als drei Viertel aller Arten ausgestorben.

Anteil ausgestorbener Gattungen an der gesamten ArtenvielfaltAbbildung 1. Die Grafik zeigt den Anteil ausgestorbener Gattungen an der gesamten Artenvielfalt eines Zeitintervalls in Prozent. Die Markierungen zeigen auf die fünf größten Massenaussterben in der Erdgeschichte. © Max-Planck-Institut für Dynamik und Selbstorganisation / Stollmeier

Als naheliegende Erklärung für solche Ereignisse werden oft Naturkatastrophen globalen Ausmaßes genannt, z. B. Vulkanausbrüche, Meteoriteneinschläge oder ein plötzlicher Klimawandel. Allerdings hat es in der Erdgeschichte viele Katastrophen gegeben und nicht jedes Aussterbeereignis lässt sich eindeutig einer bestimmten Katastrophe zuordnen. Eine alternative Erklärung geht davon aus, dass die Anzahl der aussterbenden Arten weniger von der Intensität äußerer Einflüsse als von einer internen Dynamik, also den Abhängigkeiten zwischen den Arten, abhängt. Ein Aussterben einzelner Arten durch veränderte Umweltbedingungen könnte auf die direkt betroffenen Arten beschränkt bleiben oder aber Auslöser eines großen Aussterbeereignisses sein. Die in Abbildung 1 gezeigte Abfolge von Aussterbeereignissen kann demnach als ein Resultat eines Netzwerkprozesses angesehen werden.

In unserer im Juni 2014 veröffentlichten Arbeit**) wurde erstmals ein Modell vorgestellt, das mit nur wenigen, biologisch plausiblen Annahmen mehrere statistische Eigenschaften der Fossiliendaten reproduzieren kann. Das Modell geht davon aus, dass Arten ein bestimmtes Risiko haben durch äußere Umwelteinflüsse auszusterben. Das Aussterben hat zur Folge, dass auch alle Arten aussterben, die von der betroffenen Art abhängig waren. Weiterhin gibt es eine bestimmte Wahrscheinlichkeit, mit der sich aus einer bestehenden Art eine neue Art entwickelt. Eine neu entstehende Art kann von einer der bestehenden Arten abhängig sein. Abbildung 2 zeigt eine schematische Darstellung des Modells.

Schematische Illustration eines Zeitschritts des ModellsAbbildung 2. Schematische Illustration eines Zeitschritts des Modells. Die Punkte stehen für Arten und die Pfeile zeigen die Abhängigkeiten untereinander an. Neu entstehende Arten sind grün und aussterbende Arten rot eingefärbt.© Max-Planck-Institut für Dynamik und Selbstorganisation / Stollmeier

Beginnend von einer oder wenigen Arten baut sich in dem Modell mit der Zeit ein immer größeres Netzwerk von Abhängigkeiten auf. Das Interessante an diesem Prozess ist, dass das Netzwerk während es wächst eine bestimmte Form beizubehalten versucht. Wenn es viele Arten gibt, die von wenigen Arten abhängig sind, ist das Netzwerk nicht stabil und häufige große Aussterbeereignisse sind die Folge. Wenn es dagegen wenige Arten gibt, die von vielen verschiedenen Arten abhängig sind, ist das Netzwerk stabil. Die Aussterbeereignisse fallen dann kleiner aus, wodurch das Netzwerk schneller wächst und sich wieder in Richtung instabilen Zustand bewegt. Durch diese entgegengesetzt wirkenden Mechanismen wird sich das Abhängigkeitsnetzwerk unabhängig von den Anfangsbedingungen immer einem bestimmten Zustand annähern, der sich durch ein bestimmtes Verhältnis von abhängigen und unabhängigen Arten auszeichnet. Bemerkenswerterweise geschehen in dem Modell in genau diesem Zustand Aussterbeereignisse deren Häufigkeitsverteilung vergleichbar ist mit den in Abbildung 1 gezeigten Aussterbeereignissen aus den Fossiliendaten.

Das Wachstum der Vielfalt im Meer und an Land

Neben einer Beschreibung für Aussterbeereignisse bietet das Modell auch eine ganz neue Erklärung für eine Beobachtung, die seit Verfügbarkeit der Fossiliendaten für Diskussionen sorgt. Aus den Fossiliendaten lässt sich die Anzahl der zu einer bestimmten Zeit existierenden Familien bestimmen und dadurch die Entwicklung der Artenvielfalt über mehr als 500 Millionen Jahre rekonstruieren (Abb. 3). Lassen sich diese Kurven als einfache Wachstumsprozesse beschreiben?

Aus Fossiliendaten rekonstruierte Entwicklung der Anzahl von Familien auf der ErdeAbbildung 3. Die Grafik zeigt die aus Fossiliendaten rekonstruierte Entwicklung der Anzahl von Familien auf der Erde. Die großen Massenaussterben sind hier nur als kleine Einbrüche zu erkennen, weil bei diesen trotz sehr vieler Arten nur wenige komplette Familien ausgestorben sind. © Max-Planck-Institut für Dynamik und Selbstorganisation / Stollmeier

Die meisten vorgeschlagenen Modelle für das Wachstum lassen sich auf zwei Hypothesen zurückführen. Da neue Arten aus bestehenden Arten entstehen, ist die eine Hypothese ein exponentielles Wachstum. Dem gegenüber steht die Hypothese vom logistischen Wachstum, bei dem die Vielfalt nach anfänglichem Wachstum eine Sättigung erreichen würde, weil der Platz, die Energie und andere Ressourcen auf der Erde begrenzt sind.

Schaut man zunächst nur die Entwicklung der Artenvielfalt auf den Kontinenten an, dann scheint das exponentielle Wachstum dafür eine gute Beschreibung zu sein. Bei der Kurve für die Vielfalt im Meer sieht man aber nach einem anfänglichen Wachstum einen bemerkenswert langen Zeitraum von über 200 Millionen Jahren in dem sich die Vielfalt kaum verändert hat oder sogar leicht gesunken ist. Dies lässt sich mit exponentiellem Wachstum kaum vereinbaren, es passt eher zur Sättigung eines logistischen Wachstums. Dann bleiben aber zwei Fragen ungeklärt: Warum beginnt die Vielfalt im Meer nach diesem Zeitraum der Sättigung wieder zu wachsen? Und was ist der Grund dafür, dass die Vielfalt im Meer von der auf dem Land ein so unterschiedliches Wachstum aufweist?

Mit dem vorgestellten Modell lassen sich beide Kurven erklären ohne zwei voneinander verschiedene Prozesse anzunehmen. Ob die Anzahl der Arten annähernd exponentiell wächst oder ein exponentielles Wachstum durch längere Phasen der Stagnation unterbrochen wird, hängt in dem Modell nur von einem Parameter ab. Dieser Parameter ist die relative Aussterbewahrscheinlichkeit, definiert als das Verhältnis der Wahrscheinlichkeit, dass eine Art ausstirbt, zu der Wahrscheinlichkeit, dass aus einer bestehenden Art eine neue Art entsteht. Ist die Wahrscheinlichkeit auszusterben deutlich kleiner als die Wahrscheinlichkeit neue Arten zu bilden, bleibt das Abhängigkeitsnetzwerk in einem stabilen Zustand und die Artenvielfalt wächst exponentiell. Ist die Wahrscheinlichkeit auszusterben fast so groß wie die Wahrscheinlichkeit neue Arten zu bilden, kann das Netzwerk plötzlich instabil werden. In diesem Zustand sind viele Arten von wenigen abhängig, wodurch es vermehrt zu großen Aussterbeereignissen kommt. Dadurch ist die Aussterberate erhöht und somit das Wachstum gehemmt solange bis das Übermaß an abhängigen Arten abgebaut wurde und das Netzwerk damit in einen stabilen Zustand zurückgekehrt ist.

Diese Erklärung für das unterschiedliche Wachstum im Meer und an Land setzt voraus, dass die relative Aussterbewahrscheinlichkeit im Meer kleiner ist als an Land. Mithilfe der Fossiliendaten konnte dieser Unterschied bestätigt werden.

Mit einem solchen Modell lassen sich weder Aussterbeereignisse noch der weitere Verlauf der Artenvielfalt vorhersagen. Aber es kann dazu beitragen eine Vorstellung davon zu bekommen, wie die Arten voneinander abhängig sind und nach welchen Mechanismen sich dieses Netz entwickelt, was eine notwendige Voraussetzung dafür sein wird, das heute zu beobachtende Artensterben zu verstehen.


*) Der im Jahrbuch der Max-Planck Gesellschaft MPF 4/13 online erschienene Artikel http://www.mpg.de/8880580/MPIDS_JB_2015 wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel wird hier in voller Länge, aber ohne Literaturzitate wiedergegeben. **) Stollmeier, F.; Geisel, T.; Nagler, J. Possible Origin of Stagnation and Variability of Earth’s Biodiversity. Physical Review Letters 112, 228101 (2014)

inge Fri, 05.06.2015 - 07:36

Der Wiener Kreis – eine wissenschaftliche Weltauffassung

Der Wiener Kreis – eine wissenschaftliche Weltauffassung

Fr, 29.05.2015 - 07:22 — Karl Sigmund

Karl SigmundIcon WissenschaftsgeschichteIm Wien der Zwischenkriegszeit bildete sich ein interdisziplinärer Zirkel aus namhaften Mathematikern, Naturwissenschaftern und Philosophen, deren zentrales Thema eine rational-empirisch geprägte, antimetaphysische Weltsicht war. Dieser „Wiener Kreis“ hatte massiven Einfluss auf das Geistesleben und die Sozialgeschichte des 20.Jahrhunderts und legte ebenso den Grundstein für neue Forschungsbereiche, vor allem in der Mathematik und Informatik. Zum „Wiener Kreis“ findet im Rahmen des 650-Jahre Jubiläums der Universität Wien eine Ausstellung statt [1]. Kurator dieser Ausstellung ist der Mathematiker Karl Sigmund, der sich seit seiner Jugendzeit mit dem Wiener Kreis beschäftigt und darüber ein Buch „Sie nannten sich Der Wiener Kreis“ verfasst hat [2]. Aus diesem, eben erschienenen Buch hat er freundlicherweise den nachfolgenden Artikel dem ScienceBlog zur Verfügung gestellt.

Im Jahr 1924 gründen ein Philosoph, Moritz Schlick, ein Mathematiker, Hans Hahn, und ein Sozialreformer, Otto Neurath, einen philosophischen Zirkel in Wien. Moritz Schlick und Hans Hahn sind Professoren an der Universität Wien, Otto Neurath Direktor des Wiener Gesellschafts- und Wirtschaftsmuseums.

Ab 1924 trifft sich der Zirkel regelmäßig an Donnerstagabenden in einem kleinen Hörsaal in der Boltzmanngasse (Mathematisches Seminar, Universität Wien), um philosophische Fragen zu diskutieren:

Wodurch zeichnet sich wissenschaftliche Erkenntnis aus?

Haben metaphysische Aussagen einen Sinn?

Worauf beruht die Gewissheit von logischen Sätzen?

Wie ist die Anwendbarkeit der Mathematik zu erklären?

„Die wissenschaftliche Weltauffassung“, so verkündet das Manifest des Wiener Kreises, „ist nicht so sehr durch eigene Thesen charakterisiert, als vielmehr durch die grundsätzliche Einstellung, die Gesichtspunkte, die Forschungsrichtung.“ (Abbildung 1)

Der Wiener Kreis erstmals im DruckAbbildung 1. Der Wiener Kreis erstmals im Druck Der Zirkel will wissenschaftlich philosophieren, ohne Gerede von unergründlicher Tiefe und bedeutungsschwangerer Weltabgewandtheit:

„In der Wissenschaft gibt es keine ‚Tiefen‘: Überall ist Oberfläche: Alles Erlebte bildet ein kompliziertes, nicht immer überschaubares, oft nur im einzelnen fassbares Netz. Alles ist dem Menschen zugänglich; und der Mensch ist das Maß aller Dinge.“

Der Wiener Kreis steht in der Tradition von Ernst Mach und Ludwig Boltzmann, zwei Physikern, die um die Jahrhundertwende an der Universität Wien Philosophie gelehrt haben. Vorbilder des Wiener Kreises sind der Physiker Albert Einstein, der Mathematiker David Hilbert und der Philosoph Bertrand Russell.

Bald werden die Diskussionen des Wiener Kreises durch den kurz zuvor erschienenen Tractatus logico-philosophicus dominiert, ein Büchlein, das Ludwig Wittgenstein während des Ersten Weltkriegs als Frontoffizier geschrieben hat. Wittgenstein hat sich nach dem Krieg von seinem riesigen Erbe getrennt und lebt als Volksschullehrer in Niederösterreich. Durch die Gespräche mit ausgewählten Mitgliedern des Wiener Kreises kehrt er allmählich wieder zur Philosophie zurück.

Aus dem Vorwort des Tractatus logico-philosophicusAbbildung 2. Aus dem Vorwort des Tractatus logico-philosophicus Mit angestaubten philosophischen Lehrmeinungen will der Wiener Kreis nichts zu tun haben:

„Die wissenschaftliche Weltauffassung kennt keine unlösbaren Rätsel. Die Klärung der traditionellen philosophischen Probleme führt dazu, dass sie teils als Scheinprobleme entlarvt, teils in empirische Probleme umgewandelt und damit dem Urteil der Erfahrungswissenschaft unterstellt werden. In dieser Klärung von Problemen und Aussagen besteht die Aufgabe der philosophischen Arbeit, nicht aber in der Aufstellung eigener ‚philosophischer‘ Aussagen.“

Zum Wiener Kreis stößt glänzender Nachwuchs, wie etwa der Philosoph Rudolf Carnap, der Mathematiker Karl Menger oder der Logiker Kurt Gödel, der das Grenzgebiet zwischen Mathematik und Philosophie entscheidend prägen wird. Auch Karl Popper ist eng mit dem Wiener Kreis verbunden, obwohl er nie zu den Sitzungen eingeladen wird. (Abbildung 3).

Der Wiener Kreis steht in der Tradition von Ernst Mach und Ludwig BoltzmannAbbildung 3. Der Wiener Kreis steht in der Tradition von Ernst Mach und Ludwig Boltzmann

Rasch wird der Zirkel zur Hochburg des Logischen Empirismus. Führende Köpfe in Prag, Berlin, Warschau, Cambridge und Harvard greifen die Themen auf. Ab 1929 tritt der Zirkel an die Öffentlichkeit, über eigene Zeitschriften, Tagungen, Bücher und Vorlesungsreihen. Am Beginn dieser Phase steht ein Manifest:

Die Wissenschaftliche Weltauffassung (Abbildung 1) ist kein Gründungsdokument – den Schlick-Zirkel gibt es bereits seit fünf Jahren –, aber so etwas wie ein Taufschein. Der von Neurath vorgeschlagene Name „Wiener Kreis“ ist neu. Er soll positive Assoziationen wecken (wie „Wiener Wald“ oder „Wiener Walzer“). Die Schrift dient als Manifest, nicht nur für eine philosophische Schule, sondern für eine gesellschaftspolitische Ausrichtung. “Die wissenschaftliche Weltauffassung dient dem Leben und das Leben nimmt sie auf.“

Die Verfasser des Manifests gehören zum linken Flügel der Gruppe und machen kein Hehl aus ihrer Absicht, die Gesellschaft zu reformieren. Der von Mitgliedern des Wiener Kreises im Jahr 1928 gegründete Verein Ernst Mach widmet sich der „Verbreitung der wissenschaftlichen Weltauffassung“ und engagiert sich an der Seite des sozialdemokratischen Roten Wien im politischen Kampf um die Stadt, besonders im Bildungs- und Siedlungsbereich.

Rasch werden der Wiener Kreis und der Verein Ernst Mach zum roten Tuch für die antisemitischen und reaktionären Strömungen an der Universität Wien. Das politische Umfeld wird zunehmend feindselig. In dieser zweiten, öffentlichen Phase kommt es zur schrittweisen Auflösung des Wiener Kreises.

Carnap zieht als Professor nach Prag, Wittgenstein nach Cambridge. Neurath kann nach dem Bürgerkrieg von 1934 österreichischen Boden nicht mehr betreten. Hahn stirbt im selben Jahr unerwartet an den Folgen einer Krebsoperation. Gödel muss sich mehrfach in Nervenheilanstalten zurückziehen. Schlick wird 1936 im Hauptgebäude der Universität von einem ehemaligen Studenten erschossen. Menger und Popper emigrieren bald darauf, angewidert von der öffentlichen Stimmung. Die meisten Mitglieder des Wiener Kreises verlassen Wien, noch bevor es zu den sogenannten Säuberungen nach dem „Anschluss“ kommt. Als Nachzügler gelangt Gödel im Kriegsjahr 1940 über die Sowjetunion und Japan in die USA.

Emigration und Internationalisierung gehen Hand in Hand. Der inzwischen weltbekannte Wiener Kreis verliert seine Wiener Wurzeln.

In der Nachkriegszeit kann der Wiener Kreis in Wien nicht mehr Fuß fassen. Doch bleibt er weiter weltweit wirksam, und ist aus der Geistesgeschichte des zwanzigsten Jahrhunderts nicht wegzudenken. Er hat so diverse Fächer wie die analytische Philosophie, die formale Logik, die Quantenphysik und die Wirtschaftswissenschaften beeinflusst. So lassen sich etwa die Computeralgorithmen, die heute unser Leben bestimmen, in direkter Linie auf die Untersuchungen Kurt Gödels über Logik und Berechenbarkeit zurückführen; und die Symbole, die auf allen Flughäfen der Welt die Besucherströme lenken, leiten sich von Otto Neuraths Bildersprache her.

Mord und Selbstmord, Liebschaften und Nervenzusammenbrüche, politische Verfolgungen und Vertreibung haben alle ihren Platz in der schillernden Geschichte des Wiener Kreises, doch den roten Faden bilden die geistigen Auseinandersetzungen. Der Zirkel verwirklicht keineswegs das von einigen angestrebte „denkerische Kollektiv“. Die handelnden Personen verfolgen gemeinsame Ziele, doch ihre Beziehungen werden von leidenschaftlichen Kontroversen geprägt.

Karl Sigmund führt durch die AusstellungAbbildung 4. Karl Sigmund (im Vordergrund) führt durch die Ausstellung.

Am Anbeginn steht, an der Schwelle zum zwanzigsten Jahrhundert, eine vielbeachtete Auseinandersetzung zwischen Mach und Boltzmann im Sitzungssaal der Wiener Akademie der Wissenschaften zur Frage: „Gibt es Atome?“

Am Ende steht, kurz nach dem zweiten Weltkrieg, ein erbitterter Streit zwischen Popper und Wittgenstein bei einem Kamingespräch in Cambridge um die Frage: „Gibt es philosophische Probleme?“

Im knappen halben Jahrhundert zwischen diesen beiden Disputen spielt Wien in der Philosophie eine ähnliche richtungsweisende Rolle, wie einst in der Musik; und in diesem goldenen Zeitalter der österreichischen Philosophie nimmt der Wiener Kreis eine zentrale Stellung ein.


[1] Im Zusammenhang mit den Feiern zum 650-Jahre-Jubiläum findet im Hauptgebäude der Universität Wien von Mitte Mai bis Ende Oktober 2015 die zweisprachige Ausstellung (dt./engl.) „Der Wiener Kreis“ statt. Kuratoren sind der Wissenschaftshistoriker Friedrich Stadler und der Mathematiker Karl Sigmund (Abbildung 4). https://www.univie.ac.at/AusstellungWienerKreis/

[2] Karl Sigmund, Sie nannten sich Der Wiener Kreis. Exaktes Denken am Rand des Untergangs. Wiesbaden: SpringerSpektrum 2015. ISBN 978-658-08534-6 http://mlwrx.com/sys/w.aspx?sub=dAvsT_2A6MTL&mid=8d03ba11

inge Fri, 29.05.2015 - 07:22

Erzeugung und Speicherung von Energie. Was kann die Chemie dazu beitragen?

Erzeugung und Speicherung von Energie. Was kann die Chemie dazu beitragen?

Fr, 22.05.2015 - 08:30 — Niyazi Serdar Sariciftci

Niyazi Serdar SariciftciIcon ChemieMit dem Umstieg von fossilen auf erneuerbare Energien steht das Problem von Speicherung und Transport dieser Energien im Vordergrund. Als Lösung bietet sich die Umwandlung von Wind- und vor allem von Solarenergie in chemische Energie – u.a. in Form synthetischer Brennstoffe – an. Vorbild hierfür ist im Prinzip die Photosynthese von Pflanzen. Der Physiker Sariciftci - weltweit anerkannter Pionier in diesem Gebiet- sieht darin erfolgversprechende Möglichkeiten für eine Revolution im Energiebereich..*

Im 21. Jahrhundert erleben wir eine Konvergenz mehrerer Krisen: es sind dies die Energiekrise, die Klimakrise der globalen Erwärmung, die demographische Krise der wachsenden Weltbevölkerung und die Wirtschaftskrise. Diese Krisen sind voneinander nicht unabhängig.

Jede dieser Krisen könnte korrigiert werden, wenn wir genug billige Energie zur Verfügung hätten.

Die globale Energieerzeugung liegt heute bei ca. 14-16 TeraWatt (TW) Seriöse Schätzungen gehen davon aus, dass der Bedarf weiter steigen wird, sich in den nächsten 20 Jahren praktisch verdoppeln, aber um mindestens 10 TW erhöhen wird.

Aktuell werden rund 86 % des Energiebedarfs aus fossilen Brennstoffen – dazu gehören Steinkohle, Braunkohle, Erdgas und Erdöl - generiert (Abbildung 1). Das führt zu zwei Hauptproblemen:

Das primäre Problem ist, dass diese fossilen Vorräte nicht ewig halten. In Zukunft wird durchwegs eine geringere Förderung des Erdöls im Vergleich zu heute erwartet – und dies bei einem steigenden Energiebedarf der Welt. Dazu kommt, dass nur wenige Länder und eine noch kleinere Anzahl an Firmen diese Form der globalen Energiewirtschaft kontrollieren. Energie aus den Erdölquellen zu zapfen wird also zunehmend schwieriger, teurer und kann schließlich den Zusammenbruch vieler realer Volkswirtschaften nach sich ziehen.

Das nicht minder gravierende zweite Problem besteht darin, dass fossile Brennstoffe bei Verbrennung CO2 freisetzen. Dieses Gas hat nun bereits Konzentrationen von 400 ppm (400 g /1000 kg) erreicht - derartige Konzentrationen hat es in Millionen von Jahren nicht gegeben - Klimatologen warnen vor schwersten Katastrophen in den nächsten hundert Jahren.

Verbrauch unserer RessourcenAbbildung 1. Verbrauch unserer Ressourcen. Rechts: Weltweiter Energieverbrauch nach Energiearten im Jahr 2013 (Quelle: http://de.wikipedia.org/wiki/Fossile_Energie, basierend auf Statistical Review of World Energy 2014: http://www.bp.com/content/dam/bp/pdf/Energy-economics/statistical-review...)

Wodurch lassen sich fossile Brennstoffe ersetzen?

Derzeit stammen rund 14 % des globalen Energiebedarfs aus nicht-fossilen Quellen, im Wesentlichen aus Kernenergie, Wasserkraft, Geothermie, Windkraft und Sonnenergie. Die Frage ist: inwieweit wird es möglich sein den zukünftigen Energiebedarf aus diesen Quellen decken?

Nukleare Energie ist keine Alternative

Will man den steigenden Energiebedarf – mindestens 10 TW Leistung - mit nuklearer Energie decken, so bedeutet dies, dass wir 10.000 neue 1 GW Nuklearreaktoren - d.i. in der Größe von Fukushima - aufbauen müssten. Wenn wir morgen anfangen und bis zum Jahre 2030 jeden Tag eine neue Nuklearanlage aufbauen, wäre die Zeit trotzdem nicht genug, um eine solche Leistungskapazität zu erreichen. Selbst wenn man solche Kapazitäten aufstellen könnte, wäre die weltweite Verfügbarkeit des nuklearen Brennstoffes in wenigen Minuten aufgebraucht. Dieses einfache Rechenbeispiel zeigt unausweichlich, wie fatal die Argumentationsbasis einer Nuklearwirtschaft als Lösung des Energieproblems der Zukunft auf diesem Planeten ist. Nukleare Energie ist ein Luxus, den sich auch wohlhabende Staaten nur teilweise leisten können. Für die globale Zukunft der Menschheit bietet nukleare Energie keine Lösungskapazität.

Ausbaumöglichkeiten von Wasserkraft sind bereits limitiert,

denn Wasserkraft ist bereits heute weltweit sehr gut ausgebaut. Experten schätzen die zusätzliche Kapazität einer hydroelektrischen Energiewirtschaft auf bloß 1-2 TW.

Chancen für die Geothermie

Hier gibt es in der Tat noch größere ausbaubare Kapazitäten. Geothermie könnte an vielen Orten der Erde bis zu mehreren TW ausgebaut werden. Eine technologische Herausforderung tritt aber auf, welche die geologische Stabilität der Anlagen in verschiedenen Regionen betrifft. Ein großer Vorteil der Geothermie ist hingegen, dass sie delokalisiert eingesetzt werden kann. Die eigenen vier Wände kann man bereits heute mit autonomen Wärmepumpen weitgehend unabhängig heizen. Den dazu benötigten Strom kann man aus Solarenergie beziehen und somit die volle Autonomie erreichen.

Weiterer Ausbau von Windkraft

Windenergie wird bereits heute in großem Maßstab erzeugt und weiter ausgebaut. Eine noch höhere Kapazität wird in den Off-Shore Regionen weit draußen im Meer berechnet. Allerdings wirft die Windenergie wegen ihrer Instabilität viele Sorgen auf, zu ihrer Stabilisierung benötigt sie unbedingt eine große Speichermöglichkeit.

Biomasse

Ein Einsatz von Biomasse der ersten Generation, der Agrarbiomasse, zur Brennstoffherstellung, steht in direkter Konkurrenz zum Ernährungssektor. Es kann doch nicht sein, dass in dieser Welt viele verhungern müssten, damit wir hier in entwickelten Ländern autofahren können.

Biomasse der 2. Oder 3. Generation – mit Algen, photosynthetischen Bakterien – bietet dagegen interessante Ansätze. Trotzdem muss man beachten, dass die natürliche Photosynthese eher ineffizient ist (<1%) und die lebenden Organismen eher zur Fragilität neigen. Dies ist nicht die beste Voraussetzung für einen globalen Ansatz in Terawatt-Skala.

Sonnenenergie – das größte Potential

Die Kapazitäten der Sonnenenergie sind unvorstellbare 120.000 TW! Das heißt: die Einstrahlung in einer Stunde entspricht unserem aktuellen Jahresbedarf an Energie. Wenn wir also nur einen Bruchteil dieser Energie uns nutzbar machen könnten, wäre die Energiezukunft der Erde weitgehend gesichert. Dies klingt wie das Märchen von der schier unendlichen Energie, es könnte aber tatsächlich zur Realität werden. Die verschiedenen Technologien der Solarenergieerzeugung (Abbildung 2) möchte ich hier nicht gegeneinander ausspielen. Alle Wege führen nach Rom und alle Technologien werden für die „solare Revolution“ eifrig beworben. Welche Technologien sich am Ende des Tages als nützlich für diese Revolution erweisen, wird sich mit der Zeit zeigen. Entwicklung verschiedener Typen von SolarzellenAbbildung 2. Die Entwicklung verschiedener Typen von Solarzellen – Silizium-, Organische-, Farbstoff-Solarzellen - führt zu immer höheren Wirkungsgraden (Bild: Wikipedia).

Eine logische Antwort auf die drohende Energiekrise wäre also ein Umstellen der Energieversorgung auf die Basis von Solarenergie und Windenergie, unterstützt durch Geothermie. Die Umwandlung dieser erneuerbaren Energien in Wärme, Elektrizität oder in chemische Energie spielt dabei eine wichtige Rolle.

Wie lassen sich erneuerbare Energien speichern?

Solarenergie und Windenergie unterliegen starken Schwankungen - die Sonne scheint, der Wind bläst, wann sie wollen und nicht, wenn wir dafür Bedarf haben. Diese Energie muss irgendwie gespeichert werden. Wird sie vor Ort verwendet, genügt ein einfacher Speicher. Bei Überland-Transporten geht das nicht. Wir müssen daher ein Medium erzeugen, dass speicherbar und transportabel ist. Flüssige Treibstoffe sind dafür gut geeignet. Ein Beispiel: Ein Liter Benzin enthält etwa 12 bis 15 Kilowattstunden Energie. Der modernste Tesla-Akku kann bei 100 Kilo Eigengewicht ungefähr 10-12 Kilowattstunden speichern. Wenn wir einen Energieüberschuss später und woanders nutzen wollen, benötigen wir entsprechende Möglichkeiten zur Speicherung und auch zum Transport über große Distanzen. Ganz so wie wir es für fossile Energien gewohnt sind: die Erdgasleitung, die in mein Haus führt, hat ihren Ursprung irgendwo in Sibirien – tausende Kilometer entfernt. Aus meiner Sicht ist somit klar, wo die Präferenzen liegen sollten.

Großtechnisch wird heute elektrische Energie derzeit mit Hilfe von Pumpspeicherkraftwerken gespeichert (wie bei uns im Kaprun). Diese nutzen einen Überschuss an elektrischer Energie, um Wasser in einen höher gelegenen Speicher hinaufzupumpen. Bei größerer Stromnachfrage wird das Wasser wieder bergab fließen gelassen und es erzeugt dabei mittels Turbinen und Generatoren elektrischen Strom. Nicht überall ist so ein Pumpspeicherkraftwerk aber möglich.

Deswegen propagieren wir eine neue, besonders wirksame Methode der Speicherung von erneuerbaren Energien: diese direkt in eine Form von chemischer Energie zu überführen. Also CO2 und Wasser mit erneuerbaren Energien zu einem künstlichen Brennstoff umzuwandeln. Gleichzeitig lässt sich damit auch das Problem der zu hohen CO2 Emissionen- wie sie vor allem bei Kraftwerken mit fossilen Brennstoffen auftreten - in den Griff bekommen, das CO2 wieder in einen Kreislauf zu schicken, der von der Sonne und vom Wind getrieben wird.

Umwandlung erneuerbarer Energie in chemische Energie – aus dem Problemstoff CO2 wird neuer Brennstoff

Um CO2 loszuwerden, gibt es zwar andere großtechnische Möglichkeiten, die CO2 einfangen, abtrennen und in tiefe Sedimentschichten oder in die Tiefsee zu pumpen („carbon dioxide capture and storage“ (CCS) ). Dies sind aber teure und komplizierte Verfahren, die nicht ungefährlich sind.

Anstatt CO2 in tiefen Gesteinsschichten zu lagern, kann überschüssige erneuerbare Energie jedoch dazu verwendet werden CO2 zu recyceln („carbon dioxide capture and utilization“ (CCU) ). Nach dem Vorbild der Photosynthese in Pflanzen kann CO2 aus der Luft entnommen und (mittels geeigneter Katalysatoren) zu organischen Verbindungen umgesetzt werden, die dann einerseits als Ausgangsstoffe für chemische Synthesen und andererseits als Brennstoffe dienen. Im letzteren Fall steht heute vor allem die Konvertierung zu Methan (CH4) im Vordergrund. Der Vorteil von Methan, das ja Hauptbestandteil von Erdgas ist: die nötige Infrastruktur in Form des Erdgasnetzes mit enormen Speicherkapazitäten steht heute in Europa und in vielen entwickelten Ländern bereits zur Verfügung.

Basierend auf einem Forschungsprojekt zur Erzeugung von Treibstoffen durch erneuerbare Energie, das wir an unserem Linzer Institut für Organische Solarzellen (LIOS) gemeinsam mit Gregor Waldstein durchführten, ist 2007 die Spinoff-Firma Solar Fuel entstanden. Diese (nun in ETOGAS umbenannte) Firma ist jetzt in Stuttgart tätig. In Zusammenarbeit mit führenden deutschen Forschungsinstitutionen (dem Zentrum für Sonnenenergie- und Wasserstoff-Forschung Baden-Württemberg und dem Fraunhofer-Institut für Windenergie und Energiesystemtechnik) wurde 2013 eine Anlage fertiggestellt, die mit mehreren Megawatt (MW) Anschlussleistung läuft.

Künstliches Erdgas kann also aus erneuerbaren Energien plus CO2-Recycling bereits hergestellt werden (Abbildung 3): In dieser sogenannten „indirekten Reduktion“ wird Energie eingesetzt, um im ersten Schritt Wasser durch Elektrolyse in Wasserstoff (H2)und Sauerstoff zu zerlegen und im zweiten Schritt CO2 mit H2 zu Methan zu konvertieren- das Methan kann dann in das Gasnetz eingespeichert werden. Industrie, Heizkraftwerke, Autos können das erneuerbare Gas nutzen, das CO2-neutral ist. Der Autokonzern AUDI ist bereits Anwender dieser neuen Technologie.

Recycling von CO<sub>2</sub>Abbildung 3. Recycling von CO2: Indirekte Reduktion von CO2 mit durch Elektrolyse hergestelltem Wasserstoff. Eingespeist werden Wasser und ein CO2/Luftgemisch. Erneuerbarer Strom wird zur Elektrolyse des Wassers, der Abtrennung von CO2 aus der Luft, seiner darauffolgenden Desorption und der reduktiven Konvertierung zu Methan (CH4) mit H2 eingesetzt. Unten ist der Prototyp der nun bereits in Stuttgart laufenden Anlage schematisch dargestellt.

Neue Konzepte – direkte Reduktion von CO2 zu Methan

In unserem Institut beschäftigen wir uns nun damit Sonnenstrahlen direkt, in einem sehr komplizierten Mechanismus, in chemische Energie in Form von beispielsweise Methan, Methanol oder Oktan umwandeln, ohne Zwischenprodukte. Für die direkte Reduktion des CO2 zu Methanol werden 6, zu Methan 8 Elektronen benötigt. Wir verfolgen drei unterschiedliche Ansätze (Abbildung 4):

  • die elektrochemische Reduktion: die Elektronen stammen hier aus elektrischer Energie und Metallkomplexe (u.a. Rhenium-, Rhodium-, Rutheniumkomplexe) katalysieren die Reaktionen.
  • Biokatalyse: hier reduziert ein Set von stabilisierten hochspezifischen Enzymen (Dehydrogenasen) CO2 schrittweise zu Formiat, Formaldehyd und Methanol. Elektrische Energie dient zum Recyceln des für die Reaktionen essentiellen Kofaktors (NADH).
  • Photokatalyse: Vorbild ist hier die natürliche Photosynthese, welche Sonnenlicht mittels des Photosensitizers Chlorophyll „einfängt“. Dadurch angeregt werden Elektronen generiert und genutzt, um in einer komplizierten Reaktionsfolge aus CO2 und Wasser Glukose aufzubauen. Die künstliche Photosynthese zur direkten Reduktion von CO2 verwendet Photosensitizer, die häufig organometallische Verbindungen sind und - über die Anregung durch Sonnenlicht hinaus – auch als Katalysatoren für die Reaktionsfolge fungieren.
  •  

Umwandlung der Sonnenenergie in chemische Energie durch direkte Reduktion von CO<sub>2</sub>Abbildung 4. Umwandlung der Sonnenenergie in chemische Energie durch direkte Reduktion von CO2. In jedem dieser Ansätze entsteht Treibstoff, der CO2-neutral ist.

Ausblick

Mit dem Umstieg von fossilen auf erneuerbare Energien steht das Problem von Speicherung und Transport dieser Energien im Vordergrund. Als Lösung bietet sich die Umwandlung von Wind- und vor allem von Solarenergie in chemische Energie – u.a. in Form synthetischer Brennstoffe – an. Vorbild hierfür ist im Prinzip die Photosynthese von Pflanzen. Die Machbarkeit derartiger Konzepte ist gezeigt. Diese Strategien ermöglichen auch das Recycling von CO2 - aus dem Problemstoff wird so ein wertvolles Ausgangsmaterial.

Es erscheint realistisch, dass diese erfolgversprechenden Möglichkeiten zu einer Revolution im Energiebereich führen werden: Länder werden nicht mehr auf Energieimporte angewiesen sein, billige Energie wird dezentralisiert und autonom erzeugt werden können. Systembedingte oder vorsätzliche Verknappung von Energie, wie das heute etwa bei Gas oder Erdöl der Fall ist, wird dann der Vergangenheit angehören. Die Sonne scheint schließlich für alle!


Weiterführende Links

N.S. Sariciftci (2014) Solarenergie: Eine Demokratisierung der Energieversorgung? Niyazi Serdar Sariciftci on Solar Energy Video 3:43 min.

Ein Tank voll Sonne . Video 2:423 min.

Niyazi Serdar Sariciftci on nanostructures for solar energy. Video 6:00 min Vortrag Sariciftci (Redtenbacher Symposium Steyr, 2013) Teil 1 – 3 Videos (a 15 min) Teil 1: Teil 2: Teil 3: Methan aus erneuerbaren Energien. Video 6:38 min. https://www.youtube.com/watch?v=mZbEV8cKdgc Das Zeitalter der Industrie –Energie. http://www.oekosystem-erde.de/html/energie.html


 

inge Fri, 22.05.2015 - 08:30

Postdoc – eine Suche nach dem Ich

Postdoc – eine Suche nach dem Ich

Fr, 15.05.2015 - 12:06 — Inge Schuster

Inge SchusterPolitik & Gesellschaft

Der erste Roman von Gottfried Schatz*

Jahrhundertelang waren Gesellen nach Abschluss der Lehrjahre „auf die Walz gegangen“, hatten in fremden Ländern, bei erfahrenen Meistern neue Techniken gelernt und Lebenserfahrungen gesammelt. Dies ist heute nur noch in der Welt der Wissenschaft üblich. Wenn man Forscher werden möchte, ist es nahezu unabdingbar nach Beendigung des Studiums auf die Walz zu gehen, als Postdoktorand – Postdoc – bei einem möglichst anerkannten Wissenschafter weiter zu lernen.

Der renommierte Biochemiker Gottfried Schatz – selbst geprägt durch seine Postdoc-Zeit – hat mehr als 80 Postdocs betreut. Seine Erfahrungen und Schlussfolgerungen verarbeitet er nun in einem Roman, der aber eine frei erfundene Handlung zum Inhalt hat. Es ist sein erstes Werk in diesem Genre. Dass Schatz ausgezeichnet formulieren kann, weiß man längst aus seinen mehr als 400 wissenschaftlichen Arbeiten und den vielen, auch für ein Laienpublikum leicht verständlichen Essays und Vorträgen. Dennoch erstaunt die Meisterschaft mit der er hier schreibt, fast möchte man sagen komponiert: es entsteht eine bunte Fülle an Geschichten, die (polyphon) miteinander verwoben werden, durchzogen von einem Grundmotiv - der Frage nach dem „Wer bin ich“ und begleitet von Leitmotiven, die den (Gemüts)zustand der handelnden Personen charakterisieren. Der Reichtum an Details, den dieser Roman bietet, ist nicht in wenigen Sätzen wiederzugeben. Jeder Leser wird Passagen finden, Aussagen des Autors, die ihn besonders ansprechen, die zum Nachdenken anregen. s ist ein großartiges, absolut empfehlenswertes Buch!

Die Vorgeschichte

Antal von Nemethy, ein junger Chemiker, hat alles, was ihm eine strahlende Zukunft verheißt. Er ist hochintelligent, talentiert und kreativ und er stammt aus einer wohlhabenden österreichisch-ungarischen Fabrikanten-Familie. Statt unter enttäuschenden Bedingungen in Wien konnte er es sich leisten sein Studium in Paris zu absolvieren – er wurde ein experimentell geschickter und vor allem von der Biochemie faszinierter Chemiker. Eine Zufallsentdeckung, die er dort gemacht hat, verspricht einen fulminanten Durchbruch in der Tumorbehandlung. Es handelt sich dabei um zwei an sich harmlose synthetische Substanzen, die sich in Krebszellen – und nur dort – zu einem „Binärmedikament“, einer tödlichen Waffe gegen diese Zellen verbinden. Leider ist er aber hier nicht der Erste – dasselbe Prinzip ist bereits knapp zuvor zur Veröffentlichung eingereicht worden und zwar von einem aus Ungarn stammenden, renommierten Mediziner, Sandor Cherascu, der in New York ein angesehenes Krebsforschungsinstitut leitet. Um zumindest noch in der Weiterentwicklung dieser bedeutenden Entdeckung mitzuspielen, bewirbt sich Antal um eine Mitarbeiterstelle an diesem Institut und erhält diese auch. Mit einem ansehnlichen Stipendium unterstützt tritt er im Sommer 1975 seine Stelle als Postdoktorand – Postdoc – an.

Der Roman

Manhattan – Midtownspielt zum großen Teil in New York. (Bild: Manhattan – Midtown; Wikipedia)

Die Handlung setzt drei Monate später ein, führt vom Herbst in den Winter, von den Träumen und Hoffnungen Antals in eine bittere, desillusionierende Realität. Mit Antal als Zentralfigur werden auch die ihm nahestehenden Personen überaus plastisch dargestellt. Mit ihren Geschichten, die tief in die Vergangenheit zurückreichen. Wir hören über seinen Vater, über seine Geliebte(n), über seine Kollegen – Postdocs wie er und Studienabbrecher, die nun als Laboranten arbeiten – über den überaus zwielichtigen Institutsleiter Cherascu und über einen Gerichtsmediziner, der Antal schätzt und beschützen möchte. Daraus entwickelt sich eine ungemein facettenreiche Erzählung aus und über die Welt der Wissenschafter, die von Leidenschaft für ihre Forschung und von harter Arbeit berichtet, von exorbitanter Abhängigkeit vom Vorgesetzten, vom Mangel an Privatleben und daraus resultierender Einsamkeit, von kurzen euphorischen Momenten und langen frustrierenden Phasen, von Kameradschaft und Liebe ebenso wie von Betrug und Verrat, von Unsicherheit , Existenzangst, der Scheu etwas völlig Neues zu beginnen und vom Scheitern.

Erkenne Dich selbst

Die Aufforderung, die über dem Eingang zum Apollotempel in Delphi steht, kann auch als Grundmotiv der ineinander verflochtenen Handlungen gesehen werden. Das Erkennen führt nicht nur bei Antal zum Scheitern.

Der Roman beginnt mit dem Selbstmord Ilonas, einer aus Ungarn stammenden, reizvollen und klugen Kollegin Antals, die kurz auch seine Geliebte war. Im Laufe der Erzählung findet Antal den Auslöser von Ilonas Selbstmord: Cherascu. Mit diesem hatte Ilona in Ungarn zusammengearbeitet, ihn als Idol angesehen, ihm voll vertraut. Er hatte nicht nur ihre Forschungsergebnisse gestohlen – sie war die eigentliche Entdeckerin des Binärmedikaments – er hatte auch, um den Alleinbesitz der Daten zu sichern, ihren Fluchtversuch aus Ungarn verraten und sie damit hinter Gitter gebracht. Ilona erfährt erst jetzt von dem Verrat und zerbricht: „Ich bin den falschen Idealen nachgelaufen, habe den falschen Menschen vertraut und mich an falsche Hoffnungen geklammert.“

Auch Antals Vater ist ein Gescheiterter. Selbst erfolgreicher Industrie-Chemiker, der es aber nicht zum Forscher geschafft hat, steht er bereits im höheren Lebensalter. Seine von ihm in der Steiermark aufgebaute Kunststoff-erzeugende Firma ist ins Visier der Umweltschützer geraten: irgendwelche, nicht näher definierte Spuren waren im Trinkwasser nachgewiesen worden. Ein Prozess droht, der vielleicht sogar das Aus der Firma bedeuten könnte. Das mögliche Scheitern seines Lebenswerks löst bei ihm einen tödlichen Herzinfarkt aus. Antal kommt zu spät, um seinem Vater beizustehen.

Ein Scheiternder ist auch der Institutsleiter Cherascu. Getrieben von maßlosem Ehrgeiz nutzt dieser jede Gelegenheit, um sich selbst ins grellste Rampenlicht zu stellen. Gestohlene Ergebnisse sind die Grundlage, seine Mitarbeiter eine von ihm kontrollierte und kommandierte Sklavenkompanie, die ausreichend Daten für seinen Weg auf den Olymp der Wissenschaft liefern soll. Für kurze Zeit gelingt ihm auch der Aufstieg zum Star: er landet auf den Titelseiten der großen Tageszeitungen, wird sogar als möglicher Anwärter auf den Nobelpreis gehandelt. Cherascu ist das Porträt eines Charakters, der leider auch heute noch anzutreffen ist, wie ihn auch Gottfried Schatz selbst kennengelernt hat. Schatz lässt ihn nicht ungestraft davonkommen: er lässt Cherascu plötzlich zusammenbrechen und an einer damals rätselhaften, neuen Krankheit – AIDS – schnell zugrundegehen. Offensichtlich hat Cherascu noch einen Postdoc aus Südkorea, den Sohn eines mächtigen Großindustriellen, angesteckt, der kurz darauf an derselben Krankheit stirbt.

Antals Suche nach dem „Wer bin ich?“

beginnt vorerst mit der Frage nach seiner Herkunft. Sein Vater – offensichtlich unfähig darüber zu sprechen – hat in einem langen Brief ausführlich über die Familiengeschichte berichtet, die ihn als einen zwischen zwei Welten Zerrissenen ausweist. Sein eigenes bitteres Erkennen: „Ich hatte die Intelligenz und den Fleiß für einen erfolgreichen Chemiefabrikanten, aber nicht den Mut für einen echten Wissenschaftler“ verbindet er mit der Hoffnung, dass Antal herausfinden möge „ob er den Mut dazu hat, ob Wissenschaft für ihn das Richtige wäre“. Antal, dem bis jetzt immer alles leicht, zu leicht gefallen ist, wird im Laufe der Handlung zunehmend mit Problemen konfrontiert, die ihn erkennen lassen, dass auch ihm dieser Mut fehlt, dass er unsicher und ängstlich ist. Leitmotivisch für seine Unsicherheit und Angst stehen Ohrensausen (Tinnitus) und starkes Pochen im Kopf. Der Griff zur Whiskyflasche betäubt nur kurzfristig. Der indische Postdoc Haresh hat dagegen erkannt, worauf es für einen Forscher ankommt und führt es Antal vor Augen:

„Wir sollten uns nur Ziele setzen, von denen es kein Zurück gibt. Wenn du dir immer einen Rückweg offen hältst, wirst du bequem leben, dich aber früher oder später fragen, warum du nicht mehr aus deinem Leben gemacht hast.“

Es sind dies die Schlüsselaussagen des Buches. Haresh handelt danach, sein Weg zum erfolgreichen Forscher deutet sich an.

Für Antal beginnt aber ein Abschied von der Wissenschaft. Seine Versuche scheitern und er kann sein Projekt nicht fortsetzen, da das Institut nach Cherascus Tod eine neue Richtung einschlägt – weg von der Krebsforschung, hin zur Umweltforschung. Die Arbeit der letzten Jahre war also umsonst, er steht mit leeren Händen da. Vielleicht kann er die angeschlagene Firma seines Vaters mit einem neuen Produkt noch retten? In der Ungewissheit, wie sein Weg sich wohl weiter entwickeln werde, endet dieser plötzlich auf tragische Weise. Das Buch klingt dennoch sehr leise aus.


*Gottfried Schatz: Postdoc (2015), Herausgeber: Verlagsgruppe Styria GmbH & Co KG


Anmerkungen der Redaktion

Seinen eigenen Werdegang hat Gottfried Schatz in einer Autobiographie beschrieben, die er dem berühmten Biochemiker Efraim Racker, dem Betreuer seiner Postdoc Zeit in New York, widmete: Feuersucher. Die Jagd nach dem Geheimnis der Lebensenergie (2011). Wiley-VCH Verlag & Co KGaA.

Ein beträchtlicher Teil von Schatz's Essays ist bereits im ScienceBlog erschienen. Zwei der 36 Artikel passen zu dem Thema des Romans:

inge Fri, 15.05.2015 - 00:06

Tuberkulose und Lepra – Familienchronik zweier Mörder

Tuberkulose und Lepra – Familienchronik zweier Mörder

Fr, 08.05.2015 - 06:59 — Gottfried Schatz Gottfried SchatzIcon MedizinLepra und Tuberkulose gehören zu den ältesten menschlichen Infektionskrankheiten. Deren Erreger sind miteinander verwandte, langsam wachsende, stäbchenförmige Bakterien aus der Familie der Mycobakterien. Der renommierte Biochemiker Gottfried Schatz erzählt vom Kampf gegen diese Bakterien, der - erst im vergangenen Jahrhundert aufgenommen - zur enormen Reduzierung aber noch nicht zur Ausrottung der Krankheiten führte.

Die Diagnose kam spät: Zwei Jahrtausende lang hatten die Leichen in der Grabhöhle bei Jerusalem geruht, bevor Wissenschafter zeigten, dass fast jede zweite Reste von Tuberkulose- und Leprabakterien in sich trug. Ähnliches fand sich in einem ägyptischen Heiligtum aus dem 4. Jahrhundert, einer ungarischen Grabstätte aus dem 10. Jahrhundert und einem schwedischen Friedhof aus der Wikingerzeit. Lepra war bereits vor 4500 Jahren in Ägypten endemisch und ist eine der ältesten bekannten menschlichen Krankheiten. Begleitet wurde sie meist von der Tuberkulose. Die beiden Krankheitserreger Mycobacterium tuberculosis und Mycobacterium leprae sind aber nicht nur Waffenbrüder, sondern echte Brüder.

Einst friedliche Bodenbewohner

Das mörderische Brüderpaar entstammt der weitverzweigten Familie der Mycobakterien, die als friedliche Bodenbewohner die Überreste anderer Lebewesen verbrennen und so die Fruchtbarkeit der Erde sichern. Als jedoch Menschen vor etwa zehntausend Jahren zur Viehzucht übergingen, dürfte einigen Mycobakterien der Sprung vom schützenden Boden auf ein Rind gelungen sein. Von diesem war es nur ein kleiner Sprung auf den Hirten - und mit der Entwicklung unhygienischer Städte wurde Mycobacterium tuberculosis zur Geissel für Tier und Mensch. Einige der Boden- Auswanderer spezialisierten sich ganz auf Menschen, veränderten ihr Erbgut und ihre Lebensweise und wurden zu Mycobacterium leprae, dem Erreger von Lepra.

Mycobacterium leprae in einer Hautläsion (links), Mycobacterium tuberculosis in einer Sputumprobe (rechts)Abbildung1. Mycobacterium leprae in einer Hautläsion (links), Mycobacterium tuberculosis in einer Sputumprobe (rechts). Die stäbchenförmigen Bakterien sind durch ziegelrote Anfärbung sichtbar gemacht (Quelle: CDC - Center of Disease Control and Prevention; public domain)

Die beiden Brüder sind sich noch in vielem ähnlich.

Sie sehen ungefähr gleich aus (Abbildung 1), teilen sich viel langsamer als die meisten Bakterien und schützen sich mit einer ungewöhnlich aufgebauten Fetthülle. Dennoch ging jeder der Brüder seinen eigenen Weg. Der Erreger von Tuberkulose setzte auf gnadenlose Vernichtung und wurde zum grossen Bruder. Er zerstört die Lunge und andere wichtige Organe, tötete im Europa des 17. und 18. Jahrhunderts ein Viertel der Bevölkerung und hat wahrscheinlich mehr Menschen auf dem Gewissen als jeder andere Krankheitserreger. Gegen die gefürchtete «Schwindsucht» gab es lange keine anderen Waffen als gesunde Ernährung, Ruhe und eine sonnige, trockene und reizfreie Umgebung - Thomas Manns «Zauberberg» beschreibt diese, bis in das 20. Jahrhundert andauernde Situation.

Chemische Wunderwaffen

Nach dem Zweiten Weltkrieg konnten wir mit neuartigen chemischen Wunderwaffen Tuberkulose fast ausrotten - doch nur in reichen Ländern. Weltweit nistet der grosse Bruder immer noch im Körper jedes dritten Menschen. Eine Röntgenaufnahme zeigt, dass er während meiner Kindheit auch in meine rechte Lunge eindrang und dort vielleicht immer noch auf seine Chance lauert. Jedes Jahr gelingt es ihm, acht Millionen Menschen krank zu machen und zwei bis drei Millionen von ihnen zu töten. Vor kurzem hat er auch gelernt, uns im Verbund mit dem Aids-Virus anzugreifen, und einige seiner südafrikanischen Stammesgenossen haben sogar gelernt, allen unseren chemischen Waffen zu trotzen. Der erschreckende Vormarsch von Tuberkulose bewog die Weltgesundheitsorganisation (WHO) im Jahre 1993, den Tuberkulose-Notstand auszurufen. Der grosse Bruder ist noch lange nicht besiegt (Abbildung 2).

 Aktuelle globale Verbreitung von Lepra (oben) und Tuberkulose (unten)Abbildung 2. Aktuelle globale Verbreitung von Lepra (oben) und Tuberkulose (unten). Während Lepra weltweit auf dem Rückzug ist (d.h. die Inzidenz fast überall auf weniger als 1 Infizierter:10 000 Menschen zurückgegangen ist), ist Tuberkulose eine der tödlichsten Ansteckungskrankheiten geblieben. 2013 waren rund 9 Millionen Menschen an TB erkrankt, 1,5 Millionen starben daran. Die Zahl der an Lepra Erkrankten ist dagegen zwischen 1985 und 1912 von rund 5,2 Millionen auf 185 000 gesunken. (Quelle: WHO., Global Tuberculosis Report 2014)

Auch der Erreger von Lepra tötet - doch statt auf rasche Überwältigung setzt er auf langsame Zermürbung. Er zerstört die elektrische Isolation der Hautnerven, entstellt das Antlitz mit grotesken Geschwülsten und lässt schließlich Finger, Zehen, Hände oder Füße abfallen und Augen erblinden. Er macht seine Opfer zu Ausgestoßenen - zu lebenden Toten. Mycobacterium leprae ist der grausame kleine Bruder. Als die beiden Brüder uns noch gemeinsam jagten, kam der kleine Bruder meist zu kurz, weil ihm der große die Opfer zu schnell wegmordete. Unsere Medizin hat auch den kleinen Bruder in die Knie gezwungen, denn eine Mischung dreier Medikamente kann Leprakranke in einem Tag ansteckungsfrei machen und in sechs bis zwölf Monaten heilen. Wenn die Behandlung früh genug einsetzt, verschwinden sogar die entstellenden Geschwülste. Doch in den Elendsregionen unserer Welt überwältigt der kleine Bruder jedes Jahr immer noch viel zu viele Menschen, da sich niemand um die Kranken kümmert und diese aus Angst vor Ächtung ihre Krankheit verheimlichen und so auf andere übertragen (Abbildung 2). Lepra hat bisher noch nicht gelernt, unseren Medikamenten zu widerstehen, versteckt sich vor diesen jedoch hinter Armut und Unwissenheit.

Verschiedene Charaktere

Weshalb sind die beiden Brüder so verschieden? Obwohl sie die ersten Bakterien waren, die unsere Ärzte als Krankheitserreger entlarvten, konnte die Frage lange nicht beantwortet werden. Die Mediziner wussten zwar viel über Tuberkulosebakterien, konnten sie aber nicht sorgfältig mit Leprabakterien vergleichen, da sich diese nicht in genügender Menge rein herstellen ließen. Leprabakterien weigern sich bis heute beharrlich, in einer künstlichen Nährflüssigkeit zu wachsen, und vermehren sich außer in Menschen nur noch in Mäusepfoten, im kühleren Gewebe kleiner Nagetiere und in einigen Gürteltieren. Und selbst dann teilen sie sich nur alle zwei Wochen - etwa tausendmal langsamer als die meisten anderen Bakterien. Seit einigen Jahren kennen wir jedoch die chemische Struktur des gesamten Erbmaterials der beiden Brüder und können endlich ihre unterschiedlichen Charaktere erklären.

Der große Bruder bewahrte sorgsam den Schatz von mehr als 4000 Genen, den ihm seine Vorfahren vererbt hatten. Dank diesem genetischen Reichtum kann er sich an verschiedene Umweltbedingungen anpassen, die meisten seiner Bausteine selbst herstellen, durch Verbrennung von Nahrung Energie gewinnen und Wege ersinnen, um unsere Medikamente zu überlisten. Der kleine Bruder ließ dagegen mehr als die Hälfte seines genetischen Erbes verkommen, so dass sein heutiges Erbgut mit über 2400 verstümmelten Genen übersät ist. In dieser genetischen Schrotthalde finden sich zwar immer noch 1600 intakte Gene, doch diese liefern dem Bakterium bei weitem nicht mehr genügend Information, um Nahrung zu verbrennen, den eigenen Energiebedarf zu decken und unabhängig zu leben. Deshalb kann sich der kleine Bruder nur extrem langsam und nur innerhalb von Menschen- und einigen wenigen Tierzellen vermehren. Sein Informationsdefizit könnte auch erklären, warum er bisher keinen Weg fand, um gegen unsere Medikamente resistent zu werden. Wer einen starken Charakter entwickeln will, muss nicht nur Neues lernen, sondern auch Vertrautes über Bord werfen. Dies gilt nicht nur für uns Menschen. (Die Bereitschaft, Traditionen zu missachten, ist für den Musiker Pierre Boulez ein Maß für die Kraft einer Kultur.) Und die Veränderung oder Zerstörung ererbter Gene ist Teil der Entwicklung jedes neuen Lebewesens. Als das Leprabakterium auf die Hälfte seines genetischen Erbes verzichtete, ging es ein großes Wagnis ein. Doch erst dieses Wagnis schenkte ihm seinen unverwechselbaren biologischen Charakter.

Ist der kleine Bruder dümmer als der große - oder einfallsreicher? Ich weiß es nicht. Für mich ist er interessanter.


Weiterführende Links

WHO Lepra

WHO Global Tuberculosis Report 2014

Vernachlässigte Krankheiten – Multiresistente Tuberkulose (Ärzte ohne Grenzen). Video 6:20 min

Lepra und Tuberkulose in Indien - Hier zählt Erfahrung Video 21:07 min,

Artikel im ScienceBlog

inge Fri, 08.05.2015 - 06:59

Ebola – Herausforderung einer mathematischen Modellierung

Ebola – Herausforderung einer mathematischen Modellierung

Fr, 01.05.2015 - 11:02 — Peter Schuster Peter SchusterIcon MINTBei Ausbruch einer Epidemie mit einem neuen Erreger besteht dringender Bedarf für ein mathematisches Modell, das den Verlauf der Epidemie möglichst verlässlich voraussagen kann, um darauf basierend effiziente Interventionen zum Schutz der Bevölkerung einzuleiten. Der theoretische Chemiker Peter Schuster erklärt, warum Prognosen, die auf in der Anfangsphase n einer Epidemie erhobenen Daten beruhen, wenig Aussagekraft für deren späten Verlauf haben [1].

Lässt sich die Natur unter eine vollständige Kontrolle bringen? Am Beginn der zweiten Hälfte des 20. Jahrhunderts glaubten weite Kreise daran, dass die ungeheuren Fortschritte in den Naturwissenschaften und insbesondere in der Medizin dies erlauben würden. Es erschien absehbar, dass Gesundheitswesen und Pharmakologie bald in der Lage wären praktisch alle Krankheiten zu verhindern oder (zumindest) zu heilen. So war in den 1980er Jahren die Pharma-Industrie fest davon überzeugt diesem Ziel beispielsweise bei den Infektionskrankheiten sehr nahe gekommen zu sein. Man dachte ein mehr als ausreichendes Arsenal an Antibiotika zur Verfügung zu haben, um Infektionen aller Art (wenigstens in der „westlichen Welt“) erfolgreich bekämpfen zu können und stoppte die Suche nach neuen Antibiotika. Man löste also entsprechende Institutionen mitsamt ihrem Know-How und ihren Infrastrukturen auf und wandte sich anderen „erfolgversprechenderen“ Aufgaben zu. Wie sich bald zeigen sollte, war dies ein verhängnisvoller Irrtum:

Erstens, weil Mikroorganismen – Viren, Bakterien, Pilze und Protozoen - enorme Fähigkeiten besitzen, Resistenzen gegen Antibiotika zu entwickeln. Gegen die zunehmend resistent-werdenden Stämme werden heute neue Wirkstoffe dringendst benötigt!

Zweitens, weil Infektionskrankheiten aufgetaucht sind, die bis dahin völlig unbekannt waren oder zuvor nicht genügend Beachtung gefunden hatten. Es waren dies vor allem

  • AIDS -das „acquired immunodeficiency syndrome“ (erworbenes Immunschwäche-Syndrom), das durch HIV - humane immunodeficiency virus – übertragen wird,
  • Ebola, das vom Ebolavirus (EBOV - Ebola ist ein Fluss in der Republik Kongo, wo es 1976 den ersten Ausbruch dieser Infektion gab) und vier verwandten Stämmen von Filoviren übertragen wird,
  • SARS – das schwere akute respiratorische Syndrom – verursacht von einem mutierten Coronavirus (SARS-CoV)
  • die Tierseuche BSE (bovine spongiform encephalopathy) - Rinderwahn- , eine Epidemie in den 1990er-Jahren, die allerdings nicht durch ein Virus sondern Prionen (falschgefaltete infektiöse) Proteine ausgelöst wurde.

Diese und eine Reihe weiterer Epidemien haben die Welt in Angst und Schrecken versetzt. Es war ja keineswegs abzusehen, welchen Verlauf, welches Ausmaß diese neuen Infektionskrankheiten haben würden, wieweit man sie in Kontrolle bringen könnte oder ob sie in einer globalen Katastrophe enden würden.

Dringendst benötigt: verlässliche Modelle zur Prognose des Verlaufs von Epidemien

Wann immer eine Epidemie mit neuen Erregern ausbricht, ist es offensichtlich, dass ein dringender Bedarf für mathematische Modelle besteht, die den Verlauf derartiger neuer Seuchen simulieren und - darauf basierend - möglichst verlässlich voraussagen können. Dies gilt natürlich ebenso für schon besiegt geglaubte Infektionskrankheiten wie Keuchhusten und Masern, die als Folge der Impfgegner-Bewegung nun wieder aufgeflammt sind.

Verlässliche Prognosen sind unabdingbar, weil bereits beim Ausbruch einer Epidemie nur noch sehr wenig Zeit bleibt, um effiziente Interventionen zum Schutz der Bevölkerung und Strategien zur Behandlung der Erkrankten einzuleiten. Es sind dabei ja enorme logistische Herausforderungen zu bewältigen, die vom raschen Bereitstellen eines voraussichtlichen Bedarfs an Behandlungszentren, Labors, Spitalsbetten, Ärzten, Pflegekräften, Diagnostika und Therapeutika, etc. bis hin zu Restriktionen der Bewegungs- und Reisefreiheit reichen. Dazu kommen noch die dafür erforderlichen finanziellen Mittel.

Der Schrecken verbreitende Ausbruch von Ebola, der im Dezember 2013 in West-Afrika seinen Ausgang nahm und eine hohe Letalität verursachte, war Anlass eines Booms in epidemiologischen Modellierungen. Eine Reihe dieser Untersuchungen finden sich In dem neuen Fachjournal PLOS Currents: Outbreaks, das „open access“ ist. Die ersten Modellierungen stammen aus dem Herbst 2014, einer noch frühen Phase der Seuchenausbreitung. Nur drei Monate später war es aber klar, dass die Vorhersagen die Zahl der Infizierten und der Todesfälle um Größenordnungen überschätzt hatten. War man anfangs davon ausgegangen, dass es hunderttausende bis zu mehreren Millionen Infizierte und davon etwa 40 % Todesopfer geben könnte, so zeigte die Epidemie glücklicherweise einen wesentlich „leichteren“ Verlauf: laut aktuellen Daten der WHO sind bis jetzt weltweit 26 083 (bestätigte, wahrscheinliche und vermutete) Fälle von Ebola aufgetreten, davon 26 044 in den Staaten Guinea, Liberia und Sierra Leone, und 10 823 Todesfälle (davon 10 808 in den genannten drei Staaten). In allen drei Staaten treten nur mehr vereinzelte Infektionen auf [1]. (Abbildung 1).

Die Epidemie konnte also in den Griff bekommen werden. Verlauf der Ebola-EpidemieAbbildung 1. Verlauf der Ebola-Epidemie; oben: In den am stärksten betroffenen Staaten Guinea, Liberia und Sierra Leone vom 15.2, - 19.4.2015 und unten: Gesamtverlauf in Liberia vom Ausbruch der Epidemie bis jetzt. (Quelle: WHO)

Wie können aber bessere epidemiologische Vorhersagen erstellt werden, wo weisen Modellierungen gravierende Fehler auf, wo können Fehler vermieden werden?

Dies soll im Folgenden an Hand des häufig verwendeten SEIR-Modells analysiert werden. Insbesondere die Frage nach der Aussagekraft der Prognosen, wenn aus den Anfangsphasen einer Epidemie auf deren späte Phasen extrapoliert wird.

Das SEIR Modell

ist ein relativ einfaches, sehr populäres mathematischen Modells, das den dynamischen Prozess simuliert, wie sich eine Infektion in einer Population aus anfänglich dafür anfälligen Individuen ausbreitet. Die Gesamtpopulation wird dabei aus vier Gruppen zusammengesetzt angenommen: aus Personen, i) die für die Infektion anfällig („susceptible“) sind , ii) die mit dem Erreger in Kontakt gekommen und infiziert aber noch symptomlos/nicht infektiös sind („exposed“), iii) die bereits die Krankheitssymptome zeigen und infektiös („infectious“) sind und iv)solchen, die entweder die Krankheit überstanden haben und nun immun sind oder daran verstarben („removed“). (Abbildung 2).

Das SEIR ModellAbbildung 2. Das SEIR Modell: Die vier Bevölkerungsgruppen und die 3 Prozesse, die den Verlauf der Epidemie beschreiben

Die Ausbreitung findet in drei aufeinanderfolgenden Schritten statt, die mit einfachen Gleichungen der chemischen Kinetik beschrieben werden können. Der Prozess beginnt mit einem (eingeschleppten) infizierten Individuum (I), das auf ein für die Infektion anfälliges Individuum (​S) - trifft und dieses infiziert, wobei dieses noch symptomlos bleibt und auch nicht infektiös ist (E). Nach einer Latenzzeit wird E selbst infektiös (I), steckt andere an und wird im Krankheitsverlauf entweder wieder gesund oder stirbt (R).

Wie schnell sich die Epidemie nun ausbreitet, hängt einerseits von der sogenannten Basisreproduktionszahl und andererseits von der Generationszeit ab:

  • Die Basisreproduktionszahl gibt an wie viele anfällige Personen eine infizierte Person ansteckt. Ist beispielweise die Basisreproduktionszahl 2, so steckt ein Infizierter 2 Anfällige an, diese nach der Latenzzeit insgesamt 4 Personen, in der nächsten Generation sind es 8, dann 16, dann 32, usw. Je höher die Basisreproduktionszahl ist, desto schneller breitet sich die Epidemie aus, je niedriger diese Zahl ist, desto langsamer ist sie. Im Verlauf dieses exponentiellen Wachstums nimmt die Zahl der infizierbaren Individuen laufend ab, damit sinkt die Reproduktionszahl. Kann ein Infizierter im Schnitt nur mehr eine Person anstecken, so steigt die Zahl der Infizierten nicht weiter, wird es weniger als 1 Person, erlischt die Krankheit.
  • Die Generationszeit hängt von der Latenzzeit - der Zeitdauer zwischen Infektion und der Infektiosität – und der Dauer der Infektiosität ab.

Wie ein nach dem SEIR-Modell simulierter Verlauf einer Epidemie aussieht, ist in Abbildung 3 gezeigt. Nach dem SEIR-Modell berechnete Kurven für den Verlauf einer Epidemie

Abbildung 3.Nach dem SEIR-Modell berechnete Kurven für den Verlauf einer Epidemie. Annahme: anfangs gibt es 990 anfällige (R) und 10 infektiöse (I) Individuen und die Basisreproduktionszahl ist hoch (20).Die Kurven liegen in einem Band, das die Standardabweichungen anzeigt.

Warum weichen die Prognosen so stark von der Realität ab?

Das SEIR-Modell ist streng deterministisch, d.h.es gibt vor, dass mit entsprechend gut gewählten Parametern der Verlauf des Infektionsgeschehen realitätsnah simuliert und prognostiziert werden kann (in Abbildung 3 geben die stark eingezeichneten Kurven die Reaktionen (1) – (3) aus Abbildung 1 wider). Es wird damit eine idealisierte Situation beschrieben. Das Modell ignoriert ganz einfach Zufallsprozesse (stochastische Prozesse), wie sie durch variierende demographische Strukturen, räumliche Gegebenheiten und Umweltbedingungen gegeben sind. Stochastische Modelle, welche die Wahrscheinlichkeiten einzelner Vorgänge und Zustände berücksichtigen, sind daher, wann immer es möglich ist, vorzuziehen.

Ein ganz wesentliches Problem entsteht aber, wenn aus frühen Daten einer Epidemie auf deren Ausmaß in späten Phasen geschlossen werden soll. Wie bereits früher ausgeführt wurde, ist der Beginn einer Epidemie durch exponentielles Wachstum gekennzeichnet. Wenn nun die Infektion von wenigen Individuen (vielleicht auch nur von einem einzigen) ausgeht und die Zahl der anfälligen Individuen viel größer ist, ist es für die Anfangsphase unerheblich, wie viele diese sind. Die Ausbreitung wird in allen Fällen ununterscheidbar verlaufen (Abbildung 4) und damit keine Rückschlüsse auf die Zahl der Infizierten zu einem Zeitpunkt erlauben, wenn die Epidemie bereits unter Kontrolle ist.

Anfänglich exponentielles Wachstum (großes Bild), das in eine Sättigung übergeht (Insert)Abbildung 4. Anfänglich exponentielles Wachstum (großes Bild), das in eine Sättigung übergeht (Insert). Für das Wachstum in der Anfangsphase ist es unerheblich, wie viele infizierte Individuen es schlussendlich gibt. (Den Kurven liegt eine Gleichung von P.H, Verhulst zugrunde, der im Jahr 1838 damit ein vergleichbares Problem - das Wachstum einer sich vermehrenden Population bei limitierten Ressourcen - beschreibt.)

Dass dieses Problem nicht auf die Verbreitung von Epidemien beschränkt ist, demonstrieren beispielsweise die Voraussagen des berühmten Clubs of Rome; aus politischer Sicht waren diese vielleicht wünschenswert, wissenschaftlich aber völlig unhaltbar.

Ausblick

Der aktuelle Ausbruch von Ebola bietet theoretischen Epidemiologen ein sehr reiches Datenmaterial und damit eine einzigartige Gelegenheit vorhandene Modelle zu testen und verbesserte neue zu erstellen. Dabei sollte immer berücksichtigt werden, dass Daten, die in den frühen, exponentiell verlaufenden Phasen einer Epidemie erhoben werden, wenig Aussagekraft für deren späten Verlauf bieten können.


[1] Ein ausführlicher Artikel zu diesem Thema ist eben erschienen: Peter Schuster: Ebola – Challenge and revival of Theoretical Epidemiology. Why extrapolations from early phases of epidemics are problematic. Complexity (2015) DOI:10.1002/cplx

[2] WHO: Ebola in West Africa: 12-months on (14 Artikel)


Weiterführende Links

Bill Gates: The next epidemic – lessons from Ebola. N Engl J Med 2015; 372:1381-1384 April 9, 2015 DOI:10.1056/NEJMp1502918

Lars Schade (Robert Koch Institut, Deutschland) Ebola kompakt. Video 5:14 min. (16.7.2014)

Anita Schroven: Ebola-Epidemie - Liberia, Guinea, Sierra-Leone in der Krise Radiointerview 7:19 min (16.2.2015).

Infektionen jetten um die Welt. Video 5:56 min.

inge Fri, 01.05.2015 - 11:02

Wie entstehen neue Medikamente? Pharmazeutische Wissenschaften

Wie entstehen neue Medikamente? Pharmazeutische Wissenschaften

Fr, 24.04.2015 - 06:51 — Redaktion

Icon Medizin Schwerpunktsthema. Unter „Pharmazeutische Wissenschaften“ wird ein neues interdisziplinäres Gebiet an der Schnittstelle von Pharmazie und molekularen Lebenswissenschaften verstanden, dessen Fokus auf Forschung und Entwicklung neuer Therapeutika ausgerichtet ist. Rund 40 Artikel im ScienceBlog befassen sich mit Aspekten dieses Gebiets.

Kenntnisse über Heilmittel und Gifte, deren Herstellung und Anwendung – also pharmazeutisches Wissen und Erfahrung – datieren in die frühesten Kulturen zurück und wurden in Kräuterbüchern und später in Rezeptsammlungen (sogenannten Pharmakopöen) weitergegeben. Die ältesten Aufzeichnungen sind bereits über 5000 Jahre alt, stammen aus China und beschreiben hochwirksame Heilpflanzen, die beispielsweise gegen Malaria (die Alkaloid-haltige Pflanze Dichroa febrifuga) oder gegen Asthma (die Ephedrin-haltige Pflanze Ephedra sinica) Anwendung fanden. Eine lange Liste von Heilmitteln findet sich auch in Papyri aus dem alten Ägypten: diese reichen von Abführmitteln, über Hustenmittel, Mittel zur Behandlung von Hauterkrankungen und Wunden, bis hin zu Rheumamitteln und gegen Parasiten wirkende Medikamente (ein auf Granatapfel basierendes Mittel gegen den Bandwurm war bis vor 50 Jahren in Verwendung).

Ein sehr interessantes Buch aus dem Jahr 1891: J Berendes „Die Pharmacie bei den alten Culturvölkern“(free download: https://archive.org/details/diepharmaciebeid00bere )

In unseren Kulturkreisen wurde das Wissen um die Heilmittel ("Materia medica") und ihre Wirkungen anfänglich von Mönchen und auch von Medizinern weitergegeben. Bereits im Mittelalter trennte sich die Pharmazie aber von der Medizin und es entstanden in der Folge an mehreren Universitäten Lehrstühle für Arzneikunde.

Damals wurde - wie zumeist auch heute - der Pharmazeut mit dem Beruf des Apothekers assoziiert. Dessen Aufgabe ist es Menschen mit Medikamenten zu versorgen und in Gesundheitsfragen zu beraten. Die Behandlung von Krankheiten mit Arzneimitteln ist dann dem Arzt vorbehalten. Die Berufsbilder von Medizinern und Pharmazeuten überlappen also teilweise; demnach sollten Ärzte Grundlegendes über Medikamente und deren Wirkung wissen, Pharmazeuten über Physiologie und Pathologie des menschlichen Organismus. Dennoch erfahren – zumindest in unserem Kulturkreis - beide Berufsgruppen eine unterschiedliche Ausbildung und dringen relativ wenig in das Nachbargebiet ein.

Der Apotheker bedient einen Kunden, sein Gehilfe zerreibt Material im Mörser. (Coloured etching by H. Heath, 1825. Iconographic Collections Keywords: Henry Heath.)

Beginnend mit der steigenden Bedeutung der Naturwissenschaften im 19. Jahrhundert - als die neuen Disziplinen Chemie und Botanik im Pharmaziestudium dazukamen - wurde die Pharmazie mehr und mehr zu einem molekular geprägten Forschungsgebiet. Auf der Suche nach Ansatzpunkten für neue Wirkstoffe mit neuen Wirkmechanismen ist heute ein Verständnis in Gebieten wie der Molekularbiologie, Genetik, Immunologie, Biotechnologie aber auch im Computer-unterstützten Modellieren und der Bioinformatik unabdingbar geworden.

Brauchen wir überhaupt noch neue Medikamente?

Diese Frage muss eindeutig mit Ja beantwortet werden: Für rund zwei Drittel der über 30 000 klassifizierten Krankheiten (laut WHO) gibt es noch keine oder eine nur unbefriedigende Therapie. Dazu gehören häufige Krankheiten wie Tumoren (u.a. des Magen-Darmtrakts, des Pankreas, der Lunge, des Gehirns), Autoimmunerkrankungen, chronischer Schmerz, neurodegenerative/neurologische Erkrankungen, u.v.a., ebenso wie die meisten seltenen Krankheiten.

Was bereits (z.T. schon sehr lange) existierende Arzneimittel betrifft, so ist in vielen Fällen nicht geklärt, wie diese wirken und welche Nebenwirkungen sie auslösen können.

Es besteht also dringender Handlungsbedarf.

Bis vor einem Jahrzehnt hat die Pharmaindustrie praktisch „im Alleingang“ die Forschung & Entwicklung (F&E) neuer Medikamente vorangetrieben. Pharma gehört zwar - nach dem Finanzsektor - zu den größten globalen Industriesektoren, hat seit der Jahrtausendwende ihre Umsätze auf das 2, 5 fache gesteigert und (trotz Wirtschaftskrise) nun nahezu die Marke von 1000 Mrd US $ erreicht. Dennoch steckt sie in einer schweren Krise: das Risiko ein neues Medikament auf den Markt zu bringen ist enorm hoch geworden. Bei explodierenden Kosten und einer übermäßig langen Entwicklungsdauer werden viel zu wenige neue, Gewinn versprechende Produkte zugelassen. Um den zu erwartenden niedrigeren Einnahmen gegenzusteuern, fusionieren die Konzerne und reduzieren ihre Forschungskapazitäten. Hier könnte es nun zu neuen Kooperationen kommen: Grundlagenforschung in akademischen Institutionen könnten therapeutische Lösungsansätze erarbeiten, die in fairer Weise von der Pharmaindustrie übernommen und zur Marktreife entwickelt werden.

Es besteht damit in akademischen, ebenso wie in industriellen Einrichtungen ein Bedarf an Experten, die, über das pharmazeutische Wissen hinaus, Kenntnisse in den für Forschung und Entwicklung notwendigen Fächern besitzen und diese auch anwenden können.

Was sind pharmazeutische Wissenschaften?

Dem Bedarf an transdisziplinär ausgebildeten, pharmazeutisch orientierten Experten wird seit einigen Jahren Rechnung getragen: Studiengänge zu dem neuen Fachgebiet „Pharmazeutische Wissenschaften“ werden an mehreren Orten angeboten. Im deutschen Sprachraum, beispielsweise an der ETH (Zürich), den Universitäten Basel , München und Freiburg.

Kurz umrissen: Pharmazeutische Wissenschaften sind auf Forschung und Entwicklung neuer Therapeutika ausgerichtet. Sie umfassen state-of-the-art Technologien und grundlegendes Wissen über

  • die chemischen, physikalischen und biologischen Charakteristika von Wirk- und Hilfsstoffen,
  • deren Herstellungstechnologien und Nachweisverfahren
  • deren «Schicksal» im menschlichen Körper und
  • deren Wirkungsprinzipien (erwünschte/unerwünschte Wirkungen)

Die Ausbildung in Pharmazeutischen Wissenschaften bereitet vor allem auf eine Forschungs- und Entwicklungstätigkeit an akademischen Einrichtungen oder in der pharmazeutischen Industrie vor. Die Pharmazie-Ausbildung führt meistens zum Beruf des Apothekers.

Das Berufsbild des Pharmazeutischen Wissenschafters unterscheidet sich damit wesentlich von dem des Pharmazeuten. Im ersten Fall liegt der Fokus auf moderner Pharmaforschung, bereitet also auf eine Forschungs- und Entwicklungstätigkeit an akademischen Einrichtungen oder in der pharmazeutischen Industrie vor. Die Pharmazie-Ausbildung führt meistens zum Beruf des Apothekers.


    Pharmazeutische Wissenschaften im ScienceBlog

    Passend zu diesem Schwerpunkt sind bis jetzt 40 Artikel erschienen:

    Pharmazeutische Wissenschaften im ScienceBlog

    Passend zu diesem Schwerpunkt sind bis jetzt 40 Artikel erschienen:

    Pharma-Forschung & -Entwicklung

    Vitamine & Hormone

    Metabolismus

    Bindegewebe

    Entzündung

    Infektionen

    Targets & Strategien


     

    inge Fri, 24.04.2015 - 06:51

    Veranlagung zu Übergewicht: ein Wechselspiel von Genom und Umwelt?

    Veranlagung zu Übergewicht: ein Wechselspiel von Genom und Umwelt?

    Fr, 17.04.2015 - 08:49 — Jens C. Brüning & Martin E. Heß Jens C. BrüningMartin E. HeßIcon Medizin

    Die steigende Zahl übergewichtiger Menschen und die damit einhergehenden Erkrankungen stellen ein immer größeres Problem für die moderne Gesellschaft dar. Lebenswandel und genetische Veranlagung bestimmen die individuelle Anfälligkeit zur Gewichtszunahme. Durch Identifizierung der für Übergewicht prädisponierenden genetischen Veränderungen und die anschließende Beschreibung der betroffenen Gene/Proteine – auch im Mausmodell – erhoffen sich der Endokrinologe und Genetiker Jens Brüning, Direktor am Max Planck Institut für Stoffwechselforschung in Köln und der Genetiker Martin Heß (ebendort) - Einblicke in die komplexe Interaktion zwischen Genom und Umwelt und damit in die Mechanismen, die zu Übergewicht führen können*.

    Übergewicht und Fettleibigkeit stellen für unsere moderne Gesellschaft eine gewaltige Herausforderung dar. Vor einigen Jahren ein Phänomen das vornehmlich in entwickelten Industrienationen zu beobachten war, greift dieser Trend nun auch auf Schwellenländer über. Neueste Schätzungen gehen davon aus, dass rund 1,4 Milliarden Menschen übergewichtig sind und rund ein Drittel dieser bereits als fettleibig gelten (World Health Organization). Viele Begleiterscheinungen der Fettleibigkeit überraschen nicht, z. B. Diabetes mellitus Typ 2, kardiovaskuläre Erkrankungen und Schlaganfälle. Krankhaftes Übergewicht stellt jedoch auch einen Risikofaktor für bestimmte Krebserkrankungen dar und steht sogar im Verdacht, neurodegenerative Erkrankungen wie Alzheimer zu begünstigen. Als Konsequenz sinkt nicht nur die individuelle Lebensqualität, es entstehen darüber hinaus immense Kosten in der Patientenversorgung, die auch in einer großen Volkswirtschaft eine spürbare finanzielle Belastung hinterlassen werden.

    Genetische Veranlagung oder Lebenswandel?

    Worin liegt nun die Ursache für die stetige Zunahme des Übergewichts in der Bevölkerung? Einzelne Veränderungen (Mutationen) in der kodierenden Sequenz bestimmter Gene können zu einem Verlust der Funktion des Proteins, welches in eben diesem Gen kodiert ist, führen (loss of function mutation). So führt der Funktionsverlust von Leptin, einem Hormon, das von Fettzellen sezerniert wird und Sättigungsgefühl auslöst, unweigerlich zu schwerer Fettleibigkeit, die unbehandelt bereits im Kindesalter zum Tode führen kann.

    Könnten solche Formen von monogen (von einzelnen Genen) verursachter Fettleibigkeit verantwortlich für die prozentuale Zunahme übergewichtiger Menschen in der Bevölkerung sein?

    Erhebungen, die seit dem Beginn der 70er Jahre des vergangenen Jahrhunderts in den USA gesammelt wurden, zeigen deutlich, dass der Anteil der Übergewichtigen und fettleibigen Menschen an der Bevölkerung seit Anfang der 80er Jahre stetig steigt (Abbildung 1). Mutationen, die zu monogener Fettleibigkeit führen, liegen jedoch nur äußerst selten der bei Menschen beobachteten Fettleibigkeit zu Grunde. Darüber hinaus werden diese Veränderungen des Genoms bereits seit Generationen vererbt und somit waren die seltenen Fälle von schwerer Fettleibigkeit bereits vor den 70er Jahren des 20. Jahrhunderts bekannt.

    Prozentualer Anteil fettleibiger Menschen (Body-Mass-Index > 30 kg/m²) an der Bevölkerung der USAAbbildung. 1: Prozentualer Anteil fettleibiger Menschen (Body-Mass-Index > 30 kg/m²) an der Bevölkerung der USA. obese: fettleibig © Quelle: CDC/NCHS, National Health and Nutrition Examination Survey

    Das immer häufiger auftretende Übergewicht muss demnach eine andere Ursache haben. Nach heutigen Erkenntnissen sind unsere veränderten Lebensumstände der Kern des Problems. Sesshaftes Leben, Büroarbeitsplatz, automobile Mobilität, fehlende Bewegung und ein ständiges Überangebot an energiereicher und wohlschmeckender Nahrung charakterisieren unsere heutige Gesellschaft. Somit ist es auch nicht überraschend, dass die 1970er Jahre sowohl den Beginn des Siegeszugs der Fastfood-Industrie als auch den Beginn des Gewichtzuwachses in der Bevölkerung markieren.

    Können wir also unserem Genom keine Schuld an unserem Übergewicht geben?

    Und warum beobachten wir dennoch eine breite Variabilität im Erscheinungsbild unserer Gesellschaft, obwohl jedes Mitglied einer definierten Bevölkerungsgruppe den gleichen Umweltbedingungen und Versuchungen ausgesetzt ist?

    Mögliche Antworten werden seit der Entwicklung genomweiter Sequenzierung in Vielzahl geboten. Einzelnukleotid-Veränderungen im menschlichen Genom, sogenannte „single nucleotide polymorphisms“ (SNPs), werden in Verbindung mit bestimmten Krankheitsbildern oder Körpermerkmalen gebracht. Diese Polymorphismen führen jedoch nicht zu einem Funktionsverlust der entsprechenden Gene, vielmehr befinden sich viele dieser Veränderungen in nicht-kodierenden Sequenzen. Wie genau diese Polymorphismen verschiedene Krankheiten oder Funktionen des Körpers beeinflussen, ist meist ungeklärt und stellt eine Herausforderung für die Wissenschaftler dar. Vermutlich wird indirekt die Funktion oder die Expression von Proteinen beeinflusst.

    Innerhalb eines menschlichen Genoms befinden sich nun nicht nur eine, sondern viele solcher Einzelnukleotid-Veränderungen. Manche werden mit nachteiligen, andere mit günstigen Effekten für ein bestimmtes Merkmal oder eine Krankheit, wie z. B. Fettleibigkeit, assoziiert. In ihrer Gesamtheit beeinflussen alle im Genom vorhandenen Polymorphismen die individuelle Anfälligkeit für z. B. Übergewicht und somit spricht man in diesem Fall von polygener (durch das Zusammenspiel mehrerer Gen-Loci bedingter) Fettleibigkeit.

    Gegenwärtig sind mit Hilfe genomweiter Sequenzierungen 52 Gene identifiziert worden, die innerhalb ihrer Sequenz Polymorphismen aufweisen, die wiederum mit Übergewicht in Verbindung gebracht wurden (Abbildung 2).

    Eines dieser Gene kodiert für das fat mass and obesity asssociated protein (FTO).

    Tatsächlich war FTO eines der ersten Gene, welches im Jahr 2007 mit Hilfe neuerer und wirtschaftlicherer Methoden der genomweiten Sequenzierung mit Übergewicht in Verbindung gebracht wurde. Zusammenfassung der bekannten, mit Übergewicht assoziierten GeneAbbildung 2: Zusammenfassung der bekannten, mit Übergewicht assoziierten Gene, anhand signifikant veränderter Körpermerkmale. Während einige Polymorphismen nur mit einem oder wenigen Körpergewichtsmerkmalen assoziiert sind, stehen FTO-Varianten mit erhöhtem BMI, Körperfettanteil, Hüftumfang und generell Fettleibigkeit in Verbindung. (© Max-Planck-Institut für neurologische Forschung/Loos RJF(2012))

    Wie wir nun wissen, befindet sich innerhalb einer (nicht kodierenden) Region des FTO Gens ein Cluster von SNPs, der äußerst signifikant mit einem erhöhten Body-Mass-Index (BMI - bewertet das Körpergewicht in Relation zur Körpergröße) assoziiert ist. Man spricht von Risiko-Allelen (Allel = Genvariante), die für ein erhöhtes Körpergewicht empfänglich machen. Die individuellen Effekte des für ein erhöhtes Körpergewicht prädispositionierenden Risiko-Allels sind hierbei relativ gering. Träger eines FTO-Risiko-Allels haben im Durchschnitt einen um 0.4 kg/m2, Träger von zwei Risiko-Allelen um 0.8 kg/m2 erhöhten Body-Mass-Index im Vergleich zu nicht betroffenen Probanden. Inwiefern eine für Übergewicht prädispositionierende Variation im FTO-Gen mit anderen Risikofaktoren, mit anderen Polymorphismen, die mit Übergewicht assoziiert sind, oder mit Umwelteinflüssen interagiert, ist bis dato nicht bekannt, stellt jedoch einen wichtigen Baustein in der Untersuchung des polygen verursachten Übergewichtes dar.

    Das “fat mass and obesity-associated protein” (FTO)

    Ausgelöst durch die statistisch höchst signifikante und in verschiedensten ethnischen Gruppen reproduzierte Assoziation der Polymorphismen des menschlichen FTO-Gens mit Übergewicht, widmeten sich Wissenschaftler der Untersuchung des FTO-Proteins. Welche molekulare Funktion erfüllt es? In welchen Organen des Körpers wird es exprimiert bzw. in welchem dieser Organe oder Zellpopulationen erfüllt es eine wichtige Aufgabe? Wie wird seine Expression reguliert? Fragen, welche nur durch die gezielte genetische Manipulation des FTO-Gens beantwortet werden können.

    Während der bis jetzt nur wenig beschriebene Verlust des FTO-Proteins in jeder Zelle des menschlichen Körpers verheerende Folgen für die Entwicklung und das Überleben betroffener Patienten hat, führt der Verlust in Mäusen zu einem komplexen Erscheinungsbild (Phänotyp), der unter anderem durch eine erhöhte postnatale Sterberate, geringere Körpergröße, verringerte Fett- und Magermasse, einen erhöhten Energieverbrauch bei reduzierter Bewegung und einen erhöhten sympathischen Tonus charakterisiert ist. Dies bestätigte die Vermutung, dass FTO eine Rolle in dem Gleichgewicht im Energiehaushalt erfüllt. Auf Grund der Komplexität dieses Phänotyps war jedoch eine genauere Einschränkung der molekularen Wirkmechanismen oder involvierten Kontrollmechanismen nicht möglich.

    Die Beobachtung, dass FTO insbesondere im Zentralnervensystem exprimiert ist und sowohl der Verlust der Expression des FTO-Gens als auch der des Dopamin-Rezeptors vom Typ 2 in Mäusen ähnliche Charakteristika hervorrufen, legte die Untersuchung des sogenannten dopaminergen „Belohnungs“-Systems nahe. Dieses System beeinflusst durch Ausschüttung des Botenstoffes Dopamin unsere Motivation, eine vorangegangene Handlung zu wiederholen, z. B. eine schmackhafte Speise erneut zu sich zu nehmen oder sogar zielgerichtet danach zu suchen. Zur Untersuchung des dopaminergen Systems wurden neben FTO-defizienten Mäusen auch Mäuse mit einer konditional gerichteten und spezifischen Deletion von FTO in dopaminergen Neuronen verwendet. Hierbei stellte sich heraus, dass der Verlust von FTO die zellulären Antworten abschwächt, die von Dopamin-Rezeptoren abhängen. In FTO-defizienten Mäusen, in denen jede Körperzelle vom Verlust von FTO betroffen ist, führt dies zu einem nahezu kompletten Verlust der bewegungsstimulierenden Wirkung von Kokain (welches normalerweise zu einer Überaktivierung dopaminerger Signalübertragung führt). Die konditionale Deletion von FTO spezifisch in dopaminergen Neuronen hingegen führt zu einem gegenteiligen Effekt und einer Hypersensitivität gegenüber den stimulierenden Effekten von Kokain. Bedingt durch den räumlich limitierten Effekt des FTO Verlustes betrifft die Abschwächung der Dopamin-Rezeptorabhängigen Antworten nur dopaminerge Neurone. Diese Rezeptoren (auch D2/D3-Autorezeptoren genannt) sind Teil einer Feedbackschleife und stellen durch ihre inhibitorische Wirkung sicher, dass die dopaminerge Transmission ein Ende findet. Somit führt der Verlust von FTO in diesen Neuronen zu einer abgeschwächten Feedbackschleife und damit zu hypersensitiver dopaminerger Transmission.

    Molekulare Funktion von FTO

    Das FTO-Protein ist eine Demethylase und vermag als solche in vitro unterschiedliche Methylierungsmodifikationen verschiedener Nukleotide entfernen. In vivo konnte bis dato N6-Methyladenosin in mRNA (messenger RNA) als Substrat bestätigt werden. Obwohl N6-Methyladenosin bereits seit mehr als 30 Jahren bekannt ist, sind die Konsequenzen, die diese Modifikation hat, weitgehend unbekannt. Kürzlich jedoch konnten Wissenschaftler zeigen, dass N6-Methyladenosin-modifizierte mRNAs von bestimmten Proteinen erkannt, zu sogenannten processing bodies innerhalb einer Zelle transportiert und dort abgebaut werden. Somit beeinflusst die Methylierung die Lebenszeit der Trägermoleküle der genetischen Information, welche als Bauplan zur Herstellung jeglicher Proteine in einer Zelle benötigt werden.

    Im Fto-defizienten Mausmodell scheint dies in der Tat der Fall zu sein. Eine Analyse des Methylierungsstatus in Gehirngewebe zeigte, dass ca. 1500 Transkripte auf Grund der fehlenden Demethylase FTO im Vergleich zu einer Wildtyp-Kontrolle übermäßig methyliert sind. Der größte Teil der betroffenen Transkripte kodierte in diesem Fall für Proteine, welche Aufgaben in neuronaler Signalübertragung übernehmen und teilweise auch wichtige Komponenten der dopaminergen Synapse sind.

    Es bleibt abzuwarten, ob es sich bei dieser molekularen Funktion um die einzige Aufgabe von FTO handelt, ob in unterschiedlichen Zellpopulationen unterschiedliche Transkripte Ziel der Demethylase FTO sind und ob N6-Methyladenosin einzig eine Markierung zum Abbau von mRNA-Transkripten ist.

    Vom Mensch zur Maus und zurück zum Menschen?

    Inwieweit können nun die gewonnenen Erkenntnisse im Mausmodell auf den Menschen übertragen werden? Da die Polymorphismen im humanen FTO-Gen keinen unmittelbaren Einfluss auf die Funktion des FTO-Proteins haben, ist diese Frage schwer zu beantworten. Während genetische Nagermodelle einen meist eindeutigen Zustand beschreiben (Verlust oder übermäßiges Vorkommen eines Proteins), ist bis dato nicht bekannt, ob und wenn ja, welchen Einfluss die Einzelnukleotid-Veränderungen auf mRNA oder Proteinmengen von FTO haben.

    Der große Wert dieser Grundlagenforschung liegt auch noch in anderen Erkenntnissen. Aus dem Wissen, dass FTO in dopaminergen Zellen von Bedeutung ist, ergeben sich neue Forschungsfragen. Fehlfunktionen des dopaminergen Systems sind nicht nur mit Störungen der Essfunktion, sondern unter anderem auch mit Schizophrenie, Depression, Impulsivität und Suchtverhalten assoziiert. Somit sollte die Untersuchung von FTO-Gen-Variationen auch auf diese und ähnliche Krankheitsbilder unter Zuhilfenahme bereits etablierter Verhaltensparadigmen ausgeweitet werden. Ferner ermöglicht es die gleichzeitige Untersuchung der mit Übergewicht assoziierten FTO-Variationen und bekannter, mit Fehlfunktionen des dopaminergen Systems assoziierter Risiko-Allele: Ziel ist die Identifikation möglicher synergistischer oder einander kompensierender Gen-Gen-Interaktionen. Diese Experimente könnten ein erster Schritt hin zu einem Verständnis individueller Anfälligkeit für Gewichtszunahme sein und Hinweise auf den Zusammenhang zwischen unserem Genom und unserer Umwelt geben.


    * Der im Forschungsmagazin der Max-Planck Gesellschaft 2014 erschienene Artikel http://www.mpg.de/7929909/MPInF_JB_2014?c=8236817 wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier geringfügig für den Blog adaptiert und ohne (die im link angeführten Literaturzitate.


    Weiterführende Links

    Max-Planck-Institut für Stoffwechselforschung: Schwerpunktthemen: zerebrale Kontrolle des Energie- und Glukose­stoffwechsels; Zusammenhang von Übergewicht, Insulinresistenz und Typ-2 Diabetes und neurodegenerative Erkrankungen http://www.nf.mpg.de/

    Neurotransmitter – Botenmoleküle im Gehirn (U. Pontes): https://www.dasgehirn.info/entdecken/kommunikation-der-zellen/neurotrans...

    Prof. Jens C. Brüning http://www.young-cecad.de/Prof-Jens-C-Bru-ning.179.0.html Video 0:47 min. Prof. Brüning interessiert an der Alternsforschung zu verstehen, warum der menschliche Organismus altert. Besonders interessiert ihn der sog. Altersdiabetes, eine Erkrankung, die gehäuft im zunehmenden Alter auftritt. Bei diesem Typ 2-Diabetes funktioniert das körpereigene Hormon Insulin nicht mehr richtig. In Folge dessen kommt es zum Anstieg der Blutzuckerkonzentration.

    CECAD (Cellular Stress Responses in Aging Associated Diseases) Exzellenzcluster http://cecad.uni-koeln.de/Home.3.0.html?&L=1

     CECAD - Das Exzellenzcluster für Alternsforschung Video 2:59 min

    CECAD Forschungsbereich F / "Warum entsteht Hunger im Gehirn?" Video 210 min

    Ich esse, also bin ich! Video 3:19 min

    inge Fri, 17.04.2015 - 08:49

    Metformin: Vom Methusalem unter den Arzneimitteln zur neuen Wunderdroge?

    Metformin: Vom Methusalem unter den Arzneimitteln zur neuen Wunderdroge?

    Fr, 10.04.2015 - 06:25 — Hartmut Glossmann Hartmut GlossmannIcon Medizin

    Metformin, ein kleines synthetisches Molekül, ist seit über 50 Jahren Nummer 1 in der Behandlung von Typ II Diabetes. Bei sehr hoher Wirksamkeit zeigt Metformin erfreulich wenige unerwünschte Nebenwirkungen und wird jährlich von mehr als 100 Millionen Patienten angewandt. Nahezu zahllose klinische Untersuchungen wurden bis jetzt mit dem Medikament durchgeführt. Der Pharmakologe Hartmut Glossmann – ein Pionier der Biochemischen Pharmakologie – erzählt, wie nun retrospektive Analysen dieser Studien ein überaus breites Potential neuer Wirkungen – u.a. gegen Krebserkrankungen, Entzündungen, bis hin zum Verzögerung des Alterungsprozesses - erkennen lassen.

    Weltweit sind laut WHO 347 Millionen Menschen an Diabetes mellitus erkrankt, davon 90 % an Typ II Diabetes, der nicht Insulin-abhängigen Form der Zuckerkrankheit (früher hieß diese „Alter-Diabetes“) - Tendenz steigend. Der erhöhte Blutzucker (Hyperglykämie) führt langfristig zu schwerwiegenden Schädigungen vor allem des Herz-Kreislaufsystems und des Nervensystems. Nummer 1 in der Behandlung dieser chronischen Erkrankung ist Metformin. Seit über 50 Jahren wird das Medikament erfolgreich angewandt (in Österreich u.a. unter den Handelsnamen Glucophage, Diabetex ) und mehr als 100 Millionen Patienten bekommen es jährlich verschrieben.

    Von der Heilpflanze zum Arzneimittel

    Metformin ist ein kleines, stickstoffreiches stark basisches Molekül, das zur Gruppe der sogenannten Biguanidine (das sind Verbindungen mit 2 kondensierten Guanidinen; Abbildung 1) gezählt wird.

    Abbildung 1. Die Geißraute (links) wurde schon seit dem Mittelalter gegen viele Krankheiten, darunter auch Diabetes, eingesetzt. Als Wirkstoffe wurden in den 1920er Jahren Galegin und Guanidin identifiziert. Metformin leitet sich von diesen Verbindungen ab.

    Wie auch der Großteil anderer Arzneimittel leitet sich Metformin von Naturstoffen her: im konkreten Fall von Inhaltsstoffen in der für Menschen an und für sich giftigen Geißraute (Galega officinalis). Dieses „Kraut“ wurde bereits seit dem Mittelalter als Heilpflanze bei verschiedensten Krankheiten eingesetzt, von Diabetes bis hin zu Infektionen (u.a. Pest, Fleckfieber und Pocken). Sogar zur besseren Milchleistung von Nutztieren wurde Metformin angewandt. Die aufkommende chemische Analytik zu Beginn des 20. Jahrhunderts ermöglichte es in den Pflanzenextrakten antidiabetisch wirksame Prinzipien festzustellen: Guanidin und sein, nach der Pflanze benannter, Metabolit „Galegin“.

    Guanidin selbst erwies sich als zu toxisch für die klinische Anwendung, Galegin wurde an einer Reihe von Diabetes-Patienten – offensichtlich erfolgreich – eingesetzt. Insgesamt suchte man aber nach Guanidin-basierten Verbindungen mit höherer Wirksamkeit und einem verbesserten Sicherheitsprofil. Unter diesen Verbindungen war Metformin. Es war bereits 1923 in Deutschland synthetisiert worden, hatte in Tierexperimenten blutzuckersenkende Wirkung gezeigt und schien überdies anti-entzündliches (anti-inflammatorisches) Potential zu besitzen. Offenbar war die Zeit für seine Entwicklung noch nicht gekommen und es sollte aber noch bis 1957 dauern, bis ein französischer Forscher die antidiabetische Wirkung von Metformin am Menschen nachwies. Damit begann der Siegeszug des Antidiabetikums: es erwies sich nicht nur als ein wirksames, weitgehend sicheres Medikament mit nur geringen Nebenwirkungen, sondern - auf Grund seiner einfachen chemischen Struktur – auch als recht kostengünstig in der Herstellung. Die Wirkung in kurzen Worten zusammengefasst: Metformin reduziert die Neubildung von Glukose (vor allem) in der Leber ohne dabei die Insulinausschüttung zu erhöhen und ohne, dass es zu einer Zunahme des Körpergewichts kommt.

    Vom alten Antidiabetikum zur neuen Panacaea

    In den vergangenen mehr als 50 Jahren sind zahllose Studien an Millionen von Typ2 Diabetikern durchgeführt worden, welche Metformin als Monotherapie oder als Bestandteil einer Kombinationstherapie erhielten. Durch retrospektive Analysen dieser Untersuchungen entdeckt man nun seit etwa 2005 neue Wirkungen, u.a. eine:

    • Anti-Cancer Wirkung: eine rezente Metaanalyse von nahezu 1.5 Millionen Patientendaten kommt zum überraschenden Schluss, dass Metformin die Krebshäufigkeit bei Diabetikern signifikant senkt. Dazu muss man vorausschicken, dass Diabetiker generell ein erhöhtes Risiko haben an Krebs verschiedener Organe – beispielsweise an Brustkrebs, Pankreas-Ca oder Colon-Ca - zu erkranken.
    • Anti-Psoriasis Wirkung: Andere Analysen sprechen dafür, dass Metformin das Risiko für Psoriasis - allerdings nur bei Männern - vermindert.
    • Verzögerte Progression von metabolischem Syndrom zu Diabetes: Hypothesen zur Wirksamkeit von Metformin im Vergleich zu Plazebo und „life-style“ Intervention wurden in (prospektiven) Studien getestet; sie belegen: Metformin kann das Fortschreiten von metabolischem Syndrom zum Diabetes verzögern.
    • Reduktion kardiovaskulärer Ereignisse: Metformin vermindert bei übergewichtigen Diabetikern kardiovaskuläre Ereignisse im Vergleich zu anderen Antidiabetika inklusive Insulin. Mit Hilfe spezifischer Biomarker für Entzündungsprozesse gelingt es anti-inflammatorische Wirkungen bei mit Metformin behandelten Typ 2 Diabetikern nachzuweisen.

    Metformin besitzt also ein vielversprechendes Potential präventiv und therapeutisch in diversesten Krankheiten zu wirken. Derzeit laufen weltweit mehr als 370 klinische Studien mit Metformin, davon befassen sich mehr als 100 kontrollierte Untersuchungen mit der Anti-Cancer Wirkung gegen eine breite Palette von Tumoren (https://www.clinicaltrials.gov/). Zwei kürzlich publizierte Studien mit nicht-Diabetikern belegen, dass Metformin in sehr kleinen, fast homöopathischen Dosen (250 oder 500 mg /Tag), die Entwicklung von als Karzinom Vorstufen bewerteten Foci im Colon (colo-rectalen aberranten kryptischen Foci) verhindert. Diese Organ-selektive Wirkung ist mit hoher Wahrscheinlichkeit auf die Anreicherung von Metformin im Darmtrakt zurück zu führen.

    Worauf beruhen die so verschiedenartigen Wirkungen von Metformin?

    Auch nach jahrzehntelanger Anwendung von Metformin ist noch nicht völlig geklärt, wie und wo überall diese Substanz in Stoffwechselwege eingreift.

    Belegt ist, dass bei oraler ( aber auch bei intravenöser !) Gabe eine extreme Anreicherung des Metformins erfolgt und zwar in den Zellen, die den Dünndarm auskleiden, aber ganz besonders auch in den Zellen entfernterer Darmabschnitte, im Colon. Für diese Anreicherung spielen Transportproteine in der Plasmamembran (Monoamin- (Serotonin-)Transporter) eine entscheidende Rolle.

    Im unteren Dünndarm (Ileum) hemmt Metformin die Wiederaufnahme von Gallensäuren mit nachfolgender Stimulation eine Peptidhormons (Glukagon-Like Peptide 1 im Colon. Dies führt zu gravierenden Stoffwechselveränderungen in den Zellen des Colons, mit verstärkter Aufnahme von Glukose aus der Zirkulation ( erkennbar im Fluor-Deoxyglukose PET)und AMPK Aktivierung( siehe weiter unten).

    Später, beim Eintritt in die (Leber)Zelle – u.a. über das Transportprotein OCT-1 („Organic Cation Transporter“) kommt es zur Konkurrenz mit Substanzen, die denselben Transportweg benutzen. U.a. wird die Aufnahme von Vitamin B1 (Thiamin), welches eine essentielle Rolle in der Lipidsynthese spielt, stark blockiert.

    In den Zellen reichert sich Metformin in Mitochondrien an und baut sich dort spezifisch in eine Komponente (Komplex I) der Atmungskette ein. Dieser zentrale Prozess der zellulären Energiegewinnung ist auf der inneren Mitochondrienmembran lokalisiert und generiert hier die universelle Energiewährung der Zelle, das ATP (Adenosintriphosphat). Der Einbau des Metformins bewirkt eine leichte Hemmung dieses Prozesses und damit eine verminderte Produktion von ATP. Als Folge steigt der zelluläre Spiegel der Vorstufe des ATP, des Adenosinmonophosphat (AMP), an.

    Erhöhtes AMP wird als Signal von Enzymen registriert welche u.a den Glukoseabbau (Glykolyse) und die Glucoseneubildung (Gluconeogenese) kontrollieren (z.B. die AMP-regulierte Phosphofructokinase). Vor allem aktiviert AMP ein Enzym – die AMP-aktivierte Proteinkinase (AMP-Kinase) -, welches als Master Regulator den Energiestatus der Zelle kontrolliert und bei reduzierter verfügbarer Energie von energieverbrauchenden Syntheseprozessen auf energieliefernde Abbauprozesse umschaltet. Dies führt langfristig zu adaptiven Veränderungen im Fettstoffwechsel , im Glukosestoffwechsel und in der Proteinsynthese - eine Vielzahl von Stoffwechselvorgängen ist davon betroffen: so wird u.a. das Entzündungsgeschehen beeinflusst, ebenso der programmierte Zelltod (Apoptose) und wichtige Proteine der Tumorabwehr aktiviert (Abbildung 2).

    Abbildung 2. Wie wirkt Metformin? Stark vereinfachte Darstellung des Angriffspunkts Komplex 1 in Mitochondrien. Metformin gelangt über einen Transporter (OCT-1) in die Zelle, baut in Komplex 1 ein und reduziert die Zellatmung und damit die Entstehung von ATP. Der nun in erhöhter Konzentration vorliegende Vorläufer AMP wirkt als Signal auf mehrere Enzyme, u.a. auf die Phosphofructokinase (PFK) und stimuliert damit den Glukoseabbau. Vor allem aktiviert AMP die AMP-Kinase, einen Masterregulator, der essentielle Syntheseprozesse (e.g. von Glukose, Lipiden, Proteinen,..) „abschaltet“.

    Mit dem Umschalten auf energieliefernde Abbauprozesse imitiert Metformin quasi „Fasten“ bzw. Kalorienrestriktion (es wird deshalb auch als „Calorie Restriction Mimetic“ bezeichnet). Im Tierversuch kann Metformin ebenso wie Einschränkung der Nahrungszufuhr das „Leben“ von Mäusen verlängern und zu weniger mit dem „Altern“ in Verbindung gebrachten Veränderungen wie beispielsweise Katarakten oder Tumoren führen. Dabei zeigt Metformin auch überragende anti-­entzündliche (anti‐inflammatorische) Eigenschaften. Dem ist besondere Bedeutung zuzumessen: Der Entzündungsprozeß steht derzeit im Mittelpunkt der Forschung über kausale Auslöser/Verstärker der Atherosklerose, der Pathogenese des Typ 2 Diabetes und des aggressiven Tumorgeschehens. Für die Anti-Tumorwirkungen des Metformins gibt es viele direkte, experimentelle Belege, die von Verhinderung der durch UVB-Strahlung induzierten Hauttumoren bis hin zur selektiven Abtötung von rasch wachsenden, metastasierenden Krebs Stammzellen reichen.

    Für wie gefährlich sollte man Metformin einschätzen?

    Der Ausspruch des Paracelsus „Alle Dinge sind Gift, und nichts ist ohne Gift; allein die Dosis macht‘s, daß ein Ding kein Gift sei“ gilt für alles, was wir zu uns nehmen. Natürlich auch für Medikamente – es gibt keine Wirkstoffe, die nicht auch unerwünschte Nebenwirkungen haben. Im Falle des Metformin werden Gefahren zweifellos überschätzt, sein Nutzen unterschätzt. Keines der in den letzten Jahren neu eingeführten Antidiabetika hat bislang die gleichen günstigen Wirkungen wie Metformin belegen können, keines hat so wenige und durchaus kontrollierbare Nebenwirkungen gezeigt, wie das an Millionen und Abermillionen von Patienten erprobte Metformin.

    Die Nachteile von Metformin :

    • nach einigen Jahren kann es zu einem Vitamin B12 Mangel kommen (Ursache ungeklärt), der sich leicht korrigieren lässt.
    • Die bei Beginn einer Therapie zu beobachtenden gastro-intestinalen Nebenwirkungen (Durchfall, Übelkeit) können oft durch einschleichende Dosierung umgangen werden und sind gegenüber dem Nutzen vernachlässigbar.
    • Als schwerwiegende unerwünschte Wirkung wird im Beipackzettel die sogenannte Laktazidose zitiert, d.i. ein vermehrter Gehalt an Milchsäure in Blut und Gewebe auf Grund eines gestörten Abbaus von Glukose. Mit dem Risiko einer derartigen Laktazidose wird die Kontraindikation bei Herzinsuffizienz begründet: jedenfalls konnte in klinischen Studien an ausgewählten und überwachten Patienten eine Laktazidose nicht beobachtet werden. Für die Kontraindikation Herzinsuffizienz gibt es also keine gesicherten Belege- das Gegenteil ist eher der Fall: Patienten mit Herzinsuffizienz scheinen von Metformin zu profitieren.
    • Ebenso wird zunehmend bezweifelt, ob das pauschale Verbot von Metformin bei Einschränkung der Nierenfunktion sinnvoll ist. Die Vorteile von Metformin, insbesondere die erwartbaren Langzeitwirkungen, lassen es sinnvoll erscheinen (ähnlich wie bei vielen anderen Medikamenten) eine Nierenfunktions-abhängige Dosierung einzuführen. In unseren Kliniken ist es möglich, die Plasmaspiegel mit Massenspektromie rasch und zuverlässig zu bestimmen. Ein (vor Jahrzehnten zwischen Herstellern und Behörden vereinbarter) „Beipackzettel“ darf nicht dazu führen, dass ärztliches Handeln aufgrund überwältigender wissenschaftlicher Erkenntnisse behindert wird.

    Ausblick

    Die relativ milden Nebenwirkungen des Metformin lassen somit seine Verwendung „off-label“ , d.h. für Indikationen, die über die behördlich zugelassene Indikation Diabetes Typ II hinausgehen, gerechtfertigt erscheinen. Dementsprechend wird dieses Medikament bereits bei Polycystischem Ovarialsyndrom, bei metabolischem Syndrom und Prädiabetes erfolgreich angewandt. Es erscheint durchaus wahrscheinlich, dass weitere Indikationen folgen werden (Abbildung 3).

    Abbildung 3. Neben der etablierten Therapie von Diabetes II, zeigt Metformin ein vielversprechendes Potential in vielen anderen Indikationen.

    Die eingangs erwähnten klinischen Studien prüfen die Wirkung von Metformin gegen eine breite Palette an Krankheiten, die neben Diabetes von diversen Krebserkrankungen über Atherosklerose bis hin zur Fettsucht reichen. Bei entsprechendem Ausgang könnten damit neue Zulassungen von Metformin angestrebt werden. Ein derartiges „Drug-Repositioning“ wird heute auch mit einer Reihe anderer etablierter Medikamente angestrebt.

    Darüber hinaus könnte aber auch die vorbeugende Wirkung des Metformin gegen einige unserer Zivilisationskrankheiten bis hin zum Verzögern von „Alterserscheinungen“ besondere Bedeutung erlangen (Abbildung 4). Abbildung 4. Über Wellness hinausgehend: Gesundheit, Klugheit, Jugend – kann Metformin einen Beitrag leisten? (Bild: Peter Paul Rubens (1638) „Urteil des Paris“; Prado, Madrid)


    Literatur zu einzelnen Punkten dieses Artikels wird auf Wunsch zugesandt.


    Weiterführende Links

    inge Fri, 10.04.2015 - 06:25

    Hormone und Umwelt

    Hormone und Umwelt

    Fr, 03.04.2015 - 07:49 — Michaela Hau

    Michaela HauIcon BiologieHormone steuern durch komplexe Regelkreise die Anpassungen von Organismen an ihre Umwelt. Verändern sich diese hormonellen Regelkreise schnell genug, um mit den weltweit immer schneller werdenden Umweltveränderungen mitzuhalten? Die Biologin Michaela Hau, Gruppenleiterin am Max-Planck Institut für Ornithologie (Seewiesen) und Professorin an der Universität Konstanz zeigt am Beispiel des Hormons Kortikosteron bei Vögeln, dass verschiedene Arten unterschiedliche Konzentrationen aufweisen können – je nach ihrem Fortpflanzungsaufwand und dass auch innerhalb einer Art Kortikosteronwerte zum Fortpflanzungserfolg eines Individuums passen.*

    Die Mehrheit der Organismen lebt in einer Umwelt, die sich ständig verändert – innerhalb eines Tages, zwischen den Jahreszeiten und den Jahren. Hormone sind Signalstoffe des Körpers, die es Organismen ermöglichen, sich auf solche Umweltveränderungen einzustellen. Sie steuern viele Merkmale von Tieren, unter anderem ihr Verhalten, ihren Energiehaushalt und ihre Fortpflanzung. Während die Wissenschaft große Fortschritte in unserem Verständnis der Evolution morphologischer Merkmale erbracht hat – ein berühmtes Beispiel sind die unterschiedlichen Schnabelformen der Darwinfinken – ist unser Wissen über evolutionäre Veränderungen in physiologischen Merkmalen wie Hormonen noch sehr unvollständig. Aufgrund der zur Zeit mit großer Geschwindigkeit voranschreitenden globalen Klimaveränderungen stellt sich nun eine wichtige Frage: Können sich hormonelle Prozesse schnell genug verändern, um Organismen eine rechtzeitige und erfolgreiche Anpassung an veränderte Umweltbedingungen zu ermöglichen?

    Wie könnten sich hormonelle Regelkreise durch Evolution verändern?

    Hormone sind Bestandteile von komplexen Regelkreisen, innerhalb derer Auslöse-, Empfänger- und Rückkopplungsprozesse auf mehreren Ebenen zusammenwirken (Abb. 1). Möglichkeiten der Kopplung zwischen Einheiten hormoneller Regelkreise und Merkmalen des LebensstilsAbbildung 1. Stark vereinfachte Darstellung: Möglichkeiten der Kopplung zwischen Einheiten hormoneller Regelkreise und Merkmalen des Lebensstils, die Auswirkungen auf evolutionäre Veränderungen haben könnten. Kreise stellen evolutionäre Einheiten dar (auf die die Selektion einwirken kann), während Pfeile Teile des Regelkreises darstellen. Die Hypothese der ‚Evolutionären Einschränkung/ Integration’ (a), besagt, dass wichtige Komponenten der Hormonsynthese und -wirkung eng miteinander und mit der Steuerung des Lebensstils verwoben sind. Dadurch bleibt auch die Weise, in der der Lebensstil gesteuert wird, erhalten (z.B. + Erhöhung der Fortpflanzung, - Herabschaltung von Selbsterhaltungsprozessen). Die Hypothese des ‚Evolutionären Potenzials’ (b) nimmt dagegen an, dass die Einheiten des hormonellen Regelkreises weitgehend unabhängig voneinander sind. Dadurch kann auch die hormonelle Steuerung des Lebensstils variiert werden. Viele Einheiten und Wechselwirkungen von hormonellen Regelkreisen wurden hier nicht dargestellt.(© übersetzt und modifiziert nach [M.Hau, Bioessays 29, 133-144 (2007)], mit Erlaubnis von BioEssays/Wiley Interscience)

    Ein wichtiger Mechanismus der Anpassung an Umweltveränderungen sind die gut erforschten kurz- und langzeitigen Veränderungen in Hormonkonzentrationen im Blut. So zeigen Tiere (und Menschen) sowohl schnelle Hormonveränderungen innerhalb weniger Minuten nach dem Auftreten eines Umweltreizes als auch regelmäßige tages- und jahreszeitliche Schwankungen im Hormonhaushalt. Ähnliche Schwankungen werden auch in anderen Teilen von hormonellen Regelkreisen beobachtet, zum Beispiel in hormonbildenden Enzymen oder in Hormonrezeptoren. Es ist wahrscheinlich, dass sich durch evolutionäre Prozesse das Ausmaß solcher hormoneller Schwankungen an den Umfang der Umweltveränderungen, denen eine Art ausgesetzt ist, angepasst hat. Wenn sich aber nun die Umweltschwankungen verändern, muss sich wiederum der hormonelle Regelkreis ändern, um eine erfolgreiche Anpassung zu gewährleisten. Wie und wie schnell verändern sich hormonelle Regelkreise?

    Es ist zum Beispiel möglich, dass viele Bestandteile hormoneller Regelkreise, etwa durch genetische Mechanismen, zu Einheiten zusammengefasst sind und sich dadurch miteinander verändern (Abb. 1a;). Es könnte aber auch sein, dass sich die Einheiten des Regelkreises weitgehend unabhängig voneinander verändern können (Abb. 1b). In beiden Szenarien sind evolutionäre Veränderungen denkbar, wobei es noch unklar ist, ob eine Kopplung vieler Einheiten eine evolutionäre Anpassung des Systems eher verlangsamt oder deren Geschwindigkeit sogar erhöht.

    Kortikosteron und seine Funktionen

    Um zu verstehen, wie die Evolution auf hormonelle Regelkreise einwirkt, haben Forscher des Max-Planck-Instituts für Ornithologie in Radolfzell und Seewiesen vor einigen Jahren begonnen, das Hormon Kortikosteron bei Vögeln zu untersuchen. Kortikosteron ist ein Glukokortikoidhormon, das in vielen Wirbeltieren vorkommt (Menschen besitzen ein eng verwandtes Hormon, das Kortisol). Kortikosteron steuert wichtige Körperfunktionen, wie zum Beispiel die Bereitstellung von Zucker im Energiehaushalt. Bei erhöhtem Energiebedarf wird dieses Hormon in erhöhten Mengen von der Nebennierenrinde ins Blut ausgeschüttet. Besonders starke Anstiege in der Kortikosteronkonzentration werden beim Auftreten unangenehmer Situationen beobachtet, zum Beispiel wenn plötzlich ein Fressfeind auftaucht. Solche stark erhöhten, durch Stress verursachten Kortikosteronkonzentrationen unterstützen lebenswichtige Prozesse, so die Bereitstellung von Energie für die Muskeln zur schnellen Flucht vor dem Fressfeind. Um gleichzeitig einen Energiemangel zu verhindern, werden Prozesse wie Verdauung oder Fortpflanzung, die für das unmittelbare Überleben nicht wichtig sind, heruntergefahren.

    Man kann die Konzentration von Hormonen bei freilebenden Vögeln bestimmen, indem man – ähnlich wie bei einer Blutabnahme beim Arzt – aus der Flügelvene eine kleine Menge Blut entnimmt. Für Basalwerte von Kortikosteron wird eine Blutprobe innerhalb von drei Minuten nach dem Fang genommen, während Stress-verursachte Werte gewonnen werden, nachdem die Vögel 30 Minuten in einem Baumwollsäckchen gehalten wurden.

    Kortikosteronkonzentrationen von Vogelarten sind an ihren Lebensstil angepasst

    Sind Kortikosteronkonzentrationen bei Vogelarten von der Evolution geformt? Bei Tierarten, die in unterschiedlichen Umwelten leben, haben sich über lange Zeiten hinweg unterschiedliche Lebensstile herausgebildet. So haben Arten, die in den gemäßigten Breiten Europas oder Nordamerikas leben, oft eine kurze Lebensdauer und kurze Brutsaisons, legen aber in der Brutzeit viele Eier und investieren damit viel in die Fortpflanzung. Im Gegensatz dazu haben Arten, die in tropischen Gefilden leben, oft eine längere Lebensdauer und legen nur wenige Eier pro Gelege in ihren langen Brutsaisons. Somit investieren tropische Arten pro Zeiteinheit weniger stark in die Fortpflanzung. Zusammenhang zwischen Kortikosteronkonzentration (Mediane pro Art, von Männchen in der Brutzeit) und dem Lebensstil von Vogelarten.Abbildung 2. Zusammenhang zwischen Kortikosteronkonzentration (Mediane pro Art, von Männchen in der Brutzeit) und dem Lebensstil von Vogelarten. a.) Kortikosteron-Basalwerte nehmen mit der Länge der Brutzeit ab, während b.) Stress-verursachte Kortikosteronwerte mit der jährlichen Überlebensrate zunehmen (eine hohe jährliche Überlebensrate bedeutet Langlebigkeit). Offene Kreise: Arten gemäßigter Zonen (überwiegend aus Nordamerika), schwarze Kreise: tropische Arten (überwiegend aus Panama), Kreuze: Arten arider Zonen, Sterne: Arten kalter Zonen.(© übersetzt und leicht modifiziert nach Hau et al., Proc Royal Soc B 277, 3203-3212 (2010), mit Erlaubnis von Royal Society Publishing)

    In Zusammenarbeit mit amerikanischen Kollegen haben Forscher des Max-Planck-Instituts für Ornithologie die basalen und die Stress-verursachten Kortikosteronwerte von Vogelarten aus unterschiedlichen Breitengraden verglichen (Abb. 2). Tatsächlich hatten die kurzlebigen Arten mit ihrem erhöhten Fortpflanzungsaufwand auch höhere basale Kortikosteronkonzentrationen während der Brutzeit als langlebige Arten mit langen Brutsaisons (Abb. 2a). Dahingegen hatten langlebige Arten höhere Stress-verursachte Kortikosteronkonzentrationen als kurzlebige Arten (Abb. 2b). Diese Zusammenhänge von Kortikosteronkonzentrationen und dem durch evolutionäre Prozesse herausgebildeten Lebensstil einer Art deuten stark darauf hin, dass hormonelle Mechanismen von der Evolution geformt werden.

    Kortikosteronkonzentrationen von Individuen sagen ihren Fortpflanzungserfolg voraus

    Artunterschiede im Lebensstil und in hormonellen Regelkreisen haben sich oft über Jahrmillionen herausgebildet. Um das Wirken von Evolution in der heutigen Zeit zu verstehen, begannen die Forscher Studien an einer in Europa weit verbreiteten Vogelart, der Kohlmeise (Parus major). Kohlmeisen sind Standvögel, was den Forschern eine wiederholte Probennahme bei den Tieren zu verschiedenen Jahreszeiten erlaubt. Weiterhin brüten Kohlmeisen gerne in Nistkästen, was eine relativ einfache Bestimmung ihres Fortpflanzungsaufwands und -erfolgs ermöglicht. Die Darwin’sche Fitness eines Individuums ergibt sich aus der Anzahl der Gene, die es nachfolgenden Generation hinterlässt. Demnach ist ein Individuum, das viele Nachkommen produziert, am ‚fittesten’. Bei Vögeln wird die Anzahl der ausgeflogenen Jungen pro Brutsaison als gängiges Maß für den Fortpflanzungserfolg eines Tieres bestimmt.

    KohlmeiseAbbildung 3. Die Kohlmeise (Parus major) eignet sich gut als Studienobjekt für Hormon-Evolution. © Max-Planck-Institut für Ornithologie/Ziegler

    Tatsächlich konnten die Forscher bei freilebenden Kohlmeisen einen Zusammenhang zwischen Kortikosteronkonzentration und Darwin’scher Fitness nachweisen: Meisen, die wenige Wochen vor Legebeginn im März eine hohe Kortikosteron-Basalkonzentration aufwiesen, produzierten mehr Nachkommen pro Jahr als Meisen, die eine niedrige Konzentration des Hormons zeigten (Abb. 4a). Erstaunlicherweise kehrte sich diese Beziehung zwischen Hormonkonzentration und Bruterfolg zwei Monate später um. Im Mai, als die Jungen im Nest schon 8-10 Tage alt waren, hatten Meisen mit niedrigen Kortikosteron-Basalkonzentrationen einen größeren Fortpflanzungserfolg (Abb. 4b). Bei Stress-verursachten Kortikosteronkonzentrationen fanden die Wissenschaftler keinen unmittelbaren Zusammenhang zur Darwin’schen Fitness von Individuen. Zusammenhang zwischen Kortikosteron-Basalkonzentrationen und FortpflanzungserfolgAbbildung 4. Zusammenhang zwischen Kortikosteron-Basalkonzentrationen (ng/ml) und Fortpflanzungserfolg (Anzahl der ausgeflogenen Jungen pro Jahr) bei Kohlmeisen. a.) Vor Legebeginn im März und b.) im Mai, wenn die Nestlinge 8-10 Tage alt waren. Im Mai wurde die Anzahl der ausgeflogenen Jungen pro Jahr statistisch für die Fütterungsrate der Elterntiere korrigiert, weil die Fütterungsrate sehr stark den Fortpflanzungserfolg beeinflusst und Kortikosteron-Basalkonzentrationen wiederum stark mit der Fütterungsrate zusammenhängen. Im März zeigte sich ein positiver Zusammenhang zwischen Kortikosteronwerten und Reproduktionserfolg (Meisen mit hohen Werten produzierten viele Jungen), während im Mai der Zusammenhang negativ war. Offene Symbole: Männchen, schwarze Symbole: Weibchen.© nach Ouyang et al., J Evol Biol 26, 1988-1998 (2013), mit Erlaubnis von J. Evol. Biol.

    Die Evolution von hormonellen Regelkreisen verstehen

    Diese spannenden Erkenntnisse an Kohlmeisen könnten nun bedeuten, dass sich Homonkonzentrationen durch eine Begünstigung von Individuen mit einem hohen Fortpflanzungserfolg durch natürliche Selektion verändern. Jedoch hingen nicht nur die absoluten Kortikosteronkonzentrationen in März und Mai, sondern auch ihre jahreszeitlichen Veränderungen mit der Fitness zusammen: Meisen, die hohe Basalwerte im März, aber niedrige Basalwerte im Mai hatten, produzierten die meisten Nachkommen. Dies deutet darauf hin, dass die Selektion auch auf jahreszeitliche Veränderungen in der Kortikosteronkonzentration einwirkt.

    Der Nachweis, dass Hormonwerte von natürlicher Selektion beeinflusst werden, wäre ein wichtiger Schritt zu einem verbesserten Verständnis der Evolution von Hormonkonzentrationen und ihrer Steuerung von Umweltanpassungen. Jedoch sind Hormonkonzentrationen, auch die des Kortikosterons, stark von direkten Umwelteinflüssen abhängig. Aus diesem Grund ist es nun wichtig, in weiteren Studien zu klären, wie stark die oben gefundenen Zusammenhänge zwischen Kortikosteronwerten und Darwin’scher Fitness von Umwelteinflüssen und inwieweit sie von erblichen Faktoren abhängen. Denn nur erbliche Merkmale können sich durch die Evolution verändern. Züchtungsversuche haben gezeigt, dass Stress-verursachte Kortikosteronkonzentrationen eine erbliche Komponente haben. Inwieweit basale Kortikosteronkonzentrationen erblich sind, ist bislang unbekannt.

    Um einen Einblick in das Ausmaß der Erblichkeit von Hormonkonzentrationen zu erhalten, werden die Forscher in kommenden Studien die Verwandtschaftsverhältnisse der Meisen in ihrer Studienpopulation mittels DNS-Proben ermitteln. Da Kohlmeisen ihr Verbreitungsgebiet in ganz Europa und bis in tropische Gefilde Asiens haben, können in Zukunft auch hormonelle Anpassungen an unterschiedliche Umweltbedingungen innerhalb dieser Art erforscht werden. Außerdem kommen nah verwandte Meisenarten in Asien und Afrika vor, was vergleichende Studien über Artgrenzen hinweg erlaubt. Durch solche Studien hoffen die Forscher, die große Frage, wie schnell sich hormonelle Systeme verändern und an die Umwelt anpassen können, Schritt für Schritt beantworten zu können.


    * *Der im Forschungsmagazin der Max-Planck Gesellschaft 2014 erschienene Artikel http://www.orn.mpg.de/3030440/research_report_7736584?c=1700661 1 wurde mit freundlicher Zustimmung der Autorin und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert und ohne Literaturzitate.


    Weiterführende Links


    Den Vögeln auf der Spur. Forscher am MPI für Ornithologie statten Vögel mit Mini-Sendern aus und verfolgen die Tiere auf ihren Reisen. Videos:

    Artikel im ScienceBlog

    inge Fri, 03.04.2015 - 07:49

    Universitäten – Hüterinnen unserer Zukunft

    Universitäten – Hüterinnen unserer Zukunft

    Fr, 27.03.2015 - 06:49 — Gottfried Schatz Gottfried SchatzIcon Wissenschaftsgeschichte

    Am 12. März 2015 wurde die Universität Wien 650 Jahre alt. Gottfried Schatz, einer der herausragendsten Biochemiker unserer Zeit (und einer der Hauptautoren des ScienceBlog), hat anlässlich des Eröffnungsfestaktes den Festvortrag gehalten. Es wurde ein Plädoyer für eine Universität, die Bildung anstelle bloßer Ausbildung vermittelt, die zu kritischem Hinterfragen und innovativem, kreativem Denken motiviert und langfristige Forschung – Grundlagenforschung – als eine ihre wesentlichen Aufgaben sieht. Der Vortrag ist im Folgenden ungekürzt widergegeben. (Einige wenige Untertitel und Abbildungen wurden von der Redaktion eingefügt.)

    Am 12. März des Jahres 1365 unterzeichneten Herzog Rudolf IV. und zwei seiner Brüder die Stiftungsurkunde für eine Wiener Universität. Leicht gekürzt in heutiges Deutsch übertragen lautet das Stiftungsziel: «…damit Gemeinwohl, gerechte Gerichte, menschliche Vernunft und Bescheidenheit zunehmen und wachsen und … ein jeder weise Mensch vernünftiger, und ein unweiser zu menschlicher Vernunft … gebracht … werde.» Ausschnitt aus dem Stiftbrief der Universität Wien

    Ausschnitt aus dem Stiftbrief der Universität Wien, 12.03.1365 (lateinische Fassung). Pergament 63 x 79 cm, der rote Pfeil weist auf den Anfang des Zitats hin (Quelle: Geschichte der Universität Wien, lizenziert unter ; voller lateinischer Text: https://fedora.phaidra.univie.ac.at/fedora/get/o:45858/bdef:Content/get)

    Die grossartige humanistische Vision dieser Stiftung zeigt sich in einem Vergleich mit den verschiedenen, angelsächsisch nüchternen Gründungsurkunden der Universität Cambridge. Die Urkunde von 1231 verlieh zum Beispiel dem Lehrkörper unter anderem das Recht, die Mieten für die Wohnhäuser am Universitätsgelände zu bestimmen, seine Mitglieder selbst zu bestrafen und gewisse Steuern nicht zu bezahlen. Wenige Jahre später erlaubte eine päpstliche Urkunde den Dozierenden und Absolventen zudem, überall in der Christenheit zu lehren.

    Seit Rudolf IV und seinen Brüdern hat es Immanuel Kant und den Universitätsreformer Wilhelm von Humboldt gegeben und so wage ich es, den Stiftungszweck der Universität Wien für mich so zu interpretieren: Die Universität möge Menschen das Vertrauen in den eigenen Verstand geben und sie ermutigen, allgemein akzeptierte Dogmen und vorgefasste Meinungen zu hinterfragen. Sie soll ein Reinigungsbad sein, das von anerzogenen Vorurteilen befreit.

    Bildung oder Ausbildung?

    In dem eben zitierten Kernstück von Rudolfs Stiftungsurkunde fehlt das Wort «Wissen». Ich finde dies bemerkenswert. Die Gründer der Wiener Universität setzten also nicht so sehr auf Ausbildung, sondern auf Bildung.

    Doch was ist Bildung?

    Für den britischen Staatsmann Lord Halifax war sie das, was übrig bleibt, wenn man vergessen hat, was man einmal gelernt hat. Bildung ist Bescheidenheit und Offenheit gegenüber Neuem. Der Weg zu ihr führt zwar über das Wissen, doch sie hat mit diesem nur wenig gemein.

    Unsere Universitäten täten gut daran, die Botschaft von Rudolfs Stiftungsurkunde auch heute noch als Wahlspruch zu wählen. Doch zunächst sollten wir unserem heutigen Geburtstagskind zu seiner langen und bewundernswerten Erfolgsgeschichte gratulieren. Es gibt wohl nur wenige Universitäten, an denen so viele bedeutende Menschen gelehrt haben. Noch eindrücklicher ist die Liste derer, welchen die Universität Wien alma mater war; das große Erbe und den Genius Österreichs zeigt nichts überzeugender als diese Absolventen.

    Aber hat die Universität Wien uns Österreicher bescheidener und vernünftiger gemacht? Hat sie uns vor irrationalen Dogmen, Faschismus und Rassenhass bewahrt?

    Als Orte der Wissenschaft hätten Universitäten gegen diese Bedrohungen immun sein müssen, denn Wissenschaft fordert emotionsloses, rationales und skeptisches Denken. Doch spätestens seit Anfang des vorigen Jahrhunderts begannen die meisten Universitäten, einseitig auf Ausbildung zu setzen und ihren Bildungsauftrag zu vernachlässigen. Sie entwickelten sich immer mehr zu Orten der reinen Wissensvermittlung, zu Berufsschulen, und es hat den Anschein, dass die Bologna-Reform diesen Prozess beschleunigt hat.

    Das Resultat dieser Entwicklung ist der gut ausgebildete, aber ungebildete Wissenschaftler. Unsere Universitäten vergaßen, dass Wissen und Wissenschaft sehr unterschiedliche Charaktere besitzen, die einander oft im Wege stehen. Vielleicht ist dies ein unglückliches Erbe der von Maria Theresia und Joseph II ab 1749 in Angriff genommenen Universitätsreform. Diese setzte einseitig auf eine straff organisierte Wissensvermittlung und vernachlässigte die wissenschaftliche Forschung - also das eigenständige und kritische Denken.

    Wissenschaft beschäftigt sich aber nicht vorrangig mit Wissen, sondern mit Unwissen

    Sie will dieses Unwissen in Wissen verwandeln, wobei ihr der Akt der Umwandlung meist wichtiger ist als das Ergebnis. Für die meisten Forscher ist das von ihnen geschaffene Wissen ein Nebenprodukt, dessen Verwaltung und Weitergabe sie gerne anderen überlassen. Ein Lehrbuch der Biochemie ist für sie nicht «Biochemie», sondern die Geschichte der Biochemie - eine Zusammenfassung dessen, was sie bereits wissen oder zumindest wissen sollten. Echte Biochemie ist für sie ein überraschendes Resultat im Laboratorium, ein wichtiger Hinweis von Fachkollegen, oder ein Vortrag über eine neue Entdeckung.

    Die Heimat des Forschers ist nicht das gesicherte Wissen, sondern dessen äusserste Grenze, wo Wissen dem Unwissen weicht.

    In der Realität des wissenschaftlichen Alltags beschäftigen sich dennoch die meisten Wissenschaftler mit dem Verwalten und der Weitergabe von Wissen und nur eine kleine Minderheit, nämlich die aktiven Forscher, verwandelt Unwissen in Wissen. Und in dieser Minderheit ist es wiederum nur eine winzige Elite, der es vergönnt ist, das höchste Ziel eines Wissenschaftlers zu verwirklichen. Dieses Ziel ist, neues Unwissen zu schaffen: Etwas zu entdecken, von dem wir nicht wussten, dass wir es nicht wussten.

    Als Gregor Mendel die Einheiten der Vererbung, Sigmund Freud das Unterbewusste, und Albert Einstein das Relativitätsprinzip entdeckten, eröffneten sie uns geheimnisvolle neue Welten des Unwissens, deren Erforschung unser Weltbild entscheidend veränderte.

    Wissenschaft revolutioniert

    Wissenschaft ist keine Hüterin von Stabilität und Ordnung, sondern eine unverbesserliche Revolutionärin, die unablässig kreative Unruhe stiftet. Sie macht unser Leben nicht ordentlicher oder ruhiger, sondern freier und interessanter. Innovative Wissenschaft missachtet Dogmen und verunsichert, ebenso wie innovative Kunst. Deswegen unterdrücken totalitäre Staaten stets beide. Der sowjetische Dichter Ossip Mandelstam soll Stalins Kulturterror mit folgenden bitteren Worten kommentiert haben: «Wie glücklich sind wir doch, dass unser Staat Dichtung so sehr liebt, dass er wegen eines Gedichtes Menschen ermordet». Und Ivan Maisky, der damalige Sowjet-Botschafter in Grossbritannien, sagte im Jahre 1941 ganz ohne Bitterkeit und mit voller Überzeugung: «In der Sowjetunion hat es keinen Platz für freie Wissenschaft».

    Wissen ist keine Ware,

    die man fein säuberlich verpacken, etikettieren, und für alle Zeiten sicher ablegen kann. Wissen gleicht eher einem Zoo ungezähmter Tiere, die gegen ihre trennenden Käfiggitter anrennen, diese oft niederreißen und dann unerwartete Nachkommen zeugen. Jean Paul Sartre hat gesagt: «Nicht wir machen Krieg; der Krieg macht uns».

    Ähnliches gilt für unser Wissen. Unter dem Ansturm der wissenschaftlichen Forschung verändert es sich ohne Unterlass - und verändert damit auch uns. Wir können unser Wissen zwar kurzfristig im Zaum halten oder sogar verfälschen, doch auf lange Sicht ist es immer stärker als wir. Es gehorcht seinen eigenen Gesetzen, die wir weder genau kennen noch ändern können. Das Victor Hugo zugeschriebene Zitat «Nichts ist unwiderstehlicher als eine Idee, deren Zeit gekommen ist» ist zwar nicht authentisch, deswegen aber nicht weniger wahr.

    Dass unser Wissen nie endgültig ist, klingt für uns Wissenschaftler jedoch nicht so bedrohlich wie vielleicht für andere.

    Wie ich bereits erwähnte, haben wir zu Wissen ein gespaltenes Verhältnis: wir setzen zwar alles daran, es zu schaffen, doch sobald wir es geschaffen haben, misstrauen wir ihm und hinterfragen es ohne Unterlass. Der Besitz von Wissen ist uns weniger wichtig als die Überzeugung, dass wir es durch Beobachtung und kritisches Denken stets neu schaffen können. Wissen ist ein Kind der Vergangenheit und kann in einer unablässig sich wandelnden Welt nie die Zukunft sichern. Dies kann nur die stets junge Kraft wissenschaftlichen Denkens, die in allem Gegenwärtigen die Hypothese des Zukünftigen sucht.

    Intellektueller Mut

    Dazu braucht es Menschen mit neuen Ideen, die überliefertes Wissen und Dogmen anzweifeln und bereit sind, gegen den Strom zu schwimmen, denn nur wer gegen den Strom schwimmt, kann neue Quellen des Wissens entdecken. Es braucht Menschen, die sehen, was jeder sieht, dabei aber denken, was noch niemand gedacht hat. Es braucht Menschen, die intuitiv erkennen, dass der von allen gesuchte Weg von A nach C nicht über B führt - wie jeder vermutet - sondern über X oder Z. All dies erfordert intellektuellen Mut. Er ist die wichtigste Gabe eines Forschers. Und diese Gabe zeigt sich vor allem in jungen Menschen. In Wissenschaft und Kunst ist die unbekümmerte Naivität der Jugend oft klüger als das Wissen des Alters. Echte Forscher zögern nicht, gefährliche Gewässer anzusteuern, wenn diese ihnen neues Wissen versprechen. Der amerikanische Gelehrte John A Shed hat diesen Forschern folgende Worte ins Stammbuch geschrieben: «A ship in harbor is safe; but that’s not what ships are made for». Auf Deutsch etwa: «Ein Schiff im Hafen ist sicher; doch deswegen baut man keine Schiffe.» Holzstich des FlammarionIntellektueller Mut. Interpretation des «Holzstichs des Flammarion» (unbekannter Künstler aus Camille Flammarion, L'Atmosphere: Météorologie Populaire, Paris, 1888; Bild: Wikipedia)

    Wie könnten unsere Universitäten diesen Mut vermitteln?

    Sicher nicht durch Vorlesungen und Seminare, sondern durch Lehrende, die diesen Mut besitzen und den Studierenden als persönliches Vorbild dienen. Solche persönlichen Vorbilder sind das wichtigste Geschenk einer Universität an ihre Studierenden, doch leider wählen wir unsere Lehrenden fast ausschließlich nach wissenschaftlicher Vorleistung aus. Es gibt keinen Grund, dies nicht zu ändern, doch alte Gewohnheiten und Mutlosigkeit halten sich zäh und es wird wohl noch eine Weile dauern, bis wir in unseren Berufungsverfahren der Persönlichkeit der Kandidatinnen und Kandidaten genügend Augenmerk schenken.

    Wissenschaft erfordert die Weitergabe von Wissen und schließt deshalb immer auch die Lehre ein. Diese darf sich jedoch nicht auf reine Wissensvermittlung beschränken. Sie muss die Studierenden auch lehren, Probleme rational zu analysieren und selbstständig und innovativ zu lösen. Dies geht aber nicht ohne wissenschaftliche Forschung. Die von Humboldt geforderte Einheit von Lehre und Forschung ergibt sich so ganz von selbst.

    Wissen ist wertvoll, doch wir dürfen es nicht überbewerten. Unsere Schulen, unsere Universitäten und auch unsere Forschungspolitiker setzen zu einseitig auf Wissen und ersticken dabei oft das unabhängige und kritische Denken – also die Wissenschaft.

    Die breite Öffentlichkeit und leider auch viele staatliche Forschungsexperten meinen, Forschung sei ein streng logischer Vorgang, in dem die Forschenden geduldig Stein auf Stein setzen, bis das minutiös vorausgeplante Gebäude beendet ist. Innovative Forschung ist jedoch genau das Gegenteil: Sie ist intuitiv, kaum planbar, voller Überraschungen und manchmal sogar chaotisch - genauso wie innovative Kunst. Innovative Kunst und Wissenschaft sind keine Spaziergänge auf freigeräumter Straße, sondern Expeditionen in die unbekannte Wildnis, in der sich Künstler und Forscher oft verirren. Wo Ruhe und Ordnung herrschen, sind die Karten bereits gezeichnet und die schöpferischen Forscher bereits woanders - nämlich dort, wo ihre Intuition sie hingeführt hat.

    Weg vom kurzfristigen Denken…

    Die von Rudolf IV und seinen Brüdern angestrebte Vernunft beinhaltet auch langfristiges Denken. Wir Menschen sind wahrscheinlich die einzigen Lebewesen, die dazu bewusst fähig sind. Doch unsere menschliche Spezies ist erst etwa 200.000 Jahre alt und unsere noch jungen Gehirne haben Mühe, langsame oder exponentiell sich beschleunigende Vorgänge intuitiv zu begreifen. Kurzfristiges Denken regiert deshalb die Welt. Politik und Wirtschaft denken selten weiter in die Zukunft als einige Jahre - bis zur nächsten Wahl oder zur nächsten Ernennung des Verwaltungsrates.

    In dieser Welt des kurzfristigen Denkens sollte es eine Hauptaufgabe unserer Universitäten sein, langfristig zu denken und langfristig zu forschen. Wo sonst denken Menschen heute darüber nach, was in 50 oder 100 Jahren geschehen könnte? Wenn unsere Universitäten diese Langfristigkeit vergessen und sich für kurzfristige Ziele instrumentalisieren lassen, sollte man sie am besten schließen.

    …hin zur langfristigen Grundlagenforschung

    Ich richte an die hier anwesenden Vertreter von Politik und Verwaltung die eindringliche Bitte, unser heutiges Geburtstagskind forschen zu lassen und es nicht mit Programmen oder anderen finanziellen Anreizen dazu zu verleiten, etwas zu erforschen. Langfristige Grundlagenforschung bereitet den Boden für die technologischen Neuerungen von morgen vor. Sie wird nicht innovativer, wenn man ihr ein eng umrissenes und damit kurzfristiges Ziel vorgibt. Im Gegenteil, wirklich innovative Forschung schafft sich erst ihre eigenen Ziele. Wenn man ihr diese Ziele von Anfang an vorschreibt, kann die Forschung gar nicht innovativ sein.

    Ist das wissenschaftliche Arroganz?

    Nein, das hat mit der Eigenart und der Verletzlichkeit menschlicher Kreativität zu tun. Eine Gesellschaft, die aus Ungeduld nur auf angewandte Forschung setzt, wird bald nichts mehr haben, was sie anwenden kann. Auch angewandte Forschung ist wichtig, doch sie sollte nicht an Universitäten, sondern so weit wie möglich in der Privatindustrie, an Fachhochschulen und Technischen Hochschulen und in nichtuniversitären Forschungsinstituten erfolgen.

    Eine ideale Universität

    Und schliesslich: Eine dynamische und erfolgreiche Universität sollte die ihn ihr bestehenden Unterschiede nicht übertünchen, sondern als Stärke empfinden.

    Altersunterschiede sollten nicht als Grundlage für Hierarchie, sondern als Quelle der Inspiration dienen. An einer idealen Universität sollte man Lehrende und Studierende kaum voneinander unterscheiden können. Beide sollten gemeinsam forschen und miteinander und voneinander lernen.

    Wir sollten auch Unterschiede zwischen den einzelnen Universitäten nicht als Problem, sondern als Reichtum betrachten. Leider bemühen sich Politik und Verwaltung, diese Unterschiede durch ein Übermaß an Organisation und Koordination so weit wie möglich auszugleichen.

    Organisation ist jedoch der Feind von Innovation, und Koordination der Feind von Motivation.

    Deshalb sind fast alle dieser Organisations- und Harmonisierungsbestrebungen gefährlich. An einer gut geführten Universität sollte, (extrem formuliert,) jeder Entscheid letztlich ad hoc erfolgen, also einmalig sein. Dies mag kurzfristig die Effizienz verringern; langfristig erhöht es jedoch die Effektivität und damit die Nachhaltigkeit. Dazu braucht eine Universität aber nicht nur eine Verwaltung, sondern auch eine starke und entscheidungsfähige Regierung. Es ist eine der größten Herausforderungen der modernen Universität, eine solche starke Regierung im Einverständnis mit den Dozierenden und Studierenden zu schaffen.

    Möge es der Universität Wien gelingen, dem Stiftungsziel Rudolfs IV und dem Erbe Immanuel Kants gerecht zu werden und nicht nur Wissen, sondern auch Vernunft, Bescheidenheit und den Mut zum eigenen Denken zu vermitteln. Dies ist heute schwerer denn je, ist doch Wissenschaft für große Teile unserer Gesellschaft nur eine Quelle neuer Technologien, wirksamer Medikamente und wirtschaftlichen Wachstums.

    Wissenschaft ist jedoch viel mehr.

    Sie ist ein langfristiger Vertrag zwischen den Generationen. Erst dieser Vertrag gibt unserer westlichen Kultur Bestand. Universitäten sind Hüterinnen dieses Vertrags und damit Hüterinnen unserer Zukunft. Rainer Maria Rilke erinnert uns daran mit folgenden Worten:

    Was unser Geist der Wirrnis abgewinnt, kommt irgendwann Lebendigem zugute; wenn es auch manchmal nur Gedanken sind, sie lösen sich in jenem großen Blute, das weiterrinnt...

    Und ist‘s Gefühl: wer weiß, wie weit es reicht und was es in dem reinen Raum ergiebt, in dem ein kleines Mehr von schwer und leicht Welten bewegt und einen Stern verschiebt.


    Festvortrag von Gottfried Schatz am 12. März 2015 aus Anlass des 650-jährigen Gründungsjubiläums der Universität Wien. http://www.univie.ac.at/fileadmin/user_upload/startseite/650/Dokumente/R..


    Weiterführende Links

    Eine umfassende Darstellung der Geschichte der Universität Wien findet sich unter: http://geschichte.univie.ac.at/

    Es ist ein Projekt des Bibliotheks- und Archivwesen unter redaktioneller Leitung des Archivs der Universität Wien in Kooperation mit dem Forum ‚Zeitgeschichte der Universität Wien‘‘ und soll als „Work in Progress“ mit neuen Beiträgen laufend ergänzt werden. Gegliedert in sieben Themenkreise sind dies zur Zeit über 90, zum Teil reichbebilderte Artikel, welche sich von der Gründung der Universität an mit dem gesamten Zeitraum der 650-jährigen Universitätsgeschichte auseinandersetzen.

    Im ScienceBlog

    Festansprache des Rektors Heinz Engl vom 12. März 2015

    inge Fri, 27.03.2015 - 06:49

    650 Jahre Universität Wien. Festansprache des Rektors am 12. März 2015

    650 Jahre Universität Wien. Festansprache des Rektors am 12. März 2015

    Fr, 20.03.2015 - 08:04 — Heinz Engl Heinz EnglIcon WissenschaftsgeschichteUnsere Universität Wien wurde am 12. März 1365 von dem österreichischen Herzog Rudolph "dem Stifter" gegründet und ist die älteste Universität im deutschen Sprachraum. Das heurige Jubiläumsjahr bietet vielfältige, öffentlich zugängliche Veranstaltungen. Zum Eröffnungsfestakt hielt Rektor Heinz Engl eine Ansprache*, die im Folgenden ungekürzt widergegeben wird. (Einige wenige Untertitel und Abbildungen wurden von der Redaktion eingefügt.)

    Ich möchte zur Einleitung dieser Festversammlung und auch des Jubiläumsjahrs kurz auf einige Eckpunkte der 650 jährigen Geschichte der Universität Wien eingehen und versuchen, Bezüge zu ihrer Gegenwart und Zukunft herzustellen.

    Die Anfänge

    Als erster Universitätsstifter ohne Königskrone besiegelte Herzog Rudolf der IV. heute vor 650 Jahren gemeinsam mit seinen jüngeren Brüdern Albrecht und Leopold die Gründungsurkunden (in deutscher und in lateinischer Sprache) für das Wiener Generalstudium in den Fakultäten für Theologie, Rechtswissenschaften, für Medizin und für die „Freien Künste“ (der sogenannten Artistenfakultät), nach dem Vorbild der Pariser Universität. Herzog Rudolf der IV. sah einen eigenen „Universitätscampus“ innerhalb der Stadtmauern in der Nähe des Schottentors vor, der allerdings nicht errichtet wurde.

    Herzog Rudolf IV. und das erste UniversitätsgebäudeHerzog Rudolf IV. und das von seinem Bruder Herzog Albrecht III 1384 gestiftete, nicht mehr erhaltene erste Universitätsgebäude “Collegium ducale“ in der Postgasse (Quelle: Geschichte der Universität Wien, lizenziert unter CC-BY-NC-SA)

    Es sollte bis 1998 dauern, dass die Universität Wien im Areal des Alten Allgemeinen Krankenhauses, das ihr von der Gemeinde Wien geschenkt worden war, einen Universitätscampus erhielt.

    Papst Urban V. bestätigte die Gründung am 18. Juni 1365, allerdings ohne die theologische Fakultät. Ihr erstes Gebäude, das sogenannte Herzogskolleg, erhielt die Universität durch den Albertinischen Stiftbrief im Jahr 1384 durch Herzog Albrecht III., im selben Jahr genehmigte der römische Papst Urban VI. auch die theologische Fakultät, die damit zur ältesten ununterbrochen bestehenden theologischen Fakultät der Welt wurde.

    Die Kirchenspaltung 1378 hatte zum Abzug vieler Magister und Doktoren aus Paris geführt, von denen einige in Wien ein neues Betätigungsfeld fanden.

    Die an der Artistenfakultät vertretenen Fächer waren Grammatik, Rhetorik, Dialektik, Arithmetik, Geometrie, Astronomie und Musik, die sogenannten sieben freien Künste, in den USA sinngemäß heute noch „liberal arts“. Ihre Absolvierung war Voraussetzung für ein Studium an den drei „höheren Fakultäten“, für Rechtswissenschaften, Medizin und Theologie; dies blieb so bis 1849 und ist im Wesentlichen heute noch so in den USA. Schon damals war ein Studium an der Artistenfakultät auch die Vorbereitung für den Lehrerberuf.

    Die Studierenden kamen mit 14 bis 16 Jahren an die Universität, nur wenige erwarben allerdings einen akademischen Grad: dies entweder aus Kostengründen oder weil sie ihr Studium an einer anderen Universität fortsetzten.

    Das erste Jahrhundert der Universität Wien

    war von einer ersten Blüte sowohl in wissenschaftlicher Hinsicht als auch was die Studierendenzahl betrifft gekennzeichnet: zwischen 1375 und 1400 gab es 3.600 Studierende; ein Grund für diesen Zuzug waren auch die im Vergleich zu anderen Universitäten geringen Gebühren und Lebenserhaltungskosten in Wien.

    Johannes von Gmunden, Georg von Peuerbach und Regiomontanus begründeten die „Erste Wiener Mathematische Schule“, die eigentlich eine Schule der mathematisch orientierten Astronomie war und deren Erkenntnisse im Nachhinein betrachtet wegbereitend für das heliozentrische Weltbild waren. Zur Zeit des Regiomontanus, zwischen 1451 und 1460, waren 5.306 Studenten immatrikuliert, von denen etwa 2.000 zugleich in Wien anwesend waren. Wien war bereits damals eine bedeutende Universitätsstadt, die Universität Wien die bei weitem größte Universität des Heiligen Römischen Reichs; sie blieb dies bis etwa 1520. Im Jahr 1552 gab es 103 „lesende Magister“, also durchaus gute Betreuungsverhältnisse.

    Nach der Pest gab es 1463 nur mehr 47 Lehrende, eine länger anhaltende Krise gab es allerdings erst nach der Reformation und der Türkenbelagerung von 1529. Das Ausbleiben der Studenten war existenzgefährdend für die Universität, denn trotz landesfürstlicher Dotationen und Einkünften aus Stiftungen wurde die Universität damals hauptsächlich über Studiengebühren und Kollegiengelder finanziert.

    Von der Gegenreformation zur Toleranzgesetzgebung

    Im Rahmen der Gegenreformation erfolgte eine „Verstaatlichung“ der Universität, deren Hauptziel es war, Absolventen hervorzubringen, die im Dienste der Landesfürsten und der Kirche eingesetzt werden konnten.

    Professoren wurden vom Hof ausgewählt und besoldet und vom landesfürstlichen Superintendenten kontrolliert. Es folgten jahrzehntelange Auseinandersetzungen mit dem Jesuitenorden, schließlich die 150 Jahre andauernde Inkorporierung des Jesuitenkollegs in die Universität, bis unter Maria Theresia die jesuitische Dominanz abgebaut wurde. An deren Stelle traten staatliche Aufsicht und Kontrolle über Professoren und Lehrinhalte über die Studienhofkommission. Wissenschaftliche Forschung war an den Universitäten nicht vorgesehen. Neue Aula und HauptgebäudeLinks: Fassadenansicht der Neuen Aula von 1755 – 1848 Sitz der Universität (heute Sitz der Österreichischen Akademie der Wissenschaften). Rechts: Hauptgebäude der Universität 1884 – 2015 (Quelle: Geschichte der Universität Wien, lizenziert unter CC-BY-NC-SA)

    Unter Josef II. folgten schließlich der Entzug der eigenständigen Vermögensverwaltung und der eigenständigen akademischen Gerichtsbarkeit. Ebenso wurden damals die akademischen Talare abgeschafft und erst 1927 wieder eingeführt. Unter Josef II. fand aber auch die konfessionelle Abschottung der Universität Wien ein Ende: 1778 verfügte er die Zulassung von Protestanten zu dem weltlichen Doktorgraden, ab 1782 waren auch Juden an der medizinischen und juridischen Fakultät zugelassen.

    Erst im Gefolge der Revolution von 1848 schuf Unterrichtsminister Graf Leo Thun- Hohenstein grundlegend neue Strukturen, das Humboldtsche Prinzip der Verbindung von Forschung und Lehre setzte sich auch in Österreich und an der Universität Wien durch. Es folgte eine wissenschaftliche Blütezeit, die mit Unterbrechungen bis in die 30er Jahre des 20. Jahrhunderts dauern sollte.

    Vom 19. ins 20. Jahrhundert

    Aber bereits gegen Ende des 19. Jahrhunderts nahm der Antisemitismus an der Universität Wien zu; dies bekam auch der damalige Rektor Eduard Suess, einer der Begründer der wissenschaftlichen Geologie und zugleich Schöpfer der Wiener Hochquellwasserleitung, zu spüren. In der 20er Jahren des 20. Jahrhunderts gab es gewalttätige Übergriffe gegen jüdische Studenten.

    Der akademische Senat beschloss 1930 eine Studentenordnung, welche dem „Volksbürgerschaftsprinzip“ verpflichtet war und 1931 vom Verfassungsgerichtshof aufgehoben wurde, was zu Ausschreitungen deutschnationaler Studenten gegen jüdische Kommilitonen führte. Akademische Karrieren von WissenschafterInnen jüdischer Abstammung wurden unter diesen Bedingungen immer schwieriger, wie auch das Beispiel Sigmund Freuds zeigt. Der Begründer des Wiener Kreises Moritz Schlick wurde 1936 auf der Philosophenstiege im Hauptgebäude erschossen.

    Nach dem Anschluss an das Deutsche Reich 1938 wurde die Universität Wien binnen kurzer Zeit in eine nationalsozialistische Institution umgestaltet. 2.700 Personen, Angehörige des Lehrkörpers, Studierende, Verwaltungsbedienstete, wurden aus rassistischen oder politischen Motiven von der Universität vertrieben. Rund 350 Professoren und Dozenten verloren ihre Stellung. Viele der Vertriebenen wurden später in Konzentrationslager deportiert und dort ermordet.

    Nach dem 2. Weltkrieg

    Das zu etwa 30 Prozent durch Bombenangriffe zerstörte Hauptgebäude der Universität wurde am 10. April 1945 von der Roten Armee besetzt, aber auf Initiative des späteren Ordinarius für Judaistik Kurt Schubert, der gemeinsam mit der vor kurzem verstorbenen Erika Weinzierl und meinem Amtsvorgänger Hans Tuppy einer katholischen Widerstandsgruppe angehört hatte, bereits am 16. April wieder geräumt. Unter dem ersten Nachkriegsrektor Ludwig Adamovic konnte am 29. Mai bereits wieder der Studienbetrieb aufgenommen werden.

    Die demografische und gesellschaftliche Entwicklung führte ab den 1960er Jahren zu einem großen Anstieg der Studierendenzahlen: von 14.000 im Jahr 1960 auf derzeit über 90.000. Von unseren Studierenden sind derzeit 59 Prozent Frauen; sie sind erst seit 1897 als ordentliche Hörerinnen an österreichischen Universitäten zugelassen. Erst 1965 wurde mit der Physikerin Berta Karlik erstmals eine Frau als Professorin berufen; in den letzten Jahren beträgt der Anteil der Frauen an den neuberufenen Professoren über 30 Prozent. Ein im Jubiläumsjahr stattfindender künstlerischer Wettbewerb soll Grundlage dafür sein, dass im Arkadenhof, in dem derzeit ausschließlich Büsten männlicher Professoren der Universität stehen, auch Wissenschafterinnen in gebührender Weise geehrt werden.

    Grundlagenforschung

    Zu allen Zeiten, auch in ihren schwierigen Phasen, wirkten in der Universität Wien Wissenschafter (und eben seit etwa 100 Jahren auch Wissenschafterinnen), die ihre Disziplin prägten und grundlegende wissenschaftliche Ergebnisse erzielten. Es ist nicht abzusehen, auf welche heute an der Universität Wien durchgeführten Forschungen man gerade wegen ihrer überraschenden Auswirkungen in 50 Jahren zurückblicken wird. Bei aller Wichtigkeit von Evaluierungen und Qualitätssicherungsmaßnahmen: Außergewöhnliches entzieht sich häufig solchen Mechanismen.

    Hätten Evaluatoren 1917 die Bedeutung einer Arbeit des Mathematikers Johann Radon aus der Integralgeometrie erkennen können, die noch dazu (in heutiger Sprechweise) in einer Zeitschrift mit niedrigem Impact-Faktor publiziert wurde, die aber später zu einer der Grundlagen der medizinischen Bildverarbeitung wurde? Große Innovationen, auch und gerade solche mit großen wirtschaftlichen Auswirkungen, entstehen meist überraschend aus nicht mit konkretem Anwendungsbezug durchgeführter Forschung. Im Jubiläumsjahr werden wir zahlreiche Beispiele dafür aus allen Bereichen der Universität Wien öffentliche präsentieren.

    Einer der bedeutendsten Physiker der Universität, Ludwig Boltzmann, dachte nicht an Halbleiter oder Modelle für Verkehrsflüsse, als er aus Überlegungen im Zusammenhang mit kinetischer Gastheorie und Thermodynamik die nach ihm benannte grundlegende Gleichung entwickelte. Er war übrigens nicht nur ein Schüler des ebenfalls bedeutenden Physikers (und Kärntner Slowenen) Josef Stefan, sondern hatte auch Klavierunterricht bei einem anderen späteren Professor der Universität Wien, nämlich bei Anton Bruckner. Boltzmann und Ernst Mach, die eine völlig unterschiedliche Sicht der Thermodynamik hatten, hatten beide großen Einfluss auf die Entwicklung des Wiener Kreises, dem im Jubiläumsjahr eine große Ausstellung im Hauptgebäude gewidmet sein wird.

    Einige berühmte Absolventen und Lehrer an der Universität WienEinige berühmte Absolventen und Lehrer an der Universität Wien

    Der Wiener Kreis propagierte eine radikal moderne "Wissenschaftliche Weltauffassung" (so der Titel seines Manifests), betonte die Einheit der Wissenschaften (der Natur- ebenso wie der Kulturwissenschaften), führte mit der Sprachanalyse eine Wende der Philosophie herbei und trug durch die Entwicklung von formalen Sprachen entscheidend zu den Grundlagen der Mathematik, der Logik und (ohne es zuahnen) auch der Informatik bei.

    Auch und gerade in der Grundlagenforschung sind Offenheit gegenüber Anwendungen und Strukturen zum Transfer von Wissen in Gesellschaft und Wirtschaft nötig. Fragestellungen aus Wirtschaft und Gesellschaft geben immer wieder auch Anstöße zu interessanten Entwicklungen in der Grundlagenforschung. Während etwa die Entwicklung neuer mathematischer Disziplinen vor etwa 80 Jahren von Fragestellungen in der Physik getrieben war, ist dies nun auch aufgrund von Fragestellungen in der modernen Biologie der Fall. Anwendung von Wissenschaft ist nicht einfach der Transfer von vorhandenen Ergebnissen der Grundlagenforschung, sondern ein ständiges und spannendes Wechselspiel zwischen gesellschaftlichen und wirtschaftlichen Herausforderungen und zunächst zweckfreier Grundlagenforschung.

    Der allerwichtigste Beitrag, den die Universität aber für die Weiterentwicklung der Wirtschaft und der Gesellschaft leisten kann, sind umfassend anhand wissenschaftlicher Fragestellungen gebildete Absolventinnen und Absolventen. Universitäten wie die Universität Wien sind global orientiert, sowohl was ihre Mitarbeiterinnen und Mitarbeiter als auch ihre Partizipation am wissenschaftlichen Diskurs betrifft.

    Gerade global orientierte Universitäten wirken aber auch in besonderer Weise in ihrer Region, durch ihre internationale Zusammensetzung und Diversität, die zur Offenheit der Universitätsstadt Wien einen wichtigen Beitrag leisten, durch Transfer global orientierter Forschung in Wirtschaft und Gesellschaft und durch international orientierte Absolventinnen und Absolventen. Neben einer globalen Orientierung hat die Universität Wien aber auch eine europäische Aufgabe: durch ihren Beitrag zum Aufbau des europäischen Forschungsraums und, insbesondere über europäische Austauschprogramme, bei der Schaffung eines Bewusstseins ihrer Absolventinnen und Absolventinnen als europäische Bürgerinnen und Bürger.

    Bildung und Forschung

    sind die Grundlage für die gedeihliche Weiterentwicklung der Gesellschaft und für wirtschaftlichen Erfolg, gerade in wirtschaftlich und politisch schwierigen Zeiten. Es ist daher besonders schmerzlich, wenn man erfahren muss, dass die Europäische Union gerade die Mittel für ihr neues Forschungsprogramm Horizon 2020 eben drastisch gekürzt hat.

    Die Universität Wien bietet einerseits breite Bildung für viele und ist andererseits die größte österreichische Forschungseinrichtung mit dem Anspruch auf Weltklasse. Wir bekennen uns zu beidem, obwohl hier die richtige Balance zu halten nicht immer einfach ist, nicht nur aus Ressourcengründen.

    Ebenso ist in jeder einzelnen Wissenschaft die richtige Balance zwischen Spezialisierung und Interdisziplinarität, die nur auf Basis starker disziplinärer Verankerung erfolgreich sein kann, immer schwierig. In diesem Sinn verstandene Interdisziplinarität ist eine besondere Stärke der Universität Wien mit ihrer fachlichen Breite, die wir einerseits in den Forschungsprogrammen der Europäischen Union, andererseits in neuen interdisziplinären Masterstudien zur Geltung bringen wollen.

    Autonomie und Verantwortung

    Die Universität Wien hatte im Laufe ihrer Geschichte stark unterschiedliche Grade von Autonomie. Ich glaube an die Korrelation von wissenschaftlichem Erfolg einer Universität mit dem Grad ihrer Autonomie; die letzten Jahre der Geschichte der Universität Wien bestätigen dies. Autonomie ist aber immer mit Verantwortung verbunden, sowohl gegenüber dem Staat also auch gegenüber der Öffentlichkeit.

    Diese Verantwortung wahrzunehmen ist ein wesentliches Prinzip auch des Jubiläumsjahrs, in dem wir in ganz verschiedenen Formaten über die Leistungen der Universität Wien informieren werden. Autonomie kann nicht nur im Verhältnis der Universität gegenüber dem Staat verstanden werden, sondern spiegelt sich auch intern in einer angemessen Subsidiarität wider. Eine Universität als Expertenorganisation muss ihre Mitarbeiter und Mitarbeiterinnen und auch Studierende in die Vorbereitung von Entscheidungen einbinden, wenn auch mit klaren Verantwortlichkeiten und Verantwortung für dann zu treffende Entscheidungen.

    Die Universitäten werden sich in den nächsten Jahren und Jahrzehnten im Detail stark verändern; dies betrifft insbesondere die Lehre durch die neuen Möglichkeiten der Informationstechnologie. Diese Möglichkeiten werden auch zu breiter Verfügbarkeit von Bildung führen. Das Entscheidende und Prägende an einer universitären Ausbildung wird aber weiterhin der persönliche Kontakt zwischen Lehrenden und Studierenden, das gemeinsame Arbeiten an wissenschaftlichen Themen sein.

    Diese Verbindung von Forschung und Lehre ist zwar erst seit dem 19. Jahrhundert als Grundprinzip an den Universitäten verankert, es gab sie allerdings bereits zu Gründungszeit der Universität Wien.

    Rudolf IV. hat am 12.März 1365 eine akademische Einrichtung gegründet, die 650 Jahre das geistige Leben Europas mitgeprägt hat und auch weiterhin mitprägen wird


    * Festansprache des Rektors vom 12. März 2015 aus Anlass des 650-jährigen Gründungsjubiläums der Universität Wien http://www.univie.ac.at/fileadmin/user_upload/startseite/650/Dokumente/R...


    Weiterführende Links

    Eine umfassende Darstellung der Geschichte der Universität Wien findet sich unter: http://geschichte.univie.ac.at/   Es ist ein Projekt des Bibliotheks- und Archivwesen unter redaktioneller Leitung des Archivs der Universität Wien in Kooperation mit dem Forum ‚Zeitgeschichte der Universität Wien‘‘ und soll als „Work in Progress“ mit neuen Beiträgen laufend ergänzt werden. Gegliedert in sieben Themenkreise sind dies zur Zeit über 90, zum Teil reichbebilderte Artikel, welche sich von der Gründung der Universität an mit dem gesamten Zeitraum der 650-jährigen Universitätsgeschichte auseinandersetzen.

    inge Fri, 20.03.2015 - 08:04

    Günther Kreil (1934 – 2015)

    Günther Kreil (1934 – 2015)

    Fr, 13.03.2015 - 06:55 — Inge Schuster Inge SchusterIcon Biologie

    Vor wenigen Tagen haben wir die bestürzende Nachricht vom Tod Günther Kreils erhalten. Mit ihm ist einer der renommiertesten Pioniere der Molekularbiologie unseres Landes von uns gegangen. Günther Kreil hat die stürmische Entwicklung dieser Disziplin von Anfang an aktiv miterlebt und bedeutende Beiträge dazu geliefert. Einige Stationen Günther Kreils vor dem Hintergrund des sich enorm verändernden Umfelds sind im folgenden Artikel skizziert. Wir, vom ScienceBlog, sind stolz darauf Günther Kreil in unserer Autorenliste aufführen zu können [1, 2].

    „Eine Erklärung biologischer Phänomene im naturwissenschaftlichen Sinn ist wohl nur auf molekularer Ebene zu erwarten. In diesem Bereich treffen sich Morphologie, Physiologie und Biochemie, und eine strenge Scheidung der Disziplinen hat aufgehört zu bestehen.“ Peter Karlson (1961)

    Mit diesem Satz endet das „Kurze Lehrbuch der Biochemie“, das der deutsche Biochemiker Peter Karlson (1918 – 2001) „für Mediziner und Naturwissenschaftler“ verfasst hat und das für viele von ihnen zu einem Meilenstein in der Ausbildung wurde. Karlson – ein Schüler des weltbekannten Adolf Butenandt (der für seine Arbeiten an Steroidhormonen den Nobelpreis erhielt) – war berühmt für seine Arbeiten zu Insektenhormonen und deren Wirkmechanismen. Mit der kurzen Formulierung hat Karlson die überaus rasche Entwicklung, besser gesagt Umgestaltung, der Naturwissenschaften in den letzten 50 Jahren vorweggenommen: weg vom Schubladendenken einzelner Fächer zu einer transdisziplinären Betrachtungsweise. Das molekulare Denken des Chemikers, das ja Grundlage der Biochemie ist, startete seinen Siegeszug in die Biologie, die Physiologie und schlussendlich auch in die Medizin. Die Übernahme der Fächer wird seitdem durch die Vorsilbe Molekular- angezeigt.

    Günther Kreil stand in dieser Entwicklung an vorderster Front und gestaltete sie mit.

    Von der Chemie zur Molekularbiologie

    Günther Kreil hatte in den 1950er Jahren an der Universität Wien studiert – Chemie und im Nebenfach Physik. Die Biochemie nahm damals im Studium einen untergeordneten Platz ein, sie steckte- nicht nur bei uns - in den Kinderschuhen. Wohl kannte man damals eine Reihe von Vitaminen, Hormonen und auch wesentliche Stoffwechselwege. Dabei handelte es sich aber stets um die Beschreibung kleiner Moleküle, da nur diese mit den damaligen Methoden der Chemie untersucht werden konnten. Über Strukturen und Funktionen der großen Biomoleküle - Proteine und Nukleinsäuren – wusste man reichlich wenig; hier mussten erst geeignete Analyse- und Testverfahren entwickelt werden. Auch noch im Jahr 1961 hieß es in dem oben erwähnten Lehrbuch von Karlson „Über die Tertiärstruktur der meisten Proteine ist fast nichts bekannt, da die Kristallstruktur-Untersuchungen außerordentlich mühsam sind“ und im Geleitwort zu demselben Buch „In unseren Tagen dürfen wir erste Einblicke in die Struktur und Wirkungsweise der Erbfaktoren tun, deren Informationsinhalt das biologische Schicksal der Zellen bestimmt“.

    Günther Kreil arbeitete an seiner Doktorarbeit bereits gegen Ende der 1950er Jahre und er beschäftigte sich darin mit einem großen Molekül, dem Cytochrom c. Dieses rotgefärbte Enzym ist ein Schlüsselenzym in der Zellatmung und damit in der Erzeugung zellulärer Energie. Unter Anleitung seines noch recht jungen Doktorvaters Hans Tuppy gelang Kreil ein aufsehenerregender Durchbruch: die Aufklärung der bis dahin längsten Aminosäuresequenz - Cytochrom c besteht aus immerhin 104 Aminosäureresten. Hans Tuppy hatte bereits Expertise im Sequenzieren - allerdings von wesentlich kleineren Peptidketten: er war zuvor Postdoktorand im Labor von Fred Sanger in Cambridge gewesen und hatte dort maßgeblich zur Aufklärung der Aminosäuresequenz des Insulins – eines aus 51 Aminosäuren bestehenden Hormons –beigetragen (1958 erhielt Sanger für seine neuen Methoden der Strukturaufklärung den Nobelpreis).

    Cytochrom c. 3D-Struktur des rekombinanten humanen Enzyms in LösungCytochrom c. 3D-Struktur des rekombinanten humanen Enzyms in Lösung (rote Aminosäurenkette in Bänderdarstellung; die Haemgruppe ist grün; Quelle http://www.ebi.ac.uk/pdbe-srv/view/entry/1j3s/summary) Darunter: Aminosäuresequenz (F-46 Mutante; Quelle: RCSB PDB. Aminosäuren sind im Einbuchstabencode dargestellt: siehe dazu z.B http://de.wikipedia.org/wiki/Aminosäuren)

    Als in der Folgezeit Cytochrom c aus verschiedensten Spezies sequenziert wurde, führte dies zu einer grundlegenden neuen Erkenntnis: man sah, dass die Abfolge der Aminosäuren umso weniger differierte, je näher verwandt die Spezies miteinander waren. Es ließen sich daraus also erstmals Stammbäume der Evolution konstruieren und die Zeitdauer zwischen einzelnen Evolutionsschritten – mittels der sogenannten molekularen Uhr – abschätzen. Dazu Kreil (1963): „Die artspezifischen Unterschiede in der Sequenz sind ein molekularer Ausdruck der im Zuge der Evolution eingetretenen mutativen Abwandlung des Gens“[3].

    Speerspitze der Molekularbiologie in Österreich

    Bereits früh erkannten führende österreichische Wissenschafter – neben Hans Tuppy der organische Chemiker Friedrich Wessely und der Physikochemiker Otto Kratky - welche zentrale Bedeutung die Molekularbiologie für die biologischen Disziplinen haben würde und unterstützten die Gründung eines eigenen Institutes, des Instituts für Molekularbiologie der Österreichischen Akademie der Wissenschaften. Anfänglich in Räumen von Universitätsinstituten in Wien und Graz untergebracht, wurde 1976 ein eigenes Gebäude in Salzburg errichtet. Günther Kreil war von 1966 bis zu seiner Pensionierung 2003 Abteilungsleiter, bzw. Leiter dieses Instituts, das sich zu einer auch international hochrenommierten Institution entwickelte.

    Mit den sich rasant entwickelnden analytischen, genetischen und strukturbiologischen Methoden setzte Günther Kreil hier höchst erfolgreich die Forschung an Proteinen und Peptiden fort. Besonders bekannt wurden seine Arbeiten zur Identifizierung und Charakterisierung von Bienengift, einer komplexen Mischung aus Peptiden und Proteinen. Er lieferte eine umfassende Beschreibung: von der komplizierten Biosynthese der toxischen Hauptkomponente Mellitin und der Frage wie derartige Peptide ausgeschleust werden bis hin zu deren biologischen und allergenen Eigenschaften (Mellitin ist ein Peptid, das in Zellmembranen Poren bildet, als Folge die Ionendurchlässigkeit erhöht und zum Zelltod führt ), von der Steigerung der Lipid-spaltenden Aktivität einer weiteren Bienengiftkomponente (Phospholipase A2)durch Melittin bis hin zu einem Enzym (Hyaluronidase), welches die hochviskosen Mucopolysaccharide im Bindegewebe auflöst und dieses damit für das Bienengift durchlässiger macht.

    Mellitin, die toxische Hauptkomponente von BienengiftMellitin, die toxische Hauptkomponente von Bienengift ist ein Peptid mit 26 Aminosäuren (Links: Chemdraw-Darstellung).4Mellitinketten bilden die toxische Form einer Pore (Bänderdarstellung; Bild: Wikipedia)

    Dass eine homologe Form dieses letzteren Enzyms auch auf Spermatozoen vorkommt und eine essentielle Rolle in der Adhäsion Spermazelle – Eizelle spielt, war eigentlich ein Spin-off, allerdings eine besonders wichtige Entdeckung dieser Untersuchungen.

    Ein weiteres Forschungsgebiet Kreils betraf Peptide, die aus der Amphibienhaut abgesondert werden. Man fand, dass viele dieser Peptide Homologie zu Hormonen und Neurotransmittern von Säugetieren aufwiesen – Befunde, die gleicherweise für Endokrinologie, Pharmakologie und Evolutionsforschung Bedeutung haben. Darüber hinaus wurden zahlreiche Peptide isoliert und charakterisiert, die antimikrobielle Aktivität zeigten (und damit das Potential als neue Leitstrukturen gegen Infektionskrankheiten zu fungieren).

    In derartigen Peptiden der Amphibienhaut, aber auch in zahlreichen anderen tierischen Peptiden, beispielsweise in Neuropeptiden von Schneckenganglien oder in Peptiden von Spinnengiften, fand man D-Aminosäuren, die sich als essentiell für deren biologische Aktivitäten erwiesen. Die „Umschreibung“ (Translation) von Genen in die Genprodukte Peptide und Proteine liefert allerdings ausschließlich L-Aminosäuren als Komponenten. Kreils Gruppe konnte die Herkunft der D-Aminosäuren klären: dieselben Quellen der D-Aminosäuren enthaltenden Peptide besaßen Enzyme, welche die üblicherweise vorliegenden L-Aminosäuren in D-Aminosäuren umwandeln.

    Die Liste erfolgreicher Konzepte Günther Kreils ließe sich noch lange fortsetzen. Das Web of Science (Reuters & Thomson) verzeichnet 175 Originalarbeiten – teilweise mit mehr als hundert Zitationen - und Übersichtsartikel, der Großteil davon in Top-Zeitschriften.

    Streiter für die Wissenschaft

    Mit Günther Kreil ist auch eine Stimme verstummt, die sich der Wissenschaftskommunikation verschrieben hatte und mit unanfechtbar hoher Kompetenz und enormen Engagement gegen pseudowissenschaftliche Argumente und Vorurteile Stellung bezog. Dies betraf insbesondere das Gebiet der Gentechnik, gegen welche von Anfang an Misstrauen und Ängste in der Bevölkerung geschürt worden waren. Günther Kreil versuchte hier aufklärend zu wirken - er hielt zahllose öffentliche Vorträge, nahm an ebenso vielen Diskussionen teil und veröffentlichte entsprechende Beiträge in den Medien. In diesem Fachgebiet war Kreil ja ein im In- und Ausland gefragter Topexperte. U.a. hatte er in der Österreichischen Akademie der Wissenschaften den Vorsitz in der „Kommission für Rekombinante Gentechnik“ inne und wirkte maßgeblich am österreichischen Gentechnikgesetz mit. Ein Gesetz, welches das Arbeiten mit gentechnisch veränderten Organismen, das Freisetzen und Inverkehrbringen von gentechnisch veränderten Organismen und die Anwendung von Genanalyse und Gentherapie am Menschen regelt.

    Sein wissenschaftlich fundiertes Eintreten für die Gentechnik hat ihm viele Gegner geschaffen. Er benennt diese in seinem Artikel „Gentechnik und Lebensmittel: Wir entscheiden „aus dem Bauch“ der im August 2013 im ScienceBlog erschienen ist [1]: „Bei der Ablehnung der „grünen“ Gentechnik ist Österreich führend, die gemeinsamen Aktivitäten von Boulevardmedien, NGOs und den Grünen führten dazu, dass dieses Thema faktisch tabuisiert wurde – und das ohne ein Experiment, einen einzigen kontrollierten Freisetzungsversuch mit einer gv Nutzpflanze. Bei uns wird halt einfach „aus dem Bauch“ entschieden.“

    Günther Kreil hatte noch viel vor. Auch für unseren ScienceBlog wollte er aus seinem reichen Erfahrungsschatz wieder etwas schreiben. Die diesbezügliche Ankündigung „Ich bastle an einem Beitrag für den Scienceblog, den ich Dir hoffentlich bald schicken kann.“, die mich wenige Wochen vor seinem Ableben erreichte, konnte er nicht mehr umsetzen. Er wird uns als großartiger Forscher, mutiger Kämpfer gegen Pseudowissenschaften und humorvoller, liebenswerter Freund In Erinnerung bleiben.


    [1] Lebenslauf von Günther Kreil: http://scienceblog.at/günther-kreil

    [2] Artikel von Günther Kreil: http://scienceblog.at/gentechnik-und-lebensmittel-wir-entscheiden-%E2%80...

    [3] Kreil G (1963) Über die Artspezifität von Cytochrom c – Vergleich der Aminosäuresequenz des Thunfisch Cytochroms c mit der des Pferde-Cytochroms c . Hoppe-Seyler’s Z Physiol Chem 334 (1-6) 154


    Weiterführende Links

    "Club 2 – Das Jahrhundert der Molekularbiologie" Gesprächsrunde mit Erwin Chargaff (1981) Video 1:36:21 Erwin Chargaff, Günther Kreil, Peter Hans Hofschneider, Hermann Katinger, Peter Schuster. Christl Kölle (Chemielehrerin) Gesprächsleitung: Franz Kreuzer.

    Dieser Club 2 war ein herausragendes Beispiel, wie Wissenschaft kommuniziert und diskutiert werden kann!!!

    inge Fri, 13.03.2015 - 06:55

    Von antibakteriellen Beschichtungen zu Implantaten

    Von antibakteriellen Beschichtungen zu Implantaten

    Fr, 06.03.2015 - 15:35 — Helmuth Möhwald & Katja Skorb

    Helmuth MöhwaldKatja SkorbIcon GebietEinfache, in Flüssigkeiten anwendbare Methoden ermöglichen die Herstellung von Oberflächen mit definierter Porosität. Die Prozesse erlauben den Einbau von Wirkstoffen in die Grenzfläche und mit geeigneter Beschichtung auch deren gezielte Freisetzung. Bei vielversprechenden sehr harten Materialien für Implantate wie Titan ist es daher möglich, das Wachstum von Osteoblasten, den häufigsten Zellen in Knochen, zu stimulieren. Der Physiker Helmuth Möhwald, em. Gründungsdirektor des Max-Planck Instituts für Kolloid- und Grenzflächenforschung (Potsdam) und die Chemikerin Katia Skorb beschreiben wie der Kontakt zwischen der Grenzfläche und benachbarten Zellen maßgeschneidert werden kann.*

    In populären Zeitschriften findet man häufig Fotos von Menschen, die zeigen, dass zu fast jedem Organ oder Körperteil auch ein synthetisches Ersatzteil hergestellt werden kann. Dessen Bedeutung wird mit der Alterung der Bevölkerung zunehmen, da zum einen der Bedarf an Herzen, Knien, Hüften etc. steigen wird, zum anderen auch Fortschritte der Werkstoffwissenschaften und der Immunologie und Medizin neue Möglichkeiten eröffnen. Dieser Entwicklung sind jedoch Grenzen gesetzt, und eine wichtige Limitierung besteht in der Beherrschung der Grenzfläche zwischen künstlichem und biologischem Material.

    Die Kontrolle dieser Grenzfläche ist essentiell nicht nur für Implantate, sondern auch für viele andere wichtige Probleme wie die Vermeidung von Algenbelag auf Oberflächen von Schiffen, von Bakterienwachstum auf Schläuchen oder die Erhöhung der Stabilität von Biosensoren.

    Wenn auch die Bedeutung der Grenzfläche offensichtlich ist, so ist es doch erstaunlich, dass z. B. das Problem des Anwachsens eines Implantats weitestgehend von Medizinern behandelt wurde und Grenzflächenwissenschaftler wenig beigetragen haben. Dieser Beitrag soll zeigen, dass bei Beseitigung dieses Defizits erhebliche Fortschritte erzielt werden können. Die Grenzfläche kann Prozesse steuern und dynamisch und in Rückkoppelung das Zellwachstum beeinflussen. Im Mittelpunkt der Betrachtung soll die Oberfläche von Metallen stehen, da diese vielfältig bei Implantaten oder der Stammzellenforschung verwendet werden. Zudem können viele der Detail- Erkenntnisse an diesen Materialien auf andere übertragen werden.

    Die geeignete Grenzfläche

    Die Anforderungen an ein Implantat sind unter anderem hohe Beständigkeit insbesondere in biologischem Milieu, mechanische Festigkeit und Zuverlässigkeit. Es muss aber auch mit anwachsenden Zellen verträglich sein, und hierzu ist die gezielte Einstellung seiner Oberfläche erforderlich. Dies ist deshalb eine erhebliche Herausforderung, da Beständigkeit und Festigkeit jede Manipulation der Oberfläche erschweren. Ein Ausweg ist die Beschichtung mit Substanzen, die die Bioverträglichkeit ermöglichen, aber dabei stellt sich das Problem der Haftung dieser Substanzen. Ein geeigneter und besonders vielversprechender Weg ist, das Material zunächst durch elektrochemische oder sonochemische Methoden aufzurauen und auch zu oxidieren oder zu reduzieren. Da die Sonochemie zwar viel verwendet wird, aber nicht verstanden ist, soll sie hier kurz erklärt werden:

    Setzt man eine Flüssigkeit Ultraschall hoher Intensität aus, können Gasblasen entstehen, und diese können im Schallfeld wachsen. Bei einer kritischen Größe um 100 μm (0,1 mm)kollabieren diese in sogenannten Kavitationsblasen, und die gespeicherte mechanische und Oberflächenenergie wird frei und fokussiert auf ein Volumen <1 μm3. Dabei entstehen über kurze Zeiten (<1 μsec) Drucke um 1000 atm und Temperaturen um 10 000 K. Die Methode ermöglicht also Chemie unter extremen Bedingungen, aber mit einem Reaktor unter Normalbedingungen. Beim Kollaps entstehen Schockwellen und ein Flüssigkeitsjet wie auch Radikale. Letztere hängen ab vom verwendeten Lösungsmittel. Da die Methode keine zusätzlichen Chemikalien erfordert, kann sie als „grüne“ Methode bezeichnet werden.  Oben: Schematische Darstellung der Porenbildung durch Ultraschall bei Metallen. 
Unten: Oberflächen verschiedener Metalle (Elektronenmikroskopaufnahmen)Abbildung 1: Oben: Schematische Darstellung der Porenbildung durch Ultraschall bei Metallen. Unten: Oberflächen verschiedener Metalle (Elektronenmikroskopaufnahmen). © Ekaterina V. Skorb / Max-Planck-Institut für Kolloid- und Grenzflächenforschung

    Betreibt man nun Ultraschallchemie in der Nähe einer Grenzfläche, so kann letztere als Keim für die Blasenbildung dienen und durch die Kavitation in ihrer Nähe chemisch und physikalisch verändert werden.

    Abbildung 1 zeigt, dass dies selbst bei besonders harten und inerten Materialien wie Titan gelingt. (Die Kavitation an Grenzflächen ist übrigens auch der zentrale Mechanismus der üblichen Reinigung von Oberflächen im Ultraschallbad). Der Trick, der dies ermöglichte, bestand in der Auswahl des geeigneten Lösungsmittels, das die entsprechende chemische Reaktion begünstigte . Es ist offensichtlich, dass die in diesem Fall entstandene poröse Oxidschicht sehr gut auf dem Metall haftet, auf dem sie erzeugt wurde. Andererseits ist zu erwarten, und dieses wurde experimentell bestätigt, dass auch ein organischer oder biologischer Film sehr gut auf dieser Schicht haftet.

    Grenzflächen als Wirkstoffträger

    Eine genauere Analyse der Grenzfläche zeigt, dass sie bis zu einer Tiefe von etwa 0,5 μm aus einer porösen Struktur mit Poren in Dimensionen um 100 nm besteht. Diese Poren können nun mit einem Wirkstoff gefüllt werden, der später (bei Bedarf) freigesetzt wird. Dabei stellt sich natürlich die Herausforderung, die Poren möglichst quantitativ und tief zu beladen, und hierbei ist der Ultraschall ein sehr einfaches und wirksames Hilfsmittel. Abbildung 2 zeigt hierzu, dass direkt bei Ultraschallbehandlung zur Erzeugung der Poren das Zellgift Doxorubizin in diese Poren eingebracht werden kann. Dieses verhindert dann das Wachstum von Zellen in und an dieser Oberfläche. Abbildung 2: Oben: Schematische Darstellung des Einbaus des fluoreszierenden Wirkstoffs Doxorubizin (links) und Nachweis des Einbaus in die Oberfläche (grün, rechts). Mitte rechts: pH-abhängige Freisetzung des Wirkstoffs. Unten: Anhaftende lebende Zellen (links) und durch den Wirkstoff getötete (rechts).

    Gezielte Wirkstofffreisetzung von Oberflächen

    Im Experiment der Abbildung 3 ist zu erwarten, dass unter Bedingungen, in denen der Wirkstoff in der Umgebung gelöst wird, dieser innerhalb weniger Stunden aus dem Material verschwindet. In Anwendungen ist jedoch eine Wirkung über eine längere Zeit erwünscht, d. h. eine verzögerte Freisetzung. Noch wünschenswerter wäre eine Freisetzung bei Bedarf, z. B. durch einen äußeren Stimulus durch Licht, Schall, durch eine elektrische Spannung oder durch eine Änderung der Umgebungsbedingungen. Dieses kann erreicht werden, indem die Grenzfläche durch eine organische Schicht bedeckt wird. Diese übernimmt dann die Funktion einer schaltbaren Barriere. In unseren Arbeiten werden durch Adsorption gegensätzlich geladener Polymere Schichten mit Dickenkontrolle im Nanometer-Bereich hergestellt. Diese Polymere können so gewählt werden, dass sie mit anhaftenden Zellen kompatibel sind.

    Alternativ oder komplementär können diese Schichten auch als Wirkstoffdepot verwendet werden, indem die Wirkstoffe direkt oder in Nanokapseln verpackt in diesen Film eingefügt werden. Unser Interesse gilt dabei weniger Zellgiften sondern Wachstumsfaktoren, die das Wachstum bestimmter Zellen fördern. Für Knochenimplantate sind dabei Wirkstoffe für das Wachstum von Osteoblasten und Osteoklasten von besonderer Bedeutung (Abbildung 3). Aber offensichtlich eröffnet sich hier auch ein interessantes Feld der Zelldifferenzierung, z. B. in der Stammzellenforschung. Oben: (links) Schematische Ansicht eines dreidimensionalen Modellgerüsts;
(Mitte) Durch Ultraschall modifizierte Ti-Oberfläche (Mikroskopaufnahme) mit einer anwachsenden Osteoblastenvorläuferzelle (Fluoreszenzmikroskopieaufnahme); (rechts) Elektrochemisch modifizierte Ti-Oberfläche mit sehr langsam anwachsender Osteoblastenvorläuferzelle. Unten: Sonochemisch modifizierte Kanäle in Ti mit Zellwachstum an der Kante (rechts, rot markiert). Abb. 3: Oben: (links) Schematische Ansicht eines dreidimensionalen Modellgerüsts; (Mitte) Durch Ultraschall modifizierte Ti-Oberfläche (Mikroskopaufnahme) mit einer anwachsenden Osteoblastenvorläuferzelle (Fluoreszenzmikroskopieaufnahme); (rechts) Elektrochemisch modifizierte Ti-Oberfläche mit sehr langsam anwachsender Osteoblastenvorläuferzelle. Unten: Sonochemisch modifizierte Kanäle in Ti mit Zellwachstum an der Kante (rechts, rot markiert)Abbildung 3: Oben: (links) Schematische Ansicht eines dreidimensionalen Modellgerüsts; (Mitte) Durch Ultraschall modifizierte Ti-Oberfläche (Mikroskopaufnahme) mit einer anwachsenden Osteoblastenvorläuferzelle (Fluoreszenzmikroskopieaufnahme); (rechts) Elektrochemisch modifizierte Ti-Oberfläche mit sehr langsam anwachsender Osteoblastenvorläuferzelle. Unten: Sonochemisch modifizierte Kanäle in Ti mit Zellwachstum an der Kante (rechts, rot markiert). © Ekaterina V. Skorb / Max-Planck-Institut für Kolloid- und Grenzflächenforschung

    Rückkoppelnde Grenzflächen

    Im vorigen Abschnitt wurde die Wirkstofffreisetzung bei Bedarf diskutiert. Noch vielversprechender wäre es, wenn das biologische System, das an die Grenzfläche koppelt, das Signal bei Bedarf selbst aussendet. Ein einfaches Beispiel für dieses Signal durch Aussenden eines Metaboliten ist in Abbildung 4 dargestellt. Hier handelt es sich um Bakterien, die Milchsäure produzieren. Nähern sich diese Bakterien einer Grenzfläche, so wird im Spalt dazwischen die Milchsäure angereichert und damit die Protonenkonzentration erhöht. Die pH-Erniedrigung kann zur Wirkstofffreisetzung führen. Im Beispiel der Abbildung 4 führt sie zu einer Bürstenbildung, d. h. Streckung einer Polymerschicht auf der Oberfläche und damit zur Abstoßung der Bakterien. Hier eröffnet sich also die Möglichkeit der Herstellung einer Oberfläche, die resistent ist gegen den Befall durch Algen oder Pilze, die aber Gifte nur lokal aussendet, wo sie benötigt werden. Unten: Schematische Darstellung eines Rückkopplungsmechanismus, bei dem die
Zelle einen Metaboliten produziert, durch den sie wegen der pH-Änderung abgestoßen wird. Oben wird durch Fluoreszenzmarkierung der Zellen gezeigt, dass das Konzept funktioniert

    Abbildung 4: Unten: Schematische Darstellung eines Rückkopplungsmechanismus, bei dem die Zelle einen Metaboliten produziert, durch den sie wegen der pH-Änderung abgestoßen wird. Oben wird durch Fluoreszenzmarkierung der Zellen gezeigt, dass das Konzept funktioniert. © Ekaterina V. Skorb / Max-Planck-Institut für Kolloid- und Grenzflächenforschung

    Dreidimensionale Grenzflächen

    Während unsere Gruppe wie andere die meisten Experimente an planaren Grenzflächen durchführt, sind für das Anwachsen von Implantaten dreidimensionale Gerüste die wichtigste Ausgangsstruktur. Hier stellen sich dann weitere Probleme des Stofftransports und der Zell-Zell-Interaktion, aber auch der gezielten Manipulation von Grenzflächen im Inneren dieser Gerüste. Glücklicherweise kann auch diese Grenzfläche mithilfe der Ultraschallbehandlung manipuliert werden. Am Beispiel eines Gerüsts aus der Abteilung Biomaterialien unseres Instituts war so zu sehen (Abb. 3 unten), dass Zellen bevorzugt in Hohlräumen mit viel Kontakt zur Wand anhaften und diese Wechselwirkungen durch unsere Methoden manipuliert werden können.

    Ausblick

    In diesem kurzen Beitrag sollte das Potential der gezielten Manipulation von Grenzflächen dargestellt werden. Den Schwerpunkt bildete dabei der Zell-Oberflächen-Kontakt, da hierauf eine Vielfalt von Anwendungen aufbauen. Allerdings gibt es zahlreiche offene Fragen:

    • Die Wirkung von Ultraschall auf Grenzflächen ist wegen der lokalen und dynamischen Prozesse nicht verstanden.
    • Die Wirkung einer festen oder weichen Oberfläche auf verschiedene Zelltypen ist nicht verstanden.
    • Die verschiedenen materialspezifischen Mechanismen der Freisetzung sind qualitativ verstanden, aber quantitativ noch nicht beherrscht.

    Daher sollte hier betont werden, dass sich die weitere Forschung unserer Gruppe auf Kooperationen zu diesen offenen Fragen konzentrieren wird, nicht auf Erweiterungen der Anwendungen.

    Andererseits sind viele angesprochene Aspekte sehr generelle Fragen der Materialforschung. Zum Beispiel kann durch Einbringen von verkapselten Korrosionsinhibitoren in eine Deckschicht eine rückkoppelnde Beschichtung aufgebaut werden. Dabei wird durch einen Defekt in der Schicht der Inhibitor freigesetzt, wodurch sich die Schicht selbst repariert. Diese Anwendung ist vielleicht weniger spekulativ, aber von großer wirtschaftlicher und ökologischer Bedeutung. Auch wenn wir auf diesem Gebiet näher an einer Entwicklung sind, so gibt es doch auch hier noch eine erhebliche Distanz zur Anwendung. Dies ist aber kein Grund zur Entmutigung sondern vielmehr Ansporn, die Entwicklung der Grundlagenforschung zur forcieren.


    *Dieser Artikel ist im Jahrbuch 2014 der Max-Planck Gesellschaft erschienen und wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, es fehlen aber die Literaturzitate; diese sind aus der Originalarbeit zu entnehmen: http://www.mpg.de/7790800/MPIKG_JB_20141?c=8236817.


    Weiterführende Links

    Max-Planck-Institut für Kolloid- und Grenzflächenforschung: http://www.mpikg.mpg.de/

    Im ScienceBlog

    Ein Artikel über Implantate von der Seite des Mediziners aus betrachtet:

    Georg Wick: Erkrankungen des Bindegewebes: Fibrose – eine häufige Komplikation bei Implantaten

    inge Fri, 06.03.2015 - 15:35

    Hermann Mark und die Kolloidchemie. Anwendung röntgenographischer Methoden

    Hermann Mark und die Kolloidchemie. Anwendung röntgenographischer Methoden

    Fr, 27.02.2015 - 10:26 — Redaktion

    Icon WissenschaftsgeschichteDer in Wien geborene und aufgewachsene Hermann Mark (1895 – 1992) gehört zu den berühmtesten Chemikern, die Österreich hervorgebracht hat. Mark gilt als (einer) der Begründer der neuen Disziplin „Polymerwissenschaften“; auf ihn gehen grundlegende Arbeiten über Polymerisationsmechanismen, Molekülmassenbestimmung und Strukturaufklärung von Polymeren – vor allem mittels den damals noch in den Kinderschuhen steckenden „Röntgenographischen Methoden“ – zurück. Damit gehörte Mark auch zu den Pionieren der damals in Entstehung begriffenen Strukturchemie. Ausführliche Biographien zu Marks Leben und Wirken sind in [1 - 3] nachzulesen.

    1932 nach Wien auf den Lehrstuhl für Chemie berufen, leitete Mark bis 1938 das 1. Chemische Institut der Universität Wien. Er lehrte physikalische Chemie und betrieb Grundlagenforschung. Er führte die Röntgenstrukturanalyse ein, schuf (zusammen mit E. Guth) eine statistische Theorie der Elastizität von Gummi-artigen Molekülen und baute den weltweit ersten Studiengang für Polymerwissenschaften auf.

    Mark war ein großartiger Redner und hat auch außerhalb der akademischen Welt populäre, leicht verständliche Vorträge gehalten. So beispielsweise am 21. Feber 1934 im Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien.

    Im Folgenden findet sich dieser Vortrag [4] in einer für den Blog adaptierten, leicht gekürzten Form mit einigen zusätzlichen Untertiteln.

    Text des Vortrags im Jahrbuch Hermann Mark: Über die Bestimmung kleinster Teilchen mit Hilfe von Röntgenstrahlen [4]

    Erst im letzten Jahrzehnt hat man in vollem Umfang die Bedeutung erkannt, die kleine, in einer Flüssigkeit suspendierte feste oder flüssige Teilchen für chemische und besonders für physiologische Prozesse haben können. Wenn man einen Festkörper — etwa Quarz, Glas, Kupfer, Kohle usw. — allmählich immer mehr zerkleinert, so erhält man einen immer feiner werdenden Sand, dessen Aufschwemmung im Wasser zunächst keine neuen fremdartigen Erscheinungen ergibt. Die in der Flüssigkeit aufgewirbelten Teilchen setzen sich mehr oder weniger rasch ab und es erfolgt von selbst eine Trennung der beiden Komponenten des betrachteten Systems.

    Kolloide Lösungen…

    Wenn man aber die Zerkleinerung der festen Phase sehr weit treibt, sodass Partikel von besonderer Feinheit entstehen, dann erhält die Suspension dieser Partikeln in Wasser neuartige, besonders interessante Eigenschaften. Die Teilchen bleiben nämlich dann beliebig lange in der Flüssigkeit schweben und bilden je nach der Konzentration entweder völlig klare oder schwach opalisierende Lösungen von großer Stabilität; eine freiwillige Entmischung erfolgt nicht mehr.

    Aufgeschwemmte TeilchenIm Wasser aufgeschwemmte Teilchen sedimentieren (links), bei sehr hohem Mahlgrad entstehen stabile kolloide Lösungen (rechts).

    Während man sich in den vergangenen Jahrzehnten im wesentlichen dem Studium homogener Systeme und wahrer Lösungen zugewendet hatte, blieben die soeben geschilderten scheinbaren oder kolloiden Lösungen lange Zeit unbeachtet, und es war das Verdienst einer Reihe von Forschern, wie: Ostwald, McBain, Freundlich, Pauli u. a., das Augenmerk auf die Wichtigkeit dieser mikroheterogenen Systeme gelenkt zu haben.

    Nachdem man einmal ihre Bedeutung erkannt hatte, fand man in der ganzen Chemie und besonders in biologischen Systemen immer wieder kolloide Lösungen — sogenannte Sole — der verschiedensten Zusammensetzung und Wirksamkeit.

    …und ihre Herstellung…

    Als einfachster Weg zur Herstellung kolloider Lösungen könnte die künstliche Zerkleinerung einer gegebenen Substanz durch geeignete Mahlvorrichtungen erscheinen. Wenn man aber versucht, diesen Weg praktisch zu beschreiten, dann findet man bald, daß der Mahlgrad, bis zu dem man vordringen kann, nicht ausreicht, um die für ein kolloides System charakteristischen Erscheinungen, besonders die Stabilität und Klarheit hervorzubringen. Die besten technischen Zerkleinerungsvorrichtungen, Kugelmühlen, Schlagkreuzmühlen usw., ermöglichen nämlich bei ihrer Anwendung auf feste anorganische oder organische Substanzen nur eine Zerkleinerung bis in die Gegend von 2—5 µm Durchmesser (1µm = 1/1000 mm). Diese Feinheit besitzen etwa feinstes Weizenmehl, Portlandzement und äußerst feine Farbstoffe. Wenn man Teilchen von dieser Größe in Wasser suspendiert, dann bleiben zwar diejenigen von ihnen lange schweben, deren spezifisches Gewicht nicht allzu sehr von dem des Wassers abweicht, wie Farbstoffe. Mehl, Stärke usw., die schwereren aber, Schwerspat, Zinkweiß usw., setzen sich nach kurzer Zeit praktisch vollständig ab.

    …mit der Kolloidmühle…

    Es ist also eine noch weitergehende Zerkleinerung nötig. Für diesen Zweck hat Hermann Plauson eine Schlagkreuzmühle konstruiert, deren rasch rotierende, sehr nahe aneinander vorbeistreichende Schlagkreuze in einer Flüssigkeit laufen. Durch die Anwesenheit dieser Flüssigkeit wird die Wirkung der Mühle außerordentlich gesteigert und man kann eine vorgegebene, bereits recht feine Suspension eines bestimmten festen Körpers bis auf Kolloidfeinheit herunter mahlen. Man hat diese sogenannte Kolloidmühle an sehr vielen Stoffen erprobt und brauchbar gefunden, allerdings kommt sie nur für die laboratoriumsmäßige Herstellung' von Solen in Frage, da sie für technische Zwecke zu unwirtschaftlich arbeitet. Es ist nämlich der Kraftaufwand für die in einer Flüssigkeit rasch rotierenden Schlagkreuzräder ein ungewöhnlich großer.

    In der Praxis der Herstellung kolloider Lösungen musste man sich daher nach anderen Methoden umsehen und fand sie in den verschiedensten Möglichkeiten, Festkörper elektrisch zu zerstäuben oder zu versprühen.

    …durch elektrische Zerstäubung…

    So kann man z. B. nach Bredig die meisten Metalle dadurch in kolloide Verteilung bringen, daß man unter Wasser zwischen zwei metallischen Elektroden einen Lichtbogen brennen lässt. Durch die starke Erwärmung werden kleine Teilchen der Elektrode losgerissen und verteilen sich in der umgebenden Flüssigkeit als stabiles Metallsol, das bereits in jeder Richtung typisch kolloide Eigenschaften zeigt. Besonders beständig sind Sole aus edlen Metallen, wie Gold, Silber, Kupfer, Platin usw.; sie besitzen, abgesehen von ihrem wissenschaftlichen Interesse für die Kolloidchemie, auch eine gewisse praktische Bedeutung. Die außerordentlich feine Verteilung des Metalls bringt es nämlich mit sich, daß die spezifische Oberfläche der in der Lösung vorhandenen festen Phase außerordentlich groß ist, so daß alle auf Oberflächenwirkung beruhenden Effekte bei der Verwendung von kolloiden Systemen besonders in den Vordergrund treten. So bilden Platinsole ausgezeichnete Katalysatoren, die bei der Hydrierung organischer Substanzen allen anderen Beschleunigern erheblich überlegen sind, Silbersole werden als wirksame Desinfektionsmittel in der Heilkunde verwendet und wirken wahrscheinlich dadurch bakterizid, daß sie die Bakterien sowie die von ihnen erzeugten Giftstoffe an ihrer großen Oberfläche adsorbieren und hierdurch unwirksam machen.

    Die eben erwähnten Metallsole zeigen je nach ihrer Herstellung verschiedene Farbe, ein Effekt, der in ihrer verschiedenen Teilchengröße seinen Grund findet und bei entsprechend genauer Bestimmung des Farbtones geradezu zur Messung der Teilchengröße verwendet werden kann.

    …durch Ausfällung

    Eine andere, vielleicht noch wichtigere Methode zur Herstellung kolloid verteilter Materie bildet die Fällung. So lassen sich Metallsulfide, Metalloxyde, Kieselsäure und andere anorganische Stoffe sehr leicht fein verteilt ausfällen und liefern Suspensionen von großer Stabilität, die alle typisch kolloiden Erscheinungen zeigen. Sogar nach dem Entfernen des Lösungsmittels verbleibt der Rückstand häufig in so feiner Verteilung, daß man Systeme von außerordentlich großer spezifischer Oberfläche erhält, die für technische Zwecke Verwendung finden; man nennt diese festen Systeme mit kolloiden Eigenschaften Gele. So dient Kieselsäuregel in verschieden fein verteiltem Zustand in der Technik als Absorptionsmittel für Gase und flüchtige Lösungsmittel. Zahlreiche andere aus anorganischen Solen hergestellte Gele, wie Aluminiumoxyd, Eisenoxyd usw., werden als Trägersubstanzen für Katalysatoren verwendet.

    Diese kurze Einleitung über die Herstellung und Verwendung fester und flüssiger kolloider Systeme möge genügen, um die allgemeine Bedeutung dieses besonderen Zustandes der Materie zu kennzeichnen, nunmehr sei dazu übergegangen, die wichtigste Frage zu behandeln:

    Die Bestimmung der Größe kolloider Teilchen…

    Die direkte mikroskopische Vermessung kleiner Partikeln ist an die Wellenlänge des verwendbaren Lichtes geknüpft: eine direkte Abbildung im Mikroskop ist nur so lange möglich, als die Teilchen groß gegenüber der Wellenlänge des Lichtes sind. Wenn diese Bedingung nicht mehr zutrifft, dann treten Beugungserscheinungen auf, durch die die Abbildung verschwommen und ungenau wird, so daß von einer direkten Messung nicht mehr gesprochen werden kann. Das Gebiet des sichtbaren Lichtes endet bei einer Wellenlänge von etwa 400 Nanometer (= 4000 Ångström) dies ist also auch die Grenze der visuell noch direkt beobachtbaren Teilchengröße.

    Man hat versucht, durch Verwendung ultravioletter Strahlen auf photographischem Wege den Anwendungsbereich des normalen Mikroskops zu erweitern und ist bis zur Wellenlänge von etwa 200 Nanometer gegangen. Dies bedeutet aber keine erhebliche Erweiterung des Anwendungsbereiches: Zudem ist das Verfahren wegen der Notwendigkeit einer Quarzoptik und photographischer Registrierung recht umständlich. Zusammenfassend kann man daher sagen, dass die normalen optischen Hilfsmittel unter günstigsten Bedingungen noch die Vermessung von Teilchen in der Größenordnung von 0,8 bis 1,2 µm gestatten, also an der oberen Grenze des für den kolloiden Zustand charakteristischen Gebietes enden.

    …mit dem Ultramikroskop*

    Dieses gestattet zwar nicht, ein Teilchen seiner Form und Größe nach direkt zu beobachten, ermöglicht aber die Zahl der in einem bestimmten, sehr kleinen Volumen befindlichen Teilchen anzugeben. Wenn man nun das Gewicht der im gesamten System verteilten festen Materie und auf ultramikroskopischem Wege auch die Zahl der insgesamt vorhandenen Teilchen zunächst durch Auszählung in einem kleinen Bereich und dann durch Multiplikation ermittelt hat, dann kann man das Gewicht des Einzelteilchens und bei Kenntnis der Dichte auch die Größe des Einzelteilchens angeben. Unter bestimmten Bedingungen lässt sich so in kolloiden Lösungen eine recht verlässliche Bestimmung der mittleren Teilchengröße durchführen. Festen Kolloiden gegenüber aber versagt diese Methode völlig und ebenso, wenn die suspendierten Teilchen in der Lösung schlecht sichtbar sind, wie das bei fast allen organischen Solen, besonders bei den physiologisch wichtigen Systemen, wie Eiweiß, Stärke usw., der Fall ist. Hier sind die gelösten Teilchen optisch nicht genügend gegen das Lösungsmittel differenziert und können daher in ihm nicht so deutlich wahrgenommen werden, daß sich eine sichere Zählung ermöglichen ließe.

    …und der röntgenographischen Methode

    Vor etwa 15 Jahren wurden Röntgenstrahlen auch zur Bestimmung der Teilchengröße kolloider Systeme herangezogen. Um diese Möglichkeit entsprechend klar zu machen, wird es notwendig sein, kurz auf die Wechselwirkung zwischen Röntgenstrahlen und Kristallen einzugehen.

    Die Wellenlänge der Röntgenstrahlen (um 1 Ångström) ist etwa tausendmal kleiner als die des normalen Lichtes. Die Atomabstände in den festen und flüssigen Körpern fallen in dieselbe Größenordnung. Insbesondere bei kristallisierten Festkörpern bewirkt die regelmäßige Anordnung der einzelnen Atome, daß der Kristall den Röntgenstrahlen gegenüber sich verhält wie ein völlig geordnetes Raumgitter, an dem eine regelrechte Beugung der Wellenstrahlung stattfinden kann, ganz ebenso wie Licht an Gittern, deren Maschenweite mit der Wellenlänge vergleichbar ist, deutliche Beugungserscheinungen liefert. Die Interferenz oder Beugung der Röntgenstrahlen an Kristallgittern, die im Jahre 1912 erstmals von M. v. Laue verwirklicht wurde, liefert charakteristische Diagramme, wobei punktförmige Schwärzungen regelmäßig, aber mit verschiedenen Intensitäten auftreten. Solche Diagramme sind heute das sicherste Mittel, um festzustellen, ob sich ein bestimmter Stoff im kristallisierten oder amorphen Zustand befindet. Während kristallisierte Substanzen wohldefinierte intensive Diagramme mit scharfen Interferenzpunkten liefern, ergeben Flüssigkeiten nur verwaschene, undeutliche Beugungsbilder in Form eines breiten Ringes.

    Der Unterschied ist leicht zu verstehen. Im Kristallgitter sind die einzelnen Beugungszentren wohlgeordnet und die Gangunterschiede der an ihnen gestreuten Röntgenstrahlen gehorchen scharfen Gesetzen. Diese Regelmäßigkeit führt dazu, daß sich in bestimmten Richtungen sehr viel Intensität anhäuft, während in anderen durch Interferenz eine so gut wie völlige Auslöschung eintritt; daher beobachtet man intensive Interferenzpunkte neben strahlungsfreien Bereichen.

    In einer Flüssigkeit ist durch die unausgesetzte Bewegung der einzelnen Teilchen die Regelmäßigkeit viel weniger ausgeprägt. Daher verschwimmen hier die Gangunterschiede der an den einzelnen Molekülen gestreuten Wellen und mit ihnen die Interferenzfiguren der Diagramme.

    Aus der Lage und Intensität der Beugungspunkte eines Kristallgitterdiagramms lassen sich wichtige Schlüsse über die Struktur der Kristalle, über die Größe und Form und sogar über die innere Struktur der Atome ziehen. Hier soll nur davon die Rede sein, wie man die Größe der einzelnen Kriställchen aus einem Röntgenogramm bestimmen kann. Man braucht dazu nur auf den oben betonten Unterschied zwischen Einkristalldiagramm und Flüssigkeitsbildern etwas näher einzugehen: die scharfen, intensiven Reflexe der Kristallbilder, die beim Übergang zum Flüssigkeitsbild zu verwaschenen Streifen verschwimmen.

    Wenn man nun ein aus sehr kleinen Kriställchen bestehendes Pulver als Zwischending zwischen Einkristall und Flüssigkeit auffasst, ein Standpunkt, der zumindest qualitativ berechtigt ist, dann wird man zu erwarten haben, daß sehr feinkristalline Pulver Diagramme geben, die nicht mehr so scharf sind, wie die von groben Kristallen herrührenden und noch nicht so verwaschen wie Flüssigkeitsdiagramme, und wird mit abnehmender Korngröße eine zunehmende Verwaschung der Interferenzen erwarten.

    In der Tat konnten u.a. P. Scherrer und später ausführlicher M. v. Laue zeigen, dass die Größe der beugenden Teilchen mit der Schärfe der an ihnen entstehenden Interferenzerscheinungen verknüpft ist (Scherrer-Lauesche Gleichung). Da die Wellenlänge der Röntgenstrahlen in der Größenordnung von Ångström liegt, kann man auf diesem Wege auch noch die Dimensionen besonders kleiner Teilchen bestimmen. Die Methode ist gerade im kolloiden Gebiet besonders bedeutsam. Sie besitzt den Vorteil, sowohl auf Suspensionen als auch auf feste Körper angewendet werden zu können, und setzt nur voraus, daß die zu vermessenden Teilchen kristallinen Charakter haben.

    Dazu einige besonders interessante Ergebnisse

    Wie man seit den grundlegenden Versuchen von R. 0. Herzog und Scherrer aus dem Jahre 1920 weiß, sind nicht nur die anorganischen Kolloide, sondern auch die meisten organischen, biologischen und physiologischen Objekte, wie Fasern, Muskel, Haare usw., kristallin und fallen daher in den Anwendungsbereich der röntgenographischen Teilchengrößenbestimmung. Die erste praktische Durchführung dieser Methode erfolgte durch Scherrer selbst, der an verschiedenen Goldsolen die Größe der suspendierten Teilchen einerseits durch Auszählen, andererseits röntgenographisch bestimmte und sehr gute Übereinstimmung in den Ergebnissen fand. Später hat eine große Reihe von Forschern sich ihrer zur Teilchengrößenbestimmung im submikroskopischen Gebiet bedient.

    Die Struktur von Ruß

    Ein sehr häufig untersuchtes Objekt bildet der Kohlenstoff in seinen verschiedenen Modifikationen - dem kubischen Diamant und dem hexagonalen Graphit. Daneben gibt es den Ruß in den verschiedensten Arten und Eigenschaften, eine Substanz, die man bisher stets als amorphen Kohlenstoff angesprochen hat. Röntgenographische Untersuchungen zahlreicher Rußsorten haben aber in fast allen Fällen Interferenzbilder gezeigt, aus denen man auf das Vorliegen der Graphitstruktur zu schließen hat. Allerdings sind die Diagramme vieler Rußsorten sehr verwaschen und geben von der außerordentlichen Kleinheit der Graphitteilchen Kunde.

    Je nach der Herstellung des Rußes aus Paraffin oder Leuchtgas erhält man Rußsorten von außerordentlich verschiedener Teilchengröße, deren technische Eigenschaften ebenfalls stark voneinander abweichen und in charakteristischer Weise mit der Korngröße zusammenzuhängen scheinen. Ebenso wie der Graphit blättchenförmige Struktur besitzt, ergibt sich, daß die Rußteilchen nicht in allen Dimensionen gleich groß sind, sondern äußerst dünne Blättchen darstellen, deren Achsenverhältnis man aus röntgenographischen Untersuchungen ableiten kann.

    Der als Druckerschwärze verwendete Öl-oder Lampenruß besitzt Teilchengrößen zwischen 100 und 200 Ångström, während der in der Gummiindustrie in größtem Umfang verwendete Gasruß seine besten technischen Eigenschaften entfaltet, wenn die Teilchen zwischen 50 und 100 Ångström mittlere Kantenlänge aufweisen. Diese außerordentlich feinen Kohlenstoffkriställchen verfestigen eine Kautschukmischung, mit der sie innig vermengt werden, etwa auf das 3- bis 4fache ihrer ursprünglichen Widerstandsfähigkeit.

    Man darf annehmen, daß durch die Vulkanisation die Rußteilchen mit den langen kettenförmigen Molekülen des Kautschuks chemisch verknüpft werden, so daß eine außerordentlich feste Verbindung zwischen den einzelnen Komponenten der Mischung entsteht. Daß die wirksamsten Kautschukruße außerordentlich kleine Teilchen haben, geht auch daraus hervor, daß sie nicht mehr rein schwarz, sondern eher braun- oder blaustichig erscheinen.

    Noch feiner verteilten Kohlenstoff erhält man bei der Zersetzung des Kohlensuboxydes, eines merkwürdigen interessanten Gases, dem die Formel C3 O2 zukommt und das nach Klemenc bei seiner Erhitzung ein rotes Pulver liefert, dessen röntgenographische Untersuchung Graphitstruktur mit außerordentlich geringer Teilchengröße ergab. Die mittlere Ausdehnung der Körner beträgt hier nur etwa 30 Ångström; ein Kristall dieser Substanz enthält daher nur etwa 1000 Kohlenstoffatome und wiegt nicht mehr als 2.10-20 g. Er verhält sich dem Gewicht nach zu einem Zentner etwa so wie 1 Zentner zum Gewicht der ganzen Erde.

    Eine andere interessante und auch technisch wichtige Modifikation der Kohle ist in den aus organischen Substanzen — Knochen, Holz, Blut usw. — hergestellten Präparaten zu finden, die eine besonders starke Aufnahmefähigkeit für Gase und Dämpfe zeigen. Man hat diese Eigenschaft schon seit langem mit der großen inneren Oberfläche solcher Absorptionskohlen in Verbindung gebracht, die man sich als äußerst feinporigen Schwamm vorzustellen hat, in dem das zu adsorbierende Gas aufgesaugt wird. Die röntgenographische Untersuchung zeigt auch hier das Vorliegen des Graphitgitters und ergab außerordentlich kleine Dimensionen für die kristallisierten Bereiche.

    …von Kieselsäuregelen…

    Ein ähnliches Ergebnis liefert die Untersuchung von Kieselsäuregelen, die ebenso wie die erwähnten Kohlen in der Technik für die Wiedergewinnung von Lösungsmitteln, bzw. für das Festhalten von Gasen in Filtern, Gasmasken- usw. gebraucht werden. Auch von diesen Stoffen erhält man Röntgenogramme, aus denen neben der kristallinen Natur die außerordentliche Kleinheit der Kristallenen hervorgeht.

    …und technischen Katalysatoren

    Besonders interessante Ergebnisse hat die Bestimmung der Teilchengröße bei der Untersuchung technischer Katalysatoren zutage gefördert. Unter einem Katalysator versteht man einen Stoff, der durch seine bloße Anwesenheit den Ablauf einer chemischen Reaktion zu beschleunigen vermag, ohne hiebei merklich verändert zu werden. Die Erfahrung hat gelehrt, daß die Wirkung der Katalysatoren an eine Fixierung der Reaktion an die Oberfläche gebunden ist und daß diese Stoffe um so wirksamer sind, je größer die spezifische Oberfläche der verwendeten Präparate gemacht werden kann. Hier hat die röntgenographische Untersuchung eingegriffen und gezeigt, daß die Wirksamkeit von Kontakten in der Tat mit abnehmender Teilchengröße beträchtlich zunimmt.

    Um einen über längere Zeit aktiven Kontakt zu erhalten, ist es aber notwendig, dafür zu sorgen, daß die feine Verteilung der Substanz nicht während der Reaktion allmählich verlorengeht. Da die meisten chemischen Reaktionen bei höherer Temperatur durchgeführt werden, ist die Gefahr einer Rekristallisation und Sinterung der Kontakte sehr häufig akut und man muss besondere Maßnahmen treffen, um sie zu verhindern. Als sehr wirksam hat sich in dieser Hinsicht das Beimischen geringer Mengen von Stabilisatoren erwiesen, durch die ein Zusammenkristallisieren der einzelnen äußerst feinen Körner des Katalysators verhütet wird.

    Fazit

    Die wenigen geschilderten Beispiele mögen zeigen, wie vielseitig die röntgenographische Methode in ihrer Anwendung auf wissenschaftliche und technische Fragen ist. Überall dort, wo man sich für die Größe und Form von Kriställchen interessiert, die in Gebieten zwischen 10 und 500 Ä liegen, wird man in dieser Methode ein verlässlich und bequem arbeitendes Hilfsmittel finden.


    [1] Herbert Morawetz: Hermann Francis Mark – a biographical Memoir (1995) National Academy Press (Washington) http://www.nasonline.org/publications/biographical-memoirs/memoir-pdfs/m...

    [2] Johannes Feichtinger. Herman F. Mark (1895–1992): Viennese Born ‘Ambassador’ of Macromolecular Research (6th Int. Conf. History of Chemistry) http://www.academia.edu/371220/Herman_F._Mark_1895-1992_Viennese_Born_Am...

    [3] Herman Mark and the Polymer Research Institute http://www.acs.org/content/acs/en/education/whatischemistry/landmarks/po...

    [4] Hermann Mark: in Jahrbuch 74 (1934) des Vereins zur Verbreitung naturwissenschaftlicher Kenntnisse, Wien: http://www.landesmuseum.at/pdf_frei_remote/SVVNWK_74_0041-0059.pdf

    inge Fri, 27.02.2015 - 10:26

    Aus der Werkzeugkiste der Natur - Zum Potential von Cytochrom P450 Enzymen in der Biotechnologie

    Aus der Werkzeugkiste der Natur - Zum Potential von Cytochrom P450 Enzymen in der Biotechnologie

    Fr, 13.02.2015 - 08:49 — Rita Bernhardt

    Rita BernhardtIcon BiologieCytochrom P450 (abgekürzt CYP) ist der Sammelname einer Superfamilie von Tausenden Enzymen, die in praktisch allen Lebensformen unserer Biosphäre vorkommen. CYPs können auf unterschiedlichen Reaktionswegen verschiedenste Moleküle oxydieren. Die Biochemikerin Rita Bernhardt (Lehrstuhl für Biochemie, Universität Saarbrücken) ist Expertin auf dem Gebiet biotechnologischer Anwendungen von CYPs. Sie gibt Beispiele, wie diese überaus effizienten Biokatalysatoren industriell genutzt werden.

    Seit Jahrtausenden machen wir von Prozessen der Mikroorganismen Gebrauch, beispielsweise um Nahrungs- und Genussmittel – vor allem Brot, Käse, Bier und Wein - herzustellen. Wir wenden dabei Verfahren an, die heute unter die Definition Biotechnologie, besser gesagt „Weiße Biotechnologie“ fallen. „Weiße Biotechnologie“ bedeutet: die industrielle Nutzung von in der Natur vorkommenden und zumeist noch zweckentsprechend optimierten Enzyme (Enzyme sind Biokatalysatoren) und lebenden Zellen, vor allem von Mikroorganismen. Die Liste der Anwendungen ist lang. Optimierte Enzyme

    • können bereits bei niedrigen Temperaturen Stärke, Eiweiß und Fette abbauen und sind aus modernen Waschmitteln nicht mehr wegzudenken,
    • spielen hinsichtlich Geschmack und Konservierung eine essentielle Rolle in der Nahrungsmittelproduktion,
    • werden vor allem aber zur Synthese komplizierter Substanzen – beispielsweise von Arzneistoffen - aus relativ einfachen und billigen Ausgangsstoffen eingesetzt.

    Ein außergewöhnlich hohes Potential für biotechnologische Anwendungen aller Art haben dabei Enzyme aus der Superfamilie der Cytochrome P450.

    Was sind Cytochrome P450?

    Diese, kurz als CYP bezeichneten, Mitglieder einer Superfamilie von Enzymen sind in praktisch allen Lebensformen zu finden. Ihr Ursprung datiert in eine frühe Phase unseres Planeten zurück, vermutlich noch bevor Sauerstoff zu einem wesentlichen Bestandteil unserer Atmosphäre wurde. Darauf weisen zumindest die Stammbäume hin, die aus Sequenzvergleichen der CYP-Gene erstellt wurden und, dass CYPs auch heute noch in vielen Typen prokaryotischer Zellen - Bakterien und Archaea - vorkommen. Aus der Urform haben sich im Lauf der Evolution dann verschiedenste Formen entwickelt, wie wir sie heute im Pilz-, Pflanzen-und Tierreich vorfinden - mehr als 21 000 derartige Formen waren bereits 2014 beschrieben; Tendenz steigend.

    Allen diesen Formen gemeinsam ist, dass sie eine sehr ähnliche dreidimensionale Architektur besitzen und nach demselben Funktionsprinzip operieren:

    CYPs sind Hämoproteine, das bedeutet: sie enthalten den roten Blutfarbstoff Häm. Mit Hilfe dieser Hämgruppe binden CYPs Sauerstoff und führen diesen in eine hochreaktive Form über. Mit solcherart aktiviertem Sauerstoff können CYPs dann unterschiedliche Reaktionstypen eingehen und damit eine ungeheure Vielzahl und Vielfalt an Verbindungen - Substraten - oxidieren. Es sind dies niedermolekulare, zumeist fettlösliche Verbindungen, für welche die Enzyme mehr oder weniger passgenaue (spezifische) Bindungstaschen bereithalten. Als Substrate fungieren dabei sowohl zell-/körpereigene (endogene) Stoffe als auch eine immense Zahl zell-/körperfremder (exogener) Substanzen:

    Endogene Substrate sind im Menschen beispielsweise Fettsäuren, Steroide und Prostaglandine: sowohl in deren Synthese als auch in deren Abbau sind unterschiedliche CYPs entscheidend involviert. In anderen Worten: CYPs produzieren damit nicht nur lebenswichtige, pharmakologisch aktive Substanzen, sie regulieren auch – via Abbau - deren Konzentrationen.

    Exogene Substrate sind nahezu alle niedermolekularen Stoffe in unserer Umwelt, u.a. Inhaltsstoffe unserer Nahrung, Arzneimittel, organische Lösemittel, Kohlenwasserstoffe, Pestizide, Karzinogene, etc. Hier steht in erster Linie der Schutz unserer Körperzellen vor Fremdstoffen im Vordergrund: durch (zum Teil mehrfache) Oxidation werden möglicherweise toxische Eigenschaften von Verbindungen - zumindest meistens - beseitigt („Entgiftung“ ), gleichzeitig nimmt deren Löslichkeit zu und dementsprechend ihre Anreicherung im zellulären Milieu ab. Die oxidierten Fremdstoffe können dann aus den Zellen und den ganzen Organismen ausgeschieden werden.

    Natürlich kann die Vielzahl an Substraten in einem Organismus nicht durch wenige Formen von Cytochrom P450-Enzymen bewältigt werden. So weist der Mensch 57 verschiedene Formen auf (deren Funktionen wir zum Teil noch nicht im Detail kennen), die meisten davon katalysieren in hochspezifischer Weise die Synthese und den Abbau körpereigener Verbindungen, beispielsweise von Steroidhormonen, Vitamin D oder Gallensäuren. Rund 15 CYP-Formen mit wesentlich geringeren Spezifitäten sind vorwiegend in den Abbau von Fremdstoffen involviert.

    Pflanzen können mehrere hundert CYP-Formen enthalten (beispielsweise sind es 273 CYPs in der Ackerschmalwand - Arabidopsis thaliana). Auch hier haben die CYPs essentielle Funktionen in der Synthese von i) Signalmolekülen und Hormonen, die für das Wachstum benötigt werden, ii) von schützenden Substanzen gegen UV-Strahlung und parasitäre Angriffe (Flavonoide, Phytoalexine, Terpene), iii) von Pigmenten (Anthocyanine, Karotinoide) und auch iv) von Strukturpolymeren (Ligninen).

    CYPs in Forschung und Anwendung…

    Keine andere Gruppe von Enzymen zeigt eine ähnliche Breite akzeptierter Substrate, keine eine solche Fülle von Reaktionstypen wie die CYPs. Dies zieht das Interesse von Forschern unterschiedlichster Fachrichtungen an sich – seit der Entdeckung des ersten CYP vor rund 50 Jahren sind in der Literaturdatenbank PubMed unter dem Stichwort „Cytochrome P450“ mehr als 80 300 Veröffentlichungen zu finden. Zentrale Aspekte der CYP-Forschung –Grundlagenforschung und mögliche Anwendungen -sind in Abbildung 1 gegeben.

    Funktion und Anwendungen von Cytochrom P450 EnzymenAbbildung 1. Funktion und Anwendungen von Cytochrom P450 Enzymen

    …speziell in Hinblick auf biotechnologische Prozesse

    Von besonderem Interesse erscheint der Einsatz von CYPs, wenn es um die effiziente Synthese komplizierter organischer Moleküle geht: dabei kann es sich um Feinchemikalien handeln, um pharmakologisch wirksame Substanzen und in besonderem Maße um neue Arzneimittel.

    Gegenüber chemischen Syntheseverfahren versprechen derartige biotechnologische Ansätze enorme Vorteile. Vor allem,

    • weil hier hochspezifische Reaktionen ablaufen, die vorzugsweise das gewünschte Produkt erzeugen und zwar in der richtigen räumlichen Struktur und weitgehend ohne möglicherweise schädliche Nebenprodukte und
    • weil dies unter wesentlich umweltverträglicheren Bedingungen geschieht, d.i. unter Vermeidung von Abgasen und bei stark reduziertem Einsatz von organischen Reagenzien und Lösungsmitteln.

    Kann man hier isolierte CYPs einsetzen?

    Die einfachste Möglichkeit wäre es, CYPs mit den gewünschten katalytischen Eigenschaften aus dem riesigen Reservoir der Natur auszuwählen und in isolierter, möglicherweise zusätzlich optimierter Form direkt zur industriellen Produktion von Substanzen einzusetzen. Dies stößt (noch) auf eine Reihe von Schwierigkeiten:

    i) CYPs sind im isolierten Zustand meistens nur wenig stabil,

    ii) sie benötigen für ihre Umsetzungen spezifische Reaktionspartner – ein oder mehrere andere Proteine - mit ebenfalls limitierter Stabilität – und

    iii) Kofaktoren, die teuer sind und während der Reaktion verbraucht werden.

    iv) Darüber hinaus arbeiten die meisten natürlichen CYPs ziemlich langsam.

    Zellen als lebende Biofabriken

    Mit der Verwendung von CYPs in ganzen intakten Zellen werden die genannten Schwierigkeiten umgangen. Vorzugsweise kommen Mikroorganismen wie beispielsweise Hefen (z.B. Saccharomyces cervisiae oder Schizosaccharomyces pombe) oder Bakterien (z.B. Escherichia coli) zum Einsatz. Diese sind häufig genmanipuliert, d.h. sie enthalten ein oder mehrere stabil exprimierte CYPs, welche die gewünschten Umsetzungen ausführen können. Ebenso liegen deren Reaktionspartner vor und Systeme, welche auch die notwendigen Cofaktoren erzeugen und recyceln. Wenn eine Umsetzung noch zu langsam erfolgt und zu wenig Produkt entsteht, wird das betreffende CYP – aber auch sein(e) Reaktionspartner - einem Optimierungsprozess unterzogen:

    • mit gezielten Mutationen, wenn die räumliche Struktur des Enzyms (z.B. aus der Röntgen-Kristallanalyse) bekannt ist. Damit lässt sich erreichen, dass beispielsweise das Substrat besser in die Bindungstasche des Enzyms passt und/oder dass dessen Wechselwirkung mit dem Reaktionspartner verbessert wird,
    • mit zufallsbasierter Mutagenese („gerichteter Evolution“, auch: "Evolution im Reagenzglas" genannt) Damit erhält man vorerst einen großen Pool an Mutanten, aus denen man im nachfolgenden Screening (= Testen auf die gewünschten Eigenschaften) die geeignetsten auswählt. Diese werden dann in eine weitere Runde von „gerichteter Evolution“ und Screening eingesetzt, die potentesten davon wieder in eine neue Runde und dieser Prozess wird solange wiederholt, bis man schließlich zufriedenstellende Eigenschaften, d.h. hohe Produktivität erreicht hat.

    Mit diesen Verfahren konnten Umsatzraten auf mehr als das 100-fache, in einem speziellen Fall sogar auf das 9000-fache erhöht werden. Dies ist zweifellos ausreichend, wenn man die Produktion pharmazeutischer Wirkstoffe ins Auge fasst, die ansonsten nur durch langwierige, vielstufige chemische Synthese hergestellt werden können. Die minimalen Anforderungen im biotechnologischen Prozess liegen (nach Mattijs K Julsing, 2008) bei Umsatzraten von 1 mg/Liter Fermentationsbrühe und Stunde und einer Endausbeute von 100 mg im Liter.

    Der industrielle Einsatz von CYPs

    Das Beispiel Hydrocortison

    Bereits in der Mitte des vorigen Jahrhunderts erkannte man, dass dieses in unserem Körper natürlich vorkommende Steroidhormon auch starke entzündungshemmende Eigenschaften besitzt – seitdem ist Hydrocortison aus der Therapie nicht mehr wegzudenken. Das Einsatzgebiet reicht von der Behandlung rheumatoider Erkrankungen über die von Ekzemen bis hin zur Unterdrückung der Immunantwort. Dementsprechend besteht weltweit enormer Bedarf für dieses Steroid oder seine (noch wirkungsvolleren) Analoga und es wird nach effizienten billigen Syntheseverfahren gesucht.

    Die ersten rein chemischen Synthesen gingen von Gallensäuren des Rindes aus und benötigten 31 Schritte bis zum Endprodukt – die Herstellungskosten für 1 Gramm Hydrocortison lagen damals (1949) bei 200 $. 1951 entwickelte Djerassi ein Verfahren, das mit dem pflanzlichen Steroid Diosgenin startete; der Syntheseweg wurde kürzer, bieb aber noch immer extrem aufwändig. Die Entdeckung, dass ein Pilz – Rhizopus arrhizus – einen wesentlichen Hydroxylierungschritt im Syntheseweg ausführen kann, brachte den Durchbruch: zur nunmehr semi-synthetischen Herstellung benötigte man insgesamt nur 15 Stufen, die Kosten sanken auf rund 1 $ pro Gramm Hydrocortison (1979).

    Wie man später erkannte, war ein mikrobielles CYP für diese Hydroxlierung verantwortlich. In der Folge wurden derartige CYPs zu unentbehrlichen Werkzeugen der Biotechnologie und ermöglichten die großtechnische Produktion unterschiedlichster, höchst wirksamer Steroide.

    Paradebeispiel für das Potential der synthetischen Biologie ist der jüngste Erfolg: die „de novo“ Biosynthese von Hydrocortison. Diese findet in gentechnisch veränderter Bäckerhefe (Saccharomyces cerevisiae) statt, die Ausgangsstoffe sind einfachste organische Verbindungen – Glukose oder Ethanol –aus denen das Endprodukt Hydrocortison ohne wesentliche Nebenprodukte entsteht (Abbildung 2).

    Synthese von HydrocortisonAbbildung 2. Synthese von Hydrocortison (vereinfachte Darstellung). Links: rein chemische Synthese aus Rindergallensäure. Halblinks: semisynthetische Herstellung unter Verwendung eines CYPs in Rhizopus. Mitte: in vivo Synthese aus Cholesterin in Säugerzellen. Rechts: de novo Synthese in gentechnisch manipulierter Hefe (S. Cerevisiae); außer den 4 wesentlichen CYPs (rot) wurden weitere Gene eingeschleust und einige Hefe Gene umfunktionaliert/stillgelegt.

    Diese Hefe enthält u.a. die vier wesentlichen CYPs (CYP11A1, CYP17A1, CYP21, CYP11B1), die in Säugerzellen die Umwandlung von Cholesterin zu Hydrocortison katalysieren. Da Hefezellen selbst über kein Cholesterin verfügen und dieses auch nicht aus dem Nährmedium aufnehmen können, mussten mehrere Stoffwechselprozesse der Hefe umfunktionalisiert oder stillgelegt werden, um deren strukturell ähnliches Ergosterol für die Umsetzungen nutzen zu können.

    Das Beispiel Artemisinin

    An Malaria erkranken jährlich über 200 Millionen Menschen, über 660 000 sterben daran. Schon seit nahezu 2000 Jahren war in der chinesischen Medizin die Wirkung eines Extrakts aus dem Beifußgewächs Artemisia annua gegen diese Infektionskrankheit bekannt. Der darin enthaltene Wirkstoff Artemisinin ist heute essentieller Bestandteil der weltweit angewandten, erfolgreichen Malaria-Kombinationstherapie. Um unabhängig von den schwankenden Wirkstoffgehalten der Pflanze, Ernteerträgen und Lieferengpässen zu werden, wurden nun - ermöglicht durch ein Projekt der Gates-Foundation und one-World Health - semi-synthetische Verfahren zur Produktion von Artemisinin entwickelt. Diese verwenden nun wieder genmanipulierte Bäckerhefe mit dem pflanzlichen CYP71 in optimierter Form, welches in einem 3-Stufenprozess die Artemisinin-Vorstufe erzeugt. Der Sanofi Konzern kann von diesem Rohstoff jährlich bis zu 100 Tonnen erzeugen, der eigentliche Wirkstoff entsteht daraus durch eine photochemische Reaktion.

    Das Beispiel Pflanzen mit geänderten Blütenfarben

    Als vor ca. 20 Jahren bei einer Tagung ein australischer Wissenschaftler auftrat und verkündete, blaue Rosen herstellen zu wollen, indem er CYPs aus blauen Pflanzen, die dort die blaue Blütenfärbung verursachen, in den Blüten von Rosen zur Expression bringen wollte, war ich skeptisch und fragte mich, wer denn derartige Pflanzen benötigen und kaufen würde. Heute gibt es zwar immer noch keine Kornblumen-blauen Rosen, aber lila- bläuliche, da sich die Farbgebung als komplex und nicht nur CYP- abhängig erwies (Abbildung 3). Dafür gibt es beispielsweise lila (in allen Abstufungen) Nelken und andere Pflanzen mit geänderten Blüten-Farben (hergestellt in einer Kooperation der japanischen Firma Suntory und der australischen Firma Florigen). Als ich die lila Nelken im Original sah, besonders in einem Ikebani- Gesteck, war ich fasziniert. Das geht offenbar nicht nur mir so, denn der Umsatz weltweit beträgt inzwischen > 1 Milliarde Euro jährlich.

    Violette Nelken und lila-bläuliche RosenAbbildung 3 Violette Nelken und lila-bläuliche Rosen

    Wie geht es weiter?

    Die Matrize aus Tausenden von CYP Formen mit unterschiedlichen Substratselektivitäten und von verschiedenen CYP Reaktionen an unterschiedlichen Substraten ergibt eine immense Vielfalt von Möglichkeiten für die Anwendung von CYPs in der Biotechnologie, u.a. bei der umweltfreundlicheren Herstellung neuer Wirkstoffe. Die „de novo Synthese von Hydrocortison“ und die „semi-synthetische Produktion von Artemisinin“ sind dafür Paradebeispiele. Weitere Forschungen müssen und werden sicherlich die bisherigen Engpässe bei der Anwendung in den kommenden Jahren überwinden.


    R. Bernhardt, V.B. Urlacher: Cytochromes P450 as promising catalysts for biotechnological application: chances and limitations. Appl Microbiol Biotechnol (2014) 98:6185–6203.

    R. Bernhardt: Cytochromes P450 as versatile biocatalysts. J Biotech 124 (2006) 128–145

    R. Bernhardt: Cytochrome P450: versatile Enzymsysteme mit Anwendungen in der Biotechnologie und Medizin. http://www.uni-saarland.de/fileadmin/user_upload/Campus/Forschung/forsch...


    Weiterführende Links

    Beiträge im ScienceBlog zu verwandten Themen

    inge Fri, 13.02.2015 - 08:49

    Beschreibungen der Natur bei unvollständiger Information

    Beschreibungen der Natur bei unvollständiger Information

    Fr, 20.02.2015 - 08:04 — Peter Schuster Peter SchusterIcon MINT

    Die Biologie befindet sich im Wandel von einer beobachtenden zu einer quantifizierenden Wissenschaft. Stochastische Modellierungen ermöglichen komplexe biologische Systeme wie lebende Zellen und sogar ganze Organismen auf dem molekularen Niveau vollständig zu beschreiben. Der theoretische Chemiker Peter Schuster zeigt die zentrale Rolle auf, die Mathematik und Computerwissenschaften in den modernen Naturwissenschaften spielen*.

    In den vergangenen 50 Jahren hat es in den Naturwissenschaften einen ungeheuren technischen Fortschritt gegeben. Es wurden neue experimentelle Techniken entwickelt und die Auflösung konventioneller Methoden enorm verbessert. Damit ist es möglich geworden in kleinste Einheiten des Raumes und der Zeit vorzustoßen: bei einer immer weiter verringerten Probengröße können nun Untersuchungen an einzelnen Molekülen ausgeführt werden. Spektroskopische Methoden erlauben bisher unvorstellbare Einblicke in Prozesse, die im Zeitbereich von 100 Attosekunden – 100 Trillionstel – Sekunden ablaufen. Viele Messdaten sind auch von ausreichender Genauigkeit, um Fluktuationen direkt bestimmen zu können.

    Beobachtungen an einzelnen Partikeln sind heute bereits Routine geworden. Um nicht nur diese Prozesse erfolgreich analysieren und interpretieren zu können, bedarf es allerdings eines tieferen Verständnisses von Wahrscheinlichkeitsrechnung und Statistik – gleichgültig ob es sich nun um Versuchsansätze in Physik, Chemie oder Lebenswissenschaften handelt.

    Dennoch werden Statistik und die Behandlung stochastischer Prozesse in der Ausbildung von Chemikern und Biologen häufig vernachlässigt. Die Konsequenz ist fatal: fehlt dem Experimentator eine diesbezügliche, solide mathematische Basis, führt das Erheben von Daten und deren Reproduktion zwangsläufig zu fehlerhaften Interpretationen.

    Vom Beobachten zum Beschreiben realer Vorgänge

    Reale Vorgänge sind komplex. Wegen der vielen Parameter, von denen sie abhängen, können wir niemals die volle Information zur ihrer Beschreibung ermitteln. Und selbst, wenn dies möglich wäre, bliebe alles im Rahmen quantenmechanischer Unschärfe unbestimmt. In derartigen Vorgängen können für die Abfolge einzelner Schritte daher nur Wahrscheinlichkeiten angegeben werden, es sind Zufallsprozesse- sogenannte stochastische Prozesse.

    Brownsche Bewegung als Beispiel eines stochastischen ProzessesDie Brownsche Bewegung als Beispiel eines stochastischen Prozesses. Auf Grund der Wärmebewegung stoßen Moleküle aus allen Richtungen laufend mit größeren Teilchen zusammen und verursachen deren Richtungsänderungen, die unter dem Mikroskop beobachtet werden können. Links: Pfad von 3 Teilchen; historische Reproduktion (ced J.B. Perrin, "Mouvement brownien et réalité moléculaire," Ann. Chim Phys (VIII) 18, 5-114, 1909). Rechts : Computersimulation: Pfad (blau) von 5 größeren Partikel durch einen Set von 800 kleineren Partikeln. (Bilder : Wikipedia)

    Natürlich gibt es auch Vorgänge, wo man offensichtlich auf Wahrscheinlichkeitsrechnung und Statistik verzichten kann – da die sogenannte deterministische Beschreibung zum Ziel führt . Hier ist jeder Schritt kausal von dem vorherigen abhängig und wird durch diesen vollständig bestimmt. Daher lässt die Kenntnis über einen Zustand eine präzise Vorhersage über andere Zustände zu. Zu deterministischen Vorgängen gehören beispielsweise die Bewegungen der Planeten und Monde, die sich mittels Differentialgleichungen darstellen lassen und als „Himmelsmechanik“ bereits den Beginn naturwissenschaftlicher Beschreibungen markierten. Die Fluktuationen sind so gering, dass sie nicht detektiert werden können, auch nicht mit Geräten höchster Präzision: Sonnenaufgang und –untergang, Sonnenfinsternisse können exakt vorhergesagt werden, praktisch ohne jede Streuung.

    Ein weiteres deterministisches Beispiel ist die klassische Reaktionskinetik in der Chemie. Die Differentialgleichungen der Kinetik sind gleich anwendbar geblieben, ihre Ergebnisse haben auch im Licht der modernen Untersuchungen nichts an Überzeugungskraft eingebüßt. Dies ist darauf zurückzuführen, dass es sich hier um Prozesse mit sehr hohen Teilchenzahlen – zumeist sind es viele Trillionen von Teilchen – handelt. Daher bewegen sich Fluktuationen (proportional zu 1/Quadratwurzel aus der Teilchenzahl) in nicht mehr nachweisbar niedrigen Größenordnungen und Mittelwert-basierte Methoden sind zur Beschreibung geeignet. Was in der Kinetik jedoch enorm gesteigert werden konnte, ist die Auflösung der noch detektierbaren Materialmengen in Raum und Zeit. Dies verschafft tiefere Einblicke in die Reaktionsmechanismen und damit einen neuen Zugang zur Information über die Eigenschaften der Moleküle.

    Der Wandel der Biologie…

    Die Biologie befindet sich zurzeit im Umbruch: die Verbindung zur molekularen Wissenschaft Chemie hat die Erhebung biologischer Daten revolutioniert und bietet nun die Basis für eine neue theoretische Biologie.

    In der Vergangenheit war die Biologie nahezu ausschließlich auf Beobachtungen basiert. Theoretische Überlegungen wurden nur in solchen Fällen angestellt, in denen beobachtete Regelmäßigkeiten augenscheinlich waren und durch eine Hypothese interpretiert werden konnten.

    …zu einer quantifizierenden Wissenschaft

    Die Entwicklung der Biochemie in der ersten Hälfte des 20.Jahrhunderts führte quantitatives Denken – in Form von chemischer Kinetik - in einigen Teilgebieten der Biologie ein. Auch den experimentellen Ansätzen der Biologie fügte die Biochemie eine neue Dimension hinzu: in vitro Untersuchungen an isolierten und gereinigten Biomolekülen.

    Eine zweite Form, in der die Mathematik Einzug in die Biologie hielt, war die Populationsgenetik. Diese in den 1920er Jahren neu eingeführte theoretische Disziplin vereinigte Charles Darwins Prinzip der natürlichen Selektion und Gregor Mendels Vererbungsregeln. Es sollte noch zwanzig Jahre dauern, bis Evolutionsbiologen die „Synthetische Theorie der Evolution“ fertigstellten.

    Von der zweiten Hälfte des 20. Jahrhunderts an begann die Molekularbiologie eine feste Brücke zwischen Chemie und Biologie zu bauen. Der enorme Fortschritt in den experimentellen Techniken schuf eine bis dahin unbekannte Situation für die Biologie. Auf die Sequenzierung der Proteine folgte die Sequenzierung der Nukleinsäuren, die Entschlüsselung der Genome unterschiedlichster Lebewesen und die Aufklärung der Gesamtheit aller Proteine – des Proteoms – in Organismen.

    Ein ungeheures Volumen an Information, das die Kapazität menschlichen Überblickens überstieg, erforderte und erfordert weiterhin neue Verfahren im Umgang mit den Daten, mit deren Analyse und Interpretation.

    Stochastische Methoden zur Modellierung komplexer biologischer Systeme

    Wie Gene und Proteine im Kontext von Zellen funktionieren, wird durch die Analyse ihrer Prozesse ersichtlich. Wenn die Systembiologie anstrebt lebende Zellen und sogar ganze Organismen vollständig und zwar auf dem molekularen Niveau zu beschreiben, so sind es zig-Tausende molekulare player und noch mehr Wechselwirkungen zwischen diesen, die berücksichtigt und modelliert werden müssen.

    Die Bewältigung der gegenwärtigen Datenflut, die sich von der Molekulargenetik und Genomik zur Systembiologie und Synthetischen Biologie ergießt, erfordert – außer den entsprechenden Hochleistungsrechnern – primär geeignete statistische Methoden und Wege Daten zu verifizieren und evaluieren. Die Analyse, Interpretation und schließlich das Verstehen der experimentellen Ergebnisse ist ohne Hilfe zweckentsprechender Modelle nicht möglich. In der Vergangenheit basierten derartige Modelle primär auf (deterministischen) Differentialgleichungen. Diese sind zweifellos ungeeignet, um komplexe Systeme zu beschreiben, in denen eine Vielzahl von Teilchensorten in nur wenigen Kopien vorkommt und damit hohen Fluktuationen unterliegt. Eine Erweiterung des Repertoires durch stochastische Modellierungen ist daher unabdingbar.

    Trajektorie einer evolutionären Optimierung von RNA-StrukturenDer Pfad (Trajektorie) einer evolutionären Optimierung von RNA-Strukturen. In einer Population von N = 1000 RNA-Molekülen führen wiederholte Replikationen zur gewünschten Zielstruktur, die nach 14 Millionen Replikationen erreicht wird. Der mittlere Strukturabstand zu dieser Zielstruktur (Hammingdistanz) nimmt nicht kontinuierlich mit den Replikationen ab, sondern in ausgeprägten Stufen.

    Darüber hinaus verlangt die außerordentlich hohe Komplexität der genetischen und metabolischen Netzwerke lebender Zellen nach gänzlich neuen Methoden der Modellierung, Methoden, die den Beschreibungen auf „mesoskopischem Niveau“ in der Festkörperphysik entsprechen (unter „mesoskopisch“ wird hier der Übergangsbereich zwischen etwa einem Nanometer und dem Mikrometerbereich verstanden).

    Numerische Mathematik und Computer-Simulationen spielen heute eine entscheidende Rolle in stochastischen Modellierungen. Die Computerleistung – Rechenleistung und digitale Speicherkapazität – steigt seit den 1960er Jahren exponentiell an, mit einer Verdopplungsrate von 18 Monaten. Diese Steigerung wird von den Fortschritten in der numerischen Mathematik noch übertroffen und führt hier zu immer effizienteren Algorithmen.

    Zentrale Rolle der Mathematik in den Lebenswissenschaften

    In der Vergangenheit hatten Biologen oft mit „gemischten Gefühlen“ auf die Mathematik reagiert und waren überaus zurückhaltend, wenn „zu viel Theorie“ zur Anwendung kam. Die neuen Entwicklungen haben das Szenario völlig verändert. Die riesigen Datenmengen, die mit den neuen Techniken erhoben werden, können weder mit menschlichen Augen mehr gesichtet werden, noch mit menschlichen Gehirnen erfasst werden. Nur technisch ausgeklügelte Software kann dazu imstande sein und moderne Biologen müssen sich darauf verlassen. Die aktuellen Entwicklungen in der Molekularbiologie, Genomik und Biologie der Organismen scheinen diesen Umschwung im Denken der Biologen einzuleiten. Es besteht ja heute praktisch keine Möglichkeit mehr moderne Lebenswissenschaften ohne Mathematik und Computerwissenschaften zu betreiben.

    Der berühmte britische Biologe und Nobelpreisträger Sidney Brenner hat 2002 diesen Wandel der Biologie und ihrer Forscher treffend mit dem diametralen Verhalten von Jägern und Sammlern verglichen:

    „In der prägenomischen Ära wurde ich zum Jäger ausgebildet. Ich lernte wie man wilde Tiere erkennt und wie man hinausgeht, um sie zu jagen und zu erlegen. Jetzt zwingt man uns aber zu Sammlern zu werden, alles, was herumliegt einzusammeln und es in Lagerhäuser zu tragen. Eines Tages, nimmt man an, wird jemand kommen und die Lagerbestände sortieren, allen Mist entsorgen und die wenigen guten Funde behalten. Die einzige Schwierigkeit wird darin bestehen, diese zu erkennen.“


    *Peter Schuster “Stochasticity in Processes. Fundamentals and applications to chemistry and biology” (Springer Verlag, Berlin 2016; im Erscheinen)


    Weiterführende Links

    Science Education: Computers in Biology. Website des NIH mit sehr umfangreichen, leicht verständlichen Darstellungen (englisch)

    Magazin: systembiologie.de https://www.systembiologie.de/de/magazin

    Matthias Rarey: An der Schnittstelle: Informatik trifft Naturwissenschaften ( Zentrum für Bioinformatik Hamburg (ZBH); Universität Hamburg). Sehr leicht verständliches Video (als Werbung für ein Bioinformatik Studium gedacht) 1:09:21 h.

    Verena Wolf: Simulationen biochemischer Reaktionen (Cluster of Excellence MMCI, Saarbrücken) Video 5:26 min.

    Artikel zu verwandten Themen im ScienceBlog:

    Peter Schuster:

    Gerhard Weikum:

    inge Fri, 20.02.2015 - 08:40

    Abschied von Carl Djerassi

    Abschied von Carl Djerassi

    Di, 03.02.2015 - 08:57 — Inge Schuster Inge SchusterIcon Wissenschaftsgeschichte

    Dr. Carl Djerassi, weltberühmter Naturwissenschafter, Autor, Wissenschaftskommunikator, Firmengründer, Kunstsammler und –mäzen ist am 30. Jänner in San Francisco gestorben. Seine Arbeiten waren von eminenter Bedeutung für die medizinisch-chemische Forschung und Entwicklung; deren Ergebnisse haben unsere Gesellschaften grundlegend verändert.

    ParteTodesanzeige auf der Homepage von Carl Djerassi

    Wer war Carl Djerassi? Es erübrigt sich Carl Djerassi in diesem Forum vorzustellen, hat er dies ja hier im Oktober 2013 mit seinen eigenen Worten getan: Die drei Leben des Carl Djerassi. (Ergänzt wird sein Artikel durch ein ausführliches Curriculum Vitae und viele Links zu Interviews, die Djerassi gegeben hat und zu Vorträgen, die er hielt.) Ich will also nicht Eulen nach Athen tragen, wiederholen, was er gesagt hat und was die Medien seit zwei Tagen mehr oder weniger ausführlich über ihn berichten. Vielmehr möchte ich einige Anmerkungen zu meinen eigenen Eindrücken von der Person Carl Djerassi machen.

    Vor 50 Jahren

    Der Name Djerassi war uns angehenden Chemikern schon vor gut 50 Jahren ein klarer Begriff. Allerdings nicht in Hinblick auf die „Pille“. Zwar hatte Djerassi mit seinem Team deren Wirkstoff Norethisteron bereits 1951 synthetisiert – die Basis eines ersten oral wirksamen Antikonzeptivums, das rund 10 Jahre später auf den Markt kam. Zu dieser Zeit war allerdings noch in keiner Weise abschätzbar, zu welchen gigantischen gesellschaftlichen Veränderungen diese Innovation führen sollte. Unser damaliges Interesse galt vielmehr den faszinierenden neuen Methoden, für die Djerassi als Pionier und Topexperte galt und auch heute noch gilt: Masssenspektrometrie, Optische Rotationsdispersion und Circulardichroismus. Dies waren für uns klingende Schlagworte, synonym für unbegrenzte Möglichkeiten zu Strukturaufklärung und Charakterisierung auch höchstkomplizierter chemischer Verbindungen.

    Friedrich Wessely – damals unumschränkter und von vielen gefürchteter Herrscher über die Organische Chemie an der Wiener Universität – war von allem Neuen fasziniert und wollte derartige Technologien unbedingt auch in Wien etabliert wissen. (Wessely hatte u.a. auch den späteren Nobelpreisträger Max Perutz nach Cambridge vermittelt, wo dieser mittels Röntgenkristallographie die Struktur des Hämoglobin aufklärte, und Hans Tuppy an das Institut von Fred Sanger, wo Tuppy maßgeblich zur Sequenzanalsyse des Cytochrom C beitrug, die Sanger den Nobelpreis brachte.) Wessely vermittelte also seinen ehemaligen Doktoranden Herbert Budzikiewicz an das Djerassi Department an der Stanford University um dort Massenspektroskopie zu lernen.

    Es wurde ein großartiger Erfolg, über den die Fama (vor allem im Labor von Fritz Wessely, dem sogenannten Cheflabor) uns berichtete. In den Jahren 1961 – 1965 war Budzikiewicz als Senior Research Associate mit dem Aufbau und der Leitung der Abteilung für Massenspektrometrie in Stanford betraut. Die Literaturdatenbank Thomson-Reuters (ISI) zählt 94 Artikel mit beiden – Djerassi und Budzikiewicz – als Autoren. Unter diesen Arbeiten sticht mit 1280 Zitierungen hervor: „Mass spectrometry in structural and stereochemical problems. 32. Pentacyclic triterpenes (1963)“ Es wurde die überhaupt meistzitierte Arbeit von Djerassi. (Das Opus von Djerassi besteht aus insgesamt 1312 Publikationen.)

    Wir staunten – irgendwie entstand in unseren Labors etwas wie eine Aufbruchsstimmung, allerdings nur kurzfristig.

    Als Budzikiewicz 1965 Stanford verließ, war es – leider – nicht Wien, wohin er zurückkehrte, sein Weg führte über Braunschweig nach Köln, wo er von 1970 bis zu seiner Emeritierung renommierter Professor für Organische Chemie war. Auch viele von uns verließen Österreich, das damals nur sehr beschränkte Möglichkeiten für uns Absolventen bot. Die meisten kehrten nicht zurück.

    Rund 30 Jahre später

    Persönlich habe ich Carl Djerassi erstmals Anfang der 1990er Jahre erlebt. Djerassi hatte sich damals entschlossen wieder in seine Heimatstadt Wien zu kommen und über seine Arbeiten und Interessen zu referieren. Eine der ersten Adressen, an der er nun einen Vortrag hielt, war das Sandoz-Forschungsinstitut in Liesing. Da ich dort seit langem u.a. über Steroide – vor allem Östrogene und Androgene – und die Modulierung ihrer Biosynthese und ihres Abbaus arbeitete, war ich überaus gespannt auf den Vortrag. Eben war ja Djerassis Biografie „Mutter der Pille“ erschienen und dies sollte auch der rote Faden seines Vortrags sein:

    Es wurde vor allem eine Reise durch das Leben Djerassis. Von seiner Jugend in Wien, auf die seine Vertreibung folgte, bis hin zu seinen immer größeren Erfolgen in den Vereinigten Staaten. Es war ein überaus buntes Bild, das der Vortragende entwickelte. Bereits ein 70er, erzählte er überaus dynamisch, pointiert und mit leichtem Sarkasmus –auch hinsichtlich seiner eigenen Person. Das Hohelied auf Steroide, auf das ich mich schon gefreut hatte, spielte leider eine untergeordnete Rolle.

    Ein Bild, das mir in Erinnerung geblieben ist: Ein großer Tisch auf dem mehrere hundert Exemplare von drei Djerassi-Büchern – darunter „Mutter der Pille“- aufgetürmt waren. Jeder von uns konnte sich eines davon auswählen. Den Tisch mit den Bücherstapeln habe ich auch bei späteren Djerassi Vorträgen gesehen.

    Die letzten Jahre

    Djerassi hatte 2004 wieder die österreichische Staatsbürgerschaft angenommen und – ich denke es war 2009 – in Wien eine Wohnung im Botschaftsviertel des 3. Bezirks gemietet. Der Workaholic, der nach seinen Aussagen 80 Stunden in der Woche arbeitete und für den Begriff Urlaub nur ein unverständiges Lächeln übrig hatte, war zum rastlos Reisenden geworden (als Grund nannte er: „die Einsamkeit des Witwers“).

    Der Berühmte wurde weltweit hofiert. Man überbot sich allerorts mit Einladungen zu Vorträgen und Interviews, zu Aufführungen seiner Theaterstücke und mit Ehrungen. Zu den insgesamt mehr als 30 Ehrendoktoraten kamen auch einige aus Österreich dazu. (Dazu Djerassi lakonisch: „Spät kommt ihr, doch ihr kommt“.) Djerassi nahm die Einladungen an, pendelte zwischen seinen drei Wohnsitzen San Francisco, London und Wien hin und her und blieb immer länger in Wien. Es war ein unglaublicher Reiseplan, den er bewältigte (der wesentlich Jüngere außer Gefecht gesetzt hätte); beispielsweise listet der Reiseplan des nun schon über 90-Jährigen im ersten Halbjahr 2014 die folgenden Stationen auf: San Francisco – Wien - San Francisco – Kentucky - San Francisco – Iowa City - San Francisco – Wien – London – Groningen – Freiburg – Wien – Bielefeld – Wien – Fischbachau (Bayern) – Wien – Weiz – Innsbruck – Salzburg – Wien – Odense – Wien.

    In den letzten Jahren hatte ich wiederholt – bei Freunden und auch bei uns zuhause – Gelegenheit zu mehrstündigen Gesprächen mit Djerassi. Es war eine wunderbare Erfahrung diesem überaus wachen, überaus kreativen Menschen zuzuhören – seiner eleganten Sprache mit leicht wienerischem Akzent, seinen Erfahrungen, Schlussfolgerungen und den vielen Plänen, die er noch hatte – und mit ihm zu diskutieren, das Aufblitzen in seinen Augen zu sehen, wenn er einen besonders interessanten Punkt bemerkte.

    Es gab kein Abgleiten in Small-Talk, vielmehr waren es gemeinsame Interessen, die jedes Mal die Zeit wie im Flug vergehen ließen, Themen wissenschaftlicher Natur (natürlich auch über Steroidhormone), Themen der Wissenschaftspolitik und der diesbezüglich betrüblichen Situation unseres Landes und vor allem Djerassis Hauptanliegen der letzten Jahren, die Wissenschaftskommunikation:

    Djerassi schilderte, wie er sich „Edutainment“ vorstellte – Unterhaltung, die gleichzeitig belehrt –, wie er dies in Fallbeispiele zu erreichen versuchte, die er in Form von Dialogen beschrieb (der Humanist Djerassi sah hier natürlich Plato und Galilei als Vorbilder). Unsere Initiative Wissenschaft „aus erster Hand“ für Laien verständlich in Blogform zu kommunizieren, fand seine volle Zustimmung. Natürlich habe ich dann sofort gefragt, ob er uns vielleicht einen Beitrag widmen könnte. Djerassi sagte sofort „Ja“. Er schlug sein eben erschienenes Buch „Schattensammler“, das vor ihm auf dem Tisch lag, auf und wies in seiner präzisen, effizienten Art auf die Passagen hin, die in dem Artikel vorkommen sollten. Wir sind sehr stolz darauf, dass daraus der ScienceBlog-Artikel „Die drei Leben des Carl Djerassi – Chemiker, Romancier, Bühnenautor“ entstanden ist.

    Es war ein überreiches Leben, das nun zu Ende ging.

    Djerassi hat – wie er sagt – sich nie begnügt „innerhalb der Grenzen eines beruflichen oder künstlerischen Betätigungsfeldes zu verharren“. Aus einem vertriebenen, völlig mittellosen Heimatlosen wurde der weltberühmte Chemiker, dessen Synthese von Cortison, dessen Erfindung der hormonellen Schädlingsbekämpfung, vor allem aber dessen Synthese des Wirkstoffs der „Pille“ zu enormen wissenschaftlichen und gesellschaftlichen Konsequenzen geführt haben.

    Aus dem Universitätsprofessor, der die wachsende Kluft zwischen Naturwissenschaften, Geistes-und Sozialwissenschaften und der Massenkultur überbrücken wollte, wurde ein Wissenschaftskommunikator, der im Mantel eines erfolgreichen Romanciers und Bühnenautors neue Formen eines „Edutainment“ entwickelt hat: mit „Science-in-Fiction“ und „Science-in-Theater“ schmuggelt er nun naturwissenschaftliche Inhalte in die Unterhaltung und bringt ebenso einem breiteren, uninformierten Publikum nahe, wie Wissenschafter eigentlich „ticken“.

    Der 16-jährige Djerassi war mit nichts als 10 Dollar in der Tasche nach Amerika geflohen. Er besaß dennoch im Übermaße alles, was ihm zum Erfolg, Ruhm und Reichtum verhelfen sollte: Bildung, Klugheit, Talent, Willensstärke, Kraft und Ausdauer, ebenso wie die Fähigkeiten Andere durch Charisma zu gewinnen, durch Wissen zu überzeugen und sich selbst dabei kritisch zu sehen.


    Weiterführende Links

    Das letzte Interview - rund 6 Wochen vor seinem Tod aufgenommen – zeigt einen sehr nachdenklichen, aber durchaus aktiven Djerassi. Gespräch im Hochhaus - Matt spricht mit Djerassi (19.01.2015, 22:15 Uhr): Video 50:23 min. http://www.w24.at/Gespraech-im-Hochhaus/816923

    inge Tue, 03.03.2015 - 08:57

    Herausforderung Alter(n) – Chancen, Probleme und Fragen einer alternden Gesellschaft

    Herausforderung Alter(n) – Chancen, Probleme und Fragen einer alternden Gesellschaft

    Fr, 06.02.2015 - 08:12 — Christian Ehalt

    Christian EhaltIcon Politik & FGesellschaftWie wollen Politik, Wirtschaft, Gesellschaft und Kultur mit der Bevölkerungsentwicklung umgehen, die die Generationskohorten größenmäßig zugunsten der älteren Menschen verändert? Der Historiker, Soziologe und Wissenschaftsvermittler Christian Ehalt zeigt hier Chancen für positive Neugestaltungen im späten Leben, ebenso aber auch den Verlust an Lebensqualität in einem der Wachstumspolitik völlig untergeordneten Dasein*.

    Die gegenwärtige Welt steht vor vielen Herausforderungen. Da Staaten und Kontinente in vielfältigen Entwicklungen der „Globalisierung“ gesellschaftlich, wissenschaftlich, aber auch unter dem Aspekt der Bewertung ökologischer Probleme zusammenwachsen, macht es erstmals in der Geschichte Sinn, von „der Welt“ zu sprechen. Die nationalen Perspektiven haben ausgedient, werden jedenfalls zurückgedrängt, und auch der europäische Blickwinkel erscheint zunehmend zu eng – er vermittelt außerdem Tradition und Primat einer eurozentrischen Perspektive. Die Kulturen der Welt sind interdependent geworden. Ihre Relationen gestalten sich nicht in feststehenden Beziehungen mit gleichbleibenden Proportionen. Sie sind vielmehr in einem systemischen Zusammenhang, der durch eine „longue duree“, aber auch durch singuläre historische Ereignisse beeinflusst wird. Da können – wie die Chaostheorie feststellt – durch kleine Ursachen große Wirkungen erzielt werden.

    Die Rahmenbedingungen geschichtlicher Entwicklungen und Auswirkungen haben sich im Vergleich zu früheren Epochen nicht fundamental geändert. „Geschichte funktioniert“ wie eh und je als Machtspiel, in dem viel Gestaltungsraum für individuelle Begabung und Potential und die spezifische Konstellation, aber auch für den Zufall ist. Seit dem 20. Jahrhundert schlägt Quantität häufig in Qualität um – es sind die Größenordnungen, die Zahl der agierenden Menschen, die Stärke der eingesetzten Mittel, die Wirksamkeit der Technologien, der eminente Verbrauch an Energie und an den Energie spendenden Ressourcen, die aus quantitativen Änderungen qualitative machen.

    Der „erste Hauptsatz der Ökonomie“,

    der die Knappheit der Ressourcen betrifft, macht den Menschen vor allem zu schaffen. Es ist nicht gleichgültig, wie viele Menschen auf der Erde leben. Das säkulare Bevölkerungswachstum seit dem 19. Jahrhundert bewirkt, dass die für die Menschen wertvollen Rohstoffe immer knapper und damit auch wertvoller werden. Die Ressourcenknappheit verschärft unausweichlich das Verteilungsproblem und vergrößert die Schere zwischen Arm und Reich. Der „ökologische Fußabdruck“ der einzelnen Individuen, eine der Maßzahlen für die Grenzen der Belastbarkeit des Planeten Erde, ist schon lange viel zu groß. Die Berechnungen für den Energieverbrauch in nächster Zukunft sagen allesamt, dass die „Grenzen des Wachstums“, um die legendäre Studie von Dennis Meadows et al. zu zitieren, längst überschritten sind. Die Zahl der Menschen ist vor allem im Zusammenhang mit der mangelnden Bereitschaft, Prinzipien der Nachhaltigkeit in der internationalen Politik zu etablieren, ein Problem.

    In der Politik und ihrem Handeln sollte es um die Menschen gehen, um die Zukunft der Menschen nicht nur in dem kleinen und überschaubaren Zeitraum der nächsten fünf bis zehn Jahre, die von aktuell gewählten und agierenden Regierungen gestaltet werden (können). Es soll, ja es muss gelingen, im Dienst von Nachhaltigkeit zu denken, zu planen, zu gestalten. Nachhaltigkeit meint eine Politik, die eine längere Wirksamkeit bei geringerem Ressourcenverbrauch anstrebt. Eingriffe in die ökologischen Systeme sollten eingeschränkt und zurückgefahren werden, die „Natur“ in größeren Bereichen „sich selbst überlassen“ werden.

    Die Welt braucht eine Politik, das heißt Gestaltungen in allen Segmenten der menschlichen Kultur, die wenigstens in Hinblick auf das Postulat einer Minimierung des Ressourcenverbrauchs auf einem allgemeinen Konsens beruht. Die die Ressourcen betreffenden Strategien sollten auf längere Zeiträume ausgerichtet sein. Anders formuliert: es sollte gelingen, das Management der Ressourcen aus der Tagespolitik fast völlig herauszubekommen; das wird schwierig sein, da Ressourcen ja den Kern des Wertvollen repräsentieren und Politik das Ringen um die Aufteilung der knappen Güter darstellt; und Aufteilung darf nicht mehr auf Kosten von Zerstörung gehen. Die Ressourcen müssen erhalten bleiben. Politik ist dazu gegenwärtig noch nicht fähig. Problem und die daraus resultierenden Lösungsvorschläge werden auf Grund präziser Analysen wohl erkannt, es mangelt jedoch an Umsetzungswillen, an Umsetzungsfähigkeit, an Umsetzungsmöglichkeit. Man begegnet den Problemen noch nicht mit wirksamen Mitteln, weil Politik in einer systemimmanenten „Falle des Kurzzeitdenkens“ (Irenäus Eibl-Eibesfeld) gefangen ist.

    Die alternde Gesellschaft…

    Zu den Problemen, die in der gegenwärtigen Welt konstruktiv zu bearbeiten sind, gehört die Tatsache einer langfristigen Veränderung in den generativen Verhaltensweisen und den daraus resultierenden demographischen Strukturen und Entwicklungen. Aktuelle Veränderungen des demographischen Aufbaus der Gesellschaften zeigen tendenziell eine Zunahme der Bevölkerungsanteile im Alter über 60 und eine Abnahme jener im Alter unter 20. Die Jungen werden weniger, weil im „westlichen Muster“ des generativen Verhaltens tendenziell immer weniger Kinder geboren werden, während andererseits das Lebensalter der Individuen wächst. Die einzelnen Individuen werden älter, die Gesellschaften als Ganzes altern (Abbildung 1). Der alternde „alte Kontinent“

    Abbildung 1 Der alternde „alte Kontinent“. Anteile der 60+ Jahre alten Bevölkerung im Jahr 2010 (Daten CIA World Factbook File:Europe_population_over_65.png; Wikimedia).

    Der langfristige Bevölkerungsschwund durch die sinkenden Geburtsziffern wird durch die davon betroffenen westlichen Gesellschaften nolens volens durch Migration ausgeglichen. In Afrika und Asien wachsen die Bevölkerungen – trotz eindrucksvoller Bemühungen der Regierungen, die Fortpflanzung zu kontrollieren und einzuschränken – noch immer dynamisch an. Mangelnde Bildung und Arbeitsmöglichkeiten führen zu einem stetig wachsenden Bevölkerungsdruck der armen südlichen auf die reichen westlichen Länder.

    …und positive Perspektiven für den Einzelnen

    Die Veränderungen des demographischen Aufbaus in der westlichen Hemisphäre beruhen durchwegs auf positiven Entwicklungen für die einzelnen Individuen. Die Menschen haben in den letzten 200 Jahren auf der Grundlage unterschiedlicher Entwicklungen Möglichkeiten und Chancen bekommen, älter zu werden. Dieses Phänomen vergrößert die Selbstverwirklichungs- und Glückschancen. Das Leben erschöpft sich für den Großteil der Menschen nicht mehr in wenigen Jahrzehnten eines harten Arbeitslebens. Menschen, die in den Ruhestand treten, haben noch einen Lebenshorizont; sie können noch machen – aktiv gestalten -, was sie sich immer gewünscht haben: sich mit interessanten Dingen auseinandersetzen, sich bilden, ein Studium absolvieren, reisen, Sprachen lernen, sich mit Philosophie und existentiellen Fragen beschäftigen. Im Grunde sind dies gerade jene Tätigkeiten, die ein qualitätsvolles Leben auszeichnen könnten: nicht nur mehr festgehalten sein im Reich der Notwendigkeiten, sondern selbstständig und ermächtigt in einem Reich der Freiheit sich mit der eigenen Existenz auseinandersetzen zu können.

    Allein die Tatsache, dass sich eine wachsende Gruppe von Menschen (gegenwärtig in der westlichen Welt bereits mehr als ein Viertel der Bevölkerung) in wirtschaftlich gesicherten Verhältnissen mit existentiellen Fragen beschäftigen kann, oder jedenfalls könnte, zeigt einen Qualitätsgewinn des Lebens. Die Geschichte und die Menschen als ihre Gestalter und Marionetten – sie sind ja immer beides – sind aber wie stets widersprüchlich, in ihrem Denken und handeln ambivalent.

    Integrierung älterer Menschen in das Arbeitsleben

    Obwohl die Wirtschaft und ihre Gestaltungskräfte und Technologien immer wirksamer wurden und werden, obwohl die „Wertschöpfung“ mit wachsender Effizienz immer größer wurde, scheint es so, als ob die Menschheit sich ein Wachstum an Freiheit, Freizeit und Muße im Allgemeinen und der älteren Menschen im Besonderen nicht leisten kann. Überall ist gegenwärtig – mit dem Hinweis auf wachsende Kosten – von einer Erhöhung der Maßzahlen für die Arbeitszeit der Individuen im Tages-, Monats-, Jahres- und Lebensmaßstab die Rede.

    Die längere Integrierung älterer Menschen in das Arbeitsleben kann für die Unternehmungen, die Wirtschaft, die Gesellschaft, die Welt als Ganzes und für die Individuen durchaus positiv sein. Sie schleust die Erfahrungen der Älteren, die ja weitgehend auf sozialem und nicht eindimensional auf technologischem Wissen beruhen, in die aktuellen Arbeitszusammenhänge, sie mindert den Bruch und Konflikte zwischen den Generationen, sie wirkt konservierend, weil von älteren Menschen eher als von jüngeren eine bremsende und bewahrende Haltung ausgeht (im Gegensatz zu früheren Epochen wird Bewahrung zunehmend zu einer Überlebenschance der Menschheit), und sie spart nicht zuletzt Kosten auf dem Arbeitsmarkt.

    Alte Menschen bedeuten – insbesondere in der gegenwärtig wachsenden Zahl – neue Fragestellungen (ich will bewusst nicht sagen Probleme) für Wirtschaft und Gesellschaft. In den letzten Jahrzehnten erreichen weitaus mehr Menschen gesund ein höheres Lebensalter als dies früher der Fall war. Die Kosten für medizinische Versorgung und Pflege müssen also nicht in einer unausweichlichen Linearität ansteigen. Es erscheint auf der Grundlage gerontologischer und geriatrischer Erkenntnisse auch durchaus denkbar und möglich, dass die diesbezüglichen Kosten trotz des eindeutigen demographischen Befunds einer wachsenden Zahl älterer Menschen sinken können.

    Ein reflexives und verantwortungsvolles Leben ermöglicht und gestaltet jene Erfahrungen, die die Welt, das heißt die Gesellschaft und ihre Menschen brauchen (würden), um den Planeten Erde und das Leben auf ihm zu erhalten. Der Menschheit muss es in den nächsten Jahrzehnten gelingen, von einer Situation eines dynamischen, ungebremsten, weitgehend unkritisierten Ressourcenverbrauchs in eine neue, auf Nachhaltigkeit eingestellte Entwicklung umzusteigen. Nachhaltigkeit ist ein Schlagwort, das sehr abgebraucht ist, aber es gibt die richtige Richtung an, weil es sowohl auf die Wirtschaft (die Produktion von Gütern), die Gesellschaft (die Organisation des sozialen Lebens) als auch auf das Leben der Einzelnen (mehr nachdenken, mehr Verantwortung, mehr Gemeinsamkeit, mehr Freude am Gemeinsinn) anwendbar ist.

    Das Paradigma des Wirtschaftswachstums…

    In den aktuellen Diskussionen über Wirtschaft und Gesellschaft, damit auch über Demographie gibt es einen unaufgelösten Widerspruch, der für emotionale, oft ideologisch höchst aufgeladene Diskussionen sorgt.

    Die Wirtschaft geht von einem kaum widersprochenen Wachstumsparadigma aus.

    Ökologisch orientiertes auf Nachhaltigkeit fokussiertes Denken muss dagegen in vielen Bereichen Schrumpfen fordern.

    Schrumpfen ist in hohem Maße unpopulär. Wachsen und Wachstum erscheint, gleich worum es geht, als einzig mögliche Erfolgsstrategie. So ist die Debatte um die schrumpfenden und alternden westlichen Gesellschaften in höchstem Maße paradox.

    Einerseits ist leicht einzusehen, dass die Welt in Hinblick auf die vorhandenen Rohstoffe und die daraus zu gewinnende Energie bereits viel zu dicht bevölkert ist, andererseits gibt es eine sehr selbstbewusste, wenig Widerspruch zulassende Argumentation, dass die Gesellschaften wieder fruchtbarer werden müssten, dass es mehr junge Menschen geben müsste, um den Anforderungen um den Anforderungen einer alternden Gesellschaft mit weniger Arbeitskräften und größerem Pflegebedarf zu begegnen und gegenzusteuern. Politische Konzepte einer Forcierung von Geburtenzahlen, aber auch jene, die auf Beschränkung der Geburten abzielen, hatten stets auch (man denke an den Nationalsozialismus) den Charakter eines mehr oder weniger diktatorischen Eingreifens von Politik in die Privat- und Intimsphäre. Da in der Hierarchie westlicher Werte Demokratie, bürgerliche Selbstbestimmung und Menschenrechte ganz oben stehen, wird es darauf ankommen, den Bereich des generativen Verhaltens von staatlichen Kontrollen und direktiven freizuhalten.

    Das gesamte – „westlich“ – gesellschaftliche Reflexionssystem ist gegenwärtig auf Wachstum eingestellt. Der Westen ist in dieser Hinsicht das universelle Modell der Menschheit geworden. Dem Wirtschaftswachstum muss alles folgen, obwohl längst alte und neue intellektuelle Eliten sehr aussagekräftige Befunde dafür haben, dass das Wachstumsparadigma revidiert werden muss. Immer mehr Menschen ist klar, dass insbesondere alle Fragen des sozialen Lebens, der Gestaltung der Beziehungen nicht nur nach den Zwängen des Wirtschaftswachstums zu beantworten sind.

    …versus Lebensqualität

    Die Realisierung des Postulats des Wirtschaftswachstums macht zwei Systemschwächen deutlich und lässt sie gleichsam wirksam werden: Wirtschaftswachstum bedeutet erstens Ressourcenverbrauch, der schon lange die Grenzen des für ökologische Systeme Verkraftbaren überschritten hat; und zweitens ist Wirtschaftswachstum schon lange nicht mehr mit einer Steigerung der Lebensqualität der Menschen verbunden. Da der einzige Wachstumsindikator, der im gegenwärtigen Wirtschaftssystem tatsächlich wachsen muss, der Shareholdervalue ist und die Realwirtschaft in einer wachsenden internationalen Konkurrenz steht, ist das Wirtschaftswachstum – auch, wenn es tatsächlich stattfindet - häufig mit kleiner werdenden Einkommen für die Beschäftigten verbunden.

    Leidtragende sind ältere Beschäftigte, die ihren Arbeitsplatz verlieren und sich mit kleineren Pensionen abfinden müssen und ebenso jüngere Berufstätige, die damit rechnen können, dass Lebensalter und Pensionsalter immer stärker konvergieren werden und, dass auf ihren Schultern die Lasten des zukünftigen Pensionssystems liegen werden.

    Warum in einer historischen Entwicklung, in der Effizienz und Wirksamkeit von Arbeit durch wissenschaftliche Innovation, Logistik und wachsende „Hebelwirkung“ immer größer werden, die Arbeitenden in immer prekäreren Verhältnissen leben, liegt vermutlich daran, dass die Früchte von Effizienz, Rationalisierung und angewandter innovativer Wissenschaft nicht zu ihren Gunsten verteilt wurden.

    Unverständlich jedoch ist, warum die Wachstumsdiskussionen, die die westliche Politik kennzeichnen, nur im Hinblick auf Wirtschaftsdaten geführt werden, die schon lange keine Zunahme von Wohlstand spiegeln und nicht in Hinblick auf Faktoren, in denen Lebensqualität von Menschen (unversehrte Naturräume, Zeit zu leben, zu denken, für Beziehungen, für Kunst und für das Nachdenken über das Leben) zum Ausdruck kommt.

    Das Wachstumsdenken fördert bei Menschen einen neuen Sklavenstatus und eine entsprechende Mentalität, in denen Menschen bereit sind, ihre gesamte Zeit, ihr gesamtes Streben und Denken dem nackten – fremdbestimmten Überleben zu widmen.

    Das Durchschnittsalter der europäischen Bevölkerung steigt gemäß der Bevölkerungsprognose der EU kontinuierlich an – gegenwärtig liegt es bei 39, 3 Jahren. Im Jahr 2030 wird es nach aktuellen Schätzungen zwischen 42 und 48 Jahren liegen. Dementsprechend werden die Berufstätigen im Durchschnitt älter sein, die Zahl der zwischen 50 und 60 Jahre alten stark ansteigen, die Zahl der unter 29-jährigen dagegen abnehmen. Die Kosten der ständig wachsenden Zahl der über 60-Jährigen belasten das Pensionssystem (Abbildung 2).

    2060 wird im Schnitt ein 65+ Jähriger auf 2 Personen im erwerbsfähigen Alter kommenAbbildung 2. 2060 wird im Schnitt ein 65+ Jähriger auf 2 Personen im erwerbsfähigen Alter kommen (Prognose der Europäischen Kommission, http://epthinktank.eu/2013/12/19/ageing-population-projections-2010-2060-for-the-eu27/fig-3-7)

    Es wird daher fraglos notwendig sein, dass das reale Pensionsantrittsalter höher wird.

    Auch dies ist ambivalent. Einerseits lindert eine höhere Zahl von älteren Berufstätigen in der Arbeitswelt die Kluft zwischen ihnen und Rentnern und den daraus resultierenden Generationenkonflikt. Andererseits ist die Arbeitswelt in den letzten 15 Jahren keineswegs ruhiger, kreativer, kollegialer, soldarischer geworden – genau das Gegenteil ist der Fall. Die Anforderungen sind extrem gestiegen, Kontrolle, Disziplinierung, Überwachung jedes Arbeitsschritts (euphemistisch „Monitoring“) sind ständig gewachsen und viele reagieren auf diesen Druck mit Burn-out.

    Wenn ein Arbeitsleben in dieser Anforderungs- und Drucksituation nicht mehr nur einen Lebensabschnitt, sondern tendenziell das ganze Leben ausfüllt, dann erscheint dies auch als Rückfall in die vorindustrielle Gesellschaft bei Verschärfung einer in Hinblick auf das 19. Jahrhundert mindestens verdoppelten Lebenserwartung. Von den Menschen wird erwartet, dass sie mehr und länger arbeiten und eine immer größere Verantwortung dafür übernehmen, dabei gesund zu bleiben. Arbeitswelten, die immer stärkere Leistungs- und Effizienzdrucke ausüben und gleichzeitig jene Werte und Sinne reduzieren, die die Arbeit und letztlich auch das Leben sinnvoll und lebenswert gemacht haben, beeinträchtigen empfindlich die viel zitierte „Work-Life-Balance“, Die tendenzielle Verlängerung des Arbeitslebens – mit dem Zielpunkt „lebenslänglich“ – bedeutet letztlich auch eine Minderung des Lebenssinnes, den Menschen haben und leben können.

    Wie geht es weiter?

    Wie wollen Politik, Wirtschaft, Gesellschaft und Kultur mit den Tatsachen der Bevölkerungsentwicklung umgehen, die jedenfalls im Westen die Anteile der Generationskohorten größenmäßig zugunsten der älteren Menschen verändert?

    Die Gesellschaft mit mehr älteren, mehr alten Menschen, der Umgang mit den daraus resultierenden Problemen, für alle gesellschaftlichen Teilsysteme, für die Institutionen und natürlich für die Menschen selbst ist eine Herausforderung für die Individuen und die Kollektive.


    *) Der vorliegende Artikel ist die leicht gekürzte und für den Blog adaptierte Fassung des Essays, mit dem der Autor den Sammelband „Herausforderung Alter(n)“ eingeleitet hat. Dieser erste Band einer Buchreihe „Herausforderungen“ ist vor wenigen Wochen erschienen (Hubert Christian Ehalt Hsg, Verlag Bibliothek der Provinz, edition seidengasse; http://www.bibliothekderprovinz.at/buch/6351/) .


    Weiterführende Links

    European Commission: The 2015 Ageing Report http://ec.europa.eu/economy_finance/publications/european_economy/2014/p...

    Bevölkerungsprognosen für Österreich (2014) http://www.statistik.at/web_de/statistiken/bevoelkerung/demographische_p...

    Wolfgang Lutz: Demographische Entwicklung und Humanressourcen für Österreichs Zukunft. 10.10.2011

    Präsentation: http://www.sozialpartner.at/sozialpartner/badischl_2011/Bad-Ischl-Lutz.pdf

    Videos

    Forschung trifft Praxis: Alternde Welt? Demografischer Trend und entwicklungspolit. Herausforderung (Deutsche Gesellschaft für Internationale Zusammenarbeit GIZ). Video 5: 40 min.

    Artikel im ScienceBlog zum Thema Altern

    Ilse Kryspin-Exner: Aktiv Altern: 2012 war das Europäische Jahr für aktives Altern und Solidarität zwischen den Generationen http://scienceblog.at/aktiv-altern-2012-war-das-europäische-jahr-für-aktives-altern-und-solidarität-zwischen-den-generatio.

    Assistive Technologien als Unterstützung von Aktivem Altern

    Georg Wick: Auf dem Weg zu einer neuen Emeritus-Kultur in Österreich?


     

    inge Fri, 06.02.2015 - 08:12

    Reaktionen auf globale Bedrohungen: Ignorieren – Verdrängen – Dramatisieren

    Reaktionen auf globale Bedrohungen: Ignorieren – Verdrängen – Dramatisieren

    Fr, 31.01.2015 - 06:51 — Ortwin Renn

    Ortwin RennIcon Politik & GesellschaftWie nehmen wir welche Bedrohungen wahr? Der Technik- und Umweltsoziologe Ortwin Renn legt dar, dass wir uns vor den falschen Dingen fürchten, dass wir individuelle Lebensrisiken dramatisieren, aber die echten, von ihm als systemische Risiken bezeichnete Bedrohungen unterschätzen. Systemische Risiken sind global und betreffen jeden, werden aber dennoch häufig verdrängt, da kein festgelegter Zusammenhang zwischen Ursache und Wirkung erkennbar ist. Diese Risiken sind Folge des zunehmenden Ausmaßes menschlicher Eingriffe in natürliche Kreisläufe, der Steuerungskrisen in Wirtschaft und Politik und der Modernisierung, die zur Ungleichheit der Lebensbedingungen, Verwundbarkeit unserer technischen Systeme und Identitätsverlusten geführt hat.*

    FrühmenschenVor ungefähr 15 000 Jahren saßen 4 Frühmenschen vor einer Höhle und besprachen ihre Situation. Der Erste sagte: „Wir haben doch ein hervorragendes Leben. Wenn ich Wasser hole, ist es ganz rein und nicht verschmutzt“. Der Zweite sagte: „In der Luft haben wir überhaupt keine Schadstoffe“, darauf der Dritte: „Unsere Lebensmittel sind alle biologisch dynamisch“ und der Vierte: „Großen Stress haben wir auch nicht“. Da sahen sie sich an, und dann meinte der Erste. „Wir haben nur ein Problem: warum werden wir nicht älter als 30 Jahre?“

    Was hinter dieser Geschichte steht?

    Dass wir viele unserer Risiken dramatisieren, aber andere Risiken, für die es sich lohnt sehr stark einzustehen, eher verdrängen oder ignorieren.

    Reduktion individueller Risiken…

    Von den Frühmenschen zur Moderne: Mädchen, die jetzt in Österreich geboren werden, haben eine Lebenserwartung von 86 Jahren, Jungen von 82 Jahren. Das ist sensationell: bis zum Beginn des 20. Jahrhunderts kamen nur die wenigsten Menschen in unseren Gesellschaften so nahe an die Grenzen ihren biologisch gegebenen Lebensspanne. Heute sterben in Österreich bloß 1,28 % der Menschen vor ihrem 65. Lebensjahr. In einem afrikanischen Land dagegen (beispielsweise das eigentlich noch recht stabile Sambia) erreichen 56 % der Menschen nicht ihr 65stes Lebensjahr.

    …eine Erfolgsgeschichte

    Hauptgründe dafür, dass wir das Risiko für die gesamte Bevölkerung sehr stark reduzieren konnten, sind

    • die Etablierung der Hygiene,
    • die Technisierung unserer Welt und Umwelt. Dadurch wurden viele Risiken, vor denen wir Schutz , Geborgenheit, aber auch gesellschaftliche und soziale Sicherheit brauchen, verringert,
    • die Ernährung, die - anders als uns Nostalgiker weismachen wollen - früher viel schlechter war - durch Ernährungsmangel sind bis in die Mitte des 20 Jahrhunderts große Probleme aufgetreten,
    • die Errungenschaften - Hygiene, Technik und ausreichende Ernährung - stehen nicht nur für eine Elite der Gesellschaft, sondern im Prinzip für fast alle zur Verfügung. Könige und Kaiser haben auch früher relativ lang gelebt, nicht aber das einfache Volk.

    Wir haben in unseren Lebensbereichen einen Großteil der Risiken, vor allem Krankheitsrisiken, sehr stark reduzieren können. Unsere Lebensumstände, die bedingt sind durch technische Zivilisation aber auch durch die modernen Lebensweisen, haben wir sehr stark von alltäglichen Risiken befreit und uns gegen Gefahren institutionell und individuell weitgehend abgesichert. Dazu ein paar Zahlen:

    Arbeitsunfälle gehören weltweit zu den größten Todesrisiken der Menschheit, jährlich sterben daran 2,3 Millionen Menschen (mehr als an allen Infektionskrankheiten zusammen). Diese Risiken sind in den OECD Ländern in dramatischer Weise gesunken. Gab es 1962 z.B. in Deutschland knapp 5000 tödliche Arbeitsunfälle, waren es 2013 nur noch 472. Auch andere Unfälle wurden hier stark reduziert: 1970 gab es 22 000 Verkehrstote, heute 3500; Freizeitunfälle verursachten 1976 rund 14 000 Tote heute knapp 7 000.

    Weitere Reduktion von Gesundheitsrisiken

    Es gibt also Erfolge in den klassischen Risikobereichen. Diese sind auch eine Ermutigung, an die Risiken, wo wir diese Erfolge nicht haben, mit demselben Elan, demselben Mut heranzugehen, wie bei den Risiken, die wir enorm reduziert haben.

    Umweltbezogene Risiken sind gegenüber anderen Gesundheitsgefährdungen weitgehend zurückgetreten. Wenn wir individuell unsere Gesundheitsrisiken weiter reduzieren wollen, dann sind es die bekannten vier Volkskiller, die unser Leben beeinträchtigen:

    Rauchen, übermäßiges Trinken, unausgewogene Ernährung und Bewegungsmangel.

    Ungefähr ⅔ aller vorzeitigen Todesfälle in den OECD Ländern, lassen sich darauf zurückführen. Dies sind Risiken,

    die wir individuell zum großen Teil steuern können (das war vor 300 Jahren, selbst vor 100 Jahren noch nicht der Fall - sehr viele Risiken waren damals von außen gesteuert).

    wo dort, wo wir institutionelle Formen der Risikoreduzierung brauchen, diese in unseren Ländern greifen - zumindest so weit, dass wir heute sagen: dies ist tolerierbar.

    Systemische Risiken - globale Bedrohungen

    Bei systemischen Risiken handelt es sich darum, dass die Funktionalität eines Systems durch ein Ereignis gefährdet wird, das dann das ganze System aus den Angeln hebt. Viele Risiken tun dies nicht, sie reduzieren vielleicht die Gesundheit, die Sicherheit, möglicherweise das Einkommen. Systemische Risiken dagegen sind solche, die sozusagen an der Grundstruktur- am Rückgrat - der Funktionalität ansetzen.

    Systemische Risiken sind durch vier Merkmale gekennzeichnet:

    1. Sie sind global. Jeder ist davon betroffen, egal wo er lebt; niemand kann sich im Prinzip diesen Risiken entziehen.
    2. Sie sind vernetzt. Wenn ich an einer Stellschraube ziehe, ergibt dies ein hohes Maß an Komplexität: an Veränderungen von unterschiedlichsten Faktoren, welche die Risiken in unterschiedlicher Weise beeinflussen, sodass die ursprüngliche Ursache-Wirkungsbeziehung entweder gar nicht mehr oder in sehr veränderter Form auftaucht. Komplexe Systeme zeichnen sich vor allem durch ungewöhnliche Konsequenzen aus: durch die vielen intervenierenden, variablen Rückschleifen werden sie für uns nicht mehr prognostizierbar und oft sogar schwer erklärbar.
    3. Sie sind nichtlinear. Dies bedeutet, dass lange Zeit gar nichts passiert und dann passiert plötzlich alles – wie, wenn man einen Schalter umlegt und das Licht ausgeht. Das Problem der meisten nichtlinearen Systeme, wie wir sie beispielsweise im ökologischen Bereich kennen, ist, dass sie größtenteils irreversibel oder nur sehr langsam umkehrbar sind. Wenn beispielsweise der Golfstrom im Rahmen des Klimawandels versiegen sollte, dann lässt sich dies nicht so einfach mit etwas weniger Kohlendioxyd rückgängig machen. Bis der Golfstrom wieder angeht, wird es mindestens einige hundert Jahre dauern, selbst, wenn alle Voraussetzungen dafür geschaffen werden. Oder denken Sie an die Finanzkrise: lange Zeit haben alle verdient, jeder hat gesagt: „Es funktioniert doch wunderbar - was sollen die Unkenrufe?“. Irgendeinmal platzt dann das Ganze. Und da geht's dann wie mit Dominosteinen: einer nach dem anderen fällt um.
    4. Sie sind stochastisch – es bestehen keine festgelegten Beziehungen zwischen Ursachen und Wirkungen, nur Wahrscheinlichkeiten. Dies bedeutet, dass eben Unsicherheit besteht, wie bestimmte Eingriffe des Menschen Konsequenzen zeitigen. Wir können diese zwar modellieren, müssen aber über deren genaues Ausmaß und Intensität spekulieren – wir haben keine festen numerischen Daten, die uns mit Sicherheit sagen lassen was passiert, wenn beispielsweise Fall A eintritt.

    Diese vier wesentlichen Kennzeichen führen dazu, dass wir derartige Risiken nicht so dramatisieren wie vielleicht andere, die sich tagtäglich begeben, von denen wir aber glauben, dass sie uns enorm belasten, wie etwa der „Schadstoff der Woche“. Systemischen Risiken gegenüber verhalten wir unser eher fast zurückhaltend, um es sehr gelinde auszudrücken, und verdrängen oder ignorieren diese sogar meistens.

    Wahrnehmung systemischer Risiken

    Wir nehmen Risiken anders wahr, als wie sie aus der wissenschaftlichen Analyse erkennbar sind. Auf bestimmte Risiken reagieren wir besonders intensiv, auf andere eher zurückhaltend. Dahinter steht, dass wir anthropologisch darauf gepolt sind, Kausalitäten als etwas örtlich und zeitlich Naheliegendes zu sehen. Das hatte seinen Sinn: als der Frühmensch aus dem Dschungel in die Savanne kam, war es für sein Überleben wichtig, dass er Gefahren schnell erkannte und darauf schnell reagierte – ob er die Gefahr immer zu 100 % erkannte, war vielleicht für den einzelnen, nicht aber für die Gesellschaft problematisch.

    Diese Einstellung bewegt uns auch heute noch. Bei allem was wir an Negativem oder auch Positivem erleben, fragen wir immer danach, „was war kurz vorher, was ist zeitlich nah“. Dieser intuitive Mechanismus versagt gerade bei systemischen Risiken sehr häufig. Wir versuchen dann dafür Sündenböcke zu finden, die nah sind und, die wir zeitlich zuordnen können. Wenn uns Wissenschaftler dann sagen „Nein, das sind ganz andere, sehr komplizierte Prozesse“ verlieren wir das Interesse daran - das ist für uns intuitiv nicht nachvollziehbar.

    Globale Risiken und das Allmende-Dilemma

    Eigentlich würde man meinen: je globaler etwas ist, desto eher werden wir auch entsprechend eingreifen. Das Gegenteil ist der Fall. Globalität heißt auch: alle sind betroffen. Wenn aber alle betroffen sind, tut niemand etwas. Wir nennen das häufig das Allmende-Dilemma. Wenn alle ein öffentliches Gut haben wollen - egal welches (Finanzsicherheit, Klima, soziale Gerechtigkeit, etc.), dann ist es für den Einzelnen rational zu sagen: wenn alle andern sich dafür einsetzen, krieg‘ ich ja den Nutzen auch ohne selbst beizutragen. Wenn beispielsweise alle sich impfen lassen, ich aber nicht, dann hab ich trotzdem den Schutz, weil die Krankheit sich ja nicht mehr ausbreitet. Wenn zu viele so denken, sind alle geschädigt.

    Wichtig ist, dass beim Auftreten globaler Probleme niemand einen wirklichen Anreiz hat als Erster etwas zu unternehmen. Handelt einer als Erster, dann ist es wirkungslos, wenn die anderen 99 % nichts tun; machen es alle, dann sagt sich jeder einzelne, da brauch‘ ich selbst nichts zu tun, der andere tut’s ja.

    Das Dilemma bei globalen Risiken ist es, dass auf nationaler Ebene die Staaten - wie beim Klimawandel - sich nicht einigen. Weil jeder Staat sagt: „Wenn alle andern was tun, dann brauch ich ja nichts zu machen“ oder, wenn ein Staat sagt: „Ich will Vorreiter sein, ich tu etwas“ und die anderen tun nichts, dann hat dies keinen Effekt.

    Das ist die gegenseitige Lähmung, die mit dem Dilemma verbunden ist.

    Vernetzte, nichtlineare…

    Hochvernetzte Systeme sind komplex, komplexe Formen sind kontraintuitiv – wir können sie schlecht nachvollziehen. Da lässt sich keine Geschichte darum weben; die Folge davon ist: Ignorieren.

    Dies wird noch verstärkt durch die beiden anderen Risikomerkmale: Nichtlinearität und Stochastik.

    Die Nichtlinearität sagt letztlich nichts anderes als beispielsweise: „Ich höre der Klimawandel droht, merke aber nichts. Dass es bisschen wärmer wird hat noch niemandem geschadet - worüber regen sich die eigentlich auf?“ Solange ich also nichts merke, habe ich nicht den Eindruck, dass ich was tun muss. Nichtlinearität kennen wir auch von anderen Phänomenen: denken sie an Gewässer, die plötzlich umkippen. Es ist dann sehr schwer, diese wieder zu lebendigen Systemen zu machen.

    …und stochastische Risiken

    Die Stochastik zeigt uns immer wieder Möglichkeiten, dass die Dinge doch nicht so schlimm sind, wie sie aussehen. Wenn Sie beispielsweise sagen: „Rauchen schafft Lungenkrebs“, ist die Antwort: „Das stimmt in der Tendenz, aber nicht für alle“. In einer Versammlung von Rauchern sagen bestimmt welche „mein Opa ist 95 Jahre; der hat geraucht wie ein Schlot und lebt wunderbar“. Oder umgekehrt: „Von wegen Bewegung und gesunder Ernährung – mein Vetter hat sich wunderbar ernährt, ist immer ins Fitness Center gegangen und mit 32 kriegt er einen Herzinfarkt“.

    Ja, das gibt es. Bei stochastischen Phänomenen existiert eben keine eindeutige Beziehung zwischen Ursache und Wirkung.

    Unser Kausalitätsdenken ist auf Nahes bezogen. Dass ein 95-jähriger noch raucht, ist sehr viel mehr evident als alles, was Wissenschafter uns in irgendeiner Form beibringen wollen. Das ist beim Raucher im Kleinen so und beim Klimamodell im Großen. „Ehe wir uns nicht 100 % sicher sind, brauch‘ ich gar nichts zu machen".

    Das Problem ist, bei stochastischen Risiken kriegen sie nie 100 %. Das ist oft schwer darzulegen. „Mehr Forschung, das bringt doch mehr Sicherheit“ - die Unsicherheit wird damit besser charakterisierbar, aber sie bleibt. Es gibt keine festen Beziehungen zwischen einer Verursachung und einer Wirkung, sondern diese streuen – d.i. aus der Quantenphysik schon lange bekannt, aber es kommt eben auch außerhalb des kleinen Teilchenbereich, auch in komplexen Zusammenhängen vor. Wir haben dann noch immer einen Strohhalm: na, so schlimm wird’s schon nicht kommen.

    Risikobereiche von Systemrisiken

    Die Merkmale: global, hochvernetzt, nichtlinear und stochastisch treffen auf drei Risikobereiche zu:

    Bereich 1: Eingriffe des Menschen in natürliche Kreisläufe

    Der Mensch hat die Natur immer verändert und die Kultivierung der Natur für unsere Zwecke ist seit der neolithischen Revolution – also seit 10 000 – 12 000 Jahren – unser Erfolgsrezept. Es ist auch ein Teil unserer Risikoreduzierung.

    Neu ist – und das erst seit 50 – 70 Jahren -, dass wir im Rahmen der Interventionen die in unserer natürlichen Umwelt herrschenden, großen (bio)chemischen Kreisläufe nennenswert beeinflussen. Promillemäßig haben wir das immer gemacht - wir sind jetzt in Prozentwerten; das gilt für den CO2 Gehalt ebenso wie viele andere Kreisläufe. Bedingt durch die Vielzahl der Menschen und unsere technische Dominanz, hat sich die Wirkkraft unseres Handelns so verstärkt, dass wir heute die globalen Kreisläufe beeinflussen.

    Das hat große Folgen.

    Wir haben in der Vergangenheit schon häufig unsere Umwelt bis zur Unkenntlichkeit zerstört, dies war aber immer regional. (Beispiele sind die Verkarstung weiter Landstrichstriche, die Verschmutzung von Flüssen durch die Textil- und Lederindustrie). Jetzt ist es eine globale Bedrohung. Das, was wir normalerweise in der Wissenschaft und auch in der Wirtschaft tun, nämlich „try and error“ (versuchen und irren), können wir uns nicht mehr leisten. Wenn wir meinen „warten wir ab, ob sich der Klimawandel wirklich so negativ auswirken wird“, werden wir eine globale Veränderung haben, von der wir heute schon sagen können „Wenn die kommt, dann wollen wir diesen Irrtum nicht erleben - warum haben wir nichts zur Prävention getan?“. Prävention kostet. Also Kosten tragen für etwas, wo wir die negative Seiten noch gar nicht merken, sondern nur simuliert bekommen und auch das nur mit Wahrscheinlichkeiten, niemals mit Sicherheit?

    Ähnliches erleben wir auch massiv im Umweltbereich, wo gesagt wird „Mit Sicherheit wissen wir nicht, woher XY überhaupt kommt und dafür soll unsere schöne Wirtschaft reduziert, sollen Arbeitsplätze vernichtet werden, damit wir uns auf ein Risiko einstellen, das vielleicht gar nicht eintritt.“

    Bereich 2: Steuerungskrise

    Heute entscheidet das Government. In einer kollektiven Form, in der wir leben – jeder Mensch ein Sozialwesen –, benötigen wir Steuerungsformen, um die kollektiven Prozesse einigermaßen regeln zu können. Steuerungsprozesse müssen wir heute global ansehen, weil Dinge, die in einem Land gesteuert werden, Auswirkungen auf Steuerungsformen in anderen Ländern haben. Ein Beispiel ist der Markt – ein Steuerungsinstrument, das Regeln aufsetzt, wie bestimmte Güter beispielsweise akquiriert und verteilt werden. Wenn diese Steuerungsmechanismen nicht mehr funktionieren, dann haben wir genau diese systemischen Ereignisse - global, miteinander vernetzt, nichtlinear und stochastisch.

    Bestes Beispiel dafür war die Finanzkrise: ein Verlust der Steuerungsfähigkeit a) innerhalb des Finanzsektors selber und b) in der Aufsichtsbehörde und der Aufsicht von Politik und Gesellschaft. Steuerungsformen, die nicht mehr gegenseitig kontrollierbar sind, sondern sich partiell optimieren - hinterher sehen wir, dass wir eng am Kollaps des gesamten Steuerungssystems vorbeigingen.

    Steuerungskrisen haben wir auch im politischen Bereich. Die Korruption beispielsweise hat Auswirkungen auf die gesamte Entwicklung eines Landes, kann seine totale Funktionalität außer Kraft setzen. Auch da sehen wir sehr häufig globale Auswirkungen und eine starke Vernetzung. Das Phänomen Korruption ist oft nichtlinear, geht hoch bis das gesamte System durchlöchert ist und zusammenbricht. Es ist auch häufig stochastisch: manche Länder kommen mit Korruption ganz gut zurecht, viele Länder aber nicht.

    Bereich 3: Modernisierung

    Hier handelt es sich um Risiken, die mit der starken Transformation von Gesellschaften des Übergangs – Vormoderne zu Moderne, Moderne zu Postmoderne - verbunden sind. Derartige Risiken können durch drei Faktoren bedingt werden:

    Ungleichheit

    Ungleiche Lebensverhältnisse hat es immer und in allen Gesellschaften gegeben. Eine absolute Gleichverteilung von Ressourcen und Macht hat es nie gegeben und sie wird auch nie funktionieren. Aber jede Gesellschaft hat großen Wert darauf gelegt, bestehende Ungleichheiten zu rechtfertigen, so dass auch diejenigen, die unten waren, glauben konnten, dass das, wie verteilt wurde, einigermaßen gerechtfertigt war. Man war wenigsten bemüht zu rechtfertigen. Bis hin zum absoluten Herrscher, dessen Gottesgnadentum Rechtfertigung war. Das zerbrach in der französischen Revolution.

    Heute spricht man vor allem von der Ungleichheit der Lebenschancen und Möglichkeiten und stellt fest, dass diese enorm zugenommen hat. In den US verdient der durchschnittliche Arbeiter in einer großen Aktiengesellschaft heute ungefähr ein Dreihundertstel von dem, was der erste Manager verdient. Vor 30 Jahren war es ein Dreißigstel. 87 Menschen in dieser Welt haben mehr Vermögen, als die Hälfte der gesamten Menschheit. Selbst denjenigen, die privilegiert sind, fällt nichts mehr ein, um diese Ungleichheit zu rechtfertigen. Es wird hingenommen. Dann erfolgen soziale Proteste, Rückzug in Fundamentalismus, Terrorismus - großteils Reaktionsmuster von Ungleichheit. Menschen, die eigentlich das Potential haben an den Möglichkeiten mitzuwirken, auch einen Teil des gesellschaftlichen Reichtums zu erhalten, wird dies verwehrt.

    Das gilt für unsere Gesellschaften nicht so extrem wie für andere, aber weltweit ist dies gegeben. Die Ungleichheit ist überall, hochvernetzt, nichtlinear – es dauert lange bis es plötzlich ausbricht – und stochastisch.

    Verwundbarkeit unserer technischen Welt

    Ich meine hier nicht nur Kernkraftwerke, sondern auch den gesamten Bereich des Internets, der so hoch verwundbar uns macht, dass einzelne Personen die Funktionalität dieser Systeme außer Kraft setzen können. Mit so großen Folgen, dass keiner sie haben will. Die Auseinandersetzung über amerikanische Geheimdienste, die alle unsere Daten haben wollen und die Frage der Sicherheit gegen Terrorismus, sind vor diesem Hintergrund zu sehen.

    Ob man das gut oder schlecht findet, ist keine Frage. Wenn wir überall Kameras aufsetzten, könnten wir Morde verhindern Bei „normaler Kriminalität“ - 2 – 3 Personen pro 100 000 - will das niemand, damit können wir leben. Beim Cyberterrorismus ist es anders. Da reicht eine einzige, sehr gewitzte Person, um eine Verwundbarkeit auszulösen, die keiner haben will. Da kommen wir an die Grenze dessen, wo wir sagen: „Wollen wir diese hohe Verwundbarkeit zulassen und wollen wir dafür den Preis zahlen?“

    Verlust der personalen Identität

    Identität ist eine Form der Selbstfindung des Menschen, sein Selbstbild.

    Es gibt die berühmten Kränkungen von Freud: erstens, dass sich die Sonne nicht um die Erde dreht, zweitens die Darwin’sche Logik der Evolution, drittens das Unbewusstsein. Heute erleben wir eine vierte Kränkung. Diese wird davon gespeist, dass

    i) unsere Maschinen teilweise Dinge übernehmen, von denen wir glauben das können nur Menschen,

    ii) unsere Gehirnforscher sagen, dass es zumindest biodynamisch nicht stimmt, wenn wir glauben, dass wir freie Menschen mit einem freien Willen sind,

    iii) unsere Gesellschaft das, was den Einzelnen ausmacht, immer weniger als Solchen nachfragt und somit Anonymisierung, Pluralisierung, aber auch ein Verlust an Geborgenheit damit einhergeht,

    iv) ein Verlust an Sinnfindung eintritt. Es gibt genügend Angebote, aber wenige die überzeugen. In anderen Gesellschaften ist das anders.

    Unter diesen Sichtweisen verlieren viele Menschen den Glauben an sich.

    Wir haben, wie eingangs erwähnt, Krankheitsrisiken reduziert, die Sicherheit wesentlich verbessert, die Lebenserwartung wesentlich erhöht. In einem Punkt haben wir die Risiken verstärkt - im Bereich psychischer/psychosomatischer Erkrankungen. Bei den 1,28 % der Menschen, die in Österreich vor dem 65. Lebensjahr sterben, steht Krebs an erster Stelle, dann kommen kardiovaskuläre Erkrankungen und bereits an dritter Stelle steht der Suizid, noch vor dem Tod durch Unfälle. Es ist ein nahezu für alle OECD-Länder typisches Risiko, das systemisch für eine Gesellschaft steht, die offensichtlich dem einzelnen nicht mehr das geben kann, was er braucht um sich psychisch wohl zu fühlen. Unter all unserem materiellen Wohlstand ist dies ein Manko, mit dem wir zu rechnen haben.

    Fazit

    Es gibt viele Gefahren, vor denen wir uns fürchten und fürchten müssen.

    Wir haben viele Risiken reduziert, wir haben also die Fähigkeit Risiken zu reduzieren. Wir haben uns dadurch aber auch neue Risiken aufgebaut, systemische Risiken, die die Funktionalität unseres Zusammenlebens bedrohen. Diese müssen wir angehen. Dass man den Menschen nicht Zynismus und Fundamentalismus beibringt als Reaktion auf die Moderne, sondern eine Form des reflektierten Humanismus , der es Menschen wieder ermöglicht mit eigenem Engagement daran zu gehen diese systemischen Risiken für die Zukunft und zukünftige Generationen zu reduzieren!


    * Der Artikel ist die gekürzte Fassung des gleichnamigen Vortrags, den Ortwin Renn am 24. November 2014 im Festsaal der ÖAW in Wien gehalten hat. Ein Audio-Mitschnitt findet sich auf der Seite: http://www.oeaw.ac.at/kioes/gefahren.htm

    **Eine faszinierende, ausführliche Behandlung des Themas ist kürzlich in Buchform erschienen:

    Renn, O.: Das Risikoparadox. Warum wir uns vor dem Falschen fürchten. Frankfurt am Main (Fischer 2014). Daraus eine16-seitige Leseprobe: http://www.fischerverlage.de/media/fs/308/LP_978-3-596-19811-5.pdf und ein Video der Buchvorstellung:

    Homepage des Autors: http://www.ortwin-renn.de/


    Weiterführende Links

    Ortwin Renn et al., (2007) Systemische Risiken: Charakterisierung, Management und Integration in eine aktive Nachhaltigkeitspolitik (PDF-Download)

    Ortwin Renn et al., Die Bedeutung anthropogener Eingriffe in natürliche Prozesse: die Wechselwirkungen zwischen Naturgefahren und Risiken. (PDF-Download)

    Interview mit O. Renn: http://www.zeit.de/2014/16/interview-risikoforscher-arbeit-sicherheit

    Videos mit O.Renn

    Scobel Risiko (2011) 58:04 min

    "Riskante Zukunft? Was uns bedroht und wie wir es erkennen können" (2013) 46:54 min

    Warum wir uns vor dem Falschen fürchten (2014) 45:51 min.


     

    inge Sat, 31.01.2015 - 06:51

    Der besondere Saft

    Der besondere Saft

    Fr, 23.01.2015 - 08:14 — Gottfried Schatz

    Wie unsere Blutzellen reifen – und sterben. Gottfried SchatzIcon BiologieDie Reifung unserer verschiedenen Blutzellen wird nicht nur von deren Genen, sondern auch von anderen Zellen und vom Zufall bestimmt, wobei jeder Reifungsschritt die Möglichkeiten der weiteren Entwicklung einengt. – Der Schicksalsweg einer Blutzelle gleicht so in vielem dem eines Menschen.

    «Blut ist ein ganz besonderer Saft», mahnt Mephistopheles den übermütigen Faust, der den Wert seiner in Blut geleisteten Unterschrift verspottet. Blut gilt seit Urgedenken als Symbol des Lebens. Es versorgt unseren Körper mit Nahrung und Sauerstoff, schützt ihn vor bedrohlichen Eindringlingen und durchspült ihn mit Hormonen und anderen Wirkstoffen, die den Gleichklang der Zellen regeln.

    Unser Blut ist jedoch eher ein Symbol des Todes. Die 25 000 Milliarden roten Blutkörperchen, die in ihm treiben, sind abgestorbene Zellen, die ihr Erbmaterial und fast alle Zellorgane verloren haben. Dennoch tragen sie etwa 120 Tage lang unermüdlich Sauerstoff aus der Lunge in die Gewebe, bis Fresszellen in der Milz oder der Leber sie verschlingen. Etwa 200 Milliarden von ihnen fallen täglich diesem Massaker zum Opfer. Und unsere 1500 Milliarden Blutplättchen sind nichts weiter als leblose, von Spenderzellen abgeschnürte Bläschen, welche die Gerinnung des Blutes in Wunden einleiten. (Abbildung).

    Abbildung; Mikrokosmos Blut. Links: Der Blutausstrich zeigt überwiegend kernlose Eryzhrozyten (Bild: modifizert.nach Wikipedia). Rechts: 3 Arten Blutkörperchen: Erythrozyten, Leukozyten und Thrombozyten (Bild modifiziert nach: Blausen.com staff. "Blausen gallery 2014". Wikiversity Journal of Medicine 1 (2)).

    Ein Mikrokosmos

    Dennoch trägt Blut auch Leben. Die 50 Milliarden weißen Blutkörperchen – die Leukozyten – sind lebendige, vollwertige Zellen. Sie verteidigen uns gegen Infektionen und bilden eine weitverzweigte Familie, deren Mitglieder unterschiedliche Aufgaben wahrnehmen. Viele von ihnen entweichen sogar dem Blutkreislauf, um auch in den Geweben oder der Lymphe ihres Wächteramtes zu walten. Dennoch sind auch Leukozyten Symbole des Todes: Um bei Gefahren als schnell abrufbare Reserve bereit zu sein, warten unzählige von ihnen untätig im Knochenmark und begehen schließlich dort Selbstmord, ohne je eine Wirkung entfaltet zu haben. Wieder andere weiße Blutzellen töten sich, wenn der Thymus erkennt, dass ihr immunologisches Geschütz sich gegen uns selbst richten könnte.

    So sind die fünf Liter unseres Blutes ein Mikrokosmos, in dem sich Leben und Tod helfend die Hände reichen – und der uns beispielhaft zeigt, wie eine befruchtete Eizelle die über 200 verschiedenen Zelltypen unseres Körpers bilden kann. Alle die lebenden und abgestorbenen Blutkörperchen leiten sich nämlich von einer einzigen Zellart ab, die im Knochenmark mit ihresgleichen winzige Gemeinschaften bildet. Diese blutbildenden «Stammzellen» machen zwar nur ein Zehntausendstel aller Knochenmarkzellen aus, doch eine einzige von ihnen kann einer todgeweihten Maus, deren Knochenmark durch Bestrahlung zerstört wurde, neues Blut und damit das Leben schenken.

    Geheimnisvolles Netz

    Diese wundersamen Stammzellen sichern ihren Fortbestand, indem sie sich in zwei gleiche Tochterzellen teilen. Weit häufiger jedoch bilden sie zwei verschiedene Tochterzellen: eine neue Stammzelle und eine «Progenitorzelle», deren Nachkommen sich dann schnell vermehren und zu Blutzellen reifen. Je «unreifer» eine solche Progenitorzelle ist, desto grösser ist die Vielfalt der Blutzellen, die sie hervorbringen kann. Anfangs umfasst diese Vielfalt fast alle Blutzellen, engt sich dann aber mit zunehmendem Reifungsgrad auf weiße oder rote Blutzellen ein, um sich schließlich auf einen einzigen voll ausgereiften Zelltyp zu beschränken.

    Ein geheimnisvolles Netz von Protein-Botenstoffen entscheidet, ob und wie sich eine Stammzelle teilt und welchen Reifungsweg eine Progenitorzelle einschlägt. Diese Botenstoffe kreisen entweder als Hormone im Blutstrom oder warten an der Oberfläche von Helferzellen. Wenn sie sich an eine Stamm- oder Progenitorzelle binden, schalten sie in ihr bestimmte Gene an oder ab und bestimmen so das weitere Schicksal der Zelle. Die Konzentration dieser Protein-Botenstoffe im Blut ist so verschwindend gering, dass lange Zeit ein dichter Schleier sie verhüllte. Erst die Molekularbiologie vermochte diesen Schleier in jahrelanger mühevoller Arbeit zu lüften, so dass wir heute viele dieser Proteine in reiner Form und ausreichender Menge herstellen können.

    Das Hormon Erythropoetin – kurz EPO genannt – ist das bekannteste unter ihnen. Es fördert die Umwandlung unreifer Blutzellen, die noch keinen roten Blutfarbstoff besitzen, in funktionstüchtige rote Blutkörperchen – und ist deshalb auch als Dopingmittel berüchtigt. Ein anderes, medizinisch eingesetztes Hormon, das Filgrastim (Granulozyten-Kolonie stimulierender Faktor - G-CSF), beschleunigt die Reifung weißer Blutzellen, die uns vor Infektionen schützen. Mit diesen hochwirksamen und äußerst spezifischen Wundermitteln hat die moderne Gentechnik unzähligen Menschen das Leben gerettet.

    So verschieden unsere weißen Blutzellen auch sind – sie haben eines gemeinsam: Sie töten sich selber, wenn ihnen die richtigen Hormone oder der direkte Kontakt mit den richtigen Helferzellen fehlen. Das in ihnen schlummernde Selbstmordprogramm ist fast ebenso fein gewirkt und genau gesteuert wie das, welches das Wachstum der Zelle regelt. Gleiches gilt auch für die (noch) lebendigen Vorstufen der roten Blutkörperchen. Mit zunehmender Reife verengt sich der Aufgabenbereich einer Blutzelle und zwingt ihr meist auch eine streng begrenzte Lebensspanne auf.

    Die Evolution hat vielzellige Lebewesen gelehrt, dass Wachstum die Gefahr von Mutationen heraufbeschwört, die das delikate Zusammenspiel der verschieden Zelltypen bedrohen. In Stammzellen, den Urmüttern aller Blutzellen, wären solche Mutationen besonders fatal, könnten sie doch alle Blutzellen schädigen. Stammzellen teilen sich deshalb nur selten und behalten bei einer asymmetrischen Zellteilung auf noch rätselhafte Weise die Originalstränge des Erbmaterials DNA für sich zurück. So schützen sie sich vor Kopierfehlern, die zu vorzeitigem Altern oder Krebs führen könnten. Die massive Zellvermehrung für den Ersatz abgestorbener Blutzellen überlassen sie den Progenitorzelle, deren begrenztes Leben die langfristigen Schäden von Kopierfehlern verringert.

    Ein gesunder Körper regelt die Reifung der verschiedenen Blutzell-Populationen mit hoher Präzision, doch das Schicksal einer einzelnen Zelle ist weitgehend dem Zufall überlassen. Wenn sich eine unreife Progenitorzelle in zwei gleiche Tochterzellen teilt, wählen diese oft unterschiedliche Reifungswege, auch wenn sie den gleichen Bedingungen ausgesetzt sind. Solche Zufallsereignisse spielen bei der Entwicklung von Lebewesen eine bedeutende Rolle und erlauben es der Natur, die in Genen gespeicherte Erbinformation flexibel zu interpretieren. Bei der Entwicklung großer Zellpopulationen verschleiert das Gesetz der großen Zahl diese individuellen Zufallsschwankungen. Hormone wie Erythropoetin, welche die Reifung von Blutzellen steuern, beeinflussen lediglich die Wahrscheinlichkeit, mit der eine reifende Progenitorzelle den einen oder anderen Reifungsweg wählt. Das Schicksal einer Blutzelle wird somit nicht nur von ihren Genen, sondern auch von ihrer Wechselwirkung mit anderen Zellen sowie vom Zufall bestimmt. Und dieses Schicksal kann, wie uns die unermüdlich arbeitenden leblosen roten Blutzellen zeigen, selbst den Tod überdauern.

    Schicksalsweg

    Auch unsere Hautzellen zeigen dies auf eindrückliche Weise. Die äußerste Schicht unserer Haut – die Epidermis – besteht aus abgestorbenen Zellen, deren Proteinpanzer uns vor Verletzungen und Austrocknung schützt. Auch diese Zellen reifen aus Stammzellen, töten sich zur rechten Zeit, erfüllen dann ihre Aufgabe weit über den Tod hinaus und schuppen schließlich von uns ab, um neuen Zellen Platz zu machen und als Haushaltsstaub zu enden. Wir bewundern die Häutung einer Schlange – doch wir selbst erneuern die Epidermis im Verlauf unseres Lebens mindestens eintausendmal.

    Der Schicksalsweg einer Blutzelle erinnert an den eines Menschen. Auch unser Leben wird vom Wechselspiel zwischen Genen, Umfeld und Zufall geprägt; auch bei uns verringert jeder Reifungsschritt die Vielfalt der noch möglichen Lebenswege; und viele große Menschen haben bewiesen, dass auch bei uns der Tod nicht immer das Ende eines Schicksals ist.


    Weiterführende Links

    Entstehung der roten Blutkörperchen - Der Mensch. Video 1:03 min
    Blut - Saft des Lebens. Artikel und Video :43 min (Planet Wissen) http://www.planet-wissen.de/natur_technik/anatomie_mensch/blut/index.jsp

    White Blood Cell Chases Bacteria. Video 0:28 min

    inge Fri, 23.01.2015 - 08:14

    S-Schichten: einfachste Biomembranen für die einfachsten Organismen

    S-Schichten: einfachste Biomembranen für die einfachsten Organismen

    Fr, 16.01.2015 - 09:11 — Uwe Sleytr, Inge Schuster

    Uwe SleytrIcon BiologieS-Schichten, eine äußere Umhüllung von prokaryotischen Zellen (Archaea und Bakterien), sind jeweils aus einer einzigen Art eines Proteins aufgebaut. Diese, zur Selbstorganisation fähigen, Proteine erzeugen hochgeordnete, kristalline Gitter. Mit derartigen (funktionalisierten) Proteinen lassen sich unterschiedlichste Oberflächen beschichten und damit effiziente Lösungen (nicht nur) für (nano)biotechnologische Anwendungen finden. Der Mikrobiologe Uwe Sleytr - ein Pionier auf diesem Gebiet – liefert seit mehr als 40 Jahren fundamentale Beiträge zu Struktur, Aufbau, Funktion und Anwendung von S-Schichten [1].

    Das Leben auf unserer Erde hat vor (mehr als) 3,5 Milliarden Jahren mit einfachsten Zellen, Vorläufern der heutigen Prokaryoten begonnen. Prokaryoten sind - vereinfacht ausgedrückt - mit Cytoplasma gefüllte Behälter, die keinen Zellkern besitzen. Im Inneren dieser Behälter liegt das Erbmaterial also frei vor, und es existieren im Wesentlichen auch keine anderen membranumhüllten Organellen. Von ihrer Umgebung abgeschirmt werden die Behälter durch eine mehr oder weniger dicke Ummantelung. Diese besteht primär aus der Zellmembran – einer Lipiddoppelschicht, die dem Stoffaustausch und der Kommunikation mit der Umwelt dient. Außerhalb dieser Membran weisen die meisten Prokaryoten unterschiedlich zusammengesetzte Zellwandschichten auf.

    Im Lauf der Evolution hat sich das erfolgreiche Modell der Prokaryoten weiterentwickelt, indem mehrere Module früher Prokaryoten zusammentraten. Aus dieser Symbiose entstanden die sogenannten Eukaryoten, die Basis aller höheren Lebensformen. Die Zellen dieser ein- und mehrzelligen Organismen besitzen durch Membranen abgegrenzte intrazelluläre Strukturen – Kompartimente (Organellen), die – wie angenommen wird - von „eingefangenen“ Bakterien stammen: Mitochondrien, die Kraftwerke der Zellen, leiten sich wahrscheinlich von Purpurbakterien her, die für Photosynthese essentiellen Chloroplasten der Pflanzenzellen von Cyanobakterien.

    Nichtsdestoweniger sind Prokaryoten auch heute noch die dominierenden Lebensformen auf unserem Planeten und machen – Schätzungen zufolge - bis zu 2/3 seiner Biomasse aus. Neben den Bakterien sind dies die Archaea, eine zweite Form von Prokaryoten, die erst in den späten 1970er Jahren als eigene Domäne des Lebens von Carl Woese entdeckt wurden. Diese winzigen, vielfach schwer kultivierbaren Organismen sehen strukturell Bakterien ähnlich, unterscheiden sich von diesen aber grundsätzlich im biochemischen und genetischen Makeup. Es sind vor allem Unterschiede in Zusammensetzung und Architektur von Zellmembran und Zellwand, die es verschiedenen Vertretern der Archaea ermöglichen, auch unter extremsten Bedingungen zu existieren, beispielsweise bei Temperaturen bis zu 120oC, in äußerst alkalischem und saurem Milieu oder bei sehr hohen Salzkonzentrationen.

    Auf der Basis ihrer genetischen Verwandtschaft hat Woese eine systematische Einteilung aller Lebewesen in drei Domänen vorgeschlagen: Bakterien – Archaea und Eukaryoten [2]; dieser „phylogenetische Baum des Lebens“ ist heute allgemein akzeptiert. Abbildung 1.

    Der phylogenetische Baum des LebensAbbildung 1. Der phylogenetische Baum des Lebens. Die systematische Einteilung der Lebensformen in drei Domänen: Bakterien, Archaea und Eukaryoten erfolgt nach Woese (1977) auf Grund der Verwandtschaft ihrer ribosomalen s16-RNA (Bakterium: S. aureus, Archaea: Sulfolobus; Bild modifiziert nach Wikipedia)

    Der überwiegende Teil der Prokaryoten existiert in hochkompetitiven Lebensräumen und bildet äußerst komplexe Mikrobiome. Um sich den jeweiligen Nachbarschaften und den dort vorherrschenden Umwelteinflüssen anzupassen, haben Bakterien und Archaea eine Vielfalt an Strukturen entwickelt, welche als Schutzschicht die Zellen umhüllen.

    S-Schichten – ein einzigartiges selbstassemblierendes System

    Zu den am häufigsten angetroffenen Ummantelungen prokaryotischer Zellen gehören die sogenannten S-Schichten (englisch: surface-layers – Oberflächenschichten). Derartige S-Schichten wurden erstmals vor rund sechzig Jahren an einem Bakterium entdeckt und seitdem in nahezu allen Archaea und in hunderten Arten von Bakterien nachgewiesen.

    S-Schichten sind keine Lipidmembranen. Es sind vielmehr die einfachsten Protein-Membranen, vielleicht überhaupt die ältesten Membranen, die der Evolutionsprozess hervorgebracht und optimiert hat: S-Schichten sind jeweils nur aus einer einzigen Art eines Proteins oder Glykoproteins aufgebaut (sie sind also monomolekular). Diese Proteine besitzen die Fähigkeit zur Selbstorganisation: die einzelnen identen Bausteine assoziieren sich an der Oberfläche der Zelle zu einer kristallinen, hoch-geordneten gitterförmigen Struktur (siehe: nächster Abschnitt).

    Für die Anlagerung der S-Schicht stehen bei Archaeen und Bakterien unterschiedliche Oberflächen zur Verfügung (Abbildung 2):

    Wie S-Schichten auf der Oberfläche von Prokaryoten sitzenAbbildung 2. Wie S-Schichten auf der Oberfläche von Prokaryoten sitzen. Anlagerung der S-Schichtenproteine (gelb): in Archaea direkt an die Zellmembran, in Gram positiven Bakterien an die vorwiegend aus Peptidoglycan bestehende Zellwand (türkis), in Gram-negativen Bakterien an die Lipopolysaccharidkomponente der äußeren Membran (Doppelschicht, lila). Wechselwirkungen von S-Schichtproteinen finden mit den Komponenten der jeweiligen Oberfläche statt. (Die Zellen sind grob vereinfacht dargestellt mit: Lipiddoppelschicht der Zellmembran (blau), DNA (rot) und Ribosomen (schwarze Punkte). Glykanreste: bei Archaea nicht gekennzeichnet, bei Bakterien: schwarzer Faden.)

    Die meisten Archaea besitzen keine starre Zellwand; die S-Schicht liegt hier direkt auf der Zellmembran, wobei die an Pilze erinnernden Formen der Proteine mit ihren „Stielen“ in die Membran eindringen können.

    Im Gegensatz dazu haben Bakterien eine feste Zellwand, die vorwiegend aus Peptidoglycan (auch Murein genanntes Polymer aus Zuckern und Aminosäuren) besteht und an die Zellmembran angrenzt. Diese, bei Gram-positiven Bakterien sehr dicke Zellwand verleiht den Zellen Form und Festigkeit und die Fähigkeit dem Innendruck (Turgor) des Cytoplasmas standzuhalten. In Gram-negativen Bakterien ist die Peptidoglycan-Schicht wesentlich dünner, dafür gibt es hier eine zusätzliche äußere Membran. Dies ist eine unsymmetrisch zusammengesetzte Doppelschicht, deren innere Schicht aus Phospholipiden, die äußere Schicht aus Lipopolysacchariden besteht.

    S-Schicht Proteine assoziieren an die jeweiligen äußersten Hüllen und interagieren spezifisch mit deren Komponenten.

    Wie sehen S-Schichten aus?

    Mit einem Volumen, das nur etwa 1/1000 des Volumens eukaryotischer Zellen beträgt, konnten morphologische Untersuchungen von Prokaryoten erst in Angriff genommen werden, als mikroskopische Methoden es erlaubten in den Nanometer-Bereich vorzustoßen (1 nm = 1 Milliardstel Meter).

    Diese Verfahren – vor allem Elektronenmikroskopie, Rasterkraftmikroskopie - zeigen S-Schichten als kristalline regelmäßige Proteingitter. Die identen Bausteine der S-Schichten können sich dabei in verschiedenen Anordnungen zu einem 2D-Gitter organisieren: schräg (p1, p2), quadratisch (p4) oder hexagonal (p3, p6). Die entsprechenden Distanzen der Grundeinheiten von Zentrum zu Zentrum (Gitterkonstanten) liegen zwischen 3 und 35 nm. Abbildung 3.

    Durch die regelmäßige Anordnung der Proteine entstehen gleich große Poren mit einem Durchmesser zwischen 2 und 8 nm, die bis zu 70 % der Oberfläche einnehmen können. Diese porösen Oberflächen können u.a. als Molekularsiebe fungieren, den Eintritt und Austritt großer Moleküle – beispielsweise von Enzymen – kontrollieren (der Durchmesser eines mittelgroßen Proteins mit einem Molekulargewicht 50 kDa beträgt rund 5 nm) und auch vor zellschädigenden Komponenten schützen.

    S-Schichten bilden eine stets völlig geschlossene Ummantelung der Zellen. Um dies zu gewährleisten, müssen die Proteinbausteine während des schnellen Wachstums und der Zellteilung im Innern der Zellen permanent synthetisiert, an die Oberfläche transportiert und umgeordnet werden.

    Aufbau von S-SchichtenAbbildung 3. Aufbau von S-Schichten Links: die elektronenmikroskopische Aufnahme einer S-Schicht tragenden Bakterienzelle zeigt ein regelmäßiges Proteingitter. Rechts: schematische Darstellung der unterschiedlichen Gitter-Typen - die Grundeinheiten setzen sich aus 1, 2, 3, 4 oder 6 identen Bausteinen (rot eingezeichnet) zusammen.

    Wie dick die S-Schichten sind, hängt von Gestalt und Größe der Proteinbausteine (Molekulargewicht ca. 30 – 200 kDa) ab: bei Bakterien sind dies zwischen 5 und 10 nm, die pilzartigen Strukturen bei Archaea können bis zu 70 nm dick werden.

    Da rund 10 % des Gesamtproteins von Prokaryoten in den Aufbau der S-Schichten involviert sind und auf Grund der ungeheuren Biomasse an Prokaryoten, gehören somit S-Schichtenproteine zu den am häufigsten vorkommenden Biopolymeren unserer Erde.

    Warum sind S-Schichten für uns interessant?

    Zu S-Schichten wurden bis jetzt mehr als 2 500 wissenschaftliche Artikel veröffentlicht (die Hälfte davon - laut PubMed - in „peer-reviewed journals“), die Tendenz ist steigend. Neben Fragen zu Biosynthese und Regulation der S-Schichtenproteine werden vor allem solche zu den funktionellen Aspekten der S-Schichten bearbeitet. Bereits 1986 wurde eine, der von der Natur vorgegebenen Funktionen als erste biotechnische Anwendung realisiert: es war dies eine Ultrafiltrationsmembran mit einheitlicher Porengröße.

    Über den Gebrauch als Molekularsieb hinaus ist auch die Rolle von S-Schichten in der Oberflächenerkennung und Adhäsion und als - bei einigen pathogenen Bakterien vorkommender - Virulenzfaktor von hohem Interesse.

    Besonders vielversprechend sind Untersuchungen über die Wechselwirkungen, die S-Proteine untereinander und mit anderen Zellwand-/Membrankomponenten ausüben:

    S-Schichtenproteine sind ein herausragendes Modell zur Untersuchung der Selbstorganisation von Molekülen. Die identen Bausteine bilden Proteingitter nicht nur auf den Oberflächen von Prokaryoten aus. Wenn man mit biochemischen Methoden isolierte und gereinigte oder auch rekombinant hergestellte S-Schichtenproteine verwendet, so lagern sich diese auf unterschiedlichsten festen Trägern, auf Liposomen, Nanopartikeln, etc., ebenso wie in wässriger Lösung und an deren Grenzfläche zur Luft zusammen. So lassen sich verschiedenartigste Oberflächen mit einer repetitiven kristallinen Proteinschicht überziehen, die überdies an ihrer Außenseite chemisch oder gentechnisch gezielt modifiziert werden kann. Abbildung 4.

    Nanobiotechnologische Anwendungen mit S-Schicht-Fusionsproteinen ermöglichen eine hochgeordnete Oberfläche mit den gewünschten FunktionenAbbildung 4 Nanobiotechnologische Anwendungen mit S-Schicht-Fusionsproteinen ermöglichen eine hochgeordnete Oberfläche mit den gewünschten Funktionen.

    Wie mit Lego-Bausteinen lassen sich in kontrollierter Weise Oberflächen beschichten, die dann erwünschte Funktionen in streng definierter Orientierung und Position aufweisen. Ein wichtiges Faktum: jeder einzelne Baustein ist einfach und sehr kostengünstig herzustellen und enthält bereits die gesamte Information.

    Die Grundlagenforschung zur Selbstorganisation der Bausteine schafft damit die Basis für eine Fülle (nano)biotechnischer, biomedizinischer und biomimetischer Anwendungen.

    Deren Spektrum reicht von der Entwicklung spezifischer Enkapsulierungen, die ihren Inhalt – beispielsweise pharmakologisch wirksame Stoffe - zu definierten Zielen im Organismus bringen mit entsprechenden Anwendungen auch in Immuno- und Gentherapie, über die Impfstoffentwicklung, die Immobilisierung von funktionellen Makromolekülen und die Schaffung von katalytisch aktiven Oberflächen bis hin zu mikroelektronischen Sensoren.

    Das von der Natur über Jahrmilliarden optimierte molekulare Baukastensystem lässt uns so effiziente und elegante Lösungen für technische Anwendungen von heute finden.


    Uwe B Sleytr - homepage: https://forschung.boku.ac.at/fis/suchen.person_uebersicht?sprache_in=en&...
    [1] U.B. Sleytr et al, (2014) S-layers: principles and applications. FEMS Microbiol Rev 38:823-864
    [2] C.R.Woese et al., (1990) Towards a natural system of organisms: Proposal for the domains Archaea, Bacteria, and Eucarya Proc. Natl. Acad. Sci. USA 87: 4576-4579 http://www.pnas.org/content/87/12/4576.long


    Weiterführende Links

    Archaeen - Allrounder der Evolution – Audio 23:01 min (radioWissen - Bayern 2; deutsch)

    Archaea Video 7;15 min (englisch)

    inge Fri, 16.01.2015 - 09:11

    Neue Wege für neue Ideen – die „Innovative Medicines Initiative“(IMI)

    Neue Wege für neue Ideen – die „Innovative Medicines Initiative“(IMI)

    Fr, 09.01.2015 - 08:14 — Christian R. Noe

    Christian R. NoeIcon MedizinDie 2008 als gemeinsame Unternehmung der Europäischen Kommission mit der forschenden Pharmaindustrie (EFPIA) gegründete Innovative Medicines Initiative (IMI) soll in einer bisher nie dagewesenen Kooperation von akademischer Forschung, Kliniken, Zulassungsbehörden, Patientenorganisationen und Pharmaindustrie zur schnelleren und effizienteren Entwicklung neuer Therapien führen. Der Chemiker und Pharmazeut Christian Noe ist hatte während der ersten Phase von IMI den Vorsitz in deren Scientific Committee inne, welches für die Erstellung der Strategic Agenda entscheidend ist.

    Gute Ideen sind zu allermeist Schöpfungen kreativer Menschen. Wenn diese ihr Konzept zur Umsetzung in bestehende Strukturen einbringen, dann sind diese in der Regel mit einem anderen Menschentyp konfrontiert, im besten Fall mit verantwortungsvollen Administratoren, im schlimmsten Fall mit Pfründnern. Es liegt nahe: Je älter und verkrusteter eine Struktur ist, desto mehr haben ihre „Hausmeister“ das Sagen. Strukturellen Fragen wird dann vorrangige Bedeutung zugemessen.

    Eine neue Idee kann sogar „störend“ sein.

    Von der industriellen Revolution…

    Als in der ersten Hälfte des 19. Jahrhunderts die fundamentalen Neuerungen der ersten industriellen Revolution aufkamen, war das herrschende politische System völlig überfordert. Es trat jener Rückzug der Menschen ins Private ein, welchen wir als „Biedermeier“ bezeichnen. – Wien ist als Stadt des Biedermeier bekannt. Polizeigewalt und Spitzelwesen waren die Begleitmusik und nicht die Ursache dieser gesellschaftspolitischen Schockstarre.

    Das wahre Problem lag letztlich in der Unfähigkeit der Politik, die Neuerungen der industriellen Revolution in die Gesellschaft zu integrieren.

    …zur Data Revolution

    Heute, 200 Jahre später, leben wir wiederum in einer solchen Zeit. Wir stehen inmitten der Umsetzung einer neuen industriellen Revolution, der „data revolution“. Die neue Technologie ist die Informationstechnologie. Die Maschinen, welche alles umsetzen, sind die Computer.

    Die Akteure im politischen System sind wiederum überfordert. Es herrscht die „neo-biedermeierliche Schockstarre“.

    Neo-biedermeierliche Schockstarre auch hinsichtlich Wissenschaft und Forschung?Abbildung 1. Neo-biedermeierliche Schockstarre auch hinsichtlich Wissenschaft und Forschung? (Titel des kolorierten Kupferstichs: „Der Magister von Krähwinkel legt sich auf Sprachen und Bücher“. Johann Nusbiegel um 1830)

    Die Analogie zum 19. Jahrhundert ist frappant: Wenn man so will, kann man exemplarisch „NSA“ (National Security Agency – Auslandsgeheimdienst der USA) als Begriff für das neue Spitzelwesen heranziehen. Die herrschaftliche Macht kommt heute kaum mehr durch einen sichtbaren Polizeiapparat zum Ausdruck, sondern wird durch eine Vielzahl elektronisch aufbereiteter Vorschriften und Aufforderungen ersetzt.

    Wenn man die in den nächsten Jahrzehnten anstehende Zusammenführung von Robotics und artifizieller Intelligenz bedenkt, dann muss man tatsächlich Sorge um die Zukunft der nächsten Generation haben.

    Konservative Erstarrung auch an den Universitäten

    Es steht außer Zweifel, dass die Universitäten mehr als alle anderen Institutionen durch die neuen Technologien herausgefordert sind. In ihrer Rolle als „Tempel des Wissens“ haben sie ausgedient. Wikipedia „weiß“ mehr als alle Professoren. Da es bei den Veränderungen unmittelbar um „Wissen“ geht, ist es nicht ohne weiteres verständlich, warum die meisten Universitäten ihre Konzepte bisher so zögerlich an die neue Zeit angepasst haben.

    Die „Europäische Universität“ ist eine wohl bewährte, aber zugleich eine sehr alte Struktur. Über die Zeit hat ihre Evolution auch einen Wissenschaftlertypus hervorgebracht und gefördert, dessen Augenmerk sich eher an der Erhaltung und Sicherung der universitären Struktur orientiert, als an neuen wissenschaftlichen Inhalten. Kreative Schritte, um die Herausforderungen der neuen Zeit in neue Möglichkeiten und Chancen umzumünzen, sind solchen Menschen verschlossen. Man plagt sich bei jeder Reform.

    Etwas provokativ ließe sich sagen: „Nichts ist so konservativ wie ein universitäres Curriculum!“

    Wege aus der konservativen Erstarrung

    Was kann man da tun, um konservative Erstarrung zu überwinden und neuartige wissenschaftliche Konzepte und Ideen zu implementieren? Es gibt zwei Wege:

    • Beim ersten Weg gilt es, ohne Zögern ein sich öffnendes „window of opportunity“ zu nützen, wenn eine etablierte Struktur reformiert oder sonst verändert wird. Als zum Beispiel vor etwa 20 Jahren der Fachbereich Pharmazie in das neu gegründete Biozentrum der Universität Frankfurt eingegliedert wurde, haben wir Professoren nicht gezögert und die „molekularbiologische Herausforderung“ als Gelegenheit genutzt, um die „Biologisierung“ der universitären Pharmazie in Forschung und Lehre voranzutreiben. Der positive Effekt unserer Pionierarbeit hat weit über Frankfurt hinaus gewirkt.
    • Der andere, aufwendigere Weg besteht darin, zur Umsetzung einer neuen Idee eine neue Struktur zu schaffen. So sind die Ziele besser und aktiver planbar. Vor mehr als 10 Jahren entwickelten Europäische Pharmazieprofessoren, Mitglieder der European Federation of Pharmaceutical Sciences (EUFEPS), die Idee einer organisierten Zusammenarbeit universitärer und industrieller Forscher, um die Pharmaforschung insgesamt und allem voran den Standort Europa in Schwung zu bringen. Daraus wurde:

    Die Innovative Medicines Initiative (IMI)

    Im Jahre 2008 wurde die Innovative Medicines Initiative [1] als gemeinsame Unternehmung der Europäischen Kommission mit der forschenden Pharmaindustrie (EFPIA) gegründet. Es sollte eine Zusammenarbeit von akademischer Forschung, Kliniken, Zulassungsbehörden, Patientenorganisationen und Pharmaindustrie werden. Die Etablierung von IMI stellte in mehrerlei Hinsicht „Premieren“ dar, nämlich als:

    • eine öffentlich-private Partnerschaft („public private partnership“, PPP),
    • ein auf Innovation ausgerichtetes Förderinstrument der EU,
    • eine Plattform zur Zusammenarbeit akademischer und industrieller Forscher in großen Konsortien und zugleich
    • ein Instrument zur „präkompetitiven“ Forschungszusammenarbeit großer Firmen.

    Nicht zuletzt sollte erwähnt werden, dass eine Dotierung von 2 Milliarden Euro IMI bereits in seiner ersten Phase (IMI 1) zum weltweit größten Förderinstrument auf dem Gebiet der Life Sciences machte. Guten Ideen wurde ein breiter Raum gegeben. Die Themen wurden in der strategischen Agenda festgeschrieben. Es war ein Privileg, da mittun zu dürfen.

    Die richtige Behandlung für den richtigen Patienten zur richtigen Zeit

    Ganz wesentlich war aus meiner Sicht jene Wende in der strategischen Ausrichtung, welche sich vor etwa fünf Jahren - zur Mitte der ersten Förderperiode von IMI - in der Pharmaforschung im Allgemeinen und bei IMI im Speziellen ereignete. „Der Patient steht im Mittelpunkt der Forschung“ sollte ab nun nicht mehr nur ein Schlagwort sein, in der Forschung sollte es nicht mehr nur um großartige Versprechungen gehen, welche irgendwann einmal in ferner Zukunft zum Erfolg führen sollen, sondern vor allem um Hilfe für Menschen: „hic et nunc“.

    Dies bedeutet die Förderung von Programmen auf verschiedensten Ebenen:

    • Nicht nur „Forschung und Entwicklung neuer Medikamente“ sind nunmehr die vorrangigen Aufgabenfelder der pharmazeutischen Wissenschaften, sondern in gleicher Weise auch „Produktion“ und schließlich die „Nutzbarmachung der Arzneimittel“. In dieser letzten Phase erreicht ja letztlich das Medikament den Patienten, zumeist in der Apotheke oder im Krankenhaus.
    • Förderung wissenschaftlicher Fragestellungen zum Gesundheitssystem - insgesamt betrachtet - und im Speziellen zum Apothekenwesen.

    Das IMI PharmaTrain ProjektAbbildung 2. Das IMI PharmaTrain Projekt: Implementierung von Postgraduiertenkursen (u.a. Diplom-, Masterkurse) mit hohen Qualitätsstandards und internationaler Anerkennung. Details: www.pharmatrain.eu

    • Einbeziehung neuer Forschungsgebiete, die rasant heranwachsen: hier wären etwa die „Pharmakovigilanz“ (d.i. die systematische Überwachung der Sicherheit eines Medikaments) zu nennen oder die „Effektivität“ als jener Bereich der Pharmakoökonomie, bei welchem die fundamentale Rolle der Finanzierung des Gesundheitssystems bei der Gestaltung von Forschungs- und Entwicklungsprojekten thematisiert wird. IMI hat Projekte zu solchen Themen formuliert, großzügig finanziert und implementiert.
    • Auch ein umfassendes elektronisches Lehrprogramm der pharmazeutischen Wissenschaften wurde im Rahmen von IMI erarbeitet. Wieweit die neue Ausrichtung die Universitäten beeinflussen wird, ist abzuwarten.

    Was wurde erreicht, wie geht es weiter?

    In der ersten Phase (IMI 1) bis Ende 2013 hat sich IMI zur weltgrößten öffentlich-privaten Partnerschaft entwickelt: es entstand eine Zusammenarbeit, an der sich quer durch Europa rund 600 Teams akademischer Forscher, 350 Teams industrieller Forscher und mehr als 100 kleine und mittlere Betriebe (SME‘s) beteiligten, Patientenorganisationen und Zulassungsbehörden miteinbezogen wurden. Wissenschaftliche Durchbrüche wurden in unterschiedlichsten Gebieten erzielt, u.a. in Diabetes, Autismus, Lungenerkrankungen und Arzneimittelsicherheit.

    Für die Periode 2014 – 2024 (IMI 2) wurde für IMI ein Budget von 3,3 Milliarden € bewilligt. Die Hälfte der finanziellen Mittel kommt aus dem EU-Rahmenprogramm für Forschung und Innovation „Horizont 2020“. Die andere Hälfte kommt zum größten Teil von den beteiligten Pharmafirmen, die Forschungseinrichtungen und Ressourcen (auch personelle) bereitstellen, selbst aber keinerlei Unterstützung durch die EU erhalten.

    Zur Zeit verzeichnet IMI 46 laufende Projekte, und mehr Projekte sind in Vorbereitung. Es geht nicht nur um die Entwicklung neuer Medikamente, sondern auch darum geeignete Methoden zu erarbeiten, die den Zugang der Patienten zu neuen Medikamenten beschleunigen, und - wie oben bereits erwähnt - die richtige Behandlung für den richtigen Patienten zur richtigen Zeit ermöglichen. In Hinblick auf die Entwicklung neuer Medikamente folgen die Ausschreibungen von IMI der von der Weltgesundheitsorganisation (WHO) erstellten Prioritätenliste [2], darunter u.a. antimikrobielle Resistenzen, Osteoarthritis, Kardiovaskuläre Erkrankungen, Diabetes, neurodegenerative Erkrankungen und Cancer.

    Auf die jüngste Ebola-Epidemie wurde bereits mit der Ausschreibung eines Ebola+ Programms reagiert, für das ein Budget von 280 Millionen € (IMI + EFPIA) vorgesehen ist und dessen Deadline vor einem Monat zu Ende ging.

    Durch die strategische Kooperation der größten Pharmafirmen hat IMI erfreulicher Weise mittlerweile eine globale Dimension und Bedeutung erlangt. Allerdings bedarf es zusätzlicher Bemühungen um Europa selbst als Pharmastandort zu revitalisieren. Abgesehen von lokalen und nationalen Aktivitäten könnten es vor allem regionale Europäische Pharmainitiativen sein, welche als Treffpunkte von kreativen Forschern in neuem „setting“ zu passenden Initiativen, neuen Netzwerken und schlagkräftigen Konsortien führen.

    Was mir hier als Vision vorschwebt?

    Könnte ein derartiger regionaler Treffpunkt nicht in einer „Danube Medicines Initiative“ verwirklicht werden? Immerhin leben mehr als 100 Millionen Menschen in der Region, die von Baden-Württemberg bis ans Schwarze Meer reicht.


    [1] Innovative Medicines Initiative

    [2] WHO (2013) Priority Medicines for Europe and the World

    [3] Angela Wittelsberger: The IMI2 Ebola+ programme (PDF-Download)


    Der Artikel ist die gekürzte Version einer Rede, die der Autor anlässlich der Verleihung des Phoenix Pharmazie Wissenschaftspreises am 6. November 2014 in Wien gehalten hat.


    Weiterführende Links

    What Is The Innovative Medicines Initiative? Video 2:04 min. Horizon 2020 - General overview , Video 3:06 min EFPIA - European Federation of Pharmaceutical Industries and Associations

    Einige IMI-Projekte

    (hauptsächlich in Englisch, teilweise etwas an Vorkenntnissen erforderlich)

    EU-AIMS: Neue Erkenntnisse über die Ursachen von Autismus - science euronews (2013) Video 4:18 min COMBACTE: Tackling Antimicrobial Resistance in Europe. Fast Facts, Video 9:14 min (2014) Details zu COMBACTE Eu2P: European training programme in pharmacovigilance and pharmacoepidemiology Video 2:52 (2010) min, EUROPAIN: Understanding chronic pain and improving its treatment. imichannel Video 15:345 min PHARMACOG - Alzheimer's disease imichannel Video 13:58 IMI Education and Training programmes (full version) Video 6:01 min


     

    inge Fri, 09.01.2015 - 08:14

    Eurobarometer: Österreich gegenüber Wissenschaft*, Forschung und Innovation ignorant und misstrauisch

    Eurobarometer: Österreich gegenüber Wissenschaft*, Forschung und Innovation ignorant und misstrauisch

    Fr, 02.01.2015 - 08:49 — Inge Schuster

    Inge SchusterIcon Politik & GesellschaftVor wenigen Wochen ist das Ergebnis einer neuen, von der Europäischen Kommission beauftragten Umfrage zur „öffentlichen Wahrnehmung von Naturwissenschaften, Forschung und Innovation“ erschienen (Special Eurobarometer 419 [1,2]). Speziell ging es darum herauszufinden, welche Auswirkungen die EU-Bürger von diesen Gebieten auf wesentliche Themen des Lebens und der Gesellschaft für die nahe Zukunft erwarteten. Österreicher sahen wesentlich weniger positive Auswirkungen als die Bürger der meisten anderen EU-Staaten. Wie auch in früheren Umfragen, ist Österreichs Einstellung zu Naturwissenschaften in hohem Maße von Ignoranz und – darauf basierend – Misstrauen und Ablehnung geprägt.

    “Von jeher hat die Europäische Kommission Wissenschaft und Innovation als prioritäre Schlüsselstrategien betrachtet, die Lösungen für die wichtigsten, jeden Europäer betreffenden Fragen liefern können: es sind dies Fragen der Gesundheit, der Beschäftigung und damit Fragen der gesamten Gesellschaft und der Wirtschaft. …Die Zukunft Europas ist die Wissenschaft!“ (Jose M. Barroso, 6. Oktober 2014)

    Bereits zwei ScienceBlog Artikel waren EU-weiten Umfragen gewidmet, welche die Einstellung der Bürger zu Wissenschaft und Technologie zum Thema hatten [3, 4]. Diese Umfragen gaben ein für Österreich beschämendes Bild wider: die Mehrheit unserer Landsleute hatte angegeben, nichts über Wissenschaft und Technologie auf dem Bildungsweg gehört zu haben und an diesen Wissenszweigen auch weder interessiert, noch darüber informiert zu sein. Die Frage, ob Kenntnisse über Wissenschaft und Forschung für das tägliche Leben von Bedeutung wären, verneinte der Großteil - 57 % - der Österreicher (im EU-27-Mittel waren es 33 %) – unser Land nahm damit den letzten Rang unter den EU-Staaten ein.

    Im Lichte der bereits bekannten Einstellung der Österreicher zu Wissenschaft und Technologie ist das im Oktober im „Special Eurobarometer 419“ veröffentlichte Ergebnis der neuen EU-Umfrage zwar nicht verwunderlich, dennoch aber im höchsten Maße bestürzend.

    Die Umfrage „Special Eurobarometer 419“

    Im Juni 2014 waren unter dem Titel „Öffentliche Wahrnehmung von Wissenschaft, Forschung und Innovation” rund 28 000 Personen in den 28 EU-Staaten befragt worden, welche Auswirkungen ihrer Meinung nach Wissenschaft und Technologie auf wesentliche Aspekte des Lebens in den kommenden 15 Jahren haben werden.

    Es waren dies persönliche (face to face) Interviews, in denen in jedem Mitgliedsstaat jeweils rund 1000 Personen aus verschiedenen sozialen und demographischen Gruppen in ihrem Heim und in ihrer Muttersprache befragt wurden:

    1. Einleitend wurde der jeweilige persönliche Bildungsstatus in den Naturwissenschaften festgestellt.
    2. Dann wurde eine Liste von wesentlichen, jeden Europäer betreffenden Themen vorgelegt und gebeten diese nach Prioritäten zu reihen, nach welchen Wissenschaft und Technologie in den nächsten 15 Jahren zum Einsatz kommen sollten (incl. Bereitstellung ausreichender Ressourcen). Diese Liste nannte (in der Reihenfolge des Berichts aufgezählt) folgende Themen:
      • Den Kampf gegen den Klimawandel
      • Den Schutz der Umwelt
      • Die Sicherheit der Bürger
      • Die Schaffung von Arbeitsplätzen
      • Die Energieversorgung
      • Die Gesundheit(ssysteme)
      • Den Schutz persönlicher Daten
      • Die Verringerung der sozialen Ungleichheit
      • Die Anpassung an eine alternde Bevölkerung
      • Die Verfügbarkeit und Qualität von Lebensmitteln
      • Die Transportinfrastruktur
      • Die Bildung und den Erwerb von Fähigkeiten
      • Die Qualität des Wohnens
    3. Sodann folgte das eigentliche Kernstück der Umfrage: eine detaillierte Erhebung zu den voraussichtlichen Auswirkungen von Wissenschaft und technologischen Innovationen auf die angeführten 13 Problemkreise. Im Vergleich dazu sollten die jeweiligen Auswirkungen menschlichen Handelns abgeschätzt werden.

    Frage 1: Der naturwissenschaftliche Bildungsstatus

    Während in 20 EU-Ländern die (überwiegende) Mehrheit der Befragten angab Wissenschaft und Technologie als Schulfächer und/oder als Studienfächer auf (Fach)Hochschulen gehabt zu haben und/oder darin anderswo Erfahrung gesammelt zu haben, waren dies in Österreich nur 35 % (im EU-28 Mittel dagegen 56 %). Österreich liegt damit am unteren Ende der Skala, nur Slowenien, Tschechien und die Slowakei weisen einen noch niedrigeren Bildungsstatus auf.

    Wie niedrig Österreichs naturwissenschaftlich/technologischer Bildungsstatus im Vergleich mit dem EU-28 Durchschnitt und Ländern wie Schweden ausfällt, ist in Abbildung 1 dargestellt. Schweden erscheint als passendes Beispiel, weil es mit 41 188 $ BIP/Einwohner ein ähnliches BIP wie Österreich - 42 597 $ BIP/Einwohner - auf weist (beide Zahlen sind kaufkraftbereinigte Schätzungen des IWF, Stand 04.2014 [5]) und - auf den gesamten Bildungsweg (Primär- bis Tertiärausbildung) bezogen - jährlich auch ähnliche Summen pro Auszubildenden ausgibt (AT: 11 395 €, SE: 11 000 €: Zahlen OECD 2014 [6]).

    Angesichts des eklatant niedrigen naturwissenschaftlichen Bildungsstatus der Österreicher erscheint die Frage nur zu berechtigt:

    Wofür werden die hohen Bildungsausgaben bei uns eigentlich verwendet?

    Abbildung 1. Antworten auf die Frage: Haben Sie Erfahrungen zu Wissenschaft und Technologie an der Schule, (Fach)Hochschulen oder anderswo gesammelt? (Mehrfachnennungen waren möglich; Daten: Tabelle QB4 [1].)

    Frage 2: Wo sollen Wissenschaft und Technologie in den nächsten 15 Jahren prioritär eigesetzt werden?

    Im Bewusstsein, dass Forschung und Innovation unabdingbar sind, um viele Probleme unserer Gesellschaft zu lösen, hat die EU das Programm „Horizon 2020“ ins Leben gerufen und mit 80 Milliarden € dotiert. Um herauszufinden welche Themen den EU-Bürgern besonders wichtig erscheinen und damit vorrangig den Einsatz von Wissenschaft und Technologie (und entsprechenden Ressourcen) rechtfertigen, wurde gebeten primär die oben genannten 13 Themenkreise nach Prioritäten zu ordnen.

    Hier herrschte weitgehende Einigkeit unter den EU-Staaten: gleichviele Staaten – darunter auch Österreich - nannten Gesundheit/Gesundheitssysteme und Schaffung von Arbeitsplätzen als oberste Prioritäten, die niedrigsten Prioritäten wurden für den Schutz persönlicher Daten, Transport(infrastruktur) und die Qualität des Wohnens genannt.

    Frage 3: Welche Auswirkungen werden Wissenschaft, Forschung und Innovation in den nächsten 15 Jahren voraussichtlich haben?

    Der Großteil der europäischen Bevölkerung (im EU-28 Durchschnitt mindestens 50 % der Bevölkerung) zeigte sich davon überzeugt, dass Wissenschaft und technologische Innovationen positive Auswirkungen auf Themen wie Gesundheit/Gesundheitssyteme, Bildung/Erwerbung von Fähigkeiten, Transport(infrastruktur), Energieversorgung, Umweltschutz, Kampf gegen den Klimawandel und die Qualität des Wohnens haben werden (Abbildung 2). Auch bei den anderen Themen dominierten die Befürworter über die Kritiker, die negative Einflüsse befürchteten (nicht gezeigt). Wurden die voraussichtlichen Auswirkungen von menschlichem Handeln mit den von Forschung und Innovation erwarteten verglichen, so gab die Mehrheit bei nahezu allen Themen der Wissenschaft den Vorzug (Ausnahme „Verringerung der Ungleichheit“).

    Besonders großes Vertrauen in die Wissenschaft setzten die skandinavischen Länder. Als Beispiel ist wieder (wie auch schon beim Bildungsstatus) Schweden gezeigt – hier werden kaum negative Effekte der Wissenschaft erwartet.

    Ganz anders sieht die Situation in Österreich aus. Nur in 2 Gebieten – Gesundheit und Energieversorgung – erwartet die Mehrheit unserer Landsleute Verbesserungen durch die Wissenschaft. Aber auch hier, wie in allen anderen Fragestellungen, liegen die positiven Erwartungen unter denen des EU-28 Durchschnitts; bei 10 der 13 Themen nimmt unser Land überhaupt nur den vorletzten oder letzten Rang unter den EU-Staaten ein (in Italien ist dies bei 8 von 13 Themen, in Deutschland bei 5 von 13 Themen der Fall).

    Abbildung2. Werden Wissenschaft, Forschung und technologische Innovation positive Auswirkungen auf wesentliche Themen des Lebens und der Gesellschaft haben? Österreich im Vergleich mit dem EU-28 Durchschnitt und Schweden. Die Themen sind in der Reihenfolge angegeben, wie sie in [1] aufscheinen. Am linken Rand: Österreichs Rang unter den 28 EU-Ländern im ranking der positiven Bewertungen.

    Zwei Einstellungen, die ich persönlich als höchst beunruhigend für die weitere Entwicklung unseres Landes sehe, sind in Abbildung 3 dargestellt:

    Abbildung 3. Antworten auf die Fragen: Welche Auswirkungen werden Wissenschaft und technologische Innovation haben auf die A) Schaffung neuer Arbeitsplätze (oben), B) Anpassung der Gesellschaft an eine alternde Bevölkerung (unten).
    • Nur rund 1/3 unserer Landsleute meint, dass Forschung und Innovationen neue Arbeitsplätze schaffen können, 30 % sehen keinen Effekt und rund ¼ ist sogar vom Gegenteil überzeugt (Abbildung 3a).
    • Ein noch geringerer Anteil (29 %) der Bevölkerung denkt, dass Wissenschaft die Anpassung an die alternde Gesellschaft unterstützen kann, mehr als doppelt so viele sehen keinen Nutzen oder sogar einen Schaden durch die Wissenschaft (Abbildung 3b).

    Ein Cocktail von Ignoranz - und darauf basierend - Misstrauen und Ablehnung

    Wie auch schon in früheren EU-weiten Umfragen hinsichtlich der Einstellung zu Wissenschaft und Technologie, zeigt sich Österreich auch in der aktuellen Studie von einer sehr negativen Seite. Unser Land ist Schlusslicht, wenn es darum geht positive Auswirkungen von naturwissenschaftlichen und technischen Fortschritten auf die wesentlichsten Fragen des täglichen Lebens und der Gesellschaft wahrzunehmen und für die Zukunft nutzen zu wollen.

    Ist Österreich Haltung hier bloß kritischer als die anderer EU-Länder, die einfach nur „wissenschaftsgläubiger“ sind?

    Allerdings, um in seriöser Weise Kritik üben zu können, bedarf es zumindest eines Minimums an naturwissenschaftlicher Bildung. In unserem Land geben 2/3 der Bevölkerung an, dass ihnen diese Grundvoraussetzung fehlt. Welche Einstellung zu den Naturwissenschaften kann aber resultieren, wenn unsere Landsleute diesbezügliche Informationen von den Medien des Landes beziehen? Wenn dort Naturwissenschaften nur dann in den Topmeldungen Platz finden, wenn sie – mehr oder weniger berechtigt – in Verbindung zu möglichst negativen Folgen gebracht werden können. Wenn, wie beispielsweise in jüngster Zeit, aus temporär relativ schwach erhöhten Konzentrationen des ubiquitären Umweltgifts Hexachlorbenzol die Angst der Bevölkerung in unvertretbarem Ausmaß geschürt wird. Wenn dann mangels ausreichenden Verständnisses des Problems (und wahrscheinlich auch ohne entsprechende Recherche), ohne Rücksicht auf die Folgen, die Existenz der Bewohner eines großen Einzugsbereichs gefährdet wird? Wenn einzelne Organisationen ihre Popularität durch derartige Panikmache – Hurra, ein neuer Skandal - erfolgreich erhöhen können?

    Die Ergebnisse der aktuellen Eurobarometer Studie zeigen ein erschütterndes Bild für Österreich: puncto Wissenschaft ist unser Land abgesandelt. Ignoranz herrscht vor: auf dieser Grundlage wird dem Unverstandenen mit Misstrauen begegnet, das Unbekannte abgelehnt.

    Nahezu überall in der EU wird Wissenschaft positiver gesehen als bei uns. Die berechtigte Meinung, dass Forschung und Innovation Schlüsselstrategien für die Schaffung neuer Anwendungsgebiete und damit auch Arbeitsplätze sind, wird hoffentlich nicht dazu führen, dass ein Großteil unserer talentiertesten Wissenschafter in die Länder aufbricht, wo ihre Fähigkeiten erwünschter sind als bei uns.

    Wünsche für die Zukunft

    Mit dem Beginn eines neuen Jahres ist es üblich Wünsche zu formulieren. Diese wären in Hinblick auf die Zukunftsoptionen unseres Landes:

    • Es wäre höchste Zeit den Stellenwert der Naturwissenschaften zu erhöhen! Es muss sowohl die Ausbildung der Jugend in diesen Fächern entscheidend verbessert werden, als auch eine seriöse, gut recherchierte Information der Erwachsenen durch die Medien gewährleistet sein.

    in Hinblick auf Initiativen, die mithelfen können, Wissenschaft populär zu machen:

    • Eine Reihe solcher Initiativen existiert bereits: u.a. „Die lange Nacht der Forschung“, die Kinder-Uni, Sparkling Science, das Science Center Netzwerk [7]. Weiters finden Veranstaltungen beispielsweise auf dem umgebauten Frachtschiff „MS Wissenschaft“ statt, das durch die deutschsprachigen Länder tourt [8] oder in Form von TEDx-Events, die große Theatersäle füllen und deren Vorträge auf Videos frei verfügbar ins Netz gestellt werden. Seit 3 ½ Jahren gibt es auch unseren ScienceBlog. Zurzeit marschieren alle diese Initiativen getrennt, um von unterschiedlichen Gesichtspunkten ausgehend mit verschiedenen Strategien dieselben oder zumindest sehr ähnliche Ziele zu erreichen. Ein vorübergehendes Zusammenwirken dieser Initiativen könnte deren Schlagkraft enorm vergrößern!

    Mit dem Blick auf die Zukunft wünschen wir also, dass 2015 ein gutes Jahr für ein neues Verständnis der Wissenschaft wird.

    Unseren Lesern wünschen wir, dass sie in ihrem persönlichen Leben und in ihrem Umfeld möglichst viel von den positiven Fortschritten der Wissenschaft erfahren.


    *Unter Wissenschaft sind hier – dem englischen Begriff „science“ entsprechend – ausnahmslos die Naturwissenschaften gemeint.


    [1] Special Eurobarometer 419 “Public Perceptions of Science, Research and Innovation” (6.10.2014) http://ec.europa.eu/public_opinion/archives/ebs/ebs_419_en.pdf

    [2] Special Eurobarometer 419, Summary http://ec.europa.eu/public_opinion/archives/ebs/ebs_419_sum_en.pdf

    [3] Josef Seethaler & Helmut Denk
    (18.10. 2013) Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme und
    (1.11.2013)Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 2: Was sollte verändert werden?

    [4] Inge Schuster (28.2.2014): Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401).

    [5] OECD: Education at a Glance 2014: http://www.oecd.org/edu/Education-at-a-Glance-2014.pdf

    [6] IMF, Data and Statistics (2013) https://www.imf.org/external/

    [7] APA-Dossier: Forsche und sprich darüber http://science.apa.at/dossier/Forsche_und_sprich_darueber/SCI_20140227_S...

    [8] Inge Schuster (19.9.2014): Open Science – Ein Abend auf der MS Wissenschaft

    [9] Inge Schuster (19.9.2014): TEDxVienna 2014: „Brave New Space“ Ein Schritt näher zur selbst-gesteuerten Evolution?


    Weiterführende Links

    Spezial- Eurobarometer 401 „Verantwortliche Forschung und Innovation, Wissenschaft und Technologie; November 2013 (223 p.) http://ec.europa.eu/public_opinion/archives/ebs/ebs_401_de.pdf

    Spezial-Eurobarometer 340 „Wissenschaft und Technik“; Juni 2010 (175 p.) http://ec.europa.eu/public_opinion/archives/ebs/ebs_340_de.pdf

    Spezial Eurobarometer 282 “Scientific research in the media”; Dezember 2007 (119 p.) http://ec.europa.eu/public_opinion/archives/ebs/ebs_282_en.pdf

    Artikel mit verwandter Thematik im ScienceBlog

    Gottfried Schatz:

    (14.02.2013): Gefährdetes Licht — zur Wissensvermittlung in den Naturwissenschaften

    (06.12.2012): Stimmen der Nacht — Gedanken eines emeritierten Professors über Wissenschaft und Universitäten

    (24.10.2014): Das Zeitalter der “Big Science”

    Ralph J. Cicerone (14.03.2014): Aktivitäten für ein verbessertes Verständnis und einen erhöhten Stellenwert der Wissenschaft


     

    inge Fri, 02.01.2015 - 08:49

    2014

    2014 Redaktion Wed, 20.03.2019 - 01:03

    Popularisierung der Naturwissenschaften im 19. Jahrhundert

    Popularisierung der Naturwissenschaften im 19. Jahrhundert

    Fr, 26.12.2014 - 09:06 — Redaktion

    Icon WissenschaftsgeschichteDer hundertste Todestag von Eduard Suess (1831 – 1914) bot heuer vielfach Gelegenheit das grandiose Lebenswerk dieses Mannes zu würdigen: dem Paläontologen und Geologen Suess verdanken wir grundlegende Erkenntnisse zur Tektonik der Erdoberfläche (Gebirgsfaltung, Gondwanaland, Thetys). Auf den Politiker Suess gehen u.a. Planung und Bau der Wiener Hochquellenwasserleitung und die Donauregulierung zurück. Der Wissenschaftskommunikator Suess und seine von Erfolg gekrönten Bemühungen zur Popularisierung der Naturwissenschaften sind dagegen kaum bekannt.

    Eduard Suess: Verein zur Verbreitung naturwissenschaftlicher Kenntnisse

    Suess war maßgeblich an der Gründung des auch heute noch existierenden „Vereins zur Verbreitung naturwissenschaftlicher Kenntnisse“ im Jahre 1860 beteiligt und dessen erster Präsident [1,2]. Im Rahmen dieses Vereins wurden frei zugängliche, populäre Vorträge gehalten; laut Suess (s.u.) waren diese „lediglich naturwissenschaftlichen Fächern entnommen, der Kreis von Vortragenden hat fast ausschließlich aus jüngeren Fachmännern bestanden“. Diese Vorträge – aufgezeichnet in bis dato 152 Jahrbüchern des Vereins – geben einen faszinierenden Einblick in den Fortschritt der Naturwissenschaften in unserem Land.

    Mehrere Artikel hat der ausgezeichnete Vortragende und als Lehrer hochgeschätzte Eduard Suess selbst beigesteuert. Wäre Eduard Suess unser Zeitgenosse, hätte er - in Hinblick auf die Reichweite - wahrscheinlich auch eine digitale Form der Kommunikation, vielleicht in Form eines Blog, gewählt.

    Eduard Sueß 1869Abbildung 1. Eduard Suess 1869 (Bild: Wikipedia)

    Im Folgenden findet sich die Rede, die Suess am 15.1.1860 anlässlich der Gründungsversammlung des Vereins zur Verbreitung naturwissenschaftlicher Kenntnisse gehalten hat [3]. Die ursprüngliche Schreibweise wurde beibehalten.

    Eduard Suess: Ueber die Entstehung und die Aufgabe des Vereines

    »Gestatten Sie mir, im Namen seiner Begründer den heute zum ersten Male versammelten

    „Verein zur Verbreitung naturwissenschaftlicher Kenntnisse"

    herzlich zu begrüssen. Den verschiedenartigsten Lebensstellungen angehörig, haben Sie Sich auf unsere Einladung hin vereinigt, um Ihre Zustimmung auszusprechen zu unseren Bemühungen, die neueren Erfahrungen der Naturforschung einem weiteren Kreise bekannt zu geben und den durch ihren Beruf den strengeren Studien ferner Stehenden einen Einblick zu öffnen in jene wunderbarsten und unvergänglichsten Eroberungen des menschlichen Geistes, welche die stolze Zierde unseres Jahrhunderts ausmachen.

    Lassen Sie mich zuerst die durch die heutige Versammlung erwiesene Thatsache aussprechen, dass es in Wien auch ausserhalb der gelehrten Gesellschaften eine grosse Anzahl von Männern gibt, welche den Werth naturwissenschaftlicher Forschung erkennen. Ueberflüssig wäre es hinzuzufügen, wie bedeutungsvoll und wie hoch erfreulich diese Thatsache sei und so schreite ich denn sogleich daran, einige Worte von der Entstehung und von der Aufgabe dieses neuen Vereines zu sagen.

    Populäre Vorlesungen gab es bereits an vielen Orten Deutschlands

    Vor einigen Jahren sah man in vielen Städten Deutschlands Fachmänner sich vereinigen, um populäre Vorlesungen abzuhalten. In mehreren Orten haben sie ein wissbegieriges Publikum gefunden, welches durch seine Aufmerksamkeit ihre Anstrengungen belohnte und haben diese Vorlesungen in jedem Winter, bis zum diesjährigen, ihre Fortsetzung gefunden. Sie sind dabei, anfangs eine neue und fremdartige Erscheinung, zu einem nicht unwesentlichen Momente in dem geistigen Leben dieser Bevölkerungen geworden. Mit den Jahren haben sie in den verschiedenen Städten einen etwas verschiedenen localen Charakter angenommen. Während z. B. Königsberg sich rühmen mag, in einzelnen seiner Vorträge neue Anschauungen über die ersten Weltgesetze ausgesprochen gehört zu haben, sind jene in München mit allem Glanze hochberühmter Namen und eines königlichen Mäcenatenthumes umgeben worden.

    Montagsvorlesungen seit dem Herbste 1855 – Vorläufer des Vereins

    Auch in unserem Kreise ist mancher neue Gedanke ausgesprochen und manches schöne Ergebniss zum ersten Male vorgelegt worden, auch bei uns hat sich mancher hochgeachtete Staatsmann als ein Zuhörer eingefunden; unser erstes Ziel ist aber stets nur das gewesen, zu belehren. Unsere Vorträge sind lediglich naturwissenschaftlichen Fächern entnommen gewesen-, der Kreis von Vortragenden hat fast ausschliesslich aus jüngeren Fachmännern bestanden, aber Ihre Aufmerksamkeit und Ihr Beifall haben uns gelehrt, dass wir in der Erfüllung unserer Aufgabe glücklich waren.

    Seit dem Herbste 1855 bis zum heutigen Tage sind nahe an neunzig öffentliche Vorträge von uns gehalten worden, und da in den letzten Jahren die Zahl der Zuhörer nie weit unter 200 fiel, dürfen wir wohl annehmen, dass es uns auch in der That gelungen sei, einige Belehrung zu verbreiten.

    Die ersten Vorträge fanden im Winter 1855/6 auf Anregung unsers unvergesslichen Grailich, im Saale der k. k. geol. Reichsanstalt auf der Landstrasse statt. Im Winter 1856/7 pflegte der uns so freundlich angebotene Saal bereits trotz seiner entfernten Lage so überfüllt zu sein, dass wir bedacht sein mussten, ein grösseres Locale zu beschaffen.

    Im Herbste 1857 öffnete uns die k. Akademie der Wissenschaften auf den Vorschlag ihres Präsidenten Sr. Excellenz des Freiherrn von Baumgartner in dem 2. Stockwerke ihres eben bezogenen Gebäudes mit grösster Liberalität einen bei weitem geräumigeren Saal. Drei Winter hindurch fanden hier unsere Zusammenkünfte statt, aber auch hier ereignete es sich nicht selten, dass die Zahl der Zuhörer auf mehrere Hundert stieg und nicht Platz finden konnte. Im Laufe dieses Winters endlich hat die k. Akademie, stets die wärmste Förderin unseres Unternehmens, uns einen noch grösseren, den sogenannten grünen Saal geöffnet, in welchem unsere Vorlesungen jetzt stattfinden.

    Gründung des Vereins

    Bei so steigender Theilnahme hat es der diesjährige Kreis von Vortragenden für seine Pflicht gehalten, Vorkehrungen zu treffen, welche dem Unternehmen eine Dauer für die Zukunft und zugleich eine ausgiebigere Wirksamkeit sichern sollten. Am 4. November vereinigten wir uns, um eine Eingabe an die Behörde um die Bewilligung zur Errichtung dieses Vereines zu unterzeichnen. Am 4. März erfloss die kaiserliche Genehmigung unserer Bitte, am 15. April die endgiltige Gutheissung unserer Statuten.

    Binnen weniger als einem Monate ist der neue Verein zu der zahlreichen Versammlung herangewachsen, welche Sie um Sich sehen [4]. Es ist ein neues Centrum geistiger Thätigkeit geschaffen. Lassen Sie mich von dem sprechen, was mir als seine Aufgabe vorschwebt.

    Sie Alle gewiss, verehrte Anwesende, freuen sich der besseren Jahreszeit und des grünen Rasens und der wundervollen Schattirungen des Laubholzes. Manchen tragen seine Träume weiter. Er erinnert sich des nahen Hochgebirges und der Schönheiten, die es birgt und mit Entzücken gedenkt er des Tages, an welchem er zuerst seinen Fuss auf eine jener Hochspitzen setzte, unter denen die Länder ausgebreitet liegen wie eine Landkarte. Das Auge weitgeöffnet, um das grenzenlose Bild zu umfassen, die Brust erfüllt von der reineren Luft der Höhen und gehoben durch das Bewusstsein überstandener Mühen, lässt der Wanderer tief in seine Seele den Eindruck so vieler Pracht sich senken und spricht leise: Wie schön!

    Das, verehrte Anwesende, ist die unmittelbare Freude an der Schöpfung, zu welcher es weiterer Kenntnisse eben nicht bedarf. Wer sich jedoch mit einiger Ausdauer dem Studium der Naturwissenschaften hingibt, lernt bald ein ähnliches Entzücken an Bildern gemessen, welche er nicht sinnlich wahrzunehmen, sondern nur aus seinen Erfahrungen zu construiren weiss. Und von dem Augenblicke an, in welchem die Seele für Freuden dieser Art empfänglich geworden, ist das Studium für ihn nichts mehr, als eine ununterbrochene Reihe der reinsten und beneidenswerthesten Genüsse; von der Bewunderung der Aussenwelt kehrt er befriedigt zurück zu der Bewunderung des menschlichen Geistes, der sie so weit zu durchdenken im Stande ist.

    Wir vermögen nicht, Ihnen an Winterabenden den unmittelbaren Naturgenuss einer schönen Landschaft herzuzaubern, aber wir nehmen die einzelnen Theile aus dem Bilde und lehren Sie dieselben besser zu betrachten. Der Bau des Gebirges, auf welchem Sie gestanden, die Organisation der Pflanzen, die Sie auf demselben trafen, selbst die Luftströmungen, die Sie empfanden, ja sogar die Natur der erleuchtenden Sonne, solches sind die Gegenstände unserer Vorträge und wenn Sie nach diesen im Sommer wieder hinaustreten in die offene Natur, dann hat sich, so hoffen wir, zu Ihrer früheren Freude auch ein etwas höherer Grad von Verständniss gesellt, Sie wissen der Natur tiefer in ihr grünes Auge zu schauen und die grössere Innigkeit Ihres Entzückens lehrt Sie, wie schön der Beruf des Naturforschers sei.

    Es ist etwas Eigenthümliches um diesen Beruf

    Ein glücklicher Gedanke in einem hellen Kopfe lehrt die Menschheit Worte fliegen zu lassen längs einem Drahte mit einer Geschwindigkeit von mehreren tausend Meilen in der Sekunde. Ein glücklicher Gedanke dort, und es ist uns das Mittel gegeben, den ungreifbaren Sonnenstrahl zu zerlegen und mit Hilfe von Lichterscheinungen neue Stoffe zu erkennen, deren Vorhandensein die zartesten Reagentien nicht verrathen hatten. Mühsam beobachtet am Mikroskope ein Forscher die Sexualorgane der Pflanzen, bis er uns endlich beweist, dass die Fortpflanzungserscheinungen bei ihnen auf eine wunderbare Weise mit den Vorgängen im Thierreiche übereinstimmen. Ein Anderer zeigt Ihnen aus dem Vergleiche langer Beobachtungstabellen, dass ein innerer Zusammenhang bestehe zwischen den Flecken auf der Sonne und dem Nordlichte. Ein Dritter lehrt Sie mit einem Male alle die über die Organisation, die Verbreitung und die Vergangenheit lebender Wesen gesammelten Erfahrungen von einem neuen Standpunkte aus betrachten und regt in einer einzigen Schrift hunderte von Fragen an, welche, neue Fragen gebärend, noch manche Generation nach uns beschäftigen werden.

    Wie der Wanderer vom Berge aus seinen Blick über Berge, Thäler und Ebene schweifen lässt und Fluss, Wald und Ortschaften unter sich erkennt, so gewöhnt sich der Geist, über den ganzen Planeten hinzublicken, über die vielgestaltige Pflanzendecke des Erdballes und alles Leben, das da pulsirt von den Polen bis in die Tropenwälder. In die entferntesten Epochen einer unmessbaren Vergangenheit senkt er seine durchdringenden Gedanken und mit seinem unwiderstehlichsten Instrumente, der Mathematik, verfolgt er die Bahnen der Welten.

    Und nun frage ich Sie, verehrte Anwesende, welche Lehre geeigneter sein könnte dem Menschen die ganze Erhabenheit der Stellung zu zeigen, die ihm in dieser Schöpfung angewiesen ist. Er fühlt sich der Herr. Auf einen Ossa von Erfahrungen träumt er einen Pelion von Vernunftschlüssen zu thürmen und dünkt sich der wahre, titanische Sohn der alten Mutter Gaia, bis endlich sein Blick die Nebel von Weltsystemen trifft, die um ihn kreisen und er gedemüthigt zurücksinkt.

    Diese gewaltigen Schwankungen der Seele sind es, welche einen der höchsten Momente der Anregung in unserer Wissenschaft bilden. Das Gleichgewicht, das endlich folgt, erklärt Ihnen die grenzenlose Begeisterung und zugleich die ruhige Hingebung von welchen Hunderte von Naturforschern in unsern Tagen Zeugniss geben. Denken Sie an die Grossthaten arktischer Reisender und fragen Sie Sich dann, ob die Weltgeschichte irgend eine Heldenthat kenne, der dieses ruhige Eintreten in die Gefahren sich nicht vergleichen lässt.

    Von der Ostküste des tropischen Amerika's fliesst ein mächtiger Strom warmen Wassers, der Golfstrom, Europa zu und einen Theil unserer Westküsten bespülend, erwärmt er unser Klima und befeuchtet er unsere Landschaften. Auf seinem Wege umfiiesst er die Halbinsel Florida, welche aus Korallenbildungen besteht. Millionen winziger Korallenthierchen vermehren heute noch fort und fort den Saum der Halbinsel und jedes einzelne Individuum trägt unbewusst sein Atom dazu bei, um dem Golfstrom eine andere Richtung zu geben und jenseits des Ocean's das Klima von Europa zu beeinflussen. So werden oft in der Natur durch kleine Kräfte grosse Wirkungen hervorgebracht. Mit Bewusstsein aber strebt nur der Mensch grossen Zielen nach.

    Lassen Sie uns, die wir jung sind, glauben, dass unsere Ziele grosse seien, wie unser Object sicher ein grosses ist.

    Ja, gross ist diese Schöpfung und unerschöpflich sind ihre Wunder. Das Auge vermag nicht sie zu fassen, vergebens müht sich der Geist, um sie alle zu begreifen; wie soll die Lippe im Stande sein sie alle zu schildern? Einzelne Skizzen, flüchtige Scenen aus dem grossen, lebensvollen, ewigen All sind es, die wir im besten Falle Ihnen versprechen können.

    Der feinere Geist findet den Zusammenhang der Fragmente und ahnt die harmonische Grossartigkeit des Ganzen. Ja und eben diesen erhebenden Gedanken an die ewige, unendliche und unveränderliche Gesetzmässigkeit des Kosmos hinauszutragen in's Volk, das ist's was ich als die Mission dieses Vereines erkenne. Mag die Theilnahme seiner Mitglieder, der Eifer seiner Ausschüsse, mag vor Allem gegenseitiges Vertrauen und gegenseitige Zuneigung, dieser wahre Lebensnerv jeder gesellschaftlichen Verbindung, ihn durchströmen und kräftigen und ihm eine würdige Rolle schaffen inmitten des allgemeineren Erwachens geistigen Lebens, welchem unser Vaterland endlich entgegengeht.«

    [1] http://www.univie.ac.at/Verbreitung-naturwiss-Kenntnisse/

    [2] http://www.adulteducation.at/de/historiografie/institutionen/419/

    [3] Eduard Suess: Ueber die Entstehung und die Aufgabe des Vereins. http://www.landesmuseum.at/pdf_frei_remote/SVVNWK_1_0003-0014.pdf

    [4] An der Gründungsversammlung haben 31 Mitglieder teilgenommen, davon waren rund 2/3 Beamte und (Hochschul)lehrer, dazu kamen Studenten, Fabrikanten, Kaufleute, Freischaffende und auch Handwerker. ( Karl Hornstein: Über den Stand der Mitgliederzahl und des Vereinsvermögens. http://www.landesmuseum.at/pdf_frei_remote/SVVNWK_1_0015-0020.pdf)


    The Face of The Earth - The Legacy of Eduard Suess (4:16)

    Wiener Vorlesungen: Eduard Suess (1:17:27)

    Eduard Suess Ausstellung (2:00)

    inge Fri, 26.12.2014 - 09:06

    Täuschende Schönheiten

    Täuschende Schönheiten

    Fr, 19.12.2014 - 06:29 — Bill S. Hansson

    Bill S. HanssonIcon BiologieMit chemischen Tricks täuschen Aronstabgewächse und Orchideenblüten den Geruchssinn fliegender Insekten, um fremden Pollen zu empfangen und eigenen Pollen an benachbarte Blüten weiterzugeben. Dazu imitieren die Pflanzen beispielsweise die Duftstoffe gärender Hefe, um Fruchtfliegen anzulocken, oder weibliche Sexuallockstoffe, um Insektenmännchen als Bestäuber zu missbrauchen und am Ende sogar ohne Belohnung zu entlassen. Der Biologe Bill S. Hansson, Direktor am Max-Planck Institut für Chemische Ökologie und derzeitiger Vizepräsident der Max Planck Gesellschaft zeigt auf, wie die Aufklärung der chemischen Botenstoffe und ihrer Wirkung neue Einblicke in die Ökologie und Ko-Evolution von Pflanzen und Insekten erlaubt.*

    Beziehungen zwischen Insekten und Pflanzen werden gern als Paradebeispiel für Mutualismus, also gegenseitigen Nutzen, betrachtet: Blüten werden durch das Insekt bestäubt, und der Bestäuber wird dafür mit reichlich Nektar belohnt. Der Mensch empfindet den Blütenduft, mit dem Pflanzen ihre Bestäuber anlocken, meist als angenehm.

    Schon seit langem ist jedoch bekannt, dass sich einige Blütenpflanzen nicht an die oben erwähnten „sozialen“ Spielregeln halten. Stattdessen nutzen sie verschiedenste Arten von Lockstoffen, um Insekten auszutricksen und so zur Bestäubung zu verführen. Ein solches System steht in der Evolution unter einem äußerst hohen Selektionsdruck: Insekt und Blüte befinden sich – nach der so genannten Red-Queen-Hypothese – in einem endlosen Wettstreit, in dem die Blüte kontinuierlich täuscht und das Insekt vermeiden sollte, immer wieder getäuscht zu werden.

    Der Vorteil der Pflanze

    bei einer solchen Interaktion ist deutlich: Sie wird bestäubt, ohne dafür mit der Produktion von Nektar bezahlen zu müssen.

    Das Insekt aber ist im Nachteil. Wenn es von der Pflanze an der Nase herumgeführt und als Bestäuber missbraucht wird, verliert es wertvolle Zeit und Energie. Oft hält eine Blüte das Insekt sogar für mehrere Stunden gefangen, um einen wirksamen Pollentransfer zur nächsten Blüte sicherzustellen. Im kurzen Leben vieler Insekten ist ein solcher Zeitverlust sehr kostspielig und sollte möglichst vermieden werden. Daher müssen „betrügerische“ Pflanzen Blüten hervorbringen, die für das Zielinsekt unwiderstehlich sind, denn sonst würde die Selektion Insekten hervorbringen, die gelernt haben, Imitation (z.B. Blütenduft) von Vorlage (z.B. Lockstoff des Weibchens) zu unterscheiden.

    Wie sieht ein idealer Köder aus,

    dem ein Insekt nicht widerstehen kann? Jedes Insekt möchte sich während seiner Lebenszeit so effektiv wie möglich fortpflanzen. Chemische Signalstoffe stellen daher zweckdienliche Mittel dar, die instrumentalisiert werden können. Insekten sind weitestgehend geruchsgesteuert, deshalb ahmen manche Blütenpflanzen Duftsignaturen nach, die bei der Fortpflanzung von Bienen, Fliegen, Käfern und anderen Insekten eine Rolle spielen. Zwei Hauptkategorien dieser molekularen Mimikry, die auf verschiedene Bereiche des tierischen Reproduktionssystems abzielen, können unterschieden werden: Sexuelle Mimikry, bei der die Blüte den Sexuallockstoff des anderen Geschlechts, in der Regel des Insektenweibchens, vortäuscht, und Mimikry der Brutstelle, bei der die Blüte eine perfekte Nahrungsquelle für die aus den abgelegten Eiern schlüpfenden Larven imitiert.

    In diesem Artikel werden Beispiele aus den verschiedenen Systemen vorgestellt, bei denen die sensorischen Signale, die bei der Täuschung eine Rolle spielen, kürzlich aufgeklärt werden konnten. Der Schwerpunkt liegt auf Geruchssignalen, aber auch visuelle und thermische Signale wurden analysiert.

    Sexuelle Täuschung

    Ein Insektenmännchen kann es sich nicht leisten, auch nur eine Gelegenheit zur Paarung zu verpassen, denn es möchte sein Genom ebenso erfolgreich fortpflanzen wie seine Mitbewerber. Ein Insektenleben ist kurz und vor allem – die Gelegenheiten sind selten. Die starke Anziehungskraft des männlichen Insekts hin zur Sexualpartnerin ist deshalb eine perfekte Zielvorgabe für Pflanzen, entsprechende „Bestäubungssysteme“ zu entwickeln.

    Von den Pflanzen, die eine sexuelle Mimikry entwickelt haben, sind vor allem die Orchideen bekannt (Abbildung 1). Das erste System, das sowohl auf chemischer als auch verhaltensbiologischer Ebene untersucht wurde, ist die Wechselwirkung zwischen der Orchideenart Ophrys sphegodes (Spinnenragwurz) und Sandbienen der Gattung Andrena.

    In verschiedenen Studien konnte nachgewiesen werden, dass die Orchidee tatsächlich das aus einem Gemisch verschiedener Substanzen bestehende Sexualpheromon eines Bienenweibchens imitiert, und zwar so perfekt, dass das Männchen sogar versucht, mit der Blüte zu kopulieren, und so die Pollenmasse garantiert an seinem Körper kleben bleibt. Blüte der Orchideenart Ophrys insectiferaAbbildung 1.

    Abb. 1. Die Blüte der Orchideenart Ophrys insectifera (Fliegenragwurz), die eine weibliche Wespe sowohl visuell als auch chemisch nachahmt, um Wespenmännchen zur Bestäubung zu verführen. Die Blüte imitiert das Weibchen derart perfekt, dass das Männchen versucht, sich mit ihr zu paaren. Auf diese Weise kommt sein Kopf mit der klebrigen Pollenmasse in Kontakt und der Pollen wird auf die nächste Blüte übertragen. © Zeichnung: Max-Planck-Institut für chemische Ökologie/Hansson

    Die Chemie der Täuschung

    Das Pheromongemisch besteht aus etwa zehn verschiedenen Kohlenwasserstoffmolekülen, aber das Bestäubungssystem ist noch viel ausgeklügelter als zunächst angenommen.

    Eine weibliche Biene paart sich nämlich nur ein einziges Mal mit einem Männchen. Jedes Weibchen besitzt einen individuellen Geruch, der sich von dem der anderen Weibchen minimal, nämlich je nach Mengenverhältnis der flüchtigen Kohlenwasserstoffmoleküle, unterscheidet. Um keine Zeit damit zu vergeuden, ein Weibchen zu umwerben, mit dem es sich bereits gepaart hat, merkt sich das Männchen die Duftsignaturen seiner bereits eroberten Partnerinnen.

    Würden also alle Blüten der betrügerischen Orchideen gleich riechen, würden die Männchen keine weitere Blüte aufsuchen, weil sie dort ein Weibchen vermuten würden, mit dem sie sich bereits gepaart haben. Die Blüten geben deshalb Duftbouquets ab, die sich voneinander unterscheiden, und zwar in einer Variationsbreite, die den voneinander abweichenden Lockstoffbouquets der Weibchen entspricht.

    Auf diese Weise wird das Männchen dazu verführt, von Blüte zu Blüte zu fliegen, und erst damit überträgt es den Pollen und sichert die Fortpflanzung und genetische Variabilität der Orchideenart.

    Vorgetäuschte Brutstellen

    Sexuelle Mimikry von Pflanzen ist fast immer auf paarungswillige Insektenmännchen ausgerichtet, die sich nur allzu leicht überlisten lassen. Von Pflanzen vorgetäuschte Brutstellen hingegen führen Insektenweibchen in die Irre, die nach einer geeigneten Nahrungsquelle für ihren Nachwuchs suchen. In den letzten Jahren wurden zahlreiche Arten der Gattung Arum aus der Familie der Aronstabgewächse analysiert, weil man vermutete, dass hier Brutstellen-vortäuschende Pflanzen zu finden sein sollten. Von diesen Pflanzen ist bekannt, dass sie – zumindest für die menschliche Nase – sehr eigenartige Blütendüfte produzieren und außerdem ein breites Spektrum an Bestäubern anlocken.

    Ein Aronstabgewächs mit dem volkstümlichen Namen „Totes Pferd“

    Die ersten Untersuchungen zur Brutstellen-Mimikry konzentrierten sich auf Pflanzen der Art Helicodiceros muscivorus, im Volksmund auch „Totes Pferd“ (dead horse arum) genannt. Diese auffällige und vor allem übelriechende Pflanze kommt auf kleinen Inseln im Mittelmeerraum vor. Sie ist fast immer in der Nähe größerer Möwenkolonien zu finden und blüht kurz bevor die Möwenjungen schlüpfen. In diesem Zeitraum trifft man interessanterweise auch auf große Populationen sogenannter Fleischfliegen, und tatsächlich konnte nachgewiesen werden, dass die Blüten den Geruch von verrottendem Fleisch imitieren und damit Fleischfliegen als unfreiwillige Bestäuber anlocken.

    Elektrophysiologische Experimente zeigten, dass die Antennen der Fliege, also ihre „Nase“, auf den Geruch der Pflanze und den Geruch von fauligem Fleisch identisch reagierten. Bei den aktiven Komponenten der in der Blüte produzierten Duftmischung handelte es sich um drei verschiedene Oligosulfide. Zusätzlich heizt sich die Blüte auf und übersteigt die Umgebungstemperatur um etwa 15 Grad Celsius. Sie ahmt damit die Hitze nach, die in einem faulenden Tierkadaver entsteht. Die Blüte öffnet sich zwei Tage lang, produziert ihren fauligen Geruch und zusätzliche Wärme aber nur am ersten Tag. Diese Tatsache ermöglichte es den Wissenschaftlern, die Attraktivität der Blütensignale genau zu testen. Dazu wurde die Blüte am zweiten Tag – wenn sie normalerweise nicht mehr riecht – zuerst mit einem synthetischen Duft versehen. Es zeigte sich, dass die Fliegen im gleichen Ausmaß wie am ersten Tag angelockt wurden, allerdings krabbelten sie nicht bis in den Kelch der Blüte hinein, wo die Fliegen üblicherweise für einige Zeit gefangen gehalten werden, um die Pollenübertragung sicherzustellen (Abbildung 2).

    Blütenkelch des Aronstabgewächses Dead Horse ArumAbbildung 2. Zeichnung des Blütenkelchs des Aronstabgewächses Dead Horse Arum, der als Fliegenfalle fungiert. Die Fliegen werden durch die Kombination von olfaktorischen, visuellen und thermischen Stimuli angelockt, was die Pflanze für weibliche Fleischfliegen, die nach Eiablage ihrem Nachwuchs eine optimale Nahrungsquelle bieten wollen, unwiderstehlich macht. Sie werden in der Kammer gefangen, wo sie die weiblichen Blüten (ganz unten im Kelch) bestäuben. Am zweiten Tag welken die Stacheln oberhalb der weiblichen Blüten und die Fliegen werden wieder freigelassen, damit sie den Pollen der männlichen Blüten übertragen können. © Zeichnung: Max-Planck-Institut für chemische Ökologie/Hansson

    Die Täuschung funktionierte jedoch vollständig, wenn dem Kelch künstlich genügend Wärme hinzugefügt wurde: Die Fliegen gingen in die Falle. Dieses Aronstabgewächs bedient sich also einer multisensorischen Täuschung, um Fleischfliegen erfolgreich anzulocken. Neben der Geruchs- und Wärme-Imitation verwendet die Pflanze zusätzliche mechanosensorische und visuelle Signale, um ihre Attraktivität bei den Fliegen noch weiter zu steigern.

    Die Bestäubungsstrategie von Helicodiceros muscivorus hängt von der perfekten Nachahmung einer unwiderstehlichen Ressource ab, damit Fliegenweibchen das vermeintlich optimale Eiablagesubstrat nicht ignorieren können. Gleichzeitig drängt die Pflanze die Fliegen aus der Perspektive der Evolution kaum dazu, Maßnahmen gegen die Täuschung zu entwickeln, weil sie für ihre betrügerischen Aktionen nur kurze Zeitfenster (wenige Wochen) und sehr begrenzte Lebensräume (kleine Mittelmeerinseln) nutzt.

    Aronstabgewächse auf Kreta

    Auf der Insel Kreta kommen verschiedene Arten der Gattung Arum vor. In einer Reihe von Feld- sowie Laborexperimenten wurden vier dieser Arten näher untersucht. Es konnte gezeigt werden, dass zwei Arten, A. cyrenaicum und A. concinnatum, einen strengen Geruch nach Tierkot abgeben und mit Helicodiceros muscivorus („Totes Pferd“, s.o.) einige Ähnlichkeiten aufweisen: Beide Pflanzenarten besitzen wärmebildende Gewebe und mit ihren sich ähnelnden Duftbouquets locken sie kleine Fliegen an, die sie für einige Zeit gefangen halten. Obwohl sie den gleichen Lebensraum teilen, unterscheiden sich die zwei Arum-Arten in der Blütezeit, weshalb eine gegenseitige Befruchtung ausgeschlossen ist.

    Hingegen haben die beiden Arten A. creticum und A. idaeum einen eher traditionellen Bestäubungsmechanismus entwickelt, der auf dem gegenseitigen Nutzen für Pflanze und Bestäuber beruht. Statt eines stinkenden Geruchs geben sie einen, zumindest für uns Menschen, angenehmeren Blütenduft ab, der Bienen und Käfer anlockt. Obwohl die beiden Arum-Arten dieselben Bestäuberarten anlocken, unterscheidet sich der Hauptbestandteil im Duft von A. creticum von dem in A. idaeum, und die Bestäuber können möglicherweise die Düfte der beiden Arten unterscheiden. Ein Vergleich aller wesentlichen Blütenduftkomponenten der vier kretischen Arum-Arten, die mittels Gaschromatografie-Massenspektrometrie identifiziert wurden, ergab Ähnlichkeiten und Unterschiede. Die zwei belohnenden, mutualistischen Arten A. creticum und A. idaeum und die beiden nicht-belohnenden, fliegenfangenden Arten A. cyrenaicum und A. concinnatum bilden jeweils zwei Duftstoffgruppen, wobei sich die jeweiligen Gruppenpaare der belohnenden bzw. nicht-belohnenden Spezies deutlich voneinander unterscheiden.

    Die Schwarze Calla

    In einer der neuesten Arbeiten aus unserer Abteilung wurde eine Population der Schwarzen Calla (Arum palaestinum) im Norden Israels untersucht. In ersten Feldstudien konnte beobachtet werden, dass Blüten dieser Art eine große Anzahl von Taufliegen (Drosophiliden) anlocken (Abbildung 3).

    Taufliegen gefangen im Kelch einer Schwarzen CallaAbbildung 3. Taufliegen (Drosophiliden; auch Essig- oder Fruchtfliegen genannt) sind im Kelch einer Schwarzen Calla gefangen.Die Fliegen wurden durch Duftstoffe angelockt, die durch Hefe vergorene Früchte imitieren. ©Zeichnung: Max-Planck-Institut für chemische Ökologie/Hansson

    Eine einzige Blüte konnte innerhalb weniger Stunden bis zu 500 Fliegen ködern.

    Das Duftbouquet der Blüte wurde daraufhin genauer analysiert. Auf die menschliche Nase wirkt der Duft ähnlich wie der eines süßen Weines. Unter den Duftbestandteilen befanden sich 2,3-Butandionacetat und Acetoinacetat. Diese beiden Komponenten kommen sehr selten in Blütenduftbouquets vor, dagegen treten sie häufig als Produkte alkoholischer Gärung auf.

    Im weiteren Verlauf der Untersuchungen wurde deutlich, dass die Calla in der Tat einen Gärungsprozess imitiert, indem sie ein Duftbouquet mit sieben typischen Gärungs-Geruchsstoffen produziert. Im Labor wurde die Anziehungskraft verschiedentlich zusammengestellter Duftmischungen getestet: Es zeigte sich, dass eine Mischung aus genau denjenigen Duftkomponenten auf die Fliegen besonders anziehend wirkt, die z.B. dem Duftprofil faulender Bananen entspricht, also einem Substrat, auf das Drosophiliden von Natur aus nahezu versessen sind.

    Mithilfe des optical imaging wurden die primären Geruchszentren im Gehirn der Drosophiliden betrachtet, und es konnte abgeleitet werden, welche Geruchsrezeptoren in der Fliegenantenne aktiviert werden. Ein Vergleich dieser Rezeptoren innerhalb aller Fruchtfliegenarten, deren Genom vollständig sequenziert wurde (insgesamt 12 Arten), ergab, dass der Blütenduft der Schwarzen Calla drei Hauptgruppen von Rezeptoren aktiviert. Davon ist eine Gruppe in allen zwölf Arten hoch konserviert: Diese Rezeptoren signalisieren die Anwesenheit von gärenden Hefepilzen – also der Grundnahrungsquelle der Fliegen. Die zweite Gruppe signalisiert, dass von Hefe fermentierte Früchte in der Nähe sind; diese Rezeptoren sind somit besonders in Obst-konsumierenden Fliegenarten zu finden. Die dritte Gruppe von Rezeptoren ist weniger konserviert als die anderen beiden und scheint sich an die spezifischen Bedürfnisse obstfressender Art angepasst zu haben. Fazit: Die Blüte der Schwarzen Calla produziert somit den perfekten Lockduft, indem sie eine Reihe verschiedener wichtiger Reizleitungen in das Fliegengehirn kombiniert, die sämtlich der Fliege folgende Botschaft übermitteln: Komm zu mir, hier ist etwas wirklich Leckeres!

    Die Analyse des Bestäubungssystems von A. palaestinum ist ein ausgezeichnetes Beispiel für die Erforschung der Funktionalität von sensorisch basiertem Verhalten. Die Blüte bietet die sensorischen Signale, die benötigt werden, um sie für Fliegen so verführerisch wie möglich zu machen. Diese Signale wiederum sind die Eintrittskarte dafür, das System im Gehirn der Fliegen zu analysieren und bis zu ihrem Verhalten weiter zu verfolgen.

    Die nächsten Schritte

    Unsere Studien werden derzeit in verschiedene Richtungen weiter verfolgt. In einigen Mittelmeer-Regionen werden Populationen von Arum dioscoridis verglichen. Diese Art befindet sich anscheinend inmitten eines Prozesses voranschreitender Speziation (Artbildung) und divergiert in der Zusammensetzung abgegebener Duftmoleküle, Blütezeit und Morphologie. Interessanterweise scheinen verschiedene Populationen unterschiedlichen Kot nachzuahmen: einige riechen mehr nach dem Kot von Raubtieren, andere nach dem von Pflanzenfressern. In der Türkei wird der Hügel-Aronstab A. rupicola untersucht, der vermutlich einen Mechanismus entwickelt hat, warmblütige Säugetiere nachzuahmen, um blutsaugende Insekten als Bestäuber anzulocken.

    Darüber hinaus wurde kürzlich entdeckt, dass eine Orchidee die Alarmpheromone von Blattlauskolonien imitiert, um räuberische Schwebfliegen anzulocken [9]. Zudem werden zurzeit weitere Pflanzenarten gesucht, die Drosophiliden täuschen, denn solche Pflanzen vermitteln ein einzigartiges Wissen darüber, welche Stimuli für diese genetischen und verhaltensbiologischen Modellorganismen wirklich unwiderstehlich sind.

    Die Betrachtung der in diesem Artikel geschilderten unterschiedlichen Bestäubungssysteme offenbart die treibenden Kräfte der Evolution und erlaubt damit einen Einblick in ökologische Mechanismen und Wechselwirkungen, die sonst nur schwer bestimmbar gewesen wären.


    *Der im Forschungsmagazin der Max-Planck Gesellschaft 2011 erschienene Artikel Artikel http://www.mpg.de/1155805/Taeuschende_Schoenheiten?c=1070738 wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert und ohne Literaturzitate.


    Weiterführende Links

    Wild orchid wasp mimic - David Attenborough - BBC Video 2:58 min, https://www.youtube.com/watch?v=-h8I3cqpgnA

    Wild Orchids of Israel:Seduction of the Long-horned Bee Video 3:40 min, https://www.youtube.com/watch?v=yFftHXbjEQA

    Wow - the biggest flower in the world - Titan Arum - David Attenborough - BBC wildlife Video 2:28 min, https://www.youtube.com/watch?v=FHaWu2rcP94

    Dead Horse Arum Video 3:29 min, https://www.youtube.com/watch?v=OelTxxW0GvY

    inge Fri, 19.12.2014 - 06:29

    Was macht HCB so gefährlich?

    Was macht HCB so gefährlich?

    Fr, 12.12.2014 - 05:18 — Inge Schuster

    Inge SchusterIcon ChemieZur Zeit geht eine Meldung durch alle Medien und sorgt für größte Verunsicherung: Schadstoffmessungen haben in einigen Milchproben aus dem Kärntner Görtschitztal erhöhte Werte von Hexachlorbenzol (HCB) festgestellt. Ein Skandal, wie es einige Medienberichte – unter Akklamation zahlreicher Kommentatoren – titulieren? Die bis jetzt vorliegenden Untersuchungsergebnisse erlauben sicherlich (noch) nicht, dass man auf eine längerfristige Gefährdung der Bewohner des Görtschitztales oder der Konsumenten seiner Produkte schließen könnte.

    Da ich mich jahrzehntelang mit dem „Schicksal“ von Fremdstoffen in der Biosphäre beschäftigt habe, möchte ich von dieser Warte aus das vermutlich gravierendste Problem von Hexachlorbenzol (HCB) ansprechen, nämlich seine sehr hohe Persistenz in der Biosphäre. Näheres zu HCB selbst, seinem Vorkommen (u.a. in Lebensmitteln), seiner Anreicherung in Organismen und damit verbundenen gesundheitlichen Risiken, sowie offizielle Berichte und Richtlinien – von Seiten der EU und der US – finden sich am Schluss des Artikels (Reports in English, free download).

    Was ist Hexachlorbenzol (HCB)?

    Simpel ausgedrückt: ein einfaches kleines Molekül (C 6 Cl 6 – Molekulargewicht 284 D), ein Benzol, das alle 6 Positionen seines Rings durch Chloratome besetzt hat (Abbildung 1).

    Die weiße, relativ flüchtige Substanz wird durch Chlorierung von Benzol hergestellt; sie ist in Wasser praktisch unlöslich, löst sich dagegen 500 000 Mal besser in nichtwässrigen Systemen wie Ölen, Fetten und ganz allgemein organischen Lösungsmitteln.

    Chemische Struktur von Hexachlorbenzol (HCB)Abbildung 1. Chemische Struktur von Hexachlorbenzol (HCB)

    HCB ist eine chemisch sehr stabile Verbindung. Ein Abbau in der Atmosphäre (durch Radikalreaktionen, Photolyse) ist extrem langsam (Halbwertzeiten in der Größenordnung von mehreren Jahren), ebenso in biologischen Systemen (s.u.). Als Folge akkumuliert HCB in der Umwelt.

    Verwendung von HCB und gesundheitliche Probleme

    Bis in die frühen 1980er Jahre wurde Hexachlorbenzol weltweit exzessiv genutzt. HCB diente vor allem als hochwirksames Fungizid – d.i. als Mittel gegen Pilzbefall: In der Landwirtschaft wurden damit große Durchbrüche erzielt u.a. gegen den Weizensteinbrand; dazu wurde mit HCB gebeiztes Saatgut eingesetzt, welches bis zu rund 1g der Substanz im kg enthalten konnte. Als Fungizid wurde HCB auch in Holzschutzmitteln genutzt. Weite Verwendung fand HCB in der Industrie: u.a. als Zusatzstoff von PVC (Polyvinylchlorid - beispielsweise für Bodenbeläge) und von Isolationsmaterialien, bei der Herstellung von Graphitanoden, von pyrotechnischen Produkten u.v.a.m.

    In der zweiten Hälfte der 1950er Jahre gab es dann gravierende Hinweise, dass durch HCB schwere gesundheitliche Schäden verursacht werden können: In Südostanatolien hatte eine Bevölkerungsgruppe Saatgut verwendet, das mit einer viel zu hohen Menge an HCB (2kg HCB/1 000kg) präpariert gewesen war und über Jahre das Brot gegessen, das sie aus den erhaltenen Ernten produzierten. Rund 4 000 Personen erkrankten damals, vor allem an Porphyrie (Porphyria cutanea tarda – PCT) – Zielorgane waren neben der Leber: Haut, Knochen und Schilddrüse – und rund 10% der Erwachsenen starben. Die offensichtlich viel zu hohen HCB Konzentrationen in der Muttermilch führten aber zu einer extrem hohen Sterblichkeit (95%!) von Kindern unter 2 Jahren.

    Schätzungen zufolge hatten die Menschen über Jahre hinweg täglich 50 – 200mg HCB (0,7 – 2,9 mg/kg Körpergewicht) zu sich genommen. Auch Jahrzehnte später litten sie noch unter den Folgeerscheinungen des HCB. (Zum Vergleich: die bei uns heute als tolerierbar geschätzte tägliche Aufnahme liegt bei 0,01µg/kg (Mikrogramm/kg) Körpergewicht, d.i. um mehr als 100 000mal niedriger.)

    Eine derartige Katastrophe ist zum Glück anderswo nicht aufgetreten.

    Als Folge gab es an vielen Orten - weltweit - Untersuchungen der Bevölkerung. Wichtig war vor allem das Risiko von Personen zu erheben, die im Umkreis von Industrien zu Herstellung, Anwendung und Entsorgung von chlorierten Verbindungen lebten und z.T. auch dort beschäftigt waren. Gemessen an den HCB-Serumspiegeln waren z.T. recht hohe HCB-Belastungen ersichtlich (z.B in Flix/Spanien lagen die Serumkonzentrationen bei 93 – 223µg/l ). Die von verschiedenen Gruppen erhobenen Gesundheitsdaten waren aber recht ambivalent: eine Reihe von Daten wies darauf hin, dass die HCB-Belastung keinen oder einen nur sehr geringen Einfluss auf relevante klinische Parameter bewirkte, andere Daten zeigten Zusammenhänge zu Schädigungen von Leber, Muskel, Schilddrüse u.a.

    Für die Argumentationen zur Schädlichkeit von HCB wurden (und werden weiterhin) gerne eindeutige Daten aus Tierversuchen (von Maus, Ratte, Hund bis hin zum Affen) und auch aus in vitro Versuchen mit Zellkulturen ins Treffen geführt. Das Problem dabei ist: die in diesen Versuchen angewandten HCB- Dosen betrugen ein Vielfaches der Dosen, die sich als katastrophale Belastung in Ostanatolien erwiesen hatten.

    Reduktion der HCB Emissionen

    In Anbetracht der mit HCB verbundenen Risiken wurde in der Folge die Produktion von HCB weitestgehend eingestellt, sein landwirtschaftlicher Einsatz von der Europäischen Gemeinschaft 1981 verboten.

    Im Jahre 2001 haben 151 Staaten das weltweite Verbot von 12 Chlorverbindungen („das dreckige Dutzend“) – darunter HCB – in der Stockholmer Konvention zum Schutz der Gesundheit und der Umwelt unterzeichnet. Damit wurde das Problem mit HCB bedeutend verringert, aber nicht völlig aus der Welt geschafft (Abbildung 2).

    HCB ist – auf einem niedrigeren Level - weiter in der Umwelt vorhanden:

    • Es entsteht bei praktisch allen Verbrennungsprozessen, die in Gegenwart von Kohlenstoff und Chlor ablaufen (beides ubiquitäre Elemente der Biosphäre). Besonders hohe Konzentrationen - mehrere Gramm HCB je Tonne Material - können bei Verbrennung von Klärschlamm oder Polyvinylchlorid (PVC) anfallen.
    • HCB ist ein Nebenprodukt bei der Herstellung von chlorierten Lösungsmitteln und Pestiziden.
    • HCB liegt in Altlasten im Boden vor.
    •  

    Emission von HexachlorbenzolAbbildung 2. Die Emission von Hexachlorbenzol ist stark zurückgegangen aber nicht völlig verschwunden

    Das Problem der Persistenz von HCB

    Der wesentliche Grund für die Gefährlichkeit von HCB liegt in seiner Persistenz.

    Wie auch für andere kleine, lipophile (fettlösliche) Moleküle ist es kein Problem für HCB, durch die Lipidschicht der Zellmembran ins Zellinnere, in ganze Organismen einzutreten. Da das Zellinnere reich an Lipid-haltigen Strukturen und auch an diversen Proteinen ist, an die fettlösliche Moleküle binden können, kommt es zu deren Anreicherung in der Zelle. Dies ist auch für HCB der Fall.

    Da zunehmende Anreicherungen von Fremdstoffen die Funktion von Zellproteinen- und Strukturen enorm beeinträchtigen/schädigen würden, enthalten Zellen ein Set von Enzymen, welche nahezu alle Fremdstoffe in Verbindungen umwandeln, welche weniger anreichern und damit aus den Zellen ausgeschieden – eliminiert – werden. Für den Großteil der Fremdstoffe – auch beispielsweise für die meisten Medikamente - genügen dazu einige wenige Vertreter aus der sogenannten Cytochrom P450 (CYP) Familie. Diese binden den jeweiligen Fremdstoff und oxydieren ihn. Dabei entsteht ein Produkt (der Metabolit), das zumeist weniger fettlöslich und mehr wasserlöslich ist. Dieses kann aber noch weitere Male oxydiert werden - solange bis es auf Grund seiner sehr geringen Lipophilie kaum noch Bindungspartner im Zellinneren findet.

    Im Fall des HCB existieren ebenfalls Enzyme (CYP1A1 CYP1A2, CYP3A4), die den Stoff binden können (Abbildung 3). Es ist für diese allerdings sehr schwierig die Kohlenstoff-Chlor Bindungen im Molekül anzugreifen um das Molekül zu oxydieren. Dementsprechend erfolgen derartige Oxydationen nur äußerst langsam. Kommt von außen noch weiteres HCB, ohne dass äquivalente Mengen die Zelle verlassen können, so reichert sich die Substanz mehr und mehr in den Zellen an. (Dies gilt auch für andere mehrfach chlorierte Substanzen, wie beispielsweise die Dioxine.)

    Diskrepanz zwischen Aufnahme und Eliminierung von HCBAbbildung 3. Infolge einer sehr langsamen Umwandlung von HCB (grün) in weniger fettlösliche Produkte (gelb) kommt es zur Diskrepanz zwischen Aufnahme und Eliminierung und HCB reichert sich mehr und mehr an.

    Die mangelnde Fähigkeit HCB in weniger fettlösliche Substanzen umzuwandeln gilt gleichermaßen für Mikroorganismen, das Pflanzen-, Pilze- und Tierreich. Dementsprechend dauert es sehr lange (Halbwertszeiten von mehreren Jahren bis zu Jahrzehnten) bis Altlasten von HCB durch im Erdreich lebende Organismen abgebaut sind.

    Aus dem Wasser gelangt HCB in die dort lebenden Tiere und reichert sich an, aus der Luft und dem Boden in Pflanzen, aus der Luft und der Nahrung in die Landbewohner. Über die Nahrungskette nehmen wir überall HCB-kontaminiertes Material zu uns.

    Der Abbau von HCB wurde in vielen Spezies untersucht – er ist überall sehr langsam.

    Vom Menschen gibt es nur indirekte Daten. Schätzungen der Eliminierungsraten (Halbwertszeiten) bewegen sich von 2 – 3 Jahren bis hin zu 6 Jahren und darüber. Wichtig erscheint dabei: HCB ist nicht gleichmäßig auf den Organismus verteilt, der Großteil wandert – wie könnte es anders sein – aus der Blutzirkulation ins Fettgewebe. Während HCB im Blut üblicherweise unter 1ng/ml (Nanogramm pro Milliliter) liegt, können es im Fettgewebe auch bis zu mehreren 100ng/ml sein. (Bei Gewichtsverlust taucht dann vermehrt HCB im Blut und in den Organen auf.)

    Muß man sich vor HCB also fürchten?

    Mit dem Rückgang der HCB-Emissionen (Abbildung 2) ist es – zwar langsam aber dennoch ähnlich dramatisch - auch zu einer entsprechenden Verringerung des HCB in unserem Organismus gekommen. Im Boden hat sich HCB verringert, ebenso in der Nahrungskette. Messungen aus Deutschland belegen beispielsweise, dass zwischen 1983 und 1998 eine 90% Reduktion von HCB im humanen Fettgewebe erfolgt ist.

    Basierend auf den Untersuchungen an Tiermodellen hat man Richtlinien zu tolerierbare Mengen der täglichen Aufnahme (DTA-Wert) für den Menschen abgeschätzt. Dabei ging man vom niedrigsten, gerade noch beobachtbaren Effekt beim Tier aus und hat dann – überaus vorsichtig - noch einen Sicherheitsfaktor von 1 000 eingebaut, um das Risiko einer möglichen Cancerogenität und einer hormonellen Schädigung mit einzubeziehen:

    Demnach sollte eine langfristige tägliche Aufnahme von 0,01µg/kg Körpergewicht (im Schnitt 0,70µg pro Erwachsenem) zu keinen gesundheitlichen Störungen führen.

    Die Frage, welche Lebensmittel aus einer Mit HCB kontaminierten Region und wieviel davon zum Verzehr gelangen dürfen, sollte an Hand der DTA-Werte beantwortet werden.

    Mit HCB werden wir weiter leben müssen – es entsteht schließlich, wenn auch in kleinen Mengen, auch durch natürliche Ursachen. Es wird auch weiterhin in unseren Körpern detektiert werden können.


    Literatur

    (free download)

    inge Fri, 12.12.2014 - 05:18

    Gefahr aus dem Dschungel – Unser Kampf gegen das Ebola-Virus

    Gefahr aus dem Dschungel – Unser Kampf gegen das Ebola-Virus

    Fr, 05.12.2014 - 08:52 — Gottfried Schatz

    Gottfried SchatzIcon Medizin Wir könnten das gefürchtete Virus durch bewährte Strategien und wirksame Impfstoffe in Schach halten, doch Kriege und mangelnde Weitsicht haben dies bisher verhindert. Impfgegner gefährden mit ihrer Irrationalität sich selbst und ihre Mitbürger, ohne sich schuldig zu fühlen.

    An einem Septembertag des Jahres 1976 überbrachte ein Pilot der Sabena Airlines dem jungen Antwerpener Wissenschaftler Peter Piot eine blaue Thermosflasche. Laut dem Begleitbrief enthielt sie eisgekühlte Blutproben einer belgischen Nonne die im abgelegenen Dorf Yambuku im damaligen Zaïre mit hohem Fieber erkrankt war. Könnte Dr. Piots Institut das Blut auf Gelbfieber-Virus testen? Das Blut enthielt zwar weder dieses Virus noch andere bekannte pathogene Viren, tötete jedoch alle Labortiere, denen man es einspritzte. Offenbarg barg es einen besonders tödlichen, noch unbekannten Krankheitserreger.

    Ein neues Virus

    Er entpuppte sich als ein ungewöhnlich langes, wurmähnliches Virus (Abbildung 1), das etwa tausendmal dünner als ein menschliches Haar war und fatal dem gefürchteten Marburg-Virus glich, das 1967 in Marburg mehrere Laborarbeiter getötet hatte.

    Ebola VirenAbbildung 1. Ebola Viren.  Elektronenmikroskopische Aufnahme (Quelle: Wikipedia; CDC - http://phil.cdc.gov/phil)

    Ebola – vorerst wenig interessant -…

    Wenige Tage darauf entsandte die belgische Regierung Peter Piot nach Yambuku, wo er und andere Wissenschaftler das neue Virus nach dem Ebola Fluss in der Nähe des Dorfes „Ebola Virus“ tauften. Zu diesem Zeitpunkt war die Seuche bereits im Abklingen, so dass das öffentliche Interesse an ihr bald verebbte. Das Virus meldete sich mehrmals kurz zurück - wie 1977 in der Demokratischen Republik Kongo und 1979 im Sudan – liess dann aber 15 Jahre lang nichts mehr von sich hören.

    …wird zum Flächenbrand…

    Als es 1994 wieder auftauchte, forderte es zum ersten Mal auch in Westafrika menschliche Opfer. Dort brach dann Ende 2013 in Guinea, Nigeria, Sierra Leone und Liberia die bisher verheerendste Ebola Epidemie aus, die bis jetzt mindestens 10‘000 Erkrankte und 5‘000 Tote gefordert hat. Obwohl Nigeria die Epidemie angeblich eindämmen konnte, wütet sie in den benachbarten Ländern immer noch außer Kontrolle, so dass die die Todesfälle noch dramatisch zunehmen dürften (Abbildung 2). Ebolavirus-Epidemie in Westafrika 2014Abbildung 2. Ebolavirus-Epidemie in Westafrika 2014 betroffene Länder und Zahl der infizierten Personen bzw. Zahl der Todesfälle (inkl. Verdachtsfälle) Quelle: Wikipedia (links:Mikael Häggström, updated by Brian Groen; rechts: Leopoldo Marti R.)

    Dieser Flächenbrand wurde dadurch geschürt, dass einige der betroffenen Länder grausame Bürgerkriege hinter sich hatten, welche die öffentliche Infrastruktur zerstört und viele Ärzte vertrieben hatten. Schlecht ausgerüstete Spitäler, die wichtige Hygieneregeln missachteten, hatten die Verbreitung von Ebola und anderen Seuchen in Afrika und anderen Schwellenländern schon seit jeher begünstigt; diesmal war ihre todbringende Rolle besonders schwerwiegend, weil die Seuche im dicht besiedelten Grenzgebiet zwischen den betroffenen Ländern ausbrach.

    Strenge Sicherheitsvorkehrungen wie die sofortige Isolierung der Erkrankten und ihrer Familienmitglieder sowie schnelle Identifizierung aller möglichen Kontaktpersonen sind immer noch unser wirksamster Schutz gegen diese Krankheit, die durch direkten Körperkontakt oder Körperflüssigkeiten übertragen wird. Deswegen könnten wir sie in Europa oder Nordamerika wahrscheinlich schnell unter Kontrolle bringen.

    …mit hoher Letalität

    Wir kennen vom Ebola Virus fünf Varianten, von denen vier für Menschen tödlich sein können. Die derzeit grassierende „Zaïre“ Variante ist die gefährlichste: sie tötet zwischen 50 und 90 % aller infizierten Menschen. In den ersten 8-10 Tagen bewirkt sie lediglich grippeähnliche Symptome wie Fieber, Schüttelfrost und Muskelschmerzen, doch dann folgen Übelkeit, Durchfall, innere Blutungen und schliesslich ein allgemeines Organversagen, wobei unsere Ärzte sich auf Symptombekämpfung wie Fiebersenkung und Flüssigkeits- und Salzzufuhr beschränken müssen.

    Wir haben heute noch keine wirksamen Waffen, um uns gegen dieses tödliche Virus zu wehren.

    Viren sind keine Lebewesen, sondern wandernde Gene, die sich zu ihrem Schutz mit einer Membran oder einer Eiweiß-Schicht umhüllen. Um sich zu vermehren, dringen sie in lebende Zellen ein und missbrauchen deren Infrastruktur für die eigene Fortpflanzung. Im Gegensatz zu Bakterien besitzen Viren weder eigene Stoffwechselprozesse noch komplexe Zellwände, an denen wir sie mit unseren Antibiotika treffen könnten.

    Die wenigen Medikamente gegen Viren im Köcher unserer Ärzte blockieren die Vermehrung der Virus-Erbsubstanz oder den Stoffwechsel infizierter Zellen, sind jedoch gegen das Ebola-Virus unwirksam. Zudem gelingt es Ebola, unser Immunsystem zu überlisten, so dass es infizierte Zellen nicht mehr verlässlich erkennt und abtötet, bevor das Virus sich im Körper ausbreiten kann. Wer jedoch eine Ebola-Infektion überlebt, entwickelt Antikörper, die nicht nur vor einer Neuinfektion schützen, sondern bei Verabreichung an Ebola-Kranke auch diesen das Leben retten können.

    Antikörper gegen Ebola-Proteine - ZMapp

    Blutserum oder gereinigte Antikörper von Ebola-Überlebenden sind also wirksame Ebola-Medikamente, die allerdings nur in relativ geringen Mengen verfügbar und deshalb nicht großflächig einsetzbar sind.

    Die Übertragung von Blutserum oder Blutproteinen zwischen Menschen birgt zudem stets Risiken. Das Medikament Zmapp, das sich noch in Entwicklung befindet, würde diese Probleme vermeiden. Forscher aus Kanada und den USA entwickelten es in einem langwierigen Verfahren, in dem sie zunächst einige Proteine aus dem Ebola-Virus reinigten, sie Mäusen eingespritzten und dann die gegen diese Proteine gebildeten Maus-Antikörper reinigten. In einem zweiten Schritt isolierten sie aus den immunisierten Mäusen die Gene für diese Antikörper und veränderten sie so, dass sie menschlichen Antikörper-Genen möglichst ähnlich waren. Schließlich schleusten sie diese „vermenschlichten“ Antikörper-Gene in Tabakpflanzen ein, welche die Antikörper innerhalb weniger Wochen in großer Menge produzierten.

    Zmapp ist eine Mischung dreier Antikörper, die sich spezifisch an das Ebola-Virus binden und es unschädlich machen. Ob es Ebola-Kranke verlässlich heilen kann ist jedoch noch ungewiss. Für Makaken-Affen ist dies jedoch bereits bewiesen, so dass die amerikanischen Gesundheitsbehörden vor kurzem den Einsatz von Zmapp an menschlichen Patienten auf vorläufiger Basis gestatteten.

    Selbst wenn Zmapp alle Hoffnungen erfüllen sollte, wäre es jedoch zu teuer und im menschlichen Körper zu instabil, um ganze Bevölkerungen langfristig vor dem Virus zu schützen.

    Impfungen gegen Ebola

    Dafür braucht es aktive Immunisierungen - die viel debattierten „Impfungen“. Bei diesen werden gesunden Menschen inaktivierte Viren oder gereinigte Virusproteine verabreicht, die dann innerhalb von Wochen oder Monaten die Bildung spezifischer Antikörper gegen das jeweilige Virus auslösen und so über Jahre oder sogar Jahrzehnte vor einer Infektion schützen.

    Solche vorausschauenden Immunisierungen haben Grippe, Polio und Masern in reichen Ländern wirksam eingedämmt und die gefürchteten Pocken weltweit ausgerottet. Bei einem unerwarteten Seuchenausbruch oder der plötzlichen Mutation eines gefährlichen Virus entfalten Impfungen ihre Wirkung allerdings zu langsam. Die flächendeckende Schutzwirkung von Impfungen wird auch dadurch beeinträchtigt, dass viele Menschen Schutzimpfungen aus irrationalen Gründen ablehnen oder gar bekämpfen.

    Derzeit befinden sich mehrere Impfstoffe gegen Ebola im Entwicklungsstadium, wobei eine ursprünglich in Basel ansässige Biotech-Firma an vorderster Front beteiligt ist. Der von ihr entwickelte Impfstoff besteht aus einem für Menschen harmlosen Schimpansen-Virus, dem die Gene zweier Ebola-Proteine eingepflanzt wurden. Dringt dieses modifizierte Trägervirus in menschliche Zellen ein, bewirkt es in diesen die Bildung der beiden Virusproteine, die dann im Körper die Bildung von spezifischen Antikörpern gegen das Ebola-Virus auslösen. Das Rennen um wirksame und billige Impfstoffe gegen Ebola ist in vollem Gange, so dass wir wohl schon innerhalb der nächsten Jahre imstande sein werden, die Bevölkerungen in den gefährdeten Regionen Afrikas vor weiteren großflächigen Ebola-Katastrophen zu schützen.

    Die Mikroben haben das letzte Wort

    Die erfolgreiche Ausrottung des Pocken-Virus darf jedoch nicht darüber hinwegtäuschen, dass wir den Krieg gegen krankheitserregende Viren und Bakterien nie endgültig gewinnen werden. Schon Louis Pasteur sagte „Die Mikroben werden das letzte Wort haben.“ Bakterien und vor allem Viren verändern ihr Erbgut und damit auch ihre Eigenschaften viel schneller als wir neue Medikamente entwickeln können. Dies gilt umso mehr, als unsere Gesellschaft der Bekämpfung von Seuchen, so wie allen anderen langfristigen Zielen, viel zu wenig Beachtung schenkt. Das „Institut für Allergie und Infektionskrankheiten“ im US Bundesstaat Washington, DC, ist weltweit die größte Organisation zur Seuchenbekämpfung, doch ihr Jahresbudget von etwa fünf Milliarden Dollar ist nur etwa halb so groß wie der Betrag, den die Menschheit jedes Jahr für Kaugummi ausgibt.

    Und Impfgegner gefährden mit ihrer Irrationalität sich selbst und ihre Mitbürger. ohne sich schuldig zu fühlen. „Dummheit ist nicht verantwortlich, denn ihre Krankheit ist, dass Verantwortung an ihr nicht haftet.“ Die deutsche Schriftstellerin Bettina von Arnim hat es bereits 1852 gewusst.


    Weiterführende Links

    Strategien gegen Ebola 16.11.2014
    Im Gespräch mit der DW: Walter Lindner, Ebola-Beauftragter der Bundesregierung Deutschland
    http://www.dw.de/strategien-gegen-ebola/av-18047359 12:07min

    Der Ebola Virus
    Natgeodocu, 07.10.2014
    https://www.youtube.com/watch?v=OnYWDe7Hvq4 1:11:29

    inge Fri, 05.12.2014 - 08:52

    Der Kampf gegen Lungenentzündung

    Der Kampf gegen Lungenentzündung

    Fr, 21.11.2014 - 08:35 — Bill and Melinda Gates Foundation

    Icon MedizinBill and Melinda Gates FoundationLungenentzündung ist die Haupttodesursache bei Kindern unter fünf Jahren, wobei 99 % aller Todesfälle in Entwicklungsländern verzeichnet werden. Die Bill & Melinda Gates Foundation möchte in Zusammenarbeit mit Partnern (Pharmakonzernen, Regierungen, NGO’s, der Weltbank und globalen Gesundheitsorganisationen) die Entwicklung und Bereitstellung von Impfstoffen für Lungenentzündung verbessern und die Anwendung von Antibiotikatherapien und Diagnosetests ausweiten. Der folgende Artikel wurde mit freundlicher Zustimmung der Gates Foundation der Website der Stiftung* entnommen.

    Obwohl die Zahl der Todesfälle bei Kindern in den letzten 20 Jahren von 12,6 Millionen auf 6,6 Millionen zurückgegangen ist, bleiben Lungenentzündungen weiterhin weltweit die Haupttodesursache bei Kindern unter fünf Jahren. Trotz verfügbarer Maßnahmen starben 2011 1,3 Millionen Kinder an den Folgen einer Lungenentzündung. Das sind 18 % aller kindlichen Todesfälle. Fast alle Todesfälle waren in Entwicklungsländern zu beklagen, insbesondere in den afrikanischen Staaten südlich der Sahara und in Südasien.

    Lungenentzündungen sind weltweit die Haupttodesursache von Kindern unter fünf Jahren.Lungenentzündungen sind weltweit die Haupttodesursache von Kindern unter fünf Jahren. Neonatale Infektionen: hauptsächlich Lungenentzündungen und Sepsis; Angaben in % der Todesfälle. (Zahlen stammenvon UNICEF/WHO, Pneumonia: The forgotten killer of children, 2006. Abbildung von der Redaktion eingefügt)

    Lungenentzündung ist eine durch verschiedene Viren und Bakterien ausgelöste Infektion und es sind mehrere Maßnahmen nötig, um die Kindersterblichkeit infolge dieser Krankheit zu senken. Für die Erreger Streptococcus pneumoniae (Pneumokokken) und Haemophilus influenzae Typ b (Hib), die häufigsten bakteriellen Erreger nach den ersten Lebensmonaten, gibt es Impfungen. Einige virale und bakterielle Erreger führen bei Kleinkindern unverhältnismäßig zum Tod bevor sie geimpft werden können.

    Ein tödlicher Krankheitsverlauf kann bei Kindern mithilfe von Impfstoffen, Diagnosetests und Therapien verhindert werden, aber in den Entwicklungsländern stellen die Verfügbarkeit, der Zugang und die Kosten weiterhin Probleme dar. Schätzungen zufolge ist fast die Hälfte aller Kindestode infolge einer Lungenentzündung auf eine mangelhafte bzw. späte Diagnose und Therapie zurückzuführen. In Ländern mit beschränkten Ressourcen können Unterernährung, HIV-Infektionen und Luftverschmutzung das Risiko für Kinder, an einer Lungenentzündung zu erkranken, erhöhen.

    Die Chance

    Das weltweite Gesundheitswesen verfügt über die entsprechenden Hilfsmittel und entwickelt neue, um Kinder in Entwicklungsländern besser vor Lungenentzündung zu schützen.

    Impfstoffe haben bereits dazu beigetragen, Lungenentzündungen bei Kindern wesentlich zu reduzieren Wir benötigen jedoch eine bessere Durchimpfungsrate und erschwingliche Impfstoffe für jene Länder, die besonders unter der Krankheit leiden, wie Indien und Nigeria. Wenn Frauen während der Schwangerschaft geimpft werden, können Sie die Antikörper an das Baby weitergeben und es schützen. Die Impfung von schwangeren Frauen muss allerdings noch ausgeweitet werden. Derzeit werden schwangere Frauen nur gegen Tetanus geimpft. Vor Kurzem hat die Weltgesundheitsorganisation (WHO) im Rahmen seiner Strategie, Grippetodesfälle zu vermeiden, die Impfung schwangerer Frauen gegen Grippe empfohlen. Die frühe Behandlung ist ein weiterer wichtiger Faktor. Bei einer rechtzeitigen Diagnose kann Lungenentzündung bei Kindern mithilfe einer Antibiotikatherapie über einen Zeitraum von drei Tagen für nur 21 bis 42 US-Cents behandelt werden.

    Glücklicherweise steigt das Bewusstsein dafür, dass es sich bei Lungenentzündung um ein weltweites Gesundheitsproblem handelt. Im Jahr 2013 riefen die WHO und UNICEF den Global Action Plan for Pneumonia and Diarrhoea (GAPPD) ins Leben, um die Krankheit zu bekämpfen. Der GAPPD fordert den Einsatz bewährter Maßnahmen wie Impfungen gegen Masern, Keuchhusten, Pneumokokken und Haemophilus influenzae Typ b (Hib), ausschließliches Stillen bis zum sechsten Lebensmonat und eine verbesserte Führung der Einzelfälle in den Gemeinden.

    Unsere Strategie

    Die Strategie für Lungenentzündung der Bill & Melinda Gates Foundation reflektiert weitgehend den GAPPD-Ansatz „Protect, Prevent, Treat (Schützen, Vorbeugen, Behandeln)“. Unser Schwerpunkt liegt auf den häufigsten Ursachen von Lungenentzündung bei Kindern, d. h. Pneumokokken, Influenza und RSV und wir setzen auch unser langjähriges Engagement für Impfstoffe gegen Meningokokken fort. Diese Bakterien sind zwar nicht die Hauptursache für Lungenentzündung, können aber Meningitisepidemien auslösen. Außerdem entwickeln wir derzeit eine Plattform für die Impfung von Müttern, um Mütter und Kinder vor Erregern zu schützen, die vor allem bei Neugeborenen unverhältnismässig oft zum Tod führen können. Dazu gehören RSV, Influenza, Keuchhusten, Tetanus und Streptokokken der Gruppe A.

    Krankenhaus in Nairobi, Kenia: Krankenschwester bereitet Pneumokokken-Impfung vorIn einem Krankenhaus in Nairobi, Kenia, bereitet eine Krankenschwester eine Impfung gegen Pneumokokken vor.

    Unser wichtigster Partner in den Bemühungen um einen breiteren Zugang zu Impfstoffen gegen Pneumokokken ist die GAVI Alliance, eine öffentlich-private Partnerschaft, die Impfstoffe für Kinder in den ärmsten Ländern der Welt finanziert. Durch Impfungen gegen Hib und Pneumokokken können in diesen Ländern das Leben von 2,9 Millionen Kindern gerettet und 52 Millionen neue Fälle von Lungenentzündung vermieden werden.

    Unser Hauptanliegen ist die Förderung einer umfassenden Bereitstellung von aktuell verfügbaren Impfstoffen gegen Pneumokokken und Meningokokken sowie die Entwicklung neuer Impfstoffe für verbesserten Impfschutz sowie verbesserte Wirksamkeit, Sicherheit und Kosteneffizienz.

    Impfstoffe schützen aber nicht gegen alle Fälle von Lungenentzündung . Daher setzen wir uns auch für einen verbesserten Therapiezugang in öffentlichen und privaten Gesundheitssystemen ein. Besonders in Ländern, die bei der Einführung von Impfstoffen im Rückstand sind, ist ein verbesserter Therapiezugang von entscheidender Bedeutung, wenn es um die Rettung von Menschenleben geht. Dazu gehören Interventionen an mehreren Punkten während der Behandlung, wie die Menschen davon zu überzeugen, medizinische Hilfe in Anspruch zu nehmen und informelle Dienstleistungsanbieter bei der Behandlung zu unterstützen.

    Weitere Prioritäten sind die Verbesserung der krankheitsbezogenen Datenerfassung über Lungenentzündung, die Erhöhung des internationalen Spendenaufkommens und die Untersuchung der Zusammenhänge zwischen Lungenentzündung und Luftverschmutzung in geschlossenen Räumen.

    Unsere Strategie wird durch die Bemühungen verschiedener anderer Stiftungsprogramme im Bereich der Impfstoffbereitstellung, Ernährung, Gesundheit von Müttern, Neugeborenen und Kindern sowie in Bezug auf Darm- und Durchfallerkrankungen ergänzt.

    Fokusbereiche

    Wir konzentrieren uns bei unserer Arbeit auf sieben vorrangige Initiativen: Pneumokokken, Meningokokken, Diagnose und Therapie, strategische Informationen und Interessengruppen, RSV, Influenza und Risikofaktoren. Obwohl Menschen aller Altersgruppen an Lungenentzündung erkranken, konzentrieren wir unsere Arbeit auf Kinder unter fünf Jahren

    Pneumokokken

    Pneumokokken sind die Hauptursache für Lungenentzündung und verantwortlich für 40 % aller Todesfälle bei Kindern unter fünf Jahren. Wir wollen einen breiteren Zugang zu den zwei kommerziell erhältlichen Pneumokokken-Konjugatimpfstoffen schaffen und gleichzeitig die Entwicklung, regulatorische Genehmigung und Bereitstellung neuer und verbesserter Impfstoffe fördern.

    Gekühlte Lagerung eines Impfstoffs gegen Pneumokokken in Nairobi, KeniaGekühlte Lagerung eines Impfstoffs gegen Pneumokokken in Nairobi, Kenia.

    Wir haben gemeinsam mit der GAVI Alliance das Advance Market Commitment for Pneumococcal Vaccines eingeführt, ein innovativer Finanzierungsmechanismus zur beschleunigten Zulassung von für Entwicklungsländer bestimmten Pneumokokken-Impfstoffen in der Endphase ihrer Entwicklung und Unterstützung der Herstellung. Um den Preis dieser teuren Impfstoffe zu senken, insbesondere in Gebieten, in denen viele Menschen an Lungenentzündung erkranken, arbeiten wir mit PATH und dem Serum Institute of India an der Entwicklung eines preisgünstigen Pneumokokken-Konjugatimpfstoffs.

    Meningokokken

    Um die ansteckende Meningitis A in Afrika auszurotten, fördern wir das Meningitis Vaccine Project, eine Zusammenarbeit von PATH, WHO, den Gesundheitsministern afrikanischer Länder und dem Serum Institute of India. Im Rahmen dieses Projekts wurde der erschwingliche Impfstoff MenAfriVac entwickelt. Der speziell für Afrika entwickelte Impfstoff schützt anhaltend gegen die lebensbedrohliche, von Meningokokkenerregern ausgelöste Meningitis, eine bakterielle Entzündung der Gehirn- und Rückenmarksflüssigkeit.

    Einführung des Impfstoffs MenAfriVac in Burkina Faso im Jahr 2010. (Foto © PATH / Gabe Bienczycki)Einführung des Impfstoffs MenAfriVac in Burkina Faso im Jahr 2010. (Foto © PATH / Gabe Bienczycki)

    MenAfriVac wurde erstmals 2010 in Burkina Faso eingesetzt. Seitdem haben mehr als 100 Millionen Menschen in Afrika südlich der Sahara den Impfstoff erhalten und erste Daten zeigen, dass er gegen den Ausbruch von Menikokken A wirksam ist. Die Menikokken-A-Bakterie wurde in fast allen geimpften Bevölkerungsgruppen ausgerottet. Mit unserer Strategie wollen wir sichergehen, dass auch Kleinkinder MenAfriVac erhalten und der Impfstoff in das Routineimpfprogramm aufgenommen wird. Wir setzen uns für weitere Forschungen und Überwachung der Entwicklung der Krankheit ein. Gegebenenfalls werden über diesen neuen Impfstoff hinaus noch weitere Maßnahmen benötigt.

    Diagnose und Behandlung

    Es ist dringend notwendig, Kinder mit schweren Atemwegserkrankungen angemessen medizinisch zu versorgen. Zahlreiche Kinder sterben, weil ihre Familie die Symptome nicht erkennen bzw. weil sie nicht frühzeitig ärztlich behandelt werden. Kinder, die zu einem Arzt gebracht werden, werden möglicherweise falsch diagnostiziert oder nicht richtig behandelt. Wenn die Krankheit bereits so weit fortgeschritten ist, dass besondere Kenntnisse oder bestimmte Geräte, wie zum Beispiel zur Sauerstoffversorgung notwendig werden, stehen diese eventuell nicht zur Verfügung oder sind nicht erreichbar.

    Wir arbeiten eng mit anderen Stiftungsteams zusammen, um kranken Kindern Zugang zu wirksamen Behandlungsmöglichkeiten zu geben und konzentrieren uns dabei besonders auf Nigeria, den nördlichen Teil Indiens und Burkina Faso. Wir haben uns für diese Länder entschieden, da dort besonders viele Kinder unter Krankheiten leiden, eine große Bereitschaft zur Innovation besteht und wir auf starke Partnerorganisationen zurückgreifen können. Im Rahmen unserer Arbeit vermitteln wir medizinischem Personal die Fähigkeit, Anzeichen und Symptome von Lungenentzündung besser zu erkennen und wir wollen Frauen darin unterstützen, eigenständig medizinische Hilfe und Unterstützung zu fordern. Schließlich fördern wir die Entwicklung von schnellen Diagnosetests für Lungenentzündung und setzen uns für eine Verbesserung des Überweisungssystems für schwer erkrankte Kinder ein. In Ländern, die eine gemeindebasierte Fallführung verwenden, engagieren wir uns für die Nachhaltigkeit dieses Ansatzes und wir wollen die Gesundheitsversorgung durch kleine private Anbieter verbessern.

    Strategische Informationen und Fürsprache

    Wir investieren in die Erfassung und Auswertung qualitativ hochwertiger Daten zu den Ursachen von Lungenentzündung und ihrer globalen Belastung, die einen direkten Beitrag zur Impfstoffentwicklung, zu besseren Therapien und verbesserter Bereitstellung von Dienstleistungen, zu Innovationen bei Diagnosetests und Behandlungen sowie zu einer genaueren Auswertung der Todesfälle leisten.

    Wir wollen auch vermehrt auf de Gefahren von Lungenentzündung für Kinder hinweisen. Zu unseren Prioritäten gehört die Sicherung ausreichender finanzieller Mittel für die wichtigen Impfstoffe und die Unterstützung von Interessengruppen im Bereich kindlicher Gesundheit. Wir fordern von den betroffenen Ländern und auch weltweit ein stärkeres politisches Bekenntnis zu evidenzbasierter Prävention und Behandlung von Lungenentzündung. Wir wollen mehr Finanzierung für Immunisierungsprogramme bekommen, um sicherzustellen, dass Regierungen wichtige Initiativen zur globalen Gesundheit wie z. B. den Global Vaccine Action Plan für die Decade of Vaccines konsequent begleiten.

    RSV-Virus

    Das RSV ist eine der Hauptursachen für Atemwegsinfektionen bei Kindern, vor allem in den ersten sechs Lebensmonaten. Im Gegensatz zu anderen Ursachen für Lungenentzündung, auf die wir mit unserer Strategie eingehen, gibt es keinen Impfstoff gegen RSV. Wir unterstützen die Entwicklung eines RSV-Impfstoffs für Mütter. Außerdem unterstützen wir eine bessere globale Datenerfassung zu Sterblichkeits- und Erkrankungsraten aufgrund einer RSV-Infektion sowie zu den langfristigen Folgen schwerer RSV-Erkrankungen. Mithilfe dieser Informationen können die potenziellen Auswirkungen und Kosteneffizienz von RSV-Impfstoffkandidaten beurteilt werden, die derzeit in der Entwicklungsphase sind.

    Influenza

    Es ist unser Ziel, influenzabezogene Daten in Entwicklungsländern zu vervollständigen, und existierende Strategien zur Steigerung der Nachfrage nach Impfungen gegen saisonale Influenza zu bewerten und Schwangeren und Kleinkindern in ressourcenarmen Regionen Zugang zu erschwinglichen und wirksamen Impfstoffen zu geben.

    Existierende Influenzaimpfungen sind die Basis unserer Immunisierungsstrategie für Mütter und könnten den Weg für zusätzliche Impfungen für schwangere Frauen ebnen. In Zusammenarbeit mit globalen Partnern wollen wir wissenschaftliche, technische, regulatorische, operationelle und finanzielle Herausforderungen identifizieren und angehen , die sich bei einer Ausweitung der Immunisierung von Schwangeren stellen, die aber schwangere Frauen und deren Babys schützen. Wir unterstützen zudem Forschungsarbeiten, die sich mit den Auswirkungen einer Influenzaimpfung der Mutter auf die Entwicklung des Fötus befassen und arbeiten an der Entwicklung eines verbesserten Influenzaimpfstoffs für Kinder unter 2 Jahren.

    Risikofaktoren

    Wir wollen nicht nur die Immunisierung gegen Lungenentzündung ausweiten und Therapien verbessern, sondern auch das Risiko von Umweltfaktoren senken. Angemessene Ernährung und Stillen sind Bestandteil der Stiftungsstrategie und tragen wesentlich zur Entwicklung eines starken kindlichen Immunsystems zum Abwehren von Infektionen bei.

    Auch die Reduzierung der Luftverschmutzung in geschlossenen Räumen kann das Risiko einer chronischen Lungenentzündung verringern. Wir investieren in Forschungsarbeiten, die den Zusammenhang zwischen Luftverschmutzung in geschlossenen Räumen und kindlicher Lungenentzündung im Hinblick auf eine Dosis-Wirkungsbeziehung untersuchen. Außerdem engagieren wir uns für verbesserte Überwachungstechnologien zur Messung individueller Partikelbelastung und zur Festlegung von Surrogatendpunkten für anschließende klinische Studien. Unsere Arbeit in diesem Bereich wird vorangebracht je mehr wir über die Verbindung zwischen Luftverschmutzung in geschlossenen Räumen und Lungenentzündung wissen.


    * http://www.gatesfoundation.org/de/What-We-Do/Global-Health/Pneumonia


    Weiterführende Links

    World Health Organzation (WHO)

    Videos

    Bill and Melinda Gates Foundation im ScienceBlog:

    inge Fri, 21.11.2014 - 08:35

    Hochwässer – eine ökologische Notwendigkeit

    Hochwässer – eine ökologische Notwendigkeit

    Fr, 28.11.2014 - 08:52 — Mathias Jungwirth & Severin Hohensinner

    Icon BiologieMatthias JungwirthSeverin HohensinnerHochwässer und das mit ihnen verbundene Prozessgeschehen sind natürliche Ereignisse. Aus der Sicht der Ökologie stellen Hochwässer lebensraumerhaltende und damit absolut notwendige „Störungen“ dar. Die langfristige Erhaltung, Entwicklung und Restauration von Fließgewässern setzt daher die Initiierung/Wiederherstellung natürlicher Prozesse voraus.

    Im vorangegangenen Artikel „Leben im Fluss nach (Extrem-) Hochwässern“ [1] hatten wir bereits dargestellt, wie Hochwässer als wichtige Komponente im Zuge des hydrologischen Geschehens ein dynamisches Gleichgewicht von Erosion, Umlagerung und Sedimentation, und damit stetige Erneuerung und Umgestaltung des Lebensraumes von Flusslandschaften garantieren. Die damit verbundenen Verjüngungs- aber auch Alterungsprozesse sind für die Tier- und Pflanzenwelt von elementarer Bedeutung, da sie eine enorme Vielfalt der Habitatausstattung und damit die hohe Artenvielfalt solcher Lebensräume bewirken.

    Bettsedimente als Lebensraum

    Betrachtet man ein Fließgewässer im Querschnitt, so stellt der Porenraum der aus Kies und Schotter bestehenden Bettsedimente, das sogenannte hyporheische Interstitial, den zentralen Lebensraum dar (Abbildung 1a). Die kleinräumige Morphologie der Bachsohle und die vom Bachwasser durchflossenen Sohlsubstrate werden von Geologie, Gefälle, Abfluss und Art der Feststoffe (Kies, Schotter, Sande etc.) bestimmt. Der Lebensraum der Bettsedimente reicht seitlich vielfach weit über das eigentliche Bachbett bzw. die Ufer hinaus und geht vertikal in den Grundwasserkörper über, der Lebensraum einer typischen Grundwasserfauna ist.

    Während an der Oberfläche der Bettsedimente Algen sitzen, die mittels Photosynthese Biomasse produzieren, lebt im lichtlosen Porenraum der Sedimente eine ungeheure Vielfalt an kleinen tierischen Organismen, das sogenannten Makrozoobenthos (MZB). Dies sind vor allem Insektenlarven, Kleinkrebse, Schnecken und Muscheln. Im Durchschnitt finden sich rund 30 000 - 100 000 derartige Organismen unter 1 m2 Sedimentoberfläche (Abbildung 1b). Sehr klein, aber mit einer insgesamt hohen Biomasse und Produktion, sind es zudem Bakterien, Pilze und andere Mikroorganismen, die in Form von Biofilmen jedes Substratkörnchen überziehen. Zusammen mit dem MZB bilden sie den „Bioreaktor“ der Bettsedimente, der die enorme Selbstreinigungskraft von Fließgewässern ausmacht.

    Abbildung 1. Querschnitt durch ein Bachbett. a) Der Porenraum der Bettsedimente (das hyporheische Interstitial) ist b) Lebensraum für eine Vielzahl an benthischen Organismen: photosynthetisch aktive Algen an der Oberfläche und repräsentative Vertreter des Makrozoobenthos.

    Das MZB und die Mikroorganismen stellen aber auch wertvolle „Bioindikatoren“ für die Qualität bzw. Güte unserer Fließgewässer dar. Zudem sind die Organismen der Bettsedimente auch die wichtigste Nahrungsquelle der Fische. Der Porenraum der Bettsedimente selbst dient darüber hinaus auch einer Reihe typischer Fischarten unserer Fließgewässer als Laichplatz und Bruthabitat.

    Fische laichen auf und in den Kies…

    Kieslaicher, wie Forelle, Äsche und Huchen, vergraben ihre Eier je nach Fischart und Größe in einer Tiefe von 10 – 20 cm des Interstitials. Im Gegensatz dazu kleben Substratlaicher – beispielsweise Barbe, Nase und Nerfling – ihre Eier an die oberflächlichen Substrate (Abbildung 2). Dass dabei Hochwässer für den Reproduktionserfolg der Kieslaicher enorm wichtig sind, sei am Beispiel der für alpine Gewässer typischen Bachforelle aufgezeigt.

    Abbildung 2. Kieslaicher vergraben ihre Eier (orange) im Interstitialraum, Substratlaicher kleben sie oberflächlich an.

    …Hochwässer bestimmen den Reproduktionserfolg der Kieslaicher

    Die Laichzeit der Bachforelle fällt in den Spätherbst. Durch ruckartige seitliche Drehung des Körpers (Abbildung 3) schlagen die weiblichen Tiere ihre Laichgruben bevorzugt im flussaufwärts gelegenen Teil rasch überströmter Kiesfurten. Erfolgreiches Ablaichen ist allerdings nur dann gegeben, wenn der Kies einen durchschnittlichen Korndurchmesser von 10 – 40 mm aufweist und der Feinsedimentanteil weniger als 12 % beträgt. Höhere Anteile von Feinmaterial bewirken eine Verlegung des Porensystems und damit eine Reduktion der Frischwasser-und Sauerstoffversorgung, Grundvoraussetzung für das Überleben von Eiern und Fischlarven.

    Das Ausspülen der feinen Teilchen besorgen Hochwässer, indem sie die Bettsedimente wiederkehrend einem „turnover“ unterziehen. Entfallen derartige Spülungen, nimmt das Ausmaß funktionsfähiger Laichplätze drastisch ab.

    Die ersten Lebensstadien der Bachforelle

    Wo Wasser in die Bettsedimente einströmt, ist der ideale Platz für die Platzierung der Eier. Die Inkubationszeit der Eier von der Befruchtung, über das sogenannte Augenpunktstadium bis hin zum Schlüpfen der Larven hängt von der Wassertemperatur ab und dauert zwischen 5 Wochen und mehrere Monate. Die mit einem großen Dottersack ausgestatteten Larven dringen nach dem Schlüpfen aktiv tief in das Interstitial ein, wo sie vor Winterhochwässern und dem damit verbundenen Geschiebetrieb geschützt sind (Lachslarven fand man sogar in einer Tiefe der Bettsedimente von mehreren Metern). Erst nach weitgehender Resorption des Dottersackes, etwa 1 – 2 Monate nach dem Schlüpfen, wandern die Forellenlarven wieder an die Sedimentoberfläche, um dort die ersten Jungfischhabitate einzunehmen.

    Auch für die Jungfische bleiben gut strukturierte Bettsedimente eine entscheidende ökologische Größe. Im Hinblick auf die Substratsortierung und damit die kleinmaßstäbliche Habitatausstattung der oberflächlichen Bettsedimente sind erneut Hochwässer, speziell die bettbildenden Wasserführungen beim Abklingen solcher Ereignisse, verantwortlich. Abbildung 3. Vom Schlagen der Laichgrube zur Eiablage und zum Jungfisch. Der Reproduktionserfolg der Bachforelle hängt von der Struktur der Bettsedimente ab. Diese müssen locker und gut durchströmt sein und dürfen während der relativ langen Entwicklungsdauer der Eier und frühen Larven nicht umgelagert werden.

    Hochwässer in richtigem Ausmaß

    Das erste Lebensstadium der Bachforelle von der der Eiablage bis zum Verlassen der Bettsedimente (Abbildung 3) dauert im Durchschnitt ein halbes Jahr. Während dieser Phase sind die Tiere auf funktionsfähige Bettsedimente angewiesen. Weder bei zu stark verdichtetem Material – wenn vor Beginn der Laichzeit das Hochwasser ausblieb und deshalb das Sediment nicht gelockert und gereinigt wurde – noch bei zu starken Hochwässern während des ersten Lebensstadiums im Winter, gibt es ausreichendes Fischaufkommen.

    Diesen Zusammenhang zwischen Auftreten und Ausmaß von Hochwässern und Aufkommen junger Bachforellen haben Wissenschaftler vom WasserCluster Lunz u.a. am Ois-Fluss belegt. Dabei wurden über eine 12-jährige Untersuchungsperiode in regelmäßigen Intervallen die Durchflussraten und die Populationsstruktur der Bachforelle bestimmt [2].

    In vielen Flüssen gibt es heute kaum noch natürliche, durch Hochwassergeschehen entsprechend freigespülte Laichplätze. Um das Sediment aufzurühren und es von Verdichtung und Verstopfung zu befreien, werden z.B. in Dänemark oder Bayern Bagger als „Hochwassersatz“ eingesetzt.

    Restauration von Flusslandschaften

    Hochwässer und die durch diese geprägten Prozesse sind natürliche und zugleich notwendige Störungen. Sie spielen ökologisch eine wichtige Rolle, beispielsweise hinsichtlich der Selbstreinigung oder der Grundwasserneuerung. Essenziell ist ihre Funktion im Hinblick auf die Biodiversität, da sie vielfältige Lebensräume auf unterschiedlichster Maßstabsebene generieren, und damit die Basis für eine artenreiche Besiedelung schaffen. Bleiben Hochwässer aus, altern die Flusslandschaften und verarmen hinsichtlich ihrer Fauna und Flora. Letztlich sind damit aber häufig auch Einschränkungen wasserwirtschaftlichen Nutzungen, beispielsweise hinsichtlich der Hochwasserretention oder der Trinkwassergewinnung verbunden.

    Wie lassen sich Fließgewässer schützen und intakt erhalten, wieweit können durch Regulierungen und Wasserkraftwerke gestörte Flusslandschaften restauriert werden?

    Diese Fragestellungen stehen seit Jahrzehnten im Fokus des Instituts für Hydrobiologie und Gewässermanagement an der der Universität für Bodenkultur [3]. Entsprechend dem komplexen Charakter von „Flusslandschafts-Ökosystemen“ bedarf es dazu einer breiten interdisziplinären Zusammenarbeit von VertreterInnen verschiedenster Fachrichtungen, wie Biologie, Ökologie, Hydrologie, Landschaftsplanung, Geographie etc. bis hin zu Wasserbau und Gewässermanagement.

    Bei der Konzeption und Planung größerer Restaurationsvorhaben stehen zwei Aspekte im Vordergrund. Einerseits besteht ein wichtiges Ziel darin, dem ehemaligen Gewässertyp entsprechende und damit leitbildkonforme Prozesse wiederherzustellen. Andererseits geht es um die Frage, wie dafür ausreichend Flächen zur Verfügung gestellt werden können.

    Die Revitalisierung der Drau bei Kleblach (Abbildung 4) ist dafür ein erfolgreiches Beispiel. Hier konnten im Rahmen mehrerer Projekte zahlreiche Landwirtschaftsflächen angekauft und ins öffentliche Wassergut übergeführt werden. Nach anfänglich noch vergleichsweise detaillierter Gestaltung im Rahmen der Bauarbeiten ging man später im Rahmen eines jüngeren EU-Life Projekts [4] dazu über, nur mehr „Initialzündungen“ zu setzen. Dazu wurden Grabensysteme ausgehoben und deren weitere flusstypische Entwicklung der dynamischen Kraft von Hochwässern überlassen. Das folgende Monitoring belegte eine insgesamt stark steigende Biodiversität, aber auch wasserwirtschaftlich relevante Verbesserungen hinsichtlich des Grundwasserhaushaltes und des Hochwasserschutzes. Abbildung 4. Revitalisierung der Drau bei Kleblach. Vorher: 1999 war der Fluss beidufrig mit Steinwurf fixiert und durchgehend 40 m breit. Nachher: Breit aufgeweitet, unterliegt der Fluss der prägenden Kraft von Hochwässern.

    EU-Life Projekte

    Bei Flussrevitalisierungen im Rahmen von EU-Life Projekten hat Österreich eine Vorreiterrolle. Besonders viele Projekte gibt es an der Donau [5], von denen einige bereits realisiert sind – beispielsweise in den Bereichen von Dürnstein und Melk (Abbildung 5). Andere Projekte befinden sich noch in Bau oder bedürfen noch der Bewilligung.

    Wie an der Drau gilt auch hier, möglichst große Flächen anzukaufen und in das öffentliche Wassergut überzuführen. Möglichst wenig zu bauen und das natürliche Prozessgeschehen zu fördern, ist auch hier die Maxime. Unter dem Titel “let the river do its work” entstanden an der Donau im Rahmen mehrerer Projekte wieder sehr schön strukturierte Abschnitte. Die Fischfauna reagiert darauf, donautypische Arten wie Nase und Huchen zeigen bereichsweise wieder erstarkte Bestände mit natürlicher Reproduktion.

    Nicht zuletzt entstehen auf diese Weise aber auch für den Menschen wieder wertvolle Erholungsräume. Wie zahlreiche Beispiele zeigen, werden z.B. die neuen Schotterbänke und Kiesinseln entlang der Donau umgehend intensiv zum Baden genutzt (Abbildung 5). Abbildung 5. Revitalisierungen an der Donau: die Fischfauna erholt sich, Kiesufer werden wieder zu Badestränden.

    Fazit

    • Hochwässer sind natürliche und ökologisch notwendige „Störungen“.
    • Dynamisches Prozessgeschehen bei Hochwasser ist Grundvoraussetzung für hohe Biodiversität, d.i. Habitat- u. Artenvielfalt.
    • Die nachhaltige Erhaltung, Entwicklung und Restauration von Fließgewässern ist eine komplexe Aufgabe.
    • Wesentliche Voraussetzungen dafür sind „Integrative Planung,” Bereitstellung ausreichender Flächen und Initiierung/Förderung natürlicher Prozesse.

    Von der Erhaltung/Wiederherstellung dynamischer Flusslandschaften profitiert nicht zuletzt der Mensch: derartige Ökosysteme garantieren Grund-/Trinkwasser hoher Qualität, ergeben Verbesserungen hinsichtlich des Hochwasserschutzes, der Fähigkeit zur Selbstreinigung etc. und bieten schließlich viele Möglichkeiten für Freizeit und Erholung.


    [1] Der Artikel basiert auf dem zweiten Teil des Vortrags, den Mathias Jungwirth anlässlich der Tagung „Land Unter - Leben mit Extremhochwässern“ an der ÖAW gehalten hat. E

    Der erste Teil des Vortrags ist bereits erschienen: Leben im Fluss nach (Extrem-) Hochwässern. Teil 1: Intakte und gestörte Flusslandschaften. http://scienceblog.at/leben-im-fluss-nach-Extrem-Hochwässern-1 [

    2] Unfer, G., Hauer, C. & Lautsch, E. (2011): The influence of hydrology on the recruitment of brown trout in an Alpine river, the Ybbs River, Austria. Ecology of Freshwater Fish, 20, 438-448.

    [3] Institut für Hydrobiologie und Gewässermanagement: http://www.wau.boku.ac.at/ihg/

    [4] EU-Förderprogramm LIFE: http://www.bmlfuw.gv.at/umwelt/natur-artenschutz/life-natur/life-natur-e...

    [5] Jungwirth, M., Haidvogl, G., Hohensinner, S., Waidbacher, H. & Zauner, G. (2014): Österreichs Donau. Landschaft – Fisch – Geschichte. Institut für Hydrobiologie & Gewässermanagement, BOKU Wien.


    Weiterführende Links

    Hochwasser im Machland 1812 (Rekonstruktion auf YouTube), Video 0:47 min: http://youtu.be/HqCdEsM6r_U?list=PL40A6EA54EF903919
    Institut für Hydrobiologie und Gewässermanagement, Universität für Bodenkultur, Wien:

    http://www.boku.ac.at/hfa


     

    inge Fri, 28.11.2014 - 08:52

    Das Unsichtbare sichtbar machen

    Das Unsichtbare sichtbar machen

    So, 16.11.2014 - 08:00 — Redaktion

    Icon Biologie Weil sich unendlich vieles rund um uns abspielt, das wir mit unseren Augen nicht direkt wahrnehmen können. Etwa, wenn sich Vorgänge für unsere Zeitwahrnehmung zu schnell abspielen und wir sie erst entsprechend verlangsamen müssen. Oder, wenn sie zu langsam ablaufen und wir sie erst entsprechend beschleunigen müssen, um sie wahrnehmen zu können.

    Die direkte Wahrnehmung allzu großer Raumdimensionen ist uns erst nach entsprechender Verkleinerung möglich. Auch Lebewesen aus längst vergangenen Zeiten können heute auf Basis wissenschaftlicher Daten am besten durch Science Visualization korrekt wieder lebendig gemacht werden.

    Das Unsichtbare sichtbar machen – Science Visualization

    Science Visualization arbeitet mit wissenschaftlichen Methoden – in erster Linie natur- und computerwissenschaftlichen -, die mit visueller technischer und ästhetischer Kompetenz verbunden werden. Es geht hier vor allem um die Vermittlung zwischen der Scientific Community und anderen Bereichen der Gesellschaft. Die Ausdrucksmöglichkeiten von Visualisierungen sind dafür inzwischen unumgänglich geworden. Da gerade an einer Kunstuniversität das Wissen um die Kraft des Bildes in besonderem Maße vorhanden ist, wird das Zusammenwirken von visuell-ästhetischer und naturwissenschaftlich-technologischer Kompetenz begünstigt. An der Angewandten wurde der Bereich Science Visualization etabliert.

    Alfred Vendl und sein Team zeigen eine Schau über die Tätigkeit der letzten 15 Jahre der Gruppe ‚Science Visualization‘ an der Angewandten. In Zusammenarbeit mit in- und ausländischen WissenschafterInnen spezialisierte sich die Gruppe vor allem auf die authentische Visualisierung von Vorgängen in der Mikrowelt (Atome bis Mikrolebewesen).

    Viele Visualisierungen wurden durch TV-Dokumentationen wie ‚Universum‘ bekannt. Der große Unterschied zu 3D-Animationsfilmen liegt darin, dass es sich um die authentische Wirklichkeiten handelt und um keine Schöpfungen aus Grafikbüros. Dazu wurden Techniken am Rasterelektronenmikroskop entwickelt.

    Vendl, gelernter Kameramann und Absolvent des Studiums der technischen Chemie, habilitierte sich an verschiedenen internationalen Universitäten und war von 1981 bis 2014 Professor an der Universität für angewandte Kunst. Er arbeitet auch als Regisseur von TV-Dokumentationen und als Leiter wissenschaftlicher TV-Gespräche. Neben zahlreichen internationalen Auszeichnungen erhielt er 2008 den Emmy (bedeutendster TV-Preis in den USA) für ‚Nature Tech‘.

    Ausstellungsdauer: noch bis 12.12.2014, Mo bis Sa von 14 bis 19 Uhr

    Ort: Heiligenkreuzer Hof, Refektorium / Ausstellungszentrum der Universität für angewandte Kunst Wien. 1010 Wien, Schönlaterngasse 5 , Stiege 8, 1.Stock

    Darm_Giardia_Ecoli_Krankheitserreger

    Darm_Giardia_Ecoli_Krankheitserreger, Industrial Motion Art, Science Visualization - die Angewandte, ©Terra Mater

    Tardigrade-Bärtierchen

    Tardigrade-Bärtierchen,  ©Science Visualization - die Angewandte, Industrial Motion Art

    Wassertropfen auf der Haut

    Wassertropfen auf der Haut, Industrial Motion Art, Science Visualization - die Angewandte, ©Terra Mater


    Um einen Vorgeschmack zu bekommen:

    Dokumentation "Grenzen der Wahrnehmung"
    Film von Alfred Vendl und Steve Nicholls

    Von den entferntesten Quasaren, Milliarden Lichtjahre von der Erde entfernt, zu den Wundern unserer Biosphäre bis hin zu den Strukturen von Molekülen und Atomen.

    Teil 1: 9:44 min: https://www.youtube.com/watch?v=JveZ-tr608o&list=PL4tCGWrq31JZP42VmwgYPj...
    Teil 2: 9:59 min; https://www.youtube.com/watch?v=FPURp2kKKXU&list=PL4tCGWrq31JZP42VmwgYPj...
    Teil 3: 9:45 min; https://www.youtube.com/watch?v=eHQ-ee5QgP0&index=3&list=PL4tCGWrq31JZP4...
    Teil 4: 10:00 min; https://www.youtube.com/watch?v=eHQ-ee5QgP0&index=3&list=PL4tCGWrq31JZP4...
    Teil 5: 6:42 min; https://www.youtube.com/watch?v=gTwLFSQwTPU&list=PL4tCGWrq31JZP42VmwgYPj...
    Teil 6: 4:55 min; https://www.youtube.com/watch?v=sc_V6rM6aco&list=PL4tCGWrq31JZP42VmwgYPj...

    The incredible Waterbear 4:34 min; https://www.youtube.com/embed/cp1WwNE6Lms?feature=player_embedded%22%20f...

    inge Sun, 16.11.2014 - 08:00

    Die Böden der Erde: Diversität und Wandel seit dem Neolithikum

    Die Böden der Erde: Diversität und Wandel seit dem Neolithikum

    Fr, 14.11.2014 - 12:29 — Hans-Rudolf BorkIcon GeowissenschaftenHans-Rudolf BorkSeit frühester Zeit beeinflusst der Mensch die Böden der Erde. Um Ackerbau und Tierhaltung betreiben zu können, werden weite Gebiete entwaldet und übernutzt – Erosion und Zerstörung der Böden sind die Folge. Auf einer Reise in verschiedene Regionen der Erde zeigt uns der Ökosystemforscher Hans-Rudolf Bork (Universität Kiel), wie sich die Böden dort entwickelt haben und welche Konsequenzen daraus entstanden sind[1].

    Seit Jahren diskutieren wir in der Scientific Community und in der Öffentlichkeit über den Klimawandel, den demographischen Wandel, die ökonomische Globalisierung und die Biodiversität. In diesem Diskurs vergessen wir allerdings den Boden, der Grundlage des terrestrischen Lebens ist, und eine fundamentale Rolle als Speicher für Wasser und Nährstoffe aber auch für Schadstoffe spielt.

    Über Böden sollte also viel mehr gesprochen werden. Mein Artikel stellt dieses Thema in den Mittelpunkt. In einer Reise zu verschiedenen Regionen unserer Erde möchte ich die Entwicklung der Böden an Hand von repräsentativen Beispielen aufzeigen.

    Was ist überhaupt ein Boden, wo und wie entwickelt er sich?

    Böden sind das Resultat komplexer Wechselwirkungen von physikalischen, chemischen und biotischen Prozessen. Böden hängen ab von der Bodenwasserbewegung, den Stofftransporten und Stoffumsetzungen im Boden, vom Bodenleben und heute in ganz starkem Maße von Eingriffen und Einflüssen der Menschen.

    In der Regel entwickeln sich Böden parallel zur Geländeoberfläche und zwar überwiegend in den oberen 1 – 2 m des Fest- und Lockergesteins. In den immerfeuchten Tropen können Böden aber auch bis einige 10 m mächtig werden. Geringmächtige Böden, mit einer Tiefe bis zu einigen cm, entwickeln sich über wenige Jahre, tropische Böden benötigen z.T. mehrere zehntausende Jahre.

    Über die Zeit wandelt sich die Diversität im Boden, einerseits durch natürliche Prozesse der Boden- und Reliefentwicklung, andererseits durch Eingriffe des Menschen, beispielsweise infolge von Ackerbau und Forstwirtschaft, Be- und Entwässerung. Viele dieser Prozesse verlaufen langsam über Jahrhunderte bis Jahrtausende, nach Extremereignissen können auch Stunden oder Tage zur Veränderung ausreichen. In diesem beständigen Wandel spielt der Mensch eine ganz entscheidende Rolle – ein Faktum, das man in vielen aktuellen Lehrbüchern der Bodenkunde noch nicht finden kann.

    Reise in verschiedene Regionen der Erde: 1. Station China

    Ackerbau begann auf dem nordchinesischen Lössplateau im Neolithikum. In den ersten Jahrtausenden war es den Menschen aber offensichtlich nicht möglich, die Böden in ihrer Qualität, ihrer Fruchtbarkeit zu erhalten. Es gab auf steilen Hängen starke Erosion während intensiver Niederschläge, ein etwa 2 m mächtiger rotbrauner Boden (eine sogenannte Parabraunerde) wurde flächenhaft fast vollständig abgetragen und dazwischen rissen während extremer Starkniederschläge riesige Schluchten ein (Abbildung 1, Mitte oben).

    Nachhaltige Bodennutzung

    Etwa 4 500 Jahre v. Chr. gelang es den Ackerbauern eine Jahrtausende währende Phase nachhaltiger Bodennutzung einzuleiten, die Bodenqualität zu erhalten und zu verhindern, dass selbst tausendjährliche Regenereignisse den Boden stark erodierten (Abbildung 1, Mitte unten). Das wesentliche Geheimnis hinter dem enorm erfolgreichen Bodenschutz lag in einer Verkleinerung der Äcker: wurde Material abgespült, verblieb es auf dem eigenen winzigen Acker und wuchs mit der Zeit zunächst zu kleineren und schließlich zu hohen Terrassen auf.

    Abbildung 1. Bodennutzung auf dem Chinesischen Lössplateau. Nicht-nachhaltige Bodennutzung vormehr als 4500 v. Chr. (rot; Yanjuangou bei Yan), nachhaltige Bodennutzung (grün; das Beispiel zeigt eine 10 m hohe und über 80 m breiteTerasse, die sich in den vergangenen 5 -6000 Jahren dort gebildet hat). (Quelle: Bork & Dahlke 2006, 2012, Winiwarter & Bork 2014)

    Der „Große Sprung nach Vorne“

    Der Beginn dieser Massenkampagne beendete im August 1958 die Phase nachhaltiger Landnutzung. Unter dem Basismotto „wir wagen die Worte des Konfuzius mit Füßen zu treten“ wurden Volkskommunen – riesige Landwirtschaftsbetriebe – eingerichtet und damit die Landschaftsstrukturen verändert. Man hat neue Züchtungen versucht, neue Feldfrüchte, veränderte Fruchtfolgen. Riesige Gebiete – von der Größe der Niederlande, Belgiens, Deutschlands und Frankreichs zusammengenommen – wurden innerhalb von etwa drei Monaten entwaldet, vor allem, um neue Industrien aufzubauen und zu betreiben. Als Folge entstanden sehr starke Bodenveränderungen, extrem starke Bodenerosion und die Nutzfläche schrumpfte. Die Menschen waren im Wesentlichen mit den neuen Sozialstrukturen beschäftigt und verloren fast gänzlich ihr Interesse an Boden- und Gewässerschutz für die ehemals eigenen Äcker.

    Es gab politische Fehleinschätzungen und -entscheidungen. Beispielsweise hat man die Lebensmittelrationierungen beendet, weil man davon ausging, dass die Massenkampagne von Erfolg gekrönt sein würde. Dies war nicht der Fall – ohne dass natürliche Extremereignisse eingetreten wären, gab es eine dramatische Hungersnot, die wohl weit mehr als 30 Millionen Menschen das Leben kostete.

    Nach dem Ende der Kampagne hat man die Volkskommunen wieder aufgelöst und versucht, einige der alten Landschaftsstrukturen wieder herzustellen. Dies gelang aber nur in sehr eingeschränktem Maße. In den späten 1990er und beginnenden 2000er Jahren wurden mit großen Maschinen riesige Terrassen angelegt. Diese erweisen sich nun aber als instabil, haben sehr große Rutschungs- oder Erosionsanfälligkeit.

    Die Situation hat sich also seit den 1950er Jahren immer mehr verschlechtert.

    Die Reise geht weiter: Mitteleuropa

    Zum Unterschied zu China können wir hier keine Phasen langer nachhaltiger Bodennutzung nachweisen.

    Ein Beispiel aus dem Westen Schleswig-Holsteins zeigt ein komplexes Bodenprofil – sehr stark degradierte Böden, sogenannte Podsole. Die ersten von Menschen beeinflussten Böden haben sich schon im Neolithikum entwickelt, die jüngsten unter einem Nadelwaldbestand (Abbildung 2). Es hat immer wieder einen Wechsel gegeben von Waldentwicklung, Waldnutzung, Rodung, Ackerbau, Erschöpfung der Böden, Heidevegetation und einer Podsolbildung, also sehr starker Bodenverarmung.

    Abbildung 2. Ein Bodenprofil aus Schleswig Holstein zeigt stark degradierte Böden. Dauer der nicht-nachhaltigen Landnutzung (rot) auf der Zeitskala links.

    Wölbäckerbildung

    Ein weiteres Beispiel stammt aus einem Gebiet im südlichen Niedersachsen. Vor über 15 000 Jahren entstanden dort Lössablagerungen, die vor etwa 15000 bis 13 000 Jahren durch Bodenfließen langsam den Hang hinunter wanderten. In den folgenden Jahrtausenden fand unter dem dann bewaldeten Gebiet Bodenbildung statt. Diese wurde im Mittelalter durch den Ackerbau mit seiner spezifischen Pflugtechnik unterbrochen – die Pflüge wendeten die Ackerkrume nur in eine Richtung. Es entstanden Wölbäcker – Äcker, die sehr lang und sehr schmal waren und bei denen das Bodenmaterial vom Rand zur Mitte aufgepflügt wurde. Dadurch wurden die Äcker in der Mitte immer höher, an den Rändern immer tiefer (Abbildung 3).

    Abbildung 3. Wölbackerbau - Erhöhung der Bodendiversität und Bodenerosion. Links: Vom Boden der sich über Jahrtausende oberflächenparallel entwickelt hat zur Wölbackerflur und deren Verfüllung. Rechts: In den Aufschlüssen in Rüdershausen/Niedersachsen kann die Geschichte des Bodens wie in einem Buch gelesen werden. (Quelle: H-R. Bork)

    Extremniederschläge vom 19. bis 23. Juli 1342 führten zur Katastrophe (damals floss bis zu 100-mal mehr Wasser die Flüsse hinunter als bei den Überschwemmungen 2002 und 2013 an Donau und Elbe). Große Wassermengen bewegten sich auch in den Furchen zwischen den Wölbäckern abwärts. Dabei rissen, ausgehend von den Furchen, bis zu 10 m tiefe, hunderte Meter lange Schluchten ein, die später zusammenbrachen. (Wäre das Gebiet bewaldet geblieben, hätte der jährliche Niederschlag kaum Veränderungen der Böden hervorgerufen.)

    Im Verlauf von nur einer Woche verloren manche Orte in hügeligen Lößgebieten und in den tieferen Lagen der Mittelgebirge mehr als 50% ihres Garten- und Ackerlandes; etwa ein Drittel der gesamten, innerhalb der letzten 1500 Jahre entstandenen Bodenverluste in Mitteleuropa ging in diesen wenigen Tagen durch Erosion verloren.

    Während im beginnenden Frühmittelalter noch der weit überwiegende Teil Mitteleuropas bewaldet war, erreichte nach umfangreichen Rodungen die Waldausdehnung um 1300 ihr Minimum. Weniger als 20% der Fläche Mitteleuropas waren noch waldbedeckt, riesige Gebiete in Acker- und Dauergrünland überführt worden. Dort vermochten extreme Niederschläge zu wirken. Sie erodierten furchtbare Böden und zerstörten Ackerland. Zehntausende Dörfer wurden im Spätmittelalter aufgegeben. Die ehemaligen Äcker bewaldeten sich wieder und neue Böden entstanden. Die Bodendiversität hat sich durch die Kombination anthropogener Eingriffe und natürlicher extremer Ereignisse sehr erhöht.

    Station 3: der pazifische Nordwesten der USA

    Die Landschaft des Palouse im Südosten des Staates Washington war über Jahrhunderte von indigenen Jägern und Sammlern nachhaltig genutzt worden. In den 1870/80er Jahren begannen europäisch-stämmige Farmer den Boden zu bearbeiten (Motto „breaking the virgin prairie the hard way“) und es trat erstmals leichte Erosion in den Tälern auf. Um 1935 war die Mechanisierung so weit fortgeschritten, dass die gesamte Lösslandschaft ackerbaulich genutzt werden konnte. Im einer 2jährigen Fruchtfolge wurde im 1. Jahr Weizen angebaut, im 2. Jahr ließ man die Felder brach liegen. Auf den Brachflächen spülten Starkniederschläge die Böden fort. Um das Einreißen von Schluchten zu verhindern, wurden kleine Erosionsrinnen glatt gepflügt, viele Male jedes Brachjahr. So wurden nur durch die Pflugtätigkeit die Kuppen seit 1935 um mehr als 1,5 m tiefer gelegt. Die früher hier dominierenden Schwarzerden sind überwiegend abgetragen oder begraben, die Bodendiversität hat sich stark zum Nachteil des Ackerbaus verändert – heute ist die Landwirtschaft mit viel größerem Aufwand verbunden.

    Station 4: die Osterinsel

    Nach der Besiedlung im ersten nachchristlichen Jahrtausend lebten die Menschen in einem Palmenwald, wo sie Gartenbau betrieben, fruchtbare Böden (Anthrosole) schufen und über Jahrhunderte erhielten. Um 1200 begannen dann Rodungen, denen mehr als 16 Millionen Palmen zum Opfer fielen, auf den nun freien Flächen setzte Wind- und Wassererosion ein. Starkregen verlagerten und zerstörten die fruchtbaren Böden – die Lebensgrundlage der kleinen Population von wenigen tausend Menschen (Abbildung 4).

    Die Menschen haben dann eingegriffen, über eine Milliarde Steine auf ihre Gärten gelegt und damit Bodenerosion verhindert. Über Jahrhunderte war dies ein perfekter Bodenschutz – natürlich war es mühselig für Pflanz- und Erntevorgänge immer Steine zur Seite zu räumen.

    Im vorigen Jahrhundert kam die Phase der europäischen Landnutzung. Schaf-, Rinder- und Pferdehaltung und intensive jährliche Feuer zerstörten die Pflanzendecke und ermöglichten Erosion dort, wo keine Steine hingelegt worden waren; große Schluchten rissen ein.

    Abbildung 4. Perioden der Bodennutzung auf der Osterinsel. Nachhaltige (grün) und nicht-nachhaltige Landnutzung (rot) auf der Zeitskala im schwarzen Insert.

    Das Ende der Reise: Südäthiopien

    Im Hochland von Chencha in Südäthiopien wurde seit über 800 Jahren erfolgreich Terrassengartenbau betrieben, der die Bodenfruchtbarkeit erhielt.

    Seit den 1960er Jahren hat sich die Situation gewandelt. Verbesserte Gesundheitsversorgung, damit eine reduzierte Sterberate und der Glauben von Eltern, dass viele Kinder eine bessere Altersversorgung ermöglichen, haben zu starkem Bevölkerungswachstum geführt. Praktisch alle nutzbaren Flächen wurden in Nutzung genommen, sowohl im Hochland, als auch im Großen ostafrikanischen Grabenbruch und dessen sensiblen Randstufen. Viele neue Pfade mit trittverdichteten Böden entstanden. Viele Terrassen, die über Jahrhunderte gut funktioniert hatten, wurden geschliffen, um einfacher bewirtschaften zu können.

    Das Ausmaß der Bodenzerstörung nahm zu, wodurch die Ernährungsgrundlage nun immer mehr verloren geht. Ochsen, welche die Pflüge gezogen haben, können oft nicht mehr ernährt werden, Menschen übernehmen deren Tätigkeit und pflügen – mit Harken hacken sie den harten Boden auf.

    Es verwundert nicht, wenn ein Plakat im Eingangsbereich der Universität von Adis Abeba propagiert: Wohlstand für eine Familie mit 2 Kindern, Armut für Familien mit vielen Kindern.

    Fazit

    • Man kann feststellen, dass die Dynamik von Bodenentwicklung, Bodendiversität und Bodenzerstörung mit dem Garten- und Ackerbau zugenommen hat - zunächst in Vorderasien beginnend vor 10 000 – 12000 Jahren, vor einigen Jahrtausenden in Ost- und Südostasien, in weiten Teilen Europas, im äthiopischen Hochland und in einigen Regionen Süd-und Mittelamerikas.
    • Einigen Gesellschaften ist es gelungen eine hohe Bodenfruchtbarkeit zu erhalten, nur ganz wenige Gesellschaften haben selbst fruchtbare Böden geschaffen, wie auf der Osterinsel oder im Amazonasraum (mit der „Terra preta do indio“). Insgesamt hat aber die Anzahl der Gesellschaften, welche fähig sind, Böden nachhaltig zu nutzen und die Bodenzerstörung zu minimieren, seit dem 14. Jh. stark abgenommen, also seit Europäer die Erde kolonisiert haben.
    • Sehr viele der heute weltweit praktizierten Bodenschutzmaßnahmen sind Fehlschläge, weil sie oft von einseitig ausgebildeten Technikern ausgeführt werden und das Gesamtverständnis für den Boden als Teil des Ökosystems vollkommen fehlt.
    • Wir müssen feststellen, dass – im Gegensatz zu den Wissenschaftlerinnen und Wissenschaftlern – die Öffentlichkeit das Verschwinden der Böden heute kaum wahrnimmt.

    Der Verlust der Böden ist also ein Kernproblem der Menschheit, das es genau so anzupacken gilt, wie den Klimawandel und die abnehmende Biodiversität. Die einzige langfristig erfolgreiche Lösung ist eine bessere Bildung und die Schulung von Menschen in allen Altersstufen. Wir müssen verstehen, welche Maßnahmen in der Nutzung des Bodens und ganz allgemein der Ökosysteme der Erde welche Wirkungen haben, damit wir endlich gemeinschaftlich und partizipativ zukunftsweisende, nachhaltige Wege der Nutzung unserer so begrenzten Ressourcen beschreiten können. Es ist höchste Zeit.


    [1] Der Artikel basiert auf einem gleichnamigen Vortrag, den Hans-Rudolf Bork anlässlich der Tagung „Diversität und Wandel Leben auf dem Planeten Erde“ gehalten hat, die am 13. Juni 2014 im Festsaal der ÖAW in Wien stattfand.

    Homepages des Autors: http://www.ecosystems.uni-kiel.de/home_hrbork.shtml und http://www.hans-rudolf-bork.com/index.php

    Institut für Ökosystemforschung (Kiel): http://www.ecology.uni-kiel.de/


    Weiterführende Links

    Weitere Videos zum Thema

    inge Fri, 14.11.2014 - 12:46

    TEDxVienna 2014: „Brave New Space“ Ein Schritt näher zur selbst-gesteuerten Evolution?

    TEDxVienna 2014: „Brave New Space“ Ein Schritt näher zur selbst-gesteuerten Evolution?

    Do, 07.11.2014 - 09:00 — Inge Schuster Inge SchusterIcon Politik & Gesellschaft

    Auf Einladung von TEDxVienna hat das ScienceBlog-Team an der Konferenz „Brave New Space“ teilgenommen. In insgesamt 20 Vorträgen wurde eine Fülle neuer Ideen und Konzepte präsentiert, die zum Nachdenken inspirieren – bei mehr als der Hälfte der Vorträge ging es um naturwissenschaftlich-technische Themen. Trotz Überlänge kann der vorliegende Report diese nur unvollständig wiedergeben, regt vielleicht aber an zu einzelnen Aspekten mehr Information zu suchen.

    Allerheiligen 2014 ist ein Feiertag mit strahlend schönem Wetter und frühlingshaften Temperaturen, der eigentlich zum Aufenthalt in der freien Natur einlädt. Dennoch ziehen es rund 1000 Personen vor, diesen Tag im dunklen Zuschauerraum des Wiener Volkstheaters zu verbringen - vom Morgen bis spät in die Nacht hinein. Anstelle einer überlangen Theatervorstellung – „Die letzten Tage der Menschheit“ wären zwar zeitgemäß, hätten aber wesentlich weniger Publikum angezogen - werden heute wissenschaftliche Vorträge gegeben, und es sind überwiegend junge Menschen, die zuhören wollen (Abbildung 1).

    Vor dem VolkstheaterAbbildung 1. Vor dem Volkstheater um etwa 9:30 früh. Die Schar, der auf den Einlass wartenden Teilnehmer, wächst und wächst und wird laufend mit Croissants und Äpfeln versorgt. (Bild: facebook)

    Worum es bei den Vorträgen geht?

    Um an die obige Metapher der „Letzten Tage der Menschheit“ anzuknüpfen: es geht genau um das Gegenteil, um die Gestaltung der Zukunft und was ein Jeder dazu beitragen kann. Das Motto der Veranstaltung ist „Brave New Space“ (das klingt zwar ähnlich wie „Brave New World“ von Aldous Huxley, ist aber als positive Entwicklung zu sehen). Insgesamt zwanzig Vorträge sollen dazu anregen das Ungewohnte zu sehen, gewohnte Denkmuster und Abläufe zu hinterfragen und den Mut zu haben, in neue Räume aufzubrechen und diese zu erschließen. Dazu gibt es verschiedenartigste, innovative Ansätze, die von einer sehr bunten Schar Vortragender aus aller Herren Länder präsentiert werden - die Bandbreite geht vom Systembiologen zum Performancekünstler, von der Erotikfilmemacherin zum Weltbank Ökonomen, vom Energietechnologen zur Gewebezüchterin.

    Um eine möglichst große Reichweite der Vorträge zu ermöglichen (wie weiter unten beschrieben, werden diese ja aufgenommen und ins Internet gestellt) werden diese ausschließlich in englischer Sprache gehalten. Bevor ich nun zum eigentlichen Kernstück dieses Reports – dem Programm und hier, den für den ScienceBlog besonders relevanten Teilen – gelange, muss kurz über die Organisation der Konferenz gesprochen werden: veranstaltet wird dieser Event von TEDxVienna, eine Wiener Non-Profit Community, nach dem Vorbild der amerikanischen TED-Konferenzen.

    Ideen, die es wert sind verbreitet zu werden. Was ist TED, was TEDxVienna?

    Vor 30 Jahren hat der amerikanische Designer Richard S. Wurman in Monterey (Kalifornien) einen ungewöhnlichen, neuen Typ einer Tagung, die sogenannte TED-Konferenz ins Leben gerufen. Die Abkürzung TED bedeutet dabei „Technology, Entertainment, Design“. Was an TED-Konferenzen so neu war, lässt sich am besten im Vergleich mit dem damals -und auch heute noch - üblichen Tagungsablauf aufzeigen. Waren und sind wissenschaftliche Tagungen auf ein mehr oder weniger enges Fachgebiet beschränkt und wenden sich an Fachleute, so ist TED interdisziplinär und möchte ein sehr breites Publikum ansprechen. Standen dem „klassischen“ Vortragenden damals zumeist mehr als 30 Minuten Redezeit zur Verfügung (plus anschließende Diskussion), durften TED-Vorträge maximal 18 Minuten dauern und reihten sich ohne Diskussion aneinander. In dieser karg bemessenen Zeit sollten dann Ideen in unterhaltsamer, leicht verständlicher Form präsentiert werden, Ideen „die es wert sind verbreitet zu werden“ („ideas worth spreading“). Mit führenden Persönlichkeiten aus Wissenschaft, Wirtschaft, Kunst und Politik als Vortragenden wurde TED eine höchst elitäre Einrichtung, die trotz sagenhafter, vierstelliger Teilnehmerkosten immer sofort ausgebucht war.

    (Details: [1]) Ab 2006 begann sich TED global auszubreiten, vorerst über ausgewählte Vorträge, die aufgenommen und kostenfrei ins Internet gestellt wurden [3], seit 2009 über das TEDx-Konzept: In einer Art Franchise Verfahren vergibt TED kostenlose Lizenzen an unabhängige Organisatoren in aller Welt, die an ihrem Ort eintägige TEDx Konferenzen veranstalten (‚x‘ steht für unabhängig). Während das jeweilige Thema und das Rekrutieren der Sprecher Sache des Veranstalters ist, ist die Form der Veranstaltung vorgegeben – es soll alles so aussehen und ablaufen wie im Original. Dazu gehört auch, dass die Vorträge ins Internet gestellt werden müssen.

    Motto des TEDxAbbildung 2. Das Motto von TEDxVienna 2014. TEDxVienna wurde 2011 vin VLAD Gozman gegründet.

    Es ist kaum zu glauben, wie schnell das TED/TEDx Konzept sich global ausbreiten konnte: die neuesten Zahlen sprechen bereits von rund 10 000 Konferenzen, die in 150 Ländern stattgefunden haben; in Österreich gibt es TEDx bereits in Wien (Abbildung 2), Linz, Salzburg und Klagenfurt. Inzwischen sind mehr als 1 900 Vorträge im Internet abrufbar [3], darunter von bedeutenden (Natur)wissenschaftern wie Francis Collins, Svante Pääbo, Craig Venter, Jane Goodall oder Stephen Hawking. Auch einige Nobelpreisträger in Physik, Chemie und Medizin sind bei TED aufgetreten – beispielsweise James Watson [4], Murray Gell-Mann [5], George Smoot und Kary Mullis.

    Die TED-Videos erfreuen sich hoher Akzeptanz: in Summe verzeichnen sie bereits mehr als eine Milliarde Aufrufe [6]. Der populärste Talk „How schools kill creativity“ von Sir Ken Robinson kann mehr als 29 Millionen Aufrufe für sich verbuchen. (Im Vergleich dazu waren 34 mal weniger Personen an „How we discovered DNA“ des Nobelpreisträgers Jim Watson interessiert. Sind Naturwissenschaften, vertreten durch einen der bedeutendsten und populärsten Wissenschafter des 20. Jahrhunderts wirklich so viel weniger interessant?)

    Die Konferenz beginnt - „Dare to question“<

    Trauen wir uns den Status quo in Frage zu stellen‘, ist sinngemäß das Motto der ersten Session. Die Veranstalter meinen damit: das Hinterfragen dessen, was man uns erzählt hat, welche Erwartungen man in uns setzt, welche Wege uns vorgezeichnet erscheinen. Gibt es nicht andere Ziele, die es wert sind entdeckt werden? Welche Grenzen wollen wir dabei überschreiten?

    Die fünf Sprecher dieser Session zeigen unterschiedliche, zum Teil ziemlich provokante Ansätze (wie Laurie Essig) des in in-Frage-Stellens auf, fordern auf, die „Komfortzone“ zu verlassen, aber in Hinblick auf die eigene Zufriedenheit die Erwartungen nicht zu hoch zu schrauben. Für den ScienceBlog erscheint hier vor allem der Beitrag des Phyikers Robert Hargrave von essentieller Bedeutung:

    Energetic Humanitarians

    Eines der größten Probleme der wachsenden Erdbevölkerung ist der viel stärker steigende Bedarf an Energie – d.h. elektrischer Energie –, deren Produktion billig aber auch sicher sein sollte. Die Zahl der Kohlekraftwerke ist im Steigen begriffen, ebenso wie die z.T. damit einhergehende (Luft)Verschmutzung, die Millionen Menschen vergiftet. Kernenergie, basierend auf Kernspaltung, ist sehr umstritten – auch, wenn mehr als 400 Reaktorblöcke in Betrieb sind und weitere Blöcke gebaut werden.

    Hargraves bricht eine Lanze für den „Thoriumreaktor“- ein Konzept, das bereits seit den 1950er Jahren existiert und zum Teil erfolgreich umgesetzt wurde (Oak Ridge Reaktor), dann aber wieder in Vergessenheit geriet. Es handelt sich dabei um einen Flüssigsalzreaktor („molten salt reactor“), der die Vorteile klassischer Kernkraftwerke besitzt, aber wesentlich geringere Risiken birgt als diese, da vor allem die Probleme der Kernschmelze, der Wiederaufbereitung der Brennstäbe und der Verwendung für Kernwaffen wegfallen. Das Design des Reaktors klingt bestechend einfach: Im Reaktorkern liegt der Brennstoff Uran-233 (233U) in Flüssigsalz gelöst vor. Dieser Kern ist von einem Mantel umgeben, welcher Thorium-232 im selben Flüssigsalz gelöst enthält. Wenn nun bei der Spaltung von 233U im Reaktorkern Neutronen entstehen, wandeln diese das Thorium-232 im Mantel in Uran-233 um. Das so erbrütete Uran-233 wird einfach herausgelöst und dem Reaktorkern als neues Brennmaterial zugeführt (seine Spaltprodukte sind bedeutend „harmloser“ als die aus 235U-entstehenden). Was noch für den Thoriumreaktor spricht: die Häufigkeit des natürlichen Vorkommen von Thorium -232 und die einfache Bauweise des Reaktors, die auch den Bau kleiner Anlagen für den lokalen Gebrauch möglich macht.

    Dieser Reaktortyp findet nun wieder gesteigertes Interesse: in China ist eine derartige Anlage im Bau, das Kernkraftunternehmen TerraPower von Bill Gates plant einen Flüssigsalzreaktor, der auch den derzeit angehäuften nuklearen Abfall verbrennen kann, ebenso das MIT („Waste Annihilating Molten Salt Reactor“).

    Gibt es nicht Ziele, die es wert sind entdeckt werden? Der Vortrag von Hargrave zeigt ein besonders wichtiges Ziel auf.

    Session 2: „Find the Unexpected“

    >Das Motto dieser Session fordert uns auf, alle Vorurteile und Denkmuster beiseite zu lassen, wenn wir in Neuland aufbrechen. Dies lässt uns das Unerwartete finden und innovative Ideen entwickeln.

    Zu diesem Aspekt gibt es sechs Vortragende – es wird die längste Session des Tages. Vier der Vorträge würde ich zwar sehr gerne in diesem Report darstellen, beschränke mich aber auf zwei von diesen, wegen einer sonst völlig unzumutbaren Länge.

    I steal DNA from strangers

    Heather Dewey-Hagborg ist Künstlerin und Informatikerin, sie schlägt eine Brücke von der Kunst zur Wissenschaft – genauer gesagt, zur Molekularbiologie und Informatik.

    Dewey-Hagborg ist an der Information interessiert, die in den Spuren steckt, die jeder von uns überall hinterlässt, die auch von jedem eingesammelt werden können. Was sie an Spuren findet ist trivial: Haare, Hautschuppen, Fingernagelabschnitte, weggeworfene Zigarettenstummel, Kaugummireste etc. Was sie daraus macht ist verstörend. In einem Crashkurs in Molekularbiologie hat sie gelernt, wie man menschliche DNA aus Proben extrahiert und spezifische Regionen des Genoms amplifiziert und sequenziert. Variable Teile in bestimmten Regionen deuten auf persönliche Merkmale hin u.a. auf Haarfarbe, Augenfarbe, Teint.

    Aus genetischer Information rekonstruierte GesichterAbbildung 3. Aus der genetischen Information von Abfällen konstruiert Dewey-Hagborg Gesichter

    Insgesamt 50 derartige Merkmale lässt Dewey-Hagborg in Algorithmen zur Gesichtserkennung – von ihr verfasste und adaptierte Computerprogramme – einfließen. Aus dem Ergebnis konstruiert sie Gesichter(Abbildung 3). Auch, wenn die Ähnlichkeit mit der Person, von der die genetische Information stammt, nicht immer überzeugen dürfte – es ist der Anfang einer Entwicklung, die massiv in unser Privatleben eingreifen kann.

    Kann also jeder derartige und noch viel weitergehende Informationen über uns einholen? Dewey-Hagborg weiß hier eine Lösung: sie hat zwei Sprays entwickelt, welche die Information in der DNA unlesbar machen:

    • „ERASE“, das die DNA zerstört (ein Silberputzmittel erfüllt den gleichen Zweck) und
    • „REPLACE“, das mit einer Mischung von Genen die ursprüngliche DNA maskiert.

    Ob dies in der Realität praktikabel ist?

    In the 1660s there were no internet videos

    Sandlins Standpunkt: „In a world of talkers, be a thinker and doer“.

    Destin Sandlin, ein Raketenwissenschafter, beginnt seine Präsentation mit einem Knalleffekt: Er schlägt mit einem Hammer auf ein Trinkglas, das – natürlich - in Scherben zerspringt. Eine sogenannte Bologneser Träne – d.i. ein ausgezogener Glastropfen, der sich bildet, wenn ein Tropfen geschmolzenes Glas in Wasser abgekühlt wird – verhält sich anders: das tropfenförmige Ende reagiert kaum auf den Hammer, am dünnen Ende führt aber bereits eine kleine Beschädigung zur Explosion der ganze Träne. Sandlin erklärt das Phänomen sehr anschaulich mit den starken inneren Spannungen, die entstehen, wenn das Glas von außen nach innen abkühlt und erhärtet und das Glas sich dabei zusammenzieht.

    Get smarter every dayAbbildung 4. Raupen, die in Gruppen schneller vorwärts kommen als einzelne Individuen (oben), eine Fake-Spinne, die eine winzige Spinne riesengroß erscheinen lässt (unten)

    In kurzen Videos nehmen wir am Auffinden von weiteren Phänomenen teil. Soweit es möglich ist, erläutert Sandlin zugrundeliegende Mechanismen. Mit Hilfe einer zeitlich hochauflösenden CCD Kamera zeigt er

    • wie Honig beim Ausfließen eine Spirale aufbaut,
    • wie Raupen sich in einer übereinander gelagerten Gruppe bewegen und dabei schneller vorwärtskommen als das einzelne Tier (Abbildung 4),
    • wie eine kleine Spinne aus ihren Sekreten eine ungleich größere Spinne – mit 8 Beinen, Kopf-,Brust- und Hinterleibsegment - in das Netz hinein konstruiert, und dann an deren Kopfende thront (Abbildung 4)
    • wie ein Huhn unabhängig von den Körperbewegungen den Kopf stabil hält,
    • wie sich eine Katze biegt und wendet, um beim Fallen auf ihren 4 Beinen zu landen.

    Dies alles ist auch auf YouTube-Videos zu sehen. Sandlin ist Gründer des YouTube Kanals „Smarter Every Day“, in den er bereits mehr als 200 kurze Videos geladen hat, die ebenso spannend wie unterhaltsam Phänomene aus den Naturwissenschaften darstellen und erklären [7].

    Session 3: Design your space

    Mit immer besserem Instrumentarium und steigendem Wissen ausgestattet wird in uns der Wunsch erweckt, unseren Lebensraum und auch uns selbst designen zu wollen. Unabdingbar dafür ist erst einmal das Verstehen der Gehirnfunktion, die Anwendung dieses Wissens bietet dann auch die Möglichkeit künstliche Intelligenz (Artificial intelligence - AI) zu schaffen. Zwei der fünf Redner widmen sich diesem Problem.

    Digital Biology and „Open Science“: the coming revolution

    Für den Informatiker Stephen Larson ist das menschliche Gehirn noch viel zu komplex, um es am Computer modellieren zu können. Um die Funktion des Nervensystems verstehen zu lernen, will er dieses an einem einfachen, kleinen Organismus, dem Fadenwurms Caenorhabditis elegans untersuchen. Dieses rund 1 mm lange und durchsichtige Tier besteht aus bloß 1000 Zellen, besitzt ein Nervensystem, Muskeln, Darmfunktion etc. Da viele der grundlegenden biochemischen Mechanismen in ähnlicher Weise funktionieren wie beim Menschen, wurde der Wurm zum Top-Modell für verschiedenste biologische Fragestellungen (u.a. in der Pharmaforschung) und damit zu einem der best beschriebenen Systeme. Basierend auf allen diesen Informationen will nun Larson zum ersten Mal ein digitales Modell eines Tieres konstruieren, das alle seine Eigenschaften wiedergeben kann. Dazu hat er 2011 die Plattform Open Worm gegründet, ein Open Science Projekt, an dem bereits Forscher aus aller Welt arbeiten [8]. Alle Information ist online frei verfügbar, jeder kann beispielsweise bereits mit einem neuromechanischen Modell interaktiv herumspielen, das zeigt wie Nervensystem und Muskeln in einer virtuellen Umgebung aktiviert werden.

    Ein tolles Projekt, ein Aufbruch in einen New Space!

    Why aim for the stars when the Galaxies are just as easy?

    Stuart Armstrong ist Forscher am Institut „Future of Humanity“ der Oxford Universität. Auf dem Weg zur künstlichen Intelligenz und der Erschließung neuer Räume beschäftigt er sich mit den Fragen, wann diese Ziele vermutlich erreicht werden können und welche Risiken damit verbunden sein könnten [9].

    Künstliche, dem Menschen überlegene, Intelligenz („strong AI“) zu erschaffen erscheint ihm nicht unmöglich, auch wenn über das „Wann“ kaum Aussagen zu treffen sind (Experten sind hier noch vorsichtiger als Nicht-Experten). Jedenfalls sieht er darin dann einen Risikofaktor, der intelligentes Leben auf unserem Planeten auslöschen oder dauernd einschränken könnte. Wird es dann der Menschheit möglich sein dem Desaster zu entkommen? Durch Kolonisation des Weltalls? Könnten wir das überhaupt – stünden uns dazu ausreichend Energie und geeignete Materialien zur Verfügung? Wie sollte dies vonstattengehen? Indem die Besiedlung von Galaxie zu Galaxie erfolgt oder gleichzeitig viele Galaxien direkt angepeilt werden? Welche selbstreplizierenden „Probes“ würden wir vorerst auf die Reise schicken? Wie lange würden diese Reisen dann dauern?

    Armstrong versucht diese Fragen zu beantworten, entwirft ein sehr (allzu) futuristisches Bild. Ist es tröstlich, wenn er am Ende meint, dass trotz der Geschwindigkeit, mit der sich intelligentes Leben im Weltall ausbreiten könnte, bis jetzt jeder Hinweis darauf fehlt?

    Session 4: Reshape the narrative

    Ein Schritt näher zur selbstgesteuerten Evolution? Neue Wege , innovative Ideen das uns Bekannte umzuformen. In dieser Sitzung kommen vier Sprecher zu Wort; von den drei Präsentationen, die in das Spektrum des ScienceBlog passen, sollen zwei näher erörtert werden.

    Bioengineered Lungs: High risk research with breath taking results

    Aus naturwissenschaftlicher Sicht einer der Höhepunkte der Konferenz: Joan Nichols, Forscherin an der University of Texas Medical Branch, erzählt, wie sie es geschafft hat, erstmals eine menschliche Lunge im Labor herzustellen. (Dazu muss man bemerken, dass die Lunge auf Grund der unterschiedlichen Zellen in den verschiedenen Regionen eines der komplexesten Organe darstellt). Nichols Ausgangspunkt waren zwei Lungen kindlicher Unfallopfer, die so stark beschädigt waren, dass sie für eine Transplantation nicht mehr in Frage kamen. Nichols hat eine der Lungen von allen Zellen befreit, sodass nur ein Gerüst aus Kollagen-und Elastinfasern übrig blieb. In dieses Gerüst hat sie dann Zellen „eingesät“, die sie aus der anderen Lunge isoliert hat und das Konstrukt in ein spezielles Nährmedium eingebettet. Nach rund vier Wochen war daraus ein Organ entstanden, das der natürlichen Lunge nicht nur morphologisch sehr ähnlich sah, sondern auch in Hinblick auf die Atmungsfunktion glich. Dieses Ergebnis konnte mit anderen Lungen reproduziert werden.

    Nichols Erfolg verspricht Durchbrüche nicht nur in Hinblick auf enorm erweiterte Möglichkeiten der Transplantation, sondern auch für die Forschung an bisher kaum behandelbaren Krankheiten, wie z.B. COPD oder Cystische Fibrose.

    Narrowing the gap – robots inspired by nature

    Der letzte Vortrag kommt von dem Computerwissenschafter Rafael Hostettler. Es geht wieder um Künstliche Intelligenz: um den Bau von Robotern.

    Hostettler beginnt mit der Frage, was Intelligenz ist. Anhand unterschiedlich geformter kleiner Roboter zeigt er, dass es nicht nur die Hirnfunktion (in diesem Fall derselbe Motor in allen Robotern) ist, die deren Bewegungen bestimmt, sondern auch deren Bauweise, äußere Form und Materialzusammensetzung. Also, wie der Kontakt des Roboters mit der jeweiligen Umwelt ausfällt.

    Derartige Aspekte untersucht Hostettler an Roboy - einer Forschungsplattform in Gestalt eines freundlichen Roboters mit weichen runden Oberflächen, der es erlaubt, das Zusammenspiel von Muskeln und Gelenken, von Intelligenz und Bewegungsabläufen zu untersuchen. Roboy ist nun bereits 2 Jahre alt, viel auf Tour, besucht Schulklassen, Ausstellungen und spielt Theater („To be, or not to be humanoid“).

    Mit Roboy ist zweifellos ein Meilenstein in der Entwicklung von Soft-Robotern gelungen!

    Fazit

    Es war ein sehr, sehr langer Tag, der eine Fülle neuer Ideen und Konzepte brachte, die zum Nachdenken verleiten. Ob alle naturwissenschaftlich-technischen Präsentationen ausreichend verständlich für das anwesende Publikum waren, ist eher fraglich. Vielleicht können wir mit dem vorliegenden Report (der den naturwissenschaftlich-technischen Teil nur unvollständig wiedergibt, dennoch überlang wurde) den einen oder anderen Leser anregen, nähere Informationen zu einzelnen Themen einzuholen.

    Jedenfalls: Herzlichsten Dank vom ScienceBlog an TEDxVienna für die Einladung an „Brave New Space“ teilzunehmen! Es war viel Neues dabei, das auch für unseren Blog sehr interessant erscheint. Schließlich möchten wir ja – ebenso wie TED – die faszinierende Welt der Wissenschaft in verständlicher Form kommunizieren.


    [1] http://www.ted.com/
    [2] http://www.tedxvienna.at/
    [3] http://www.ted.com/talks?
    [4] http://www.ted.com/talks/james_watson_on_how_he_discovered_dna
    [ 5] http://www.ted.com/talks/murray_gell_mann_on_beauty_and_truth_in_physics
    [6]The most popular talks of all time http://blog.ted.com/2013/12/16/the-most-popular-20-ted-talks-2013/
    [7] Smarter every day, playlist https://www.youtube.com /playlist?list=UU6107grRI4m0o2-emgoDnAA
    [8] Open Worm: http://www.openworm.org/
    [9] Stuart Armstrong: Smarter than us: The rise of machine intelligence. http://intelligence.org /


     

    inge Fri, 07.11.2014 - 15:40

    Leben im Fluss nach (Extrem-) Hochwässern I

    Leben im Fluss nach (Extrem-) Hochwässern I

    Fr, 31.10.2014 - 08:52 — Mathias Jungwirth & Severin HohensinnerIcon Geowissenschaften

    Matthias JungwirthSeverin Hohensinner

    Hochwässer spielen eine zentrale Rolle für die ökologische Funktion von Flusslandschaften; die ständige Zerstörung und Neuschaffung von Habitaten generiert eine enorm hohe Artenvielfalt von Vegetation und Tierwelt. Die Gewässerökologen Mathias Jungwirth und Severin Hohensinner (Universität für Bodenkultur, Wien) charakterisieren intakte Flusslandschaften und zeigen auf wie Flussregulierungen und Kraftwerksbau diese gravierend verändert haben [1].

    Teil 1: Intakte und gestörte Flusslandschaften

    Seit altersher hängen wir Menschen von den vielfältigen Nutzungsmöglichkeiten ab, die uns ein Fluss bietet. Es sind dies die Möglichkeiten zu jagen und zu fischen, Trinkwasser zu gewinnen und Abwässer zu entsorgen, die Wasserstraße als Transportweg zu nutzen und schließlich die Wasserkraft zur Energiegewinnung zu nutzen. Seit jeher erfahren Menschen, die am Fluss und mit dem Fluss leben, aber auch seine andere Seite als katastrophale Ereignisse in Form enormer Hochwässer und gewaltiger Eisstöße.

    Stärker in die Flusslandschaften einzugreifen begann der Mensch seit dem Mittelalter. Dies geschah vor allem um Transportprozesse – Schifffahrt und Holztransporte – zu ermöglichen. Um Schiffe und Flöße auch flussaufwärts ziehen zu können, legte man Treppelwege an. Primär um die Schifffahrt – weniger um den Hochwasserschutz – ging es auch bei der systematischen Regulierung der österreichischen Donau in der zweiten Hälfte des 19. Jahrhunderts. Als Folge aller regulierenden Eingriffe wurden die ursprünglich komplexen Flusslandschaften mehr und mehr in ihrem typischen Charakter verändert. An der Donau auf österreichischem Staatsgebiet gibt es daher heute keine naturbelassenen Abschnitte mehr (s.u.).

    Wie ursprüngliche Flusslandschaften ausgesehen haben, lässt sich heute meist nur mehr an Hand alter Karten feststellen. Beispielsweise sieht man, dass das historische Stadtzentrum Wiens im Jahre 1780 (Abbildung 1) an eine überaus komplexe, wilde Flusslandschaft der Donau angrenzte. Es handelte sich um ein Flussgebiet mit äußerst hoher Biodiversität, in dem sich sogar Störe fanden, die vom Schwarzen Meer flussauf zum Laichen ziehend, bis über 7 m Länge und 3000 kg Gewicht erreichen konnten.

    Donau im Wr. Becken um 1780Abbildung 1. Donau in der Wiener Beckenlandschaft um 1780 (Josephinische Landesaufnahme, ÖstA, Kriegsarchiv)

    Für die Entstehung und Erhaltung derartig komplexer Flusslandschaften spielen Hochwässer eine Schlüsselrolle. Welche ökologische Bedeutung nun Hochwässer – in positivem wie auch negativem Sinn – haben, soll in der Folge an Hand systematischer Untersuchungen dargestellt werden, die wir zu einem rund 10 km langem Donauabschnitt im östlichen Machland anstellten [2]. Dieses Untersuchungsgebiet liegt an der niederösterreichisch/oberösterreichischen Grenze zwischen Wallsee und Ardagger (Abbildung 2); etwas flussauf münden die Zubringer Traun und Enns ein, direkt im Untersuchungsgebiet die Naarn.

    Rekonstruktion intakter Fluss-Auensysteme im Machland

    Als Grundlage für die Studie wurden zahlreiche historische Kartenwerke des Machlandes aus drei Jahrhunderten digitalisiert, mittels Geoinformationssystem qualitativ und quantitativ ausgewertet und daraus die ursprüngliche Flusslandschaft zwei- und dreidimensional rekonstruiert. Die Ergebnisse zeigen, dass dieser Donauabschnitt ein hochdynamisches Flusssystem war, ein komplexes Netzwerk aus Flussarmen, Inseln und Schotterbänken. Die Verbindungen zwischen den einzelnen aquatischen Lebensräumen (Habitaten) dieses Systems veränderten sich im Jahresverlauf in Abhängigkeit von den hydrologischen Verhältnissen – Schneeschmelze und Hochwässer – ständig. Enorme Umlagerungsprozesse waren dabei typisch (Abbildung 2). In einem Zeitraum von 5 Jahren (1812 bis 1817, linkes unteres Bild) trug der Fluss durch Erosion (pink) vor allem an den Außenufern Material ab und bildete an den Innenufern sowie in breiteren Abschnitten Anlandungen (gelb). So wurden in den besagten 5 Jahren insgesamt 35 % des neuzeitlichen, seit ungefähr 1500 n. Chr. entstandenen Augebietes einer Umlagerung unterzogen. In längeren Zeiträumen – in 46 Jahren (1775 – 1821, rechtes unteres Bild) – machten die umgelagerten Habitate (blaue Flächen) bereits 76 % des neuzeitlichen Augebietes aus (laut historischen Berichten traten in diesem Zeitraum 32 Hochwässer auf, davon waren 5 Katastrophenhochwässer). Donau im Wr. Becken um 1780Abbildung 2. Dynamik, Konnektivität (Habitatvernetzung), Erosion und Anlandung im untersuchten Donauabschnitt im östlichen Machland (die Lage ist durch das Rechteck links oben gekennzeichnet). Rechts oben: Die komplexe Flusslandschaft im Jahr 1715. Links unten: Umlagerungen durch Anlandungen (gelb) und Erosion (pink) innerhalb von 5 Jahren (1812 – 1817). Rechts unten: Umgelagerte Habitate (blau) innerhalb von 46 Jahren (1775 – 1821).

    Im Querprofil betrachtet zeigt das Flusssystem von 1812 die beiden Hauptarme, mehrere kleinere Nebenarme und dazwischen die (überhöht dargestellten) Auflächen (Abbildung 3 oben). Bei jedem Hochwasser (auch kleineren) wurden Sedimente in Form von Sand und Schluff („Letten“) auf den Auflächen abgelagert und damit Anlandungen des Auniveaus verursacht. Diesem Anwachsen wirkte die durch die dynamischen Flussarme hervorgerufene Seitenerosion entgegen. Sofern sich die äußeren Rahmenbedingungen nicht veränderten (Klima, menschliche Eingriffe etc.), existierte ein natürliches Gleichgewicht aus Auflandung und Wieder-Abtrag. Diese anhaltende Dynamik war die Grundlage für die ehemals enorme Habitatvielfalt (Abbildung 3 unten).

    Querprofil & Dynamisches GleichgewichtAbbildung 3. Die Donau im Machland 1812. Querprofil durch die in Abbildung 2 gezeigte Flusslandschaft (oben). Das „Dynamische Gleichgewicht“ zwischen Anlandung und Erosion führte zu hoher Habitavielfalt (unten).

    Die Habitatvielfalt…

    In den unterschiedlichen Zonen der Flusslandschaft existierten völlig unterschiedliche Habitate (Abbildung 3 unten): im zentralen Bereich, in dem besonders viele und häufige Umlagerungen stattfanden, entwickelte sich eine junge Weichholzau (primär aus verschiedenen Weiden). An den etwas stabileren, geschützteren Standorten gab es eine alte Weichholzau (zumeist Grauerlen), an den älteren und teilweise auch weiter entfernten Standorten war ein Übergang zur Hartholzau (Eschen, Erlen) zu beobachten.

    Stetige Verjüngungsprozesse, ein immer wieder erfolgender Neubeginn, waren (und sind) für die Vegetation aber auch für die Tierwelt von fundamentaler Bedeutung.

    …führt zur Artenvielfalt

    Die Habitatvielfalt ist die Grundlage für Artenvielfalt und genetische Vielfalt (Vielfalt innerhalb von Arten). Dies lässt sich generell nachweisen: in der Vogelwelt, ebenso wie in der Amphibien-, Reptilien- und Fischfauna. Beispielsweise finden sich bei den Fischen strömungsliebende Kieslaicher bevorzugt im rasch fließenden Bereichen des zentralen Flusses, Stillgewässer bevorzugende Pflanzenlaicher hingegen in isolierten Augewässern mit teichartigem Charakter.

    Charakteristisch für intakte Flusslandschaften

    sind hoch dynamische Prozesse, die in drei räumlichen Ebenen ablaufen. Diese multidimensionale Natur von Fluss-Landschaftssystemen umfasst

    • longitudinale Prozesse – diese betreffen den Feststoffhaushalt, die Wanderungen von Organismen,
    • horizontale Prozesse – Wechselwirkungen oder Verbindungen zwischen dem Fluss und den Auen, die regelmäßig auf jährlicher Basis stattfinden (Schneeschmelze, Hochwasser),
    • vertikale Prozesse – Austauschvogänge zwischen Fluss, Bettsedimenten (Flusssohle) und Grundwasserkörper.

    Die vielfältigen Vernetzungen zwischen den einzelnen Habitaten (Konnektivität) ändern sich unter natürlichen Bedingungen saisonal und von Jahr zu Jahr. Daraus resultiert ein extrem heterogener, sich ständig verändernder Habitatskomplex. Die Anteile der einzelnen Habitattypen bleiben dabei aber überraschend konstant – ein „shifting mosaic in a steady state“. Für die außergewöhnlich hohe Biodiversität solcher Systeme spielen Hochwässer eine zentrale Rolle. Werden Hochwässer verhindert oder stark eingeschränkt (beispielsweise durch alpine Speicher, die Hochwasserspitzen abfangen), entfallen die Erneuerungsprozesse und die solchermaßen gekennzeichneten Fluss-Auen-Systeme altern und sterben.

    Gestörte Flusslandschaften

    Mit der großen Donauregulierung ab der Mitte des 19. Jahrhunderts und der folgenden Errichtung der Donau-Kraftwerke im 20. Jahrhundert entstanden gravierende Veränderungen in den Flusslandschaften. Der untersuchte Donauabschnitt im Machland wurde dabei durch die Errichtung der Kraftwerke Ybbs-Persenbeug und Wallsee-Mitterkirchen stark beeinflusst. (Mittlerweile gibt es an der Donau eine Kette von 10 Kraftwerken und nur noch 2 Fließstrecken in der Wachau und östlich von Wien.) All diese Eingriffe führten zur Einengung des ehemals verzweigten Flusssystems auf lediglich einen Hauptarm (Abbildung 4).

    regulierte Donau im MachlandAbbildung 4. Die regulierte Donau im Machland 1991. Das Querprofil durch die Flusslandschaft zeigt die Eintiefung des Hauptarms und die Tendenz zum Absinken des Grundwasserspiegels (oben). Die Habitate mit Fließgewässercharakter haben von 33 % vor der Regulierung auf ungefähr 13 % abgenommen.

    Entkoppelung des Niveaus von Au und Fluss

    Wird ein Flusssystem auf einen zentralen Arm zusammengedrängt, so zeigt dieser in vielen Fällen Tendenz zur Eintiefung. Grund dafür ist, dass einerseits die Regulierung häufig zu eng bemessen und damit zu viel Material ausgetragen wird. Zudem transportieren unsere alpinen Flüsse als Folge von Geschiebesperren und Wehranlagen oft nur mehr viel zu wenig Geschiebe, insbesondere Kies, flussab. Reduzierter Eintrag bei gleichzeitig zu hohem Austrag führt zur Eintiefung der Flusssohle und bewirkt ein Absinken des Grundwasserspiegels. Da Extremhochwässer weiterhin die Au erreichen und dort zur Auflandung führen, kommt es zunehmend zur Entkopplung des Niveaus von Fluss und Au. Beispielsweise beträgt die Eintiefung an der Donau östlich von Wien ca. 2,5 cm pro Jahr, unterhalb von Gabcikovo – als Folge des Kraftwerkes – liegt die jährliche Eintiefung im Dezimeterbereich.

    Alterung der Habitate…

    Am Beispiel der aquatischen und terrestrischen Habitate im Machland sehen wir, dass diese bis 1840 ein mittleres Alter von rund 50 Jahren aufwiesen. Seit der großen Regulierung der Donau und verschärft durch die Kraftwerke erhöht sich das mittlere Habitatalter und beträgt mittlerweile rund 180 Jahre. Es wird weiterhin linear zunehmen, da es keine Verjüngungs- prozesse mehr gibt und demzufolge Alterung und Seneszenz der Habitate im Fluss-Auensystem dominieren.

    …und Verluste der Habitate

    Zudem sind die Verluste der Habitate mit Fließgewässercharakter dramatisch – symptomatisch für alle anderen Abschnitte der Donau haben diese im Machland von 33 % vor der Regulierung auf ungefähr 13 % abgenommen.

    Fazit

    Fasst man die Konsequenzen der Stabilisierung- und regulierungsbedingten Profileinengung der Donau zusammen, so ergeben sich:

    • Eintiefungen der Flusssohle,
    • Aufhöhungen der Auen,
    • Entkoppelungen der Niveaus von Fluss und Au,
    • Uferwallbildungen durch Feinmaterial, das bei Hochwässern aus den Staustufen ausgetragen wird und vor allem in den ufernahen Bereichen sedimentiert,
    • reduzierte Häufigkeit und Dauer der Hochwässer, die die Au noch erreichen,
    • Reduktion der Habitat- und Artenvielfalt,
    • herabgesetzte Nutzungsmöglichkeiten – u.a. der Grundwasserneubildung und damit der Trinkwasserversorgung. In manchen Gebieten hinter den Kraftwerksdämmen wird die Bevölkerung nun statt mit Brunnen mit Wasserleitungen versorgt,
    • infolge der Eintiefung müssen z.T. auch die Fundamente der Brücken und Regulierungen erneuert/tiefergelegt werden.

    Dies alles führt auch zu erhöhten Folgekosten für die Wasserwirtschaft, die man in dieser Form ursprünglich nicht erwartet hatte.


    [1] Der Artikel basiert auf einem gleichnamigen Vortrag, den Mathias Jungwirth anlässlich der Tagung „Land Unter - Leben mit Extremhochwässern“ an der ÖAW gehalten hat. Ein Audio-Mitschnitt und die von ihm gezeigten Bilder finden sich auf der Seite: http://www.oeaw.ac.at/kioes/wasser2.htm. Teil 2 des Artikels wird sich mit der ökologischen Bedeutung von Hochwässern befassen und in Kürze erscheinen.

    [2] Severin Hohensinner „Rekonstruktion ursprünglicher Lebensraumverhältnisse der Fluss-Auen-Biozönose der Donau im Machland auf Basis der morphologischen Entwicklung von 1715 - 1991“, Dissertation an der Universität für Bodenkultur 2008. https://forschung.boku.ac.at/fis/suchen.hochschulschriften_info?sprache_... (abgerufen 16.8.2014)


    Weiterführende Links

    Severin Hohensinner:

    • Querung der Wiener Donau 1570, Video 2,45 min https://www.youtube.com/watch?v=RKpbhTnxnPY
    • Donau im Machland 1715 – 1991 , Video 0:47 min. Rekonstruktion der morphologischen Veränderungen der Flusslandschaft basierend auf 120 historischen Karten und Vermessungen. Vergleich der Situation vor der Regulierung (1725 – 1821), nach der Regulierung (1832 – 1925) und Kraftwerkserrichtungen (1991). https://www.youtube.com/watch?v=zZEG_ln3IYo
    • Donau-Hochwasser im Machland 1812 , Video 0:47 min. Die Rekonstruktion der Überflutung des Augebietes beruht auf Wasserspiegellagen und Geländehöhen, die im Jahr 1812 vermessen wurden. Sie zeigt, wie das Auensystem im Machland (Ober-/Niederösterreich) bei einem 3- bis 5-jährlichem Hochwasser vermutlich überflutet wurde. https://www.youtube.com/watch?v=HqCdEsM6r_U

    Uw Mening Telt:

    inge Fri, 31.10.2014 - 08:52

    Das Zeitalter der “Big Science”

    Das Zeitalter der “Big Science”

    Do, 24.10.2014 - 06:14 — Gottfried Schatz

    Gottfried SchatzIcon Politik & GesellschaftDie Wissenschaftsgemeinde und die von ihr geschaffene Menge an Informationen wachsen exponentiell, schneller als die Weltbevölkerung oder die Bruttosozialprodukte. Enormer Konkurrenzdruck, gigantische Projekte und bürokratische Einflussnahme haben zu negativen Auswüchsen im Umgang mit der Wissenschaft geführt. Gottfried Schatz, prominenter und engagierter Wissenschafter, fordert dazu auf, politischen und bürokratischen Entscheidungsträgern das Wesen und die Anliegen langfristiger Grundlagenforschung nahezubringen.

    Naturwissenschaftliche Forschung, einst Berufung für Wenige, ist heute ein ökonomisch und politisch bedeutsamer Berufszweig.

    Diese Entwicklung wirft Fragen auf, die dringend einer Antwort harren.

    …vor einem halben Jahrhundert

    „Ich hab‘ den Job!“ rief mein Kollege Ron [1] triumphierend, als er mit einem geöffneten Brief in der Hand in unser Laboratorium stürmte. Der “Job“ war eine Assistenzprofessur an der renommierten Princeton Universität, Grund genug für uns Postdoktoranden, ihm zu diesem Erfolg zu gratulieren. Dennoch schien uns dieser nicht außergewöhnlich, hatte doch Ron zwei Jahre lang in der berühmten Arbeitsgruppe des Biochemikers Efraim Racker [2] gearbeitet und in dieser Zeit vier wissenschaftliche Arbeiten publiziert. Da Racker ihn überdies seinen Kollegen in Princeton auf das wärmste empfohlen hatte, war Rons wissenschaftliche Ausbeute mehr als ausreichend. Tatsächlich war er ein hervorragender Wissenschaftler, der schon bald darauf ein weltweit führender Forscher wurde.

    Das war 1965-Erinnerung für mich, Steinzeit für junge Biologen von heute, denen Rons jour de gloire wie ein Märchen aus „1001 Nacht“ erscheinen muss.

    …die Wissenschaftsgemeinde wächst exponentiell

    Um sich gegen die hundert oder mehr Bewerber für eine prestigeträchtige Universitätsstelle durchzusetzen, braucht es heute meist eine mindestens vierjährige Postdoktoranden-Ausbildung und mehr als ein halbes Dutzend Publikationen über „heiße“ Themen in „exklusiven“ wissenschaftlichen Zeitschriften. Und wer die begehrte Assistenzprofessur dann in der Tasche hat, muss sich auf einen unbarmherzigen Kampf um Forschungsgelder und weltweite Anerkennung gefasst machen.

    Dies ist nicht verwunderlich, hat sich doch seit Rons Triumph die Zahl der Wissenschaftler mindestens verzehnfacht. Dies bedeutet, dass 80-90 % aller Wissenschaftler die je gelebt haben, heute leben und jedes Jahrzehnt so viele Wissenschaftler „produziert“ wie die gesamte Menschheitsgeschichte zuvor. Eine so dramatische quantitative Veränderung bedingt stets auch qualitative, sei dies in der Biosphäre, der Ökonomie - oder der Wissenschaft. „Little Science“- die von Neugier getriebene Forschung Einzelner oder kleiner Gruppen - hat sich zur “Big Science” gemausert.

    Diese Entwicklung gründet nicht in bestimmten Ereignissen oder politischen Entscheiden, sondern im Anwachsen der Wissenschaftsgemeinde und wissenschaftlicher Informationen. Wie fast jede Evolution, so verlief auch diese exponentiell, was bedeutet dass sich die Geschwindigkeit des Wachstums laufend erhöhte. Dieses Wachstum setzte um die Mitte des 18. Jahrhunderts ein und nähert sich seit etwa 1920 mit Verdopplungszeiten von 10-15 Jahren der Präzision eines empirischen Gesetzes. Das Wachstum schien anfangs unbedeutend, hat aber nun das berüchtigte „Knie“ der exponentiellen Kurve erreicht, in dem jedes weitere Wachstum nicht nur das Wesen wissenschaftlicher Forschung, sondern auch die öffentlichen Ressourcen vor neue Anforderungen stellt.

    Der Wissenschaftsbetrieb wächst derzeit schneller als die Weltbevölkerung oder die Bruttosozialprodukte, die sich jeweils in 50 bzw. 20 Jahren verdoppeln. Exponentielles Wachstum schafft neue Probleme meist schneller als man sie lösen kann und stößt früher oder später an seine Grenzen. Für viele Bereiche der Naturwissenschaft, besonders für die Biologie, scheint dies nun der Fall zu sein.

    Big Science hat den Umgang mit der Wissenschaft verändert

    “Big Science” verschlingt heute einen signifikanten Teil öffentlicher Ressourcen; Wissenschaftler schließen sich zu Berufsverbänden zusammen und kämpfen gegen eine Flut von Regeln und politischen Verordnungen; in manchen Ländern fordern Studenten und Postdoktoranden formale Lehrvereinbarungen; und Universitäten lehren Fakten, Methoden sowie „Berufsethik“, aber nur selten, was Wissenschaft ist, was sie von uns fordert und wie sie unsere Sicht der Welt verändert. Ergebnis dieser Entwicklung ist der gut ausgebildete, ungebildete Wissenschaftler.

    „Big Science“ bedroht auch die wissenschaftliche Grundforderung, die eigenen Resultate kritisch zu hinterfragen. Laut einer neueren Untersuchung lassen sich mindestens zwei Drittel aller biomedizinischen Ergebnisse nicht reproduzieren, was nicht nur Zeit und Geld verschwendet, sondern auch den Erfolg klinischer Versuchsserien beeinträchtigt.

    Der Biologe und Statistiker John P. A. Ioannidis hat behauptet, dass die meisten biomedizinischen Forschungsresultate zumindest teilweise falsch sind. Die Gründe dafür sind vielschichtig: steigende Komplexität der untersuchten biologischen Systeme, mangelnde Sorgfalt wegen des Konkurrenzdrucks; der unbarmherzige Publikationszwang; von Netzwerken gefördertes, unbewusstes Gleichdenken; mangelnde statistische Auswertung; finanzielle Interessen - und nicht zuletzt bewusste Fälschung.

    Fragwürdige Maßzahlen

    sind ein weiteres Problem. Die jährlich publizierte Rangordnung von Universitäten, die Häufigkeit, mit der Publikationen eines Autors von Fachkollegen zitiert werden sowie der „Impaktfaktor“ einer wissenschaftlichen Zeitschrift überschatten zunehmend den Forscheralltag. Der Impaktfaktor - die Häufigkeit, mit der die Artikel einer Zeitschrift von anderen durchschnittlich zitiert werden - gilt weithin als Qualitätsmaßstab für die wissenschaftliche Zeitschrift und sogar für die darin publizierenden Wissenschaftler. Wissenschaftssoziologen haben dies von Anfang an angeprangert, doch der Bürokratie liefert er eine willkommene Zahl, um Wissenschaft zu organisieren und zu koordinieren. Organisation ist jedoch der Feind von Innovation - und Koordination der von Motivation. Vor zwei Jahren blies die Wissenschaftsgemeinde endlich zum Gegenangriff und erklärte den Impaktfaktor als ungeeignet, um über Anstellung, Beförderung oder finanzielle Unterstützung eines Forschers zu entscheiden. Alte Gewohnheiten halten sich jedoch hartnäckig und so wird es wohl eine Weile dauern, bis diese pseudowissenschaftliche Messzahl im Abfallkorb der Geschichte landet.

    Ein mörderischer Konkurrenzdruck

    Wissenschaft braucht nicht nur Kooperation, sondern auch Konkurrenz. Diese ist jedoch heute so mörderisch, dass manche Forschungsgebiete Kriegsschauplätzen gleichen. In meiner Tätigkeit als Redaktor für „prominente“ wissenschaftliche Zeitschriften entsetzt mich immer die Feindseligkeit, mit der viele Gutachter die zur Veröffentlichung eingereichten Manuskripte ihrer Kollegen in Grund und Boden verdammen. Anstatt hilfreiche Vorschläge zu unterbreiten, scheinen sie alles daranzusetzen, dem Manuskript ihres Konkurrenten den Todesstoß zu versetzen. Noch dazu fordern einige Zeitschriften von ihren Redaktoren, mindestens zwei Drittel der eingereichten Manuskripte abzulehnen, ohne sie von Experten begutachten zu lassen.

    Die Hektik des heutigen Wissenschaftsbetriebs lässt Forschern nur selten genügend Zeit, um ein Manuskript mit der nötigen Sorgfalt zu durchkämmen, sodass laut neueren Studien anonyme Begutachtungen weder die Qualität noch die Reproduzierbarkeit der wissenschaftlichen Literatur gewährleistet.

    Der Siegeszug elektronischer Zeitschriften eröffnet aber nun die Möglichkeit, wissenschaftliche Arbeiten nicht vor, sondern nach der Veröffentlichung zu kommentieren. Dies schüfe auch eine Plattform, um über erfolglose Experimente zu berichten, die für den Fortschritt der Wissenschaft ebenfalls wichtig sind.

    Gigantische Projekte

    Manche Forschungsprojekte, wie die Entwicklung neuer Technologien aufgrund bereits vorhandener Erkenntnisse oder die Suche nach dem Grundteilchen der Materie erfordern den Einsatz großer Gruppen (Abbildung), doch dies gilt nur sehr begrenzt für viele der Grossforschungsprojekte und organisierten Netzwerke der heutigen biomedizinischen Grundlagenforschung, die bis zu € 1 Milliarde in ein einziges Forschungsziel investieren.

    Big ScienceAbbildung. Big Science – Erforschung des Größten und des Kleinsten in unserer Welt und des eignen Ichs. Oben: das im Bau befindliche European Extremely Large Telescope (E-ELT) und der Blick in den Weltraum. Unten: der CMS-Detektor am Large Hadron Collider (LHC) des CERN und das Bild einer Teilchenkollision. Mitte: Bild zum Human Brain Project. (Bilder: http://www.eso.org/public/images/; http://home.web.cern.ch/, EPFL/Blue Brain Project: ©BBP/EPFL).

    Dieser Gigantismus übersieht, dass grundlegende Entdeckungen meist nicht organisierten Gruppen, sondern einzelnen Querdenker entstammen. Um diese Entwicklung die Stirn zu bieten, bräuchte es eine Wissenschaftlerpersönlichkeit, die als „Stimme der Wissenschaft“ den politischen und bürokratischen Entscheidungsträgern das Wesen und die Anliegen langfristiger Grundlagenforschung nahebringt. Europa fehlt eine solche Stimme.

    „Big Science“ hat auch ein freundliches Antlitz

    Zu ihren Geschenken zählen wirksame nationale Institutionen zur Forschungsförderung, Auslandsstipendien für junge Wissenschaftler, fairere akademische Karrierestrukturen, vermehrte Beachtung von Geschlechtergleichheit sowie Kommunikationsmöglichkeiten, von denen ich als junger Forscher nur träumen konnte. Zudem scheint sich das exponentielle Wachstum der biologischen Forschung zu verlangsamen.

    Wissenschaftliche Evolutionen haben ihre eigenen Gesetze, die wir nur unvollständig kennen. Wir müssen sie besser verstehen, wenn wir „Big Science“ in den Griff bekommen wollen.


    [1] Ronald A. Butow, 1936 – 2007, Mitochondrien-Genetiker, Professor für Molekularbiologie am Southwestern Medical Center, University of Texas (Anmerkung der Redaktion).

    [2] Efraim Racker, 1913 – 1991, ursprünglich aus Wien stammender Biochemiker, auf den fundamentale Arbeiten zur ATP-Synthese in Mitochondrien zurückgehen, Professor für Biochemie, Cornell University, Ithaca, NY (Anmerkung der Redaktion).


    Weiterführende Links

    Artikel mit verwandter Thematik im ScienceBlog

    Gottfried Schatz

     

    Peter Schuster

    Über Big Science


     

    inge Fri, 24.10.2014 - 06:14

    Artentstehung – Artensterben. Die kurz- und langfristige Perspektive der Evolution

    Artentstehung – Artensterben. Die kurz- und langfristige Perspektive der Evolution

    Fr, 17.10.2014 - 08:29 — Christian Sturmbauer

    Christian SturmbauerIcon BiologieArtensterben und Artenentstehung sind integrale Bestandteile des Evolutionsprozesses. Sie verlaufen nicht kontinuierlich sondern werden von Elementarereignissen der Umwelt diktiert. Der Zoologe und Evolutionsbiologe Christian Sturmbauer (Universität Graz) beschreibt anhand von Modellorganismen – ostafrikanischen Buntbarschen – wie Biodiversität entsteht und welche Rolle darin Umwelt und Konkurrenz spielen [1].

    Vor kurzem ging im Wiener Naturhistorischen Museum eine Ausstellung zu Ende, welche die Evolution komplexer Lebensformen auf unserer Erde in einem völlig neuen Licht erscheinen lässt [2]. Gezeigt wurden erstmals sogenannte „Gabonionta“. Dieses 2008 entdeckte, nach dem Fundort in Gabun benannte Fossil in Tonschiefern, ist 2,1 Milliarden Jahre alt und wahrscheinlich der erste vielzellige Organismus, den die Evolution hervorgebracht hat (Abbildung 1). Bis zu dieser Entdeckung hatte man angenommen, dass erste vielzellige Organismen – die sogenannte „Ediacara-Fauna“ – erst 1,5 Milliarden Jahre später, vor 600 Millionen Jahren, entstanden wären.

    GaboniontaAbbildung 1. Gabonionta – die ersten Spuren komplexer Organismen sind 2,1 Milliarden Jahre alt (Bild: Mathias Harzhauser, NHM,Wien)

    Die Signatur des Lebens

    Auf unserer 4,5 Milliarden Jahre alten Erde ist Leben vor etwa 3,8 Milliarden Jahren entstanden – in Form einzelliger Organismen (Bakterien und Archäa). Vor 2 Milliarden Jahren erfolgte dann ein unglaublicher Anstieg des Sauerstoffgehalts in der Atmosphäre; wahrscheinlich war dies auf die Entstehung von Photosynthese betreibenden Bakterien zurückzuführen. Dieser sogenannte „Great Oxidation Event“ war der wesentliche Auslöser dafür, dass komplexeres Leben auf unserer Erde möglich wurde und die ersten Vielzeller – Gabonionta – entstanden.

    Der Sauerstoffgehalt brach nach einiger Zeit drastisch ein – kohlenstoffreiche Fossillien dürften Oxydationsprozesse in Gang gesetzt haben, die der Atmosphäre den Sauerstoff entzogen. Die ersten Vielzeller verschwanden wieder. Es folgte eine sehr lange, fast 1 Milliarde Jahre andauernde, sauerstoffarme Periode, in der die ersten Grünalgen und Rotalgen entstanden, die aber ansonsten, hinsichtlich neuer Lebensformen, kaum Innovationen hervorbrachte (Abbildung 2, oben).

    Vor etwa 700 Millionen Jahren stieg dann der Sauerstoffgehalt der Atmosphäre wieder massiv an: innerhalb von weniger als 100 Millionen Jahren wurde der heutige Level von etwa 21 % erreicht und in der Folge beibehalten.

    Nach mehreren Anläufen komplexere Organismen zu schaffen hat das Leben vor etwa 700 Millionen Jahren neu durchgestartet. Die etwa 600 Millionen Jahre alte Ediacara-Fauna (die nichts mit den heute lebenden vielzelligen Tieren – den „Metazoa“ – zu tun hat) war vermutlich eine erste Blüte von vielzelligen Organismen. Diese haben in Evolutionsprozessen alle möglichen Nischen gefüllt, starben dann aber durch unbekannte Ereignisse aus.

    Die „Kambrische Revolution“ betrifft im wesentlichen alle heute lebenden Tierarten unseres Planeten: die gesamten Tierstämme entstanden im Zeitraum zwischen 540 und 520 Millionen Jahre in extrem enger zeitlicher Abfolge – gemessen in evolutionären Zeiten nahezu gleichzeitig.

    Wenn wir uns die Periode der Evolution der Vielzeller genauer betrachten (Abbildung 2, unten), so sieht man 5 massivere Einbrüche. Die Ursachen waren in einigen Fällen katastrophale Ereignisse – als unser Planet von Meteoriten getroffen wurde –, in anderen Fällen aber auch massive klimatische Verschiebungen. Bei der wohl größten Katastrophe an der an der Trias-Grenze von Erdaltertum und Mittelalter wurden 96% der Arten nahezu schlagartig ausgelöscht.

    Das Muster von Extinktionen, die gefolgt sind von Perioden intensiver und dann langsam abflachender Innovation, kann aus den fossilen Befunden unseres Planeten ersehen werden.

    Das Faktum des Aussterbens ist also ebenso integraler Bestandteil des Evolutionsprozesses, wie die unglaubliche Fähigkeit sehr schnell wieder Biodiversität hervorzubringen. Zeittafel der Evolution, Ära der MetazoaAbbildung 2. Das vielzellige Leben brauchte mehrere Anläufe. Oben: Zeittafel der Evolution. Der Anstieg von Sauerstoff in der Atmosphäre ermöglichte die Entstehung der ersten Vielzeller (Gabonionta) vor 2,1 Mrd. Jahren. Nach dem ersten Zusammenbruch des Sauerstoffgehalts erfolgte ein Anstieg erst wieder vor 800 Mio Jahren und führte zur Bildung komplexer Organismen. Unten: Die Ära der Metazoa (seit 540 Mio Jahren) umfasst mindestens 5 „globale resets“. Artensterben sind Teil der Geschichte und hatten viele Ursachen, Massenextinktionen waren immer gefolgt von Perioden intensiver Innovation. (Abbildung modifiziert nach Mathias Harzhauser NHM, Wien)

    Welche Mechanismen katalysieren die schnelle Entstehung von Arten?

    Vorweg eine Definition des in der Evolutionsbiologie gebräuchlichen Begriffs „adaptive Radiation“: damit wird eine Entstehung von vielen Arten innerhalb sehr kurzer Zeiträume bezeichnet, bei der sich eine wenig spezialisierte Art in zahlreiche stärker spezialisierte Arten auffächert. Dies erfolgt durch spezifische Anpassungen an vorhandene Umweltverhältnisse und Ausnutzung unterschiedlicher, vorher nicht besetzter ökologischer Nischen. Damit können sehr wenige Pionierarten sich einen Lebensraum aufteilen und dann durch spezifischere Aufteilung der energetischen und ökologischen Ressourcen eine Artenvielfalt hervorbringen, die in einem autokatalytischen Prozess immer komplexer wird und immer komplexere Wechselwirkungen erzeugt.

    Man fragt sich natürlich, wodurch derartige Prozesse eingeleitet werden.

    Einen Teil der Antwort hat uns bereits die Geschichte der Erde gezeigt: katastrophale Ereignisse können diese Prozesse katalysieren, indem sie einen voll besetzten Lebensraum innerhalb kürzester Zeit leerräumen und durch die Massenextinktion eine Vielzahl von leeren ökologischen Möglichkeiten übriglassen, die dann andere Arten besiedeln können.

    Eine zweite Möglichkeit ist gegeben, wenn neue Lebensräume entstehen – Galapagos ist dafür ein wunderbares Beispiel. In der Mitte des Meeres sind hier Inseln entstanden, die durch extrem seltene Ereignisse von windverdrifteten Insekten und Vögeln besiedelt wurden. Diese Organismen fanden leere Lebensräume vor, in denen sie dann im oben beschriebenen autokatalytischen Prozess viele Arten hervorbrachten.

    Schlüsselinnovationen

    Die Frage, die wir noch stellen müssen, ist, welche der Kandidaten die neuen Chancen nutzen können. Oft beobachten wir, dass eine Vielzahl unterschiedlicher Arten einen neuen Lebensraum vorerst erobert, aber dann nur ganz wenige tatsächlich durchstarten und eine Vielfalt hervorbringen. Eine von den Biologen als „Schlüsselinnovation“ bezeichnete Fähigkeit entscheidet, welche Gruppen tatsächlich proliferieren können.

    Schlüsselinnovationen haben sehr viel mit Präadaptationen zu tun. Ein Beispiel wäre dafür die Evolution der Säugetiere: wir wissen, dass es schon lange – mindestens über 120 Millionen Jahre – neben vielen Dinosauriern auch Säugetiere gegeben hat. Die wesentlichen Säugetierordnungen waren schon vor der eigentlichen Radiation fossil belegt. Es hat jedoch erst an der Grenze von Kreide zu Tertiär der Meteoriteneinschlag in der Karibik das klimatische Gleichgewicht der Erde vermutlich so massiv gestört, dass die Dinosaurier ihre Eier nicht mehr zur Reife bringen konnten. Die Säugetiere und natürlich auch die Vögel konnten die Nischen dann in unglaublicher Geschwindigkeit besetzen.

    Weitere konkrete Beispiele finden wir viele auf unserem Planeten. Allerdings sind davon nur wenige vor so kurzen Zeiträumen passiert (oder passieren noch jetzt), dass sie in allem Detail untersucht werden können.

    Was uns die ostafrikanischen Buntbarsche erzählen

    Eines der seltenen, detailliert untersuchbaren Modellsysteme – die ostafrikanischen Buntbarsche – bearbeite ich mit meiner Gruppe seit etwa 20 Jahren. Neben einer komplexen Brutpflege liegt die Schlüsselinnovation der Tiere in der besonders effizienten Anpassungsfähigkeit, die ihnen zwei voneinander unabhängige Bezahnungen mit Kieferzähnen und Schlundzähnen verleihen. Damit wurden die Tiere befähigt unterschiedliche Nahrungsquellen zu erschließen und in den neu entstandenen Seen des ostafrikanischen Grabenbruchs tausende von Arten hervorzubringen: im Großraum Viktoriasee gibt es etwa 700 ausschließlich dort vorkommende endemische Arten, im Malawisee zwischen 700 und 800 ebenso nur dort vorkommende Arten und schließlich im Tanganyikasee etwa 250 – 300 Arten (Abbildung 3). Auf Grund der Körperform und ihrer Bezahnung dokumentieren diese Arten sehr schön, wie ein Ökosystem dicht besetzt wird, indem alle möglichen Ernährungsnischen genutzt werden. Die Buntbarsche der ostafrikanischen SeenAbbildung 3. Die Buntbarsche der ostafrikanischen Seen.

    Schon sehr früh haben wir durch molekulargenetische Untersuchungen festgestellt, dass die etwa 700 phänotypisch unterschiedlichen Arten des Malawisees sich genotypisch kaum voneinander unterscheiden, dass sie also – evolutionär gesprochen – unglaublich jung sein müssen. Bedenkt man, dass der Malawisee wahrscheinlich keine 800 000 Jahre, der Viktoriasee sogar maximal nur 200 000 Jahre, alt ist, so stellt sich die Frage:

    Ist es möglich dass 700 Arten in 200 000 Jahren entstehen können?

    Die Buntbarsche suggerieren die Antwort: ja. Die adaptive Radiation verläuft so schnell, dass die entstehenden Arten vorerst genetisch unvollständig getrennt sind.

    Adaptive Radiation ist also der effektivste und schnellste Weg zur Entstehung von Biodiversität – er wird beschritten, wenn sich neue Chancen bieten, aber auch nach Katastrophen.

    Buntbarsche der Gattung Tropheus – wie Populationen entstehen

    Unser Modell zum Studium der Evolution von Populationen sind Populationen und Schwesternarten von Buntbarschen der Gattung Tropheus, die ausschließlich im Tanganyikasee leben. Diese Fische sind Felsspaltenbewohner und für das Leben im Fels so hoch spezialisiert, dass man entlang der Küste praktisch in jedem Felsbereich eine eigene Gattung finden kann. An einigen wenigen Küstenstrichen kommt auch mehr als eine Tropheus-Art gemeinsam lebend („sympatrisch“) vor. Wir kennen die genetische Verwandtschaft dieser Tropheus-Populationen und -Arten sehr genau und haben versucht zu vergleichen, wie sich Populationen voneinander unterscheiden, wenn sie in getrennten Habitaten („allopatrisch“) leben und wenn eine 2. Schwesternart in Konkurrenz um die ökologischen Nischen tritt und damit einen massiven Selektionsdruck induziert.

    Von den rund 120 geographischen Rassen haben wir 2 Arten herausgepickt, die genetisch deutlich voneinander entfernt waren und diese im „Labor“ gezüchtet und gekreuzt (weil die Tiere sehr aggressiv sind, bedeutete ‚Labor‘ große Teiche) und 4 Generationen gezüchtet (Abbildung 4). Dabei haben wir verfolgt, wie sich die Tiere einerseits in einem künstlichen Lebensraum verändern, aber auch, wie es mit den Kreuzungsprodukten aussieht: ob deren Morphologie intermediär ist und ob diese Intermediarität vererbbar ist – also ob es lokale Anpassungen in den Genen gibt.

    Tropheus – Ein Modell zum Studium der Evolution von PopulationenAbbildung4. Tropheus – Ein Modell zum Studium der Evolution von Populationen. Zwei genetisch deutlich unterschiedliche Tropheus (Mitte) wurden unter „Labor“-Bedingungen (oben) gezüchtet und gekreuzt. Bereits in der ersten Generation traten hochsignifikante phänotypische Unterschiede auf (unten).

    Es kommt zu raschen morphologischen Veränderungen

    Unsere Ergebnisse zeigten neben der Tatsache, dass die Kreuzungsprodukte morphologisch intermediär waren, dass schon die 1. Teich-Generation – obwohl diese, wie die Elternpopulationen ganz klar genetisch voneinander getrennt waren – sich in ihrer Morphologie massiv von ihren Eltern im See unterschieden. Im Teich herrschte ja eine ganz andere Situation vor als im natürlichen Lebensraum der Brandungszone, die – neben den Risiken – eine ungeheure körperliche Aktivität der Tiere erforderte. Auch die Nahrungsaufnahme erfolgte dort nicht wie im Teich vorwiegend von der Oberfläche sondern durch Abgrasen von Steinen.

    Die Tiere hatten ganz spezifische Körperbereiche innerhalb einer Generation verändert. Die hochsignifikanten Unterschiedlichkeiten lagen im Bereich der Maulöffnung, der Rücken- und Schwanzflosse und auch im Schwanzstiel (Abbildung 4, unten). Bei diesen Veränderungen kann man nicht von genetischer Anpassung reden, sie sind vielmehr Ausdruck einer phänotypischen Plastizität: ein gegebenes Genom vermag durch unterschiedliche Regulation unterschiedliche Phänotypen hervorzubringen.

    Veränderungen durch Zusammenleben (Sympatrie)

    In der Folge haben wir an Tropheus-Populationen und Schwestern- Arten untersucht welchen Einfluss das Zusammenleben einer Art (Tropheus moorii) mit einer anderen Art (Tropheus polli) auf die Morphologie nimmt. Eine Analyse der durchschnittlichen Körperform von 13 untersuchten Populationen hat allein lebende von sympatrisch lebenden Populationen klar unterschieden: Die Arten, die sich den Lebensraum teilten, hatten einen wesentlich kleineren Kopf, kleinere Augen und einen weiter vorne liegenden Ansatz der Brustflossen. Während die genetischen Distanzen der Populationen mit der geographischen Distanz korrelierten, war dies für die morphologischen Unterschiede nicht der Fall – diese wiesen vielmehr auf selektions- bzw. konkurrenzgetriebene Nischenabgrenzung hin.

    Das Modell der Buntbarsche zeigt, dass Populationen sehr rasch auf Umweltveränderungen reagieren. Die Anpassungsfähigkeit eines Individuums moduliert also auf Basis der eigenen Gene den Phänotyp, entsprechend der Umweltsituation (phänotypische Plastizität). Längerfristig kommt natürlich noch eine genetische Komponente dazu.

    Schlussfolgerungen und Ausblick

    Das Artensterben ist ebenso wie die Artenentstehung integraler Bestandteil des Evolutionsprozesses. Systeminhärent hat der Evolutionsprozess ein unglaubliches Potential zur Neuerung und Erneuerung; dies gilt auch in Bezug auf große Katastrophen. Um die Biodiversität an sich besteht also langfristig kein Grund zur Sorge!

    Grund zur Sorge besteht allerdings sehr wohl für jenes Ökosystem, das (auch) unsere Lebensgrundlage ist. In 299.800 der 300.000 Jahre ihres Daseins hat unsere Spezies nicht wesentlich mehr in die Natur eingegriffen als andere vergleichbare Organismen. Erst in den letzten 200 Jahren haben das exponentielle Wachstum der Weltbevölkerung und deren massive Eingriffe in die Umwelt dies geändert. Ob das Ökosystem dabei zum Kippen gebracht wird, ist letztlich eine Frage unserer eigenen Zukunft.


    [1] Der Artikel basiert auf einem gleichnamigen Vortrag, den Christian Sturmbauer anlässlich der Tagung „Diversität und Wandel Leben auf dem Planeten Erde“ gehalten hat, die am 13. Juni 2014 im Festsaal der ÖAW in Wien stattfand. Ein Audio-Mitschnitt und die von ihm gezeigten Bilder finden sich auf der Seite: http://www.oeaw.ac.at/kioes/wandel.htm

    [2] http://www.nhm-wien.ac.at/presse/pressemitteilungen/experiment_leben_-_d...


    Weiterführende Links

    Gabonionta - Wien 2014 Video 5:03 min (englisch/französisch) https://www.youtube.com/watch?v=fFAPNdxRvS8

    DIE ÄLTESTEN MEHRZELLIGEN LEBEWESEN Weltpremiere im Naturhistorischen Museum, Video 3:11 min (deutsch) http://www.gebaerdenwelt.tv/artikel/wissen/umwelt/2014/03/12/20140312462...

    Afrika: Der Malawisee - See der Sterne. Video 43:32 min (ARTE Doku) https://www.youtube.com/watch?v=fv6BIgiH2Zg


     

    inge Fri, 17.10.2014 - 07:29

    Woraus besteht alle Materie? ScienceBlog besuchte das Cern – Tag 2

    Woraus besteht alle Materie? ScienceBlog besuchte das Cern – Tag 2

    Fr, 10.10.2014 - 21:018 — Inge Schuster

    Icon PhysikInge SchusterNach überwältigenden Eindrücken am 1. Tag unserer Exkursion an das CERN, der in der Audienz bei der Prinzessin des LHC, dem Compact Muon Solenoid (CMS), gipfelte, bekommen wir heute zuerst einen Einblick in die geheimnisvolle Welt der Antimaterie, dann einen gesamten Überblick über den Beschleuniger-Komplex des CERN. Für das grandios zusammengestellte Besuchsprogramm und die tollen Führungen geht der herzlichste Dank von ScienceBlog an Claudia Wulz (HEPHY, CERN), Manfred Jeitler (HEPHY, CERN) und Michael Doser (CERN).

    Über Nacht haben sich die Regenwolken weitestgehend verzogen, der Tag beginnt strahlend schön und sommerlich warm. Das ist eine optimale Voraussetzung für unser heutiges Besuchsprogramm, das uns quer über das weitläufige Gelände der „Meyrin Site“ des CERN führt – eine längere Wanderung bedeutet (Abbildung 1).

    Pünktlich zum vereinbarten Zeitpunkt werden wir von der Rezeption des CERN abgeholt und wandern los. Nach etwa 20 Minuten erreichen wir unser erstes Ziel: den Antiproton Decelerator (AD). Ein Decelerator – ein „Entschleuniger“ – noch dazu von Antiprotonen - inmitten des Clusters von Accelerators – Beschleunigern? Was ist das eigentlich, was wird hier erforscht? WanderungAbbildung 1. Unsere Besichtigungstour führt von der Rezeption zur Antiproton-Decelerator Halle, von dort zum „Low Energy Ion Ring“ Beschleuniger. Nach einer „Verschnaufpause“ im Computer Center geht es zurück in Richtung Rezeption, zu den Ausstellungen im Globe und Microcosmos (die roten, strichlierten Pfeile geben unsere Route in Form von Luftlinien zwischen den einzelnen Stationen wieder. Karte des CERN-Campus Meyrin : CERN).

    Unser Guide, Michael Doser, gibt uns dazu – noch bevor wir die AD-Halle betreten - eine umfassende Einführung (Abbildung 2). Es wird eine Reise in die geheimnisvolle Welt der Antimaterie. Doser selbst ist ein (ursprünglich aus Graz stammender) renommierter Teilchenphysiker, der seit mehr als 30 Jahren über Antimaterie forscht, davon seit rund 20 Jahren am Physik Department des CERN (Details: [1]).

    Es ist der einzige Ort der Welt, wo über Antimaterie geforscht wird, um Antworten auf die fundamentalsten Fragen zu finden: Wieso gibt es überhaupt ein Universum, wieso existieren wir? WanderungAbbildung 2. Vor der AD Halle. Michal Doser erklärt: die Entstehung des Universums, schließt die Entstehung von Antimaterie mit ein (Bild rechts stammt von einem späteren Ort unserer Besichtigungstour). Bei der Umwandlung von Energie entstehen in gleichen Mengen Teilchen und Antiteilchen. Der Zusammenstoß von Teilchen und Antiteilchen (hier Wasserstoff und Antiwasserstoff) führt zu deren Vernichtung unter Freisetzung hochenergetischer Strahlung (Spur in Fotoemulsion; Bild NASA).

    Geheimnisvolle Antimaterie

    Die heute geltende Auffassung von der Entstehung unseres Universums geht von einer unvorstellbaren Verdichtung von Energie in einem „Punkt“ (Singularität) aus. Diese ist im Big Bang (Urknall) mit ungeheurer Kraft explodiert, die extrem hohe Energie ist in alle Richtungen expandiert und hat sich in Elementarpartikel – Photonen, Quarks, Leptonen [2] – umgewandelt. Als das sich ausdehnende, extrem heiße Universum abzukühlen begann, sind aus den Elementarpartikel Atome und aus diesen alle uns bekannte Materie entstanden (Abbildung 2). Auch die Atome unseres Körpers setzen sich aus den Elementarteilchen zusammen, die damals entstanden sind - sind also nahezu 14 Milliarden Jahre alt.

    Wenn sich hochenergetische Strahlung in Teilchen umwandelt, dann wandelt sie sich in gleichen Mengen in Materie und Antimaterie um („Paarbildung“); zu jedem Baustein der Materie existiert also ein Antimaterie-Teilchen. Wenn beispielsweise aus sehr energiereichen Photonen negativ geladene Elektronen entstehen, entstehen spiegelbildlich gleiche Antiteilchen – Positronen -, die gleiche Masse und Spin und gleichgroße, aber entgegengesetzte Ladung und magnetisches Moment aufweisen. Stoßen Teilchen und entsprechende Antiteilchen zusammen, so führt dies zu deren Vernichtung (Zerstrahlung - Annihilation) unter Freisetzung hochenergetischer Strahlung.

    Die ursprünglich von der theoretischen Physik vorausgesagten Antimaterieteilchen fanden breiteste Bestätigung in der Realität: man weist sie etwa in der kosmischen Strahlung nach, wo durch Kollisionen hochenergetischer Partikel Positronen und Antiprotonen entstehen. Man beobachtet sie bei Zerfallsprozessen einiger natürlich vorkommender, protonenreicher Radioisotope – z.B. des Kaliumisotops 40K –, die Positronen emittieren. Positronen emittierende künstliche Radionuklide sind die Basis der in Medizin und Grundlagenforschung angewandten Positron Emission Tomography (PET), einer Revolution bildgebender Verfahren. Vor allem aber werden Antiteilchen durch Kollision hochenergetischer Partikel - wie hier in den Beschleunigern des am CERN - erzeugt und charakterisiert.

    Was aber (noch) nicht verstanden wird:

    Auch unser Universum muss unmittelbar nach dem Urknall zur Hälfte aus Materie und Antimaterie bestanden haben. Eine völlige Symmetrie zwischen Materie und Antimaterie hätte dann aber zur sofortigen Auslöschung des sich eben bildenden Weltalls geführt, übrig geblieben wäre nur Strahlung. Unser Weltall enthält zwar ungeheuer viel Strahlung, besteht jedoch – bis an die detektierbaren Grenzen - aus „normaler“ Materie. Es muss also eine gewisse Asymmetrie zwischen Materie und Antimaterie vorliegen, die ein Überleben der Materie und damit auch unsere Existenz ermöglicht hat.

    Die Antiproton Decelerator (AD) Halle

    Sind Teilchen und Antiteilchen doch keine perfekten Spiegelbilder, können minimale Unterschiede in deren Eigenschaften festgestellt werden, die zur absoluten Dominanz der einen Form geführt haben?

    Dies sind die Fragen, welche die Antimaterie-Forscher hier zu lösen versuchen. Als relevantes Modell wollen sie das Paar Wasserstoff/Antiwasserstoff vergleichen (Abbildung 2). Der aus einem Proton und einem Elektron bestehende Wasserstoff ist das einfachste Atom, mit 75 % der häufigste Baustein im Universum und überdies in seinen Eigenschaften aufs Genaueste untersucht.

    Bereits vor rund 20 Jahren konnten CERN Forscher zeigen, dass es prinzipiell möglich ist Antiwasserstoffatome aus Antiprotonen und Positronen herzustellen. Um den Antiwasserstoff aber nicht nur (durch den Annihilationsprozess, der ihn zerstört) nachzuweisen, sondern auch in verschiedenen Experimenten untersuchen zu können, muss er „eingefangen“ und in geeigneter Form über die Versuchsdauer verfügbar gemacht werden. Dies geschieht in einer sogenannten Penningfalle (Abbildung 3), in welche Antiprotonen und Positronen auf getrennten Wegen eintreten, in getrennten Kompartimenten erst akkumulieren und dann in einer zentralen magnetischen Falle (Oktupol-Falle) zusammengeführt werden. Ultrahohes Vakuum, starke Magnetfelder/elektrische Felder verhindern, dass Antiteilchen mit der Materie der Falle in Kontakt kommen und damit zerstört werden. Auf diese Weise entstandener Antiwasserstoff konnte bereits über eine Dauer von 16 Minuten gespeichert werden. AntimaterieAbbildung 3. Die Erzeugung von Antimaterie. Links oben: Beschleunigung von Protonen über das System LINAC, Booster und Proton Synchrotron (PS) und Erzeugung von Antiprotonen im PS durch Kollision mit einem Metall-Target. Entschleunigung der Antiprotonen im Antiproton Decelerator (AD). Innerhalb des AD-Rings (rechts oben) sind Experimente aufgebaut (sichtbar: ALPHA, ASACUSA). Rechts unten: Die Penning Falle in der Positron und Antiproton zu Antiwassestoff kombinieren.

    Wie werden aber Antiprotonen und Positronen erzeugt?

    Die Positronen für den Antiwasserstoff lassen sich vhm. einfach aus dem radioaktiven Natriumisotop 22Na herstellen, das unter Emission von Positronen (β+-Zerfall) zerfällt.

    Zur Erzeugung der Antiprotonen werden Protonen aus einer Protonenquelle über das Beschleunigersystem LINAC2, Booster und Proton Synchrotron (siehe nächster Abschnitt) auf sehr hohe kinetische Energie – 26 GeV - und im PS zur Kollision mit einem Metall-Target (aus Iridium) gebracht. Dabei entstehen Proton-Antiproton Paare. Die Antiprotonen werden auf Grund ihrer unterschiedlichen Ladung von den Protonen abgelenkt, sind aber für Untersuchungen noch viel zu heiß und schnell. Ein Abbremsen und Abkühlen mittels zweier Kühlverfahren erfolgt nun innerhalb von 8o Sekunden im Antiproton Decelerator, einem Speicherring mit 188 m Umfang. Dann werden die versuchsbereiten Teilchen an Experimente weitergeleitet, die innerhalb des AD-Rings aufgebaut sind (Abbildung 3). Es sind internationale Kooperationen, deren Großprojekte ( ATRAP, ALPHA, ASACUSA, AEGIS) sich von ungemein präzisen Bestimmungen der physikalisch-chemischen Eigenschaften von Antimaterie-Teilchen bis hin zu deren möglichen Anwendungen in der Tumormedizin erstrecken. An dem Experiment AEGIS ist Michael Doser maßgeblich beteiligt. Man merkt seine Begeisterung als er über Lösungsansatze zur Beantwortung der Frage berichtet:

    Liegt die Ursache für das Überleben der Materie vielleicht in einer unterschiedlichen Gravitation (Schwerkraft) von Teilchen und Antiteilchen?

    Vom Entschleuniger zum Beschleuniger-Komplex

    Die Teilchenphysikerin Claudia Wulz (sie ist am CERN tätige Forscherin des HEPHY) kennen wir bereits seit gestern. Sie hat mit einem Teil unserer Gruppe den CMS-Detektor besichtigt. Nun löst sie Michael Doser ab und führt uns zur nächsten Station. Die Wegstrecke ist kurz und wir stehen vor einem hohen Gebäudekomplex, in welchem der Kreisbeschleuniger „Low Energy Ion Ring“ (LEIR) untergebracht ist. Wofür wird dieser Beschleuniger verwendet, wie steht er in Zusammenhang mit den anderen Beschleunigern am CERN, bis hin zum LHC? Dazu gibt uns Claudia Wulz einen umfassenden Überblick (Abbildung 4). BeschleunigerkomplexAbbildung 4. Der Beschleunigerkomplex am CERN. Claudia Wulz (rechts) erklärt, wie eine Kette von Beschleunigern Teilchen stufenweise auf immer höhere Energien bringt.

    Der LEIR wie auch die anderen Beschleuniger sind Teil eines Beschleuniger-Komplexes, in welchem Partikel stufenweise auf immer höhere Energien gebracht werden. Jede dieser Maschinen erhöht die Energie, der in sie injizierten Partikelstrahlen, bevor diese in den nachfolgenden Beschleuniger eintreten, dort weitere Energie dazugewinnen, bis sie schließlich im letzten und größten Beschleuniger, dem LHC, die gigantische Energie von nahezu 7 Teraelektronenvolt erreichen und zur Kollision gebracht werden. Es sind Bedingungen, die den Zustand nach dem Urknall, die Entstehung der Elementarpartikel, simulieren.

    • Stufe 1: Die Beschleunigung von Protonen beginnt im LINAC2. Dies ist ein bereits ziemlich alter Linearbeschleuniger (er stammt aus 1976 und ist neben dem LEIR lokalisiert), der von einer Wasserstoffgasflasche, der Protonenquelle, in Pulsen von 0,1 Millisekunden Dauer gespeist wird. Nach der Passage eines elektrischen Feldes, sind die Elektronen entfernt; die Protonen treten in den LINAC und werden auf 50 MeV beschleunigt.
    • Stufe 2: Aus dem LINAC 2 wird der Protonenstrahl in den Proton Synchrotron Booster gelenkt. Dieser besteht aus 4 übereinander gelagerten Synchrotron Ringen, welche die Teilchen auf 1,4 Gigaelektronenvolt beschleunigen. (Diese Maschine ist immerhin schon 42 Jahre alt.)
    • Stufe 3: Vom Booster geht es dann in das Proton Synchrotron (PS), das die Partikel bis auf 25 Gigaelektronenvolt beschleunigen kann. 1959 in Betrieb gegangen, war das PS das erste Synchrotron am CERN und mit einen Umfang von 628 m damals der stärkste Teilchenbeschleuniger der Welt. Es ist noch immer in Funktion und hat heute eine zentrale Rolle als Lieferant beschleunigter Partikel an die nachfolgenden noch stärkeren, neueren Maschinen, aber auch – wie wir eben gesehen haben – an den Antiproton Decelerator für Antimaterie Experimente. Es sind nicht nur Protonen, die im PS beschleunigt werden, es werden auch schwere Ionen, aus dem LEIR eingespeist. (Auf das hohe Alter von Maschinen und auch Gebäuden angesprochen meint Claudia Wulz: Wir sind sehr sparsam. Unsere Anschaffungen sind zwar extrem teuer, dafür verwenden wir sie aber ewig.)
    • Stufe 4: Vom PS geht es in das Super Proton Synchrotron (SPS). Dieser Beschleuniger mit einem Umfang von 7 km beschleunigt auf bis zu 450 Gigaelektronenvolt. Vor der Inbetriebnahme des LHC wurden hier Teilchenkollisionen durchgeführt, die fundamentale Erkenntnisse u.a. zur Struktur von Protonen oder auch Bosonen brachten.
    • Stufe 5: Die letzte Etappe der Beschleunigung erfolgt am LHC, der 2008 in Betrieb ging. Über diesen wurde im vorgehenden Report bereits berichtet.
    • So, nun sind wir für den Besuch des LEIR gerüstet.

      Der Low Energy Ion Ring (LEIR)

      Dieser Beschleuniger hat mit rund 78 m Umfang in einer Halle Platz (Abbildung 5). LEIRAbbildung 5. Der Low Energy Ion Ring (LEIR).

    Von oben gesehen bekommen wir einen sehr guten Eindruck, wie eine derartige Maschine aufgebaut ist und funktioniert. Dazu tragen auch die Farben bei: wir sehen rote Dipolmagneten, welche die Ionenstrahlen in die Bahn lenken, schmale blaue Magnete, die den Strahl fokussieren, beige Blöcke, die mit Hilfe eines elektromagnetischen Feldes die Teilchen beschleunigen, auffallend gestaltete, sogenannte Elektronen Kühler, die die Dichte des Strahls erhöhen („kühlen“) und schließlich den Magneten, der den Strahl aus dem Ring hinaus zum nächsten Beschleuniger lenkt.

    Ein großartiger Überblick!

    Der LEIR wurde übrigens aus einem Vorgänger – Low Energy Antiproton Ring (LEAR) – umgebaut, der vor der Inbetriebnahme des Antiproton Decelerators dessen Aufgabe innehatte – das Abbremsen und Abkühlen der Antiprotonen.

    Seit 2006 ist der LEIR nun aber ein Beschleuniger von Bleiionen, die in Paketen gebündelt vom Vorbeschleuniger LINAC3 eingespeist werden und von 4,2 auf 72 MeV beschleunigt in das Proton Synchroton und weiter über die Beschleunigerkette in den LHC gelangen. Seit 2010 werden dort neben Proton-Proton Kollisionen auch Kollisionen von Protonen mit Bleiionen und Bleiionen mit Bleiionen durchgeführt.

    Unser Programms nähert sich seinem Ende

    Die Vielzahl und Vielfalt an Eindrücken, die wir bis jetzt erhalten haben, beeinträchtigt unser Aufnahmevermögen. Ein kurzer Besuch im Computer Center wird von mehreren Teilnehmern zur Rast auf den bequemen Bürostühlen benutzt. Dann geht es zurück in Richtung Rezeption.

    Weitere Programmpunkte können nach Belieben gewählt werden. Zum Beispiel die Ausstellung „Microcosmos“: Vom unendlich Großen bis zum unendlich Kleinen. Diese lässt alles, was wir in den beiden Tagen gesehen haben Revue passieren; angefangen von den Beschleunigern und Detektoren bis hin zu den Elementarpartikeln.

    Viele aus unserer Gruppe machen auch einen Abstecher nach Genf, der See kann in wenigen Minuten mit den Öffis erreicht werden. Einige ziehen es vor in der Hotelbar zu sitzen und beim Bier das Gesehene und Gehörte nachwirken zu lassen.

    Auf jeden Fall waren es zwei unvergessliche Tage mit einem grandios zusammengestellten Besuchsprogramm. Dafür und für die herausragenden Führungen danken wir herzlichst Claudia Wulz, Manfred Jeitler, Michael Doser und nicht zuletzt dem CERN Visits Centre für die grandiose Untertützung ImpressionenAbbildung 6. Einige Impressionen


    [1] Michael Doser: CV. http://congress13.scnat.ch/e/jahreskongress/referenten/documents/CV_Mich...

    [2] siehe Abbildung 2 in: http://scienceblog.at/scienceblog-besuchte-das-cern-1#.


    Weiterführende Links:

    Zur Beschleunigerkette: http://home.web.cern.ch/about/accelerators Video 6:15 min (Englisch)
    Antimaterie: http://home.web.cern.ch/topics/antimatter
    Antimatter at CERN http://www.youtube.com/watch?v=1VQuJD7iD3w Video 4:64 min (Englisch)

    CERN: Michael Doser - Antimateriephysiker und Silberschmied, TM Wissen, ServusTV http://www.youtube.com/watch?v=Henf6j8ZPRw Video 10:41 min

    https://cds.cern.ch/record/1603713/files/0002.jpg?subformat=icon-1440 !

    http://home.web.cern.ch/topics/antimatter

    http://home.web.cern.ch/about/accelerators Video 6:15 min (Englisch)

    Wie geht es weiter?

    https://www.google.at/maps/@46.2318485,6.0555793,386m/data=!3m1!1e3?hl=de-AT http://home.web.cern.ch/about/accelerators

    inge Fri, 10.10.2014 - 21:08

    Hans Tuppy: Ein Leben für die Wissenschaft

    Hans Tuppy: Ein Leben für die Wissenschaft

    Fr, 02.10.2014 - 21:42 — Peter Palese

    Icon WissenschaftsgeschichtePeter PaleseWie kein Anderer hat der Biochemiker Hans Tuppy die Wissenschaftslandschaft Österreichs geprägt. Mit seinem Namen verbindet man den Spitzenforscher, Wissenschaftspolitiker, Begründer einer Schule herausragender Forscher und auch heute noch höchst engagierten Wissenschafter [1]. Seinen 90. Geburtstag hat das offizielle Österreich vergangene Woche in der Akademie der Wissenschaften gefeiert [2, 3]. Den Festvortrag hielt ein ehemaliger Schüler, der weltbekannte Virologe Peter Palese, Professor an der Icahn School of Medicine at Mount Sinai, New York (und ScienceBlog-Autor). Peter Palese hat uns den Vortrag zur Verfügung gestellt. Dieser erscheint in ungekürzter Form, mit einigen, wenigen Modifikationen (es wurden Untertitel und Bilder eingefügt).

    Sehr geehrter Herr Professor Tuppy, sehr geehrte Frau Mag. Tuppy, sehr geehrte Festversammlung!

    Es ist mir eine große Ehre und eine noch größere Freude, heute hier vor Ihnen zu stehen und anlässlich der Festveranstaltung zum 90. Geburtstag meines geschätzten Lehrers und Doktorvaters zu Ihnen zu sprechen. Hans Tuppy

    Hans Tuppy wurde 1924 in eine Wiener Juristenfamilie geboren. Die Mutter stammte aus Prag und der Vater aus Brünn, also alle echte Wiener! Die unbeschwerte und glückliche Kindheit Hans Tuppys währte leider nicht lange. Im Jahre 1934 war Hans Tuppys Vater Staatsanwalt im Prozess gegen die Dollfuss Mörder und einer der ersten, der nach der Machtergreifung im Jahre 1938 mit seinem Leben dafür bezahlen musste. Auch Hans Tuppys mathematisch hoch begabter älterer Bruder überlebte die Kriegsjahre nicht. Trotz dieser erschütternden Schicksalsschläge ist es Hans Tuppy gelungen, ein optimistischer und erfolgreicher Mensch zu werden. Nach Schottengymnasium und Matura im Jahre 1942 wurde er im Arbeitsdienst schwer verletzt. Dann aber als es ihm zusehends besser ging wurde er – Gott sei Dank – von einem wohlwollenden Militärarzt als nicht kriegsverwendungsfähig erklärt. Was für ein schönes Wort! Dieser Arzt fragte Tuppy ob er der Sohn des Staatsanawalt Tuppys sei und als Hans Tuppy dies bejahte, schrieb er ihn als nicht kriegsverwendungsfähig. Manchmal braucht man auch etwas Glück im Leben.

    Als 24-Jähriger promovierte Tuppy in Chemie zum Dr. phil. bei Ernst Späth, der Professor am 2. Chemischen Institut der Universität Wien war und ihn sehr gefördert hat. (Nur nebenbei: Ernst Späth wurde 1945 Präsident der Österreichischen Akademie der Wissenschaften).

    Nach Cambridge und Kopenhagen…

    Als 25-Jähriger schafft es Hans Tuppy mit Hilfe von Friedrich Wessely, dem Nachfolger Ernst Späths in Wien, und von Max Perutz, im Jahr 1949 für ein Jahr nach Cambridge in England zu gehen. Dort gelingt es Tuppy im Labor des späteren Nobelpreisträgers Fred Sanger, in einem einzigen Jahr die Sequenz der B Kette des Insulins zu erstellen. Fred Sanger hatte an der A Kette gearbeitet (Abbildung 1). Die A Kette besteht aus 21 Aminosäuren und die B Kette aus 30 Aminosäuren. Das muss man sich wie eine Perlenkette vorstellen in der nicht nur weiße Perlen aneinander gereiht sind sondern bunte Perlen (in 20 verschiedenen Farben – den 20 verschiedenen Aminosäuren). Aminosäuresequenz des (Rinder)InsulinAbbildung 1. Links: Die Aminosäuresequenz des (Rinder)Insulin. Hans Tuppy hat die B-Kette sequenziert[4] (modifiziert nach: “Introduction to Chemistry: General, Organic, and Biological,18, Amino Acids, Proteins, and Enzymes”, cc licensed). Rechts: Aus der Nobelpreisrede von Fred Sanger (PDF Download)

    Das Insulin ist das einzige Hormon, das die Blutzuckerkonzentration senken kann, und es wird heute tonnenweise in Bakterien oder Hefezellen für Diabetiker auf der ganzen Welt synthetisiert. Dies war eine ganz hervorragende Arbeit – und wäre Hans Tuppy weiter in England geblieben, wer weiß wie Tuppys weiterer Lebensweg ausgeschaut hätte!

    Nach nur einem Jahr in Cambridge ging Hans Tuppy nach Kopenhagen in das Karlsberg Laboratorium, um auf ganz anderen Gebieten zu arbeiten. Und dieser Schritt war für Tuppy offensichtlich sehr wichtig und zeigt schon die ganze Breite in Bezug auf sein wissenschaftliches Arbeiten im Allgemeinen. Also sich nicht nur auf ein Gebiet allein zu konzentrieren, sondern sich mit den verschiedensten Fächern und Themen auseinanderzusetzen ist Hans Tuppys Stärke. In Dänemark wurde Tuppy erstmals mit Hefeforschung und Mitochondrien, den Energiefabriken der Zellen, bekannt.

    …und wieder zurück in Wien

    Als 32-Jähriger hat sich Hans Tuppy 1956 habilitiert und – ungewöhnlich für die damalige Zeit – nicht mit einem Thema, sondern mit verschiedenen Arbeiten. Tuppy publizierte die Sequenz des Oxytocins, eines Hormons, das eine ganz wichtige Bedeutung beim Geburtsprozess hat und ein wichtiges Medikament bei der klinischen Geburtshilfe ist. Tuppy arbeitete mit seinem ersten Dissertanten Gerhard Bodo über die Struktur des Cytochrom C, das wir alle für das Atmen brauchen. Diese Arbeiten an Cytochrom C waren richtungweisend. Tuppy mit Günther Kreil (auch ein Mitglied der Österreichischen Akademie der Wissenschaften) und mit Erhard Wintersberger klärten die Sequenz von Cytochrom C in den verschiedensten Spezies auf. So konnte Tuppy mit seinen Mitarbeitern und zusammen mit seinen amerikanischen Kollegen Fitch und Margoliash das erste Mal Evolutions-Stammbäume beschreiben, die auf Proteinsequenzen beruhten. Und der Begriff einer „Molekularen Uhr“, a molecular clock, entstand zu diesem Zeitpunkt. Tuppy hatte auch schon damals an Evolution geglaubt. Und Hans Tuppy arbeitete in seinem Labor auch mit Hefe und mit Mitochondrien. Diese Breite der Themen ist sehr beeindruckend an Tuppys wissenschaftlichen Arbeiten (Abbildung 2). Tuppy war immer – und ist auch heute – ein Generalist! Tuppy der GeneralistAbbildung 2. Tuppy war immer ein Generalist – hier eine unvollständige Kollektion seiner vielfältigen Themen.

    Als 34-Jähriger wird Tuppy zum außerordentlichen Professor für Biochemie an der Universität Wien bestellt und wird als 39-Jähriger Ordinarius am Institut für Biochemie an der Medizinischen Fakultät der Universität Wien. Was vielleicht nur wenige wissen, Tuppy hatte damals auch schon vier Semester Medizin studiert, gab es aber auf, als er zum Professor ernannt wurde. Student und Professor zur gleichen Zeit – talk about conflicts of interest!

    Tuppy war damals berühmt wie kein anderer Professor mit dem neuen Fach „Molekulare Biologie/Biochemie“ und so bin auch ich zu ihm gepilgert am Ende meines fünften Chemie Semesters, um ihn als Dissertationsvater zu bekommen. Ich hatte gehofft, dass das kein Problem sein würde, da ich der schnellste in meinem Chemie Jahrgang war. Insgeheim war ich aber doch besorgt, dass Tuppy mich nicht nehmen würde, weil es andere Chemiestudenten – einige Jahre zuvor – gab, die noch schneller als ich waren. Ich fürchtete dass Prof. Tuppy das sehr wohl wusste. Der Name eines dieser Chemie Studenten klingt so ähnlich wie Peter Schuster. Professor Tuppy war jedoch freundlich – im Englischen würde man „gracious“ sagen – er erwähnte Peter Schuster, Gott sei gedankt, nicht und akzeptierte mich gleich in sein Labor. Ich trage es Peter Schuster, unserem früheren Präsidenten der Österreichischen Akademie der Wissenschaften, bis heute noch nach, dass er im Studium schneller war als ich.

    Mein eigenes Dissertationsthema war wieder ein neues Arbeitsgebiet, das Tuppy initiiert hatte. Es hatte mit Neuraminsäuren zu tun, die Bestandteile jeder Zelle sind und vor allem auf der Oberfläche von Zellen anzutreffen sind. Tuppy hatte dieses Gebiet mit Peter Meindl von Böhringer Ingelheim entwickelt – und das zeigt wieder, wie visionär Tuppy damals war. Neuraminsäure-Derivate mit antiviraler Aktivität sind heute FDA-zugelassene Medikamente, die gegen saisonale und pandemische Influenza höchst wirksam sind. Und noch ein Wort in eigener Sache. Meine eigene Karriere am Mount Sinai in New York baut direkt auf dem Arbeitsgebiet auf, das Hans Tuppy vor vielen Jahrzehnten einem jungen Dissertanten gegeben hatte.

    Tuppy ist mir damals wie heute ein Vorbild für wissenschaftliche Qualität, großes wissenschaftliches Talent, persönlichen Einsatz, Engagement und Optimismus für das Gute in der Wissenschaft. Tuppy ist eine unglaubliche wissenschaftliche Begabung, die ich sonst nie mehr in meinem Leben das Privileg hatte anzutreffen. Prof. Tuppy war immer fair, offen und tolerant im Umgang mit seinen Kollegen und Studenten. Obwohl wir alle seine religiöse Überzeugung kannten, hatten wir im Labor – auch die jugendlichen Heiden oder Agnostiker – immer das Gefühl, dass wir Hans Tuppys Achtung und Verständnis hatten. Tuppy schaffte in seinem Labor ein wunderbares Klima. Ich habe in all den Jahren, die ich bei ihm war, ihn nie im Laboratorium über Politik oder Religion diskutieren gehört. Es herrschte im Labor strikt ein Klima, das die wissenschaftliche Arbeit zum Zentrum hatte. Wir hatten nur Angst vor einem – und das war Tuppys Gedächtnis. Tuppy konnte sich nach Monaten noch besser an Experimente erinnern als wir, die sie selbst ausführten. In der Wissenschaft muss man oft die einzelnen Teile/Experimente zu einem großen Puzzle Bild zusammensetzen. Und darin war Tuppy ein Meister.

    Hans Tuppy war immer ein harter Arbeiter – ein Job von 9 bis 17 Uhr war nicht das, was Hans Tuppy uns vorlebte. Viele Abende sahen wir Licht in seinem Büro – und auch seine Freunde wussten, wo er zu finden war.

    Besuch eines Fotofilmhändlers?

    Ich erinnere mich an einen späten Abend im Institut in der Wasagasse. Es läutete und ein schmächtiger Herr fragte, ob er Prof. Tuppy sprechen könnte und nannte auch seinen Namen, der so ähnlich wie Perutz klang. Die Älteren unter Ihnen werden sich vielleicht noch an den Markennamen „Perutz“ für Fotofilme erinnern. Ich ging also in Tuppys Büro und habe vielleicht eher unwirsch gesagt, dass da schon wieder jemand vom Film draußen ist. Professor Tuppy war wahrscheinlich – sicher sogar! – etwas geschwinder in seinen gedanklichen Assoziationen als ich, sprang auf, lief um mich herum und begrüßte auf das freundlichste seinen Freund, den Nobelpreisträger Max Perutz, der dem Bohrgasse Laboratorium hier in Wien seinen Namen gegeben hat. Ich muss meine damalige Naivität eingestehen, aber ich hatte keine Idee wer Max Perutz war!

    Diese Geschichte von Max Perutz ist nur zur Illustration, dass Tuppys Institut wirklich im Zentrum einer neuen jungen Wissenschaftsrichtung war. Wir hatten Besucher aus dem angelsächsischen Raum, die bei Tuppy ein Sabbatical machten und wir hatten eine Reihe von Assistenten und Post-Doktoranden, die später erfolgreiche wissenschaftliche Karrieren machten. Mehr als ein Dutzend Mitarbeiter von Hans Tuppy haben sich habilitiert und einige sind auch Mitglieder der Österreichischen Akademie der Wissenschaften geworden.

    Wissenschaftliche Nachkommenschaft

    Lassen Sie mich Gottfried Schatz erwähnen, der von Wien über Cornell in den USA an das Biozentrum in Basel ging und den wissenschaftlichen Anstoß, ein großer Mitochondrienforscher zu werden, von Tuppy bekommen hatte. Schatz war auch lange Jahre Präsident des Schweizerischen Wissenschafts- und Technologierats. Vielleicht auch das eine Tuppy Inspiration!

    Manfred Karobath, ein Mediziner, der Biochemie in Tuppys Labor lernte, stieg zum Forschungsleiter von Rhone Poulenc Rorer (RPR) auf. RPR ist jetzt Teil des weltweit drittgrößten Pharmakonzerns Sanofi-Aventis. Und Österreichs Wissenschaft und Pharmaindustrie hat durch Schüler Tuppys große Impulse bekommen.

    Ich muss hier Günther Kreil vom Salzburger Institut für Molekulare Biologie nennen, Erhard Wintersberger, der lange Jahre als Chef der Wiener Medizinischen Biochemie lehrte, Gregor Högenauer, der Biochemie Ordinarius in Graz war, und Peter Swetly, der nicht nur eine Führungsrolle bei Böhringer Ingelheim inne hatte, sondern auch den Sprung zurück in die akademische Welt wagte und unter anderem als erfolgreicher Vizerektor für Forschung an der Veterinärmedizinischen Universität in Wien arbeitete.

    Von den jüngeren Schülern und Schülern von Schülern möchte ich auch Andrea Barta nennen, die auf RNA-Protein Komplexen arbeitet, also wie es der Zelle gelingt von RNA zu Proteinen zu kommen. Andrea hat ihre Mitgliedschaft in der Akademie der Wissenschaften auch dazu genutzt molekularbiologische Forschung für die breitere Öffentlichkeit leicht verständlich und erlebbar zu machen.

    An ihren Taten sollt ihr sie erkennen!

    Tuppy hat nicht nur viele von uns Schülern auf den richtigen Lebensweg geführt und für die Zukunft beflügelt, sondern er hatte auch großen Einfluss durch sein persönliches Engagement. Tuppy hat Generationen von Medizinern moderne medizinische Molekularbiochemie beigebracht und dann mit gewaltigem persönlichem Einsatz auch geprüft.

    Er hat als Präsident des Fonds zur Förderung der Wissenschaftlichen Forschung vielleicht den nachhaltigsten Einfluss auf Österreichs Forschungslandschaft gehabt. Er hat internationale Spielregeln eingeführt, die Österreich einen Platz in der internationalen Wissenschaftsgemeinschaft gesichert haben. Tuppys Nachfolger Kurt Komarek, Helmut Rauch, Arnold Schmidt, Georg Wick, Christoph Kratky und Pascale Ehrenfreund haben dieses System des Peer Review weiter gefestigt und zu einem unumstößlichen Bestandteil der Begutachtung aller Projektanträge durch ausschließlich im Ausland tätige Wissenschaftler gemacht.

    Tuppys Dienst an Österreichs Wissenschaft hat mit der Präsidentschaft des FWF nicht geendet. Er war Dekan, er war Rektor der Universität Wien und wurde vor fast 30 Jahren auch zum Präsidenten dieser Akademie gewählt. Mit Tuppy ist wieder eine Gelehrtenkapazität an die Spitze der Akademie gekommen und auch seine Nachfolger Welzig, Mang, Schuster, Denk und Zeilinger sind solche Gelehrte besonderer Statur. Schuster und Zeilinger sind auch Mitglieder der National Academy of Sciences der Vereinigten Staaten und Mang ist Mitglied der National Academy of Engineering der Vereinigten Staaten – das wird man nicht so leicht von Österreich aus!

    Tuppy war also Dekan, Rektor, Präsident des FWF und Präsident der Akademie der Wissenschaften. Sind jede diese einzelnen forschungspolitischen Funktionen schon ein Lebenswerk für sich, Tuppy hat sich nicht ausgeruht. Als „Zoon Politikon“ hat er auch die höchste politische Wissenschaftsposition im Lande inne gehabt, er war Bundesminister von 1987 bis 1989. Auch in dieser Stellung ist Tuppy seinen Idealen treu geblieben. Er war unter anderem dafür verantwortlich, dass auch in anderen Sprachen an der Universität gelehrt werden darf. Diese Internationalisierung, gefördert durch Tuppy, hat zum Erfolg der österreichischen Wissenschaft wesentlich beigetragen. Solche Initiativen, gepaart mit der Gründung des Vienna Biocenters und eine positive Einstellung zur pharmazeutischen Industrie, haben Österreich wieder zu einem intellektuellen, wissenschaftlichen und industriellen Zentrum in Europa gemacht. Besonders hervorzuheben wäre auch, dass er sogar in dieser Phase der übervollen Terminkalender immer Zeit gefunden hat, den Wünschen oder Sorgen seiner Professorenkollegen zuzuhören und sich um entsprechende Lösungen zu bemühen.

    Ausblick

    Hans Tuppy ist 90 Jahre jung, bei meinem letzten Besuch am 22. Juli bei einem Heurigen – wie könnte es auch anders sein in Wien?!– hat Hans Tuppy von der Zukunft gesprochen und welch große Möglichkeiten vor allem in der biologischen / medizinischen Forschung vor uns liegen. Hans Tuppy hat Österreichs Wissenschaft maßgeblich und höchst positiv beeinflusst und er hat es immer verstanden, in die Zukunft zu blicken. Heute blüht Epigenetik, CRISPR Technologie oder Haploid Zellforschung in Österreich mit jungen Wissenschaftlern, die als wissenschaftliche Enkelkinder oder wissenschaftliche Urenkel Hans Tuppys bezeichnet werden können. Lassen Sie mich Josef Penninger, Emmanuelle Charpentier und Anton Wutz nennen, die wichtige Impulse von Österreich bekommen haben.

    Wir verdanken dies einem Mann, der nicht aufgehört hat, Träume in die Wirklichkeit umzusetzen und der ein Leben für die Wissenschaft gelebt hat und lebt.

    Sehr geehrter Herr Professor, wir wünschen Ihnen und Frau Mag. Erika Tuppy, die mit großer Energie und intelligenter Zuversicht ihrem Mann stets frohgemut zur Seite steht, eine harmonische und weiterhin aktive und gesunde Zukunft! Alles Gute – und ad multos annos!


    Auch ScienceBlog.at schließt sich der Schar der Gratulanten (Abbildung 3) an!! Geburtstagsfeier in der ÖAWAbbildung 3. Gratulanten bei der Geburtstagsfeier in der ÖAW (Rudolf Burger, dahinter Norbert Rozsenich, Hans Lassmann, Erika Tuppy)


    [1] Klaus Taschwer, DER STANDARD, 9.7.2014 http://derstandard.at/2000002850615/Hans-Tuppy-zieht-Bilanz-Immer-etwas-...

    [2] http://www.oeaw.ac.at/oesterreichische-akademie-der-wissenschaften/news/...

    [3] APA/red, derStandard.at, 23.09.2014 http://derstandard.at/2000005916692/Republik-ehrt-Hans-Tuppy-mit-Ehrenze...

    [4] F.Sanger, H. Tuppy “The amino-acid sequence in the phenylalanyl chain of insulin. 1. The identification of lower peptides from partial hydrolysates” Biochem J. Sep 1951; 49(4): 463–481.


    Redaktionelle Bemerkung

    ScienceBlog.at ist stolz, eine Reihe von Tuppys Schülern - Günther Kreil, Peter Palese, Gottfried Schatz, Peter Swetly – und von Tuppys Nachfolgern in verschiedenen Funktionen - Helmut Denk, Pascale Ehrenfreund, Heinz Engl, Christoph Kratky, Herbert Mang, Helmut Rauch, Peter Schuster, Georg Wick - zu seinen Autoren zählen zu dürfen!


     

    inge Thu, 02.10.2014 - 09:42

    Woraus besteht alle Materie? ScienceBlog besuchte das CERN — Tag 1

    Woraus besteht alle Materie? ScienceBlog besuchte das CERN — Tag 1

    Fr,26. 09.2014 - 19:41 — Inge Schuster

    Icon PhysikInge SchusterScienceBlog.at veranstaltete eine zweitägige Exkursion an das CERN: unsere Gruppe erhielt Spezialführungen durch namhafte Vertreter des österreichischen Instituts für Hochenergiephysik (HEPHY, ÖAW), die am CERN arbeiten. Sie zeigten uns, wie dort mit Hilfe eines immensen Teilchenbeschleunigers und riesiger Detektoren – vor allem des CMS - fundamentale Erkenntnisse über den Aufbau der Materie aus Elementarteilchen und deren Wechselwirkungen gewonnen werden. Die Eindrücke überstiegen alle unsere Erwartungen, waren Faszination pur! Um die Vielfalt des Erlebten – wenn auch nur in knappster Form – Revue passieren zu lassen, erscheint der Report in zwei Teilen.

    Fast auf den Tag genau vor 60 Jahren wurde das CERN (Conseil Européen pour la Recherche Nucléaire – Europäische Organisation für Kernforschung) von 12 europäischen Staaten gegründet, weitere 9 Staaten (darunter auch Österreich) und Israel als erster Staat außerhalb Europas kamen später dazu. Das in der Nähe von Genf angesiedelte CERN wurde ein Platz der Superlative: es ist das weltgrößte Forschungszentrum für Teilchenphysik. Der größte und leistungsstärkste Teilchenbeschleuniger der Welt, der LHC (Large Hadron Collider), ermöglicht dort den Aufbau der Materie zu erforschen – von den kleinsten Elementarteilchen des Mikrokosmos bis hin in die unendlichen Weiten des Universums, vom Ursprung des Universum bis hin in seine Zukunft. Es sind Experimente hart an der Grenze des menschlichen Wissens und des technisch Machbaren. Mehr als 10 000 Gastwissenschafter aus aller Welt und mehr als 3000 CERN-Mitarbeiter sind daran beteiligt – ein einzigartiges Vorbild internationaler Zusammenarbeit in einem äußerst kameradschaftlichen Klima. Unkompliziert erfolgt das Veröffentlichen von Ergebnissen – die Aufzählung der beteiligten Autoren kann über mehrere Seiten gehen -, unkompliziert ist in diesem multikulturellen, multinationalem Konglomerat auch die Unterhaltung, nämlich in der lingua franca „bad english“.

    Der ScienceBlog hat zu seiner ersten Veranstaltung, einem Besuch des CERN, eingeladen. Zahlreiche Leser waren daran interessiert, eine beträchtliche Gruppe an Teilnehmern ist zustande gekommen.

    Wir starten unser Besuchsprogramm

    Die meisten von uns sind mit dem frühen Morgenflug von Wien gekommen. An der Rezeption des Besucherzentrums des CERN treffen wir weitere Teilnehmer (u.a. aus Deutschland). Einige der Teilnehmer kennen einander bereits, die anderen holen schnell auf; nach einigen Stunden ist eine bunte, sich fröhlich unterhaltende Gruppe entstanden (Abbildung 1). Ein leichtes Nieseln macht der Stimmung keinen Abbruch. Gruppenbild Abbildung 1. Gruppenbild mit Globe. Unsere (fast vollständige) Gruppe vor dem 27 m hohen und 40 m breiten Globe of Science and Innovation (das Bild wurde allerdings erst am 2. Tag bei freundlicherem Wetter aufgenommen). Der Globe befindet sich vis a vis vom Besucherzentrum des CERN und ist ein Symbol unseres Planeten. Zur Zeit ist im Globe die Ausstellung Universe of Particles zu besichtigen (Bild: K. Klein)

    In einem Seminarraum des Besucherzentrums geht es dann los. Vorerst gibt es zwei Vorträge:

    Für unsere Besichtigungen sind zweifellos Kenntnisse über den Zoo der Elementarteilchen von Vorteil. Da diese aber nicht vorausgesetzt werden können, hält Matthias Wolf eine Einführung (Abbildung 2). Matthias versucht Teilchenphysik und die Grundbegriffe einiger Experimente am CERN zu erläutern – alles in laiengerechter Form. Diese Themen sollen hier aber nur so knapp als möglich umrissen werden, da ausführliche Darstellungen in Artikeln von Manfred Jeitler im ScienceBlog vorliegen [1 – 4]. EinführungsreferatMateriebausteineAbbildung 2. Wieweit lässt sich Materie teilen? Oben: Matthias Wolf erzählt über Elementarteilchen. Unten: Vom Atom zu den Elementarteilchen. Links: Der Durchmesser eines Atoms wird durch das Ausmass der Elektronenhülle bestimmt und beträgt etwa 1 Zehnmillionstel Millimeter, der Kern selbst ist noch zehntausendmal kleiner. Protonen und Neutronen bestehen aus jeweils drei Quarks, Kraftteilchen (Gluonen - blassviolette Spiralen) „kitten“ die Quarks zusammen. Rechts: Quarks und Leptonen der ersten Generation (rot eingerahmt) sind die Bausteine der uns bekannten Materie, rechts davon sind zunehmend instabilere Quarks und Leptonen, wie sie in der kosmischen Strahlung und durch Kollision im Teilchenbeschleuniger entstehen (Bilder oben: Karin Klein, rechts unten: CERN)

    Wieweit lässt sich Materie teilen?

    Alle Materie besteht aus Molekülen, diese wiederum aus Atomen. In Widerspruch zu ihrem Namen sind Atome aber nicht unteilbar, sondern setzen sich aus Elektronenhülle und Atomkern zusammen, der Atomkern aus positiv geladenen Protonen und elektrisch neutralen Neutronen, welche wiederum aus Quarks bestehen. Elektronen (sie gehören, wie auch Neutrinos, zur Familie der Leptonen) sind ebenso wie Quarks unteilbar und damit Elementarteilchen. Unterschiedliche Typen von Kraftteilchen vermitteln die Wechselwirkungen zwischen den Teilchen (Abbildung 2, unten links). Die uns umgebende Materie ist aus stabilen Leptonen (Elektronen und Neutrinos) und Quarks der ersten Generation zuammengesetzt.

    Bei extrem hohen Energien, wie sie unmittelbar nach dem BigBang vorlagen und wie sie in der kosmischen Strahlung und durch Kollisionen im Teilchenbeschleuniger entstehen, werden auch Leptonen und Quarks der 2. und 3. Generation generiert; diese sind schwerer und äußerst instabil. Dass es zu jedem der Elementarteilchen auch ein entgegengesetzt geladenes Antiteilchen gibt, wurde auf Grund quantenphysikalischer Betrachtungen vorhergesagt und später experimentell bestätigt (z.B. Elektron – Positron). Alle Teilchen und die Wechselwirkungen zwischen diesen (außer der besonders schwachen Gravitation) sind im Standardmodell der Elementarteilchenphysik zusammengefasst, das nahezu alle bisher beobachteten teilchenphysikalischen Phänomene erklären kann und dessen Voraussagen – beispielsweise des Higgs-Boson – experimentell bestätigt wurden.

    Ein Blick zurück - Geschichte des CERN

    Es folgt der Vortrag eines betagten, aber enorm vitalen Herrn. Er erzählt von den Anfängen des CERN vor 60 Jahren, als man im Nachkriegseuropa die daniederliegende Wissenschaft fördern, einen Leuchtturm der Grundlagenforschung errichten wollte. Dies ist das CERN auch tatsächlich geworden – es gab dort viele bahnbrechende Entdeckungen zum Aufbau der Materie, für die Nobelpreise verliehen wurden (an Georges Charpak, Simon Van der Meer, Carlo Rubbia, Peter Higgs und Francois Englert) und es entstanden weltverändernde Technologien aus spin-offs de CERN – beispielsweise das Worlwide Web, Touchscreens oder die Positron-Emission Tomography (PET).

    Unser Vortragender zeigt Bilder von den Mitgliedsstaaten, von den an den Projekten beteiligten Organisationen – mit Ausnahme eines Großteils des afrikanischen Kontinents, gibt/gab es Zusammenarbeiten mit nahezu allen Regionen der Erde.

    Fundamentale Bedeutung für die Forschung am CERN haben natürlich Teilchenbeschleuniger, in welchen auf nahezu Lichtgeschwindigkeit beschleunigte Protonen (aber auch andere Teilchen) auf einander prallen, und Detektoren, die messen, was bei den Kollisionen entsteht. Ein Bild, das wir an nahezu allen Stationen unseres Besuchs vorfinden, zeigt schematisch alle diese Einrichtungen (Abbildung 3, links): vom ersten, 1957 in Betrieb genommenen, Synchrocyclotron bis hin zum LHC – Large Hadron Collider – der größten Maschine der Welt, die 2009 in Betrieb ging und an der 2012 das vorhergesagte Higgs-Boson entdeckt wurde.

    Der LHC ist gigantisch. Es ist ein Synchrotron in einem ringförmigen, 27 km langen Tunnel, der unterirdisch in einer Tiefe von 50 bis 175 Metern verläuft, ein Großteil der Anlage ist bereits auf französischem Staatsgebiet. Der LHC beschleunigt Hadronen (dazu gehören Protonen) in gegenläufigen Strahlröhren nahezu auf Lichtgeschwindigkeit und bringt diese dann an vier Stellen zum Zusammenstoß (Abbildung 3 rechts). An diesen Orten befinden sich in riesigen unterirdischen Kavernen die Detektoren ATLAS, ALICE, LHCb und CMS. Den wahrscheinlich schönsten von allen, den CMS, wollen wir später besuchen. TeilchenbeschleunigerAbbildung 3. Teilchenbeschleuniger am CERN – der größte davon ist der unterirdisch in einem Tunnel verlaufende LHC (Bilder: CERN)

    Vorerst geht es aber zum ersten Synchrotron am CERN

    Wir werden in eine dunkle Halle geführt mit einem blauen Lichtband am Boden. Fotos an den Wänden des Eingangs zeigen die Chronik des CERN, dessen Anfänge und wichtige Ereignisse bis heute. Hier steht nun der Methusalem des CERN, das 1957 gebaute Synchrocyclotron (SC).

    SynchrocyclotronAbbildung 4. Das Synchrocyclotron (1957 - 1990) – jetzt ein Showobjekt.

    Es hat die ersten erfolgreichen Versuche in der Teilchenphysik ermöglicht und später als Vorbeschleuniger fungiert. Das SC war ein äusserst langlebiges Produkt; erst nach 33 Dienstjahren wurde es in den Ruhestand geschickt. In einer Licht- und Ton-Show werden 3D-Bilder auf den Beschleuniger projiziert und lassen uns diesen voll in Aktion miterleben – an seinem historischen Originalarbeitsplatz, der nun, nach Jahrzehnten, hinreichend "abgekühlt" ist, um Besucherführungen durchführen zu können. (Abbildung 4)

    Als wir aus dem Gebäude heraustreten, hat der Regen aufgehört. Ein CERN-Bus wartet bereits auf uns. Er benötigt etwas länger als eine halbe Stunde, um uns an die gegenüber liegende Seite des LHC zum Detektor Compact Muon Solenoid (CMS) zu bringen, dem unzweifelhaften Höhepunkt des Tages.

    An der CMS-Station des LHC

    Vor einer eher schmucklosen Halle werden wir abgesetzt.

    Für die Besichtigung des CMS sind Manfred Jeitler und Claudia Wulz unsere Führer – beide sind am CERN arbeitende Wissenschafter vom HEPHY (Institut für Hochenergiephysik der österreichischen Akademie der Wissenschaften). Das HEPHY hat bereits wichtige Beiträge zur Konzeption, zur Hardware, Software und zum Betrieb der Experimente am CMS geleistet hat. Insbesondere engagiert sich das Institut bei der Suche nach der Physik jenseits des Standardmodells (welches bei sehr hohen Energien keine adäquate Beschreibung der Physik liefern dürfte. Eine Erweiterung - die Theorie der Supersymmetrie – kann am CMS überprüft werden.)

    Zur Führung werden wir in zwei Gruppen geteilt. Ich bin in der Gruppe von Manfred Jeitler. Ebenso wie Jeitler als Autor im ScienceBlog hochkomplizierte Sachverhalte humorvoll und leichtverständlich aufbereitet, gestaltet er auch unsere Tour im CMS.

    Zuerst erfahren wir noch genauer was im LHC geschieht und was der CMS-Detektor misst:

    Aus einer Kette von Vorbeschleunigern kommende (positiv geladene) Protonen werden in die beiden benachbarten Strahlrohre des LHC im und gegen den Uhrzeigersinn eingespeist und durch ein hochfrequentes elektrisches Wechselfeld bis sehr nahe an die Lichtgeschwindigkeit (entsprechend 7 Teraelektronenvolt) beschleunigt. Eine Protonenfüllung (die bei normalem Betrieb bis zu einem Tag in der Strahlröhre verbleiben kann) besteht dabei aus rund 2800 Protonenpaketen, jedes Paket enthält ca. 115 Milliarden Protonen. In den Röhren herrscht ein Hochvakuum, um Zusammenstöße mit fremden Partikeln zu vermeiden.

    Die Protonen werden durch supraleitende Dipolmagnete auf ihrer ringförmigen Bahn gehalten und durchlaufen die 27 km lange Strecke 11 000 mal pro Sekunde. An vier Stellen des Ringes (siehe Abbildung 3) werden die beiden gegenläufigen Protonenstrahlen gekreuzt und zur Kollision gebracht. Supraleitende Quadrupolmagnete haben zuvor die Teilchenpakete auf einen Durchmesser von 16 µm bei 8 cm Länge fokusssiert (squeezed). Die Betriebstemperatur der Magnete - 1,9o Kelvin - liegt nahe dem absoluten Nullpunkt, dies wird mit flüssigem Helium erreicht.

    Bei der Kreuzung von zwei Paketen treffen im Schnitt 20 – 40 Protonen beider Pakete aufeinander, dies ergibt bis zu 800 Millionen Kollisionen in der Sekunde. Je höher die Beschleunigung der Protonen, desto größer ist ihre kinetische Energie und desto mehr neue Teilchen entstehen bei den Kollisionen. Es werden damit Bedingungen simuliert, wie sie nach dem Urknall vorgelegen sein könnten, als sich die heute bekannte Materie erst zu formen begann.

    Jetzt kann es endlich zum CMS gehen – der Prinzessin des LHC

    Mit einem Lift geht es in zwei Gruppen schnell 100 m in die Tiefe. Wir haben rote Helme aufgesetzt und kommen uns etwas merkwürdig vor – jedenfalls bietet der Anblick viele Anlässe zum Fotografieren. Warum wir die Helme brauchen? Typisch die Antwort von Manfred Jeitler: „Damit uns nichts passiert, wenn unten alles einstürzt und uns auf den Kopf fällt!“ Derart beruhigt wandern wir zum CMS (Abbildung 5).

    Abstieg zum CMSAbbildung 5. Behelmt und daher geschützt.

    Der Anblick, der sich uns dann bietet ist atemberaubend, die riesige – gute fünf Stockwerke hohe – Kaverne mit dem gewaltigen, raumfüllenden CMS hat beinahe sakralen Charakter. Von vorne gesehen gleicht das CMS den Rosetten gotischer Dome, ebenso schön, aber bei einem Durchmesser von 15 m viel, viel größer (Abbildung 6).

    Um bei der Kunst zu bleiben: Michi Hoch gesellt sich kurz zu unserer Gruppe, er ist ein Mitarbeiter am CERN, macht traumhaft schöne Fotos – vor allem vom CMS, das er als „Princess of Science“ bezeichnet. Mit seiner Initiative Art@CMS versucht er Laien für Wissenschaftsthemen zu interessieren. (Er hat sofort zugesagt für ScienceBlog.at einen entsprechenden Bildbeitrag zu liefern.)

    Abstieg zum CMSAbbildung 6. Von vorne betrachtet erinnert das CMS (oben links) an die Rosetten gotischer Kirchen (oben rechts: Rosette Notre Dame – Süd). Unten links: das 21 m lange CMS besteht aus 11 Scheiben, Blick auf 2 Scheiben. Mitte: Unsere Helmfraktion. Rechts: Wir lernen Michi Hoch, einen Mitarbeiter des CERN, herausragenden Fotografen und Wissenschaftskommunikator, kennen: zu seinem Art@CMS siehe: weiterführende Links.

    Wie funktioniert der CMS-Detektor?

    Der 21 m lange Detektor besteht aus 11 Scheiben, die einzeln von der Oberfläche in die Kaverne hinuntergelassen und dort zusammengebaut wurden. Er ist ein Universaldetektor, ausgerüstet um jegliche Teilchen, die bei Protonenkollisionen entstehen, detektieren und charakterisieren zu können. Seinem Namen Compact Muon Solenoid entsprechend besitzt er Schichten, die speziell auf die Detektion von Myonen ausgerichtet sind (s.u.). Sein Kernstück ist ein supraleitender, 13 m langer Spulenmagnet (= Solenoidmagnet), der einen Durchmesser von 6 m hat und ein Magnetfeld erzeugt, das 100 000 mal stärker ist, als das Magnetfeld der Erde. Aus der Krümmung der Teilchenspur in diesem Magnetfeld lässt sich das Verhältnis Ladung zu Masse der Teilchen bestimmen. Ein schematischer Querschnitt durch den Detektor in Abbildung 7 zeigt seinen Aufbau aus mehreren Schichten, die jeweils die Bestimmung bestimmter Teilchentypen ermöglichen. Im Inneren der Magnetspule treffen die durch Kollision entstandenen Teilchen auf einen aus Siliciumstreifen aufgebauten Spurdetektor zum Nachweis geladener Teilchen. Andere Teilchen werden in Kalorimetern absorbiert und geben dabei ihre Energie ab, die z.B. als Szintillationslicht oder Ionisierung gemessen wird. Myonen durchdringen diese Schichten innerhalb des Spulenmagneten. Ausserhalb der Magnetspule wird das Magnetfeld durch ein aus Ringen bestehendes, massives Eisenjoch begrenzt, deren Zwischenräume mit gasgefüllten Kammern versehen sind. Myonen, die auch das Strahlrohr durchdringen, werden in diesen Myonenkammern detektiert. Schema des CMS-DetektorsAbbildung 7. Schema de CMS-Detektors. Der mehrschichtige Aufbau innerhalb und außerhalb der Magnetspule ermöglicht eine präzise Bestimmung aller Teilchen, die bei den Kollisionen der Protonen entstanden sind. (Bilder: modifiziert nach Wikipedia)

    Ein sehr wichtiger Beitrag zur Reduktion der ungeheuren Datenmengen, die bei der Analyse der Kollisionen anfallen würden, kommt hier vom Hephy: Der Level-1 Trigger. Dies ist ein speziell entwickeltes Elektroniksystem, das im 25 Nanosekundentakt on-line jede Kollision analysiert und entscheidet ob diese für weitere Analysen geeignet ist. Damit reduziert der Level-1 Trigger die 600 Millionen Kollisionen pro Sekunde 400-fach, ein weiterer Trigger der High Level Trigger reduziert weiter auf nur mehr einige hundert Ereignisse pro Sekunde, die gespeichert werden.

    Im Zusammenhang mit der Datenflut: wir haben heute auch am CCC (CERN Control Centre) vorbei geschaut, von dem aus die gesamte Infrastruktur des CERN rund um die Uhr zentral gesteuert und überwacht wird – von der Steuerung der Vorbeschleuniger über die Energieversorgung, Lüftungs-und Klimageräte, Sicherheitssysteme bis hin zu den Kommunikationssystemen.

    Ausklang

    Alles war gigantisch und muss erst noch verdaut werden!

    Unter dem Eindruck des Gesehenen und Gehörten sind wir ziemlich müde und auch durstig geworden. Der Bus bringt uns zum CERN-Besucherzentrum zurück, von dort geht es per Öffis zu unseren Hotels. Das morgige Programm lässt wieder einen äußerst spannenden, aber auch anstrengenden Tag erwarten.

    Der Report zu Tag 2 folgt.


    [1 – 4] Artikel von Manfred Jeitler im ScienceBlog

    06.09.2013: CERN: Ein Beschleunigerzentrum — Experimente, Ergebnisse und wozu man das braucht.

    23.08.2012: CERN: Ein Beschleunigerzentrum — Wozu beschleunigen?

    21.02.2013: Woraus unsere Welt besteht und was sie zusammenhält — Teil 2: Was ist das Higgs-Teilchen?

    07.02.2013: Woraus unsere Welt besteht und was sie zusammenhält — Teil 1: Ein Zoo aus Teilchen

    Weiterführende Links:

    Publikumsseiten des CERN http://home.web.cern.ch/about

    Overview of CERN, LHC and CMS: 7 Videos http://cms.web.cern.ch/content/cms-videos

    The Large Hadron Collider - CERN Video 7:28 min
    http://www.youtube.com/watch?v=lYt1-SMTbOs

    CERN: Jahresbericht 2013: https://cds.cern.ch/record/1710503/files/AnnualReport.pdf

    C.W.Fabjan: Österreich am CERN http://www.hephy.at/fileadmin/user_upload/CERN-AT/Presse/Oesterreich_am_...

    HEPHY http://www.hephy.at/

    Website von Manfred Jeitler am Hephy: http://wwwhephy.oeaw.ac.at/u3w/j/jeitler/www/

    Website von Claudia-Elisabeth Wulz am HEPHY http://www.hephy.at/institut/mitarbeiter/?no_cache=1&user_mitarbeiter_pi1[item]=25

    Michael Hoch: https://artcms.web.cern.ch/artcms/ photographiert und arbeitet im Art@CMS Projekt mit professionellen Künstlern und Studenten zusammen. Mit Art@CMS wird versucht Menschen aus nichtwissenschaftlichen Fachbereichen an unserer Wissenschaftsthematik und an unserem Wissenschaftapparatus zu interessieren und wenn möglich einzuladen daran teilzunehmen.

    Weitere Videos

    CMS in ACTION by Paul Schuster Video 2,58 min http://www.youtube.com/watch?v=0J8Hpr6gojs&feature=youtu.be

    Flight over CMS, Video 2,26 min http://www.youtube.com/watch?v=B1NKaEty1QU&feature=youtu.be

    Openning CMS 'The Princess of Science' for service 2013/ 2014 Video 2,26 min http://www.youtube.com/watch?v=LXHnbX4U05M

    Website der Deutschen Forscher am CMS http://www.weltmaschine.de/experimente/cms/

    Universe of Particles Video 2:00 min, http://outreach.web.cern.ch/outreach/expos_cern/univers_particules.html



     

    inge Fri, 26.09.2014 - 07:41

    Open Science (Freies Wissen) – ein Abend auf der MS Wissenschaft

    Open Science (Freies Wissen) – ein Abend auf der MS Wissenschaft

    Fr, 19.09.2014 - 04:20 — Inge Schuster

    Icon Politik & GesellschaftInge SchusterEin umgebautes Frachtschiff tourt seit mehreren Jahren als schwimmendes Science-Center „MS Wissenschaft“ durch Deutschland und Österreich - jedes Jahr unter einem anderen Motto. Im Schiffsbauch finden Ausstellungen in Form einer „Wissenschaft zum Anfassen“ statt, in einem Zeltaufbau an Deck Vortrags-und Diskussionsveranstaltungen. Im Rahmen des diesjährigen Motto „Digital unterwegs“ gab es vor wenigen Tagen in Wien die Veranstaltung: „Dialog an Deck: Wissenschaft und Freies Wissen - Fortschrittsmotor und Gemeingut der Informationsgesellschaft".

    Mit unglaublicher Rasanz hat das digitale Zeitalter von uns Besitz ergriffen. Digitale Technologien sind aus Beruf und Privatleben nicht mehr wegzudenken. Neue Kommunikationsformen vernetzen auf unserem Globus Jeden mit Jedem, verändern die sozialen und ökonomischen Fundamente unserer Lebensumwelt und damit unsere Gesellschaften. Wissenschaft und Forschung haben diese Revolution ausgelöst und treiben den Prozess weiter fort, werden aber in gleicher Weise von diesem verändert. In einer Art von Goldgräberstimmung werden in den meisten Wissenszweigen unabsehbar große Datenmengen - „Big Data“ - generiert und gespeichert in der Hoffnung deren enormes Potential in positiver Weise nutzen zu können. Ein möglichst breiter und freier Zugang zu Forschungsergebnissen bietet beispiellose Chancen, birgt aber Risiken, die heute noch kaum absehbar sind.

    Digitale Gesellschaft und „Open Science“ im Wissenschaftsjahr 2014

    Das Deutsche Bundesministerium für Bildung und Forschung ruft seit mehr als einem Jahrzehnt Wissenschaftsjahre aus, die wichtigen Disziplinen gewidmet sind. In Zusammenarbeit mit dem Ministerium organisiert dann die Initiative „Wissenschaft im Dialog“ zahlreiche Veranstaltungen, mit dem Ziel Wissenschaft und Gesellschaft ins Gespräch zu bringen und vor allem das Interesse der Jugend für Forschung zu wecken. Heuer steht das Thema der digitalen Revolution und deren Folgen für unsere Gesellschaft im Mittelpunkt. Wie auch in den vergangenen Jahren wurde die MS Wissenschaft quer durch Deutschland und Österreich auf Tour geschickt, diesmal mit der Ausstellung „Digital unterwegs“ und thematisch entsprechenden Vortrags-und Diskussionsveranstaltungen.

    Nach viereinhalb Monaten und insgesamt 38 Stationen ging die Reise nun in Wien zu Ende. Die letzte Veranstaltung an Bord der MS Wissenschaft befasste sich unter dem Titel „Wissenschaft und Freies Wissen - Fortschrittsmotor und Gemeingut der Informationsgesellschaft“ mit dem Thema der “Open Science“. Dieser Vortrags- und Diskussionsabend erhielt Unterstützung vom Fond zur Förderung der wissenschaftlichen Forschung (FWF) und wurde von den Wikimedia-Vereinen Österreich, Deutschland und Schweiz und der Open Knowledge Foundation aus Österreich und aus Deutschland organisiert. ImpressionenImpressionen von der MS Wissenschaft. Oben: Es wird bereits Abend, als die Veranstaltung beginnt. Mitte: „Dialog an Deck“ das Podium B.Brembs, S.Spiekermann, C-H.Buhr, W.Eppenschwandtner, G.Dubochet (von l nach r). Unten: der Ausklang – viele Teilnehmer sind schon gegangen.

    Offenheit der Wissenschaft im digitalen Zeitalter…

    Dies wurde in Form von Podiumsdiskussionen unter reger Beteiligung der Zuhörer erörtert, wobei Kurzvorträge (a 5 min.) als Impulsgeber fungierten. Das Podium war mit hochkarätigen Experten aus Wissenschaft und europäischer Politik und engagierten Verfechtern von „Open Science“ besetzt. Es waren dies:

    • der Neurobiologe Björn Brembs, Professor an der Universität Regensburg,
    • die Wirtschaftsinformatikerin Sarah Spiekermann (Professor an der Wirtschaftsuniversität Wien), die seit über 10 Jahren zu sozialen Fragen der Internetökonomie und Technikgestaltung forscht und Beraterin bei der EU-Kommission und OECD ist,
    • der Wirtschafts- und Computerwisssenschafter Carl-Christian Buhr, der als Mitglied im Kabinett der EU-Kommissionsvizepräsidentin für Digitale Agenda (u.a. Cloud Computing, Big Data strategy, Digital Futures) zuständig ist, der Mathematiker Wolfgang Eppenschwandtner, der „Executive Coordinator“ der Plattform „Initiative for Science in Europe“ ist und
    • der Computerwissenschafter Gille Dubochet, der Senior Scientific Officer für Ingenieurwissenschaften bei „Science Europe“ ist, einer neuen Vereinigung von „European Research Funding Organisations“ (RFO) und „Research Performing Organisations“ (RPO) in Brüssel.

    …was hat man sich darunter vorzustellen, was wäre erstrebenswert, was wurde erreicht?

    Open Science

    Feststeht: eine allgemein akzeptierte Definition des Begriffs „Open Science“ - offene Wissenschaft - existiert (noch) nicht. Jedenfalls sollte aber der wissenschaftliche Prozess von der ersten Idee bis zur finalen Publikation geöffnet werden, um diesen möglichst nachvollziehbar und für alle nutzbar zu machen. Der Vorstellung der Open Knowledge Foundation (OKF) entsprechend sollte dies bedeuten: “free to use, re-use and re-distribute for all”, also ein auf rechtlicher Ebene Verwenden, Abändern sowie Weitergeben von Wissen.

    Aus Platzgründen kann hier nur eine sehr unvollständige Wiedergabe der rund eineinhalb Stunden dauernden Veranstaltung gegeben werden. Für grundlegend hielt ich die sechs Prinzipien, die Stefan Kasberger (OKF Austria, OKFAT) in seinem Einführungsvortrag als Basis von „Open Science“ nannte:

    • Open Methodology: eine relevante Dokumentation von Methoden und ihrer Anwendung
    • Open Source: Verwendung quelloffener Technologie (Soft- und Hardware) und Offenlegung eigener Technologien
    • Open Data: Erstellte Daten frei zur Verfügung stellen
    • Open Access: offen publizieren, für jeden nutzbar und zugänglich machen
    • Open Peer Review: Transparente und nachvollziehbare Qualitätssicherung durch offenen Peer Review
    • Open Educational Resources: Freie und offene Materialien für Bildung und in der universitären Lehre verwenden

    Nach der Klärung, dass der Begriff „Science“ sich im Wesentlichen auf (angewandte) Naturwissenschaften bezieht, gab es eine rege Diskussion zur Veröffentlichungspraxis. B.Brembs etwa meinte, dass die Art und Weise, wie heute noch immer Daten veröffentlicht werden, den Einzug in Digitale Zeitalter völlig verschlafen habe – dem und der Akzeptanz zu „Open Access“ wurde von Podium und Publikum weitgehend zugestimmt. Als bereits existierendes Vorbild einer auf „Open Access“ beruhenden Kooperation wurde das Polymath-Projekt genannt, in welchem zahlreiche Leser eine Blogs kommunizierten, um Lösungen für ein schwieriges mathematisches Problem zu finden. In der Frage nach der Öffnung der Technologien gab es dagegen unterschiedliche Meinungen – von absolut notwendig bis hin zu impraktikabel, da viel zu aufwendig (dagegen wurde die bereits bestehende und durchaus erfolgreiche Praxis bei z.B. ResearchGate eingewendet). Auch beim Ersatz des heute praktizierten Peer-Review gab es unterschiedliche Ansichten (meiner Ansicht nach ist es ein Ersetzen eines - zugegebenermaßen - unbefriedigenden Filters durch ein noch viel mehr durch Willkür gekennzeichnetes Vorgehen.)

    Open data

    Der darauffolgende Impulsvortrag von Peter Kraker (TU Graz und OKFAT) leitete die Diskussion zu „Open data“ ein. Open Data bedeutet Untersuchungsergebnisse zu veröffentlichen ohne deren weitere Verwendung einzuschränken, wie dies bereits in der Erstellung und Nutzung von offenen Datenbanken der Fall ist.

    Kraker verwendete ein aktuelles Beispiel, um aufzuzeigen, wie wichtig es ist auf breite offene Datenbanken zugreifen zu können: Um die Ursache des Bienensterbens zu untersuchen, hatte die amerikanische Biologin Diana Cox-Foster die von Mikroorganismen stammende Erbinformation mehrerer Kolonien erkrankter Bienen mit der von gesunden Bienenvölkern verglichen. Sowohl gesunde als auch kranke Bienen waren von einer Fülle von Bakterien, Pilzen und Viren besiedelt. Der Vergleich mit in Datenbanken gespeicherten Sequenzen ermöglichte rasch und ohne langdauernde, komplizierte und kostenintensive Untersuchungen ein Virus (IAPV) zu identifizieren, das nahezu ausschließlich in den kranken Bienen vorkam und damit Auslöser für das Bienensterben sein dürfte.

    Offene Datenbanken gibt es weltweit bereits sehr viele, beispielsweise in Europa die Datenbanken des European Bioinformatics Intitute EMBL-EBI zu biologischen Fragestellungen (http://www.ebi.ac.uk/), in den USA die GenBank des National Center for Biotechnology Information (NCBI) oder die japanische DNAdatabank. Auch dafür, wie publizierte Daten am besten zugänglich gemacht und wiederverwendet werden können, gibt es klare Empfehlungen, die der englische Chemiker Peter Murray-Rust in den Panton Principles festgelegt hat.

    Die Diskussion zum Thema „Open Data“ berührte vor allem die Fragen: wo sind Open Data notwendig, was geht verloren, wenn diese nicht vorhanden sind? Zweifelsfrei wurde das Beispiel von "Offene Daten Österreichs“ –https://www.data.gv.at – als sehr positiv vermerkt. Diese Datenbank kann freigenutzt werden – zur persönlichen Information und auch für kommerzielle Zwecke wie Applikationen oder Visualisierungen - und stellt einen Meilenstein in der Transparenz der öffentlichen Verwaltung dar, die ja mit öffentlichen Geldern finanziert wird.

    Schwierigere Fragen waren: Wem gehören die offenen Daten? Inwieweit werden Daten verwendet/abgeändert ohne den Urheber zu zitieren? Welche negativen Auswirkungen auf die wissenschaftliche Karriere sind damit zu befürchten? Hier ist zweifellos die Politik gefordert Standards zu setzen, neue Maßstäbe für die Bewertung und Akzeptanz wissenschaftlicher Arbeiten zu entwickeln und damit Barrieren der wissenschaftlichen Karriere abzubauen. Öffentliche Befragungen und Workshops zu diesen Themen sollen in Abwägung des öffentlichen Nutzens zu entsprechenden Empfehlungen der EU-Kommission führen.

    Citizen Science

    Auf Grund der bereits stark fortgeschrittenen Zeit geriet der letzte Abschnitt des Programms leider ziemlich kurz. Der Biophysiker Daniel Mietchen (Museum für Naturkunde Berlin/Wikimedia DE/Wikimedia CH/Open Knowledge Foundation DE) referierte über ein Thema, das auch ein zentrales Anliegen unseres ScienceBlog ist: Wie können wissenschaftliche Laien für wissenschaftliche Fragestellungen interessiert werden, in die Durchführung von Forschungsprojekten einbezogen werden?

    Um die erstrebte Relation von Wissenschaftern und Bevölkerung darzustellen, verwendete Mietchen die Metapher der Fußballweltmeisterschaft: während nur wenige Mannschaften zu je 11 Personen aktiv sind, verfolgen mit großem Interesse Millionen Menschen die Spiele, den gesamten Prozess und geben Kommentare ab. Ein derartiges Interesse kann auch für die Wissenschaft geweckt werden. Dies zeigen zahlreiche naturwissenschaftliche Projekte, für die Laien Beobachtungen, Messungen und Datenauswertungen zur Verfügung stellten. Beispiele reichen von einem Atlas der Mücken Deutschlands bis hin zur Entdeckung von Asteroiden oder dem Design von Proteinstrukturen.

    Fazit

    Das Thema Open Science/Open Data steht im Mittelpunkt der Wissenschaftskommunikation.

    Die Veranstaltung glänzte durch hochkarätige Experten und war gut besucht (das Vortragszelt war fast voll).

    Viele Anregungen kamen aus den Impulsvorträgen, die in minimaler Zeit ein Maximum an Information boten.

    Leider war der Zeitrahmen viel zu kurz bemessen, die Diskussionen kamen zu kurz, einige meiner Ansicht nach wichtige Fragen wurden nicht berührt - vor allem das Problem der Wissenschaftskommunikation in einer für Laien verständlichen Form – also „understandable open data“.


    Weiterführende Links

    Zur MS Wissenschaft: Video 1:50 min auf http://www.ms-wissenschaft.de/

    Innovation im digitalen Zeitalter mit Dr. Sarah Spiekermann Video 1:50 min http://www.youtube.com/watch?v=raghScJmJZ8

    Offene Daten Österreichs Video https://www.data.gv.at/infos/video-was-ist-open-data/

    P. Kraker et al., The Case for an Open Science in Technology Enhanced Learning http://know-center.tugraz.at/download_extern/papers/open_science.pdf

    Bienensterben in den USA Ein Virus bringt die Bienen um.

    http://www.sueddeutsche.de/wissen/bienensterben-in-den-usa-ein-virus-bri... (abgerufen am 18.9.2014)

    Panton Principles http://pantonprinciples.org/


     

    inge Fri, 19.09.2014 - 04:20

    Themenschwerpunkt: Biokomplexität

    Themenschwerpunkt: Biokomplexität

    Fr, 12.09.2014 - 07:54— Redaktion

    Icon Biologie„Über Generationen hin haben Wissenschafter Teile unserer Umwelt separiert untersucht – einzelne Spezies und einzelne Habitate. Es ist an der Zeit, zu verstehen, wie diese Einzelteile als Ganzes zusammenwirken. Biokomplexität ist ein multidisziplinärer Ansatz um die Welt, in der wir leben, zu verstehen“ (Rita Colwell, 1999 [1]).

    Der Begriff Komplexität ist ein Modewort geworden und aus dem Alltagsleben nicht mehr wegzudenken. Was früher als kompliziertes, aber mit entsprechendem Einsatz als durchaus lösbares Problem angesehen wurde (also beispielsweise ein Uhrwerk zu reparieren), erhält nun häufig das Attribut „komplex“.

    Was ist Komplexität?

    Tatsächlich ist Komplexität etwas anderes. Komplexe Prozesse sind dadurch gekennzeichnet, dass sie nicht durchschaubar sind, ihre Ergebnisse durch sehr viele Faktoren beeinflussbar und nicht vorhersagbar sind. Auch, wenn man die Ausgangsbedingungen eines komplexen Systems – also seine Einzelelemente und die Wechselwirkungen zwischen diesen - genau analysiert hat, führt deren Zusammenspiel zu Phänomenen, die nicht aus der Summe der einzelnen Eigenschaften/Wechselwirkungen hergeleitet werden können, zur sogenannten Emergenz. Dies lässt sich damit erklären, dass bei den Wechselwirkungen mehrerer Elemente miteinander (Mehrkörperproblem) Rückkopplungen entstehen, dass über die Zeit hin die Wechselwirkungen sich ändern können. Es besteht also keine lineare Beziehung zwischen Ursache und Wirkung. Diese nichtlineare Dynamik kann zu einem chaotischen System führen, aber auch ermöglichen, dass Systemelemente zu makroskopischen Strukturen zusammentreten (Selbstorganisation). Beispiele aus der unbelebten Natur sind u.a. durch den Wind verursachte Musterbildungen auf Sandoberflächen, Entstehung von Gewittern, Tornados, etc.

    Die Komplexitätsforschung nahm ihren Ausgang von der Systemtheorie und Mathematik in den 1960er Jahren und entwickelt sich seitdem zu einer Leitwissenschaft, die gleichermaßen in den (angewandten) Naturwissenschaften, sozialen, wirtschaftlichen und politischen Bereichen hilft komplexe Systeme mit entsprechenden Computermodellen zu untersuchen, zu verstehen und Prognosen zu erstellen. Dementsprechend ist Komplexitätsforschung heute weltweit in zahlreichen Instituten angesiedelt.

    Als Flaggschiff dieses Gebietes kann das Santa-Fe Institut in New Mexico bezeichnet werden. Es wurde vor 30 Jahren gegründet, als ersichtlich wurde, dass Fortschritte in der Behandlung nicht-linearer Prozesse und in Computermodellierungen nun erstmals eine Abkehr von rein reduktionistischen Betrachtungsweisen hin zu komplexen Systemen ermöglichten. Dem stark zunehmendem Spezialistentum wurde eine Philosophie interdisziplinärer Zusammenarbeit entgegengesetzt: es kooperieren eine kleine Gruppe Vollzeit-angestellter Wissenschafter und eine international zusammengesetzte, große dynamische Gruppe „Externer Fakultätsmitglieder“ aus den verschiedensten Fachgebieten, welche das Institut auf regulärer Basis „besuchen“.

    Was ist Biokomplexität?

    Biokomplexität ist ein junger interdisziplinärer Forschungszweig, der auf systembiologischen Ansätzen aufbaut und über diese weit hinausgeht. Erste Erwähnungen von „biocomplexity“ finden sich in den Literaturdatenbanken erst knapp vor der Jahrtauendwende; zurzeit gibt es in Google-scholar schon rund 11 000 Eintragungen. Eine zunehmende Zahl an Institutionen widmet sich bereits diesem Forschungszweig, an einer Reihe von Universitäten ist Biokomplexität als Studienrichtung etabliert. Einige Beispiele sind, neben dem Santa-Fe Institut, die University Illinois (Urbana-Champaign, US), das „Center for Biocomplexity“ an der Princeton Universität (NJ, US), die „Biodiversity and Biocomplexity Unit“ am Okinawa Institute of Science and Technology (Japan), die Abteilung „Hydrodynamik, Strukturbildung und Biokomplexität“ am Max-Planck Institut für Dynamik und Selbstorganisation (Göttingen, D), „Biocomplexity“ am Alfred Wegener Institut (Bremerhaven, D), an den Universitäten Münster und Utrecht, usw…..

    Was alles unter dem "Dach" Biokomplexität verstanden wird, ist noch nicht klar umrissen. Eine sicherlich nicht umfassende Beschreibung dieser Disziplin könnte lauten: Biokomplexität verknüpft Biodiversität mit ökologischer Funktion:

    • untersucht auf vielfachen biologischen Organisationsebenen, räumlichen und zeitlichen Skalen die komplexen biologischen, sozialen, chemischen, physikalischen Wechselwirkungen von Lebewesen mit ihrer Umwelt,
    • strebt an den Menschen als Teil der Natur zu verstehen, eng gebunden an sein Habitat an Land und Wasser und an die Gemeinschaften der Lebewesen,
    • untersucht wie die Umwelt den Menschen formt, ebenso wie die Auswirkungen der Aktivitäten des Menschen auf seine Umwelt.

    Rita Colwell hat 2001 - damals war sie Direktor der US National Science Foundation - in einer Rede ein praktisches Beispiel von Biokomplexität gegeben:

    „Warum sind Eicheln anscheinend mit einem Ausbruch der Lyme-Krankheit (durch Zecken übertragene Borreliose) assoziiert?

    Dies ist tatsächlich der Fall: Wenn Eichen übermäßig Eicheln produzieren, dann kommen in dieses Gebiet mehr Hirsche, die sich von den Eicheln ernähren. Mehr Hirsche bedeuten mehr Zecken auf den Hirschen. Mehr Zecken lassen sich in eine höhere Wahrscheinlichkeit für Lyme-Krankheit übersetzen. Wissenschafter sind der Überzeugung, dass sie aus der Menge der in einem bestimmten Jahr produzierten Eicheln den Ausbruch der Lyme-Krankheit zwei Jahre später vorhersagen können.“ [2; aus dem Englischen übersetzt]

    Biokomplexität im ScienceBlog

    Komplexität ist die Grundstruktur des Lebens. Komplexität führt auf allen Organisationsebenen belebter Materie zur Diversität der Spezies: zur Vielzahl der Spezies, zur Variabilität innerhalb der Spezies und zu deren verschiedenen Erscheinungsformen. Die Spezies selbst prägen ihre Umwelt und werden von dieser geprägt.

    Kernthemen dieser Disziplin sind daher: Komplexität, Biodiversität und Ökosysteme.

    Zu diesen Themen sind bereits 18 Artikel von insgesamt 10 Autoren erschienen, die nun im neuen Schwerpunkt zuammengefasst sind und durch neue Artikel laufend ergänzt werden. Eigentlich müßte hier auch das Thema Evolution mit seiner fundamentalen Rolle in der Entstehung von Diversität vertreten sein. Da Evolution ein zentraler Aspekt unseres Blogs ist, wurde ihr- auf Grund der Fülle einschlägiger Artikel- ein eignener Schwerpunkt gewidmet: http://scienceblog.at/evolution

    Komplexität

    Biodiversität

    Ökosysteme


    [1] Rita Colwell (1999) zitiert in J. Mervis, Biocomplexity Blooms in NSF’s Research Garden. Science 286:2068-9 [2] Rita Colwell (2001), Future Directions in Biocomplexity. Complexity 6,4:21-22


     

    inge Fri, 12.09.2014 - 07:54

    Der Kampf gegen Darm- und Durchfallerkrankungen

    Der Kampf gegen Darm- und Durchfallerkrankungen

    Fr, 29.08.2014 - 06:23 — Bill and Melinda Gates Foundation

    Bill and Melinda Gates FoundationIcon MedizinDurch Infektionen hervorgerufene Darm- und Durchfallerkrankungen sind vermeidbar und behandelbar. In Entwicklungsländern gehören sie zu den Hauptursachen der Kindersterblichkeit und können zudem zu Mangelernährung und in Folge zu Wachstumsstörungen, Beeinträchtigungen der geistigen Entwicklung und damit zu lebenslangen gesundheitlichen Problemen führen. Die Bill & Melinda Gates Foundation verwendet eine Kombination von Ansätzen, um Kinder gegen Infektionen zu schützen und die hohe Zahl von Sterbefällen zu verringern. Der folgende Artikel wurde mit freundlicher Zustimmung der Gates Foundation der Website der Stiftung* entnommen. Er ist Bestandteil des Themenschwerpunkts "Mikroorganismen und Infektionskrankheiten" .

    Darm- und Durchfallerkrankungen gehören zu den Hauptursachen der Kindersterblichkeit in Entwicklungsländern: Rund eine Million Kinder unter fünf Jahren sterben jährlich daran. Die Krankheiten, zu denen durch Rotaviren (s.u.) verursachter Durchfall, Cholera und Typhus zählen, werden durch fäkal-orale Infektionen ausgelöst. Wiederholte schwere Durchfallerkrankungen im Kindesalter können lebenslange starke gesundheitliche Beschwerden nach sich ziehen.

    Darmerkrankungen können zu Mangelernährung, Wachstumsstörungen und einer Beeinträchtigung der geistigen Entwicklung führen. Dies bedeutet für Millionen von Menschen ein Leben mit weniger Chancen und geringer Produktivität.

    Die Folgen von Darm- und Durchfallerkrankungen sind bislang überwiegend unbeachtet geblieben. Das Kinderhilfswerk der Vereinten Nationen UNICEF und die Weltgesundheitsorganisation WHO haben in den siebziger und achtziger Jahren mithilfe des Diarrheal Diseases Control Program einige bedeutende Erfolge errungen. Dennoch mangelt es weiterhin an adäquater Forschung, Finanzierung und politischem Engagement, um eine globale Antwort auf diese Krankheiten zu finden. Es ist weitgehend unbekannt, wie viele krankheitsauslösende Erreger, darunter Viren, Bakterien und Parasiten es gibt und wie sie aufgebaut sind. Auch die Umweltbedingungen, die zu ihrer Verbreitung beitragen, sind noch unerforscht.

    Obwohl einige wirksame Programme und Instrumente zur Verfügung stehen, kommen sie in den Entwicklungsländern aufgrund hoher Kosten, begrenzter Verfügbarkeit und mangelnder Bekanntheit nicht zu einem breit angelegten Einsatz.

    Ansätze zur Bekämpfung von Darm- und Durchfallerkrankungen

    In den Industrieländern haben eine Verbesserung der Wasserqualität, adäquate Sanitäreinrichtungen, der Einsatz von Antibiotika und hohe Durchimpfungsraten zu einem spürbaren Rückgang der Todesfälle infolge von Darm- und Durchfallerkrankungen geführt. Die gleichen Ansätze und Instrumente könnten verwendet werden, um Kinder in armen Ländern vor diesen Krankheiten zu schützen und sie zu behandeln.

    Wasserholen in MosambikAbbildung 1- Wasserholen in einer ländlichen Gegend bei Mosambik

    Gegen Rotaviren, Cholera und Typhus existieren sichere und wirksame Impfstoffe. Die WHO empfiehlt die Aufnahme von Impfungen gegen Rotaviren in den Impfkalender aller Länder. Die GAVI Alliance ist eine öffentlich-private Partnerschaft, die Impfungen von Kindern in den ärmsten Ländern unterstützt. Sie plant eine Ausweitung der Impfungen gegen Rotaviren auf rund 40 Länder bis zum Jahr 2015. Dies könnte 2,46 Millionen Menschen bis zum Jahr 2030 das Leben retten. Neue Impfstoffe befinden sich aktuell im Entwicklungsstadium und könnten in den kommenden Jahren zu einer Vergrößerung des Markts für Rotavirusimpfstoffe und einer Erweiterung der Kapazitäten führen. Der Choleraimpfstoff Shanchol wurde bereits in Indien zugelassen und erhielt 2011 die WHO-Präqualifikation. Mehrere Typhusimpfstoffe sind ebenfalls in Entwicklung, darunter ein Kombinationsimpfstoff gegen Typhus und Paratyphus sowie Impfstoffe gegen enterotoxische Escherichia-coli-Bakterien (ETEC).

    Kostengünstige Maßnahmen zum Schutz von Kleinkindern gegen eine Infektion und mögliche tödliche Folgen einer schweren Durchfallerkrankung stehen heute zur Verfügung. Dazu gehören Trinklösungen zur Rehydrierung, Vitamin A und Zink in Form von Nahrungsergänzungsmitteln sowie Zugang zu sauberem Wasser und adäquaten sanitären Einrichtungen. Auch eine größere Körper- und Haushaltshygiene und volles Stillen bis zum sechsten Lebensmonat zählen dazu.

    Strategien der Gates Foundation

    Darm- und Durchfallerkrankungen werden durch eine Reihe von Erregern ausgelöst, gegen die nicht immer ein Impfstoff vorliegt. Wir verwenden daher eine Kombination von Ansätzen, um Kinder gegen Infektionen zu schützen. Sauberes Wasser, verbesserte Sanitär- und Hygienebedingungen sowie volles Stillen bis zum sechsten Lebensmonat können zum Schutz der Kinder vor den meisten Darmerkrankungen beitragen. Mithilfe von kosteneffizienten Impfstoffen kann schweren Erkrankungen und sogar Todesfällen vorgebeugt werden. Erkrankte Kinder müssen rasch behandelt werden, wobei bewährte Präparate wie Trinklösungen zur Rehydrierung und Zink zum Einsatz kommen.

    Wir fördern Ursachenforschung im Bereich von Darmerkrankungen, die zu Mangelernährung, Beeinträchtigungen der geistigen Entwicklung und sogar zum Tod führen können. Außerdem untersuchen wir, welche globalen und regionalen Belastungen diese Krankheiten bedeuten. Es müssen informierte Entscheidungen darüber getroffen werden, wann und wie neue Maßnahmen umgesetzt und bestehende Initiativen ausgeweitet werden sollen. Im Rahmen unserer Strategie arbeiten wir mit internationalen Organisationen zusammen, die die Gesundheit von Kindern zum Ziel haben. Wir wollen sicherstellen, dass die einzelnen Länder, Geber und Partner für die Bekämpfung von Darm-und Durchfallerkrankungen ausreichende Ressourcen zur Verfügung stellen und ihre Anstrengungen miteinander abstimmen.

    Welche Schwerpunkte setzt die Gates Foundation?

    Rotaviren

    Die meisten Durchfallerkrankungen, die bei Kindern unter fünf Jahren einen Krankenhausaufenthalt notwendig machen oder sogar zum Tod führen, werden durch Rotavirusinfektionen verursacht. Existierende Rotavirusimpfstoffe haben zu einer erheblichen Reduzierung der Zahl an Krankenhauseinweisungen und Todesfällen geführt. Die WHO empfiehlt daher die Einführung dieser Impfung, insbesondere in Ländern, in denen Durchfallerkrankungen zu den Hauptursachen der Kindersterblichkeit zählen.

    Rotavirusimpfungen wurden in den USA und einigen lateinamerikanischen Ländern erstmals 2006 durchgeführt. Erst 2012 wurden die Impfstoffe jedoch auch in mehreren Entwicklungsländern eingesetzt. Eine große Anzahl weiterer Länder hat sich zur Einführung der Impfung in den kommenden zwei bis drei Jahren entschlossen. Im Rahmen einer engen Zusammenarbeit mit der GAVI Alliance und anderen Länderregierungen übernehmen wir einen Teil der Kosten der Rotavirusimpfstoffe. Außerdem unterstützen wir ihre Einführung dort, wo sie am meisten gebraucht werden und fördern die Verbreitung von Routineimpfungen von Kindern gegen eine Vielzahl anderer Krankheiten. Langfristig arbeiten wir auf die Einführung von Rotavirusimpfungen in mindestens 50 weiteren Ländern mit geringem und mittlerem Einkommensniveau hin.

    E.Naduu impft BabyAbbildung 2. Ghanas First Lady Ernestina Naduu impft ein Baby Wir kooperieren zudem mit PATH (siehe Links) und Impfstoffherstellern in Schwellenländern wie Indien, Brasilien, Indonesien und China. Es müssen neue Rotavirusimpfstoffe entwickelt werden, die zur einer Diversifizierung und Ausdehnung des Angebots führen und damit auch zu einer Kostensenkung.

    Mittel und Präparate

    Die meisten Todesfälle bei Kindern infolge von Durchfallerkrankungen (keine Ruhr) könnten durch die Einnahme einfacher Präparate wie Trinklösungen zur Rehydrierung und Zink verhindert werden. Diese sind jedoch nicht sehr weit verbreitet. Wir arbeiten mit Partnern in Indien, Nigeria und Burkina Faso zusammen, um eine größere Verfügbarkeit und breitere Anwendung dieser Präparate zu erreichen. Unsere Wahl fiel auf diese Länder, da in den dortigen Bevölkerungsgruppen besonders Kinder unter Krankheit leiden, eine große Bereitschaft zur Innovation besteht und wir auf starke Partnerorganisationen zurückgreifen können. So unterstützen wir beispielsweise im indischen Bundesstaat Uttar Pradesh die Clinton Health Access Initiative und andere Partnerorganisationen, die mithilfe von Öffentlichkeitskampagnen für die Verwendung von Trinklösungen und Zink als Behandlungsmitteln gegen Durchfall werben.

    Wir wollen im Rahmen von Forschungsarbeiten die Haupthindernisse für eine breitere Anwendung der Präparate besser verstehen lernen. Außerdem kooperieren wir mit Herstellern und Vertreibern von Trinklösungen und Zinkpräparaten, um bei Verbrauchern eine höhere Akzeptanz zu schaffen, beispielsweise durch eine neue Geschmacksrichtung oder eine neue Verpackung.

    Wir unterstützen zudem die Entwicklung von Produkten, die Beschwerden von Durchfallerkrankungen bekämpfen und Dehydrierung behandeln. Trinklösungen führen zu einer Rehydrierung des Körpers, ohne jedoch den Durchfall zu stoppen und andere Symptome unmittelbar zu mildern. Daher ziehen Pflegekräfte oft andere, weniger wirksame Mittel vor. Wir unterstützen die Bemühungen von PATH bei der Erforschung und Entwicklung neuer Mittel und Präparate, die einen übermäßigen Flüssigkeitsverlust verhindern, Beschwerden lindern und zu einer verstärkten Verwendung von Trinklösungen und Zink führen können.

    Typhus

    Typhus und Paratyphus zusammen kosten jährlich bis zu 250.000 Menschen, die meisten davon Kinder, das Leben. Beide Krankheiten können durch Impfstoffe bekämpft werden. Ein wirksamer und erschwinglicher Impfstoff ist kurzfristig die beste Lösung, um Typhus in Ländern mit unzureichendem Zugang zu sauberem Wasser und schlechten Sanitär- und Hygienebedingungen sowie mit einer hohen Antibiotikaresistenz einzudämmen.

    Wir arbeiten in diesem Zusammenhang mit dem International Vaccine Institute, Shantha Biotechnics, dem Sabin Vaccine Institute und anderen Partnern zusammen. Ziel ist es, einen Kombinationsimpfstoff zu entwickeln, der über eine längere Schutzwirkung als aktuelle Stoffe verfügt und auch für Kinder unter zwei Jahren geeignet ist. Wir benötigen darüber hinaus bessere Diagnosetests und Daten, um die Auswirkungen dieser Krankheiten in ihrem ganzen Umfang zu erfassen.

    ETEC- und Shigella-Erreger

    ETEC und Shigella sind bakterielle Erreger, die in den meisten Teilen der Welt weit verbreitet sind. Insbesondere in den Entwicklungsländern stellen sie eine ständige Bedrohung für Kinder und Erwachsene dar. Jährlich fallen nach Schätzungen 200.000 Kinder unter fünf Jahren einer durch ETEC- oder Shigella-Erreger verursachten Infektion zum Opfer. Schon eine einmalige Infektion durch Shigella-Erreger ist ausreichend, um dem Magen-Darm-System schwere Schäden zuzufügen.

    Unser wichtigster Partner bei der Entwicklung neuer Impfstoffe gegen ETEC- oder Shigella-Infektionen ist die PATH Enteric Vaccine Initiative. Um die Chancen für die schnelle Zulassung eines Impfstoffkandidaten zur erhöhen, unterstützen wir gleichzeitig mehrere Impfstoffkandidaten mit unterschiedlichen Ansätzen. Doch selbst für die in dieser Hinsicht vielversprechendsten ETECShigella-Impfstoffkandidaten ist eine praktische Anwendung in frühestens zehn Jahren denkbar.

    Risikofaktor Umwelt

    Wir wollen verstehen, wie Umwelt und andere Faktoren zur Entstehung und zu den Auswirkungen von Durchfallerkrankungen beitragen, die wiederum bei Kindern zu Nährstoffmangel führen. In armen Gemeinschaften nimmt diese Entwicklung im Kleinkindalter ihren Anfang und hält die gesamte Kindheit hindurch an. Die Folgen sind häufig Wachstumsstörungen, Beeinträchtigungen der geistigen Entwicklung, erhöhte Anfälligkeit gegenüber Infektionskrankheiten und Tod.

    Wir stehen bei der Erforschung der Zusammenhänge zwischen einer veränderten Darmfunktion, Mangelernährung und unzureichender Entwicklung noch ganz am Anfang. Ein wesentlicher Teil unserer Förderleistungen in diesem Bereich geht an das Malnutrition and Enteric Diseases (MAL-ED) Consortium. Das internationale Projekt beschäftigt sich mit Bevölkerungsgruppen, die stark von Mangelernährung und Durchfallerkrankungen betroffen sind. Die Untersuchungen des MAL-ED bieten wichtige Informationen für die Entwicklung und Erprobung neuer Ansätze bei der Prävention und Behandlung dieser Krankheiten.

    Cholera

    Jedes Jahr sterben fast 130.000 Menschen bei Choleraepidemien und in Endemiegebieten. In mindesten 51 afrikanischen Staaten südlich der Sahara und Asiens ist Cholera endemisch. Einige der letzten Epidemien wie in Simbabwe, Guinea und Sierra Leone sowie auf Haiti haben den Druck auf die bereits schlecht ausgestatteten Gesundheitssysteme dieser Länder noch verstärkt.

    Ein von der WHO 2012 veröffentlichter Bericht stellte einen großen Schritt nach vorn dar. Die Organisation fordert darin die globale Bevorratung von Schluckimpfstoffen gegen Cholera und definiert Kriterien für den Einsatz der Impfstoffe im Zusammenspiel mit anderen bewährten Maßnahmen wie der Verbesserung der Wasserqualität und der Sanitärversorgung.

    Wir unterstützen die Bevorratung von 2 Millionen Dosen an Choleraimpfstoffen. Eine konstante Nachfrage nach Impfstoffen führt zu einer Vergrößerung des Angebots und zu günstigeren Preisen. In von Cholera stark betroffenen Ländern wird davon die Nachfrage wiederum angekurbelt.

    Wir fördern zudem die Entwicklung evidenzbasierter Richtlinien für den Einsatz von Schluckimpfstoffen bei einem Epidemieausbruch und sprechen uns für eine bessere Datenerhebung aus, die die Forderung nach Verwendung von Choleraimpfstoffen in endemischen Gebieten mit Fakten untermauert. Wir fördern die Entwicklung eines preisgünstigen, einmalig zu verabreichenden Choleraimpfstoffs für den Einsatz während eines Epidemieausbruchs und zur allgemeinen Kontrolle von Epidemien. Voraussetzung für die Angebotsausweitung ist eine WHO-Präqualifikation von mindestens einem zusätzlichen Hersteller preisgünstiger Totimpfstoffe gegen Cholera.

    Monitoring und Überwachung

    Wir haben dem Global Enterics Multi-Center Study (GEMS) umfangreiche Förderleistungen zur Verfügung gestellt, um eine genauere Datenerhebung in Bezug auf die Ursachen und Folgen von Durchfallerkrankungen bei Kleinkindern in Afrika und Asien zu ermöglichen. Auch die Haupterreger von Durchfallerkrankungen müssen weiter erforscht und die Wirksamkeit von Maßnahmen überprüft werden. Daher unterstützen wir die Entwicklung fortschrittlicher Diagnosetests und eine Ausweitung des Bewertungssystems.

    Wir arbeiten auf regionaler und landesweiter Ebene mit bestehenden Netzwerken wie dem GEMS, dem African Cholera Surveillance Network (Africhol) und dem Typhoid Surveillance in sub-Saharan Africa Program (TSAP) zusammen, um spezifische Erreger wie Rotaviren, Cholera, Typhus und Paratyphus zu überwachen. Die Kenntnisse, die wir zu Ursachen und Folgen von Darm- und Durchfallerkrankungen in diesen Ländern gewonnen haben, sollen genutzt werden, um weitere Initiativen zu entwickeln: Zusätzliche Erreger wie Cryptosporidium müssen überwacht und Laborkapazitäten in Entwicklungsländern ausgebaut werden.

    Fazit

    Die Gates Foundation verwendet eine Kombination von Ansätzen, um Kinder gegen Infektionen zu schützen. Dazu zählen Impfungen als kostengünstige Maßnahmen gegen die Infektion mit spezifischen Erregern, Verbesserung der Wasserqualität, der Sanitär- und Hygienebedingungen und Präparate wie Trinklösungen und Mikronährstoffe.


    * http://www.gatesfoundation.org/de/What-We-Do/Global-Health/Enteric-and-D...


    Weiterführende Links

    http://www.gatesfoundation.org/de/
    WHO Durchfallerkrankungen: http://www.who.int/mediacentre/factsheets/fs330/en/

    Gavi, the Vaccine Alliance: http://www.gavi.org/about/

    PATH: international nonprofit health organization driving transformative innovation to save lives. http://www.path.org/

    Video Kampf gegen Durchfall und Cholera in Somalia | UNICEF 2.53 min (englisch) https://www.youtube.com/watch?v=02kkcr1z6AU


     

    inge Fri, 29.08.2014 - 06:23

    Graphen – Wunderstoff oder Modeerscheinung?

    Graphen – Wunderstoff oder Modeerscheinung?

    Fr, 05.09.2014 - 05:18 — Klaus Müllen

    Icon PhysikKlaus Müllen Zwei Phänomene werden für die Zukunft unserer Gesellschaft entscheidend sein: Energieversorgung und Informationsverarbeitung. Die Qualität unserer Lösungsansätze dazu hängt von den Materialien ab. Graphen, ein monolagiger Ausschnitt aus dem Graphit, wird gegenwärtig als Wunderstoff gehandelt. Der Chemiker Klaus Müllen, Direktor des Max-Planck Instituts für Polymerforschung (Mainz) [1], erörtert welche Forderungen zu erfüllen sind, dass auf Basis von Graphen robuste zukunftsträchtige Technologien entstehen [2]..

    Kohlenstoffmaterialien wie Ruße oder Aktivkohle spielen technologisch eine bedeutende Rolle. Ihre Strukturen sind aber schlecht definiert, weil sie aus variablen Anteilen geordneter und ungeordneter Bereiche bestehen. Kohlenstoffe mit definierter Struktur sind etwa der Graphit und der Diamant, aber es gibt auch diskrete Kohlenstoffpartikel wie Kohlenstoffröhrchen oder Kohlenstoffkugeln (Abbildung 1).

    Kristallstrukturen des KohlenstoffAbbildung 1. Kohlenstoff kann in vielen Kristallstrukturen vorliegen – als extrem harter Diamant, als weicher Graphit, als sphärische Partikel, zu denen Kohlenstoffröhrchen und Kohlenstoffkugeln gehören (von der Redaktion eingefügt: Abbildung 3 aus http://scienceblog.at/wunderwelt-der-kristalle).

    Was bedeutet Graphen?

    Graphit kommt in der Natur vor, kann aber auch durch Hochtemperatur-Pyrolyse aus kohlenstoffhaltigen Vorläufermaterialien gewonnen werden. Im Graphit sind einzelne Schichten übereinandergestapelt, wobei jede Schicht als aus Sechsecken zusammengefügte Honigwabe betrachtet werden kann. Eine einzelne Schicht, die dann nur atomar dick ist, heißt Graphen.

    Graphene wurden seit den 60er Jahren des letzten Jahrhunderts erzeugt und untersucht, eine besonders einfache Form der Graphengewinnung ist das Abpellen einzelner Schichten aus dem Graphit mit Tesafilm. Diese Methode wurde übrigens seit jeher von Physikern zur Reinigung von Graphitoberflächen benutzt. Die russischen Wissenschafter Andre Geim und Konstantin Novoselov hatten die Idee, die losgelösten Schichten auf Substraten zu deponieren und physikalisch zu charakterisieren. Und die physikalischen Eigenschaften, die sie fanden, sind in der Tat herausragend: So ist Graphen optisch weitgehend transparent, und Ladungen können innerhalb dieser Graphenschicht mit sehr hoher Beweglichkeit transportiert werden. (Anm. d. Redaktion: für ihre bahnbrechenden Arbeiten wurden Geim und Novoselov 2010 mit dem Nobelpreis für Physik ausgezeichnet [3].)

    Graphene - Miniaturisierung elektronischer Schaltkreise?

    Bis hierhin würde das für Aufregung bei Grundlagenforschern sorgen, hätte aber noch keine technologische Bedeutung. Schauen wir deshalb auf die digitale Elektronik. Wichtige Bauelemente sind Feldeffekttransistoren, Einheiten mit drei Elektroden, die zum Schalten von Strom dienen. Je höher die Beweglichkeit der Ladungen ist, desto schneller lassen sich diese Transistoren schalten.

    Und hier kommt eben das Graphen ins Spiel (vgl. Abbildung 2). Denn es hat das Potential, zum Konkurrenten des Siliciums, des zentralen Materials der Halbleitertechnologie, zu werden. Dies umso mehr, als dass die klassische Silicium-Halbleitertechnologie im Zuge der angestrebten Miniaturisierung an ihre Grenzen stößt.

    Feldeffekttransistor auf Graphen-BasisAbbildung 2: Feldeffekttransistor auf Graphen-Basis. © K. Müllen/MPI für Polymerforschung

    Allerdings tauchen hier zwei neue Probleme auf:

    • das Abpellen von Graphen aus dem makroskopischen Graphit wird nie und nimmer Grundlage einer Technologie sein, es braucht andere Verfahren zur Erzeugung von Graphen.
    • Weiterhin ist eine elektronische Besonderheit des Graphens, dass die Energielücke zwischen besetzten und unbesetzten Energieniveaus verschwindend klein ist. Diese Eigenschaft führt dazu, dass bei aller hohen Ladungsbeweglichkeit ein aus Graphen gebauter Schalter nie ausgeschaltet werden könnte.

    Man wird deshalb sagen können, dass ohne weitere Entwicklung keine digitale Elektronik aus Graphenen hergestellt werden kann.

    Ein Trick zur Öffnung der Bandlücke ist, statt der ausgedehnten zweidimensionalen Graphenschicht Streifen aus dieser Schicht zu benutzen. Das bringt uns wieder zurück auf die Frage, wie Graphen und wie Graphennanostreifen hergestellt werden.

    Herstelllung von Graphen und Graphen-Nanostreifen

    Zunächst wird in der Forschung intensiv versucht, das Abpellen oder, vornehmer gesagt, die Exfolierung nicht mithilfe von Tesafilm, sondern im Zuge chemischer oder elektrochemischer Reaktionen oder unter Assistenz durch Lösungsmittel zu erreichen.

    Alternativ kann man Graphene durch sogenanntes epitaktisches Wachstum aus Siliciumcarbid (SiC) bei hohen Temperaturen erzeugen. Wiederum eine andere Methode ist die chemische Dampfabscheidung, bei der kleine Kohlenstoff-Einheiten (C1, C2) auf Metalloberflächen deponiert werden und dann zu dem geschilderten Honigwabennetzwerk kondensieren. Gerade dieses Verfahren wird in jüngster Zeit intensiv beforscht, weil man in der Elektronik sogenannte Fensterelektroden benötigt, dabei aber mit der Verwendung der klassischen Indiumzinnoxid-Elektroden wegen des beschränkten Vorkommens von Indium an Grenzen stößt.

    Solche Fensterelektroden müssen transparent für Licht, aber gleichzeitig elektrisch leitfähig sein. Sie werden zum Beispiel in der Photovoltaik, aber auch in Leuchtdioden benötigt. Zu bedenken ist noch, das es nicht nur um die Erzeugung von Graphenschichten geht, sondern auch darum, diese von der Metallunterlage abzulösen und etwa in Druckverfahren einzuführen. Die hohe Attraktivität von Graphennanostreifen sowohl für die Grundlagenforschung als auch für eine zukünftige Halbleitertechnologie ruft erneut nach geeigneten Verfahren. Hier haben Physiker die lithographische Bearbeitung von Graphit oder das Aufschneiden von Kohlenstoffnanoröhren ins Spiel gebracht, ohne dadurch aber strukturdefinierte Kanten erreichen zu können.

    Unsere Gruppe hat einen chemischen Weg zu Graphen-Nanostreifen entwickelt, den man auf den Punkt gebracht als Bottom-up-Konzept beschreiben kann. Dabei gehen wir eben nicht von makroskopischem Graphit, sondern von kleinen Kohlenstoff-Bausteinen aus und fügen sie durch chemische Synthese zu zunehmend größeren Graphenscheiben zusammen. Genau genommen geht man in zwei Stufen vor: Man kombiniert die Sechsecke (Benzole) zuerst zu dreidimensionalen Strukturen und überführt sie dann durch eine Planarisierung, gewissermaßen eine chemische Graphitisierung, in Scheiben oder Streifen. Dies ist uns sowohl in Lösung als auch nach Deposition der kleinen Bausteine auf Oberflächen gelungen (vgl. Abbildung 3).

    Beispiele von Graphennanobändern synthetisiert nach dem Bottom-up-VerfahrenAbbildung 3: Beispiele von Graphennanobändern synthetisiert nach dem Bottom-up-Verfahren. (a)Rastertunnelmikroskopie (STM)-Aufnahmeund (b) Hochauflösende Transmissionselektronenmikroskopie (HRTEM)- Aufnahme von löslichen Graphennanobändern 1; (c), (d) und (e) STM-Aufnahme und Dichtefunktionaltheorie (DFT)-basierte Simulation (mit teilweise überlagertem Molekülmodell) von unlöslichen Graphennanobändern 2 (nach der oberflächenunterstützten Cyclodehydrierung).© K. Müllen/MPI für Polymerforschung & R. Fasel/EMPA

    Die Stoffherstellung ist das eine, die Nutzung in Bauelementen oder gar die Einführung in reife Technologien ist das andere; das erfordert noch Jahre, wenn nicht Jahrzehnte, weiterer Entwicklung. Eine faszinierende Besonderheit des Graphens ist aber, dass es zwar in Gestalt von Halbleiterkomponenten oder transparenten Elektroden für die Elektronik benutzt werden kann, aber auch Potential für die Entwicklung neuer Energietechnologien bietet. Dies sei kurz am Beispiel der Batterien und der Brennstoffzellen geschildert.

    Graphene, Batterien und Brennstoffzellen

    In einer Batterie möchte man möglichst viel elektrische Energie speichern, und in der Tat wurden Graphitmaterialien schon vielfach als Anoden in Lithiumbatterien verwendet. Leider ist aber die spezifische Aufnahmefähigkeit des Graphits für negative Ladungen sehr begrenzt. Deshalb wurde versucht, die Elektroden mehr und mehr zu laminieren, was im Hinblick auf die Betriebssicherheit ein heikles Unterfangen ist. Warum also nicht Stoffe mit höherer Ladungsspeicherkapazität anstreben? Nun zeigt sich, dass anorganische Materialien wie Silicium oder Metalloxide eine viel höhere Ladungsspeicherkapazität haben als Graphit, dass sie aber erhebliche Probleme hinsichtlich der strukturellen Stabilität der Elektroden und der Geschwindigkeit der Beladungs- und Entladungsprozesse aufweisen. Hier haben wir das Beste aus zwei Welten kombinieren können, nämlich Metalloxidnanoteilchen durch Graphenschichten umhüllt, die einerseits noch Elektronen- und Ionentransport erlauben, aber andererseits das Metalloxidteilchen wie Papier ein Bonbon einpacken und damit strukturell stabilisieren (vgl. Abbildung 4).

    Umhüllung von Metalloxidnanoteilchen in Graphenschichten zur Herstellung von Materialien mit höherer LadungsspeicherkapazitätAbbildung 4: Umhüllung von Metalloxidnanoteilchen in Graphenschichten zur Herstellung von Materialien mit höherer Ladungsspeicherkapazität. © K. Müllen/MPI für Polymerforschung

    Ein für die Energietechnologie gleichermaßen bedeutsames Element ist die Brennstoffzelle, die darauf beruht, die Knallgasreaktion zu zähmen, also Sauerstoff und Wasserstoff in kontrollierter Form unter Energiegewinnung zu Wasser umzusetzen. Auch hier tauchen wichtige Anforderungen an die Materialforschung auf. Man benötigt Membranen hoher Protonenleitfähigkeit, aber auch das Problem der Katalysatoren ist ungelöst. Würden wir, wie es bisher geschieht, ausschließlich Platin als Katalysator verwenden, wären der technologischen Entwicklung der Elektromobilität sehr enge Grenzen gesetzt. Wir haben nun entdeckt, dass Graphene, die in ihrer Peripherie mit Stickstoff dotiert sind, hinsichtlich ihrer katalytischen Aktivität, aber auch hinsichtlich anderer Prozessparameter dem Platin als Katalysatoren der Sauerstoffreduktion überlegen sind (vgl. Abbildung 5).

    Die Frage nach Verfügbarkeit und Preis beantwortet sich von selbst.

    Stickstoff-dotierte Graphene als Katalysator für BrennstoffzellenAbbildung 5: Stickstoff-dotierte Graphene als Katalysator für Brennstoffzellen. (Knallgasreaktion:2H2 + O2= 2H2O) © K. Müllen/MPI für Polymerforschung

    Fazit

    Man könnte die Liste der sich aus Graphen entwickelnden Anwendungen noch fortführen, genannt seien Sensorik und Diagnostik oder Membrantechnologien. Klar ist, dass auf diesem Weg noch vielfältige Forschung im Bereich der Physik und Ingenieurwissenschaften nötig ist. Ebenso klar ist aber auch, dass die Bereitstellung der Materialien, nicht zuletzt durch die Methoden der synthetischen Chemie, über die letztendliche Nutzung von Graphen in Technologien mitentscheidend sein wird. Die Anfänge sind gemacht, und die EU hat die enorme Bedeutung der Graphene durch die Auslobung des Flagship-Programms [4] anerkannt. Industriekonsortien in der ganzen Welt befassen sich mit interdisziplinärer Graphenforschung. Das Max-Planck-Institut für Polymerforschung ist dabei ein gewichtiger Akteur, weil es eine breite Palette notwendiger Kompetenzen von Synthese und Verarbeitung zu Theorie und weiter zu Bauelementphysik beitragen kann.


    [1] Max-Planck Institut für Polymerforschung (Mainz) http://www.mpip-mainz.mpg.de/home/en
    [2] Der im Jahrbuch 2014 der Max-Planck Gesellschaft erschienene, gleichnamige Artikel http://www.mpg.de/7685547/MPI-P_JB_20141?c=8236817 wurde mit freundlicher Zustimmung der MPG-Wissenschafts- und Unternehmenskommunikation ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert und ohne die im Original vorhandenen Literaturzitate (Literatur auf Anfrage erhältlich).
    [3] http://www.nobelprize.org/nobel_prizes/physics/laureates/2010/;
    [4] Graphene Flagship: Im Okober 2013 gestartetes Forschungsprogramm der EU, das 10 Jahre dauern soll und mit 1 Milliarde € gefördert wird. : http://graphene-flagship.eu/


    Weiterführende Links

    Nobel Lectures (in Englisch)

    Andre Geim (2010), Random Walk to Graphenes,Video 34 min http://www.nobelprize.org/mediaplayer/index.php?id=1418

    Konstantin Novoselov (2010), Graphenes: Materials in the Flatland, Video 35 min, http://www.nobelprize.org/mediaplayer/index.php?id=1420

    Hintergrund und Visionen

    Graphen (WeltderPhysik) Video 6:10 min Janina Maultzsch von der TU Berlin über das Material Graphen Graphen - der Stoff, aus dem die Zukunft ist | Projekt Zukunft. Video 3:31 min Es soll vor allem die Kommunikationstechnik revolutionieren, aber auch effektivere Energiespeicher und ultraleichte Werkstoffe für den Flugzeugbau ermöglichen: Graphen gilt als Wunderstoff der Zukunft. Tanz um ein Wundermaterial: Graphen | Projekt ZukunftVideo 4:33 min. Jari Kinaret, Initiator von Graphene Flagship will auf einem Kongress in Toulouse Wissenschaft und Wirtschaft zusammenbringen (2014). Graphen - Wundermaterial in zwei Dimensionen // scinexx.deVideo 2:10 min Graphene Flagship Video 2:07 min, Cambridge University (englisch) FET Flagships GrapheneVideo 19:45 min Presentation of the Graphene Flagship Project by Jari Karnet at the FET Flagship Pilots Conference(Brussels on 9th July 2012).


     

    inge Fri, 05.09.2014 - 07:52

    Jenseits der Gene — Wie uns der Informationsreichtum der Erbsubstanz Freiheit schenkt

    Jenseits der Gene — Wie uns der Informationsreichtum der Erbsubstanz Freiheit schenkt

    Fr, 22.08.2014 - 06:35 — Gottfried Schatz

    Icon BiologieGottfried SchatzIm Vergleich zum (zweit)kleinsten Genom des Bakteriums Mycoplasma genitalium, das diesem gerade das Überleben ermöglicht, enthält das Genom des Menschen nur fünfzigmal mehr Gene. Wie daraus dennoch eine ungeheure Vielzahl und Vielfalt an Proteinen entstehen, die aus der Struktur unseres Genoms nicht eindeutig ablesbar sind und jeden von uns zum unverwechselbaren molekularen Individuum machen, schildert der prominente Biochemiker Gottfried Schatz..

    Wer bin ich? Wie unerbittlich bestimmen meine Gene, wer ich bin - oder sein könnte? Bin ich einmalig - oder nur eine von sechs Milliarden identischen biochemischen Maschinen? Diese Fragen konnte mir während meiner ersten Lebenshälfte nur große Kunst beantworten. Philosophie und Wissenschaft ließen mich im Stich, da sie noch nicht erkannt hatten - oder nicht wahrhaben wollten -, dass der Schlüssel zum Verständnis lebender Wesen im chemischen Aufbau lebender Materie liegt.

    Diese Erkenntnis schenkten uns während meiner zweiten Lebenshälfte Physik und Biologie, die damit nach langer Verbannung wieder zu Eckpfeilern der Philosophie wurden. Sie enthüllten die immense Komplexität lebender Zellen, den gemeinsamen Ursprung alles Lebens auf unserer Erde und die Einmaligkeit jedes Menschen. Vielleicht werden sie uns auch bald zeigen, dass wir mehr sind als vorprogrammierte biochemische Maschinen. Wenn ihnen dies gelänge, würden sie uns von einer unserer bedrückendsten Kränkungen erlösen.

    Diese Kränkung ist ein ungewolltes Nebenprodukt der wissenschaftlichen Schau unserer Welt und ist nie überzeugend widerlegt worden. Im Gegenteil, die Entdeckung der Gene und ihrer Wirkungsweise sowie die Aufklärung der chemischen Struktur der gesamten menschlichen Erbsubstanz (des menschlichen Genoms) festigten die Vorstellung, dass ererbte Gene unerbittlich unsere Handlungen und unser Schicksal bestimmen.

    Könnte der Informationsreichtum unseres Genoms die Tyrannei der Gene unterlaufen? Lebende Zellen sind die komplexeste Materie, die wir kennen. Da die Komplexität eines Objektes ein Maß für die Menge an Information zur vollständigen Beschreibung des Objekts ist, verkörpert eine lebende Zelle sehr viel mehr Information als zum Beispiel ein Gestein. Diese Information ist im Genom jeder Zelle in fadenförmigen DNS-Riesenmolekülen in einer chemischen Buchstabenschrift gespeichert. Das Genom des einfachsten bekannten Bakteriums, Mycoplasma genitalium, hat 580 700 Buchstaben, die etwa 500 Gene beschreiben. Da die meisten Gene Bauplan für ein bestimmtes Protein sind, kann Mycoplasma genitalium etwa 500 verschiedene Proteine herstellen. Diese reichen knapp zum Überleben, so dass Mycoplasma genitalium auf keines seiner Proteine verzichten kann. Alle Zellen einer Mycoplasma-Kolonie sind deshalb, von seltenen Mutanten abgesehen, im Wesentlichen identisch.

    Lesen und interpretieren

    Unser eigenes Genom ist im Kern jeder Zelle gelagert und hat 3,2 Milliarden Buchstaben. Obwohl es fast sechstausendmal grösser als das von Mycoplasma genitalium ist, hat es nur fünfzigmal mehr (bis zu 25 000) Gene. Der Grund ist, dass über 95 Prozent unseres Genoms keine für uns erkennbaren Gene trägt. Unsere Körperzellen besitzen von den meisten unserer 25 000 Gene eine mütterliche und eine väterliche Variante und können deshalb theoretisch über 50 000 verschiedene Proteine bilden. In Wirklichkeit ist diese Zahl noch wesentlich höher, da unsere Zellen Gene verschiedenartig lesen können: Sie können an verschiedenen Stellen im Gen zu lesen beginnen, nur einzelne Teile lesen oder die gelesene Information nachträglich verändern. So können sie aus einem Gen bis zu zehn oder mehr verschiedene Proteine hervorzaubern.

    Darüber hinaus können sie bereits gebildete Proteine durch Anheften oder Abspalten chemischer Gruppen weiter verändern. Da wir die meisten dieser Veränderungen aus der Struktur unseres Genoms nicht eindeutig ablesen können, wissen wir nicht, wie viele verschiedene Proteine unser Körper herstellen kann. Wahrscheinlich sind es über hunderttausend. Der Reichtum unseres genetischen Erbes liegt also nicht nur in seiner Größe, sondern auch in der Virtuosität, mit der wir uns seiner bedienen. Bakterien lesen ihr Genom; wir interpretieren unseres. Wir gleichen Musikern des 17. und 18. Jahrhunderts, die einen vorgegebenen Generalbass verschieden erklingen lassen konnten. Unsere Gehirnzellen scheinen zudem einige ihrer Proteine als Antwort auf Umweltreize chemisch zu verändern, so dass die Variationsmöglichkeit unserer Zellproteine praktisch unermesslich wird.

    Jeder Mensch ist deshalb ein unverwechselbares molekulares Individuum. Dies gilt selbst für genetisch identische eineiige Zwillinge. Ein eineiiger Zwillingsbruder Roger Federers sähe zwar seinem berühmten Bruder ähnlich, könnte aber durchaus ein eher mittelmässiger Tennisspieler sein. Der Informationsreichtum des Genoms schenkt jedem von uns Einmaligkeit. Der Informationsgehalt des Genoms bestimmt den Rang eines Lebewesens in der Hierarchie des Lebens. Ein informationsarmes Genom ist der Erzfeind von biologischer Freiheit und Individualität. Je mehr Information ein Genom trägt, desto mehr Freiraum gewährt es dem reifenden Organismus für die Entwicklung seiner Einmaligkeit.

    Die 10 000 Milliarden funktionell vernetzten Zellen unseres Körpers enthalten so viel Information, dass es vielleicht grundsätzlich unmöglich ist, die Handlungen eines Menschen präzise zu steuern oder vorherzusagen. Vielleicht braucht es für das Verständnis derart komplexer Systeme völlig neue Denkansätze. Unsere Naturgesetze gelten nur innerhalb gewisser Grenzen - viele der Gesetze, die in unseren sinnlichen Erfahrungen fußen, versagen bei extrem kleinen Dimensionen oder extrem hohen Geschwindigkeiten. Könnte es sein, dass auch extrem komplexe Systeme eigenen Regeln gehorchen?

    Kein Gesetzbuch

    Unser Genom ist zudem kein ehernes Gesetzbuch, sondern eher eine Sammlung flexibler Regeln. Die Gene unseres Immunsystems tauschen spontan Teile untereinander aus, um uns ein möglichst großes Spektrum schützender Immunproteine zu schenken. Im reifenden Mäusegehirn scheinen kurze Genstücke spontan ihren Platz im Genom zu wechseln und dabei die Entwicklung der Nervenzellen zu beeinflussen. Auch in Bakterien können Genstücke im Genom umherspringen, wenn Hitze oder Gifte die Zellen bedrohen. Die Umwelt spricht also mit Genen und kann sie verändern. Ist dieses Wechselspiel präzise gesteuert - oder ist es ein Würfelspiel? Und wenn schon die Umwelt mit unserem Genom würfelt, könnte es sein, dass auch wir dies tun, ohne es zu wissen?

    Der Physiker Erwin Schrödinger hat als Erster vermutet, dass der hierarchische Aufbau lebender Materie die Zufälligkeit molekularer Würfelspiele auf ganze Lebewesen übertragen und diese unvorhersagbar machen könnte. Im Gegensatz zu einem typischen Kristall sind in lebenden Zellen die einzelnen Moleküle nicht gleichwertig, sondern Glieder streng organisierter Befehlsketten. In einigen Zellen scheinen Schlüsselmoleküle dieser Befehlsketten in so geringen Stückzahlen vorzuliegen, dass ihre Reaktionen mit Partnermolekülen statistisch schwanken und quantitativ nicht mehr vorhersagbar sind. Diese zufälligen Schwankungen könnten das Verhalten eines ganzen Lebewesens beeinflussen und es zumindest teilweise aus den Fesseln genetischer Vorprogrammierung befreien.

    Könnte diese Befreiung uns Willensfreiheit schenken? Die Frage bleibt offen. Wir wissen noch zu wenig über unser Gehirn und unser Bewusstsein, um zu verstehen, was «Willensfreiheit» bedeutet.

    Zufällige Fluktuationen in den Reaktionen biologischer Steuermoleküle dürften jedoch erklären, weshalb genetisch identische und unter gleichen Bedingungen aufgezogene Fadenwürmer auf Hitze verschieden reagieren und verschieden lange leben; weshalb Zellen einer genetisch homogenen Bakterienkolonie auf Gifte oder Nahrungsstoffe individuell verschieden ansprechen; und weshalb genetisch identische Bakterienviren ihre Opfer auf unterschiedliche Art infizieren können. In seinem Streben nach Vielfalt lässt das Leben offenbar nichts unversucht, um eine Tyrannei der Gene zu verhindern. Was an mir ist gigantisch verstärktes molekulares Rauschen? Wie stark unterläuft dieses Rauschen meine genetische Programmierung? Manche mögen in ihm den göttlichen Atemzug verspüren. Mir erzählt es vom Wunder meines Daseins als hochkomplexe Materie in einem chemisch urtümlichen Universum.


    Weiterführende Links

    Artikel von Gottfried Schatz zu verwandten Themen auf ScienceBlog.at

    Zum humanem Genom


     

    inge Fri, 22.08.2014 - 05:48

    Konkurrenz, Kooperation und Hormone bei Schimpansen und Bonobos

    Konkurrenz, Kooperation und Hormone bei Schimpansen und Bonobos

    Fr, 15.08.2014 - 10:13 — Tobias Deschner Icon BiologieTobias Deschner

    Die Erforschung von Gemeinsamkeiten und Unterschieden im Verhalten und in der Physiologie von Menschen und Menschenaffen verhilft zu einem immer besseren Verständnis der menschlichen Evolution. Der Primatenforscher Tobias Deschner (Max-Planck-Institut für evolutionäre Anthropologie in Leipzig) beschreibt anhand von Verhaltensbeobachtungen und Messungen physiologischer Parameter frei lebender Menschenaffen, wie sich Konkurrenz und Kooperation auf die Exkretion verschiedener Hormone auswirken*.

    Gängige Theorien zur Evolution des Menschen basieren überwiegend auf der Annahme, dass sich der Mensch aus einem schimpansenähnlichen Vorfahren entwickelt hat. Dass Bonobos, die Schwesternart der Schimpansen, genauso eng mit uns verwandt sind wie diese, wird dabei oft außer Acht gelassen. Bonobos unterscheiden sich jedoch in einer Reihe grundlegender Faktoren in ihrer Sozialstruktur und ihrem Verhalten von Schimpansen. Um eine genauere Vorstellung davon zu entwickeln, wie die menschliche Evolution verlaufen sein könnte, ist es daher notwendig, ein detailliertes Bild von dem Verhalten wild lebender Bonobos zu erhalten, um dieses mit den bekannten Verhaltensmustern von Schimpansen und derzeit lebenden Menschengruppen zu vergleichen.

    Konkurrenz der Männchen um Weibchen bei Schimpansen…

    Bei Schimpansen sind Männchen dominant über Weibchen und konkurrieren mit aggressivem Verhalten um empfängnisbereite Weibchen. Diese Aggression richtet sich nicht nur gegen andere Männchen, sondern wird auch häufig dazu benutzt, um Weibchen gefügig zu machen. In einem solchen Paarungssystem zahlt es sich für Männchen aus, in Verhaltensweisen und Physiologie zu investieren, die ihre körperliche Konkurrenzfähigkeit maximieren. Dies kann zum Beispiel über den Testosteronspiegel geschehen. Testosteron hat eine anabole Wirkung, was bedeutet, dass es zu einem Zuwachs an Muskelmasse führt. Diese bietet dem Tier einen Vorteil in einer aggressiven Konkurrenzsituation. Außerdem steigert Testosteron allgemein die Bereitschaft, sich auf aggressive Auseinandersetzungen einzulassen. In einem Paarungssystem wie dem der Schimpansen, in dem sich das Durchsetzungsvermögen in aggressiven Interaktionen mit anderen Männchen direkt in einen gesteigerten Paarungs- und Reproduktionserfolg überträgt, wäre es also nur folgerichtig, wenn der Testosteronspiegel der Männchen im Beisein empfängnisbereiter Weibchen ansteigen würde. Tatsächlich hat man das bei wilden Schimpansen gefunden. Zum anderen haben höherrangige Männchen, welche die höchsten Paarungs- und Fortpflanzungserfolge erzielen, einen höheren Testosteronspiegel als niederrangige. Es stellt sich natürlich die Frage, warum nicht alle Männchen in hohe Testosteronspiegel investieren. Die Antwort ist, dass Testosteron auch negative Effekte haben kann. Ein hoher Testosteronspiegel wirkt sich nachteilig auf das Immunsystem aus, und gesteigerte Aggressivität führt auch zu einem erhöhten Verletzungsrisiko.

    …Bonobos machen es anders

    Wissenschaftler am Max-Planck-Institut für evolutionäre Anthropologie untersuchten das Verhalten von Bonobos an einer Gruppe, die in LuiKotale in der Nähe des Salonga Nationalparks in der Demokratischen Republik Kongo beheimatet ist (Abbildung 1), und haben sich dabei für einige Zeit auf die Fortpflanzungsstrategien der Männchen konzentriert. MOUSEHINT

    Abbildung 1. Männlicher Bonobo in LuiKotale, Demokratische Republik Kongo. © Max-Planck-Institut für evolutionäre Anthropologie/ Deimel

    Welches Bild ergibt sich in diesem Zusammenhang nun für Bonobos? Bei den Bonobos sind die Männchen nicht dominant über die Weibchen, und in den meisten Gruppen werden sogar die höchsten Rangplätze von Weibchen belegt. Die bei Schimpansen verbreitete Strategie, aggressiv um Weibchen zu konkurrieren, könnte sich daher für Bonobo-Männchen als weniger erfolgreich erweisen, da das Weibchen immer in einer Position sein könnte, in der es sich dem Männchen verweigern kann. Wie gestalten sich nun männliche Fortpflanzungsstrategien und die korrespondierenden Testosteronspiegel bei Bonobos? Die Ergebnisse unterschieden sich erheblich von den bei Schimpansen gewonnenen Erkenntnissen. Obwohl ranghohe Männchen ebenfalls aggressiver waren als rangniedere und die Anwesenheit empfängnisbereiter Weibchen zu einem Anstieg von Aggression führte, richtete sich diese nie gegen das attraktive Weibchen. Außerdem gab es bei den Männchen keinen positiven Zusammenhang zwischen Rang und Testosteronspiegel (Abbildung 2).

    MOUSEHINTAbbildung 2. Testosteronspiegel im Urin und Dominanzstatus männlicher Bonobos in Anwesenheit. empfängnisbereiter Weibchen. © Max-Planck-Institut für evolutionäre Anthropologie / Surbeck

    Im Gegenteil, in Anwesenheit empfängnisbereiter Weibchen passierte etwas Verblüffendes: Während der Testosteronspiegel bei rangniederen Männchen leicht anstieg, fiel er bei ranghohen Männchen sogar ab, was zu einem negativen Zusammenhang zwischen Rang und Testosteron führte. Trotzdem erzielten ranghohe Männchen einen höheren Paarungserfolg. Anstatt sich aggressiv gegen andere Männer durchzusetzen und Weibchen einzuschüchtern, suchen erfolgreiche Bonobo-Männer die Nähe der Weibchen und bemühen sich, mit diesen eine enge Beziehung aufzubauen. Männchen, die noch eine Mutter in der Gruppe haben, werden zudem von dieser in ihren Bemühungen tatkräftig unterstützt. Diese Nähe zu empfängnisbereiten Weibchen ist allerdings nicht ohne Kosten zu haben. Hochrangige Männchen, die sich häufiger in der Nähe empfängnisbereiter Weichen aufhalten, haben höhere Cortisolspiegel als andere Männchen, was auf ein erhöhtes Stressniveau hindeutet.

    Die Ergebnisse deuten darauf hin, dass beim Bonobo, einem der nächsten Verwandten des Menschen, nicht aggressives Verhalten bei der Maximierung des Fortpflanzungserfolgs im Vordergrund steht, sondern dass Bonobo-Männchen erfolgreicher sind, wenn sie in enge Beziehungen zu Weibchen investieren. Diese neu gewonnenen Einsichten eröffnen eine neue Perspektive auf die Evolution der menschlichen Paarbeziehung. Wie die Weibchen nun auf diese Situation reagieren und nach welchen Kriterien sie ihre Fortpflanzungspartner auswählen, ist Thema einer Folgestudie, die zurzeit an den Bonobos in LuiKotale durchgeführt wird.

    Sozialbeziehungen: Lausen ist nicht gleich Lausen und warum ein gemeinsames Essen so wichtig sein kann

    Was sind die physiologischen Grundlagen für den Aufbau von Beziehungen? Es ist bekannt, dass bei einer der grundlegendsten Beziehungen bei Säugetieren, der Mutter-Kind-Beziehung, das Hormon Oxytocin, ein Neuropeptid, eine wichtige Funktion für den Aufbau dieser Beziehung hat. Kann Oxytocin aber auch das Verhalten gegenüber nicht verwandten Individuen beeinflussen? Hier zeigen zum Beispiel experimentelle Studien beim Menschen, dass die Anwendung eines oxytocinhaltigen Nasensprays dazu führt, dass Teilnehmer in einem Spiel erhöhtes Vertrauen, aber auch Großzügigkeit zeigen.

    MOUSEHINTAbbildung 3: Zwei erwachsene männliche Schimpansen bei der gegenseitigen Fellpflege. © Max-Planck-Institut für evolutionäre Anthropologie / Gomes

    Wissenschaftler am MPI für evolutionäre Anthropologie untersuchten, wie sich die Qualität von Beziehungen bei Interaktionen zwischen wild lebenden Schimpansen auf die Oxytocinausschüttung auswirkt, und machten sich dabei zunutze, dass Oxytocin nun auch im Urin von Menschen und Menschenaffen gemessen werden kann. Sie beobachteten das Fellpflegeverhalten (Abbildung 3) und seine Auswirkungen auf die Oxytocinausschüttung bei wild lebenden Schimpansen im Budongo-Forest Reserve, Uganda. Einige Minuten an Fellpflege führten tatsächlich zu einer erhöhten Oxytocinkonzentration im Urin. Allerdings war der Effekt stark von der Identität des Fellpflegepartners abhängig. War der Fellpflegepartner ein Tier, mit dem eine enge Beziehung unterhalten wurde, dann kam es zu einem stärkeren Oxytocinanstieg (Abbildung 4). Dieser Effekt war unabhängig davon, ob das Tier mit dem Partner verwandt war oder nicht. Das bedeutet, dass bei Schimpansen die Qualität der Partnerbeziehung auch zwischen nicht verwandten Tieren einen Einfluss auf die Oxytocinausschüttung hat.

    MOUSEHINTAbbildung 4: Oxytocinspiegel im Urin von Schimpansen in Abhängigkeit von der Qualität der Beziehung zu ihrem Fellpflegepartner. Fehlerbalken kennzeichnen die Standardabweichung © Max-Planck-Institut für evolutionäre Anthropologie / Crockford

    Wie kann es aber überhaupt zu der Bildung von engen, kooperativen Beziehungen zwischen nicht verwandten Tieren kommen? Eine weitere Studie könnte darauf erste Hinweise geben: Hier zeigte sich, dass Oxytocin im Vergleich zu Kontrollsituationen bei Tieren ansteigt, die das Futter miteinander teilen, und zwar unabhängig davon, ob das Tier der Geber oder Nehmer ist. Es könnte also sein, dass Bindungsmechanismen, die sich ursprünglich zwischen Mutter und Kind entwickelt haben, bei einigen Tierarten, darunter Mensch und Schimpanse, so generalisieren ließen, dass sie nun auch zwischen nicht miteinander verwandten Tieren funktionieren.

    Physiologische Messmethoden angewandt bei wild lebenden Tieren

    Die Erforschung physiologischer Vorgänge bei frei lebenden Menschenaffen stellt eine große Herausforderung dar. Ein Großteil der etablierten Messmethoden wurde für die Verwendung an menschlichem Blut entwickelt. Die Aufgabe besteht nun darin, die Methoden zum einen für die Verwendung bei einer anderen Art und dann noch für Urin oder Kot anzupassen. Für diese Art von Methodenvalidierung werden oft Proben benötigt, die unter standardisierten Bedingungen von Zootieren gesammelt wurden. Neben vielen anderen haben vor allem die Zoos in Frankfurt und Leipzig die Forscher am Max-Planck-Institut für evolutionäre Anthropologie in den letzten Jahren hervorragend unterstützt.

    Die Schwerpunkte bei der Methodenentwicklung liegen in den Bereichen Ernährung und Energiebilanz, Modulierung von Sozialbeziehungen, Stress und Ontogenese. In Zusammenarbeit mit der Abteilung „Human Evolution“ am Institut wurden Methoden entwickelt, die es gestatten, Nahrungsknappheit durch Messung von stabilen Isotopen von Kohlenstoff und Stickstoff (13C und 15N) im Urin und von Fleischverzehr in Haaren von Menschenaffen nachzuweisen.


    *[1] Der im Jahrbuch 2013 der Max-Planck Gesellschaft erschienene, gleichnamige Artikel http://www.mpg.de/6778152/MPI_EVAN_JB_2013?c=7291695 wurde mit freundlicher Zustimmung der MPG-Wissenschafts- und Unternehmenskommunikation ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert und ohne die im Original vorhandenen Literaturzitate.


    Weiterführende Links

    Organisationen, die sich für den Schutz von freilebenden Menschenaffen einsetzen:

    • Bonobo Alive wurde von Bonoboforschern ins Leben gerufen, um die Bonobos und ihren Lebensraum im südwestlichen Teil des Salonga Nationalparkes, DR Kongo, zu schützen
    • Wild Chimpanzee Foundation: Ziel ist es, die verbliebenen 20.000 bis 25.000 freilebenden Schimpansen zu retten sowie deren Lebensraum, den tropischen Regenwald überall im tropischen Afrika
       

    KuBus: Das Max-Planck-Institut für evolutionäre Anthropologie - de Video 13:44 min.

    „Du bist, was Du isst“ Sozialer Status beeinflusst den Zugang zu hochwertiger Nahrung bei Bonobos (2011)

    Erfolgreiche Muttersöhnchen. Hoher sozialer Rang und Unterstützung der Mütter sind entscheidend für den Paarungserfolg von Bonobo-Männchen (2010)

    Bonobos - die sanften Vettern der Schimpansen: Gottfried Hohmann (Max-Planck-Institut für evolutionäre Anthropologie) Video 8:03 min

    Schimpansen

    Der Film „Schimpansen“ (Disney, Regie Alastair Fothergill und Mark Linfield, 2013):
    Disney zeigt im Kino, wie Schimpansen frei leben – dass alles, was gezeigt wird auch wissenschaftlich authentisch ist, hat das Leipziger Affenforscherteam ermöglicht. Tobias Deschner berichtet über die Arbeit mit Kamerateam und tierischen Hauptdarstellern: http://www.schimpansen.mpg.de/18056/hintergrund_zum_film

    Dossier: Schimpansen - der Film und die Realität - Ein Blick auf Forschung und Forscher hinter dem Disney-Naturfilm http://www.scinexx.de/dossier-631-1.html

    Der Film „Schimpansen“ (2013) Trailer http://www.disney.de/disneynature/filme/schimpansen/

    TV total - Dr. Tobias Deschner – Schimpansen: http://video.de.msn.com/watch/video/tv-total-dr-tobias-deschner-schimpan... Video 11:55 min

    Zum Film Schimpansen - Tim im Turm vom 23.05.2013, Interview mit Tobias Deschner http://www.leipzig-fernsehen.de/?ID=12899 Video 25 min

    Film Clips: Tobias Deschner filmte während seiner Forschungsarbeit im Taï-Nationalpark. Dabei entstanden kurze Film-Clips, die Schimpansen u.a. beim Nüsseknacken, Spielen und bei der Fellpflege zeigen: http://www.schimpansen.mpg.de/12014/Videos

    Wenn bei Primaten die Chemie stimmt: Durch das so genannte Kuschelhormon lässt sich Freundschaft bei Primaten physiologisch darstellen. Tobias Deschner: http://www.zdf.de/ZDFmediathek/beitrag/video/2003424/Wenn-bei-Primaten-d... Video 2:07 min

    inge Fri, 15.08.2014 - 10:13

    Europas Sterne — Erfolgsmodell Europäischer Zusammenarbeit am Beispiel Astronomie und Weltraumwissenschaften

    Europas Sterne — Erfolgsmodell Europäischer Zusammenarbeit am Beispiel Astronomie und Weltraumwissenschaften

    Fr, 07.08.2014 - 12:22 — Franz Kerschbaum

    Franz KerschbaumIcon AstronomieEine multinationale europäische Zusammenarbeit ermöglicht die Errichtung und den Betrieb von Großforschungsanlagen zur Erkundung von Sonnensystem und Universum. Österreichs Mitgliedschaft bei Organisationen wie der Europäischen Südsternwarte (ESO) oder der Europäischen Weltraumagentur (ESA) bietet eine große Chance für die zuliefernde Österreichische Wirtschaft und weite Bereiche der angewandten Forschung. Nach dem schwindelerregenden Erfolg der Rosetta-Mission durch das Erreichen des Kometen 67P/Tschurjumow-Gerasimenko vor 2 Tagen wirft Franz Kerschbaum, Astrophysiker der Universität Wien, einen Blick auf die Strukturen, die solche Erfolge heutzutage ermöglichen..

    Moderne Großforschungseinrichtungen wie CERN werden heutzutage meist von großen internationalen Konsortien errichtet und betrieben. Auch die daraus hervorgehenden wissenschaftlichen Publikationen zählen oft mehrere hundert bis über tausend Autoren. Diese Forschungspraxis unterscheidet sich grundlegend von den Gegebenheiten in der ersten Hälfte des zwanzigsten Jahrhunderts und der Zeit davor.

    So wurde bis dahin astronomische Forschung typischerweise von der Genialität Einzelner vorangetrieben, maximal unterstützt durch wenige zuarbeitende Beobachter oder Rechenhilfskräfte. Erst die zunehmende Technisierung der Forschung mit der Errichtung der ersten Großsternwarten auf Bergen fern der Städte – zuerst in den Vereinigten Staaten von Amerika um 1900 – führte zu einer schrittweisen Verlagerung der Forschungsarbeit auf größere Gruppen. Europa verlor dabei schnell den Anschluss – das Drama des ersten Weltkrieges und die Zwischenkriegszeit verlangte ganz andere Prioritätensetzungen und so mussten etwa hochfliegende Pläne der Astronomen der Donaumonarchie zum Bau moderner Bergsternwarten im Restösterreich ad acta gelegt werden. Selbst im Europäischen Kontext wurde österreichische, astronomische Forschung geradezu marginalisiert.

    Gründung der Europäischen Südsternwarte (ESO) in Chile und…

    Eine weitere Einschränkung der Europäischen Astronomie im Vergleich mit der USA wurde bald evident: die meteorologisch ausgezeichneten Bedingungen Kaliforniens fanden sich nirgendwo am Europäischen Kontinent und hätten auch nicht durch große Investitionen kompensiert werden können. Konsequenter Weise gründeten im Jahr 1962 Belgien, Deutschland, Frankreich, Niederlande und Schweden die Europäische Südsternwarte (ESO) mit dem gemeinsamen Ziel, auf der Südhalbkugel ein den nordamerikanischen Sternwarten zumindest ebenbürtiges Observatorium zu errichten. Als 1969 die ersten Teleskope auf La Silla, Chile in Betrieb gingen, begann der bis heute so erfolgreiche gemeinsame Europäische Weg der astronomischen Forschung. Mit Meilensteinen wie dem New Technology Telescope, dem SEST Submillimeter Teleskop, dem Very Large Telescope wurde in vielen technologischen Aspekten eine weltweite Vorreiterrolle übernommen und der Europäischen Forschung einzigartige Arbeitsmittel in die Hand gegeben. ESO/VLTAbbildung 1. Das Very Large Telescope (VLT) am Paranal-Observatorium. Oben links: Das Observatorium in der Atacama Wüste, der vermutlich trockensten Wüste der Welt im Norden Chiles, besteht aus 4 „Unit telescopes“ (Einzelteleskopen) mit Hauptspiegeldurchmessern von 8,2 m, deren Spiegel zusammengeschaltet werden können und 4 weiteren Hilfsteleskopen. Unten links: Innenansicht eines der VLT-Units, bereit für die nächtliche Beobachtung. Oben rechts: Nebel Messier 17 (Omega-Nebel) im Sternbild Schütze in einer Entfernung von 6000 Lichtjahren. Man sieht ungeheure Gas- und Staubwolken, bescienen vom Licht junger Sterne. Unten rechts: Beobachtung des Zentrums der Milchstraße; das mit adaptiver Optik ausgestattete Teleskop erzeugt einen künstlichen Leitstern („Laser Guide Star“) zur Korrektur der Turbulenzen der Atmosphäre. (Quelle: alle Bilder http://www.eso.org/public/images/; cc-license)

    Österreich schloss sich erst sehr spät dieser Entwicklung an. In den 1960er Jahren stand zuerst der Aufbau moderner lokaler Beobachtungseinrichtungen im Mittelpunkt, in den darauf folgenden drei Jahrzehnten wurden alle Vorstöße der sich internationalisierenden österreichischen Forschungsgemeinde zu einem ESO-Beitritt von Seiten der Politik abschlägig behandelt. Als die Bemühungen letztlich 2009 Erfolg zeitigten, durfte sich eine international bereits sehr gut aufgestellte, moderne österreichische Astronomie als 14. Mitgliedsland bei der ESO einreihen.

    E-ELTAbbildung 2. So wird das European Extremely Large Telescope (E-ELT) aussehen. Es wird das größte im sichtbaren und nahen Infrarot- Bereich arbeitende Teleskop der Welt sein und am Beginn der nächsten Dekade in Betrieb gehen. Für die adaptierbare Optik des riesigen Spiegels mit 39 m Durchmesser (unten) hat das Linzer Johann Radon Institute for Computational and Applied Mathematics (RICAM, ÖAW) "extrem schnelle mathematische Methoden zur adaptiven Optik" geliefert, die eine effiziente Korrektur der atmosphärischen Turbulenzen erlauben. (Quelle: alle Bilder http://www.eso.org/public/images/; cc-license)

    Das weltweit leistungsfähigste Radiointerferometer ALMA oder das zukünftig größte Teleskop E-ELT mit seinen knapp 40 Metern Durchmesser stehen uns so gleichberechtigt mit unseren Europäischen Partnern zur Verfügung. Der jährliche österreichische Beitrag von etwa 3,4 Mil. Euro (2013, 2,5% des ESO-Budgets) bietet zusätzlich vielen österreichischen Firmen die Möglichkeit, an den nötigen technologischen Entwicklungen mitzuarbeiten. Das oben erwähnte Radiointerferometer ALMA ist als Kooperation von ESO mit amerikanischen und japanischen Einrichtungen ein Beispiel für die sich etablierende noch weitere globale Bündelung der Kräfte bei den größten wissenschaftlichen Unternehmungen.

    …Entwicklungen am Sektor Weltraumforschung

    Die Entwicklungen am Sektor Weltraumforschung ist in vielen Bereichen mit der Kooperation zur Errichtung erdgebundener Sternwarten wie der ESO vergleichbar, weist aber auch einige charakteristische Unterschiede auf. Die beginnend im frühen zwanzigsten Jahrhundert, maßgebend in Europa entwickelte Raketentechnik bildete nach dem zweiten Weltkrieg die Basis für den Wettlauf ins All zwischen den Vereinigten Staaten und der Sowjetunion. In Europa konzentrierten sich Staaten wie Frankreich, Großbritannien, Niederlande oder Deutschland einerseits auf den Aufbau eigener weltraumwissenschaftlicher bzw. weltraumtechnologischer Programme und versuchten parallel, in bilateralen Kooperationen mit den USA oder der UdSSR an deren Missionen teilzunehmen. Zusätzlich wurde Europäische Zusammenarbeit unter den Organisationen ELDO (European Launcher Development Organisation) bzw. European Space Research Organisation (ESRO) ab den 1960er Jahren gebündelt. Als 1975 die Nachfolgeorganisation European Space Agency (ESA) gegründet wurde, war Österreich schon an ersten Programmen beteiligt, ab 1981 assoziiert und ab 1987 Vollmitglied. Davor und auch später noch gab es eine Vielzahl von bilateralen Beteiligungen österreichischer Forschergruppen an europäischen, asiatischen und amerikanischen Projekten.

    Noch viel mehr als im Bereich der astronomischen Grundlagenforschung bedeutet die österreichische Mitgliedschaft bei ESA mit einem jährlichen österreichischen Beitrag von etwa 52 Mil. Euro (2012, 1,8% des ESA-Budgets) eine große Chance für die zuliefernde Österreichische Wirtschaft und weite Bereiche der angewandten Forschung. Das Prinzip des mittelfristig ausgeglichenen finanziellen Returns an die Beitragsländer garantiert so eine substantielle Wertschöpfung in Österreich.

    Die European Space Agency mit ihrem Fokus auf friedlicher Erforschung und Nutzung des Weltraums verfügt heute über das breiteste Spektrum an Satelliten und Sonden zur Erderkundung, der Erforschung des Sonnensystems und des Universums, hat Zugriff auf modernste Launcher europäischer Entwicklung und ist in vielen internationalen Kooperationen Partner der USA, von Russland oder Japan.

    Fazit

    Organisationen wie die Europäische Südsternwarte ESO oder die Europäische Weltraumagentur ESA haben sehr viel zur so erfolgreichen Entwicklung der einschlägigen Wissenschaften in Europa und insbesondere auch in Österreich beigetragen. Großforschungseinrichtungen sind heute nicht mehr von einzelnen Nationen zu errichten bzw. sinnvoll nutzbar. Nur die Bündelung der nationalen Expertisen, Mittel und Möglichkeiten unter einem Europäischen oder gar globalen Dach ermöglicht die Verwirklichung der ambitioniertesten Forschungsvorhaben der modernen Wissenschaften.


    Literatur

    Besser, B., Austria’s history in space, HSR-34, ESA Publications Division, 2004 Kerschbaum, F., ESO und Österreich, in: Mensch & Kosmos, OÖ Landesausstellung 1990, Band I, Linz Maitzen, H.M., Hron, J., Die Universitätssternwarte Wien – Pflanzstätte des Österreichischen ESO-Beitritts, in: Comm. in Asteroseismology 149, 2008


    Weiterführende Links

    European Space Agency

    ESA-Österreich

    Institut für Weltraumforschung (IWF) der ÖAW

    European Southern Observatory (Hauptseite)

    Österreichische Seite Video über das VLT (4:06 min)

    Superschneller Algorithmus für Adaptive Optik des E-ELT kommt aus Österreich: h http://www.eso.org/public/austria/announcements/ann14012/

    Artikel zu ähnlichen Themen auf ScienceBlog.at: finden Sie im Navigationsbereich links im Sachgebiet ›Astronomie & Weltraum‹


     

    inge Thu, 07.08.2014 - 00:22

    Vom System Erde zum System Erde-Mensch

    Vom System Erde zum System Erde-Mensch

    Fr, 01.08.2014 - 07:44 — Reinhard F. Hüttl

    GeowissenschaftenReinhard F. HüttlUnser Planet bietet uns Lebensraum, die zum Leben notwendigen Rohstoffe, er ermöglicht uns Landbau, er schützt uns vor gefährlicher kosmischer Strahlung, kurzum: das Human Habitat auf dem Planeten Erde ist ein komplexer Mechanismus, der uns seit Millionen von Jahren Existenzbedingungen liefert, die der Mensch – evolutionstheoretisch gesehen – sehr erfolgreich nutzt. Reinhard Hüttl, Vorstandsvorsitzender des Deutschen GeoForschungsZentrums GFZ1 in Potsdam und Präsident der acatech2 zeigt die Bedeutung der Geowissenschaften für das zukünftige Überleben der Menschheit3.

    Die Geowissenschaften betrachten die Erde als ein System, mit allen physikalischen, chemischen und auch biologischen Vorgängen, die in ihrem Innern und an der Oberfläche ablaufen. Sie untersuchen die zahllosen Wechselwirkungen zwischen den Teilen des Ganzen: zwischen

    • der festen Erde (Geosphäre) und den Bereichen
    • des Wassers (Hydrosphäre),
    • des Eises (Kryosphäre),
    • der Luft (Atmosphäre) und
    • des Lebens (Biosphäre).

    Das „System Erde“ ist dabei ein hochdynamisches Gebilde,

    das seit jeher Änderungen unterliegt. Dazu gehören vergleichsweise langsame Prozesse wie die Bewegung der tektonischen Platten oder der Auf- und Abbau polarer Eismassen, aber auch sehr schnelle, schlagartige Umlagerungen von Masse und Energie. Erdbeben, Vulkanausbrüche und Stürme lassen uns die hohe Dynamik unseres Planeten in ganz drastischer Art und Weise erfahren. Abbildung 1.

    Dynamik des Systems ErdeAbbildung 1. Dynamik des Systems Erde. Langsame Prozesse wie die Plattentektonik (oben), rasche Prozesse wie Erdbeben (unten).

    Für das System Erde sind diese Ereignisse Teil der normalen natürlichen Abläufe. Wir Menschen erleben diese Prozesse häufig als Naturkatastrophen, die meist viele Menschenleben fordern und enorme Schäden mit sich bringen.

    Abschätzung des Risikos durch Naturgefahren – neue Möglichkeiten in den Geowissenschaften

    Die Menschen sind der Natur aber nicht hilflos ausgeliefert. Die Geowissenschaften spielen eine entscheidende Rolle in der Abschätzung des Risikos durch Naturgefahren. Dazu gehören auf qualitativer Ebene die Bestimmung möglicher Ursachen und die Abschätzung der Folgewirkungen, aber auch die Entwicklung geeigneter Werkzeuge zur Quantifizierung der relevanten Prozesse. Sie spielen zudem beim Aufbau von Vorsorge- und Schutzmaßnahmen eine wichtige Rolle.

    Satellitengeodäsie und Modellierungen

    Für das Verständnis der komplexen, teilweise rückgekoppelten Dynamik des Systems Erde sind Raum-Zeit-Relationen sowie die integrative Betrachtung und Modellierung geologischer, physikalischer, hydrologischer und biologischer Prozesse notwendig. Vor allem die moderne Satellitengeodäsie und innovative Fernerkundungsmethoden haben unser heutiges Verständnis vom Planeten Erde besonders geprägt. Diese Ansätze haben in den letzten Jahren eine atemberaubende Entwicklung erfahren. Sie nehmen daher aktuell eine Sonderstellung in der geowissenschaftlichen Forschung und beim Monitoring des Systems Erde ein.

    Mit ihnen ist es möglich geworden, in kurzer Zeitabfolge Messreihen von globalen bis zu regionalen Skalen zu erhalten. Die so gewonnenen Daten werden mit den Werkzeugen moderner Prozessierung und Modellierung bearbeitet und erhalten damit eine globale Konsistenz und Homogenität. Mit GPS-Methoden lassen sich beispielsweise kleinste Verschiebungen in der Erdkruste nachweisen. Zudem ist es möglich, den Zustand von Ionosphäre und Troposphäre zu überwachen – Daten, die für Wettervorhersagen und Klimaaussagen immer bedeutender werden. Aus Fernerkundungsdaten lassen sich zahlreiche charakteristische Eigenschaften der Böden und der Vegetation ableiten. Mit den Ergebnissen der Satellitenmissionen – mit GFZ Beteiligung - CHAMP, GRACE, GOCE und SWARM wird neben dem Magnetfeld insbesondere das Schwerefeld der Erde mit bisher nicht gekannter Detailgenauigkeit erfasst. Abbildung 2.

    MOUSEHINTAbbildung 2. Die Potsdamer Schwerekartoffel. Schwerefeld der Erde bestimmt aus der präzisen Vermessung der Flugbahn der Geoforschungssatelliten LAGEOS, GRACE und GOCE sowie Oberflächendaten. Infolge der Massenunterschiede im Erdinnern ist das Schwerefeld nicht überall gleich. Diese Unregelmäßigkeiten sind in 13.000facher Überhöhung dargestellt. Südlich von Indien ist der Meeresspiegel um 110 m abgesenkt. (GFZ-Helmholtz-Zentrum Potsdam)

    Mit Hilfe dieser Entwicklungen werden erstmals das Zirkulationsverhalten der Ozeane, Massenanomalien, Massentransport und Massenaustauschprozesse im Erdsystem sichtbar.

    Die Forschungsergebnisse der letzten Jahre zeigen, dass sich Teilsysteme des Systems Erde ohne Berücksichtigung der Wechselwirkungen mit anderen Teilsystemen nicht vollständig untersuchen lassen. Dies läßt sich am Beispiel der Klimaveränderungen verdeutlichen.

    Klimaänderungen

    Es ist bekannt, dass sich das Klima in der Erdgeschichte immer wieder geändert hat. Weniger bekannt ist jedoch, dass sich das Klima gerade in den vergangenen 10.000 Jahren im Vergleich zur restlichen Erdgeschichte sehr stabil und damit außergewöhnlich verhalten hat. Das gegenwärtige Klima der Erde ist nicht repräsentativ für die längerfristigen Klimabedingungen, die auf der Erde seit etwa 600 Millionen Jahren und damit seit Beginn der intensiven Entwicklung des Lebens (Pflanzen, Tiere) geherrscht haben. Paläoklimatische bzw. geologische Studien zeigen, dass seit dieser Zeit ein viermaliger Wechsel von „Eishaus“ (mit großflächigen Vereisungen an den Polen) und „Treibhaus“ (keine Vereisung auf der Erde) stattgefunden hat. Der Normalzustand des Klimas ist aber nicht nur in langen Zeiträumen einem ständigen Wandel unterworfen. Ein bewegtes Auf und Ab, wie beispielsweise Temperaturänderungen von acht Grad innerhalb weniger Jahre im Spätglazial vor etwa 13.000 Jahren, wohingegen sich die heutigen Klimaschwankungen sehr gering abheben, ist Teil der Klimageschichte. Diese Variabilitäten auf verschiedenen Zeitskalen tragen wesentlich zum Verständnis der Klimadynamik bei und sind eine Basis für das Erkennen eines anthropogenen Einflusses, der heute aufgrund von Szenariensimulationen im Vordergrund der Diskussion steht.

    Unwidersprochen findet, und zwar beginnend mit der Industrialisierung, ein Erderwärmungsprozess statt, wobei die globale Durchschnittstemperatur seit dem Jahr 2000 mehr oder weniger konstant geblieben ist. Ganz offensichtlich ist der Mensch durch ständig wachsende Treibhausgasemissionen an dieser rezenten Klimaerwärmung beteiligt. Abbildung 3. MOUSEHINT

    Abbildung 3. Der Mensch als Klimafaktor. Schwankungen des CO2-Gehalts in der Atmosphäre.

    Im Sinne einer vorsorgenden Umweltpolitik ist es deshalb richtig, eine Reduktion der Treibhausgasemissionen zu bewirken (Mitigation). Aufgrund der Trägheit des Klimasystems und der nach wie vor gegebenen Beteiligung natürlicher Faktoren an der Klimadynamik ist es ebenfalls ein Gebot der Stunde, Anpassungsstrategien mit Bezug auf Auswirkungen des Klimawandels zu entwickeln. Mit Bezug auf diese Anpassungsmaßnahmen, die immer auf bestimmte Regionen zugeschnitten werden müssen, sind regionalspezifische Veränderungen der Klimadynamik zu erforschen. Hier spielt auch die Paläoklimaforschung eine zentrale Rolle, weil der Blick in die erdgeschichtliche Vergangenheit mögliche Zukunftsszenarien eröffnet.

    Bedarf an Nahrungsmitteln und erneuerbaren Rohstoffen

    Hinzu kommt, dass die Menschheit mit einem steigenden Bedarf an Nahrungsmitteln und erneuerbaren Rohstoffen konfrontiert ist, der seine Ursache in einer wachsenden Weltbevölkerung und sich verändernden Konsumgewohnheiten hat. Dieser Trend und die zunehmende Exposition landwirtschaftlicher Systeme gegenüber klimatischen Veränderungen vor allem auf regionaler Skala erfordern eine Anpassung bestehender Landnutzungsformen und entsprechende technologische Weiterentwicklungen. Moderne biologische und technologische Erkenntnisse und Verfahren für die intensive und gleichzeitig nachhaltige Produktion, Bereitstellung und Verarbeitung von Biomasse sind also notwendig, um einen Wandel in der industriellen Rohstoffbasis herbeizuführen und zur Minderung der Belastung der Umwelt sowie Schonung der endlichen Ressourcen der Erde beizutragen. Besonderes Augenmerk gilt dabei der Ressource Boden. Abbildung 4.

    MOUSEHINTAbbildung 4. Innovative Landnutzungsansätze, wie z. B. die Agroforstwirtschaft, ermöglichen hohe Erträge für Nahrungsmittel und Gehölze

    Der landwirtschaftlich genutzte Boden ist ein bioökonomischer Produktionsfaktor, dessen langfristige ökonomische Leistungsfähigkeit sichergestellt werden muss. Innovative Landnutzungsansätze, wie z. B. die Agroforstwirtschaft, ermöglichen hohe Erträge für Nahrungsmittel und Gehölze bei gleichzeitigem Schutz der Ressource Boden und langfristiger Förderung der Kohlenstoffbindung.

    Der Mensch als Geofaktor

    Für unseren Planeten Erde gilt: Wandel ist die Konstante. Durch das rasche Wachstum der menschlichen Bevölkerung und den damit verbundenen Eingriffen in das System Erde hat sich der Mensch zum Geofaktor entwickelt. Somit steuern nicht nur – wie bislang in der erdgeschichtlichen Entwicklung – natürliche Faktoren und Prozesse die Dynamik unseres Planeten, sondern eben auch der wirtschaftende Mensch. Die dadurch induzierten Wirkungen werden häufig als globaler Wandel beschrieben, wobei der vom Menschen mitverursachte Klimawandel dieses neue Ursache-Wirkung-Gefüge in besonderer Weise belegt. Abbildung 5.

    MOUSEHINTAbbildung 5. Vom System Erde zum System Erde-Mensch. Nicht nur natürliche Faktoren und Prozesse steuern die Dynamik unseres Planeten, sondern auch der wirtschaftende Mensch.

    Vor diesem Hintergrund stellt sich im Kontext Diversität und Wandel die Frage neu, inwieweit die Technik diese Effekte beherrschen kann. Bislang ist es dem vernunftbegabten Menschen in seiner soziokulturellen Entwicklung gelungen, die jeweils vorherrschenden Herausforderungen cum grano salis adäquat zu lösen. Beispiele hierfür sind, wie oben exemplarisch erläutert, Land- und Forstwirtschaft, Wasserbewirtschaftung, Ressourcennutzung oder der Schutz vor Naturgefahren, wie z.B. Tsunami-Frühwarnungssysteme. Gleichwohl stellt sich die Frage nach der Beherrschbarkeit der regional sehr verschiedenen Auswirkungen des globalen Wandels im sogenannten Anthropozän in einer qualitativ und quantitativ neuen Dimension.

    Wir sind noch weit davon entfernt, die Erde und ihre Prozesse zu verstehen. Bei der unüberschaubaren Anzahl an nichtlinearen Wechselwirkungen, Umwandlungsprozessen und nicht berechenbaren Singularitäten ist es auch die Frage, ob unsere derzeitige Physik diesen komplexen Apparat „Planet Erde“ überhaupt beschreiben kann. Andererseits ist die Anthroposphäre, sind wir Menschen aktives Teilsystem in unserem eigenen Human Habitat, wie uns die Debatte um Rohstoffe, das Klima, Eingriffe in die Ökosysteme zeigen. Wir müssen also das System Erde möglichst gut verstehen, um in ihm bestehen zu können.

    Menschen können als einzige Spezies des Planeten Erde vernunftgesteuert agieren. Sie haben daher auch das Potenzial, nicht nur die Erde zu nutzen, sondern die unvermeidlichen, teils negativen Folgewirkungen dieser Nutzung zu minimieren – im eigenen Interesse. Krieg, Terrorismus und Gewalt bedrohen Millionen von Menschen seit langem, aber auch in diesem Augenblick. Die Beseitigung dieser Menschheitsgefahren hat höchste Priorität. Es darf aber auch nicht übersehen werden, dass die ungebremste und unkontrollierte Nutzung der Schätze unseres Planeten gerade die Gefahr neuer Gewalt in sich birgt, man denke nur daran, welches Konfliktpotential der Rohstoff Wasser in weiten Regionen der Welt hat.

    Fazit

    Es ist es keine Überschätzung, wenn man formuliert, dass die Geoforschung und ihre Anwendung eine Schlüsselwissenschaft für das zukünftige Überleben der Menschheit darstellt. Das Wachstum der Weltbevölkerung stellt uns vor die Aufgabe, die Nutzung unseres Heimatplaneten so zu gestalten, dass eine nachhaltige Existenzsicherung auch für die nachfolgenden Generationen möglich ist. Die Geowissenschaften, das Verständnis des Systems Erde-Mensch, sind daher Leitdisziplinen für die Zukunft. Wir haben keinen Reserveplaneten zum Auswandern. Der Umgang mit unserer Erde muss sorgfältig erfolgen. Und dazu muss man sie möglichst gut kennen und verstehen.


    1 Deutsches GeoForschungsZentrum Helmholtz-Zentrum Potsdam GFZ http://www.gfz-potsdam.de/zentrum/ueber-uns/

    2 Deutsche Akademie für Technikwissenschaften (acatech) http://www.acatech.de/index.php?id=1

    3 Einen gleichnamigen Vortrag hat Reinhard Hüttl anlässlich der Tagung „Diversität und Wandel Leben auf dem Planeten Erde“ gehalten, die im Rahmen der Kerner von Marilaun-Vorträge am 13. Juni 2014 im Festsaal der ÖAW in Wien stattfand. Ein Audio-Mitschnitt ist unter http://www.oeaw.ac.at/kioes/confdocs/audio%20wandel/07_Reinhard%20Huettl... abrufbar, eine Auswahl der von ihm gezeigten Bilder unter: http://www.oeaw.ac.at/kioes/confdocs/DUW2014/07-Huettl-System%20Erde_Aus...


    Weiterführende Links

    GFZ-Journal System Erde: http://www.gfz-potsdam.de/medien-kommunikation/infomaterial/system-erde-...
    Reinhard Hüttl: Was wissen wir vom blauen Planeten? ZEIT ONLINE 04/2008 S. 33 http://www.zeit.de/2008/04/Huettl−Nachwort


     

     

    inge Fri, 01.08.2014 - 07:44

    Warum ist Astrobiologie so aufregend?

    Warum ist Astrobiologie so aufregend?

    Fr, 25.07.2014 - 05:18 — Pascale Ehrenfreund

    Pascale EhrenfreundIcon AstronomieSchon seit vielen Jahrzehnten gibt es großes Interesse, eine Spezialwissenschaft zur Evolution organischen Materials und der Entstehung des Lebens auf der Erde sowie der Suche nach Leben im Weltall zu gründen. Neben den Fachgebieten der Kosmobiologie und Exobiologie setzte sich in den 90er-Jahren das Spezialforschungsgebiet der Astrobiologie durch. Pascale Ehrenfreund, derzeit Präsidentin des FWF, die zu den Pionieren und renommiertesten Wissenschaftern der Astrobiologie gehört, beschreibt wesentliche Fragestellungen in dieser Disziplin.

    Astrobiologie ist jene Wissenschaftsdisziplin, die sich mit dem Ursprung, der Entwicklung und Verteilung sowie der Zukunft des Lebens im Universum beschäftigt. Es ist ein interdisziplinäres Fachgebiet, das bewohnbare Gebiete in unserem Sonnensystem charakterisiert, Exoplaneten identifiziert sowie nach Spuren von präbiotischer Chemie und von Leben auf dem Mars sucht. Astronomische Beobachtungen, Laborstudien, „Field Work“, die sich mit der frühen Entwicklung des Lebens auf der Erde und anderen Planeten befassen, sowie Studien wie und wo sich Leben im Weltraum anpassen kann, sind integrierte Hauptthemen.

    Das NASA Astrobiology Institute

    Das im Jahr 1998 gegründete NASA Astrobiology Institute (NAI), dem ich seit 2008 angehöre, ist ein herausragendes Beispiel für so eine interdisziplinäre Forschung. Heute gibt es 15 Institute in denen Wissenschafterinnen und Wissenschafter aus unterschiedlichen Disziplinen wie Biologie, Chemie, Physik, Astronomie, Geologie etc., oft geografisch verteilt, erfolgreich zusammenarbeiten (http://astrobiology.nasa.gov/nai/). Das Astrobiologie-Programm der NASA konzentriert sich auf drei fundamentale Fragen:

    • Wie ist Leben entstanden und wie hat es sich weiterentwickelt?
    • Gibt es Leben außerhalb der Erde und – falls ja – wie können wir es entdecken?
    • Wie wird sich die Zukunft des Lebens auf der Erde und im Universum gestalten?

    Diese Fragen betreffen alle Menschen, und auch jene ohne wissenschaftliche Ausbildung möchten natürlich wissen, woher sie kommen und ob wir alleine im Universum sind.

    Gibt es Leben außerhalb der Erde?

    In der Astrobiologie gibt es ständig aktuelle Themen und Fragestellungen zur Erforschung des Sonnensystems sowie der Komplexität des Lebens. Eine besonders aufregende Raumfahrtmission bildet in diesem Jahr der Curiosity Rover auf dem Mars, welcher kontinuierlich neue Daten zur Bewohnbarkeit des Planeten liefert (Abbildung 1). Ein kompliziertes analytisches Instrument (SAM) aus den USA versucht derzeit, organische Stoffe auf dem Mars aus Bodenproben zu analysieren.

    Marsrover CuriosityAbbildung 1. Der Curiosity Rover untersucht einen Stein auf dem Mars (Künstlerische Darstellung, NASA/JPL-Caltech; mehr dazu: http://www.astrobio.net/topic/solar-system/mars/curiosity-travels-ancient-glaciers-mars/#sthash.w08Z6RD0.dpuf )

    Im November wird zum ersten Mal eine Raumsonde - sie trägt den Namen Rosetta – (auch mit österreichischer Beteiligung) auf einem Kometen landen, um seine Oberfläche zu untersuchen (siehe unten).

    In unserem äußeren Sonnensystem gibt es immer wieder außergewöhnliche Monde, die auf bewohnbare Regionen schließen lassen. Die Auswertung von Daten des Kepler-Satelliten zur Entdeckung und Charakterisierung von Exoplaneten ist derzeit auf „full speed“. Tausende „potenzielle Exoplaneten“ sind bereits identifiziert worden bzw. werden derzeit kontrolliert und bestätigt (Abbildung 2). Mglw. habitable PlanetenAbbildung 2. Möglicherweise “bewohnbare” (habitable) Exoplaneten. Der jüngst entdeckte Gliese 632c liegt mit 16 Lichtjahren Entfernung unserer Erde am nächsten. (PHL @ UPR Arecibo, http://www.astrobio.net/news-brief/high-score-easy-scale-gliese-832c-potentially-planetary-habitability/)

    Und auch das Leben auf unserem eigenen Planeten bietet immer wieder neue Überraschungen. In den unglaublichsten Regionen und Nischen finden wir immer wieder neue und exotische, einfache Lebensformen. Es ist nicht zuletzt aus diesem Grund außerordentlich schwierig, das astrobiologische Schlagwort „habitability“ (Bewohnbarkeit) genau zu definieren.

    Kann Leben nur auf der Erde bestehen, gab es jemals Leben auf dem Mars, oder gibt es vielleicht noch unbekanntes Leben in Nischen im „Untergrund“?

    Kann es Leben in den Ozeanen auf Monden im äußeren Sonnensystem geben, und wie werden wir jemals Leben auf einem erdähnlichen Exoplaneten nachweisen können?

    Das sind nur einige der Fragen, mit denen sich die Astrobiologie beschäftigt.

    Stabilität von organischem Material im Weltraum

    Meine eigene wissenschaftliche Tätigkeit beschäftigt sich vor allem mit der Suche nach Leben auf dem Mars. Meine Gruppe untersucht die Stabilität von organischem Material im Weltraum. Wir sind oft im „Feld“ und testen Bodenproben und Instrumente.

    In den letzten zehn Jahren war ich kontinuierlich in die Entwicklung von Instrumenten für die Identifizierung von organischen Molekülen involviert. Für Astrobiologen ist das viel Arbeit, denn nicht alle Instrumente „schaffen“ es in den Weltraum. Einer, der es „geschafft“ hat, war der NASA-Kleinsatellit O/OREOS, bei welchem ich das wissenschaftliche Team leiten sowie beim Bau helfen durfte (Abbildung 4).

    Kleinsatellit O/OreosAbbildung 3. Der Kleinsatellit O/Oreos (Organism/Organic Exposure to Orbital Stresses). Etwa so groß wie ein Brotwecken und ca. 6 kg schwer, kann der Nanosatellit selbstständig biologische und chemische Experimente in der Exosphäre ausführen.

    Dieser Satellit hat organische Moleküle und Mikroben in einer Umlaufbahn von 680 km auf ihr „Überleben“ erfolgreich getestet. Es war eine spannende Zeit, zu erleben wie ein Satellit geplant, gebaut und in den Weltraum lanciert wird, und dann auch noch ganz ausgezeichnet funktioniert. Das kommt gar nicht so oft vor …

    Landung auf einem Kometen

    Ein besonderes Highlight erwartet uns noch in diesem Jahr: Die Raumsonde Rosetta soll im November 2014 nach einer zehnjährigen Reise auf dem Kometen 67P/Tschurjumow-Gerasimenko landen (Abbildung 4).

    Annährung der Rosetta-SondeAbbildung 4. Annäherung der Rosetta- Raumsonde an den Kometen 67P/Churyumov-Gerasimenko. Der Durchmesser von Rosetta beträgt 32 Meter, der des Kerns des Kometen wird auf 4 Kilometer geschätzt. Internationale Mission, angeführt von der European Space Agency (Paris), unterstützt von der NASA. (Bild: Simulation; Details: www.esa.int/rosetta und http://rosetta.jpl.nasa.gov)

    Ziel ist es, den Ursprung von Kometen sowie die Beziehung zwischen Kometen und ihrer interstellaren Geburtswolke zu erforschen. Kometen entstanden, als sich Planeten wie unsere Erde geformt haben, sie sind daher Zeugen der ersten Entwicklung unseres Sonnensystems. Mit einem Eigengewicht von über drei Tonnen nähert sich Rosetta nun dem Kometen 67P/Tschurjumow-Gerasimenko auf der Suche nach einem Landeplatz. Instrumente auf dem „Orbiter“ sowie auf dem „Lander“ werden viele neue Erkenntnisse bringen. Das Landungsmanöver ist verständlicherweise unglaublich riskant. Es wird spannender als ein WM-Endspiel im Fußball. Für mich wird es bereits jetzt interessant, da ich sowohl an einem Instrument auf dem „Orbiter“ als auch an einem auf dem „Lander“ mitarbeite.

    Fragen zur bemannten Raumfahrt

    Auch mit der Möglichkeit der bemannten Raumfahrt zu Mond und Mars beschäftige ich mich und viele andere Astrobiologen. Bei welchen wissenschaftlichen Fragen ist der Einsatz von Menschen sinnvoll, und welche medizinischen und technischen Hürden müssen dafür in der Zukunft überwunden werden, sind einige der Fragen, die dabei beantwortet werden müssen. Eine neue Studie des US National Research Council, die wir gerade abgeschlossen haben, gibt hierzu einen breiten Überblick sowie Empfehlungen, wie das gelingen könnte ("Pathways to Exploration—Rationales and Approaches for a U.S. Program of Human Space Exploration": http://sites.nationalacademies.org/DEPS/ASEB/DEPS_069080.htm) . Die internationale Raumfahrtstation steht hierfür als ideales „Testbett“ zur Verfügung.

    Aber die Kosten sind hoch und nur eine effiziente internationale Kooperation in der Raumfahrt wird es in der Zukunft ermöglichen, das große Ziel aller Weltraumagenturen – Menschen auf den Mars zu transportieren – zu erreichen.

    Entstehung der ersten Protozelle

    Kommen wir zurück auf die Erde und zum Fortschritt in der synthetischen Biologie und dem Aufbau der ersten Protozelle. Viel hat sich getan in den letzten Jahren, vor allem weil dieses Fachgebiet substanzielle Förderungsquellen hat. Wie sich die ersten Protozellen auf der Früherde gebildet haben, ist aber immer noch ungewiss, vor allem weil bestimmte Bedingungen wie die Atmosphärenzusammensetzung, die Existenz der Ozeane, geologische Aktivitäten, oder die Frequenz der Einschläge von Kleinkörpern aus dem Weltraum nur bedingt bekannt sind. Es ist aber essenziell zu wissen, ob Reaktionen, die jetzt im Labor getestet werden, auch unter diesen unwirtlichen Bedingungen auf der jungen Erde ablaufen konnten. Vielleicht waren in dieser Periode auch ganz andere Moleküle am Aufbau der ersten Zellstrukturen beteiligt. Viele offene Fragen …

    Fazit

    Astrobiologie ist manchmal anstrengend, da es fast unmöglich ist, alle neuen Informationen in diesem Fachgebiet zu verarbeiten. Aber es kommen so viele Teile des Puzzles unserer eigenen Existenz zusammen – und so bleibt es immer faszinierend.


    Weiterführende Links

    Websites

    NASA Astrobiology: Website ”designed for ease of use by expert and non-expert users” http://astrobiology.nasa.gov/nai/

    European Space Agency (ESA) http://www.esa.int/ESA und ESA-Österreich http://www.esa.int/ger/ESA_in_your_country/Austria

    DLR - Forschungszentrum der Bundesrepublik Deutschland für Luft- und Raumfahrt. http://www.dlr.de/dlr/desktopdefault.aspx/tabid-10008/

    Institut für Weltraumforschung (IWF) der ÖAW http://www.iwf.oeaw.ac.at/

    Videos

    Pascale Ehrenfreund: Leben im All - Wo bleiben die Außerirdischen? Video 41:34 min, ScienceCasts: Rosetta Comet Comes Alive. Video 4:06 min, Rosetta with the comet lander 'Philae' (›Mission Rosetta mit Kometenlander "Philae"‹. (DLR) Video 3:16 min.)

    Komet Churyumov-Gerasimenko: Weder Kugel noch Kartoffel. Animated GIF (DLR)

    Artikel zu ähnlichen Themen in ScienceBlog.at

    finden Sie im Navigationsbereich links im Sachgebiet ›Astronomie & Weltraum‹


     

    inge Fri, 25.07.2014 - 04:50

    Landwirtschaft pflügt das Klima um

    Landwirtschaft pflügt das Klima um

    Fr, 18.07.2014 - 07:27 — Julia Pongratz & Christian Reick A

    Julia PongratzChristian ReickIcon GeowissenschaftenSeit der Erfindung von Ackerbau und Viehzucht wandelt der Mensch natürliche Vegetation in Acker- und Weideland um. Die Pflanzengemeinschaften der Kontinente bestimmen jedoch unser Klima auf vielfältige Weise mit. Der Mensch hat möglicherweise schon Klimaveränderungen verursacht, lange bevor er begann, massiv Öl und Kohle zu verbrennen. Dies zeigen Julia Pongratz und Christian Reick (Max-Planck-Institut für Meteorologie, Hamburg) in ihren Untersuchungen zur Ausbreitung der Landwirtschaft im letzten Jahrtausend [1].

    Kirchenbücher als Studienobjekt von Wissenschaftlern – die meisten Menschen denken dabei wahrscheinlich an Theologen und Ahnenforscher. Nur die wenigsten kämen auf die Idee, dass sie auch für Klimaforscher wichtige Erkenntnisse bereithalten. Denn diese viele Jahrhunderte zurückreichenden Aufzeichnungen enthalten wichtige Informationen zur Bevölkerungsentwicklung und damit auch zur landwirtschaftlich genutzten Fläche. Wenn aber aus natürlicher Vegetation Äcker und Felder werden, hat dies Folgen für das Klima.

    Für uns Klimaforscher ist es deswegen ein Glück, dass Demografen uns in den letzten Jahrzehnten schon die Arbeit abgenommen haben, aus historischen Dokumenten Daten zur weltweiten Bevölkerungsentwicklung abzuleiten. Daraus können wir den Einfluss des Menschen auf das Weltklima in früheren Zeiten ableiten.

    MOUSEHINTAbbildung 1. Agrarwüste statt Urwald: In vielen Gebieten der Erde hat der Mensch natürliche Vegetation durch Wiesen und Felder ersetzt. Dies hat Folgen für das Klima.© Mauritius Images

    Die vorindustrielle Zeit eignet sich besonders gut, um die Folgen der Landnutzung für das Klima zu analysieren. Denn vor 1850 war die weltweit voranschreitende Ausdehnung der Landwirtschaft die einzige „menschengemachte“ Störung des globalen Klimasystems. Da die gewonnenen Ackerflächen häufig durch Rodung von Wäldern entstanden, landete der im Holz gespeicherte Kohlenstoff über kurz oder lang als Bestandteil von Kohlendioxid in der Atmosphäre.

    Erst ab Mitte des 20. Jahrhunderts setzt der Mensch deutlich mehr des Treibhausgases Kohlendioxid durch die Verbrennung fossiler Energieträger frei als durch die Änderung der Vegetation. Seitdem ist der gegenwärtig beobachtete weltweite Klimawandel hauptsächlich durch Abgase aus der Verbrennung von Kohle, Öl und Erdgas bestimmt.

    Kontinente wirken als Kohlenstoffspeicher

    Vernichtung von Vegetation führt also zum Ausstoß von Kohlendioxid. Gleichzeitig macht die Pflanzenwelt der Erde einen Teil des in die Atmosphäre entlassenen Kohlendioxids wieder unschädlich. Denn Pflanzen nehmen Kohlendioxid mithilfe der Fotosynthese aus der Atmosphäre auf und binden den darin enthaltenen Kohlenstoff unter Abgabe von Sauerstoff in organischen Verbindungen. So nahmen die Kontinente in den 1990er-Jahren von den jährlich etwa 6,4 Gigatonnen (Milliarden Tonnen) Kohlenstoff aus der Verbrennung von Kohle, Öl und Erdgas etwa eine Gigatonne wieder auf. Die Kontinente speichern also immerhin 15 Prozent der fossilen Emissionen jedes Jahr. Man spricht daher auch von einer sogenannten Land-Kohlenstoffsenke.

    MOUSEHINTAbbildung 2. Pflanzen binden Kohlendioxid aus der Atmosphäre. Sie können somit den Anstieg des Treibhaus-Gases zumindest teilweise ausgleichen. Zerstörung von Vegetation führt deshalb zu höheren Kohlendioxid-Konzentrationen. © Fotolia

    Die Vegetation der Kontinente kann auf diese Weise dem globalen Temperaturanstieg entgegenwirken. Denn die weltweite Erwärmung hängt direkt mit dem Anstieg der Kohlendioxid-Konzentration in der Atmosphäre zusammen: Kohlendioxid verringert die Durchlässigkeit der Atmosphäre für die Wärmerückstrahlung der Erde, wodurch sich die unteren Luftschichten aufheizen. Die Land-Kohlenstoffsenke vermindert also den Temperaturanstieg, den wir ansonsten als Folge der Verbrennung fossiler Energieträger und der Ausdehnung landwirtschaftlicher Flächen zu erwarten hätten.

    MOUSEHINTAbbildung 3. Helle Wiesen reflektieren mehr Sonnenenergie als vergleichsweise dunkle Äcker und Wälder. Die Art der Vegetation bestimmt so das lokale Klima mit. © Corbis

    Vegetation ist allerdings auch noch in anderer Hinsicht klimarelevant. Die unterschiedlichen Vegetationstypen beeinflussen den Energie-, Wasser- und Impulsaustausch zwischen Atmosphäre und Erdoberfläche. Sie wirken sich vor allem auf das regionale Klima aus. So erscheinen Graslandschaften aus der Vogelperspektive typischerweise heller als z. B. Wälder, Wissenschaftler sprechen von einer höheren Albedo. Dementsprechend reflektieren Grasflächen Sonnenlicht besser und erwärmen sich deshalb schwächer. Gleichzeitig verdunsten Wälder mehr Wasser über ihre Blätter und Nadeln, da sie oft tiefe Wurzeln besitzen, und kühlen deshalb stärker ab als flachwurzelnde Graslandschaften. Welcher Effekt überwiegt – Erwärmung durch Sonneneinstrahlung oder Selbstkühlung durch Verdunstung –, hängt unter anderem von Sonnenstand, der Verfügbarkeit von Wasser im Boden, Luftfeuchtigkeit und Pflanzentyp ab.

    Die Pflanzendecke trägt so zusammen mit der vorherrschenden mittleren Sonneneinstrahlung, Windrichtung und Niederschlag wesentlich zum lokalen Klima bei. Am Max-Planck-Institut für Meteorologie untersuchen wir deshalb, wie stark Vegetationsänderungen die Absorption von Sonneneinstrahlung beeinflussen und welche Folgen diese Änderungen für den Kohlendioxid-Austausch zwischen den Landmassen und der Atmosphäre haben.

    Weltkarte der Land­wirtschaft

    Seit dem Ende der letzten Eiszeit vor 10000 Jahren hat sich das Klima natürlicherweise verändert. Als Folge haben sich neue Pflanzengemeinschaften gebildet und ausgebreitet. Dazu kommt der Mensch: Durch Ackerbau, Forstwirtschaft und Urbanisierung hat er stark in die natürlichen Austauschprozesse zwischen Atmosphäre und den Pflanzen der Kontinente eingegriffen. Berechnungen zufolge werden heute etwa 24 Prozent des weltweiten Pflanzenwachstums durch den Menschen kontrolliert.

    In den Jahrtausenden zwischen 9000 und 5000 Jahren vor heute entwickelten sich Ackerbau und Viehzucht in mindestens vier Regionen unabhängig voneinander: im sogenannten Fruchtbaren Halbmond Kleinasiens, in Teilen Chinas und in Mittel- und Südamerika. Von dort breiteten sich die Landwirtschaft treibenden Kulturen aus und verdrängten nach und nach geschichtlich ältere Jäger- und Sammlergesellschaften. Leider gibt es kaum genaue Aufzeichnungen darüber, wie viel Fläche in einer Region zu einem bestimmten Zeitpunkt landwirtschaftlich genutzt wurde. Dieser Mangel an Daten erschwerte bislang die Untersuchung von Veränderungen der globalen Vegetationsverteilung und deren Rolle im Klimageschehen.

    MOUSEHINTAbbildung 4. Hypothek aus vorindustrieller Zeit: Seit vielen Jahrhunderten bearbeitet der Mensch seine Umwelt mit dem Pflug. Dadurch beeinflusste er den Wärmeaustausch zwischen Land und Atmosphäre - lange vor der massenhaften Verbrennung von Öl .© Archiv für Kunst und Geschichte

    Deshalb mussten wir andere Informationsquellen, nämlich die bereits zu Beginn erwähnten Daten zur Bevölkerungsentwicklung nutzen. Die Größe der Bevölkerung und die landwirtschaftlich genutzte Fläche hängen eng zusammen. Vor der industriellen Revolution war Fernhandel auf wertvolle Güter wie etwa Gewürze beschränkt, Grundnahrungsmittel konnten kaum in ausreichender Menge über größere Entfernungen transportiert werden. Deswegen kann man für die Zeit zwischen Mittelalter und industrieller Revolution von der regionalen Bevölkerungszahl auf die benötigte land­wirtschaftliche Fläche schließen.

    Wir haben diesen Zusammenhang genutzt und haben einen Datensatz erstellt, der weltweit die Verteilung von Acker- und Weideflächen seit dem Jahr 800 nach Christus nachzeichnet. Unsicherheiten bezüglich der Bevölkerungs­daten und der Einfluss von sich ändernden Agrartechniken sind dabei berücksichtigt. Darüber hinaus haben wir rekonstruiert, wie die landwirtschaftliche Expansion die Verteilung von Wäldern und natürlichen Gras- und Strauchlandschaften beeinflusst. Demnach nimmt die natürliche Vegetation bereits in vorindustrieller Zeit zugunsten von Acker- und Weideflächen deutlich ab. MOUSEHINTAbbildung 5. (a) Zwischen 800 und 1850 n. Chr. wächst die Bevölkerung vor allem in Europa und Asien immer weiter an. (b) Globale Flächenentwicklung verschiedener natürlicher und landwirtschaftlicher Vegetationstypen. Parallel zur wachsenden Weltbevölkerung wurden schon in vorindustrieller Zeit große Gebiete natürlicher Vegetation in landwirtschaftliche Flächen umgewandelt. © MPI für Meteorologie

    Kohlendioxid-Anstieg durch Pflug und Axt

    Gerade das letzte Jahrtausend ist in dieser Hinsicht besonders interessant: Zwischen 800 und dem frühen 18. Jahrhundert verdreifachte sich die Welt­bevölkerung auf eine Milliarde Menschen. Es muss also eine landwirtschaftliche Expansion von nie zuvor dagewesener Stärke stattgefunden haben. Wenn wir daher in diesem Zeitraum keine menschengemachte Klimaänderung nachweisen können, so ist dies auch für die vorangegangenen Jahrtausende nicht zu erwarten. Der Einfluss des Menschen auf das Klima hätte dann wie meist angenommen erst mit der massenhaften Verfeuerung von Öl und Kohle während der industriellen Revolution begonnen.

    Wir kommen in unserer Studie allerdings zu einem anderen Ergebnis. Klimamodelle erlauben es uns heute, die Wechselwirkungen zwischen Vegetation, Atmosphäre und Ozean über lange Zeiträume auf Großrechnern zu simulieren. Mit der Rekonstruktion der Landnutzung im letzten Jahrtausend und einem an unserem Institut ent­wickelten Erdsystemmodell können wir abschätzen, wie sich der Kohlenstoffkreislauf und das Klima durch den Einfluss der Landwirtschaft verändert haben. MOUSEHINTAbbildung 6. Immer mehr Menschen benötigen immer mehr Nahrungsmittel: Ackerland im Jahr 800 (oben) und 2000 n. Chr. (unten). Der Farbbalken gibt den Anteil der landwirtschaftlich genutzten Fläche an der Gesamtfläche an (grau: 0%, violett: 100%). © MPI für Meteorologie

    In den Zentren der historischen Landwirtschaft in Europa, Indien und China hat sich demnach die Landwirtschaft zwischen den Jahren 800 und 1850 auf Kosten von Waldgebieten stark ausgebreitet und zu einem Verlust von weltweit 53 Gigatonnen Kohlenstoff geführt. Gleichzeitig werden über die Land-Kohlenstoffsenke 25 Gigatonnen aufgenommen. Besonders in naturbelassenen Regionen wie den tropischen Regenwäldern wurde also fast die Hälfte der Emissionen wieder gespeichert. Pflanzen wachsen nämlich bei höheren Kohlendioxid-Werten schneller – dadurch können sie mehr von dem Treibhausgas binden und den Anstieg in der Atmosphäre zumindest teilweise kompensieren. Ein Prozess, den Wissenschaftler als „Kohlendioxid-Düngung“ der Pflanzen bezeichnen.

    Lokaler Klimawandel auch ohne Industrie

    Diese Zahlen belegen, dass durch die landwirtschaftliche Entwicklung in der vorindustriellen Zeit des letzten Jahrtausends netto etwa 28 Gigatonnen Kohlenstoff in die Atmosphäre entlassen wurden. Diese Emissionen blieben jahrhundertelang sehr klein und trugen erst zwischen dem 16. und 18. Jahrhundert stärker zur atmosphärischen Kohlendioxid-Konzentration bei, als durch natürliche Klimaschwankungen allein erklärbar wäre. Es sieht also so aus, als ob der Mensch zwar erst spät, aber noch vor der Industrialisierung die Kohlendioxid-Konzentration der Atmosphäre erhöht hat. Dieser Kohlendioxid-Anstieg ist allerdings zu gering, um die Temperatur global merklich zu ändern. MOUSEHINTAbbildung 7. Schon in vorindustrieller Zeit entwich Kohlenstoff als Kohlendioxid in die Atmosphäre. Zwischen 800 und 1850 verlieren besonders die landwirtschaftlich wichtigen Regionen Kohlenstoff (rosa bis dunkelrot), während viele naturbelassene Gebiete als Folge der landwirtschaftlichen Verluste eher Kohlenstoff aufnehmen (hell- bis dunkelblau). (Angaben in Milliarden Tonnen Kohlenstoff (GtC) pro Gitterzelle des Klimamodells) © MPI für Meteorologie

    Auf regionaler Ebene hat der Mensch das Klima dagegen auch schon vor der Industrialisierung beeinflusst. Simulationen zeigen, dass der Mensch bereits vor über tausend Jahren die Energiebilanz einiger Regionen verändert hat, weil sich mit der Landnutzung auch die Albedo der Landoberfläche gewandelt hat. Besonders in Europa, Indien und China hat die aufgenommene Sonneneinstrahlung rund zwei Watt pro Quadratmeter abgenommen.

    Eine solche Änderung ist lokal genauso stark wie der gegenwärtige Treibhauseffekt, allerdings hat sie einen entgegengesetzten – sprich abkühlenden – Effekt.

    Sogar geschichtliche Ereignisse können sich durch solche biogeophysikalischen Effekte regional auf das Klima durchpausen: So hat sich der wachsende menschliche Einfluss im 14. Jahrhundert auf die Energiebilanz Europas deutlich abgeschwächt. Hervorgerufen wurde dies durch die Pestepidemie, der etwa ein Drittel der Bevölkerung zum Opfer fiel und in deren Folge weite landwirtschaftliche Flächen zeitweise aufgegeben wurden. Ähnliche Folgen hatten der Einfall der Mongolen im 13. Jahrhundert in China und die mit der Invasion der Europäer eingeschleppten Krankheiten bei den Hochkulturen Amerikas.

    Klimaschutz durch Aufforstung?

    Schon in vorindustrieller Zeit hat der Mensch somit die Energiebilanz regional verändert und den atmosphärischen Kohlendioxid-Gehalt angehoben. Er hat das Gleichgewicht des Kohlenstoffkreislaufs gestört und die Kohlenstoffsenke der Wälder durch Rodung verkleinert. All dies ließ die Menschheit schon mit einer gewissen Vorbelastung in die industrielle Ära eintreten. Die Landnutzung aus der Vergangenheit wirkt dadurch auf das heutige und zukünftige Klima weiter.

    Während dieser Einfluss auf das Klima bislang nur ein unbeabsichtigter Nebeneffekt war, soll Landnutzung in der Zukunft zielgerichtet eingesetzt werden, um dem Klimawandel entgegenzuwirken. So wird vielfach die Wiederaufforstung landwirtschaftlicher Flächen gefordert, um der Atmosphäre Kohlendioxid zu entziehen und den gegenwärtigen Klimawandel abzuschwächen. Wiederaufforstung ist jedoch nicht immer ein Mittel gegen den Klimawandel, sie kann die Erwärmung auch beschleunigen: Studien zeigen, dass in den mittleren und hohen Breiten durch die Wiederbewaldung die Albedo so stark gesenkt und dadurch so viel mehr Sonnenstrahlung aufgenommen wird, dass der abkühlende Effekt der Kohlendioxid-Aufnahme nicht zum Tragen kommt. In den Tropen hingegen spielt die hohe Verdunstung der Wälder eine größere Rolle und wirkt zusammen mit der Kohlendioxid-Aufnahme kühlend.

    MOUSEHINTAbbildung 8. Wald ist nicht gleich Wald. Die Wiederaufforstung von abgeholzten Waldflächen wirkt sich in den Tropen und in den gemäßigten Zonen unterschiedlich auf das Klima aus. © Istockphoto

    Die Abholzung des tropischen Regenwalds zu stoppen, der gerodet wird, um landwirtschaftliche Nutzfläche zu gewinnen, könnte daher wirkungsvoller sein, als Wälder in gemäßigten Zonen wieder aufzuforsten. Die Entwicklung des Klimas wird also auch in Zukunft von landwirtschaftlichen Entscheidungen abhängen.


    Glossar Albedo Ist ein Maß dafür, wie stark die Kontinente, Ozeane oder Wolken das Sonnenlicht zurückwerfen. Helle Flächen besitzen eine höhere Albedo als dunkle.

    Kohlenstoffsenke Die Landmassen und Ozeane können Kohlenstoff aus der Atmosphäre ent­fernen und dauerhaft binden. Daran sind in erster Linie Pflanzen beteiligt: Diese nehmen Kohlendioxid auf und bilden daraus organische Verbindungen. Aber auch bei geologischen Prozessen wie der Bildung von Kalkgestein wird Kohlendioxid gebunden.


    [1] Der im Wissenschaftsmagazin der Max-Planck Gesellschaft MPF 4/09 http://www.mpg.de/800435/W005_Umwelt-Klima_076-082.pdf erschienene, gleichnamige Artikel wurde mit freundlicher Zustimmung der MPG-Wissenschafts- und Unternehmenskommunikation ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert.


    Weiterführende Links

    Max-Planck-Institut für Meteorologie, Hamburg, http://www.mpimet.mpg.de/startseite.html sehr gut gestaltete Seite mit reichhaltiger Information zu den Forschungsaktivitäten in den 3 Abteilungen: Atmosphäre im Erdsystem, Land im Erdsystem und Ozean im Erdsystem.

    Landnutzung und Änderungen der Waldbedeckung: http://www.mpimet.mpg.de/kommunikation/filme-animationen/visualisierunge... (Animationen, in denen für verschiedene Szenarien und die Jahre 1850 bis 2300 die weltweite Entwicklung der Waldbedeckung (Säulenhöhe) parallel mit der Änderung der Kohlenstoffspeicherung gezeigt wird.)

    Partnerschaft Erdsystemforschung, gemeinsame Aktivitäten zur Erforschung des Erdsystems : Max-Planck-Institut für Meteorologie (Hamburg) Max-Planck-Institut für Chemie (Mainz) und dem Max-Planck-Institut für Biogeochemie (Jena); Brochure: http://www.mpimet.mpg.de/fileadmin/communication/ESRP_d_low.pdf



     

    inge Fri, 18.07.2014 - 07:27

    Happy Birthday, ScienceBlog.at

    Happy Birthday, ScienceBlog.at

    Fr, 11.07.2014 - 07:05 — Redaktion 3.Geburtstag

    Fast genau vor drei Jahren haben wir den ScienceBlog gestartet. Seitdem erscheint wöchentlich – immer am Freitag – ein neuer Artikel. Nach dem Relaunch im April des vergangenen Jahres und der Übernahme aller bis dahin erschienen Beiträge auf unsere neue Website [1], hat der Blog mittlerweile ein beachtliches Volumen erreicht: 152 Artikel - eine bunte Vielfalt aus der Welt der Naturwissenschaften und verwandter Disziplinen -, die nun nach Themenschwerpunkten zusammengefasst werden [2]..

    Wir feiern unseren 3. Geburtstag!

    Dass die Blog-Artikel sich auch durch besondere Qualität und Seriosität ihrer Inhalte auszeichnen, verdanken wir unseren insgesamt 53 Autoren: alles „gestandene“, in vielen Fällen international höchst renommierte Wissenschafter, die aus ihren jeweiligen Kompetenzgebieten “Wissenschaft aus erster Hand” bieten. Dafür können wir nicht genug danken!

    Für uns erfreulich ist die Resonanz, die ScienceBlog.at erhält: einen sehr hohen PageRank bei Google und viele, viele Aufrufe. Im Monat sind es durchschnittlich 11 000 bis 12 000 unterschiedliche Rechner (IP-Adressen), die im Schnitt rund 200 000 Dateien abrufen und mehr als 2 Minuten auf einer Seite bleiben. (Wermutstropfen: nur wenige Leser raffen sich zu Kommentaren auf). Unseren Lesern dafür herzlichsten Dank!

    Die Aufrufe betreffen nicht nur die allerneuesten Artikel. Viele ältere Einträge, die häufig aufgerufen werden, unterstreichen, daß deren Aktualität weiterhin gegeben ist. Einer dieser vielgelesenen Artikel „Hat die Menschheit bereits den Boden unter den Füßen verloren?” stammt von dem prominenten Waldökologen Gerhard Glatzel. Es war der Startbeitrag vor 3 Jahren und bot eine kritische Auseinandersetzung mit der Ressource „Boden“, als Grundlage der Biomasseproduktion für die Ernährung der wachsenden Weltbevölkerung. Wir sehen diesen Beitrag in Hinblick auf die globale Entwicklung für sehr wichtig an und wollen unser 3-Jahres-Jubiläum mit dem nochmaligen Erscheinen des Artikels feiern.

    [1] ScienceBlog in neuem Gewande — Kontinuität und Neubeginn

    [2] ScienceBlog.at ein Jahr nach dem Relaunch — Kontinuität und Weiterentwicklung

    [3] Hat die Menschheit bereits den Boden unter den Füßen verloren?


     

    inge Fri, 11.07.2014 - 07:05

    Der Kampf gegen Vernachlässigte Infektionskrankheiten

    Der Kampf gegen Vernachlässigte Infektionskrankheiten

    Fr, 27.06.2014 - 13:22 — Bill and Melinda Gates Foundation

    Bill and Melinda Gates FoundationIcon Medizin Mehr als 1 Milliarde Menschen leiden an Vernachlässigten Infektionskrankheiten. Die Bill & Melinda Gates Foundation arbeitet zusammen mit Partnern (Pharmakonzernen, Regierungen, NGO’s, der Weltbank und globalen Gesundheitsorganisationen) an der Entwicklung und Bereitstellung neuer Maßnahmen für die Bekämpfung und Ausrottung dieser Krankheiten.Der folgende Artikel wurde mit freundlicher Zustimmung der Gates Foundation der Website der Stiftung* entnommen und wird Bestandteil des in Kürze zusammengestellten Themenschwerpunkts "Mikroorganismen und Infektionskrankheiten" sein.

    Vernachlässigte InfektionskrankheitenMehr als eine Milliarde Menschen in Entwicklungsländern leiden unter Infektionskrankheiten, für deren Bekämpfung zu wenig Geld gespendet wird. Zum größten Teil liegt das daran, dass diese Krankheiten in wohlhabenderen Ländern nur selten vorkommen. Bis vor kurzem gab es kaum Investitionen in die Behandlungs- und Vorsorgemethoden und der Zugang zu den existierenden Interventionsmethoden in den bedürftigen Gegenden war beschränkt.

    Diese Krankheiten verursachen ernsthafte Gesundheitsprobleme und stellen eine erhebliche wirtschaftliche Belastung dar. Die Krankheiten können Anämie und Blindheit verursachen, das Wachstum von Kindern hemmen, sowie kognitive Behinderungen und Schwangerschaftskomplikationen zur Folge haben. Außerdem sind sie für hunderttausende von Todesfällen pro Jahr verantwortlich. Menschen, die in extremer Armut leben, leiden oft an mehr als einer dieser Krankheiten gleichzeitig. Das wiederum hat Auswirkungen auf ihre Erwerbstätigkeit und ihre Fähigkeit, aus der Armut heraus zu kommen. Vernachlässigte Infektionskrankheiten sind in vielen armen Ländern eine große Belastung für die öffentliche Gesundheitsversorgung und stehen dem Erreichen der Millenniums-Entwicklungsziele der Vereinten Nationen im Weg.

    Die Chance

    Für die Bekämpfung einiger vernachlässigter Krankheiten gibt es bereits sichere und effiziente Behandlungs- und Kontrollverfahren. Es ist jedoch schwierig, diese Behandlungen dorthin zu bringen, wo sie am meisten benötigt werden: arme und schwer erreichbare Gebiete in Entwicklungsländern, in denen die Menschen nur wenig Zugang zur Gesundheitsversorgung haben Trotz logistischer Herausforderungen, waren Initiativen zur Bekämpfung einiger dieser Krankheiten in den letzten Jahren sehr erfolgreich und wir sind optimistisch, dass wir einige davon unter Kontrolle bringen, auslöschen oder sogar völlig ausrotten könnten.

    Zum Beispiel sank die Anzahl der gemeldeten Fälle der Medinawurmkrankheit (Dracontiasis) im Jahr 2012 auf den historischen Tiefpunkt von 541 Fällen in nur vier Ländern. Mehr als 120 Millionen Menschen sind mit Lymphatischer Filariose (Elephantiasis) infiziert, einer parasitären Krankheit, die von Moskitos übertragen wird. Aber seit dem Jahr 2000 konnten 2,7 Milliarden Behandlungen durchgeführt werden.

    Der Fortschritt im Kampf gegen die Lymphatische Filariose ist weitgehend einer globalen Allianz zu verdanken, über die Menschen mit Medikamenten versorgt werden, die von Merck, Eisai und GlaxoSmithKline gestiftet werden. Trotz eingeschränkter wirtschaftlicher Anreize haben diese Pharmaunternehmen ihre Spenden erhöht und unterstützen die Forschung und Entwicklung neuer Behandlungsmethoden gegen vernachlässigte Krankheiten. Die jüngste Geschichte zeigt, dass diese Krankheiten vollkommen ausgerottet werden können, wenn sie zum Ziel strategischer, innovativer, kollaborativer und nachhaltiger Aktionen erklärt werden.

    Durch eine zunehmende Entschlossenheit im öffentlichen und privaten Sektor können der Fortschritt beschleunigt und Initiativen mit größerem Umfang durchgeführt werden. Im Januar 2012 gab eine öffentlich-private Partnerschaft bestehend aus der Stiftung, 13 Pharmaunternehmen, der Regierungen der USA, des Vereinigten Königreichs und der Vereinigten Arabischen Emirate, der Weltbank und anderen globalen Gesundheitsorganisationen einen gemeinsamen Vorstoß bekannt: Bis zum Ende des Jahrzehnts sollen 10 vernachlässigte tropische Krankheiten unter Kontrolle gebracht oder sogar ausgerottet werden.

    Unsere Strategie

    Der Kampf gegen Infektionskrankheiten ist eine wichtige Priorität der Bill & Melinda Gates Foundation. Wir arbeiten eng mit den Regierungen aus Spender- und Entwicklungsländern zusammen, die gemeinsam den größten Teil der finanziellen Mittel für den Kampf gegen diese Krankheiten stellen, um sicherzustellen, dass unsere Investitionen andere Initiativen ergänzen. Wir konzentrieren unsere Ressourcen auf Bereiche mit hohem Finanzierungsbedarf, in denen unsere Hilfe eine Katalysatorwirkung haben kann oder in denen wir Risiken besser als andere Partner übernehmen können. Unsere Strategie zeigt, wo die Stiftung unseres Erachtens am besten positioniert ist, um gemeinsam mit zahlreichen anderen Handlungsträgern zur signifikanten Reduzierung vernachlässigter Infektionskrankheiten beizutragen.

    Bisher haben wir mehr als 1,02 Milliarden US-Dollar an Fördergelder an Organisationen vergeben, die vernachlässigte Infektionskrankheiten bekämpfen. Unsere Investitionen haben sich hauptsächlich auf die Entwicklung neuer Maßnahmen und auf deren weit verbreitete Bereitstellung konzentriert. Zusätzlich zu unseren direkten Investitionen engagieren wir uns außerdem für zusätzliche internationale Spenden zur Unterstützung dieser Initiativen.

    Viele Infektionskrankheiten könnte man als vernachlässigt bezeichnen. Bevor wir uns für eine Investition entscheiden, ziehen wir mehrere Faktoren in Betracht. Dazu gehören u.a. das Ausmaß und die Ernsthaftigkeit der Auswirkungen einer Krankheit, die soziale und wirtschaftliche Belastung einer Krankheit für Entwicklungsländer sowie die Wahrscheinlichkeit, dass durch strategische und mögliche Behandlungen, diese Krankheit unter Kontrolle gebracht, beseitigt oder vollkommen ausgerottet werden könnte.

    Wir beschäftigen uns derzeit mit 18 vernachlässigten Infektionskrankheiten. Da sie sehr unterschiedlich sind, passen wir unseren strategischen Ansatz dementsprechend an.

    Fokusbereiche

    Ziele mit guten Chancen

    Unsere Investitionen konzentrieren sich auf die Entwicklung neuer Behandlungsmethoden, Maßnahmen und Kontrollen und auf Möglichkeiten, diese weit verbreitet zur Verfügung zu stellen.

    Der größte Teil unserer finanziellen Mittel ist für neun Krankheiten bestimmt, die die besten Möglichkeiten zur Kontrolle, Beseitigung oder Ausrottung aufweisen. Bei einigen dieser Krankheiten, haben groß angelegte Initiativen bereits gute Fortschritte erzielt, aber es muss noch mehr getan werden. Wir unterstützen die Entwicklung und Bereitstellung neuer Medikamente, Impfstoffe, Diagnosetests, Vektorkontrollen und Programmansätze und passen unsere Investitionen jeder Krankheit individuell an.

    Eine Krankheit, bei der gute Chancen auf eine Ausrottung bestehen, ist die Onchozerkose (Flussblindheit), die durch einen parasitären Wurm verursacht wird, der über Stiche der Kriebelmücke auf den Menschen übertragen wird. Fast 18 Millionen Menschen sind infiziert, wobei die meisten Infektionen in Afrika vorzufinden sind. Durch die Massenbehandlung mit der gespendeten Arznei Ivermectin konnte die Krankheit in vielen Teilen Afrikas und Südamerikas beseitigt werden.

    Ivermectin tötet jedoch lediglich die Wurmlarven ab. Der erwachsene Wurm bleibt am Leben und kann mehr Larven produzieren, durch die sich die Krankheit verbreiten kann. Das bedeutet, dass die Infizierten die medizinische Behandlung über ein Jahrzehnt oder sogar noch länger ein- oder sogar zweimal pro Jahr wiederholen müssen. Ein zusätzliches Problem ist, dass Millionen von Menschen in Westafrika mit dem Augenwurm Loa loa infiziert sind und somit kein Ivermectin vertragen. Für sie gibt es also keine wirksame Behandlung gegen die Flussblindheit.

    Wir bekämpfen die Onchozerkose mit den aktuell verfügbaren Medikamenten, sofern dies möglich ist. Außerdem unterstützen wir Initiativen zur Entwicklung neuer Behandlungsmethoden, die wirksamer und häufiger eingesetzt werden könnten. Dazu gehören neue Methoden zur Kontrolle der Krankheitsübertragung und ein neues Medikament, das erwachsene Würmer angreift und auch bei Patienten mit Augenwurm sicher eingesetzt werden kann.

    Eine weitere Krankheit auf unserer Liste ist das Denguefieber, eine durch Moskitos übertragene Viruserkrankung. Seit den 1960er Jahren ist die Anzahl der Fälle weltweit um das Dreißigfache gestiegen und ca. 50 Millionen Menschen werden jedes Jahr damit infiziert. Es gibt keine wirksame Behandlung und die aktuellen Methoden zur Kontrolle der Übertragung sind teuer und meist unwirksam, weil sie zu spät eingesetzt werden.

    Das Denguefieber ist eine Krankheit mit guten Chancen auf Ausrottung, weil derzeit mehrere mögliche Impfstoffkandidaten entwickelt werden. Wir unterstützen Vorbereitungen zur Bereitstellung eines sicheren und erschwinglichen Impfstoffs, sobald dieser verfügbar ist. In der Zwischenzeit investieren wir in die Entwicklung neuer Methoden zur Moskitobekämpfung, um Epidemien zu vermeiden. Zudem fördern wir neue Möglichkeiten zur Erkennung oder Vorhersage von Denguefieber-Epidemien, um die Übertragung erfolgreich zu verhindern.

    Die anderen Krankheiten mit guten Chancen auf Ausrottung sind: Japanische Enzephalitis, Humane Papillomaviren (HPV), Viszerale Leishmaniose (Schwarzfieber), Hakenwurmkrankheit, Dracontiasis (Medinawurm), Lymphatische Filariose (Elephantiasis) und Afrikanische Trypanosomiasis (Schlafkrankheit).

    Integrierte Projekte

    Test- & Behandlungszentrum in UgandaAbbildung 1. Ein Test- und Behandlungszentrum von Ärzte ohne Grenzen für vernachlässigte tropische Krankheiten im ländlichen Uganda.

    Wir fördern die Entwicklung neuer Initiativen, mit denen gleichzeitig mehrere Infektionskrankheiten auf eine koordinierte und integrierte Weise bekämpft werden könnten. Dazu gehören drei Schwerpunktsbereiche:

    Medikamentöse Massenbehandlung. In Gebieten, in denen mehrere Infektionskrankheiten vorkommen, die mit denselben Medikamenten oder einem ähnlichen Behandlungsschema behandelt werden können, unterstützen wir Bemühungen zur Koordinierung der einzelnen Bestandteile großer Medikamentenprogramme, wie die Beschaffung von Medikamentenspenden.

    Überwachung der öffentlichen Gesundheit. Im Kampf gegen Infektionskrankheiten ist das Erfassen von Daten sehr wichtig, die angeben, in welchen Gebieten diese Krankheit bei Menschen und bei Moskitos, Fliegen, Würmern oder anderen Übertragungsvektoren vorkommt. Für zahlreiche vernachlässigte Krankheiten haben wir diese Daten nicht. Wir suchen Lösungen, wie gemeinsame Ansätze zur Erfassung, Verarbeitung und Bündelung von Daten sowie für die Entwicklung effizienter Überwachungsmaßnahmen.

    Vektorkontrolle. Die meisten vernachlässigten Infektionskrankheiten werden von Insekten oder Würmern verursacht bzw. verbreitet, die nur mit großem Kostenaufwand und Schwierigkeiten zu kontrollieren sind. Die Kontrollmaßnahmen sind für alle Vektoren ähnlich und eine bessere krankheitsübergreifende Koordinierung würde die Effizienz der verschiedenen Vektorkontrollmaßnahmen verbessern. Wir fördern die Entwicklung einer krankheitsübergreifenden Methode, um die Verfügbarkeit und die Auswirkungen der Vektorkontrollmaßnahmen zu verbessern.

    Übergangskrankheiten

    Wir schließen derzeit unsere Arbeit an drei Krankheiten ab: Tollwut, Trachom und Zystizerkose (Bandwurminfektion). Mehrere unserer Partner nutzen im Kampf gegen diese Krankheiten die aktuell vorhandenen Behandlungsmethoden und Maßnahmen. Wir unterstützen ihre Arbeit mit unseren letzten Investitionen in diesem Bereich.

    Neue Krankheiten

    In aktuellen Forschungsarbeiten werden aktuell sechs weitere Krankheiten – Ascaris, Trichuris, Hakenwurm, Bilharziose, Buruli-Ulkus und die Chagas-Krankheit – untersucht. Wir möchten ihre Übertragungsmuster besser verstehen und herausfinden, welche Eingriffe zu ihrer Bekämpfung erforderlich sind.


    * http://www.gatesfoundation.org/de/What-We-Do/Global-Health/Neglected-Inf... (abgerufen am 25.6.2014)

    Weiterführende Links

    Bill & Melinda Gates Stiftung

    Geschichte der Bill & Melinda Gates Foundation (abgerufen am 25.6.2014) Stiftungs-Datenblatt(abgerufen am 25.6.2014)

    Konsortium will vernachlässigte Tropenkrankheiten besiegen (abgerufen am 25.6.2014)

    WHO Tropical Diseases Tropical diseases encompass all diseases that occur solely, or principally, in the tropics. In practice, the term is often taken to refer to infectious diseases that thrive in hot, humid conditions, such as malaria, leishmaniasis, schistosomiasis, onchocerciasis, lymphatic filariasis, Chagas disease, African trypanosomiasis, and dengue.

    Neglected tropical diseases, PDF-Download, WHO (2006) 52p

    Videos

    Vernachlässigte Tropenkrankheiten 6:57 min Vernachlässigte Krankheiten – Impfungen (Ärzte ohne Grenzen, 2013) 6:00 min Vernachlässigte Krankheiten – Chagas (Ärzte ohne Grenzen, 2013) 9:51 min Vernachlässigte Krankheiten - Schlafkrankheit (Ärzte ohne Grenzen, 2013) 6:50 min Indien -- Eine wirksame Behandlung gegen Kala-Azar (Ärzte ohne Grenzen, 2013) 2 min


     

    inge Fri, 27.06.2014 - 00:22

    Der digitale Zauberlehrling

    Der digitale Zauberlehrling

    Fr, 20.06.2014 - 06:48 — Gerhard Weikum

    Gerhard WeikumIcon MINTComputer können heute digitales Wissen in großem Umfang automatisch sammeln und organisieren und für ein immer besser werdendes Sprachverständnis nutzen. Der Aufbau umfassender Wissensbasen ermöglicht die effiziente Suche nach relevanter Information in einer ungeheuren Flut an halbstrukturierten / unstrukturierten Daten im Internet. Was lässt sich dagegen tun, wenn Maschinen über einen Nutzer Fakten sammeln, die zu Angriffen auf dessen Privatsphäre werde nkönnen? Im Rahmen eines, durch einen ERC Synergy Grant geförderten Projekts wird das Konzept eines Privacy Advisor realisiert, der u.a. den Nutzer davor warnt, zu viele Informationen preiszugeben [1].

    Haben Computer das Potenzial, dem Menschen intellektuell ebenbürtig oder gar überlegen zu sein? Die Informatik und ihr Teilgebiet, die künstliche Intelligenz, verfolgen diese Frage, seit Alan Turing vor mehr als fünfzig Jahren einen Test vorgeschlagen hat: Kann ein Computer, der mit einem menschlichen Dialogpartner über eine Textschnittstelle kommuniziert, sich so verhalten, dass der Mensch selbst nach längerer Zeit nicht festzustellen vermag, ob hinter dem Gesprächspartner ein Mensch oder eine Maschine steckt?

    Menschliches Wissen – aus Büchern, Aufsätzen, Nachrichten und anderen Texten – ist heute nahezu lückenlos digitalisiert und systematisch organisiert . Das prominenteste Beispiel digitaler Wissenssammlungen ist die Online-Enzyklopädie Wikipedia. Für Computer ist Wikipedia allerdings zunächst nicht verständlich, da die Textinhalte für Menschen geschrieben sind.

    Wissensbasen - Bedeutungszusammenhänge zwischen Begriffen

    Das hat sich in den vergangenen Jahren geändert: Umfassende maschinenlesbare Wissensbasen wie der von Google genutzte Knowledge Graph ermöglichen Computern ein Textverständnis, das darüber hinausgeht, nur die Begriffe etwa einer Suchanfrage in einem Text zu erkennen. Sie stellen vielmehr zwischen den Begriffen einen Bedeutungszusammenhang her und erlauben somit semantisches Suchen. Sie können also auch Fragen mit mehrdeutigen Begriffen richtig beantworten. Und dank des semantischen Verständnisses kennen Computer auch die Bedeutung von Texten, welche sich, wie die Artikel der Wikipedia, an Menschen richten.

    Die Wissensbasen, die das tiefere Sprachverständnis ermöglichen, wurden weitgehend automatisch erstellt und werden ständig aktualisiert und erweitert. Der Knowledge Graph kennt mehr als zwanzig Millionen Personen, Orte, Filme, Arzneimittel, Sportereignisse und vieles mehr, dazu mehr als eine Milliarde Fakten über diese Einheiten und ihre Beziehungen untereinander. Google nutzt das gewaltige Wissen, um Suchanfragen besser zu verstehen, Suchresultate besser in Ranglisten zu ordnen, bessere Empfehlungen für Nutzer von Youtube und anderen Webportalen zu geben sowie für intelligente Vorschläge zu Restaurants, Konzerten und anderem.

    Vor allem drei Projekte haben die Methoden zur automatischen Konstruktion derartig umfassender Wissensbasen entscheidend vorangebracht: DBpedia an der FU Berlin und Uni Leipzig; Freebase, das von Google aufgekauft wurde und heute den Kern des Knowledge Graph bildet; und Yago, das wir seit dem Jahr 2005 am Max-Planck-Institut für Informatik entwickelt haben.

    Wissensbasis Yago

    YAGO LogoEine wichtige erste Dimension digitalen Wissens besteht darin, Einheiten – Entitäten genannt – zu sammeln, eindeutig zu benennen und in semantische Klassen wie Personen, Orte, Organisationen oder Ereignisse einzuordnen. Das macht im großen Stil vor allem Yago, indem es mit cleveren Algorithmen Kategorienamen aus Wikipedia mit dem manuell erstellten Thesaurus WordNet verknüpft. Die resultierende Wissensbasis enthält nahezu zehn Millionen Entitäten und mehr als 300 000 feinkörnige und hierarchisch organisierte Klassen wie Politiker, Musiker, Bassisten, Rockballaden, Heavy-Metal-Songs, Benefizkonzerte oder Freiluftopern.

    Die zweite Dimension einer Wissensbasis sind Fakten über Entitäten. Das sind zum einen Merkmale wie die Größe eines Fußballtorhüters oder die Anzahl seiner Länderspiele; zum anderen Beziehungen zwischen Entitäten, etwa der Geburtsort eines Torwarts, die Vereine, für die er gespielt hat, seine Ehefrau, die Hauptstadt eines Landes oder die Vorstandsmitglieder eines Unternehmens.

    Semantische Verknüpfungen in YAGOYago stellt logische, semantische Verknüpfungen zwischen Begriffen her und erkennt den Sinnzusammenhang. Als Beispiel: der berühmte deutsche Physiker Max Planck.

    Die dritte Dimension schließlich sind Regeln, die generelle Zusammenhänge ausdrücken – unabhängig von konkreten Entitäten. Dazu gehören Gesetzmäßigkeiten wie etwa die, dass jede Person genau einen Geburtsort hat und dass Hauptstädte von Ländern im jeweiligen Land liegen müssen. Solche Regeln können allerdings auch mit Unsicherheiten behaftet sein, müssen also nicht immer hundertprozentig zutreffen. Eine Person wohnt wahrscheinlich in derselben Stadt wie der Ehepartner oder in der Stadt, in der sie arbeitet.

    Solches Allgemeinwissen brauchen Maschinen, um mehrere Fakten logisch zu verknüpfen. Hat man zum Beispiel keine Anhaltspunkte über den Wohnort von Angela Merkel, weiß man aber, dass ihr Ehemann an der Humboldt-Universität Berlin arbeitet, kann der Computer daraus schließen, dass die Kanzlerin in Berlin wohnt.

    Sprachverständnis der Computer….

    Sprache ist oft mehrdeutig. Das mag an der Satzstruktur liegen, viel häufiger aber lassen Namen und Phrasen mehrere Interpretationen zu. Um dies zu illustrieren, betrachten wir den Satz: „Page played Kashmir on his Gibson.“ Handelt es sich hier um den Google-Gründer Larry Page, der sich mit dem Schauspieler und Regisseur Mel Gibson am Rande des Himalaja trifft? Das macht offensichtlich keinen Sinn! Menschen erkennen dies aufgrund ihres Erfahrungsschatzes sofort, die Maschine jedoch muss das systematisch und algorithmisch analysieren. Tatsächlich ist hier die Rede von dem Led-Zeppelin-Gitarristen Jimmy Page, der den Song Kashmir auf einer Les-Paul-Gitarre der Firma Gibson spielt.

    Um einen Satz aber wirklich zu verstehen, muss die Maschine auch die Beziehungen zwischen den beteiligten Entitäten erkennen und semantisch interpretieren. So kann sich das Verb „play“ auf Spiele, Sport, Musik, Trickserei und vieles mehr beziehen. Die Wahrscheinlichkeit, dass „play“ im Sinne der Relation MusicianPerformsSong verwendet wurde, ist eben sehr hoch, wenn die mehrdeutigen Namen „Page“ und „Kashmir“ auf einen Musiker und ein Musikstück hinweisen.

    Umgekehrt spricht in einem Satz, der „play“ mit der genannten Bedeutung von MusicianPerformsSong verwendet, vieles dafür, dass der Satz auch einen Musiker und einen Song erwähnt. Diese wechselseitigen Abhängigkeiten in der Interpretation der Verbal- und Nominalphrasen werden mithilfe von Optimierungsalgorithmen gelöst.

    Digitales Wissen in Kombination mit reichhaltiger Statistik und schlauen Algorithmen ermöglicht der Maschine also ein verblüffend tiefes Sprachverstehen. Und natürlich bleibt man nicht bei einzelnen Sätzen in Aussageform stehen, sondern betrachtet außerdem Fragen, ganze Absätze, lange Essays oder wissenschaftliche Publikationen und auch Dialoge mit dem Menschen.

    Ein schwieriges Beispiel für einen Fragesatz ist etwa: „Who did scores for westerns?“ Da muss man analysieren, dass sich „scores“ auf Filmmusik bezieht, mit „westerns“ Westernfilme gemeint sind und die saloppe Formulierung „did“ im Sinne der Relation ComposedMusic zu interpretieren ist. Mit diesem Sprachverständnis kann der Computer direkt eine Antwort aus seiner Wissensbasis liefern – etwa Ennio Morricone, der zum Beispiel die Musik zum Film Spiel mir das Lied vom Tod komponiert hat.

    Die Wissens- und Sprachtechnologie von Computern unterliegt heute noch massiven Grenzen. Oft steht und fällt alles mit dem Reichtum der zugrunde liegenden Statistiken oder dem Ausmaß an Training für Lernverfahren. Auch gibt es Sprachen wie Mandarin, die einer Syntaxanalyse schwer zugänglich sind und ein viel komplexeres Maß an Mehrdeutigkeit aufweisen als das Englische oder Deutsche. Bei manchen Sprachen wie Bambara oder Urdu existiert kein großer Korpus an digitalen Texten und damit auch keine umfassende Statistik.

    …. deren Fähigkeit den Turing Test zu bestehen…

    Wenn wir jedoch den Fortschritt des vergangenen Jahrzehnts extrapolieren, kann man womöglich schon im Jahr 2020 mit Leistungen rechnen, die dem Bestehen des anfangs erwähnten Turing-Tests nahe kommen. Wir könnten dem Computer ein Schullehrbuch über Biologie „zum Lesen“ geben – und der Rechner würde anschließend Fragen auf dem Niveau einer mündlichen Abiturprüfung beantworten. Oder man denke an ein Spiel, in dem man gemeinsam mit anderen Onlinenutzern mit einer virtuellen Version des britischen Kochs Jamie Oliver Speisen zubereitet. Damit Jamie auf die Fehler seiner Lehrlinge bei der Zubereitung von Tiramisu richtig reagieren kann, muss der Computer die Gespräche und Gesten, die Mimik und visuellen Eindrücke analysieren und mit seinem Kochkunstwissen kombinieren.

    …. und als beratende Assistenten zu fungieren

    Im Bereich der medizinischen Diagnose gab es vor dreißig Jahren den heute belächelten Versuch automatischer Expertensysteme. Dieses damals gescheiterte Unterfangen rückt heute in variierter Form in Reichweite. Man stelle sich einen Arzt vor, der mit einem Patienten dessen Symptome und die Ergebnisse der ersten Labortests bespricht. Dabei hört der Computer zu und übernimmt die Rolle des beratenden Assistenten. Mit seinem enzyklopädischen Fachwissen kann dieser digitale Assistent entscheidende Hinweise liefern auf Diagnosehypothesen, die sich ausschließen lassen, oder zusätzliche Untersuchungen empfehlen, die unterschiedliche Hypothesen spezifisch diskriminieren. Der Computer kann sich auch als Gesprächspartner einschalten, mit Fragen an den Arzt oder den Patienten. In diesem Zukunftsszenario hat die Maschine eine sehr wesentliche Rolle, überlässt aber Entscheidungen und Verantwortung dem menschlichen Experten.

    Wir werden potenziell zum Spielball von Effekten, um die wir nicht gebeten haben.

    Digitales Wissen und intelligentes Sprachverstehen machen nicht bei Nachrichten, prominenten Personen und Allgemeinwissen halt, sondern sind auch methodische Bausteine, um Wissen über uns alle und unsere Vorlieben zu sammeln und für smarte Empfehlungen und Mensch-Maschine-Interaktionen zu nutzen. Die Quelle dafür sind unsere vielfältigen Interaktionen mit dem Internet – sei es über unsere Mitgliedschaften in sozialen Netzen oder über unser Smartphone und alles, was wir mit ihm machen.

    Damit werden wir potenziell auch zum Spielball von Benutzertracking, Werbung und anderen Effekten, um die wir nicht unbedingt gebeten haben. Im Jahr eins nach dem NSA-Skandal ist offensichtlich, wie stark unser aller Privatsphäre dadurch beeinträchtigt werden kann. Dabei spielt digitales Hintergrundwissen eine wesentliche Rolle, wie das folgende fiktive Szenario vor Augen führt:

    Zoe, eine junge Frau aus Namibia, die in Europa studiert, stellt Fotos und anderes Material auf ihre Seite in einem sozialen Netzwerk. Dort empfiehlt sie ihren Freunden außerdem Filme und Musik, unter anderem die grönländische Indie-Rock-Sängerin Nive Nielsen. Zoe ist im Netzwerk unter ihrem richtigen Namen bekannt und verfügt über ein öffentliches Kurzprofil.

    Zoe hat Probleme mit ihrer Schilddrüse, nimmt das Medikament Synthroid („levothyroxine“) und leidet unter Nebenwirkungen. Sie findet ein Onlineforum zu Gesundheitsthemen, wird unter einem Pseudonym Mitglied und beteiligt sich an Diskussionen. Zu guter Letzt benutzt Zoe auch Suchmaschinen, um nach alternativen Medikamenten zu recherchieren, etwa Levothroid, aber auch nach Filmen über Apartheid oder nach ihrer Lieblingssängerin Nive Nielsen. Die Suchmaschinen erkennen Zoe nur als anonymen Nutzer, aber ein Internetbeobachter der Tracking- und Targeting-Branche kann ihre Such- und Clickhistorie über einen längeren Zeitraum sammeln.

    Dieses vermeintlich harmlose Szenario hat es in sich. Ein Algorithmus mit Hintergrundwissen könnte Verknüpfungen zwischen Zoes drei Identitäten in der digitalen Welt herstellen. Der Angreifer könnte mithilfe einer Wissensbasis ermitteln, dass Synthroid und Levothroid Arzneien für dieselbe Art von Unterfunktion der Schilddrüse sind. Zusammen mit weiteren Hinweisen könnte er dann schließen, dass es sich im Gesundheitsforum und in der Suchhistorie um ein und dieselbe Person handelt.

    Zudem gibt es eine extrem geringe statistische Wahrscheinlichkeit, dass sich zwei verschiedene junge Frauen aus Afrika für dieselbe grönländische Sängerin und andere Nicht-Mainstream-Themen interessieren. Der Angreifer kann somit die Suchhistorie mit Zoes Identität im sozialen Netzwerk verknüpfen. Schließlich folgt, dass Zoe dieselbe Person sein muss, die über ihre Schilddrüsenprobleme im Gesundheitsforum diskutiert. Das öffnet die Tür für unerwünschte Werbemails, mögliche Probleme mit der Krankenversicherung und andere – mehr als nur unangenehme – Konsequenzen.

    Was wir hier skizziert haben, ist eine automatisierte Attacke auf Zoes Privatsphäre. Sie lebt von genau jener Wissens- und Sprachtechnologie des Computers, die wir zuvor als Segen und Hilfe für den Men-schen angesehen haben. Eine systematische, nachhaltig wirkende Gegenmaßnahme könnte selbst auf digitalem Wissen und Sprachverstehen beruhen: ein persönliches Softwarewerkzeug, genannt Privacy Advisor. Es beobachtet kontinuierlich Zoes Verhalten im Internet, kennt ihre Aktivitäten und Vorlieben. Und es analysiert permanent das Risiko, inwieweit Zoe kritische Dinge von sich preisgibt, die ein mächtiger Angreifer ausnutzen könnte. Wenn das Werkzeug Alarm schlägt, sollte es Zoe die Lage erklären und vorschlagen, wie sie sich alternativ zu verhalten hat, um das Risiko zu verringern.

    Der Privacy Advisor

    ist ein Konzept, das tatsächlich in hohem Maße auf maschinellem Wissen und Sprachverstehen basiert. Gegenüber potenziellen Angreifern besitzt es jedoch einen Vorteil: Es verfügt nicht nur über Welt- und Allgemeinwissen, sondern darüber hinaus auch über sehr persönliche Kenntnisse von Zoe. Damit Zoe dem Werkzeug vertrauen kann, muss es selbst als Open-Source-Software konzipiert und durch zahlreiche Programmierer überprüft sein. Seine Leistungsfähigkeit erhält es durch die an Zoe angepasste Konfiguration und die persönliche Wissensbasis.

    An der Realisierung dieser Vision arbeiten Michael Backes (Universität des Saarlandes), Peter Druschel und Rupak Majumdar (Max-Planck-Institut für Softwaresysteme) sowie der Autor im Rahmen des durch einen ERC Synergy Grant geförderten Projekts im-PACT [2]. Das Projekt zielt auf ein wissenschaftlich fundiertes Verständnis aller relevanten Dimensionen des sozialen Basars, zu dem sich das Internet entwickelt hat, und ihrer potenziellen Spannungen: Zusätzlich zur Privatsphäre (Privacy) sind die Verantwortlichkeit der Nutzer (Accountability), die Spezifikationstreue von Diensten (Compliance) und das Vertrauen in Information und Wissen (Trust) fundamentale Pfeiler, die ein künftiges Internet haben sollte.

    Ausblick

    Dieser Artikel hat beleuchtet, inwieweit der Computer Wissen und Sprache – intellektuelle Fähigkeiten, die dem Menschen vorbehalten zu sein scheinen – zu erwerben vermag. Dabei haben wir gesehen, dass Maschinen heute digitales Wissen in großem Umfang automatisch sammeln und organisieren und für ein immer besser werdendes Sprachverständnis nutzen. Die folgenden Thesen mögen zum weiteren Nachdenken und Diskutieren anregen:

    Maschinen werden dem Menschen in nicht zu ferner Zukunft in vielen Anwendungssituationen haushoch überlegen sein, wie etwa beim Beantworten wissensintensiver Fragen oder der automatischen Zusammenfassung langer Texte oder ganzer Korpora und deren Aufbereitung für Analysen. Maschinen werden auch in der Lage sein, Abiturprüfungen zu bestehen. Dem Bestehen des Turing-Tests werden Maschinen damit sehr nahe kommen. Man kann dies als Simulation intelligenten Verhaltens ansehen, die auf Wissen, Statistik und Algorithmen beruht. Für den Effekt in Anwendungen ist es irrelevant, ob wir es mit „künstlicher“ oder „echter“ Intelligenz zu tun haben.

    In Situationen, die Einfühlungsvermögen und kognitive Flexibilität erfordern, wird die Maschine dem Menschen nicht wirklich überlegen sein, sich aber als unverzichtbarer Assistent erweisen. Ein Beispiel dafür ist die Hilfe bei medizinischen Diagnosen, wo der Computer als nahezu vollwertiger Gesprächspartner für Arzt und Patient fungieren kann. Es wird aber auch immer Situationen geben, in denen uns die Maschine nicht zu imitieren vermag: Humor, Ironie, Flirten und andere Emotionen bleiben sicher noch lange dem Menschen vorbehalten.

    Da Computer zunehmend die Bedeutung von Texten in sozialen Medien analysieren und Zusammenhänge zwischen Begriffen herstellen, eröffnen sich ihnen völlig neue Anwendungsmöglichkeiten – aber nicht nur zum Besten der Nutzer: Das semantische Verständnis befähigt die Maschinen auch, uns Menschen umfassender zu analysieren. Doch wir müssen uns dem nicht ausliefern: Schließlich können wir Computern beibringen, uns mit ihrem Sinn für Bedeutungen und Zusammenhänge zu warnen, wenn wir im Internet zu viele Informationen preisgeben, die Algorithmen zu detaillierten Persönlichkeitsprofilen verknüpfen könnten.


    [1] Der im Wissenschaftsmagazin der Max-Planck Gesellschaft MPF 1/14 http://www.mpg.de/8161388/MPF_2014_1.pdf erschienene, gleichnamige Artikel wurde mit freundlicher Zustimmung der MPG-Wissenschafts- und Unternehmenskommunikation ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert. [2] Das Projekt „imPACT“ gewann im Dezember den mit 10 Millionen € dotierten ERC Synergy Grant, der die höchste Auszeichnung der Europäischen Union darstellt. Das Projekt hatte sich beim europaweiten Wettbewerb gegen rund 450 Projekte durchgesetzt. Siehe auch Video (3:00 min): http://sr-mediathek.sr-online.de/index.php?seite=7&id=22310&startvid=2 ;


    Anmerkungen der Redaktion

    Sprachverständnis und ›Hausverstand‹

    Nicht unerwähnt bleiben sollte in diesem Zusammenhand die Cycorp Corporation, deren Inferenzmaschine (kann logische Schlussfolgerungen ziehen) cyc Sprachverständnis auf semantischem Niveau anstrebt. (Cycorp selbst spricht sogar von einer Ontologie.)

    Cycorp stellt unter dem Namen OpenCyc die vollständige Engine unter einer freien Lizenz zur Verfügung.

    Turing-Test

    Brandaktuell: Vor wenigen Tagen hat Medienberichten zufolge eine Software erstmals den Turing-Test bestanden.

    Allerdings nicht in der vom Autor beschriebenen Variante, nach der man dem System ein Lehrbuch zu lesen gibt und dann darüber spricht, sondern ›nur‹ in einem allgemeinen Gespräch, wobei das System vorgab, ein 13-Jähriger Ukrainer zu sein. Keine Artificial Intelligence im oben beschriebenen Sinne also, aber dennoch eine bemerkenswerte Leistung. Auch andere Kritik wurde geäußert.

    Weiterführende Links

    Homepage Max-Planck-Institut für Informatik: http://www.mpi-inf.mpg.de/de/home/

    Semantic knowledge bases from web sources (2011). Hady W. Lauw, Ralf Schenkel, Fabian M. Suchanek, Martin Theobald, Gerhard Weikum. Video 45:08 min (Englisch) http://videolectures.net/ijcai2011_t5_semantic/

    For a Few Triples More. G. Weikum, Keynote lecture at ISWC 2011, Bonn, Video 1:05:32 (Englisch) http://videolectures.net/gerhard_weikum/


    Interview mit Gerhard Weikum (Siemens): http://www.siemens.com/innovation/apps/pof_microsite/_pof-spring-2011/_h...


     

    inge Fri, 20.06.2014 - 06:48

    Der weltberühmte Entwicklungsbiologe Walter Gehring ist tot

    Der weltberühmte Entwicklungsbiologe Walter Gehring ist tot

    Fr, 13.06.2014 - 05:18 — RedaktionIcon Wissenschaftsgeschichte

    Walter Gehring hat fundamentale Prinzipien der molekularen Entwicklungsbiologie entdeckt: die sogenannten Homeobox-Gene lösten die Frage, wie der Bauplan mehrzelliger Organismen in der Embryonalentwicklung festgelegt wird, das Homeobox-Gen Pax6 stellte sich als Hauptschalter in der Entwicklung des Auges in allen Tieren heraus - der Beweis, dass alle unterschiedlichen Augentypen – von den Plattwürmern bis hin zum Menschen - vom selben Prototyp abstammen. Über dieses letztere Thema hat Walter Gehring ScienceBlog.at einen Artikel: Auge um Auge - Entwicklung und Evolution des Auges gewidmet. Walter Gehring verstarb am 29. Mai an den Folgen eines schweren Verkehrsunfalles.

    Walter GehringWalter Gehring (2014), ein faszininierender Wissenschafter von ansteckender Fröhlichkeit (Bild: Wikipedia)

    Walter Gehring war mit Leib und Seele Wissenschafter. Er strahlte Begeisterung für seine Forschungsgebiete aus und konnte diese auch auf andere übertragen. Dass er Entwicklungsbiologie wurde, führte er auf ein frühkindliches Erlebnis zurück, das ihn offensichtlich für sein weiteres Leben prägte. Er hat gerne davon erzählt, etwa mit folgenden Worten:

    „Als ich ein kleiner Bub war, schickte mir mein Onkel eine große Schuhschachtel, die viele kleine Löcher im Deckel hatte. Meine Mutter hat mir den beigelegten Brief vorgelesen. Drinnen stand, dass in der Schachtel ein paar Schmetterlingspuppen wären, und daß wir sie für’s Überwintern auf den Dachboden stellen sollten, damit im Frühling daraus Schmetterlinge würden. Ich war sehr neugierig und öffnete gleich die Schachtel, sah aber nur braungefleckte Kreaturen, die sich nicht bewegten und dachte, daß sie vermutlich beim Transport gestorben wären. Meine Mutter versicherte mir, daß die Puppen keinen Schaden erlitten hatten, wir stellten sie auf den Dachboden und ich vergaß darauf. Im Frühjahr habe ich auf dem Dachboden gespielt und die Schuhschachtel wieder gesehen und geöffnet. Da waren aus den Puppen wunderbare Schmetterlinge geworden.“[1]

    Die Frage, wie eine derartige Verwandlung der Puppe zum Schmetterling erfolgen konnte, ließ Walter Gehring nicht mehr los. Sein zentrales Forschungsgebiet beschäftigte sich auch später mit den Mechanismen, welche die Entwicklung von mehrzelligen Organismen steuern: Wie es kommt, dass jede Zelle ihren festlegten Platz findet und ihre spezifische Funktionen erhält – obwohl doch jede einzelne Zelle die gleiche Erbinformation enthält. Von seinen fundamentalen Beiträgen zur Entwicklungsbiologie sollen im Folgenden nur zwei kurz umrissen werden, welche universelle Prinzipien darstellen.

    Die Homeobox – Rosettastein der Entwicklungsbiologie

    Als Doktorand des Entwicklungsbiologen Ernst Hadorn in Zürich machte Gehring eine entscheidende Entdeckung an der Taufliege Drosophila, die auch später das primäre Modell für seine Untersuchungen blieb. Eine Mutante dieser Fliege („Antennapedia“) trug anstelle von Fühlern (Antennen) Beine am Kopf. Gehring vermutete, daß das Gen, welches die Mutation trug, ein übergeordnetes Gen sein müsse, welches die Kaskade der in die Bildung von Antennen und Beinen involvierten Gene regulieren würde. Später wurde es klar, dass derartige Gene – sogenannte homeotische Gene - die Bildung der unterschiedlichen Körpersegmente aller Organismen und somit deren Grundbaupläne bestimmen. Mit molekularbiologischen Methoden konnte Gehring in diesen homeotischen Genen einen kurzen (180 Nukleotidbausteine langen) DNA-Abschnitt identifizieren, der für die Regulation der in die Bildung der Köpersegmente involvierten Genkaskaden bestimmend ist, und er benannte diesen „Homeobox“. Er wies auch nach, dass derartige Homeobox-Gene in allen Vielzeller-Organismen über die Evolution hoch konserviert sind und klärte in Zusammenarbeit mit Kurt Wütthrich den Mechanismus der Homeobox-Regulierung im atomaren Detail auf.

    Das Pax6-Gen und die „Frankensteinfliege“

    Mit dem Homeobox-Pax6- Gen entdeckte Walter Gehring ein weiteres fundamentales Prinzip der Entwicklungsbiologie: Mutationen in diesem Gen blockieren die Entwicklung der Augen bereits in frühesten Stadien. Mit seinem Experiment Pax6 an verschiedenen Stellen der Fliege – ektopisch – zu exprimieren, gelang es ihm die Bildung von funktionsfähigen Facettenaugen an völlig unerwarteten Stellen – an Beinen, Fühlern, Flügeln - zu induzieren. Das Bild einer Fliege mit 14 roten Augen an verschiedensten Körperstellen ging um die Welt – die „Frankensteinfliege“ sorgte für negative Schlagzeilen.

    Pax6 ist ein Masterkontrollgen – eine Art Hauptschalter. Mit molekulargenetischen Untersuchungen konnte Walter Gehring zeigen, daß die verschiedenen Augentypen, die man im Tierreich findet, alle durch Pax6 gesteuert werden und somit – monophyletisch auf einen gemeinsamen Prototyp zurückgehen. Eine ausführliche Darstellung dieses Themas hat Walter Gehring in seinem ScienceBlog Artikel Auge um Auge - Entwicklung und Evolution des Auges gegeben.

    Das Vermächtnis, das Walter Gehring hinterlässt, umfasst nicht nur seine sehr zahlreichen, hochzitierten Veröffentlichungen (Hirsch-Faktor 92), er hat am Biozentrum in Basel auch eine höchst erfolgreiche Gehring-Schule geschaffen, in der Doktoranden, Postdoktoranden und Wissenschafter aus aller Welt aus- und eingingen, von denen einige höchste Auszeichnungen erlangten - Christiane Nüsslein-Volhard und Eric Wieschaus – beides Postdoktoranden erhielten den Nobelpreis.

    Für seine bahnbrechenden Beiträge zur Entwicklungsbiologie hat Walter Gehring selbst zahlreiche hohe Auszeichnungen erhalten, u.a. den Orden «Pour le Mérite», den Balzan Preis, den Kyoto-Preis. Eine detaillierte Auflistung sowie sein Curriculum vitae sind unter http://scienceblog.at/walter-jakob-gehring und [2] nachzulesen. Für diejenigen die Walter Gehring näher kannten, wird er stets als faszinierender Wissenschafter und großartiger Vortragender, ebenso wie als humorvoller, fröhlicher und warmherziger Freund in Erinnerung bleiben.

    [1] The Journey of a Biologist http://www.gehring.biozentrum.unibas.ch/media/Autobiogr_BalzanDOC.pdf

    [2] http://www.gehring.biozentrum.unibas.ch/cv.html

    Weiterführende Links

    Zum Ableben von Walter Gehring, audio: http://www.srf.ch/player/radio/rendez-vous/audio/schweizer-entwicklungsb...

    Zur Verleihung des Balzan-Preises: http://www.balzan.org/de/preistrager/walter-gehring

    Evolution of the eye
    http://www.youtube.com/watch?v=7jEhzAn1hDc&feature=related 2:34 min (Englisch)

    International workshop on Evolution in the Time of Genomics (7 – 9 May 2012)- part 07. 1:27:37. Vortrag von Walter Gehring rund 30 min (ab: 38 min). (in Englisch; setzt etwas an biologischen Grundkenntnissen voraus). http://www.youtube.com/watch?v=fdZJTmHO4is


     

    inge Fri, 13.06.2014 - 07:07

    Biologie der Stille. Das Wunder des Hörens – und des Schweigens

    Biologie der Stille. Das Wunder des Hörens – und des Schweigens

    Fr, 06.06.2014 - 07:20 — Gottfried Schatz

    Icon BiologieGottfried Schatz

    Unser Gehör ist von allen fünf Sinnen die schnellste und empfindlichste Sinneswahrnehmung. Es lässt uns Töne mit sehr knapp auseinander liegenden Frequenzen unterscheiden, ermöglicht eine präzise Orientierung im Raum und warnt vor Gefahren. Haarzellen, welche die zentrale Rolle im komplexen Vorgang des Hörens spielen, reagieren allerdings hochempfindlich auf zu lautes oder zu langes Beschallen..

    Vor einigen Jahren kam mir die Stille abhanden. Sie verschwand unbemerkt und hinterließ in meinen Ohren ein sanftes Zirpen, das in lautlosen Nachtstunden Erinnerungen an schläfrige Sommerwiesen meiner Kindheit weckt - und mich an das Wunder meines Hörsinns erinnert.

    Meine Ohren messen Luftdruckschwankungen und senden das Messresultat als elektrische Signale an das Gehirn. Keiner meiner Sinne ist schneller. Die Augen können höchstens zwanzig Bilder pro Sekunde unterscheiden - die Ohren reagieren bis zu tausendmal rascher. So erschließen sie uns das Zauberreich der Klänge von den schimmernden Obertönen einer Violine, die etwa zwanzigtausendmal pro Sekunde schwingen, bis hinunter zum profunden Orgelbass mit fünfzehn Schwingungen pro Sekunde. Keiner meiner Sinne ist präziser.

    Ich kann Töne unterscheiden, deren Schwingungsfrequenzen um weniger als 0,05 Prozent auseinander liegen. Und keiner meiner Sinne ist empfindlicher, denn mein Gehör reagiert auf schallbedingte Vibrationen, die kleiner als der Durchmesser eines Atoms sind. Da meine zwei Ohren nicht nur die Stärke eines Schalls, sondern auch sein zeitliches Eintreffen mit fast unheimlicher Präzision untereinander vergleichen, sagen sie mir, woher ein Schall kommt, und schenken mir auch im Dunkeln ein räumliches Bild der Umgebung. Und dabei sind meine Ohren Stümper gegen die einer Eule, die eine raschelnde Maus in völliger Dunkelheit und aus großer Entfernung mit tödlicher Präzision orten kann.

    Haarfein

    Das Organ, das diese Wunderleistungen vollbringt, ist kaum grösser als eine Murmel und lagert sicher in meinem Schläfenbein (Abbildung 1).

    Aufbau des menschlichen OhresAbbildung 1. Aufbau des menschlichen Ohres. Schallwellen gelangen durch den äußeren Gehörgang an das Trommelfell und versetzen es in Schwingungen, die via Gehörknöchelchen – Hammer, Amboss, Steigbügel - über das Mittelohr und das ovale Fenster an die Schnecke im Innenohr übertragen werden. (Bild: Wikipedia)

    Sein Herzstück ist ein mit Flüssigkeit gefüllter spiraliger Kanal (Cochlea – Schnecke), dem zwei elastische Bänder als Boden und Decke dienen. Am Bodenband sind wie auf einer Wendeltreppe etwa zehntausend schallempfindliche Zellen stufenartig aufgereiht, die, wie Rasierpinseln, an der Oberseite feine Haare tragen (Stereocilia, Abbildung 2).

    Knochenraum der SchneckeAbbildung 2. Querschnitt durch den spiralenförmig gewundenen Knochenraum der Schnecke (links). Der Steigbügel drückt auf die wässrige Flüssigkeit im Innern der Schnecke und erzeugt eine Wanderwelle; diese erregt die Haarzellen am Bodenband der Schnecke (rechts) zur Umwandlung der mechanischen Schwingungen in elektrische Signale, welche über die Nervenbahnen (gelb) an das Hörzentrum im Gehirn weitergeleitet werden. (Bild: OpenStax College. Anatomy & Physiology, OpenStax-CNX Web site. Creative commons license)

    Diese Wendeltreppe ist vom Mittelohr durch eine feine Membran getrennt (ovales Fenster). Wird diese zum Schwingen angeregt, überträgt sie die Schwingung auf die Flüssigkeit und die beiden elastischen Bänder der spiraligen Wendeltreppe und verbiegt dabei die Haarspitzen der schallempfindlichen Zellen. Selbst die winzigste Verformung dieser Spitzen ändert die elektrischen Eigenschaften der betreffenden Zelle und erzeugt ein elektrisches Signal, das über angekoppelte Nervenbahnen fast augenblicklich die Gehörzentren des Gehirns erreicht. Jede Haarzelle unterscheidet sich wahrscheinlich von allen anderen in der Länge ihrer Haare und der Steife ihres Zellkörpers. Da eine Struktur umso langsamer schwingt, je grösser und flexibler sie ist, sprechen die verschiedenen Haarzellen auf verschieden hohe Töne an. Die Ansprechbereiche der einzelnen Zellen überlappen jedoch; mein Ohr berücksichtigt diese Überlappungen und kann mir so ein differenziert-farbiges Klangbild liefern.

    Warum reagieren die Haarzellen meiner Ohren so viel schneller als die Netzhaut meines Auges? Wenn Licht auf die Netzhaut fällt, setzt es eine Kette relativ langsamer chemischer Reaktionen in Gang, die schliesslich zu einem elektrischen Signal führen. Wenn dagegen ein Ton die Haarzellen verformt, öffnet er in den Membranen der Haarzelle Schleusen für elektrisch geladene Kalium- und Kalziumionen und erzeugt damit augenblicklich ein elektrisches Signal. Während unsere Augen also erst das Feuer unter einer Dampfmaschine entfachen müssen, die dann über einen Dynamo Strom erzeugt, schliessen unsere Ohren den Stromkreis einer bereits voll aufgeladenen Batterie.

    Die Haarzellen unseres Gehörs sind hochverletzlich.

    Werden sie zu stark oder zu lang beschallt, sterben sie und wachsen nie mehr nach. Für die Entwicklung unserer menschlichen Spezies waren empfindliche Ohren offenbar wichtiger als robuste, denn mit Ausnahme von Donner, Wirbelstürmen und Wasserfällen sind extrem laute Geräusche eine «Errungenschaft» unserer technischen Zivilisation. Rockkonzerte, Düsenmotoren, Discos und Presslufthämmer bescheren uns immer mehr hörgeschädigte Menschen, die überlaute Musik bevorzugen und damit auch ihre Mitmenschen gefährden. Selbst ohne hohe Schallbelastung verliert unser Ohr mit dem Alter unweigerlich Haarzellen, vor allem solche für hohe Töne. Die meisten älteren Menschen können deshalb Töne, die schneller als achttausendmal pro Sekunde schwingen, nicht mehr hören. Im Allgemeinen ist dies kein Problem, doch für Konzertgeiger, die schnell schwingende Obertöne hören müssen, um in hohen Lagen rein zu intonieren, kann es das Ende der Karriere bedeuten. Schwerhörigkeit und Taubheit sind für unsere Gesellschaft ein viel gewichtigeres und teureres Problem als Blindheit.

    Interpunktion

    Die Qualität einer Sinnesempfindung hängt, wie die jedes Signals, vom Rauschabstand ab - von dem Verhältnis von Signalstärke zu zufälligem Hintergrundrauschen. Ein gesundes Ohr kann noch Geräusche wahrnehmen, die über eine Million Mal schwächer sind als solche, die an der Schmerzgrenze liegen. Dieser eindrückliche Rauschabstand schenkt uns nicht nur eine reiche Klangpalette, sondern lässt uns auch komplexe akustische Signale virtuos entschlüsseln. Hoher Rauschabstand ermöglicht Stille zur rechten Zeit - und auch die ist ein Signal. Was wären die drei Anfangsschläge von Beethovens «Eroica»-Sinfonie ohne die darauffolgende Pause? Ist es nicht vor allem das dramatische Anhalten vor wichtigen Aussagen, das eine meisterhafte Rede kennzeichnet? Und als Ludwig Wittgenstein schrieb: «Wovon man nicht sprechen kann, darüber muss man schweigen», meinte er vielleicht, dass auch Logik die Interpunktion präzise gesetzter Stille fordert.

    Warum verweigert mir mein Gehör jetzt diese Stille? Senden einige meiner Hörnerven nach dem Tod ihrer Haarzellen-Partner Geister-Signale ans Gehirn? Oder können meine alternden Haarzellen ihre Membranschleusen für elektrisch geladene Teilchen nicht mehr richtig schliessen?

    Die Zellen meines Körpers arbeiten deshalb so gut zusammen, weil sie nur die Gene anschalten, die sie für ihre besonderen Aufgaben gerade brauchen. Meine Zellen wissen viel, sagen aber stets nur das Nötige. In einer typischen Zelle meines Körpers sind die meisten Gene still. Doch nun, da mein alternder Körper sie nicht mehr so fest wie früher im Griff hat, werden sie unruhig. Meine Haut bildet spontan braune Pigmentflecken, und auf meinen Ohrläppchen spriessen einige regelwidrige Haare. Wenn nur nicht ein Gen, welches das Wachstum meiner Zellen fördert, seine Schweigepflicht zur falschen Zeit und am falschen Ort verletzt und mir die Diagnose «Krebs» beschert! Für die Funktion von Genen ist präzises Schweigen ebenso wichtig wie präzises Sprechen. Auch Gene kennen den Wert der Stille.


    Der Artikel ist Teil des Themenschwerpunkts „Sinneswahrnehmung“.


    Weiterführende Links

    Das Ohr - Schulfilm Biologie 3:58 min

    Wie hören wir? Gehör I Ohren 3:51 min

    Wie funktioniert das Ohr? 4:46 min

    Hermann von Helmholtz untersucht das Hören "Ich bin ganz Ohr" 4:08 min. Der Film entstand im Auftrag von Prof. Dr. Armin Stock von der Universität Würzburg, Adolf-Würth-Zentrum für Geschichte der Psychologie (http://www.awz.uni-wuerzburg.de/archi...) und wird hier innerhalb der ständigen Ausstellung gezeigt.

    Cochlear animation 1:11 min

    inge Fri, 06.06.2014 - 07:20

    Fibrinkleber in der operativen Behandlung von Leistenbrüchen — Fortschritte durch „Forschung made in Austria“

    Fibrinkleber in der operativen Behandlung von Leistenbrüchen — Fortschritte durch „Forschung made in Austria“

    Fr, 29.05.2014 - 23:16 — Alexander Petter-Puchner & Heinz Redl

    Alexander Petter-PuchnerHeinz Redl Bei der Leistenbruchoperation werden heute Kunststoffnetze zur Verstärkung des Verschlusses eingesetzt. Die Fixierung dieser Netze mit Klammern und Nähten kann infolge der Verletzung von Nerven und Gefäßen dauerhafte Schmerzen verursachen. Die Anwendung des am LBI Trauma entwickelten Fibrinklebers führt zur schnellen und zuverlässigen Netzfixation ohne Gewebeschädigung und daher minimalen postoperativen Beschwerden.

    Leistenbruchoperationen sind die häufigsten allgemeinchirurgischen Eingriffe überhaupt. In Österreich ist jeder 4. Mann und jede 10. Frau betroffen. Häufig bleiben Leistenbrüche (Leisten- oder Inguinalhernien) unbemerkt oder verursachen über lange Zeit keine oder kaum Beschwerden. Inguinalhernien stellen Bruchlücken der unteren Leibeswand dar, durch die Inhalt aus der Bauchhöhle austreten und einklemmen kann (Abbildung 1). LeistenbruchAbbildung 1. Leistenbruch (Inguinalhernie). Links: Bei Schwachstellen in der Bauchwand entstehen sogenannte Brüche im Bereich des Leistenkanals. Rechts: Schematischer Aufbau einer Inguinalhernie; Beschreibung im Text (Bilder modifiziert nach: Wikimedia und http://www.surgwiki.com/wiki/File:Ch40-fig1.jpg )

    Anatomie des Leistenbruchs

    Hernien bestehen aus einer Bruchpforte (im Fall der Inguinalhernien entlang des Samenleiters beim Mann oder unmittelbar abgesetzt davon direkt in der Bauchwand), einem Bruchsack und Bruchsackinhalt (Abbildung 1, rechts). Meist handelt es sich dabei um Anteile des sogenannten großen Netzes (eine Fettschürze, die im Bauchraum auf dem Darmkonvolut liegt) oder Dünndarmschlingen, die in den Bruchsack der Hernie rutschen können. Manchmal sind aber auch Anteile des Dickdarmes bei linksseitigen bzw. der Wurmfortsatz (Appendix) bei rechtseitigen Hernien im Bruchsack zu finden.

    Kann der Inhalt von selbst oder durch sanften manuellen Druck wieder zurückgleiten, spricht man von reponiblen Hernien. Ist der Inhalt eingeklemmt (inkarzeriert), muss davon ausgegangen werden, dass eine Mangeldurchblutung des betroffenen Gewebes vorliegt und es besteht eine Indikation zur akuten bzw. dringlichen Operation. Genauso verhält es sich, wenn eine Reposition zwar gelingt, diese aber, zB durch verzögerten Arztbesuch, erst Stunden nach der Inkarzeration erfolgt. Ist lediglich Fettgewebe inkarzeriert, wird diese Situation von den Patienten oft lange (über Jahre) toleriert, bis aufgrund einer akuten Durchblutungsstörung durch Nachrutschen von Bruchsackinhalt oder zusätzliches Einklemmen von Darmanteilen die Beschwerden schlagartig massiv werden. Die Beschwerden sind grundsätzlich ähnlich wie bei einer akuten Bauchfellentzündung, bzw. eines akuten Darmverschlusses und bestehen in plötzlich einsetzenden Bauchschmerzen mit Hartwerden der Bauchwand rund um die Bruchpforte, sowie plötzlicher Übelkeit und Erbrechen.

    Grundsätzlich ist anzumerken, dass sehr große Hernien (größerer Durchmesser der Bruchpforte) weniger zur Inkarzeration neigen, da der Inhalt leichter hin-und hergleiten kann. Es besteht bei großen Hernien jedoch die Tendenz zu rascher, weiterer Größenzunahme, da es durch die Schwerkraft zum voranschreitenden Eintritt von Fettgewebe und Darmschlingen in den Bruchsack kommen kann. In der Literatur sind Fälle beschrieben, in dem das gesamte Darmkonvolut aus dem Bruchsack monströser Inguinalhernien im Zuge aufwendiger Operationen reponiert werden musste. Hodenbrüche (oder Skrotalhernien) bestehen, wenn im Zuge der Größenzunahme des Bruchsackinhaltes, dieser in den Hodensack (Skrotum) absinkt. Diese Bruchform besteht zumeist bei älteren Patienten, die wegen fehlendem Leidensdruck oder hohem Operationsrisiko bei kardiovaskulären Begleiterkrankungen erst spät in der chirurgischen Sprechstunde vorstellig werden.

    Schenkel- oder Femoralhernien unterscheiden sich von Inguinalhernien durch die unterschiedliche Lokalisation der Bruchlücke. Inguinalhernien sind, wie durch die Bezeichnung ersichtlich, Schwachstellen der anatomisch klar definierten Leistenregion, während Femoralhernien an der Austrittsstelle aus dem Becken für die großen Gefäße der unteren Extremitäten zutage treten und bei Frauen häufiger sind als bei Männern.

    Die operative Behandlung von Leistenbrüchen

    In der Behandlung von Inguinalhernien kommen „offene“ (über Leistenschnitt, zB OP nach Lichtenstein) und minimal-invasive Verfahren (mit Kamera in Schlüssellochtechnik, zB „TAPP, TEP“) zum Einsatz. Die Implantation von Kunststoffnetzen aus Polypropylen oder Polyester zur Verstärkung des Verschlusses ist mittlerweile „state of the art“.

    Obwohl durch die Einführung spannungsfreier, netzunterstützter Operationsmethoden sowohl die Rezidivrate (Häufigkeit des Wiederauftretens einer Hernie nach OP), als auch den chronischen Schmerz nach der Operation im Gegensatz zu reinen Nahtmethoden (Shouldice, Bassini-OP) drastisch gesenkt werden konnte, waren die Ergebnisse besonders hinsichtlich des Schmerzes und der Lebensqualität bis vor kurzem noch immer enttäuschend. In großen, internationalen Studien berichteten noch immer mehr als 5% aller Patienten von Dauerschmerzen nach Operationen zum Verschluss von Inguinalhernien mit Kunststoffnetzen. Eine eingehende Analyse des Problems konnte die Netzfixation, d.h. die Techniken, mit denen man die Netze am Gewebe festmacht, als die Hauptursache für das Entstehen chronischer Schmerzen identifizieren. Die bis dahin verwendeten Nähte und Klammern verursachen durch die unbeabsichtigte und unvermeidliche Verletzung von Nerven und Gefäßen dauerhafte Schmerzen mit einer oft beträchtlichen Beeinträchtigung des privaten, sozialen und beruflichen Alltages (Abbildung 2).

    Perforierende NetzfixationAbbildung 2. Die Rolle perforierender Netzfixation in der Schmerzentstehung. 30 Jahre alte Patientin, Status nach 2 laparoskopischen Leistenoperationen. Die roten Pfeile markieren die verwendeten Klammern. Die resultierende Nervenverletzung führte zu 18 Monaten Krankenstand. Dies hätte durch Netzfixation mit Fibrinkleber vermieden werden können.

    Es ist selbstredend, dass diese Situation - abgesehen von der individuellen Betroffenheit (gestörtes Freizeit-und Sexualverhalten junger männlicher und weiblicher Patienten) - auch dem Gesundheitssystem enorme Kosten durch lange Krankenstände und eingeschränkte Produktivität aufbürdet. Es entwickelte sich also die Suche nach besseren und weniger schmerzhaften Fixationstechniken von Herniennnetzen (analog bei Bauchwand-, Nabel- und Zwerchfellhernien, die ebenfalls mit Netzen verschlossen werden) zu einem Forschungsziel ersten Ranges.

    Fibrinkleber: Forschungsschwerpunkt am Ludwig Boltzmann Institut für experimentelle und klinische Traumatologie (LBI Trauma)

    Seit den 1970er-Jahren wird am LBI Trauma in Wien intensiv am Einsatz von Fibrinkleber in vielen medizinischen Bereichen gearbeitet [siehe dazu ScienceBlog Artikel: [1],[2].

    Fibrinkleber bedient sich zweier wesentlicher Komponenten der natürlichen Gerinnungskaskade des Menschen: Fibrinogen und Thrombin. Fibrinogen und Thrombin bilden ein hochelastisches Geflecht, an dem sich die weißen Blutplättchen (Thrombozyten) anlagern. Gemeinsam dient dieser Thrombus dem Verschluss von Gefäßverletzungen (siehe [2]). Der so entstandene Thrombus ist nicht nur extrem elastisch, sondern auch stabil, wird aber vom Körper innerhalb von 10-14 Tagen auch wieder abgebaut. Fibrinkleber eignet sich daher zur

    • Blutsstillung,
    • zur Abdichtung von Gefäßnähten,
    • von Lungengewebe im Rahmen von Tumoroperationen,
    • sowie zur lokalen Verbesserung der Wundheilung nach Haut- und/oder Muskeltransplantationen,
    • zur Behandlung von Verbrennungen und Deckung großer Defekte der Körperoberfläche.

    Die verbesserte Wundheilung durch Fibrinkleber ist durch den hohen Gehalt an Wachstumsfaktoren für Bindegewebe und Gefäße zu erklären.

    Fibrinkleber in der Hernienchirurgie…

    Alle diese Eigenschaften ließen Fibrinkleber auch für die Anwendung zur Klebung von Kunststoffnetzen in der Hernienchirurgie interessant erscheinen. Die Arbeitsgruppe am LBI Trauma nahm im Jahre 2004 die Arbeit zu diesem Thema auf. Die klar definierten Ziele waren:

    • Die Reduktion postoperativen Schmerzaufkommens,
    • Vergleichbare Fixationssicherheit wie mit Klammern und Nähten.

    Es galt dabei jedoch mit dem chirurgischen Dogma zu brechen, dass es für eine gute Einheilung (Integration) der Netze unabdingbar wäre, diese anfangs möglichst fest an der Unterlage anzubringen.

    …führt zur schnellen und zuverlässigen Netzfixation ohne Gewebeschädigung…

    Interessanterweise konnte rasch demonstriert werden, dass das flächenhafte Aufbringen, das mit einem Kleber möglich ist (während Nähte und Klammern stets nur punktuell halten), in einer hervorragenden mechanischen Festigkeit resultiert und dass die Integration des Netzes durch die verbesserte Anpassung an die Unterlage ebenfalls beschleunigt und stimuliert wird.

    Darüber hinaus ist es erwähnenswert, dass die mechanische Festigkeit der Netzfixation mit Fibrinkleber über die ersten Tage kontinuierlich zunimmt. Der Kleber härtet nach Aufbringen noch weiter aus (er polymerisiert) und wird dann rasch von körpereigenen Zellen durchdrungen, die sich so frühzeitig an der Fixation des Netzes beteiligen. Nur 12 Tage nach dem Aufbringen des Fibrinklebers ist dieser vollständig abgebaut und das Netz sicher integriert. Der Fibrinkleber verursacht keinerlei Gewebsschädigung und kann auch in anatomischen Regionen der Leiste das Netz sichern, in welchen Nähte und Klammern wegen sich dort verzweigender Nervengeflechte nicht gesetzt werden sollen.

    In den Experimenten am LBI konnte die zuverlässige Netzfixation mit Fibrinkleber einwandfrei gezeigt werden. Dabei wurden ca. 20 verschiedene Netze eingesetzt, um den Einfluss der Materialien, sowie der Webart (Porengröße, Netzgewicht, etc.) zu ermitteln. Außerdem wurden diverse Arten der Kleberapplikation (in Tropfen, als Spray - ) und verschieden Kleberkonzentrationen (wechselnder Thrombingehalt) getestet. Wie ein in Schlüssellochoperationen verwendeter Spraykopf für Fibrinkleber aussieht, ist in Abbildung 3 dargestellt.

    Spraykopf des LBIAbbildung 3. Der im LBI Trauma entwickelte Spraykopf für die laparoskopische Fibrinkleber-Applikation

    …und minimalen postoperativen Beschwerden

    Die Frage nach dem Schmerzaufkommen und der Lebensqualität nach Leistenbruchoperationen mit Netzklebung konnte danach nur in einer chirurgischen Spitalsabteilung beleuchtet werden. In Kooperation mit der Abteilung für Allgemein-, Tumor und Viszeralchirurgie im Wilhelminenspital in Wien [3] wurden mehrere klinische Studien durchgeführt, die zeigen konnten, dass Patienten, die in dieser neuen Technik behandelt wurden, über exzellente Zufriedenheit und minimale Schmerzsymptomatik (beschränkt auf die unmittelbare Phase) berichteten. Diese Studien verglichen die Fibrinkleber-Netzfixation bei Leistenhernienoperationen in offener und minmal-invasiver (laparoskopischer) Technik mit den bis dahin angewandten Techniken mit Klammern [4]. In beiden Techniken (Lichtenstein und TAPP) konnte durch die Netzfixation mittels Fibrinkleber das postoperative Schmerzaufkommen bereits vor der Entlassung (im Durchschnitt 3 Tage nach der OP) reduziert und die Lebensqualität über mindestens 1 Jahr nach der Operation signifikant verbessert werden. Bei der Studienplanung konnte auf die eigenen Erkenntnisse aus den vorangegangenen Experimenten zurückgegriffen werden, was v.a. bei der Auswahl eines geeigneten Netzproduktes sehr hilfreich war. Im Zuge der klinischen Anwendungen im Rahmen dieser Studien wurden auch die Gerätschaften zum Sprayen des Fibrinklebers verbessert und weiterentwickelt (Abbildung 4).

    Die erfreulichen Resultate der klinischen Studien wurden wie die experimentellen Vorarbeiten in internationalen, chirurgischen Topjournalen veröffentlicht und trugen zusammen mit zeitgleich erschienenen Arbeiten anderer Studiengruppen zur Übernahme der Fibrinkleber Netzfixation als Standardtechnik in den Empfehlungen der wichtigsten europäischen Fachgesellschaften bei.

    Fazit

    Die Kooperation*) des LBI Trauma mit dem Wilheminenspital am Gebiet der Herniennetzfixation mit Fibrinkleber ist ein gelungenes Beispiel der Translation von in der Grundlagenforschung gewonnenen Erkenntnissen in die Klinik mit rasch sicht- und messbarer Verbesserung der Behandlung. In diesem konkreten Fall ist der Nutzen durch die große Zahl betroffener Patienten und die signifikante Verbesserung der wichtigsten Messgrößen, Schmerz und Lebensqualität, als besonders hocheinzuschätzen.


    [1] H.Redl: Forschungszentrum – Reparaturwerkstatt – Gewebefarm. — Das Ludwig Boltzmann Institut für Experimentelle und Klinische Traumatologie

    [2] H.Redl: Kleben statt Nähen – Gewebekleber auf der Basis natürlichen Fibrins

    [3] Abteilung für Allgemein-, Tumor und Viszeralchirurgie im Wilhelminenspital in Wien (Vorstand K.Glaser)

    [4] Studienleiter R.H. Fortelny, http://www.fortelny.at/index.html. Ergebnisse an rund 6000 Patienten sind bescrieben in: R H. Fortelny, A.H. Petter-Puchner, K.S. Glaser, H. Redl; Use of fibrin sealant (Tisseel/Tissucol) in hernia repair: a systematic review. Surg Endosc (2012) 26:1803–1812


    *) An der Kooperation von LBI Trauma und Wilheminenspital zur Herniennetzfixation mit Fibrinkleber beteiligt sind:

    Alexander Petter-Puchner (Autorenprofil),

    René H. Fortelny, Facharzt für Chirurgie, Leitung und Aufbau der experimentellen Herniengruppe am LBI Trauma, Leitung des zertifizierten Hernienzentrums an der Abteilung für Allgemein-, Tumor und Viszeralchirurgie im Wilhelminenspital.

    Simone Gruber-Blum, Projektleiterin in der Forschungsgruppe zur Behandlung von Bauchwanddefekten im LBI Trauma, Ausbildungsassistentin an der Abteilung für Allgemein-, Tumor und Viszeralchirurgie im Wilhelminenspital.

    Heinz Redl, Direktor des LBI Trauma, Autorenprofil.

    Karl Glaser, Vorstand der Abteilung für Allgemein-, Tumor und Viszeralchirurgie im Wilhelminenspital, Wien


    Weiterführende Links

    A. Petter-Puchner beschreibt die Technik der Netzfixation mittels Fibrinkleber in Chirurgie, 1 (2014) p. 14: How I do it: Netzfixierungen bei der laparoskopischen Hernienchirurgie (PDF-Download)

    Ludwig Boltzmann Institut für experimentelle und klinische Traumatologie (LBI Trauma) Minimal –invasive Operation eines Leistenbruchs in TAPP Technik (Netzfixierung mit Fibrinkleber), Video: 9:18 min M.K. Terris (2009) Use Of Tissue Sealants And Hemostatic Agents (Slide show, English) B. Iyer (2013) Tissue sealant essentials (Slide show, English) DB111 Tisseel Gewebekleber Video 2:47 min


     

    inge Thu, 29.05.2014 - 23:16

    Gibt es einen Newton des Grashalms?

    Gibt es einen Newton des Grashalms?

    Fr, 23.05.2014 - 06:36 — Peter Schuster Icon MINTPeter Schuster

    Die von Isaac Newton aufgestellten Gesetze beschreiben den Aufbau des Universums aus unbelebter Materie. Lässt sich aber die Entstehung eines Lebewesens, beispielsweise eines Grashalms, aus unbelebter Materie erklären? Kant hat diese Frage verneint. Die modernen molekularen Lebenswissenschaften scheinen jedoch imstande zu sein, die Kluft zwischen unbelebter und lebender Materie zu schließen.

    Im Jahr 1790 stellte Immanuel Kant in seiner „Kritik der Urteilskraft“ die berühmte Behauptung auf, dass es wohl nie einen „Newton des Grashalms“ geben werde, weil der menschliche Geist nie fähig sein würde zu erklären, wie Leben aus unbelebter Materie entstehen könne (Originaltext in Abbildung 1).

    Kant: Critik der Urtheilskraft, §75Abbildung 1. Immanuel Kant: Critik der Urtheilskraft, §75 (Zweyte Auflage, bey F.T.Lagarde, Berlin 1793; Bild: kant.bbaw.de)

    Eben als ein solcher „Newton des Grashalms“ wurde Charles Darwin rund 70 Jahre später von dem deutschen Naturalisten Ernst Haeckel gefeiert. Allerdings teilten die Zeitgenossen Haeckels keineswegs die Begeisterung über Darwin und auch heute ist sie endendwollend, wenn auch die bahnbrechende Rolle von Darwins Untersuchungen keineswegs in Zweifel gezogen wird.

    Die amerikanische Physikerin, Molekularbiologin und Philosophin Evelyn Fox Keller meint dazu, daß es einfach falsch ist, Darwin als einen Newton der Biologie zu betrachten: Darwin selbst habe ja systematisch vermieden sich die Frage zu stellen, wie Leben aus unbelebter Materie entstehen könne. Seine natürliche Selektion beginne ja erst mit der Existenz lebender Zellen.

    Kants Satz hat eine philosophische Dimension, in welcher das populäre Problem der Entstehung von Leben angesprochen wird - ein Aspekt, der hier nicht weiter verfolgt werden soll. Gleichzeitig wird aber auch eine historische und eine naturwissenschaftlich, technische Seite ersichtlich. Diese lässt sich auf das Problem reduzieren, ein Gebäude der modernen Biologie auf einem gesicherten Fundament von Physik und Chemie und unterstützt durch die Mathematik zu errichten oder - anders ausgedrückt - die Trennung zwischen Physik und Chemie auf der einen Seite und Biologie auf der anderen Seite zu überbrücken. Wie die Beziehung zwischen diesen Fachgebieten im Licht der historischen Entwicklung bis zu den modernen Lebenswissenschaften zu sehen ist, ist Gegenstand des vorliegenden Artikels.

    Die Liaison zwischen Mathematik und Physik

    markiert den Anfang der Naturwissenschaften in der westlichen Welt – ein Bündnis, das sich als überaus stabil und ungemein erfolgreich erwiesen hat. Zwei populäre Zitate aus der Vergangenheit unterstreichen dies:

    Galileo Galilei meinte „Das Buch der Natur ist in der Sprache der Mathematik geschrieben und ihre Buchstaben sind Dreiecke, Kreise und andere geometrische Figuren, ohne die es ganz unmöglich ist auch nur einen Satz zu verstehen, ohne die man sich in einem dunklen Labyrinth verliert“[1].

    Und Immanuel Kant formulierte „Ich behaupte nur, dass in jeder besonderen Naturlehre nur so viel eigentliche Wissenschaft angetroffen werden könne, als darin Mathematik anzutreffen ist.“ [2] Die Mathematik stellte und stellt von Anfang an die Hilfsmittel zur Verfügung, um physikalische Phänomene quantitativ zu erfassen, die Physik befruchtet seit jeher die Mathematik und lässt aus dieser neue Disziplinen entstehen. Eine Vielzahl neuer und sehr erfolgreicher Entwicklungen in der Mathematik hatte ihren Ursprung in Problemen der Physik, die auf ihre Formalisierung in der Mathematik warteten. Als eindrucksvolles Beispiel dafür steht hier die Differentialgleichung, welche - am Ende des 17. Jahrhunderts von Isaac Newton und Gottfried Leibniz unabhängig entwickelt - zur Grundsäule physikalischer Berechnungen wurde. In der Jetztzeit hat die gegenseitige Befruchtung von Mathematik und Physik zur Dynamischen Systemtheorie und hier insbesondere zur Theorie des Deterministischen Chaos geführt.

    Viele andere Beispiele könnten angeführt werden; zu den bestbekannten zählen die Relativitätstheorie und die Quantenmechanik in der ersten Hälfte des 20.Jahrhunderts; ebenso die Theorie der Brownschen Bewegung, der Diffusion und die Entwicklung mathematischer Formalismen zur Beschreibung stochastischer (zeitlich geordneter, zufälliger) Prozesse.

    Fazit: Die heutige Mathematik wäre nicht dieselbe, hätte nicht die intensive und fruchtbare gegenseitige Wechselwirkung mit der Physik stattgefunden.

    Die Kluft zwischen Biologie und Mathematik

    Die Wechselwirkung der Biologie mit der Mathematik ist grundlegend anders als die von Physik und Mathematik und die Entwicklung der wissenschaftlichen Betrachtungsweise verlief anders.

    Im Mittelalter waren mathematische Modelle im Bereich der Lebenswissenschaften durchaus bekannt: ein Beispiel ist das im 13. Jahrhundert von Fibonacci erstellte Modell der Vermehrung von Kaninchen (Abbildung 2).

    Fibonacci: Liber abbaciAbbildung 2. „Quot paria coniculorum in uno anno ex uno pario germinentur“. Der italienische Mathematiker Leonardo da Pisa, genannt Fibonacci („filius Bonacij“), beschreibt in seinem Liber abbaci („Buch der Rechenkunst“, ca. 1227) wie viele Kaninchenpaare innerhalb eines Jahres aus einem einzigen Paar entstehen (Voraussetzung: jedes Paar bringt ab dem zweiten Lebensmonat monatlich ein weiteres Paar zur Welt). Bild: Wikipedia

    Ein herausragendes Beispiel einer erfolgreichen Abstraktion eigener Beobachtungen und von Beobachtungen, die Andere aufzeichneten, ist das von Charles Darwin aufgestellte Prinzip der Evolution. Das ungemein komplexe Phänomen der Evolution wird hier auf drei essentielle Parameter reduziert: Vermehrung, Variation und Selektion. Allerdings stellt dies Darwin in seinem Buch „Über die Entstehung der Arten“ dar ohne eine einzige mathematische Formel zu gebrauchen. Auch das 125 Jahre später (1984) erschienene Buch „Die Entwicklung der Biologischen Gedankenwelt“ des deutsch-amerikanischen Evolutionsbiologen Ernst Walter Mayr kommt ohne eine mathematische Gleichung aus. Sogar das berühmte Buch „Über Wachstum und Form“ (1917) von D’Arcy Thompson, das als Beginn der mathematischen Biologie angesehen wird, enthält nur sehr wenig Mathematik.

    Die offensichtlich zwischen Biologie und Mathematik bestehende Kluft wird auch ersichtlich, wenn man das Zusammenführen von Genetik und Evolutionstheorie betrachtet. Die Gründungsväter der Populationsgenetik – R.A. Fisher, J.B.S. Haldane und S. Write – hatten bereits in den 1920 – 1930er Jahren ein Modell erstellt, das die Darwinsche Selektion und die Mendelsche Genetik in sich vereinte. Es sollte aber noch mehr als 20 Jahre dauern bis ein derartiges vereinigendes Konzept, von experimentell arbeitenden Biologen in Angriff genommen, in eine sogenannte „Synthetische Theorie“ mündete. Diese verzögerte Aufnahme macht den Unterschied zur Physik besonders deutlich: wann immer dort eine neue Theorie am Horizont physikalischen Denkens erscheint, bricht eine Hektik unter allen renommierten, experimentell arbeitenden Gruppen aus, um dieses Konzept zu unterstützen oder zu widerlegen.

    Zugegeben, die Dinge in der Biologie erscheinen viel, viel komplexer als in der Physik und darüber hinaus besteht auch begründete Skepsis gegenüber der Theoretischen Biologie in der Vergangenheit.

    Warum ist die Theorie in der Physik so erfolgreich?

    Ein Grund ist sicherlich die Tatsache, daß Theoretische Physik auf Mathematik wurzelt und auf Fragestellungen präzise Antworten liefert. Experimentalphysik ist erstaunlich erfolgreich darin, Messungen mit hoher Präzision auszuführen, die mit den Vorhersagen der Theorie in Einklang stehen oder diesen auch widersprechen. Der Determinismus – die Vorstellung, daß alle Ereignisse durch Vorbedingungen eindeutig festgelegt sind – hat die frühe Entwicklung der Physik, bis in die zweite Hälfte des 19. Jahrhunderts, bestimmt. Als dann unregelmäßige Vorgänge auf atomarem Niveau Eingang ins physikalische Denken fanden, waren die untersuchten Ensembles so groß, dass statistische Betrachtungen kaum eine Rolle spielten.

    Im Unterschied zur Physik haben Gesetzmäßigkeiten, die man in der Biologie beobachtet, fast immer einen inhärent statistischen Charakter – die Mendelschen Gesetze der Vererbung sind hier ein prominentes Beispiel. Da mit kleinen Ensembles oder wenigen Objekten gearbeitet wird, die darüber hinaus nicht einheitlich sind, können einzelne Experimente schlecht oder gar nicht reproduzierbar ausfallen.

    Experimentell zugängliche Bezugsysteme in der Physik…

    Eine mathematische Beschreibung läuft auf eine Reduktion hinaus: eine beobachtete Regularität kann nur dann mathematisch formuliert werden, wenn auf einen Aspekt oder auf nur sehr wenige Aspekte Bezug genommen wird und nur eine kleine Zahl an sonstigen Eigenschaften wichtig genug erscheint, um als Parameter eingeführt zu werden. Die Erstellung eines mathematischen Modells wird enorm erleichtert, wenn ein experimentell zugängliches Bezugsystem mit reduzierter Komplexität existiert.

    Newtons Bezugsystem war das der Himmelsmechanik (Abbildung 3). Ohne sein Genie kleinreden zu wollen - die Entwicklung der Theorie der Anziehung der Massen (Gravitation) wäre wohl verzögert oder vielleicht sogar unmöglich gewesen, hätten damals die Kenntnisse der Planetenbewegung gefehlt. Diese, durch die Gesetze der Massenanziehung verursachten Bewegungen hatten sich am Himmel frei von Komplikationen wie Reibung, Wind, Thermik und anderen Phänomenen beobachten lassen, Komplikationen, die in der Erdatmosphäre den Vorgang des freien Falls „verschleiern“. Es scheint mir alles andere als eine einfache Abstraktion zu sein, aus den alltäglichen Beobachtungen zu schließen, dass alle Körper senkrecht mit derselben Beschleunigung (und Geschwindigkeit) fallen!

    …und in der Biologie

    Verglichen mit der Physik – deren Anfänge häufig mit den Entdeckungen von Archimedes im 3. vorchristlichen Jahrhundert gleichgesetzt werden - ist die Biologie eine relativ junge Disziplin, deren Name überhaupt erst anfangs des 19. Jahrhunderts auftaucht.

    Abgesehen von der riesig großen Zahl an unterschiedlichen molekularen „Akteuren“, der Komplexität der Wechselwirkungen zwischen diesen und der Multidimensionalität der biologischen Netzwerke (Abbildung 3), besteht in der Biologie das Problem ein geeignetes Bezugssystem zu finden. Es fehlt eine „Himmelsbiologie“ (in Anlehnung an Newtons Himmelsmechanik), die essentielle Eigenschaften ohne entbehrliche Komplikationen abbildet. Kopernikanische Planetenbahnen (links); Protein-Protein-Wechselwirkungen in der Hefe (rechts)Abbildung 3. Die Planetenbahnen im kopernikanischen Weltbild: links (Quelle: Scenograph systematis copernicani, Andreas Cellarius: Harmonia macrocosmica seu atlas universalis et novus, totius universi creati cosmographiam generalem, et novam exhibens. 1661) und Systembiologische Darstellung des Netzwerks der Protein-Protein Wechselwirkungen in Hefe: rechts (Bild: Hawoong Jeong, KAIST, Korea; MIT OpenCourseWare)

    Dies bewirkt auch die unterschiedliche Einstellung, die Experimentatoren in Biologie und Physik zu Theorie und Mathematik zeigen. Welche Ergebnisse in der Biologie durch mathematische Theorien erzielt wurden, ohne geeignete Bezugssysteme (weil damals unbekannt) zu haben, soll hier an Hand von zwei Beispielen illustriert werden: i) der Mendelschen Genetik und ii) der embryonalen Entwicklung (Morphogenese).

    i) Gregor Mendel erkannte die statistische Natur der Vererbung von Merkmalen und er postulierte, daß die Erbinformation in Paketen gespalten vorliegt („Segregationsregel), die aus einem Pool heraus voneinander unabhängig rekombiniert werden (Unabhängigkeitsregel)[3]. Erst 100 Jahre später zeigte die Molekularbiologie, wie in der Reduktionsteilung der Keimzellen (Meiose) Segregation und Rekombination tatsächlich verlaufen. Mendel hatte zwar noch kein passendes Bezugssystem für seine Theorie, seine Abstraktion der Vorgänge und die daraus gezogenen Schlussfolgerungen stellten sich aber als richtig heraus.

    ii) Alan Turing veröffentlichte 1952 eine faszinierende, bahnbrechende Arbeit zur chemischen Basis der Morphogenese und initiierte damit einen höchst erfolgreichen Forschungszweig, der sich mit der spontanen Ausbildung von Strukturen (pattern formation) in chemischen Reaktions-Diffusionssystemen befasste. Der Anwendung seines Modells auf die biologische Musterbildung – Turings ursprüngliches Ziel – war über die Zeit hin jedoch kein Erfolg beschieden. Die auf Basis der nicht-linearen Dynamik von Produktion und Diffusion von Signalmolekülen berechneten Muster zeigten nur geringe quantitative Übereinstimmung mit den experimentellen Beobachtungen und reagierten überdies enorm empfindlich auf Randbedingungen – schienen also nicht stabil genug zu sein um die Entwicklung eines Organismus zu gewährleisten. Der Grund war im unpassenden Bezugssystem zu finden: wie Untersuchungen am Embryo der Taufliege zeigten, startet die Pattern Formation nicht in einem homogenen Medium, sondern in bereits räumlich separierten Strukturen [4]. Auf die aufgeklärten molekularbiologischen Vorgänge soll hier nicht weiter eingegangen werden.

    Die moderne Biologie

    unterscheidet sich von der Biologie der Vergangenheit in vielfacher Hinsicht. Ich möchte drei Aspekte herausgreifen, die relevant erscheinen, den eingangs diskutierten Kantschen Satz vom Newton des Grashalms einer Revision zu unterziehen:

    i) Eine Fülle neuer experimenteller Techniken eröffnet heute den Zugang zur Analyse der „Chemie lebender Systeme“. Die daraus resultierenden, exponentiell wachsenden Datenmengen sind von enormer Bedeutung für jegliches tiefere Verständnis von „Leben“. Zu deren weltweiter Sammlung und Speicherung in frei-zugänglichen Datenbanken wurde bereits viel erreicht. Zweifellos bedarf es einer Theoretischen Biologie, welche das Rüstzeug bietet alle diese Information in brauchbarer Form abzurufen, ebenso einer Standardisierung der aus vielen unterschiedlichen Quellen stammenden, multidisziplinären Daten und vor allem einer neuen, systematischen Sprache, welche das derzeitige, auf Laborjournalen basierende Kauderwelsch ablöst.

    ii) Der Mechanismus der Evolution, der zentrale Punkt der Biologie, konnte auf ein zellfreies molekulares System reduziert werden, welches - solange man im wesentlichen auf den Selektionsprozeß fokussiert ist - ein vollständiges bottom-up Modellieren in chemischen Reaktionssystemen ohne Kompartimentierung und unter völliger Kontrolle der Bedingungen erlaubt. Dieser Ansatz hat eine neue Richtung in der Biotechnologie begründet, welche das Prinzip der Evolution ausnützt, um neue, für definierte Zwecke maßgeschneiderte Moleküle zu designen.

    iii) Computer Simulationen in der Systembiologie zielen auf ein Zusammenführen von holistischen und reduktionistischen Ansätzen hin, um – basierend auf den molekularen Lebenswissenschaften - die Eigenschaften von ganzen Zellen bis hin zu vollständigen Organismen zu modellieren. Der Ansatz der rechnergestützten Problemlösung, Analyse und Vorhersage ist zu einem gleichwertigen Partner der Mathematik-basierten Theorie und des Experiments geworden. Die enorme Steigerung der Rechnerleistung, ebenso wie die Entwicklung hocheffizienter Algorithmen machen die Untersuchung großer, stark wechselwirkender Netzwerke möglich, welche der mathematischen Analyse nicht zugänglich sind.

    Um schlussendlich die Titelfrage zu beantworten:

    Ich bin der Überzeugung, daß es einen Newton des Grashalms geben wird. Darwin war kein derartiger Newton, da er die Kluft zwischen unbelebter und lebender Materie nicht schließen konnte. Die modernen molekularen Lebenswissenschaften sind dazu imstande, indem sie das molekulare Niveau als Bezugssystem zur Erstellung von Modellen wählen, welche den Vorteil bieten auf einem ziemlich sicheren Grund zu stehen.


    [1] Galileo Galilei: II Saggiatore (1623) Edition Nazionale, Bd. 6, Florenz 1896, S. 232

    [2] Immanuel Kant: "Metaphysische Anfangsgründe der Naturwissenschaft, A VIII"(1786)

    [3] Mendel, G. 1866. Versuche über Pflanzen-Hybriden. Verhandlungen des Naturforschenden Vereins zu Brünn 4: 3-47 (PDF-Downlaod).

    [4] StJohnston, D., Nüsslein-Volhard, C. 1992. The Origin of Pattern and Polarity in the Drosophila Embryo. Cell 68:201-219 Weiterführende Literatur zu einzelnen Aspekten dieses Artikels sind auf Anfrage vom Autor erhältlich.


    Weiterführende Links

    Artikel zu verwandten Themen im Blog unter:

    Peter Schuster

    Zum Ursprung des Lebens

    Gottfried Schatz

    Christian Noe

     

    Siehe auch: Themenschwerpunkt Evolution


     

    inge Fri, 23.05.2014 - 06:36

    Rezept für neue Medikamente

    Rezept für neue Medikamente

    Fr, 16.05.2014 - 05:18 — Peter Seeberger

    Icon MedizinPeter SeebergerIm 20. Jahrhundert hat die Pharmaindustrie, zumal in Deutschland, die Entwicklung neuer Wirkstoffe entscheidend vorangetrieben. Aber in jüngerer Zeit wurde, nicht zuletzt aus Kostengründen die Forschung deutlich zurückgeschraubt. Dabei brauchen wir dringend neue Wirkstoffe gegen Krebs, Demenz und viele weitere Krankheiten. In den Entwicklungsländern ist das Problem existenziell. Der Chemiker Peter Seeberger, Direktor am Max-Planck Institut für Kolloid- und Grenzflächenforschung in Potsdam, plädiert für ein radikales Umdenken – und die Einbeziehung der Grundlagenforschung*.

    Die Lebenserwartung in Deutschland hat sich seit 1900 fast verdoppelt und ist allein zwischen 1960 und 2008 von 70 auf 80 Jahre gestiegen. Verbesserte Hygiene und Ernährung hatten an dieser Entwicklung einen sehr großen Anteil. Ein weiterer Grund ist sicher die Verbesserung der medizinischen Versorgung. Immer neue Medikamente haben uns die Angst genommen, an ehemals tödlichen Krankheiten wie bakteriellen Infektionen zu sterben. Impfstoffe verhindern, dass wir an viralen und bakteriellen Krankheiten wie Polio erkranken. Selbst bis vor Kurzem noch tödliche Erkrankungen wie HIV bedeuten heute zumindest kein Todesurteil mehr.

    Seit Anfang des 20. Jahrhunderts hat die pharmazeutische Industrie die Entwicklung der verschiedenen Wirkstoffe vorangetrieben. In dieser Zeit erwarb sich Deutschland wegen vieler Arzneientwicklungen den Titel „Apotheke der Welt“ und wurde zum Vorbild für diese Branche in vielen anderen Ländern. Wenn man bedenkt, was die Produkte der Pharmaindustrie zum Wohl der Bevölkerung insgesamt beigetragen haben, dann mag es verwundern, wie wenig Sympathie dieser Industriezweig genießt. In Umfragen erreichen etwa die Automobilhersteller ein weit besseres Ansehen.

    Die Pharmaindustrie gilt als reich, mächtig und intrigant. An diesem Ruf ist die Branche nicht völlig schuldlos. Es ist sicher richtig, Verfehlungen anzuprangern und zukünftigen Fehlentwicklungen vorzubeugen. Dabei darf die Kritik an Bayer, Sanofi und anderen jedoch nicht dazu führen, die Gesamtsituation aus den Augen zu verlieren. Denn die Entwicklung der Branche muss uns Sorgen machen.

    Die Krise der Pharmabranche

    Weltweit steckt die Pharmabranche in einer massiven Krise, die seit einem Jahrzehnt anhält. Während die Pharmariesen noch immer große Gewinne einfahren, kannibalisieren sie ihre wissenschaftliche Substanz zunehmend. Natürlich muss man sich fragen, ob das Wohl sehr rentabler Firmen wirklich gesellschaftlich von Belang ist. Gleichzeitig aber stockt die Arbeit an neuen Medikamenten und Impfstoffen – eine Situation, die für die Allgemeinheit besorgniserregend ist.

    Das Problem beginnt damit, dass die Entwicklung neuer Medikamente immer riskanter und damit teurer wird. Heute betragen die entsprechenden Kosten pro Medikament oder Impfstoff zwischen 500 Millionen und 1,3 Milliarden Euro (Abbildung 1). Die Kostenexplosion hat viele Gründe. Einerseits sind die „einfachen“ Medikamente bereits auf dem Markt, andererseits verkompliziert der wissenschaftliche Fortschritt die Entwicklung der Medikamente. Und die Regulationsbehörden kontrollieren mit verbesserten Analysemethoden dementsprechend mehr.

    Kosten MedikamenteAbbildung 1. Die Kosten um ein neues Medikament oder ein “Biologischen“ Wirkstoff auf den Markt zu bringen sind explosionsartig gestiegen (links), nicht aber die Zahl der neuen Medikamente/Biologicals (rechts). Quelle: Efpia – The Pharmaceutical Industry in Figures.

    Trend zu Blockbuster

    Das hat schwerwiegende Auswirkungen auf die Firmenpolitik: Pharmaunternehmen konzentrieren sich derzeit auf die Entwicklung von blockbuster drugs; so werden Medikamente bezeichnet, die mehr als eine Milliarde Euro pro Jahr einbringen, meist deshalb, weil sie eine sehr häufige Krankheit in reichen Industrieländern lindern oder heilen. Nur noch mit solchen Wirkstoffen können die Firmen innerhalb weniger Jahre – bis zum Erlöschen des Patentschutzes – satte Renditen erzielen. Beliebt ist die Umwandlung tödlicher in chronische Krankheiten, denn die Patienten sind dann gezwungen, dauerhaft ein bestimmtes Medikament einzunehmen. Krankheiten wie Malaria, an denen vor allem Menschen in Schwellen- oder Entwicklungsländern leiden und sterben, sind für die Pharmaindustrie aus Kostengründen unattraktiv. Ebenso übrigens wie die Vermarktung teurer Medikamente in Ländern mit geringer Kaufkraft – was dazu führt, dass viele wichtige Wirkstoffe in Entwicklungsländern für die meisten Menschen unerschwinglich bleiben.

    Generika

    Eine oft geforderte (und in Indien staatlich durchgesetzte) Lösung ist: bestehende Patente aufheben und die Hersteller billiger Nachahmerpräparate, sogenannter Generika, fördern. Aus Sicht etwa der indischen Regierung lässt sich dieses Vorgehen völlig nachvollziehen. Und es ist kurzfristig sehr effektiv. Allerdings: Die Pharmafirmen der Industrieländer werden sich künftig noch weniger an kostspielige Forschung heranwagen, wenn sie danach mancherorts enteignet werden. Denn noch haben die Schwellenländer keine innovativen Pharmafirmen hervorgebracht, die neue Medikamente entwickeln, um die Gesundheitsprobleme der Region zu lösen. Es gibt Hoffnung, dass sich diese Situation irgendwann ändert. Aber momentan ist noch nichts außer Nachahmerpräparaten in Sicht – und oft nicht einmal das.

    Krebstherapeutika

    Ein Beispiel für die Kluft zwischen Industrie- und Schwellenländern sind die Krebspharmazeutika. In Europa ist derzeit jedes dritte Mittel, das neu auf den Markt kommt, ein Krebsmedikament. „Neu“ ist dabei nicht immer deutlich besser, sondern bedeutet oft nur eine minimale Veränderung im Vergleich zu bisherigen Wirkstoffen. In Deutschland gibt es jährlich etwa eine halbe Million Krebskranke, deren medikamentöse Behandlung mit diesen neuen Mitteln jeweils etwa 80.000 Euro pro Jahr kostet.

    Der Grund für diese erstaunliche Menge an neuen Medikamenten – nach Schätzungen sind etwa 600 bis 800 in der Entwicklung – sind nicht etwa die Zunahme von Krebserkrankungen oder verbesserte Behandlungsmethoden, sondern schlicht der Markt. Er ist das Regulativ, das die Medikamentenforschung, -versorgung und -produktion steuert. Krebsmedikamente machen nur zwei Prozent der verschriebenen Pharmazeutika aus, aber ein Viertel der Medikamentenkosten der Krankenkassen entstehen durch Krebsmedikamente. Aus diesem Grund gibt es viele neue Medikamente, auch wenn diese oft keinen grundlegenden Behandlungsfortschritt bedeuten.

    Das genau gegenteilige Bild bietet sich in den Schwellen- und Entwicklungsländern. Wie in den Industriestaaten sind auch dort Brust- und Gebärmutterhalskrebs die häufigsten Krebserkrankungen bei Frauen. In den Industrieländern gibt es gute Behandlungsmöglichkeiten und Medikamente. In Afrika dagegen bedeuten sie ein sicheres Todesurteil. Nach einer Diagnose, wenn es sie denn gibt, leben die Kranken im Durchschnitt noch etwa vier Monate – ohne jede Behandlung. Die Krebsmedikamente der Industriestaaten können sich nur die wenigsten Patienten in den afrikanischen Ländern leisten.

    Ähnliches gilt für China und Vietnam, wo die Menschen aufgrund verbesserter Lebensbedingungen und Gesundheitsversorgung immer älter werden und dadurch die Anzahl der Krebserkrankungen stark ansteigt. Auch in diesem Fall reguliert der Markt die Menge der Pharmazeutika. Da sich so gut wie niemand die teuren Arzneien der Industrieländer leisten kann und es auch keine Krankenkassen gibt, werden dort kaum Krebsmedikamente angeboten.

    Die Vorstellung, der Markt regele alles, ist also gleichzeitig richtig und falsch. Der Markt ist tatsächlich das Regulativ, aber diese Art der Regelung ist aus einer übergeordneten systemischen Sicht nicht immer sinnvoll. In den Entwicklungs- und Schwellenländern wäre eine Minimalversorgung mit Krebsmedikamenten äußerst sinnvoll, aber dazu müsste es neue, extrem billige Krebsmedikamente geben. Und die werden von den Pharmafirmen der Industrieländer nicht erforscht, weil billige Medikamente keine hohen Profitmargen haben.

    Der Wirkstoff Artemisinin

    Malariamedikamente, die aus dem aus einer Pflanze extrahierten Wirkstoff Artemisinin hergestellt werden, wirken auch gegen Krebs. Eine Artemisininbehandlung gegen Malaria kostet etwa einen Euro. Klinische Studien zeigen seit mehr als zehn Jahren, dass Artemisinin gegen viele Krebsarten ähnlich wirksam ist wie heutige Krebsmedikamente.

    Aber kein pharmazeutisches Unternehmen macht sich an die Zulassung von Artemisininderivaten als Krebsmittel, weil der Hersteller die hohen Kosten für die klinischen Zulassungsphasen zu tragen hätte, letztlich aber kein wirksames Patent anmelden könnte. Denn der Wirkstoff ist bereits als Malariamedikament zugelassen.

    So behindert die marktwirtschaftliche Logik die Erforschung und Zulassung eines massentauglichen Krebsmedikaments für Afrika, Asien – und letztlich auch für die Industriestaaten.

    Diese Fehlsteuerung ist nicht das Ergebnis finsterer Machenschaften böser Menschen in gierigen Pharmafirmen. Aber solche Missstände achselzuckend zur Kenntnis zu nehmen ist sicher nicht genug. Hier ist die politische und wissenschaftliche Intelligenz aufgerufen, innovative Lösungsansätze zu präsentieren. Eine Erkenntnis ist vielleicht, dass es für unterschiedliche gesellschaftliche Bedingungen ganz verschiedene Lösungsansätze braucht. „Die“ Pharmaindustrie mit einheitlicher Forschung für die ganze Welt ist vermutlich nicht die beste Lösung.

    Wie geht die Pharmabranche vor?

    Zurück zur Situation in den Industriestaaten. Als weiterer Effekt der hohen Entwicklungskosten, gepaart mit dem Druck der Finanzmärkte, lässt sich ein Konsolidierungskurs beobachten. Um Synergien zu nutzen, sind immer größere Pharmaunternehmen entstanden: Bayer etwa schluckte die Schering AG, Sanofi und Aventis fusionierten, wobei Aventis selbst aus der Fusion von Hoechst und Rhône-Poulenc hervorgegangen war. Abbildung 2 zeigt die Entstehung des bis vor kurzem weltgrößten Pharmaunternehmens Pfizer. Und mit der Größe der Konglomerate und ihrer Börsenwerte stieg auch in der Pharmaindustrie die Bedeutung des Shareholder Value.

    Akquisitionen PfizerFigure 2. Pfizer, der bis vor kurzem weltgrößte Pharmakonzern, hat zwischen 2000 und 2009 mehrere große Pharmakonzerne akquiriert, die selbst aus Fusionen und Übernahmen anderer Konzerne entstanden sind.

    Viele Firmen wurden daher mit Blick auf die Bilanzen optimiert: Wirtschaftlich gesehen, ist zum Beispiel die Forschung an neuen Medikamenten ein Risiko, das minimiert werden muss. Etwa, indem man fast alle Teile der Wertschöpfungskette solcher Entwicklungen in Billiglohnländer verlagert. Ja, das war kostensparend und – ein Pyrrhussieg! Denn es bedeutete auch einen massiven Verlust hoch qualifizierter Mitarbeiter in den Industrieländern.

    Freilich: Einschnitte in den Forschungsetats, etwa die Schließung von Zentrallabors, fallen kurzfristig am wenigsten auf. Langfristig ist diese Strategie aber existenzbedrohend. Seit einiger Zeit haben Firmen wie Pfizer keine eigenen neuen Medikamente mehr auf den Markt gebracht, sondern ausschließlich von Zukäufen gelebt, weil ihre Entwicklungspipelines leer waren. Von nichts kommt nichts. Und ein Pharmaunternehmen sollte idealerweise mehr sein als eine Bank mit Entwicklungsabteilung.

    Dass viele Pharmafirmen heute noch hohe Umsätze haben, liegt vor allem daran, dass sie sich erfolgreiche Produkte durch die Übernahme anderer Firmen einverleiben. Das täuscht über den großen Trend hinweg: Die Perspektive der ganzen Branche ist geradezu prekär. In Deutschland schließt die „Apotheke der Welt“, Generika werden billig im Ausland produziert, und Zehntausende hoch qualifizierter Arbeitsplätze sind auch in Europa und den USA bereits verloren gegangen – etwa bei Merck, Pfizer, AstraZeneca und fast allen anderen Pharmafirmen.

    Das Management der meisten großen Pharmaunternehmen hat natürlich die immensen Herausforderungen erkannt und versucht gegenzusteuern, um auch auf Dauer profitabel zu arbeiten. Doch die Begleitumstände sind alles andere als einfach: Neue Medikamente mit hohen Umsätzen zu entwickeln und gleichzeitig die Erwartungen der Finanzmärkte zu befriedigen ist extrem schwierig; das jedenfalls zeigen diverse fehlgeschlagene Versuche im vergangenen Jahrzehnt. Dabei tendieren die Pharmariesen zu einer Art Herdentrieb, gewissen Modeerscheinungen zu folgen.

    So wurden in der vergangenen Dekade von mehreren Firmen Milliardenbeträge in die RNAi Technologie (eine spezifische Stilllegung von Genen) investiert, die nach großen anfänglichen Hoffnungen keine Erfolge brachte. Oftmals aber feiern Produkte, an die man wenige Erwartungen geknüpft hat, immense kommerzielle Erfolge. Während bis ins Jahr 2000 die Regel galt, dass Impfstoffe zwar für Volkswirtschaften ein effektives Mittel seien, aber nur wenig Gewinne einbringen könnten, änderte sich das Denken mit Jahresumsätzen von ungefähr fünf Milliarden US-Dollar für den Pneumokokkenimpfstoff Prevenar durch Pfizer (entwickelt von Wyeth). Plötzlich sind auch Impfstoffe kommerziell interessante Produkte, wenn sie eine zahlungskräftige Kundschaft ansprechen. In den vergangenen fünf Jahren wurden mehrere Impfstofffirmen von größeren Pharmaunternehmen aufgekauft.

    Derzeit wird versucht, die eigene Forschung möglichst zu verkleinern, um Kosten und Risiken gering zu halten. Die Entdeckung neuartiger Therapie- und Diagnostikkonzepte soll an Forschungseinrichtungen und in kleinen Unternehmen stattfinden. Der Plan besteht darin, vielversprechende Verbindungen und Techniken einzukaufen, wenn die Risiken überschaubarer sind. Dann ist der Preis zwar höher, aber die Pharmaunternehmen können ihre Stärken ausspielen: Erfahrung in der klinischen Untersuchung und der Entwicklung – nicht mehr der Entdeckung! – von Medikamenten.

    Die immensen Kosten der späten Entwicklungsphase können nur große und finanzkräftige Unternehmen tragen. Das Risiko dieses Ansatzes sind natürlich die fehlende Kontrolle über die frühe Entwicklungsphase und die Gefahr, im Rahmen der Konkurrenz um die besten Projekte zu viel zu bezahlen.

    Von der Gewinnmaximierung zur „Gesundheitsmaximierung“

    Dabei besteht dringender Handlungsbedarf: Wir brauchen essenziell neue Wirkstoffe gegen Krebs, Demenz und viele weitere Krankheiten. In den Entwicklungsländern ist das Problem existenziell. Dort werden vor allem Impfstoffe gegen Malaria, HIV/Aids und bakterielle Infektionskrankheiten benötigt. Es ist längst eine Binsenweisheit, dass ein gutes Gesundheitswesen wirksam gegen Überbevölkerung hilft – ganz anders, als Zyniker vermuten.

    Privatinitiativen wie die Bill & Melinda Gates Foundation sind ein erfolgversprechender Ansatz. Ihre Förderung bietet einen Anreiz für Unternehmen, an Medikamenten zu arbeiten, die ohne die Förderung nie entwickelt würden. Aber ein solches privates Mäzenatentum genügt nicht, um das Grundproblem zu lösen: Das derzeit praktizierte marktwirtschaftlich getriebene Modell der Wirkstoffentwicklung ist das beste, das ich kenne – aber es ist nicht gut genug.

    Wir alle werden radikal umdenken müssen: Das Ziel der Gewinnmaximierung muss von dem der „Gesundheitsmaximierung“ abgelöst werden. Dann würden wir Wirkstoffe ganz anders entwickeln. An Expertenwissen in Firmen und Forschungsinstituten mangelt es jedenfalls nicht. Allein meine Max-Planck-Arbeitsgruppe entwickelt zurzeit fünf neue Impfstoffe, auch gegen vernachlässigte Tropenkrankheiten, die noch immer Hunderttausende Menschenleben fordern. Die Grundlagenforschung und auch die angewandte akademische Biomedizinforschung in den westlichen Industrieländern sind stark wie nie zuvor.

    Gleichzeitig haben die (noch) bestehenden Pharmafirmen (noch) große Erfahrung darin, neue Produkte durch die Testphasen zur Marktreife zu bringen. Es fehlt auch nicht an Anstrengungen, das von Experten so genannte Tal des Todes zwischen akademischer Forschung und industrieller Entwicklung zu überbrücken. Aber die Erfolge bleiben überschaubar, weil die Marktstrukturen nicht passen. Es stellt sich also die Frage, mit welchen politischen Werkzeugen die Anreize neu und besser gesetzt werden können.

    Gesellschaftliche Teilhabe an der Entwicklung von Medikamenten

    Ich propagiere nicht, dass ein staatliches Organ die Medikamentenentwicklung steuern soll. Es muss aber eine größere gesellschaftliche Teilhabe an der Entwicklung von Medikamenten geben. Pharmafirmen müssen in Zukunft eine finanzielle Unterstützung für die Entwicklung von Wirkstoffen gegen die kleineren Krankheiten bekommen können. Vielleicht brauchen wir Finanzierungsmodelle durch öffentliche Fonds oder staatlich garantierte Anleihen. Die Steuerzahler müssten dann aber nicht nur am Risiko, sondern auch an den Gewinnen beteiligt werden.

    Genug Geld ist ja anscheinend vorhanden! Die Steuern, die für die Rettung einer einzigen Bank ausgegeben wurden, hätten gereicht, um zehn oder mehr neue Impfstoffe zu entwickeln, die Hunderttausenden Menschen das Leben hätten retten können. Und gleichzeitig hätten sie einen Innovationsschub für viele hoch qualifizierte Jobs geschaffen.

    Was kann die Max-Planck Gesellschaft beitragen?

    Unsere Aufgabe ist es, absolute Spitzenforschung im Bereich der Grundlagenforschung zu erbringen – und nicht, gezielt nach praktischen Lösungen für die Misere im Arzneimittelsektor zu suchen. Wirklich grundlegende Durchbrüche im chemischen, biologischen und medizinischen Bereich bringen aber oft komplett neue Ansätze zu Diagnostika, Impf- und Wirkstoffen mit sich. Während diese Art der Forschung nicht zielgerichtet maßgeschneiderte Lösungen für spezifische Probleme liefert, sind die fundamentalen Fortschritte von umso größerer Tragweite.

    Ein Wissen um mögliche Anwendungen und aktuelle Herausforderungen durch den aktiven Diskurs mit der Industrie sowie die Bereitschaft, aus der Wissenschaft auch eine Anwendung werden zu lassen, zwingt uns oft aus unserer wissenschaftlichen „Komfortzone“. Es gibt bereits einige wenige Ansätze, systematisch Ergebnisse der Grundlagenforschung in unserer Gesellschaft weiterzuentwickeln, um sie in eine Anwendung zu überführen. Weitere Anstrengungen von beiden Seiten – der Max-Planck-Gesellschaft und der Pharmaindustrie – werden benötigt, um als faire Partner das meiste aus den Erfindungen zu machen. Max-Planck-Forscher sind keine billige „verlängerte Werkbank“ oder Ideenquelle, die durch Steuerzahlung abgegolten ist. Es müssen faire und effektive Wege gefunden werden, um die verbesserte Vernetzung von Wissen und Anwendung so zu organisieren, dass am Ende die Gesellschaft als Ganzes und nicht einige wenige profitieren.

    Grundlagenforschung an Max-Planck-Instituten hat zu wichtigen Produkten geführt, auch in der Gesundheitswirtschaft. Allzu oft ist das aber kaum bekannt. Ich würde mir eine Zukunft wünschen, in der Max-Planck-Forscher neue Lösungsansätze erdenken und durch ein gesteigertes Problembewusstsein diese auch in Grundzügen umsetzen. Damit können wir der Gesellschaft einen return of investment bescheren, der weit über den monetären Wert der Förderung hinausgeht.

    Fazit

    Das Thema neue Wirkstoffe muss auf die gesellschaftliche Agenda! Wir müssen uns mit dem Gedanken vertraut machen, das Überleben einer nur scheinbar boomenden Pharmabranche zu sichern. Und die Pharmaindustrie muss sich mit dem Gedanken vertraut machen, dass es mehr Werte gibt als den von Aktien.


     *Der im Forschungsmagazin der Max-Planck Gesellschaft MPF 4/13 erschienene Artikel http://www.mpikg.mpg.de/186657/Biomolecular_Systems wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert und mit zwei von der Redaktion eingefügten Abbildungen.


    Weiterführende Links

    Forschungsprogramme von Peter Seeberger:
    Abteilung Biomolekulare Systeme am Max-Planck-Institut für Kolloid- und Grenzflächenforschung, Wissenschaftspark Potsdam-Golm http://www.mpikg.mpg.de/186657/Biomolecular_Systems

    Blog der Abteilung Biomolekulare Systeme https://bms.mpikg.mpg.de/

    Videos mit Peter Seeberger

    Forscher fragen: Gesunde Chemie Video 1:28:06 Breaking the Wall of Expensive Vaccines Video 13:47 min Der Zucker Code Geheimwaffe gegen Krebs und Malaria 5-teilige Serie Teil 1, 9:17 min Teil 2: 8:42 min Teil 3: 8:23 min Teil 4: 9:52 min Teil 5: 6:48 min


    Webseite der Max-Planck Gesellschaft

    Verwandte Themen im ScienceBlog


     

    inge Fri, 16.05.2014 - 04:17

    Der Kampf gegen Malaria

    Der Kampf gegen Malaria

    Fr, 02.05.2014 - 06:02 — Bill and Melinda Gates Foundation Bill and Melinda Gates FoundationIcon Medizin

    In den letzten Jahrzehnten führten globale Bemühungen zu enormen Erfolgen im Kampf gegen Malaria: von 2000 – 2011 konnte die Todesrate auf 20% gesenkt werden. Dennoch erkranken noch jährlich Hunderte Millionen Menschen an dieseḿ heimtückischen Erreger (erst kürzlich erlag ihm der österreichische Regisseur Michael Glawogger). Die Bill & Melinda Gates Stiftung hat sich der Ausrottung dieser Krankheit verschrieben und stellt großzügige Ressourcen zur Entwicklung von Diagnosetests, Behandlungsmethoden (Medikamenten ebenso wie Impfstoffen) sowie zur Bekämpfung der übertragenden Stechmücken bereit. Der folgende Artikel wurde mit freundlicher Zustimmung der Gates Foundation der Website der Stiftung entnommen und wird Bestandteil des in Kürze zusammengestellten Themenschwerpunkts "Mikroorganismen und Infektionskrankheiten" sein.

    Malaria tritt in fast 100 Ländern weltweit auf und stellt eine riesige gesundheitliche, soziale und wirtschaftliche Belastung für Entwicklungsländer dar, vor allem für die afrikanischen Staaten südlich der Sahara und in Südasien. Im Jahr 2010 erkrankten mehr als 200 Millionen Menschen an Malaria, und ca. 655'000 Menschen starben an der Krankheit. Die meisten Opfer waren Kinder unter fünf Jahren.

    Malaria RisikogebieteAbbildung 1.Malaria Risikogebiete (WHO 2011)

    Malaria wird durch Parasiten ausgelöst, die durch Stechmücken übertragen werden. Sogar in leichten Fällen sind die Anzeichen der Krankheit hohes Fieber, Schüttelfrost, grippeähnliche Symptome und Blutarmut, was besonders für schwangere Frauen gefährlich sein kann. Kinder, die eine schwere Malariaerkrankung überstehen, können lebenslang geistig behindert sein. Der von der Krankheit verursachte wirtschaftliche Verlust wird auf jährlich mehrere Milliarden US-Dollar geschätzt.

    Die Chance

    Malaria ist vermeidbar und kann behandelt werden. Die Geschichte zeigt, dass die Krankheit sogar ausgerottet werden kann. Vor weniger als einem Jahrhundert war Malaria weltweit verbreitet, darunter auch in Europa und Nordamerika. In reichen Ländern konnte sie durch aggressive Präventionsmaßnahmen und wirksamere Überwachung nach und nach kontrolliert und schließlich eliminiert werden. Laut Weltgesundheitsorganisation bedeutet das, dass über einen Zeitraum von mindestens drei Jahren kein einziger Fall einer Übertragung der Krankheit durch Stechmücken gemeldet wird. Die USA erreichten diesen Meilenstein 1951.

    In den Entwicklungsländern wurden bei der Eindämmung von Malaria gewaltige Fortschritte erzielt. Durch eine Kombination verschiedener Maßnahmen ist die Zahl der Malariaerkrankungen in einem Drittel der Länder, in denen die Krankheit endemisch ist, um mindestens 50% gefallen. Diese Fortschritte sind das Ergebnis einer Kombination aus verschiedenen Maßnahmen, wie rechtzeitige Diagnose und Behandlung dank zuverlässiger Tests und Malariamittel, die Besprühung von Innenräumen mit ungefährlichen Insektiziden und der Einsatz langlebiger, mit Insektiziden behandelter Moskitonetze zum Nachtschutz.

    Die aktuellen Hilfsmittel und Behandlungsmethoden haben sich jedoch bei dem Versuch, Malaria auszurotten, in vielen Ländern als unzureichend erwiesen. In der Zwischenzeit kann sich die Malariakrankheit schnell wieder ausbreiten, weil Parasiten gegenüber den verfügbaren Insektiziden und Behandlungen resistent werden. Beide Formen der Resistenz sind zu einer starken potenziellen Bedrohung für eine effektive und erschwingliche Malariakontrolle geworden.

    Es sind Innovationen notwendig, um diesen Herausforderungen gerecht zu werden und im Kampf gegenüber Malaria weiterhin Fortschritte zu machen. Nachhaltige Forschung und Entwicklung sind notwendig, um Methoden zur Behandlung und Prävention von Malaria zu entwickeln und so die Abhängigkeit von einigen wenigen Malariabekämpfungsmethoden zu vermeiden, die als effektive Malariakontrolle erwiesenermaßen riskant sind.

    Zum Glück ist die Weltgemeinschaft dazu bereit, gemeinsam gegen Malaria anzutreten und sie hat die dafür bereitgestellten Mittel seit 2003 versechsfacht. Die Weltgesundheitsorganisation (WHO) und die Roll Back Malaria Partnership koordinieren im Rahmen des Global Malaria Action Plans internationale Maßnahmen. Aber wir benötigen weitere, effektive Richtlinien sowie zusätzliche Gelder, um auch weiterhin Fortschritte im Kampf gegen eine der größten Bedrohungen für die Gesundheit des Menschen machen zu können.

    Unsere Strategie

    Malaria ist eine der Top-Prioritäten der Bill & Melinda Gates Foundation. Wir stellen großzügige Ressourcen bereit, aber sie leisten nur einen geringen Beitrag zur weltweiten Finanzierung der Bekämpfung der Krankheit. Um sicherzugehen, dass unsere Investitionen auch andere Projekte ergänzen, konzentrieren wir unsere Ressourcen auf Bereiche, in denen es nur beschränkte existierende Finanzierungsmöglichkeiten gibt, in denen unsere Unterstützung eine Katalysatorwirkung hat und in denen wir Risiken auf uns nehmen können, die für andere eine zu große Herausforderung wären. Unsere Strategie richtet sich auf die Bereiche, in denen die Stiftung im Vergleich zu zahlreichen anderen Partnern besser positioniert ist, die Fälle von Malariaerkrankungen zu verringern.

    Wir fördern die Entwicklung effektiverer Behandlungsmethoden und Diagnosetests, Maßnahmen zur Kontrolle von Stechmücken sowie sichere und wirksame Malariaimpfstoffe. Wir fördern auch die Entwicklung von Strategien zu weiteren Fortschritten bei der Ausrottung von Malaria. Bis heute haben wir die Bekämpfung der Malaria mit fast 2 Milliarden US-Dollar gefördert. Wir haben darüber hinaus dem Globalen Fonds zur Bekämpfung von AIDS, Malaria und Tuberkulose (GFATM), der den Einsatz von Präventions- und Therapiemaßnahmen zur Bekämpfung von Malaria, HIV/AIDS und Tuberkulose unterstützt, 1,4 Milliarden US-Dollar bereitgestellt. Über unsere direkten Förderleistungen zum Kampf gegen Malaria hinaus setzen wir uns auch für eine nachhaltige und steigende Finanzierung von Maßnahmen zur Kontrolle und Ausrottung von Malaria seitens der Geberländer und Länder ein, in denen die Krankheit endemisch auftritt.

    Fokusbereiche

    Wir arbeiten mit einer Vielfalt von Partnern in verschiedenen Bereichen zusammen, darunter Regierungsbehörden, multilateralen Organisationen, Nichtregierungsorganisationen (NGOs), akademischen Einrichtungen, wie auch Organisationen des Gemeinwesens und der Privatwirtschaft. Gemeinsam verfolgen wir das Ziel, Malaria zunächst unter Kontrolle zu bringen und dann zu eliminieren, um sie letztendlich auszurotten.

    Medikamente und Diagnose

    Malaria wird derzeit mit einer artemisininhaltigen Kombinationstherapie (ACT) behandelt. Die ACT-Therapie ist wirksam und wird von Patienten gut vertragen. Allerdings kaufen Patienten aufgrund der hohen Therapiekosten oft billigere und weniger wirksame Medikamente von schlechter Qualität, oder sogar gefälschte Medikamente, wodurch sich das Risiko medikamenten-resistenter Malariaerreger erhöht. In Südostasien konnte bereits Resistenz beobachtet werden.

    Um die Verfügbarkeit von Behandlungsmethoden zu verbessern und schließlich eine Einzeldosisheilungsmethode für Malaria zu entwickeln, ist es wichtig, die Medikamentenprojekte zu diversifizieren und in die Forschung und Entwicklung wirksamer Behandlungsmethoden zu investieren, die nicht auf Artemisinin basieren.

    Unsere Strategie fördert die wirksame Verabreichung von ACTs, die Ausrottung einer Artemisinin-Resistenz und die Erforschung neuer Malariamedikamente. Bei diesem Projekt werden wir hauptsächlich von der gemeinnützigen Organisation Medicines for Malaria Venture (MMV) unterstützt, welche das bisher umfangreichste Medikamenten-Projekt für Malariamedikamente entwickelt hat. Wir unterstützen außerdem den Einsatz wirksamer Diagnosetests, um für Patienten eine schnelle Diagnose und entsprechende Behandlung zu gewährleisten.

    MalariabehandlungAbbildung 2.Eine Krankenschwester verabreicht ein Malariamedikament zur Behandlung eines infizierten Kindes in Tansania.

    Zu unseren Investitionen zählen:

    • Die Entwicklung neuer, nicht auf Artemisinin basierender Medikamente zu Präventionszwecken (einschließlich Langzeitprophylaxe), zur Behandlung des Erregerbefalls in der Leber und zur Verhinderung von Übertragungen.
    • Die sichere Versorgung mit qualitativ hochwertigem Artemisinin durch die Einführung von Hochertragspflanzen und biosynthetischem Artemisinin.
    • Mehr Zugang zu erschwinglichen Kombinationstherapien, insbesondere durch die Privatwirtschaft.
    • Verhinderung zunehmender Resistenzentwicklung durch die Bekämpfung qualitativ minderwertiger Medikamente bzw. gefälschter Medikamente und die Bekämpfung von Monotherapien.
    • Verbesserung von Überwachungssystemen und Programmen zur Malariakontrolle, den zunehmenen Einsatz von Diagnosehilfsmitteln, zur Behandlung, Überwachung und Ausrottung von Malaria. Wir wollen die Wirksamkeit der entwickelten und bereitgestellten Medikamente und Diagnosetests messen und untersuchen, inwieweit sie die Ausbreitung der Krankheit verhindern können.

    Außerdem bewerten wir die Toleranz von Parasiten in Südostasien gegenüber dem Wirkstoff Artemisinin.

    Mittel zur Bekämpfung von Krankheitsüberträgern

    Die Innenraumbehandlung mit Insektiziden und widerstandsfähige, mit Insektiziden behandelte Moskitonetze stellen derzeit die beiden wirksamsten Interventionsarten im Kampf gegen die Ausbreitung und Übertragung von Malaria dar. Leider wird diese Wirksamkeit durch die zunehmende Pestizidresistenz von Steckmücken bedroht. Die Innenraumbehandlung mit Insektiziden und Moskitonetze erweisen sich als wenig wirksam bei Stechmückenarten, die am Tag und im Freien aktiv sind.

    Wir unterstützen die Verbesserung existierender Mittel zur Bekämpfung von Krankheitsüberträgern sowie die Entwicklung neuer Methoden, die in allen Situationen vor Übertragungen schützen. Zu unseren Investitionen zählen:

    • Die Verbesserung existierender Mittel zur Bekämpfung von Krankheitsüberträgern durch Innenraumbehandlung mit langwirkenden Insektiziden, die Entwicklung von Insektiziden, die mit anderen Mitteln kombiniert werden können, um vor Resistenz zu schützen sowie die Entwicklung aktiver Wirkstoffe, die vor dem bekannten Resistenzmechanismus geschützt sind.
    • Die Untersuchung neuer Aspekte der Lebensbedingungen und des Verhaltens krankheitsübertragender Stechmücken mit Hilfe neuer Instrumente und Strategien, wie Räucherspiralen, Zuckerfallen und die Behandlung von Tieren.
    • Identifizierung der Instrumente, die einzeln oder in Kombination mit anderen unter bestimmten Umständen am besten zur Ausrottung beitragen können.

    Gemeinsam mit unseren Partnern, darunter insbesondere dem Innovative Vector Control Consortium, werden wir die Wirksamkeit neuer oder verbesserter Instrumente überwachen. Wir werden auch den Fortschritt bei der Identizierung optimaler Kombinate von Mitteln zur Bekämpfung von Krankheitsüberträgern überwachen, um die Übertragung von Malaria zu stoppen.

    Impfstoffe

    Ein wirksamer Impfstoff könnte einen entscheidenden Erfolg in der Bekämpfung von Malaria bedeuten, aber die Entwicklung eines Impfstoffes erfordert jahrelange wissenschaftliche Arbeit. Kürzlich durchgeführte Studien der klinischen Phase III zeigen, dass der Malaria-Impfstoff RTS,S nicht die erwünschte Wirksamkeit hat. Allerdings zeigen die Daten, dass eine Impfung gegen einen Parasiten möglich ist — ein bedeutender Fortschritt.

    Aktuelle Impfstoffkandidaten könnten eine wichtige Rolle bei der Reduzierung des Krankheitsrisikos in verschiedenen Zielgruppen spielen. Der Erfolg bei der Ausrottung von Malaria hängt jedoch letztendlich von wirksameren Impfstoffen der zweiten Generation ab, die eine Übertragung in gesamten hochriskanten Bevölkerungsgruppen verhindern. Die Impfstoffentwicklung wird derzeit jedoch durch unzureichende Kenntnisse der Funktionsweise des menschlichen Immunsystems gebremst.

    Wir fördern die Entwicklung von Impfstoffen, die die Übertragung von Malaria stoppen können. Dazu gehören auch ein Impfstoff der zweiten Generation oder ein neuer, auf Antigenen basiernder Impfstoff, welche die Übertragung verhindern. Wir unterstützen auch Forschung, die für eine wirksamere Impfstoffentwicklung richtungsweisend ist.

    Integrierte Intervention

    Eine Reihe von Behandlungsmethoden hat sich im Einsatz gegen Malaria als sehr wirksam erwiesen, aber es ist noch unklar, wo und wie sie am besten eingesetzt werden. Welche Auswirkungen wird eine verstärkte Anwendung dieser Behandlungsmethoden haben? In welchen Ländern ist die Ausrottung derzeit möglich? Was ist die optimale Kombination von Behandlungsmethoden zur Ausrottung von Malaria für bestimmte Übertragungsarten?

    Wir beteiligen uns daran, Antworten auf diese Fragen zu finden und teilen das, was wir über die Auswirkungen lernen, um die Behandlungsmethoden auszubauen und erhalten. Wir wollen auch mehr darüber lernen, wie die Finanzierung und das Engagement von Antimalaria-Projekten aufrecht erhalten werden können.

    Öffentlichkeitsarbeit, Richtlinien und Finanzierung

    Der Kampf gegen Malaria konnte dank der wachsenden Zahl von Partnern, einem starken gemeinsamen politischen Willen und umfangreicher finanzieller Mittel wesentlich vorangetrieben werden. Dieser positive Trend muss allerdings langfristig beibehalten werden. Um weitere Forschung und Entwicklung zu ermöglichen und Länder bei ihren Präventions- und Behandlungsprojekten zu unterstützen, sind zusätzliche Mittel notwendig.

    In den letzten zehn Jahren hat sich die Förderung der Malariakontrolle von 300 Millionen US-Dollar im Jahr 2003 auf geschätzte 2 Milliarden US-Dollar im Jahr 2011 erhöht. Dieser starke Anstieg ist den gemeinsamen Anstrengungen des Globalen Fonds zur Bekämpfung von AIDS, Malaria und Tuberkulose (GFATM), der Malariainitiative des US-amerikanischen Präsidenten, dem britischen Ministerium für internationale Entwicklung, UNITAD, der Weltbank und anderen multilateralen Organisationen zu verdanken.

    Dennoch werden Schätzungen des Global Malaria Action Plan zufolge weitere 5 Milliarden US-Dollar benötigt, um Malariabehandlung weltweit nachhaltig zu erreichen und bereitzustellen, sowie um Forschungs- und Entwicklungsvorhaben fortsetzen zu können. Im Rahmen unserer Strategie fördern wir das anhaltende finanzielle Engagement durch derzeitige wichtige Spender und versuchen, weitere neue Geber für Forschung und Entwicklung im Malariabereich zu gewinnen und Projekte zu unterstützen, die den Fortschritt bei der Malariabekämpfung auf Landesebene verfolgen.

    Fortschritte bei Malariaprogrammen und Öffentlichkeitsarbeit werden unter dem Gesichtspunkt der weltweiten Finanzierung der Malariabekämpfung und Forschung und Entwicklung in diesem Bereich durch bilaterale, multilaterale und private Quellen evaluiert.

    Der Fortschritt wird auch gemessen an der Verabschiedung wirksamer Gesetze zur Verbesserung der Malariabekämpfung.


    Malaria - Bill & Melinda Gates Foundation http://www.gatesfoundation.org/de/What-We-Do/Global-Health/Malaria[19.04.2014 19:30:36] Stiftungs-Datenblatt

    Zur Geschichte der Bill & Melinda Gates Foundation

    World Malaria Report (2013) 286 p. (free download)


     

    inge Fri, 02.05.2014 - 18:02

    Comments

    Der Kampf gegen Tuberkulose

    Der Kampf gegen Tuberkulose

    Fr, 09.05.2014 - 05:03 — Bill and Melinda Gates Foundation

    Bill and Melinda Gates FoundationIcon MedizinTuberkulose, eine durch das Mycobacterium tuberculosis verursachte bakterielle Infektionskrankheit, ist auch heute noch eine der weltweiten Haupttodesursachen. Jährlich werden weltweit fast 9 Millionen neue Fälle von Tuberkulose gemeldet, wobei eine steigende Zahl dieser Erkrankungen durch Erreger verursacht wird, die gegen vorhandene Medikamente Resistenz aufweisen. In Zusammenarbeit mit globalen Partnern im Gesundheitswesen unterstützt die Bill & Melinda Gates Foundation die Entwicklung und Bereitstellung verbesserter Impfstoffe, Behandlungsmethoden und Diagnosetests. Der folgende Artikel wurde mit freundlicher Zustimmung der Gates Foundation der Website der Stiftung* entnommen und wird Bestandteil des in Kürze zusammengestellten Themenschwerpunkts "Mikroorganismen und Infektionskrankheiten" sein..

    Die Herausforderung

    Die weltweite TB-Sterblichkeitsrate ist zwischen 1990 und 2009 um 35% gefallen, aber TB ist auch weiterhin eine der weltweiten Haupttodesursachen. Jedes Jahr werden fast 9 Millionen neue Fälle gemeldet.

    Der aktuell verwendete TB-Impfstoff bietet nur begrenzten Schutz für Neugeborene und Kinder und keinen Schutz vor Lungentuberkulose bei Erwachsenen. Diese Form der Tuberkulose ist die weltweit häufigste.

    Die Stiftung arbeitet daran, die Anzahl der weltweit auftretenden TB-Fälle schnell zu senken und investiert dazu in die Entwicklung und Bereitstellung besserer Impfstoffe, Behandlungsmethoden und Diagnosetests. Außerdem möchten wir Regierungen, multinationale Organisationen und den privaten Sektor für den Kampf gegen die Tuberkulose gewinnen.

    Wir konzentrieren uns hauptsächlich auf die Länder mit den häufigsten TB-Fällen, wie Indien, China und Südafrika. Der Verantwortliche für unsere TB-Strategie, die zuletzt 2011 aktualisiert wurde, ist Trevor Mundel, Interim-Direktor der Initiative, die zum Bereich Global Health der Stiftung gehört.

    In den letzten zwei Jahrzehnten wurden wichtige Fortschritte im Kampf gegen Tuberkulose (TB) erzielt. Zwischen 1990 und 2009 ist die TB-Sterblichkeitsrate und 35% gefallen. Dank der weltweiten gemeinsamen Bemühungen und des Einsatzes der DOTS-Strategie, der in den Achtzigerjahren empfohlenen Behandlung für TB, konnten zwischen 1995 und 2010 55 Millionen TB-Infektionen behandelt werden, 46 Millionen davon erfolgreich. Im Vergleich zu früheren Behandlungsmöglichkeiten konnten mit diesem Ansatz fast 7 Millionen Menschenleben gerettet werden. In den Jahren 2005 bis 2010 konnten durch die gemeinsame Behandlung von TB und HIV schätzungsweise fast 1 Million Menschenleben gerettet werden.

    Trotz dieses Fortschritts bleit TB weltweit weiterhin eine der Haupttodesursachen. 2010 wurden fast 9 Millionen neue Fälle gemeldet. In den letzten Jahren wurden Projekten zur Eindämmung von TB aufgrund des gestiegenen Vorkommens multiresistenter TB-Fälle (MDR-TB, Abbildung 1) Dringlichkeit eingeräumt. Diese Form der Krankheit ist gegen die Erstlinien-Medikamente resistent. Es gibt auch extrem arzneimittelresistente TB-Erreger (XDR-TB), die auch gegen einige Zweitlinien-Medikamente resistent sind. MDR-TB kommt mittlerweile in fast jedem Land der Welt vor. Im Jahr 2008 wurden ca. 440.000 neue Fälle verzeichnet. Die Behandlung dieser Krankheitsformen ist besonders schwierig und kostenaufwendig. Sie sind die direkte Folge jahrelanger unzureichender Diagnosen und Behandlungen. In Ländern mit einer hohen Anzahl an HIV-Infizierten hat die TB-Epidemie stark zugenommen. 2010 starben 350.000 Menschen, die sowohl mit TB als auch mit HIV infiziert waren. 2012 gemeldete Fälle von MDR-Tuberkulose

    Abbildung 1. Resistenz: Gemeldete Fälle von MDR-Tuberkulose im Jahr 2012. MDR (multi-drug resistant) bedeutet, daß die Erkrankten (zumindest) auf die Behandlung mit den Standardmedikamenten Rifampicin und Isoniazid nicht ansprechen. Insgesamt gab es im Jahr 2012 rund 8,6 Millionen Neuerkrankungen an TB – davon etwa 450 000 geschätzte MDR-Fälle - und 1,3 Millionen Menschen starben daran. (Abb. Von der Redaktion eingefügt: Quelle: WHO)

    Die aktuellen Ansätze zur Verhinderung, Diagnose und Behandlung von TB-Infektionen sind nicht ausreichend. Der aktuell verwendete TB-Impfstoff bietet nur beschränkten Schutz für Neugeborene und Kinder und keinen Schutz vor Lungentuberkulose bei Erwachsenen. Diese Form der Tuberkulose ist die weltweit häufigste. Das meistgenutzte Diagnosetool ist das Mikroskop, mit dem sich jedoch nur die Hälfte aller Fälle erkennen lässt. Diese Art der Diagnose ist für Gesundheitsdienstleister zudem sehr arbeitsaufwendig. Die standardisierte DOTS-Behandlung hat zwar gute Erfolge gezeigt, aber ein Patient muss dazu sechs bis neun Monate lang täglich eine komplizierte Kombination von Tabletten einnehmen, die starke Nebenwirkungen haben. Es wird auch vorausgesetzt, dass ein Mitarbeiter des Gesundheitswesens die gesamte Behandlung überwacht. Daher wird die Behandlung von vielen Patienten frühzeitig abgebrochen.

    Die Chance

    Im letzten Jahrzehnt wurde viel in die Bekämpfung der TB-Epidemie investiert und es wurden zahlreiche neue, vielversprechende Bekämpfungsmöglichkeiten entwickelt. Neue Medikamente, Diagnosetechnologien und schließlich ein neuer Impfstoff könnten den Umgang mit TB weltweit drastisch verbessern. Es ist jedoch noch mehr Forschungs- und Entwicklungsarbeit erforderlich, bis diese Bekämpfungs- und Behandlungsmethoden einfach zugänglich, erschwinglich und einfach anzuwenden sind. Ein wirksamerer Impfstoff wäre das beste und wirksamste Mittel, um die Anzahl der TB-Fälle zu senken. Einigen Prognosen zufolge könnte die Anzahl der TB-Erkrankungen auch durch einen nur teilweise wirksamen neuen Impfstoff bis zum Jahr 2050 um 39 bis 52 Prozent gesenkt werden. Zum ersten Mal seit Jahrzehnten gibt es einen neuen TB-Impfstoffkandidaten. Er befindet sich aktuell in einer Wirksamkeitsstudie für Säuglinge (Phase IIb), mit der gezeigt werden soll, wie gut der Impfstoff in einer kleinen Bevölkerungsgruppe wirkt.

    Aber die Suche nach einem neuen Impfstoff kann viele Jahre in Anspruch nehmen. Daher ist es wichtig, auch kurz- und mittelfristige Strategien zu entwickeln, mit denen die TB-Infektionsrate gesenkt werden kann. Beispielsweise können neue TB-Diagnosetests Behandlungsverzögerungen verkürzen und die Wahrscheinlichkeit einer Frühdiagnose erhöhen, bevor ein Erkrankter weitere Menschen infiziert. Außerdem würde eine einfachere und kürzere Behandlung mit Medikamenten dazu führen, dass mehr Patienten ihre Behandlung erfolgreich abschließen.

    Eine Reihe von Impfstoffen, Diagnosetests und Medikamenten befinden sich aktuell in der klinischen Entwicklungsphase. Sie erreichen die Menschen, die sie am meisten benötigen, jedoch nur dann, wenn sie erschwinglich sind und wirksam eingesetzt werden können. Im Bereich der Forschung und Entwicklung sind beträchtliche finanzielle Ressourcen erforderlich. Industrieländer, Länder mit TB-Epidemien, die Pharmaindustrie und Stiftungen müssen daher nachhaltig in die Bekämpfung investieren.

    Unsere Strategie

    Die TB-Strategie der Bill & Melinda Gates Foundation für die Jahre 2011-2016 geht auf eine Vielzahl der zur TB-Epidemie gehörigen Faktoren ein.

    Ein neuer Impfstoff wäre die wirksamste Lösung, um die Anzahl der TB-Fälle zu senken. Daher liegt unser Schwerpunkt auf der Entwicklung neuer Impfstoffe und innovativer Möglichkeiten, Impfstoffe schneller bereitzustellen. Die Kombination aus Impfstoffbereitstellung, Diagnosetests und Medikamenten ist jedoch im Kampf gegen die Epidemie ausschlaggebend.

    Außerdem konzentrieren wir uns auf die Entwicklung kürzerer und einfacherer Behandlungsmethoden. Patienten, die Ihre Behandlung nicht abschließen, können andere Menschen mit TB infizieren und arzneimittelresistente Bakterienstämme entwickeln, die bis zu zwei Jahre lang mit wesentlich teureren Zweitlinien-Medikamenten behandelt werden müssen.

    Ein weiterer Fokusbereich ist die Entwicklung schnellerer und präziserer Diagnosetests, die zu einem früheren Behandlungsbeginn und zu einer geringeren Übertragungsrate der Krankheit führen würden. Aber solche neuen Lösungen können die Anzahl der TB-Fälle nur dann senken und Millionen von Menschenleben retten, wenn sie schnell und effizient dort eingesetzt werden, wo sie am dringendsten benötigt werden. Wir investieren daher in Forschungsvorhaben in Indien und China, wo insgesamt fast 40 Prozent aller weltweiten TB-Fälle vorkommen, sowie in Südafrika, wo mehr als ein Fünftel aller TB-Fälle in Afrika vorkommt. Außerdem leben dort viele Menschen, die sowohl mit HIV als auch mit TB infiziert sind.

    Wir setzen uns auch für eine adäquate Finanzierung für den Kampf gegen TB ein. Dabei unterstützen wir Bemühungen um eine erhöhte finanzielle Unterstützung für Forschung und Entwicklung. Wir arbeiten dabei mit weltweiten Finanzierungsorganisationen, wie dem Global Fund to Fight AIDS, Tuberculosis and Malaria sowie mit UNITAID, um die Kosten für innovative Technologien zu senken und deren Akzeptanz zu beschleunigen.

    Fokusbereiche

    Verbesserte Impfstoffe

    Wir investieren in die Entwicklung und behördliche Zulassung von wirksameren TB-Impfstoffen. Unser Ziel ist, bis 2016 einen Impfstoffkandidaten in klinischen Phase-III-Studien sowie weitere neue TB-Impfstoffkandidaten zu haben.

    Gleichzeitig arbeiten wir daran, die Hindernisse zu beseitigen, die der Entdeckung und Entwicklung weiterer TB-Impfstoffe im Wege stehen. Die Funktionsweise des Schutzmechanismus durch TB-Impfung wird immer noch nicht vollkommen verstanden und es gibt keine bekannten Biomarker, die die Wirksamkeit eines TB-Impfstoffkandidaten vorhersagen können. Daher erfolgt die Entwicklung von Impfstoffen derzeit in langwierigen und kostspieligen Studien.

    Wir haben infolgedessen ein TB-Impfstoff-Beschleunigungsprogramm entwickelt, mit dem vielversprechende Impfstoffkonzepte als Alternativen zu den schon bestehenden erkannt werden. Sie könnten unser Verständnis der TB-Krankheit potenziell verbessern und somit zur Entwicklung eines effizienteren Impfstoffs führen.

    Wirksamere medikamentöse Behandlung

    Der TB-Erreger wird schnell gegen ein einzelnes Medikament resistent. Daher ist bei der Behandlung immer eine Kombination aus mehreren Medikamenten erforderlich. Die konventionelle Arzneimittelentwicklung erfordert allerdings, dass neue TB-Medikamente in klinischen Studien separat getestet werden. Medikamente können erst dann in Kombination getestet werden, wenn jedes für sich bereits genehmigt wurde. Das bedeutet, dass die Entwicklung einer effizienteren TB-Behandlung Jahrzehnte in Anspruch nehmen könnte. Um dieses Hindernis zu überwinden, haben wir uns mit Partnern zusammengeschlossen und gemeinsam die Initiative Critical Path to TB Drug Regimens (CPTR) gegründet. Bei dieser Initiative arbeiten führende internationale Pharmaunternehmen, Experten des Gesundheitswesens, Nichtregierungsorganisationen sowie Aufsichtsbehörden aus mehreren Ländern zusammen, um schneller vielversprechende TB-Medikamentenkandidaten in Kombination zu testen. Außerdem sollen neue Zulassungsverfahren und andere Lösungswege für eine schnellere Medikamentenentwicklung geschaffen werden.

    Wir benötigen zudem neue Medikamente, mit denen die Behandlungsdauer drastisch verkürzt werden kann. Daher unterstützen wir das TB Drug Accelerator-Programm, mit dem nach neuen Möglichkeiten zur Bekämpfung von Bakterien gesucht wird, die gegen die aktuellen Medikamente resistent sind. Dabei sollen Möglichkeiten für die Entwicklung neuer Medikamente gefunden werden, mit denen die Behandlungsdauer verkürzt wird.

    Neue Diagnosewerkzeuge

    Mikroskopieraum in einem auf Tuberkulose und Atemwegskrankheiten spezialisierten Krankenhaus in Neu-DelhiAbbildung 2. Der Mikroskopieraum in einem auf Tuberkulose und Atemwegskrankheiten spezialisierten Krankenhaus in Neu-Delhi, Indien.

    Wir entwickeln kostengünstigere und wirksamere Diagnosewerkzeuge, die mehr TB-Patienten erreichen und an Ort und Stelle und nicht in einem weit entfernten Labor eingesetzt werden können (Abbildung 2). Im Verlauf wird auch nach neuen Biomarkern der TB-Infektion sowie nach Therapien geforscht, die die Erkennung und klinische Behandlung von TB verbessern. Eine von uns finanziell unterstützte neue Technologie, GeneXpert, kann möglicherweise die Geschwindigkeit und Genauigkeit der TB-Diagnose wesentlich verbessern. Wir müssen Möglichkeiten finden, um dieses Werkzeug möglichst vielen Menschen zur Verfügung zu stellen, denn eine schnelle und präzise Diagnose ist die Grundlage für einen raschen Behandlungsbeginn und verhindert somit die weitere Ausbreitung der Krankheit.

    Verbreitung von Innovationen in der TB-Kontrolle

    Wir führen Pilotstudien zur Entwicklung innovativer Werkzeuge zur Eindämmung von TB und Bereitstellungsmöglichkeiten für Medikamente in Indien, China und Südafrika durch. Die gefundenen wirksamsten Ansätze werden an andere weitergeleitet. Eines unserer Projekte befasst sich mit der Suche nach der kostengünstigsten Bereitstellung schnellerer und präziserer Diagnosewerkzeuge in Südafrika. In Indien haben wir die indische Regierung, die Weltgesundheitsorganisation (WHO), USAID und die Weltbank zusammengebracht, um innovative Arbeiten zur Eindämmung von TB zu unterstützen. Wir erhalten auch Unterstützung vom privaten Sektor in Indien, um die Forschung und Entwicklung im Bereich TB-Diagnose und -Behandlung voranzutreiben. Dank der Arbeit unserer Interessengruppen in China wurde die MDR-Tuberkulose von den Krankenversicherungen des Landes als „sehr erstattungsfähige Krankheit“ eingestuft. So erhalten an MDR-TB erkrankte chinesische Patienten leichter finanzielle Unterstützung zu Ihrer Behandlung.

    Zugang, Wirksamkeit und Kostenreduzierungen

    Durch unsere Zusammenarbeit mit globalen Partnern im Gesundheitswesen, wie dem Global Fund to Fight AIDS, Tuberculosis and Malaria, der WHO und UNITAID, können diese Organisationen ihre Ressourcen und Investitionen optimal einsetzen und so die Kosten der Entwicklung innovativer Technologien senken. Außerdem können auf diese Art und Weise auch genügend Hersteller gefunden werden, um stabile und erschwingliche Preise für neue TB-Therapien zu garantieren und die Akzeptanz neuer, effizienter Lösungen im Kampf gegen die Tuberkulose zu beschleunigen.

    Interessengruppen

    Wir treten für mehr politisches Engagement und finanzielle Unterstützung im Kampf gegen die TB ein, vor allem für die Forschung und Entwicklung in den späteren Phasen der klinischen Studien. Wir glauben, dass starke Partnerschaften mit Geberländern, multinationalen Institutionen, der Pharmaindustrie und der Biotechnik, sowie mit den Regierungen der TB-endemischen Länder im Kampf gegen die Krankheit enorm wichtig sind. Diese Partnerschaften führen letztlich zu größeren Investitionen in die Forschung und Entwicklung sowie in die Bereitstellung vorhandener und neuer Diagnose- und Therapiewerkzeuge.

    http://www.gatesfoundation.org/de/What-We-Do/Global-Health/Tuberculosis


    Weiterführende Links

    Bill und Melinda Gates Stiftung

    Videos

    Das ABC des Dr Robert Koch Tuberkulose. Video 2:56 min http://www.youtube.com/watch?v=FYRyoAPhH8E  Tetanus und Tuberkulose - Dokumentation über die Entdeckung der Bakterien, die Tetanus und Tuberkulose verursachen : Teil 1 14:31 min. Teil 2 14:31 min. Vernachlässigte Krankheiten – Multiresistente Tuberkulose (Ärzte ohne Grenzen). Video 6:20 min


     

    inge Fri, 09.05.2014 - 05:30

    Themenschwerpunkt: Sinneswahrnehmung — Unser Bild der Aussenwelt

    Themenschwerpunkt: Sinneswahrnehmung — Unser Bild der Aussenwelt

    Fr, 25.04.2014 - 06:35 — Redaktion

    Icon Gehirn

    Zur Wahrnehmung der Außenwelt haben Lebewesen im Laufe der Evolution Sinnesorgane entwickelt und diese an die jeweiligen Gegebenheiten adaptiert, um ihre vitalen Bedürfnisse in entsprechender Weise zu decken und sich situationsgerecht zu verhalten.

    Unsere Sinne

    Bereits Aristoteles hatte die Wahrnehmung der Außenwelt (aisthesis) in fünf Kategorien – die klassischen fünf Sinne – eingeteilt: Sehen, Hören, Riechen, Schmecken und Fühlen. Licht, Schall, chemische und mechanische Reize der Außenwelt werden über spezifische Sensoren - Rezeptoren – von spezialisierten Zellen unserer Sinnesorgane Augen, Ohren, Haut, Nase und Zunge wahrgenommen, in elektrische Signale umgewandelt und über Nervenfasern in das zentrale Nervensystem, das Gehirn, weitergeleitet. Hinsichtlich des Fühlens sind in unserem größten Sinnesorgan, der Haut, unterschiedliche Typen von Rezeptoren lokalisiert, welche durch Berührung, Temperatur oder Schmerz angenehme und unangenehme Empfindungen auslösen und bereits im frühesten Alter die Welt „begreifbar“ machen. Aus dem Tierreich ist überdies auch die Wahrnehmung elektrischer Felder (bei verschiedenen Fischen/Meerestieren) und Magnetfelder (nicht nur bei Zugvögeln) bekannt.

    Die 5 SinneAbbildung 1. Die 5 Sinne. Der Sinneseindruck Geschmack resultiert häufig aus einem sehr raschen Zusammenspiel von Neuronen, die in unterschiedlichen Regionen der Hirnrinde Geschmack, Geruch, Haptik und Temperatur der Nahrung prozessieren.

    Im Gehirn werden die eintreffenden Informationen in entsprechenden Regionen der Hirnrinde gefiltert und einem konstruktiven Prozess unterworfen, der sie auf Grund von genetisch tradiertem Wissen, erfahrungsabhängiger Entwicklung (epigenetischer Überformung) analysiert, neu sortiert und bewertet [1]. Dies erfolgt in hochkomplexen raum-zeitlichen Erregungsmustern, an denen Netzwerke enorm vieler Nervenzellen aus unterschiedlichsten Gehirnregionen beteiligt sind (Abbildung 1).

    Die „untere Ebene“ der Sinneswahrnehmung

    Der primäre Schritt im Prozess der Sinneswahrnehmung – wie Reize aus der Außenwelt mit den Rezeptoren der Sinnesorgane wechselwirken und, von Nervenzellen in elektrische Impulse umgewandelt, weitergeleitet werden – ist zum großen Teil gut verstanden. Vorwiegend mit diesen molekularen Grundlagen der „unteren Ebene“ der Wahrnehmung beschäftigen sich die Artikel, die wir nun im Themenschwerpunkt „Sinneswahrnehmungen“ zusammenfassen (Tabelle), und durch weitere Aspekte aus dem „Reich der Sinne“ laufend ergänzen werden.

    Kapitel Autor Titel
    Rezeptoren Inge Schuster Wie wir die Welt um uns herum wahrnehmen — Membran-Rezeptoren als biologische Sensoren
    Sehen Walter Gehring Auge um Auge — Entwicklung und Evolution des Auges
    Gottfried Schatz Wie «unsichtbarer Hunger» die Menschheit bedroht
    Riechen, Schmecken Wolfgang Knoll Die biomimetische künstliche Nase – wie weit sind wir? Teil 1: Künstliche Sensoren nach dem natürlichen Vorbild unserer fünf Sinne Sehen und Hören
    Die biomimetische künstliche Nase – wie weit sind wir? Teil 2. Aufbau und Funktion physiologischer Geruchssensoren
    Die biomimetische künstliche Nase – wie weit sind wir? Teil 3: Konstruktion einer biomimetischen Nase
    Gottfried Schatz Meine Welt — Warum sich über Geschmack nicht streiten lässt
    Magnetsinn Gottfried Schatz Geheimnisvolle Sinne — Wie Lebewesen auf ihren Reisen das Magnetfeld der Erde messen
    Schmerz Gottfried Schatz Grausamer Hüter — Wie uns Schmerz schützt – oder sinnlos quält

    Tabelle 1. Themenschwerpunkt: Sinneswahrnehmung

    „Mittlere Ebene“ der Sinneswahrnehmung

    Wenn auch der Aufbau von Nervenzellen und die Mechanismen der Signalübertragung von niedrigen wirbellosen Tieren bis hin zum Menschen gleich geblieben sind, so hat sich die „mittlere Ebene“ der Wahrnehmung, die Signalverarbeitung, ungleich komplexer entwickelt.

    Das menschliche Gehirn ist ein sich selbst organisierendes System aus rund 100 Milliarden Nervenzellen -von denen jede Zelle wieder mit Tausenden anderen Nervenzellen in direktem Kontakt steht -, die temporär zu funktionellen Einheiten zusammentreten. Die Vernetzung zwischen den Zellen hängt auch von der lokalen Verfügbarkeit sogenannter Neurotransmitter ab, mittels derer Zellen miteinander kommunizieren. Wie hier neuronale Netzwerke funktionieren um kohärente Aktivitätsmuster herauszubilden, die uns Modelle der wahrgenommenen Realität präsentieren, ist seit rund 20 Jahren Gegenstand intensiver neurowissenschaftlicher Forschung; Neurobiologie ist zu einer Leitwissenschaft unserer Zeit geworden [1].

    Das Manifest der Hirnforschung

    Vor zehn Jahren haben elf führende deutsche Gehirnforscher ein Manifest verfasst, in welchem sie die Grenzen ihrer Forschung aber auch die Fortschritte, die sie darin erhofften, zu optimistisch darstellten [2]. Tatsächlich existieren heute zur Frage, wie ein kohärentes Bild der Welt um uns herum erhalten wird (Bindungsproblem), zwar Hypothesen, aber noch keine Konsens-fähige Antwort. Seit kurzem kommt die Rechenleistung der Super-Computer nun an die Rechenleistung von unserem Gehirn heran – ein Nachbilden komplexer Gehirnprozesse auf dem Computer mittels mathematischer Modelle wird damit möglich.

    Nach wie vor sind sehr viele Aspekte ungeklärt, von erkenntnistheoretischen Fragen (Was ist Bewusstsein, was das Ich?), bis hin zu den gezielten Behandlungsmöglichkeiten von neurodegenerativen Erkrankungen, die man auf Grund der Kenntnis von deren molekularbiologischen, genetischen Grundlagen erwartet hatte [3].

    Zum 10-Jahres Jubiläum des Manifests ist kürzlich das Buch "Kann das Gehirn das Gehirn verstehen?" erschienen in welchem der Autor Matthias Eckoldt u.a. die Mehrzahl der am Manifest beiteiligten Wissenschafter interviewt und damit nicht nur den aktuellen Stand der Neurowissenschaft und ihrer Probleme von der Warte unterschiedlicher kompetenter Meinungen aufzeigt, sondern auch eine Brücke zur Philosophie baut [4, 5].


    Zu einigen Aspekten der „mittleren Ebene“ der Sinneswahrnehmung erscheinen demnächst Artikel in ScienceBlog.at.


    [1] Wolf Singer : "In unserem Kopf geht es anders zu, als es uns scheint" Video 2013 (© 2013 www.dasGehirn.info) 20:26 min
    http://www.youtube.com/watch?v=pHV7qTISDTQ

    [2] Das Manifest - Elf führende Neurowissenschaftler über Gegenwart und Zukunft der Hirnforschung (2004) http://www.gehirn-und-geist.de/alias/hirnforschung-im-21-jahrhundert/das...

    [3] Scobel: Enttäuschte Hoffnungen: Video (3. April 2014)  57:34 min http://www.3sat.de/mediathek/?mode=play&obj=42785

    [4] Matthias Eckoldt : „ Kann das Gehirn das Gehirn verstehen?“( 2014). http://www.carl-auer.de/programm/978-3-8497-0002-7. Daraus eine Leserprobe: https://www.carl-auer.de/pdf/leseprobe/978-3-8497-0002-7.pdf

    [5] Scobel: Besprechung von: „ Kann das Gehirn das Gehirn verstehen?“ Video (3. April 2014) 2:33 min. http://www.3sat.de/mediathek/?mode=play&obj=42811


    Weiterführende Links

    www.dasGehirn.info (ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe) hat sich zum Ziel gesetzt, das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton:

    Kosmos Gehirn: eine von der Neurowissenschaftlichen Gesellschaft (http://nwg.glia.mdc-berlin.de/de) herausgegebene, reich bebilderte Broschüre, in der renommierte Experten in umfassender, leicht verständlicher Form Aufbau, Entwicklung, Funktion (darunter auch die Rolle in den Sinnesempfindungen: „Im Reich der Sinne“ ) und Erkrankungen des Gehirns darstellen (134 p, free download): http://nwg.glia.mdc-berlin.de/media/pdf/kosmos-gehirn.pdf

    Wolf Singer: vom Bild zur Wahrnehmung Video (2012) 2:03:05 (Wie man vom Bild auf der Netzhaut zur Sinneswahrnehmung kommt.) http://www.youtube.com/watch?v=5YM0oTXtYFM&list=PLc6DBeqxu-DGAGg1J4UeEIL...

    Humberto Maturana und Francisco Varela: Der Baum der Erkenntnis. Die biologischen Wurzeln menschlichen Erkennens. (Übersetzung von: El árbol del conocimiento.1984, 1987.) Frankfurt 2010. ISBN 978-3-596-17855-1. U.a. Die autopoietische Funktion (Selbstorganisation) des Nervensystems, das Milieu löst seine Reaktion aus, determiniert sie aber nicht.


     

    inge Fri, 25.04.2014 - 17:28

    Meine Welt — Warum sich über Geschmack nicht streiten lässt

    Meine Welt — Warum sich über Geschmack nicht streiten lässt

    Fr, 18.04.2014 - 11:30 — Gottfried Schatz Icon BiologieGottfried Schatz

    Jeder von uns nimmt die Umwelt in unterschiedlicher Weise wahr. Die moderne Biologie zeigt auf, dass und wie unsere Sinne für Geschmack, Geruch, Sehen, Hören und Tasten auf der Zusammensetzung und den individuellen Eigenschaften von spezifischen Sensoren (Rezeptor-Proteinen) beruhen. .

    Bin ich allein? Kann ich die Welt, die ich sehe und empfinde, mit anderen teilen – oder bin ich Gefangener meiner Sinne und der Armut meiner Sprache? Als unsere Vorfahren noch in Gruppen jagten, war Alleinsein Gefahr. Heute haben wir Angst vor Einsamkeit. Angst ist Furcht vor Unbekanntem, also sollte Wissenschaft sie uns überwinden helfen. Die moderne Biologie lehrt mich zwar, dass jeder von uns die Welt anders sieht, schmeckt, riecht und fühlt. Sie tröstet mich aber auch mit der Erkenntnis, dass meine Sinne mir Einmaligkeit schenken.

    Bitter oder nicht

    Dass Menschen Geschmack unterschiedlich empfinden, offenbarte ein unerwarteter Luftzug, der dem amerikanischen Chemiker Arthur Fox im Jahre 1931 ein Pulver (Abbildung 1) von seinem Experimentiertisch wegblies. Sein Tischnachbar verspürte sofort einen bitteren Geschmack, Fox dagegen nicht.

    PhenylthioharnstoffAbbildung 1. Phenylthioharnstoff.

    Der Geruch des giftigen Stoffes wird von vielen Menschen nicht wahrgenommen.

    Heute wissen wir, dass die Fähigkeit, dieses Pulver als bitter zu schmecken, erblich ist. Bitter zu erkennen, ist deshalb wichtig, weil die meisten pflanzlichen Gifte bitter sind. Wir haben in Menschen etwa 125 verschiedene Bitter-Sensoren identifiziert, wissen aber von den meisten noch nicht, welche Bitterstoffe sie erkennen.

    Menschen unterscheiden sich stark in ihren Bitter-Sensoren. Fast jeder Westafrikaner, aber nur etwa die Hälfte aller weissen Nordamerikaner kann das von Arthur Fox untersuchte Pulver als bitter erkennen. Westafrikaner sind die genetisch vielseitigste aller Menschengruppen und unterscheiden sich untereinander besonders deutlich in den Varianten ihrer Gene. Wahrscheinlich hat ein kleines Häufchen von ihnen vor etwa 25 000 bis 50 000 Jahren Nordeuropa besiedelt und uns nur einen kleinen Bruchteil der westafrikanischen Genvarianten mitgebracht. Deshalb müssen wir Nordeuropäer und unsere Abkömmlinge mit dem beschränkten Geschmacksrepertoire dieser wenigen afrikanischen Auswanderer auskommen und sind deshalb für gewisse Bitterstoffe blind.

    Wir empfinden nicht nur bitter, sondern auch süss, sauer, salzig – und umami, den Geschmack von Natriumglutamat, das vielen chinesischen Gerichten ihren besonderen Reiz verleiht. Unsere Sensoren für sauer und salzig sind noch wenig erforscht, doch die für süss und umami sind gut bekannt. Wir besitzen von ihnen etwa ein halbes Dutzend Grundtypen und dazu noch viele persönliche Varianten, so dass verschiedene Menschen süssen Geschmack wahrscheinlich mit unterschiedlicher Intensität wahrnehmen. Kein Mensch ist jedoch gegenüber süss oder umami ganz unempfindlich. Wahrscheinlich hat die Evolution den Verlust von Sensoren für süss und umami verhindert, da sie uns kalorien- und stickstoffreiche Nahrung anzeigen. Katzen, die keine süssen Kohlenhydrate essen, haben ihre Sensoren für süss jedoch verloren und sind für süssen Geschmack unempfindlich. – Unsere Geschmackssensoren beeinflussen nicht nur die Wahl unserer Nahrung, sondern vielleicht auch die unserer Suchtmittel. Da die Neigung zu Alkohol- oder Nikotinsucht zum Teil erblich ist, könnte es sein, dass die individuellen Geschmackssensoren manchen Menschen Alkohol oder Zigarettenrauch besonders schmackhaft machen. Wenn dies zuträfe, könnten wir die dafür verantwortlichen Sensoren vielleicht durch Medikamente beeinflussen. Genetische Untersuchungen werden wohl auch bald zeigen können, wer zu Alkoholismus oder Nikotinsucht neigt oder wer gewisse Getränke oder Speisen bevorzugt. Hoffentlich werden wir diese Möglichkeiten nicht missbrauchen.

    Dumpfes Zauberreich, helle Augen

    Der «Geschmack» unserer Nahrung wird auch vom Geruch bestimmt – und Gerüche sind ein verwirrendes Zauberreich. Wir erkennen Millionen verschiedener Duftstoffe und setzen dafür etwa 400 verschiedene Sensoren ein. Im Verein mit unseren Geschmackssensoren können wir so über 10 000 verschiedene Aromen unterscheiden. Mäuse und Ratten fänden dies nicht bemerkenswert, denn ihre hochempfindlichen Nasen sind mit weit über 1000 verschiedenen Geruchssensoren bestückt. Unsere fernen Vorfahren hatten wahrscheinlich fast ebenso viele – nämlich mindestens 900. Im Verlauf unserer Entwicklung während der letzten 3,2 Millionen Jahre liessen wir jedoch mehr als die Hälfte von ihnen verkümmern und schleppen ihre verrotteten Gene immer noch von einer Generation zur anderen. Um Homo sapiens zu werden, mussten wir nicht nur Neues lernen, sondern auch Ererbtes über Bord werfen. Auf unserem langen Entwicklungsweg hatten wir den Mut, das dumpfe Zauberreich der Düfte gegen die helle Präzision unserer Augen zu vertauschen.

    Unsere Augen arbeiten mit vier verschiedenen Lichtsensoren. Der Sensor in den Stäbchen unserer Netzhaut ist sehr lichtempfindlich, kann jedoch keine Farben erkennen. In der Dunkelheit verlassen wir uns nur auf ihn – und sehen dann alle Katzen grau. Bei hellem Licht schalten wir auf drei Farbsensoren in unseren Zäpfchen: einen für Blau, einen für Grün und einen für Rot. Sie sind zwar nicht besonders lichtempfindlich, zeigen uns aber Farbe und dazu noch für jede Farbe etwa hundert verschiedene Farbintensitäten. Da unser Gehirn die Signale der Sensoren miteinander vergleicht, können wir bis zu zwei Millionen Farben sehen. Viele andere Tiere, wie Insekten und Vögel, besitzen bis zu fünf verschiedene Farbsensoren und können daher nicht nur viel mehr Farben als wir Menschen unterscheiden, sondern zum Teil auch ultraviolettes oder infrarotes Licht erkennen, für das wir blind sind. Da die ersten Säugetiere meist Nachtjäger waren, begnügten sie sich mit zwei Farbsensoren, so dass fast alle heutigen Säugetiere nur etwa 10 000 verschiedene Farben sehen. Erst die frühen Menschenaffen entwickelten wieder einen dritten Farbsensor, so dass ihre heutigen Nachfahren – und auch wir Menschen – die Welt in Millionen von Farben sehen.

    Etwa vier Prozent aller Menschen sehen jedoch viel weniger Farben, weil ihnen der Grün- oder der Rotsensor fehlt; sie sind farbenblind. Umgekehrt dürften manche Frauen bis zu 100 Millionen Farben unterscheiden können, weil sie einen vierten Farbsensor besitzen. Sie haben es wahrscheinlich nicht immer leicht, da ihnen die Farben auf Fotos oder Fernsehschirmen falsch erscheinen dürften. Sie könnten aber auch aus subtilen Farbänderungen des Gesichts Lügner erkennen oder farbige Diagramme besonders schnell begreifen. Weltweit könnte es fast 100 Millionen solcher «Superfrauen» geben; allerdings haben wir noch keine eindeutig identifiziert, da wir Farbempfindungen nicht objektiv messen können. Männer können solche Frauen nur neidisch bewundern. Aber bevor sie sie heiraten, sollten sie bedenken, dass wahrscheinlich jeder zweite ihrer Söhne farbenblind wäre. Liebe zu diesen Frauen würde nicht nur blind, sondern auch farbenblind machen.

    Jeder von uns sieht, riecht und schmeckt also auf seine Weise, und dies gilt auch für unser Hören und unsere Schmerzempfindlichkeit (Abbildung 2). Pietro Paolini (1603 -1683): Allegorie der 5 SinneAbbildung 2. Pietro Paolini (1603 -1683): Allegorie der 5 Sinne. Von links: Geschmack (Mann, der einen Weinkrug leert), Hören (Lautenspielerin), Sehen (Mann, der Brille hält), Geruch (Jüngling, der an Melone riecht). (Tastsinn (2 Kämpfer) ist nicht gezeigt).

    Unsere Sinne zeigen uns eine Welt, die anderen verschlossen bleibt. Entspringt Kunst der Sehnsucht, dieser persönlichen Welt zu entrinnen und ihr allgemeine Gültigkeit zu geben?


    Weiterführende Links

    www.dasGehirn.info hat sich zum Ziel gesetzt, das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton:

    Von Stäbchen und Zapfen

    Christof Koch über visuelle Wahrnehmung (Video 32,4 min)

    Riechen & Schmecken

    Verwandte Artikel auf ScienceBlog.at

    Walter Gehring: Auge um Auge — Entwicklung und Evolution des Auges

    Wolfgang Knoll: Die biomimetische künstliche Nase – wie weit sind wir?

    Gottfried Schatz:


     

    inge Fri, 18.04.2014 - 11:30

    ScienceBlog.at ein Jahr nach dem Relaunch — Kontinuität und Weiterentwicklung

    ScienceBlog.at ein Jahr nach dem Relaunch — Kontinuität und Weiterentwicklung

    Fr, 12.04.2014 - 05:18 — Redaktion

    Fast auf den Tag genau vor einem Jahr – und nach bereits beinahe zwei Jahren Bloggeschichte – kündigte ScienceBlog.at den Provider und zog auf eine neue Website um, diesmal auf eigener Infrastruktur. Unverändert blieb unser Anspruch, „Wissenschaft aus erster Hand“ zu bieten: nach wie vor sind die Blog-Artikel von Topexperten verfasst, die über ihre Forschungsgebiete in einer für Laien leicht verständlichen Sprache schreiben..

    Verändert hat sich die Gestaltung der Seite, und diese Entwicklung geht weiter in Richtung optimiertes Layout, möglichst hohe Benutzerfreundlichkeit und eine Strukturierung, welche uns erlaubt, von den vielen Möglichkeiten, die das System uns bietet, Gebrauch zu machen. Eine dieser Weiterentwicklungen ist das Gruppieren der Artikel nach Themenschwerpunkten, die wir Ihnen – heute beginnend mit „Evolution“ – in den folgenden Wochen einzeln vorstellen möchten.

    Ein Jahr auf der neuen Website

    Unter dem Titel „ScienceBlog in neuem Gewande — Kontinuität und Neubeginn“ [1] erschien am 12. April des Vorjahrs der erste Beitrag auf der neuen Seite. Der Artikel beschrieb die Themen des Blogs, den Qualitätsanspruch an Inhalte und Autoren und die Resonanz, die der Blog auf seiner alten Seite hatte. Weitere Details finden sich im Artikel „Der ScienceBlog zum Jahreswechsel 2013/2014“ [2].

    Ein sehr dickes Buch

    Als Naturwissenschafter wird es einem heute immer deutlicher vor Augen geführt, dass und wie die Grenzen zwischen einzelnen naturwissenschaftlichen Disziplinen verschwimmen: Ein Biochemiker, beispielsweise, ebenso wie ein Biologe, muss heute Wissen und Technologien aus Fächern wie analytischer, organischer und physikalischer Chemie, aus Strukturbiologie, Molekularbiologie, Genetik, Physiologie und vielleicht auch Pathologie anwenden. Darüber hinaus benötigt er auch einige Kenntnisse in Datenverarbeitung und -speicherung. Auch die moderne Medizin („science-based medicine“) ist eine molekulare Wissenschaft geworden, benötigt neben medizinisch/pharmazeutischen Grundlagen chemisch/biologische Expertise und ein Arsenal an physikalischen/chemischen Untersuchungs- und Analysenmethoden. Ähnlich komplexe, fächerübergreifende Zusammenstellungen finden sich in den meisten anderen naturwissenschaftlichen Disziplinen.

    Mit ScienceBlog.at wollten wir von Anfang an der transdisziplinären Natur der meisten naturwissenschaftlichen, auch auf andere Gebiete angewandten, Problemstellungen Rechnung tragen. Die Artikel sollten Naturwissenschaften in ihrer ganzen Breite umspannen, es sollte daraus etwas entstehen, das Aspekte aus allen Gebieten darstellte, und die so – als immer wieder neu zusammenstellbare Bausteine – ein „Kaleidoskop der Naturwissenschaft“ schaffen würden.

    Nachdem bereits alle auf der alten Seite erschienenen wissenschaftlichen Artikel auf die neue Seite transferiert sind (ihre Inhalte hatten nichts an Gültigkeit der Information und der Aussagen eingebüßt), liegen mit den wöchentlich neu erscheinenden Beiträgen nun insgesamt 140 Artikel vor. Zur Förderung von Lesbarkeit und Verständnis weisen die meisten Artikel Illustrationen auf und verfügen über weiterführende Links: seriöse, leicht verständliche und frei zugängliche Literatur und – wenn möglich – auch Videos. Bei einer durchschnittlichen Länge der Artikel von rund 1'600 Wörtern plus den weiterführenden Links, entsprechen alle Artikel zusammengenommen dem Volumen eines Buchs von mindestens 1'000 Seiten im Printformat.

    Ein derartiges Buch („Kaleidoskop der Naturwissenschaft“) benötigt eine Strukturierung in Kapitel und Unterkapitel – eine Anwendung, die durch das verwendete Content-Managing-System „Drupal“ unseres Blogs durchaus ermöglicht wird. Wir haben die bis jetzt erschienenen Artikel nach ihren Themen einem oder auch mehreren Schwerpunkten zugeordnet und entsprechende Schlagwortlisten erstellt. Neue Artikel werden dementsprechend laufend eingegliedert und bei Bedarf neue Schwerpunkte gesetzt. Die Schwerpunkte geben die Möglichkeit, ein Thema von den Gesichtspunkten unterschiedlicher Disziplinen aus kennenzulernen, wobei jede Disziplin durch darin international ausgewiesene Experten repräsentiert wird, die ihr Wissen und ihre Standpunkte in leicht verständlicher Form kommunizieren.

    Es entsteht somit ein neues Format, eine Art „e-Blogbook“, das über Themenschwerpunkte ein Vorgehen nach Art eines e-Books erlaubt, darüber hinaus aber die Möglichkeit einer breiten Diskussion im Blog bietet.

    Zu den Autoren

    Bis jetzt konnten wir 54 Autoren rekrutieren, davon 17 im Vorjahr. Die meisten Autoren haben österreichische Wurzeln und sind international hochrenommierte Experten. Das Navigationssystem des Blogs bietet unter „Autoren“ zumeist ausführliche (wissenschaftliche) Lebensläufe der alphabetisch aufgelisteten Personen und Links zu ihren im Blog erschienenen Artikeln.

    In unserem Konzept, renommierte Wissenschafter als Kommunikatoren ihrer Fächer auftreten zu lassen, sehen wir eine Parallele zum „Botschafterprogramm“, einem Pilotprojekt der US National Academy of Sciences (NAS), „um der Notwendigkeit eines allgemein besseren Verständnis für wissenschaftliche Belange begegnen zu können. […] Aufbauend auf der Hochachtung, welche die Bevölkerung für Wissenschafter und Technologen empfindet [..wurde von der NAS..] ein Team erfahrener Wissenschafter und Technologen aus dem akademischen Umfeld, der Industrie und dem staatlichen Bereich ausgewählt, die als Botschafter der Wissenschaft dienen sollen.“ [3]. Auch in unserem Land (ebenso wie in anderen EU-Ländern) hält der überwiegende Teil der Bevölkerung Wissenschafter selbst für wohl am besten geeignet, um die Auswirkungen von wissenschaftlichen und technologischen Entwicklungen auf die Gesellschaft zu durchleuchten und zu erklären [4].

    Resonanz auf den ScienceBlog.at

    Seit dem Relaunch der Seite sehen wir steigende Zugriffszahlen (Abbildung 1). Im vergangenen Monat März zählte unsere Serverstatistik (Webalizer) bereits 12'771 Besucher (unterschiedliche IP-Adressen), die in diesem Zeitraum 151'011 Seiten abfriefen. Jeder Besucher hatte also offensichtlich wesentlich mehr als nur eine Seite gelesen. In den vergangenen 12 Monaten wurden rund 1,4 Millionen Seiten abgerufen, sodass unser Server etwa 52 Terabyte auslieferte.

    BesucherzahlenAbbildung 1. Die Zahl der Besucher mit unterschiedlichen IP-Adressen und der Seitenaufrufe steigen laufend an. (Daten: eigene Messung mit Webalizer)

    Einen Vergleich mit den dominierenden deutschsprachigen Wissenschafts-Portalen Scienceblogs.de und Scilogs.de – beides aus jeweils mehreren Dutzend Einzelblogs bestehende Portale – brauchen wir nicht zu scheuen (Tabelle 1). Der Serverdienst Alexa sieht uns im globalen Ranking zwar noch hinter beiden Portalen, in Österreich jedoch liegen wir bereits klar voran. Vor allem zeichnet sich unser Blog durch eine wesentlich niedrigere Absprungrate aus und – im Einklang mit der vielfach höheren Seitenanzahl pro Besucher – durch eine 20fach (sic) längere Verweilzeit.

    Blog Rang global Rang Österreich Absprung-
    rate [%]
    Tägl. Seiten-aufrufe/Besuch Tägl.Besuchs-
    dauer [min]
    PageRank (google)
    Scienceblogs.de 97'549 4'858 59,6 1,70 2,34 6/10
    Scilogs.de 163'701 8'368 63,7 1,59 2,18 6/10
    ScienceBlog.at 228'533 1'182 35,8 30,00 46,05 7/10

    Tabelle 1. Statistische Daten zu den dominierenden deutschsprachigen Wissenschafts-Portalen Scienceblogs.de und Scilogs.de sowie ScienceBlog.at (Daten von alexa.com abgerufen am 11.4.2014, 14:00).

    Insbesondere hat unsere Seite in der Google-Bewertung „PageRank“ ein '7/10' erhalten – eine Bewertung, die bis jetzt nur sehr wenige Wissenschaftsblogs erzielten (z.B. das amerikanische Format Science-Based-Medicine). Wir sind über diese hohe Wertschätzung sehr glücklich und hoffen, dass wir dieser mit unserem Anspruch auf höchste Qualität an Autoren, Inhalte und Form der Kommunikation auch weiterhin gerecht werden. AC

    Themenschwerpunkt Evolution

    „Evolution“ ist ein zentrales Thema auf ScienceBlog.at, ist Leitmotiv von Artikeln aus unterschiedlichsten Disziplinen und lässt sich wohl am besten durch das Zitat des Evolutionsbiologen Theodosius Dobzhansky aus dem Jahr 1973 charakterisieren „Nichts macht Sinn in der Biologie, wenn man es nicht im Lichte der Evolution betrachtet.“

    Evolution als Hauptthema ihrer Beiträge haben bis jetzt 7 Autoren gewählt; sie repräsentieren state-of-the-art-Standpunkte aus den Disziplinen Mathematik, Informatik, Physik, Astrophysik, Chemie, Biochemie und Biologie. Die insgesamt 20 Beiträge geben ein umfassendes Bild, das von der Evolution des Kosmos und der Entstehung von Molekülen, die als Bausteine des Lebens fungierten (chemische Evolution) zur Entstehung des Lebens und primitiver Lebensformen führten und von hier zur Entwicklung und Modellierung von immer komplexeren biologischen Systemen (biologische Evolution) bis hin zu Vorgängen zur Umgestaltung von Gesellschaften und deren Verhaltensweisen (Tabelle 2).

    Unterkapitel Autor Titel
    Ursprung des Kosmos Peter Aichelburg Das Element Zufall in der Evolution
    Christian Noe „Formaldehyd als Schlüsselbaustein der präbiotischen Evolution — Monade in der Welt der Biomoleküle
    Entstehung des Lebens, primitive Lebensformen Gottfried Schatz Die grosse Frage – Die Suche nach ausserirdischem Leben
    Der kleine warme Tümpel - Was urtümliche Einzeller von der Frühzeit des Lebens berichten
    Sonnenkinder — Wie das atomare Feuer der Sonne die Meerestiefen erhellt
    Schöpfer Zufall — Wie chemische Zufallsprozesse dem Leben Vielfalt schenken
    Spurensuche — Wie der Kampf gegen Viren unser Erbgut formte
    Peter Schuster Zum Ursprung des Lebens- Konzepte und Diskussionen
    Letale Mutagenese — Strategie im Kampf gegen Viren
    Evolution komplexer Lebensformen Walther Gehring Auge um Auge - Entwicklung und Evolution des Auges
    Evolution der Gesellschaft Karl Sigmund Die Evolution der Kooperation
    Peter Schuster Recycling & Wachstum — Vom Ursprung des Lebens bis zur modernen Gesellschaft
    Gottfried Schatz Sprachwerdung — Wie Wissenschafter der Geburt menschlicher Sprache nachspüren
    Wie geht es weiter? Peter Schuster Können wir Natur und Evolution übertreffen? Teil 1: Gedanken zur Synthetischen Biologie
    Können wir Natur und Evolution übertreffen? Teil 2: zum design neuer Strukturen
    Uwe Sleytr Evolution – Quo Vadis?
    Theoretische Aspekte der Evolution Peter Schuster Wie universell ist das Darwinsche Prinzip?
    Unzähmbare Neugier, Innovation, Entdeckung und Bastelei
    Gibt es Rezepte für die Bewältigung von Komplexität?
    Zentralismus und Komplexität

    Tabelle 2. Artikel auf ScienceBlog.at zum Hauptthema Evolution

    Aktivitäten 2014

    Wissenschaftskommunikation muss und kann aber nicht nur in Schriftform erfolgen – nicht von ungefähr ist „be-greifen“ ein Synonym für „verstehen“. In diesem Sinne bemüht sich ScienceBlog.at auch dort um den Brückenschlag zwischen Wissenschaft und Gesellschaft, wo das mit dem geschriebenen Wort kaum möglich ist und wo die Anschauung schneller und direkter zum Ziel führt: der Teilchenbeschleuniger LHC (Large Hadron Collider) des CERN (Centre Européenne pour la Recherche Nucléare) in der französischen Schweiz erfährt derzeit eine größere Abschaltung wegen Servicearbeiten und für ein Upgrade, und ScienceBlog.at nützt die freundliche Einladung von Angehörigen des Instituts für Hochenergiephysik der ÖAW, um eine Besichtigung zu organisieren, die im Herbst heurigen Jahres stattfinden wird. Letzte Kleinigkeiten sind noch zu organisieren, doch schon in den nächsten Wochen werden wir Details zur Anmeldung bekannt geben können. Wir erhoffen eine rege Publikumsteilnahme, sodass wir schon jetzt anregen, die entsprechende Ankündigung geistig zu notieren.

    Aber auch abseits von der reinen Vermittlung naturwissenschaftlicher Inhalte versuchen wir, uns nach den uns zur Verfügung stehenden Möglichkeiten einzubringen: die Universität Berkeley hat ein Software-Framework „BOINC – Berkeley Open Infrastructure for Network Computing“ geschaffen, über das jeder mit dem Internet verbundene Computer Wissenschaftern auf der ganzen Welt Rechenleistung zur Verfügung stellen kann. Rechenintensive Projekte verteilen über die BOINC-Server Arbeitspakete, die man auf dem eigenen Gerät mit der unbenützten CPU-Zeit abarbeitet und die Ergebnisse hochlädt. ScienceBlog.at beteiligt sich an 13 (von ungefähr hundert möglichen) Projekten, die uns wichtig erscheinen: von der Beherrschung von Malaria über die Simulation von Wirkmechanismen neuer Medikamente und Klimasimulation bishin zu – und hier schließt sich ein Kreis – der Auswertung von LHC-Daten ist der Bogen gespannt. Unter 2,7 Millionen Rechenanlagen, die weltweit teilnehmen oder -nahmen, performen wir mittlerweile unter den top 3‰.

    Und freilich bedarf auch Internes der kontinuierlichen Pflege:

    • Benutzern von Mobilgeräten wird nun eine vereinfachte Seite ausgeliefert, was hoffentlich die ohnehin gute Ladezeit (SpeedScore 90/100, üblich ist 75-85) auf Mobilgeräten weiter verbessert. Natürlich steht auch auf Mobilgeräten der volle Funktionsumfang inklusive Suche und Navigationsbaum weiterhin zur Verfügung!
    • Außerdem haben wir vor kurzem die CPU-Kapazität unseres Servers verdreifacht, um dem gestiegenen Aufkommen gerecht zu werden. Dem Speicher steht ebenso wie der Bandbreite der Netzwerkanbindung Ähnliches unmittelbar bevor, sodass wir hoffen dürfen, technisch für die nächsten Jahre gerüstet zu sein.
    • Außerdem können wir ankündigen, dass unsere Seiten in den nächsten Wochen eine professionelle, graphische Überarbeitung erfahren werden.

    Fazit

    ScienceBlog.at unterscheidet sich von anderen Wissenschaftsblogs:

    inge Fri, 11.04.2014 - 16:50

    Wunderwelt der Kristalle — Von der Proteinstruktur zum Design neuer Therapeutika

    Wunderwelt der Kristalle — Von der Proteinstruktur zum Design neuer Therapeutika

    Fr, 04.04.2014 - 05:20 — Bernhard Rupp Icon PhysikBernhard Rupp

    Vor hundert Jahren schlug mit der Verleihung des Nobelpreises an Max von Laue für seine Entdeckung der Beugung von Röntgenstrahlen an Kristallgittern nicht nur die Geburtsstunde der Kristallographie [1], sondern auch die Geburtsstunde von Max Perutz, einem Pionier der Röntgenkristallographie von Proteinen. Der ursprünglich aus Österreich stammende Chemiker hat – zusammen mit dem Engländer John Kendrew - trotz unüberwindlich scheinender Schwierigkeiten in Jahrzehnte langer Arbeit gezeigt, daß man die Struktur von Proteinen bestimmen kann.

    Jeder von uns kennt Kristalle - aus Mineraliensammlungen ebenso wie aus dem Alltagsleben, aus dem die Kristalle kleiner Moleküle wie u.a. von Kochsalz und Zucker nicht wegzudenken sind. Mit Kristallen assoziieren wir üblicherweise Eigenschaften wie Härte, Dauerhaftigkeit und Schönheit.

    Auch sehr große Moleküle, selbst die größten Eiweissmoleküle (Proteine), können sich in Form geordneter Kristalle organisieren. Protein-Kristalle sind – wie Abbildung 1 zeigt - nicht weniger schön als die der Mineralien, weisen aber einen entscheidenden Unterschied auf. Sie wachsen zu nur sehr kleinen Kristallen heran und sind sehr empfindlich und zerbrechlich. Proteinkristalle

    Abbildung 1 Proteinkristalle. Auch große Proteinkristalle sind meistens nur wenige Zehntel Millimeter groß und werden unter dem Mikroskop betrachet. Diese Eigenschaften lassen sich unmittelbar aus den Kristallstrukturen ableiten: i) Die Wechselwirkungen, welche die einzelnen Proteinmoleküle im Kristallgitter zusammenhalten sind schwach im Vergleich zu den Wechselwirkungen zwischen den Atomen im Kristallgitter der Mineralien und ii) der Raum zwischen den Protein-Molekülen – im Mittel an die 50 % - ist mit der Mutterlauge gefüllt, in welche r die Kristalle heranwuchsen (Abbildung 2). Besonders überraschend war es, als die ersten Kristallstrukturen von Proteinen das Fehlen jeglicher Symmetrie in den Molekülen selbst zeigten, diese jedoch schöne symmetrische Kristalle bildeten. Proteinmoleküle im KristallgitterAbbildung 2. Proteinmoleküle im Kristallgitter. Die völlig asymmetrischen Proteinmoleküle organisieren sich zu geordneten Kristallen (vereinfachte zweidimensionale Darstellung). Die intermolekularen Wechselwirkungen zwischen den einzelnen Proteinen (rote, blaue, grüne Pfeile, rechtes Bild) sind relativ schwach. Der verbleibende Raum zwischen den Proteinmolekülen (im Durchschnitt 50 % des Kristallvolumens) ist mit Mutterlauge gefüllt.

    Wie Proteinkristalle wachsen, kann in einem kurzen Video beobachtet werden [2].

    Proteine – von sehr klein bis ganz groß

    Proteine sind biologische Makromoleküle mit höchst unterschiedlichem Aufbau, die zahllose, für jedes Leben essentielle Funktionen ausüben:

    Proteine regulieren u.a. das Ablesen der in der DNA gespeicherten genetischen Information und deren Übersetzung in Proteine, sie fungieren als Katalysatoren (Enzyme) in Stoffwechselvorgängen, synthetisieren und metabolisieren andere Proteine und bauen Fremdstoffe ab. Proteine, die als Rezeptoren in den Zellmembranen sitzen, ermöglichen den Informationsaustausch zwischen den Zellen und deren Umgebung. Proteine fungieren als Transporter für Moleküle und wiederum andere Proteine bilden die strukturellen Gerüste der Zellen.

    Grundbausteine aller Proteine in allen Organismen sind 20 verschiedene Aminosäuren (L-alpha-Aminosäuren), die in unterschiedlicher Reihenfolge (Sequenz) zu linearen Ketten verknüpft (als sogenannte Polypeptide) vorliegen und durch Faltung zu verschiedenartigsten, funktionsspezifischen Strukturen führen. Um dabei räumliche Voraussetzungen zu schaffen, die einzelne biochemische Funktionen ermöglichen, sind Ketten mit mindestens 40 – 50 Aminosäuregruppen notwendig. Von dieser unteren Grenze weg, können Proteine aber auch mehrere tausend Aminosäuregruppen groß werden und dann mehrere funktionelle Domänen enthalten und daher mehrere Funktionen ausüben (Abbildung 3 A, B).

    Wenn Proteine mit sich selbst oder mit anderen großen Biomolekülen assoziieren, können noch größere Strukturen entstehen. Beispielsweise treten tausende Aktin-Moleküle (zu je rund 375 Aminosäureresten) zusammen um eine einzige Aktin-Faser zu erzeugen – eine für die Stabilität und Motilität von Zellen, ebenso wie für die Muskelkontraktion essentielle Struktur. Ein weiteres Beispiel sind die Ribosomen – die Maschinerie der Proteinbiosynthese -, riesige Komplexe, die sich aus vielen unterschiedlichen Proteinen und den ribosomalen Ribonukleinsäuren (rRNA‘s) zusammensetzen (Abbildung 3C).

    Es ist der Leistungsfähigkeit der Kristallographie, ebenso wie der Ausdauer der Strukturbiologen zu verdanken, daß die Strukturen auch dieser sehr großen Komplexe bis ins atomare Detail bestimmt werden konnten. Mittels Röntgenkristallographie bestimmte ProteinstrukturenAbbildung 3. Mittels Röntgenkristallographie bestimmte Proteinstrukturen, Beispiele: A) Trypsininhibitor aus Rinderpankreas (PDB 1bpi); ein kleines, aus 58 Aminosäuren bestehendes Protein mit einem Molekulargewicht 8000 Da, notwendig zur Regulierung der Proteinverdauung B) Neurotoxin des Bakteriums Clostridium botulinum (PDB 3bta); die giftigste natürliche Substanz die wir kennen (1 mg tötet ein Pferd): das Protein enthält drei Domänen mit unterschiedlichen Funktionen: (i) Zelladhäsion an Nervenzellen, (ii) Transport in die Nervenzellen, wo (iii) durch die Proteasefunktion der dritten Domäne (links in Abb. B) die Spaltung eines wichtigen intraneuronalen Proteins und in Folge Inaktivierung der Vesikelfusion stattfindet. Die dadurch blockierte Freizsetzung der Neurotransmitter führt zur Muskelparalyse und Erstickung. Darauf beruht auch die kosmetische Wirkung bei subkutaner Injektion: Falten, die durch Anspannung der Gesichtsmuskel entstehen, glätten sich. C) Ribosom – S50 Untereinheit eines Bakteriums (PDB 1ffk); Die 2 000 000 Da große Struktur enthält 27 unterschiedliche Proteine und die ribosomale 5S RNA und 23S RNA. Ribosomen selbst sind die zellulären Maschinen der Proteinproduktion. Alle Strukturen sind als Bändermodelle dargestellt (Längenangaben in Ångstrom (1Å = 0,1 Nanometer), Masse in Dalton (atomare Masseneinheit, 1 Da entspricht der Masse eines Protons)).

    Von den ersten 3D-Proteinmodellen bis heute

    Für die ersten Röntgenstrukturanalysen von Proteinen erhielten der aus Wien stammende Chemiker Max Perutz und der englische Biochemiker John Kendrew den Nobelpreis im Jahre 1962 - fünfzig Jahre nach der Entdeckung der Röntgenstrahlbeugung an Kristallgittern durch Max von Laue [1]. Perutz hatte während seines Studiums an der Universität Wien von faszinierenden biochemischen Untersuchungen in Cambridge gehört und war 1936 für die Erstellung seiner Doktorarbeit dorthin aufgebrochen. 1937 begann er am Cavendish Laboratory die ersten Röntgenbeugungsversuche an Kristallen des Hämoglobin auszuführen, dem relativ kleinen, in den roten Blutkörperchen konzentriert vorliegenden Protein, welches Sauerstoff in der Lunge aufnimmt und im Blutkreislauf an Organe des Körpers wieder abgibt. Zehn Jahre später kam John Kendrew in das Perutz-Labor und begann an der Röntgenstrukturanalyse des Myoglobin zu arbeiten. Dieses, mit Hämoglobin strukturverwandte, aber nur ein Viertel so große Protein dient in den Muskelzellen von Säugetieren der Speicherung und Abgabe von Sauerstoff. Die Versuche von Perutz und Kendrew führten erst in den 1950er Jahren zu ersten brauchbaren Resultaten. Wie die ersten Modelle der Proteinstrukturen aussahen, ist in Abbildung 4 aufgezeigt. Proteinmodelle historischAbbildung 4. Wie Proteinmodelle anfänglich aussahen. Oben links: Myoglobin: dasWurstmodell* von John Kendrew (späte 1950er-Jahre) zeigt nur die Faltung der Aminosäurekette, Oben rechts: Hämoglobin Modell aus Balsaholz von Max Perutz (1959)*. Holzscheiben markieren den Verlauf der Aminosäureketten der 4 Untereinheiten (2 weiße, 2 schwarze). Unten links: John Kendrew und Max Perutz vor dem „Wald von Stäbchen“*, die Kendrew als Basis für die Konstruktion des Myoglobin aus den Aminosäuren benutzte (1960) (Kendrew Modell). Unten rechts: zu restaurierendes Kendrew Modell des Arabinose-Bindungsproteins aus E. coli, welches von Gary Gilliland, Florante Quiocho and George Philips (Rice University) in den frühen 1970-Jahren in den Maßen 1 x 1,5 x 2,5 m erstellt wurde. (* Fotos mit Genehmigung des MRC Laboratory of Molecular Biology).

    In seiner Laudatio anlässlich der Nobelpreisverleihung führte G. Hägg dies so aus: „Als Ergebnis der Arbeiten von Kendrew und Perutz wird es nun möglich die Prinzipien zu sehen, welche dem Aufbau globulärer Proteine zugrundeliegen. Dieses Ziel wurde nach 25 Jahren Arbeit mit anfänglich nur äußerst mäßigen Erfolgen erreicht. Wir bewundern die beiden Wissenschafter daher nicht nur für ihre Genialität und Fertigkeiten, mit denen sie ihre Untersuchungen ausführten, sondern auch für ihre Geduld und Ausdauer, welche die anfangs unüberwindlich scheinenden Schwierigkeiten bewältigten. Wir wissen jetzt, daß man die Struktur von Proteinen bestimmen kann und es ist sicher, daß eine Reihe neuer Bestimmungen bald folgen wird“ [3]

    Rund 50 Jahre später sind bereits an die 100 000 Strukturmodelle von Proteinen aus Menschen, Tieren, Pflanzen und Mikroorganismen in der frei zugänglichen Protein Datenbank (PDB) [1, 4] gespeichert. Im Laufe der Jahre wurden die analysierten Strukturen immer größer und komplexer (Abbildung 5). Die Interpretation neuer Beugungsdaten, d.h. die Erstellung von 3D-Struktur-Modellen, erfolgt heute auf Basis all dieser akkumulierten Informationen – ganz zum Unterschied zu den frühen Tagen der Kristallographie, wo die Forscher noch auf keinerlei Basiswissen über Proteinstrukturen zurückgreifen konnten. Auch die Versuchsführung selbst hat sich grundlegend verändert: der gesamte Vorgang von der Kristallisation, Probenahme, Überführung zur Röntgenstrahlungsquelle, raschen Sammlung der Messdaten bis zur hocheffizienten 3D-Strukturbestimmung wurde weitgehend automatisiert und enorm beschleunigt [5]. Die ungeheure Steigerung in Rechenleistung und Speicherfähigkeit moderner Computer ermöglicht, daß auch preiswerte Desktop- oder Laptop-Computer innerhalb von Minuten bis Stunden komplexe kristallographische Berechnungen ausführen können. Röntgenstrukturanalysen von Proteinen und ProteinkomplexenAbbildung 5. Röntgenstrukturanalysen von Proteinen und Proteinkomplexen. Die Zahl an aufgeklärten Strukturen steigt exponentiell an – seit 2008 ist sie auf insgesamt rund 100 000 Strukturen angewachsen [1] - und die untersuchten Moleküle/Molekülkomplexe werden immer größer. Abbildung zusammengestellt von Christine Zardecki, Protein Data Bank (USA).

    Die Möglichkeit Moleküle bis in die atomaren Details betrachten zu können, hat zu einer Revolution im Verstehen der Zusammenhänge von Struktur und Funktion der Proteine geführt und damit die Chance geschaffen, Eigenschaften von Proteinen und damit auch deren Funktionen gezielt zu modulieren. Derartige zielgerichtete Veränderungen sind von grundlegender Bedeutung u.a. in dem Prozess, der zum Auffinden neuer Arzneistoffe führt.

    Wie wirken Arzneistoffe?

    Um neue Arzneistoffe zu entdecken oder bereits vorhandene entscheidend zu verbessern, werden deren therapeutische Angriffspunkte (Targets) identifiziert - in den meisten Fällen sind dies Proteine, die sich von mit der Krankheit ursächlich verbundenen dysregulierten oder defekten Genen herleiten. Ist ein derartiges Target-Protein gefunden, wird es mittels biotechnologischer Methoden in ausreichender Menge hergestellt (exprimiert), aufgereinigt und nach Möglichkeit zur Kristallisation gebracht. Die Kristallbildung erfolgt häufig vollautomatisch im Hochdurchsatz(High Throughput)-Verfahren, wobei die Kristallisation auch in Gegenwart einer Reihe kleiner Moleküle (Liganden) ausgeführt wird. Aus der Kristallstrukturanalyse des Protein-Liganden Komplexes wird dann ersichtlich, ob und welche Liganden dort andocken und die Funktion des Proteins und damit einen im Zusammenhang stehenden Krankheitsprozess maßgeblich beeinflussen könnten. Derartige Moleküle dienen dann als Leitverbindungen – sogenannte „Leads“ - für die Entwicklung neuer, spezifischer Arzneistoffe. Der Prozess ist in Abbildung 6 vereinfacht dargestellt. Entdeckung neuer WirkstoffeAbbildung 6. Entdeckung neuer Wirkstoffe. Unterschiede in der Genexpression von krankem (z. B Krebs) versus gesundem Gewebe (Differential Genomics) weisen auf falsch regulierte und/oder defekte Gene hin: deren Genprodukte – Proteine – können geeignete Targets für die Auffindung neuer Arzneistoffe sein und werden, wie im Text beschrieben, untersucht. Als Beispiel der röntgenkristallographischen Untersuchungen an bakteriellen Zielproteinen ist im unteren Teil des Bildes dargestellt, wie die aktive Form des gegen Tuberkulose angewandten Standard-Medikaments Isoniazid (als Stäbchenmodell) in einer Bindungstasche des bakteriellen Target-Enzyms positioniert ist, darunter die Struktur eines Moleküls, das als Leitverbindung für die Synthese eines neuen, effizienteren Arzneistoffes gegen Antibiotika-resistente Bakterien dient.

    Die Röntgenkristallographie zeigt auf, wie und warum kleine Moleküle etwa bakterielle Proteine blockieren, die essentiell mit der Funktion eines Krankheitserregers verknüpft sind, oder wie sie beispielsweise als Inhibitoren von Rezeptorproteinen fungieren, welche Tumorzellen für ihr unkontrolliertes Wachstum benötigen. Darüber hinaus erlaubt es die genaue Kenntnis der Geometrie und der elektrochemischen Eigenschaften des Bindungsortes Strukturen zu designen, die sich an die Gegebenheiten optimal anpassen und damit zu höherer therapeutischer Wirksamkeit führen sollten.

    Als Beispiel sei hier Isoniazid angeführt, ein bereits seit langem verwendetes Standard-Medikament gegen Mykobakterien, die Erreger der Tuberkulose. Dieses sehr kleine (synthetische) Molekül wird erst im Bakterium in eine aktive Form (isonicotinic acyl-NADH) überführt, die dann an ein Enzym bindet, das für die Synthese bestimmter langkettiger Fettsäuren (Mykolsäuren) in der bakteriellen Zellwand verantwortlich ist. Die Kristallographie demonstriert, wie diese aktive Form in der Bindungstasche des Enzyms positioniert ist, bestätigt damit den Wirkungsmechanismus und zeigt Lead-Strukturen zur Optimierung der Bindung und Wirksamkeit auf (Abbildung 5, unten). Zum Glück haben menschliche Zellen nicht die gleichen Fettsäure-reichen Zellwände wie die Mykobakterien, und wir benötigen daher auch kein Enzym für die Synthese der Mykolsäuren. Der Inhibitor Isoniazid wird daher von Patienten weitgehend problemlos vertragen, während die infektiösen Mykobakterien absterben. Aufkommender Resistenzentwicklung auf Grund von Mutationen in der Proteinstruktur kann in vielen Fällen mit der Strukturanalyse des veränderten Proteins und der Anpassung des Wirkstoffes an die neuen Voraussetzungen begegnet werden.

    Fazit

    In den nun 100 Jahren ihres Bestehens hat die Röntgenkristallographie enorm zum Fortschritt aller Disziplinen von Wissenschaft und Technologie beigetragen, die sich mit kristallisierbaren Materialien beschäftigen. Auf der Basis der bis in die atomaren Details analysierten Kristallstrukturen werden die Eigenschaften von Materialien verstanden, können verbessert oder auch neu geplant werden, ob es nun Materialien aus der anorganischen Welt sind – wie beispielsweise Halbleiter, Legierungen und Stoffe, die in der Raumfahrt verwendet werden. In den Biowissenschaften ermöglicht die Kristallographie den rasanten Fortschritt in unseren Kenntnissen zu Aufbau und Wirkungsmechanismen von Biomolekülen und schafft die Basis gezielt effiziente Wirkstoffe gegen Krankheiten zu entwickeln.


    [1] Bernhard Rupp, Wunderwelt der Kristalle — Die Kristallographie feiert ihren 100. Geburtstag

    [2] Proteinkristallen beim Wachsen zusehen: Video von George Sheldrick and Students (Göttingen) http://www.ruppweb.org/iycr/low.m1v (low resolution, 1.8MB);

    http://www.ruppweb.org/iycr/high.m1v (high resolution, 5MB)

    [3] Award Ceremony Speech, Presentation Speech by Professor G. Hägg, member of the Nobel Committee for Chemistry of the Royal Swedish Academy of Sciences.

    http://www.nobelprize.org/nobel_prizes/chemistry/laureates/1962/press.html

    [4] Protein Data Bank http://www.wwpdb.org/stats.html

    [5] Von den Kristallen bis zur 3D-Struktur eines Proteins (Phosphodiesterase). Video (ca 4 min; Englisch). www.ruppweb.org/cryscam/drugs_and_bots_small.wmv


    Weiterführende Links

    inge Fri, 04.04.2014 - 05:20

    Eine stille Revolution in der Mathematik

    Eine stille Revolution in der Mathematik

    Fr, 28.03.2014 - 06:16 — Peter Schuster

    Icon MINTPeter SchusterAusgelöst und gesteuert durch die spektakuläre Entwicklung der elektronischen Rechner, ist in den letzten Jahrzehnten der Unterschied zwischen reiner und angewandter Mathematik fast völlig verschwunden. Computer-Modellieren hat in der Wissenschaft – ob es sich nun um Physik, Chemie oder Biologie handelt - weiteste Verbreitung gefunden.

    Noch vor fünfzig Jahren existierte eine klare Trennlinie zwischen der reinen und der angewandten Mathematik: die reine Mathematik war im hehren Olymp der akademischen Wissenschaften angesiedelt, während die Angewandte Mathematik in Forschung und Lehre den Technischen Hochschulen überlassen wurde. Noch vor wenigen Jahren fragte ein Kollege vom Institut für Mechanik der Werkstoffe und Strukturen der TU Wien halb scherzhaft, halb gekränkt: „In unserem Mathematikinstitut betreiben unsere Leute reine Mathematik. Ist denn das, was ich mache, schmutzige Mathematik?“.

    Tatsächlich hat die Mathematik in den vergangenen Jahrzehnten eine stille Revolution durchlebt und der einst als fundamental betrachtete Unterschied zwischen reiner und angewandter Mathematik ist fast vollständig verschwunden. Computer-Modellieren hat in der Wissenschaft weiteste Verbreitung gefunden und praktisch jede Universität beherbergt auch ein Department für Computerwissenschaften.

    Algorithmus vs. RechnerDer Wettstreit zwischen dem algorithmischen Rechnen (links) und dem Verwenden eines Rechners (Abacus; rechts). Im Hintergrund steht die personifizierte Arithmetica als Schiedsrichterin. Holzschnitt aus dem Buch „Margarita Philosophica“ von Georg Reisch (1504).

    Fortschritt im Computerunterstützten Rechnen – durch Verbesserungen in Hardware oder Algorithmen?

    Seit den 1960er Jahren steigen Schnelligkeit der Rechenleistung und digitales Speichervermögen exponentiell an - die Verdopplungsrate beträgt bloß 18 Monate – ein Faktum, das allgemein als Moor‘sches Gesetz bezeichnet wird (siehe [1]). Wenig bekannt ist allerdings, dass die an sich rasante Steigerung der Computerleistung noch von den Fortschritten in der numerischen Mathematik übertroffen wurden, welche zu einem ungeheuren Anstieg in der Effizienz von Algorithmen führte.

    Um numerische Hochleistungsmethoden verstehen, analysieren und designen zu können, bedarf es allerdings einer soliden mathematischen Ausbildung.

    Die Verfügbarkeit von billiger Rechnerleistung hat auch die Einstellung zu exakten Resultaten verändert, die man erst an Hand komplizierter Funktionen erhält: Es braucht schließlich nicht so viel mehr Rechenzeit, um einen überaus komplexen Ausdruck (beispielsweise eine hypergeometrische Funktion) zu berechnen als für eine gewöhnliche Sinus- oder Cosinus-Funktion! Symbolisches Rechnen („Rechnen mit Buchstaben“ - führt zu Ergebnissen, die universell anwendbar sind) hat das Alltagsleben des Mathematikers ebenso verändert, wie das des Wissenschafters der Mathematik anwendet: Berechnungen komplexer und schwieriger Beziehungen sind enorm einfacher geworden, die Auswirkungen prägen u.a. auch die Art und Weise, wie heute analytisches Arbeiten stattfindet.

    Neue Einrichtungen in der Mathematik

    Die mathematischen und die naturwissenschaftlichen Gesellschaften, ebenso wie auch die diese fördernden Organisationen haben bereits auf die Umorientierung der Ziele in der Mathematik reagiert. Es wurden Einrichtungen geschaffen, welche direkte Zusammenarbeit zwischen mathematischer Grundlagenforschung und anwendungsorientierter Wissenschaft stimulieren und erleichtern sollten. Waren es anfänglich vor allem Physik. Ingenieurwissenschaften und technologisch-ausgerichtete Industriezweige, die aus der Zusammenarbeit mit der Mathematik profitierten, so folgten später andere Disziplinen wie Chemie, Biologie und Soziologie. Die Ökonomie hatte schon lange Zeit Bezug zur Mathematik.

    Dombaumeister Pilgram (Stephansdom; Wien)Angewandte Mathematik: Dombaumeister Anton Pilgram (15. Jh) mit geometrischen Konstruktionselementen in den Händen, dahinter deren Anwendung (Stephansdom Wien)

    Aktuell finanziert die National Science Foundation (NSF) In den USA acht über den Kontinent verteilte Institute für angewandte Mathematik, auch die meisten Staaten der Europäischen Union haben Institute gegründet, in denen Mathematiker mit anderen Wissenschaftern zusammenkommen, ähnliche Entwicklungen gibt es auch in Südostasien – beispielsweise in Singapur), in China und in Indien.

    Um nur einige herausragende Beispiele derartiger Institutionen in Europa zu nennen, so sind dies das Institute des Hautes Ètudes Scientifiques (IHES) in Frankreich und das Max Planck Institut für Mathematik in den Naturwissenschaften in Deutschland. In Österreich gibt es zwei herausragende Einrichtungen: das seit 22 Jahren bestehende Erwin Schrödinger Institut für mathematische Physik (ESI, Universität Wien) und das vor 11 Jahren in Linz gegründete Johann Radon Institute for Computational and Applied Mathematics (RICAM) der ÖAW. Dank der internationalen Bekanntheit seines Gründungsdirektors, Heinz Engl, und der unermüdlichen Aufbauarbeit ist das RICAM heute ein Fixpunkt auf der Weltkarte der Mathematik.

    Mathematiker sind anders

    Mathematiker benötigen für ihre Arbeit weder eine große Gruppe noch besonders teure Geräte. Bei den von ihnen verwendeten Computern handelt es sich kaum um die großen „Supermaschinen“. Was Mathematiker aber brauchen, ist ein Austausch von Ideen und das persönliche Gespräch zwischen Wissenschaftern. Deshalb haben alle erfolgreichen neuen Einrichtungen eines gemeinsam: ein organisiertes, intensives Gästeprogramm und spezielle Veranstaltungen von Experten, die ein gemeinsames Forschen erleichtern sollen.

    Wissenschaft – rein und/oder angewandt?

    Verglichen mit anderen Disziplinen fand in der Mathematik die Verschmelzung von reiner und angewandter Forschung relativ spät statt.

    In der Physik und Chemie des 19. Jahrhunderts fanden Entdeckungen bereits sehr schnell den Weg in eine industrielle Anwendung. Seitdem wird die Zeitspanne zwischen Erfindung, Patentanmeldung und Überführung in den industriellen Entwicklungsprozeß immer kürzer. Als Beispiel sei die Chemie genannt:

    Hier hatte angewandte Forschung nie einen geringeren Stellenwert als Grundlagenforschung; das Motto “pure chemistry is poor chemistry“ gilt nach wie vor. Das ‚große‘ Geld wurde und wird hier mit den industriellen Anwendungen, aber nicht mit der akademischen Forschung gemacht. Die berühmte, seit 1887 bestehende, internationale Zeitschrift ‚Angewandte Chemie‘ (mit einer englischen Übersetzung) publiziert neue, grundlegende Arbeiten aus der chemischen Forschung, ebenso wie deren interessante Anwendungen - jede Grenzziehung zwischen „reiner“ Chemie und chemischen Ingenieurswissenschaften wäre künstlich und völlig unnötig. Ein herausragendes Beispiel dafür, wie Grundlagenforschung, Anwendung und Unternehmertum sich in einer Person vereinen lassen, ist der berühmte Österreichische Chemiker Carl Auer von Welsbach: er entdeckte vier neue Elemente des Periodensystem, machte drei weltverändernde Erfindungen - das Gasglühlicht, die Metallfadenglühlampe und den Zündstein – und war ein höchst erfolgreicher Firmengründer: seine vor mehr als hundert Jahren gegründeten „Treibacher Chemischen Werke“ und auch die Firma „Osram“ florieren auch heute wie eh und jeh.

    Computer in der Mathematik

    Mit dem Modellieren und den numerischen Simulationen wurden Computer zu Forschungsinstrumenten:

    • Die Anwendung der Quantenmechanik auf Probleme der Molekülstrukturen und der Molekülspektroskopie benötigt enorme Computer-Ressourcen. Die Mathematik ist hier relativ einfach, die Herausforderung liegt aber im Umfang der zu behandelnden Fragestellung.
    • In der Physik hat das Modellieren schon eine sehr lange Tradition, und ist zweifellos aufwändiger, was die mathematische Vorgangsweise betrifft.
    • Die Biologie bedient sich seit relativ kurzer Zeit – wie Chemie und Physik – ebenfalls der Großrechner, bringt jedoch neue Probleme mit sich: bis jetzt gibt es keine theoretische Biologie, die ein sicheres Gerüst für das Modellieren erstellen könnte. Ein biologisches Modell baut sich damit nicht auf einem allgemein akzeptierten theoretischen Konzept auf (wie es die Quantenmechanik für die Chemie ist), seine Erstellung benötigt empirisches Wissen, Expertise und Intuition.

    Fazit

    Die Revolution in der Mathematik kam nicht ganz von selbst. Sie wurde durch die spektakuläre Entwicklung der elektronischen Rechner initiiert und gesteuert. Vereinfachte mathematische Modelle lassen sich durch Computereinsatz an die notwendigerweise komplexe Realität anpassen und wurden damit interessant für Anwendungen. Die enormen Leistungen der numerischen Mathematik wären ohne die von den Nutzern ausgehenden Impulse niemals erbracht worden.


    [1] Peter Schuster: Wie Computermethoden die Forschung in den Naturwissenschaften verändern. Eine Kurzfassung dieses Artikels ist im Vorjahr erschienen (PDF-Download).


    Weiterführende Links

    Science Education: Computers in Biology. Website des NIH mit sehr umfangreichen, leicht verständlichen Darstellungen (englisch)

    Artikel zu angesprochenen Themen auf ScienceBlog.at

    Peter Schuster: Computerwissenschafter — Marketender im Tross der modernen Naturwissenschaften

    Peter Schuster: Wie erfolgt eine Optimierung im Fall mehrerer kriterien — Pareto-Effizienz und schnelle Heuristik

    Inge Schuster: Carl Auer von Welsbach — Vorbild für Forschung, Entwicklung und Unternehmertum


     

    inge Fri, 28.03.2014 - 06:16

    Wunderwelt der Kristalle — Die Kristallographie feiert ihren 100. Geburtstag

    Wunderwelt der Kristalle — Die Kristallographie feiert ihren 100. Geburtstag

    Fr, 20.03.2014 - 20:12 — Bernhard Rupp

    Icon PhysikBernhard RuppVor hundert Jahren erfolgte die Verleihung des Nobelpreises an Max von Laue für seine Entdeckung der Beugung von Röntgenstrahlen an Kristallgittern. Dies war die Geburtsstunde der Kristallographie, die es seitdem ermöglicht fundamentale Erkenntnisse zu Struktur und Funktion von kleinen und großen Molekülen zu gewinnen..

    In einer feierlichen Zeremonie in ihrem Hauptquartier hat die UNESCO das Jahr 2014 zum Jahr der Kristallographie (IYCr) ausgerufen [1]. An Bedeutung steht die Kristallographie damit in einer Reihe mit anderen, von der UNO als global wichtig erachteten Themen, wie es beispielsweise Biodiversität, erneuerbare Energie oder Wasserversorgung sind.

    Warum erscheint der UNO dieses Gebiet so bedeutend, von dem nur wenige unserer Zeitgenossen bis jetzt überhaupt gehört haben?

    Die Struktur von Materialien bestimmt deren Eigenschaften und Funktion

    Dieser Satz trifft für alle Materialien zu. Die Eigenschaften von Gasen, Flüssigkeiten, Gesteinen, Mineralien, Halbleitern oder Medikamenten werden ebenso durch ihre molekulare Struktur bestimmt, wie die Funktion von Proteinen und deren hochmolekularen Komplexen, den eigentlichen „Maschinen des Lebens“. Der Nobelpreisträger und Mitentdecker der DNA-Struktur, Francis Crick, hat dies prägnant formuliert:

    „Praktisch alle Aspekte des Lebens basieren auf dem Aufbau aus Molekülen, ohne ein Verständnis der Moleküle, können wir das Leben selbst nur in groben Umrissen verstehen“.

    Was ist Kristallographie?

    Kristallographie ist die Wissenschaft, die es uns erlaubt den Aufbau von Stoffen in detailliertester Weise auf ihrer atomaren und molekularen Ebene zu untersuchen. Alle kristallographischen Techniken beruhen – wie der Name schon sagt - auf der Untersuchung von Kristallen. Liegen Atome oder auch komplexe Moleküle in derart geordneten Strukturen vor, so werden an den regelmäßig angeordneten Atomen Röntgenstrahlen, Neutronen oder auch Elektronen gebeugt. Aus den entstehenden Beugungsmustern lässt sich dann die dreidimensionale Struktur eines Moleküls präzise, bis in atomare Details rekonstruieren.

    Dies klingt im Prinzip recht einfach, aber zur Aufnahme der Beugungsmuster werden oft sehr ausgeklügelte Maschinen, wie zum Beispiel Synchrotron-Strahlenquellen oder starke Neutronenquellen benötigt. Die Rekonstruktion komplexer atomarer Modelle aus den Beugungsdaten kann ebenfalls äußerst aufwendig sein. Kristallographie ist also kein einfaches bildgebendes Verfahren (Imaging) wie dies heute in der Mikroskopie angewandt wird. Dazu kommt die primäre Voraussetzung für die Kristallographie, daß eine Substanz von vornherein als Kristall vorliegen oder sich im Labor kristallisieren lassen muß.

    Nichtsdestoweniger liegen bis jetzt hunderttausende Strukturen kleiner anorganischer und organischer Verbindungen bis hin zu großen Biomolekülen in Datenbanken gespeichert vor. Der überwiegende Teil (rund 90 %) dieser Strukturen wurde durch Röntgenkristallographie ermittelt, deren Prinzip in Abbildung 1 schematisch dargestellt ist.

    Prinzip der RöntgenkristallographieAbbildung 1, Prinzip der Röntgenkristallographie. Ein Kristall, der hier aus geordneten Proteinmolekülen besteht, ist auf einer Vorrichtung (Goniostat) montiert, welche die Drehung um zumindest eine Achse ermöglicht. Der Kristall wird fein-gebündelten (kollimierten), intensiven Röntgenstrahlen ausgesetzt, welche an den Elektronenhüllen der Atome gebeugt werden. Die resultierenden Beugungsbilder werden auf einem Flächendetektor aufgenommen und zu einem Set von Beugungsdaten zusammengesetzt – einem reziproken Code für die räumliche Anordnung der Atome im Kristall. Die Übersetzung diese Codes mittels mathematischer Methoden (Fourier-Transformation: FT) und Kenntnis der zugehörigen Phasenwinkel erlaubt es die Elektronendichte für die streuenden Atome zu rekonstruieren und aus diesen ein dreidimensionales Modell der Struktur zu erzeugen - hier dargestellt in Form eines Ribbon (Bänder)-Modells.

    Die Geburtsstunde der Röntgenkristallographie

    Der Physiker Max von Laue, seit 1909 Privatdozent an der Ludwig-Maximilian Universität in München, kam hier einerseits mit der Raumgitterhypothese des Kristallaufbaus in Berührung und andererseits mit der Theorie der Röntgenstrahlung. Wilhelm Conrad Röntgen, der 1885 die nach ihm benannte Strahlung entdeckt hatte (und dafür 1901 mit dem ersten Nobelpreis in Physik ausgezeichnet wurde), war Professor in München, ebenso der theoretische Physiker Arnold Sommerfeld, der von der Wellennatur dieser Strahlung überzeugt war. Wäre die Wellenlänge dieser Strahlung, so schloss Laue, in derselben Größenordnung, wie die Abstände der Atome im Kristallgitter, müsste ihr Durchgang durch den Kristall Beugungsmuster hervorrufen. Zusammen mit Walter Friedrich und Paul Knipping konnte Laue im Jahr 1912 seine Raumgitterhypothese erhärten (Abbildung 2).

    Laue‘s Experiment bestätigte damit beides:

    • die Wellennatur der Röntgenstrahlung
    • den Aufbau der Materie aus diskreten Atomen.

    Für seine Entdeckung der Röntgenstrahlbeugung an Kristallen wurde Laue im Jahr 1914 mit dem Nobelpreis ausgezeichnet.

    Zinkblende BeugungsmusterAbbildung 2. Zinkblende Beugungsmuster (Laue, Friedrich & Knipping, Sitz.ber. Bayer. Akademie d. Wiss. 8. Juni 1912) „Aber als nun jene Figur 5 sichtbar wurde, das erste typische LAUE-Diagramm, welches die Strahlung durch einen genau zur Richtung der Primärstrahlung orientierten Kristall regulärer Zinkblende wiedergab mit ihren regelmäßig und sauber in verschiedenen Abständen vom Zentrum angeordneten Interferenzpunkten, da ging ein allgemeines "ah" durch die Versammlung. Ein jeder von uns fühlte, daß hier eine große Tat vollbracht war“ (Zitat: Max Planck, 1937)

    Der englische Physiker Sir William H. Bragg hatte eben von den ersten Versuchen zur Erstellung medizinischer Röntgendurchleuchtungsbildern erfahren, als sein fünfjähriger Sohn William sich den Arm brach und Bragg diese brandneue Technik benutzte um den Bruch zu untersuchen. Vater und Sohn blieben seitdem der Röntgenstrahlung verfallen. Der Vater baute das erste Röntgenstrahl-Spektrometer, das monochromatische Röntgenstrahlen verwendete (Strahlen mit einer einzigen Wellenlänge) und die Interpretation der Beugungsmuster enorm vereinfachte. Von höchster Bedeutung war der Ansatz des Sohnes die Beugung der Röntgenstrahlen als Reflexion an den Ebenen des Kristallgitters zu interpretieren: die berühmte Bragg-Gleichung, die den Beugungswinkel mit dem Abstand der Gitterebenen in Beziehung setzt, ist eine der Grundvoraussetzungen, um die Atompositionen innerhalb eines Kristalls genau zu bestimmen und damit seine dreidimensionale Struktur zu entschlüsseln. Vater und Sohn Bragg erhielten 1915 den Nobelpreis in Physik (mit 25 Jahren war der Sohn bis dato der jüngste Nobelpreisträger).

    Aussagen über Materialeigenschaften: Warum ist der Diamant so hart?

    Die ersten Beugungsmuster von Röntgenstrahlen wurden an Kristallen erhalten, die aus einem einzigen oder nur wenigen unterschiedliche Elementen bestanden, wie beispielsweise der Diamant (C), das Steinsalz (NaCl) oder die Zinkblende (Zinksulfid).

    Der Diamant ist ein sehr harter Kristall, der unter hohem Druck und Temperatur aus reinem Kohlenstoff entstanden ist. Aus der Kristallstruktur des Diamanten wird ersichtlich warum dieser so hart ist im Gegensatz zu Graphit, einer anderen kristallinen Form des Kohlenstoffs, der u.a. als Bleistiftmine und Gleitmittel Verwendung findet (Abbildung 3):

    Im Diamanten liegt jedes Kohlenstoffatom kovalent an vier weitere Kohlenstoffatome (in Tetraeder-Anordnung) gebunden vor. Die starken Kohlenstoff-Kohlenstoff Bindungen verbinden all Atome im Kristall und bewirken so dessen Härte. Im Graphit sind hexagonale Schichten kovalent gebundener Kohlenstoffatome übereinanderliegend angeordnet. Innerhalb einer Schicht sind die kovalenten Kohlenstoff-Kohlenstoff Bindungen ebenfalls sehr fest, die erheblich schwächeren nicht-kovalenten Wechselwirkungen zwischen den Schichten machen diese aber leicht gegeneinander verschiebbar: das Mineral ist in einer Ebene weicher und damit für eine Verwendung als Gleit-oder Schreibmittel geeignet.

    Kristallstrukturen CAbbildung 3. Kohlenstoff kann in vielen Kristallstrukturen vorliegen – als extrem harter Diamant, als weicher Graphit, als sphärische Fullerene, zu denen Kohlenstoff-Nanotubes und Buckyballs (hier die an einen Fußball erinnernde, aus 60 C-Atomen bestehende Form) gehören.

    Reiner Kohlenstoff kann auch hochkomplexe Strukturen bilden wie beispielsweise die Fullerene – aus 5-er und 6-er Kohlenstoffringen zusammengesetzte, gewölbte Strukturen. Dazu gehören Nanotubes – meist wenige Nanometer dünne und bis zu Zentimeter lange Röhrchen mit einem enormen Potential an technischen Anwendungsmöglichkeiten. Dazu gehören auch die sphärischen Buckyballs, wie die natürlich vorkommende, aus 60 Kohlenstoffatomen bestehende Form (Buckminsterfulleren), die an einen Fußball erinnert. Auch die Struktur dieser Buckyballs wurder mittels Röntgenkristallographie aufgeklärt.

    100 Jahre Kristallographie

    Seit den Entdeckungen von von Laue und den Braggs hat die Kristallographie zu enormen Durchbrüchen im Verständnis der physikalischen und chemischen Eigenschaften von Materialien geführt, ebenso wie zu fundamentalen Einblicken in die Struktur und Funktion großer biologischer Moleküle. Für bahnbrechende Fortschritte in kristallographischen Techniken und daraus resultierenden Ergebnissen wurden bis jetzt 29 Nobelpreise verliehen [2].

    Weit mehr als 100 000 Kristallstrukturen von Mineralien, anorganischen und synthetischen organischen Verbindungen sind in der “Crystallography Open Database" (COD) [3] gespeichert, derzeit werden es jährlich um rund 20 000 Strukturen mehr (Abbildung 4). Rund 100 000 Strukturmodelle von Proteinen aus Tieren, Pflanzen und Mikroorganismen sind in der frei zugänglichen Protein Datenbank (PDB) [ 4 ] abrufbar und – bei steigender Tendenz - kommen rund 10 000 neue Strukturen jährlich dazu (Abbildung 4).

    Neue KristallstrukturenAbbildung 4. Der jährliche Zuwachs an neuen Strukturen ist im letzten Jahrzehnt stark gestiegen. Daten von kleinen organischen und anorganischen Verbindungen sind der Crystallography Open Database (COD) entnommen [3], Daten zu Proteinstrukturen stammen aus der Protein Data Bank (PDB) [4].

    Die kristallographischen Ergebnisse haben einen Quantensprung in den Möglichkeiten herbeigeführt, hochqualitative Materialien – wie wir sie heute täglich verwenden - zu entwerfen und herzustellen. Eine ähnliche Revolution hat die Kristallographie in unserem Verständnis von biologischer Struktur und Funktion bewirkt. Seit in den frühen 1950er Jahren die erste Strukturaufklärung eines Proteins – des Myoglobins – glückte, ist eine riesige Anzahl von Strukturen auch sehr großer Proteine und noch viel größerer Protein-Komplexe aufgeklärt worden. Die genaue Kenntnis derartiger Strukturen dient nicht nur zum prinzipiellen Verständnis des Aufbaus biologischer Moleküle und der daraus abgeleiteten biologischen Funktion, sondern erlaubt es auch passgenau Modulatoren für bestimmte Funktionen zu entwerfen. Dies hat besondere Bedeutung für das Design von neuen hochwirksamen Arzneimitteln. Auf Grund der Wichtigkeit dieses Themenkreises erfolgt eine Darstellung der Kristallographie von großen Biomolekülen in einem nachfolgenden, separaten Artikel.


    [1] Ban Ki-moon, UN Secretary-General , Video 2:12 min. https://www.youtube.com/watch?list=UU5O114-PQNYkurlTg6hekZw&v=RN8jGTJQ3fU

    [2] http://www.iucr.org/people/nobel-prize

    [3] Crystallography Open Database (COD) http://www.crystallography.net

    [4] Protein Data Bank http://www.wwpdb.org/stats.html


    Weiterführende Links

    Homepage von Bernhard Rupp: http://www.ruppweb.org/iycr/IYCr_2014.htm

    Bernhard Rupp: Biomolecular Crystallography: Principles, Practice, and Application to Structural Biology (2009): das umfassende Lehrbuch über Grundlagen, Techniken und Anwendungen der Kristallographie. http://www.ruppweb.org/garland/default.htm

    Internationales Jahr der Kristallographie: http://www.iycr2014.de /

    Video: Introduction to X-ray crystallography 17.26 min (harvardbmw’s videos; in Englisch)) http://vimeo.com/7643687

    Video: Celebrating Crystallography 3:05 min. (Englisch) http://www.richannel.org/celebrating-crystallography

    Max Perutz: X-ray analysis of haemoglobin, Nobel Lecture, December 11, 1962; http://research.chem.psu.edu/sasgroup/chem540/downloads/perutz-lecture.pdf


     

    inge Thu, 20.03.2014 - 20:12

    Aktivitäten für ein verbessertes Verständnis und einen erhöhten Stellenwert der Wissenschaft

    Aktivitäten für ein verbessertes Verständnis und einen erhöhten Stellenwert der Wissenschaft

    Fr, 14.03.2014 - 12:34 — Ralph J. Cicerone

    Icon Politik & GesellschaftRalph J. CiceroneVor wenigen Tagen hat Ralph Cicerone, der Präsident der amerikanischen National Academy of Sciences (NAS), einen Brief an deren Mitglieder gesandt, in welchem er Aktivitäten aufzählt , die zu einem verbesserten Verständnis der Wissenschaft*) und zur Erhöhung ihres Stellenwerts in der Bevölkerung beitragen sollen. Die Aussagen Cicerones treffen auch auf unser Land zu, die von ihm genannten Aktivitäten könnten auch bei uns helfen, den alarmierend niedrigen Stellenwert der Wissenschaft zu verbessern. Mit Zustimmung von Ralph Cicerone erscheint sein Brief ungekürzt, aber in deutscher Übersetzung, auf ScienceBlog.at.

    Brief des Präsidenten der Nationalen Akademie der Wissenschaften (US) an die Mitglieder.

    Liebe Kollegen,

    viele von uns sind besorgt über die Einstellung der Öffentlichkeit zur Wissenschaft. Wir wissen, dass es der Bereitschaft der Bevölkerung, deren Verständnis und deren Unterstützung bedarf, um wissenschaftliche Forschung zu finanzieren und die schulische Erziehung und Ausbildung auf den Gebieten der Wissenschaft zu verbessern. Wir wissen auch, dass Sensibilisierung der Öffentlichkeit und Engagement nötig sind, damit unsere Gesellschaft das Wertesystem der Wissenschaft annimmt und sich beispielsweise auf wissenschaftliche Erkenntnisse stützt, um öffentliche Entscheidungen zu lenken. Wenn es hier auch einige ermutigende Signale gibt, so wird man dennoch das Gefühl nicht los, dass sich die Haltung der Öffentlichkeit zur Wissenschaft verschlechtert.

    Als ich Präsident der NAS wurde, wollte ich diesen Aspekt prüfen und versuchen, die Einstellung der Öffentlichkeit zu Wissenschaft und Wissenschaftern zu verbessern. Jetzt, in Zeiten eines äußerst knappen staatlichen Budgets für Forschung und einigen Kontroversen auf manchen wissenschaftlichen Gebieten, erscheint es noch dringlicher zu sein, die Einstellung zur Wissenschaft zu analysieren und zu verbessern. Deshalb möchte ich von einigen Initiativen berichten, welche die NAS unternommen hat.

    Untersuchungen zur Kommunikation, Prioritäten

    Vor einigen Jahren, noch bevor irgendwelche neuen Initiativen zur Kommunikation gestartet worden waren, suchte ich nach Antworten auf die Fragen: „Welche Einstellung haben Amerikaner zur Wissenschaft und wie hat sich diese über die Zeit verändert?“ Ich konnte hier zwar keine direkte Antwort finden, aber nützliche Informationen beispielsweise vom Nationalen Forschungsrat (NSF), vom National Science Board, von den Harris-Umfragen und von Research!America. Um es kurz zu machen, die amerikanische Bevölkerung hat eine überwiegend positive Einstellung zur Naturwissenschaft, die höher ist als in den meisten anderen Nationen, die Unterstützung ist aber oberflächlich. Die Kongress-Mitglieder neigen zur Ansicht – und dies in höherem Maße als vor dreißig Jahren -, dass Wissenschaft gut für die Wirtschaft ist. Wissenschafter genießen hohes Ansehen im Vergleich zu Beschäftigten in anderen Berufen. Allerdings kennen die meisten Amerikaner keinen Wissenschafter persönlich. Auf die Frage (von Research!America) nach dem Namen eines Wissenschafters, waren die häufigsten Antworten: „Albert Einstein“ und „Carl Sagan“ aber kaum der Name eines lebenden Wissenschafters.

    Es war auch wichtig zu erfahren, daß die NAS bei „dem Mann oder der Frau von der Straße“ nicht besonders bekannt ist. Allerdings kennen und respektieren die NAS viele Entscheidungsträger in Politik und Geschäftsleben, in Erziehung und Forschung. An vielen Plätzen des Landes gibt es vertrauenswürdige Institutionen – Universitäten, Museen, zivilgesellschaftliche Gruppen und andere Organisationen – die von angesehenen Personen geleitet werden, denen die NAS sehr wohl ein Begriff ist.

    Mehr denn je ist es auch klar, dass Kommunikation aus Sprechen und Zuhören bestehen muss. Dies ist das Szenario - was kann die NAS hier unternehmen? In diesem Brief möchte ich kurz über unsere Bemühungen berichten, die darauf ausgerichtet sind die Einstellung der Öffentlichkeit zu den Naturwissenschaften und ihr Engagement in diesen Disziplinen zu verstehen und zu verbessern. Wir haben Initiativen der NAS zur Kommunikation mit der Bevölkerung (einschließlich des Zuhörens) gestartet oder ausgeweitet, wobei hauptsächlich Personen mit hohem Bildungsniveau, gewählte Amtsträger und andere Personen angesprochen werden, die uns bereits kennen, oder mit örtlichen, angesehenen wissenschaftlich ausgerichteten Institutionen vertraut sind.

    Aktivitäten der NAS zur Kommunikation mit der Öffentlichkeit

    Verteilen der Berichte des Nationalen Forschungsrats (NRC) und des Instituts für Medizin (IOM)

    Wie Sie wissen, veröffentlicht der NRC häufig Berichte zu vielen Themen, die oft wichtige und dringende, aktuelle Probleme ansprechen. Diese Berichte werden von Untersuchungsgremien verfasst, die von der NAS, der National Academy of Engineering (NAE) und dem IOM zusammengestellt, und von Fachexperten im Sinne des Peer Review geprüft werden. Die Mitglieder der Gremien und ebenso die Prüfer arbeiten ehrenamtlich. Über Jahre hinweg haben NAS-Beamte, Ratsmitglieder und unsere Mitarbeiter Wege gesucht im die Berichte breiter und kostenlos zu verteilen. Unsere Berichte, ebenso wie aktuelle und frühere Ausgaben der Proceedings of the National Academy of Sciences (PNAS) waren bereits seit langem für Entwicklungsländer kostenlos online zugänglich. Vor wenigen Jahren ist es uns gelungen das Ziel, unsere Berichte für jedermann zugänglich zu machen, zu erreichen, indem wir diese breiter und kostenlos verteilten, Druckexemplare aber nach wie vor verkauften. In Erweiterung eines anderen Anliegens aus der Vergangenheit entwickeln und verteilen wir kürzere und leichter lesbare Versionen und Zusammenfassungen, die für eine breite Leserschaft geschrieben sind. Auf diese Weise kann die hervorragende Arbeit der ehrenamtlichen Experten, der NAS-Mitglieder und unserer Mitarbeiter besser bekannt und für unsere und andere Nationen rund um die Welt nutzbringend werden.

    Das Programm „Botschafter (Ambassador) für Wissenschaft und Technologie“

    In Partnerschaft mit der Gemeinde von Pittsburgh hat die NAS ein neues Pilot Programm entwickelt, in welchem sich wissenschaftliche und technologische Forschung den wichtigen Fragen und Sorgen der Pittsburgher Bevölkerung widmen soll, wobei zunächst die Frage der Energieversorgung im Brennpunkt steht. An dem Programm sind Naturwissenschafter und Technologen beteiligt, die - in und um Pittsburgh herum – Energie bezogene Forschung an Universtäten, in staatlichen Einrichtungen und in der Privatindustrie betreiben. Dieses „Botschafter Programm“ entstand aufbauend auf der Hochachtung, welche die Bevölkerung für Wissenschafter und Technologen empfindet und auch, um der Notwendigkeit eines allgemein besseren Verständnis für wissenschaftliche Belange begegnen zu können.

    Das Zielpublikum des Botschafter-Programms sind Personen, deren Ideen und Meinungen andere Personen in der Gemeinschaft beeinflussen. Diese Meinungsführer kommen aus unterschiedlichen Berufen und Lebensentwürfen, sie sind Lehrer, Führungskräfte in der Wirtschaft, politische Entscheidungsträger, Leiter von Nachbarschaftsprogrammen, Studenten und Vertreter der Medien. Sie inkludieren jene Teilnehmer, die über eine Reichweite in ihrer Gemeinde verfügen, ebenso wie jene, die eine Plattform zur Verbreitung von Wissen haben und Beziehungen innerhalb der Gemeinschaft aufbauen können.

    Veranstaltungen für das Botschafter-Programm in Pittsburgh werden auf das Ziel hin entwickelt nicht nur das Verständnis der Bevölkerung für Energie bezogene Wissenschaften zu verbessern, sondern auch ein Verstehen bei den Wissenschaftern und Technologen für das, was die Öffentlichkeit wissen möchte, zu schaffen. In Zusammenarbeit mit Partnern aus der Gemeinde werden die Mitarbeiter dann Programme entwickeln, die zu den Plänen der Partner und den Interessen der Angesprochenen passen, wobei vor allem auf interaktive Veranstaltungen Wert gelegt wird, welche Unterhaltung und Dialog ermutigen. Wir haben ein Team erfahrener Wissenschafter und Technologen aus dem akademischen Umfeld, der Industrie und dem staatlichen Bereich ausgewählt , die als Botschafter der Wissenschaft dienen sollen. Jeder von diesen insgesamt 25 Botschaftern wurde eingeladen einen oder zwei Studenten oder Wissenschafter am Beginn ihrer Karriere auszuwählen, die er über die Dauer des Projekts betreut.

    Die Wahl Pittsburghs als Ausgangspunkt des Programms erfolgte aus mehreren Gründen. Es beherbergt eine eindrucksvolle Zahl von Spitzenwissenschaftern- und Technologen, die an führenden Universitäten forschen und lehren und es steht auch im Mittelpunkt der Diskussionen über Energiefragen. Das Gebiet um Pittsburgh ist Sitz von Firmen und Aktivitäten in einer Reihe Energie relevanter Industrien – Kohle, Erdgas, Solar- und Windenergie – und von führenden Wirtschaftstreibenden, die an der Entwicklung der Gemeinschaft reges Interesse zeigen. Die Region zeichnet sich auch durch ein dichtes Netzwerk von Museen und anderen kulturellen Stätten aus. Zudem haben sich die Pittsburgher als erfolgreich im Zusammenarbeiten erwiesen. Die Stadt ist groß genug, um die, für ein effizientes Programm nötigen Schlüsseleinrichtungen bieten zu können, aber dennoch klein genug, um den Dialog mit einer Bevölkerung zu ermöglichen, die einen beeindruckenden Geist von Kooperation ausströmt.

    Die NAS arbeitet mit der NAE in diesem Programm zusammen.

    Wenn es sich erfolgreich erweist, wird das Programm auf andere Gebiete ausgeweitet, die für die Gesellschaft der Gegenwart wichtig sind, wie beispielsweise auf Infektionskrankheiten und Klimawechsel. Ähnliche Programme werden für andere Städte im ganzen Land etabliert, um Wissenschaft und Technologie als Ansprechpartner für die Sorgen der Bevölkerung verfügbar zu machen.

    Das Programm „Wissenschaft & Unterhaltung im Austausch“ („Exchange“)

    Das Prinzip dieser NAS-Aktivität liegt darin, dass die Träger der Unterhaltungsindustrie, beispielsweise TV- und Filmschaffende, wissen, wie man auf breiter Basis kommuniziert und, dass Unterhaltung einen großen kulturellen Einfluss ausübt, sei es zum Besseren oder zum Schlechteren. Zum Start dieser Aktivität hat der Zufall in Sinne von Serendipity eine größere Rolle gespielt als formale Untersuchungen und Analysen von Gelegenheiten und Bedürfnissen. Ich hatte Unterlagen und Filme gesehen, welche die California Proposition 71, welche die Stammzellenforschung finanzierte, und verschiedene Formen medizinischer Forschung unterstützten und von den beruflichen Hollywood-Unterhaltern Janet und Jerry Zucker produziert worden waren. Das Ehepaar Zucker traf sich mit mir und diskutierte sehr hilfreiche und kreative Ideen zu medizinischen Wissenschaften und zur Naturwissenschaft im Allgemeinen. Viele weitere Diskussionen folgten und die Zuckers begannen einige ihrer Kollegen aus Hollywood in die Partnerschaft mit dem NAS einzubeziehen um das zu entwickeln, was zum „Exchange“ Programm wurde.

    „Exchange“ wurde geschaffen mit den Zielen: (a) Wissenschafter mit Drehbuchschreibern, Produzenten und Direktoren zusammenzubringen, um Beratung in allen Stadien der Produktion (Konzepte, technische Fragen, Skripte, Design am Set) zu haben und (b)um Veranstaltungen für Wissenschafter und Unterhaltungsbranche zuwege zu bringen zur Diskussion der Möglichkeit Wissenschaft in den populären Medien zu verankern. Über die fünf Jahre seines Bestehens hat „Exchange“ mehr als 800 Beratungen und eine eindrucksvolle Liste von Veranstaltungen quer durch viele naturwissenschaftliche Disziplinen organisiert – alles von einem kleinen Büro in Los Angeles aus. Zahlreiche NAS-Mitglieder und viele unserer wissenschaftlichen Kollegen haben an beiden Formen der „Exchange“ Aktivitäten teilgenommen.

    Wenn „Exchange“ auch nicht direkt aus unseren frühen Untersuchungen und unseren Prioritäten zur Kommunikation entstanden ist, so erweist er sich nun als sehr wertvoll. Es zeigt sich bereits ein bemerkenswerter Einfluss auf den wissenschaftlichen Inhalt bestimmter Filme und TV-Serien und es wurden gute Beziehungen zwischen Führern in der Unterhaltungsbranche und einzelnen Wissenschaftern aufgebaut. In einigen prominenten Fällen hat sich die Beschreibung von weiblichen Wissenschaftern stark positiv verändert.

    Eine neue Version der Carl Sagan PBS Serie Cosmos (Start on Fox, 9. März 2014) wurde vom Mitglied des Austausch- Beirats Seth Farlane produziert unter dem langjährigen Befürworter des Programms , Dr. Neil deGrasse Tyson. Der Beginn dieser Serie lässt direkt bis zum Start des „Exchange“ Projekts zurückverfolgen, als McFarlane und Tyson einander vorgestellt wurden. Das Magazin Parade hat diese Veranstaltung in seiner Titelstory über Dr. Tyson im Jänner beschrieben und ein unabhängiger Bericht erfolgte am 2. März d.J. in der New York Times. Die neue Fox-Serie hat ein enormes Potential Millionen Zuseher zu erreichen, die ansonsten kaum wissenschaftlichen Inhalten ausgesetzt sind. „Exchange“ ist auch an Ideen interessiert, die in der Wissenschafts-Erziehung eingesetzt werden können. In Hinblick auf alle diese Begründungen hat NAS wesentliche Unterstützung erfahren von der Gordon and Betty Moore Foundation, vom Howard Hughes Medical Institute, von der Research Corporation for Science Advancement, der Alfred P. Sloan Foundation, dem California Endowment, von Mr. and Mrs. Zucker, Dr. Patrick Soon-Shiong, UCLA, einzelnen Mitgliedern des Presidents Circle und anderen

    Das USA Wissenschaft & Technologie Festival

    Die NAS ist auch in das USA Wissenschaft & Technologie Festival involviert, ein öffentliches Straßenfest, welches die Rolle von Wissenschaft & Technologie für die Gesellschaft feiert und Gäste zu Demonstrationen einlädt. Mehrere dieser Festivals finden in Städten statt, New York, San Diego und san Francisco mit eingeschlossen. In Washington haben NAS und NAE geholfen das National Festival im Jahr 2010 zu gründen, unser Koshland Science Museum und die American Association for the Advancement of Science (AAAS) haben sich angeschlossen. Die wesentliche Aufgabe des Festivals ist es, eine nächste Generation anzuregen Berufe in Wissenschaft und Technologie zu ergreifen und zu kommunizieren, welche Rolle Wissenschaft und Technologie in der heutigen Gesellschaft spielen. Besondere Aufmerksamkeit wird dabei unterrepräsentierten Gruppen von Studenten, Lehrern und Familienangehörigen von Soldaten zuteil. Viele Freiwillige haben teilgenommen die NAS darzustellen, unsere Mitglieder und NAS-und NRC-Mitarbeiter miteingeschlossen. Wie aus der großen Zahl der Besucher geschlossen werden kann, hat die Bevölkerung von Washington und Umgebung das Spektakel begeistert aufgenommen.

    Die Arthur M. Sackler Kolloquien über Wissenschaftskommunikation

    Eine Stiftung von Jillian Sackler zum Andenken an ihren Gatten Dr. Arthur M. Sackler im Jahr 2001 hat uns ermöglicht im Laufe der Jahre zu Sackler Kolloquien über viele unterschiedliche Themen einzuladen, welche dann häufig in Sonderausgaben von PNAS ihren Niederschlag fanden. Zu zwei solchen Kolloquien über „Die Wissenschaft der Wissenschaftskommunikation“ (im Mai 2012 und September 2013) haben wir eingeladen mit Zielvorstellungen wie: (i) die Beziehungen zwischen Wissenschaftern und Öffentlichkeit verstehen zu lernen, (ii) die wissenschaftliche Basis für effiziente Wissenschaftskommunikation zu erfassen und (iii) unsere institutionellen Kapazitäten der Beweis-gestützten Kommunikation zu verbessern. Renommierte Vortragende und Teilnehmer, die in verschiedenen Gebieten aktiv sind, haben wesentlich zur Beschreibung von Problemen und Erfolgen in der Wissenschaftskommunikation beigetragen. Das zweite, drei Tage dauernde Kolloquium war auch als Webcast für zusätzliche 11 000 Teilnehmer zugänglich. Ein Sammlung von Beiträgen zum ersten Kolloquium wurde 2013 im Augustheft von PNAS publiziert[1], eine interessante Zusammenfassung des zweiten Kolloquiums wurde 2014 von der National Academic Press herausgegeben [2], die entsprechenden Artikel werden im Sommer in PNAS erscheinen. Ich empfehle Ihnen diese Publikationen, wenn Sie an den derzeitigen wissenschaftlichen und berufsmäßigen Ansichten zu Themen interessiert sind wie:(i) schwierig zu kommunizierende wissenschaftliche Inhalte, (ii) Einstellung der Öffentlichkeit zur Wissenschaft und (iii) soziale, kulturelle, wirtschaftliche und politische Einflüsse auf die Wissenschaftskommunikation.

    Auszeichnungen für Kommunikation

    Durch unsere National Academies Keck Futures Initiative (NAKFI) werden jährlich vier Preise zu je $ 20 000 $ an Personen oder Gruppen vergeben, die im vergangenen Jahr kreative, originelle Beiträge entwickelt haben, um Themen und Fortschritte in Wissenschaft, Technologie und /oder Medizin für die breite Öffentlichkeit verständlich zu machen. Die vier Kategorien, in denen Preise verliehen werden, sind: Buch, Film/Radio/Fernsehen, Magazin/Zeitung und online.

    Diese Auszeichnungen sind ein wichtiger Bestandteil unserer Gesamtstrategie nicht nur neue Forschung anzuregen, sondern auch ein breites öffentliches Interesse und Verstehen. verschaffen den Kommunikatoren Anerkennung in ihren jeweiligen Berufen, um diese Personen und andere zu ermutigen darin fortzufahren die Begeisterung, Chancen und Risiken der Forschung zu vermitteln und ein breites öffentliches Verständnis zwischen staatlichen und privaten Entscheidungsträgern und der Bevölkerung zu bewirken. NAKFI-Communications Preise werden seit 2003 vergeben. Die Preisträger werden in einer Zeremonie im NAS-Gebäude geehrt und der Sieger in der Kategorie Buch hält häufig eine „Buch und Autor Rede“ anlässlich des jährlichen NAS-Treffens. Eine Reihe der Nominierten hat uns erzählt, daß die Preise in Journalistenkreisen weite Anerkennung finden.

    Broschüren zur Beschreibung der Vorteile von Grundlagenforschung

    Aus der Grundlagenforschung resultieren andauernd Nutzanwendungen, die unvorhersehbar und häufig überraschend sind. Diese Vorteile können kommerzieller, medizinischer, landwirtschaftlicher Natur sein oder, beispielsweise, der nationalen Sicherheit dienen und sie können schnell auf eine grundlegende Entdeckung folgen oder auch erst Dekaden später. Der NAS-Rat hat eben ein neues Projekt gestartet, welches kurze Broschüren über aktuelle, derartige Beispiele herausgibt um die breite Öffentlichkeit und nationale Entscheidungsträger auf den aus der Grundlagenforschung kommenden „überraschenden Nutzen“ („Surprising Payoffs“) hinzuweisen. Solche Broschüren wurden von der NAS in den 1990er Jahren produziert (mit dem Titel: „Beyond Discovery“). Die Produkte „Surprising Payoffs“ werden im Druck und online, zur Verteilung und Archivierung, vorliegen und ab 2015 erscheinen. Die erste Gruppe an Beispielen wird sich mit Sozial- und Verhaltenswissenschaften beschäftigen, spätere Folgen werden andere wissenschaftliche Gebiete abdecken.

    Um nun abzuschließen – ich habe die Aktivitäten der NAS kurz zusammengefasst, welche zum Ziel haben das Verständnis für und die Einstellung zur Wissenschaft in der Bevölkerung zu verbessern. Öffentliche Kommunikation spielt eine Rolle in anderen NAS-Aktivitäten, wie dem Koshland Science Museum, den Kulturprogrammen der NAS und der Vorlesungserie „Distinctive Voices” am Beckman Center in Irvine, California. Zusätzlich gibt die NAS Fragen & Antworten zur Wissenschaft heraus und anderes Titelseiten-Material [3] in Ergänzung zu den wissenschaftlichen Artikeln. Das neue Büchlein “ Klimawandel: Beweise und Ursachen“ [4] ist eine Gemeinschaftsproduktion der NAS und der Royal Society (erschienen am 27. Feber als Publikation und interaktive Website) mit Unterstützung von Dr. und Mrs. Raymond Sackler und hat das Ziel einen komplexen Sachverhalt der Öffentlichkeit zu erklären.

    Unsere Aktivitäten zur Kommunikation sind größtenteils auf langfristige Verbesserungen ausgerichtet. Diese und ähnliche zukünftige Aktivitäten werden andauernden Aufwand über lange Zeit benötigen.

    Es ist uns bewusst, dass ernste und dringliche Probleme zu lösen sind, beispielsweise Probleme im Unterrichten der Evolution, Argumente, welche den Klimawandel als Betrug hinstellen, Ablehnung von genetisch verändertem Getreide, Gefühle“ aus dem Bauch“ gegen Impfungen, jährlich sich wiederholende Kämpfe um das staatliche Budget, ein genereller Mangel an Verständnis für den wissenschaftlichen Prozess (wie sich dieser selbst korrigiert und den Fortschritt der Gesellschaft bedingt) und Wissenschaft als ein internationaler Wettbewerb. Die Wichtigkeit der in der Wissenschaft liegenden Chancen für alle K-12 Schüler und für junge Doktoranden ist eine Botschaft, die andauernd betont werden muss. Auch Kommunikation über korrektes Verhalten in den Wissenschaften ist ein sehr wichtiges Thema, das unserer Aufmerksamkeit bedarf.

    Ich habe versucht diese wichtigen Themen bei vielen Gelegenheiten im vergangenen Jahr anzusprechen, als wir das 150-jährige Bestehen der NAS feierten. Allerdings, um es nochmals zu erwähnen, da es sich um die Einstellung der Öffentlichkeit handelt, müssen wir uns langfristigen Anstrengungen unterziehen um mit der Bevölkerung zu interagieren.

    Jede der oben erwähnten Aktivitäten wurde ermöglicht durch die freiwilligen Arbeiten von Mitgliedern der NAS, von vielen anderen Wissenschaftern und von unseren fachlichen Mitarbeitern, die auch viel Zeit geopfert haben. Barbara Kline Pope hat eine Schlüsselrolle gespielt, ebenso wie die frühere NAS-Vizepräsidentin Barbara Schaal.

    Bitte, senden Sie mir Ihre Antworten und berichten Sie über ähnliche Öffentlichkeitsarbeit von Ihrer Seite.

    Mit besten Grüßen,

    Ralph J. Cicerone,

    President National Academy of Sciences


    [1] http://www.pnas.org/content/110/Supplement_3 [2] http://www.nap.edu/catalog.php?record_id=18478 [3] http://frontmatter.pnas.org/ [4] http://nas-sites.org/americasclimatechoices/events/a-discussion-on-climate-change-evidence-and-causes/ * Mit dem im Original durchgehend verwendeten Begriff “Science” sind, dem anglikanischen Sprachgebrauch entsprechend, in den allermeisten Fällen – aber nicht ausschließlich – die Naturwissenschaften gemeint. In der deutschen Übersetzung wurde (wie auch schon im Eurobarometer-Artikel der vor zwei Wochen im ScienceBlog erschien) der einheitliche Begriff ›Wissenschaft‹ verwendet.

    Abkürzungen

    NAS: National Academy of Sciences. Die bekannteste aller Akademien der Wissenschaften, wurde vor 151 Jahren gegründet und hat es sich zur Aufgabe gemacht die Naturwissenschaften in den US zu fördern. Zusammen mit der National Academy of Engineering (NAE), dem Institute of Medicine (IOM) und dem National Research Council (NRC) berät die NAS die amerikanische Nation in unabhängiger und objektiver Weise zu Fragestellungen in Naturwissenschaften, Technologie (Science and Technology) und Gesundheitsasdpekte. Die Mitglieder der NAS gehören zu den weltbesten Wissenschaftern (nahezu 500 wurden bereits mit dem Nobelpreis ausgezeichnet). Fünf Autoren in unserem ScienceBlog sind Mitglieder der NAS. Details zu den Organisationen NAE, NRC und IOM sind auf der enorm informativen Homepage der NAS zu finden: http://www.nasonline.org/ PNAS: Proceedings of the National Academy of Sciences of the United States of America. Eines der besten, und meistzitierten multidisziplinären wissenschaftlichen Journale .; von der NAS herausgegeben. http://www.nasonline.org/publications/pnas/


    Weiterführende Links

    Artikel in ScienceBlog.at: Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage Spezial-Eurobarometer


     

    inge Fri, 14.03.2014 - 00:34

    Kunst oder Chemie – zur Farbästhetik alter Malereien

    Kunst oder Chemie – zur Farbästhetik alter Malereien

    Fr, 07.03.2014 - 05:18 — Elisabeth Pühringer

    Icon ChemieElisabeth PühringerFarbempfinden? Farbästhetik? Bedeutung von Farben? Die Autorin – Archäologin und Journalistin – zeigt auf, daß die Farbgestaltung auf alten Bildern manchmal gar nichts mit Kunst zu tun hat, sondern mit chemischen Reaktionen. Gewisse Farbpigmente können sich nämlich im Laufe der Zeit verändern...

    Schwarze Madonnen sind ein Schulbeispiel für Farbveränderungen. Die mit Bleiweiß gemischten Hauttöne haben sich durch Umwelteinflüsse verändert (Abbildung 1). Chemische Reaktionen sind auch dafür verantwortlich, wenn ein leuchtend blauer Umhang einer Schutzmantelmadonna im Lauf der Zeit grün wurde. Ist bei den Farben von urzeitlichen Höhlenmalereien ebenfalls Chemie im Spiel? Schwarze Madonna von Candelaria

    Abbildung 1. Die schwarze Madonna von Candelaria (um 1400; Teneriffa) auf dieser Postkarte gilt als Fürsprecherin in besonders schwierigen Fällen.

    Die Farben der Urzeit sind rot, braun und schwarz. Die chemischen Analysen der Farben der paläolithischen Höhlenbilder ergaben folgende Ergebnisse: Die Materialien für Rot- und Brauntöne waren Limonit (Brauneisenstein, Goethit (Rubinglimmer), Roteisenstein und Hämatit. Für die Farbe schwarz wurden neben Kohle mindestens zwei verschiedene Manganoxide verwendet.

    Die exakten Analysen zeigten, dass die Farbpigmente nicht nur mit den Fingern aufgetragen, sondern vor allem mit dem Mund gespritzt wurden. Das heißt, die Urzeitkünstler nahmen giftige Farbpigmente, wie etwa Manganoxid in den Mund, speichelten sie ein und spuckten sie dann auf die Höhlenwand. Experimente haben bewiesen, dass für zahlreiche Bilder kein anderes Malverfahren in Frage kommt als diese "Spucktechnik".

    Sind die Künstler durch das Gift im Mund in Trance gefallen? Waren die prähistorischen Maler Schamanen, die das Farbpigment Manganoxid als Droge benützten? Sind die berühmten Höhlenbilder also in einer Art von Drogenrausch entstanden? War die urzeitliche Malorgie ein Happening in Ekstase?

    Man wird doch noch fragen dürfen, auch wenn es für solche Fragen keine Antworten gibt, sondern bestenfalls ethnografische Parallelen. In Afrika sind Schamanismus und Krankheit eng miteinander verbunden. Könnten die rätselhaften Höhlenbilder eine Art von Therapie gewesen sein? Da ist alles offen.

    Farbästhetik oder Chemie?

    Es gibt aber auch noch andere Fragen. Etwa: Warum sind aus der Zeit des Paläolithikums kaum blaue und grüne Farbtöne erhalten? Die Steinzeitmaler haben zur Gewinnung ihrer Farben bunte Mineralien zerrieben. Gelbtöne etwa gibt es aus pulverisierten Bernstein. Es hätte doch auch blaue und grüne Steine zum Zerreiben geben. Etwa die Kupferverbindungen Azurit und Malachit (Abbildung 2), die in späterer Zeit sehr häufig zu Farbpigmenten verarbeitet wurden.

    Azurit (blau) und Malachit (grün)Abbildung 2. Azurit (blau) und Malachit (grün) können sich durch Umwelteinflüsse verändern.

    Bevor man jetzt das mögliche ästhetische Empfinden der Künstler ins Treffen führt, was zu einer Vorliebe von rot, gelb, braun und schwarz führte, sollte man aber noch eine andere Möglichkeit in Betracht ziehen. Es wäre ja gut möglich, dass blaue und grüne Farbtöne bei den steinzeitlichen Höhlenmalereien ursprünglich sehr wohl vorhanden waren, doch den Umwelteinflüssen zum Opfer fielen.

    Die Kupferkarbonate Azurit und Malachit sind säureempfindlich. Sind die blauen und grünen Malereien von einer Art von saurem Regen weggewaschen worden? 40.000 Jahre sind eine lange Zeit. Da kann viel passiert sein. Wer sagt, das Umweltprobleme ein Phänomen der Jetztzeit sind?

    Ein Blick in die Hexenküche der Chemie lässt die "Farbästhetik" vergangener Tage in neuem Licht erscheinen.

    Achtung: Zeitsprung! Die beiden folgenden Vergleiche stammten aus dem alten Ägypten (ab ca. 3000 v. Chr.) und aus dem anatolischen Hochland (ca. 6000 v.Chr.).

    Die Ägypter wussten das

    In der altägyptischen Malerei nimmt blau und grün eine wichtige Stellung ein. Lange Zeit ging man von der Annahme aus, dass diese Farben aus natürlichen blauen und grünen Farbpigmenten aufbereitet worden seien. An Hand von neuen Analysen der verwendeten Farben in der altägyptischen Malerei konnte nachgewiesen werden, dass bereits ab ca. 2.480 v.Chr. in Ägypten keine natürlichen, sondern synthetische blaue und grüne Farbpigmente zum Einsatz kamen.

    Für die Pigmentherstellung dieser synthetischen Farben wurde Bronze verwendet. Es wurde also Altmetall für die Aufbereitung von dauerhaft leuchtenden Farben verwendet! Der Nachweis dafür gelang durch die Spuren von Arsen, Zinn und Blei in den Farben. Das waren die Legierungszusätze der Bronze, die im Laufe der Zeit verändert wurden.

    Die früheste Bronze war die Arsenbronze, gefolgt von Zinnbronze. In römischer Zeit kam dann noch der Bleigehalt dazu. Parallel zu der metallurgischen Entwicklung bei der Bronzeherstellung lief es bei den Farben. Bei den altägyptischen Malereien aus der Zeit des alten Reiches (ca. 2.489 v.Chr.) konnte in den Farbpigmenten ein Arsengehalt festgestellt werden. Proben aus späterer Zeit hatten einen signifikanten Zinngehalt, und in den Farben der römischen Zeit wurde neben Zinn auch noch Blei in beträchtlichen Mengen nachgewiesen.

    Die innere Chronologie der Farben läuft also parallel mit der Entwicklung der Bronze. Alle untersuchten Farbproben stammten von exakt datierten Kunstwerken. Das lässt den Schluss zu, dass die alten Ägypter zur Herstellung der künstlichen Blau- und Grünpigmente vom Alten Reich bis zur Römerzeit konsequent Altmetall verwendet hatten.

    Blickpunkt Anatolien

    Der nächste Zeitsprung führt zurück ins sechste vorchristliche Jahrtausend, und zwar in die Steinzeitmetropole Catal Hüyük in Anatolien. Wo heute im kargen Hochland der Wind durch das spärliche Gras pfeift, stand damals eine blühende Großstadt, die sang- und klanglos untergegangen ist. Eine Klimaveränderung dürfte daran schuld gewesen sein.

    Die Bewohner der Steinzeit-Stadt von Catal Hüyük liebten eine bunte, farbenfreudige Umwelt. Sie bemalten alles: Wände, Reliefs, Plastiken, Gefäße, Textilien und sogar ihre Toten, die sie unter den Fußböden ihrer Häuser bestatteten.

    Die anatolischen Maler der Steinzeit hatten eine komplette Palette von Farbstoffen, die alle aus Mineralien gewonnen worden sind. Neben Mangan- und Eisenerzen für rot, braun, schwarz und purpur verwendeten sie auch Quecksilberoxid für zinnoberrot, Bleiglanz für grau und Kupferkarbonate - also Azurit und Malachit - für blau und grün.

    Doch bei den erhaltenen Wandmalereien kommt die Farbe blau nur ein einziges Mal vor: Es gibt eine blaue Kuh. Rot hingegen fehlt in keinem Haus. Die Maler von Catal Hüyük trugen die Mineralfarben direkt auf den weißen Putz auf. Die Wände wurden häufig übertüncht und neu bemalt. vielleicht waren blau und grün früher bei diesen überirdischen Malereien ebenfalls häufiger. Für die Nachwelt erhalten geblieben ist nur diese blaue Kuh.

    Bemalte Skelette

    Anders sieht es bei den unterirdischen Malereien aus, den blau und grün bemalten Skeletten der Ahnen der Bewohner. Anatolien war in der Steinzeit der "Nabel der Welt". Für diesen Raum sind durch die aktuelle archäologische Forschung bereits für die Zeit von 12.000 v. Chr. hochentwickelte Kulturen nachgewiesen worden. Es geht um das sogenannte "präkeramischen Neolithikum" - gemeint ist damit die frühe Jungsteinzeit, jener Zeitraum, aus dem es noch keine Keramikfunde gibt.

    Die alten Anatolier stellten damals bereits Farben aus zerriebenen Steinen her. Diese Technik der Farbherstellung hat sich in unserem Raum bis ins frühe Mittelalter erhalten. Für die Farbe grün wurde nach wie vor zerriebenes Malachitpulver verwendet.

    Blau und grün war also verfügbar und wurde auch verwendet. Doch nur bei den unter dem Boden verwahrten Skeletten haben sich diese Farben erhalten. Waren daran die Umwelteinflüsse schuld? Bei den Ausgrabungen in Catal Hüyük ist ein kleines Stück Kupferschlacke gefunden worden. Das bedeutet, dass die Technik des Kupferschmelzens hier bereits bekannt war. Also lange bevor sie im Nahen Osten offiziell erfunden worden ist.

    Uralte Umweltbelastung

    Kupferkarbonate sind säureempfindlich. Durch die Erzverhüttung ist es in der Urzeit bestimmt zu einer gewaltigen Umweltbelastung gekommen. Für die Gewinnung der für den Schmelzvorgang nötigen Holzkohle wurden nicht nur ganze Wälder abgeholzt, die antiken Schachtöfen hatten auch keinerlei Schadstoff-Filteranlagen, wie uns das heute geläufig ist.

    Der aggressive "saure Regen" ist demnach keine Erfindung unseres modernen Industriezeitalters. Er könnte bereits in der Urzeit die säureempfindlichen blauen und grünen Malereien aufgelöst und weggewaschen haben.

    Ist der Untergang von Catal Hüyük also auf eine Umwelt-Katastrophe zurückzuführen? War das heute karge Hochland einmal dicht bewaldet? Haben die alten Anatolier ihre Wälder gerodet, weil sie das Holz zum Kupferschmelzen brauchten? Haben sie so den Klimawandel selbst verschuldet, der ihrer Gesellschaft den Untergang beschert hat?

    Die blauen und grünen Skelette von Catal Hüyük hätten dieser Überlegung zufolge eine Chance gehabt, erhalten zu bleiben. Sie ruhten wohl verborgen unter den Fußböden der Häuser und waren nicht der Umweltbelastung ausgesetzt. Die aus Eisen- und Manganverbindungen gewonnenen roten, braunen und schwarzen Farbpigmente haben die Zeit überdauert. Sie waren säureresistent.

    Für diese Theorie gibt es zwei Indizien: erstens der zitierte Schlackenfund und zweitens die Tatsache, dass in der Folge zweitausend Jahre lang Pause war mit dem Kupferschmelzen.

    Hatten die Menschen erkannt, dass sie den "Geist aus der Flasche" entweichen ließen, der ihnen die Lebensgrundlage entzog uns sie alle umbrachte? Die Technik des Kupferschmelzens wurde erst 2000 Jahre später wieder neu entdeckt. Für einen Klimawandel im anatolischen Hochland gibt es ein Indiz: Pollenfunde von wärmeliebenden Pflanzen.

    Industriezeitalter

    Nächster Zeitsprung: Diesmal geht es um die Malereien des Mittelalters. Auch zu dieser Zeit verwendete man noch zerriebenes Malachit- und Azuritpulver zur Herstellung der grünen und blauen Farbtöne. Grün kann sich zu blau verändern und umgkehrt blau zu grün. Die berühmten blauen Schutzmantelmadonnen trugen plötzlich einen grünen Umhang. Durch Wassereinwirkung hatte sich Azurit in Malachit verwandelt. Aus blau wurde grün.

    Es funktioniert auch in der umgekehrten Richtung: Wenn aus grün blau wird, ist Kohlendioxid daran schuld, dass sich Malachit in Azurit verwandelt. Chlorid-Ionen, wie sie etwa in Kochsalz vorhanden sind, hatten bei den untersuchten Mineralfarben zu unerwünschten chemischen Reaktionen geführt. Das zeigt, dass Kupferkarbonate gegen Umwelteinflüsse keineswegs stabil sind.

    Das klassische Beispiel für Farbverfälschungen sind die "Schwarzen Madonnen". Die Umweltverschmutzung des frühen Industriezeitalters führte zu einer chemischen Reaktion von Bleiweiß. Das machte die bleiche Madonnenhaut schwarz


     

    inge Fri, 07.03.2014 - 03:39

    Das mikrobielle Leben der Tiefsee

    Das mikrobielle Leben der Tiefsee

    Fr, 21.02.2014- 09:04 — Gerhard Herndl

    Icon Meere Gerhard Herndl

    Der tiefe, dunkle Ozean - das größte und am wenigsten erforschte Ökosystem der Erde - bietet Lebensraum für eine enorme Vielfalt an Mikroorganismen. Zu deren Stoffwechsel liefert der Autor essentielle Beiträge mit dem Ziel die biogeochemikalischen Kreisläufe im Meer (mikrobielle Ozeanographie) zu erforschen und damit zu einem generell besseren Verständnis des globalen Kohlenstoffkreislaufs und damit des Ökosystems Erde beizutragen.

    Der tiefe dunkle Ozean nimmt mehr als 70% des Gesamtvolumens der Meere ein. Er ist der größte und zugleich unerforschteste Lebensraum unserer Erde, eine Zone ohne Licht, welches dort lebenden Organismen mittels Photosynthese ein autotrophes Leben ermöglichen könnte. Bereits ab 200 m Tiefe – der mesopelagialen- oder „Zwielicht“ Zone - dient schwach durchschimmerndes Licht nur noch der Orientierung von Lebewesen; ab 1000 m herrscht totale Finsternis. Die hier lebenden Organismen müssen sich auch dem zunehmenden Druck der Wassersäule – 1bar je 10 m; bei 5000 m sind es bereits 500 bar – anpassen, den niedrigen Temperaturen von etwa 2 °C und dem verringerten Nährstoffangebot.

    Die Tiefenzonen des Ozeans sind in Abbildung 1 dargestellt.

    Tiefenzonen im offenen MeerAbbildung 1. Tiefenzonen im offenen Meer (griechisch: pelagos). Photosynthese findet nur in der obersten, der epipelagialen (oder euphotischen), Zone statt. (Bild: Wikipedia)

    Marine Mikroorganismen stellen eine ungeheure Biomasse dar. Schätzungen an Hand gemessener Zellzahlen gehen von insgesamt bis zu 1030 prokaryotischen Organismen –Bakterien und Archaea - aus, die einer Masse fixierten Kohlenstoffs von bis zu 300 Gigatonnen entsprechen [1]. Der Großteil dieser Biomasse liegt als Sediment am Meeresboden.

    An der Meeresoberfläche generieren photosynthetisch aktive Mikroorganismen aus dem CO2 der Atmosphäre jährlich rund 50 Gigatonnen Kohlenstoff, in Biomasse gebunden - ebensoviel, wie alle terrestrischen Pflanzen zusammen [1]. Diese durch mikroskopisch kleinen Algen produzierte Biomasse ist die Basis des marinen Nahrungsnetzes, das Ausmaß ihrer Speicherung in den Ozeanen von fundamentaler Bedeutung für die Regulierung des globalen Kohlenstoffkreislaufs und damit auch des Klimas.

    Mikrobielle Ozeanographie – ein neues Forschungsgebiet

    Die Erforschung des mikrobiellen Lebens der Tiefsee, seiner Rolle im Ökosystem der Meere und darüber hinaus seiner Bedeutung für die globalen Stoffkreisläufe, erfordert interdisziplinäre, ganzheitliche Ansätze und langfristige Programme: Experten der unterschiedlichsten Disziplinen arbeiten hier in multinationalen Teams zusammen, verknüpfen Biochemie, Mikrobiologie, Ozeanographie und Ökologie zu einer neuen Fachrichtung, der mikrobiellen Ozeanographie.

    Grundlegend sind Untersuchungen an Wasserproben, die mittels eigens dafür konstruierter Hochdrucksammelgefäße aus unterschiedlichen Regionen und Meerestiefen bis zu 7000 m gewonnen werden. Diese Proben geben Auskunft über Verbreitung, mikrobielle Gemeinschaften und Stoffwechseleigenschaften der Mikroorganismen. Unser Team bestimmt noch an Bord des Forschungsschiffes Zellteilungsraten und somit Stoffwechselraten und zwar unter den für die Proben authentischen Druck- und Temperaturbedingungen. Die weitere biochemisch-molekularbiologische Charakterisierung erfolgt dann In den Labors am Heimatort. Wie eine vor kurzem erfolgte Hochdurchsatz-Sequenzierung der mikrobiellen Genome zeigt, weisen die Mikroorganismen eine enorme phylogenetische Diversität und Komplexität auf; vormalige Schätzungen, die von mehreren Tausend unterschiedlichen „Spezies“ sprachen, werden um Größenordnungen übertroffen [2].

    Das, was in der Tiefe lebt, kann auch direkt beobachtet werden. Eine neu entwickelte Kamera – eine Art Unterwassermikroskop - ermöglicht es mit ungewöhnlicher Schärfe Partikel und Organismen im Wasser abzulichten, die nur wenige Tausendstel Millimeter groß sind [3].

    Die Basis des marinen Nahrungsnetzes

    In den sonnendurchfluteten Wasserschichten an den Oberflächen der Ozeane nimmt das Phytoplankton das aus der Atmosphäre im Meerwasser gelöste CO2 auf und verwandelt es mittels Photosynthese in organische Kohlenstoffverbindungen, die Bausteine seiner Zellen. In diesem Prozeß wird auch Sauerstoff – etwa die Hälfte des Sauerstoffs in unserer Atmosphäre - generiert.

    Phytoplankton, eine Sammelbezeichnung für mikroskopisch kleine, (vorwiegend) einzellige Mikroorganismen, besteht vor allem aus Kieselalgen, Grünalgen, Dinoflagellaten und Cyanobakterien (Abbildung 2). Diese autotrophen Organismen stellen die Basis des gesamten Nahrungsnetzes im marinen Ökosystem dar: sie sind primäre Nahrungsquelle für das Zooplankton – die am häufigsten vorkommenden vielzelligen Organismen der Meere –, welche wiederum Nahrungsquelle für Fische und viele andere Meereslebewesen sind. Für effizientes Wachstum des Phytoplanktons sind außer Sonnenlicht, Wasser und CO2 auch Nährstoffe, vor allem Nitrat und Phosphat nötig, in einigen Regionen ist Eisen der wachstumslimitierende Faktor. PhytoplanktonAbbildung 2. Phytoplankton (links) ist eine Sammelbezeichnung für photosynthetisch aktive Mikroorganismen und besteht vor allem aus Kieselalgen, Grünalgen, Dinoflagellaten und Cyanobakterien. Phytoplankton ist primäre Nahrungsquelle für das Zooplankton und zahlreiche Tiere. Produktivität des Phytoplanktons im Nordatlantik (rechts), dargestellt sind die über das Jahr 2007 gemittelten Chlorophyllkonzentrationen. (Quelle http://lms.seos-project.eu/learning_modules/oceancurrents/; creative commons licensed)

    Meeresschnee – ein kontinuierlicher Materialfluß in die Tiefe

    Im globalen Mittel sinken rund 30% des an der Meeresoberfläche produzierten organischem Kohlenstoffs in die dunklen Meerestiefen ab und zwar in der Form von gelösten organischen Kohlenstoffverbindungen („dissolved organic carbon“: DOC) und als schwebende und absinkende größere Partikel („particulate organic carbon“: POC). Etwa 1% organischer Kohlenstoff erreicht den Meeresgrund.

    Die Partikel sind unregelmäßig geformte, fragile Flocken, die mehrere Zentimenter groß werden können und auf Grund ihres Aussehens als Meeresschnee bezeichnet werden (Abbildung 3). Sie bestehen hauptsächlich aus abgestorbenem, nicht abgeweidetem Phytoplankton, zerfallendem Zooplankton, tierischen Exkrementen und hochmolekularen, gallertigen Substanzen, die vom Phytoplankton in den späten Phasen der „Algenblüte“ abgegeben werden und zum Verklumpen der Flocken führen. Von der Art und dem Anteil dieser Komponenten, vor allem von der unterschiedlichen Zusammensetzung des Phytoplanktons in nährstoffreichen Meeresregionen (zB. im Nordatlantik) und in nährstoffarmen Regionen (Tropen, Subtropen) hängt es ab, wie groß die Flocken werden und wie schnell und tief sie absinken.

    Einen besonderen Einfluss auf den Meeresschnee haben die Bakterien der Tiefsee, welche bevorzugt die Flocken besiedeln und zersetzen. Um die Inhaltsstoffe der Flocken aufnehmen zu können, produzieren die Bakterien Enzyme (Ektoenzyme), die das organische Material außerhalb der Bakterienzelle zersetzen, sodaß es in gelöster Form durch die Zellwand geschleust werden kann. Die Aktivität dieser Ekto-Enzyme spielt eine entscheidende Rolle in der Umsetzung des organischen Materials und damit für dessen Verfügbarkeit für höhere Organismen ebenso wie für das Wachstum der Bakterien. Meeresschnee (links), Algenblüte vor Kamchatka (rechts)Abbildung 3. Meeresschnee (links), Algenblüte vor Kamchatka (rechts): Satellitenaufnahme am 2. Juni 2010 in natürlichen Farben zeigt (Quellen: http://lms.seos-project.eu/learning_modules/oceancurrents/ und http://earthobservatory.nasa.gov/; cc-license)

    Die Biologische Pumpe

    Die durch Photosynthese aus CO2 entstandenen organischen Kohlenstoffverbindungen werden über das Nahrungsnetz wieder „remineralisiert“, d.h. durch Atmung in CO2 zurückverwandelt. Der größere Teil der Remineralierung erfolgt bereits durch die Mikroorganismen in den obersten Meeresschichten.

    Das von der Meeresoberfläche stetig herabrieselnde Material dient den in den Meerestiefen lebenden Organismen als direkte Nahrungsquelle. Auch diese remineralisieren die Kohlenstoffverbindungen zu CO2 – dies geschieht allerdings wesentlich langsamer als an der Meeresoberfläche. Ein Teil des gelösten organischen Materials (DOC) kann aber offensichtlich nicht verstoffwechselt werden („recalcitrant organic mass“ - RDOC) und bleibt langfristig (auch über Jahrtausende) im Meer gespeichert. In Summe wird also durch die Photosynthese des Phytoplanktons mehr CO2 der Atmosphäre entzogen als dann über die gesamte Nahrungskette durch Atmung wieder freigesetzt wird (Biosequestrierung von CO2 ).

    Der so durch Mikroorganismen erzeugte Fluß von CO2 aus der Atmosphäre in die Meerestiefen wird mit dem Begriff „Biologische Pumpe“ bezeichnet (Abbildung 4).

    Die biologische PumpeAbbildung 4. Die biologische Pumpe – der Weg des CO2 in die Tiefe. Phytoplankton, das mittels Sonnenenergie CO2 assimiliert, bildet die Basis der marinen Nahrungskette. In die Tiefe absinkendes organisches Material wird von dort lebenden Organismen verbraucht und als CO2 abgeatmet. Damit entsteht ein Fluß von CO2 aus der Atmosphäre in die Tiefe. (Bild modifiziert nach: US Joint Global Ocean Flux Study. http://www1.whoi.edu/images/jgofs_brochure.pdf)

    Chemosynthese: Mikroorganismen in der Tiefsee machen sich auch zusätzliche Energiequellen zunutze.

    Bestimmungen der Stoffwechselraten von Mikroorganismen in der Tiefsee sind erst seit kurzem möglich. Erstaunlicherweise zeigen diese, dass die Mikroorganismen mehr organischen Kohlenstoff verbrauchen, als von oben angeliefert wird – eine Diskrepanz, die sowohl im Atlantik als auch im Pazifik festgestellt wurde [4]. Offensichtlich besitzen viele der Tiefsee-Bakterien und Archea ein Gen für das Protein RuBisCo (Ribulose-1,5-bisphosphat-carboxylase/-oxygenase), ein Enzym, das alle Pflanzen brauchen, um mit Sonnenenergie CO2 zu fixieren. Sogenannte chemoautrophe Mikroben können ebenfalls mit Hilfe von RuBisCo (abgeatmetes) CO2 in organische Verbindungen umzuwandeln; die dazu nötige Energie entsteht hier aber durch die Oxydation verschiedener in reduzierter Form vorliegender anorganischer Verbindungen, z.B. Schwefelwasserstoff, Ammoniak.

    Die Raten an Chemosynthese die in der Wassersäule des tiefen Ozeans gemessen werden, sind wesentlich höher als man bisher gedacht hat und tragen zum Nahrungsnetz aller nicht-autotropher Organismen bei [4]. Allerdings reicht auch die Summe aus der so entstandenen Biomasse und dem Partikelregen von der Meeresoberfläche noch nicht aus, um den Nahrungsbedarf der Organismen der Tiefsee zu decken. Wovon Tiefseeorganismen, nicht nur die Mikroorganismen, nun wirklich leben und welchen Einfluß dies auf den marinen Kohlenstoffkreislauf hat, ist noch weitgehend unbekannt und soll in großen internationalen Forschungsprogrammen (beispielsweise in dem von der European Science Foundation geförderten Projekt: Microbial Oceanography of Chemolitho-Autotrophic planktonic Communities (MOCA) [5]) geklärt werden.

    Ausblick

    Meeresforschung mit dem Fokus auf mikrobieller Ozeanographie kann globale Fragen, vor allem hinsichtlich des Kohlenstoffkreislaufs klären:

    • Wie wird sich ein steigender CO2-Gehalt der Atmosphäre und damit ein „Saurer-Werden“ des Meerwassers auf die Diversität und Produktivität des Phytoplanktons auswirken?
    • Wieviel CO2 kann via Biologische Pumpe der Atmosphäre entzogen werden und welche Rolle spielen hier die chemoautotrophen Mikroorganismen der Tiefsee?
    • Wie schließlich werden sich die Nahrungsnetze der Ozeane in verschiedenen Breiten verändern?

    [1] WB. Whitman, DC Coleman, WJ Wiebe (1998) Prokaryotes: The unseen majority. Proc. Natl. Acad. Sci. USA 95:6578–6583. [2] MLL Sogin, HG Morrison, JA Huber, WD Mark; SM Huse, PR Neal, JM Arrieta, GJ Herndl (2006), Microbial diversity in the deep sea and the underexplored "rare biosphere". Proc. Natl. Acad. Sci. USA 103: 12115-12120. (Mit bis jetzt 1061 Zitierungen dürfte dies die meistzitierte Veröffentlichung in der Meeresbiologie sein, Anmerkung der Redaktion.) [3] AB Bochdansky, MH Jericho, GJ Herndl, 2013 Development and deployment of a point-source digital inline holographic microscope for the study of plankton and particles to a depth of 6000 m. Limnol. Oceanogr.: Methods 11, 2013, 28–40. [4] GJ Herndl, T Reinthaler, 2013, Microbial control of the dark end of the biological pump. Nature Geoscience 6:718-724. [5] http://www.microbial-oceanography.eu/moca/moca.html


    Weiterführende Links

    G. Herndl

    Im ScienceBlog: Tieefseeforschung in Österreich

    Webseite von Gerhard Herndl

    Meeresbiologe und Wittgensteipreisträger 2011 Gerhard J. Herndl. Video 5.38 min. Die einmonatige Forschungsreise auf der Pelagia im Herbst 2010 ist unter „Schiffsmeldungen“ im Archiv der online-Zeitung der Universität Wien dokumentiert.

    Topics of the Ocean Currents Tutorial

    ZDF: Universum der Ozeane

    inge Fri, 21.02.2014 - 09:40

    Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401)

    Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401)

    Fr, 28.02.2014 - 08:16 — Inge Schuster

    Icon Politik & GesellschaftInge SchusterVor wenigen Wochen ist unter dem Titel „Verantwortliche Forschung und Innovation, Wissenschaft und Technologie“ die Analyse einer neuen, von der Europäischen Kommission beauftragten Umfrage erschienen [1]. Wie auch in früheren Studien wird darin eine unerfreuliche Einstellung unserer Landsleute zu Wissenschaft und Technologie ersichtlich, die getragen ist von Desinteresse, mangelnder Ausbildung und niedrigem Informationsstand. Im Gegensatz zu einer zeitgleich, im Auftrag des Wissenschaftsministeriums erfolgten Umfrage ähnlichen Inhalts aber anderen Schlussfolgerungen, gab es auf die EU-Analyse kein Echo - weder von Seite des Ministeriums noch von den Medien des Landes..

    „Österreich sagt Ja zur Wissenschaft“ und „Wissenschaft und Forschung genießen in Österreich hohes Ansehen“ – mit diesen und ähnlichen Worten frohlockten die Medien unseres Landes im August 2013. Grund für diese Jubelmeldungen waren Ergebnisse einer Umfrage zur "Bedeutung von Wissenschaft und Forschung für die österreichische Bevölkerung", die im Auftrag des Ministeriums für Wissenschaft und Forschung von dem Institut Ecoquest Market Research & Consulting GmbH durchgeführt worden war. Eine österreichweite telefonische Befragung von rund 1000 (über 16 Jahre alte) Personen hatte deren überwiegend positive Einstellung aufgezeigt: so befanden rund 80%, daß Wissenschaft das Leben leichter, gesünder und angenehmer mache und die Förderung von Wissenschaft und Forschung eine wichtige Aufgabe der Politik wäre, 74%, daß Forschung essentiell für Österreichs Wohlstand und wirtschaftliche Entwicklung wäre. Eine Mehrheit (59%) bekundete Interesse an Wissenschaft und Forschung, 45% meinten diesbezüglich auch gut informiert zu sein.

    Auf eine Aufzählung weiterer positiver Antworten wird hier mit Rücksicht auf eine ansonsten unzumutbare Länge des Blog-Artikels verzichtet und auf die Berichterstattung in den Medien hingewiesen. Es erscheint allerdings unverständlich, daß eine Studie mit offensichtlich so erfreulichen Ergebnissen nicht in detaillierter Form online frei zugänglich ist und auch ein diesbezüglicher Hinweis auf der Homepage des Ministeriums fehlt.

    Noch unverständlicher ist es aber, daß die Ergebnisse einer zeitgleich erfolgten EU-Umfrage – Spezial Eurobarometer 401 - zur Einstellung der EU-Bürger zu Wissenschaft und Technologie [1] – überhaupt keine Erwähnung fanden – nicht von Seiten der zuständigen Ministerien, nicht von Seiten unserer Medien.

    Zugegeben, das Eurobarometer sieht unser Land durch eine nicht ganz so rosarote Brille. Zwar meinte auch hier die Mehrheit der Befragten (78%), dass der Einfluss von Wissenschaft und Technologie auf die österreichische Gesellschaft insgesamt positiv ist (EU27: 77%). Wie schon in der vorhergegangenen Umfrage (Spezial Eurobarometer 340 [2]) erscheint aber auch hier die allgemeine Einstellung der Österreicher zu Wissenschaft und Technologie geprägt von Desinteresse, alarmierend niedriger Bildung und mangelnder (Bereitschaft zur) Information.

    Was ist unter „Spezial Eurobarometer 401“ zu verstehen?

    Im Frühjahr 2013 wurde im Auftrag der Europäischen Kommission eine Umfrage in den 27 Mitgliedsländern (plus in dem gerade-noch-nicht Mitglied Kroatien) durchgeführt, welche die allgemeinen Ansichten der Bevölkerung zu Wissenschaft und Technologie erkunden sollte. (Dabei sollten unter dem Begriff "Wissenschaft und Technologie" – entsprechend dem englischen „Science and Technology“ - die Naturwissenschaften wie Physik, Chemie und Biologie und deren Anwendung in den Bereichen Technologie und Verfahrenstechnik, wie z.B. in der Computertechnik, Biotechnologie und bei medizinischen Anwendungen verstanden werden [1]). Dazu schwärmte ein Heer von Interviewern aus, um in jedem Mitgliedsstaat jeweils rund 1000 Personen in ihrem Heim und in ihrer Muttersprache zu befragen - insgesamt 27 563 Personen aus verschiedenen sozialen und demographischen Gruppen. In diesen persönlichen Interviews wurden Fragen vor allem zu folgenden Themenkreisen gestellt:

    i. Zur Beschäftigung europäischer Bürger mit Wissenschaft und Technologie (Grad des Interesses und der Information, Bildung/Nähe zur diesen Gebieten),

    ii. Zum Einfluss von Wissenschaft und Technologie auf die Gesellschaften (auf Lebensqualität, auf das Leben in der Zukunft, Rolle des ethischen Verhaltens in der Forschung, Zugang zu Forschungsergebnissen),

    iii. Zur Bedeutung der Ausbildung junger Menschen in Wissenschaft und Technologie und diesbezügliche Rolle der nationalen Regierungen,

    iv. Zur Berücksichtigung der Bedürfnisse von Männern und Frauen in der wissenschaftlichen Forschung.

    Ein Teil der Fragen deckte sich mit denen in der vorangegangenen Studie im Jahre 2010 [2] und auch noch früheren Studien und erlaubte so Trends von Meinungsverschiebungen aufzuzeigen. Die Analyse der Umfrage wurde am 14. November 2013 u.a. auch in deutscher Sprache, unter dem Titel „Verantwortliche Forschung und Innovation, Wissenschaft und Technologie – Spezial Eurobarometer 401“ veröffentlicht [1]. Es ist ein frei zugänglicher, 223 Seiten starker Bericht.

    Aus der Fülle der Ergebnisse soll in den folgenden Abschnitten im Wesentlichen nur auf Österreichs Haltung bezüglich der unter i) und iii) angeführten Punkte eingegangen werden.

    Wieweit sind Österreicher an Wissenschaft und Technologie interessiert, wieweit darüber informiert?

    Hier tritt ein deutliches Nordwest-Südost Gefälle zutage: Einwohner südlicher und vor allem östlicher Länder bekundeten geringeres Interesse an Entwicklungen in Wissenschaft und Technologie und fühlten sich darüber weniger häufig informiert. Österreichs Haltung ist hier vergleichbar mit der von ehemaligen Ostblockländern.

    Die Frage, ob sie an Entwicklungen in Wissenschaft und Technologie interessiert wären, bejahte die Mehrheit (53%) der befragten EU-Bürger, wobei die meisten Interessierten – bis zu ¾ der Bevölkerung - in Staaten wie Schweden, UK, Dänemark, Luxemburg, Niederlande zu finden waren. Österreich lag mit 45% Interessierten am unteren Teil der Skala – nur die ehemaligen Ostblockländern Ungarn, Rumänien, Bulgarien und Tschechien zeigten noch weniger Interesse (Abbildung 1).

    Über alle Länder gesehen ergab sich eine starke Korrelation von Interesse und Informationstand, wobei das Interesse generell höher angegeben wurde als der jeweilige Informationsstand. Im EU27-Schnitt gaben 40% der Bürger an informiert zu sein, der höchste Informationsgrad (bis zu 65%) war in Dänemark, Schweden, Luxemburg, UK, Frankreich zu finden. Österreich lag mit 30% Informierten wieder im unteren Bereich der Skala, nur Rumänien, Bulgarien und Ungarn lagen noch tiefer (Abbildung 1).

    Umfrage InformationsstandAbbildung 1. Je höher das Interesse an Entwicklungen in Wissenschaft und Technologie war, desto höher bezeichneten die Befragten ihren Informationsstand. Österreich liegt hier im Schlussfeld. (Die Staaten sind mit Symbolen ihrer Flaggen gekennzeichnet: Quelle: [1])

    Es ergibt ein sehr bedenkliches Bild für Österreich, wenn hier eine Mehrheit der Befragten (52%) konstatiert an Entwicklungen in Wissenschaft und Technologie weder interessiert noch darüber informiert zu sein. Nur Bulgaren, Tschechen, Ungarn und Rumänen zeigten sich noch desinteressierter und uninformierter (Abbildung 2). Dieses traurige Ergebnis dürfte jedoch eine prinzipielle Einstellung widerspiegeln:

    In der EU-Umfrage im Jahr 2010 hatten 57% der befragten Österreicher den Satz bejaht „Kenntnisse über Wissenschaft und Forschung zu besitzen, ist für mein tägliches Leben nicht von Bedeutung“ – dies war damals die höchste Zustimmungsrate unter allen EU-Ländern. Nur 25% der Österreicher hatten diesen Satz verneint; dies war die niedrigste Ablehnungsrate unter den Ländern (das EU27-Mittel war 33% Zustimmung, 49% Ablehnung [2], [3]).

    Interesse ÖsterreichAbbildung 2. Die Mehrzahl der befragten Österreicher gibt an, an Entwicklungen in Wissenschaft und Technologie weder interessiert noch darüber informiert zu sein. (Quelle [1])

    In Anbetracht ihres niedrigen Interesses und Informationstandes erscheint es allerdings bemerkenswert, daß die Mehrheit unserer Landsleute (55%) dennoch verlangt, an Entscheidungen über Wissenschaft und Technologie beteiligt zu werden – gleichviele wie im EU27-Schnitt, wobei dieser jedoch einen wesentlich höheren Anteil an interessierten EU-Bürgern verbucht.

    Wer sind die Uninteressierten und Uninformierten?

    Dies geht aus einer soziodemographischen, nicht nach Nationen aufgeschlüsselten Analyse der Antworten aller 27 563 befragten EU-Bürger hervor, die zweifellos auch auf Österreich zutrifft. An Hand einer Reihe von Variablen wie Geschlecht, Alter, Bildung und Beruf wurden die Antworten nach den Kategorien eingeordnet: i) interessiert und informiert, ii) interessiert aber nicht informiert, iii) nicht interessiert, aber informiert und iv) nicht interessiert und nicht informiert.

    Die Zugehörigkeit zur Kategorie „interessiert und informiert“ ebenso wie zu „nicht interessiert und nicht informiert“ erwies sich deutlich abhängig von Geschlecht, Bildungsniveau, Berufsbild und Alter. Zur Kategorie „nicht interessiert und nicht informiert“ gehörten:

    48% der Frauen, aber nur 31 % der Männer

    48% der Personen, die 55 Jahre und älter waren,

    60% der Personen mit dem niedrigsten Bildungsniveau,

    57% der Hausfrauen/-männer,

    60% der Personen, die nie das Internet nutzen,

    55% der Personen, welche negative Auswirkungen der Wissenschaft auf die Gesellschaft befürchteten.

    Ob und wie auf Menschen dieser Kategorie Information zugeschnitten werden kann, die das Interesse an Naturwissenschaften zu wecken vermag, ist mehr als fraglich. Zweifellos kann dies aber bei den rund 15% unserer Mitbürger der Fall sein, die angaben interessiert aber nicht informiert zu sein.

    Woher können Österreicher wissenschaftliche Informationen beziehen?

    Information aus Unterricht/Studium

    Österreich erzielte hier ein besonders schlechtes Ergebnis:

    Auf die Frage: „Haben Sie jemals Wissenschaft oder Technologie als Schulfach gehabt oder an einer Fachhochschule, einer Universität oder irgendwo anders studiert?“

    gaben nur 21% der Österreicher an Fächer aus diesen Wissensgebieten in der Schule (11%), an der Hochschule (8%) oder anderswo (2%) studiert zu haben. Im EU27-Schnitt bejahten 47% diese Frage, wobei 31% die Schule nannten, 14% die Universität und 2% andere Bildungsorte.

    Noch weniger Ausbildung in diesen Fächern als in unserem Land nannten nur noch Tschechen (17%) und Slowaken (13%).

    In anderen Worten: 78% unserer befragten Landsleute hatten am Ende ihres Bildungsweges nichts über Wissenschaft/Technologie gehört/gelernt! (Abbildung 3).

    Als wichtiger Punkt ist hier herauszustreichen: EU-weit hatten diejenigen, die angaben sich für Entwicklungen in Wissenschaft und Technologie zu interessieren, ebenso wie diejenigen, die sich darüber informiert fühlten, diese Gebiete auch häufiger als Schul- oder als Studienfach gehabt, als die weniger Interessierten/Informierten. Nähe zur Wissenschaft

    Abbildung 3. “Nähe zur Wissenschaft”: persönlicher Hintergrund (Quelle: [1])

    Wissenschaftliches Umfeld in der Familie

    Die Frage „Hat oder hatte jemand in Ihrer Familie einen Beruf oder einen Universitätsabschluss im Bereich Wissenschaft oder Technologie?” bejahten 23% der EU27 Bürger, 76% verneinten sie. Österreich lag mit 18% Zustimmung auch hier unter dem EU27-Schnitt. Mit Ausnahme einiger ehemaliger Ostblockländer war die „familiäre Nähe zur Wissenschaft“ seit dem Jahr 2010 in fast allen Staaten gestiegen: im EU27-Mittel um 2%, in Österreich um 1%.

    Andere Informationsquellen

    Wie in allen anderen EU-Ländern war das Fernsehen auch in Österreich die am häufigsten genannte Informationsquelle (AT: 67%, EU27: 65%). An zweiter Stelle nannten 48% der befragten Österreicher Zeitungen – wesentlich mehr als im EU27-Schnitt (33%). Dagegen rangierte bei uns das Internet mit nur 20% der Nennungen wesentlich niedriger (EU27-Schnitt 32%).

    Dazu ist zu bemerken, dass Wissenschaft - als wenig-Quoten-bringend – in unseren Medien eine nur sehr kümmerliche Rolle spielt: so hat das Staatsfernsehen ORF zwischen 2009 und 2012 eine bereits sehr niedrige Sendezeit noch um ein Drittel auf nun 1,22% der Gesamt-Sendezeit gekürzt [4]. So führen nur wenige unserer Printmedien eine Wissenschaftsrubrik – vor allem sind es nicht die Tageszeitungen mit der höchsten Reichweite. Auch werden komplexe Sachverhalte häufig nicht allgemein verständlich dargestellt, sind zum Teil auch nicht ausreichend recherchiert [5].

    Danach befragt, welche Personen/Organisationen sie wohl am besten geeignet hielten, um die Auswirkungen von wissenschaftlichen und technologischen Entwicklungen auf die Gesellschaft zu erklären, nannten Österreicher – ebenso wie die Bürger anderer Länder in erster Linie (mit 66%) die Wissenschafter selbst. Deren Akzeptanz ist bei uns seit 2010 sogar um 10% gestiegen. In weiterer Folge wurden bei uns aber in einem wesentlich höheren Umfang Umweltschutzorganisationen (mit 33%) und Konsumentvereinigungen (mit 30%) angegeben als dies im EU-Schnitt (21 und 20%) der Fall ist (und es vermutlich auch deren wissenschaftlichen Kompetenzen entspricht). Die diesbezügliche Befähigung von Regierungsvertretern und Politikern ganz allgemein wurde bei uns und im EU-Schnitt als sehr gering (4 – 6%) erachtet.

    Unternehmen Regierungen genug um das wissenschaftliche Interesse der Jugend zu wecken?

    In den meisten EU-Ländern meinte die überwiegende Mehrheit der Befragten (EU27-Schnitt: 66%), daß ihre Regierungen diesbezüglich zu wenig tun, und nur 23%, waren gegenteiliger Ansicht.

    Angesichts ihres niedrigen wissenschaftlichen Informationsstandes (Abbildung 2) und ihrer dürftigen Ausbildung (Abbildung 3), wäre eine vergleichbare Stellungnahme der Österreicher zu erwarten gewesen. Tatsächlich äußerte aber nicht einmal die Hälfte der Befragten (49%), daß die Regierung zu wenig unternimmt, 38% waren aber mit deren Tun zufrieden. Die „Zufriedenheit“ hatte gegenüber 2010 sogar um 6% zugenommen.

    Ist dies ein weiteres Merkmal von Desinteresse, gepaart mit Abneigung gegen unverstandene Wissenszweige? Umfrage Maßnahmen

    Abbildung 4. Unternehmen Regierungen genug, um das wissenschaftliche Interesse der Jugend zu wecken? (Quelle: [1])

    Wie geht es weiter?

    Wir leben und arbeiten in einer wissensbasierten Welt, deren Wohlstand und Qualität enorm von den naturwissenschaftlichen und technischen Fortschritten abhängt, von der Art und Weise wie wir diese nutzen, um die medizinischen, umweltspezifischen und sozioökonomischen Probleme zu lösen, mit denen unsere Gesellschaften konfrontiert sind. Zweifellos sind dafür eine naturwissenschaftliche Grundbildung und eine positive Einstellung zu diesen Wissenschaften erforderlich.

    Die diesbezüglichen Ergebnisse der aktuellen Eurobarometer Studie für Österreich sind ernüchternd. Die Mehrzahl der befragten Österreicher ist an Wissenschaft und Technologie weder interessiert noch darüber informiert, hat auf dem Bildungsweg nichts über diese Wissenszweige gehört, ist aber trotzdem relativ zufrieden, mit dem was die Regierung tut, „um das wissenschaftliche Interesse der Jugend zu wecken“. Dazu kommt, daß in den bevorzugten Informationsmedien – Fernsehen und Zeitungen – Wissenschaftsberichterstattung zwar eine nur sehr untergeordnete Rolle spielt, daß diese aber (laut früheren Umfragen) als ausreichend betrachtet wird.

    Was kann bei einem derartigen Grad an Desinteresse getan werden um den Stellenwert der Naturwissenschaften in unserem Land zu erhöhen? Wird man versuchen die Ausbildung der Jugend in diesen Fächern entscheidend zu verbessern? Werden die Medien des Landes einsehen, daß sie zur Bildung beitragen könnten und sollten? Oder wird ein Mantel von Desinteresse auch die peinlichen Ergebnisse von Umfragen verhüllen?

    Ein eben veröffentlichtes Dossier der APA-Science „Forsche und sprich darüber“ [6] verweist auf einige bereits existierende Initiativen, beispielsweise auf „Die lange Nacht der Forschung“, die Kinder-Uni, Sparkling Science, das Science Center Netzwerk und auch auf unseren ScienceBlog.

    Hier ist noch unbedingt die Initiative „Edutainment“ von Carl Djerassi anzufügen, die speziell auf die Erwachsenenwelt ausgerichtet ist und in Romanen und Theaterstücken Unterhaltung mit Wissensvermittlung verbindet [7].

    Werden diese Initiativen mehr als nur punktuell Interesse für Naturwissenschaften wecken können?

    Halten wir es hier mit Lao Tse: „Selbst die längste Reise beginnt mit dem ersten Schritt.“


    [1] Verantwortliche Forschung und Innovation, Wissenschaft und Technologie, Spezial- Eurobarometer 401; November 2013 (223 p.) http://ec.europa.eu/public_opinion/archives/ebs/ebs_401_de.pdf
    [2] Wissenschaft und Technik, Spezial-Eurobarometer 340; Juni 2010 (175 p.) http://ec.europa.eu/public_opinion/archives/ebs/ebs_340_de.pdf
    [3 ] J.Seethaler, H. Denk Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme
    [4] Quelle: ORF-Jahresberichte 2009, 2010, 2011, 2012 (alle open access)
    [5] Scientific research in the media, Spezial Eurobarometer 282, Dezember 2007
    [6] Dossier APA-Science: Forsche und sprich darüber
    [7] ScienceBlog: Die drei Leben des Carl Djerassi


    Weitere Artikel zur Wissenschaftskommunikation im ScienceBlog

    J.Seethaler, H. Denk Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?

    G.Schatz: Stimmen der Nacht — Gedanken eines emeritierten Professors über Wissenschaft und Universitäten

    G.Schatz: Gefährdetes Licht — zur Wissensvermittlung in den Naturwissenschaften

    F. Kerschbaum: Die Wissenschaftler sind ja selbst schuld

    G.Glatzel: Umweltökologie und Politik - Der Frust der nicht gehörten Wissenschaftler

    R.Böhm: Signal to noise — Betrachtungen zur Klimawandeldiskussion


     

     

    inge Fri, 28.02.2014 - 08:16

    Schöpfer Zufall — Wie chemische Zufallsprozesse dem Leben Vielfalt schenken

    Schöpfer Zufall — Wie chemische Zufallsprozesse dem Leben Vielfalt schenken

    Fr, 14.02.2014 - 06:35 — Gottfried Schatz

    Icon BiologieGottfried SchatzZufälle und Fehler beim Kopieren des Erbguts schaffen biologische Varianten, aus denen im Lauf der Evolution immer komplexeres Leben entsteht. Zufällige, nicht vorhersagbare chemische Reaktionen einiger Moleküle können die Erscheinung und das Verhalten eines Lebewesens beeinflussen. Zufälle und Fehler sind Quellen des Neuen, ohne sie wären wir alle noch Bakterien.

    Unser Biologielehrer war ein romantischer Naturfreund, für den die lebendige Natur vollkommen war. Sein Credo lautete: «Das Leben ist immer im Gleichgewicht.» Wenn ich heute an ihn denke, erinnert er mich an den deutschen Archäologen und Kunsthistoriker Johann Joachim Winckelmann (1717–1768), für den Kunst und Philosophie der alten Griechen von «edler Einfalt und stiller Grösse» waren. Als dann aber im Jahre 1872 Friedrich Nietzsche das dionysisch Dunkle in der griechischen Kultur aufzeigte, hatten Charles Darwin und Alfred Wallace auch das Leben bereits seiner Idylle beraubt und als ein gnadenloses Schlachtfeld entlarvt.

    Das Leben ist mit seinem Umfeld nie im Gleichgewicht. Es ist so erfolgreich, weil es nie vollkommen ist. Versucht eine Lebensform sich an ihr Umfeld anzupassen, verändert sie es – und muss sich erneut anpassen. Dieses nie endende Streben nach Anpassung zeugt die biologischen Varianten, aus denen die Evolution immer komplexeres Leben schafft. Die Schnelligkeit, mit der ihr dies gelingt, war lange ein Rätsel. Wie entstehen die Varianten, mit denen die Evolution spielt?

    Kopieren und überwachen

    Die wichtigste Quelle sind Fehler beim Kopieren des Erbmaterials. Wenn sich Zellen vermehren, teilen sie sich in zwei Tochterzellen und kopieren dabei auch ihr Erbmaterial, um jeder Tochterzelle ein vollständiges Exemplar mitzugeben. DNA-Moleküle sind lange Fäden, in denen vier verschiedene chemische Buchstaben in wechselnder Reihenfolge aneinandergekettet sind. Die Buchstabenfolge beschreibt das genetische Erbe des Lebewesens; jeder Kopierfehler kann somit eine erbliche Veränderung – eine «Mutation» – bewirken. Der Kopiervorgang ist für die Zelle eine gewaltige Herausforderung, enthält doch jede menschliche Körperzelle 6,4 Milliarden DNA-Buchstaben. Noch dazu ist jeder DNA-Strang mit einem Partnerstrang verdrillt, der die gleiche Information in spiegelbildlicher Form trägt.

    Um einen DNA-Doppelstrang zu kopieren, «entdrillt» ihn die Kopiermaschine der Zelle, fertigt von jedem der beiden Einzelstränge eine spiegelbildliche Kopie an und überwacht den Kopiervorgang gleich dreifach: Zunächst holt sie sich aus dem Zellsaft den entsprechenden chemischen Buchstaben und prüft, ob er der richtige ist. Ist er es nicht, verwirft sie ihn und wiederholt die Suche. Hat sie dann den ausgewählten Buchstaben an die wachsende Kopie angeheftet, prüft sie ihn nochmals – und wenn er sich als falsch erweist, trennt sie ihn wieder ab und beginnt von vorne. Hat sie auf diese Weise mehrere Buchstaben kopiert, vergewissert sie sich ein drittes Mal. Entdeckt sie einen falschen Buchstaben, schneidet sie ihn heraus und ersetzt ihn durch den richtigen. Nach dem ersten Prüfschritt ist immer noch jeder hunderttausendste Buchstabe falsch, nach den beiden weiteren Schritten nur mehr ein Buchstabe unter 100 bis 200 Millionen. Bei 6,4 Milliarden Buchstaben schleichen sich dennoch Dutzende von Fehlern ein. Die meisten sind für die Tochterzelle ohne Folgen, doch einige verändern sie und verwandeln sie in eine biologische Variante.

    Zellen könnten die Fehlerrate beim Kopieren ihres Erbguts noch weiter senken. Sie tun dies aber nicht, weil der Kopiervorgang dann zu langsam wäre, zu viel Energie erforderte und zu wenig neue Varianten schüfe. Es ist für Zellen manchmal von Vorteil, die Fehlerquote beim Kopieren ihrer DNA sogar zu erhöhen. Wenn ein krankheitserregendes Bakterium in unseren Körper eindringt, muss es sich gegen unsere Antikörper und Fresszellen wehren, die sich gegen seine Oberfläche richten. Bakterien haben deshalb gelernt, diese schnell zu verändern: Gene für Oberflächenproteine verwirren die DNA-Kopiermaschine des Bakteriums, so dass sie mindestens zehnmal mehr Fehler macht als bei anderen Genen. Dies erhöht die Chance, dass sich unter den eindringenden Bakterien auch eine Mutante findet, deren Oberfläche das Immunsystem übersieht. Dank dieser Tarnkappe überlebt die Mutante und sichert den Erfolg der Infektion.

    Der Erreger der afrikanischen Schlafkrankheit, das einzellige Tierchen Trypanosoma brucei, hat diese Tarnkappenstrategie zur hohen Kunst entwickelt: Es ändert seine Oberfläche ohne Unterlass, indem es bereits vorgefertigte Genstücke wie in einem Legospiel untereinander austauscht. Infiziert es uns, muss unser Immunsystem gegen eine stets wechselnde Oberfläche ankämpfen, wobei der Parasit stets einen Schritt voraus ist. Aber auch das Immunsystem «weiß» um die schöpferische Kraft des Zufalls. Es verfügt zwar nur über eine begrenzte Zahl von Genen, kann diese jedoch virtuos nach dem Zufallsprinzip neu aufmischen und, ähnlich pathogenen Bakterien, durch Kopierfehler verändern. So entlockt es diesen Genen ein praktisch unbegrenztes Arsenal verschiedener Immunproteine.

    Lawinenartige Entwicklung

    Schnell veränderliche «Anpassungsgene» lassen sich deshalb nicht genau kopieren, weil sie mehrmals wiederholte Buchstabenfolgen enthalten, welche die DNA-Kopiermaschine zum «Stottern» bringen. Stotternd gefertigte Genkopien sind dann entweder inaktiv oder, falls die Vorlage inaktiv war, reaktiviert. Auf diese Weise können in erstaunlich kurzer Zeit neue Lebensformen entstehen: Die Hundezucht schuf in nur 150 Jahren eine grosse Vielfalt von Hunderassen, wobei viele der auffälligsten Merkmale wie Schnauzen- oder Pfotenform mit Veränderungen in «Adaptationsgenen» einhergehen. Solche Gene könnten auch erklären, weshalb im Verlauf der Erdgeschichte neue Lebensformen oft explosionsartig auftraten.

    Kopierfehler und Austausch von Genstücken sind jedoch nicht die einzigen «Werkzeuge», mit denen das Leben Vielfalt schafft. Es benützt auch den Zufall, der chemische Reaktionen zwischen einer kleinen Zahl von Molekülen prägt. Viele Schlüsselmoleküle – wie Gene oder Proteine, die Gene lesen – sind in einer Zelle in so geringer Stückzahl vorhanden, dass ihre chemischen Reaktionen nicht mehr den statistischen Gesetzen der Chemie, sondern dem Zufall gehorchen. Anstatt vorhersagbarer und graduell abgestufter Resultate gibt es dann nur noch zufällige und nicht vorhersagbare Ja-Nein-Entscheide: Das Molekül reagiert – oder es reagiert nicht. Werden solche «binären» Zufallsentscheide lawinenartig verstärkt, können sie irreversibel werden und die Entwicklung oder das Verhalten eines Lebewesens langfristig prägen. Ein Beispiel dafür wäre eine Balkenwaage, deren Waagschalen durch zwei mit einem Schlauch verbundene Wasserflaschen ersetzt sind. Solange diese Flaschen gleich viel Wasser enthalten, sind sie im Gleichgewicht. Hebt jedoch ein zufälliger Windstoss eine der beiden Flaschen kurzfristig leicht hoch, gibt sie sofort Wasser an die andere ab, worauf diese immer schneller und schliesslich unwiderruflich absinkt. Die winzige Zufallsschwankung hat ein stabiles Ungleichgewicht bewirkt.

    Ein molekulares Rauschen

    Zellen verwenden verschiedene Strategien, um chemische Zufallsschwankungen zu verstärken und zu fixieren. Bakterien stellen damit sicher, dass die Mitglieder einer hungernden Kolonie nicht gleichzeitig, sondern verzögert und in zufälliger Reihenfolge sterben, wobei die toten Zellen den noch lebenden als Nahrung dienen. So erhöht sich die Chance, dass einige Zellen überleben, wenn plötzlich wieder Nahrung verfügbar wird. Aus ähnlichen Gründen sind genetisch identische Flachwürmer, die unter genau gleichen Bedingungen aufgezogen wurden, nicht identisch: Sie reagieren verschieden auf Umweltreize oder Gifte und leben auch verschieden lange. Fixierte Zufallsentscheide können somit zu unterschiedlichen Erscheinungsformen eines Lebewesens führen, selbst wenn Gene und Umwelt gleich bleiben.

    Zufälle spielen auch bei der Entwicklung höherer Tiere eine Rolle. Die Nase einer Maus ist mit etwa tausend verschiedenen Duftsensoren bestückt, wobei jede geruchsempfindliche Nervenzelle nur einen einzigen Sensortyp trägt; hätte sie deren mehrere, würde sie das Gehirn mit widersprüchlichen Geruchsmeldungen verwirren. Bei ihrer Entwicklung wählt jede Zelle einen der tausend Duftsensoren rein zufällig aus und unterdrückt dann die Bildung aller anderen. So muss die Zelle nicht jedes Sensorgen eigens steuern. Ähnliches gilt für die Rot- und Grünsensoren unserer Netzhaut: Die farbempfindlichen Zapfen entscheiden sich bei ihrer Entwicklung zufällig entweder für den Rot- oder den Grünsensor und unterdrücken dann die Bildung des anderen Sensors.

    Zufällige und nicht vorhersagbare chemische Reaktionen einiger Moleküle können somit die Erscheinung und das Verhalten eines Lebewesens beeinflussen. Um dieses molekulare Rauschen im Griff zu behalten, setzen Zellen molekulare Rauschfilter ein. Dank ihnen verläuft die Entwicklung eines Lebewesens meist höchst präzise. Gelegentlich ist es für Zellen jedoch von Vorteil, ihr molekulares Rauschen nicht zu dämpfen, sondern zu verstärken. In seinem Streben nach Vielfalt scheut das Leben keine Möglichkeit, um Erbinformation auf verschiedene Weise zu interpretieren.

    Zufälle und Fehler sind Quellen des Neuen; wer sie rigoros unterdrückt, wird wenig Neues schaffen. Dies gilt auch für menschliche Gemeinschaften, in denen nackte Gewalt, starre Dogmen oder «political correctness» das Denken knebeln. Die lebendige Natur sollte uns hier ein Beispiel sein: Hätte sie Zufälle und Fehler gescheut, wären wir alle noch Bakterien.


    Weiterführende Links

    Artikel im ScienceBlog

    The Double Helix: Aufklärung der Struktur durch Crick & Watson, alte Archivaufnahmen und Interviews; 16:53 min


     

    inge Fri, 14.02.2014 - 06:35

    Nanosatelliten: Weltraum für jedermann

    Nanosatelliten: Weltraum für jedermann

    Fr, 07.02.2014 - 06:14 — Peter Platzer Icon AstronomiePeter Platzer

    Eine der Computerrevolution vergleichbare Entwicklung bringt den Zugriff auf nahe Erdumlaufbahnen ins Wohnzimmer. Der Hochenergiephysiker und Gründer Peter Platzer beschreibt, wie ›Nanosatelliten‹ – winzige Satelliten, die um ebenso winziges Geld gestartet und betrieben werden können – die Gesellschaft verändern könnten.

    In künftigen Tagen wird jede Person auf diesem Planeten – im doppelten Wortsinn – ›allgegenwärtigen‹ Zugriff auf den Weltraum haben. Dieser Satz klingt möglicherweise etwas vollmundig, vielleicht sogar im Grenzbereich zur Science Fiction. Und doch lässt ein Blick auf Geschichte und Entwicklung der Technik ihn beinahe unausweichlich erschienen.

    Eine der Computerrevolution vergleichbare Entwicklung

    Die aufkeimende Industrie der kommerziellen Raumfahrt durchlebt einen vergleichbaren Ablauf, wie er bereits im späten 20. Jahrhundert von der Computerrevolution vorexerziert wurde.

    Vor lediglich 30 Jahren war der Zugang zu Computern nur einem eingeschränkten Personenkreis vorbehalten, elitär und teuer. Heute sind Computer allgegenwärtig, billig und stehen jedermann zur Verfügung. Durch Programme wie ›One Laptop per Child‹ oder dem weltweiten Einsatz von Smartphones betrachten Menschen selbst in Entwicklungsländern den Zutritt zu Computern und den Zugang zum Netz als Notwenigkeit, ja sogar eine Art wirtschaftliches Grundrecht.

    In wenigen Dekaden formte die Computertechnik ganze Gesellschaften radikal um – von Wegbeschreibungen für Fußgänger jeder beliebigen Stadt dieser Erde bis hin zur Möglichkeit, Geld per SMS in die entlegensten Winkel Afrikas zu überweisen. Niemand hätte in den 1980ern vorhersagen können, in welch dramatischer Weise sich unser Alltag dank Computern verändern würde. Nun wiederholt sich diese 30-Jahres-Story im Weltraum – in einem noch atemberauberenden Tempo und möglicherweise mit noch dramatischeren Auswirkungen.

    In der Vergangenheit war der Zugang zum Weltraum elitär und wahnwitzig teuer, sodass dieser lediglich Regierungen, Militär und einigen wenigen große Firmen offen stand. Heutzutage verändern Firmen wie NanoSatisfi, NanoRacks und SkyBox den Himmel mit Nanosatelliten in derselben Weise wie der Personal Computer die IT-Branche. Ursprünglich eingeführt von IBM und dann „gekloned“ viele Male in Asien, machte der PC den Mainframe Computer obsolet und läutete so die moderne technische Ära ein. Im Zuge dessen veränderte sich unsere Gesellschaft radikal und – zumindest im Allgemeinen – zum Besseren.

    Nanosatelliten demokratisieren den Zugang zum All

    So wie jeder, der die Computerrevolution nicht mitmachte, durch das Internet doch einen Platz erste Reihe fußfrei im Computerzeitalter haben kann, ermöglichen es nun Nanosatelliten den Massen den Weltraum zu erkunden. Nanosatelliten sind mit einer Kantenlänge von 10 cm überraschend klein (Abbildung 1). NanosatellitAbbildung 1. Ansicht eines Nanosatelliten, der bereits erfolgreich im Weltraum unterwegs ist. Aufbau (großes Bild) und Außenrahmen (rechts). Der Kubus hat 10 cm Kantenlänge, wiegt etwa 1 kg und ist mit Kameras und einer Reihe von Sensoren ausgestattet, welche optische Eigenschaften, radioaktive Strahlung, Temperatur, Magnetfelder etc. messen. Die Kommunikation mit der Bodenstation erfolgt auf zahlreichen Kanälen und Frequenzen. Maximal lassen sich drei derartiger Würfel übereinander stapeln.

    Entwicklung, Bau und Start eines derartigen Nanosatelliten verursachen Kosten in Höhe von nicht einmal einer Million US-$; das Produkt kann somit zumindest leihweise grundsätzlich jedermann zur Verfügung gestellt werden – Schülern ebenso wie Erwachsenen. Das erste Kickstarter.com-Projekt ging 2012 online, und zwischenzeitlich gab es dutzende weitere Projekte, durch die Einzelne in die Lage versetzt werden, Daten und Bilder in der Umlaufbahn zu sammeln. Für rund 200 € pro Woche kann ein derartiger Nanosatellit gemietet und für eigene Anwendungen eingesetzt werden.

    Meine Organisation – ArduSat – schickte die ersten beiden, via CrowdFunding durch private Investoren finanzierten, Satelliten in ihre Umlaufbahnen. Mit einer Reihe anderer Organisationen in diesem Feld – darunter Arkyd – und Pionieren wie Tim Debenedictis bilden wir die Speerspitze im Bestreben, uneingeschränkten Zugang zum All für alle zur Verfügung zu stellen.

    Falls Sie der kürzlich angelaufene Weltraum-Thriller ›Gravity‹ in seinen Bann gezogen hat, so malen Sie sich einmal die wesentlich umfangreicheren Möglichkeiten aus, die sich durch individuelle Satellitenanwendungen für Unterhaltung, Ausbildung und Myriaden praktischer Anwendungen ergeben! Nanosatelliten bringen das All in den Alltag (Abbildung 2).

    Nanosatellit auf seiner UmlaufbahnAbbildung 2. Nanosatellit auf seiner Umlaufbahn (computergenerierte Darstellung von ArduSat). Es können Dutzende Nanosatelliten gleichzeitig ins All gebracht werden. Anstelle eines einzigen, großen Satelliten wird nun ein Netzwerk von hunderten Nanosatelliten errichtet und damit eine wesentlich umfassendere Erhebung von Daten erzielt.

    Vermehren Nanosatelliten den Weltraumschrott?

    Die Umlaufbahnen herkömmlicher großer Satelliten befinden sich meistens in Höhen von rund 1000 km. Unbrauchbar gewordene und in Trümmer zerfallene Satelliten verbleiben dort „auf ewig“ und „müllen“ diese Zonen zu.

    Für Nanosatelliten werden wesentlich niedrigere Umlaufbahnen gewählt, in welchen sie sich nach 2 – 3 Jahren selbst in ihre Ausgangsmaterialien, bis hin zu ihren Atomen, zersetzen: das sind u.a. Aluminium, etwas Gold, Eisen etc.

    Was kann man mit Nanosatelliten anfangen?

    Eine häufig gestellte Frage ist die nach der ›Killerapplikation für individuelle Satelliten‹. Da weiche ich gern etwas aus: Als ich in den 1980ern noch die Schulbank drückte, war der allgemeine Konsens über die Killeranwendung für personalisierte Computer die überwältigende und must-have Aussicht, Küchenrezepte zu speichern. Kein Scherz!.

    Das macht deutlich, wie engstirnig wir sein können, wenn wir mit neuen Technologien konfrontiert werden, die das Potenzial haben, alles radikal zu verändern. Tatsächlich bezweifle ich, dass irgendjemand die Frage nach ›der Killerapplikation‹ für Nanosatelliten heute schon beantworten könnte. Satelliten werden reifen und sich durch den Einfalls- und Erfindungsreichtum Einzelner und der Gesellschaft weiterentwickeln.

    Alles, was wir dazu beitragen können, ist, mögliche Anwendungen zu antizipieren und mit einander zu teilen. Dann bleibt nur noch, diese Industrie in ihrer Entwicklung zu beobachten. Meine persönliche Vision ist eine, in der…

    • …ich nie wieder im August auf einem Berg eingeschneit werde, weil zu wenig Wetterdaten für eine zuverlässige Prognose zur Verfügung standen.
    • …wir präzisere Modelle zu Bereichen wie Klimawandel, Dürre oder anderen Naturkatastrophen wie Erdbeben und Tsunamis erstellen können.
    • …wir genau wissen, wieviele Exemplare gefährdeter Tierarten sich an Land und im Ozean tummeln – und wo wir in Echtzeit verfolgen, wer illegal in geschützten Regionen fischt oder jagt.
    • …wir Schiffe in Echtzeit vor Piratenangriffen oder Kollisionen warnen – was leider beides immer noch passiert.
    • …uns Satelliten vor ›Near Earth Objekten‹ warnen, wie Russland kürzlich von einem getroffen wurde.
    • …Milliarden-Dollar-Missionen wie Hubble oder Kepler von Amateuren nachgebaut werden.
    • …Studenten von der Weltraumforschung lernen, indem sie täglich mit einem Satelliten arbeiten – statt mit Block und Bleistift.

    Letztendlich kann kein Mensch voraussagen, wie ein allgegenwärtiger Zugang zur Satellitentechnik unser Alltagsleben beeinflussen könnte. Das muss man auch nicht. Was zählt ist, dass wir jetzt die Möglichkeit dazu in der Hand haben. Entweder lehnt man sich zurück, und schaut bei der zweiten Technologierevolution innerhalb einer Lebensspanne zu, oder man beteiligt sich.


    Weiterführende Links

    New Satellites Signal A Revolution in Education . Video, ca. 3 min. http://www.prweb.com/releases/2013/11/prweb11375009.htm
    NanoSatsfi Is Bringing Satellites to New Markets. Video 3:45 min. http://projects.wsj.com/soty/startup/nanosatisfi/nanosatsfi-is-bringing-...
    Peter Platzer from NanoSatisfy on the next generation of Satellite. Video 8:06 min. http://www.youtube.com/watch?v=44WGu_uS-RE
    NanoRacks-ArduSat-1 (NanoRacks-ArduSat-1) - 01.09.14 http://www.nasa.gov/mission_pages/station/research/experiments/1210.html


     

    inge Sat, 07.02.2015 - 06:14

    Tiefseeforschung in Österreich: Interview mit Gerhard Herndl

    Tiefseeforschung in Österreich: Interview mit Gerhard Herndl

    Fr, 31.01.2014 - 13:41 — Gerhard Herndl Icon Meere Gerhard Herndl

    Die Mikroorganismen der Tiefsee stellen eine enorme Biomasse dar und sind von fundamentaler Bedeutung für die marine Nahrungskette und die Stoffkreisläufe der Erde. Der Autor, der zu den international anerkanntesten Meeresforschern zählt, erklärt hier, warum und in welcher Weise auch Österreich Meeresforschung betreibt. Über Grundlagen zum mikrobiellen Leben der Tiefsee und Ergebnisse seiner Forschung wird Herndl in einem separaten Artikel berichten. Der Beitrag ist die gekürzte Fassung eines Interviews, das Stefan Kapeller von der Austrian Biologist Association (ABA) mit Gerhard Herndl 2013 geführt hat*.

    Meeresforschung hat in Österreich Tradition, ist das für ein Binnenland nicht ungewöhnlich?

    Naja, so außergewöhnlich finde ich das gar nicht. Auch in der Schweiz wird beispielsweise Meeresforschung betrieben. Bei uns kommt die Forschungstradition natürlich aus den Zeiten wo Österreich noch Zugang zum Meer hatte. In der Monarchie wurden mit K&K Kriegsschiffen in großen Expeditionen viele Meeresorganismen heraufgeholt. Das naturhistorische Museum ist noch voll von diesen Sammelfahrten. Zudem hat es immer wieder wichtige Personen gegeben die die Meeresforschung in Österreich vorangetrieben haben. Angefangen bei Alfred Wegener, der die Kontinentaldrift in Graz gelehrt hat oder Albert Defant die Ozeanographie in den 1960ern in Innsbruck.

    Natürlich auch Hans Hass, der zwar nicht wirklich wissenschaftlich Meeresbiologie betrieben, aber das Tauchen quasi neu erfunden hat und schließlich Rupert Riedl, der vor allem in späteren Jahren auch sehr medienwirksam war, zusammen mit seinem Schüler und späterem Leiter der Abteilung für Meeresbiologie an der Universität Wien Jörg Ott.

    Warum ist es auch für Österreich wichtig Meeresforschung zu betreiben?

    Natürlich verbindet man in Österreich das Meer meistens als Erstes mit Urlaub. Abgesehen davon spielt das Meer für uns auch eine große Rolle zum Beispiel als Nahrungsquelle. Außerdem beeinflusst das Meer ganz wesentlich auch das Klima in Österreich. Alle Aspekte des Global Change, die das Meer betreffen, betreffen auch Österreich. Etwa ein Viertel des CO2, das global vom Menschen abgegeben wird, wird vom Meer aufgenommen. Und somit ist es durchaus sinnvoll, dass man Leute hat, nicht nur an den Küstenstaaten, die Meeres- und Ozeanographie betreiben.

    Außerdem gehört das Meer ja nicht irgendeinem Land. Die Küstenabschnitte fallen in die Einflusssphäre der jeweilig angrenzenden Länder, aber der offene Ozean ist internationales Gewässer. Man sollte nicht den wenigen Küstenländern überlassen zu erforschen, was dort passiert, bzw. auch diese Gebiete auszubeuten.

    Mittlerweile hat Österreich keinen direkten Meereszugang mehr. Sie haben lange Zeit in den Niederlanden geforscht. Ist es in einem Binnenland nicht vergleichsweise schwieriger mit der internationalen Spitzenforschung mitzuhalten?

    Wir forschen im Wesentlichen am offenen Ozean. Für die Off-Shore-Forschung macht es kaum einen Unterschied, ob man direkten Zugang zum Meer hat.

    Als ich in den Niederlanden war mussten wir zum Beispiel auch von Amsterdam nach Kapstadt fliegen, um auf ein Schiff zu gehen und in der Antarktis zu forschen. Jetzt fliegen wir von Wien weg, von dem her ist es überhaupt kein Unterschied.

    Was vielleicht einen Unterschied macht, ist, dass Österreich kein eigenes Forschungsschiff hat. Aber die Meeresforschung ist ziemlich international. Wir sind in internationale Projekte eingebunden und werden dann eingeladen, auch auf spanische, deutsche oder englische Schiffe zu gehen. Oder wir mieten ein Schiff.

    Ein eigenes Forschungsschiff ist zu teuer?

    Es wäre auch nicht sinnvoll. Die Niederlande haben ein großes, 70m langes Forschungsschiff, die Pelagia. Aber selbst dort wird überlegt, ob man das in Hinkunft mit anderen Ländern zusammen kofinanziert.

    Das Forschungsschiff PelagiaAbbildung 1. Das Forschungsschiff Pelagia

    Wir mieten die Pelagia (Abbildung 1) teilweise für unsere Forschungsprojekte an. Die Miete kostet pro Tag 14 500 Euro. Und das ist der Selbstkostenpreis, den wir durch ein Abkommen mit dem meinem früheren Institut, dem holländischen Meeresforschungsinstitut, bekommen. Normalerweise kostet das weit über 20 000 Euro pro Tag. Wir fahren damit ein Monat pro Jahr auf See. Das erscheint teuer. Aber mit den Proben die in diesem Monat gewonnen werden (Sammelrosette: Abbildung 2), arbeiten dann zehn bis fünfzehn Wissenschaftler ein Jahr lang wirklich konzentriert, um die Proben auszuwerten und die Forschungsergebnisse zu veröffentlichen. Dadurch relativiert sich der Preis.

    CTD SammelrosetteAbbildung 2. Die CTD Sammelrosette nimmt Wasserproben in bis zu 6000 m Tiefe. Im Zentrum sind Sensoren zur Messung von Druck, Temperatur, Leitfähigkeit, Salzgehalt, Licht, Sauerstoff und Trübung. Hochdrucksammelgefäße aus Titan ermöglichen es die Stoffwechselaktivität der Proben unter den Druck- und Temperaturbedingungen der Tiefsee zu messen.

    Ihre Forschung konzentriert sich auf Mikroorganismen der Tiefsee, was fasziniert sie daran besonders?

    Früher hat man in Österreich Meeresforschung vorwiegend in küstennahen Gebieten betrieben. Da ist in den 60ern und 70ern viel passiert, aber heute ist hier die Innovation nicht mehr wirklich gegeben. Über die Tiefsee weiß man sehr wenig. Zum einen weil es sehr teuer ist in der Tiefsee zu forschen. Zum anderen funktionieren sehr viele Methoden, die in Oberflächengewässern gut gehen, in der Tiefsee nicht mehr, weil hier die Aktivitäten der Organismen und die Stoffwechselraten geringer sind. Das heißt, man hat die Methoden massiv verfeinern müssen, was erst in den letzten Jahren gelungen ist. Außerdem haben die neuen molekularbiologischen Methoden ganz neue Aspekte und Forschungsrichtungen eröffnet.

    Den Fokus auf Mikroorganismen und die Verbindung von Biogeochemie und Molekularbiologie gibt es in der Tiefseeforschung erst seit ein paar Jahren. Das hat nun auch in den großen Forschungsprogrammen der EU, wie Horizont2020, Eingang gefunden.

    Sie betreiben in erster Linie Grundlagenforschung. Gibt es konkrete wirtschaftliche Interessen an der Tiefsee?

    Ja, die Wirtschaft, wie bei so Vielem, ist der Motor, um Forschung zu finanzieren, teilweise zumindest. Im Horizont2020 findet sich zum Beispiel Deep-Sea Mining wieder, das heißt die Gewinnung von Rohstoffen aus der Tiefsee. Da stecken natürlich direkte ökonomische Interessen dahinter. Dasselbe finden wir auch in den USA und in den großen Schwellenländern wie Indien, wo jetzt ein riesiges Projekt über die Deep-Sea startet und ich als Scientific Adviser eingeladen bin. Die haben Prototypen gebaut, die aussehen wie Mähdrescher und die werden auf den Meeresboden gelassen und sammeln Erze auf. Dass birgt natürlich eine Menge Gefahren, weil man da vieles zerstört, wie zum Beispiel Tiefseekorallen und alle möglichen Tiefseeorganismen. Diese Systeme erholen sich im Prinzip kaum mehr oder nur über Jahrzehnte. Die Ausbeutung der Meere, die in der Tiefsee erst jetzt so richtig beginnt, stellt ein wachsendes Problem dar.

    Wenn bei Grundlagenforschung kein unmittelbarer ökonomischer Nutzen erkennbar ist, gerät sie zunehmend unter Rechtfertigungsdruck. Verspüren Sie das auch?

    Das stimmt schon, dass man sich in diesem Spannungsfeld wiederfindet. Wenn man Grundlagenforschung betreibt so wie wir und die Bakteriengemeinschaften aus 7000m Tiefe und ihre Stoffwechselwege untersucht, dann hat das zunächst noch nicht unbedingt einen ökonomischen Nutzen. Da muss man sich natürlich rechtfertigen. Das ist durchaus auch ein berechtigtes Anliegen. Das ist im Prinzip so wie in der Kunst. Wenn man ein Bild malt hat das auch keinen unmittelbaren Nutzen. Aber die Frage “wozu dient das unmittelbar”, kann man nicht unbedingt überall stellen. Die Gesellschaft produziert in vielen Bereichen mehr als benötigt wird. Für die Gesellschaft ist Wissenschaft genauso bereichernd wie Kunst.

    Zum anderen ist es immer so, dass die tatsächlichen Innovationen aus der Grundlagenforschung kommen. Niemand hat gesagt, wir erfinden jetzt das Internet oder wir müssen Elektrizität und die Glühbirne erfinden, um alle Städte zu beleuchten. Das waren immer erst grundlegende Experimente, wo man die Tragweite noch gar nicht realisiert hat, was sich daraus entwickelt. Somit ist Grundlagenforschung auch die Basis für jede weitere angewandte Forschung.


    * Die Fragen von Stefan Kapeller sind als Überschriften gestaltet. Das gesamte Interview ist auf http://www.austrianbiologist.at/bioskop/2013/03/tiefseeforschung-in-oste... nachzulesen.

    Mag. rer.nat Stefan Kapeller hat an der Universität Wien Zoologie studiert, ist wissenschaftlicher Mitarbeiter am Bundesforschungszentrum für Wald (http://bfw.ac.at/db/personen.anzeige?person_id_in=834)und seit 2011 Präsident der Austrian Biologist Association. http://www.austrianbiologist.at/web/


    Weiterführende Links

    Webseite von Gerhard Herndl: http://www.marine.univie.ac.at

    Meeresbiologe und Wittgensteipreisträger 2011 Gerhard J. Herndl. Video 5.38 min. http://www.youtube.com/watch?v=5_FaExAgS2E

    Die einmonatige Forschungsreise auf der Pelagia im Herbst 2010 ist unter „Schiffsmeldungen“ im Archiv der online-Zeitung der Universität Wien dokumentiert. http://www.dieuniversitaet-online.at/dossiers/schiffsmeldungen.html


     

    inge Fri, 31.01.2014 - 13:41

    Cytochrom P450-Enzyme: Tausendsassas in allen Bereichen unserer Biosphäre

    Cytochrom P450-Enzyme: Tausendsassas in allen Bereichen unserer Biosphäre

    Fr, 24.01.2014 - 23:07 — Inge Schuster Icon MedizinInge SchusterCytochrom P450 (abgekürzt CYP) ist der Sammelname für eine Superfamilie an Enzymen, die sich in praktisch allen Lebensformen unserer Biosphäre finden – in Mikroorganismen ebenso wie in Pflanzen und Tieren. Mit ihrer Fähigkeit unterschiedlichste organische Verbindungen zu oxydieren generieren diese Enzyme eine ungeheure Vielzahl und Vielfalt von Produkten, die entscheidend in Aufbau und Regulierung der Spezies eingreifen und damit zu deren Überleben, aber auch zu deren Evolution beitragen. CYP-gesteuerte Prozesse, die den Abbau von Fremdstoffen – Entgiftung - und die Synthese und Abbau körpereigener Signalmoleküle ermöglichen, sind von zentraler Bedeutung für alle Sparten der Lebenswissenschaften und Anwendungen der Biotechnologie. In die öffentliche Wahrnehmung und in die Lehrpläne unserer Schulen und Hochschulen haben derartige Inhalte aber noch kaum Eingang gefunden.

    Es gibt Tausende und Abertausende CYPs

    In den folgenden Jahrzehnten wurden CYPs in praktisch allen bisher untersuchten Spezies – von den Einzellern zu den Vielzellern im Pilze-,Pflanzen- und Tierreich - entdeckt. Mit der nun immer rascheren Sequenzierung der Genome von vielen weiteren Organismen steigt die Zahl der CYPs geradezu explosionsartig an: im August 2013 waren bereits mehr als 21 000 unterschiedliche CYPs beschrieben (Abbildung 1). Zweifellos erfolgt die Identifizierung von CYP-Genen wesentlich rascher als deren biochemische Charakterisierung erzielt werden kann, dennoch zeigen die bereits gewonnenen Einsichten einen ungeheuren Einfluss der CYPs auf die Zusammensetzung der Biosphäre und Ökologie der Welt, in der wir leben.

    Wieviele unterschiedliche CYPs eine Spezies enthält, ist variabel: Die meisten CYPs - bis über 400 Gene -werden in Pflanzen gefunden, beispielsweise in Reis, Kartoffel, oder Baumwolle. Im Tierreich liegt deren Zahl zwischen 35 und 235; der Mensch besitzt 57 unterschiedliche CYPs.

    CYPsAbbildung 1. CYPs sind in praktisch allen Lebensformen zu finden; bis jetzt wurden mehr als 21 000 unterschiedliche CYPs aufgelistet. (Stand vom August 2013: http://drnelson.uthsc.edu/P450.stats.Aug2013.png)

    Um alle diese CYPs eindeutig erfassen und zuordnen zu können, wurde eine recht brauchbare Nomenklatur entwickelt, welche auf Basis der Übereinstimmung von Aminosäuresequenzen die Proteine in Familien (mehr als 40 % Übereinstimmung) und diese wiederum in Subfamilien (mehr als 55 % Übereinstimmung) einteilt. Die offizielle Bezeichnung eines Cytochrom P450 - z.B. das in der menschlichen Leber besonders reichlich vorhandene CYP3A4 - beginnt mit der Abkürzung CYP gefolgt von einer Ziffer, die für die Familie steht (hier ist es die Familie 3), gefolgt von einem Buchstaben, der die Unterfamilie charakterisiert und schließlich einer Zahl für das individuelle Protein.

    Ursprung und Evolution der CYPs

    Auf der Basis von Sequenzvergleichen erstellte Stammbäume weisen darauf hin, daß alle CYPs sich aus einem Ur-CYP entwickelten, welches bereits in einer sehr frühen Lebensform, schon vor dem Übergang von Prokaryonten zu Eukaryonten, auftrat: eine potentielle Urform könnte CYP51 sein, das essentiell ist für die Synthese der für die Eukaryonten-Membranen benötigen Sterole und auch in praktisch allen aeroben Organismen zu finden ist. Mutationen in den frühen CYPs, aus denen Vorteile für eine Spezies erwuchsen, haben zu deren weiterer Entwicklung beigetragen und wurden so zur Triebkraft der Evolution.

    Die Bedeutung von CYPs für unsere Biosphäre soll hier nur ganz kurz am Beispiel der Pflanzenwelt aufgezeigt werden. Das Reich der Pflanzen ist ohne CYPs nicht vorstellbar. Pflanzen synthetisieren mit Hilfe diversester CYPs eine riesige Fülle von niedermolekularen Substanzen (z.B. Alkaloide, Flavonoide, Phytohormone, etc), die sie zur Adaptation an ihre Umgebung, zum Schutz vor Umweltbedingungen und zur Abwehr gegen Feinde einsetzen.

    Viele derartige Naturstoffe haben für uns interessante pharmakologische Eigenschaften und dienen uns als (Ausgangsstoffe für) Arzneimittel, wie beispielsweise Morphin oder aktuell das gegen Malaria hochwirksame Artemisinin. Biotechnologische Verfahren zur Herstellung von Naturstoffen bedienen sich in zunehmendem Maße der entsprechenden CYPs.

    Von besonderer Bedeutung für unsere Biosphäre ist die Schlüsselrolle von CYPs in der Synthese des Lignins - eines der wichtigsten Biopolymeren unserer Erde ; ohne diese CYPs gäbe es keine größeren Pflanzen am Land , keine Wälder und für uns keinen entsprechenden Rohstoff. Auch in den Abbau von Lignin sind CYPs involviert, die beispielsweise in einigen Pilzen vorkommen, denen die Abbauprodukte als Nahrungsquelle dienen.

    CYPs im Porträt

    Allen CYPs aus allen Spezies gemeinsam

    • Ist eine Primärstruktur, die aus einer einzigen Kette von rund 500 Aminosäuren besteht und sich trotz sehr unterschiedlicher Sequenzen zu sehr ähnlichen 3D-Strukturen faltet,
    • Ist der prinzipielle Mechanismus, nach welchem die Umwandlung unterschiedlichster organischer Verbindungen in diverseste Produkte erfolgt – seien es Metabolite des endogenen Stoffwechsels, wie z.B. Lipide, Steroide, Prostaglandine, Neurotransmitter, etc., seien es in den Organismus aufgenommene Fremdstoffe wie u.a. Lösungsmittel, Kohlenwasserstoffe, Pestizide, Kanzerogene und auch Arzneimittel.

    Zur Gestalt von CYPs

    Um Daten zu Gestalt und Funktion von Proteinen mittels Röntgen-Strukturanalyse zu erhalten, müssen diese in ihrer Kristallform vorliegen. Die Kristallisierung der in höheren Organismen vorwiegend Membran-gebundenen Cytochrom P450-Enzyme erwies sich über lange Jahre als überaus schwierig. Durchbrüche in diesen Techniken haben dann zu einer Flut neuer struktureller Daten geführt: In der Datenbank des NIH sind bereits nahezu 1000 Strukturanalysen unterschiedlicher CYP-Proteine und ihrer Komplexe mit Substraten und Inhibitoren gespeichert.

    Alle diese Proteine - von den Formen in Bakterien bis zu den Formen im menschlichen Organismus – zeichnen sich durch eine sehr ähnliche 3D-Struktur aus, die grob vereinfacht an ein dreiseitiges Prisma erinnert. Wesentliche Strukturelemente sind 12 alpha-Helizes, die einen Helix-reichen Bereich bilden und ein beta-Faltblatt Bereich (Abbildung 2). Das Reaktionszentrum ist eine „Tasche“, die zwischen dem Helix-reichen- und dem Faltblatt-Bereich ausgebildet wird und - mit der Hämgruppe an ihrem Boden - zumeist im Inneren dieser Proteine sitzt. Größe, Gestalt und Auskleidung mit polaren/unpolaren Aminosäuregruppen dieser Taschen variieren bei unterschiedlichen CYPs – sind optimiert um die entsprechenden Substrate darin zu binden und ihre Umwandlung zu katalysieren. CYPsAbbildung 2. Kristallstrukturen von Cytochrom P450. A) Bakterielles CYP101 (Pseudomonas putida; wächst auf Campher, den es oxydiert; Code: 6CPP), B) Pflanzliches CYP74A (Arabidopsis thaliana; oxydiert Allenoxyde; Code: 2RCL), C) Humanes CYP19A1 (Aromatase aus der Placenta, wandelt Androgene in Östrogene um; Code 3EQM). Die alpha-helikalen Elemente sind durch grüne Röhren markiert, der beta-Faltblattbereich ist gelb. Die roten Pfeile weisen auf die Hämgruppe(Eisen:rote Kugel) im Reaktionszentrum hin. (Quelle: http://www.ncbi.nlm.nih.gov/Structure/index.shtml)

    Zur Funktion von CYPs

    Ohne auf Details einzugehen, lässt sich der komplexe Reaktionsmechanismus als Übertragung von Sauerstoff auf Substrate, also als Oxydation darstellen: Sauerstoff, der im Reaktionszentrum an das Eisen der Hämgruppe bindet, wird in mehreren Schritten aktiviert und sodann auf das, in optimaler Distanz im Reaktionszentrum fixierte, Substrat übertragen. Dies führt zur Einfügung von Hydroxylgruppen in das Substrat, zur weiteren Oxýdation vorhandener Hydroxylgruppen, zur Spaltung von Kohlenstoff-Kohlenstoff-, Kohlenstoff-Stickstoff-, Kohlenstoff-Sauerstoff-, Kohlenstoff-Halogen-Bindungen und vielen anderen Reaktionen.

    Mit der Änderung in der chemischen Zusammensetzung der Substrate ändern sich auch deren Eigenschaften massiv: durch das Einfügen von Hydroxylgruppen und Abspalten von Alkylgruppen i) werden die Moleküle wasserlöslicher (polarer) und damit rascher aus den Zellen und aus den ganzen Organismen ausgeschieden, ii) erfahren die Moleküle eine Modifizierung ihrer Wechselwirkung mit Biomolekülen (Rezeptoren) und damit ihrer biologischen Aktivität: sie „passen“ nicht mehr in „ihren“ Rezeptor und/oder sie sind nun für einen neuen Rezeptor adaptiert.

    Schutz vor Fremdstoffen

    Von enormer Bedeutung ist die Rolle von CYPs im Abbau von Fremdstoffen, die aus Umwelt und Nahrung in den Organismus gelangen. Eine Voraussetzung für deren Aufnahme in den Organismus ist eine gewisse Fettlöslichkeit (Lipophilie), die sie befähigt durch die Lipidschicht der Zellmembranen durchzutreten. Ohne einen effizienten Abbaumechanismus würden derartige Fremdstoffe nun in den Zellen akkumulieren und diese zunehmend schädigen.

    Säugetiere besitzen ein Set an CYPs, das es ihnen ermöglicht praktisch jedes organische Molekül – auch solche, die in Zukunft noch synthetisiert werden – zu wasserlöslicheren und damit ausscheidbaren Produkten abzubauen. Dazu wird nicht durch eine Vielzahl an hochspezifischen CYPs benötigt, sondern relativ wenige CYPs, die breite, teilweise überlappende Spezifitäten aufweisen, d.h. jedes dieser CYPs kann in seinem Reaktionszentrum eine Palette unterschiedlicher Substrate akkommodieren und oxydieren.

    Von den 57 CYPs im Körper des Menschen sind etwa 12 hauptsächlich mit dem Abbau von Fremdstoffen beschäftigt. Diese befinden sich in den meisten Körperzellen, vor allem in den Zellen des Darmes und in der Leber, die über die Nahrungsaufnahme hohen Konzentrationen an Fremdstoffen ausgesetzt sind. Um eine gesteigerte Zufuhr von Fremdstoffen zu bewältigen, können einige CYPs vermehrt gebildet – induziert – werden. Dies gilt auch für die meisten Arzneimittel, die als Fremdstoffe über CYPs metabolisiert werden; in den meisten Fällen führt dies zu Reduzierung und Verlust der Wirkung und zur raschen Eliminierung der entstandenen Metabolite aus dem Körper. In manchen Fällen können auch Metabolite entstehen, die toxisch sind.

    Synthese und Abbau körpereigener Verbindungen

    Die Mehrzahl der CYPs in Säugetieren ist in die Synthese und den Metabolismus endogener Verbindungen involviert. Zum Unterschied von den Fremdstoff-metabolierenden CYPs handelt es sich hier größtenteils um hochspezifische Enzyme; d.h. jedes dieser CYPs bindet und oxydiert nur ein einziges (oder ganz wenige, sehr ähnliche) Substrat(e). Eine Zusammenstellung wesentlicher endogener Substrate und Metabolite findet sich in Abbildung 3.

    CYPsAbbildung 3. Klassen endogener Substrate der CYPs. Die in Synthese und/oder Metabolismus involvierten CYPs sind entsprechend der offiziellen Nomenklatur angegeben.

    Zu den wichtigsten Substraten und Produkten gehören hier Steroidhormone und die hormonell aktive Form des Vitamin D3 (ein Secosteroid), die zentrale Rollen in der Kontrolle und Steuerung unseres Stoffwechsels, der Immunfunktionen, des Wasser- und Salzhaushalts, der Entwicklung von Geschlechtsmerkmalen und der Fortpflanzung haben. Gestagene, Androgene, Östrogene, Glucocorticoide und Mineralcorticoide entstehen aus Cholesterin, welches in einer Kaskade von Reaktionen durch spezifische CYPs an unterschiedlichen Stellen oxydiert wird. Auch die Aktivierung von Vitamin D3 zum aktiven Hormon und sein anschließender Metabolismus vollzieht sich ausschließlich über spezifische CYPs.

    Cholesterin wird durch CYPs auch zu Gallensäuren oxydiert, die für Fettverdauung und Galleeliminierung unerläßlich sind, und zu sogenannten Oxysterolen, die u.a. Aufnahme und Stoffwechsel von Cholesterin regulieren.

    Wichtige Funktionen haben CYPs im Metabolismus von Fettsäuren, insbesondere der Arachidonsäure (einer vierfach ungesättigten C20-Fettsäure - „Eicosatetraensäure“ ), die Ausgangssubstanz für eine Fülle an Produkten, den Eicosanoiden ist (u.a. von Prostaglandinen, Leukotrienen, Thromboxan, Prostacylin, EETs (Epoxy-Eicosatetraensäuren), HETEs (Hydroxyeicosatetraensäuren),..). Eicosanoide steuern als kurzlebige lokale Hormone praktisch alle Lebensvorgänge (u.a. Vasoconstriction, Broncho-Constriction,- dilatation, Muskelkontraktion, Oedembildung, Inflammation, Schmerz, Mitogenese u.v.a.). Die Bildung von Thromboxan und Prostacylin erfolgt über spezifische CYPs (CYP5A1, CYP8A1), mehr als 100 weitere Eicosonaide werden durch CYPs gebildet und/oder abgebaut.

    Schlussendlich sollte auch die aktive hormonelle Form des Vitamin A – all-trans-Retinsäure – erwähnt werden, die eine Schlüsselrolle in Embryogenese/Morphogenese spielt und in viele anderen Regulationsvorgänge kontrolliert.

    Fazit

    Das Positive: CYPs haben die Welt, in der wir leben, entscheidend mitgestaltet und sind aus unserer Biosphäre nicht wegzudenken. Dementsprechend sind CYPs wichtige Themen von Grundlagen- und angewandter Forschung in allen Disziplinen der Lebenswissenschaften - von Mikrobiologie über Botanik, Umweltwissenschaften und Ökologie, Physiologie, Pharmakologie, Toxikologie bis hin zur Medizin. Beispielsweise ist eine Entwicklung neuer Arzneimittel nicht möglich ohne ausführliche Studien wie schnell, durch welche CYPs und zu welchen Produkten ein möglicher Kandidat abgebaut wird. Moderne Landwirtschaft ist nicht denkbar ohne auf CYP-basierenden Pflanzenschutz gegen Pilzerkrankungen, ohne Strategien gegen die durch CYP-hervorgerufene Resistenzentwicklung von Insektiziden. In jüngster Zeit verwendet die Biotechnologie in zunehmendem Maße CYP-Enzyme um ansonsten überaus komplizierte Synthesen auszuführen (wie z.B. in jüngster Zeit die Synthese des Antimalariamittels Artemisinin) und der neue Zweig „Synthetische Biologie“ um gewünschte, neue Synthesen nachzubauen.

    Das Negative: In die öffentliche Wahrnehmung - vor allem in unserem Land und in die Lehrpläne unserer Schulen und Hochschulen - haben derartige Inhalte noch kaum Eingang gefunden.

    Outlook: Zu den verschiedenen Gesichtspunkten dieses Blog-Eintrags werden weitere Artikel erscheinen.


    Weiterführende Links

    Leider gibt es zu diesem Themenkreis noch kein leicht verständliches Lehrbuch. Weiterführende Literatur und Antworten zu allen Fragen können von der Autorin erhalten werden (die ihren Einstieg in dieses ungemein spannende Gebiet vor 44 Jahren nie bereut hat).

    Cytochrome P450: versatile Enzymsysteme mit Anwendungen in der Biotechnologie und Medizin. R. Bernhardt http://www.uni-saarland.de/fileadmin/user_upload/Campus/Forschung/forsch...

    Cytochrome P450. Enzymfamilie mit zentraler Bedeutung. http://www.pharmazeutische-zeitung.de/?id=40909

    Strukturdatenbanken:

    NIH: Kristallstrukturen aller bis jetzt analysierten CYPs: http://www.ncbi.nlm.nih.gov/pubmed/?term=cytochrome+p450

    Protein Data Bank: http://www.pdb.org/pdb/home/home.do

    GENOME: CYTOCHROME P450 ENZYMES. Video 3.07 min. (Englisch) http://www.youtube.com/watch?v=Z2uadurrclM

    Phase I Metabolism - Pharmacology Lect 7 (Drug Metabolism) Video 6:56 min (Englisch). http://www.youtube.com/watch?v=GGLddVpVg9M

    Beiträge im Blog zu verwandten Themen:
    Die Sage vom bösen Cholesterin
    Zu Wirkung und Nebenwirkungen von Medikamenten
    Vitamin D – Allheilmittel oder Hype?


     

    inge Fri, 24.01.2014 - 23:07

    Kleben statt Nähen — Gewebekleber auf der Basis natürlichen Fibrins

    Kleben statt Nähen — Gewebekleber auf der Basis natürlichen Fibrins

    Fr, 10.01.2014 - 05:20 — Heinz Redl

    Medizin Heinz Redl Die Entwicklung klinisch einsetzbarer Gewebekleber auf Fibrin-Basis ist von Österreich ausgegangen und das Ludwig Boltzmann Institut für Experimentelle und Klinische Traumatologie spielt(e) hier eine zentrale Rolle. Erstmals vor genau 40 Jahren an der Wiener Universitätsklinik für Chirurgie erfolgreich angewandt, finden Fibrinkleber heute teilweise in sprühbarer, leicht zu handhabender Form eine Vielzahl von Einsatzmöglichkeiten: wo früher Gewebeteile genäht wurden, wird heute weltweit geklebt.

    Die Blutgerinnung ist ein lebensnotwendiger Mechanismus um bei Verletzungen auftretende Blutungen zu stoppen und Wunden zu verschließen. Schon im Altertum beobachteten Wissenschafter wie Philosophen fasziniert, wie der Körper mit der Bildung eines Blutklumpen (Blutgerinnsels, Thrombus) reagiert, welcher die verletzte Stelle verschließt und heilt. Der griechisch-römische Arzt Aelius Galenus hatte diesen Vorgang untersucht und faserartige Strukturen im zirkulierenden Blut ebenso wie in den Blutklumpen festgestellt.

    Blutgerinnung - was geschieht?

    Im gesamten Tierreich erfolgt die Blutgerinnung nach demselben Prinzip: lösliche Proteine im Blutplasma werden in unlösliches, vernetztes faserförmiges Material umgewandelt, das sich dann wie ein Gaze-Schleier über die Wunde legt und diese „verklebt“ – abdichtet.

    Am Beginn des 20. Jahrhunderts wurden die diesem klebrigen Material zugrundeliegenden Strukturen als Fibrinfasern identifiziert. Es sind die Endprodukte einer komplexen Reaktionskaskade, in deren letztem Schritt das lösliche Plasmaprotein Fibrinogen durch das Enzym Thrombin (eine Protease) gespalten wird und sich dann spontan zu geordneten faserförmigen Strukturen, dem Fibrin, zusammensetzt und gitterartige Netze bildet (Abbildung 1). Dieses Aggregat wird unter Einwirkung des Enzyms Faktor XIIIa (einer sogenannten Transglutaminase) durch Quervernetzungen weiter stabilisiert. Rote Blutkörperchen, die sich in dem Netz verfangen, führen zur Entstehung eines roten Thrombus. Entstehung von Fibrin.

    Abbildung 1. Entstehung von Fibrin. Aus dem löslichen Plasmaprotein Fibrinogen werden durch Einwirkung von Thrombin Fibrinmonomere gebildet, die spontan zu einem lockeren Netz aus Fibrinfasern polymerisieren. Quervernetzung durch Faktor XIIIa führt zu einem stabilisierten gitterartigen Netzwerk, in welchem sich Blutzellen – hier rote Blutkörperchen – fangen (rechts). (Quelle: links modifiziert nach Wikipedia, rechts: Scanning electron microscopy; http://www.cellimagelibrary.org/ licensed under a Creative Commons Attribution.)

    Nachahmen des natürlichen Prozesses

    An die Möglichkeit den Prozeß der Fibrinbildung nachzubauen, um sein Prinzip für das Design eines Gewebeklebers zur Blutstillung und Wundheilung zu nutzen, wurde schon länger gedacht: so wurde bereits 1909 erstmals versucht mit einem Fibrinpuder lokale Blutungen zu stillen; im zweiten Weltkrieg wurde die Kombination Fibrinogen & Thrombin bei Soldaten mit Brandwunden zur Fixierung von Hauttransplantaten – allerdings mit geringem Klebeeffekt und damit wenig Erfolg - angewendet.

    Erst in den 1970er Jahren ermöglichten es Fortschritte in der Fraktionierung und Reinigung von Proteinen die natürlichen Gerinnungsfaktoren in reinerer Form und so konzentriert herzustellen, wie es für eine effiziente Gewebeklebung notwendig ist und führten damit zum Durchbruch der Fibrinkleber. Das wirkliche Fibrinkleberzeitalter begann 1972 mit dem Einsatz von hoch angereichertem Fibrinogen, Thrombin und Fibrinolyseinhibitoren in der Nervenkoaptation durch Frau Prof. Matras im Kaninchen [1][2]. In schöner heute "translationalen' Überführung wurde es dann ab 1974 von Matras und Kuderna im AUVA Unfallkrankenhaus Lorenz Böhler auch in Patienten im Rahmen der peripheren Nervenklebung nach Trauma verwendet.

    An der Entwicklung dieser Technologien und speziell auch der Geräte für die klinische Anwendung hat das Ludwig Boltzmann Institut für Experimentelle und Klinische Traumaforschung (LBI Trauma) entscheidend mitgewirkt.

    Die ersten kommerziell erhältlichen Gewebekleber gelangten Ende der 1970er Jahre auf den Markt und sind seit den 1980er Jahren in Westeuropa und Japan im Einsatz. Die Zulassung in den USA erfolgte 1998. Gewebekleber haben sich seither in einer Vielzahl von Einsatzmöglichkeiten bewährt; vor allem in den Bereichen, in denen es mit herkömmlicher chirurgischer Technik immer wieder zu großen Problemen kam, z.B. bei starken Blutungen, bei Nervenklebungen oder bei Rissen innerer Organe wie Leber und Milz.

    Zweikomponentenkleber

    In den Fibrinklebern laufen dieselben Prozesse ab wie bei der "natürlichen" Blutgerinnung, allerdings sind die daran beteiligten Komponenten und Faktoren um ein Vielfaches konzentrierter als im Blut. Die Blutgerinnung läuft dadurch sehr viel schneller ab und die erzielte Gewebeklebung oder das gebildete Blutgerinnsel sind sehr viel sicherer und auch stabiler. Es entsteht eine relativ reißfeste aber flexible Klebung.

    Die Anwendung kann durch sukzessives Auftragen der einzelnen Komponenten erfolgen, durch Verwendung der vorgemischten Komponenten oder durch deren Sprühen aus einem Applikator mit Doppelspritze, Sammelkopf und Mischnadel. Das letztere Applikatorsystem wurde im LBI Trauma entwickelt, bietet rasche und ausreichende Durchmischung im gewünschten Konzentrationsverhältnis, einfache Einhandbedienung und die Möglichkeit einer Auftragung in dünnen Schichten (Abbildung 2).

    ZweikomponentenkleberAbbildung 2. Zweikomponentenkleber: Vorrichtung zum Vermischen und Applizieren der Komponenten für Gewebekleber.

    Alle Fibrinkleber weisen als Hauptkomponenten angereichertes Fibrinogen (mindestens die 20 fache Konzentration wie im Blut) in der einen Spritze und das gereinigte Enzym Thrombin plus die als Cofaktoren für die Reaktion benötigten Calcium Ionen in der anderen Spritze auf. Zur Stabilisierung des vorerst lockeren Fibrinnetzes dient das Enzym Faktor XIIIa (s.o.).

    Da zumeist unmittelbar nach Entstehen eines Gerinnsels körpereigene Prozesse zu dessen Auflösung einsetzen (Fibrinolyse), besteht die Gefahr, daß eine entstandene Gewebeklebung nicht fest genug haften bleibt, es somit zu einem erneuten Blutungsprozeß/Ablösungsprozeß kommen kann. Um dies zu verhindern, wird in der Regel ein Inhibitor der Fibrinolyse zugefügt, mit dessen Konzentration sich die Auflösezeiten des entstandenen Gerinnsels bzw. der Klebung gezielt steuern lassen: je mehr Inhibitor vorgesehen wird, desto stabiler ist das Gerinnsel gegenüber Fibrinolyse, desto länger dauert es auch, bis der Kleber vollständig resorbiert wird.

    Anwendungen – Kleben statt Nähen

    Fibrinkleber finden heute eine Vielzahl medizinischer Einsatzmöglichkeiten. Ihr Vorteil besteht darin, daß sie (als klinisch eingesetzte biologische Klebstoffe) gut verträglich sind, vom Körper abgebaut werden und überdies heilende Wirkung entfalten. Ein sehr wichtiger Vorteil gegenüber dem Nähen mit Nadel und Faden besteht weiters darin, daß zu behandelnde defekte Gewebe oder Organe nicht durch einen Nähvorgang noch zusätzlich geschädigt werden. Deshalb gibt es bei der Anwendung von Fibrinklebern viel weniger Komplikationen und unauffälligere Narben als bei herkömmlichen chirurgischen Nähten.

    Etablierte Anwendungen

    Mit Fibrinklebern lassen sich Blutungen rasch und effizient stoppen und damit der Blutverlust bei chirurgischen Eingriffen reduzieren. Dabei können auch kleine und/oder schwer zugängliche Gefäße „abgedichtet“, Wundränder weicher innerer Organe wie z.B. Leber, Lunge, Milz „verschlossen“, fragile Nervenfasern verbunden werden. Bei endoskopischen Eingriffen findet eine zielgenaue Klebung statt - beispielsweise bei der Behandlung von Verletzungen und blutenden Geschwüren im Magen-Darm-Trakt.

    In zunehmendem Maße werden Fibrinkleber bei Bruchoperationen, vor allem beim Leistenbruch, zur Fixierung des zur Bauchwandverstärkung eingesetzten Netzes verwendet. Ein rezenter Übersichtsartikel über nahezu 6000 Bruchoperationen zeigt eine Reduzierung der postoperativen Komplikationen und vor allem der chronischen Schmerzen (unter denen bis zu 20 % der Patienten leiden), wenn das Netz mit Fibrinkleber anstatt durch Nähte oder Metallclips fixiert wurde.

    Sehr umfangreiche Erfahrungen bestehen für die Fibrinanwendung auf der Haut. Hier soll vor allem der Einsatz des Fibrinklebers bei Verbrennungen der Haut hervorgehoben werden, der ein schnelleres und verbessertes Anwachsen von Transplantaten bewirkt und damit vor dem Eindringen von Infektionserregern schützt (Abbildung 3).

    Fibrinkleber – AufbringungAbbildung 3. Entfernen der verbrannten Hautschicht bis zum darunterliegenden Muskel (links), Aufbringung und Fixierung eines autologen Maschentransplantats (ein Hautlappen des Patienten wird mit einem rautenförmigen Schnittmuster versehen und kann so bis auf eine mehrfache Fläche ausgedehnt werden) mittels Fibrinkleber.

    In allen diesen Anwendungen wurden Fibrinkleber auf optimale Klebewirkung hin entwickelt, welche eine hohe Belastbarkeit und eine hohe innere Festigkeit der Klebungen sowie gute Haftfähigkeit des Klebers an den Wund- bzw. Gewebsflächen beinhaltet. Ebenso wurden auch die der unmittelbaren Klebung folgenden Prozesse - die Steuerung und Kontrolle der Haltbarkeit der Klebungen im Körper sowie die Resorbierbarkeit und die wundheilungs-fördernden Eigenschaften des Klebstoffes – in der Optimierung berücksichtigt.

    Neue Applikationen

    Das Gebiet der Fibrin-basierten Gewebekleber ist zunehmend populär geworden. In der größten Literatur-Datenbank finden sich unter dem keyword „fibrin glue“ mehr als 3100 Einträge, davon 701 seit Anfang 2010. Rund 7 % dieser Einträge befassen sich mit neuen Anwendung der Fibrinkleber in der Geweberekonstruktion und als Trägermaterial für die gezielte Abgabe von Wirkstoffen.

    Im ersteren Fall überwiegen Arbeiten zur Konstruktion mit (Stamm)zellen, Knorpel – und Sehnen-Substanz mit Fibrin als Trägermaterial. Im zweiten Fall können Fibrinkleber so maßgeschneidert werden, daß darin eingebrachte und teilweise daran gekoppelte Wirkstoffe - von Antibiotika zu Hormonen und Wachstumsfaktoren – gezielt und über einen längeren Zeitraum andauernd freigesetzt werden und beispielsweise zum Gewebeaufbau oder der Wundheilung beitragen.

    Ein grober Überblick über die Anwendungsmöglichkeiten von Fibrinklebern ist in Abbildung 4 gegeben.

    Fibrinkleber – AnwendungenAbbildung 4. Wofür man Fibrinkleber verwenden kann.

    Fazit

    In der Unfalls- und Regenerationsmedizin geht es vor allem darum den Blutverlust so gering wie möglich zu halten, die Wundheilung zu fördern, Narbenbildung zu verringern , die Regenerationsdauer zu verkürzen und mögliche Folgekomplikationen rechtzeitig zu vermeiden. Der heute weltweit angewandte, Fibrin-basierte Zweikomponentenkleber wurde in den 1970er Jahren in Wien erfunden und stellt nach wie vor einen unübertroffenen Gewebekleber in der Medizin dar. Der Kleber ist gut verträglich, vom Körper abbaubar und trägt zur Geweberegeneration (Wundheilung) bei.


    Einige Meilensteine in der „Geschichte“ des Fibrinklebers:

    S. Bergel; Über die Wirkung des Fibrins. Dtsch Med Wochenschr 1909; 35:663-665. Spängler HP, Holle J, Moritz E, et al; Experimentelle Untersuchungen und erste klinische Erfahrungen über die totale Blutstillung mittels hochkonzentriertem Fibrin. Österr Ges Chir 1975:605-610.

    J.Eibl, H.Redl, G.Schlag, Gewebekleber auf basis von fibrinogen EP 1007109 B1.

    H. Redl. Vorrichtung zum Vermischen und Applizieren von Komponenten mit verschiedenen Viskositäten für Gewebekleber. DE 60003005 T2.

    R H. Fortelny, A.H. Petter-Puchner, K.S. Glaser, H. Redl; Use of fibrin sealant (Tisseel/Tissucol) in hernia repair: a systematic review. Surg Endosc (2012) 26:1803–1812


    [1] H Matras et al., “[Suture-free interfascicular nerve transplantation in animal experiments],” Wiener medizinische Wochenschrift 122, no. 37 (September 9, 1972): 517–523

    [2] H Matras et al., “Non-sutured Nerve Transplantation (a Report on Animal Experiments),” Journal of Maxillofacial Surgery 1, no. 1 (March 1973): 37–40.


    Weiterführende Links

    M.K. Terris (2009) Use Of Tissue Sealants And Hemostatic Agents (Slide show, English)

    B. Iyer (2013) Tissue sealant essentials (Slide show, English) DB111 Tisseel Gewebekleber Video 2:47 min Die Blutgerinnung Video 1:34 min.


     

    inge Fri, 10.01.2014 - 05:20

    Porträt eines Proteins. — Die Komplexität lebender Materie als Vermittlerin zwischen Wissenschaft und Kunst

    Porträt eines Proteins. — Die Komplexität lebender Materie als Vermittlerin zwischen Wissenschaft und Kunst

    Fr, 17.01.2014 - 08:44 — Gottfried Schatz Gottfried SchatzIcon Chemie

    Mit der Feststellung, daß unser Verständnis der materiellen Beschaffenheit der Welt vor allem auf unseren Kenntnissen der Kristallographie gründet , hat die Generalversammlung der Vereinten Nationen das Jahr 2014 zum Internationalen Jahr der Kristallographie erklärt. Die Kristallstruktur eines Moleküls ermöglicht über dessen 3D-Bild hinaus auch Einblicke in seine Funktion. Dieses komplexe System einfach und deutlich zu veranschaulichen erinnert an die Kunst eines Porträtisten, dessen Bild auch über den Charakter des Dargestellten Auskunft gibt. Das Porträt des Proteins Aquaporin-1 macht erkennbar, wie es den essentiellen Durchtritt von Wasser durch die Membranen der Lebewesen ermöglicht.

    Die Neue Nationalgalerie von Berlin hütet in ihrem Untergeschoss einen besonderen Schatz - Oskar Kokoschkas Porträt seines Freundes und Förderers Adolf Loos (Abbidung 1, beigefügt von Redaktion). Dieses expressionistische Meisterwerk lässt tief in die Seele des grossen Architekten blicken. Zwar lassen weder der angedeutete Rumpf noch der träumende Blick den kämpferischen Neuerer erkennen, doch die übergross gemalten, fiebrig ineinander verschlungenen Hände verleihen diesem Bild eine hypnotische Kraft. Sie sprechen von Zweifeln und inneren Stürmen und sind dennoch die entschlossenen Hände eines Homo Faber, der Grosses baut.

    Porträt des Adolf Loos (Oskar Kokoschka)Abbildung 1. Porträt des Adolf Loos, gemalt von Oskar Kokoschka, 1909 (Schloss Charlottenburg, Berlin)

    Für Pablo Picasso war Kunst die Lüge, die uns die Wahrheit zeigt. Nichts bestätigt dies klarer als Kokoschkas tiefenpsychologisches Porträt. Es verfremdet die äussere Form des Modells, um dessen inneres Wesen offenzulegen. Wer könnte angesichts dieses Bildes noch der kategorischen Behauptung glauben, Kunst suche Schönheit, Wissenschaft dagegen Wahrheit? Dennoch würden die meisten von uns zögern, Kokoschkas Bild als wissenschaftliches Werk zu bezeichnen. Ein Grund ist, dass wir Kunst und Naturwissenschaft als getrennte, wenn nicht sogar gegensätzliche Welten sehen. Kunst gilt als intuitiv, Naturwissenschaft als objektiv. Kunst sucht im Allgemeinen das Individuelle, Naturwissenschaft im Individuellen das Allgemeine. Wir erwarten von Naturwissenschaft Wahrheit, die uns die Lüge zeigt.

    Informationsfülle

    An dieser Sichtweise sind auch wir Wissenschafter nicht ganz unschuldig. Wenn wir eine künstlerische Ader haben, verstecken wir sie hinter einem hölzernen Schreib- und Redestil und trockenen Tabellen oder Grafiken. Und wenn wir schon Bilder verwenden, wollen wir in diesen nichts weglassen oder übermässig hervorheben, um nicht als unehrlich zu gelten. Dieser Ehrenkodex wird jedoch bei der Beschreibung komplexer Systeme immer mehr zur Fessel. Der Stoffwechsel lebender Zellen, das Erdklima oder ganze Galaxien liefern uns Forschern so viel Information, dass wir sie nicht mehr in der üblichen Weise wiedergeben können.

    Der Wasserkanal Aquaporin

    Dies gilt selbst für einzelne Moleküle - wie das Protein Aquaporin, das mein Freund Andreas Engel seit vielen Jahren untersucht. Aquaporin ist ein Riesenmolekül aus über neuntausend Atomen, das der umhüllenden Membran unserer Zellen die Aufnahme und Abgabe von Wasser erleichtert. Das Protein ist ein Verbund aus vier gleichen Proteinketten. Jede von ihnen faltet sich in der Zelle spontan zu einem charakteristischen Knäuel und vereinigt sich dann mit drei gleichartigen Knäueln zum funktionstüchtigen Aquaporin (Abbildung 2, beigefügt von Redaktion). Der Wasserkanal Aquaporin-1 (AQP1)Abbildung 2. Der Wasserkanal Aquaporin-1 (AQP1) besteht aus 4 gleichen Proteinketten, die, in die Zellmembran eingebettet, jeweils einen funktionellen Wasserkanal enthalten. Kristallstruktur der vier „Knäuel“ (Monomere) des Aquaporin: A) Kugel-Stäbchen-Modell (alle Atome ausser H sind dargestellt; C: schwarz, N: blau, O: rot, S: gelb). B, C), vereinfachte Darstellung: jede Proteinkette bildet 6 Helices aus, welche die Membran durchspannen und durch Loops verbunden sind (B: Seitenansicht, C: Aufsicht). Zwei der Loops bilden eine enge Pore in Sanduhrform, durch die nur das kleine Wassermolekül frei durchtreten kann (C, D). Bilder: A – C Protein Data Bank 1H6I-Cn3D 4.3.1, D: Wikipedia.

    Analyse der Kristallstruktur von Aquaporin

    Doch wie wirkt dieses vierteilige Protein als Wasserkanal? Andreas und einige seiner Kollegen wollten dies wissen und bestimmten zu diesem Zweck seine räumliche Struktur.

    Nach Jahren mühevoller Arbeit hatten sie die Anordnung jedes Atoms und die verschlungenen Wege der vier Proteinketten in den vier Knäueln auf mindestens einen Milliardstel Meter genau bestimmt. Hätten sie mir jedoch all dies auf einem Computerbildschirm gezeigt (Abbildung 2A), hätte ich nur auf ein unverständliches Gewirr von Punkten und Linien gestarrt und wäre so klug gewesen wie zuvor. Die detailgetreue Darstellung eines komplexen Objekts - sei dies nun ein Protein oder ein Mensch - verschleiert dessen inneres Wesen.

    Künstlerisches Flair

    Andreas und seine Kollegen versuchten sich daher als Porträtisten, um aus den zahllosen Strukturdetails den Charakter ihres Proteins herauszuschälen. Sie liessen ihre Computer unwichtige Abschnitte der Proteinketten blass zeichnen, wichtige mit raffinierten Schattentechniken hervorheben oder den Rhythmus bestimmter Aminosäuren in den verschlungenen Ketten mit leuchtenden Farben sichtbar machen. Manchmal ließen sie einzelne Kettenteile ganz verschwinden, so dass die für den Wassertransport besonders wichtigen Teile der vier Proteinknäuel frei im Raum zu schweben schienen. Sie scheuten sich auch nicht, einzelne Bereiche in diesen Knäueln willkürlich zu vergrössern, um ihre genaue Form und chemische Eigenschaft zu betonen. Und gelegentlich gewährten sie ihrem künstlerischen Flair freien Lauf und gaben Detailporträts einen farbigen oder strukturierten Hintergrund, um eine wissenschaftliche Aussage so ästhetisch wie möglich zu gestalten.

    So schufen sie Bilder von beeindruckender Schönheit, die häufig die Titelseiten wissenschaftlicher Zeitschriften schmückten. Doch wie allen guten Porträtisten ging es ihnen dabei nicht um Schönheit, sondern um das Innenleben ihres Modells. Die von ihnen geschaffenen Porträts zeichnen ein stämmiges Protein, das nicht frei im wässrigen Innenraum der Zelle herumschwirrt, sondern fest in einer Membran verankert ist und frappant einer Sanduhr ähnelt. Die Bilder erklären auch, weshalb die Verengung in dieser Sanduhr nur Wasser und keine anderen Moleküle durchlässt und eine genetische Veränderung dieser Verengung den Wassertransport in meinen Nieren gefährden könnte. Und schliesslich lassen sie erkennen, dass Aquaporin wenig flexibel ist, keine biologischen Signale aussendet und als passiver Kanal und nicht als energieumwandelnde Maschine arbeitet.

    Stütze der Gesellschaft

    Diese biochemischen Charakterstudien zeigen Aquaporin als solide Stütze der Gesellschaft. Ich würde sogar die Voraussage wagen, dass ihm in der Zelle ein langes Leben beschert ist. Proteinporträts können also ähnliche hellseherische Fähigkeiten entwickeln wie Kokoschkas Porträt des Schweizer Psychiaters Auguste Forel, das dessen Schlaganfall mit unheimlicher Genauigkeit vorausahnte. Um all dies in einem Proteinporträt zu erkennen, braucht es die Augen eines Molekularbiologen, denn wir sehen nur, was wir wissen. Wem Proteine fremd sind, der muss sich also mit der Schönheit dieser Bilder begnügen. Dies gilt jedoch auch für die Gemälde von Hieronymus Bosch oder Max Beckmann, die sich nur dem voll erschliessen, der ihre tiefgründige Symbolik versteht.

    Sind Proteinporträts Kunst? Viele werden die Frage leidenschaftlich verneinen - doch mit welchen Argumenten? Sind diese Porträts weniger «künstlerisch» als detailgetreue Landschaftsbilder und Stillleben - oder als die geometrische Op-Art-Abstraktion eines Victor de Vasarely? Die Fragen sind müssig, denn Kunst lässt sich nicht in die Schablone akademischer Definitionen zwängen. Die Porträts von Aquaporin befriedigen mein Sehnen nach Schönem - und damit mein Herz.

    Sie befriedigen aber auch meinen Hunger nach Neuem - und damit meinen Verstand. Sie zeigen mir ein faszinierendes Molekül und ein neues Kapitel in der Naturwissenschaft. Molekularbiologen wollen das Leben aufgrund seiner Bausteine verstehen. Je komplexer diese Bausteine sind, desto mehr gewinnen sie an Charakter. Und um diesen Charakter zu zeigen, sucht Wissenschaft immer öfter die Hilfe ihrer Schwester - der Kunst. Auch Wissenschaft muss nun lügen, um die Wahrheit zu zeigen. Die beiden Schwestern bleiben zwar getrennt, reichen aber einander wieder die Hände.

    T Walz, B L Smith, M L Zeidel, A Engel, P Agre (1994) Biologically active two-dimensional crystals of aquaporin CHIP; J Biol Chem 269, 1583-1586.


    Weiterführende Links

    Die Kristallstruktur von Aquaporinen (und von sehr vielen anderen Proteinen) ist von der PDB Protein Data Bank frei abrufbar: Aquaporin-1

    Der Nobelpreis für Chemie 2003 für „Entdeckungen von Kanälen in Zellmembranen“ wurde je zur Hälfte an Peter Agre für die Entdeckung des Wasserkanals Aquaporin und an Roderick MacKinnon für „strukturelle und mechanistische Studien an Ionen-Kanälen“ verliehen. (Leicht verständliche Darstellung, englisch).

    Nobel-Vortrag von Peter Agre (2003): Video 45 min (Englisch)

    Hier als PDF-Download Nobel Vortrag von Roderick MacKinnon (2003): Video 43 minutes (Englisch) Ebenfalls im PDF-Format


     

    inge Fri, 17.01.2014 - 08:40

    Computerwissenschafter — Marketender im Tross der modernen Naturwissenschaften

    Computerwissenschafter — Marketender im Tross der modernen Naturwissenschaften

    Fr, 03.01.2014 - 06:36 — Peter Schuster

    Icon MINT Peter SchusterDie Datenflut, die heute in den Naturwissenschaften erhoben wird, ist so gewaltig, daß sie mit dem menschlichen Auge nicht mehr erfasst, mit dem menschlichen Gehirn nicht mehr analysiert werden kann. Die Bioinformatik erstellt hier effiziente Computerprogramme, welche vor allem für den Fortschritt in den molekularen Lebenswissenschaften unabdingbar sind, jedoch kaum entsprechend gewürdigt werden.

    (Bio)informatik ist aus den modernen Naturwissensschaften nicht mehr wegzudenken: Der Experimentator erhält Unmengen an Daten, die jedem Versuch einer direkten Betrachtung trotzen und nur mit Hilfe extensiver Computerprogramme bearbeitet werden können. Aber auch mathematische Beweise können häufig so komplex sein, daß sie zumindest teilweise durch den Computer ausgeführt werden. Diese Abhängigkeit führt zwangsläufig zur Frage:

    Inwieweit können wir unseren Computern trauen?

    Ist die umfangreiche Software, die auf unseren riesigen Maschinen läuft, fehlerfrei - frei von „Bugs“?

    Vertreter unterschiedlicher Disziplinen der Naturwissenschaften und der, auch für diese essentiellen, Mathematik reagieren auf diese Fragen in unterschiedlicher Weise:

    Mathematiker, die Puristen sind, akzeptieren nur sehr zögerlich Beweise, die mittels Computer erhoben wurden. Theoretische Physiker stehen dagegen derartigen Beweisen sehr offen gegenüber und vertrauen im Allgemeinen ihren gigantischen Maschinen. Den Chemikern sind Computermethoden in ihrem Fach geläufig, ihr Widerstand gegen theoretische Modelle schwindet in zunehmendem Maße. Biologen, schlussendlich, können in den modernen molekularen Fachrichtungen nichts ausrichten, ohne auf eine sehr eindrucksvolle Palette an Hilfsmitteln aus der Bioinformatik zuzugreifen.

    Sisyphos und die Beweisbarkeit mathematischer Lehrsätze

    Computerbeweise für bereits existierende Theoreme datieren in die 1950er Jahre zurück und gelten allgemein als brauchbare Verfahren in der reinen und angewandten Mathematik. Computerbeweise für noch offene Vermutungen spalten allerdings den Kreis der Mathematiker: die Verfechter dieses Verfahrens argumentieren damit, daß konventionelle Beweise für viele Theoreme derart komplex werden, daß sie mit dem menschlichen Gehirn - auf sich allein gestellt - nicht gefunden werden. Automatisierte Verfahren seien dagegen billig und hätten bei vielen, mit konventionellen Methoden bewiesenen Theoremen bereits Erfolg gezeigt.

    Die Gegner argumentieren nicht weniger überzeugend: Um für den menschlichen Verstand begreifbar zu sein, muß die Beweisführung in eine Reihe von logischen Schlussfolgerungen unterteilt werden. Wird deren Zahl so hoch, daß der Beweis nicht in einigermaßen absehbarer Zeit verständlich gemacht werden kann, ist der Beweis zu verwerfen. Dies ist der Fall für viele der noch zu lösenden Aufgaben. Als Beispiel wird hier die „Keplersche Vermutung“ zur räumlich dichtesten Anordnung von gleich großen Kugeln angeführt (Abbildung 1).

    Zu der für jeden Obsthändler trivialen Anordnung in einem regelmäßigen Gitter (kubisch-flächenzentrierte Packung und hexagonale Packung) hatte Johannes Kepler keinen mathematischen Beweis geliefert. Um einen derartigen Beweis zu führen und die enorme Zahl unterschiedlicher unregelmäßiger Anordnungen ausschließen zu können, bedarf es enormer Rechnerleistungen. Ein Beweis, den Thomas Hales und Sam Ferguson auf der Basis von drei Gigabyte an gespeicherten Computerprogrammen und Daten erhoben, wurde nach 5-jahrelanger Prüfung von den Begutachtern im Jahre 2003 als „zu 99 % korrekt“ eingestuft [1] .

    Dies ist für einen mathematischen Beweis eindeutig zu wenig.

    Vermutung zur dichtesten Packung von gleich großen Kugeln in einem regelmäßigen Gitter. Johannes KeplerAbbildung 1. Vermutung zur dichtesten Packung von gleich großen Kugeln in einem regelmäßigen Gitter. Johannes Kepler (1611, Strena seu de nive sexangula – Über die sechseckige Schneeflocke)

    Abgesehen von den an Sisyphos erinnernden Anstrengungen der Beweisführung eines derart komplexen Problems, besteht hier Grund zur Skepsis und zwar auch hinsichtlich der Fehlerfreiheit von Hardware und Software. Thomas Hales sagt dazu: „Ich bin zu dem Schluß gekommen, daß kein Mikroprozessor jemals perfekt ist, daß diese sich der Perfektion aber immer mehr nähern“ und an einer anderen Stelle: „Bestehen Sie nicht darauf, daß jeder Fehler entfernt wird…Wenn der Programmierer einen kleineren Fehler entfernt, kann er dabei einen wesentlich schwerer wiegenden Fehler erzeugen“.

    Um es kurz zu fassen: automatisierte Beweisführungen werden in Zukunft immer wichtiger, Computer-Wissenschafter müssen aber noch jede Menge „Hirnschmalz“ einsetzen, um ihre Maschinen und Programme verlässlicher zu machen. (Man sollte freilich auch nicht vergessen, daß nichts in unserer begrenzten Welt vollkommen fehlerfrei abläuft, wenn es nur ausreichend komplex ist.)

    Computeranwendungen in Physik und Chemie

    Physiker ebenso wie Chemiker wenden riesige Computerprogramme an, wenn sie u.a. in der Hochenergiephysik Daten sammeln und interpretieren, molekulare Strukturen mittels quantenmechanischer Modelle ermitteln oder sehr umfangreiche Simulierungen stochastischer (auf Wahrscheinlichkeitstheorie und Statistik basierender) Vorgänge beschreiben.

    „Absolut fehlerfreie Programme“ sind hier - im Gegensatz zu den mathematischen Anwendungen – keine zentrale Forderung und der Grund dafür ist leicht verständlich: Das Ziel der Berechnungen in der Physik und Chemie ist es Daten zu produzieren, deren Fehlerbreite bloß erheblich geringer sein muß, als die der zugrunde liegenden, experimentell erhobenen Daten. Im Wesentlichen ist es daher nur erforderlich die Software auf Widersprüche zu testen und gröbere Fehler in den Programmen zu beseitigen.

    Dazu kommt, daß numerische Mathematiker immer bessere Algorithmen generieren, Computer Spezialisten immer effizientere Programme. Die Geschwindigkeit der Rechner und ihre digitalen Speicherkapazitäten steigen ohne Unterbrechung seit den 1960-Jahren exponentiell – mit einer Verdopplungszeit von 18 Monaten – an. Dieses enorme Wachstum der Computerleistung wird aber von der Effizienzsteigerung der Algorithmen noch in den Schatten gestellt. Ein spektakuläres Beispiel dafür wurde in einem früheren Essay zitiert [2]: Wären zur Planung eines Produktionsablaufes im Jahr 1988 mit den damaligen Methoden 82 Jahre vonnöten gewesen, so war der Zeitbedarf im Jahr 2003 bereits auf 1 Minute abgesunken. Zu dieser insgesamt 43-millionenfachen Effizienzsteigerung trug die erhöhte Computerleistung mit einem Faktor 1000 bei, die verbesserten Algorithmen mit einem Faktor 43000.

    Computeranwendungen in der Biologie

    Die Biologie befindet sich in einer speziellen Situation, da weder traditionelle Fachrichtungen noch die frühe Molekularbiologie einer Unterstützung durch Computerwissenschaften bedurften. Die klassische Biologie hatte ja kaum irgendwelche mathematischen Grundlagen, Darwin’s Buch des Jahrhunderts „Ursprung der Arten“ enthält keine einzige Formel.

    Sequenzierungen

    Die zweite Hälfte des zwanzigsten Jahrhunderts brachte eine vollständige Änderung der Situation: neue Methoden der DNA-Sequenzierung erlaubten eine Aufklärung ganzer Genome in immer kürzerer Zeit.

    Erschien die „händische“ Aufklärung der kleinen Genome von Viroiden und Viren zwar ziemlich mühsam, aber immerhin noch möglich, so war dies bei großen, aus Milliarden von Nukleotid-Bausteinen bestehenden, Genomen (wie z.B im Human Genome Project) ausgeschlossen. Zum Glück gab es ab 1970 bereits Algorithmen, die für Sequenzvergleiche erarbeitet worden waren. Diese dienten zwar zum Vergleich von Proteinsequenzen zur Erstellung von phylogenetischen Stammbäumen, konnten aber in Varianten für DNA-Sequenzen adaptiert werden. Die ununterbrochene Verbesserung der Algorithmen führte zu einer Reihe von Software-Paketen, ohne die ein modernes biologisches Labor nicht mehr auskommt, wie beispielsweise das weltweit angewandte, äußerst schnell arbeitende Programm BLAST (Basic Local Alignment Search Tool), das experimentell ermittelte DNA- oder Protein-Sequenzen mit den, in einer Datenbank bereits gespeicherten Sequenzen vergleicht und u.a. zur Auffindung homologer Gene/Proteine verwendet wird.

    Analyse und Vorhersage von Struktur und Funktion

    Enorm wichtige Programmentwicklungen befassen sich mit der Analyse der 3D-Strukturen von Biomolekülen, der Vorhersage dieser Strukturen auf Basis der Sequenzdaten und der Zuordnung von Funktionen zu einzelnen Strukturelementen: Die Entdeckung konservierter Strukturelemente in Teilstücken der DNA oder RNA deutet auf eine biologische Funktion dieser Regionen hin. Das aktuell von einem riesigen internationalen Team von mehr als 400 Forschern bearbeitete ENCODE („Encyclopedia of DNA Elements)-Projekt hat sich die systematische Erkundung aller funktionellen Elemente der DNA des humanen Genoms und anderer Aspekte seiner Organisation zum Ziel gesetzt [3]. Das bis jetzt erstaunlichste Ergebnis von ENCODE ist, daß rund 80 % der menschlichen DNA aktiv sind und nicht, wie bisher angenommen, nur die rund 2 % der Protein-codierenden Gene. Alle Daten aus ENCODE sind übrigens - zusammen mit den Software-Tools - frei abrufbar und anwendbar.

    Weitere Anwendungen

    Von der Vielzahl revolutionärer neuer Technologien, welche die Anwendung hocheffizienter Computerprogramme erfordern, sollen hier nur zwei aktuelle Verfahren angeführt werden: i) Das High-Throughput Screening (d.i. das Testen mit sehr hohem Durchsatz) und ii) das Modellieren ganzer großer Systeme.

    High-Throughput Screening wird heute erfolgreich für biologische Fragestellungen und insbesondere in der medizinisch-, pharmazeutischen Forschung zur Auffindung neuer Wirkstoffe angewandt. Es erlaubt die gleichzeitige Testung von bis zu einer Million von Verbindungen hinsichtlich ihrer Wechselwirkungen mit Biomolekülen, Zellbestandteilen und auch intakten Zellen. Die gesamte Prozedur läuft vom Ansatz, über die Ausführung bis hin zur Auswertung der Ergebnisse vollkommen automatisch ab, gesteuert und analysiert von hocheffizienten Computerprogrammen.

    Eine immens hohe Datenflut generiert das Modellieren ganzer biologischer Systeme – die Systembiologie. Bereits einzelne Zellen enthalten Tausende unterschiedliche, aktive Biomoleküle, die laufend miteinander reagieren, verstoffwechseln und verstoffwechselt werden. Die Modellierung derartig hochkomplexer Systeme - intakter Zellen, Organe bis hin zu lebenden Organismen – gehört zu den größten Herausforderungen in der näheren Zukunft.

    Aus den enormen Datenmengen, die in Datenbanken zumeist frei verfügbar ruhen, kann – wie der berühmte Molekularbiologie Sidney Brenner meint - schlussendlich eine neue theoretische Biologie entstehen. Um hier relevantes Wissen aus Bergen von wenig informativem Material zu extrahieren, bedarf es einer soliden Grundlage in Mathematik und Computerwissenschaften.

    Zur Wertschätzung der Computerwissenschafter

    Im Titel dieses Essays hatte ich für die Vertreter dieser Fachrichtung, die Metapher „Marketender“ gebraucht. Dieser Begriff kommt aus dem mittelalterlichen Militärwesen und bezeichnet Personen, welche die Truppen begleiteten und für die militärische Logistik unabdingbar waren, da sie die Soldaten mit Gebrauchsgegenständen, Lebensmitteln und anderem Bedarf versorgten (Abbildung 2). Ihre Bedeutung ergab sich auch aus ihrer Unabhängigkeit, da sie nicht der Bürokratie des Heeres unterstellt waren und daher auf aktuelle Bedürfnisse sofort reagieren konnten.

    Trotz ihrer Wichtigkeit für das Funktionieren eines effizienten Heeres, waren Marketender aber wenig geachtet.

    Marketender bietet seine Waren an (Holzstich aus 1516.)Abbildung 2. Marketender bietet seine Waren an (Holzstich aus 1516. Bild: Wikipedia)

    Die Analogie zu Computerwissenschaftern ist augenscheinlich, vor allem in der Biologie: Bioinformatiker sind für den Fortschritt biologischer Fachrichtungen essentiell, bei der Anerkennung der Erfolge werden sie aber gerne übersehen. Craig Venter, beispielsweise, wurde für seine Arbeiten zu Genomanalysen und Genomsynthesen weltberühmt – vollkommen zu Recht. Wer aber kennt die Namen der Computerwissenschafter, welche die, für diese Projekte essentiellen Programme zu Versuchsaufbau, Versuchsführung, Analyse und Interpretation erstellten?

    In früheren Zeiten, als jeder Experimentator Versuche selbst aufbaute und Ergebnisse auch selbst interpretierte, war es nur selbstverständlich, daß er allein auch entsprechend gewürdigt wurde. Heute übernehmen Computerprogramme mehr und mehr an Verantwortung für Versuchsführung und Analyse. Es erscheint angebracht die Bedeutung der experimentellen in Relation zur rechnerischern Arbeit neu zu bewerten.


    [1] ] Hales, T. C. A proof of the Kepler conjecture. Annals of Mathematics 2005, 162, 1065-1185.

    [2] Peter Schuster: Wie Computermethoden die Forschung in den Naturwissenschaften verändern

    [3] Das ENCODE Project; siehe auch den SB-Artikel Zentralismus und Komplexität.


    Der vorliegende Essay ist eine stark verkürzte deutsche Fassung des Artikels „Are computer scientists the sutlers of modern biology?“, der eine komplette Liste von Literaturzitaten enthält und in Kürze von der Webseite des Autors abgerufen werden kann.


    Weiterführende Links

    Matthias Rarey: An der Schnittstelle: Informatik trifft Naturwissenschaften ( Zentrum für Bioinformatik Hamburg (ZBH); Universität Hamburg). Sehr leicht verständliches Video (als Werbung für ein Bioinformatik Studium gedacht) 1:09:21 h.


     

    inge Fri, 03.01.2014 - 07:15

    2013

    2013 Redaktion Wed, 20.03.2019 - 01:02

    Der ScienceBlog zum Jahreswechsel 2013/2014

    Der ScienceBlog zum Jahreswechsel 2013/2014

    Fr, 27.12.2013 - 15:57 — Redaktion

    Kaleidoskop “The distinctive character of our own time lies in the vast and constantly increasing part, which is played by natural knowledge. Not only is our daily life shaped by it, not only does the prosperity of millions of men depend on it, but our whole theory of life has long been influenced, consciously or unconsciously, by the general conceptions of the universe, which has been forced upon us by physical science.” Aus: Thomas H. Huxley (1882), Science and Culture

    Abb.: Kaleidoskop; Artwork von Eric Taylor zum Debut-Album »Blue Siberia« des Rock-Trios »Star FK Radium«.

    Dem obigen Zitat des britischen Biologen und Verfechter der Darwin’schen Evolutionstheorie T. H. Huxley merkt man wohl nicht an, dass es bereits 131 Jahre alt ist. Naturwissenschaften – ihre Grundlagen und Anwendungen – nehmen bei Huxley einen ungeheuer hohen Stellenwert ein, sie formen Leben und Weltbild des Einzelnen, wie das ganzer großer Gesellschaften.

    Der Stellenwert der Naturwissenschaften in Österreich

    Es erübrigt sich festzustellen, dass unser heutiges Leben in einem noch viel höherem Maße durch Naturwissenschaften und Technik geprägt ist. Dennoch begegnen weiteste Bevölkerungsschichten in unserem Land diesen Wissenszweigen mit Verständnislosigkeit, Desinteresse und Ablehnung, stufen sie bestenfalls als irrelevant für ihr eigenes Leben ein [1,2]. Der minimale Stellenwert, der bei uns der Wissenschaft ganz allgemein zugewiesen wird, kommt aktuell auch in der Ressortaufteilung des neuen Regierungsprogramms zum Ausdruck, in der blamablen Einsparung eines eigenständigen Ministeriums für Wissenschaft und Forschung (siehe auch unseren vorwöchigen Artikel „Quid pro quo?“[3]). Rot-schwarzes Schachbrettdenken hat es nicht erlaubt, Wissenschaftsagenda, Grundlagen- und Angewandte Forschung, die über zahlreiche Ministerien, insbesondere dem Ministerium für Verkehr, Innovation und Technologie, verstreut sind, in einem einzigen Wissenschaftsministerium zu bündeln. Damit ist wohl für die nächsten Jahre die Chance vertan, eine zeitgemäße Struktur der Forschungsagenda zu etablieren, in der die Förderungen von Projekten transparent, leistungsbezogen und dennoch ressourcenschonend vergeben werden.

    Fehlende Bildungsstandards…

    Der niedrige Stellenwert der Wissenschaft, vor allem der Naturwissenschaften, wird aber auch aus den „Bildungsplänen“ für die heranwachsende Jugend ersichtlich, aus der Wissenschaftsberichterstattung und -kommunikation für die Erwachsenen:

    In Schulen existieren nach wie vor keine Bildungsstandards für Naturwissenschaften, darüber, was ein Pflichtschulabgänger, was ein Absolvent der AHS wissen sollte (siehe Bifie Bildungsstandards). In den Lehrplänen der Oberstufen sind naturwissenschaftliche Fächer nicht nur unterrepräsentiert, die Unterrichtsstunden wurden, trotz einem enorm angestiegenen Wissen, gegenüber früher gekürzt.

    …und Mangel an seriöser, leicht verständlicher Information für Erwachsene…

    Ihre rudimentären naturwissenschaftlichen Kenntnisse können Schulabgänger als Erwachsene aber kaum noch verbessern. Prinzipiell wäre Information aus den Massenmedien zu beziehen, vor allem aus dem Fernsehen, aber auch aus den Printmedien und in steigendem Maße aus dem Internet. Dem steht entgegen, dass in den ersten beiden Medien Unterhaltungswert und Befriedigung der Sensationsgier oberste Priorität besitzen, wenig quotenbringende Wissenschaftsberichte zumeist an unterster Stelle rangieren: In den Jahren 2009 bis 2012 hat der ORF die Sendezeit für „Wissenschaft und Bildung“ von 303 Stunden auf 214 Stunden (1,22 % der gesamten Sendezeit) reduziert, zugunsten eines erhöhten Angebots an Unterhaltung (46 %) und Sportsendungen (6,8 %). (Quelle: ORF-Jahresberichte). In den Printmedien führen überhaupt nur wenige Tageszeitungen eine Wissenschaftsrubrik – komplexe Sachverhalte werden aber auch hier häufig nicht allgemein verständlich dargestellt und sind zum Teil auch nicht ausreichend recherchiert.

    Das Internet weist wohl ein ungeheures Wissensangebot auf; seriöse, leicht verständliche Information ist aber nicht einfach zu finden. Ein Großteil der Videos auf Youtube, aber auch viele Diskussionsplattformen und auf den ersten Blick seriös wirkende Webseiten, erweisen sich bei näherem Ansehen als zu wenig verständlich oder krass pseudowissenschaftlich. Die eigentliche Fachliteratur in ihrem „fachchinesisch“ erscheint auch für interessierte Laien natürlich weitestgehend unverständlich.

    …führen über Unwissen zu Verunsicherung und Ablehnung

    Unsere Gesellschaft besteht schon zum Großteil aus Menschen, die den Naturwissenschaften – und hier vor allem der Chemie – äußerst ablehnend gegenüberstehen. Befürchtungen hinsichtlich Gefahren, die in Lebensmitteln, Trinkwasser, Umwelt, Kosmetika, Arzneimittel und vielem anderen lauern, werden hier vor allem auch durch die Medien (und NGO’s) geschürt und führen zu beinahe schon irrationalen Ängsten. Eine adäquate, durchaus kritische Auseinandersetzung mit den zugrunde liegenden Problemen ist aber kaum möglich, da ja erforderliche Grundkenntnisse fehlen

    Der ScienceBlog

    Mit dem ScienceBlog streben wir an:

    „Laien über wichtige naturwissenschaftliche Grundlagen und Standpunkte zu informieren, deren Grenzen in kritischer Weise abzustecken, Vorurteilen fundiert entgegenzutreten und insgesamt, in der Form eines zeitgemäßen Diskussionsforums, das zur Zeit leider sehr geringe, allgemeine Interesse an Naturwissenschaften zu steigern“.

    Ein Kaleidoskop der Disziplinen…

    Der ScienceBlog unterscheidet sich von anderen Wissenschaftsblogs dadurch, dass er nicht nur ein spezielles Fachgebiet darstellt, sondern transdisziplinären Charakter besitzt, die Naturwissenschaften in ihrer ganzen Breite umspannt. Er inkludiert also Physik, Geowissenschaften, Weltraumforschung, Chemie, Biologie bis hin zur molekularen Pharmakologie und Medizin. Ebenso sind Mathematik/Informatik als Grundlage und Gebiete, die auf Naturwissenschaften basieren, vertreten. Dazu kommen wissenschaftspolitische Artikel hinsichtlich naturwissenschaftlicher Bildung, Forschung und deren Förderung – mit speziellem Fokus auf die Situation in Österreich.

    Damit entspricht der Blog der transdisziplinären Natur der meisten real existierenden Fragestellungen und ermöglicht deren Diskussion von der Warte verschiedener Fachrichtungen aus. Beispielsweise kommt ja die moderne Medizin („science-based medicine“) heute nicht mehr ohne Biochemie und Molekularbiologie aus, erfordert die Suche nach neuen Arzneimitteln ein breites Spektrum an Disziplinen, unter anderem die analytische und synthetische Chemie, die Strukturchemie, Biochemie, Molekularbiologie, der Informationstechnologien, Computermodellierungen und natürlich pharmazeutische Wissenschaften und medizinische Grundlagen.

    Aktuelle Ansätze in den Naturwissenschaften benutzen Wissen und Technologien aus unterschiedlichsten Disziplinen und setzen diese kaleidoskopartig zu immer neuen Strukturen, zu immer neuen Anwendungen, zusammen. Dies gilt insbesondere für das Bestreben, die überaus komplexen Zusammenhänge von Systemen, wie beispielsweise von Zellen, Organen und ganzen Organismen in einer holistischen (systemtheoretischen) Weise zu beschreiben, das heißt, in ihrer Dynamik und unter Einbeziehung aller möglichen Wechselwirkungen. (Ein derartiger, äußerst aufwändiger Ansatz (beispielsweise der Systembiologie, Systempharmakologie,...) konnte natürlich erst auf der Basis der heute verfügbaren Möglichkeiten der Datenspeicherung und Datenverarbeitung ins Auge gefasst werden.) Ein Paradebeispiel stellt hier auch die als Leitwissenschaft des 21. Jahrhunderts apostrophierte „Synthetische Biologie“ dar.

    …erfordert ein Kollektiv kompetenter Autoren

    Wenn die Inhalte der Artikel durchwegs „state of the art“ sein sollen, fundierte wissenschaftliche Ergebnisse und Schlussfolgerungen aufzeigen sollen, können sie zweifellos nicht von einem einzelnen Blogger stammen. Der ScienceBlog hat es sich zur Aufgabe gemacht, international ausgewiesene (vorwiegend aus Österreich stammende) Experten als Autoren zu rekrutieren, die jeweils aus ihren Fachgebieten in leicht verständlicher, deutscher Sprache schreiben. Der Blog stellt also „Wissenschaft aus erster Hand“ dar. Damit unterscheidet sich unser Blog grundlegend von anderen naturwissenschaftlichen Blogs im Ausland, die häufig von einem einzelnen Blogger betreut werden und sich auf ein einzelnes Fachgebiet beschränken.

    Der ScienceBlog 2013

    Der ScienceBlog – vor zweieinhalb Jahren ins Leben gerufen – hat vor neun Monaten einen Relaunch erfahren und ist auf eine neue, eigene Webseite umgezogen [4]. Alle bis dahin erschienenen wissenschaftlichen Artikel wurden bereits auf die neue Seite übernommen – sie haben ja noch nichts an Gültigkeit der Information und der Aussagen eingebüßt.

    Mit der Erscheinungsfrequenz 1 Artikel/Woche liegen bis jetzt Insgesamt 125 Artikel vor, die von 46 Autoren stammen. Zu den einzelnen Artikeln gibt es meistens weiterführende Links (seriöse, leicht verständliche Literatur und – wo immer möglich – Videos), die auch gepflegt werden.

    Mit großer Freude können wir berichten, dass seit dem Relaunch die Zugriffszahlen zu unserem Blog stark ansteigen, dass wir in der Google-Bewertung („PageRank“) unserer Seite ein '7/10' erhalten haben – eine Bewertung, die bis jetzt nur sehr wenige Wissenschaftsblogs erzielten (z.B. das amerikanische Format: Science-Based-Medicine, nicht aber die großen deutschen Blog-Portale SciLogs.de oder ScienceBlogs.de).

    Vision: ScienceBlog 2014

    Unseren Blog wollen wir zu etwas Einzigartigem in der Blogosphäre gestalten.

    Zur Zeit gruppieren wir die einzelnen Artikel nach Themenschwerpunkten (siehe z.B. die Schwerpunkte „Synthetische Biologie“ und „Klima & Klimawandel“) und erstellen zu allen Artikeln Schlagwortlisten. Dies gibt die Möglichkeit, auf alle Artikel zurückzugreifen, ein Thema von den Gesichtspunkten unterschiedlicher Disziplinen aus zu betrachten und (hoffentlich auch) zu diskutieren.

    Es entsteht somit eine blogweite Informations- und Diskussions-Plattform über das gesamte Spektrum der Naturwissenschaften auf dem durch unsere Autoren garantierten höchsten Niveau! Ein neues Format, das über Themenschwerpunkte ein Vorgehen nach Art eines e-Books erlaubt, darüber hinaus aber die Möglichkeit einer breiten Diskussion bietet. In diesem Sinne

    Ein Prosit Neujahr!

    Allen unsere Autoren, denen wir herzlich für Ihre brillanten, wertvollen Artikel danken, die den ScienceBlog zu einer neuen Form der fächerübergreifenden Kommunikation zwischen Wissenschaft und Öffentlichkeit machen .

    Allen unseren Besuchern, denen wir auch im neuen Jahr faszinierende Berichte über die Natur in uns und um uns versprechen. Wir hoffen, dass Sie uns auch in Ihrem Freundes- und Bekanntenkreis weiterempfehlen!


    Siehe auch [1] Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme

    [2] Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden? [

    3] Quid pro quo? Zur Einsparung des Wissenschaftsministeriums

    [4] ScienceBlog in neuem Gewande — Kontinuität und Neubeginn


     

    inge Fri, 27.12.2013 - 15:57

    Quid pro quo? Zur Einsparung des Wissenschaftsministeriums

    Quid pro quo? Zur Einsparung des Wissenschaftsministeriums

    Fr, 20.12.2013 - 05:40 — Redaktion

    Icon Politik & GesellschaftIn ihrem ScienceBlog-Artikel „Wissenschaftskommunikation in Österreich und die Rolle der Medien“ haben Josef Seethaler und Helmut Denk vor wenigen Wochen den alarmierend niedrigen Stellenwert beklagt, den Wissenschaft und Forschung in unserem Land haben: die Mehrheit der Österreicher (fast doppelt so viele wie im EU-Durchschnitt) betrachtet diesbezügliche Informationen als irrelevant für ihr tägliches Leben, weniger als die Hälfte stimmt einer Unterstützung der Grundlagenforschung durch die öffentliche Hand zu.

    Hier wie dort bildet Österreich das Schlusslicht unter den Staaten der Europäischen Union. Wenn es noch eines weiteren Beweises für diese von Ignoranz und Desinteresse getragene Auffassung von Wissenschaft bedurft hätte, so bietet diesen die Ressortaufteilung des neuen Regierungsprogramms: die Einsparung eines eigenständigen Ministeriums für Wissenschaft und Forschung und die Zuordnung seiner Agenda zum Wirtschaftsministerium.

    Was aber wird hier eingespart,

    wenn der nun auch für Wissenschaft zuständige Minister Mitterlehner im Ö1-Morgenjournal vom 17.12. 2013 darlegt „da bleibt das Ministerium komplett gleich, was also die Abteilungen anbelangt, was die Sektionen betrifft, was aber auch die Spitzenbeamten anbelangt; es bleibt jeder in seinem Bereich jeder an seinem Arbeitsplatz“? Es kann doch wohl nicht nur um die Einsparung des Salärs des Wissenschaftsministers gehen!

    Was bietet ein gemeinsames Dach mit dem Wirtschaftsministerium?

    Dazu Mitterlehner: „es wird hier nur organisatorisch eine gemeinsame neue Führung gestaltet und ein neuer Anspruch auch erhoben, der sich auf die Forschung bezieht. Die EU hat all ihre Programme auf die Innovationskette ausgerichtet, von der Grundlagenforschung über die angewandte Forschung bis zu den Unternehmen hin. Und genau diese Synergiepotentiale, die bessere Effizienz, die verstärkte Effizienz wollen wir auch im Bereich Forschung leben.“

    Dies ist die durchaus verständliche Sprache eines Wirtschaftsministers, der ja die Interessen von Industrie-, Gewerbe- und Tourismusbetrieben vertritt. Dies klingt ganz nach zielorientierter, angewandter Forschung, nach Lösungsansätzen für vorgegebene Probleme, deren Erfolge „unmittelbar“ meßbar/brauchbar sind. Die erkenntnisorientierte Grundlagenforschung läßt sich nicht in diesen Rahmen pressen, ist ja eine Reise ins Neuland. Gerade ihre Ergebnisse sind aber die Basis für Innovationen, für entscheidende Durchbrüche nicht nur in Hinblick auf eine prosperierende Wirtschaft eines Landes, sondern auch für das Wohlergehen unserer Gesellschaft und der unserer Nachkommen.

    Das Regierungsprogramm gibt vor, daß in den nächsten fünf Jahren Bundesmit­tel zur Anhebung der Forschungsquote verfügbar gemacht werden sollen – allerdings mit dem Zusatz „unter Maßgabe budgetärer Möglichkeiten“. Angesichts limitierter Ressourcen und eines starken Druckes zur Unterstützung der durch das Wirtschaftsministerium vertretenen forschenden Unternehmen (Motto: Sicherung von Arbeitsplätzen, Wirtschafts“entfesselung“), werden ökonomische Überlegungen einer schnell verwertbaren angewandten Forschung und Technologieentwicklung wohl den Vorzug geben vor einer (in den Augen vieler Beurteiler vielleicht nutzlosen) Grundlagenforschung.

    Für ein unabhängiges Wissenschaftsministerium!

    Wissenschaft und Forschung werden im Regierungsprogramm als elementare Stützen der gesamtstaatlichen Entwicklung Österreichs und seiner Potentiale gesehen und sollen langfristig abgesichert werden. Wenn dazu Rahmenbedingungen und strukturelle Voraussetzungen bestmöglich, wettbewerbsfähig und zukunftsorientiert gestaltet werden müssen, so ist dies wohl am zielstrebigsten in einem eigenen Ministerium, unter Führung eines mit dem akademischen Forschungsbetrieb bestvertrauten Leiters, zu bewerkstelligen. Die Nachordnung unter (vorwiegend) ökonomische Interessen schadet der Wissenschaft und den Wissenschaftern, ist eine Geringschätzung der wichtigsten Ressource, die unser rohstoffarmes Land aufzuweisen hat.


    Weiterführende Links

    Im ScienceBlog

    Josef Seethaler & Helmut Denk; 31.10.2013: Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?

    Josef Seethaler & Helmut Denk; 17.10.2013: Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme

    Franz Kerschbaum; 13.10.2011: Die Wissenschaftler sind ja selbst schuld

    Peter Schuster; 08.09.2011: Grundlagenforschung in Österreich: Förderung des wissenschaftlichen Nachwuchses

    Peter Schuster; 11.08.2011: Grundlagenforschung in Österreich: Rekrutierung von Spitzenkräften

    Peter Schuster; 21.07.2011: Grundlagenforschung in Österreich: Erkennen von Exzellenz

    Peter Schuster; 03.07.2011: Grundlagenforschung in Österreich: Exzellenzstrategie – Mehr als ein Lippenbekenntnis?

    Initiativen

    Österreich braucht ein WIssenschaftsministerium

    Für die Einführung des Ministeriums für Wissenschaft und Forschung

    Ein eigenständiges Wissenschaftsministerium für Österreich


     

    inge Fri, 20.12.2013 - 05:40

    Wider die Natur? — Wie Gene und Umwelt das sexuelle Verhalten prägen

    Wider die Natur? — Wie Gene und Umwelt das sexuelle Verhalten prägen

    Fr, 13.12.2013 - 06:19 — Gottfried Schatz

    Icon BiologieGottfried SchatzAuch im Tierreich gibt es nicht nur Heterosexualität. An der Fruchtfliege Drosophila lässt sich das gut studieren. Gegenüber voreiligen Schlüssen vom tierischen auf das menschliche Sexualleben ist allerdings Skepsis angebracht.

    «Wenn jemand beim Knaben schläft wie beim Weibe, die haben einen Greuel getan und sollen beide des Todes sterben; ihr Blut sei auf ihnen.» Der Nachhall dieses fast drei Jahrtausende alten biblischen Donnerworts aus Levitikus 20 ist auch heute noch nicht verstummt. Und da es auch die Liebe zwischen erwachsenen Männern verbot, hat es unzähligen von ihnen das Lebensglück geraubt. England liess noch 1835 Homosexuelle hinrichten; Hitlers Schergen deportierten und ermordeten Zehntausende von ihnen; und der berüchtigte Paragraf 175 des preussischen Strafrechts ahndete «Ausschweifung gegen die Natur» bis ins Jahr 1969. Erst 1997 setzte die Europäische Gemeinschaft im Vertrag von Amsterdam der gesetzlichen Ächtung homosexueller Menschen ein Ende. Auch die Zeit, als Psychiater Homosexuelle zu «heilen» versuchten, ist wohl endgültig vorbei.

    Gene und/oder Umwelt?

    Was bewegt Menschen zur gleichgeschlechtlichen Liebe? Sind es unsere Gene – oder ist es die Umwelt?

    Dass Gene eine wichtige Rolle spielen, zeigen Untersuchungen an Zwillingsbrüdern: Ist einer von ihnen homosexuell, dann ist die Wahrscheinlichkeit, dass es auch der andere ist, bei eineiigen (also genetisch identischen) Zwillingen etwa doppelt so hoch wie bei zweieiigen – und bei diesen wiederum doppelt so hoch wie bei nichtverwandten adoptierten Brüdern. Diese und andere Ergebnisse sprechen dafür, dass mehrere Gene im Spiel sind, dass auch die Umgebung eine Rolle spielt und dass es zwischen Hetero- und Homosexualität viele Zwischentöne gibt. Wir Menschen sind nur ein später Zweig am Lebensbaum – es finden sich urtümliche Vorläufer unseres Verhaltens oft in Tieren oder sogar Bakterien.

    Die Fruchtfliege Drosophila als Modell

    Nicht zuletzt gilt dies auch für sexuelles Verhalten. Bei der Fruchtfliege Drosophila melanogaster (Abbildung) ist dieses Verhalten streng stereotyp, weil dieses kleine Insekt nur hunderttausend Nervenzellen besitzt – lächerlich wenig im Vergleich zu den zehn Milliarden Nervenzellen eines Menschen. Dennoch ist auch bei Drosophila die Werbung Männersache – und das letzte Wort ein Vorrecht des Weibchens. Und auch bei Drosophila interessieren sich einige Männchen sowohl für Weibchen als auch für Männchen.

    Drosophila melanogasterAbbildung. Drosophila melanogaster – Männchen und Weibchen (Bild: Sarefo, Wikimedia Commons)

    Genmutationen aber auch Medikamente verändern sexuelles Verhalten

    Dieses bisexuelle Verhalten lässt sich durch Mutation einzelner Gene so verstärken, dass fast jedes Männchen beide Geschlechter mit gleicher Inbrunst umwirbt. Zwei dieser Gene entfalten ihre Wirkung bereits während der embryonalen Entwicklung, bei der sie Hunderte, wenn nicht Tausende untergeordneter Gene und damit die geschlechtsspezifische Ausbildung des Gehirns und anderer Körperteile steuern.

    Ein weiteres Gen erhöht die Konzentration des Nervensignalstoffs Glutamat im Gehirn und erhöht damit die Reizschwelle gewisser Nervenzellen, die geschlechtsspezifische Gerüche verarbeiten. Fällt dieses Gen durch Mutation aus, so sinkt die Glutamatkonzentration im Gehirn, die Glutamat-spezifischen Nervenzellen werden überempfindlich – und melden dann vielleicht nicht nur weibliche, sondern auch männliche Düfte als sexuellen Anreiz. Deshalb können auch Medikamente, die Glutamat-spezifische Nervenzellen künstlich anregen, in normalen Fliegen bisexuelles Verhalten auslösen.

    Attraktion zwischen Männchen wird aber offenbar auch von Nerven mitbestimmt, die auf das Gehirnhormon Serotonin ansprechen: Erhöht man die Konzentration dieses Hormons genetisch oder durch Medikamente, so werden nicht nur männliche Fliegen, sondern auch Rattenmännchen und Kater bisexuell.

    Fliegenweibchen sind in ihrer sexuellen Vorliebe offenbar viel gefestigter, denn ihre kompromisslose Vorliebe für das «starke Geschlecht» liess sich bisher weder durch Medikamente noch durch Mutation von Genen ins Wanken bringen. Allerdings sind Untersuchungen zur sexuellen Neigung der Weibchen viel schwieriger durchzuführen als bei den Männchen; die Weibchen könnten also noch für Überraschungen sorgen.

    Ein neues Gen unterdrückt Bisexualität

    Im Gegensatz zu Drosophila melanogaster ist bei vielen anderen Drosophila-Arten männliche Bisexualität häufig oder gar die Regel. Warum «duldet» die Natur dieses Verhalten, obwohl es nicht der Fortpflanzung dient? Drosophila melanogaster schneiderte vor zwei bis drei Millionen Jahren aus Teilen ihres Erbmaterials ein neues Gen, das die Männchen auf Weibchen fixiert. Pflanzt man dieses Gen Männchen anderer Drosophila-Arten ein, unterdrückt es auch deren Bisexualität.

    Auch eine Überzahl bisexueller Mutanten kann in «normalen» Drosophila-melanogaster-Männchen bisexuelles Verhalten auslösen. Diese Männchen folgen dabei offenbar nicht instinktiv einem aphrodisischen Duftbefehl ihrer bisexuellen Artgenossen, sondern ändern ihr sexuelles Verhalten erst im Verlauf von Stunden. Vermutlich müssen sie erst ihr Nervensystem oder andere Körperteile «umprogrammieren». Auch die Umwelt kann also bisexuelles Verhalten auslösen, wobei es noch offen ist, ob dieses erworbene Verhalten an die männlichen Nachkommen vererbt werden kann. Denkbar wäre dies, denn Umwelteinflüsse können die Struktur von Chromosomen so verändern, dass diese Veränderungen an die Nachkommen weitergegeben werden. Selbst für Fliegen sind Gene also nicht immer Schicksal.

    So faszinierend diese Ergebnisse auch sind – über die menschliche Homosexualität verraten sie uns nur wenig. Bisexualität ist nicht Homosexualität – und eine Fliege kein Mensch. Gene beeinflussen zudem das Verhalten von Fliegen und Menschen nicht unmittelbar, sondern über den Bau von Körperstrukturen, die dem Verhalten zugrunde liegen; und sie erfüllen diese Aufgabe meist als komplexe, aus vielen Genen gewirkte Netzwerke. Wir haben zwar die Buchstabenfolgen aller dreizehntausend Drosophila-melanogaster-Gene entziffert, kennen aber erst wenige, die das Paarungsverhalten der Fliege mitprägen. Bei uns Menschen ist das Rätsel noch weit grösser, besitzen wir doch zweimal mehr Gene und hunderttausendmal mehr Nervenzellen als Drosophila. Zudem können wir auch die Anweisungen unserer Gene viel freier interpretieren und unser Gehirn im Wechselspiel mit der Umwelt viel individueller prägen.

    Verschlungene Pfade

    Es wäre deshalb töricht und verantwortungslos, Bi- oder Homosexualität bei uns Menschen einfach als genetischen Imperativ abzutun – oder aber den Einfluss von Genen zu leugnen und die Ursache allein der Umwelt zuzuschreiben. Dass Gene menschliche Homosexualität mitbestimmen, steht ausser Zweifel, doch auch hormonelle Einflüsse während der embryonalen Entwicklung scheinen eine wichtige Rolle zu spielen. Und da der Hormonstoffwechsel einer werdenden Mutter – und damit auch der des Embryos – auf Umwelteinflüsse anspricht, werden die molekularen Auslöser menschlicher Homosexualität wohl noch lange im Dunkeln bleiben.

    Der Pfad von den Genen zum Verhalten ist bei uns Menschen verschlungener und wundersamer als bei Tieren und führt uns oft zu unerwarteten Ergebnissen. Wer wagte da zu behaupten, eines dieser Ergebnisse sei bei Tieren natürlich, bei uns Menschen jedoch «Sünde wider die Natur»? Dieser Sünde macht sich nur schuldig, wer uns nicht als Teil des Lebensbaumes, sondern als einmaliges Wunder der Schöpfung sieht. «Überall also liegen Vorbilder der menschlichen Handlungsweisen, in denen das Tier geübt wird; [. . .] sie [. . .] dennoch als Maschinen betrachten [zu] wollen, ist eine Sünde wider die Natur» – so Johann Gottfried Herder, vor mehr als zweihundert Jahren.


    Weiterführende Links

    Ein hervorragender Übersichtsartikel zu dem Thema (in Englisch): Bailey NW, M.Zuk: Same-sex sexual behavior and evolution. Trends in Ecology & Evolution, June 16, 2009 (free download) http://www.thestranger.com/images/blogimages/2009/09/14/1252958575-evolu...

    Schwule Tiere"Missbrauch durch die Politik" : http://www.zeit.de/online/2008/22/homosexualitaet-tiere-interview/komple.... Zeit Interview: Gut 500 Tierarten verhalten sich homosexuell. Rückschlüsse auf den Menschen lassen sich daraus aber kaum ziehen, sagt Verhaltensforscher Paul Vasey

    Der im Artikel angesprochene »Baum des Lebens« ist durchaus mehr als ein geflügeltes Wort. Wer an langen Winterabenden gerne herumschmökert, wird hier fündig: Tree of Life Web Project

     

    Im ScienceBlog-Artikel Das Leben ein Traum — Warum wir nicht Sklaven unserer Gene sind erläutert Schatz, inwiefern die Gene zwar wichtig, aber nicht allesbestimmend für die Ausprägung bestimmter Merkmale sind.


     

    inge Fri, 13.12.2013 - 06:19

    Das Ignaz-Lieben Projekt — Über Momente, Zufälle und Alfred Bader

    Das Ignaz-Lieben Projekt — Über Momente, Zufälle und Alfred Bader

    Fr, 06.12.2013 - 07:38 — Christian Noe

    Icon ChemieChristian NoeVor wenigen Tagen fand die Verleihung des Ignaz-Lieben Preises statt. Dieser prestigeträchtige, älteste Preis der Österreichischen Akademie der Wissenschaften wurde 1863 gestiftet und 1938 auf Grund der Verfolgung der Stifterfamilie eingestellt. Durch großzügige finanzielle Unterstützung von Isabel und Alfred Bader konnte der Preis 2004 reaktiviert werden. Der Chemiker Christian Noe war essentiell in diese Reaktivierung involviert; der nachfolgende Text ist die leicht gekürzte Fassung seines Vortrags zum heurigen 10-Jahresjubiläum der Preisvergabe.

    Unser Dasein scheint kontinuierlich dahinzufließen, manchmal gemächlich, manchmal in reißendem Fluss. Ganz selten sind jene besonders intensiv erlebten Momente, welche sich bildhaft im Kopf festsetzen - manchmal für die Dauer des ganzen Lebens. Von einige wenigen solcher unvergesslicher Momente soll hier die Rede sein, um das scheinbar zufällige Zustandekommen und den Ablauf des Lieben-Projektes zu schildern, das seinen Höhepunkt in der Wiedererrichtung des Ignaz-Lieben Preises vor 10 Jahren fand.

    Das Ignaz-Lieben Projekt ist ganz eng mit Alfred Bader verknüpft, jenem Mann der - als Kind aus Wien vertrieben - in einer schier unglaublichen Karriere das weltweit größte Feinchemieunternehmen geschaffen hat: Sigma-Aldrich. Es gibt kaum ein chemisches oder biologisches Labor in der Welt, in welchem sich nicht ein Katalog dieser Firma findet.

    Alfred Bader und das Loschmidt-Projekt

    Alfred Bader habe ich vor etwa 30 Jahren durch meinen Mentor Paul Löw-Beer kennengelernt.

    Alfred BaderAbbildung 1. Alfred Bader (Quelle: http://www.chemheritage.org)

    Einige Jahre später hat mich Alfred Bader gebeten in der Österreichischen Nationalbibliothek jenes weithin unbekannte Buch von Josef Loschmidt aus dem Jahre 1861 aufzustöbern, in welchem die erste Benzolformel abgebildet sein sollte [1]. Als ich das Buch aufschlug war ich perplex: Eine Abbildung des Äthylens war vor meinen Augen, dargestellt als Überlappung zweier Kohlenstoffatome, mit eingezeichneter Doppelbindung und den kleinen Wasserstoffatomen an den richtigen Positionen (siehe [2]: p. 198) – ein unvergesslicher Moment: Das sollte 1861 gezeichnet gewesen sein, lange bevor es auch nur die üblichen Strichformeln gab? Sei´s drum! Ich schickte die Kopien in die USA und Alfred Bader hielt – mit mir als Koautor - einen Vortrag bei der Jahrestagung der Amerikanischen Chemischen Gesellschaft „Loschmidt, not Kekule, published first benzene-ring diagrams“. Dies war der Beginn eines langen, gemeinsamen Weges, der in die Chemiegeschichte führte und Josef Loschmidt zum Mittelpunkt hatte.

    Der großartige Visionär Loschmidt stellte ein Faszinosum für den spontan bilderfassenden Eidetiker Alfred Bader dar [2]. Mir wiederum wurde durch diese Beschäftigung immerhin klar, weshalb Loschmidt seine Zahl errechnet hat [1], und dass er in der Vorbereitung dazu quasi nebenher in genialer Weise einen geradezu perfekten Entwurf zur Konstitution der organischen Moleküle vorgelegt hat.

    Alfred Bader trieb mich beharrlich an und hielt Vortrag um Vortrag: Für ihn war das Ganze auch ein Kampf gegen die Borniertheit von Chemiehistorikern. Josef Loschmidt musste einfach die ihm gebührende Anerkennung erhalten. Das Anliegen beherrschte ihn. Loschmidt wurde so zum Loschmidt-Projekt. 1995 zum 100 jährigen Todesjahr sollte ein Symposium stattfinden.

    Robert Rosners Weg zum Chemiehistoriker

    Ein weiterer unvergesslicher Moment: Ich stand an der Ecke Ring-Währingerstrasse. Wegen meiner anstehenden Berufung an die Universität Frankfurt musste ich eine Lösung für das Loschmidt-Projekt finden. Wilhelm Fleischhacker, damals Dekan der Naturwissen-schaftlichen Fakultät hatte sich bereit erklärt, die Schirmherrschaft über das Projekt zu übernehmen. Aber wer würde die notwendige wissenschaftliche Detailarbeit koordinieren? In diesem Moment tauchte aus der Tiefe der Rolltreppe Dr. Robert Rosner auf, der engste und treueste Mitarbeiter von Paul Löw-Beer in der Loba-Chemie. War das gar ein „deus ex machina“?

    „Wie geht es Ihnen?“

    „Ich bin jetzt in Pension.“

    „Was machen Sie jetzt?“ „Ich studiere Geschichte.“

    „Sie sind ein ausgezeichneter Chemiker. Sie sollten Chemiegeschichte studieren. Es gibt da ein ganz tolles Projekt, noch dazu gemeinsam mit Alfred Bader“.

    Rosner wurde ein Eckpfeiler des Loschmidt Symposiums 1995 und nebenher einer der profiliertesten österreichischen Chemiehistoriker.

    Die Geburt des Lieben-Projekts

    Ein nächster Moment, ca. 15 Jahre später: Zurückberufen in die Heimat, immer noch voller Sendungsbewusstsein und optimistischem Gestaltungswillen, hatte mich der Zufall zum Dekan der Fakultät für Naturwissenschaften und Mathematik der Universität Wien gemacht. Dr. Rosner besuchte mich im imperialen Büro:

    „Haben Sie schon etwas vom Ignaz-Lieben Preis (Abbildung 2) gehört?“

    „Nein!“

    „Der größte Preis der Akademie der Wissenschaften, von den Nationalsozialisten abgeschafft [3]. Man müsste ein Symposium dazu machen. Das ist aber nicht einfach zu finanzieren.“

    „Wen interessiert schon ein Symposium über einen nicht mehr existierenden Preis. Wenn schon, dann muss man den Preis wiedererrichten.“

    Stiftungsbrief des Ignaz-Lieben Preis (rechts: Ignaz-Lieben)Abbildung 2. Ignaz-Lieben Preis (benannt nach dem Gründer des Bankhauses Lieben, rechts): Stiftungsbrief datiert 1862, signiert von Adolf Lieben.

    Es kam spontan, von naivem Optimismus getragen. Das war der Beginn des Lieben-Projektes. Natürlich benötigten wir vor allem die Rückendeckung der Akademie der Wissenschaften. Peter Schuster, der damalige Vizepräsident, den ich persönlich kannte und als besonders konstruktiv schätzte, gab - wie erhofft - sofort die Zustimmung. Das Projektteam konnte aufgestellt werden.

    Ein Kern von „Aktivisten“ hatte sich schon im Zuge des Loschmidt Projektes gebildet. Hans Desser konnten wir als Generalsekretär gewinnen. Dr. Wolfgang Lieben-Sutter vertrat die Stifterfamilie. Die Chemiehistoriker waren u.a. mit Bobby Rosner, Werner Soukup und Gerhard Pohl präsent, für journalistische Kontakte war Reinhard Schlögel zuständig.

    Nicht nur der Preis selbst sollte wiedererrichtet werden. Es sollte auch Ausstellungen geben. Also fand sich auch Georg Haber, der Direktor des Jüdischen Museums, in unserer Runde. Die Ideen sprudelten nur so: Ein wissenschaftliches Symposium anlässlich der Eröffnung, künstlerische Portraits der Preisträger von Udo Wid, und sogar eine Lesung von Carl Djerassi.

    Wer aber wird den Lieben-Preis finanzieren?

    Wie immer im Juni, war Alfred Bader mit seiner Frau Isabel auch 2003 nach Wien gekommen. Wie üblich sollte es vor allem eine Woche des Beisammenseins mit alten Freunden und mit viel Kunst sein. Der Zufall wollte es, dass zeitgleich im Kleinen Festsaal der Universität eine Tagung stattfand: „Österreich und der Nationalsozialismus – Die Folgen für die wissenschaftliche und humanistische Bildung“. Bader ging mehrmals hin und war sichtlich beeindruckt. „Ich dachte, es gibt in Wien nur wenige anständige Freunde, der Rest verwurzelt in der braunen Vergangenheit. Aber die Jugend ist ganz anders. Ich will das Geld für die Wiederrichtung des Lieben-Preises geben.“

    Er sagte das spontan mit leichtem Lächeln und kam mir glücklich und irgendwie befreit vor. Ein vertriebener Jude als Stifter des neuen Lieben-Preises, rückblickend fast beschämend, voraussehend ein anhaltendes Zeichen des Sieges der Humanität über alle Gemeinheit hinweg.

    Ich musste Dr. Wolfgang Lieben-Seutter zum Kaffee nach Hause einladen. Alfred Bader, ganz schüchtern:

    „Erlauben Sie mir, dass ich das Geld für einen Preis gebe, welcher wieder den Namen Ihrer Familie trägt?“

    Ein Brautvater, den der Bräutigam mit einem Heiratsantrag für seine Tochter überrascht, konnte nicht verdutzter sein, als es Dr. Lieben war. Auch das: ein unvergesslicher Moment und Anblick – alle waren glücklich. Es galt noch einige Feinheiten festzulegen: Der Preis sollte über die Grenzen hinweg, auch in den anderen Ländern der ehemaligen Donaumonarchie, ausgeschrieben werden. Das Preisgeld sollte 18.000 Dollar – später 36.000 Dollar – betragen, wie beim alten Preis: Nicht ohne Grund: 18 - Chai: die Zahl, die bei den Juden für das Leben steht! Auch der Preis lebte wieder.

    Die Wiedergeburt des Lieben-Preises

    Die zahlreichen Veranstaltungen zur Wiedererrichtung verliefen wie geplant, samt einem Konzert im Wiener Konzerthaus. Beim Gespräch im Senatsaal der Universität trafen sich die beiden Schulkollegen Alfred Bader und Carl Djerassi – und redeten erstmals seit jener Zeit wieder in deutscher Sprache miteinander.

    Der erste neue Lieben-Preis wurde an den ungarischen Neurophysiologen Zoltan Nusser verliehen. Isabel und Alfred Bader nahmen zufrieden und glücklich an der Veranstaltung teil. Im Englischen gibt es den Ausdruck der „good chemistry“ zwischen Menschen. Eine solche bestand zwischen den Ehepaaren Bader und Mang, dem damaligen Präsidenten der Akademie. Auch das erwies sich als gute Fügung.

    und die Stiftung der Baderpreise

    Die Wien-Besuche der Baders in den nächsten Jahren waren eine Zeit voller positiver Dynamik. In fast logischer Konsequenz wurden die beiden Bader-Preise nacheinander ins Leben gerufen:

    • Der Bader Preis für Geschichte der Naturwissenschaften, inspiriert durch die Loschmidt-Forschung und
    • der Bader Preis für Kunstgeschichte, getragen von dem Wunsch des Stifters und genialen Experten für Barockkunst, dass diese in der Stadt des Barocks auch umfassend gewürdigt werden sollte.

    Bader - der Mäzen

    Das Triptychon der von Bader gestifteten Preise – ein Zufall? „Als zufällig bezeichnen wir eine Sache nur, wenn wir ihre Ursache nicht kennen.“ hat schon Baruch Spinoza in den Ethika geschrieben.

    Alfred Bader hat sein erfolgreiches Leben aus der Wissenschaft heraus entwickelt. Die Chemie hat ihm von Anfang an Halt gegeben und ihn zeitlebens begleitet. Der Lieben Preis soll daher den Besten ihres Faches den weiteren Berufsweg ebnen. Das war neben der großartigen Versöhnungsgeste sein eigentliches Motiv, das Preisgeld bereitzustellen.

    In der Chemiegeschichte wiederum hat der Industrielle Alfred Bader in späten Jahren wieder zu eigener Forschungsarbeit gefunden, mit dem Ziel zur historischen Wahrheit zu gelangen, dabei Wesentliches aufzuzeigen und zugleich einem großen Wissenschaftler Gerechtigkeit widerfahren zu lassen. Dieser Preis soll vor allem auch jüngere Naturwissenschaftler motivieren, sich mit der Geschichte und der gesellschaftlichen Bedeutung ihres Faches zu befassen.

    Der Preis für Kunstgeschichte scheint da zunächst nicht hineinzupassen: „Studiere die Wissenschaft der Kunst! Studiere die Kunst der Wissenschaft! Nimm wahr, dass alles mit allem anderen verbunden ist!“ heißt es allerdings schon bei Leonardo da Vinci. Die Liebe zum Sammeln, die Liebe zur Kunst sind gleichermaßen wie alles andere Tun von Alfred Bader Ausdruck einer intellektuellen Gesamtpersönlichkeit. Im Geschäftsleben handelt er beherrscht und scharf logisch denkend. Auf der anderen Seite vermag er durch seine besondere eidetische Begabung in Bruchteilen von Sekunden spontan Verborgenes in Bildern wahrzunehmen, das dem normalen Betrachter verschlossen bleibt.

    Das erfüllte und erfolgreiche Leben Alfred Baders ist somit zugleich auch eine Mahnung an Naturwissenschaftler, sich aus der Beschränktheit ihrer Disziplinen herauszubewegen.

    Die Ignaz-Lieben Gesellschaft zur Erforschung der Geschichte der Naturwissenschaften

    Das Ignaz-Lieben-Projekt war mit der Preis-Wiedererrichtung allerdings nicht ganz abgeschlossen. Die Idee einer engen Zusammenarbeit von Naturwissenschaftlern und Historikern sollte in einem Initiativkolleg der Universität weiterleben. Der Wissenschaftshistoriker Mitchell Ash, Professor an der Universität Wien, hat hier von Anfang an die Federführung übernommen, mit großem Erfolg das Initiativkolleg zur Bewilligung geführt und aus diesem mittlerweile ein großes FWF-Doktoratsprogramm entwickelt.

    Zusätzlich wurde 2006 die Ignaz-Lieben-Gesellschaft gegründet, deren Ziel eine umfassende Förderung und Dokumentation der Geschichte der Naturwissenschaften in Österreich und den angrenzenden Ländern der ehemaligen Donaumonarchie ist, wobei die gegenseitige Durchdringung von Wissenschaft, Gesellschaft, Politik und Kultur herausgearbeitet werden soll. Die systematische Zusammenarbeit von an Geschichte interessierten Naturwissenschaftlern mit professionellen Historikern bewährt sich, die Gesellschaft verweist auf ein sehr erfolgreiches Wirken. Parallel zur Lieben-Preisverleihung findet jährlich entweder ein Workshop oder ein Symposium statt, beispielsweise „Über die Wurzeln der Sexualhormonforschung“ (2008), in welchem Zeitzeugen vortrugen, „Zentraleuropäische Wissenschaft und Technologie im frühen 20. Jahrhundert“ waren Themen der folgenden Veranstaltungen. Auch das heurige Symposium knüpft mit „Wissenschaft, Technik, Industrie und das Militär in der Habsburgermonarchie im 1. Weltkrieg” an diese Themen an. welches vor zwei Wochen an der Technischen Universität stattfand, war ein Erfolg. Details zur Ignaz-Lieben-Gesellschaft und zu ihren Veranstaltungen finden sich auf der homepage: http://www.i-l-g.at/. .

    Vor nicht einmal 200 Jahren, hat der große Wortschöpfer William Whewell den Begriff „scientist“ als Bezeichnung für jene Naturphilosophen geprägt, welche ihre Wissenschaft auf das Messbare und Wägbare beschränken wollten. Letztlich ging es dabei um den aufkommenden grundsätzlich reduktionistischen Ansatz der Experimentalforschung, welcher mittlerweile den Triumph und die Dominanz der modernen Naturwissenschaften herbeigeführt hat. Die damals kreierten Fachdisziplinen - wie Physik, Chemie, Biologie - haben sich mittlerweile zu Wissenschaftsstämmen mit eigener Kultur entwickelt. Von manchen werden sie bereits als beengende Silos wahrgenommen. Heute ist es daher ein wichtiges Anliegen geworden, die reduktionistische Enge der Wissenschaftsdisziplinen aufzubrechen. Diese Forderung gilt nicht zuletzt auch für die unzeitgemäße Trennung von Geistes- und Naturwissenschaften. Mit ihrer verpflichtenden Zusammenarbeit von Geistes- und Naturwissenschaftlern kann die Lieben Gesellschaft dazu sicher einen Beitrag leisten.


    [1] Der Chemiker und Physiker Joseph Loschmidt (1821 - 1895), Professor an der Universität Wien. stellte in seinem 1861 erschienenen Buch „ Chemische Studien“ als erster Strukturformeln organischer Verbindungen dar - insgesamt von 368 Verbindungen -, wobei er für Benzol eine ringförmige Struktur vorschlug (4 Jahre vor Kekule, dem die Entdeckung des Benzolrings zugeschrieben wird). Loschmidt folgerte, daß die meisten aromatischen Verbindungen als Derivate des Benzols C6H6 angesehen werden können, ebenso wie die aliphatischen Verbindungen als Derivate des Methans CH4. Bekannt wurde Loschmidt vor allem durch die nach ihm benannte Konstante: der Zahl der Moleküle eines idealen Gases, die sich in einem definierten Volumen befinden.

    [2] A.Bader, Josef Loschmidt the father of Molecular Modelling . Royal Institution Proceedings 64 (1992), pp. 197–2–05. http://www.loschmidt.cz/pdf/father.pdf (link existiert nicht mehr)

    [3] Der Ignaz-Lieben-Preis - 1862 von Adolf Lieben gestiftet –wurde 1937 zum letzten Mal verliehen. Durch eine großzügige Stiftung von Alfred Bader konnte er 2004 zum ersten Mal wieder vergeben werden.


    Weiterführende Links

    http://www.i-l-g.at/PDF/dokumente/Lieben-Preis-2.pdf

    http://stipendien.oeaw.ac.at/de/geschichte-des-ignaz-l-lieben-preises

    Zur Preisvergabe 2013: http://www.oeaw.ac.at/deutsch/aktuell/presse/pressemeldungen/aktuelle-na...

    Sigma-Aldrich – weltweit größte, von Alfred Bader aufgebaute Feinchemikalienfirma: http://www.sigmaaldrich.com/customer-service/about-us/sigma-aldrich-hist...


     
    inge Fri, 06.12.2013 - 07:38

    Recycling & Wachstum — Vom Ursprung des Lebens bis zur modernen Gesellschaft.

    Recycling & Wachstum — Vom Ursprung des Lebens bis zur modernen Gesellschaft.

    Fr, 29.11.2013 - 08:56 — Peter Schuster

    Icon MINTPeter SchusterExponentielles Wachstum erschöpft sehr rasch und effizient die vorhandenen Ressourcen. Ist ein essentielles Reservoir entleert und eine Auffüllung nicht möglich, so stirbt die Mangel leidende Population aus. Dementsprechend liegt die einzige Möglichkeit mit raschem Wachstum zurecht zu kommen in der Wiederverwertung - dem Recyceln – von Material.

    Der britische Nationalökonom und Sozialphilosoph Robert Malthus (1766 - 1834) dürfte wohl der Erste gewesen sein, der sich mit den Konsequenzen auseinandersetzte, wenn Wachstum in Form einer geometrischen Progression* erfolgt. Konkret hatte er in einigen amerikanischen Kolonien, die über ausreichend Ressourcen verfügten, beobachtet, daß sich die Bevölkerung im Zeitabstand von jeweils 25 Jahren verdoppelte. In seinem „Essay on the Principle of Population” [1] stellte Malthus die These auf, dass sich die Population der Menschen in einer geometrischen Progression (1, 2, 4, 8, 16, 32, 64, 128…..) vermehrt, die Nahrungsmittelproduktion dagegen bestenfalls in arithmetischer Progression (linear; 1, 2, 3, 4, 5,6,…), dass es daher zu einer Auseinanderentwicklung von Lebensmittel-Nachfrage und Angebot kommen müsste. Als Konsequenz prognostizierte er eine steigende Verknappung der Lebensmittel, die zur fortschreitenden Verelendung der Bevölkerung, Hungersnöten, Krieg und Epidemien führen sollte.

    Ununterbrochenes, grenzenloses Wachstum – eine Vervielfachung durch Autokatalyse* - wird heute üblicherweise durch eine Exponentialfunktion* dargestellt, wobei dafür auch unlimitierte Ressourcen angenommen werden. Eine klassische Veranschaulichung bedient sich der Metapher von den Seerosen: Angenommen, Seerosen verdoppeln täglich die Fläche, die sie auf einem Teich bedecken. Wenn sie vor drei Tagen ein Achtel des Teichs bedeckt hatten und damit kaum sichtbar waren, hatten sie sich vor zwei Tagen auf ein Viertel, vor einem Tag bereits auf die Hälfte des Teichs ausgedehnt und nehmen heute die gesamte Oberfläche ein – eine Katastrophe, da sie damit Licht abhängiges Leben im darunter liegenden Wasser verhindern.

    Malthus hatte die einfache und nach wie vor gültige Voraussage gemacht, dass das Auseinanderdriften von Bevölkerungswachstum und Nahrungsmittelproduktion zu Hungerkatastrophen führen muss und nur durch Geburtenkontrolle in Schach gehalten werden kann (Abbildung 1).

    Malthus: Essay on the Principle of PopulationAbbildung 1. Essay on the Principle of Population. Robert Malthus veröffentlichte diese Abhandlung anonym im Jahre 1798 [1].

    Auch, wenn neue Technologien, wie beispielsweise die „grüne Revolution“ der 1960er und 1970er Jahre, zu nicht vorhersehbaren Steigerungen der Ernteerträge führten, änderten diese nichts an dem prinzipiellen Problem:

    Ein Mehr an verfügbarer Nahrung verursacht einen Anstieg in einer Population und zwar so lange, bis ein Grenzwert erreicht wird, an welchem die nun die vergrößerte Population zu hungern beginnt. Das Malthus-Modell zeigt Geburtenkontrolle als den einzig richtigen Ausweg aus dem Dilemma.

    Wachstum und Biologische Evolution

    Die biologische Evolution basiert darauf, dass sich die einzelnen Individuen in Populationen von Spezies multiplikativ vermehren und miteinander konkurrieren. Auch, wenn exponentielles Wachstum nur über eine limitierte Zeitspanne aufrecht erhalten werden kann, bleibt der Prozeß einer „Selection of the fittest“ der gleiche – ob es sich nun um eine wachsende, gleichbleibende oder sogar sinkende Population handelt, solange die Spezies nicht als Ganzes ausstirbt. Erfolgreiche Konkurrenz bei exponentiellem Wachstum gelingt nur Varianten, die exponentiell mit höherer Fitness oder solchen, die „hyperbolisch“ wachsen.

    Abbildung 2 illustriert unterschiedliche Formen von Wachstumskurven

    Grenzenloses Wachstum – Idealisierte FunktionenAbbildung 2. Grenzenloses Wachstum – Idealisierte Funktionen. Zu Beginn (Zeitpunkt: 0​) haben alle Funktionen den Wert: x(0​) = 1. Wachstum: i) hyperbolisch ( x(t) = 1 / (1-t) ; lila) ii) exponentiell (x(t) = expt; rot) iii) parabolisch (x(t)=(1+t/2)²; blau), iv) linear (x(t) = 1 + t; schwarz), v) sublinear (x(t) = 1+t/(1+t); blau), vi) logarithmisch (x(t) = 1+log(1+t); rot), sublogarithmisch (x(t) = 1+t/(1+t); lila). Im gelben Bereich erreicht das Wachstum den Wert „unendlich“ in endlicher Zeit, im grauen Bereich dagegen erst nach unendlicher Zeit und es bleibt endlich Im grünen Bereich auch nach unendlicher Zeitdauer.

    Hyperbolisches, exponentielles und parabolisches Wachstum verbrauchen sehr rasch und effizient die vorhandenen Ressourcen. Dementsprechend liegt die einzige Möglichkeit mit raschem Wachstum zurecht zu kommen in der Wiederverwertung - dem Recyceln – von Material: stärkeres Wachstum von Varianten mit begrenzter Lebensdauer führt zu einer erhöhten Absterberate und damit zu mehr an recycelbarer Substanz. Auch lineares Wachstum und das noch langsamere logarithmische Wachstum nähern sich der Unendlichmarke, wenn man unendlich lang wartet.

    In allen diesen Fällen ist Recycling also eine Voraussetzung für effizientes Wachstum aber keine ausreichende Bedingung – es können ja Ressourcen, wie beispielsweise Energie, dabei (vollständig) aufgebraucht werden.

    Nur die langsamste „sublogarithmische“ Form erreicht auch nach unendlich langer Zeit einen endlichen Grenzwert. Es erscheint wichtig darauf hinzuweisen, daß nur diese langsamste Form des Wachstums mit einem Reservoir an vorhandenen Ressourcen auskommen und über längere Zeit aufrechterhalten werden kann. Dieser Typ Wachstumskurve zeichnet sich dadurch aus, dass die Wachstumsraten mit zunehmender Dauer sinken.

    Jede Form grenzenlosen Wachstums – charakterisiert durch Wachstumskurven mit hyperbolischem, exponentiellem, parabolischem, linearen und sublinearem Verlauf – kann nur für begrenzte Zeitdauer andauern. Es muß hier nicht besonders betont werden, daß Ökonomen, die eine konstante Wachstumsrate predigen, in der einen oder anderen Weise einem Trugschluß unterliegen.

    Recycling ist ausreichend um Darwinsche Selektion in einer konstant bleibenden Population fortbestehen zu lassen und Grenzen der Populationsgröße können prinzipiell für alle Formen des Wachstums erzwungen werden – Recyceln der Ressourcen hilft dann die Populationen zu erhalten.

    Ursprung des Lebens – Autokatalyse - Recycling

    Theoretische und experimentelle Modelle zum Ursprung des Lebens konzentrieren sich üblicherweise auf ein oder mehrere der drei Kernpunkte, nämlich auf die

    i. Erzeugung, Speicherung und Erhaltung von Information in den Genen,

    ii. Aufnahme von Energie und Umwandlung zur Treibkraft von Stoffwechselprozessen,

    iii. Schaffung eines abgeschlossenen lokalen Umfelds durch Kompartimentbildung

    Basis der Darwin’schen Selektion und unabdingbar auch in den frühesten Phasen der Evolution - im Übergang von unbelebter zu lebender Materie - ist dann der autokatalytische Prozeß, der zur Vervielfachung der Spezies führt (s.o.). Der noch präbiotische Stoffwechsel muß die zentrale Hauptaufgabe lösen: die Produktion der Bausteine, aus denen die wichtigsten Biomoleküle, Proteine und Nukleinsäuren, hergestellt werden können - ein riesiges Reservoir an organischen Verbindungen in ein relativ kleines Set von Schlüsselmolekülen zu „kanalisieren“.

    In die Diskussion, wie ein derartiger früher Stoffwechsel ausgesehen haben könnte, ist erst in jüngster Zeit auch der Aspekt des Recycelns eingeflossen. Es bedeutet zweifellos einen Selektions-Vorteil, wenn in der Reaktion A + X → 2X das autokatalytische Produkt X zu einem weiteren Produkt D abgebaut wird, das in einem Energie-abhängigen Prozess wieder in den Ausgangsstoff A zurückverwandelt – recycelt - werden kann. Ein derartiges Recycling-System, das seine Energie aus photochemischen Reaktionen beziehen sollte, wurde bereits vor drei Jahrzehnten vorgeschlagen [2]. Interessanterweise bezieht die erste, mit eigenem Stoffwechsel ausgestattete Protozelle (das „Los Alamos Bug“) ihre Energie aus einer photochemischen Reaktion an einem Rutheniumkomplex.

    Offensichtlich ist Photochemie die geeignetste Taktik um energieabhängige Reaktionen zu ermöglichen: Licht als Energiequelle erscheint ja unerschöpflich. Lichtabhängige an Membranen gekoppelte Reaktionen dürften auch die ersten und bis jetzt effizientesten Wege gewesen sein, auf welchen präbiotische und frühe prokaryotische Zellen Energie „einfingen“ und in chemische Energie umwandelten [3]: Die ältesten uns bekannten Fossilien sind vermutlich Relikte ursprünglicher photosynthetischer Cyanobakterien [4]. Dazu kommt, daß photochemische Reaktionen hochspezifisch ablaufen und zu hohen Produktmengen führen können, vor allem, wenn die Quantenausbeute keine Rolle spielt.

    Bevölkerungswachstum und Recycling

    Kommen wir nun wieder auf unser ursprüngliches Problem zurück – die Ernährung einer exponentiell wachsenden Weltbevölkerung (Abbildung 3).

    Malthus, dessen Prognosen offensichtlich nicht eintrafen, konnte natürlich den technischen Fortschritt im vergangenen Jahrhundert, insbesondere die „Grüne Revolution“ nicht voraussehen. Auf Grund der Verwendung von modifizierten Pflanzen, synthetisch hergestellten Düngemitteln, Pestiziden, Bewässerungssystemen und der Mechanisierung der Feldarbeit sind die Ernteerträge weltweit enorm gestiegen und haben trotz der enorm gestiegenen Population den „Hunger in der Welt“ reduziert (aber nicht beseitigen können).

    Weltbevölkerung und ErnteerträgeAbbildung 3. Innerhalb der letzten 60 Jahre ist die Weltbevölkerung nahezu auf das Dreifache angewachsen. Gleichzeitig führte die „Grüne Revolution“ zur enormen Steigerung der Ernteerträge.

    Die Grundprobleme bestehen aber weiter. Das Bevölkerungswachstum setzt sich ungebrochen fort, die landwirtschaftliche Produktion verlangsamt sich, es gibt nur wenige neue, für den Ackerbau geeignete Gebiete, die Verstädterung reduziert zusätzlich landwirtschaftlich nutzbare Flächen. Dazu kommen alle die durch die Intensivwirtschaft verursachten negativen Effekte auf die Umwelt.

    Damit stellt sich die Frage, inwieweit Ressourcen/Rohstoffe langfristig zur Verfügung stehen werden und wie diese aus industriellen Abfällen wiedergewonnen werden können.

    Wertvolle Metalle lassen sich leicht recyceln, die meisten Metall erzeugenden Konzerne besitzen ein Repertoire an Verfahren, um jegliche Art von Metall aus Rückständen und Schlacken aufzureinigen, und sie wenden diese Verfahren an, wann immer die Preise auf dem Weltmarkt genug hoch sind.

    Hinsichtlich der landwirtschaftlichen Nutzung sind Verbrauch und Recycling zweier essentieller Elemente zu beachten, die eine conditio sine qua non für jegliches Leben darstellen: Stickstoff und Phosphor.

    Recycling von Stickstoff

    Gasförmiger molekularer Stickstoff (N2) ist ubiquitär, findet sich in unerschöpflichen Mengen in in unserer Atmosphäre. Allerdings kann Stickstoff in dieser Form weder von Pflanzen noch von Tieren verwertet werden, nur einige Bakterienstämme sind dazu in der Lage und produzieren daraus Stickstoff-haltige Moleküle, zum Nutzen aller anderer Organismen.

    Bis zum Beginn des 20. Jahrhunderts gab es nur zwei Formen von Techniken zur Gewinnung eines für uns verwertbaren Stickstoffs, durch Verwendung von: i) Leguminosen – d.i. Hülsenfrüchte –, die in Symbiose mit den Stickstoff-assimilierenden Bakterien der Spezies Rhizobium leben, und ii) Dünger aus Guano, dem Exkrement von Vögeln, welche auch heute noch in großen Kolonien die Inseln entlang der Küste von Peru und Chile besiedeln. Die Verwendung von Guano als Dünger bedeutet ein Recyceln des Stickstoffs, allerdings mit einer unglaublich langen Zykluszeit.

    Diese Situation änderte sich vollkommen, als zwei deutsche Chemiker, Fritz Haber und Carl Bosch, ein Verfahren erfanden, in welchem sie aus molekularem Stickstoff und Wasserstoff mit Hilfe eines Katalysators Ammoniak herstellen konnten. Auch, wenn dieses Verfahren äusserst viel Energie verbraucht, haben die aus dem synthetischen Ammoniak hergestellten Düngemittel den natürlichen Guanodünger praktisch vollständig ersetzt – vermutlich war dies die wichtigste Grundlage einer ausreichernden Nahrungsmittelproduktion für eine enorm gewachsene und weiter wachsende Weltbevölkerung. Die Relevanz der Ammoniaksynthese ist vielleicht am besten aus einer Abschätzung von Robert Horwath aus dem Jahr 2008 ersichtlich: dieser findet, dass bereits mehr als 80 % des in den menschlichen Proteinen eingebauten Stickstoffs eine Haber-Bosch Anlage von innen gesehen haben.

    Der Stickstoff-Zyklus ist ein hervorragendes Beispiel für ein Recycling mit einem riesigen Reservoir. Die Produktion von synthetischem, verwertbarem Stickstoff stößt praktisch an keine Grenzen außer an die der Energieversorgung und der Umweltprobleme auf Grund der intensivst betriebenen Landwirtschaft und der durch Düngemittel verursachten Verunreinigung von Wasser.

    Recycling von Phosphor

    Phosphor ist ein essentielles Element in unseren Biopolymeren, beispielsweise den Nukleinsäuren. Intensiver Ackerbau benötigt Phosphat-haltigen Dünger, darüber hinaus sind Phosphate unabdingbare Bestandteile moderner Waschmittel.

    Die herkömmliche Quelle für Phosphor sind phosphatreiche Mineralien (z.B. Apatit). Frühere Lagerstätten sind nun aber bereits weitgehend erschöpft, geeignete neue, mit geringer (Schwermetall-) Verunreinigung zunehmend schwerer zu finden. In Analogie zu dem häufig verwendeten Begriff „peak oil“ – also dem Ende des Erdöls - sprechen einige Experten schon vom „peak phosphorous“.

    Mittlerweile hat die Phosphor-Industrie Strategien entwickelt um Phosphate aus Abwässern zurückzugewinnen. Hier besteht aber ein gravierender Unterschied zum Recyceln von Stickstoff, der in reiner Form aus einem praktisch unerschöpflichen Reservoir erhalten wird: Die Rückgewinnung von Phosphaten erfolgt aus hochverdünnten Lösungen, die jede Menge Verunreinigungen enthalten, eine Aufreinigung von Phosphaten, die bereits in Flüsse oder gar ins Meer gelangt sind, ist ökonomisch praktisch nicht vertretbar.

    Fazit

    Exponentielles Wachstum erschöpft alle Reservoire an Ressourcen. Ist ein essentielles Reservoir entleert und eine Auffüllung nicht möglich, so stirbt die Mangel leidende Population aus. (Experimentelle Modelle zur präbiotischen Evolution haben hier ihre Schwachstellen.)

    Recyceln bietet eine Lösung des Problems, da die Menge des recycelten Materials mit der Menge an Autokatalysatoren gekoppelt ist und die Effizienz des Recyclingprozesses, zusammen mit anderen Faktoren, die Menge an Autokatalysatoren bestimmt, die aufrechterhalten werden kann. Dies gilt in gleicher Weise für die früheste („primordial“) Form der Autokatalyse, für die biologische Evolution der Spezies und ebenso für die Entwicklung der menschlichen Gesellschaften.


    [1] Robert Malthus: Eine Abhandlung über das Bevölkerungsgesetz oder eine Untersuchung seiner Bedeutung für die menschliche Wohlfahrt in Vergangenheit und Zukunft, nebst einer Prüfung unserer Aussichten auf eine künftige Beseitigung oder Linderung der Übel, die es verursacht (6. Auflage, aus dem Englischen übersetzt und frei abrufbar; Digitale Texte der Bibliothek des Seminars für Wirtschafts- und Sozialgeschichte, Uni Köln) http://www.digitalis.uni-koeln.de/Malthus/malthus_index.html

    [2] Schuster, P.; Sigmund, K. Dynamics of evolutionary optimization. Ber. Bunseges. Phys. Chem. 1985, 89, 668-682.

    [3] Lane, N.; Martin, W.F. The origin of membrane bioenergetics. Cell 2012, 151, 1406-1416.

    [4] Schopf, J.W. Fossil evidence of Archaean life. Phil.Trans.Roy.Soc.London B 2006, 361, 869-855.

    Eine ausführlichere Version dieses Essays (in Englisch) findet sich auf der homepage des Autors: http://www.tbi.univie.ac.at/~pks/Preprints/pks_365.pdf


    *Glossar

    Autokatalyse: Das Produkt (X) einer Reaktion ist ein Katalysator, der von ihm selbst katalysierten Reaktion: (A) + X → 2X. Da im Verlauf der Reaktion das Produkt - die Menge des Katalysators - ansteigt, nimmt die Geschwindigkeit der Reaktion exponentiell zu.

    Arithmetische Progression: Zahlenfolge, in der aufeinanderfolgende Zahlen sich um denselben Betrag erhöhen, z.B. um 1: 1, 2, 3, 4, 5, 6,…..

    Geometrische Progression: Zahlenfolge, in der aufeinanderfolgende Zahlen in einem konstanten Verhältnis stehen, also mit demselben Faktor multipliziert werden; z.B. mit dem Faktor 2: 2, 4, 8, 16, 32, 64,….

    Exponentialfunktion: In gleich langen Zeitintervallen ändert sich der Funktionswert um denselben Faktor: y = aX (a: Basis, x: Exponent), beispielsweise beträgt bei einer Basis 2 der Funktionswert nach 1, 2, 3, 4, 5, 6 Zeitintervallen: 21, 22, 23, 24, 25, 26,………also: 2, 4, 8, 16, 32, 64,….Der Verlauf natürlicher Prozesse des Wachstums und auch des Zerfalls (z.B. des radioaktiven Zerfalls) wird am besten durch eine Funktion mit der sogenannten natürlichen Basis e, der von Leonhard Euler eingeführten Zahl = 2,7182….dargestellt, also f(x) = ex.


    Weiterführende Links

    Nur noch Stehplätze. Thomas Robert Malthus: Das Bevölkerungsgesetz (Christoph Neßhöver 1999, Zeit online) http://www.zeit.de/1999/21/199921.biblio-serie_.xml

    Bevölkerungswachstum: Die Welt ist nicht genug (M. Becker, Spiegel Online 2011). http://www.spiegel.de/wissenschaft/mensch/bevoelkerungswachstum-die-welt-ist-nicht-genug-a-794203.html


     

    inge Fri, 29.11.2013 - 08:56

    Forschungszentrum – Reparaturwerkstatt – Gewebefarm. — Das Ludwig Boltzmann Institut für Experimentelle und Klinische Traumatologie

    Forschungszentrum – Reparaturwerkstatt – Gewebefarm. — Das Ludwig Boltzmann Institut für Experimentelle und Klinische Traumatologie

    Fr, 22.11.2013 - 05:01 — Heinz Redl

    Icon Medizin Heinz RedlMit dem Ziel die diagnostischen und therapeutischen Maßnahmen in Unfallchirurgie und Intensivmedizin zu verbessern, wurde 1980 das Ludwig Boltzmann Institut für Experimentelle und Klinische Traumatologie gegründet. Bahnbrechende Innovationen im Bereich der regenerativen Medizin und der Behandlung von Schock und Sepsis und deren erfolgreiche Anwendung an Patienten haben der Institution weltweite Anerkennung gebracht. Heinz Redl ist seit 15 Jahren Leiter dieses Instituts, das Grundlagenforschung mit angewandter Forschung und translationaler Medizin verknüpft.

    Die Grundlagen für derartige Heilerfolge stammen aus der traumatologischen Forschung, der „Wissenschaft von Verletzungen und Wunden sowie deren Entstehung und Therapie“. In diesem, bei uns seit dem Beginn der 1970er Jahre etablierten Gebiet leistet Österreich weltweite Pionierarbeit, liefert bahnbrechende Entwicklungen und beispielgebende Resultate.

    Altgriechische Traumatologie: Achilleus bandagiert den Arm seines verletzten FreundesAbbildung 1. Altgriechische Traumatologie: Achilleus bandagiert den Arm seines verletzten Freundes Patroklos (Vasenmalerei 5 Jh AC)

    40 Jahre Traumaforschung in Österreich

    Entsprechend der für sie im Gesetz festgelegten Verpflichtung, die ständige Verbesserung der Behandlung von Patienten zu gewährleisten, hat die Allgemeine Unfallversicherungsanstalt (AUVA) bereits 1973 ein Forschungsinstitut für Traumatologie eingerichtet, das zusammen mit dem 1980 gegründeten Ludwig Boltzmann Institut für experimentelle und klinische Traumatologie (LBI Trauma) das Forschungszentrum für Traumatologie bildet und im Wiener Unfallkrankenhaus Lorenz Böhler angesiedelt ist. Im Jahr 1998 wurde zur Unterstützung die non-profit Organisation Trauma Care Consult eingegliedert.

    Eine Aussenstelle wurde im Jahr 2003 in Linz errichtet, die in Kooperation mit der Blutbank des oberösterreichischen Roten Kreuz betrieben wird und sich der Gewinnung und Erforschung von humanen, adulten Stammzellen widmet.

    Das LBI Trauma: „vom Labortisch zum Krankenbett“

    Das Ziel der Arbeiten am LBI Trauma ist es die diagnostischen und therapeutischen Maßnahmen in Unfallchirurgie und Intensivmedizin zu verbessern. Dies erfolgt einerseits durch eigene Forschungsprojekte im Bereich der Geweberegeneration und Polytrauma/Schock/Sepsis, aber auch durch Evaluation und praktische Anwendung internationaler Forschungsergebnisse.

    Forschungsmaxime ist dabei die Verbindung von experimenteller Forschung und klinischer Anwendung „vom Labortisch zum Krankenbett“- die sogenannte translationale Forschung. Durch eine enge interdisziplinäre Zusammenarbeit präklinischer und klinischer Experten-Teams gehen gesicherte Ergebnisse aus der Grundlagenforschung rasch und direkt in die Anwendung über und kommen speziell Unfall-Patienten zugute.

    In diesem Sinne „versorgt“ das LBI Trauma die 7 Unfallkrankenhäuser und 4 Rehabilitätszentren der AUVA mit den Ergebnissen seiner Forschung und Entwicklungen (Abbildung 2).

     Die 7 Unfallkrankenhäusern und 4 Rehabiltationszentren der AUVAAbbildung 2. Forschung für rund 4,7 Millionen Versicherte. Neueste medizinische Kenntnisse und Methoden werden in den 7 Unfallkrankenhäusern und 4 Rehabiltationszentren der AUVA zur Behandlung von jährlich rund 375 000 Verletzten eingesetzt.

    Das Team des LBI besteht zur Zeit aus rund 80 Personen - aus Chemikern, Biochemikern, Ärzten, Tierärzten, Physikern, Medizin- und Elektrotechnikern. Auf Grund dieser multidisziplinären Zusammensetzung ist es möglich ein sehr großes Spektrum angewandter Forschung abzudecken.

    Das LBI Trauma ist in fächerübergreifenden Kooperationen in vielen Gebieten der Humanmedizin engagiert und an zahlreichen österreichischen und europäischen Forschungsprojekten beteiligt (u.a. GENAU und EU-Projekte Angioscaff, BIODESIGN)

    Eine Kooperation mit der Medizinischen Universität Wien, der Bernhard Gottlieb Universitätszahnklinik und dem Oberösterreichischen Roten Kreuz hat 2006 zur Gründung des österreichischen Forschungsclusters für Geweberegeneration geführt, in welchem das LBI die zentrale Rolle spielt. Dieser Cluster führt in einer gemeinsamen Forschungsstruktur das interdisziplinäre Forscherteam des LBI und Spezialisten für bildgebende Verfahren (z.B. Hochfeld Magnet Resonanz) zusammen mit klinischen Experten für die Regeneration von Knochen, Gelenken und Nerven. Das Ziel dieses Forschungsclusters ist ein besseres Verständnis der Regeneration von Weichteilen, Knorpel, Knochen und Nerven und - darauf aufbauend - neue und verbesserte Behandlungsmethoden.

    Erfolg und internationale Reputation des Forschungszentrums werden nicht nur durch die Anzahl an wissenschaftlichen Publikationen (über 1200 seit 1980), Monographien und Patentfamilien dokumentiert, sondern auch durch die Rolle in den internationalen Fachgesellschaften, die es durch die Organisation großer internationaler Fachkongresse in Wien erlangt hat, beispielsweise des dritten Weltkongresses der Tissue Engineering & Regenerative Medicine Society (TERMIS) im September 2012, die den Autor zu ihrem europäischen Präsidenten gewählt hat.

    Das Institut ist auch in der Aus- und Weiterbildung von Ärzten, Studenten und PostDocs involviert und veranstaltet Lehrgänge in Partnerschaft mit dem Technikum Wien (" Tissue Engineering and Regenerative Medicine"), der TU Wien ("Biomedical Engineering") sowie der Medizinischen Universität Wien ("Regeneration of Bone and Joint").

    Finanziert wird das LBI Trauma von der AUVA und der Ludwig Boltzmann Gesellschaft, darüber hinaus auch direkt über Projekte aus der Industrie und der Europäischen Union.

    Forschungsschwerpunkte des LBI

    Die beiden großen Forschungsbereiche am LBI Trauma sind Geweberegeneration und Intensivmedizin. Daneben bietet das Institut als Service für klinische Mediziner Ausstattung und Methoden, die es erlauben Forschungsfragen in der Unfallchirurgie kompetent zu bearbeiten. Ein Überblick über die Forschungsbereiche und Projekte ist in Abbildung 3 gegeben. Forschungsbereiche und Projekte des LBI TraumaAbbildung 3. Forschungsbereiche und Projekte des LBI Trauma. Details zur Organisation der Bereiche und einzelnen Projekte: siehe http://trauma.lbg.ac.at/

    Schwerpunkt: Geweberegeneration

    Ein Zugang zur Geweberegeneration ist es, die Wundheilung durch den Einsatz von Wachstumsfaktoren oder speziellen Wundverbänden zu beschleunigen.

    Ein anderer Zugang beruht auf der Möglichkeit Stammzellen zu verwenden, die aus verschiedenen Quellen, wie zum Beispiel aus dem Knochenmark, dem Fettgewebe, der Plazenta oder der Nabelschnur gewonnen werden können. Diese Stammzellen können entweder mit Hilfe von Wachstumsfaktoren oder mechanischer Stimulierung oder einer Kombination von beiden in vitro oder in vivo in die gewünschte Zellart differenziert werden. Die Zellen werden dann in spezifischen Trägerstrukturen („Scaffolds“) oder Hydrogele eingebracht, die biochemisch stabil und biokompatibel und zusätzlich biologisch abbaubar sein müssen.

    Der Verbund aus Zellen und Trägerstrukturen wird in passende Modelle implantiert oder injiziert und dort auf Biokompatibilität geprüft und die regenerative Kapazität gemessen. Bei Haut können spezielle Belastungs-/Dehnungstests durchgeführt werden, bei Knochen und Osteosynthesematerialien stehen verschiedene biomechanische Tests und morphologische Methoden zu Verfügung.

    Blutstillung (Hämostase). Neben der Weiterentwicklung der Gewebeklebung mit Fibrin werden neue Methoden zum Stoppen von Blutungen erforscht. Ein großes Problem stellen Gerinnungsstörungen bei der Versorgung von Schwerverletzten dar, die mit massiven Blutungen einhergehen und zu einer deutlich erhöhten Mortalität führen.

    Knochenregeneration. Hier geht es um die Entwicklung neuer und die Verbesserung existierender Behandlungsverfahren (Ersatzmaterialien und Implantatoberflächen) und die Untersuchung aktueller Therapiekonzepte im Hinblick auf ihre Effizienz und ethische Vertretbarkeit in der Praxis. Grundlagenforschung und optimierte biomechanische und histologische Methoden unterstützen die Arbeit des Teams.

    Neurogeneration. Der Bereich der Neuroregeneration beschäftigt sich mit den kritischsten Ereignissen von Traumapatienten und ist daher in zwei spezialisierte Teams gegliedert:

    Das erste Team befasst sich mit Rückenmarksverletzungen (d.i. mit dem Zentralnervensystem), wobei das Hauptaugenmerk bei speziellen bildgebenden Verfahren, den molekularen Mechanismen und den therapeutischen Aspekten liegt, um Sekundärschäden nach einer Rückenmarksverletzung zu reduzieren.

    Das zweite Team beschäftigt sich mit der Regeneration peripherer Nerven und der Reinnervation ihrer Zielorgane (wie zB. der Muskulatur). Es werden sowohl experimentelle wie auch klinische Studien durchgeführt um eine Verbesserungen der Regeneration peripherer Nerven und der mikrochirurgischen Nervennahttechnik zu erreichen. Auch sind die Verbesserung der funktionellen Endergebnisse durch die Nützung und Verstärkung der Plastizität des Gehirnes Teil dieser Forschung. Können Nervendefekte nicht direkt „genäht" werden, so werden diese mit Zell - besiedelten und Wachstumsfaktor - versetzten bioresorbierbaren künstlichen Nerven-Transplantaten überbrückt.

    Knorpel-/Sehnenregeneration. Im Bereich Knorpel und Sehnen wird an der Verbesserung der Regeneration, nach einem Trauma, durch neue Kombinationen von Zellen, Biomaterialien und Wachstumsfaktoren beziehungsweise mechanischer Stimulierung gearbeitet. Ziel ist das Austesten neuer Methoden und die Überführung in die klinische Anwendung, wobei vor allem bildgebende Verfahren zur Qualitätskontrolle eingesetzt werden sollen.

    Schwerpunkt: Intensivmedizin

    Dieser Forschungsbereich versucht die wesentlichen pathologischen Vorgänge aufzuklären, die der Sepsis und dem septischen Schock zugrunde liegen. Zum Einen vermag das Blutgefäß-system die Organe nicht mehr ausreichend zu durchbluten und zum Anderen vermögen die Zellen nicht mehr ausreichend Sauerstoff aus dem Blut aufzunehmen.

    Die Forschungsziele sowohl experimentell als auch klinisch im Bereich von Schock und Trauma umfassen das Verständnis der zugrundeliegenden Mechanismen. Dazu zählt vor allem die Aufklärung der molekularen Mechanismen, die das Entzündungsgeschehen und Organversagen im septischen Schock verursachen. Das Hauptaugenmerk gilt dabei auf den so genannten reaktiven Sauerstoff Spezies (ROS), Stickstoffmonoxyd (NO), verschiedenen Übergangsmetallen, sowie wichtigen pro- and anti-entzündlichen Mediatorstoffen, die an den pathologischen Veränderungen bei Sepsis und in Folge beim Organversagen beteiligt sind.

    Ein weiterer wichtiger Aspekt ist die Untersuchung der durch Sepsis ausgelösten Funktionsänderungen und Schädigungen an Zellen und subzellulären Organellen. Damit wird versucht, Einblicke in die Kausalkette der Vorgänge zu bekommen, die letztlich zum (multiplen) Organversagen und zum Tod führen kann. Das Hauptaugenmerk dabei liegt auf den Mitochondrien und ihrer Funktion unter septischen Bedingungen.

    Angestrebt wird eine maßgeschneiderte Therapie („personalisierte Medizin“), die vom individuellen Immunstatus des Patienten ausgeht und sensitive Nachweismethoden zur Diagnose, Planung und Überwachung individueller therapeutischer Maßnahmen anwendet.

    Reparieren und/oder regenerieren. Auf dem Weg zum künstlich hergestellten Organersatz

    Mit der Weiterentwicklung des „Fibrinklebers“ hat das Institut Geschichte geschrieben. Wo früher Blutgefäße oder Gewebeteile genäht wurden, wird heute weltweit geklebt. Die Möglichkeiten und Vorteile dieses für jegliche „Reparaturen“ – Blutstillung, Verschluß von verletzten Gewebeteilen, Wundheilung, etc. – essentiellen Verfahrens sollen demnächst in einem eigenen Artikel: „Kleben statt Nähen“ dargestellt werden.

    Wenn heute die volle Funktionsfähigkeit von kranken, verletzten bis hin zu zerstörten Organ(teil)en wieder hergestellt werden soll, kann dies im Prinzip durch gezielte Züchtung von körpereigenen Geweben – Tissue Engineering – bereits bewerkstelligt werden. Derartige Züchtungen basieren auf menschlichen Zellen, welche die in Frage stehenden Gewebe – Knochen, Sehnen, Knorpel, Haut, etc. – zu regenerieren vermögen. Diese Zellen werden auf eine Trägerstruktur aufgebracht und durch mechanische Reize oder biologische Stimuli (z.B. Wachstumsfaktoren) zur Vermehrung angeregt. Stammzellen, vor allem aus dem Fettgewebe des betroffenen Patienten, sind hervorragend für derartige Züchtungen geeignet. Als Trägerstruktur dienen biologische Materialien wie humanes Fibrin oder Seiden-Fibroin.

    Diese Methode wird bei uns beispielsweise für schwere Knieverletzungen, wie den Kreuzbandriß, entwickelt: Eine Trägerstruktur aus Seidenfibroin wird mit Stammzellen besiedelt und – in Kooperation mit der TU Wien - im Bioreaktor gedehnt und gedreht, wie dies unter natürlicher Belastung der Fall ist. Die Trägerstruktur weist die Stabilität, Reißfestigkeit und Beweglichkeit eines natürlichen Kreuzbandes auf und kann, in das Kniegelenk eingesetzt, sofort mechanisch belastet werden. Innerhalb weniger Monate haben die Stammzellen dann ein neues, natürliches und belastbares Band generiert und die Trägerstruktur wurde vom Körper abgebaut. Dieses im Tiermodell bereits erprobte Verfahren soll in Kürze an Patienten getestet werden.

    Kombinationen von Zellen auf Trägern mit wachstumsfördernden Maßnahmen, wie Wachstumsfaktoren und/oder mechanischen Reizen (z.B. Stroßwellen), erbringen Verbesserungen in der Regeneration von Nerven und ihrer Funktionalität. Mit derartigen Systemen könnten beispielsweise Erfolge bei Querschnittsgelähmten erzielt werden. Stoßwellentherapie wird übrigens bereits seit längerer Zeit in der Therapie von schlecht heilenden Knochenbrüchen und chronischen Wunden eingesetzt.

    Die Vision in Zukunft verletzte oder auch altersbedingt veränderte Gewebe nicht nur reparieren sondern mittels künstlich hergestellter Produkte auch regenerieren zu können, erscheint durchaus plausibel.


    Weiterführende Links

    Webseite des LBI Trauma: http://trauma.lbg.ac.at/de/
    Video über das LBI Trauma: http://www.meetscience.tv/episode/LBI_Trauma 7:12 min
    Webseite der Allgemeinen Unfallversicherungsanstalt: http://www.auva.at/mediaDB/754204_Alles%20aus%20EINER%20Hand.pdf


     

    inge Fri, 22.11.2013 - 05:01

    Formaldehyd als Schlüsselbaustein der präbiotischen Evolution — Monade in der Welt der Biomoleküle

    Formaldehyd als Schlüsselbaustein der präbiotischen Evolution — Monade in der Welt der Biomoleküle

    Fr, 15.11.2013 - 06:07 — Christian Noe

    Icon ChemieChristian NoePhysik und Chemie reichen aus, um die Entstehung der großen Klassen der Biomoleküle ( der Kohlehydrate, Lipide, Aminosäuren, Nukleinsäuren) aus den in der Uratmosphäre vorhandenen Molekülen zu erklären. Das kleine Molekül des Formaldehyds war auf Grund seiner ihm innewohnenden Reaktivität in der Lage ein nahezu vollständiges Set an präbiotischen Biomolekülen aufzubauen.

    Die Monaden wovon wir allhier reden werden, sind nichts anders als einfache Substanzen woraus die zusammen gesetzten Dinge oder composita bestehen. Unter dem Wort einfach verstehet man dasjenige welches keine Teile hat….. Und diese Monaden sind die wahrhaften Atomi der Natur und mit einem Worte die Elemente derer Dinge. Gottfried Wilh. von Leibnitz. Lehrsätze über die Monadologie, 1714

    Gottfried Wilh. von Leibnitz. Lehrsätze über die Monadologie, 1714

    Beginnend mit den Pythagoräern, über Gordano Bruno und Gottfried Leibniz bis hin in unsere Zeit verwenden Philosophen den Begriff Monade – abgeleitet vom griechischen „monas“: die Einheit - um „elementare Einheiten“ zu beschreiben, aus denen die Erscheinungen der Wirklichkeit zusammengesetzt sind. Auch, wenn Bedeutungen und Deutungen der Monaden unterschiedlich ausfallen, so ist es deren gemeinsames Charakteristikum , daß sie nicht nur kleinste physische Einheiten, sondern auch deren Funktionen definieren.

    Ein „verstaubter“ Begriff in der modernen Biologie?

    Unsere heutige Zielsetzung strebt an Lebensformen in holistischer Weise als Systeme (systembiologisch) erfassen und verstehen zu wollen. In diesem Sinne erscheint die Metapher „Monade“ durchaus passend:

    in einem derartigen sytembiologischen Ansatz steht die Monade dann für die kleinste Einheit, welche im Kern bereits die Anlage für das Funktionieren des ganzen Systems enthält.

    Auf Biomoleküle angewandt wäre eine Monade ein kleinstes Biomolekül, dessen ureigene Reaktionsbereitschaft ausreicht um ein anfängliches („primordial“) metabolisches System aufzubauen, aus welchem sich in Folge das eigentliche Stoffwechselsystem entwickeln kann. Dieses stellt neben der Kompartmentalisierung, der Aufrechterhaltung eines stationären Zustands (einer Homöostase) und der Reproduktion eines der funktionellen Charakteristika lebender Organismen dar.

    Wie Untersuchungen auch aus unseren Forschungslabors während der letzten drei Jahrzehnte zeigten*, ist das kleine, aus vier Atomen bestehende Molekül des Formaldehyds auf Grund seiner ihm innewohnenden Reaktivität in der Lage ein nahezu vollständiges Set an präbiotischen Biomolekülen aufzubauen.

    Formaldehyd und die Uratmosphäre

    Von den sechs wichtigsten chemischen Elementen aus denen unsere Biomoleküle zusammengesetzt sind - Kohlenstoff (C), Wasserstoff (H​), Sauerstoff (O), Stickstoff (N), Phosphor (P) und Schwefel (S​) – enthält Formaldehyd drei Elemente C, H und O. (Abbildung 1). Kohlehydrate – d.i. vor allem Zucker und Stärke –, die aus eben diesen Atomen bestehen, sind offensichtlich aus der Kondensation von Formaldehyd-Molekülen hervorgegangen.

    FormaldehydAbbildung 1. Chemische Struktur des Formaldehyds. Im Kugel-Stab-Modell (rechts oben) sind die Atome als Kugeln und die Bindungen als Stäbchen maßstabgerecht dargestellt.

    In der Uratmosphäre lagen die Elemente C, H, O und N vorwiegend in der Form der Moleküle CO2, H2O und N2 vor, daneben auch als Methan (CH4), Ammoniak (NH3) und Wasserstoff (H2). (Diese Moleküle finden sich beispielsweise auch in vulkanischer Asche.) Die Frage ob auch bereits Formaldehyd zur Verfügung stand, wird durch die Tatsache bestätigt, daß Formaldehyd als eine der am häufigsten vorkommenden chemischen Verbindungen im interstellaren Raum und als eine Hauptkomponente im Eis der Kometen nachweisbar ist und daß er experimentell, in Versuchen, die diverse präbiotische Bedingungen simulieren, aus unterschiedlichen Gasgemischen entsteht. (Dazu gehören die berühmten Versuche von Stanley Miller und Harold Urey in den 1950er Jahren, in denen aus den Gasen NH3, H2, CH4 und Wasserdampf mit Hilfe elektrischer Entladungen eine „Ursuppe“ organischer Verbindungen - von Formaldehyd und Hydrogencyanid (HCN) bis hin zu Aminosäuren – erzeugt wurde.)

    Vom Formaldehyd zu den Biomolekülen

    Seit der Entdeckung vor rund 160 Jahren wurde die Reaktion des Formaldehyds mit sich selbst – die sogenannte Formose-Reaktion - intensivst untersucht - einerseits unter dem Aspekt eine neue Quelle zur Erzeugung von Nährstoffen generieren zu können, andererseits um die Rolle des Formaldehyds in der präbiotischen Evolution aufzuklären.

    Erste Analysen der aus der Formose Reaktion hervorgegangenen Produkte zeigten, daß aus Formaldehyd ein überaus komplexes Reaktionsgemisch entsteht, in welchem auch biologisch relevante Zucker, wie z.B. Glukose, vorkommen. In der weiteren Folge wurden die Mechanismen, die den einzelnen Schritten in dem Gesamtprozeß zugrundeliegen, aufgeklärt:

    Der erste Schritt – die Kondensation von 2 Formaldehyd Molekülen – führt zum sogenannten Glykolaldehyd, der als einfachster Zucker („Diose“) betrachtet werden kann. Der Mechanismus dieser Reaktion basiert auf der Fähigkeit des Formaldehyds seine Partial-Ladungsverteilung so „umzupolen“, daß der Kohlenstoff eines Moleküls an den Kohlenstoff eines zweiten Moleküls addiert, eine C-C Bindung entsteht.

    Der Weg zu den Kohlehydraten

    Aus Glykolaldehyd entstehen durch Selbstkonstituierung Zuckermoleküle: 3 Moleküle ergeben Zucker mit einem Gerüst aus 6 C-Atomen, die sogenannten Hexosen, zu denen u.a. Glukose („Traubenzucker“), Galaktose und Mannose gehören. Ein typisches Ergebnis einer derartigen Trimerisierung ist in Abbildung 2 aufgezeigt. Das Produktgemisch verschiebt sich dabei mit fortschreitender Reaktionszeit hin zur Glukose als Hauptprodukt.

    Selbstkondensation von GlykolaldehydAbbildung 2. Typischer Verlauf der Selbstkondensation von Glykolaldehyd (nur Hauptprodukte sind gezeigt). Reaktion in Äther unter alkalischen Bedingungen, bei Raumtemperatur. Details: siehe CR Noe et al., 2013.

    In Gegenwart von Formaldehyd bilden sich aus Glykolaldehyd Zucker mit einem Gerüst aus 5 C-Atomen, die sogenannten Pentosen, wobei als Hauptprodukt zunächst Ribose entsteht – einer der essentiellen Bausteine der Nukleinsäuren -, und das Gleichgewicht sich in der Folge langsam zum Holzzucker Xylose verlagert.

    Vom Formaldehyd zur ersten Aminosäure

    Die oben erwähnte Fähigkeit des Formaldehyds zur „Umpolung“ seiner Ladungsverteilung kann auch eine Verknüpfung des Formaldehyds-Kohlenstoffs mit anderen Molekülen der Uratmosphäre bewirken, wie dem Ammoniak oder Hydrogencyanid, und damit zum Selbst-Aufbau der Aminosäuren führen.

    Die Addition von Cyanid an Formaldehyd führt zur Bildung eines sogenannten Cyanohydrins, welches – hydrolysiert – Glykolsäure, die einfachste alpha-Hydroxycarbonsäure ergibt. Zusätzliche Addition von Ammoniak führt nach Hydrolyse zur einfachsten Aminosäure, dem Glycin.

    Ebenso wie der ubiquitäre Formaldehyd sind auch Glykolaldehyd und weitere organische Verbindungen im interstellaren Raum vorhanden: Als der Murchinson Meteorit 1969 auf die Erde fiel, ergab die chemische Analyse, daß er 18 Aminosäuren enthielt.

    Entstehung „chiraler“ Verbindungen

    Glykolaldehyd polymerisiert sehr leicht und bildet dabei stets schraubenförmige Ketten. Es können links drehende Schrauben oder rechts drehende Schrauben auskristallisieren, in welchen die Atome (-O-C-) ähnlich angeordnet sind, wie etwa jene in Quarzkristallen (-O-Si-). Aus der Addition von Cyanid an den Glykolaldehyd entsteht als Produkt ein Molekül, welches an einem der Kohlenstoffatome vier verschiedene Substituenten (-CN, -OH, –H und -CH2OH) trägt, die häufigste strukturelle Voraussetzung, um in organischen Molekülen Asymmetrie zu bewirken. Es sind zwei unterschiedliche räumliche Anordnungen der Substituenten möglich, die resultierenden Moleküle sind unterscheidbar, können wie Bild und Spiegelbild (oder linke und rechte Hand), nicht zur Deckung gebracht werden können – es ist eine sogenannte chirale (von griechisch: „cheir“ die Hand) Verbindung entstanden.

    Chiralität chemischer Verbindungen ist ein fundamentales Prinzip der Biochemie: in den großen Klassen der Biomoleküle, wie Kohlehydrate, Aminosäuren, Nukleinsäuren, ist (nahezu) ausschließlich jeweils nur eine der chiralen Formen vorhanden. Auch alle Proteine, die spezifisch mit einem Partner reagieren – Enzyme, Rezeptoren, Transporter – bevorzugen diesen in einer chiralen Form. Wir konnten zeigen, dass jene Effekte, welche zu schraubenförmigen Anordnung des Polyformaldehyds führen, auch bei der Trimerisierung von Glykolaldehyd zur Wirkung kommen. Man darf grundsätzlich erwarten, dass bei dieser Reaktion Traubenzucker in einheitlicher räumlicher Anordnung das überwiegende Hauptprodukt sein kann. Damit sind diese (stereoelektronischen) Effekte zugleich eine zentrale Basis für die Ausrichtung der Amplifikation der Chiralität in den lebenden Systemen, welche im Laufe der Evolution durch Proteine und Enzyme schließlich perfektioniert wird.

    Formaldehyd in der präbiotischen Evolution

    Selbstkondensation und Reaktionen mit anderen Molekülen der Uratmosphäre haben zu den großen Klassen der Biomoleküle, u.a, von Kohlehydraten, Aminosäuren, Komponenten von Nukleinsäuren und Stoffwechselsystemen geführt. Ein stark vereinfachtes Bild der Reaktionen von Formaldehyd ist in Abbildung 3 gegeben. Formaldehyd in der präbiotischen EvolutionAbbildung 3. Die Rolle des Formaldehyds in der präbiotischen Evolution. Durch Selbstkondensation entsteht Glykolaldehyd und aus diesem in Folge Kohlehydrate (liks). Addition von Cyanid und Ammoniak an Formaldehyd generieren alpha-Hydroxycarbonsäuren und Aminosäuren (rechts). Addition von Cyanid an Glykolaldehyd .führt zur Bildung chiraler Verbindungen (Mitte unten)

    Man kann also davon ausgehen, daß weder D-Glukose noch L-Aminosäuren als Bausteine der Proteine, oder die Komponenten der RNA „Leben“ zu ihrer Entstehung benötigen. Dementsprechend lässt sich natürlich aus deren Vorhandensein ebensowenig auf die Existenz von „Leben“ schließen. Es ist vielmehr die inhärente Reaktivität des „Urmoleküls“ Formaldehyd, welches – abhängig von äußeren Bedingungen - über Selbstkonstituierung und Addition anderer „Urmoleküle“ bzw. „Monaden des Biosystems“ zum Aufbau einer übersehbaren Palette von durch ihre Reaktivität verbundenen Biomolekülen geführt hat.

    Mit dem Einschließen solcher durch rein chemische Evolution geschaffenen Ur-Biomolekülsysteme in Kompartimente wurde in der Folge eine weitere Stufe in der Evolution erreicht. Im geschlossenen Kompartiment entsprach das Gleichgewicht der vorhandenen Biomoleküle im Prinzip der Homöostase einer Zelle. Es waren prä-metabolische Systeme entstanden. Ein wesentliches Kriterium des Lebens bestand nun in der Möglichkeit der lebenden Zelle, auf Störungen der Homöostase zu reagieren. Mit der Ausbildung prä-metabolischer Systeme in zellulären Kompartimenten war die Voraussetzung dazu eröffnet.

    Natürlich bleiben bei diesen Schritten der chemischen Evolution weiterhin viele Fragen ausgeblendet. Weder die Mechanismen der zellulären Antwort, noch die Integration mit der RNA-Welt sind unmittelbar angesprochen. Es ist allerdings zu zweifeln, dass es nur reiner Zufall war, dass sich aus diesen Protozellen „Leben“ entwickeln konnte. Man sollte es hier eher mit dem Statement des Philosophen Baruch Spinoza halten, der meinte, daß wir dann eine Sache als „Zufall“ ansehen, wenn wir sie nicht verstehen. (At res aliqua nulla alia de causa contingens dicitur nisi respectu defectus nostrae cognitionis.)


    * Details und Literatur zu diesem Essay finden sich in einem aktuellen, online frei zugänglichem Reviewartikel des Autors: C.R. Noe et al., Formaldehyde—A Key Monad of the Biomolecular System, Life 2013, 3, 486-501.


    Weiterführende Links

    Sutter's Mill: Meteorit enthielt Bausteine für Leben „Mit einem gewaltigen Knall ging der Meteorit Sutter's Mill im April 2012 in den USA nieder. Nun haben Wissenschaftler in den Bruchstücken komplexe Kohlenstoffverbindungen nachgewiesen - wichtige Bausteine für die Entstehung von Leben auf der Erde.“ http://www.spiegel.de/wissenschaft/weltall/meteorit-sutter-s-mill-liefer...

    U. Kutschera: Was sind Ursprungstheorien? (Tatsache Evolution) (2011) Die Gesetze der Physik und Chemie reichen aus, um im Prinzip den Ursprung der ersten Vorläufer-Zellen zu verstehen, obwohl noch viele Detailfragen zur chemischen Evolution ungelöst und daher Gegenstand der Forschung sind. 10:35 min Artikel: Jack W. Szostak und Alonso Ricardo (2010) „Wie das Leben auf die Erde kam“ Im Labor wiederholen Forscher die tastenden Schritte, mit denen einst aus unbelebter Materie die ersten Organismen entstanden. Harald Lesch: Wasser - Grundbaustein des Lebens (2012) 11:17 min. Harald Lesch: Alpha centauri – Wie dünn war die Ursuppe? Folge 54 (2012) 14.15 min. Entstehung des Lebens - Abiogenese 10 min. Im ScienceBlog: P. Schuster: Zum Ursprung des Lebens — Konzepte und Diskussionen


     

    inge Fri, 15.11.2013 - 06:07

    Die Fremden in mir — Was die Kraftwerke meiner Zellen erzählen

    Die Fremden in mir — Was die Kraftwerke meiner Zellen erzählen

    Fr, 08.11.2013 - 07:50 — Gottfried Schatz

    Icon BiologieGottfried Schatz

    Mitochondrien - essentielle Bestandteile der Zellen aller höheren Lebewesen - erzeugen durch die Verbrennung von Nahrung die zum Leben notwendige Energie. Diese ursprünglich freilebenden Bakterien wurden von anderen Bakterien vor rund zwei Milliarden Jahren eingefangen. Gottfried Schatz`s Arbeiten über Mitochondrien erzielten Durchbrüche in diesem Forschungsgebiet (u.a. Entdeckung der mitochondrialen DNA, Aufklärung des Mechanismus des Proteintransports in Mitochondrien ).

    Noch nie hatte ich so gefroren. Auf der Flucht vor den Kriegswirren waren wir im Februar 1945 in unserem ungeheizten Zug nachts stecken geblieben, und die schneidende Kälte verhinderte jeden Schlaf. Bei Morgengrauen schlüpfte ich jedoch heimlich unter den Mantel meines schlummernden Sitznachbarn, dessen Körperwärme mir endlich den ersehnten Schlaf schenkte. Nie werde ich diese wohlige Wärme vergessen. Aber woher kam sie? Ich konnte nicht ahnen, dass sie einmal mein Forscherleben prägen und mir aus der Frühzeit des Lebens erzählen würde.

    Meine Zellen gewinnen Energie durch Verbrennung von Nahrung. Bei dieser «Zellatmung» verbrauchen sie Sauerstoffgas, speichern einen Teil der Verbrennungsenergie als chemische Energie und verwenden diese zum Leben. Je mehr Arbeit eine Zelle leistet, desto intensiver atmet sie. Meine Gehirnzellen atmen intensiver als alle anderen Zellen meines Körpers und erzeugen pro Gramm und pro Sekunde zehntausendmal mehr Energie als ein Gramm unserer Sonne.

    Ein Blick in die Geschichte des Lebens

    All dies verdanken meine Zellen winzigen Verbrennungsmaschinen - den Mitochondrien. Im Mikroskop erscheinen sie meist als einzelne Würmchen, können aber auch als kontinuierliches Netzwerk die ganze Zelle durchziehen (Abbildung 1, links). Sie besitzen sogar eigene Erbanlagen, die den Bauplan für dreizehn Proteine tragen (Abbildung 1, rechts).

    MitochondrienAbbildung 1. Mitochondrien sind kleine Zellorganellen, die in Zellen mit hohem Energieverbrauch sehr zahlreich vorliegen (1000 – 2000 z.B.in Hirn, Muskel). Links: Osteosarkom Zellen. Färbungen: Mitochondrien: grün, Zellkerne blau, Tubulin rot (Konfokalmikroskop, Quelle: Cell Image Library CIL:40472). Rechts: elektronmikroskopisches Bild eines Mitochondriums, darunter schematische Abbildung. EP (gelb): die innere Membran ist dicht mit den Proteinen der Verbrennungsmaschine (Elementarpartikel) besetzt (Quelle: http://microbewiki.kenyon.edu)

    Jedes dieser Proteine ist ein Teil der Verbrennungsmaschine; und wenn eines ausfällt, kann dies für den betroffenen Menschen Blindheit, Taubheit, Muskelschwund, Demenz oder frühen Tod bedeuten. Warum tragen meine Mitochondrien Erbanlagen, obwohl die meisten von ihnen in den Chromosomen des Zellkerns gespeichert sind? Es gibt dafür keine logische Erklärung. Die Antwort liegt in der Geschichte des Lebens - und diese ist so grossartig und spannend wie keine zweite.

    Lebende Zellen gibt es auf unserer Erde seit mindestens 3,8 Milliarden Jahren. Die ersten Lebewesen gewannen ihre Energie wahrscheinlich ähnlich wie die heutigen Hefezellen, die organische Stoffe wie Zucker zu Alkohol und Kohlendioxid abbauen. Solche Gärungsprozesse liefern zwar wenig Energie, benötigen jedoch kein Sauerstoffgas; dies war für die frühen Lebewesen entscheidend, da dieses Gas in der jungen Erdatmosphäre noch fehlte. Als sich das Leben immer mehr ausbreitete, verbrauchte es die vorhandenen organischen Stoffe und schlitterte in eine gigantische Energiekrise. Der Retter war ein neuartiges Lebewesen, das Licht als Energiequelle verwendete und so dem Leben auf unserer Erde eine praktisch unbegrenzte Energiequelle erschloss - die Kernfusionen in unserer Sonne. Die lichtverwertenden Lebewesen überwucherten den Erdball, so dass noch heute gewaltige versteinerte Hügel in den Meeren von ihnen zeugen. Die Verwertung von Sonnenlicht setzte jedoch aus Wasser Sauerstoffgas frei, das Zellen durch Oxidation schädigt. Diese Vergiftung mit Sauerstoffgas verursachte wahrscheinlich das grösste Massensterben in der Geschichte des Lebens, bis Zellen schliesslich Schutzmechanismen entwickelten und sich auch in der oxidierenden Atmosphäre vermehren konnten. Unsere heutige Atmosphäre besteht zu einem Fünftel aus Sauerstoffgas, das zur Gänze ein Abfallprodukt lebender Zellen ist. Bald entwickelten sich Zellen, die mit diesem Gas die organischen Überreste anderer Zellen verbrannten und die Verbrennungsenergie zum Leben verwendeten. Die Zellatmung war erfunden. Vor etwa zweitausend Millionen Jahren gab es auf unserer Erde somit drei Hauptarten von Lebewesen, die alle den heutigen Bakterien ähnlich waren. Sie besassen nur wenig Erbsubstanz und deswegen nicht genügend biologische Information, um komplexe vielzellige Organismen zu bilden. Die erste Art verwendete die Energie des Sonnenlichts. Die zweite verbrannte die Überreste dieser Lebewesen. Und die dritte Art konnte weder das eine noch das andere, sondern lebte wie die allerersten Zellen mehr schlecht als recht von der Vergärung zuckerartiger Stoffe.

    Eingefangene Bakterien

    Doch gerade dieser rückschrittlichen dritten Art gelang vor etwa anderthalb Milliarden Jahren ein Meisterstück: Sie fing atmende Bakterien ein, benützte sie als Energielieferanten und bot ihnen im Gegenzug wahrscheinlich eine schützende Umgebung und eine bessere Verwahrung der Erbsubstanz (Abbildung 2). EndosymbiontentheorieAbbildung 2. Einfangen von Bakterien – die Endosymbiontentheorie. „Atmende“ Bakterien (C) und photosynthetische Bakterien (E) sind von anderen Bakterien (B, Archäa?) eingefangen worden und haben sich zu Zellorganellen – Mitochondrien und Plastiden – eukaryotischen Zellen entwickelt. (Bild: Wikipedia)

    Die eingefangenen Bakterien gewöhnten sich an ihren Wirt, übergaben ihm nach und nach den grössten Teil ihrer Erbsubstanz und konnten deshalb bald nicht mehr ohne ihn leben. Sie wurden zu seinen Atmungsorganen - den Mitochondrien. Umgekehrt nahmen sie mit der Zeit ihrem Wirt so viele wichtige Stoffwechselprozesse ab, dass auch dieser schliesslich nicht mehr allein leben konnte. Diese Lebensgemeinschaft schuf einen neuen Zelltyp, der über das Erbgut zweier Lebewesen verfügte und deshalb komplexe Pflanzen und Tiere bilden konnte. Das Erbgut in meinen Mitochondrien ist der kümmerliche Rest des Erbguts der einst freilebenden Bakterien.

    Mitochondrien steuern ihre Feuer sehr genau und drosseln sie, wenn die Zelle über genügend Energie verfügt. Wenn diese Steuerung versagt, sind die Auswirkungen verheerend. Ein tragisches Beispiel dafür war eine 27-jährige Schwedin, die 1959 in einer Klinik Hilfe suchte, weil sie selbst bei grösster Kälte stark schwitzte und trotz ihrer abnormalen Esssucht spindeldürr blieb. Die Ärzte erkannten zwar, dass die Feuer ihrer Mitochondrien ausser Kontrolle brannten, konnten ihr aber nicht helfen, so dass sie sich zehn Jahre später verzweifelt das Leben nahm.

    Selbst in gesunden Mitochondrien arbeitet die Verbrennung nicht perfekt, sondern wirft Nebenprodukte ab, welche die Zelle - und vor allem die Mitochondrien selbst - durch Oxidation schädigen. Diese Schäden tragen dazu bei, dass meine Mitochondrien und mein ganzer Körper altern. Geschädigte Mitochondrien liefern mehr oxidierende Abfälle, welche dann die Schäden weiter verstärken. Aus diesem Teufelskreis führt für eine Zelle oft nur der Selbstmord. Wenn Mitochondrien so stark geschädigt sind, dass ihre Energielieferung zusammenbricht, senden sie chemische Botenstoffe aus, die der Zelle befehlen, sich selbst zu töten. Die Zelle verdaut sich dann selbst, verpackt die Überbleibsel in kleine Membransäcke und überlässt diese streunenden Fresszellen als Beute. Sie orchestriert dieses Harakiri ebenso sorgfältig wie Wachstum und Teilung und bestätigt damit, dass Leben und Tod zwei Erscheinungsformen eines grösseren Ganzen sind. So wie Persephone als Tochter der Fruchtbarkeitsgöttin mit Hades über die Toten herrschte, können meine lebenspendenden Mitochondrien meinen Zellen auch den Tod verkünden. Sie und ihr Wirt suchen immer noch neue Wege, um miteinander auszukommen. Meine Mitochondrien sind ein Teil von mir, aber immer noch Fremde.


    Weiterführende Links: Scobel - Die Zelle 58:16 min Gottfried Schatz: spricht auf der Frankfurter Buchmesse 2010 über sein Buch "Feuersucher", die Entdeckung der Mitochondrien und die Leidenschaft eines Naturwissenschaftlers. 3:08 min Neue Videos von Gottfried Schatz: Podiumsgespräch Das Wunder "Schöpfung" (21.10.2013) Prof. Dr. Gustav Tammann und Prof. Dr. Gottfried Schatz. entführen uns mit verständlichen Worten in die faszinierende Welt des Makro- und Mikrokosmos- 49:15 min Interview Aeschbacher vom (17.01.2013 – 12:06 min) Vortrag : What Science is, what it gives us – and what it takes to succced in it. (9.6.2013). EMPA TV 52:03 min


     

    inge Fri, 08.11.2013 - 07:50

    Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?

    Wissenschaftskommunikation in Österreich und die Rolle der Medien. — Teil 2: Was sollte verändert werden?

    Do, 31.10.2013 - 23:00 — Josef Seethaler & Helmut Denk

    ÖAWJosef SeethalerHelmut DenkDie Kluft zwischen Wissenschaft und Öffentlichkeit zu verringern ist eine Forderung an die Wissenschaft selbst. Aber auch die Medien – allen voran das öffentlich-rechtliche Fernsehen – sollten hier eine besonders wichtige Rolle spielen: Informationen über wissenschaftliche Forschungen müssten jene Themen begleiten, mit denen sie sich auseinandersetzen, wären also überall zu platzieren, auch in Politik und Wirtschaft, in Kultur und Sport und im Lifestyle.

    Die Forschung zum Thema Wissenschaftskommunikation ist sich ziemlich einig: Die unbefriedigende Bilanz des Ist-Zustandes ist auf ein ebenso einseitiges wie überholtes Verständnis von Wissenschaftsjournalismus zurückzuführen, das ausschließlich dem Postulat der Wissenschaftsvermittlung und Wissenschaftspopularisierung gehorcht. Ihm liegt die Vorstellung eines Informationstransfers aus der Wissenschaft in die Öffentlichkeit zugrunde, welche die Medienberichterstattung einerseits nach wissenschaftlichen Maßstäben beurteilt und andererseits Relevanzkriterien und Kommunikationserwartungen des Publikums den Bedürfnissen der Wissenschafts-PR unterordnet.

    Kritik an der Wissenschaftspopularisierung

    Obwohl in den USA schon in den 1980er Jahren und einige Jahre später auch in der britischen Wissenschaftslandschaft in zunehmendem Maße Kritik an diesem „Popularisierungsparadigma“ formuliert wurde, vollzog sich dennoch in vielen europäischen Staaten die eingangs erwähnte Ausweitung der Wissenschaftsberichterstattung unter seiner Prämisse – und führten zu jener für Wissenschaft, Journalismus und Gesellschaft unbefriedigenden Situation, die sich in den empirischen Daten widerspiegelt:

    • Die Wissenschaft steht unter Druck, sich so gut wie möglich zu „verkaufen“, um die politisch geforderte Legitimierung ihrer Tätigkeit zu erreichen.
    • Der Journalismus steht unter Druck, sein eigenes Selbstverständnis, nämlich die Vermittlung von Lebenszusammenhängen, zu verleugnen, um die Auftraggeber einer als PR-Produkt missverstandenen Wissenschaftsberichterstattung zufriedenzustellen.
    • Die Gesellschaft steht unter Druck, mit einer Wissenschaftsberichterstattung vorlieb zu nehmen, die kaum ihren Bedürfnissen entspricht. Sie verfügt aber über die Freiheit, Wissenschaftsberichterstattung als ein Medienangebot unter vielen zu begreifen, das sie anderen Angeboten hintanstellen kann. Das bedeutet, dass die Wissenschafts-PR vor allem die Forschungspolitik und weniger die Gesellschaft bedient.

    Paradigmenwechsel in der Wissenschaftskommunikation

    Dem normativen Konzept einer wissenschaftszentrierten „Aufklärung“ der Öffentlichkeit setzen neuere medien- und kommunikationswissenschaftliche Forschungen ein Modell entgegen, dessen Fokus nicht mehr auf der „erfolgreichen“ Vermittlung, sondern auf der Rezeption und Integration wissenschaftlich fundierten Wissens in den Lebenszusammenhang der Menschen liegt.

    Statt der zentralen Annahme von Wissenschaft als eine dem Wertfreiheitspostulat unterliegende und gewissermaßen neutrale Tätigkeit, verweist es auf soziale Bedingtheit und Interessengebundenheit auch wissenschaftlicher Erkenntnisse. In diesem Zusammenhang bedeutet Wissenschaftskommunikation nicht Wissenschaftsvermittlung, sondern die kommunikative Einbettung von Wissenschaft in gesellschaftliche Zusammenhänge.

    Ein solches Modell geht davon aus, dass in einer funktional ausdifferenzierten Gesellschaft die Beobachtung von Ereignissen für die Ausbildung wechselseitiger gesellschaftlicher Umwelterwartungen durch ein eigenes Funktionssystem, die Öffentlichkeit, übernommen werden, als dessen organisiertes Leistungssystem der Journalismus fungiert. Seine gesellschaftliche Funktion besteht darin, die Komplexität der Ereignisse unter dem Gesichtspunkt, ob sie zur Ausbildung von gegenseitigen gesellschaftlichen Umwelterwartungen beitragen können, zu reduzieren. Matthias Kohring von der Universität Mannheim hat die Funktion des Wissenschaftsjournalismus auf den Punkt gebracht:

    „Ein Journalist informiert nicht schon deshalb über ein wissenschaftliches Ergebnis, weil es produziert wurde und schon deshalb einen (Nachrichten-)Wert hatte. Dieser Ansicht sind vor allem Wissenschaftler. Ein Journalist informiert über dieses Ergebnis, weil es einen Bezug zur übrigen Gesellschaft aufweist, und zwar aus der Sicht dieser ‚übrigen Gesellschaft“.

    Gerade darin, dass der Journalismus – anders als unter der Perspektive einer Wissenschaftspopularisierung – Gesellschaft und Wissenschaft in gleicher Weise auf Ereignisse hin beobachtet, die wechselseitig von Relevanz sind, liegt für beide Seiten der Gewinn begründet. In diesem Prozess kommt nicht einzelnen „Highlights“ und nicht einzelnen „Stars“, sondern der Glaubwürdigkeit und Vertrauenswürdigkeit von Wissenschaft (wie dies auch in der Eurobarometer-Umfrage zum Ausdruck kommt) zentrale Bedeutung für die Risikowahrnehmung und Wissensaneignung der Menschen zu.

    Empfehlungen

    Forderungen an die Wissenschaft

    Die Kluft zwischen Wissenschaft und Öffentlichkeit zu verringern ist also zuallererst eine Forderung an die Wissenschaft selbst. Es geht um das Selbstverständnis der Wissenschaft, die sich angesichts einer zunehmenden Beschränkung der Ressourcen und wachsender administrativer Reglementierungen zusehends dem Diktat der Ökonomisierung vorbeugt.

    Dies heißt nicht, dass ökonomische Überlegungen in der wissenschaftlichen Tätigkeit keinen Platz hätten, sondern dass die Selbstkommerzialisierung der Wissenschaft deren besonderen Charakter als meritorisches Gut gefährdet:

    Gerade weil die Wissenschaft sich dem Wechselspiel von Angebot und Nachfrage entzieht, kann sie ihre gesellschaftliche Wirkkraft entfalten. Der „Erfolg“ von Wissenschaft bemisst sich nicht allein im wirtschaftlichen oder politischen „Nutzen“, sondern auch in Kategorien wissenschaftlicher Qualität und wissenschaftlicher Ethik.

    Diese Alleinstellungsmerkmale der Wissenschaft sollten im öffentlichen Diskurs stärker als Vorteil und als Voraussetzung für wissenschaftliche Erkenntnis positioniert werden.

    Die Wissenschaft ist aber auch aufgefordert, ihren Anspruch auf „Wahrheit“ zu überdenken. Eine Wissenschaft, die sich der gesellschaftlichen Bedingtheit und Interessengebundenheit auch wissenschaftlichen Wissens bewusst ist und damit die Pluralität und Diskussion von wissenschaftlichen Meinungen nicht nur für sich als konstitutiv begreift, wird auch der Öffentlichkeit vermitteln, dass Wissen stets im Fluss ist und das Nebeneinander von Meinungen in der Auseinandersetzung keine Schwäche, sondern eine Stärke ist, weil auch die Komplexität der Probleme oft alternative Problemlösungen erfordert.

    Der „Wahrheitsanspruch“ hingegen mündet im „Popularisierungsparadigma“, da Wahrheit nicht zur Diskussion stehen, sondern nur in ihrer Komplexität reduziert, „popularisiert“ werden kann – und damit im schlimmsten Fall in der dem wissenschaftlichen Diskurs entkoppelten politischen Öffentlichkeit für populistische Lösungen missbraucht wird.

    Forderungen an die Medien

    Die Medien sind eingeladen, an diesem Paradigmenwechsel mitzuwirken und Wissenschaft in ihrer Vielfalt der Problemdefinitions- und Problemlösungskompetenz aus dem Ghetto der Wissenschaftsseiten herauszuholen und dort zu platzieren, wo sie hingehört: nämlich mitten ins Leben.

    Wissenschaftsjournalismus ist überall: in der Politik, in der Wirtschaft, in der Kultur, im Sport und im Lifestyle.

    Wenn Wissenschaft und Forschung derart als Querschnittsmaterie begriffen werden, sind Auswirkungen auf Programmstrukturen und journalistische Praxis unausweichlich.

    Die derzeitige, von der Wissenschafts-PR dominierte Situation ist ja (auch) dadurch entstanden, dass traditioneller Wissenschaftsjournalismus nicht über Anzeigen finanzierbar war. Dies wird in gleicher Weise für den hier angedachten „neuen“ Wissenschaftsjournalismus gelten, der weniger auf PR, aber umso stärker auf die beidseitige Beobachtung von Wissenschaft und Gesellschaft setzt. Auch wenn es in Zeiten von Sparbudgets unpopulär ist:

    Die „traditionellen“ Medien, aber auch die neuen Formen der „social media“ brauchen dafür die Unterstützung durch die öffentliche Hand, in Form von Maßnahmen der Medienförderung, der journalistischen Aus- und Weiterbildung und der Qualitätssicherung.

    Rolle des Fernsehens

    Das öffentlich-rechtliche Fernsehen spielt in den Beziehungen zwischen Wissenschaften und Medien eine besondere Rolle. Das Fernsehen ist (um nochmals auf die Eurobarometer-Daten zurückzukommen) nicht nur die zentrale, sondern die bei weitem glaubwürdigste Quelle für wissenschaftliche Information (Abbildung 1), woraus sich vor allem für ein öffentlich-rechtliches Unternehmen eine besondere Verantwortung ableiten lässt.

    InformationsmedienAbbildung 1. Informationsmedien für Wissenschaftsthemen (Quelle: Special EUROBAROMETER 282. 2007 (QB4))

    Fast die Hälfte der österreichischen Bevölkerung nutzt das Fernsehen für den Bezug wissenschaftlicher Informationen, fast zwei Drittel halten es für glaubwürdig. An zweiter Stelle stehen Zeitungen (42 Prozent); die Nutzung des Internets liegt etwa gleich hoch mit jener der Special Interest Magazine an dritter Stelle (mit jeweils an die 25 Prozent), ist aber in besonderer Weise abhängig von Alter und Bildungsgrad. Noch deutlicher lasst sich der Stellenwert des Fernsehens an den Prioritäten des Publikums ablesen: Vier Fünftel aller Österreicher bevorzugen das Fernsehen als Quelle wissenschaftlicher Information. Im europäischen Durchschnitt liegen übrigens tatsachliche Nutzung und Prioritätensetzung viel näher beieinander; die österreichischen Daten lassen sich daher als Aufforderung an die Fernsehverantwortlichen lesen, in das Angebot an wissenschaftlicher Information zu investieren – das Publikum wurde es honorieren.

    Das gilt auch für die Forderung, Wissenschaft aus dem Ghetto der Wissenschaftsberichterstattung herauszuholen. So wichtig eigene Wissenschaftssendungen oder gar ein eigener Spartenkanal sein mögen, Informationen über wissenschaftliche Forschungen müssen jene Themen begleiten, mit denen sie sich auseinandersetzen. Gerade bei durchschnittlicher Mediennutzung bevorzugt das österreichische Publikum regelmäßige kurze Berichte – und zwar zur Primetime. Ziel ist die öffentliche Thematisierung grundlegender Fragen durch die Wissenschaft und die Einbindung ihres Problemlösungspotenzials in den gesellschaftlichen Diskurs. Wie das Beispiel der USA und Großbritanniens zeigt, ist der Weg von einem solchen „Public Understanding of Science“ zu einem „Public Engagement with Science“ ein langer und schwieriger Weg, aber er ist unausweichlich, wenn Wissenschaft und Forschung in der Öffentlichkeit jenen Stellenwert einnehmen sollen, der ihnen in einer Gesellschaft, die mehr denn je auf Wissen und Know-how aufbaut, zukommen müsste. Dies gilt insbesondere für der Bildung unserer Jugend, wenn sie später einmal als gut-informierte Staatsbürger handeln sollen (Abbildung 2).

    PädagogikAbbildung 2. Antworten zu: “Wissenschaft bereitet die Jugend vor auf ihr Handeln als gut-informierte Staatsbürger“ (Quelle: Special EUROBAROMETER 340,2010) QC15.3)

    Die Österreichische Akademie der Wissenschaften sieht ihren Beitrag darin, eine unabhängige Plattform für einen pluralistischen Diskurs über gesellschaftlich relevante Problemstellungen zu bieten, in dem die öffentliche Beratung gleichwertig zur Problemanalyse und Problembewertung hinzutritt und der Prozess für eine breite Beteiligung eröffnet wird.


    Anmerkungen der Redaktion

    Der vorliegende Text basiert auf dem Artikel: Josef Seethaler & Helmut Denk: Bedeutung des öffentlich-rechtlichen Rundfunks für die Wissenschaft in Österreich. ORF-Schriftenreihe "Texte 8- Öffentlich-rechtliche Qualität im Diskurs (2012). (PDF-DOwnload; zuletzt abgerufen am 8.10.2013).

    Auf Grund der Länge dieses Artikels und der Absicht, diesen ungekürzt und zusätzlich mit Illustrationen versehen zu bringen, wurde dieser geteilt. Teil 1: „Wissenschaftskommunikation in Österreich und die Rolle der Medien. Eine Bestandsaufnahme“

    Literaturzitate zu beiden Teilen sind unter der angegebenen Quelle zu finden. Die Illustrationen basieren auf „Special Eurobarometer“ Umfragen.

    Weiterführende Links

     Zum “Special Eurobarometer” 2007

    “During spring 2007, the European Commission undertook a public opinion survey (Eurobarometer) to find out what Europeans think about the reporting of scientific research in the media. The survey was carried out in the 27 EU Member States, interviewing approximately 27 000 people.”

    “What is the level of public interest in scientific research? Which information sources do European citizens prefer to use to find out about science and research? How satisfied is the public with the way science and research is communicated in the different media: written, audiovisual, new media? What do citizens think about the quality and quantity of information on science and research available in the media?” D

    azu gibt es umfassende Berichte (in Englisch) Scientific research in the media 119p. (PDF-Download; December 2007)

     Public Opinion (PDF-Download)

    Special Eurobarometer: Science and Technology Report (2010), 163 p (PDF-Download)

    Bisher im ScienceBlog erschienene Artikel zum Thema Wissenschaftskommunikation:


     

    inge Thu, 31.10.2013 - 23:00

    Die drei Leben des Carl Djerassi – Chemiker, Romancier, Bühnenautor

    Die drei Leben des Carl Djerassi – Chemiker, Romancier, Bühnenautor

    Do, 24.10.2013 - 23:00 — Carl Djerassi

    Icon ChemieCarl Djerassi

    Carl Djerassi, einer der bedeutendsten und höchstdekorierten Chemiker der Welt, hat 1951 mit den Synthesen von Cortison und insbesondere von Norethisteron, dem Wirkstoff des ersten oralen Verhütungsmittels - der „Pille“- Geschichte geschrieben. Diese und weitere Erfolge haben die Wissenschaft geprägt und ebenso die Verhaltensnormen unserer Gesellschaften revolutioniert. Der vorliegende Beitrag beschäftigt sich nicht mit den Leistungen des Chemikers Djerassi, sondern mit seinem Bestreben einem breiteren Publikum Naturwissenschaften nahezubringen, wofür er neue Formen der Kommunikation „Science in Fiction“ und „Science in Theater“ entwickelt hat. Dieses Anliegen ist auch Thema seiner letzten, vor rund einem Monat erschienenen, Autobiografie „Der Schattensammler“, woraus er dem ScienceBlog Ausschnitte zur Verfügung stellt.

    Carl-Djerassi-BriefmarkeAuf der österreichischen Briefmarke, die mein Gesicht trägt, werde ich als Romancier und Chemiker bezeichnet. ,,Romancier" ist ein schönes Wort, das ich liebend gern für mich in Anspruch nehme. Darum möchte ich aufzeichnen, wie ich mich vom Chemiker - der wie alle Naturwissenschaftler, die publizieren, ipso facto ein Schriftsteller ist - in jemanden verwandelte, der im fortgeschrittenen Alter beschloss, in den Mantel des Romanautors zu schlüpfen und in der Folge auch in den des Bühnenautors.

    „Was für ein Chemiker sind Sie?“

    Das setzt zwei weitere Fragen voraus, nämlich: „Warum sind Sie Naturwissenschaftler geworden?“ und: „Warum sind Sie es so lange geblieben?“ Die erste ist kurz und bündig zu beantworten: durch einen „glücklichen Zufall“. Dier zweite ebenfalls: aus „Nervenkitzel, Neugier und Ehrgeiz“.

    Da mein Professorenleben ursprünglich in der Chemie begann, muß ich zunächst erläutern, was für ein Chemiker ich eigentlich bin. Ich bin organischer Chemiker, d.h. ich beschäftige mich mit Molekülen, die Kohlenstoffatome enthalten. Das klingt einfach, bis einem klar wird, daß es die ganze Chemie des Lebens mit ihren Abermillionen von natürlichen und synthetischen Substanzen umfaßt, deren Molekulargewicht von 16 für das einfache Gas Methan bis hin zu den Proteinen und Polymeren reicht, deren Molekulargewicht über eine Million betragen kann.

    Um meine eigene chemische Persona zu beschreiben, ist es am einfachsten, den Bereich der organischen Chemie zunächst in theoretische und experimentelle organische Chemie zu unterteilen, wobei letztere mein Gebiet ist. Von den vielfältigen Unterteilungen der letztgenannten nenne ich nur zwei: Synthese und Strukturbestimmung. Meine gesamte Forschung in der Industrie – erst bei CIBA in New Jersey, ein Jahr lang vor dem Promotionsstudium und weitere vier Jahre nach der Promotion, und anschließend zwei Jahre bei Syntex in Mexico City - fand auf dem Gebiet der synthetischen organischen Chemie statt (Abbildung 2), während der überwiegende Teil meiner universitären Forschung, beginnend mit meinen ersten Kaktusstudien im Jahr 1952, auf die eine oder andere Art mit der Aufklärung der chemischen Struktur von Naturstoffen verbunden war.

    Djerassi & ZaffaroniAbbildung 2. „Interessanterweise ist das von Syntex entwickelte Norethisteron noch immer ein allgemein benutzter aktiver Wirkstoff oraler Kontrazeptiva“ Carl Djerassi (rechts) und Alejandro Zaffaroni (links) diskutieren die chemische Struktur des Norethisteron.

    In den 1960er Jahren verlagerte sich mein Interesse von der kontrazeptiven „Hardware“ wie der Pille auf die kontrazeptive „Software“, d.h. auf die kulturellen, politischen, religiösen, wirtschaftlichen und juristischen Aspekte der Empfängnisverhütung. Nachdem ich mich in diesen Dschungel begeben hatte, war es nur ein kleiner Schritt, diesem Interesse durch die Einführung einer der ersten gesellschaftspolitischen Lehrveranstaltungen des neu gegründeten Fachbereichs Humanbiologie an der Universität Stanford nachzugehen.

    „Deformation professionelle“

    Als ich begann die Standardpraktiken eines Chemieprofessors hinter mir zu lassen, wurde ich ,,deformiert" und habe dadurch das Niveau meines professoralen und meines beruflichen Lebens in einer Weise erweitert und angehoben, die ich keineswegs verteidigen muss. Vielmehr halte ich diese Deformation für etwas Verlockendes und die Reaktion meiner Studenten hat dies oft bestätigt. Es ist jedoch fraglich, ob alle meine Chemikerkollegen an der Stanford University, wo ich über ein halbes Jahrhundert, länger als jedes andere Mitglied des Fachbereichs Chemie, tätig war, diese Meinung teilen. Ich sage dies, weil die Chemie, neben der Physik, die exakteste der exakten Wissenschaften ist, der Fels, auf dem die biomedizinische, die Umwelt- und die Materialwissenschaft ihre molekularen Strukturen aufbauen; gleichzeitig ist sie auch die eigenständigste unter den exakten Wissenschaften.

    Leider errichten viele ihrer akademischen Vertreter stolz hohe, wenn nicht sogar undurchdringliche Mauern, die eine sinnvolle intellektuelle Interaktion mit nicht naturwissenschaftlichen Fachbereichen verhindern, und es werden kaum Versuche unternommen, diese Kluft zu überbrücken. Obwohl sich Chemiker in dieser Zeit der grassierenden Chemophobie ständig in die Defensive gedrängt fühlen, sind die meisten nicht gewillt, naturwissenschaftliche Laien für ihre Disziplin zu gewinnen, nicht einmal innerhalb der akademischen Welt. Mit missionarischer Arbeit dieser Art sind in der akademischen Chemikergemeinschaft kaum Pluspunkte zu sammeln.

    Vom Chemiker zum Romancier

    Was veranlaßte mich, einen Naturwissenschaftler aus der exakten Wissenschaft der Chemie, in die Belletristik überzuwechseln? Obwohl die Kluft zwischen den Naturwissenschaften und der kulturellen Welt der Geistes-und Sozialwissenschaften immer größer wird, verschwenden Naturwissenschaftler herzlich wenig Zeit darauf, mit diesen anderen Kulturen ins Gespräch zu kommen. Das liegt vor allem an der Besessenheit des Naturwissenschaftlers, Anerkennung unter seinesgleichen zu finden und daran, daß seine Zunft kaum Anreize bietet, mit der breiten Öffentlichkeit zu kommunizieren, die nichts zu der beruflichen Reputation des Wissenschaftlers beiträgt.

    Science-in-Fiction – ein neues Genre

    Ich beschloß etwas zu unternehmen, um einem breiteren Publikum die Kultur der Naturwissenschaften nahezubringen, und zwar mit einem Genre dem ich kurze Zeit später den Namen Science-in-Fiction gab. Für mich fällt ein literarischer Text nur dann in dieses Genre, wenn die darin beschriebenen Vorgänge allesamt plausibel sind.

    Für die Science-Fiction gelten diese Einschränkungen nicht. Damit will ich keinesfalls andeuten, daß die naturwissenschaftlichen Fantasieprodukte in der Science-Fiction unangebracht wären. Aber, wenn man die freie Erfindung wirklich dazu nutzen will, um einer wissenschaftlich unbeleckten Öffentlichkeit unbemerkt wissenschaftliche Fakten zu Bewußtsein zu bringen – eine Art Schmuggel, den ich intellektuell und gesellschaftlich für nützlich halte – dann ist es ausschlaggebend, die zugrundeliegenden wissenschaftlichen Fakten exakt wiederzugeben. Wie soll der wissenschaftliche Laie andernfalls wissen, was ihm zur Unterhaltung präsentiert wird und was Faktenwissen ist?

    Aber warum sich dabei ausgerechnet der Erzählliteratur zu widmen?

    Die meisten naturwissenschaftlich nicht vorgebildeten Menschen schrecken vor den Naturwissenschaften zurück und lassen innerlich einen Vorhang herunter, sobald sie merken, daß ihnen irgendwelche wissenschaftlichen Fakten aufgetischt werden sollen. Genau diesen Teil der Öffentlichkeit – die wissenschaftsfernen oder sogar wissenschaftsfeindlichen Leser – möchte ich erreichen. Statt mit der aggressiven Einleitung „Ich werde Ihnen jetzt etwas über mein Fachgebiet erzählen“ anzufangen, beginne ich lieber ganz harmlos „Ich werde Ihnen jetzt eine Geschichte erzählen“, und baue dann realistische naturwissenschaftliche Vorgänge und aus dem Leben gegriffene Wissenschaftler in die Handlung ein.

    Zur Stammeskultur der Wissenschaftler

    Wie ich im Nachwort meines ersten Science-in-Fiction Romans „Cantors Dilemma“ (inzwischen in der 29. Auflage) ausdrücklich hervorhob, agieren Wissenschaftler innerhalb einer Stammeskultur, deren Regel, Sitten und Eigenarten im Allgemeinen nicht durch Vorlesungen oder Bücher vermittelt werden, sondern vielmehr in einer Mentor-Schüler Beziehung durch eine Art intellektuelle Osmose erworben werden. Gewiefte junge Wissenschaftler sind voll damit beschäftigt, die egoistischen Interessen ihres Mentors zu verinnerlichen: die Veröffentlichungspraktiken und Fragen der Priorität, die Reihenfolge der Autoren, die Wahl der Fachzeitschriften, die Bemühungen um eine Festanstellung, das Einwerben von Drittmitteln, die Schadenfreude und sogar das Gieren nach dem Nobelpreis. Die meisten dieser Aspekte haben mit dem Verlangen nach namentlicher Anerkennung und finanzieller Belohnung zu tun, und jeder dieser Aspekte ist mit ethischen Nuancen behaftet.

    Für mich, der ich über vier Jahrzehnte in dieser Stammeskultur verbracht habe, war es wichtig, daß Naturwissenschaftler von der Öffentlichkeit nicht vorrangig als Fachidioten, Frankensteins oder Strangeloves („Drs Seltsam“) wahrgenommen werden. Und da sich Science-in Fiction nicht nur mit Wissenschaft befaßt, sondern insbesondere mit Wissenschaftlern, glaube ich, daß ein Stammesangehöriger seine Kultur und die Verhaltensweisen seines Stammes am besten beschreiben kann, wie ich es in einer auf vier Bände angelegten Romanreihe (Cantors Dilemma; Das Bourbaki Gambit; Menachems Same; und NO) getan habe.

    Auf diesem Terrain tummle ich mich seit über 20 Jahren, und der interessierte Leser kann es erkunden, wenn er in diesen Büchern schmökert*, die infolge meines Ehrgeizes entstanden sind, auf diesem Gebiete zu schürfen.

    Science-in-Fiction – „hineingeschmuggelte“ Didaktik

    Während die Aufsätze und Artikel eines Naturwissenschaftlers vorrangig der Übermittlung von Erkenntnissen dienen und unter diesem Gesichtspunkt akzeptiert und beurteilt werden, einschließlich ihrer didaktischen Komponente, würde ein Romancier didaktischen Ballast dieser Art ablehnen, da Lehrhaftigkeit, sofern sie nicht gut versteckt ist, bei Schriftstellerkollegen und Literaturkritikern für ein Werk oft den Todesstoß bedeutet. Hinzu kommt, dass für den wissenschaftlichen Autor der Inhalt zählt, während Stil nur schmückendes Beiwerk ist. Niemand würde das bei einem Romancier zu sagen wagen.

    Meinen eigenen literarischen Arbeiten haftet ganz bewusst zumindest ein Hauch von Lehrhaftigkeit an. Wenn die Worte in der Ars Poetica von Quintus Horatius Flaccus, ,,lectorem delectando pariterque monendo" (den Leser erfreuen und unterweisen zugleich), auch 2.000 Jahre später noch beifällig als zutreffende Beschreibung des Wortes ,,didaktisch" zitiert werden, was spricht dann dagegen, dass ich mich in dem, was Horaz predigte, zumindest versuche?

    Science-in-Theatre - der Bühnenautor

    Ich habe bereits erwähnt, daß die Überzeugung vieler naturwissenschaftlich nicht vorgebildeter Menschen, sie seien unfähig einschlägige Begriffe zu verstehen, sie davon abhält es auch nur zu versuchen. Für dieses Publikum, und nicht für den schnörkellosen Vortrag, können „Fallbeispiele“ eine reizvolle und überzeugende Methode sein, derartige Schwellen zu überwinden. Wenn auf der Bühne – nicht vom Rednerpult aus oder auf den Druckseiten einer Publikation – ein „Fallbeispiel“ erzählt und verhandelt wird, beginnen wir uns mit Science-in-Theater zu beschäftigen (Abbildung 3).

    OxygenAbbildung 3. Fallbeispiel: Wer kann den Ruhm für sich verbuchen Entdecker des Sauerstoffs zu sein? Lavoisier, Scheele oder Priestley? Fiktive Szene aus Oxygen von Carl Djerassi und Roald Hoffmann. (Scheele und Priestley beobachten das berühmte Experiment von Lavoisier zur Rolle des Sauerstoffs in der Atmung.)

    Um in diesem Genre zu schreiben, muß der Autor kein Naturwissenschaftler sein. Seit den frühen Dramen mit naturwissenschaftlichem Bezug, wurde alle großen und erfolgreichen diesbezüglichen Stücke von anerkannten Dramatikern geschrieben, die ihre wissenschaftlichen Kenntnisse aus zweiter Hand hatten und Naturwissenschaft hauptsächlich zu metaphorischen Zwecken benutzten.

    Wie kommt es, daß meines Wissens noch kein „harter“ Naturwissenschaftler anerkannter Dramatiker geworden ist, während Mediziner (u.a. Anton Tschechow, Arthur Schnitzler) durchaus einen Beitrag geleistet haben? Ist der Mangel an Chemikern, die Stücke schreiben, darauf zurückzuführen, daß es ihnen schwerfällt, selbst mit ihresgleichen ohne Wandtafel, Dias oder andere piktographische Hilfsmittel zu kommunizieren? Oder liegt es daran, daß Chemiker sich in erster Linie mit Abstraktionen auf Molekularebene beschäftigen, während Ärzte ihre Zeit damit verbringen, sich die Geschichten anderer Menschen anzuhören? Oder liegt es daran, daß der gesamte schriftliche Austausch unter Naturwissenschaftlern rein monologisch ist, während das Theater das Reich des Dialogs ist?

    Vielleicht steckt in keiner dieser Verallgemeinerungen der wahre Grund, dennoch reizte mich vor allem der letzte Punkt, mich als Bühnenautor zu versuchen.

    Science-in-Fiction ist nicht Science Fiction – ist es Autobiographie?

    Die Art Romane und Theaterstücke, die ich in den letzten zwei Jahrzehnten geschrieben habe, haben mich etwas erreichen lassen, was bei einer herkömmlichen Autobiographie schlicht unmöglich ist: den eigenen psychischen Filter zu umgehen und somit Analytiker und Analysand gleichzeitig zu sein. Autobiographien weisen per definitionem Lücken auf – ob aus Versehen oder mit Absicht -, sowohl aus Gründen der Diskretion, als auch aus Scham, Verlegenheit oder auch nur als Folge eines schlechten Gedächtnisses. Meine Romane und Theaterstücke ermöglichten es mir, dem Naturwissenschaftler, dem es an Selbstreflexion fehlte, mich unter dem Deckmantel der freien Erfindung mit den unauslöschlichen Spuren zu beschäftigen, die die Kultur der naturwissenschaftlichen Zunft, der ich über ein halbes Jahrhundert angehörte, bei mir hinterlassen haben. Zweifellos sind die zentralen Themen meiner literarischen Arbeit allesamt unbewußt einem inneren Verlangen entsprungen, diese in meinem Leben so wichtigen Themen unter dem Deckmantel der Fiktion unter die Lupe zu nehmen.

    Manche Romanautoren sind verkappte Autobiografen, und ich hege nicht den geringsten Zweifel, dass ich zu dieser Untergruppe gehöre.


    *Neben 1308 wissenschaftlichen Veröffentlichungen in peer-reviewed Journalen (Thomson Reuters, Web of Knowledge) hat Carl Djerassi eine Reihe von Sachbüchern (Die Mutter der Pille, Von der Pille zum PC), Lyrik, Kurzgeschichten, Romane und Theaterstücke verfaßt.

    Eine vollständige Darstellung der schriftstellerischen Tätigkeit, inkl. Inhaltsangaben, Ausschnitten aus seinen Texten, links findet sich auf der Webseite: Webseite: http://www.djerassi.com/

    Weiterführende Links

    Vortrag von Carl Djerassi über seine Entwicklung vom Wissenschaftler zum Schriftsteller an der Universität Graz (2012): 1:21:57Zusammenschnitt der Dialoge zwischen Prof. Carl Djerassi und Prof. Markus Hengstschläger auf der Bühne des ACADEMIA SUPERIOR PLENUM. "What can the theatre do for science: OXYGEN and PHALLACY": Carl Djerassi at Science Gallery 1:30:53 min (Trinity College Dublin, August 2011; an excerpt from "PHALLACY”, selected clips from a recording of “Oxygen”) A Conversation with Carl Djerassi, 1:11:52 min. Veröffentlicht am 13.04.2012 ; Annual Reviews In this interview, he explains how he went from being a high school student in Vienna escaping the Nazi regime to developing the first birth-control pill in Mexico. Eventually, he oversaw the development of insecticide-free pest control products, which prevented insects from reaching sexual maturity.


     

    inge Thu, 24.10.2013 - 23:00

    Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme

    Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme

    Do, 17.10.2013 - 23:00 — Josef Seethaler & Helmut Denk

    ÖAWJosef SeethalerHelmut DenkWissenschaft und Forschung nehmen in unserem Land einen alarmierend niedrigen Stellenwert ein, die Mehrzahl der Österreicher bewertet diesbezügliche Informationen als irrelevant für ihr tägliches Leben. Auf der Datengrundlage aktueller Umfragen (EU-Special Eurobarometer) analysieren Josef Seethaler (Institut für vergleichende Medien- und Kommunikationsforschung der ÖAW) und Helmut Denk (Altpräsident der ÖAW) die Problematik von Wissenschaftsberichten in den Medien.

    Das Verhältnis von Wissenschaft und Medien hat sich in den letzten fünfzehn Jahren deutlich gewandelt. Die Wissenschaftsberichterstattung, deren Bedeutung Mitte der 1990er Jahre noch als „stabil marginal“ galt - um den deutschen Kommunikationswissenschaftler Walter Hömberg zu zitieren –, ist heute ein fixer und wichtiger Bestandteil des Medienangebots, vor allem im öffentlich-rechtlichen Rundfunk. Wissenschaftler wiederum sind sich bewusst, dass in der modernen Wissensgesellschaft die Vermittlung für ihre Themen, Resultate und Anliegen an die Öffentlichkeit ein unabdingbarer Bestandteil der wissenschaftlichen Tätigkeit selbst ist. Aber auch erhöhter gesellschaftlicher und politischer Legitimierungsdruck lasst die öffentliche Aufmerksamkeit und die mediale Präsenz zu wettbewerbsrelevanten, wenn auch riskanten Ressourcen werden. Wissenschafts-PR hat sich heute zu einem florierenden Wirtschaftszweig entwickelt, dessen „Nebenwirkungen“ aus einer wissenschaftlichen oder wissenschaftsethischen Sicht nicht immer wünschenswert sind.

    Nicht nur deshalb stellt sich die Frage, ob die gegenwärtige Situation befriedigend oder doch verbesserungswürdig ist, und zwar im Sinne aller Beteiligten: für die Wissenschaft, die Medien und für die Gesellschaft, an die sich Wissenschaft und Medien richten.

    Zum Stellenwert der Forschung

    Ein Blick auf den Stellenwert, den die Forschung in Osterreich in der öffentlichen Wahrnehmung einnimmt, ist alarmierend. Laut einer von der Europäischen Kommission 2010 in Auftrag gegebenen Umfrage in allen EU-Ländern erklären 57 Prozent der Österreicher, dass Informationen über Wissenschaft und Forschung für ihr tägliches Leben keinerlei Bedeutung haben. Das sind fast doppelt so viele wie im EU-Durchschnitt. (Abbildung 1).

    Bedeutung von WisenschaftskenntnissenAbbildung 1. Dem Satz: „Kenntnisse über Wissenschaft und Forschung zu besitzen, ist für mein tägliches Leben nicht von Bedeutung“ stimmen 57 % der Österreicher zu (grün), aber nur 33 % im EU-27-Mittel [Quelle: Special EUROBAROMETER 340.2010 (QC6.10)]

    Weniger als die Hälfte der Bevölkerung stimmt einer öffentlichen Unterstützung von Grundlagenforschung zu. Das ist rund um die Hälfte weniger als im EU-Durchschnitt. In beiden Rankings bildet Österreich das Schlusslicht unter den Staaten der Europäischen Union (Abbildung 2).

    Unterstützung der GrundlagenforschungAbbildung 2. Unterstützung der Grundlagenforschung. (Antwort auf: „Auch wenn sich daraus kein unmittelbarer Nutzen ergibt, ist wissenschaftliche Forschung, die das Wissensspektrum erweitert, notwendig und sollte von der Regierung unterstützt werden“; Quelle:EUROBAROMETER 340.2010 (QC1.5)

    Das nationale Image der österreichischen Forschung ist somit denkbar schlecht. Das kann nicht allein an der Medienberichterstattung liegen, hängt aber doch ganz wesentlich mit dieser zusammen; in unserer heutigen Informationsgesellschaft haben die Bürger in kaum einem gesellschaftlichen Bereich die Möglichkeit eigener Primärerfahrung und beziehen ihre Kenntnisse über fast alle Bereiche des öffentlichen Lebens aus den Medien.

    Wissenschaftsberichte in den Medien

    Welche Medieninhalte interessieren die österreichische Bevölkerung am meisten? Laut einer anderen EU-weiten Umfrage (Special Eurobarometer 282; Abbildung 3) ist es in erster Linie Unterhaltung. Dagegen wäre auch gar nichts einzuwenden, läge nicht in Osterreich der Anteil jener Personen, für die Unterhaltung zu den drei primären Medieninteressen zahlen, weit über dem EU-Durchschnitt (53 gegenuber 35 Prozent). An zweiter Stelle steht der Sport mit 45 Prozent. Mit großem Abstand folgen Politik und Kunst; das Interesse für Wissenschaft und Wirtschaft liegt hingegen mit 22 Prozent signifikant unter dem EU Durchschnitt von 31 Prozent (von Ländern wie Schweden mit über 50 Prozent-Anteilen ganz zu schweigen).

    MedieninhalteAbbildung 3. Welche Medieninhalte interessieren Österreicher? (Quelle: Special EUROBAROMETER 282. 2007 (QB1)) Die Medien bedienen mit ihrem Angebot im Interesse hoher Reichweitenquoten allzu oft genau diese Interessenlage, woraus sich aber ein circulus vitiosus ergibt: wichtige Zukunftsthemen finden weder in den Medien noch in der österreichischen Bevölkerung die entsprechende Resonanz.

    In der Bewertung der über die Medien vermittelten Wissenschaftsinformation zeigt sich ein scheinbar widersprüchliches Bild: Einerseits erklären rund zwei Drittel der Österreicher – und damit um 10 Prozent mehr als im EU-Durchschnitt –, mit der Wissenschaftsberichterstattung im Generellen zufrieden oder zumindest weitgehend zufrieden zu sein. Auch das Ausmaß dessen, was geboten wird, scheint zu genügen: Lediglich ein Drittel der Befragten wünscht sich einen höheren Stellenwert der Wissenschaftsberichte.

    Kritik an den Medienberichten

    Andererseits entspricht die Qualität der Berichterstattung nur teilweise ihren Erwartungen (Abbildung 4). So sind für die Österreicher Verständlichkeit, Nützlichkeit der Information, persönliche Betroffenheit und die berichteten Themen die entscheidenden Kriterien für die Nutzung von wissenschaftlicher Information, wobei sie darüber hinaus – mehr als alle anderen EU-Bürger – dem Unterhaltungswert der Information eine nicht zu unterschätzende Bedeutung einräumen (22 gegenuber 9 Prozent).

    Allerdings empfinden über die Hälfte der Österreicher (56 bzw. 57 Prozent) wissenschaftliche Beiträge als schwer verständlich und in einem noch höheren Ausmaß (61 Prozent) als zu weit entfernt von den eigenen Bedürfnissen.

    Ferner glauben mehr als die Hälfte der Österreicher, dass europäische oder internationale Forschung in den Medienberichten überrepräsentiert ist. Für 57 Prozent sind diese Berichte schließlich auch zu wenig unterhaltend.

    WissenschaftsberichterstattungAbbildung 4. Wichtigste Eigenschaften der Wissenschaftsberichterstattung (Quelle: Special EUROBAROMETER 282. 2007 (QB7a,b; Stufe 1+2); Daten für Österreich)

    Immerhin entspricht das gebotene Themenspektrum den Vorstellungen von 58 Prozent der Österreicher, und mehr als die Hälfte erachten die Informationen sogar als nützlich.

    Wer soll wissenschaftliche Themen präsentieren?

    Die Mehrheit der Österreicher (36 Prozent) wünscht sich eine gemeinsame Präsentation durch Wissenschaftler und Journalisten. Wenn dies nicht möglich ist, werden Wissenschaftler gegenüber Journalisten bevorzugt (24 gegenuber 13 Prozent), begründet durch deren höhere Glaubwürdigkeit, Präzision und Objektivität (Abbildung 5).

    PräsentatorAbbildung 5. Wer sollte Wissenschaftsberichte präsentieren? (Daten für Österreich; Special Eurobarometer: 282.207 (QB4) und 340.210 (QC5)

    Die Umfrage verweist also auf eine prekäre Situation: Wissenschaftler genießen zwar einen guten Ruf, können aber offenbar nur selten die richtigen Worte finden, um mit einem breiteren Publikum zu kommunizieren (siehe Abbildung 4: Verständlichkeit). Journalisten gelingt es zwar zu einem gewissen Grad, relevante und als nützlich empfundene Themen aufzugreifen, aber es gelingt nicht, sie so spannend zu präsentieren, dass zumindest die an wissenschaftlichen Informationen Interessierten ihre Suche nach Wissen intensivieren möchten, geschweige denn, dass ihre Zahl erweitert und zumindest an ein europäisches Durchschnittsmaß herangeführt werden kann.

    Fazit

    Unterm Strich bleibt das Ziel jedweder Kommunikation über weite Strecken unerreicht: Betroffenheit. Damit können wissenschaftliche Erkenntnisse und Überlegungen oft nicht auf die Bedürfnisse der Menschen bezogen, nicht in ihren Lebenszusammenhang integriert werden.


    Anmerkungen der Redaktion

    Der vorliegende Text basiert auf dem Artikel: Josef Seethaler & Helmut Denk: Bedeutung des öffentlich-rechtlichen Rundfunks für die Wissenschaft in Österreich. ORF-Schriftenreihe "Texte 5- Öffentlich-rechtliche Qualität im Diskurs (2012). (PDF-DOwnload; zuletzt abgerufen am 8.10.2013).

    Auf Grund der Länge dieses Artikels und der Absicht diesen ungekürzt zu bringen und zusätzlich mit Illustrationen versehen zu bringen, erscheint dieser in 2 Teilen. Teil 2: ›Wissenschaftskommunikation in Österreich und die Rolle der Medien. Was sollte verändert werden?‹ erscheint in Kürze.

    Literaturzitate zu beiden Teilen sind unter der angegebenen Quelle zu finden. Die Illustrationen basieren auf „Special Eurobarometer“ Umfragen.

    Weiterführende Links

    Special Eurobarometer: Science and Technology Report (2010), 163 p (PDF-Download)

    Bisher im ScienceBlog erschienene Artikel zum Thema Wissenschaftskommunikation:


     

    inge Thu, 17.10.2013 - 23:00

    Transportunternehmen Zelle

    Transportunternehmen Zelle

    Fr, 11.10.2013 - 18:52 — Inge Schuster

    Icon Politik & Gesellschaft

    Inge SchusterDie Verleihung des diesjährigen Nobelpreises für Medizin oder Physiologie an James E. Rothman, Randy W. Schekman und Thomas C. Südhof, zeichnet deren Entdeckungen zu einem essentiellen Transportsystem in unseren Zellen aus, nämlich die Organisation des Transports von Molekülen, verpackt in sogenannte Vesikeln. Auf Grund ihrer fundamentalen Bedeutung sind diese Forschungsergebnisse bereits als etablierter Wissensstandard in allen einschlägigen Lehrbüchern angeführt und unabdingbarer Bestandteil von biologischen (Einführungs)vorlesungen.

    „In einem großen und geschäftigen Hafen sind Systeme notwendig, die sicherstellen, daß die korrekte Fracht zur richtigen Zeit an den korrekten Zielort geliefert wird.“ Mit etwa diesen Worten illustrierte Juleen Zierath, Vorsitzende des Komitees für den Medizin Nobelpreis, die Situation, in der sich Zellen höherer Organismen (Eukaryoten) befinden [1]

    Zellen sind Fabriken, die - für den „Eigenbedarf“ oder auch für den Export - unterschiedlichste Biomoleküle produzieren, angefangen von Hormonen und Neurotransmittern bis hin zu großen Proteinen, welche exakt zur richtigen Zeit, an präzise definierten Stellen innerhalb der Zelle anlangen müssen oder aus der Zelle ausgeschleust werden um ihre Funktionen ausüben zu können. (Man denke hier beispielsweise an das Timing der Insulin-Ausschüttung zur Regulation unseres Blutzuckerhaushalts oder die Freisetzung von Neurotransmittern zur Signalübertragung von einer Nervenzelle zur benachbarten Nervenzelle.)

    Die Reise von Molekülen quer durch die Zelle, vom Produktionsort zum Zielort, ist allerdings kein einfaches Dahinschwimmen im Zellsaft (Cytoplasma). Eukaryotische Zellen weisen komplexe interne Strukturen auf: unterschiedliche von Membranen umschlossene Kompartimente (Organellen) mit spezifischen Funktionen, die auf eine räumlich und zeitlich präzise Lieferung und Abfuhr spezifischer Substanzen angewiesen sind. Um in diese Organellen hinein oder heraus zu gelangen, müssen die Moleküle irgendwie deren Membranen durchqueren, Barrieren, die vor allem für große Moleküle vollkommen unpassierbar erscheinen.

    Der in unseren Zellen realisierte Ausweg aus diesem Dilemma besteht darin Substanzen in sogenannte Vesikel – das sind winzige, von einer Membran umschlossene Bläschen – zu verpacken. Wenn diese Vesikel nun an die Membran einer Zellorganelle oder an die „Außenhaut“ der Zelle – die Zellmembran - stoßen, verschmelzen sie mit dieser und entleeren ihre Fracht in das Innere der Organelle oder in die Umgebung der Zelle. Die Existenz derartiger Vesikel und deren Fähigkeit Proteine von einem Zellkompartiment zum anderen zu transferieren, in die Zelle hinein oder aus der Zelle heraus zu schleusen wurde zwar schon vor Jahrzehnten entdeckt (u.a. durch die Arbeiten des berühmten Zellbiologen und Nobelpreiträger George E. Palade), die zugrundeliegenden Mechanismen der präzisen Organisation und Kontrolle dieser Transportvorgänge blieben jedoch lange unbekannt.

    Die nun prämierten Forschungen erklären diese Mechanismen, welche für alle höheren Lebewesen Gültigkeit haben, von einzelligen Hefen bis zu höchst komplex aufgebauten Lebensformen (Abbildung 1).

    ZellstrukturAbbildung 1. Die Zellen aller höheren Lebewesen weisen eine komplexe innere Struktur aus Kompartimenten mit unterschiedlichen Funktionen auf und sie benutzen das gleiche Vesikel-Transportsystem (rote Kreise) um Substanzen in die Kompartimente hinein und hinaus zu befördern. (Eingezeichnete Organellen: Zellkern , endoplasmatisches Retikulum, Golgiapparat; Bild modifiziert nach [1] und Servier Medical Art.)

    Um es mit der Metapher eines Postversands auszudrücken: die Moleküle werden verschickt in Pakete verpackt, mit der exakten Adresse des Empfängers beschriftet und mit dem exakten Liefertermin versehen.

    Der Transportweg

    Der Biochemiker Randy W Schekman (University of California at Berkeley), hat Hefezellen als Modell benutzt und bereits in den 1970-er Jahren begonnen den Prozeß zu untersuchen, wie Glykoproteine aus diesen Zellen ausgeschleust (sezerniert) werden. Dazu hat er Mutanten erzeugt, in denen einzelne Schritte im Vesikeltransport defekt waren. Derartige Defekte konnte er an Hand der sich nun in den Zellen aufstauenden Vesikel erkennen und in Folge die dafür verantwortlichen, insgesamt 23 Gene identifizieren. Systematische Untersuchungen wiesen diese Gene als Schlüsselgene für die einzelnen Schritte auf dem Transportweg der Vesikel aus - vom Ort der Beladung mit ihrer „Fracht“ über bestimmte Kompartimente der Zelle bis hin zur Fusion mit der Zellmembran an der Zelloberfläche .

    Wie erkennen Transportvesikel wohin sie ihre Fracht bringen müssen?

    Der Zellbiologe James E. Rothman (Yale University, New Haven, Conneticut ) hat (beginned in den 1980er Jahren) die wesentlich komplexeren Zellen von Säugetieren als Modelle für seine Untersuchungen verwendet. Er interessierte sich vor allem für den Fusionsprozeß von Vesikeln mit der jeweiligen Zielmembran und für die Kontrolle dieses Vorgangs durch Proteine. Dabei entdeckte er, daß sowohl die Vesikel als auch die Zielmembranen an ihren Oberflächen jeweils einen Proteinkomplex aufweisen. Beim Auftreffen eines Vesikels an den Zielort docken dort seine Proteine ineinandergreifend – wie bei einem Reißverschluß - an spezifische komplementäre Proteine auf der Zielmembran an und lösen damit den Fusionsprozeß aus (Abbildung 2). Da eine Vielzahl derartiger Proteine existiert, diese aber nur in spezifischen Kombinationen miteinander wechselwirken können, ist gewährleistet, daß die Fusion nur an der richtigen Stelle erfolgt, die „Fracht“ punktgenau an der korrekten Adresse entladen wird.

    VesikeltransportAbbildung 2. Schematische Darstellung des Vesikeltransports (Vesikel: rot, Molkül-Fracht: orange) und ihrer Fusion mit der Zellmembran (Bild modifiziert nach Servier Medical Art).

    Ein sehr wichtiges Ergebnis zeigte, dass einige der Gene, die Schekman in der Hefe entdeckt hatte, mit denen korrespondierten, die Rothman in den Säugetierzellen identifizierte, daß also das vesikuläre Transportsystem bereits sehr früh in der Geschichte des irdischen Lebens entstanden war und über die Evolution beibehalten wurde.

    Wie erfolgt das präzise Timing der Vesikel-Fusion?

    Der Biophysiker Thomas C. Südhof (Stanford University, CA) setzt sich seit 3 Jahrzehnten mit der Signalübertragung der Nervenzellen auseinander. Die präzise und überaus rasche (in Millisekunden stattfindende) Weiterleitung der Signale ist die Grundlage jedweder Informationsverarbeitung in unserem Gehirn, also unseres Bewusstseins, unserer Emotionen, unseres Verhaltens.

    Neuronen kommunizieren mit Hilfe von Botenstoffen, den Neurotransmittern (z.B. Dopamin, Acetycholin), über ihre Synapsen hinweg (d.i. den Kontakten zwischen dem knollenartigen Terminal des langen „Leitungskabels“ (Axon) einer Nervenzelle und den ebenfalls knolligen Terminals der verästelten Fortsätze (Dendriten) der Nachbarzelle). Ein elektrischer Impuls, der entlang des „Kabels“ läuft, bewirkt die Freisetzung der am Terminal in den Vesikeln gespeicherten Neurotransmitter, die dann über den Zwischenraum (dem synaptischen Spalt) hinweg an spezifischen Rezeptoren des Terminals der Nachbarzelle binden und damit deren Erregung auslösen (Abbildung 3).

    SignaltransferAbbildung 3. Signaltransfer an den Synapsen der Nervenzellen. Fusion der Vesikel mit der Membran des Terminals einer Nervenzelle und Sekretion der „Molekülfracht“ (rot) in den synaptischen Spalt (vereinfachte Darstellung, Bild modifiziert nach Servier Medical Art).

    Südhof und seine Gruppe haben in den letzten dreissig Jahren den molekularen Mechanismus aufgeklärt, der die überaus rasche Fusion der Vesikel mit der Zellmembran des Terminals und die darauf folgende Freisetzung der Neurotransmitter auslöst: Durch das elektrische Signal werden kurzfristig Calciumkanäle geöffnet, durch welche Calcium von außen in das Terminal einströmt. Dies bewirkt, daß Proteine an der Oberfläche der Vesikel so nahe an korrespondierende Proteine an der Membran des Terminals gebracht werden, daß sie ineinandergreifend andocken und damit die Fusion auslösen.

    Ähnliche Proteine wurden später entdeckt, die eine analoge Rolle in anderen physiologischen Vorgängen spielen – das Spektrum reicht von der Hormonsekretion (z.B.von Insulin) über die den Fertilisation von Eizellen bis hin zu den Vorgängen der Immunabwehr von Erregern.

    Fazit

    Die diesjährigen Nobelpreisträger haben mit unterschiedlichen Ansätzen den fundamentalen Prozeß des Vesikeltransports aufgeklärt, der für viele physiologische Vorgänge und in allen höheren Lebewesen Gültigkeit hat. Störungen in diesem Prozeß führen beim Menschen zu Erkrankungen des Nervensystems, des Immunsystems, des Hormonsystems (z.B. Diabetes). In der Presseaussendung des Nobel Assemblies heißt es dazu [3]:

    “Without this wonderfully precise organization, the cell would lapse into chaos.”


    [1] Bekanntmachung der Preisträger: Video 8 min http://www.nobelprize.org/mediaplayer/index.php?id=1949
    [2] Scientific Background: http://www.nobelprize.org/nobel_prizes/medicine/laureates/2013/advanced-...
    [3] Presse-Aussendung des Nobelpreis Komittees: http://www.nobelprize.org/nobel_prizes/medicine/laureates/2013/press.html

    Weiterführende Links

    The science behind Thomas Südhof's Nobel prize. http://med.stanford.edu/ism/2013/october/nobel-explainer-1007.html
    Rothman Laboratory http://medicine.yale.edu/cellbio/rothman/index.aspx
    Schekman Laboratory http://mcb.berkeley.edu/labs/schekman/index.html


     

    inge Fri, 11.10.2013 - 18:32

    Das grosse Würfelspiel — Wie sexuelle Fortpflanzung uns Individualität schenkt

    Das grosse Würfelspiel — Wie sexuelle Fortpflanzung uns Individualität schenkt

    Fr, 26.09.2013 - 21:16 — Gottfried Schatz

    Icon BiologieGottfried SchatzSind Männer und Frauen aus demselben Holz geschnitzt? Die Molekularbiologie zeigt, daß der genetische Unterschied zwischen Frau und Mann um eine Größenordnung höher ist als zwischen Frau und Frau: in den Körperzellen bilden die Geschlechtschromosomen der Frau ein Paar aus zwei gleichen X-Chromosomen, während in den männliche Zellen das Paar aus einem X-Chromosom und einem wesentlich kleineren Y-Chromosom besteht.

    WürfelWelche Eltern freuen sich nicht, wenn ihr Kind ihnen ähnlich ist? Doch sie mögen sich auch fragen, welche geheimnisvolle Kraft ihm Begabungen verlieh, die ihnen selbst fehlen. Es war das Würfelspiel der sexuellen Fortpflanzung, das die Gene beider Eltern vermischte und so dem Kind ein völlig neues – und somit einmaliges – Erbgut schenkte. Dieses Würfelspiel sichert unserer Spezies biologische Vielfalt und erneuernde Kraft. Es gibt zwar auch Lebewesen ohne Sexualität, doch sie sind wenig wandlungsfähig und sterben meist schnell aus.

    Die Chromosomen

    Sexuelle Fortpflanzung fordert zwei Geschlechter. Bei vielen Fischen und Reptilien bestimmt die Bruttemperatur das Geschlecht des im Ei reifenden Lebewesens. Je nach Tierart kann dabei eine tiefe Temperatur die Entwicklung von Männchen oder Weibchen fördern. Andere Lebewesen steuern das Geschlecht ihrer Nachkommen über bestimmte Gene – und wieder andere über eine Kombination dieser Mechanismen.

    Säugetiere, Fliegen und einige Pflanzen bestimmen das Geschlecht über besondere Chromosomen. Jede unserer Körperzellen besitzt 46 wurmartige Chromosomen, in denen die fadenförmigen Gene hochverdrillt und mit Proteinen verpackt sind (Abbildung 1).

    MOUSEHINTAbbildung 1. Der Chromosomensatz eines Mannes. Die 46 Chromosomen bilden 22 Chrosomenpaare mit gleichen Chromosomen, das Paar der Geschlechtschromosomen setzt sich aus dem X-Chromosom und dem viel kleineren Y-Chromosom zusammen (Bild: National Human Genome Research Institute; commons)

    In Frauen sind je zwei dieser Chromosomen nahezu identisch; eines stammt jeweils von der Mutter und das andere vom Vater. Mit einer Ausnahme gilt dies auch für Männer. Die Ausnahme ist das sogenannte X-Chromosom, das in Frauen mit einem zweiten X-Chromosom, in Männern jedoch mit einem ihm unähnlichen Partner – dem Y-Chromosom – gepaart ist. Dieses findet sich nur in Männern. Es trägt lediglich 72 Protein-kodierende Gene, etwa ein Zwanzigstel der Zahl der Gene, die das X-Chromosom und die meisten anderen Chromosomen tragen. Viele der Gene auf dem X- und dem Y-Chromosom steuern die Ausbildung des Geschlechts und die sexuelle Fortpflanzung.

    Ei- und Spermazellen besitzen keine Chromosomenpaare, sondern von jedem Chromosom nur ein einziges Exemplar. Die (weibliche) Eizelle trägt stets ein X-Chromosom und die (männliche) Spermazelle entweder ein X- oder ein Y-Chromosom. Die Befruchtung des Eies durch eine X-haltige Spermazelle führt zu einem XX-Embryo – also zu einer Frau. Die Befruchtung durch eine Y-haltige Spermazelle bringt einen XY-Embryo hervor – also einen Mann. Bevor sich aber die beiden Partner eines Chromosomenpaares voneinander trennen, um in eine Ei- oder Spermazelle sortiert zu werden, tauschen sie Teile untereinander aus und verändern sich oft auch noch auf andere Weise. Dabei mischen sie die Gene der beiden Eltern nach dem Zufallsprinzip in schier unendlichen Kombinationen. Gibt es ein grossartigeres Würfelspiel?

    Genschrott

    Y- und X-Chromosomen entstanden vor etwa 300 Millionen Jahren, als sich die Säugetiere von den Reptilien trennten. Das X-Chromosom bewahrte die meisten seiner ursprünglichen Gene, doch das Y-Chromosom verlor sie fast alle, weil es beschädigte Gene nicht ausbessern kann. Gene sind nämlich chemisch instabil und müssen laufend repariert werden. Ein Gen auf einem der 22 «normalen» Chromosomenpaare hat dafür ein gleichartiges Gen am Partnerchromosom als Sicherheitskopie zur Verfügung. Bei Frauen gilt dies natürlich auch für die Gene ihres XX-Chromosomenpaares. Bei Männern haben jedoch weder das X- noch das Y-Chromosom einen gleichartigen Partner – und somit ihre Gene keine Sicherheitskopie. Gene des X-Chromosoms können etwaige Schäden immerhin ausbügeln, wenn sie über sexuelle Fortpflanzung wieder in eine weibliche Körperzelle gelangen, die ihnen ein zweites X-Chromosom bietet. Genen des Y-Chromosoms ist jedoch dieser Weg verwehrt, weil in Männern auch die Körperzellen nur ein einziges Y-Chromosom tragen. Überdies muss ein Y-Chromosom lange Zeit in einer Spermazelle ausharren, die wegen ihres hohen Energiebedarfs intensiv atmet und deshalb ihre Gene verstärkt durch Oxidation schädigt. Gene am Y-Chromosom leben also gefährlich und mutieren etwa fünfmal schneller als die meisten anderen Gene, so dass das menschliche Y-Chromosom heute mit Genschrott übersät ist. Noch dazu können selbst verhältnismässig intakte Y-Chromosomen für immer verloren gehen, wenn ihr männlicher Träger keinen Sohn zeugt. Unser Y-Chromosom dürfte deshalb früher oder später ganz verschwinden. Wahrscheinlich versuchen seine geschlechtsbestimmenden Gene schon jetzt, sich auf andere Chromosomen zu retten. Weil einzelne Teile des Y-Chromosoms verschieden schnell mutieren, ist es allerdings noch ungewiss, wie lange sich dieses Chromosom noch halten kann. Schätzungen schwanken zwischen etwa 100 000 und über 10 Millionen Jahren.

    Selbst Mutationen am X-Chromosom betreffen vor allem Männer, weil sie ja auch von diesem Chromosom nur ein Exemplar besitzen und deshalb seine Mutationen nicht mit einer intakten Sicherheitskopie abpuffern oder übertünchen können. Für die Evolution ist deshalb das X-Chromosom ein Experimentierfeld für neue Gene, die vorwiegend Männern zugutekommen. Auffallend viele dieser Gene steuern Fortpflanzung und geistige Entwicklung. Ist das X-Chromosom also «smart und sexy» – wie dies eine meiner Kolleginnen behauptet hat? Könnte es sein, dass Intelligenz auf Frauen als Merkmal «guter» Gene – und damit als sexuelles Lockmittel – wirkt und intelligenten Männern besonders reichen Kindersegen beschert?

    Wenn aber unser Y-Chromosom ganz verschwinden sollte, würde dies auch für uns Männer das Aus bedeuten? Glücklicherweise nicht, denn unsere Spezies könnte ohne sie nicht überleben. Die «Männlichkeitsgene» würden dann wohl von einem anderen Chromosom aus – gewissermassen aus dem Exil – wirken. Das grosse Würfelspiel würde dann dieses Exil langsam, aber sicher zu einem neuen Männlichkeitschromosom umformen und so eine weitere Runde des Werdens und Vergehens einläuten.

    Zwang und Freiheit

    Dass Männer und Frauen nicht aus demselben Holz geschnitzt sind, bestätigt also auch die molekulare Biologie. Leider verführt fast jede neue Entdeckung geschlechtsspezifischer Denk- und Verhaltensmuster zu vorschnellen und oberflächlichen Schlüssen über «Stärken» und «Schwächen» – oder aber zur «politisch korrekten» Leugnung jeglicher Unterschiede. Solche Reaktionen verletzen mein Menschenbild, weil sie nicht wahrhaben wollen, wie entscheidend biologische Unterschiede zwischen Mann und Frau unser Leben und unsere Kultur bereichern.

    Eiferer beider Seiten haben dieses Thema nicht nur in unserer Gesellschaft, sondern sogar in der Wissenschaftsgemeinde tabuisiert und diese damit ins Mark getroffen. Denn wenn wir Wissenschafter kontroverse Fragen nicht mehr frei und emotionslos diskutieren können, verlieren wir den Boden unter den Füssen. Natürlich widersprechen viele der in unserer Urzeit entwickelten geschlechtsspezifischen Verhaltensmuster den heutigen Bedürfnissen; anders als Tiere können wir jedoch biologische Zwänge kraft unseres Verstandes und unserer Kultur überwinden und veredeln. Dazu mussten wir in einem jahrmillionenlangen Kampf urtümliche Gene zerstören und andere neu entwickeln. Erst dieser Kampf hat uns zu Menschen geformt.


    Weiterführende Links

    Human chromosomes. Video, 0:47 min (einfaches Englisch) Why Sex Really Matters: David Page at TEDxBeaconStreet; Video 20:15 min (besonders empfehlenswert!! Vortrag in klarem, einfachen Englisch): David Page, Director of the Whitehead Institute and professor of biology at MIT, has shaped modern genomics and mapped the Y chromosome. And he's here to say, "Human genome, we have a problem." Page contends that medical research is overlooking a fundamental fact with the assumption that male and female cells are equal and interchangeable in the lab, most notably because conventional wisdom holds that the X and Y chromosomes are relevant only within the reproductive tract. But if the sexes are equal, why are women more likely than men to develop certain diseases, and vice versa?

    David C. Page - The Y Chromosome Video 13:39 min (etwas anspruchsvoller; in Englisch)


     

    inge Thu, 26.09.2013 - 21:16

    Der gläserne Wissenschafter (oder: Täuschung durch „Wissenschaft“?)

    Der gläserne Wissenschafter (oder: Täuschung durch „Wissenschaft“?)

    Fr, 20.09.2013 - 08:28 — Peter Stütz

    Peter StützIcon Politik & Gesellschaft

    Fälle von wissenschaftlichem Fehlverhalten sind in den letzten Jahren in zunehmendem Maße bekannt geworden und haben zu berechtigtem Argwohn der Öffentlichkeit hinsichtlich der Arbeitsweise von Wissenschaftern und der Glaubwürdigkeit ihrer Ergebnisse geführt. Als Beispiel sei hier nur der Physiker Jan Hendryk Schön genannt, der lange als „Rising Star“ gefeiert wurde, bis man ihm nachwies, daß er in zahlreichen seiner Veröffentlichungen Meßdaten gefälscht hatte. Auch der Veterinärmediziner Hwang Woo-suk hatte weltweite Berühmtheit durch seine Stammzellarbeiten erreicht, welche sich später als Totalfälschungen herausstellten – ordnungsgemäße Aufzeichnungen fehlten, Versuchsführung, Messergebnisse und Fotos zur Dokumentation der Ergebnisse waren erfunden.

    In beiden Fällen waren die Arbeiten in Spitzenjournalen, wie Nature und Science, erschienen und lösten nun Mißtrauen gegenüber der Qualität des Begutachtungsverfahrens (nicht nur) dieser Zeitschriften aus. Außerdem mussten ranghohe Politiker zurücktreten, als ihnen nachgewiesen wurde, dass große Teile ihrer Doktorarbeit fahrlässig von anderen Autoren abgeschrieben worden waren.

    Fehlverhalten - ein Schaden für die Allgemeinheit

    Fehlverhalten von Wissenschaftern beschädigt ganz allgemein deren eigenes Ansehen und das Ansehen ihrer Institutionen und führt darüber hinaus bis hin zur Ablehnung ganzer Forschungsrichtungen. Es bedeutet aber auch ein Vergeuden von finanziellen Ressourcen, von Zeit und menschlicher Arbeitskraft aller derjenigen, die im guten Glauben versuchen Projekte auf Basis der gefälschten Befunde aufzubauen. Wenn es sich noch dazu um manipulierte Forschungsergebnisse aus pharmazeutischen/medizinischen Untersuchungen handelt, sind massiv negative Folgen für das Gesundheitssystem nicht auszuschließen. Welches Ausmaß Konsequenzen für die Entwicklung neuer Medikamente und Therapien haben, wenn diese auf der Basis publizierter, aber unreproduzierbarer oder gar erfundener Angaben über neue Therapien von Krankheiten beruhen, kann nur vage vermutet werden:

    Der Forschungs- und Entwicklungsprozeß, der zu einem innovativen, neuen Arzneimittel mit umfassenden Patentschutz führen soll, dauert sehr lange (etwa 15 Jahre), ist immens teuer (bis zu 2 Milliarden $ ) und mit einem sehr hohen Risiko verbunden – von den Arzneimittel-Kandidaten, die nach rund 6 Jahren präklinischer Forschung und Entwicklung in die klinischen Untersuchungen eintreten, erreichen im Schnitt nur 6 % den Markt. Der Großteil der Kandidaten scheidet in den klinischen Prüfungen aus, vor allem auf Grund mangelnder Wirksamkeit und/oder untolerierbaren Nebenwirkungen. Einerseits ist unbestritten, dass es heute schon sehr viele gute Medikamente gibt, die nur schwer zu übertreffen sind. Andererseits dürfte ein Grund für die hohe Ausfallsrate darin liegen, daß die Arzneimittel-Kandidaten für die Modulation biologischer Angriffspunkte (Targets) entwickelt wurden, die für die zu behandelnden Krankheiten nicht genügend relevant sind, nicht entsprechend „validiert“ wurden. Letzeres wird eine kürzlich vom Pharmakonzern Bayer publizierte Studie unterstützt: als man dort 67 als ausreichend validiert beschriebene Targets zu reproduzieren oder verifizieren versuchte, gelang dies nur in 14 Fällen! [1]

    Wieviele Wissenschafter manipulieren Daten oder wenden andere fragwürdige Praktiken an?

    Dazu haben in den letzten Jahren anonyme Befragungen von vielen Tausenden Wissenschaftern stattgefunden. In einer der neueren, durchaus repräsentativ erscheinenden Analysen gaben rund 2 % der Befragten zu, selbst zumindest einmal Daten gefälscht/erfunden zu haben, dies aber bei 14 %der Kollegen beobachtet zu haben. Andere fragwürdige Praktiken hatten rund 34 % selbst angewandt, aber bei rund 72 % der Kollegen bemerkt [2]. Auskunft über die Art der bestürzend hohen Zahl an fragwürdigen Praktiken kann aus einer Befragung von insgesamt 3247 US-Wissenschaftern erhalten werden (Abbildung 1).

    Analyse der Befragung von 3247 Wissenschaftern in den USAAbbildung 1. Analyse der Befragung von 3247 Wissenschaftern in den USA: Prozent der Wissenschafter, die zugaben mindestens 1x in einem Zeitraum von 3 Jahren ein bestimmtes Fehlverhalten begangen zu haben. (Unvollständige Auflistung der Daten von Martinson et al., 2005[3])

    Das Ergebnis dieser Befragung zeigt in Summe ein Überwiegen von schlechter Versuchsführung, Dokumentation und Analyse. Dies dürfte zweifellos auch auf andere Länder außerhalb den USA zutreffen.

    Die Beweggründe für derartige Praktiken sind vielfältig: es ist der heute zum Aufbau/Erhalt einer Karriere vorherrschende Zwang zu publizieren („Publish or Perish“) ebenso wie die Zufriedenstellung des Vorgesetzten, der bestimmte Ergebnisse sehen möchte und die Tatsache, daß negative Ergebnisse nicht belohnt werden. Dazu kommt fehlende Objektivität den eigenen Daten gegenüber, ein Herauspicken von „sexy“ Ergebnissen, die in die eigene Hypothese passen.

    Es ist heute im Zeitalter der elektronischen Dokumentation leichter denn je Daten zu manipulieren. Können diese dann von unabhängigen Forschern nicht reproduziert werden, werden häufig Unterschiede in der Laborausstattung, in den Materialien (vom selben Hersteller, aber unterschiedliche Agenzien/Chargen) und den Methoden als gängige Ausreden vorgeschützt.

    Kontrolle und Selbstkontrolle im wissenschaftlichen Arbeiten

    Eine relativ einfacher Weg um fragwürdige Praktiken zumindest entscheidend zu reduzieren, aber auch als Selbstschutz vor ungerechtfertigten Anschuldigungen, ist durch die korrekte Führung eines Laborjournals gegeben, welches Versuche komplett dokumentiert und auch nach vielen Jahren der Nachprüfung durch andere Forscher und der eventuellen Kontrolle durch Behörden standhält.

    Das Laborjournal – ein rechtsgültiges Dokument

    Ein gut geführtes Laborjournal dient

    • Als chronologische Aufzeichnung – daher Nachweis - aller experimentellen Aktivitäten,
    • als essentielle Grundlage seriöser wissenschaftlicher Berichte,
    • als rechtsgültiges Dokument zum Nachweis des Inhalts, der Autorenschaft und des Zeitpunkts von Innovationen und
    • als Unterlage einer eventuellen Kontrolle von Behörden.

    Das Laborjournal enthält die komplette Dokumentation eines Versuchs von der Planung bis zu den Ergebnissen, d.h.

    • Bezeichnung des Versuchs und der Zielsetzung,
    • Angabe der verwendeten Materialien, Geräte und Methoden,
    • Beschreibung der Durchführung eines Experiments, wobei anfallende Messwerte und Berechnungen – inklusive eines links zu den Rohdaten - und auch Beobachtungen während des Experiments (z.B. durch Fotos) dokumentiert werden,
    • sowie die Auswertung und Schlussfolgerungen.
    • Ein Inhaltsverzeichnis am Beginn erleichtert den Überblick über den Versuch und dessen Wiederauffinden durch externe Prüfer.

    Die Darstellung eines Versuchs muß dabei so detailliert erfolgen, daß eine fachlich versierte Person diesen auch nach Jahren erfolgreich reproduzieren kann. (Dies stellt insbesondere in Labors mit häufigem Mitarbeiterwechsel – z.B. Diplomanden, Doktoranden – ein massives Problem dar und kann zur Datenmanipulation führen.) Die Einträge in das Laborjournal werden durch Datum und Unterschrift (des Experimentators und einer zweiten fachkundigen Person) bestätigt. Im Falle eines Patentstreits ermöglicht dieses Vorgehen den exakten Nachweis, wann und von wem eine Erfindung gemacht wurde.

    Wie sieht ein Laborjournal aus?

     

    LaborjournalAbbildung 2. Ein Laborjournal

     

    Ein Laborjournal ist kein Collegeheft, sondern im allgemeinen ein fixgebundenes Buch, in welchem die Seiten fortlaufend nummeriert und datiert sind. Die Eintragungen in das Buch erfolgen leserlich handschriftlich, und chronologisch, das heißt das Experiment unmittelbar begleitend. Um zu verhindern, daß „unpassende“ Ergebnisse entfernt oder manipuliert werden, dürfen Seiten nicht herausgerissen werden, Irrtümer nicht unkenntlich gemacht werden, d.h. man streicht sie mit einer dünnen Linie durch, fügt eine Korrektur ein und bestätigt diese durch ein eigenes Visum. Unbeschriebene Teile einer Seite werden diagonal durchgestrichen. Ein Beispiel ist in Abbildung 2 gezeigt.

    Im digitalen Zeitalter hat man allerdings bereits begonnen zu elektronischen Laborjournalen überzugehen. Für beide Arten von Laborjournalen – handschriftlich und elektronisch - gelten im Prinzip dieselben Regeln. Die elektronische Variante bietet gegenüber der manuellen Vorteile hinsichtlich der enormen Menge an Rohdaten, Auswertungen und Darstellungen in Tabellen- und Grafikform, die nun in einem definierten Folder untergebracht werden können, ebenso wie hinsichtlich der, in Subfoldern übersichtlich platzierten, relevanten Literatur und der Methodenbeschreibungen. Ein weiterer Pluspunkt ist die Suchfunktion, die ein rasches Auffinden von Daten gestattet und die Möglichkeit Informationen automatisch weiterzuleiten und in Datenbanken zu inkorporieren. Zur Zeit gibt es allerdings noch keine generell akzeptierte Lösung für die elektronische Signatur derartiger Dokumente und auch deren Archivierung für 15 Jahre und länger erscheint problematisch.

    Qualitätssicherungssysteme

    Von besonderer Bedeutung ist die Qualität der wissenschaftlichen Untersuchungen für Behörden und akademische und kommerzielle Institutionen, wenn es sich dabei um gesundheits- und umweltrelevante Sicherheitsprüfungen im Anschluss an reine Forschungsarbeit handelt, welche als Basis für eine Risikoabschätzung/Gefahrenbewertung dienen sollen. Hier wurden seit den späten 70er-Jahren von den Staatengemeinschaften internationale Kriterien zur Durchführung und Überwachung derartiger Untersuchungen aufgestellt, vor allem die Qualitätssicherungsysteme:

    • „Gute Laborpraxis“ („Good Laboratory Practice“ - GLP), welche „sich mit dem organisatorischen Ablauf und den Rahmenbedingungen befasst, unter denen nicht-klinische gesundheits- und umweltrelevante Sicherheitsprüfungen geplant, durchgeführt und überwacht werden sowie mit der Aufzeichnung, Archivierung und Berichterstattung der Prüfungen.“ [4]
    • „Gute Herstellungspraxis“ (“Good Manufacturing Practice” – GMP) - eine „Qualitätssicherung der Produktionsabläufe und Produktionsorte zur Gewährleistung der Produktqualität von Arzneimitteln, Wirkstoffen, Lebens- und Futtermittel und Kosmetika und der für die Vermarktung verpflichtenden Anforderungen der Gesundheitsbehörden“ [5 ]
    • „Gute Klinische Praxis“ („Good Clinical Practice“ – GCP), “ein internationaler ethischer und wissenschaftlicher Standard für Planung, Durchführung, Dokumentation und Berichterstattung von klinischen Prüfungen am Menschen.“ [6]

    Alle diese im Laufe der Zeit laufend verbesserten Systeme sind aber ohne entsprechende Kontrolle praktisch wirkungslos. Eine detaillierte Beschreibung dieser Systeme findet sich in den zitierten Dokumenten.

    Unzumutbare Zwangsmaßnahmen oder Notwendigkeit?

    Sicherlich gibt es nicht wenige Wissenschafter, vor allem in akademischen Institutionen, welche die Führung eines kontrollierbaren Laborjournals ablehnen, dies als Eingriff in ihren Verantwortungsbereich (durch, in ihren Augen, weniger kompetente Personen), als Mißtrauen in ihre Fähigkeiten ansehen. Dem sollte man die Vorteile einer korrekten Protokollierung entgegenhalten, die ein rechtskräftig dokumentierter Nachweis der eigenen Ideen, Innovationen, Konzepte und Erfolge und damit auch eine hervorragende Basis für Berichte und Veröffentlichungen darstellt. Dazu gehört auch eine Archivierung von Laborjournalen inkl. dazugehörigen Primär- und Sekundärdaten sowie der elektronischen Datenträger in verschließbaren Räumen über längere Zeiträume. Gerade in diesem Punkt besteht bei den meisten Universitäten ein großer Nachholbedarf!

    Schlechte Versuchsführung, Dokumentation und Analyse stehen – wie in Abbildung 1 gezeigt – an der Spitze fragwürdiger Praktiken. Die „Zwangsmaßnahme“ einer korrekten Dokumentation führt zweifellos zu der Reduktion der Praktiken (auch, wenn Datenfälschungen nicht vollständig ausgeschlossen werden können) und von allfälligen Fehlern und Schlampereien und damit zu einer höheren Qualität der Untersuchungen. Dies sollte auch Grund genug sein um bereits Studenten anzuweisen, wie „Gute Wissenschaft“ ausgeführt und dokumentiert werden sollte, sie zu sensibilisieren für alle – auch selteneren – Spielarten wissenschaftlichen Fehlverhaltens, im Sinne der kürzlich vom European Research Council herausgegebenen „ERC Scientific Misconduct Strategy“ [7]:

    “To maintain the trust of both the scientific community and society as a whole is to uphold ethical standards at all stages of the competitive process, and to maintain and promote a culture of research integrity.”


    [1] F Prinz et al., Believe it or not: how much can we rely on published data on potential drug targets? Nature Reviews Drug Discovery 10, 712, 2011
    [2] D Fanielli. How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data. PLoS ONE 4(5): e5738, 2009.
    [3] BC Martinson et al., Scientists behave badly. Nature 435: 737-38, 2005
    [4]http://www.oecd.org/chemicalsafety/testing/oecdseriesonprinciplesofgoodlaboratorypracticeglpandcompliancemonitoring.htm
    [5] http://ec.europa.eu/health/documents/eudralex/vol-4/index_en.htm
    [6] http://www.mk1dd.de/bereiche/qualitaetsmanagement/klinische-studien/ich-...
    [7] http://erc.europa.eu/sites/default/files/document/file/ERC_Scientific_mi...

     


    Weiterführende Links

    Im ScienceBlog: Diskussionsthema: Wissenschaftliches Fehlverhalten

    Natascha Miljkovics Plagiatspräventions-Blog (Agentur Zitier-Weise)

    »Vier von fünf Studenten schummeln« Studie an Deutschen Universitäten (im wesentlichen Geistes-, Sozial, Wirtschaftswissenschaftliche Fächer):

    http://www.zeit.de/2012/34/C-Abschreibestudie-Interview-Sattler/komplett...
    http://www.zeit.de/campus/2012/05/abschreiben-schummeln-studenten-studie...
    http://pdf.zeit.de/studium/hochschule/2012-08/schummeln-studie-studium.pdf


    inge Fri, 20.09.2013 - 08:28

    Die Sage vom bösen Cholesterin

    Die Sage vom bösen Cholesterin

    Fr, 13.09.2013 - 12:21 — Inge Schuster

    <Icon Gehirn

    Inge SchusterAus der Annahme mit Cholesterin den wesentlichen Auslöser lebensbedrohender Gefäßerkrankungen entdeckt zu haben, entwickelte sich diese Substanz in den letzten Jahrzehnten zum Schreckgespenst der Medizin. Wie böse ist Cholesterin tatsächlich? Der vorliegende Artikel beschreibt die essentielle Rolle des Cholesterins in Aufbau und Funktion unserer Körperzellen: als unabdingbarer Bestandteil von Zellmembranen, deren Eigenschaften es reguliert, aber auch als Vorläufer bioaktiver Steroide, vor allem der Steroidhormone, welche zentrale Lebensvorgänge - Entwicklung, Fortpflanzung und Stoffwechsel - steuern.

    Ein um seriöse Auskunft bemühter Laie findet in Medien und Literatur weitestgehend negative Darstellungen des Naturstoffs, die bis hin zur Panikmache gehen. Sind verheerende Erkrankungen wie Herzinfarkt und Schlaganfall zwangsläufig Folge eines erhöhten Cholesterinspiegels, können diese effizient verhindert werden, wenn man den Cholesterinspiegel mit dem Produkt X, dem Medikament Y senkt? Über die essentielle Rolle des Cholesterins für die Funktion jeder einzelner Körperzelle und unseres ganzen Organismus wird dagegen kaum berichtet.

    Was ist Cholesterin?

    Cholesterin, ein starres, hydrophobes (in Wasser praktisch unlösliches) Molekül, ist ein Grundbaustein aller tierischen Organismen. Weil es - im 18. Jahrhundert - erstmals aus Gallensteinen isoliert wurde, erhielt es, wie damals üblich, eine diesem Vorkommen entsprechende, aus griechischen Worten zusammengesetzte Bezeichnung (chole: Galle, stereos: fest).Die chemische Struktur (Abbildung 1) setzt sich aus einem starren Gerüst von 4 Kohlenstoff-Wasserstoffringen (A – D) zusammen und einer flexiblen Kohlenstoff-Wasserstoff (Alkan) -Seitenkette. Eine Hydroxylgruppe (OH-Gruppe) macht Cholesterin zum Alkohol und ist für die spezifische Wechselwirkung mit anderen Biomolekülen wichtig.

    Chemische Struktur des CholesterinAbbildung 1. Die chemische Struktur des Cholesterin besteht aus 3 sechsgliedrigen (A – C) und einem fünfgliedrigen (D) Kohlenstoff-Wasserstoffring der eine flexible Seitenkette trägt.

    Das starre 4-Ringsystem war namensgebend für die Stoffklasse der „Steroide“ in welche Cholesterin und mit ihm verwandte Verbindungen fallen. Derartige Steroide - essentielle Bestandteile auch der anderen höheren Lebensformen (Eukaryonten), also der Pilze und Pflanzen - tauchen bereits sehr früh in der Erdgeschichte auf: der Nachweis in 2,7 Milliarden Jahre alten australischen Schiefern markiert den Übergang von einfachen (prokaryotischen) zu höheren (eukaryotischen) Lebensformen.

    Cholesterin im Menschen – eine Bilanz

    Das Cholesterin im unserem Organismus, beim Erwachsenen mit 100 – 150 g rund 0,15 % des Körpergewichts, stammt zum Großteil aus körpereigener Produktion, wozu praktisch alle Körperzellen in der Lage sind (Abbildung 2). Jedenfalls liegt die tägliche Syntheserate von 1 – 2 g Cholesterin über der Menge dessen, was wir mit der Nahrung aufnehmen (zumeist zwischen 0,1 – 0,3 g, höchstens 0,5 g). Die Eliminierung von Cholesterin aus dem Körper erfolgt im wesentlichen in veränderter – metabolisierter – Form als Gallensäuren (täglich ca. 0,5 g) und u.a. als Abbauprodukte von bioaktiven Cholesterinmetaboliten, in unveränderter Form in Hauschuppen (etwa 0,1 g täglich).

    Cholesterinbilanz im adulten Menschen -  vereinfachtAbbildung 2. Cholesterinbilanz im adulten Menschen - vereinfachte Darstellung. Der Pool von 100 – 150 g Cholesterin im Organismus resultiert zum Großteil aus der körpereigenen Synthese. Etwa 25 % des gesamten Cholesterin finden sich im Hirn, rund 7 % zirkulieren im Blutstrom.

    Wo befindet sich das Cholesterin im Körper und welche Funktionen hat es dort?

    Cholesterin ist über den ganzen Organismus verteilt: zu mehr als 90 % ist es in den Zellen lokalisiert, im Blutkreislauf zirkulieren bei „normalem Cholesterinspiegel (um die 200 mg/dl)“ nur rund 7 %.

    Organspiegel. In den meisten Organen (z.B. Leber, Lunge, Niere) liegen Konzentrationen zwischen 2 und 3 mg Cholesterin/g Gewebe vor. Diese Organspiegel steigen weder bei stark erhöhtem Cholesterin im Blut noch mit zunehmendem Alter erkennbar an. Offensichtlich besteht ein dynamisches Gleichgewicht (eine Homöostase) des zellulären Cholesteringehalts, reguliert von der (über Rezeptoren vermittelte) Aufnahme des Cholesterins aus dem Blutstrom (siehe unten), seiner Neusynthese in der Zelle und der Fähigkeit der Zelle überschüssiges Cholesterin zu eliminieren.

    Im Blut zirkuliert das über die Nahrung aufgenommene und das selbst synthetisierte Cholesterin verpackt in Lipoproteine verschiedener Dichte (freies Cholesterin wäre im Plasma unlöslich). Lipoproteine setzen sich aus Lipiden und Proteinen zusammen, die eine micellenartige Struktur bilden: innen sind unpolare Triglyceride und Cholesterin in veresterter Form, in der äußeren Hülle, die mit der wässrigen Phase in Kontakt steht, zeigen sich polare Teile des Proteins, Kopfgruppen der Phospholipide und die Hydroxylgruppe des Cholesterin. Das Low Density Lipoprotein (LDL) transportiert Cholesterin – aber auch andere ansonsten unlösliche Stoffe - zu (nahezu) allen Geweben: LDL dockt hier an seinen in den Zellmembranen lokalisierten, spezifischen Rezeptor (LDLR) an, wird mit diesem zusammen in die Zellen aufgenommen und setzt dort das Cholesterin (und andere transportierte Stoffe) zur Verwendung frei. Im Gegensatz dazu wird überschüssiges Cholesterin aus den Zellen in High Density Lipoprotein (HDL) verpackt zur Leber transportiert („reverser Transport“), dort über spezifische Rezeptoren (HDLR) aufgenommen und zu Gallensäuren abgebaut, die über die Galle in den Darm gelangen (siehe unten).

    Das Gehirn hat bezüglich Cholesteringehalt und dessen Regulierung eine Ausnahmestellung unter den Organen: i) bei nur rund 2 % des Körpergewichts enthält es 25 % des gesamten Cholesterin. ii) Da eine sehr effiziente Barriere zwischen dem Blut und dem Hirn („Blut-Hirn Schranke“) die Aufnahme des Cholesterins aus dem Blutstrom verhindert, ist das Hirn auf die eigene Synthese angewiesen. Auch für die Eliminierung überschüssigen Cholesterins aus dem Hirn besteht ein eigener Weg. Der überwiegende Anteil des in den Organen gespeicherten Cholesterin ist essentieller Bestandteil der Zellmembranen.

    Barrierefunktion und Modulierung der Membraneigenschaften

    Zellmembranen. Alle biologischen Membranen stellen Barrieren zwischen Kompartimenten und deren jeweiliger Umgebung dar und sind strukturell in vergleichbarer Weise aus einer Doppelschicht von Lipiden aufgebaut in die Proteine eingebettet/assoziiert sind (Abbildung 3).

    Ausschnitt aus einer ZellmembranAbbildung 3. Ausschnitt aus einer Zellmembran. Schematische Darstellung. (Bild: modifiziert aus Wikipedia)

    Cholesterin ist Grundbaustein aller tierischen Membranen, wobei intrazelluläre Membranen weniger Cholesterin enthalten (3 -6 %) als die Zellmembran (mehr als 20 % des Lipidgehalts). Die Zellmembran ist Permeabilitätsbarriere zwischen Zelle und Umgebung, schützt die Zelle vor dem Eindringen verschiedenartigster Stoffe und pathogener Keime. Cholesterin trägt entscheidend zur Barrierefunktion bei, moduliert die Beweglichkeit (Fluidität) der Lipidmoleküle und damit die Plastizität der Membran. Cholesterin ist dabei nicht gleichmäßig in der Membran verteilt, sondern bildet auch Inseln („rafts“), in welchen Signalmoleküle konzentriert auftreten, deren Funktion Cholesterin moduliert.

    Myelin. Von spezieller Bedeutung sind die Zellmembranen, aus denen die sogenannten Myelinscheiden entstehen, welche als Umhüllung und Isolierung der Nervenfasern (Axon) dienen. Dieses Myelin – bis zu 80 % aus Lipiden, davon zu rund 22 % aus Cholesterin bestehend - ermöglicht die höchst effiziente, rasche Weiterleitung des elektrischen Nervenimpulses vom Zellköper einer Nervenzelle (Neuron) entlang seines Axons zur nächsten Nervenzelle. Myelin erscheint optisch weiß - die hohe Dichte an Nervenfasern im Gehirn ergibt die “weiße Substanz” und erklärt so die hohe Cholesterinkonzentration in diesem Organ.

    Hornhaut. Auf den gesamten Körper bezogen bildet die oberste Schichte – Hornschichte- unserer Haut eine hochwirksame Barriere, die uns sowohl vor dem Eindringen von Stoffen aus unserer Umgebung und vor Mikroben schützt als auch verhindert, daß zu viel Wasser aus unserem Körper verdunstet. Diese Hornhaut (stratum corneum), besteht aus mehreren Schichten dicht gepackter, mit hochvernetzten, unlöslichen Proteinen gefüllter, abgestorbener Zellen, welche – wie Ziegel im Mörtel - in eine Lipidmatrix eingebettet sind. Diese Lipidmatrix - zu gleichen Teilen aus Cholesterin, Ceramid und Fettsäuren bestehend, unterbindet die Penetration kleiner, vor allem wasserlöslicher Moleküle weitgehend, die großer Moleküle vollständig. (Die Pharmaforschung sucht seit Jahrzehnten nach geeigneten Strategien, um eine effiziente Aufnahme von Arzneimitteln durch die Haut ermöglichen).

    Cholesterins ist zentraler Ausgangsstoff bioaktiver Produkte

    Cholesterin wird durch spezifische Enzyme, die an definierten Stellen seiner Seitenkette oder an den Ringen angreifen, zu einer Vielzahl und Vielfalt an bioaktiven Produkten umgewandelt (Abbildung 4). Die wichtigsten davon sind:

    Cholesterins als Vorläufer bioaktiver ProdukteAbbildung 4. Die zentrale Rolle des Cholesterins als Vorläufer bioaktiver Produkte

    Steroidhorme. Cholesterin hat eine zentrale Bedeutung für die hormonelle Kontrolle unserer Lebensvorgänge. In einer Kaskade von Reaktionen wird Cholesterin an verschiedenen Stellen oxydiert und es enstehen daraus in Folge alle Steroidhormone: Corticosteroide, Mineralcorticoide, Androgene, Östrogene und Gestagene. In Summe sind diese Hormone in die Steuerung unseres Stoffwechsels involviert, in die Regulierung der Immunfunktionen, in die Kontrolle des Wasser und Salzhaushalts, in die Entwicklung von Geschlechtsmerkmalen und in die Fortpflanzung.

    Oxysterole. Aus Cholesterin entstehen auch eine Reihe sogenannter Oxysterole. Diese sind u.a. verantwortlich für die Regulierung von Synthese, Aufnahme und Elimination von Cholesterin und sie beeinflussen spezifische Funktionen von Zellen des Immunsystems.

    Vitamin D. Die unmittelbare Vorstufe in der Synthese des Cholesterins – 7-Dehydrocholesterin – wird in der Haut durch UV-Licht zu Vitamin D umgewandelt, aus welchem das Hormon entsteht, welches vor allem den Calciumhaushalt und damit u.a. den Aufbau unserer Knochen reguliert, darüber hinaus aber eine Fülle an anderen Aktivitäten auf Zellwachstum- und Differenzierung und auf spezifische Funktionen des Immunsystems zeigt.

    Gallensäuren. In der Leber entstehen durch Oxydation aus Cholesterin wasserlösliche Gallensäuren, welche mit der Galle in den Darm ausgeschieden werden und dort – wie Seifen - die aus der Nahrung stammenden Lipide emulgieren – eine Vorbedingung für die Fettverdauung und anschließende Aufnahme in den Organismus.

    Ach, was muß man oft vom bösen Cholesterin hören oder lesen!

    Der erste Vers aus Max und Moritz - in leicht abgewandelter Form - charakterisiert auch das, was allgemein über Cholesterin berichtet wird. Aus der Annahme mit Cholesterin den wesentlichen Auslöser lebensbedrohender Gefäßerkrankungen entdeckt zu haben, entwickelte sich diese Substanz in den letzten Jahrzehnten zum Schreckgespenst der Medizin. Atherosklerose ist ja durch sogenannte Plaques – fett- und cholesterinreiche Ablagerungen - an der Innenwand der Arterien charakterisiert, die zu deren Verhärtung und Verengung führen, und zum Großteil durch Atherosklerose verursachte Herz-Kreislauferkrankunge stehen in der westlichen Welt an der Spitze der Todesursachen.

    Bereits vor 60 Jahren hatte der amerikanische Ernährungsphysiologe Ancel Keys postuliert, daß für die starke Zunahme von Herz-Kreislauferkrankungen in seinem Land der hohe Konsum an fett- und cholesterinreicher Nahrung verantwortlich wäre. Er untermauerte seine Hypothese mit einer breit angelegten klinischen Studie, die eine offensichtlich überzeugende Korrelation zwischen Cholesterinspiegel, Fettkonsum und Sterblichkeit zeigte. Diese (nicht sehr korrekt analysierte) Studie hatte großen Einfluß auf die Fachwelt, auch weil in vielen Tierversuchen und großen klinischen Untersuchungen (wie z.B in der bereits seit 1948 in den US laufenden Framingham Studie http://www.framinghamheartstudy.org/about/history.htm ) eine Korrelation zwischen „westlicher“ fett- und cholesterinreicher Diät, Cholesterinspiegel im Blut und Atherosklerose gezeigt wurde.

    Führt also ein hoher Cholesterinspiegel zwangsläufig zur Atherosklerose und ihren Folgen? Dem steht die Tatsache entgegen, daß rund 50 % der Patienten „normale“ Cholesterinwerte, aber ein hoher Anteil gesunder Menschen stark erhöhte Cholesterinwerte aufweisen. Möglicherweise sind ja die „normalen“ Werte zu hoch. Cholesterin im Blut unserer nächsten Verwandten im Tierreich, der Affen ist rund 40 % niedriger, erreicht aber bei „westlicher Diät“ vergleichbare Werte wie der Mensch und die Tiere entwickeln Atherosklerose. Dies trifft auch auf die meisten der anderen untersuchten Tiere, einschließlich unserer Haustiere Hund und Katze, zu.

    Sollte man also den Cholesterinspiegel vor allem bei Herz-Kreislauferkrankungen, aber auch zur Primärprevention ganz allgemein zu senken versuchen? Pharma- und Nahrungsmittelindustrie werben in aggressiver Weise für ihre Produkte, schüren die Angst vor dem „bösen Cholesterin“. Die Pharma erzielt mit ihren Cholesterinsenkern – vorwiegend den sogenannten Statinen – enorme Umsätze (allein in Deutschland werden Statine von mehr als 4 Millionen Menschen eingenommen). Das von Pfizer stammende Lipitor erzielte vor dem Auslaufen seines Patents jährlich über 12 Milliarden Dollar.

    Statine blockieren sehr effizient die Cholesterinsynthese in einer sehr frühen Stufe und erzielen so eine dramatische Senkung der Cholesterinspiegel (und auch des LDL). Verglichen damit ist die Reduktion von Herzinfarkt, Schlaganfall und Mortalität allerdings eher bescheiden: für die Reduktion um 1 Attacke müssen: 60 Patienten oder - als Präventivmaßnahme - 268 gesunde Menschen jeweils 5 Jahre lang behandelt werden. Mit diesem eher kleinen Nutzen sind allerdings (zumeist reversible) Nebenwirkungen verbunden: Statine blockieren ja nicht nur die Synthese von Cholesterin, sondern auch die Bildung seiner zahlreichen Vorstufen, wie z.B. von Coenzyme Q, das eine essentielle Rolle in der mitochondrialen Energiegewinnung spielt oder von den, für die Entstehung von Glykoproteinen verantwortlichen, Dolicholen. Bis zu 20 % der Statin-Konsumenten leiden an Muskelschwäche- und Schmerzen, die Inzidenz von Diabetes ist deutlich erhöht, ebenso die von Neuropathien und die Reduktion kognitiver Fähigkeiten bis hin zur (reversiblen) Demenz ist evident.

    Die Analysen der letzten großen klinischen Untersuchungen und Metaanalysen früherer Untersuchungen legen zudem nahe, daß der (relativ kleine) therapeutische Effekt der Statine gar nicht auf Cholesterinsenkung sondern vielmehr auf deren antientzündlicher Wirkung beruht.

    Damit kommen wir zu einem Umdenken: Cholesterin ist nicht Auslöser der Atherosklerose, wohl aber einer der zahlreichen Risikofaktoren. Es sei hier auf einen vor wenigen Wochen im ScienceBlog erschienenen Artikel von Georg Wick verwiesen, der Atherosklerose als Autoimmunkrankheit aufzeigt und überzeugende Hypothesen zur Auslösung dieser Erkrankung und therapeutische Ansätze zu ihrer Behandlung bietet*.

    *Georg Wick: Atherosklerose, eine Autoimmunerkrankung: Auslöser und Gegenstrategien.


    Weiterführende Links

    Zu den im Artikel beschriebenen Themen existiert detaillierte Literatur, die auf Anfrage zur Verfügung gestellt wird.i

    Video

    3sat nano - Mythos Cholesterin 5:43 min



     

    inge Fri, 13.09.2013 - 00:21

    Comments

    The Ugly and the Beautiful — Datierung menschlicher DNA mit Hilfe des C-14-Atombombenpeaks

    The Ugly and the Beautiful — Datierung menschlicher DNA mit Hilfe des C-14-Atombombenpeaks

    Fr, 04.10.2013 - 04:37 — Walter Kutschera

    Icon PhysikWalter KutscheraAls Folge der Kernwaffentests in den 50er -60er Jahren des vorigen Jahrhunderts kam es zur vermehrten Bildung von radioaktivem 14C in der Atmosphäre und nach Ende der Tests zu dessen raschem Absinken. In die DNA von Körperzellen eingebautes 14C zeigt das Alter der Zellen an und erlaubt fundamentale Rückschlüsse über deren Erneuerungsraten.

    Die atmosphärischen Kernwaffentests in den Jahren 1950 bis 1963 sind ein gutes Beispiel dafür, dass eine drohende Umweltbelastung selbst unter widrigen politischen Umständen gestoppt werden kann, wenn man die Ursachen und ihre Folgen klar erkannt hat. Es erscheint aus heutiger Sicht eigentlich erstaunlich, dass die USA und die Sowjetunion mitten im kalten Krieg beschlossen, ihre massiven Kernwaffentests zu beenden, um der globalen Verbreitung von radioaktiven Abfall Einhalt zu gebieten (Nuclear Test Ban Treaty von 1963). Als ein zunächst wenig beachteter Nebeneffekt wurde bei diesen Tests auch der natürliche Gehalt des radioaktiven Kohlenstoffisotops (14C) in der Atmosphäre erhöht.Atombombentest 1.11.1952Abbildung 1. Der erste Wasserstoffbombentest der USA im Pazifik am 1. November 1952, der eine 700 mal größere Sprengwirkung hatte als die Atombombe von Hiroshima. Das Schema rechts zeigt die Entstehung des radioaktiven Kohlenstoffisotops 14C durch Bombardierung des Stickstoffs 14N mit Neutronen.

    Auf natürliche Weise werden durch die kosmische Strahlung (hochenergetische Protonen), die seit Jahrmillionen unsere Erde bombardiert, Atome der Atmosphäre zertrümmert und daher ständig Neutronen freigesetzt, die 14N in 14C umwandeln. Die frisch erzeugten 14C Atome verbinden sich schnell mit Sauerstoff zu 14CO2 und werden dadurch ein Teil des CO2 Pools der Atmosphäre (Abbildung 1). Allerdings ist der Anteil des 14C Isotops relativ zu den stabilen Kohlenstoffisotopen (12C und 13C) winzig klein. 12C : 13C : 14C = 0.99 : 0.01 : 0.000 000 000 001 (10-12).

    Einbau von 14C in die belebte Materie

    Da die Landpflanzen in der Photosynthese CO2 aus der Luft aufnehmen, wird 14C mit in die Pflanzen eingebaut. Pflanzen wiederum dienen als Nahrung für andere Lebewesen und durch die hohe Löslichkeit von CO2 im Wasser (man denke an Bier und Mineralwasser) findet 14C auch Eingang in die marine Welt. So ist die gesamte belebte Materie (Biosphäre) von 14C durchdrungen. Da dieser Vorgang seit Jahrmillionen abläuft, hat sich ein fast konstantes Gleichgewicht zwischen Produktion und Zerfall von 14C auf der Erde eingestellt und man kann annehmen, dass auch alle Lebewesen dieses Gleichgewicht widerspiegeln.

    In Form von organischen Molekülen enthält der Mensch je nach Körpergewicht etwa 14 bis 16 kg Kohlenstoff. Mit der oben genannten 14C-Konzentration in Kohlenstoff und der 14C-Halbwertszeit von 5700 Jahren erhält man über das radioaktive Zerfallsgesetz eine Zerfallsrate von ca. 4000 14C Atomen pro Sekunde. Und diese Radioaktivität tragen wir das ganze Leben mit uns herum. Die bekannte 14C-Altersbestimmung in der Archäologie beruht nun darauf, dass nach dem Tod eines Organismus sein 14C-Gehalt abnimmt, während der Gehalt der stabilen Kohlenstoffisotope 12C und 13C unverändert bleibt. Das bedeutet, dass man aus der Messung der Isotopenverhältnisse 14C/12C oder 14C/13C das Alter bestimmen kann.

    Der 14C Bombenpeak

    Durch die Kernwaffentests wurden nun ebenfalls Neutronen in der Atmosphäre freigesetzt, die Stickstoff (14N) in 14C umwandelten. Dies hat in wenigen Jahren zu einer Verdoppelung des 14C-Gehalts in der Atmosphäre geführt. Als die atmosphärischen Kernwaffentests 1963 gestoppt wurden, hat sich der Überschuss von 14C durch den CO2-Austausch auf die Biosphäre und die Hydrosphäre (Ozeane, Flüsse und Seen) übertragen und ist dadurch bis heute in der Atmosphäre schon fast wieder auf den “vornuklearen“ Gehalt abgesunken (Abbildung 2). Das Resultat dieses schnellen Anstiegs und Abfalls des atmosphärischen 14C-Gehalts wird als 14C-Bombenpeak bezeichnet. C Bombenpeak

    Abbildung 2. Der 14C Bombenpeak. 14C-Messungen im atmosphärischen CO2 der südlichen und nördlichen Hemisphäre geben den durch die Kernwaffentests erzeugten 14C-Überschuss über dem natürlichen 14C-Gehalt wieder.

    Einbau von 14C aus Kernwaffentests in menschliche DNA

    Das 14C Bombensignal hat sich durch die Nahrungsaufnahme auch relativ schnell auf die Menschen übertragen, was bedeutet, dass die gesamte Menschheit in den letzten 50 Jahren durch diesen schnell veränderlichen 14C-Überschuss markiert wurde. Dabei wurde das Signal durch den Metabolismus im Körper auf jede Zelle übertragen. Insbesondere wurde auch der Kohlenstoff in jedem DNA-Molekül markiert. Die DNA (Desoxyribonukleinsäure) ist ein Riesenmolekül, das 1011 C Atome enthält und die gesamte Erbinformation in jeder Zelle des Körpers gespeichert hat. Die DNA nimmt nun nur solange 14C auf, bis die Zelle die letzte Teilung gemacht hat. Von diesem Zeitpunkt an verändert sich die DNA nicht mehr. Wenn man nun die Annahme macht, dass der 14C Gehalt der DNA das Jahr der letzten Zellteilung widerspiegelt und man dies mit der 14C-Bombenpeak Kurve vergleicht, dann kann man diesen Zeitpunkt durch Messung des 14C-Gehalt in der DNA bestimmen. Dass diese Bedingung tatsächlich erfüllt ist, wurde 2005 von einer Gruppe des Departments for Cell and Molecular Biology des Karolinska Instituts in Stockholm gezeigt.

    Wie alt sind menschliche Zellen?

    Durch die Messung des 14C-Gehalts in der DNA, die von Millionen von Zellen eines bestimmten Körperorgans extrahiert wurde, kann dadurch die Geburtsstunde von neuen Zellen, die nach der Geburt des Individuums gebildet wurden, bestimmt werden. Derartige Untersuchungen werden an Organproben bereits verstorbener Personen durchgeführt, von denen man allerdings das Geburtsdatum und die Lebensdauer kennen muss. Das Material für diese Untersuchungen kann von sogenannten Gewebebanken angefordert werden, für welche Menschen Ihren Körper nach dem Tode der Wissenschaft zur Verfügung gestellt haben. Das Einmalige an diesen Untersuchungen ist, dass man keine besonderen Maßnahmen zur Markierung der untersuchten Proben treffen muss, da wir alle automatisch durch die Kernwaffenexperimente mit 14C markiert wurden, wenn wir innerhalb der letzten 50 bis 60 Jahre gelebt haben. Wir sind alle unabsichtlich zu potentiellen Forschungsobjekten geworden!

    Datierung menschlicher ZellenAbbildung 3. Prinzip der Datierung von menschlichen Zellen mit dem 14C-Bombenpeak.

    Finden Zellerneuerungen im Gehirn statt?

    Eines der interessantesten Forschungsobjekte der Biomedizin ist zweifelsohne unser Gehirn. Mit Hilfe der 14C-Bombenpeak Datierung lässt sich nun tatsächlich die Frage angehen, wann und in welchem Maße neue Zellen in unserem Gehirn entstehen (Abbildung 3). Eine weitverbreitende Meinung ist ja die, dass im Gehirn nach der Geburt keine neuen Zellen mehr gebildet werden.

    Die Frage der Neubildung bestimmter Zelltypen ist nun an deren 14C-Gehalt der DNA ablesbar. Dazu werden die Gehirnzellen vor einer 14C-Messung mit molekularbiologischen Methoden nach ihrer Zugehörigkeit zu Neuronen oder anderen Zellentypen sortiert. Insbesondere ist man dabei an den Nervenzellen (Neuronen) interessiert, die als wesentliche Schaltstellen für Nervenimpulse im Gehirn gelten [2].

    In einer Zusammenarbeit mit den Molekularbiologen von Stockholm haben wir am Vienna Environmental Research Accelerator (VERA) der Universität Wien geringste Mengen von DNA (ein paar Millionstel Gramm) aus dem Riechzentrum des menschlichen Gehirns auf seinen 14C-Gehalt untersucht. Das überraschende Ergebnis war, dass beim Menschen nach der Geburt keine neuen Neuronen mehr gebildet wurden, während bei Nagetieren bis zu 50% im erwachsenen Alter erneuert werden [3].

    Solche Bestimmungen wurden auch schon für den Hippocampus, einem zentralen Teil des Gehirns, der für Gedächtnis, Lernfähigkeit und Gefühle verantwortlich zeichnet, durchgeführt. Das überaus wichtige Ergebnis dieser Versuche ist, dass hier Neuronen während des ganzem Lebens neu gebildet werden können [4].

    Untersuchungen zu Zellerneuerungen an Hand des 14C-Bombenpeaks wurden auch schon auf andere Zelltypen wie beispielsweise Herzmuskel- und Fettzellen ausgedehnt und damit wichtige Schlußfolgerungen über die Zelldynamik dieser Zellen erzielt.

    The Ugly and the Beautiful

    Die Kombination eines ungewollten Nebeneffekts der Kernwaffentests mit einer nützlichen Anwendung in der Molekularbiologie hat diesem Artikel den Namen gegeben, der wohl in diesem Fall berechtigt ist.

     

    [1] Spalding KL et al., (2005), Retrospective birth dating of cells. Cell 122: 33

    [2] Bhardawaj RD et al., (2006). Neocortical neurogenesis in humans is restricted to development. PNAS 103:12564-12568

    [3] Bergmann O et al., (2012), The Age of Olfactory Bulb Neurons in Humans. Neuron 74:634-639

    [4] Spalding KL et al., (2013). Dynamics of hippocampal neurogenesis in adult humans. Cell 153:1219-1277.


    Weiterführende Links

    Atombombenversuche (Nevada): arte doku Youtube Videos 3Teile a ca. 15:30 min 1. Teil:

    http://www.youtube.com/watch?v=a9Ubvtbj9R4&list=PL897A05AE36108E23

    Zur 14C-Altersbestimmung: Harald Lesch: Wie bestimmt man das Alter von Gesteinen? Youtube Video 14:33 min http://www.youtube.com/watch?v=OqVLyt06zds

    Ein sehr guter (relativ einfacher) Überblick über die von Kutschera angewandte Massenspektrometrie: W. Kutschera, Massenspektrometrie - Das Sortieren von Atomen „One by One“. Physik in unserer Zeit / 31. Jahrg. 2000 / Nr. 5, 203-208. http://www.uni-ulm.de/fileadmin/website_uni_ulm/nawi.inst.220/lehre/Atom... (free download) (“Sortiert man die in einem Stück Materie enthaltenen Atome nach ihrer Kernladung, Masse und relativen Häufigkeit, so hat man die atomare Zusammensetzung vollständig bestimmt. Die Beschleunigermassenspektrometrie ermöglicht diese Analyse mit bisher nie gekannter Empfindlichkeit”)


     

    inge Fri, 04.10.2013 - 04:37

    CERN: Ein Beschleunigerzentrum — Experimente, Ergebnisse und wozu braucht man das?

    CERN: Ein Beschleunigerzentrum — Experimente, Ergebnisse und wozu braucht man das?

    Fr, 06.09.2013 - 07120 — Manfred Jeitler

    Icon PhysikManfred Jeitler

    Das bei Genf angesiedelte CERN (Conseil Européen pour la Recherche Nucléaire) hat mit Hilfe großer Teilchenbeschleuniger bereits fundamentale Erkenntnisse über den Aufbau der Materie aus Elementarteilchen und die Wechselwirkung zwischen diesen erzielt. Im vorangegangenen Artikel (1) hat der Autor erklärt, warum man dafür Teilchen auf sehr hohe Geschwindigkeit und zur Kollision bringen muß. Daneben sind am CERN als Nebenprodukte u.a. auch das World Wide Web enstanden - um Wissenschaftlern die Kommunikation zu erleichtern -, ebenso wie innovative Technologien der Strahlentherapie .

    Im vorangegangen Artikel (1) hatten wir über die Bestandteile der Materie - die „Teilchen“ -, gesprochen. Diese Bestandteile der Atome sind teilweise „Elementarteilchen“ (wie zum Beispiel das Elektron): elementar in dem Sinne, dass sie keine innere Struktur aufweisen. Andere, wie zum Beispiel das Neutron, bestehen wiederum aus noch kleineren Teilchen, den so genannten „Quarks“, können also eigentlich nicht als „Elementarteilchen“ bezeichnet werden.

    Autodrom: alle fahren gleich schnell!

    Da die uns interessierenden Teilchen sehr klein und leicht sind, haben sie bei den für uns wichtigen Energien im Allgemeinen eine sehr hohe Geschwindigkeit. Es gibt aber eine absolute Geschwindigkeitsbeschränkung, an die sich die Teilchen halten müssen: die Lichtgeschwindigkeit (d.i. die Geschwindigkeit von Licht im Vakuum). Für Überschreitung der Lichtgeschwindigkeit hat noch kein Teilchen je ein Strafmandat gekriegt! (Vor einiger Zeit hat man geglaubt, ein paar Neutrinos auf frischer Tat ertappt zu haben. Obwohl das in Italien war, hat sich dann aber herausgestellt, dass die Neutrinos sich ganz brav an die Lichtgeschwindigkeitsbeschränkung gehalten haben und die „Radarfalle“ der Physiker einen Messfehler hatte.)

    Wenn wir den Teilchen beim Umherfliegen zuschauen könnten würde uns das Bild vielleicht an ein Autodrom im Wurstelprater erinnern: alle fahren (fast) gleich schnell. Der 27 km lange Large-Hadron-Collider (LHC)-Tunnel des CERN enthält die letzte Stufe des Beschleunigerkomplexes ((1): Abbildung 1). Darin werden die Protonen von 99,999 783 % der Lichtgeschwindigkeit auf 99,999 996 % der Lichtgeschwindigkeit beschleunigt. Die Protonen haben danach allerdings fast acht Mal so viel Energie wie vorher!

    Die „Sekundärteilchen“, die dann bei den Protonkollisionen entstehen, sind zwar nicht ganz so schnell, wenn sie aber nicht wenigstens so um die 90 Prozent der Lichtgeschwindigkeit haben, haben sie so wenig Energie, dass wir sie mit unseren Detektoren gar nicht wahrnehmen können. Es geht also so zu wie auf einer amerikanischen Autobahn, wo sich jeder brav an die 70-Meilen-Beschränkung hält und keiner auch nur fünf km/h schneller oder langsamer fährt.

    Netz oder Tenniskunststück?

    Wenn Sie ungefähr so gut Tennis spielen können wie ich, dann treffen Sie alle Mal ganz leicht ins Netz. (Drüber zu schießen ist für mich schon schwieriger. Drum bin ich auch lieber Physiker geworden und habe keine professionelle Tennislaufbahn eingeschlagen.) Wenn Sie aber ein Tennis-Ass sind, habe ich eine kleine Aufgabe für Sie: Sie und Ihr Partner schießen jeder gleichzeitig einen Ball ab, und über dem Netz sollen sich die beiden Bälle treffen. Damit sind Sie dann, glaube ich, eine Zeit lang beschäftigt. Gerade so etwas machen die Physiker am LHC, dem größten Beschleuniger am CERN: der LHC ist ein so genannter „Collider“, eine Kollisionsmaschine. Die Protonen werden damit nicht auf einen ruhenden, großen Block geworfen (was leichter wäre), sondern gegeneinander geschossen (und da zu treffen ist bei der Kleinheit der Protonen ziemlich schwer). Ganz schön ambitioniert, diese Physiker.

    Warum machen sie das denn? Wenn Sie mit dem Auto einen Unfall bauen, ist es für Sie noch immer besser, in ein stehendes Auto hinein zu fahren, als in eines, das Ihnen mit derselben Geschwindigkeit entgegen kommt. Die Energie, die Ihre Motorhaube und Sie selbst zerquetscht, ist dann nur etwa halb so groß. Aber bloß, um die Kollisionsenergie zu verdoppeln, würden es doch die Physiker nicht akzeptieren, die Protonen gegeneinander zu schießen und dabei natürlich nur eine recht geringe Trefferquote zu haben? Da baut man doch lieber den Beschleuniger ein bisschen stärker und trifft jedes Mal?

    Tatsächlich ist aber in der Nähe der Lichtgeschwindigkeit der Unterschied viel größer als ein Faktor zwei! Schuld daran sind der Herr Einstein und seine Relativitätstheorie. Bei Geschwindigkeiten nahe der Lichtgeschwindigkeit muss man anders rechnen als bei den Geschwindigkeiten, die wir aus dem täglichen Leben gewohnt sind. Beim LHC würde man nur etwa 1 Prozent der Kollisionsenergie erreichen, wenn man nicht frontal auf gegenlaufende Protonen sondern auf unbewegtes Material (sozusagen eine „Zielscheibe“, ein so genanntes „Target“) schießen wollte. Wollte man mit denselben technischen Einrichtungen die Energie erreichen, die wir bei Protonkollisionen jetzt haben, so müsste man den Beschleuniger etwa hundert Mal größer bauen. Ein 3000 km langer Tunnel wird dann aber doch etwas aufwändig, da ist es schon besser, man strengt sich etwas an und schießt die Protonen gegeneinander.

    Frontalzusammenstöße: LHC-Experimente

    Genau das macht man bei den LHC-Experimenten. Hier ist man bestrebt, die höchsten erreichbaren Kollisionsenergien zu erzielen. Damit kann man dann in großer Menge schwere instabile Teilchen erzeugen, wie zum Beispiel das oben bereits erwähnt Higgs-Teilchen. Die dabei gegeneinander laufenden Protonen sind viel kleiner als der Durchmesser der Protonstrahlen. Daher ist die Wahrscheinlichkeit einer Kollision für ein bestimmtes Proton sehr klein (ähnlich wie bei dem oben erwähnten Tenniskunststück), und die meisten laufen auch nach einer „Kollision“ der Strahlen unbeirrt weiter. Nur weil in beiden Strahlen nicht nur eines, sondern sehr viele Protonen umlaufen (etwa hunderttausend Milliarden), kommt es immer wieder zu Zusammenstößen. Die anderen Protonen laufen weiter und haben beim nächsten Kreuzungspunkt wieder die Chance, ein anderes Proton zu treffen. CMS-DetektorAbbildung 1. Der Detektor „CMS“, eine der vier großen Anlagen zur Beobachtung der Protonkollisionen am LHC.

    Es gibt vier solche Kreuzungspunkte, an denen große „Detektoren“ beobachten, was bei einem Zusammenstoß passiert (Abbildung 1). Zwischen diesen Kreuzungspunkten fliegen die Protonen jeweils in einem getrennten Rohr in eine Richtung, etwa wie die Autos auf einer Autobahn mit getrennten Fahrtrichtungen. Bei den Detektoren an den Kreuzungspunkten wechseln dann die Protonen jeweils von Rechtsverkehr (wie in Österreich) auf Linksverkehr (wie in England) oder umgekehrt. Nach einem Umlauf um den LHC-Ring geht es dann gleich in den nächsten, ähnlich wie bei einem Formel-1 Rennen. In einer Sekunde geht es 11245 Mal im Kreis herum (mit fast Lichtgeschwindigkeit, wie Sie schon wissen), und das „Rennen“ dauert viele Stunden. Zum Unterschied von den Rennautos machen die Protonen aber keine Boxenstopps und müssen nicht auftanken: sobald sie vom Beschleuniger auf ihre Endgeschwindigkeit (und damit endgültige Energie) gebracht worden sind, fliegen sie im Wesentlichen ohne Widerstand immer weiter.

    Zwei der vier Detektoren suchen nach neuen, schweren Teilchen beliebiger Art. Diese beiden Anlagen heißen „ATLAS“ und „CMS“(Abbildung 2). Bei CMS ist das Wiener Institut für Hochenergiephysik der Österreichischen Akademie der Wissenschaften maßgeblich beteiligt, und bei ATLAS arbeitet eine Arbeitsgruppe der Universität Innsbruck mit. Ein weiterer Detektor mit dem schönen Namen „ALICE“ untersucht, was passiert, wenn man statt Protonen Blei-Kerne aufeinander schießt. Und schließlich gibt es am LHC noch die Anlage „LHCb“, die sich bei ihren Untersuchungen auf Teilchen konzentriert, die so genannte „schöne“ Quarks („beauty“ oder „bottom“ Quarks) enthalten. Computerrekonstruiertes ZerfallsereignisAbbildung 2 Mit dem Computer rekonstruierte Darstellung eines mit dem Detektor „CMS“ am LHC aufgezeichneten Ereignisses. Möglicher Weise handelt es sich hier um den Zerfall eines Higgs-Teilchens.

    Ins Schwarze getroffen: „Fixed-Target-Experimente“

    Nicht bei allen Untersuchungen braucht man die allerhöchsten Kollisionsenergien. Manchmal kommt es eher darauf an, sehr viele Zusammenstöße zu untersuchen. Das ist wie bei einer Meinungsumfrage: je mehr Leute Sie befragen, desto eher können Sie das Wahlergebnis vorhersagen. Dann schießt man nicht die Protonen wie Tennisbälle gegeneinander, sondern einfach in ein großes „Netz“, in das man eben viel leichter und öfter trifft. Dieses „Netz“ oder „Target“ (englisch für „Zielscheibe“) ist tatsächlich ein Metallstab mit ein paar Millimeter Durchmesser. Noch immer dünn, aber riesengroß im Vergleich zu den Protonstrahlen (und erst recht im Vergleich zu denen einzelnen Protonen). Auch bei diesen Experimenten ist Österreich mehrfach beteiligt.

    Neutrinos auf Italienurlaub

    Wenn Sie im Sommer nach Italien fahren, so müssen Sie mühsam auf irgendwelche Alpenpässe hinauf und auf der anderen Seite wieder hinunter, oder Sie fahren durch einen Tunnel. Neutrinos haben’s da leichter: die reisen schnurstracks durch die Erde. Neutrinos sind eine Art von Teilchen, die so klein sind und so wenig mit anderen Teilchen oder mit anderer Materie wechselwirken, dass sie durch die ganze Erde, durch die ganze Sonne und noch viel weiter fliegen können, ohne dass ihnen was passiert. Das haben sich die Physiker am CERN und in Italien zu Nutze gemacht. Es gibt nämlich sehr interessante Effekte, die auftreten, wenn Neutrinos lange unterwegs sind. So große Anlagen zu bauen, könnte man sich nicht leisten. Man schießt lieber einfach die Neutrinos am CERN, wo sie produziert wurden, in die Erde, und in der Nähe von Rom kommen sie dann wieder zum Vorschein. Unter dem Gran Sasso, einem hohen Berg bei Rom, stehen große Detektoren, die diese Neutrinos dann nachweisen. Natürlich nicht alle, denn auch mit den Detektoren „sprechen“ die Neutrinos meistens nicht, aber von vielen Milliarden wird halt manchmal eines nachgewiesen, und das ermöglicht dann interessante Rückschlüsse auf die Physik der Teilchen.

    Was kümmern uns diese Teilchen?

    Felix - What's the use?Vielleicht denken Sie sich jetzt: das ist ja alles schön und gut, aber was ist so interessant an irgendwelchen Teilchen, die man künstlich erzeugt und die dann eh gleich wieder zerfallen? Ist das nicht eine abstruse Spielerei ohne jeden Wirklichkeitsbezug? Nein! Keineswegs! Diese Teilchen gibt es ja in der Natur, sie entstehen und verschwinden ständig, sind aber für das Verständnis der Struktur der uns umgebenden Materie ungemein wichtig. Nur, wenn wir ihre Natur verstehen, können wir herausfinden, „was die Welt im Innersten zusammenhält“, wie es schon Goethes Faust angestrebt hat.

    So waren die Entdeckung eines Teilchens mit den Eigenschaften des seit langem vorhergesagten Higgs-Bosons, aber auch schon die Entdeckungen der so genannten W- und Z-Bosonen vor dreißig Jahren (wofür CERN-Physiker damals den Nobelpreis erhielten) glänzende, unbedingt notwendige Bestätigungen für unsere Theorie der Struktur der Materie auf subatomarem Niveau. Hätte man diese Teilchen nicht entdeckt, so müssten wir dieses so genannte „Standardmodell“ über Bord werfen und uns etwas Neues überlegen. Zur Zeit suchen die CERN-Physiker nach neuen, so genannten „supersymmetrischen“ Teilchen. Je nachdem, ob man sie findet oder nicht, wird man sich für die eine oder die andere Art von weiterführenden Theorien entscheiden müssen.

    Direkte praktische Auswirkungen hat das für unser Leben vielleicht nicht: die Materie würde auch nicht zerfallen, wenn wir nicht wüssten, was sie zusammenhält. Streben nach Erkenntnis und Verständnis ist aber die Grundlage aller Kultur. Außerdem aber ist auch technischer Fortschritt auf längere Sicht ohne Grundlagenforschung nicht möglich.

    Auswirkungen auf das praktische Leben

    Vielleicht interessieren Sie sich eigentlich nicht sehr für Physik (auch wenn das eher unwahrscheinlich ist ... dann hätten Sie nämlich wohl nicht bis hier her gelesen). Aber gesetzt den Fall, jemandem ist die Physik egal: das ist ja durchaus möglich, es gibt ja auch Leute, die keine Oper mögen oder denen es nicht wichtig ist, was die alten Ägypter über das Leben nach dem Tode gedacht haben. Wenn also jemandem die Struktur der Materie und der Aufbau der Welt nicht untersuchungswert erscheint, ist dann für diesen die ganze CERN-Forschung nur hinausgeworfenes Geld?

    Entwicklung des World Wide Web

    Ganz sicher nicht. Die Grundlagenforschung war schon immer wichtig für die technische Entwicklung und den Fortschritt in allen möglichen praxisorientierten Bereichen. Ein Beispiel, das mit dem CERN zu tun hat, ist das World Wide Web. Entwickelt wurde es ursprünglich am CERN, um den Physikern den Austausch von Informationen zu erleichtern. Heute kann man ohne dieses System nicht einmal mehr Flugtickets oder Theaterkarten kaufen. Die Beschleunigerforschung ist aber auch in einem Bereich wichtig, der uns eigentlich noch viel mehr berührt, als irgendwelche finanzielle Erleichterungen: es handelt sich um unsere Gesundheit.

    Ihrer Gesundheit zuliebe: MedAustron

    Mit der steigenden Lebenserwartung der Menschen und den immer besseren Möglichkeiten, verschiedene Krankheiten zu heilen, spielen in unserem Leben Krebserkrankungen leider eine immer größere Rolle. Viele davon können mit Strahlentherapie erfolgreich behandelt werden, die Nebenerscheinungen dieser Behandlungen sind jedoch ein großes Problem. Einige dieser Erkrankungen kann man viel gezielter mit Protonen oder Ionen behandeln als mit den herkömmlicheren und billigeren Gammastrahlenanlagen, die in Spitälern zu finden sind. Dafür braucht man allerdings große Beschleunigeranlagen. Zur Zeit wird in Wiener Neustadt eine solche Anlage gebaut, das „MedAustron“. Das gesamte Know-How dafür kommt vom CERN. Hier haben die österreichischen Ingenieure und Physiker die Anlage konstruiert, ohne die Unterstützung der CERN-Physiker hätte man dieses Zentrum unmöglich so bauen können, wie dies nun geschieht.

    CERN: ein Weltzentrum

    Im Verlaufe der Zeit ist man bei der Erforschung der Elementarteilchen zu immer höheren Energien übergegangen, und dementsprechend mussten die Beschleuniger immer größer und komplizierter werden. Heute kann sich keine einzelne Universität und auch kein einzelnes Land Anlagen von der Größe des CERN leisten. Dementsprechend ist es ganz natürlich, dass heute die ganze Welt in diesem Bereich zusammenarbeitet. Das CERN ist schon lange kein rein „europäisches“ Zentrum mehr. Hier arbeiten auch jede Menge Amerikaner, Russen, Chinesen, Japaner, Inder und Vertreter praktisch aller Länder mit, in denen aktiv Elementarteilchenphysik verfolgt wird. Da man sich nicht mehr mehrere derartige Anlagen in der Welt leisten kann, ist es natürlich wichtig, dass es auch am CERN eine gewisse innere Konkurrenz gibt, mehrere Experimente, die ihre Resultate gegenseitig überprüfen können. Die Tatsache, dass hier alle nebeneinander arbeiten können, ist aber ungemein befruchtend und wertvoll für alle Wissenschaftler, die hier tätig sind.

    Studentenjobs: Diplomarbeit am CERN

    Vielleicht haben Sie jetzt den Eindruck gewonnen, dass die Arbeit am CERN interessant und lohnend ist und denken sich: „Schade, dass nicht ich oder meine Kinder, oder meine Enkel auch dort arbeiten können!“ Dem ist aber keineswegs so! Das CERN lebt ja von der Mitarbeit der Wissenschaftler aus allen beteiligten Ländern. Vor allem junge Menschen sind es, die hier im Rahmen einer Diplomarbeit, einer Dissertation oder einer anderen Arbeit einige Jahre lang arbeiten, ihre neuen Ideen einbringen und gleichzeitig wertvolle Erfahrungen sammeln. In ihr Heimatland zurückgekehrt können sie diese Erfahrungen dann in der Wirtschaft oder in der Forschung anwenden. Dieser ständige Austausch ist also sowohl für das CERN wie auch für seine Mitgliedsländer von großem Wert. Kommen Sie, schauen Sie sich’s an ... und machen Sie mit.


    (1) CERN: Ein Beschleunigerzentrum — Wozu beschleunigen? http://scienceblog.at/cern-ein-beschleunigerzentrum-%E2%80%94-wozu-besch...
    Artikel im ScienceBlog:
    Woraus unsere Welt besteht und was sie zusammenhält — Teil 1: Ein Zoo aus Teilchen
    Woraus unsere Welt besteht und was sie zusammenhält — Teil 2: Was ist das Higgs-Teilchen?


    Weiterführende Links

    Vorträge und Vorlesungen von Manfred Jeitler

    Higgs – CERN – Universum (PDF download; leicht verständliche Darstellung in Deutsch; zuletzt abgerufen am 17.11.2012)

    Die größte Maschine der Welt (PDF-download; leicht verständliche Darstellung in Deutsch; zuletzt abgerufen am 19.11.2012)
    Astro-Particle Physics (WS 2012/13) — PDF-Downloads:
    Teil 1 Überblick
    Teil 2: Detektoren
    Teil 3: Beschleunigungsmechanismen
    Introduction to Particle Physics

    CERN

    Publikumsseiten des CERN

    Auf der Webseite des CERN findet sich u.a. eine Fülle hervorragender Darstellungen der Teilchenphysik (Powerpoint-Präsentationen) http://education.web.cern.ch/education/Chapter2/Intro.html


     

    inge Fri, 06.09.2013 - 07:10

    CERN: Ein Beschleunigerzentrum — Wozu beschleunigen?

    CERN: Ein Beschleunigerzentrum — Wozu beschleunigen?

    Fr, 23.08.2013 - 05:36 — Manfred Jeitler

    Icon Physik

    Manfred JeitlerDas bei Genf angesiedelte CERN (Conseil Européen pour la Recherche Nucléaire) erzielt mit Hilfe großer Teilchenbeschleuniger fundamentale Erkenntnisse über den Aufbau der Materie aus Elementarteilchen und die Wechselwirkung zwischen diesen. Im diesem Artikel erklärt der Autor warum man dafür Teilchen auf sehr hohe Geschwindigkeit und zur Kollision bringen muß. Ein in Kürze folgender Artikel wird sich mit den Experimenten am CERN und deren Ergebnissen beschäftigen.

    Warum denn so eilig?

    Das europäische Teilchenphysikzentrum CERN ist eine Beschleunigeranlage. „Beschleunigen“ heißt in unserem Sprachgebrauch so viel wie „schneller machen“. Dass heute alles recht schnell gehen soll, wissen wir ja zur Genüge. Wir reisen mit Autos und Flugzeugen, um recht schnell woanders zu sein, von wo wir dann umso rascher wieder abreisen können. Und jetzt verfallen die Physiker auch diesem Schnelligkeitswahn und bauen sogar ein eigenes Zentrum, um alles noch schneller zu machen! Geht es nicht auch ein bisschen langsamer? So etwas denken Sie sich vielleicht jetzt.

    Alice im Wunderland – HaseAlice im Wunderland - das weiße Kaninchen: “Oh dear! Oh dear! I shall be too late!" (Lewis Caroll; free clipart, http://www.disneyclips.com/linktous.html)

    Die Antwort kommt vielleicht etwas überraschend: nein, langsamer geht es zwar nicht, aber eigentlich kommt es den Physikern überhaupt nicht auf die Schnelligkeit an. Was die Beschleuniger für uns tun, ist, den Teilchen höhere Energien zu verleihen. (Um welche Teilchen es sich hier eigentlich handelt, werden wir weiter unten besprechen.) Bei höheren Geschwindigkeiten hat das bewegte Objekt eine höhere Energie, das wissen wir alle. Im normalen Leben ist das eher eine unangenehme Nebenerscheinung: wenn man mit dem Auto schnell unterwegs ist, will man nur recht rasch von A nach B kommen; dass die in der Geschwindigkeit des Autos steckende Energie beim ungewollten Zusammenstoß mit einem Baum oder anderen Fahrzeug dann dazu verbraucht wird, um das Auto und seine Insassen zu deformieren, ist ein zwar bekannter, aber durchaus unerwünschter Nebeneffekt. Für den Teilchenphysiker sieht das ganz anders aus. Dass die Teilchen so rasch umherfliegen, macht ihre Beobachtung etwas schwieriger. Sie zu untersuchen, geht aber nur, indem man sie mit großer Energie gegeneinander schießt (Abbildung 1).Large Hadron Collider – LHC

    Abbildung 1. Large Hadron Collider – LHC. Im Strahlrohr des LHC-Beschleunigers fliegen in einem 27 km langen kreisförmigen Tunnel ständig gegenläufig Protonen herum. Sie werden auf hohe Energien beschleunigt und dann zur Kollision gebracht.

    Bitte nur anschauen, nicht kaputt machen?

    Wenn Sie sich an Ihre frühe Kindheit erinnern, so werden Sie das verstehen: das Innenleben eines Spielzeugs haben wir damals dadurch untersucht, dass wir es fest auf den Boden geworfen haben, bis das Ganze auseinander gebrochen ist. Für erwachsene Menschen scheint die Methode etwas brutal. Wenn ein Industriespion das Auto der Konkurrenzfirma nachbauen will, wird er wohl nicht damit gegen einen Baum fahren, sondern es eher mit dem Schraubenzieher sorgfältig in seine Teile zerlegen und diese einzeln abzeichnen. Nur diese Teilchenphysiker scheinen ja ganz infantile Methoden zu verwenden.

    Wir dürfen aber nicht vergessen, dass es bei Teilchen gar keine andere Möglichkeit gibt. „Sehen“ im landläufigen Sinn des Wortes kann man sie ja nicht, dafür sind sie zu klein. Was heißt denn „sehen“? Man dreht eine Lampe auf und schießt damit „Photonen“, die Teilchen, aus denen das Licht besteht, auf das zu untersuchende Objekt (oder man geht einfach in die Sonne, die uns Photonen in großer Zahl frei Haus liefert). Dieses Objekt wirft die Photonen dann in verschiedene Richtungen zurück, und ein Teil davon landet in unserem Auge. Aus deren Verteilung (wo dunkel, wo hell) und Energie (Farbe: ein blaues Photon hat mehr Energie als ein rotes) können wir dann die Form und Beschaffenheit des Gegenstandes ableiten.

    Elementarteilchen sind so klein, dass sie zu einem bestimmten Zeitpunkt bestenfalls von einem Photon getroffen werden können. Dieses Photon können wir vielleicht wahrnehmen. Es gibt aber dem anderen Teilchen gleichzeitig einen Schubser, sodass dieses danach ein bisschen wo anders sein und mit anderer Energie durch die Gegend fliegen wird: wir haben seinen Ort und seine Energie beeinflusst. Trotzdem können wir auf diese Weise etwas über die Teilchen lernen. Dabei machen wir uns die Tatsache zu Nutze, dass Elementarteilchen derselben Sorte immer gleich sind. Kein Elektron ist dicker als ein anderes, kein Positron ist hübscher als sein Nachbar. Diese Teilchen sind keine Individualisten. Sie können Ihrem Lieblingsteilchen kein rotes Mascherl umhängen, um es wieder zu erkennen. Wenn Sie eine sehr gute Beobachtungsgabe haben, können Sie vielleicht einem Taschenspieler auf die Schliche kommen, wenn er Ihnen mit dem Drei-Karten-Trick das Geld aus der Tasche ziehen will (ich habe das allerdings nie geschafft). Bei Elementarteilchen haben Sie keine Chance, versuchen Sie’s gar nicht: sie verlieren allemal. Für die Physiker ist das aber gut: selbst wenn ein Elektron entwischt, nachdem es ein anderes Teilchen reflektiert hat, macht das nichts: wir untersuchen ein paar Tausend Elektronen, und da sie alle gleich sind, wissen wir dann etwas über „das Elektron“ schlechthin.

    Die Teilchenphysiker haben noch etwas den Menschen im täglichen Leben voraus: sie haben verschiedene Arten von „Licht“, könnte man sagen, denn sie können Teilchen nicht nur mit Photonen, sondern auch mit einer ganzen Reihe anderer Teilchen bewerfen und sie in diesem „Licht“ untersuchen. Ganz unbekannt ist Ihnen das wahrscheinlich nicht, Sie haben vermutlich schon von Elektronenmikroskopen gehört, bei denen man Objekte nicht mit normalem Licht, sondern mit einem Elektronenstrahl „beleuchtet“.

    Aber warum denn so stark draufhauen?

    Erinnern Sie sich, warum man Elektronenmikroskope braucht? Ganz kleine Objekte wie z.B. Viren kann man mit normalem Licht nicht untersuchen, weil dieses zu wenig Energie hat. Je kleiner die Struktur, desto größer muss die Energie sein, um sie ordentlich zu sehen. Wenn Sie eine Nähnadel einfädeln wollen, brauchen Sie dafür gutes Licht. Die Schuhbänder kriegt man auch im halbdunklen Vorzimmer ganz gut in die Ösen hinein. Um Elementarteilchen immer genauer zu untersuchen, muss man sie mit Teilchen immer höherer Energie beschießen.

    Entsprechend dem obigen Beispiel mit dem Kinderspielzeug denken Sie vielleicht, wir sehen auf diese Weise die Oberfläche der Teilchen und vielleicht auch noch, was drinnen steckt, indem wir sie auseinander brechen. Das stimmt nur zum Teil. „Auseinander brechen“ in dem uns geläufigen Sinn geht nämlich bei Elementarteilchen nicht. Die hohe Energie unserer Teilchen birgt aber noch eine Möglichkeit in sich: wir können damit neue Teilchen erzeugen!

    Aus Bums wird Dings

    Es gibt eine Formel in der modernen Physik, die auch die meisten Nichtphysiker kennen und die gleichsam ein Symbol für Klugheit und Verständnis geworden ist:

    E=mc2

    . Was heißt das? Energie (abgekürzt „E“) ist dasselbe wie Masse (abgekürzt „m“), nur mit einem Umrechnungsfaktor multipliziert (der ist ziemlich groß, nämlich das Quadrat der Lichtgeschwindigkeit „c“: c2). Sie können also, wenn Sie wollen, ihr Gewicht in Kilowattstunden angeben (ich schätze, Sie wiegen so um die 2000 Milliarden kWh) und die Stromrechnung in Kilogramm umrechnen (vermutlich verbraucht Ihr Haushalt so um die 0,000 000 1 kg Strom pro Jahr).

    Den Mechanismus der Stromerzeugung in einem Kernkraftwerk kann man so verstehen: tatsächlich wiegen alle „Abfälle“ ein kleines bisschen weniger als der ursprüngliche Kernbrennstoff. Aus etwas Materie (oder Masse) haben wir damit Energie gewonnen. Salopp könnte man sagen: „Aus Dings wird Bums“.

    Man kann den Spieß aber auch umdrehen und aus Energie Materie erzeugen. Ich würde Ihnen jetzt nicht empfehlen, den Zucker für den Frühstückskaffee aus der Steckdose zu beziehen. Abgesehen davon, dass das technisch recht aufwändig wäre, käme Ihnen dabei der Zucker für ein Heferl Kaffee bei den jetzigen Strompreisen auf etwa 10 Millionen Euro. Da haben Sie’s beim Greißler billiger. Für viele Elementarteilchen ist das aber die Methode der Wahl: es sind instabile Teilchen, die nach ganz kurzer Zeit zerfallen. Sie kommen sehr wohl auch in der Natur vor, wo sie bei Zusammenstößen von anderen Teilchen (z.B. aus der kosmischen Strahlung) entstehen.

    Ein so ein Teilchen ist zum Beispiel das so genannte „Higgs-Teilchen“, benannt nach dem Physiker, der es erstmals vorhergesagt hat. Das ist etwa 125 Mal schwerer als ein Proton. Nachgewiesen wurde dieses Teilchens erstmals 2012 am CERN.* Dazu wurden Protonen gegeneinander geschossen, und dann konnte in einigen (sehr seltenen) Fällen das Higgs-Teilchen nachgewiesen werden. Es ist so, als würden zwei Fahrräder mit hoher Geschwindigkeit gegeneinander prallen, und plötzlich ist an der Unfallstelle ein Auto, das rasch davonfährt, und noch dazu ein ganzer Haufen von Fahrrädern, Tretrollern und Skateboards, die alle schnell auseinander fliegen. Wenn Sie so was im Fernsehen präsentiert bekommen, werden Sie sich vielleicht sagen, „Also das ist wohl der allerblödeste Science-Fiction-Film, den ich je gesehen habe!“ In der Elementarteilchenphysik geht es aber tatsächlich so zu! Und das „Auto“ (Higgs-Boson) war klarer Weise nicht in einem der „Fahrräder“ (Protonen) versteckt, sondern es entsteht tatsächlich durch die vorhandene Bewegungsenergie der „Fahrräder“ beim Zusammenprall. Aus Bums wird Dings.

    Aber was sind denn nun diese „Teilchen“ oder „Elementarteilchen“?

    Ja, das kann man nicht mit einem Wort sagen, drum habe ich es auch bis jetzt verschwiegen. Was Atome sind, wissen Sie wahrscheinlich: es sind die Bestandteile der Materie. Die „Teilchen“, von denen wir hier sprechen, sind wiederum die Bestandteile der Atome. Von manchen haben Sie schon gehört, und ich habe sie auch oben erwähnt, ohne sie genauer zu beschreiben. Es gibt Protonen (die gemeinsam mit „Neutronen“ in den „Kernen“ der Atome sitzen), Elektronen (die darum herumfliegen), Photonen (die Teilchen des Lichts) und noch eine ganze Menge anderer Teilchen, die instabil sind, aber beim Zerfall von radioaktiven Atomen oder bei hochenergetischen Zusammenstößen anderer Teilchen erzeugt werden können. Einige dieser Teilchen (wie zum Beispiel das Elektron) sind „Elementarteilchen“: elementar in dem Sinne, dass sie keine innere Struktur aufweisen, aus nichts anderem bestehen. Andere bestehen wiederum aus noch kleineren Teilchen wie zum Beispiel das Proton (Abbildung 2) oder das Neutron , nämlich aus den so genannten „Quarks“, und man kann sie darum eigentlich nicht als „Elementarteilchen“ bezeichnen. Darum müssen wir den allgemeinen Ausdruck „Teilchen“ verwenden aber uns immer daran erinnern, dass wir damit etwas anderes als z.B. die Russteilchen in Autoabgasen meinen.

    ProtonAbbildung 2. Proton. Ein Proton besteht nach unserem heutigen Wissen aus mehreren noch kleineren Teilchen, den so genannten „Quarks“.

    In Fortsetzung des Artikels erscheint in Kürze: CERN: Ein Beschleunigerzentrum. Experimente, Ergebnisse und wozu braucht man das? Zu dem Thema Elementarteilchen hält der Autor am 22. November 2013 um 19:00 h einen Vortrag an der Wiener Urania: "Die Sprache der Elementarteilchen". *Siehe Manfred Jeitler, Scienceblog 2013:


    Weiterführende Links

    Vorträge und Vorlesungen von Manfred Jeitler

    Higgs – CERN – Universum (PDF download; leicht verständliche Darstellung in Deutsch; zuletzt abgerufen am 17.11.2012)

    Die größte Maschine der Welt (PDF-download; leicht verständliche Darstellung in Deutsch; zuletzt abgerufen am 19.11.2012)

    Astro-Particle Physics (WS 2012/13) — PDF-Downloads:

    Introduction to Particle Physics

    CERN

    Publikumsseiten des CERN Auf der Webseite des CERN findet sich u.a. eine Fülle hervorragender Darstellungen der Teilchenphysik (Powerpoint-Präsentationen) CERN teaching resources

    inge Sun, 23.06.2013 - 05:35

    Geheimnisvolle Sinne — Wie Lebewesen auf ihren Reisen das Magnetfeld der Erde messen

    Geheimnisvolle Sinne — Wie Lebewesen auf ihren Reisen das Magnetfeld der Erde messen

    Fr, 30.08.2013 - 05:56 — Gottfried Schatz

    Icon BiologieGottfried SchatzWenn unsere Zugvögel nun nach dem Süden aufbrechen, orientieren sie sich auf ihrer Route u.a. nach Stärke und Richtung des Magnetfelds der Erde. Diesen Magnetsinn teilen sie mit vielen anderen Lebewesen, angefangen von Bakterien bis hin zu Säugetieren. Wie die einzelnen Spezies das Magnetfeld „fühlen“ und verarbeiten, ist noch weitgehend unerforscht.

    Wie ist die Welt um mich beschaffen? Ich kann sie sehen, riechen, hören, betasten und schmecken, doch obwohl ich für diese Sinne Hunderte verschiedener biologischer Sensoren und mindestens ein Zehntel meiner Gene einsetze, öffnen sie mir nur ein schmales Tor zur Wirklichkeit. Meine Augen sehen nur einen verschwindenden Teil des immensen elektromagnetischen Spektrums, meine Ohren sind taub gegenüber tiefen und hohen Tönen, und meine Nase ist stumpf gegenüber Millionen von Düften, die mich umgeben. Um die Grenzen der Sinne zu erweitern, suchen viele Menschen Zuflucht bei Esoterik, Mystik oder Drogen. Und entspringen nicht auch Wissenschaft und Kunst unserem Sehnen, die Pforten der Wahrnehmung zu erweitern? Welche Welt würde sich mir erschliessen, wenn ich ultraviolettes oder infrarotes Licht sehen, Ultraschall hören, elektrische Felder spüren oder das Magnetfeld der Erde wahrnehmen könnte?

    Bakterien, Schildkröten, Hummer

    Viele Tiere besitzen solche Sinne, und keiner von ihnen ist geheimnisvoller als der Magnetsinn. Unser Planet ist ein gigantischer Magnet, weil sich in seinem Inneren flüssige eisenhaltige Schichten gegeneinander bewegen (Abbildung 1). Das Erdmagnetische Feld

    Abbildung 1. Das Erdmagnetische Feld (dargestellt als Feld eines Stabmagnets). Es verläuft nicht parallel zur Rotationsachse; seine Intensität ist am stärksten an den Polen, am schwächsten am magnetischen Äquator.

    Die magnetischen Feldlinien verlaufen am Äquator ungefähr parallel zur Erdoberfläche und fallen gegen die beiden Pole hin immer steiler zu ihr ab. Schon früh «lernten» Lebewesen, diese Feldlinien als Wegweiser zu verwenden. Vor dreissig Jahren entdeckte ein amerikanischer Biologe, dass manche Sumpfbakterien stets an den Nordrand eines Wassertropfens wanderten, jedoch die umgekehrte Richtung wählten, wenn er das Magnetfeld um den Wassertropfen künstlich umpolte. Diese «Magnetbakterien» besitzen lange Ketten aus membranumhüllten Kristallen des magnetischen Eisenoxids Magnetit, die als Kompassnadel wirken und dem Antriebsmotor der Bakterien die Bewegungsrichtung vorgeben (Abbildung 2).

    Magnetospirillum gryphiswaldenseAbbildung 2. Magnetospirillum gryphiswaldense. Diese im Wasser lebenden Bakterienzellen enthalten Ketten von Magnetitkristallen (unteres Bild), mit deren Hilfe sie sich zum Meeresboden orientieren. (Bild: Wikimedia Commons).

    Ihr Magnetsinn zeigt den Bakterien die Richtung zum Meeresboden und hilft ihnen so, Wasserschichten zu finden, die weder zu viel noch zu wenig Sauerstoff enthalten. Auch höhere Lebewesen, die im Verlauf ihres Lebens spektakuläre Fernreisen unternehmen, orientieren sich am Magnetfeld der Erde. Dies gilt vor allem für Meeresbewohner, die im Halbdunkel der Meere über Tausende von Kilometern ihre Wege ziehen. Wenn eine Unechte Karettschildkröte an den Oststränden Floridas aus dem Ei schlüpft, eilt sie sofort nach Osten ins schützende Nass, schwimmt mit dem Golfstrom zur Kreiselströmung der atlantischen Sargassosee und kehrt erst einige Jahre später nach Florida zurück. Wenn sie auf ihrer Heimreise die Kreiselströmung am falschen Ort verlässt und in kühle nördliche Gewässer abirrt, bedeutet dies ihr Ende; und auch ein Abdriften in den Süden verhindert meist die lebenswichtige Rückkehr zur heimatlichen Küste. Das ausschlüpfende Junge eicht seinen Magnetsinn zunächst nach dem vom östlichen Meeresstrand her einfallenden Licht und misst dann im freien Meer wahrscheinlich den Winkel zwischen den magnetischen Feldlinien und dem Meeresboden. Da dieser Winkel gegen die Pole hin steiler wird, zeigt er der schwimmenden Schildkröte die geographische Breite; wie das Tier die geographische Länge ortet, ist noch rätselhaft.

    Auch Mollusken, Hummer und viele Fische orientieren sich auf diese Weise. In all diesen Lebewesen, wie auch in Insekten und Säugetieren, finden sich winzige Magnetitkristalle, die denen von Magnetbakterien sehr ähnlich sind. In der Regenbogenforelle sind diese geordneten Kristallketten in besonderen Nervenzellen der Nasenregion angeordnet und über feine Proteinfäden mit der Innenseite der Zellmembran verbunden. So könnten sie die Kraft einer magnetischen Ablenkung auf die Membran übertragen, diese verformen und in ihr mechanisch empfindliche Schleusen für elektrisch geladene Metallatome öffnen. Dies ergäbe schliesslich ein elektrisches Signal, das an das Gehirn geleitet und von diesem als Positionsinformation entschlüsselt wird.

    Zugvögel - und der Mensch?

    Seine höchste Vervollkommnung findet der Magnetsinn in Zugvögeln, die sich auf ihren weltweiten Reisen je nach Umweltbedingungen an der Sonne, den Sternen und dem Magnetfeld der Erde orientieren. Langstrecken-Routen von ZugvögelnAbbildung 3. Langstrecken-Routen von Zugvögeln (Bild: L. Shyamal, Wikimedia Commons)

    Sie verwenden dazu wahrscheinlich mindestens zwei verschiedene Magnetsensoren. Der erste besteht wie bei Bakterien und Fischen aus Magnetitkristallen, befindet sich im Schnabel und misst die Stärke des Magnetfelds. Der zweite Sensor sitzt in den Augen und dürfte vor allem die Richtung der magnetischen Feldlinien erkennen. Er ist wahrscheinlich ein Farbstoff, dessen Moleküle in der Netzhaut geometrisch präzise angeordnet sind. Licht könnte in diesen Molekülen eine chemische Reaktion bewirken, die vom Magnetfeld der Erde beeinflusst wird. Wie erlebt eine Brieftaube das Magnetfeld der Erde? Sieht sie es? Und wenn ja, sieht sie es als Farbe oder Muster? Sie könnte das Magnetfeld auch fühlen, schmecken oder riechen - je nachdem, wie ihr Gehirn die vom Auge gelieferte Information interpretiert.

    Könnte es sein, dass das Magnetfeld der Erde auch mich beeinflusst? Mein Gehirn besitzt zwar Magnetitkristalle, doch nichts deutet darauf hin, dass sie mir einen sechsten Sinn verleihen. Hinweise, dass Änderungen des Magnetfelds den Gleichgewichtssinn, die Sehempfindlichkeit und sogar auch den Orientierungssinn von Testpersonen beeinträchtigen, stehen noch auf wackligen Beinen. Auch die Wirksamkeit von Wünschelruten ist noch unbewiesen. Dennoch würde ich es nicht ausschliessen, dass manche Menschen einen überentwickelten Magnetsinn besitzen und deshalb Verzerrungen des irdischen Magnetfelds durch Wasseradern oder Erzlager fühlen können.

    Ich weiss so wenig von der Welt, die mich umgibt, und jede Frage zeigt mir aufs Neue die Grenzen meiner angeborenen Sinne. Um diese Grenzen zu erweitern, schaffen wir uns unablässig neue Sinne: magnetische Augen, um in das Innere unseres Körpers zu blicken; elektronische Finger, um einzelne Atome abzutasten; und gigantische Ohren, um nach Radiosignalen aus den Tiefen des Universums zu lauschen. Diese neuen Sinne schenken uns faszinierende Einblicke in das Wirken unseres Körpers, die Natur der Materie und die Geschichte des Universums, doch da sie Maschinen sind, sprechen ihre Signale nicht zu uns, sondern zu anderen Maschinen. Unsere neuen Sinne sind von uns geschaffen, aber nicht Teil von uns - und weil sie unser Herz vergessen, können sie uns nie ganz befriedigen. Die biologischen Signale unserer Sinneswelt - der Schrei einer Möwe, das Leuchten eines Glühwürmchens oder der Duft einer Rose - sprechen dagegen direkt zu unserem Herzen und lassen uns ahnen, dass wir Teil eines grösseren Ganzen sind. Selbst wenn wir das Magnetfeld der Erde nicht wahrnehmen können.


    Weiterführende Links

    Magnetsinn und Heimkehrvermögen der Tiere. Video 5:53 min. SWR Fernsehen (1.9.2012)

    Magnetsinn der Vögel — Am Schnabel scheiden sich die Geister (Bericht FAZ, 19.4.2012)

    Pioniere der Orientierungsforschung


     

    inge Fri, 30.08.2013 - 05:56

    Hydrologie: Über die Mathematik des Wassers im Boden

    Hydrologie: Über die Mathematik des Wassers im Boden

    Fr, 16.08.2013 - 08:08 — Gerhard Markart

    Icon GeowissenschaftenGerhard Markart

    Welche Faktoren spielen zusammen, wenn Wasser über die Ufer tritt? Was versteht man unter der Versiegelung des Bodens und welche Auswirkungen hat sie auf den Wasserkreislauf?

    Starkregen – die Bedeutung des Waldes und funktionierender Böden

    Waldbestände halten große Niederschlagsmengen im Kronenraum zurück. Diese Interzeptionsverdunstung liegt je nach Baumart und Dichte des Bestandes bei vier bis sechs Millimeter pro Niederschlagsereignis, bei Nadelbäumen ist der Kronenrückhalt größer als bei Laubbäumen. Der Kronendurchlass (Wasser, das auf den Waldboden trifft) kann im Wald in der Regel leichter versickern als im umgebenden Freiland. Deshalb sind Wälder so wichtige Regulative im hydrologischen Haushalt.

    Die Reaktion des Bodens ist stark von der Intensität und der Dauer des Niederschlagsereignisses abhängig. Besonders bei kurzzeitigen Starkregen (Gewitterregen) ist auf feinteilreichen Böden mit geringer Deckung und auf versiegelten Standorten mit einem sehr hohen Abfluss zu rechnen.

    Beim Aufprall auf vegetationslosen Flächen bzw. solchen mit geringer Vegetationsdeckung verdichten die Tropfen die oberste Bodenschicht und zerplatzen. Diese kleineren Tropfen werden nach allen Seiten weggeschleudert und können dabei bis zu 100 Prozent ihrer eigenen Masse an Feststofffracht bewegen, ein Vorgang, der auch als Splash-Erosion – Effekt bezeichnet wird. Die erodierten Partikel werden an anderer Stelle eingeschlämmt, versiegeln die Oberfläche und vermindern dadurch sukzessive die Infiltrationsleistung des Bodens, das heißt die Fähigkeit des Bodens Niederschläge aufzunehmen, ist deutlich reduziert.

    Zusätzlich ist das Retentionsvermögen – die Aufnahmefähigkeit – des Bodens auch vom Grad der Vorbefeuchtung und Porenausstattung abhängig. Bei Gewitterregen unter extrem trockenen Bedingungen dauert es vor allem bei humusreichen und feinteilreichen Böden länger, die durch die Austrocknung entstandenen Benetzungswiderstände zu überwinden (vergleichbar einem trockenen Schwamm, den man auch einige Zeit benetzen bzw. sogar „durchkneten“ muss, damit er wieder Wasser aufnimmt). Hohe Vorfeuchte reduziert das Aufnahmevermögen, weil das Wasser durch das schon im Boden enthaltene Wasser und Luftpolster, die nicht entweichen können, an der Infiltration gehindert wird.

    Auf Grünland mit hohen Anteilen an abgestorbenen Pflanzenteilen gelangt ein hoher Anteil des Niederschlages oft gar nicht in den Boden. Dachziegelartige Anordnung der toten Blattteile, dichter Wurzelfilz und eine benetzungshemmende Wirkung des toten Materials bewirken einen Strohdacheffekt, dadurch fließt ein großer Teil des Wassers direkt an der Oberfläche ab.

    Abflussgeschwindigkeit und Abflussdämpfung

    Wenn man über das Abflussverhalten von Wasser spricht, dann ist neben der Rauigkeit der Oberfläche (z.B. Höhe, Dichte und Struktur der Vegetation) die Beschaffenheit des Bodens von zentraler Bedeutung: Die Retentionsfähigkeit des Bodens, also die Fähigkeit des Bodens, Wasser in seinen Poren zu speichern und in den tieferen Untergrund weiterzuleiten, trägt maßgeblich zur Dämpfung von Hochwässern bei. Technische Maßnahmen wie Rückhaltebecken, Dämme oder Deiche beeinflussen zwar den Prozess der Abflusskonzentration, nicht aber die Menge selbst. Deshalb gewinnt der dezentrale Hochwasserschutz zunehmend an Bedeutung. Dieser setzt bei der Entstehung des Abflusses an: Möglichst viel Wasser soll zumindest temporär nahe am Ort des Niederschlages gebunden werden. Der Niederschlag soll in den Boden infiltrieren, durch Pflanzen (z.B. Bäume, Büsche, Zwergsträucher) über direkten Rückhalt in der Blattmasse (Interzeption) und Transpiration an die Atmosphäre zurück gegeben bzw. über den Zwischenabfluss (Interflow) im Boden im unterliegenden geologischen Substrat oder im Grundwasserstrom zeitverzögert dem Vorfluter zugeführt werden (siehe Abb. 1).

    Kenngrößen des Wasserhaushaltes – Wege des WassersAbbildung 1. Kenngrößen des Wasserhaushaltes – Wege des Wassers

    Auf unbefestigten vegetationsfreien Oberflächen und dichten Böden entsteht rasch Oberflächenabfluss, dieser konzentriert auch auf Flächen, die für das menschliche Auge relativ gleichförmig erscheinen, oft schon nach wenigen Metern in den vorhandenen Tiefenlinien im Gelände (linearer Abfluss, siehe Abb.2): Die Fließgeschwindigkeit steigt vom flächigen Sheet – Flow (Zentimeter pro Sekunde) nach wenigen Metern um den Faktor zehn auf Dezimeter pro Sekunde, in Wildbächen und Flüssen werden besonders bei Starkregen Geschwindigkeiten von mehreren Metern pro Sekunde erreicht.

    Starkregensimulation auf einer planierten SchipisteAbbildung 2. Starkregensimulation auf einer planierten Schipiste mit = 100 mm Niederschlag pro Stunde (Boden: Braunlehm). Trotz der okular relativ gleichförmigen Oberfläche ist nach einer Fließstrecke von zehn bis zwölf Metern bereits eine deutliche Konzentration des Oberflächenabflusses zu erkennen. Als Farbtracer wurde Lebensmittelfarbe (brilliant-blue), diese ist biologisch abbaubar, verwendet.

    Auswirkungen von Landnutzung und Bodenversiegelung

    Eine hohe Rauigkeit der Oberfläche ist wichtig für die Verzögerung des Abflusses. So bremst z.B. eine gut gestufte Vegetationsdecke (Wald mit Unterwuchs, hoher Humusauflage und / oder hohem Totholzanteil, Zwergstrauchheide, Wiese vor der Mahd, bewegtes Kleinrelief…) die Geschwindigkeit des Oberflächenabflusses und erleichtert damit die Infiltration in den Boden.

    Katastrophenereignisse und Bodenversiegelung

    Das aktuelle großflächige Hochwasserereignis in Österreich und zahlreiche Katastrophenereignisse der letzten Jahre, unter anderem jene im August 2005 in Westösterreich, haben gezeigt, dass die Mehrwassermengen von Oberflächenabflüssen aus versiegelten Flächen einen wesentlichen und nicht zu unterschätzenden Faktor im Abflussverhalten von Wildbächen und ihren Vorflutern darstellen können. Während aus unbebautem Gelände in der Regel ein geringerer Teil der Niederschlagsmenge oberflächlich abfließt und im Vorfluter abflusswirksam wird, tritt der Abfluss aus versiegelten Flächen verstärkt und beschleunigt auf. Dies bedeutet neben der ungünstigen Beeinflussung des Gesamtwasserhaushaltes häufig auch eine Verschärfung der Hochwassersituation.

    Durch die Ausdehnung der Siedlungsgebiete und Verkehrswege und der damit verbundenen Versiegelung von Flächen kann Niederschlagswasser immer weniger natürlich in den Untergrund versickern. Über die Kanalisation abgeführtes Niederschlagswasser konzentriert die Abflüsse, verringert die Grundwasserneubildung, belastet Oberflächengewässer und reduziert die Reinigungsleistung der Abwasserreinigungsanlagen. Niederschlagswasser sollte deshalb nach Möglichkeit versickern und dem Grundwasserkörper zugeführt werden.

    Versickern – retendieren – schadlos ableiten

    Zur Beherrschung des Wasseranfalls aus Versiegelungsflächen gibt es eigentlich nur drei Möglichkeiten:

    1. Die kontrollierte Versickerung (möglichst dezentral, erforderlichenfalls im Kombination mit Rückhaltemaßnahmen zur Kappung anfallender Abflussspitzen). Sie funktioniert nur auf Böden mit ausreichender Durchlässigkeit, mögliche negative Auswirkung en auf die Hangstabilität (Gefahr von Rutschungen) und die Gefahr eines schnell austretenden Zwischenabflusses (Returnflow oder Reflow) müssen ausgeschlossen werden können. Es macht keinen Sinn, Wasser zu versickern, wenn es nach kurzer Strecke wieder konzentriert an die Oberfläche kommt.
    2. Die Retention, also der Rückhalt in Retentionsbecken, Stauraumkanälen, etc. mit dosierter Abgabe, um den Wassermehranfall für den Vorfluter (das Gewässer, in die ein anderes Gewässer mündet bzw. Wässer eingeleitet werden sollen) möglichst gering zu halten.
    3. Die direkte Ableitung über Oberflächenwasserkanäle in die Vorfluter.

     

    Die zuletzt angeführte Variante ist die gefährlichste. Durch die massiv zunehmende Besiedelung, Bebauung, Bewirtschaftung von landwirtschaftlichen Flächen mit schwerem Gerät u.a. stoßen gerade die Gewässer im Bereich der Siedlungsgebiete bei Starkregenereignissen immer rascher an die Grenze ihrer Aufnahmefähigkeit.


    Anmerkung der Redaktion

    Bei diesem Artikel handelt es sich um eine Presseaussendung des Insituts für Naturgefahren (BFW), er erschien auch vor 2 Monaten im bioskop, der Zeitschrift der Austrian biologist Association (ABA).

    Weiterführende Links

    Interview mit dem Autor (2011): Wälder statt Sturzbäche.Bodenmanagement mindert Klimawandel-Folgen Video (5:46 min, abgerufen am 14. August 2013)

    Die sehr schön und informativ gestaltete Website http://www.waldwissen.net enthält einige Artikel des Autors, welche das Thema des Blogbeitrags im Detail und in leicht verständlicher Form behandeln, u.a.:

    Markart, G.; Kohl, B. (2009): Wie viel Wasser speichert der Waldboden? Abflussverhalten und Erosion. BFW-Praxisinformation 19, 25 – 26.

    K.Klebinder et al., (2008): Auswirkungen der Versiegelung einfach berechnen.

    G. Markart et al., (2005): Vom Hubschrauber aus Hinweise auf mögliche Naturgefahren erhalten.

    G. Markart et al., (2007) Wald und Massenbewegungen.

    Empfehlenswerte weitere Artikel zur “Mathematik des Wassers im Boden“

    G. Markart et al. (2005) Geländeanleitung zur Abschätzung des Oberflächenabflussesbeiwertes bei Starkregen – Grundzüge und erste Erfahrungen (PDF-download)

    Kohl et al. (2008) Analyse und Modellierung der Waldwirkung auf das Hochwasserereignis im Paznauntal vom August 2005. (PDF DOwnload)

    Zum Thema Hochwasser

    Hochwasser 2005 Paznauntal 4:03 min Website, welche die Hochwasser-gefährdeten Gebiete in Österreich sehr detailliert ausweist: https://hora.gv.at/ Im ScienceBlog: Günter Blöschl; 17.01.2013: Kommt die nächste Sintflut?


     

    inge Fri, 16.08.2013 - 20:08

    Atherosklerose, eine Autoimmunerkrankung: Auslöser und Gegenstrategien

    Atherosklerose, eine Autoimmunerkrankung: Auslöser und Gegenstrategien

    Fr, 09.08.2013 - 05:44 — Georg Wick

    Icon MedizinGeorg WickAtherosklerose, eine bereits in jungen Jahren beginnende, langsam fortschreitende chronische Erkrankung, wird zumeist erst im Alter manifest; ihre Folgen, wie Herzinfarkt und Schlaganfall, stehen an der Spitze der Todesursachen. Eine Schlüsselrolle bei der Entstehung der Krankheit spielt das körpereigene Hitzeschockprotein 60 (HSP60), welches vom Immunsystem auf Grund seiner sehr großen Ähnlichkeit mit dem HSP60 von Infektionserregern angegriffen wird. HSP60 stellt ein Zielmolekül dar für die Entwicklung innovativer therapeutischer Strategien, die eine Impfung gegen Atherosklerose in Reichweite rücken.

    Unter Atherosklerose (Arteriosklerose) – im Volksmund auch als Gefäßverkalkung bezeichnet – versteht man eine Verhärtung (= Sklerose) und Verengung von Arterien, die - wie in Abbildung 1 vereinfacht dargestellt - zu einer verminderten Durchblutung von Organen führen kann. Die damit einhergehende reduzierte Sauerstoffversorgung ist Auslöser von Herz-Kreislauferkrankungen, welche heute mit rund 30 % aller globalen Todesfälle und mit 40 % der Todesfälle in der westlichen Welt an der Spitze der Todesursachen stehen; von diesen sind etwa 80 % auf koronare Herzkrankheiten (KHK) und Schlaganfall zurückführen [1].Atherosklerose

    Abbildung 1. Atherosklerose: An der Arterieninnenwand entstehen sogenannte Plaques, die zur Verhärtung uns Verengung des Gefäßes führen. (Bild modifiziert nach: United States Department of Health and Human Services, Public Domain)

    Die Verhärtung und Verengung der Arterien resultiert aus der Entstehung sogenannter Plaques an der Innenwand der Arterien, bindegewebsartiger (fibrotischer) Veränderungen, die eine komplexe Mischung unterschiedlicher Zellen des Immunsystems und einwandernder Muskelzellen und Bindegewebszellen (Fibroblasten) enthalten (zu Fibrosen siehe [2,3]). Eine Chronologie der Veränderungen von normaler Arterieninnenwand über gelblich-weiße kissenähnliche Fettstreifen - “fatty streaks” – bis hin zu Plaques mit fettstoffreichen, nekrotischen Zentren, Verkalkungen und Blutungen ist in Abbildung 2 dargestellt.

    Atherosklerose - eine Folge des modernen Lebensstils?

    Atherosklerose ist eine bereits in jungen Jahren beginnende, langsam fortschreitende chronische Erkrankung, die zumeist erst im Alter manifest wird. Ihre Entstehung kann einerseits durch eine – allerdings eher seltene - genetische Veranlagung bedingt sein, andererseits können viele Risikofaktoren beitragen, wie beispielsweise hoher Blutdruck, Übergewicht, Diabetes, Rauchen, Infektionen, Störungen im Fettstoffwechsel („hohes Cholesterin“), Bewegungsmangel, etc.

    Atherosklerose in der Aorta des MenschenAbbildung 2. Atherosklerose in der Aorta des Menschen. Unteres Bild: Fortschreitende Plaquebildung bis zu Ruptur des Plaques (Bild von Servier Medical Art). Beschreibung: siehe Text.

    Die Vielzahl und Vielfalt an offensichtlichen Risikofaktoren macht es verständlich, daß die Menschheit bereits von altersher an Atherosklerose leidet, ungeachtet der unterschiedlichen Lebensstile, Umweltseinflüsse und Ernährungsgewohnheiten, ebenso wie auch der Art und des Ausmaßes körperlicher Aktivitäten: Untersuchungen an ägyptischen Mumien zeigen ebensolche krankhafte Veränderungen der Aorta, der Herzkranzgefäße und der peripheren Arterien, wie sie heute im modernen Menschen festgestellt werden. Die Häufigkeit mit der diese Läsionen beobachtet werden, läßt darauf schließen, daß die Erkrankung auch in der Antike bereits weit verbreitet war [4], die Menschheit seit Jahrtausenden begleitet.

    Wenn also verschiedenartigste Einflüsse zum selben Ergebnis, der manifesten Atherosklerose führen, gibt es einen primären Auslösemechanismus, der allen Risikofaktoren gemeinsam ist?

    Viele Risikofaktoren – ein gemeinsamer Auslösemechanismus?

    Die Suche nach den Mechanismen, welche die früheste Phase der Krankheit auslösen, ist schwierig und am Menschen praktisch kaum durchzuführen. In diesem Stadium machen sich ja noch keine klinischen Symptome bemerkbar, der „zukünftige Patient“ hat noch keinen Arzt aufgesucht. Detaillierte Untersuchungen an geeigneten Tiermodellen erlauben es die Entstehung der Erkrankung chronologisch zu verfolgen vom morphologisch und klinisch unauffälligen Stadium bis hin zum voll entwickelten, häufig letal endendem Krankheitsbild. Basierend auf den tierexperimentellen Daten und in weiterer Folge auf indirekten Untersuchungen bei Menschen konnte ein neues Konzept für die Entstehung der Atherosklerose entwickelt werden:

    Entgegen dem weit-verbreiteten Dogma, daß Atherosklerose mit einer passiven Ablagerung von Blutfetten („fatty streaks“) oder Verkalkung beginnt, wurde festgestellt, daß die frühesten Stadien der Atherosklerose durch einen Entzündungsprozeß charakterisiert sind, welcher Zellen des Immunsystems zur Einwanderung in die Innenwand der Arterie (Intima) anlockt. Die Frage, womit diese Immunzellen in der Arterienwand reagieren, ließ sich durch direkte Evidenz aus Tierexperimenten und indirekte Schlüsse aus Studien an menschlichen Patienten beantworten: Immunzellen (T-Lymphozyten) reagieren mit einem Stressprotein HSP60, welches an der Oberfläche der Zellen der Gefäßwand (= Endothelzellen) angelagert ist. HSP60 ist ein Mitglied der sogenannten Hitzeschockprotein-Familien, welche in den Zellen primär dafür verantwortlich sind, daß Proteine in korrekter Weise zu den ihnen entsprechenden, funktionsfähigen Strukturen gefaltet werden.

    Hitzeschockproteine wurden erstmals in Zellen der Taufliege (Drosophila) identifiziert, als diese einem Temperaturschock - subletal hohen Temperaturen – ausgesetzt wurden. Der Name Hitzeschockproteine wurde beibehalten auch als es sich später herausstellte, daß Zellen auf unterschiedlichste Stressfaktoren ganz generell mit einer erhöhten Produktion dieser Proteine antworten - als Schutz vor den Auswirkungen strukturell veränderter Proteine.

    Im Falle der Zellen der Gefäßwand (Endothelzellen) konnte nachgewiesen werden, daß diese eben durch die klassischen Risikofaktoren der Atherosklerose zur vermehrten Synthese von HSP60 stimuliert werden (Abbildung 3). In einer Reihung der Risikofaktoren nach ihrer Fähigkeit HSP60 in vitro in Endothelzellen des Menschen zu induzieren, nimmt bakterielle Infektion mit Chlamydien die Spitzenposition (mehr als 10-fache Erhöhung über den Kontrollwert) ein, gefolgt von Rauchen, mechanischem Stress (= hoher Blutdruck), generellen Infektionen, reaktivem Sauerstoff, oxydiertem Lipoprotein (oxLDL) und schließlich bestimmten Arzneimitteln (2 – 3-fache Erhöhung über den Kontrollwert) [5].

    Vermehrt gebildetes HSP60 wird (zum Teil) auch an die Zelloberfläche transportiert und wirkt dann als Signal „Gefahr“ für die Immunzellen (T-Lymphozyten). Angelockt durch dieses Signal heften sich die T-Lymphozyten an der Gefäßwand an und lösen eine Immunantwort - den Entzündungsprozeß – aus (siehe nächster Abschnitt). Das Anheften erfolgt dabei mittels sogenannter Adhäsionsmoleküle, die gleichzeitig mit HSP60 auftauchen.

    Warum aber richtet sich das körpereigene Abwehrsystem – das Immunsystem – gegen körpereigenes Protein und Gewebe?

    Stressfaktoren stimulieren die Synthese des  Hitzeschockproteins 60  in EndothelzellenAbbildung 3. Stressfaktoren stimulieren die Synthese des Hitzeschockproteins 60 in Endothelzellen, welches - an die Zelloberfläche transportiert – vom Immunsystem als Gefahrensignal wahrgenommen wird.

    Die Autoimmun-Hypothese der Atherogenese

    Das Hitzeschockprotein 60 ist stammesgeschichtlich ein sehr altes Molekül, das von allen lebenden Zellen produziert wird und in allen Lebensformen - angefangen von den Bakterien bis herauf zu den Säugetieren, inklusive des Menschen – eine sehr ähnlich chemische Struktur aufweist (d.h. die Abfolge der Aminosäuren zeigt bei allen Spezies einen hohen Grad an Übereinstimmung).

    HSP60 ist ein wichtiger Bestandteil aller Infektionserreger (Bakterien, Parasiten), gegen den praktisch alle Menschen eine angeborene und während ihres Lebens erworbene schützende Immunreaktion besitzen. Wenn die Arterien-auskleidenden Endothelzellen durch klassische Atherosklerose-Risikofaktoren gestresst körpereigenes HSP60 an ihre Zelloberfläche transportieren, dann ist auf Grund der sehr großen Ähnlichkeit mit dem mikrobiellen HSP60 die Gefahr einer immunologischen "Verwechslungsreaktion" gegeben: das Immunsystem sieht das Erscheinen von HSP60 auf arteriellen Endothelzellen als Gefahrensignal „Infektion“ und reagiert mit einem Selbstangriff, einer Autoimmunreaktion, gegen die Wand der Arterien. Die Endothelzellen werden zerstört, Zellen des Immunsystems dringen in die innerste Schichte der Arterie ein und bilden dort Entzündungsherde. Diese erste, noch reversible Phase in der Entstehung der Atherosklerose ist klinisch unauffällig und tritt bereits in der Jugend auf. Wenn die Stressbedingungen andauern, schreitet der Entzündungsprozeß fort; es kommt zur irreversiblen Plaquebildung bis hin zu den fatalen Folgen Herzinfarkt, Schlaganfall, Gefäßverschluß.

    Die normale, gegen mikrobielles HSP 60 schützende Immunreaktion verkehrt sich unter unphysiologisch schlechten Stressbedingungen in eine Autoimmunreaktion - Atherosklerose im Alter ist der Preis, den wir für den Vorteil zahlen in jüngeren Jahren mikrobielle Infektionen abwehren zu können (Abbildung 4).

    Die Autoimmunitätshypothese der AtheroskleroseAbbildung 4. Die Autoimmunitätshypothese der Atherosklerose. Menschen entwickeln schützende Immunität gegenüber dem HSP60 der Mikroorganismen und ebenso gegenüber körpereigenen, verändertem HSP60, das aus defekten/zerstörten Zellen austritt. Werden Endothelzellen durch Risikofaktoren in der Blutbahn gestresst, so transportieren sie HSP60 an ihre Zelloberfläche, welches von der bereits existierenden Immunabwehr (Immunzellen, Antikörper) als „Gefahrensignal“ gesehen wird und einen Entzündungsprozeß auslöst. Fortgesetzte Anwesenheit von Risikofaktoren führt zur Atherosklerose. (Modifiziert nach [5]; Bilder stammen zum Teil von Servier Medical Art.)

    Neue Strategieansätze

    Die Identifizierung der Schlüsselrolle, die HSP60 im Auslöse-Mechanismus der Atherosklerose spielt, ist nicht nur für das Verstehen der Krankheit von primärer Bedeutung, sie bietet auch neue Ansatzpunkte für die Entwicklung sensitiver Diagnostika und innovativer therapeutischer Strategien.

    HSP60-Diagnostika

    Antikörper gegen HSP60, aber auch lösliches HSP60 finden sich zwar im Blutkreislauf jedes gesunden Menschen, sie sind aber bei Atherosklerose signifikant erhöht und korrelieren mit deren Schweregrad. Als robuste Diagnostika können anti-HSP60 Antikörper und lösliches HSP60 zur Feststellung und Verfolgung der Morbidität und Prognose der Mortalität herangezogen werden.

    Auf dem Weg zu einer Impfung gegen Atherosklerose

    Ein völlig neuer Therapieansatz besteht darin die fehlgeleitete Immunreaktion gegen HSP60 zu normalisieren und den Körper für sein eigenes Hitzeschockprotein wieder tolerant zu machen, ohne aber die überaus wichtige Immunantwort auf Infektionen auszuschalten. Dies soll durch eine Impfung bewerkstelligt werden, die sich gezielt gegen diejenigen Abschnitte (Epitope) des HSP60-Moleküls richtet, welche die Immunzellen bei der Arteriosklerose-Entstehung anlocken:

    Im Rahmen des im September 2012 abgeschlossenen EU-Projekts TOLERAGE (Titel: „Normalisation of immune reactivity in old age – from basic mechanisms to clinical application“ [6]) konnten entsprechende Epitope - kleine Bruchstücke aus der Sequenz von 570 Aminosäuren des menschlichen HSP60 und auch des Tiermodells Maus - identifiziert werden. Die Impfung der Maus mit einem derartigen „atherogenen Peptid“ zeigte sich erfolgreich: es konnte sowohl die Entstehung von Atherosklerose blockiert als auch ein therapeutischer Erfolg - Reduktion der Läsionen bei bestehender Krankheit – erreicht werden.

    Das, was bereits bei Mäusen gelungen ist, soll nun auch in einer klinischen Studie beim Menschen erprobt werden: eine Impfung gegen Atherosklerose erscheint in Reichweite.


    [1] WHO: Cardiovascular diseases (CVDs); Fact sheet N°317, Updated March 2013

    [2] G Wick et al. (2013) The Immunology of Fibrosis. Annu. Rev. Immunol. 31:107–35

    [3] G Wick, (ScienceBlog 2012): Erkrankungen des Bindegewebes: Fibrose – eine häufige Komplikation bei Implantaten.

    [4] AH Allam et al., (2011) Atherosclerosis in Ancient Egyptian Mummies. JACC: Cardiovascular Imaging 4 (4): 315-27

    [5] C Grundtman and G Wick, (2011) The autoimmune concept of atherosclerosis. Curr Opin Lipidol 22(5): 327–334.

    [6] TOLERAGE: Internationales Projekt im 7. Forschungsrahmenprogramm der EU, zu dem sich 10 Forschergruppen unter der Leitung von Georg Wick zusammengeschlossen haben (Laufzeit April 2008 - September 2012) um in präklinischen und klinischen Ansätzen die Immunreaktivität bei älteren Menschen zu analysieren und zu verbessern. Der Fokus lag dabei auf den beiden, als Autoimmunkrankheiten erkannten Erkrankungen: Atherosklerose und Rheumatoide Arthritis. http://ec.europa.eu/research/health/medical-research/human-development-and-ageing/projects/tolerage_en.html. Ein Endreport vom 29.4. 2013 liegt vor: Final Report Summary - TOLERAGE (Normalisation of immune reactivity in old age - from basic mechanisms to clinical application)

    Weiters ist auf der Basis von TOLERAGE kürzlich ein Sammelband „Inflammation and Atherosclerosis“ (G Wick, C Grundtmann eds, Springer Verlag, 652 p.)erschienen, in welchem Top-Experten die diagnostische, präventive sowie therapeutische Relevanz der Entzündung in der Entwicklung der Atherosklerose diskutieren.


    Weiterführende Links

    Laboratory of Autoimmunity (G Wick, C Grundtmann): works on two major research projects, viz. THE IMMUNOLOGY OF ATHEROSCLEROSIS and THE IMMUNOLOGY OF FIBROSIS (“Our lab strives at elucidating the earliest, clinically not yet manifested stages of autoimmune diseases.

    To this end we study appropriate animal models and then translate our findings to the human situation. We are especially interested in looking at autoimmune diseases from a Darwinian-evolutionary viewpoint, i.e. considering them as a price for the possession of genes the effect of which are beneficial during the reproductive period of life, but may become detrimental at older age when selective pressure is not effective any more”.)

    http://www.autoimmunity.at

    G Wick et al. (2012) A Darwinian-Evolutionary Concept for Atherogenesis: The Role of Immunity to HSP60 in Inflammation and Atherosclerosis (G. Wick and C. Grundtman (eds.), DOI 10.1007/978-3-7091-0338-8_9, Springer-Verlag/Wien)

    Mummy Scans Reveal Clogged Arteries


     

    inge Fri, 09.08.2013 - 05:44

    Erdfieber — Das Unbehagen der Wissenschaft bei der Klimadebatte

    Erdfieber — Das Unbehagen der Wissenschaft bei der Klimadebatte

    Fr, 06.08.2013 - 05:46 — Gottfried Schatz

    Icon GeowissenschaftenGottfried SchatzReich und wundersam sind die Früchte vom Baum der Wissenschaft, doch sie nützen nur dem, der ihnen Zeit zur Reife gönnt. Wer sie unreif pflückt, erntet meist Verwirrung. Wissenschaft gedeiht deshalb am besten fernab von Zwang und Macht. Auch Demokratien fordern von uns Wissenschaftern Wissen und Konsens – wir aber beschäftigen uns meist mit Unwissen und Widerspruch. Zum Konsens haben wir ein gespaltenes Verhältnis: Wir suchen ihn – und misstrauen ihm dann. Wir sind uns bewusst, dass die wissenschaftliche Wahrheit von heute schnell der Irrtum von gestern sein kann. Und von Karl Popper wissen wir, dass es nicht die Bestätigung, sondern die Widerlegung einer Hypothese ist, die uns neue Erkenntnis beschert. Der Journalist Walter Lippmann sagte es einfacher: «Wo alle gleich denken, denkt keiner besonders viel.»

    Dieser Artikel erschien bereits am 23.Februar 2012 im ScienceBlog. Im Zuge der Aufarbeitung des Archivs präsentieren wir ihn in augenzwinkernder Verbeugung vor der aktuellen Hitzewelle erneut:

    Vier Behauptungen – und eine fünfte

    Wie also sollen wir Wissenschafter antworten, wenn man uns nach der Ursache der Klimaerwärmung fragt? Dürfen wir antworten «Wir sind uns ihrer noch nicht sicher» – wie wir es sollten? Oder müssen wir trotz unseren Zweifeln eine Ursache nennen – wie man es von uns erwartet? Viele von uns wählen den zweiten Weg und übertönen mit ihren apokalyptischen Prophezeiungen manchmal die Stimme der Vernunft. Ihre Argumente klingen betörend: Auf unserem Planeten wird es wärmer; Kohlendioxid reichert sich in der Lufthülle an; dieses Gas verhindert die Abstrahlung von Erdwärme in den Weltraum; die Verbrennung von fossilen Brennstoffen erzeugt jährlich 30 Milliarden Tonnen dieses Gases; also ist die Klimaerwärmung ein Werk von Menschenhand.

    Die vier ersten Behauptungen sind unbestritten. Die fünfte ist es nicht, denn sie stützt sich nur auf Korrelationen. Eine Korrelation, mag sie auch noch so augenfällig sein, beweist jedoch nie ursächliche Zusammenhänge. Die Korrelation zwischen Jahreszeit und Umwelttemperatur ist uns seit Jahrtausenden bekannt, doch wir verstehen sie erst, seit wir wissen, wie die Erde um die Sonne kreist. Ähnliches gilt für das Erdklima. Treibt der Anstieg des Kohlendioxids die Erwärmung – oder diese den Anstieg des Kohlendioxids? Eine klare Antwort könnten Experimente liefern, die nur eine Komponente des Klimasystems verändern. Doch Experimente mit dem Erdklima sind entweder unmöglich oder viel zu riskant, so dass wir Wissenschafter auf unsere wirksamste Waffe verzichten müssen.

    In unserer Not greifen wir zu Simulationen: Wir stellen eine Vermutung auf und errechnen deren Auswirkungen mit leistungsstarken Computern. Wie stark erwärmt sich das Klima, wenn der Kohlendioxidgehalt der Atmosphäre um 30 Prozent steigt? Solche Berechnungen erfordern den Einbezug immens vieler Daten, die wir oft nur grob schätzen können oder gar nicht kennen. Stimmt das Resultat der Simulation mit den gemessenen Klimadaten überein, werten wir es als Hinweis, dass unsere Vermutung richtig war. Ein Hinweis ist jedoch kein Beweis. Die meisten der so errechneten Klimavoraussagen sind daher nicht viel mehr als das, was sie vor der Simulation waren – Vermutungen.

    Das Klimasystem unseres Planeten ist so komplex, dass wir noch nicht einmal alle Faktoren kennen, die es beeinflussen. Neben den vieldiskutierten «Treibhausgasen» Kohlendioxid, Methan und Wasserdampf sind es unter anderem Schwankungen der Sonnen- und der Weltraumstrahlung, Positionsänderungen der Erdachse, Verschiebungen der Kontinente und der Meeresströmungen, wechselnde Durchsichtigkeit der Lufthülle, Änderungen der Pflanzendecke sowie die Evolution neuer Pflanzenformen. Solange wir das Wetter der nächsten Woche nicht mit Sicherheit vorhersagen können, ist es mehr als kühn, das der kommenden Jahrzehnte zu prophezeien.

    Das Spektrum der Isotope

    Und doch versuchen wir, diesem Ziel näherzukommen. Da uns Experimente verwehrt sind, schärfen wir die stumpfen Waffen Korrelation und Simulation, so gut wir können. Wir erforschen die Vorgänge, die das Klima unseres Planeten beeinflussen könnten, um zwischen ihnen und dem Klima Korrelationen aufzudecken und deren Bedeutung mit rechnerischen Simulationen zu prüfen. Es ist ein langer und steiniger Weg, von dem wir nicht wissen, ob er uns zum Ziel führen wird. Er hat uns jedoch vor vier Jahrhunderten die Ursache der Jahreszeiten aufgedeckt und eröffnet uns heute atemberaubende Einblicke in das Erdklima vor Tausenden, Millionen und sogar 500 Millionen Jahren.

    Unsere Fernrohre für diesen Blick in die Vergangenheit sind die unterschiedlich schweren Varianten chemischer Elemente – die sogenannten «Isotope». Die verschiedenen Isotope eines Elements sind chemisch fast identisch, reagieren jedoch nicht gleich schnell und verleihen den Verbindungen, in denen sie vorkommen, leicht unterschiedliche Eigenschaften. Wasser, das aus «schweren» Isotopen von Wasserstoff und Sauerstoff besteht, verdunstet bei niedriger Temperatur langsamer und schlägt sich im Regen schneller nieder als Wasser aus den «leichten» Isotopen. In kühlen Klimaperioden steigt deshalb in den Ozeanen der Anteil der schweren im Verhältnis zu den leichten Wasserstoff- und Sauerstoffisotopen. Diese subtile Verzerrung des Isotopenspektrums spiegelt sich in den Kalkhüllen der Meerestiere wider; und da die Hüllen schliesslich zu Kalkgestein werden, ist dessen Isotopenspektrum ein Hinweis auf die Wassertemperatur, bei der die Tiere lebten.

    Das Spektrum der verschiedenen Kohlenstoffisotope im Kalkgestein erlaubt zudem Rückschlüsse auf den Kohlendioxidgehalt urzeitlicher Atmosphären. Ähnliches gilt für Gasbläschen in uralten Eisproben, die Klimaforscher den arktischen Gletschern mit kilometertiefen Bohrungen entreissen und dann auf ihr Isotopenspektrum untersuchen. In den hochempfindlichen Messgeräten der Klimaforscher beginnen Gestein und Eis zu uns zu sprechen.

    Was sie berichten, ist überwältigend – und verwirrend. Während der letzten 500 Millionen Jahre war unsere Lufthülle mehrmals bis zu zehnmal reicher an Kohlendioxid als heute, ohne dass sich das Klima dramatisch aufgeheizt hätte. Obwohl die Konzentration an Kohlendioxid heute um 27 Prozent höher ist als in den letzten 650 000 Jahren, ist sie immer noch fast viermal tiefer als vor 175 Millionen Jahren. Einige Messungen finden deutliche Korrelationen zwischen Kohlendioxidgehalt und Erdtemperatur, andere dagegen nicht. Und obwohl sich die Hinweise häufen, dass wir Menschen an der Klimaerwärmung nicht ganz unschuldig sind, besteht kein Zweifel, dass das Erdklima über lange Perioden beträchtlich und ohne erkennbare Ursache schwankte. Gestein und Eis erzählen das Epos eines eigenwilligen und rastlosen Planeten, der zwar schon in seiner Lebensmitte steht, aber immer noch voller Überraschungen ist. Wer dem Epos aufmerksam lauscht, wird sich bewusst, dass wir das Erdklima derzeit weder verstehen noch voraussagen können. Man erwartet von der heutigen Wissenschaft, dass sie den fiebernden Planeten heilt, doch wie ein Arzt vergangener Zeiten kann sie nur seinen Puls fühlen.

    Wahnwitzige Vergeudung

    Viele von uns zögern, unseren Wissensnotstand öffentlich zu bekennen, weil ihn die Mächtigen dieser Welt als Vorwand nehmen könnten, um die Ressourcen unseres Planeten unbekümmert weiter zu vergeuden. Braucht es aber wirklich Kassandrarufe von überfluteten Küstenstädten und biblischen Insektenplagen, um den Wahnwitz dieser Vergeudung einzusehen und ihm Einhalt zu gebieten? Um uns einen Liter Erdöl zu schenken, musste die Sonne einen Quadratmeter der Erdoberfläche viele Jahre lang bescheinen. Und wir verbrennen dieses kostbare Erbe verflüssigter Sonnenenergie – das noch dazu ein exquisiter Rohstoff für unzählige chemische Produkte ist –, als gäbe es kein Morgen. Wenn auch unsere Rolle bei der jetzigen Klimaveränderung unbewiesen ist, sollte schon der blosse Verdacht uns Grund genug sein, für eine verantwortungsvolle Energiepolitik zu kämpfen.

    «Im Allgemeinen freilich haben die Weisen aller Zeiten immer dasselbe gesagt, und die Thoren, d. h. die unermessliche Majorität aller Zeiten, haben immer das Selbe, nämlich das Gegenteil, gethan: und so wird es denn auch ferner bleiben.» Ich hoffe, Schopenhauer war nur Pessimist – und nicht Prophet.


    Anmerkungen der Redaktion

    Weiterführende Links

    Das Klimaportal der österreichischen Zentralanstalt für Meteorologie und Geodynamik gibt einen umfassenden Überblick über den Stand des Wissens, mit sehr verständlich, aber keineswegs banal geschriebenen Erläuterungen. Die dort angebotenen Punkte Klimaforschung, -system, -vergangenheit, -zukunft oder -folgen sind alle lesenswert, und wären nur anhand des eigenen Interesses überhaupt irgendwie zu reihen. Motivation und Kompetenz werden folgendermaßen beschrieben:

    »Gleich zu Beginn definiert die Abteilung für Klimaforschung der ZAMG ihre Position in der öffentlichen Klimawandeldiskussion, um den Leserinnen und Lesern eine eigenständige Beurteilung der angebotenen Inhalte zu ermöglichen: Unsicherheit wissenschaftlicher Ergebnisse verstehen wir nicht als Anlass zum Abwiegeln oder Zaudern sondern als Herausforderung für die Forschung. Vielmehr ist ein rationaler Umgang mit Unsicherheit in der öffentlichen und politischen Diskussion notwendig.«


     

     

    inge Tue, 06.08.2013 - 05:46

    Gentechnik und Lebensmittel: Wir entscheiden „aus dem Bauch“

    Gentechnik und Lebensmittel: Wir entscheiden „aus dem Bauch“

    Fr, 02.08.2013 - 06:51 — Günther Kreil

    ÖAWGünther KreilThemenschwerpunkt Synthetische BiologieWährend gentechnische Methoden zur Produktion von Proteinen für die Humanmedizin (z.B. Insulin, Erythropoietin) bei uns weitestgehend akzeptiert sind, stößt Gentechnik in der Nahrungsmittelproduktion auf massive Ablehnung, ohne dass dafür seriöse, wissenschaftlich fundierte Argumente vorgebracht werden können.

    Vor einigen Monaten habe ich im Supermarkt einen Liter Milch gekauft. Auf der Packung wurde darauf hingewiesen, diese Milch sei „Ohne Gentechnik hergestellt“. Nun könnte man meinen, es sei doch nett von der Molkerei, den Kunden zu informieren, dass die österreichischen Kühe, die diese Milch produzieren, nicht gentechnisch verändert (gv) sind. Dies wäre jedoch eine ziemlich überflüssige Feststellung, da es weltweit nur vereinzelt gv-Rinder gibt, deren Milch Proteine verschiedener Herkunft enthält.

    Was verbirgt sich unter „ohne Gentechnik hergestellte Milch“?

    Ich vermute jedoch, diese Bezeichnung für heimische Milch soll darauf hinweisen, dass die Kühe kein gv-Futter gefressen haben. Dem Futter dieser Tiere werden häufig Produkte aus Sojabohnen beigemengt, um den Gehalt an Protein zu erhöhen. Nun sind weltweit mehr als 80 Prozent der Sojabohnen gentechnisch so verändert, dass sie resistent gegen ein Herbizid sind. Es werden jedoch auch noch herkömmliche Sojabohnen in geringer Menge produziert.

    Der genannte Hinweis auf der Milchpackung mag manche Kunden, die sich vor der Gentechnik fürchten, beruhigen, auf das Produkt Milch hat das aber keinen Einfluss. Im Magen der Kühe werden die einzelnen Bestandteile des Futters verdaut, d.h. sie werden in ihre Bestandteile gespalten. Bei Proteinen sind dies Aminosäuren, die dann im Blut der Tiere zirkulieren, zum Teil von den Milchdrüsen aufgenommen und dort für die Produktion der Milchproteine verwendet werden. Ein Nachweis, ob diese Aminosäuren aus normalen oder gv Sojabohnen stammen, ist nicht möglich. Nur durch eine Überprüfung der Lieferungen an die Bauern ließe sich feststellen, welche Sojabohnen gekauft wurden. Einen Hinweis, was denn so speziell an dieser Milch „ohne Gentechnik“ sei, konnte ich nicht finden.

    Gentechnikfreier Käse, Fleisch, Eier

    Inzwischen habe ich in einem Supermarkt auch gentechnikfreien Käse gefunden. Ob der aus gentechnikfreier Milch hergestellt wird, weiss ich nicht. Zur Produktion von Käse muss die Milch zunächst gerinnen, wozu vor allem Labferment (Chymosin) aus den Mägen von nur mit Milch gefütterten Kälbern verwendet wurde. Inzwischen gibt es aber auch Chymosin, das mit gentechnischen Methoden in Mikroorganismen hergestellt wird. Diese Methode der Produktion ist einfacher, verbraucht weniger Energie, und das Endprodukt hat einen höheren Reinheitsgrad. Das eingesetzte Chymosin findet sich zum Großteil in der Molke und ist im Käse nur noch in Spuren vorhanden. Ob sich der so genannte gentechnikfreie Käse, der mit Chymosin aus Kälbermägen produziert wird, von den übrigen Käsesorten unterscheidet, wird nicht verraten. Und übrigens: in England wird Käse für Vegetarier angeboten mit dem Hinweis, dass für dessen Produktion kein tierisches Protein, also kein Chymosin aus Kälbermägen verwendet wurde.

    Kürzlich war zu lesen, dass bald auch Fleisch und Eier von „gentechnikfreien“ Hühnern angeboten werden. Auch hier gilt das für Milch Gesagte. Die Proteine in Körnern von Pflanzen mit oder ohne gentechnische Veränderung, die das Huhn frisst, werden abgebaut und die resultierenden Aminosäuren dann im Fleisch oder in den Eiern für den Aufbau neuer Proteine verwendet. Auch dies sind Produkte, die identisch mit den herkömmlichen sind, die aber gläubige Gegner der Gentechnik wohl beruhigen.

    Gentechnik in der Medizin - eine Erfolgsgeschichte

    Die Methoden der Gentechnik sind schon rund 40 Jahre alt. Die neue Möglichkeit des Austauschs von Genen zwischen Organismen wurde anfangs sehr skeptisch gesehen und es wurden Richtlinien über Vorsichtsmaßnahmen festgelegt, die bei verschiedenen Typen von Experimenten eingehalten werden mussten. Es zeigte sich jedoch bald, dass diese theoretischen Risken stark überschätzt wurden und die restriktiven Verordnungen wurden schrittweise gelockert und schließlich großteils aufgehoben. Aber der in der Öffentlichkeit entstandene Eindruck, es handle sich da um gefährliche Experimente mit eventuell unvorhersehbaren Konsequenzen, blieb bestehen. Es gab unzählige Diskussionen zu diesem Thema, unter anderem in einer Enquete-Kommission des österreichischen Parlaments. Bei den Gegnern der Gentechnik waren reisende Profis aktiv, die gekonnt, wenn auch repetitiv, ihre Argumente vorbrachten. Vor rund 20 Jahren ging es bei uns vor allem um das Thema „ humanes Insulin“. Darf das in Mikroorganismen hergestellte Produkt in der Medizin verwendet werden, oder muss man bei dem aus der Bauchspeicheldrüse vor allem von Schweinen isolierten Insulin bleiben? Diese Kontroverse war jedoch vom Tisch, nachdem es gelang, mit gentechnischen Methoden menschliche Proteine zu produzieren, die bisher nicht zugänglich waren. Der Prototyp dieser Entwicklung war das Erythropoietin (Epo), ein Hormon, das in der Niere produziert wird und für die Bildung von Erythrozyten essenziell ist. Seither werden in der Humanmedizin immer mehr mittels gentechnischen Methoden produzierte Proteine verwendet und die Erfolge dieser „roten“ Gentechnik sind beeindruckend.

    Ablehnung der grünen Gentechnik

    Ganz anders ist jedoch die Situation bei gv Nutzpflanzen. Diese werden weltweit seit 20 Jahren in steigendem Maße angebaut, inzwischen auf mehr als 1 Million km². In den USA sind etwa Mais, Zuckerrüben, Sojabohnen, Raps und Baumwolle zu mehr als 80% genetisch modifiziert. Europa ist da jedoch eine Ausnahme, gv Nutzpflanzen werden meist skeptisch beurteilt und es gibt sehr aufwändige Bewilligungsverfahren für deren Anbau. In gewissen Abständen erscheinen Publikationen mit Horrormeldungen über die Nachteile solcher Pflanzen. Diese sind insbesondere bei Gentechnikgegnern sehr populär, ehe sich dann bei genauerer wissenschaftlicher Prüfung zeigt, dass sie nicht stimmen.

    Bei dieser Ablehnung der „grünen“ Gentechnik ist Österreich führend, die gemeinsamen Aktivitäten von Boulevardmedien, NGOs und den Grünen führten dazu, dass dieses Thema faktisch tabuisiert wurde – und das ohne ein Experiment, einen einzigen kontrollierten Freisetzungsversuch mit einer gv Nutzpflanze. Bei uns wird halt einfach „aus dem Bauch“ entschieden.

    Und nun also, wie die eingangs erwähnten Beispiele zeigen, noch eine Steigerung bei der Ablehnung der Gentechnik. Ein eifernder Grüner hat zudem schon verlangt, dass das Gütezeichen für Fleisch nur vergeben werden darf, wenn die Tiere nicht mit gv Pflanzen gefüttert wurden. Der gute Mann geht nicht weit genug – es muss doch wohl Futter aus biologischem Anbau sein. Der Milch solcher Kühe und den Eiern solcher Hühner könnte man dann schon das Prädikat „Bio zum Quadrat“ verleihen. Allerdings ist die Verquickung von biologischem Landbau und Gentechnik völlig unlogisch, aber das ist ein anderes Thema. Zum Unterschied von einer steigenden Zahl von Ländern gilt bei uns das mit viel Emotion vertretene Prinzip: „Keine Gentechnik auf dem Teller“.

    (Dieser Artikel erschien in leicht unterschiedlicher Form im Februar 2013 in der Zeitung "Die Presse".)


    Weiterführende Links

    Österreichische Agentur für Gesundheit und Ernährungssicherheit zu GVO (Gentechnisch veränderte Organismen): http://www.ages.at/ages/ernaehrungssicherheit/gvo/

    GMO Compass: Datenbank zu Gentechnisch modifizierten Mikroorganismen (“Genetically modified microorganisms are now not only used to produce pharmaceuticals, vaccines, specialty chemicals, and feed additives, they also produce vitamins, additives, and processing agents for the food industry.”) http://www.gmo-compass.org/eng/database/enzymes/


     

    inge Fri, 02.08.2013 - 06:51

    Sag, wie ist die Synthetische Biologie? Die Macht von Vergleichen für das Image einer Technologie

    Sag, wie ist die Synthetische Biologie? Die Macht von Vergleichen für das Image einer Technologie

    Fr, 26.07.2013 - 08:59 — Helge Torgersen & Markus Schmidt

    ÖAW

    Helge TorgersenMarkus Schmidt

    Themenschwerpunkt Synthetische Biologie

    Synthetische Biologie ist in der Öffentlichkeit wenig bekannt, ihr Image noch unbestimmt. Je nachdem wie man Synthetische Biologie durch Vergleich mit anderen Disziplinen zu veranschaulichen versucht, kann sie als konfliktträchtige Fortsetzung der Gentechnik oder als „coole“ Informationstechnologie erscheinen. Sind also Kontroversen vorprogrammiert? Der Artikel basiert auf einem Vortrag von Helge Torgersen anläßlich des Symposiums über Synthetische Biologie, das von der Österreichischen Akademie der Wissenschaften im Mai d.J. veranstaltet wurde.

    Synthetische Biologie – ein schillernder Begriff

    Am 9. Juli 2013 standen einige ernst dreinblickende Leute im Eingang zum Londoner Imperial College und drückten den hereinströmenden Kongressteilnehmern anonyme Flugblätter in die Hand. Darin hieß es, dass Lebewesen keine Computer seien und Synthetische Biologie daher nicht funktioniere, sondern technokratisch, überheblich und gefährlich sei. Drinnen begann gerade die SB6, die größte Jahreskonferenz zu Synthetischer Biologie. Viele begeisterte junge Leute feierten die neuesten genetischen Konstruktionen. Wenige scherten sich um die Flugblätter.

    Hier zeigte sich, dass es offenbar unterschiedliche Auffassungen über Synthetische Biologie gibt. Dabei ist die am häufigsten verwendete Definition recht eindeutig: Synthetische Biologie beschäftigt sich mit dem Design und der Konstruktion von neuen biologischen Teilen, Baugruppen und Systemen und mit dem Umbau von bestehenden, natürlichen biologischen Systemen zu nützlichen Zwecken (http://syntheticbiology.org).

    Auf den zweiten Blick wird man als interessierter Laie aber stutzig: Design, Konstruktion, Teile, Baugruppen, nützliche Anwendungen – das klingt nach Maschinen, nach Ingenieurshandwerk. Wie passt der Hinweis auf bestehende biologische Systeme damit zusammen? Wie kann etwas synthetisch sein, wenn es gleichzeitig biologisch ist, also etwas aus der Natur? Die Definition weckt recht widersprüchliche Assoziationen.

    Sind Konflikte unvermeidlich?

    Diese Assoziationen werden zu Misstrauen in der Öffentlichkeit führen, fürchten Wissenschafter, die sich an die endlosen Debatten um die Gentechnik erinnern. Sie erwarten, dass es um die Synthetische Biologie zu ähnlichen Konflikten kommt. Und tatsächlich: die technikkritische ETC-Group (Action Group on Erosion, Technology and Concentration) hat bereits früh gegen Synthetische Biologie mobil gemacht und sie als „Extrem-Gentechnik“ gebrandmarkt (Abbildung 1). Ein Argument war, dass WissenschafterInnen Gott spielen wollen. Craig Venter, ein bekannt provokanter Biochemiker, meinte in Anspielung darauf in einem Interview: „Wir spielen nicht.“

    Bild am Titelblatt von Extreme Genetic EngineeringAbbildung 1. Bild am Titelblatt von: Extreme Genetic Engineering: ETC Group Releases Report on Synthetic Biology (2007).

    Ist also Konflikt vorprogrammiert? EASAC, die Vereinigung europäischer Wissenschaftsakademien rechnet fest damit: „Mit zunehmendem Fortschritt der Forschung auf dem Gebiet der Synthetischen Biologie sind Kontroversen zu erwarten.“ (EASAC 2011)

    Aus der Gentechnikdebatte lernen?

    Ist das zwangsläufig so? Häufig ist die Forderung zu hören, aus vergangenen Fehlern in der Gentechnikdebatte solle man doch lernen. Diese Forderung gab es auch bei der Nanotechnologie: in einem Interview für die Times (Times Higher Education Supplement, 27 June 2003) meinte die Direktorin der US-amerikanischen National Science Foundation, Rita Colwell:

    “We can’t risk making the same mistakes that were made with the introduction of biotechnology.”

    Viele meinten damals, dass eine umfassende öffentliche Debatte ein wirksames Mittel sei, den Ruf einer Technologie zu verbessern. Dabei sollten alle Fakten klar auf den Tisch gelegt werden, um keine Ängste aufkommen zu lassen. Das wird heute auch für die Synthetische Biologie empfohlen. Umfragen haben nämlich ergaben, dass Synthetische Biologie öffentlich kaum bekannt ist, weder in Europa noch in den USA. Ein heuer erschienener Artikel zur Situation in den USA (E. Pauwels: Public Understanding of Synthetic Biology) berichtet, daß zwischen 2008 und 2013 der Anteil der Bevölkerung der nichts oder nur ein wenig von Synthetischer Biologie gehört hat, von rund 90 % auf rund 75 % gesunken ist, der Anteil , der davon viel gehört hat bei 5 – 6% stagniert. Unwissen im Großteil der Bevölkerung, so das Argument, schürt Misstrauen.

    Nur – wenn man eine öffentliche Debatte will, muss man den Gegenstand zuerst erklären.

    Wie lässt sich aber Synthetische Biologie am besten veranschaulichen?

    Hier bieten sich Vergleiche mit bekannteren Technologien an. Insbesondere die Analogie zur Mechanik wird gerne verwendet: genormte Schrauben und Muttern haben die rationelle Konstruktion von Maschinen für die Industrie erst ermöglicht. Genauso werden genormte genetische Bauteile die gezielte Konstruktion von Organismen für die industrielle Produktion ermöglichen. Dass es sich bei der Mechanik um eine weit entfernte, sehr alte Technik handelt, ist dabei zweitrangig. Näher liegt freilich die Analogie zu den genormten elektronischen Bauteilen der Computer- und Informationstechnologie. Aber auch der Bezug zur Nanotechnologie bietet sich an – die gilt als Musterbeispiel für eine gerade entstehende Technologie. Außerdem gibt es klarerweise einen Bezug zur Gentechnik.

    Ist der Vergleich mit diesen Technologien nur ein rhetorischer Trick? Oder ist tatsächlich etwas daran?

    Inhaltliche Bezüge zu anderen Technologien

    Offenbar schon: auch aus wissenschaftlicher Sicht gibt es stichhaltige Argumente, um Gentechnik, Nanotechnologie und Informationstechnologie mit Synthetischer Biologie in Beziehung zu setzen. So leitete Huib de Vriend die Herkunft der Synthetischen Biologie aus einer Konvergenz dieser drei Technologien ab (de Vriend 2006).

    Synthetische Biologie als Ergebnis von Informationstechnologie, Gentechnologie und NanotechnologieAbbildung 2. Synthetische Biologie als Ergebnis von Informationstechnologie, Gentechnologie und Nanotechnologie

    Viele Wissenschafter haben diese Analogien bewusst zur Veranschaulichung der Synthetischen Biologie eingesetzt. Victor de Lorenzo (2010) postulierte zum Beispiel einen fließenden Übergang von der Gentechnik zur Synthetischen Biologie: ausgehend von noch relativ „natürlichen“ Organismen werden die Konstruktionen immer „künstlicher“, bis die Synthetische Biologie irgendwann vollkommen künstliche Organismen herstellen wird.

    Mit der Nanotechnologie hat die Synthetische Biologie die Größenordnung des Gegenstands gemein. Die Bearbeitung von DNA, dem „Molekül des Lebens“, spielt sich ja im Nanometerbereich ab. Die EASAC (2011) bezweifelte sogar, dass man die Nanowissenschaften von Synthetischer Biologie abgrenzen kann:

    “Such is the overlap between nanoscience and synthetic biology that attempts to define their respective boundaries are as difficult as they are futile.”

    Die Informationstechnologie schließlich lieferte als Ingenieurswissenschaft die wichtigsten Anstöße für die Entwicklung der Synthetischen Biologie. Die Idee genormter genetischer Bausteine entstand ja mit Blick auf elektronische Bauteile. Wenn DNA vor allem als Informationsträger angesehen wird, ergeben sich leicht Analogien zwischen IT- und lebenden Systemen (Abbildung 3).

    Analogie von Informationstechnologie und Synthetischer BiologieAbbildung 3. Analogie von Informationstechnologie und Synthetischer Biologie (Quelle: Andrianantoandro et al. 2006)

    Vergleichstechnologien und ihr gesellschaftlicher Kontext

    Die Analogie zwischen Synthetischer Biologie und Gentechnik, Nanotechnologie oder Informationstechnologie hebt zunächst die wissenschaftlichen oder inhaltlichen Ähnlichkeiten hervor. Aber auch das Ansehen einer Technologie in der Öffentlichkeit schwingt mit, wenn sie als Vergleich herangezogen wird. In dieser Hinsicht ergaben Eurobarometer-Umfragen (Abbildung 4) über viele Jahre deutliche Unterschiede zwischen Informationstechnologie, Nanotechnologie und Gentechnik (Gaskell et al. 2010). Die Befragten trauten Informationstechnologie und Computern durchwegs zu, „das Leben zu verbessern“. Bei der Gentechnik waren sie viel skeptischer, Nanotechnologie lag dazwischen.

    Eurobarometer-Umfragen 1991-2010Abbildung 4. Technologie „Wird das Leben verbessern“: Eurobarometer-Umfragen 1991-2010 (Quelle: Gaskell et al. 2010)

    Hinweise auf die eine oder andere Technologie rufen also unterschiedliche Reaktionen und Assoziationen hervor. Mit einer Analogie werden solche Assoziationen aufgerufen, ein emotionaler Gehalt vermittelt.

    Der Gentechnik-Bezug knüpft unmittelbar an vergangene Debatten an: In einer jüngsten Umfrage assoziierten US-Bürger spontan Synthetische Biologie mit Gentechnik, Künstlichkeit und Klonen (Pauwels 2013). In Österreich führten Kronberger et al. (2012) Fokussgruppen durch, in denen die Teilnehmer sich mit Begriff und Inhalt der Synthetischen Biologie auseinander setzten. Die Autoren fanden, dass die nähere Beschäftigung die Teilnehmer veranlasste, von der Synthetischen Biologie jeweils ähnlich positiv oder negativ zu denken wie bisher von der Gentechnik. Aus dieser Sicht ist die Furcht vor Konflikten über Synthetische Biologie also naheliegend.

    Bei der Nanotechnologie sind vorhergesagte Kontroversen allerdings ausgeblieben. Technikkritische Gruppen scheiterten meist mit Versuchen, Nanotechnologie zu skandalisieren. Nur in Einzelfällen kam es zu lokalen Protesten gegen Forschungsbetriebe, etwa in Frankreich. Unklar ist, ob das mit der Regulierung im Rahmen der REACH-Verordnung zusammenhängt oder mit den zahlreichen Vermittlungsbemühungen, Veranstaltungen, Ausstellungen und Beteiligungsverfahren zum Thema.

    Informationstechnologie als „role model“

    Ein völlig anderes Bild ergibt der Bezug zur Informationstechnologie. Kaum eine andere technische Entwicklung hat das Leben derart beeinflusst wie der Siegeszug der Computer. Das geschah ohne nennenswerte soziale Konflikte, obwohl solche Konflikte schon vor Jahrzehnten prophezeit worden waren.

    Ein Grund dafür ist der persönliche enge Kontakt mit neuen Medien und immer schnelleren, kleineren und leistungsfähigeren Rechnern. Dazu kommt der „Coolness-Faktor“: das neueste Gadget wird zum Statussymbol. Informationstechnologie wurde schnell selbstverständlich – Computer, Smartphone, Internet sind Berufsgrundlage, Lebensinhalt und Zeitvertreib. Das führt zu Spiel, Aneignung und Emanzipation (Stichwort open source) aber auch zur Sucht. Ohne Infotech ist das Leben heute jedenfalls nicht mehr vorstellbar.

    Viele Wissenschafter der ersten Stunde in der Synthetischen Biologie kamen aus der Informationstechnologie. Allein dadurch übt dieser Sektor einen starken kulturellen Einfluss aus. Das macht sich auch in der Art bemerkbar, wie ein junges Publikum angesprochen wird (Abbildung 5).

    Material für Schüler zum Thema Synthetische Biologie Abbildung 5. Material für Schüler zum Thema Synthetische Biologie (http://www.biobuilder.org/)

    Der Coolness-Faktor der Informationstechnologie wird auf die Biotechnologie übertragen: vor allem Junge fühlen sich dem Prinzip der open source, der Freiheit geistigen Eigentums verpflichtet. Studentenwettbewerbe wie iGEM wurden nach dem Muster des Robocop-Wettbewerbs und ähnlichen Bewerben gestaltet und haben exponentiell steigende Teilnehmerzahlen. Eine Hacker-Subkultur ist entstanden, in der engagierte Laien in der sprichwörtlichen Garage oder im Keller genetische Experimente durchführen. Immer mehr KünstlerInnen interessieren sich für Themen und Techniken in Zusammenhang mit Synthetischer Biologie.

    Ein Beispiel war die Ausstellung ‘synth-ethic’ von Mai bis Juni 2011 im Naturhistorischen Museum in Wien. Die Organisatoren schrieben (Hauser, Schmidt 2011):

    „Während Künstler zunehmend Biotechnologien anwenden und lebendige Systeme manipulieren, macht sich mit der neuen Disziplin der Synthetischen Biologie eine Ingenieurswissenschaft breit, die „Leben“ nicht nur verändern sondern von Grund auf neu designen will. International renommierte Künstler in der Ausstellung synth-ethic fragen nach der neuen Dimension dieser Technologie und nach unserer ethischen Verantwortung, wenn Leben synthetisch wird…“

    Ähnlich wie in der Informationstechnologie spielen aber auch überzogene Erwartungen eine große Rolle. Oft werden sie ebenfalls von Analogien befeuert: das Moore’sche Gesetz in der Informationtechnologie besagt bekanntlich, dass die Möglichkeiten der elektronischen Datenspeicherung exponentiell wachsen und die Kosten dafür ebenso sinken. In gleicher Weise erhöht sich demnach die Geschwindigkeit der DNA-Sequenzierung und sinkt der Preis für die DNA-Synthese. Die in der Analogie verborgene Botschaft: Synthetische Biologie wird bald ebenso wichtig, umfassend und lukrativ wie die Informationstechnologie heute – eine gewagte Vorhersage.

    Wie stellt sich nun Synthetische Biologie in der Presse dar? Lassen sich die Bezüge zu den anderen anderen Technologien auch dort feststellen? Und wenn ja – als was erscheint Synthetische Biologie, als konfliktträchtige Fortsetzung der Gentechnik oder als „coole“ Informationstechnologie?

    Presseberichterstattung: keine Panik

    Die EASAC warnte in ihrem Bericht vor den „in Sensationsberichterstattungen geäußerten Befürchtungen“ und knüpfte damit unmittelbar an den Gentechnik-Bezug an. Dass die Presse negativ und tendenziös berichtet, hört man oft, aber ist das korrekt? Presseauswertungen zeigen aber, dass das so nicht stimmt: Wenn überhaupt, wird Synthetische Biologie vorwiegend positiv dargestellt, Bezüge zu „Monstern“ oder „Aliens“ sind selten. Die berüchtigte Metapher vom Gott Spielen kommt vor, ist aber nicht prominent. Stattdessen prägen Analogien zu Konstruktionsbegriffen aus den Ingenieurwissenschaften das mediale Bild (Abbildung 6. Cserer/Seiringer 2009).

    Deutschsprachige Presseberichterstattung zur Synthetischen BiologieAbbildung 6. Deutschsprachige Presseberichterstattung zur Synthetischen Biologie: Konstruktionsmetaphern überwiegen (A.Cserer et A.Seiringer, 2009)

    Synthetische Biologie erscheint also weniger als direkte Gentechnik-Fortsetzung, sondern eher als etwas Neues, das sich an Ingenieursbegriffen orientiert und damit Vorstellungen aus der Informationstechnologie übernimmt. Offenbar sind die Medien auch nicht so stark auf Skandalisierung aus wie viele WissenschafterInnen vermuten. Ein ähnliches Bild ergibt übrigens die Analyse der deutschsprachigen Presseberichterstattung zur Nanotechnologie: Die prophezeite Kontroverse ist dort ausgeblieben, wie in einem ITA-nanotrust-Dossier zu lesen ist:

    „…scientists and political decision-makers have been ...concerned that nanotechnology could trigger similar media controversies as … genetic engineering. The results of the present study show that these concerns are groundless, at least in the German speaking countries.“ (Haslinger et al. 2012)

    Der Gentechnikkonflikt sollte also nicht zwangsläufig als Vergleich dienen, wenn es um die Einführung einer neuen Technologie geht. Nicht einmal dann, wenn sie so nahe an der Gentechnik angesiedelt ist wie die Synthetische Biologie.

    Fazit

    • Synthetische Biologie ist in der Öffentlichkeit wenig bekannt.
    • Das Image von Synthetischer Biologie ist noch unbestimmt.
    • Medien berichten meist positiv oder ambivalent.
    • Zur Erklärung bieten sich Bezüge zu Gentechnik, Nanotechnologie und Informationstechnologie an.
    • Je nach Bezug erscheint Synthetische Biologie in einem anderen Licht.
    • Der Gentechnik-Bezug legt zwar Kontroversen nahe, aber andere Bezüge wirken dagegen.
    • Derzeit gibt es nur wenige Indizien für zukünftige Konflikte.

    Nachbemerkung

    Es zeigt sich wieder, dass der Gentechnik-Konflikt ein Sonderfall ist, keine allgemeine Blaupause für das Schicksal neuer Technologien in der Öffentlichkeit. Der Eindruck, dass die Öffentlichkeit grundsätzlich technikfeindlich sei und jede neue Technologie erst einmal ablehnt, beruht vor allem auf subjektiver Einschätzung, weniger auf objektivierbaren Befunden.

    Allerdings kann diese Einschätzung zur selbsterfüllenden Prophezeiung werden und dazu beitragen, dass sich die öffentliche Meinung in Richtung Ablehnung entwickelt. Das dient aber weder einer kritischen öffentlichen Debatte über neue Technologien noch der angestrebten wissenbasierten Ökonomie.


    Literatur

    Andrianantoandro E. et al. (2006), Molecular Systems Biology 2, 0028, http://www.ncbi.nlm.nih.gov/pmc/articles/PMC1681505/

    Cserer A, Seiringer A (2009), Pictures of synthetic biology. A reflective discussion of the representation of Synthetic Biology (SB) in the German-language media and by SB experts, DOI 10.1007/s11693-009-9038-3

    De Lorenzo V. (2010), Bioessays 32, 926–931, DOI: 10.1002/bies.201000099

    De Vriend H. (2006), Constructing Life, WD9, Rathenau Instituut, http://www.rathenau.nl/publicaties/publicatie/constructing-life.html

    EASAC (2011), Synthetic Biology: An Introduction, http://www.easac.eu/home/reports-and-statements/detail-view/article/synt...

    ETC Group (2007), Extreme Genetic Engineering, Ottawa, http://www.etcgroup.org/content/extreme-genetic-engineering-introduction...

    Gaskell G, et al. (2010), Report to DG Research on Eurobarometer 73.1, LSE, ec.europa.eu/public_opinion/archives/ebs/ebs_341_winds_en.pdf‎

    Haslinger J. et al. (2012), NanoTrust Dossier 037en, ITA/OEAW, http://www.oeaw.ac.at/ita/publikationen/ita-serien/nanotrust-dossiers

    Hauser J, Schmidt M (2011), Gallery Guide for the SYNTH-ETHIC exhibition in the Museum of Natural History in Vienna, May 14  - June 28, 2011, (http://www.biofaction.com/synth-ethic).

    Kronberger N. et al. (2012), Public Understanding of Science 21(29), 174-187, http://academia.edu/1552497/Consequences_of_media_information_uptake_and...

    Pauwels E. (2013), BioScience 63, 2, 79-89, http://www.jstor.org/discover/10.1525/bio.2013.63.2.4?uid=3737528&uid=21...

    Torgersen H., Schmidt M. (2012), 113-154 in: Weitze et al. (eds) „Biotechnologie-
    Kommunikation“, acatech/Springer, http://www.acatech_DISKUSSION_Bio_Kom_WEB.pdf

    Torgersen H., Schmidt M. (2013a), cpt. 6 in: van Est et al. “Making Perfect Life“,Report to the European Parliament, STOA, www.europarl.europa.eu/.../IPOL-JOIN_ET(2012)471574_EN.pdf‎

    Torgersen H., Schmidt M. (2013b), Futures 48 (2013) pp. 44–54, DOI 10.1016/j.futures.2013.02.002


     

     

     

    inge Fri, 26.07.2013 - 04:20

    Können wir Natur und Evolution übertreffen? Teil 2: Zum Design neuer Strukturen

    Können wir Natur und Evolution übertreffen? Teil 2: Zum Design neuer Strukturen

    Fr, 19.07.2013 -10:93 — Peter Schuster

    ÖAWPeter SchusterThemenschwerpunkt Synthetische Biologie

    Können wir mit der Synthetischen Biologie etwas Besseres bewirken, als das, was Natur und Evolution im Laufe der Jahrmilliarden hervorgebracht haben? Der zweite Teil des Artikels handelt von der Schaffung neuartiger Strukturen, einerseits mit Methoden des Rationalen Design, andererseits mit Methoden, die nach den Prinzipien der biologischen Evolution – Variation und Selektion -arbeiten. Der Artikel basiert auf einem Vortrag des Autors anläßlich des Symposiums über Synthetische Biologie, das von der Österreichischen Akademie der Wissenschaften im Mai d.J. veranstaltet wurde und erscheint auf Grund seiner Länge in zwei aufeinander folgenden Teilen.

    Zwei grundsätzlich unterschiedliche Strategien zur Erzeugung von Molekülen und Organismen mit vorbestimmten Eigenschaften stehen einander gegenüber:

    • das rationale Design, welches auf unserem gesamten biologischen Wissen über Strukturen und Funktionen von Biomolekülen aufbaut, und
    • das evolutionäre Design, das die Prinzipien der biologischen Evolution zur Selektion von Objekten mit gewünschten Eigenschaften anwendet.

    Die Literatur zum Thema Design von Biomolekülen ist enorm umfangreich [1]. Wir müssen uns hier auf wenige Beispiele beschränken, welche die unterschiedliche Anwendbarkeit beider Strategien sowie ihre Stärken und Schwächen aufzeigen.

    Rationales Design

    Das rationale Design baut auf dem Paradigma der konventionellen theoretischen Strukturbiologie auf: Paradigma der StrukturbiologieBei bekannter Sequenz (= Primärstruktur, d.h. bekannter Abfolge von Aminosäuren in einem Protein, von Nukleotiden in einer Nukleinsäure) sollte die 3-dimensionale Struktur (= Tertiärstruktur) eines Moleküls vorhergesagt werden können, soferne die detaillierten Bedingungen bekannt sind, unter denen die Faltung erfolgt. Die aufgeklärte Struktur eines Moleküls erlaubt – so die Annahme der Strukturbiologie – Rückschlüsse auf die Funktion. Der Zusammenhang zwischen Primär-, Sekundär- und Tertiärstruktur eines Proteins ist in Abbildung 1 aufgezeigt.

    Hierarchischer Aufbau eines ProteinsAbbildung 1. Hierarchischer Aufbau eines Proteins. Primärstruktur = Sequenz (Abfolge) der Aminosäuren in der Polypeptidkette, Sekundärstruktur: räumliche Anordnung von Abschnitten der Polypeptidkette (hier pink und blau); alpha-helix und beta-Faltblatt sind häufig auftretende Motive. Tertiärstruktur: übergeordnete 3D-Struktur aus den Sekundärstrukturelementen (modifiziert nach Wikimedia Commons).

    Rationales Design bietet den Vorteil einer direkten oder gezielten Suchstrategie und ist daher sowohl rasch als auch Material sparend. Sein Nachteil resultiert allerdings aus den zurzeit noch immer gegebenen Defiziten im Wissen um die Beziehung zwischen Strukturen und Funktionen von Biomolekülen: diese können nicht von „first principles“ aus berechnet werden, sondern benötigen möglichst viel empirischen Input, um einigermaßen verlässliche Vorhersagen zu ermöglichen.

    In der Folge wird hier zuerst das Design von Enzymmolekülen erörtert, welches auch unter dem Namen „protein engineering“ bekannt ist, dann das Design von Ribonukleinsäuren (RNA-Molekülen).

    Rationales Protein-Design

    Voraussetzung für das rationale Protein-Design war die Entwicklung und Etablierung von Techniken, die es erlauben gezielt an jeder Position der Aminosäuresequenz (siehe Abbildung 1) jeden der zwanzig Aminosäurereste durch einen anderen zu ersetzen („site-directed“ Mutagenese). Anfänglich war das Protein-Design hauptsächlich mit der Analyse von Sequenz-Struktur Beziehungen befasst mit dem Ziel die Prinzipien der Proteinfaltung besser zu verstehen und stabile Strukturen möglichst verlässlich vorhersagen zu können. In den letzten Jahren des vorigen Jahrhunderts wurde eine neue, nun bereits gängige Vorgehensweise zu Vorhersage und Design von Proteinstrukturen eröffnet, der Computerrechnungen mit empirischen Daten verknüpft. Auf dieser Basis ist es gelungen, Enzyme durch gezielte Mutationen thermodynamisch stabiler zu machen, ohne deren enzymatische Aktivität zu verringern.

    Ein prominentes Beispiel der technischen Verwertung von natürlichen und artifiziellen – designten – Enzymen findet sich in der Waschmittelindustrie. Der Gedanke Enzyme in Waschmitteln zu verwenden ist relativ alt. Bereits 1913 stellte der deutsche Pharmazeut, Chemiker und Unternehmer Otto Röhm einen Extrakt aus tierischen Bauspeicheldrüsen her, der Protein-spaltende Enzyme (Proteasen) enthielt, verwendete diesen für die Vorwäsche und erhielt auch ein Patent dafür. Wegen mangelnder Reinheit des Produktes und zu hohen Herstellungskosten war dem neuen Waschmittel allerdings kein Erfolg beschieden. Erst im Jahre 1959 wurde in der Schweiz das erste Waschmittel mit einer bakteriellen Protease eingeführt. Zehn Jahre später wurde die Verwendung von Enzymen allmählich populär und heute sind gentechnisch in Bakterien der Arten Bacillus licheniformis und Bacillus amyloliquefacies hergestellte Enzyme aus der Waschmittelindustrie nicht mehr wegzudenken. Etwa zwei Drittel der gesamten, für technische Verwendung produzierten Enzyme findet seinen Einsatz in Waschmitteln. Ein modernes Waschmittel für die Waschmaschine oder ein Geschirrspülmittel enthält Biomaterialien abbauende Enzyme aus vier Klassen: (i) Proteasen zur Spaltung von Proteinen, (ii) Amylasen für den Stärkeabbau, (iii) Lipasen für die Spaltung von Fettstoffen und (iv) Cellulasen für den oberflächlichen Abbau von Baumwollfasern, um die Gewebe weich zu erhalten. Protein-Design dient in erster Linie dazu, um die Enzyme stabiler zu machen und ihre Aktivität bei höheren (Wasch-)Temperaturen und alkalischen pH-Werten (Waschlauge) zu erhalten.

    Rationales Design von Ribonukleinsäuren

    Ribonukleinsäuren (RNA-Moleküle) gehören zu den versatilsten Molekülen der Biosphäre und kommen in einer Vielzahl unterschiedlicher Arten und Strukturen vor. Sie üben nicht nur Schlüsselfunktionen in der Regulation und Übertragung der in der DNA gespeicherten genetischen Information und der Synthese der Genprodukte – der Proteine – aus, sie können – in Form sogenannter Ribozyme – auch chemische Reaktionen katalysieren, sind dann also als Enzyme zu betrachten. Die Vielfalt an kürzlich entdeckten regulatorischen Funktionen läßt RNA-Moleküle als attraktive Zielmoleküle (Targets) für Therapeutika erscheinen, ebenso können sie aber auch selbst als hochspezifische Therapeutika und als Diagnostika Verwendung finden. Abbildung 2 zeigt Beispiele von Sequenz und Sekundärstruktur von RNA-Molekülen.

    Sequenz und Sekundärstruktur von RNA-MolekülenAbbildung 2. Sequenz und Sekundärstruktur von RNA-Molekülen. RNAs sind Polynukleotidketten, zusammengesetzt aus den Nukleotiden der Basen Guanin (G), Cytosin (C), Adenin (A) und Uracil (U). Durch Paarung der Basen C-G, G-U und A-U (durch Wasserstoffbrücken) entstehen „Stamm-Schleifen“-Strukturen („stem-loop“), d.i. doppelhelikale, gepaarte Teile („stem“) und Haarnadel-Schleifen (ungepaarte Nukleotide). Oben: ein aus 33 Nukleotiden bestehendes Molekül in seiner stabilen Sekundästruktur (rot) und eine seiner zahlreichen suboptimalen Strukturen (blau). Unten: Sequenz und stabilste Struktur eines Transfer-RNA-Moleküls (Phenylalanyl-tRNA)

    RNA-Moleküle eignen sich hervorragend für das rationale Design, da ihre Sekundärstrukturen einer rigorosen mathematischen Analyse zugänglich sind. In der Realität gibt es für RNA-Moleküle nicht nur eine einzige stabile Konformation - jeder Sequenz entspricht ein ganzes Spektrum von metastabilen suboptimalen Strukturen, welche sich hinsichtlich ihrer Lebensdauer unterscheiden. Die Zeit, die benötigt wird um von einer Konformation zur anderen zu gelangen, hängt von der Energiebarriere ab, die beim Übergang überwunden werden muß. Bei sehr hohen Energiebarrieren (Aufbrechen vieler Basenpaarungen) können aus einer Sequenz langlebige bistabile, multistabile Konformationen resultieren. Ein einfaches Beispiel zweier langlebiger RNA-Strukturen ist in Abbildung 2 (oben) gezeigt.

    Für RNA-Moleküle ist es möglich Algorithmen zu entwickeln, die auch bistabile und multistabile RNA-Moleküle designen können. Alternative stabile Konformationen desselben RNA-Moleküls sind experimentell an vielen Beispielen nachgewiesen worden. Auch in der Natur sind RNA-Moleküle bekannt, die zwei Konformationen ausbilden, welche völlig unterschiedliche Funktionen besitzen können. Sie werden „Riboswitches“ genannt und regulieren (vor allem in Bakterien) u.a. die Synthese von Enzymen, die im Stoffwechsel eine Rolle spielen.

    Evolutionäres Design

    Das Darwinsche Prinzip der natürlichen Auslese baut auf drei Voraussetzungen auf: (i) Vermehrung durch Reproduktion, (ii) Variation und (iii) Selektion durch begrenzte Ressourcen. Keine dieser drei Voraussetzungen ist an zelluläres Leben gebunden und es ist daher zu erwarten, dass Darwinsche Evolution auch in zellfreien Systemen auftreten kann. Dies hat Sol Spiegelman schon in den Neunzehnhundertsechzigerjahren erkannt und die ersten erfolgreichen Versuche unternommen, Moleküle im Laborexperiment zu evolvieren.

    Das Spiegelmansche Serial-Transfer Experiment

    In diesem bahnbrechenden Experiment wurde RNA durch Replikation mit einer RNA-Polymerase kopiert und damit vermehrt. Variation kam durch fehlerhaftes Kopieren zustande, Selektion durch die Versuchsführung mittels „Serial-Transfer“: eine Lösung mit den Bausteinen (G, C, A, U) für die RNA-Synthese und der Polymerase im Reagenzglas A wurde mit einer kleinen Probe der zu kopierenden RNA versetzt, wobei sofort Replikation einsetzte. Nach einer bestimmten Zeitspanne (und dem Verbrauch der Bausteine in A) wurde eine kleine Probe in Reagenzglas B (ebenfalls in eine Lösung von Bausteinen und Polymerase) überimpft, wo erneut RNA-Replikation einsetzt, und dieser Vorgang etwa einhundert Mal wiederholt. Spiegelman beobachtete, dass im Laufe des Experiments die RNA-Synthesegeschwindigkeit zunahm und dass sich die RNA-Moleküle veränderten: durch Kopierfehler entstandene, rascher replizierende Moleküle verdrängten die ursprünglichen langsamer replizierenden Moleküle solange bis die Geschwindigkeit der Replikation einen maximalen Wert erreicht hatte. Derartige Experimente mit Molekülen unter Laborbedingungen stellen Evolution im Zeitraffer dar, da ein solches „Serial-Transfer“ Experiment in einem Tag ausgeführt werden kann.

    Evolutionäre „Züchtung“ von Biomolekülen

    Die Tatsache, dass Moleküle im Reagenzglasversuch im Darwinschen Sinne evolviert werden können, war der Anlass für die Entwicklung eines neuen Zweiges der Biotechnologie: das evolutionäre Design von Biomolekülen mit vorgegebenen Eigenschaften. Zum Unterschied vom rationalen Design ist es weder notwendig die molekularen Strukturen zu kennen noch muss man über die Beziehung zwischen Strukturen und Funktionen Bescheid wissen. Man benötigt lediglich ein Testsystem für die gewünschte Moleküleigenschaft und eine Selektionsmethode mit der man Moleküle, welche die Wunschvorstellungen am besten erfüllen, aus einer Mischung von Molekülen mit anderen Eigenschaften herausholen kann.

    Am Anfang steht die Erzeugung einer Population von Molekülen mit hinreichend großer genetischer Vielfalt (beispielsweise mit Syntheseautomaten hergestellte Moleküle mit Zufallssequenzen). Mit Hilfe eines geeigneten Selektionsverfahrens wählt man die am besten geeigneten Moleküle aus und erzeugt durch Amplifikation und fehlerhafte Reproduktion eine neue Population, die nun wieder einer neuen Selektion unterworfen werden. Im Allgemeinen genügen zwanzig bis dreißig Selektionszyklen, um für den Verwendungszweck optimale Moleküle zu erhalten. Evolutionäre Methoden wurden für viele verschiedene Zwecke eingesetzt – wir erwähnen hier zwei davon: (i) die Züchtung von optimal bindenden RNA-Molekülen, sogenannten Aptameren und die gezielte Evolution von Proteinen.

    Die SELEX-Methode

    RNA-Moleküle sind für die Anwendung evolutionärer Methoden besonders gut geeignet, da sie unmittelbar repliziert und mutiert werden können. Ein typisches Beispiel ist die in Abbildung 3 dargestellte SELEX-Methode (Systematic Evolution of Ligands by EXponential Enrichment), welche heute routinemäßig eingesetzt wird, um Moleküle zu evolvieren, die an vorgegebene Zielstrukturen (targets) möglichst fest binden. Die Vorgangsweise lässt sich einfach beschreiben: Es wird zuerst ein „Pool“ an RNA-Sequenzen mit zufälliger Nukleotidabfolge angelegt und in eine geeignete Lösung transferiert und es wird eine Säule für die Affinitätschromatographie präpariert, welche die Zielmoleküle irreversibel an das Säulenmaterial gebunden enthält. Die Lösung wird über die Säule laufen gelassen und die am besten an die stationäre Phase bindenden Moleküle werden aus der Lösung entfernt. Mit einem anderen Lösungsmittel werden dann die an der Säule gebundenen Moleküle ausgewaschen und einem Selektionszyklus – Amplifikation, Diversifizierung und Selektion – unterworfen. Das Lösungsmittel wird von Zyklus zu Zyklus geändert, so dass es immer schwerer wird an die Zielmoleküle zu binden. Nach hinreichend vielen Zyklen erhält man optimal und äußerst fest an die Targets bindende Moleküle.

    SELEX-Methode zur Erzeugung optimal an Zielstrukturen bindender RNA-MoleküleAbbildung 3. Die SELEX-Methode zur Erzeugung optimal an Zielstrukturen bindender RNA-Moleküle (Aptamere). Beispielsweise soll zur Blockierung eines therapeutischen Zielmoleküls (Target) ein möglichst spezifisches, festbindendes RNA-Molekül gezüchtet werden. Dazu wird eine Lösung mit einer Vielfalt an RNA-Molekülen (A) auf eine Trennsäule aufgebracht, welche das an das Trennmaterial fixierte Target-Molekül (rot) enthält (B). RNAs, die nicht an das Target-Molekül binden, werden nicht in der Säule festgehalten (C) und ausgewaschen. Festbindende RNAs (gelb) werden mit „schärferen“ Lösungsmitteln eluiert (E), mit klassischen Methoden in DNA umgeschrieben, diese mittels Polymerase-Kettenreaktion (PCR) amplifiziert und wieder in RNA umgeschrieben (F). Die so entstandene Lösung enthält ein konzentriertes Gemisch aus festbindenden RNAs, die nun wieder Selektionsprozessen unter immer verschärfteren Elutionsbedingungen unterworfen werden

    Gezielte Evolution von Proteinen

    Diese verfolgt von Beginn an zwei verschiedene Ziele: i. ein besseres Verstehen der Stabilitäten und der Funktionen von Proteinen, welche in der natürlichen Evolution von vielen anderen und oft komplexen Bedingungen überlagert sind, und

    ii. die Erzeugung von nichtnatürlichen Proteinen, welche ein Licht auf die physikalisch-chemischen Eigenschaften der Moleküle werfen, welche nicht von den Evolutionsbedingungen überschattet sind.

    Insbesondere ist es bei in vitro Evolution möglich alle Zwischenstufen eines evolutionären Prozesses zu isolieren und zu studieren und damit einen sonst nicht erzielbaren Einblick zu gewinnen, auf welchen Wegen Populationen von Molekülen evolutionär optimiert werden.

    Synthetische Biologie „quo vadis“?

    Der Name „synthetische Biologie“ taucht erstmals im Jahre 1913 in einem Letter to Nature mit dem Titel: „Synthetic biology and the mechanism of life“ auf und bezieht sich auf ein „La biologie synthétique“ übertiteltes Buch von Stéphane Leduc. Der Autor, ein französischer Biologe, versuchte darin Lebensvorgänge auf die physikalische Chemie der Diffusion in flüssigen Lösungen zurückzuführen.

    Meilensteine in der Entstehung der Synthetischen Biologie

    Im vergangenen Jahrhundert hat die synthetische Biologie Gestalt angenommen – keine einheitliche aber eine, die auf dem Boden der molekularen Biologie und insbesondere der molekularen Genetik gewachsen ist. Als Meilensteine kann man nennen:

    i. das Watson-Crick’sche Strukturmodell der DNA (Nature 1953, Nobelpreis für Physiologie 1962),

    ii. die Entdeckung der Restriktionsnukleasen durch Werner Arber, Daniel Nathans und Hamilton Othanel Smith (Nobelpreis für Physiologie, 1978) und

    iii. ihre Anwendung in der Molekulargenetik in Form der rekombinanten Klonierungstechnik durch Paul Berg (Nobelpreis für Chemie 1980),

    iv. die Entwicklung neuer DNA-Sequenzierungmethoden, welche erstmals die Sequenzierung ganzer Genome ermöglichten, durch Walter Gilbert and Frederick Sanger (Nobelpreis für Chemie 1980),

    v. die Herstellung eines künstlichen Oszillators, Repressilator genannt, in vivo durch Einschleusen drei Repressor-Genen in Escherichia coli oder der Einbau eines reversiblen genetischen Schalters in dasselbe Bakterium,

    vi. die chemische Totalsynthese und der Einbau eines Genoms in eine Bakterienzelle.

    Neue Anwendungen

    In den letzten Jahren hat sich ein neuer obgleich naheliegender Anwendungsbereich für synthetische DNA aufgetan: die Verwendung als Speicher von digitaler Information. George Church und Mitarbeiter haben eine DNA synthetisiert, die ein ganzes Buch mit 53 426 Worten, 11 jpeg-Bildern und einem Java-Script auf einer kodierenden Länge von 5.27 MegaBit enthält. Damit hält diese Speicherung zurzeit den Rekord hinsichtlich der Informationsdichte von fast 1016 Bits pro mm3, und übertrifft damit alle physikalischen Speicher einschließlich der Quantenholographie.

    Der Schlüssel zu einer neuen DNA-basierten Technologie ist die Synthese von DNA in ausreichend großen Mengen zu hinreichend niedrigen Kosten. In der Tat scheinen neue als „next-generation technology“ apostrophierten Methoden diese Möglichkeiten zu eröffnen. Die Wissenschaftler und Techniker der Firma Gen9 in Cambridge (MA) erklären, dass sie in einzigem Labor ebenso viel DNA synthetisieren können wie der Rest der Welt.

    Die „American Chemical Society (ACS)“ hat vor drei Monaten ein Exposé mit dem Titel „Engineering for the 21st Century: Synthetic Biology“ mit den Worten geschlossen:

    For years, scientists have hoped that biology would find its engineering counterpart – a series of principles that could be used as reliably as chemical engineering is for chemistry. Thanks to major advances in synthetic biology, those hopes may soon be realized”.

    Als eine solche Core-Technologie wird die Herstellung von DNA-Konstrukten angesehen und ihre Verwendung für mannigfache Anwendungen von DNA-Nanotechnologie, über gezielte ribosomale Proteinsynthese mit natürlichen und künstlichen Aminosäuren bis hin zur genetischen Veränderung von ganzen Organismen. Ebenso wie die chemische Technologie eine ungeheure Fülle von verschiedensten Prozessen um die Kernbereiche herum gruppiert und integriert, könnte die neue Biotechnologie die große Vielfalt der heute als Sammelsurium empfundenen Teilbereiche der synthetischen Biologie miteinander vereinigen.


    [1] Auf Grund der sehr umfangreichen Literatur zu Teil 1 und 2 des Essays wird an dieser Stelle auf eine Zitierung verzichtet. Diese sind in einem ausführlichen Übersichtsartikel des Autors zu zahlreichen im Essay besprochenen Aspekten zu finden („Modeling in biological chemistry. From biochemical kinetics to systems biology” PDF; Monatsh Chem 139, 427–446 (2008)).

    Auf Anfrage können zitierte Artikel vom Autor erhalten werden (http://www.tbi.univie.ac.at/~pks). Ein leicht verständlicher Artikel des Autors, der ebenfalls mehrere Aspekte des vorliegenden Essays anschneidet, findet sich unter: Ursprung des Lebens aus der Sicht der Chemie (PDF).


    Die komplette Sammlung aller Artikel zum Themenschwerpunkt Synthetische Biologie finden Sie hier.


     

    inge Fri, 19.07.2013 - 10:30

    Können wir Natur und Evolution übertreffen? Teil 1: Gedanken zur Synthetischen Biologie

    Können wir Natur und Evolution übertreffen? Teil 1: Gedanken zur Synthetischen Biologie

    Fr, 12.07.2013 - 04:20 — Peter Schuster

    ÖAWPeter SchusterThemenschwerpunkt Synthetische Biologie

    Können wir mit der Synthetischen Biologie etwas Besseres bewirken, als das, was Natur und Evolution im Laufe der Jahrmilliarden hervorgebracht haben? Hier erheben sich sofort Fragen wie: „Besser für wen?“, „Besser wofür? oder „Wie kommen Optimierungen überhaupt zustande?“ Der Artikel basiert auf einem Vortrag des Autors anläßlich des Symposiums über Synthetische Biologie, das von der Österreichischen Akademie der Wissenschaften im Mai d.J. veranstaltet wurde; er erscheint auf Grund seiner Länge in zwei aufeinander folgenden Teilen.

    Vor weniger als einem Jahr veranstaltete das Jena Life Science Forum eine Tagung unter dem Titel „Designing living matter – Can we do better than evolution?“. Nachdem wir uns nach längerer Diskussion auf diesen Namen geeinigt hatten, waren wir fürs erste zufrieden, aber dann doch über die eigene Frechheit erschrocken: Glaubten wir denn wirklich, dass wir Menschen die Evolution übertreffen können? Nach kurzem Nachdenken trat wieder Beruhigung ein. Solange man nicht präzise sagt, was „better“ oder „übertreffen“ bedeuten soll, ist alles offen. Fast immer kann man die Natur übertreffen, wenn man sich ein einziges Merkmal herausgreift und dann dieses durch menschlichen Eingriff nach Belieben verändert.

    Der vorliegende erste Teil dieses Essays schneidet Probleme der Bewertung nach mehreren Kriterien an und geht auf die Frage ein, inwieweit Optimalität in der Natur vorherrscht.

    Optimalität und Pareto-Gleichgewicht

    Optimalität im täglichen Leben ist leicht definiert: Wir möchten ein genau definiertes Produkt kaufen, sehen bei „Geizhals“ oder einem anderen Kaufinformationsprovider online nach, wo das Produkt am billigsten ist, gehen dort einkaufen und haben unseren Einkauf optimiert. Leider ist eine solche eindeutige Sachlage die Ausnahme! Normalerweise haben wir mehrere Kriterien zu beachten, und dann wird der Vergleich schwierig.

    Nehmen wir wieder ein alltägliches Beispiel: Jemand möchte ein ökonomisch günstiges Auto kaufen – d.i. niedriger Anschaffungspreis, geringer Benzinverbrauch und Unterhaltskosten –, das gleichzeitig mit möglichst hoher Spitzengeschwindigkeit fahren können soll. Diese beiden Wunschvorstellungen sind nicht miteinander vereinbar und anstelle eines Optimums gibt es eine ganze Reihe von günstigsten Kompromissen, die nach dem Italiener Vilfredo Frederico Pareto als Pareto-Gleichgewicht oder Pareto-Front bezeichnet wird: Eine besseres Ergebnis für das eine Kriterium lässt sich nur durch eine Verschlechterung beim zweiten Kriterium erzielen. In unserem Beispiel: ein rascheres Auto kostet mehr Geld. Die Pareto-Front trennt die ineffizienten und daher verbesserbaren Lösungen von den unmöglichen, die nicht realisiert werden können (Abbildung 1).

    Vilfredo Pareto war in erster Linie Volkswirt und seine Überlegungen zur Optimierung nach mehreren Kriterien fanden daher auch vorwiegend Anwendungen in der Ökonomie. Unter einigen idealisierenden Annahmen kann gezeigt werden, dass sich ein System „freier Märkte“ zu einer Pareto effizienten Volkswirtschaft entwickelt. Die Optimierungsprobleme in anderen Disziplinen sind aber im Wesentlichen die gleichen und natürliche biologische Systeme machen dabei keine Ausnahme.

    Optimalität in der Natur

    Wie steht es nun mit Optimierung in der Natur?

    Seit der Jungsteinzeit gestaltet der Mensch die Natur durch Manipulation von Organismen für seine Zwecke um. Dabei wird durchaus auch ständig in die Genetik der Arten eingegriffen – sonst wären weder Feldfrüchte noch Obstsorten noch Haustiere gezüchtet worden. Die gesamte Geschichte der Menschheitsentwicklung ist auch eine Geschichte solcher Verbesserungen. Diese Eingriffe in die Natur erfolgten bis ins zwanzigste Jahrhundert hinein ohne Wissen um die Mechanismen, die der Veränderung von Organismen und Arten zugrunde liegen. Die explosionsartige, höchst spektakuläre Entwicklung der molekularen Biologie eröffnet völlig neue Zugänge zur Modifikation biologischer Einheiten von Biomolekülen bis zu Gesamtorganismen.

    Es fällt im Allgemeinen nicht schwer Einzeleigenschaften von Biomolekülen oder ganzen Organismen zu „verbessern“ im Sinne von „schneller, mehr, größer, kleiner, spezifischer, stabiler“ und so weiter. Proteine wurden nicht nur in diesem Sinne "verbessert", sondern auch an nicht natürliche Bedingungen wie beispielsweise nichtwässrige Lösungsmittel angepasst (siehe den Abschnitt über rationales Design im Teil 2).

    Pareto-GleichgewichtAbbildung 1. Pareto Gleichgewicht: Das Optimieren nach mehreren Kriterien (hier Kosten und Geschwindigkeit eines Autos) führt nicht zu einem Optimum sondern zu einer Reihe von Kompromissen.

    Die Natur in Form der biologischen Evolution kann es sich nur in Ausnahmefällen leisten Einzelmerkmale zu optimieren – selektiert werden die Gesamtorganismen und das auch nur in Hinblick auf die Zahl ihrer fortpflanzungsfähigen Nachkommen. Dabei muss die Evolution auf Vorhandenem aufbauen und kann nicht wie ein Ingenieur de novo designen, sie arbeitet nach dem Bastelprinzip – „evolutionary tinkering“ oder „bricolage“ genannt [1], denn das einzige, worauf Erfolg in der Natur aufbaut ist Funktionstüchtigkeit.

    Suboptimale anatomische Lösungen

    Bei den höheren Organismen fehlt es nicht an Beispielen von suboptimalen Lösungen des evolutionären Bastelns. Zwei seien hier stellvertretend für viele andere genannt: (i) beim Wirbeltierauge verlassen die Nervenfasern die Retina auf der Seite, die dem Sehnerv gegenüberliegt und dies bedeutet, dass sie die Retina durchdringen müssen bevor sie gebündelt ins Gehirn weiterlaufen können und dadurch entsteht der bei anderer Faserführung vermeidbare „blinde“ Fleck, und (ii) beim Kehlkopf der Wirbeltiere kreuzen Luft- und Speiseröhre, was vom harmlosen „Verschlucken“ bis zu den tödlichen Verletzungen beim Eindringen von Speisen in die zur Lunge führenden Luftröhre führen kann (Abbildung 2).

    KehlkopfAbbildung 2. Kehlkopf: eine suboptimale Lösung. Der bewegliche Kehlkopfdeckel bewegt sich beim Schlucken reflexartig nach unten und dichtet die Luftröhre ab. Gelegentlich – z.B. bei gleichzeitigem Lachen, Sprechen und Schlucken, tritt der Reflex verzögert ein und man „verschluckt“ sich. (Bild: modifiziert nach US Library of Medicine; public domain)

    Optimalität von Stoffwechselvorgängen?

    Wie steht es nun mit dem Stoffwechsel – Metabolismus - von Zellen? Ist dieser optimal oder nur gerade funktionsfähig? Arbeitet der Stoffwechsel von Organismen unter optimalen Bedingungen und wenn ja, nach welchen Kriterien wurde er optimiert?

    Biochemiker bemühen sich seit mehr als einhundert Jahren erfolgreich um die Aufklärung des Zell-Stoffwechsels und alle wichtigen Reaktionspfade der berühmten Stoffwechselkarte von Boehringer-Mannheim sind hinsichtlich der Zahl und Art der beteiligten Komponenten aufgeklärt (interaktive Darstellung der hochkomplexen Biochemical Pathways: Metabolic Pathways Map). Dennoch tappt man bei einigen grundlegenden Fragen noch weitestgehend im Dunkeln, nämlich nach der Natur der dominierenden Komponenten des metabolischen Flusses (metabolic flux) – d.i. des Durchsatzes von Molekülen durch einen Stoffwechselweg - und ihrer Optimalität.

    Seit etwa zwanzig Jahren steht in Form der „Flux-Balance-Analyse“ (FBA) des Stoffwechsels eine rechnerische, am Computer implementierte Methode zur Verfügung, die eine vereinfachende Untersuchung komplexer metabolischer Netzwerke erlaubt [2]. Einschränkungen der zugänglichen Flusskombinationen entstehen durch die den einzelnen Reaktionsschritten zugrunde liegende Chemie und Thermodynamik: Massenerhalt und Mengenverhältnisse von reagierenden Spezies und Produkten (Stöchiometrie), Energiebilanz und andere Nebenbedingungen beschränken den Raum der Flüsse. Eine Kombination von „Flux-Balance“ und Energiebilanzanalyse (EBA) schafft gleichzeitig eine Basis für die Definition von multikriteriellen Zielfunktionen (= zu optimierende Größen) und erlaubt damit die Berechnung Pareto optimaler Kurven und Flächen (siehe Abbildung 3). Trotz der in sich konsistenten Theorie der metabolischen Flüsse können aber ohne experimentelle Zusatzinformation nur qualitative Aussagen über die Verteilung der Flüsse in den Netzwerken gemacht werden.

    Optimalität des Stoffwechsel am Beispiel von Bakterien

    Eine Vorstellung von der Komplexität des Stoffwechsels selbst bei Bakterien erhält man an Hand einiger Zahlen zum Bakterium Escherichia coli [3]: Dessen rund 4000 Gene kodieren für etwa 5000 verschiedene Transkripte, von denen sich 6000 bis 10000 Proteine herleiten. Den Proteinen stehen etwa 2000 größtenteils niedrigmolekulare Stoffwechselprodukte (Metabolite) gegenüber. Für das ganze Genom und seine Produkte umfassende Analysen ist es daher unumgänglich die Dimension zu reduzieren und sich auf den Kern des Stoffwechsels zu beschränken. Nichtsdestoweniger ist im vergangenen Jahr eine experimentell gestützte Analyse des Stoffwechsels des Bakteriums Escherichia coli im Wissenschaftsmagazin Science erschienen [4]:

    In dieser Untersuchung wurde Glucose - Nahrungsquelle beziehungsweise Ausgangsprodukt des bakteriellen Stoffwechsels –– mit dem stabilen Kohlenstoff-Isotop 13C markiert. Die Analyse der Zeit abhängigen Verteilung dieses Isotops in den Stoffwechselprodukten erlaubte es die metabolischen Flüsse innerhalb der Zellen experimentell zu ermitteln. Die so erhaltene Verteilung der Flüsse wurde dann mit einer berechneten Verteilung verglichen, wobei ein Reaktionsmodell des zentralen Stoffwechsels von Escherichia coli zugrunde gelegt wurde, welches aus 79 einzelnen Reaktionsschritten und einer Escherichia coli spezifischen Bruttobilanzgleichung für die Biomasseproduktion bestand. Fünf Zielfunktionen erwiesen sich als konsistent mit den in vivo Flüssen: (i) maximale Energieproduktion in Form von Adenosintriphosphat (ATP), (ii) Biomasseproduktion, (iii) Ausbeute an Azetat, (iv) Kohlendioxydproduktion und (v) die minimale Summe der absoluten Flüsse im Sinne einer möglichst effizienten Nutzung der Ressourcen. Keine einzige der fünf Zielfunktionen war allein in der Lage, alle gemessenen Flüsse adäquat zu beschreiben und ebenso gab es keine zufriedenstellende Wiedergabe der Daten durch Paare von Zielfunktionen. Von allen Dreierkombinationen erwies sich das Tripel (i) ATP-Produktion, (ii) Biomasseproduktion und (v) optimale Aufteilung der Ressourcen in Form der Minimalisierung des Gesamtflusses, als am besten geeignet, das metabolische Geschehen in der Escherichia coli Zelle hinsichtlich einer Analyse der Optimalität zu beschreiben. Dies kommt auch dadurch zum Ausdruck, dass alle (insgesamt 44 berechneten) Flüsse nahe der Pareto-Fläche zu liegen kommen.

    Pareto-FlächeAbbildung 3. Pareto-Fläche (rot) der drei dominierenden Flüsse im Stoffwechsel von Escherichia coli. Die auf der roten Fläche eingezeichneten Punkte und Zonen wurden aus den 13C Bestimmungen der metabolischen Daten von Escherichia coli unter verschiedenen Wachstumsbedingungen ermittelt. Aerobe Kulturen: blau mit Überschuss an Glucose, grün unter Mangel an Glucose, schwarz unter Stickstoffmangel und zum Vergleich eine anaerobe Kultur: weiß. Die in diesem Diagramm aufgetragenen Flüsse sind normalisiert, und daher bedeutet „1“ die unter gegebenen Bedingungen bestmögliche Erfüllung des Kriteriums der Optimalität – Minimum der Summe der Flüsse, Maximum der Biomasse und ATP-Produktion (Quelle: Referenz [3], Bild gezeichnet nach Fig.1A in dieser Arbeit)

    Abbildung 3 zeigt die Pareto-Fläche im Raum der drei ausgewählten Zielfunktionen i, ii und v: Alle Wachstumsansätze von Bakterienkulturen lagen nahe bei der Pareto-Fläche. Die verschiedenen Bakterienkulturen die aerob (= in Gegenwart von Sauerstoff) bei Glucoseüberschuss gewachsen sind kamen alle im blau markierten Bereich zu liegen, Kulturen unter verschiedenen Graden an Glucosemangel lagen in der grün markierten Zone, eine Kultur unter Stickstoffmangel ergab den schwarzen Punkt und eine unter anaeroben (= in Abwesernheit von Sauerstoff) Bedingungen den weißen Punkt.

    Drei Ergebnisse aus der Gruppe von Uwe Sauer [3] an der ETH Zürich und neueste Arbeiten aus demselben Institut sind von allgemeiner Bedeutung: (i) die Punkte für die metabolische Flüsse anderen Bakterienarten – untersucht wurden Bacillus subtilis (mehrere Stämme), Zymomonas mobilis, Pseudomonas flurescens, Rhodobacter sphaeroides, Pseudomonas putida, Agrobacterium tumefaciens, Sinorhizobium meliloti und Paracoccus versutus – liegen ganz in der Nähe der Pareto-Fläche für Escherichia coli, (ii) Bakterien können metabolische Flüsse messen und regulieren und dies wurde am Beispiel des glycolytischen Flusses und der daraus resultierenden Verwendung des Signals für die Regulierung des Stoffwechsels in Escherichia coli gezeigt [5] und (iii) bei genauer Betrachtung liegen alle gemessenen Flüsse etwas unterhalb der Pareto-Fläche, wobei die Differenz zu den Pareto-Werten signifikant ist. Eine Berechnung der Stoffwechselflüsse für verschiedene Nahrungsquellen liefert die Erklärung:

    Flusskombinationen am Pareto-Optimum für eine Nahrungsquelle sind relativ weit entfernt von den Pareto optimalen Kombinationen für eine andere Nahrungsquelle. Es dauert dementsprechend relativ lange, um von der optimalen Lösung für eine Nahrungsquelle zur optimalen Lösung für eine andere Nahrungsquelle zu kommen. In einigem Abstand von der Pareto-Fläche finden sich Zustände, bei denen die Flüsse mit nur geringem Aufwand und daher rasch von einer Nahrungsquelle zu einer anderen umschalten können. Die Evolution optimiert daher nicht nur auf Effizienz des Stoffwechsels unter den gegebenen Bedingungen, sondern stellt auch die in variablen Umwelten notwendige Flexibilität in Rechnung. Die eben gegebene Erklärung der natürlichen Flusskombinationen durch Variabilität auf Kosten von Effizienz charakterisiert als minimale Flussjustierung [4] bietet eine plausible Alternative zu der früher gegebenen Interpretation als Anpassung der Mikroorganismen an eine historisch bestimmte Reihenfolge in den Änderungen der Nahrungsquellen [5]. ----------------------------------------------------------------------------------------- [1] siehe dazu im ScienceBlog: Peter Schuster. Gibt es Rezepte für die Bewältigung von Komplexität? Die biologische Evolution schafft komplexe Gebilde und kann damit umgehen. Unzähmbare Neugier, Innovation, Entdeckung und Bastelei - Sind wir dazu verdammt auf dem Weg einer immerzu steigenden Komplexität unserer Welt fortzuschreiten?

    [2] Armit Varma, B. Ø. Palsson. Metabolic flux balancing: Basic concepts, scientific and practical use. (Nature) BioTechnology 12:994-998, 1994. [

    3] Uwe Sauer. Metabolic networks in motion: 13C-based flux analysis. Molecular Systems Biology 2:e62, 2006 [4] Robert Schuetz, Nicola Zamboni, Mattia Zampieri, Matthias Heinemann, Uwe Sauer. Multidimensional optimality of microbial metabolism. Science 366:601-604, 2012. [5] Amir Mitchell, Gal H. Romano, Bella Groisman, Avihu Yona, Erez Dekel, Martin Kupiec, Orna Dahan, Yitzhak Pilpel. Adaptive prediction of environmental changes by microorganisms. Nature 460:220-224, 2009.


     

    inge Fri, 12.07.2013 - 08:06

    Zur Aufarbeitung von Kulturgütern — Kooperation von Geistes- und Naturwissenschaften

    Zur Aufarbeitung von Kulturgütern — Kooperation von Geistes- und Naturwissenschaften

    Fr, 10.07.2013 - 09:10 — Sigrid Jalkotzy-Deger

    Icon MINTSigrid Jalkotzy-Deger Rekonstruktionen des Lebens vergangener Zeiten und deren Interpretationen erfolgen heute in enger interdisziplinärer Zusammenarbeit von Geisteswissenschaftern und Naturwissenschaftern.

    Dieser Artikel erschien bereits am 14. Juni 2012. Im Zuge der Aufarbeitung des Archivs präsentieren wir ihn hier erneut:


    Unter Kulturgut versteht man üblicherweise als erhaltenswert betrachtete Bauten und andere physische Zeugnisse der Kultur, wie sie in Archiven, Museen und Bibliotheken gesammelt und aufbewahrt werden, also Kulturdenkmäler. In der Öffentlichkeit werden derartige Denkmäler heute weitestgehend unter dem Aspekt der Ökonomie gesehen. Wenn finanzieller Aufwand und Fachexpertise in die Erhaltung und Restaurierung von Kulturgütern gesteckt werden, so muß sich das rechnen. Dies trifft auf archäologische Fundstätten zu, die zu touristischen Anziehungspunkten geworden sind, auf Kunstwerke die - in Ausstellungen zu Themenschwerpunkten zusammengefaßt - Besucherströme anziehen.

    Vom Kulturgut zum kulturellem Erbe

    Die museale Ansammlung und physische Erhaltung von Kulturgütern ist aber nicht gleichzusetzen mit dem, was wir unter kulturellem Erbe verstehen. Dazu bedarf es einer Aufarbeitung der Kulturgüter, einer Erforschung ihres geistigen Hintergrunds, und dem geistigen Vermächtnis, also dem, was tradiert wurde. Fragen nach dem Ursprung und der Entwicklung unseres kulturellen Erbes und der Umgang mit diesem, tragen wesentlich zur Identitätsstiftung bei, verhindern, daß diese von Subjektivität und Emotionalität geprägt und für partikuläre Interessen instrumentalisiert werden kann.

    Im Bereich der Geistes- und Kulturwissenschaften gibt es hier spektakuläre Neufunde und Entdeckungen, die eine differenzierende Sicht auf die Vergangenheit und neue Aspekte für die Zukunft eröffnen.

    Archäometrie – interdisziplinäre Aufarbeitung von Kulturgut

    Rekonstruktionen des Lebens vergangener Zeiten und deren Interpretationen erfolgen heute in enger interdisziplinärer Zusammenarbeit von Geisteswissenschaftern und Naturwissenschaftern. Ein neues fächerübergreifendes Gebiet – die sogenannte Archäometrie – beschäftigt sich mit der Entwicklung und dem Einsatz quantitativer naturwissenschaftlicher Methoden in der Archäologie, welche von geowissenschaft-lichen Techniken, physikalisch-chemischen Materialanalysen bis hin zu biologischen Untersuchungen – hier vor allem DNA Analysen – reichen.

    Zuverlässige Altersbestimmungen – mittels der Kohlenstoff-14 Methode an Material organischen Ursprungs, mittels Thermoluminiszenz an anorganischen Materialien, (z.B. Keramiken) – präzisieren die Datierung von Funden und verhindern damit Fehlschlüsse hinsichtlich des Verlaufs der kulturellen Entwicklung. Für die Analyse der chemischen Zusammensetzung von Funden steht ein sehr breites Spektrum an physikalisch-chemischen Methoden - inklusive Spurenelements-und-Isotopenanalyse - zur Verfügung. Diese Methoden können einerseits ein konkretes Bild von der Herkunft der Funde ergeben und damit auch von Wanderungsbewegungenund Handelsbeziehungen früherer Zeiten, andererseits aber auch Einblicke in damalige Verfahren zur Herstellung von Materialien und, wie sich diese im Laufe der Zeit entwickelten. Ein gutes Beispiel sind hier werkstoffkundliche Untersuchungen an metallischen Gegenständen und an zeitgleichen Schlacken – von der frühen Kupfermetallurgie bis zu den Verfahren der Eisenzeit. Diese geben ein profundes Bild über Lagerstätten, Bergbau und Verhüttung von Erzen (unter Feuerungstemperaturen, die durch die Verbrennung von Holzkohle erzielbar waren) und ebenso auch über den überregionalen Handel mit den Erzen und den Transfer des Know-Hows zu ihrer Bearbeitung.

    Untersuchungen an Material organischen Ursprungs, beispielsweise an menschlichen Knochen und Zähnen, verwenden u.a. metrische und morphologische Methoden, bildgebende Verfahren, chemische Analytik und vor allem molekularbiologische Analysen alter DNA. Die letztere, auch als molekulare Archäometrie bezeichnete Fachrichtung, kann Auskunft geben über das biologische Geschlecht, Erbkrankheiten, Verwandtschaftsverhältnisse, populationsgenetische Zusammenhänge, Wanderungs-bewegungen und dgl.

    Der beschriebene interdisziplinäre Zugang über die Grenzen von Einzelfächern kulturwissenschaftlicher und naturwissenschaftlicher Gebiete hinaus, ebenso aber auch Kooperationen wissenschaftlicher Institutionen untereinander wirken sich auf derartige Forschungsarbeiten äußerst fruchtbar aus.Dies soll an Hand zweier Beispiele aus den Untersuchungen der philosophisch-historischen Klasse der Österreichischen Akademie der Wissenschaften (ÖAW) aufgezeigt werden. Beide Untersuchungen sind 2011 in Buchform erschienen (siehe unten).

    Corpus Vasorum Antiquorum

    Keramiken, die häufigsten Funde bei Ausgrabungen, überstehen Bodenlagerungen und geben Auskunft über praktisch alle Aspekte früheren menschlichen Lebens: des täglichen Lebens, der Politik, des Handels bis hin zur Kultur und Religion.

    1919 gründete die Union Académique Internationale das Projekt Corpus Vasorum Antiquorummit dem Ziel, alle an Museen befindlichen antiken griechischen Vasen weltweit zu erfassen als Basis für weitreichende Forschungsarbeiten. Dem Projekt gehören heute 26 Länder an, die Sektion Österreich wird von der Österreichischen Akademie der Wissenschaften betreut und hat bis jetzt fünf Bände CVA Österreich herausgebracht. Der letzte, 2011 erschienene Band (1) enthält 130 attisch rotfigurige Vasen des 5. und 4. Jh. v. Chr. – hauptsächlich Ölbehälter und Weinkannen - aus der Antikensammlung des Kunsthistorischen Museums in Wien. Diese Dokumentation resultiert aus einer Kooperation von ÖAW und dem Institut für Mustererkennung und Bildverarbeitung der Technischen Universität Wien und gilt als wegweisend durch den erstmaligen Einsatz moderner technischer Methoden wie 3D-Laserscanner zur Aufnahme von Gefäßfomen und Erstellung digitaler 3D-Modelle,Röntgenaufnahmen zur berührungsfreien Berechnung des Fassungsvolumensund Multispektralanalyse zur Bestimmung von Farbpigmenten. Abbildung 1.

    Diese zerstörungsfreien Methoden offenbarten bisher unbekannte technische Details der Herstellung und Geheimnisse der Bemalung antiker Vasen, die das bloße Auge nicht sehen kann.

    Dokumentation griechischer VasenAbbildung 1: Dokumentation griechischer Vasen. Zerstörungsfreie Untersuchungen zu Form, Materialien und Techniken der Herstellung. Oben links: berührungsfreie Aufnahme der Gefäßformen mittels eines 3D-Laser- Scanner; oben rechts: Röntgenaufnahme (Computertomographie) zur Bestimmung des Fassungsvermögens ; unten: Multispektral-Analyse der Farbpigmente.

    Byzantinische Tinten-, Tusche- und Farbrezepte

    Dass das Schriftwesen von Byzanz herausragend war, ist allgemein bekannt. Aber die Frage, wie die byzantinischen Schreiber ihre Schwarztinten, Farbtinten und die Grundierungen für die Miniaturenmalerei zubereiteten, wurde kaum je erforscht.

    Der Byzantinist Peter Schreiner und die Kunstwissenschafterin Doris Oltrogge haben jetzt 80 Rezepte ausgewertet, die aus 24 Handschriften in 11 Bibliotheken stammen (2). Diese Rezepte wurden fächerübergreifend philologisch, chemisch und technologisch analysiert und, um die Korrektheit der Rezepte zu überprüfen, rekonstruiert. Die Schreiber verwendeten eine Vielzahl damals gebräuchlicher und im Mittelmeerraum verbreiteter Zutaten, die zum Teil auch aus alchemistischer, naturphilosophischer Sicht zugefügt wurden. U.a. wurden auch zwei Rezepte für Geheimtinten entdeckt.

    Dokumentation griechischer VasenAbbildung 2.Byzantinische Tinten-, Tusche- und Farbrezepte. Handschriften der Anna Amalia-Bibliothek in Weimar und Buchdeckel.

    Fazit

    Kultur-und-Geisteswissenschafter gelangen heute mit Hilfe naturwissenschaftlicher Techniken der Materialanalyse – der Archäometrie - zu einem neuen Bild menschlicher Kulturentwicklung.

    (1) Trinkl, Elisabeth, Corpus Vasorum Antiquorum. Österreich. Wien, Kunsthistorisches Museum. Band 5. Attisch rotfigurige Gefäße, weißgrundige Lekythen. Verlag der ÖAW, Wien 2011.

    (2) Schreiner, Peter – Oltrogge, Doris, Byzantinische Tinten-, Tuschen- und Farbrezepte. Verlag der ÖAW, Wien 2011


    Weiterführende Links

    Ernst Pernicka (Univ. Tübingen, führender Archäometriker und Leiter des Großprojekts Troja): Troja - der Schauplatz der Ilias - archäologisch und kulturhistorisch (1:23:32): Ancient Greek Pottery http://www.youtube.com/watch?v=QGR767DojYc&feature=topics (31:49)


     

    inge Wed, 10.07.2013 - 09:10

    Eisendämmerung — Wie unsere Werkstoffe komplexer und intelligenter werden

    Eisendämmerung — Wie unsere Werkstoffe komplexer und intelligenter werden

    Fr, 05.07.2013 - 08:03 — Gottfried Schatz

    Icon MINTGottfried Schatz

    Themenschwerpunkt: Synthetische Biologie — Leitwissenschaft des 21. Jahrhunderts?

    Die Verwendung von in der Natur vorkommenden Materialien wird abgelöst durch den Einsatz von Werkstoffen, welche biologische Strukturen und Funktionen nachahmen und optimieren. Insbesondere verspricht der Nachbau lebender Zellen ein ungeheures Potential an Anwendungsmöglichkeiten. Im Laboratorium massgeschneiderte Lebewesen könnten viel effizienter als natürliche das Sonnenlicht einfangen, Äcker biologisch düngen, Umweltgifte zerstören oder Erze an unzugänglichen Orten schürfen.

    Zwei wissenschaftliche Revolutionen haben mein Leben geprägt: molekulare Biologie und digitale Elektronik. Jetzt erlebe ich eine dritte: die Revolution der intelligenten Werkstoffe. Seit Jahrtausenden waren unsere Werkstoffe die vorgegebenen Produkte der Natur. Heute ersinnen wir sie im Laboratorium, fertigen sie aus chemisch reinen Ausgangsstoffen und versehen sie mit Information zur Erfüllung bestimmter Aufgaben. Diese Revolution macht selbst unsere edelsten Stähle zu altem Eisen. Eisen ist immer noch unser Werkstoff par excellence, wenn auch Aluminium, Magnesium, Titan, Glas und Keramik ihm immer häufiger den Boden streitig machen. Sie alle sind jedoch, ebenso wie Eisen selbst, nur verfeinerte, umgeformte oder miteinander vermischte Naturstoffe. Doch als 1909 der Belgier Leo H. Baekeland aus zwei reinen Chemikalien das vollsynthetische Plastic-Harz Bakelit schuf, begann ein neuer Abschnitt unserer Zivilisation – und das Ende der Eisenzeit.

    Zwei Jahrzehnte später erfand der Deutsche Walter Bock den künstlichen Kautschuk Buna und der Amerikaner Wallace Carothers die künstliche Faser Nylon. Beide Werkstoffe waren lange Ketten aus chemisch reinen Bausteinen, die sich aus Kohle, Wasser und Luft gewinnen liessen. Nylon wurde zur Ikone der Nachkriegszeit: die Flagge, die Neil Armstrong im Namen der Menschheit auf dem Mond hisste, war aus Nylon. Dem Nylon folgte eine Vielzahl vollsynthetischer Stoffe mit erstaunlichen Eigenschaften. Wir konnten diese Eigenschaften nach Wunsch verändern, da wir wussten, wie sie von der Struktur abhingen.

    So grossartig diese Werkstoffe auch waren – verglichen mit denen lebender Zellen waren sie geradezu vorsintflutlich. Je mehr wir über die Chemie des Lebens lernten, desto deutlicher erkannten wir die fast unvorstellbare Komplexität lebender Zellen. Die immense Information zum Bau einer menschlichen Zelle ist in unserem Erbgut gespeichert – fadenförmigen Riesenmolekülen aus DNA, welche die Baupläne für mindestens 25 000, vielleicht sogar 100 000 verschiedene Eiweisstypen tragen. Eiweisse haben eine viel komplexere Struktur als eine Nylonfaser und können deshalb vielfältigere und anspruchsvollere Aufgaben erfüllen.

    Bioaktive Implantate

    Chemiker inspirieren sich an diesem Beispiel und bauen heute hochkomplexe Werkstoffe, die Information für bestimmte Aufgaben tragen. Eindrückliches Beispiel dafür ist eine neue Generation bioaktiver, signaltragender Implantate. Viele dieser Signale sind Eiweisse, die einer Zelle befehlen «Höre auf zu wachsen, denn jetzt bin ich hier»; oder «Wachse möglichst schnell in meine Richtung, damit wir gemeinsam ein festes Gewebe bilden können». Jedes Gewebe unseres Körpers – selbst ein Knochen – ähnelt einem summenden Bienenschwarm, in dem unaufhörlich Informationen in Form von Eiweissen und anderen Botenstoffen hin und her schwirren. Bioaktive Implantate beherrschen einige Worte dieser Zellsprache und können sich so in die Gespräche zwischen Zellen einschalten. Die Oberfläche von Knochenimplantaten trägt manchmal auch winzige, sorgfältig geplante Dellen oder Rillen, da Zellen nicht nur auf chemische Signale, sondern auch auf die Feinstruktur einer Oberfläche ansprechen. Diese neuen Implantate sind also wesentlich informationsreicher und damit intelligenter als ihre Vorläufer. Sie werden Gewebe zunächst ersetzen, dann seine Heilung anregen und sich schliesslich auflösen.

    Nachbau lebender Zellen

    Wissenschaft lebt jedoch nicht nur von Erkenntnissen, sondern auch – und vielleicht vor allem – von Träumen. Einer dieser Träume ist es, die informationsreichste aller Materieformen nachzubauen: eine lebende Zelle. Dies hätte nicht nur philosophische Brisanz, sondern auch praktische Auswirkungen. Im Laboratorium massgeschneiderte Lebewesen könnten viel effizienter als natürliche das Sonnenlicht einfangen, Äcker biologisch düngen, Umweltgifte zerstören oder Erze an unzugänglichen Orten schürfen.

    Wie einfach kann eine lebende Zelle sein? Biologen entdeckten vor kurzem ein Bakterium, das lediglich 182 Eiweisstypen besitzt [1]. Es ist das einfachste Lebewesen, das wir kennen. Wegen seiner kümmerlichen Eiweiss-Aussteuer kann es viele seiner eigenen Bausteine nicht mehr herstellen und muss deshalb als Parasit im Inneren von Insektenzellen hausen. Wahrscheinlich dürfte ein frei lebendes Bakterium aber nur wenig mehr Eiweisstypen benötigen – vielleicht nur zwei- bis vierhundert –, um frei leben zu können.

    Das entsprechende Erbgut können wir schon jetzt im Laboratorium bauen. Vor einigen Jahren synthetisierte der amerikanische Molekularbiologe Craig Venter mit chemischen Robotern das vollständige Erbgut eines Virus und konnte damit lebende Zellen infizieren und töten. Vor drei Jahren gelang es dann der Gruppe um Craig Venter das wesentlich größere Erbgut eines freilebenden Bakteriums (Mycoplasma mycoides) im Labor zu synthetisieren, mit diesem das Erbgut in einer anderen Bakterienart (Mycoplasma capricolum) zu ersetzen und damit zum ersten Mal von Menschenhand ein halbsynthetisches Lebewesen zu erschaffen [2].

    Die vielseitigste Materie

    Die nächsten Schritte werden wahrscheinlich davon bestimmt, wofür wir das neue Lebewesen einsetzen wollen. Wenn es ein Umweltgift zerstören soll, könnten wir zunächst ein möglichst einfaches Bakterium auswählen, das dieses Gift abbauen kann. Wir könnten die für Fortpflanzung und Giftabbau notwendigen Teile des Bakterien-Erbguts mit chemischen Methoden auf höchste Leistung steigern und dann ein Erbgut herstellen, das nur noch diese optimierten Teile enthält. Mit diesem massgeschneiderten Erbgut könnten wir schliesslich das ursprüngliche Erbgut des Bakteriums ersetzen.

    Ethiker sehen dabei keine Probleme, doch die Vision von «künstlichem Leben» weckt unweigerlich Ängste. Wie schon in der Frühzeit der Biotechnologie wird es strenge Regeln brauchen, um unvorhersehbare Unfälle mit diesen halbsynthetischen Lebensformen (oder sind es Werkstoffe?) zu verhindern. Sehr viel später werden wir es wahrscheinlich wagen, vollsynthetische einzellige Lebewesen zu schaffen und ihnen Eigenschaften zu geben, die uns heute unvorstellbar sind.

    Lebende Zellen sind die vielseitigste und informationsreichste Materie, die wir kennen. Sie ist das Ergebnis von fast vier Milliarden Jahren Entwicklung und zeigt uns den Weg zu den Werkstoffen kommender Generationen. Ist es Hybris, sie nachzubauen und dann für unsere Ziele umzuformen? Dürfen wir Welten betreten, die wir bisher als göttlich scheuten? Und werden lebensähnliche Werkstoffe die Spitzentechnologie unserer Enkelkinder prägen? Die Revolution der intelligenten Werkstoffe hat kaum begonnen – und dennoch bauen wir bereits an künstlicher Materie, die um viele Grössenordnungen informationsreicher ist als alles, was wir bisher geschaffen haben. Warum sind wir Menschen nie zufrieden? Könnte es sein, dass informationsreiche Materie stets nach mehr Information hungert? Und wäre dies nicht wunderbar?


    [1] Nakabachi, A., Yamashita, A., Toh, H., Ishikawa, H., Dunbar, H., Moran, N. & Hattori, M. The 160-kilobase genome of the bacterial endosymbiont Carsonella. Science 314, 267 (2006). http://www.sciencemag.org/content/314/5797/267.full.pdf
    [2] Gibson D.G. et al., Creation of a Bacterial Cell Controlled by a Chemically Synthesized Genome. Science 329, 52-56 (2010). http://www.sciencemag.org/content/329/5987/52.full.pdf


    Anmerkungen der Redaktion

    Zum Themenschwerpunkt Synthetische Biologie sind bis jetzt erschienen: Redaktion: Themenschwerpunkt: Synthetische Biologie — Leitwissenschaft des 21. Jahrhunderts?

    Uwe Sleytr: Synthetische Biologie – Wissenschaft und Kunst

    Wolfgang Knoll: Die biomimetische künstliche Nase – wie weit sind wir? Teil 1: Künstliche Sensoren nach dem natürlichen Vorbild unserer fünf Sinne Teil 2. Aufbau und Funktion physiologischer Geruchssensoren Teil 3: Konstruktion einer biomimetischen Nase

    Michael Graetzel: Der Natur abgeschaut: Die Farbstoffsolarzelle

    Gerhard Wegner: Anmerkungen eines Laien zur Synthetischen Biologie – Teil 1, Anmerkungen eines Laien zur Synthetischen Biologie – Teil 2

    Karin Saage & Eva Katrin Sinner: Was ist und was bedeutet für uns die Nano-Biotechnologie?

    Weiterführende Links

     Craig Venter unveils "synthetic life" Video 18.18 min (2010, in Englisch, deutsche Untertitel) http://www.ted.com/talks/craig_venter_unveils_synthetic_life.html (from TEDTalks: a daily video podcast from the TED Conference, where the world's leading thinkers and doers give the talk of their lives in 18 minutes.)

    Synthetische Biologie - Leben schaffen im Labor Video 7:02 min (2010, in Deutsch) http://www.youtube.com/watch?v=HHayuBHYjvk

    Synthetische Biologie erklärt Video 6:38 min (2012, in Deutsch) Eine hervorragende Broschüre: Synthetische Biologie: Eine Einführung. Zusammenfassung eines Berichts des European Academies Science Advisory Council (EASAC). 2011. (PDF-Download)


     

    inge Fri, 05.07.2013 - 08:30

    Anmerkungen eines Laien zur Synthetischen Biologie – Teil 2

    Anmerkungen eines Laien zur Synthetischen Biologie – Teil 2

    Fr, 27.06.2013 - 20:43 — Gerhard Wegner

    Themenschwerpunkt Synthetische Biologie


    ÖAWGerhard Wegner

    Im 2.Teil seines, anläßlich des ÖAW-Symposiums „Synthetische Biologie“ gehaltenen Votrags diskutiert Gerhard Wegner die Konstruktion kleinster lebensfähiger Einheiten – u.a. als „Chassis“ für die Montage verschiedenster Funktionseinheiten – und die Versprechungen der erwarteten und erwartbaren Nützlichkeit dieser Forschungen. (Ungekürzte Fassung des Vortragsmanuskripts; der 1. Teil erschien am 21.6.2013.)

    Gebiete der Synthetischen Biologie

    Wenn wir zusammenfassend und in grober Vereinfachung akzeptieren wollen, dass es der Synthetischen Biologie im Wesentlichen darum geht, Konstrukte zu definieren und experimentell zu verifizieren, die Phänomene des Lebens auf der Ebene von „Minimalzellen“ aufweisen und im gewünschten Grenzfall „leben“, dann muss man fragen, wie wir „Leben“ als biologisch-physikalisch-chemisches Phänomen denn definieren wollen.

    Wie können wir Leben definieren?

    Es gibt – so glaube ich – einen Minimalkonsens darüber, wann wir ein Objekt als „lebend“ bezeichnen können. Das lässt sich mit 3 Stichworten zusammenfassen in Form von Eigenschaften, die das Objekt aufweisen muss:

    • Metabolismus (Stoffwechsel, d.h. Kommunikation mit der Umgebung des Objekts in Form von Stoff- und Informationsaustausch
    • Replikation (ein Programm, das alle Informationen über Synthese und Relation zwischen den Bauelementen des Konstrukts enthält und sich selbst replizieren kann.
    • Kompartimentierung (eine Umhüllung der Elemente des Konstrukts, die ihr „Identität“ verleiht und durch die das „Innenleben“ von der Außenwelt abgegrenzt wird.)

    Es geht also um den Entwurf einer Chemischen Maschine, für die früher bereits der Name „Chemoton“ erfunden worden ist. Die Definitionen sind unabhängig von der konkreten Realisierung und abstrahieren die Phänomene, die wir aus den Befunden des „Lebens-wie-wir-es-kennen“ hergeleitet sind. Dieses „Leben-wie-wir-es-kennen“ ist an Bedingungen geknüpft, die auf dem Planeten Erde irgendwann herrschten und heute noch herrschen. Leben könnte unter anderen Umständen, d.h. irgendwo anders im Sonnensystem oder im Weltall auch ganz anders konstruiert sein, jedenfalls gibt es keinen Grund anzunehmen, dass „Leben“, wo immer es entstanden sein mag, stets aus den identischen Strukturelementen besteht.

    Ich verweise in diesem Zusammenhang auf einen sehr lesenswerten, kürzlich erschienenen Artikel von Stephen Mann (University Bristol, UK) [1]

    In diesem Artikel schlägt der Autor den Bogen von den Zielen und dem Stand der Synthetischen Biologie zur Präbiotischen Chemie und den zurzeit sehr populären Missionen der NASA und anderer Agenturen, die das Ziel haben, Spuren von „Leben-wie-wir-es-kennen“ auf dem Planeten Mars oder sonstwo zu finden. Der Autor legt u.a. dar, dass es sehr viel sinnvoller wäre, Forschungsmittel in ähnlichem Umfang wie sie für eine Mars-Mission ausgegeben wurden, nämlich ca 1.5 – 2.0 Milliarden US $, in die Forschung zur Synthetischen Biologie zu stecken, wenn man dem „Geheimnis der Funktion und der Entstehung von Leben“ tatsächlich näher kommen wollte.

    Folgen wir offiziellen Stellungnahmen zur Beschreibung des Arbeits- und Wissensgebietes der Synthetischen Biologie – ich wähle hier zugegeben etwas willkürlich, weil in deutscher Sprache – die gemeinsame Stellungnahme von DFG, Acatech und Leopoldina [2] aus dem Jahr 2009 – so zählen zu den wichtigsten Zielen:

    1. „Die Konstruktion von Minimalzellen mit dem Ziel, eine kleinste lebensfähige Einheit zu gewinnen; derartige Zellen sind unter definierten Laborbedingungen lebensfähig, haben jedoch eingeschränkte Fähigkeiten, sich an natürlichen Standorten zu vermehren.“ Wir konstatieren, dass es um die Konstruktion von „Leben“ geht, wobei im zweiten Satz sogleich eine tiefe Verbeugung vor einem bestimmten Teil der Öffentlichkeit, also dem Publikum, gemacht wird, das diese Arbeiten kritisch und mit Befürchtungen aller Art betrachten könnte. Es handelt sich um die einschränkende Versicherung, dass es sich bei der Konstruktion der „Minimalzelle“ lediglich und nur um ein Laborartefakt handele, etc. etc. Woher diese Einschränkung kommt, und welchen irrationalen Hintergrund sie hat, wird uns im Weiteren noch beschäftigen.
    2. „Die Synthese von Protozellen mit Merkmalen lebender Zellen“. Es ist beabsichtigt, sie langfristig „als Chassis für die Herstellung von Substanzen einzusetzen“. Hier werden zwei Begriffe verwendet, nämlich „Minimalzelle“ und „Protozelle“. Dies dient der Unterscheidung von „Bottom-up“ und „Top-down“ Zugängen zum Phänomen „lebendes Konstrukt“. Man kann aus der als Modell dienenden natürlichen Zelle Bauelemente entfernen bzw. „ausschalten“ bis man einen Zustand erreicht hat, bei dem das weitere Ausschalten von Funktionselementen zum Verlust der Funktionsfähigkeit, heißt zum Tod der Zelle führt. Dieser letzte Zustand definiert die Minimalzelle. Man kann aber auch versuchen, aus vollsynthetischen oder aus Zellen gewonnenen Funktionselementen ein Konstrukt aufzubauen, das Phänomene des „Lebens“ zeigen wird, sobald eine gewisse Komplexität erreicht worden ist: „ der Motor beginnt zu laufen“. Dies bezeichnet den Zustand der Protozelle, nämlich ein Konstrukt aus nicht-biogenen Komponenten.

    Die beiden Statements, die hier zitiert worden sind, beschäftigen sich mit „Leben“ als Phänomen und dies ist in der Tat eher ein philosophisches Konzept, das im Wandel der Zeit zudem einem Bedeutungswandel unterliegt. Als Beleg sollen vier Zitate dienen, die helfen, die Epistemologie des Begriffs „Leben“ offenzulegen (Abbildung 1).

    Louis Pasteur: Die apodiktische Feststellung von, „Lebendiges entsteht nur aus dem Lebendigen“ bezieht sich auf die von ihm streng festgelegten Bedingungen von Experimenten. Sie schließt eine kontinuierliche „Urzeugung“ neuen Lebens aus toter Materie im Sinne spontaner Organisation aus. Sie besagt jedoch nicht, dass rationales Konstruieren einer „chemischen Maschine“ möglich ist.

    Manfred Eigen (und seine Schüler): halten es 50 Jahre später für möglich, dass Selbstorganisation unter bestimmten äußeren Bedingungen über verschiedene Stufen zu Lebensformen führen kann, sobald ein bestimmter Grad der Komplexität erreicht ist.

    Sidney Bremer: kommt unter dem Eindruck der Ergebnisse der molekularen Zellbiologie zu der Aussage: „Es ist alles ein molekulares Konstrukt“.

    Christian de Duve: gibt der Hoffnung Raum, dass die Einsichten der Wissenschaften andere und neue Wege zur Machbarkeit von Leben eröffnen.

    Was ist Leben – aus der Sicht von (Natur)wissenschaftern.Abbildung 1. Was ist Leben – aus der Sicht von (Natur)wissenschaftern.

    Exkurs zum Thema „Lebenskraft“ und „Beseelung“

    Warum verursacht die Synthetische Biologie mit ihren Konzepten heftige Reaktionen in der Presse und Schlagzeilen wie z.B. „Konkurrenz für Gott“ (Der Spiegel) oder „Leben aus dem Baukasten: Hat denn die Ära der Evolution 2.0 schon begonnen?“ (FAZ), und warum haben Gruppen von besorgten Bürgern in den USA bereits ein Moratorium für die Forschung gefordert, da diese Forschung nicht nur gefährlich, sondern von Anfang an unmoralisch sei ?

    Ich vermute, das hängt mit dem kulturellen Gedächtnis und wenig reflektierten religiös-philosophischen Vorstellungen vieler Zeitgenossen zusammen, wobei überzogene Voraussagen und Projektionen einiger Wissenschaftler, verbunden mit sprachlich und philosophisch unsauberer Argumentation ihren Beitrag leisten.

    Ich kann die Problematik nur kurz zu schildern versuchen und verwende dazu einige Bilder und Stichworte, die zum kulturellen Erbgut unserer Gesellschaft gehören.

    Die „Beseelung“ des Adam (Michelangelo, um 1511; Sixtinische Kapelle) Abbildung 2. Die „Beseelung“ des Adam (Michelangelo, um 1511; Sixtinische Kapelle)

    „Leben“ ist für viele von uns verbunden mit dem Begriff „Lebenskraft“ oder für die eher religiös verankerten Menschen unseres Kulturkreises mit „Beseelung“. Niemand hat die dahinter liegenden Vorstellungen besser illustriert als Michelangelo mit seinem Fresko „Beseelung des Adam“ in der Sixtinischen Kapelle. Die dahinterliegende Vorstellung ist, dass die tote Materie wohl in der Lage ist, sich selbst so zu organisieren, dass Form und Funktionen eines Organismus (hier Adam) entstehen, aber eigentliches Leben entsteht erst, wenn eine übernatürliche Kraft (Gott-Vater) den bereits vorgeformten Körper „beseelt“, ihn also mit „Seele“ bzw. „Lebenskraft“ versieht. Ob diese Lebenskraft etwas Immaterielles und Übernatürliches ist, ob es eine noch unbekannte Energieform oder im Sinne einer Autopoiese „nur“ die Konsequenz des Komplexitätsgrades der molekularen Maschine höherer Lebewesen und des Menschen ist, hat zahlreiche Philosophen, Naturforscher, Denker und Dichter beschäftigt. Es ist ein ungelöstes Rätsel, zu dem – da bin ich ganz sicher – die Synthetische Biologie einen kleinen aber wesentlichen Beitrag leisten kann.

    Wie suggestiv und gleichzeitig prägend Michelangelos Bild ist, wird erst in seiner Persiflage deutlich, von denen es zahlreiche gibt. Viele dieser Persiflagen bringen prägnant zum Ausdruck, wie falsch und voreingenommen das Gottesbild (Gott Vater) in der Darstellung Michelangelos ist.

    Man sollte bedenken, dass das Wesen, das in dieser Darstellung als „Gott“ bezeichnet wird, im Prinzip unvorstellbar ist und daher auch der Prozess der „Beseelung“ im keinem noch so einleuchtenden Bild dargestellt werden kann.

    Daher ist auch die Aussage, dass die Adepten der Synthetischen Biologie „Gott spielen wollen“ in jeder Hinsicht falsch und ganz unzutreffend.

    Es ist aber so, dass es in der Geschichte der Naturwissenschaft und Medizin immer wieder Forscher und durch sie ausgelöste Strömungen gegeben hat und gibt, die behaupteten, die „Lebenskraft“ entdeckt zu haben und ihr Wirken kontrollieren zu können.

    Eine der bedeutendsten und kulturhistorisch interessantesten ist die Entwicklung des Galvanismus um die Wende des 18. zum 19. Jahrhunderts. Die Nachwirkungen dieser Bewegung sind noch heute zu spüren.

    Ausgelöst durch die Entdeckung des Arztes und Naturforschers Luigi Galvani im Jahr 1780, dass nämlich Froschschenkel bei Kontakt mit einer Volta’schen Säule spontan Kontraktionen durchführen, also Elektrizität Muskelkontraktion auslöst, entwickelte sich rasch eine Bewegung, die ganz Europa erfasste. Man glaubte in der (damals noch wenig verstandenen Elektrizität) die Lebenskraft gefunden zu haben, mit der auch Tote wieder zum Leben erweckt werden könnten. Es lag nahe, entsprechende Versuche an Leichen durchzuführen, die ja durch die Erfindung der Guillotine und den Verlauf der französischen Revolution reichlich zur Verfügung standen (Abbildung 3).

    Entstehung der „Lebenskraft“ durch Galvanismus. Cartoon um 1836 (Bild: Wikimedia)Abbildung 3. Entstehung der „Lebenskraft“ durch Galvanismus. Cartoon um 1836 (Bild: Wikimedia)

    Natürlich (wie wir heute sagen) blieben Erfolge aus, was die Medizin bis in die heutigen Tage nicht daran hindert, Patienten elektrischen Strömen auszusetzen. Immerhin wurde bereits im Jahr 1803 in Preußen ein Verbot erlassen, solche Versuche mit den Körpern von Hingerichteten durchzuführen. Dennoch blieb die Faszination des Galvanismus erhalten und kumulierte in dem Roman „Frankenstein oder der moderne Prometheus“, den die englische Schriftstellerin Mary Shelley im Jahr 1818 veröffentlichte. In unzähligen Auflagen wird er noch heute gelesen und bildet die Vorlage für viele Horrorfilme. In ihm wird dargestellt, wie wahnsinnige Wissenschaftler aus Teilen von Leichen neue Körper zusammensetzen, die sie dann mittels elektrischer Kräfte zum Leben erwecken. Die entstandenen Ungeheuer wenden sich alsbald gegen ihre Schöpfer und bringen diese in grausamer Weise ums Leben.

    Frankenstein und die verrückten Wissenschaftler in ihren finsteren Laboratorien bilden die Versatzstücke, die bis heute wirken, wenn über die Anwendung gentechnischer Methoden in der Tier- und Pflanzenzüchtung, über Transplantationsmedizin und schließlich auch über Synthetische Biologie unkritisch und unbedarft berichtet und diskutiert wird.

    Weitere Aussagen zur Synthetischen Biologie

    Kehren wir wieder zurück zu der Aussage des Standpunkte-Papiers von DFG, Acatech und Leopoldina [2]. Die Aussage, dass Synthetische Biologie ein „Chassis“ für die Montage verschiedenster Funktionseinheiten bereitstellen könne, bedarf näherer Betrachtung und Kritik. Dazu gehört die Aussage über die Ziele eines solchen Vorgehens:

    Die Produktion neuer (?) Biomoleküle (?) durch baukastenartiges Zusammenfügen einzelner Stoffwechselfunktionen. Diese können aus verschiedensten genetischen Spenderorganismen stammen“.

    Die Fragezeichen habe ich eingefügt, um anzudeuten, dass man über die Formulierung trefflich streiten kann: Sind die aus synthetischen Organismen stammenden Moleküle noch als Biomoleküle zu bezeichnen? Vor allem dann, wenn sie „neu“ sind, also in biologischen (d.h. natürlichen) Organismen gar nicht vorkommen?

    Aber viel grundsätzlicher, und erläutert an einem Beispiel aus gängiger Technik:

    Nehmen wir ein modernes Automobil als komplexes System aus sehr vielen Funktionseinheiten, die alle zum Gesamtzweck des Autos zusammengefügt werden und operativ funktionieren müssen und betrachten wir – pars-pro-toto - nur den Motorraum, so erscheint das Objekt dem laienhaften Betrachter zunächst als „komplex“. Wir wissen aber, dass im Motorraum verschiedenste Funktionseinheiten zu einem Konstrukt zusammengefügt sind. Nehmen wir an, es handele sich um ein Auto der Firma Toyota; dann können wir selbstverständlich versuchen, den Vergaser des Originals durch einen Vergaser aus dem Motorraum eines Wagens der Firma VW zu ersetzen, die Zündkerzen könnten wir durch solche aus einem BMW, die Nockenwelle von Mercedes nehmen usw. Am Ende würde der Motor vielleicht noch laufen (oder auch nicht), aber: was hätten wir gelernt und wäre das Unternehmen sinnvoll?

    Ein weiteres Beispiel aus heutiger Technik soll helfen, die Ziele des Top-down-Prozesses, nämlich Erzeugung einer Minimalzelle durch Dekonstruktion lebender Zellen zu hinterfragen.

    Betrachten wir eines der modernsten Flugzeuge, den „Dreamliner“ der Fa. Boing. Können wir aus diesem Objekt der Technik – sicher ein „komplexes Konstrukt“ - die Evolution der Flugzeuge ableiten und durch „Ausschalten“ von Bauelementen auf ein „Minimalflugzeug“ zurückschließen? Das wäre schwierig, ist aber auch unnötig, denn im Fall des Flugzeugs kennen wir die Geschichte der Evolution in allen Details. Wir wissen, wie die ersten Flugmaschinen ausgesehen haben und wer ihre Erfinder waren. Diese Flugmaschinen haben außer bestimmten Prinzipien der Aerodynamik herzlich wenig mit einem modernen Verkehrsflugzeug gemein und dennoch stehen die Wright’schen Flugzeuge am Beginn der Evolution der Avionik.

    Im Fall der Ziele der Synthetischen Biologie kennen wir den Pfad der Evolution nicht.

    Es scheint mir zweifelhaft, dass man durch Ausschalten bzw. Herausnahme von Funktionselementen aus Zellen, die „leben“ auf eine Minimalzelle“ schließen kann, wie sie zu Beginn der Evolution vorgelegen haben mag: wir kennen den Weg der Evolution nicht, der zur ersten „lebenden“ Zelle geführt hat und solange wir nicht entschlüsselt haben, wann „Leben“ aus der komplex und hierarchisch akkumulierten Materie entsteht, werden wir auch nicht weiterkommen. Deshalb halte ich den Weg des Top-down in der Synthetischen Biologie für wenig zielführend.

    Was bleibt ist die Forderung nach den elementaren Funktionen als Konsequenz einer Autopoiesis der Konstrukte. Für die Diskussion mag es interessant sein, andere Gebiete als die Biologie zu betrachten, die sich historisch parallel entwickelt haben und zu fragen, ob es dort ähnliche Bewegungen gibt, wie sie die Synthetische Biologie für die Biologie bedeutet. Ich wähle die Psychologie als Beispiel. Sie hat sich ähnlich wie die Biologie an der Wende des 18. zum 19. Jahrhunderts als eigenes Feld der Wissenschaft herausgebildet. Im Zentrum dieser Wissenschaft steht das Leib-Seele (Geist)-Problem hinter den verschiedenen Teildisziplinen dieses Feldes.

    Man darf fragen: Gib es eine Synthetische Psychologie? Die Antwort lautet: Ja, nur wird diese Nomenklatur nicht verwendet. Historisch haben Biologie und Psychologie parallele Entwicklungsschritte durchlaufen. Auch in der Psychologie spielt der bereits genannte Galvanismus eine merkwürdige Rolle.

    In moderner Zeit haben Fragen der „künstlichen Intelligenz“ und der Methodik der „neuronalen Netze“ Fragen aufgeworfen, die von ähnlicher Brisanz für das Weltbild der menschlichen Gemeinschaft sind, wie bei der Synthetischen Biologie. Die IT-Technologie stellt Fragen, wie z.B. ab welchem Grad von Komplexität der Hard- und Software von Rechenanlagen so etwas wie „Selbstbewusstsein“ der Anlage auftreten könnte; und diese Frage dient als Vorlage für Horrorgeschichten und Hollywood-Filme.

    Es besteht aber kaum ein Zweifel, dass man hier von einer Parallele zur Synthetischen Biologie sprechen darf.

    Versprechungen und Aussagen zur Nützlichkeit

    Kehren wir noch ein letztes Mal zu den Kernsätzen des Standpunkte-Papiers von Acatech, DFG und Leopoldina [2] zurück. Dort – wie auch in vielen anderen ähnlichen Papieren – finden sich Aussagen zu dem erwarteten und erwartbaren Nutzen dieser Forschung, Zitat: „(Die Synthetische Biologie“) wird die Konstruktion regulatorischer Schaltkreise (erlauben). Diese erlauben es, komplexe biologische oder synthetische Prozesse zu steuern. (Ferner) die Konzeption sogenannter orthogonaler Systeme. Dabei werden modifizierte Zellmaschinerien eingesetzt, um beispielsweise neuartige Biopolymere zu erzeugen“. Und weiter liest man:

    „Die ökonomische Bedeutung lässt sich derzeit noch nicht präzise abschätzen, es sind jedoch bereits marktnahe Produkte erkennbar. Der Katalog umfasst Medikamente, Nukleinsäurevakzine, neuartige Verfahren zur Gentherapie, umwelt- und resourcen-schonende Fein- und Industriechemikalien, Biobrennstoffe sowie neue Werkstoffe, wie polymere Verbindungen.

    Solche Aussagen, die man – wie gesagt – in fast allen Statements zu Stand und Zukunft der Synthetischen Biologie findet – sind nicht nur ohne Substanz, sondern enthalten grobe Irreführung des Publikums. Beispiel: Was unterscheidet einen „Biobrennstoff“ von einem „Brennstoff“? Sind nicht Erdöl und Erdgas ebenfalls „Biobrennstoffe“, weil biogenen Ursprungs? Warum soll die Gewinnung von z.B. Fettsäuren als „Biobrennstoff“ aus (noch gar nicht verfügbaren) Methoden der Synthetischen Biologie „resourcenschonender“ sein als z.B. die Verwendung von Holz oder Stroh zur Energiegewinnung? Die Aufzählung von „neuen Werkstoffen“ und „polymeren Verbindungen“ im Katalog der Nützlichkeiten erzeugt bei mir als Materialwissenschaftler nur Kopfschütteln, wenn nicht Lachen.

    Wäre es nicht ehrlicher, sich ein Beispiel an dem englischen Physiker und Naturforscher Michael Faraday (1791 – 1867) zu nehmen. Als ihn die noch junge Königin Victoria kurz nach ihrer Krönung in der Royal Institution besuchte, um sich seine Experimente zum Elektromagnetismus vorführen zu lassen, fragte sie ihn: „Wozu ist denn elektrischer Strom gut?“ Michael Faraday antwortete „Your Majesty –ich weiß es nicht, aber ich bin ganz sicher, dass Ihre Regierung in wenigen Jahren eine Steuer darauf legen wird“.

    Mit anderen Worten: der wissenschaftliche Gewinn, der durch Forschung entsteht, bedarf nicht der Rechtfertigung durch den unmittelbaren Nutzen.

    Genauso wenig wie sich der Aufwand für die Weltraumforschung daraus rechtfertigen lässt; dass dabei bessere Materialien für Bratpfannen entwickelt wurden, kann ein noch nicht einmal existenter Produktionsweg für Chemikalien den Aufwand der Forschung rechtfertigen. Insbesondere sollte man sich nicht in Argumentationen in „Neusprech“ bewegen, indem man glaubt, dass die gewollte und gewünschte Forschung „neue“ und „resourcenschonende „Bio“-materialien erzeugen kann.

    Die Größe der Aufgabe, nämlich wie und wann Komplexität zu einer Autopoiese führt, d.h. eine sich selbst reproduzierende chemische Maschine entsteht, ist Rechtfertigung genug.

    Alles andere heißt nur, den Gaukler in Hieronymus Bosch’s Bild nachzuahmen, bzw. den Arzt, der den Dummen kuriert, indem er ihm Biomaterial (nämlich Bachblüte) aus dem Hirn extrahiert, wobei die „Wissenschaft“ mit der Literatur auf dem Kopf assistiert.

    Kritische Zeitgenossen gibt es ja genügend, die sich mit den Ergebnissen der Forschung und den Forschern auseinandersetzen werden. Bis dahin wollen wir hoffen, dass die Leitmotive der großen Symphonie namens Synthetische Biologie hier zum Durchbruch kommen und sich dabei auch der große Dirigent oder Dirigentin zu erkennen gibt, von der ich eingangs gesprochen habe.


    [1] Stephen Mann (2013) The Origin of Life; Old Problems, New Chemistry, Angewandte Chemie, Int. Ed. 52:155-62.

    [2] Synthetische Biologie – Standpunkte (2009). Wiley-VCH Verlag; Hsg. Deutsche Forschungsgemeinschaft (www.dfg.de), acatech – Deutsche Akademie der Technikwissenschaften (www.acatech.de) und Deutsche Akademie der Naturforscher Leopoldina – Nationale Akademie der Wissenschaften (www.leopoldina-halle.de) http://www.dfg.de/download/pdf/dfg_im_profil/reden_stellungnahmen/2009/s... (96 Seiten, abgerufen am 27.6.2013; free download)


     

    Weiterführende Links

     

    Musei Vaticani: Interaktive 3D-Animation der Sixtinischen Kapelle ("Gott beseelt Adam" befindet sich senkecht über dem Beobachter)


     

    inge Thu, 27.06.2013 - 02:42

    Der Natur abgeschaut: Die Farbstoffsolarzelle

    Der Natur abgeschaut: Die Farbstoffsolarzelle

    Do, 28.10.2012- 04:20 — Michael Grätzel

    Icon Chemie Michael Grätzel

    Pflanzen fangen mit Hilfe von Farbstoffen das Sonnenlicht ein und verwandeln dieses in Energie, welche sie zur Synthese organischer Baustoffe aus Kohlendioxyd und Wasser – der Photosynthese – befähigt. Die neuentwickelte Farbstoffsolarzelle (nach ihrem Erfinder „Graetzel-Zelle“ benannt) ahmt diesen Prozeß nach, indem sie mittels eines organischen Farbstoffes Sonnenlicht absorbiert und in elektrischen Strom umwandelt.

    Es ist eine der größten gegenwärtigen Herausforderungen der Menschheit, fossile, zur Neige gehende Brennstoffe durch erneuerbare Energieformen zu ersetzen und dabei gleichzeitig Schritt zu halten mit einem weltweit steigenden Verbrauch an Energie, bedingt durch das rasche Wachstum der Bevölkerung und den zunehmenden Bedarf – vor allem der Entwicklungsländer. Eine akzeptable Lösung dieser Problemstellung darf zudem nur niedrige Kosten verursachen, und die dazu verwendeten Rohstoffe müssen in reichlichem Ausmaß vorhanden sein.

    Die Sonne als Energiequelle - Photovoltaik

    Die Sonne spendet ein Übermaß an reiner und kostenloser Energie. Von den hundertzwanzigtausend Terawatt (Terawatt = 1 Milliarde kW) Sonnenenergie, mit denen sie unsere Erde bestrahlt, verbraucht die Menschheit bloß einen winzigen Bruchteil: rund 15 Terawatt. Bereits seit mehr als 3,5 Milliarden Jahren macht sich die Natur die Energie der Sonne mittels Photosynthese zunutze, um in Pflanzen, Algen und Bakterien aus anorganischen Stoffen organische Verbindungen zu synthetisieren und damit alles Leben der Erde zu ermöglichen und zu ernähren. Die immense und unerschöpfliche Sonnenenergie mit Hilfe photovoltaischer Technologien in Elektrizität zu wandeln erscheint damit als logische Schlußfolgerung, um das Problem unserer Energieversorgung langfristig und nachhaltig zu lösen. In der Realisierung der Nutzung von Sonnenenergie spielen natürlich Kosten und Wirkungsgrad der Solarzellen eine prioritäre Rolle. #

    Das noch relativ junge Gebiet der Photovoltaik basiert auf dem photoelektrischen Effekt bei der Wechselwirkung von Licht und Materie: die Absorption von Lichtquanten (Photonen) bewirkt die Anregung und Abgabe von Ladungsträgern (Elektronen), d.h. die Umwandlung von Strahlungsenergie in elektrische Energie. Der Photovoltaik-Markt wird heute von Halbleitertechnologien auf der Basis von anorganischen Ausgangsmaterialien dominiert, das sind hauptsächlich auf kristallinem oder amorphem Silizium, Cadmiumtellurid (CdTe) und Kupfer-Indium-Gallium-Diselenid (CIGS) beruhende Systeme. Die Produktion einiger dieser Materialien – beispielsweise auf Grund der Notwendigkeit, Silizium in Reinstform anzuwenden – ist aufwändig, teuer und erfordert einen sehr hohen Energieeinsatz. Einige der Materialien, wie z.B. Cadmiumtellurid (für die CdTe-Module) sind toxisch und/oder kommen in der Natur selten vor (z.B.Gallium, Indium, Tellur, Selen).

    Die industrielle Standard-Solarzelle besteht aus Silizium und stellt eine bereits ausgereifte Technologie dar, mit einem maximalen Wirkungsgrad von bis knapp unter 30 %. Jedoch ist die Herstellung der Zellen sehr energieintensiv, und es dauert - je nach Standort - mehrere Jahre bis sich die Herstellungskosten amortisiert haben (3,7 Jahre in Südeuropa, 7 Jahre in Süddeutschland) [1].

    Photovoltaik, die auf (synthetischen) organischen Substanzen beruht, kann zweifellos Probleme wie mangelnde Verfügbarkeit der Ausgangsmaterialien, hohe Herstellungskosten und Toxizität vermeiden. Zudem können diese Zellen auch auf dünne Folien gedruckt werden und verbinden damit Flexibilität mit einem wesentlich geringeren Gewicht als die Silizium-basierten Module. Allerdings liegen die Wirkungsgrade organischer Solarzellen (unter 10 %) zur Zeit noch weit unter denen, die von rein anorganisch basierten Solarzellen erreicht werden.

    Sonnenenergie einfangen, wie dies die Pflanzen machen

    Die durch Farbstoff sensibilisierte Solarzelle (dye-sensitized solar cell: DSSC) funktioniert nach einem anderen Prinzip als die konventionellen Silizium-basierten Halbleiterzellen. In den Letzteren erfolgen Absorption von Licht (Photonen) und Transport der generierten Ladungsträger in derselben Phase im Halbleitermaterial, wobei während der Diffusion ein Teil der Ladungsträger wieder rekombiniert und die Energie in Form von Wärme abgibt. Um Energieverluste durch Rekombination möglichst gering zu halten, darf der Halbleiter daher nur sehr wenige Fehlstellen aufweisen – seine erforderliche extrem hohe Reinheit schlägt sich in sehr hohen Herstellungskosten nieder.

    Die Farbstoffsolarzelle ist inspiriert von dem Mechanismus der natürlichen Photosynthese, welche in den Chloroplasten der Pflanzenzellen abläuft. In diesen Zellorganellen besteht die photosynthetische Einheit aus dem Licht-einfangenden Farbstoff Chlorophyll (und Carotinoiden) und den Photosystemen PS II und PS I, welche die generierten Elektronen schneller weiterleiten als deren Rekombination mit dem Farbstoff erfolgen kann. In analoger Weise laufen in der Farbstoffsolarzelle Lichtabsorption und Generierung der Ladungsträger an der Grenzfläche Farbstoff/Halbleiter separiert vom Transport der Ladungsträger in Halbleiter und Elektrolyt ab und minimieren damit die Möglichkeit der Rekombination. Damit sinken auch die Erfordernisse an die chemische Reinheit der Materialien und damit die Produktionskosten. Zudem ist eine voneinander unabhängige Optimierung der optischen Eigenschaften der Zellen durch die Auswahl von Farbstoffen und der Transporteigenschaften von Halbleiter und Elektrolyt möglich.

    Abbildung 1 zeigt stark vereinfacht das Funktionsprinzip einer Farbstoffsolarzelle:

    Aufbau einer Grätzel-Zelle schematischAbbildung 1. Aufbau einer Farbstoffsolarzelle (vereinfachtes Beispiel). Beschreibung: siehe Text. TCO: transparente leitende Oxydschicht. Elektronen: schwarze Kreise.

     

    Die Zelle besteht aus zwei mit einer transparenten leitfähigen Oxidschicht (TCO) beschichteten Glasplatten, welche die Elektroden tragen und einen Abstand von 20-40 μm voneinander haben. Die dem Licht ausgesetzte Elektrode ist mit einem ca. 10 µm dicken Film eines Halbleiters (üblicherweise Titandioxyd) belegt, der zur Vergrößerung seiner Oberfläche aus Nanopartikeln* besteht, auf welchen, in hauchdünner Schicht, ein Farbstoff („Sensibilisator“) aufgebracht ist. Einfallendes Licht wird von diesem Farbstoff absorbiert wodurch Elektronen angeregt werden, welche auf den Halbleiter übertragen („injiziert“) und danach durch die Nanopartikelschicht zum elektrisch leitenden transparentem Oxid (TCO) transportiert werden, welches als Stromkollektor wirkt. Das zurückbleibende, nun positiv geladene Farbstoffmolekül gleicht sein Ladungsdefizit aus den umgebenden Elektrolyten (Redoxelektrolyt, zumeist Lösungen aus Iodsalzen, zuletzt aber auch feste Elektrolyte) aus.

    Was kann die Farbstoffsolarzelle?

    Seit der ersten Demonstration einer funktionierenden Farbstoffsolarzelle vor einundzwanzig Jahren [2] unterliegt dieser Zelltyp einem kontinuierlichen Entwicklungsprozeß. Neue Farbstoffe, basierend auf Porphyrin-Metallkomplexen (nach dem Vorbild der natürlichen Farbstoffe im Chlorophyll und Haemoglobin) haben zu einer gesteigerten Absorption des Sonnenlichts und effizienteren Anregung von Elektronen und damit zu einem Wirkungsgrad von über 12 % geführt. Durch Zugabe eines weiteren Farbstoffes konnte die Sensibilität der Zellen über große Bereiche des sichtbaren Spektrums des Lichts ausgeweitet werden.

    Stabilität. Der Effizienzverlust dieser Zellen ist erwies sich auch in Langzeitversuchen unter extremen Bedingungen als sehr gering (5%) [4].

    Herstellung. Der im Vergleich zu konventionellen Solarzellen (derzeit noch) geringere Wirkungsgrad wird aufgewogen durch die preisgünstigen Materialien, aus denen die Zellen gefertigt werden und die technisch einfachen Produktionsverfahren, beispielsweise durch Rollendruck. (Die Einfachheit, mit welcher funktionsfähige Farbstoffzellen hergestellt werden können, läßt sich daran ablesen, daß diese als Unterrichtsbeispiel von Schülern in 2 - 3 Stunden – je nach Aufwand bei den Messungen – zusammengebaut werden [3].) Dank der geringen Kosten amortisieren sich die Herstellungskosten in weniger als einem Jahr.

    Diffuses Licht. Eine Besonderheit der Farbstoffzellen ist ihre Sensibilität für diffuses Licht. Im Gegensatz zu anderen Solarzellen nimmt der Wirkungsgrad bei Bewölkung, Nebel, stark sandhaltiger Luft oder auch im Hausinnern nicht ab und übertrifft unter diesen Bedingungen den Wirkungsgrad anderer Zellen. Diese Eigenschaft läßt Farbstoffzellen besonders attraktiv für eine Verwendung in gemäßigten und nördlicheren Breiten erscheinen. Da der Wirkungsgrad viel weniger vom Einfallswinkel des Lichts abhängig ist als bei Siliziumzellen, können Farbstoffzellen auch in vertikale Flächen – beispielsweise Hauswände – eingebaut werden.

    Temperatur. Im Außenbetrieb erhitzen sich Solarzellen in der Sonne. Dies führt zu einer Reduktion des Wirkungsgrades der Siliziumzellen, während Farbstoffzellen bis 65 °C nahezu unabhängig von der Temperatur arbeiten.

    Transparenz und Flexibilität. Farbstoffsolarzellen können in beliebigen Farben, vollständig transparent produziert werden und flexibel auf Kunsstoffolien aufgedruckt werden. Damit eröffnet sich ein enormes Potential an Anwendungen: von der Anbringung auf Kleidungsstücken und Taschen, um Akkus unterwegs aufzuladen, bis zur Erzeugung Strom-liefernder Glasfenster und ganzer Fassaden.

    Kommerzialisierung

    In Anbetracht des vielversprechenden, riesigen Potentials an Anwendungen sind zahlreiche akademische Institutionen und Firmen in die Forschung und Entwicklung von Farbstoffsolarzellen eingestiegen, und ihre Zahl nimmt - nach dem Auslaufen einer Reihe grundlegender Patente im Jahr 2008 - weiter zu. Beispielsweise:

    • produziert und vertreibt die in Cardiff angesiedelte G24 Innovations eine Reihe von Indoor- (wireless keyboard, sade and blind system: “harvest energy in all light conditions from 200lux (extremely low light levels) to 100,000lux (bright midday sun) ) und outdoor-Anwendungen (Rucksäcke, Taschen: “to enhance the quality of life, education and productivity in these communities by providing electricity in regions that traditionally have limited access to power”).
    • stellt Sony dekorative Fenster und Lampen für den indoor-Gebrauch her. Aufbau einer Grätzel-Zelle schematischAbbildung 2: Anwendungen der Farbstoffsolarzelle

     

    • hat in Deutschland das Fraunhofer-Institut für Solare Energiesysteme (ISE) bereits Dreifach-Isolierglaseinheiten mit integrierten Farbstoffsolarmodulen entwickelt und vor mehr als einem Jahr eine 6000 cm² große funktionsfähige Modulfläche präsentiert, mit dem Ziel, diese in Fassaden zu integrieren [5].
    • arbeitet das auf Farbstoffsolarzellen spezialisierte, börsennotierte australische Unternehmen Dyesol mit internationalen Partnern intensiv an der Integrierung der Farbstoffsolarzellen-Technologie in der Baubranche und hat kürzlich das Human Resource Development Centre der Stadt Seoul (Südkorea) mit Farbstoffsolarzellenfenstern ausgestattet.
    • geht auch das steirische "Forschungszentrum für integrales Bauwesen AG" (FIBAG) an die Umsetzung der Integration der Farbstoffsolarzellen in Gebäudehüllen.

    * Partikel mit einem Durchmesser von 10 - 100 Millionstel Millimeter

    [1] Wikipedia: Energetische Amortisationszeit; abgerufen 25.6.2013

    [2] B. O’Regan and M. Graetzel, Nature, 353, 737-740 (1991).

    [3] http://www.lehrer-online.de/graetzel-zelle.php

    [4] Harikisun, R;Desilvestro, H: Long-term stability of dye solar cells. In: Solar Energy. Nr. 85, 2011, S. 1179–1188. doi:10.1016/j.solener.2010.10.016. [

    5] Auf dem Weg in die Fassade - Fraunhofer ISE präsentiert weltweit größtes Farbstoffsolarmodul in Siebdruck (PDF-download)


    Weiterführende Links

    Michael Grätzel und die Farbstoffzelle auf youtube

    Solarzelle nach Vorbild der Natur | Projekt Zukunft 3,27 min:

    Solar energy / Dye-Sensitized Solar Cells - Michael Grätzel / epflpress.com 5:12 min:

    Millenium Prize. Laureate 2010: Michael Grätzel 3:45 min

    Distinguished Lecture Series - Dr. Michael Grätzel (2010) 1:00:12

     

     


     

     

    inge Thu, 18.10.2012 - 05:20

    Anmerkungen eines Laien zur Synthetischen Biologie – Teil 1

    Anmerkungen eines Laien zur Synthetischen Biologie – Teil 1

    Fr, 21.06.2013 - 10:13 — Gerhard Wegner

    ÖAWGerhard WegnerPassend zum Themenschwerpunkt Synthetische Biologie schreibt Gerhard Wegner, Physikochemiker und Gründungsdirektor des Max-Planck Instituts für Polymerforschung über die Synthetische Biologie als Produkt der Evolution der Naturwissenschaften. Im Rahmen des von der Österreichischen Akademie der Wissenschaften veranstalteten Symposiums über Synthetische Biologie im Mai d.J. hat er dazu einen Vortrag gehalten und dankenswerterweise dem ScienceBlog das Manuskript überlassen. Die ungekürzte Fassung erscheint auf Grund ihrer Länge in zwei Teilen.

    Eine notwendige Vorbemerkung

    Um es gleich zu sagen und um der Gefahr vorzubeugen, dass meine durchweg laienhaften, jedoch kritischen Anmerkungen zum Thema „Synthetische Biologie“ falsch verstanden werden:

    Man darf einige der Fragestellungen, die von dieser als „neu“ bezeichneten Forschungsrichtung in den Fokus genommen werden, ohne Vorbehalt zu den wesentlichen Fragen derzeitiger Naturwissenschaft zählen. Sie sind Herausforderung und Ansporn zugleich. Sie fordern das ganze Arsenal der Fähigkeiten und Methoden grundverschiedener Disziplinen heraus, um der Lösung näher zu kommen.

    Und dies macht die Problematik noch schwieriger, denn je nach Disziplin stellt sich die gleiche Frage in einer verschiedenen „Sprache“, wobei verschiedene und jeder Disziplin eigene Formalismen genutzt werden. Deshalb muss es auch „Übersetzer“ geben, wobei die Korrektheit der „Übersetzung“ in jedem Fall penibel zu prüfen ist; andernfalls sind der Verwirrung von Begriffen und Befunden keine Grenzen gesetzt. Dies gilt besonders für das Gespräch von Wissenschaft mit der interessierten Öffentlichkeit, insbesondere der Publizistik.

    Zur Begriffsbildung der Synthetischen Biologie

    Die Synthetische Biologie ist ein Produkt der Evolution – nämlich der Evolution der Naturwissenschaften. Um dies zu erläutern, nehmen wir den Studienprofessor „Schnauz“ aus Heinrich Spoerl’s Feuerzangenbowle (verfilmt 1944 mit Heinz Rühmann in der Hauptrolle) zum Vorbild und sagen: „ Da stellen wir uns mal ganz dumm“, wenn wir in vielen Papieren zur „Synthetischen Biologie“ lesen dürfen, diese neueste Entwicklung der Wissenschaft habe die gleiche Bedeutung für die Biologie wie die „organische“ (gemeint ist jedoch „synthetische“) Chemie für die Chemie vor 200 Jahren!

    Richtig daran ist: die Chemie war und ist es z.T. immer noch, - und hier gleicht sie der Biologie – eine beschreibende und analysierende Wissenschaft. Sie war zu Beginn des 19. Jahrhunderts in der Lage, einzelne Stoffe, die auf der Ebene der Molekülstruktur eindeutig definiert waren, in reiner Form aus lebender Materie zu isolieren und nach den Regeln der Chemie zu beschreiben.

    Der Nachweis, dass die behauptete Molekülstruktur richtig war, konnte im 19. Jh. jedoch nur durch die Synthese eines identischen Stoffes über einen Syntheseweg erbracht werden, der in allen Einzelheiten bekannt war und von dem man mit Sicherheit wusste, welche Atome zu welchem Molekülgerüst verknüpft werden würden.

    Die Synthese auf nicht-biologischem Weg war also der eigentliche Strukturbeweis für den zuvor in reiner Form isolierten Naturstoff.

    Die Komplexität der isolierbaren Naturstoffe machte es nötig, immer komplexere nicht-biologische Syntheseverfahren zu entwickeln, mit denen solche Stoffe synthetisiert werden konnten. Erst die Entwicklung moderner physikalischer Methoden der Strukturanalyse im 20. Jh. haben diesen mühevollen Weg des Strukturbeweises obsolet gemacht.

    Andererseits hat die Notwendigkeit zur Entwicklung einer Methodik der Synthese den Zugang zu einer ungeheuer großen Anzahl von jeweils neuen Molekülen eröffnet, für die es in der Natur kein Vorbild gab oder gibt. In der Konsequenz eröffnete diese den Zugang zur Entwicklung von Farbstoffen, Medikamenten, Pestiziden, Polymeren – also dem gesamten Spektrum heutiger Chemischer Industrie.

    Dürfen wir eine ähnliche Entwicklung für die „Synthetische Biologie“ erwarten, an deren Ende dann eine „Biologische Industrie“ stehen wird?

    Ich glaube das nicht. Hier wird nämlich ein grundfalscher Vergleich gezogen: denn – erstens – gibt es bereits eine umfangreiche „biologische Industrie“. Nur nennen wir sie nicht so, weil wir die Namen „Agrarwissenschaft“, „Forstwirtschaft“ etc. eingeführt haben und – zweitens – geht es in der Biologie nicht um die Analyse und Herstellung von Stoffen, die molekular definiert sind, sondern um „Lebensformen“ mit komplexer innerer Struktur und komplexen Verhaltensmustern (Letzteres bezeichnet die Summe aller Wechselwirkungen einer Lebensform mit ihresgleichen und ihrer Umwelt).

    Das ist qualitativ etwas ganz anderes als die Molekülstruktur eines Naturstoffes.

    Lassen Sie uns versuchen, noch mehr über den Ursprung der „Synthetischen Biologie“ aus der Historie der Chemie und verwandter Gebiete zu erfahren:

    Wie verhält es sich mit der Biochemie? Während die „organische“ Chemie zunächst nur nach der Struktur der Moleküle fragte, die aus lebender Materie isoliert werden konnte, trat alsbald die Frage auf:

    Wie entstehen diese Moleküle und Stoffe innerhalb der jeweiligen Organismen? Und welche Rolle spielen sie in und für das Leben der Organismen?

    Die Biochemie stellt(e) auch die Frage nach der Dynamik, d.h. der zeitlichen Variabilität der Entstehung und des Verbrauchs dieser Moleküle in den lebenden Organismen, d.h. nach den molekularen Bestandteilen des Stoffwechsels. Ein berühmtes Beispiel ist etwa die Aufklärung des Zitronensäure-Zyklus durch H. Krebs in der ersten Hälfte des 20.Jh.

    Demgegenüber sind Gebiete wie „Naturstoffchemie“, die sich der Aufklärung und evtl. Synthese sehr komplexer Moleküle widmet, die sich aus lebenden Organismen isolieren lassen, oder auch die „Bioanorganische Chemie“, die nach der Rolle und den Bindungszuständen („Koordinationssphären) anorganischer Elemente in den zellulären Funktionseinheiten fragt, von weniger grundsätzlicher Bedeutung für die hier geführte Diskussion. Für letztere sind z.B. die Funktion von Eisen oder auch Mangan gebunden in Hämoglobin der Atmungskette oder Magnesium, gebunden in Chlorophyll des „Light-Harvesting-Systems“ der Pflanzen eingängige Beispiele.

    Überhaupt nichts hat allerdings der moderne und eigentlich populärwissenschaftliche Begriff der „Green Chemistry“ mit der Biologie zu tun. Er meint in einer äußerst diffusen und nicht quantifizierbaren Weise, dass chemische Reaktionen unter Vermeidung umweltschädlicher Ausgangs- und Zwischenprodukte zu erwünschten Produkten und Stoffgruppen geführt werden (können). Der Begriff „milde Bedingungen“ spielt hier eine Rolle, wobei unklar bleibt, was „mild“ eigentlich bedeutet.

    Genau so wenig Bedeutung für unsere Diskussion hat der Begriff „Organic Food“ bzw. „Organische Landwirtschaft“. Nichts könnte in größerem Widerspruch zur „Organischen Chemie“ stehen, denn die genannten Bewegungen für „Organic Food“ und „Organic Farming“ wollen ja ganz bewusst auf den Einsatz synthetischer Chemie – etwa in Form von Konservierungsmitteln, Pestiziden, Düngemitteln etc. verzichten und nur die „reinen“ pflanzlichen oder tierischen Materialien für die menschliche Ernährung nutzen.

    Als Anekdote ist anzumerken, dass der Begründer der „Organic Food“-Bewegung, der amerikanische Journalist und Sachbuchautor Jerome Irving Rodale im Laufe einer Fernseh-Talk-Show, nachdem er gerade erklärt hatte, dass er - aufgrund der organischen Ernährung in bester Gesundheit 72 Jahre alt geworden - beschlossen habe, 100 Jahre alt zu werden und er sich nie so wohl gefühlt habe, wie gerade jetzt – tot vom Stuhle fiel: er erlitt einen Herzschlag! Jenseits anektodenhafter Bezüge soll hier nur auf die Verwirrung der Begriffe hier „organic“ („organisch“) hingewiesen werden, für die es noch viele Beispiele mehr gibt; aber dazu später, wenn wir über den Begriff „Leben“ zu sprechen haben.

    Anders verhält es sich mit der „Präbiotischen Chemie“, die auch vielfach „chemische Evolution“ genannt wird. Es geht um die Frage, wie sich auf einer noch unbelebten Erde unter Bedingungen einer „Welturatmosphäre“ und unter Beteiligung von energiereicher Strahlung und /oder elektrischen Entladungen an der Grenzfläche von Wasser und mineralischen Stoffen organische Moleküle gebildet haben können.

    Das Augenmerk richtet sich auf einfache Aminosäuren als Bausteine von Proteinen, auf Nukleobasen, wie z.B. Adenin, Guanin etc. und zuckerähnliche Moleküle (Kohlehydrate) als Bausteine von DNA und RNA sowie auf Fettsäuren. Die Hypothese ist seit den ersten Arbeiten von Urey und Miller (1953), dass primitive Organismen (d.h. Leben) spontan entstehen können, wenn die „Bausteine des Lebens“ auf abiotische Weise erzeugt, nur in genügend hoher Konzentration in der „Ursuppe“ vorliegen. Aus dieser Hypothese heraus hat sich ein ganzer Zweig der Chemie entwickelt, der als Vorläufer der synthetischen Biologie gelten kann. Freilich gehen die Forscher dieses Gebiet von zahlreichen und in wichtigen Teilen ungesicherten Hypothesen aus – wie z.B. Zusammensetzung und energetische Situation einer „Uratmosphäre“ – die hier nicht näher zu betrachten sind.

    Die „Biophysikalische Chemie“ liefert die Methoden (z.B spektroskopische, optische und elektrische Methoden), um chemische Phänomene in (lebenden) Organismen, in Organellen und in geeigneten Modellsystemen zu untersuchen. Sie bildet die quantitative Vermessung des raum-zeitlichen Verlaufs der Phänomene (Beispiel: Öffnen und Schließen von Ionenkanälen in Zellen) auf allgemein gültige Gesetzmäßigkeiten der Physikalischen Chemie und Physik ab.

    Die Biophysikalische Chemie liefert Daten und Fakten, die für die Aufstellung von Modellen für die Bestandteile der Lebensprozesse notwendig und unabdingbar sind. Sie ist daher eine Grundlage der Synthetischen Biologie. Ähnliches gilt für die Biophysik, wobei die Fragestellungen der Biophysik und der Biophysikalischen Chemie fließend ineinander übergehen und häufig eher eine Frage des Standpunktes des Bearbeiters bezeichnen als das bearbeitete Phänomen selbst.

    Das Wechselspiel zwischen Chemie und Biologie setzt sich seitens der Biologie mit dem Gebiet der „Molekularen Biologie“ fort und kumuliert gewissermaßen im Gebiet der Molekularen Zellbiologie.

    Es geht um die Aufklärung des Ablaufs chemischer Reaktionen, der Entstehung und des Verbrauchs chemisch definierter Stoffe in den Organismen und ihrer Bestandteile, wie z.B. den Organellen, innerhalb von Zellen. Dabei spielen auch die räumliche Verteilung der Reaktionsorte sowie alle Transportprozesse eine Rolle. Hier wird also das komplette Geschehen innerhalb lebender Organismen in den Fokus genommen. Es handelt sich sozusagen um die Antwort der Biologie auf die Vorlagen der Chemie, d.h. die Einordnung der chemischen Befunde in die Abläufe der Prozesse, die das „Leben“ der Organismen ausmachen. Die Komplexität der einzelnen Prozesse und ihr komplexes Zusammenwirken wird beschrieben und liefert damit den Katalog der Forderungen, die an eine „Synthetische Biologie“ gestellt werden dürfen, insoweit es darum geht, Konstrukte zu erzeugen, die es erlauben, Lebensprozesse experimentell nachzustellen, ohne Beteiligung biogener Funktionseinheiten. (Das bezieht sich auf eine sehr radikale und gewissermaßen puristischen Definition der Synthetischen Biologie).

    Haben wir bisher von Chemikern und Biologen gesprochen, so kommen jetzt die „Ingenieure“ ins Spiel. „Bioengineering“ (deutsch: Biotechnologie“) bezeichnet die Anwendung und Nutzung von Organismen, wie z.B. Bakterien, Hefezellen, Algen etc. für die Produktion von Chemikalien.

    Für diese Zwecke sind bestimmte Verfahrenstechniken und Anlagen notwendig: das ureigenste Gebiet der Chemischen Verfahrenstechnik. Je nachdem, ob im Verfahren pflanzliche Zellen, tierische Zellen oder nur aus Zellkulturen isolierte Enzymkomplexe eingesetzt werden, spricht man von „grüner“, „roter“, oder „weißer“ Biotechnik: Unterscheidungen, die mit Wissenschaft und Technik wenig zu tun haben und wohl eher der „Political Correctness“ geschuldet sind.

    Das gilt besonders für das Gebiet der „Gentechnik“ (engl. Genetic Engineering), das äußerst erfolgreich betrieben wird, jedoch aus ideologischen Gründen in der Öffentlichkeit mit Misstrauen betrachtet wird. Hier geht es um das Einschleusen von modifizierter DNA in Organismen, um deren Stoffwechsel gezielt umzuprogrammieren. Das erlaubt die Nutzung dieser umprogrammierten Organismen zur Produktion bestimmter Chemikalien mittels Biotechnik, aber auch die beschleunigte Züchtung von z.B. Krankheits-resistenten Pflanzen oder Tieren.

    Hier ist nicht der Ort, um über Gentechnik zu referieren oder zu diskutieren. Es geht lediglich darum, möglichst viele Quellen und Arbeitsebenen aufzuzeigen, die mit der Synthetischen Biologie einen Zusammenhang aufweisen.

    Unter vielen weiteren Gebieten sind vor allem noch drei weitere zu nennen:

    Erstens die „Biomimetik“. In diesem Arbeitsgebiet werden Funktionen, die man aus lebenden Organismen kennt, durch synthetische Modelle nachgestellt. Ein bekanntes Beispiel ist der Transport von Molekülen bzw. Ionen durch synthetisch erzeugte Membranen mit dem Ziel, das biologische Vorbild – die Zellmembran – bezüglich Selektivität und Dynamik weitestgehend nachzubilden. Man möchte die Transportprozesse besser verstehen und quantifizieren. In der Regel versucht die Biomimetik, einzelne herausgegriffene Prozesse modellhaft dem Experiment zugänglich zu machen. Dabei tritt auch die Frage zu Tage, inwieweit das komplexe Verhalten eines Organismus durch ein einzelnes Phänomen sozusagen „pars-pro-toto“ dargestellt werden kann.

    Es ist aber richtig, dass experimentelle Erfahrungen aus der Biomimetik ein Gerüst bilden, aus dem heraus „Synthetische Biologie“ sich entwickeln kann.

    Häufig wird bei der Beschreibung der Ziele der Synthetischen Biologie auch die Erzeugung neuartiger oder zumindest „optimierter“ Materialien genannt: „Biomaterialien“ (manchmal auch als „intelligente“ oder „smarte“ Materialien bezeichnet).

    Mir scheint das von sehr untergeordneter Bedeutung und eher dem Gebiet der Biotechnik als der Synthetischen Biologie zugehörig. Auch darüber lässt sich lange und kontrovers diskutieren, wozu hier nicht der Platz ist.

    Schließlich nenne ich noch die „Bionik“, ein weiteres Gebiet, auf dem sich Biologen und Ingenieure treffen, das aber wenig oder keinen Bezug zu unserem Thema hat. Es geht nämlich um die Bewertung von makroskopischen Verhaltensweisen und Fähigkeiten von Lebensformen unter Gesichtspunkten der Physik und der Ingenieurswissenschaften also z.B. um die Flugfähigkeit von Insekten oder Vögeln, die Zusammenhänge von morphologischer Gestalt und Schwimmfähigkeit von Fischen, die Analyse des Sehverhaltens von Tieren usw. Also auch eine Sicht des Ingenieurs auf die Biologie, allerdings bezogen auf spezielle Fähigkeiten spezieller Lebensformen, aus der sich Hinweise auf die Gestaltung technischer Produkte ableiten.

    Systembiologie und Synthetische Biologie

    Die Vielzahl der Begriffe, Wissens- und Arbeitsgebiete verwirrt den Betrachter. Man hat den Eindruck, den der Besucher eines Symphoniekonzerts hat, wenn sich vor Beginn des Konzerts die Musiker im Orchestergraben versammelt haben und beginnen, ihre Instrumente zu stimmen. Disharmonien beleidigen das Ohr, aber gelegentlich hört man ein einzelnes Instrument heraus, das zaghaft eine Melodie antönt, mit der es zur kommenden großen Symphonie beitragen wird. Die Spannung steigert sich, wenn eine zunehmende Zahl von Instrumenten den Kammerton übernimmt bis der große Meister, der Dirigent, erscheint und alle Instrumente in die große Komposition einstimmt. Doch was ist das große Leitthema, was ist sein Rhythmus und wer gibt den Takt vor? Wenn man in die Vielfalt der Themen heutiger Aktivität hineinhört, gewinnt man den Eindruck, dass das große Thema „Systembiologie“ heißt, zunächst wenigstens.

    Das Ziel ist es, Organismen ganzheitlich zu verstehen, d.h. ihre Komplexität in all ihren Komponenten und deren Wechselwirkungen in einem einheitlichen Bild zusammenfassen zu können. Die Beschreibung soll vollständig sein, d.h. alle Aspekte des Lebensprozesses zumindest einfacher Lebensformen umfassen. Sie soll von Genom über das Proteom, Bau und Funktion der Organellen bis hin zur Wechselwirkung des Organismus mit seinesgleichen und seiner Umwelt (= Verhalten) umfassen. Wichtiges Element dieser Beschreibung ist es, dass die Komplexität der Strukturen und ihrer Dynamik durch mathematische Modelle erfassbar gemacht werden, die es erlauben, Simulation des Verhaltens in Form von Antwortverhalten auf äußere oder innere Störungen des Systems vorzunehmen. Das Ziel dieses Vorhabens ist es sodann, die Grundlagen für eine echte Synthetische Biologie zu schaffen: Systembiologie als Grundlage und Ausgangspunkt einer Synthetischen Biologie.

    Für die Synthetische Biologie ergeben sich daraus verschiedene Möglichkeiten der Definition:

    a) Die Sicht des Ingenieurs auf die Biologie.

    Mit „Ingenieur“ ist hierbei der „Homo-Faber“ gemeint, der in der Lage ist, Konstrukte hoher Komplexität und Funktionalität aus diversen Komponenten zusammenzufügen, wobei das Konstrukt Eigenschaften und Funktionen besitzt, die aus der Summe der Beiträge aller Komponenten in einer nicht-linearen Weise erwachsen. Mit anderen Worten, das Verhalten des Konstrukts lässt sich aus den Eigenschaften der einzelnen Komponenten nicht vorhersagen, wenn man nicht den Bauplan (oder Schaltplan) des Konstruktes kennt.

    b) Die (Re)Konstruktion funktionsfähiger Minimalorganismen (Zellen) aus biogenen Komponenten

    Es geht um den Versuch der Dekonstruktion lebender Organismen in Untereinheiten, gefolgt von der Absicht, aus diesen Untereinheiten, die eventuell von verschiedenen Organismen stammen, einen neuen Organismus zu konstruieren.

    c) Die Definition eines Minimalsystems

    Mit Hilfe der Erkenntnisse über die Komplexität lebender Organismen, d.h. aus der Systembiologie, sollen neue Minimalsysteme aus völlig synthetischen Bauelementen entstehen. Man hat den Namen „Xenobiologie“ dafür gefunden.

    Welche ungeheure Aufgabe und titanische Herausforderung hinter dieser schlichten Beschreibung steckt, wird sofort klar, wenn man sich die Realität des Baus der einfachsten Elemente lebender Organismen vor Augen führt. Eine Zelle, für die sich schematische Abbildungen in jedem Lehrbuch der Molekularen Zellbiologie finden, besteht aus einer großen Zahl von Komponenten, d.h. Organellen und Funktionseinheiten, die topologisch und funktional aufeinander bezogen sind; die Untereinheiten kommunizieren also miteinander.

    Sie sind von der Außenwelt durch eine Zellmembran getrennt, über die die gesamte Kommunikation mit der Umwelt einschließlich des Stoffaustauschs verläuft.

    Das Ganze spielt sich auf einer Längenskala von Molekülgröße im Bereich von einigen 10 Nanometern der Membrandicke bis einige 10 Mikrometer der Gesamtgröße der Zelle ab.

    Im Querschnitt erschließen sich die Ordnungszustände im Inneren der Zelle noch besser. Die Bedeutung der Zellmembran wurde schon erwähnt. Alleine ihre Konstruktion mit eingelagerten membranständigen Enzym- und Transportproteinen in der notwendigen räumlichen Korrelation unter Erhalt der Dynamik der Membran ist eine gewaltige Herausforderung.

    Innerhalb der Zelle, die sich als chemische Fabrik verstehen lässt, läuft eine sehr große Zahl metabolischer Prozesse ab, an denen hunderte von Zwischenprodukten beteiligt sind. Für die Komplexität der chemischen Prozesse steht beispielhaft der Brenztraubensäure-Zyklus, der hier nicht erläutert werden soll, sondern nur darauf hingewiesen wird, dass die einzelnen chemisch definierten Stoffe dieses Zyklus an räumlich verschiedenen, jedoch topologisch verbundenen Stellen der Zelle entstehen und verbraucht werden, d.h. also Transportmechanismen involviert sind, die den Prozess nicht dem Zufall überlassen.

    In vollem Bewusstsein der Schwierigkeit der Aufgabe, sagen deshalb die Adepten der Synthetischen Biologie, dass es ihnen darum geht, eine sogenannte „Minimalzelle“ zu konstruieren. Diese Minimalzelle muss die essentiellen Bauelemente einer lebenden Zelle bzw. ihre synthetische Analoga enthalten bzw. umfassen:

    • Eine Zellmembran
    • Die Software mit der Anweisung zur Synthese der Hardware in Form von Proteinen und Enzymen innerhalb der Zelle: d.h. DNA oder Analoga
    • Enzyme (Katalysatoren) zur Aktivierung des Übersetzungsprozesses der Software in Hardware Ribosomen oder Analoga, d.h. die Maschinerie für den Bau von Proteinen (oder ihrer Analoga)
    • die Rohstoffe für die Reproduktion der Komponenten
    • usw.
    • MinimalzelleAbbildung 1. Einfachste Form einer Minimalzelle (Protocell, J. Szostak Lab.). Creative Commons License, for non-commercial uses http://exploringorigins.org/resources.html. 
    • Das Ganze muss in einer synthetischen Zelle so eingefangen werden, dass der Apparat bei Zuführung chemischer oder physikalischer Energie (z.B. Licht) zu arbeiten beginnt

    Das ist, wie bereits gesagt, nur möglich, wenn die Komponenten entsprechend eines wohl-definierten Schaltplans angeordnet sind. Dafür gibt es Vorschläge, die sich aber bisher einer experimentellen Prüfung entzogen haben.

    Es ist klar, dass die Maschinerie des Lebens eine Vielzahl von Komponenten umfasst, von denen jede einzelne selbst einen komplexen Aufbau in Form von Struktur und Dynamik besitzt. Daraus ergibt sich die prinzipielle Schwierigkeit des Projektes, also ein Dilemma. Je komplexer der Versuchsaufbau und je größer die Zahl der Komponenten im Versuch, desto anfälliger wird das Ganze für Fehler. Die bisherigen Experimente unter der Fahne der Synthetischen Biologie leiden unter mangelnder bzw. eingeschränkter Reproduzierbarkeit.


    Details zum Autor und seinen Publikationen: Homepage desMax-Planck Instituts für Polymerforschung http://www.mpip-mainz.mpg.de/

    Anmerkungen der Redaktion

    Zum Themenschwerpunkt Synthetische Biologie sind bis jetzt erschienen:

    Themenschwerpunkt: Synthetische Biologie — Leitwissenschaft des 21. Jahrhunderts?

    Uwe Sleytr: Synthetische Biologie – Wissenschaft und Kunst

    Wolfgang Knoll: Die biomimetische künstliche Nase – wie weit sind wir? Teil 1: Künstliche Sensoren nach dem natürlichen Vorbild unserer fünf Sinne Teil 2. Aufbau und Funktion physiologischer Geruchssensoren Teil 3: Konstruktion einer biomimetischen Nase

    Michael Graetzel: „Der Natur abgeschaut:Die Farbstoffsolarzelle“ wird in Kürze in den ScienceBlog gestellt werden


    Weiterführende Links

    Eine hervorragende Broschüre: Synthetische Biologie: Eine Einführung. Zusammenfassung eines Berichts des European Academies Science Advisory Council (EASAC). 2011. (PDF-Download)


     

    inge Fri, 21.06.2013 - 09:13

    Synthetische Biologie — Wissenschaft und Kunst

    Synthetische Biologie — Wissenschaft und Kunst

    Fr, 14.06.2013 - 04:20 — Uwe Sleytr

    Icon BiologieUwe SleytrDie rasanten Fortschritte in der Molekularbiologie, Genetik und Biotechnologie haben die Biologie zu einer Leitwissenschaft des ausgehenden zwanzigsten Jahrhunderts gemacht. Auf dieser aufbauend ist in den letzten Jahren die Synthetische Biologie entstanden, welche als Anwendung der Prinzipien von Ingenieurswissenschaften auf die Biologie zu verstehen ist. Dieses interdisziplinäre Fachgebiet birgt ein beispielloses Potential an Einsatzmöglichkeiten, nicht nur zur Erfüllung dringender Bedürfnisse unserer Gesellschaften, sondern auch zur Enträtselung fundamentaler Fragen in der Beschreibung der Biosphäre. Vergleichbar mit den an Künstler gestellten Anforderungen, verlangt die Synthetische Biologie von ihren Forschern vor allem Kreativität und Gestaltungskraft.

    Was versteht man unter Synthetischer Biologie?

    Synthetische Biologie ist vor allem ein interdisziplinäres Fachgebiet, das eine enge Zusammenarbeit von Biologen, Chemikern, Physikern, Materialwissenschaftern, Ingenieuren und Informationstechnikern voraussetzt. Unterschiedliche weitere Definitionen hängen von dem jeweiligen Fachgebiet ab, aus dem die Antwort kommt. Auf eine kurze Formel gebracht, beschäftigt sich die Synthetische Biologie

    • Mit dem Nachbau und der Manipulation von natürlichen biologischen Systeme (Biomimetik) in Hinblick auf nutzbringende Anwendungen
    • Mit dem Design von Strukturen, Systemen und Prozessen, die in der Natur nicht vorkommen
    • Mit dem Ziel „Leben“ zu erzeugen um vor allem die biologischen Voraussetzungen für lebende Materie zu verstehen, aber auch um hocheffiziente zelluläre Fabriken zu konstruieren

    Das Design komplexer Systeme erfolgt dabei auf der Basis modularer biologischer Bausteine (Biobricks), welche – vergleichbar mit LEGO-Bausteinen - zusammengesetzt werden können. Derartige Biobricks können beispielsweise natürlich vorkommende Stoffwechselwege und Signalkaskaden sein, aber auch künstlich hergestellte Module mit erwünschten neuen Funktionen.

    Anwendungen der Synthetischen Biologie

    Baukästen mit standardisierten Biobricks, die unterschiedlich kombinierbar sind (mix and match), versprechen ein gigantisches Spektrum an Anwendungsmöglichkeiten. Zelluläre Fabriken, welche imstande sind dringende Bedürfnisse unserer Gesellschaften abzudecken, können eine neue industrielle Revolution auslösen.

    Abbildung 1 gibt einen groben Überblick über wesentliche z.T. bereits erfolgreich erprobte Anwendungsgebiete der Synthetischen Biologie zur Herstellung von Biomaterialien, Biokraftstoffen, Biosensoren, Arzneimitteln und Produkten der Nanobiotechnologie.

    Beispielsweise

    • Lassen sich Biokraftstoffe der 2.ten Generation durch geeignete Mikrobenkulturen kostengünstig aus Abfall-Biomasse erzeugen, kann Photosynthese aus rein chemischen Ausgangsstoffen nachgebaut werden
    • Können (toxische) Stoffe in der Umwelt mittels hochempfindlicher und selektiver Biosensoren detektiert werden (z.B. Arsen mittels des Arsenic Biosensor, iGEM 2006, Edinburgh Team)
    • Können Arzneimittel mit Hilfe von zellulären Fabriken hergestellt werden: z.B. Artemisinin – ein hochwirksames Arzneimittel gegen Malaria. Artemisinin, das in zu kleinen Ausbeuten aus einem Beifuß-Gewächs isoliert wird, wird bereits effizient und kostengünstiger in einen Bakterien (Escherichia coli) Stamm produziert, in den der komplette Stoffwechselweg der Artemisinin Synthese eingeschleust wurde.

    Anwendungsgebiete der Synthetischen Biologie

    Abbildung 1. Anwendungsgebiete der Synthetischen Biologie. Synthetische Biologie umfaßt die Anwendungen: Protein Engineering = Design und Manipulation von Proteinen, Gentechnik = gezielte Eingriffe in das Erbgut, Gewebe Engineering = künstliche Herstellung von Gewebe durch Zellkultivierung, Metabolic Engineering: Optimieren von zellulären Prozessabläufen

    Synthetische Biologie – künstliches Leben

    Ein Großteil der Erfolge in der Synthetischen Biologie ist bis jetzt im „top-down“ Verfahren erhalten worden, das heißt man ging von einem bereits existierenden lebenden System aus, welches dann für die gewünschte Anwendung entsprechend manipuliert wurde. Als „top-down“ Prozedur ist beispielsweise auch die 2007 von der Gruppe um Craig Venter publizierte und als „Erzeugung künstlichen Lebens“ gefeierte, sensationelle Transplantation eines kompletten Genoms eines Bakteriums in ein anderes Bakterium zu sehen, welches die Umwandlung der ursprünglichen Spezies zur Folge hatte (Science 2007, 317:632-8).

    Gegenwärtig laufen in vielen Labors Versuche mittels Synthetischer Biologie organisches Leben aus unbelebten Bausteinen in „bottom-up“ Ansätzen zu designen. Die dazu angewandten Strategien gehen von einem Minimalorganismus aus, d.h. die Komplexität einer Zelle hinsichtlich ihrer Gene, Stoffwechselwege und Signalketten ist auf ein Mindestmaß beschränkt. Derartige sogenannte „Protozellen“ werden unter Verwendung von aus natürlichen Biomolekülen bestehenden Biobricks konstruiert. (Zum Thema der Protocells siehe auch: http://www.science-blog.at/2012/02/zum-ursprung-des-lebensbr-konzepte-und-diskussionen/) Ebenso gibt es auch „xenobiologische“ Ansätze, in welchen veränderte biochemische Strukturen (z.B. der DNA) eingesetzt werden, die zu einer „parallel-biologischen Welt“ führen sollen. Es ist klar, daß „top-down“ und „bottom-up“ Strategien sich in der Folge mehr und mehr mischen werden um die Komplexität der Systeme adäquat behandeln zu können.

    Synthetische Biologie und ihr Eingriff in den Evolutionsprozeß

    Die Synthetische Biologie eröffnet den „Ingenieuren der Biologie“ die Möglichkeit bereits in absehbarer Zeit neue Arten von Lebewesen zu konstruieren. Natürlich liegt die Kreation von neuen Tierarten noch in ferner Zukunft und als ultimativer Schritt die Schaffung eines „Geschöpfs“, das als nächste Evolutionsstufe des Menschen gesehen werden könnte. Also, gleichsam eine Extrapolation unserer Existenzform in die Zukunft.

    Die Utopie, daß der Mensch in einem bisher nicht erahnbaren Ausmaß in die Evolution eingreifen kann, ist damit zur plausiblen Wahrscheinlichkeit geworden. Das Design neuer Spezies führt ja über deren (zumindest in natürlichen Organismen zwangsläufig immer fehlerhafter) Reproduktion zu deren Evolution Während allerdings über Fossilienfunde eine immer genauere Rekonstruktion der Wege der Evolution zu den heute existierenden Lebensformen, einschließlich des Menschen in seiner gegenwärtigen Ausprägung möglich wird, ist eine seriöse Vorhersage der weiteren Entwicklung des Lebens nicht einmal ansatzweise möglich.

    Wir Menschen von heute betrachten die Primaten mit einer Distanz, mit der die von uns ableitbaren späteren Evolutionsstufen uns betrachten werden. Ich kann einen Primaten bezüglich seines Abstraktionsvermögens nicht über eine gewisse „Grenze der Erkenntnis“ bringen oder fördern. Einem Schimpansen ist beispielsweise die Quantenphysik und die moderne Kosmologie nicht zu vermitteln. Ähnlich sollte es einem Menschen ergehen, der in eine Zeit verschoben wird, in der die nächste (höhere?) Stufe der Evolution – mit oder ohne Synthetische Biologie - stattgefunden hat. „Instinkt“, „abstraktes Denken“ – was kommt als nächstes? Wir können dafür so wenig einen Begriff bilden, wie der Schimpanse eben keinen Zugang zu Mathematik, Physik und Kosmologie hat und benötigt – wie sie möglicherweise auch der Neandertaler nur in eingeschränktem Maße hatte..

    Auf dem Weg in das von Menschen geschaffene Neuland ist natürlich eine kritische Abwägung gesellschaftlicher und ethischer Fragen und Risiken unabdingbar, welche mit einem derartigen Eingriff ins „Naturgeschehen“ angedacht werden können. Hier ist aber auch die Phantasie des Wissenschafters gefordert, der mit Hilfe einer Visualisierung des Wandels die Gesellschaft auf zu erwartende Veränderungen vorbereitet und dafür zu sensibilisieren versucht. Mit dem Versuch Anschaulichkeit zu gestalten dringt der Wissenschafter in einen Bereich vor, der zumeist nur Künstlern vorbehalten bleibt.

    Synthetische Biologie und Evolution - Versuch einer Visualisierung

    In dem Bestreben, das durch die Synthetische Biologie geschaffene Paradigma künstlerisch aufzuarbeiten, entstanden morphologisch vielfältige Skulpturen. Symbolisch für die uns nicht vorhersehbare Weiterentwicklung des Menschen, habe ich in den Skulpturen die Sinnesorgane - beispielsweise die Augen, Nasen - vervielfacht sowie Skelettkomponenten und Schädeldimensionen verändert. Dies auch vor dem Hintergrund, daß sich die ästhetische Beurteilung von Morphologien, die eine natürliche aber auch eine vom Menschen beeinflußte Evolution hervorbringen kann, völlig von den heutigen Auffassungen und Beurteilungen abkoppeln wird. Ein Beispiel einer derartigen Skulptur ist in Abbildung 2 wiedergegeben Uwe Sleytr: „Erweiterung des Wissens“ Abbildung 2. Uwe Sleytr: „Erweiterung des Wissens“ aus dem Zyklus Evolution. Schütttechnik: Franz Sima; Foto mittels hochauflösender Digitalkamera. Beschreibung: siehe Text. (Vergoldete Skulptur aus gebranntem Ton. Künstlerische Gestaltung des Gebäudes Muthgasse III / VIBT – Vienna Institute of BioTechnology) Die unvorhersehbare morphologische Vielfalt und die Möglichkeiten, die aus der Synthetischen Biologie erwachsen, habe ich versucht durch die Wechselwirkung der statischen Skulpturen mit dem Medium Wasser zu reflektieren. Weiters sollen diese Darstellungen die mit der Synthetischen Biologie assoziierte explosionsartige Zunahme, Verfügbarkeit und Verbreitung des Wissens symbolisieren. Abbildungen 2, 3.

    Uwe Sleytr: „Erweiterung des Wissens“Abbildung 3. Uwe Sleytr: „Erweiterung des Wissens“ aus dem Zyklus Evolution Schütttechnik: Franz Sima Foto: mittels hochauflösender Digitalkamera Beschreibung: siehe Text. (Vergoldete Skulptur aus gebranntem Ton; künstlerische Gestaltung des Gebäudes Muthgasse III / VIBT – Vienna Institute of BioTechnology)

    Die Statik und morphologische Differenzierung der Skulpturen entsprechen dabei nur Momentaufnahmen von Entwicklungsstufen in einer hypothetischen durch die Synthetische Biologie geschaffenen Lebenswelt. Ab einem bestimmten Entwicklungsstadium bleibt uns diese auf Grund unserer intellektuellen Limitierung für immer unvorstellbar und somit auch unzugänglich.

    Wenn auch auf inadequate Weise kann nur mit den Mitteln der Kunst versucht werden, die Sprachlosigkeit zu überwinden, die uns beim Denken über das Unvorstellbare befällt.


    Weiterführende links

    „Synthetische Biologie, Ein neuer Weg der Evolution“ Uwe Sleytr, Video(3,25 min.)
    Diese site enthält auch viele andere Videos vom „Synthetic Biology Science, Art and Film Festival“ Wien, 13-14.Mai 2011
    http://biofiction.com/videos/

    “Konkurrenz für Gott” J.Grolle. Der Spiegel 1:110-19, 2010
    http://www.spiegel.de/spiegel/print/d-68525307.html

    „Synthetische Biologie. Leben – Kunst“ Internationale Tagung der Berlin-Brandenburgischen Akademie der Wissenschaften 8 – 9.12.2011: Mediathek, mehrere Vorträge.
    http://jahresthema.bbaw.de/2011_2012/mediathek/synthetische-biologie.-le...

    V. Rouilly (Imperial Coll. London, Bioengineering Dept): “Introduction to Synthetic Biology“ (53 slides)
    http://openwetware.org/images/5/5b/Vincent_Rouilly_SynBio_Course_Topic_1...

    inge Fri, 14.06.2013 - 10:54

    Themenschwerpunkt: Synthetische Biologie — Leitwissenschaft des 21. Jahrhunderts?

    Themenschwerpunkt: Synthetische Biologie — Leitwissenschaft des 21. Jahrhunderts?

    Fr, 14.06.2013 - 10:21 — Redaktion

    Icon MINTSo wie die enormen Fortschritte der Molekularbiologie, Genetik und Biotechnologie die Biologie zu einer Leitwissenschaft des ausgehenden zwanzigsten Jahrhunderts gemacht haben, so kann man die Synthetische Biologie als Wissenschaftsdisziplin bezeichnen, welche das Bild der Lebenswissenschaften (zumindest am Beginn) des 21. Jahrhunderts bestimmt. Auf der Biologie aufbauend ist die in den letzten Jahren entstandene Synthetische Biologie als Anwendung der Prinzipien von Ingenieurswissenschaften auf die Biologie zu verstehen. Dieses neue, rasant wachsende, interdisziplinäre Fachgebiet birgt ein beispielloses Potential an Einsatzmöglichkeiten: Für Grundlagenforscher bietet es leicht manipulierbare Systeme zur Erforschung der Funktion lebender Systeme. Das Nachahmen und Optimieren biologischer Strukturen und Funktionen und das Design maßgeschneiderter Systeme führt zu Produkten, welche breiteste Anwendung in Technik, Industrie und Medizin finden.

    Der breiten Öffentlichkeit ist der Begriff „Synthetische Biologie“ noch kaum geläufig, diese wird – wenn überhaupt und dann je nach persönlichem Gesichtspunkt – als Ableger von Gentechnik oder Biotechnologie oder Informationstechnologie gesehen. Dementsprechend ist „Synthetische Biologie“ mit Empfindungen assoziiert, die von Desinteresse über gelegentliche Akzeptanz bis hin zu Argwohn, Besorgnis und krasser Ablehnung reichen. Sensationsberichterstattungen (etwa über „Frankenstein-Experimente“) in den Medien verstärken die Befürchtungen. Von der Seite der Wissenschaft erscheint es daher unabdingbar in einen Dialog mit der Bevölkerung zu treten, diese über die neue Technologie zu informieren und auf realistischer Basis zu diskutieren.

    In diesem Sinne hat die Österreichische Akademie der Wissenschaften (ÖAW) vor einem Monat – anläßlich der Feierlichen Sitzung - ein Symposium über Synthetische Biologie veranstaltet. Im Rahmen dieser Veranstaltung wurden wesentliche Schwerpunktthemen der Synthetischen Biologie, einschließlich ihrer Rezeption in der Öffentlichkeit angesprochen sowie Fragen der Biosicherheit von kompetenten Wissenschaftlern aus dem In- und Ausland unter starkem Einbezug des Publikums diskutiert. Mehrere Vortragende haben ihre Manuskripte dem ScienceBlog zur Verfügung gestellt. Diese Artikel werden in den nächsten Wochen in lockerer Abfolge erscheinen.

    Der Organisator des ÖAW-Symposiums, Uwe Sleytr, hat die Tagung eingeleitet und tags darauf den Festvortrag: „Synthetische Biologie - Eine Technologie auf der Basis der Bausteine des Lebens“ gehalten. Wesentliche Aspekte dieser Vorträge sind in seinem Artikel: „Synthetische Biologie – Wissenschaft und Kunst“ enthalten, der im vergangenen Jahr in unserem Blog (damals noch Science-Blog) erschienen ist. Dieser Artikel soll nun in das Schwerpunktsthema „Synthetische Biologie“ einführen. Zu den spezifischen Anwendungen der Synthetischen Biologie ist bereits eine Artikelserie von Wolfgang Knoll erschienen: Die biomimetische künstliche Nase – wie weit sind wir?

    Teil 1: Künstliche Sensoren nach dem natürlichen Vorbild unserer fünf Sinne
    Teil 2: Aufbau und Funktion physiologischer Geruchssensoren
    Teil 3: Konstruktion einer biomimetischen Nase

    Der Natur abgeschaut: Die Farbstoffsolarzelle“


    Weiterführende Links

    Eine hervorragende Broschüre: Synthetische Biologie: Eine Einführung. Zusammenfassung eines Berichts des European Academies Science Advisory Council (EASAC). 2011. (PDF-Download)

    inge Fri, 14.06.2013 - 10:21

    Comments

    Aus der Sicht von Ludwig Boltzmann — eine Werkstätte wissenschaftlicher Arbeit im Jahre 1905

    Aus der Sicht von Ludwig Boltzmann — eine Werkstätte wissenschaftlicher Arbeit im Jahre 1905

    Fr, 07.06.2013 - 04:07 — Redaktion

    Icon Physik

    Der Physiker Ludwig Boltzmann [1] (1844 – 1906), einer der bahnbrechendsten Wissenschafter, die Österreich hervorgebracht hat, bricht im Juni 1905 zu einem längerem Gastaufenthalt an die Universität Berkeley/San Francisco auf. Auf dem Weg dorthin macht er vorerst in Leipzig halt um an der Sitzung des Kartells der Akademien der Wissenschaften teilzunehmen, welche ein Monumentalwerk, eine Enzyklopädie der mathematischen Wissenschaften aus Beiträgen der weltweit bedeutendsten Experten herausgeben will. Daß eine Beschreibung des damaligen wissenschaftlichen Lebens humorvoll aber nichtsdestoweniger durchaus kritisch ausfallen kann, macht der nachfolgende Text von Boltzmann offenbar – auch, daß geäußerte Kritikpunkte nach wie vor aktuell sind.

     

    Ausschnitt aus Ludwig Boltzmann: „Reise eines deutschen Professors ins Eldorado”[2].

    ( Zwischentitel, Illustrationen und einige Anmerkungen sind von der Redaktion eingefügt.)

    Zeitgenössische Karikatur Boltzmanns Ludwig Boltzmann
    Abbildung – Ludwig Boltzmann: wie ihn sein Schüler der Physiker Przibram gesehen hat (links) und ein seriöses Foto aus dem Jahre 1902 (rechts) Quelle: Online Ausstellung der Österreichischen Zentralbibliothek für Physik, 2006; http://www.zbp.univie.ac.at/webausstellung/boltzmann/flash/boltzmann.htm.

    „Der erste Teil meiner Reise stand unter dem Zeichen der Eile und in Eile soll er auch erzählt sein. Noch am 8. Juni wohnte ich der Donnerstagssitzung der Wiener Akademie der Wissenschaften in gewohnter Weise bei. Beim Fortgehen bemerkte ein Kollege, daß ich nicht wie sonst nach der Bäckerstraße, sondern nach dem Stubenring mich wandte und fragte, wohin ich gehe. Nach San Franzisko antwortete ich lakonisch.

    Im Restaurant des Nordwestbahnhofes verzehrte ich noch in aller Gemütlichkeit Jungschweinsbraten mit Kraut und Erdäpfeln und trank einige Gläser Bier dazu. Mein Zahlengedächtnis, sonst erträglich fix, behält die Zahl der Biergläser stets schlecht. Als ich mit der Mahlzeit fertig war, kamen meine Frau und meine Kinder mit dem schon vorgerichteten Reisegepäck. Adieu noch und fort ging es, zunächst zu den Akademie-Kartellsitzungen nach Leipzig, welche am nächsten Tag 10 Uhr vormittags begannen. Ich machte mich im Zug noch möglichst rein, setzte mich nach Ankunft des Zuges in Leipzig sofort in eine Droschke und kam pünktlich zur Sitzung. (Anmerkung der Redaktion: Das Kartell bestand damals aus den Akademien der Wissenschaften in Wien, Göttingen, Leipzig und München; Berlin war – wie Boltzmann weiter unten kritisch bemerkt – noch nicht beigetreten.)

    Ich ging zu diesen Kartellsitzungen nicht ohne Angst; denn es sollte ein Gegenstand zur Sprache kommen, der für mich sehr bitter werden konnte. Wird es den Leser langweilen, wenn ich ihn kurze Zeit in einer Werkstätte wissenschaftlicher Arbeit herumführe, um ihm die äußere Einrichtung zu zeigen und den Mechanismus etwas zu erklären; ich hoffe nicht. Heutzutage gibt es doch kaum einen Gebildeten, der nicht irgend eine größere, im Baedeker angeführte Eisenwaren- oder Leder- oder Glasfabrik gesehen hätte und ich finde die Befriedigung der Neugierde, wie die Gegenstände unseres täglichen Gebrauches in ihre uns so geläufige Form gebracht werden, ebenso unterhaltend als lehrreich. Warum sollte ich nicht auch einige Neugierde nach dem Mechanismus einer Fabrik voraussetzen, die, ich darf es wohl sagen, für die menschliche Kultur wichtiger ist, als die größte Lederfabrik, hoffentlich nicht lederner.

    Vom Ziel des Akademie-Kartells eine Enzyklopädie der mathematischen Wissenschaften [3] herauszugeben

    Mehrere deutsche Akademien und gelehrte Gesellschaften haben sich zusammengetan, um jährlich gemeinsame Sitzungen zu halten und dort Gegenstände von allgemeiner Wichtigkeit zu besprechen (siehe weiter oben; Anmerkung der Redaktion). Dies ist das Akademie-Kartell. Dasselbe beschloß vor Jahren die materielle Unterstützung eines großen Buchwerkes, der Enzyklopädie der mathematischen Wissenschaften.

    Die Mathematik hat nämlich im vorigen Jahrhundert enorm an Umfang zugenommen; dabei hat jeder Autor seine besonderen Bezeichnungen und schreibt oft so schwer verständlich, daß nur die nächsten Fachgenossen mit größter Anstrengung folgen können. Doch ist in dieser schwer verständlichen, oft fast unauffindbaren, in der ganzen Welt zerstreuten mathematischen Literatur ungemein viel des Brauchbaren, auch für den Praktiker Nützlichen, ja fast Unentbehrlichen, vergraben.

    Die wohlgeordnete Sammlung und möglichst leicht verständliche Darstellung alles dieses Materials ist nun die Aufgabe der besprochenen Enzyklopädie. Sie soll alles in der Mathematik geleistete für den Mathematiker leicht auffindbar machen und zugleich die Brücke zur Praxis bauen, also dem Praktiker die Mathematik, dem Mathematiker die Praxis näherrücken. Das Bedürfnis nach einer solchen enzyklopädischen Zusammenfassung der mathematischen Literatur springt so in die Augen, daß Professor Klein [4] in Göttingen sie als mathematische Bedürfnisanstalt bezeichnet hat. Ein solches Unternehmen wäre nicht so enorm schwierig, wenn es sich nur darum handelte, die hervorstechendsten Leistungen ohne allzu genaue Kritik anzuführen und das Allerwichtigste, natürlich aber auch Allerbekannteste, zu registrieren. Wenn man aber auf allen Gebieten alles wirklich Nützliche aus dem Verborgenen hervorziehen, alles Unwesentliche ausscheiden, möglichste Vollständigkeit in der Literaturangabe erzielen und dabei alles in übersichtlicher, für den Gebrauch des Lesers bequemer Form darstellen will, so erscheinen die Schwierigkeiten für jeden, der nur einigermaßen in die mathematische Literatur hineingeguckt hat, fast erschreckend. Den schon genannten Professor Klein lockte dies an, die Akademien geben Geld für die Druckkosten, die Autorenhonorare und Reisediäten, Klein und sein wissenschaftlicher Stab besorgen die Arbeit.

    Von den Mühen Professor Kleins weltweit renommierteste Wissenschafter als Autoren zu rekrutieren

    Da gilt es für jedes Spezialgebiet unter allen Nationen des Erdballes denjenigen herauszufinden, der es am besten beherrscht. In der Tat arbeiten Deutsche und Franzosen, Russen und Japaner in Eintracht mit. Der Ausgewählte ist nun oft ein großer Herr, der genug Geld und wenig Zeit, vielleicht auch nicht allzuviel Arbeitslust, aber desto mehr Eigensinn hat. Er muß erstens bewogen werden, daß er einen Beitrag verspricht; dann belehrt und mit allen Mitteln der Überredungskunst dazu vermocht werden, daß er den Beitrag so abfaßt, wie er in den Rahmen des Ganzen paßt und last not least, daß er sein Versprechen auch rechtzeitig hält.

    Die Beratungen, ob man einen Artikel, der sich besser später einreihen würde, schon jetzt bringen soll, weil man ihn eben schon hat und die, welche man vorausgehen lassen wollte, noch fehlen, nehmen Stunden in Anspruch. Reisen Kleins selbst und seiner Apostel nach allen Ländern der Welt werden nicht gespart, um den Artikelschuldigen mit der Wucht der persönlichen Rücksprache nicht zu verschonen. Eine Lücke blieb lange offen, weil der dafür Erkorene, ein mathematisch gebildeter russischer Offizier in Port Arthur eingeschlossen war. Ich habe solche Enzyklopädiesitzungen schon oft mitgemacht, von ihrer dramatischen Bewegtheit könnten die deutschen Bühnendichter profitieren.

    Nun zu mir zurück. Schon als mir Klein einen Enzyklopädieartikel auftrug, weigerte ich mich lange. Endlich schrieb er mir: „Wenn Sie ihn nicht machen, übergebe ich ihn dem Zermelo [5]“. Dieser vertritt gerade die der meinen diametral entgegengesetzte Ansicht. Die sollte doch nicht in der Enzyklopädie die tonangebende werden, daher antwortete ich umgehend: „Ehe der Pestalutz es macht, mache ichs.“ (Sämtliche Zitate, meist aus Schiller zur Nachfeier des Schillerjahres, sind mit Anführungszeichen versehen; man weise sie nach!)

    Jetzt aber ist die Zeit, wo mein Artikel fällig wird. Ich hätte gern mich im September von den Reisestrapazen auf dem Lande erholt, aber ich habe mein Wort gegeben, muß also im September in der Literatur wühlen und mit einer kleinen Kohorte Wiener Physiker zusammen, den Artikel fertigstellen. ”Ewigkeit geschworenen Eiden.“

    Ähnlich scheint es auch Professor Wirtinger [6] ergangen zu sein; denn als Emblem der Enzyklopädie zeichnete er eine Mausefalle; der Speck lockt und der Professor ist gefangen.

    Vom Idealismus der Autoren

    Was aber reizt zu dem ganzen Werke so unwiderstehlich? Besonderer Ruhm ist dabei nicht zu holen, mit Ausnahme dessen, etwas Nützliches geleistet zu haben; vom Gelde rede ich gar nicht. Was veranlaßt Klein mit einer psychologischen Kenntnis, um die ihn die Philosophen beneiden könnten, bei jedem, den er auf dem Korn hat, gerade den wunden Punkt zu treffen, wo er überredungsfähig ist? Doch nur der Idealismus, und tun wir die Augen auf, Idealismus finden wir überall bis an das stille Meer. Dort (auf dem Gipfel des Mount Hamilton, nahe der Stadt San Jose, Kalifornien; Anmerkung der Redaktion) grüßen uns zwei weiße dicke Türme, die Licksternwarte, das Werk eines Idealisten und hundertfachen Millionärs…. Ich habe lange überlegt, was merkwürdiger ist, daß in Amerika Millionäre Idealisten, oder daß Idealisten Millionäre sind. Glücklich das Land, wo Millionäre ideal denken und Idealisten Millionäre werden!…

    Der Idealismus Kleins und seiner Mitarbeiter trug gute Früchte. Schon nach dem Erscheinen der ersten Hefte mußte die Auflage vermehrt werden; eine französische Übersetzung ist angefangen, eine englische wird bald folgen. Die Akademien haben einen guten Griff und der Buchhändler hat ein gutes Geschäft gemacht.

    Kritisches zur Berliner Akademie der Wissenschaften

    Die Berliner Akademie der Wissenschaften gehört leider dem Kartell nicht an und beteiligt sich gar nicht an der Sache. Sie war auch auf dem Meteorologenkongreß zu Southport und auf dem Sonnenforschungskongresse in St.Louis gar nicht vertreten. Ich fürchte, durch dieses Prinzip, an allem, was sie nicht selbst angefangen hat, sich nicht zu beteiligen, wird sie mehr noch als die Wissenschaft, sich selbst und Deutschland schädigen. Mich ärgerte es, als in Southport und St. Louis unter den foreigners (Nichtengländern) überall die Franzosen den ersten Platz erhielten. Wir Deutsche hätten es wahrlich nicht nötig, ihnen nachzustehen! Aber was vermochte ich als Österreicher? Wenn bei den Meteorologen noch Hann [7] da gewesen wäre, den alle so vermißten! Aber der ist wieder nicht zum Reisen zu bewegen!

    Wenn ich schon ins Plaudern komme, dann lasse ich meiner Zunge völlig freien Lauf. So verschweige ich auch nicht, daß ein amerikanischer Kollege überhaupt von einem Rückgang Berlins sprach. In der Tat gingen unter Weierstraß, Kronecker, Kummer, Helmholtz, Kirchhoff die amerikanischen Mathematiker und Physiker meist nach Berlin studieren, jetzt bevorzugen sie Cambridge und Paris. Dadurch, daß es weniger mehr von den Deutschen lernt, geht wieder Amerika und mit ihm die Welt zurück. Jener Kollege behauptete auch, es wäre manches besser geworden, wenn ich den Ruf nach Berlin nicht abgelehnt hätte. Gewiß am wenigsten durch meine Vorträge; aber ein einziger kann, wenn er mit Kleins Idealismus und Kleins Unverfrorenheit wirkt, bei Berufungsfragen und bei Neuschöpfungen ganz bedeutend ins Gewicht fallen.

    Mancher, der nicht zu haben war, wäre doch zu haben gewesen, wenn man ihn richtig gewollt hätte. Ein kleines Rädchen, das an der richtigen Stelle immer richtig arbeitet, kann viel leisten.“


    [1] Ludwig E. Boltzmann ] (1844 – 1906) war Professor für Physik und Mathematik an den Universitäten Graz, Leipzig, München und Wien. Seine Arbeiten waren bahnbrechend für die weitere Entwicklung von Physik und physikalischer Chemie. Zu einer Zeit als die Existenz von Atomen noch nicht bewiesen war, hat er Wärmegesetze aus der statistischen Bewegung von Molekülen hergeleitet (kinetische Gastheorie) und, daß Systeme aus einem Zustand höherer Ordnung in einen ungeordneteren übergehen; als ein Maß für die Unordnung hat Boltzmann den Begriff „Entropie“ definiert (Zweiter Hauptsatz der Thermodynamik). Eine von der Österreichischen Zentralbibliothek für Physik initiierte Ausstellung anläßlich des 100. Todestages von Ludwig Boltzmann ist online abrufbar und bietet eine umfassende, illustrierte, Darstellung seines Lebens und Wirkens (http://www.zbp.univie.ac.at/webausstellung/boltzmann/flash/boltzmann.htm)

    [2] „Reise eines deutschen Professors ins Eldorado”: Dieser und andere Essays aus den 1905 veröffentlichten „Populären Schriften“ von Ludwig Boltzmann sind sehr lesenswert. Die “Populären Schriften” wurden kürzlich digitalisiert („by Google from the library of Harvard University and uploaded to the Internet Archive”): http://archive.org/details/populreschrifte00boltgoog (free download)

    [3] „Enzyklopädie der mathematischen Wissenschaften mit Einschluß ihrer Anwendungen“ Monumentalwerk das von 1904 bis 1935 erschien (B.G. Teubner Verlag, Leipzig). Unter der Koordination von Felix Klein lieferten international führende Mathematiker und Physiker Übersichtsartikel und auch eigene Forschungsbeiträge, die Klassiker einzelner Fachrichtungen darstellen. Die einzelnen Bände wurden vom Göttinger Digitalisierungszentrum digitalisiert und sind abrufbar unter: http://gdz.sub.uni-goettingen.de/dms/load/toc/?PPN=PPN360504019 (free download)

    [4] Felix Christian Klein (1849 – 1925) berühmter deutscher Mathematiker (Gruppen-Theorie, Nicht-Euklidische Geometrie) und Wissenschaftsorganisator. Er machte Göttingen zu einem der weltweit wichtigsten Zentren für (angewandte) Mathematik und Naturwissenschaften. Für die „Enzyklopädie der mathematischen Wissenschaften mit Einschluß ihrer Anwendungen“ (s.o.) gelang es Klein die renommiertesten Autoren zu rekrutieren.

    [5] Ernst Friedrich Ferdinand Zermelo (1871 – 1953) berühmter deutscher Mathematiker (Mengenlehre), Schüler von Max Planck. Kontrahent von Ludwig Boltzmann, da er in dessen „zweitem Hauptsatz der Thermodynamik“ einen Widerspruch zum „Poincare’schen Wiederkehrsatz“ sah.

    [6] Wilhelm Wirtinger (1865 – 1945), prominenter österreichischer Mathematiker aus der schule von Felix Klein und Professor in Innsbruck und Wien. Zu Wirtingers Schülern gehören u.a.: Kurt Gödel, Johann Radon und Leopold Vietoris.

    [7] Julius von Hann (1839 – 1921), Begründer der modernen Meteorologie, Professor in Wien und Graz, Direktor der ZAMG (Wien). Er veranlaßte den Bau des Sonnblick-Observatoriums und der Hann-Warte auf dem Hochobir.

    Bring vor, was wahr ist;

    schreib so, dass es klar ist.

    Wahlspruch Ludwig Boltzmanns


     

    inge Fri, 07.06.2013 - 04:07

    Letale Mutagenese — Strategie im Kampf gegen Viren

    Letale Mutagenese — Strategie im Kampf gegen Viren

    Fr, 24.05.2013 - 11:13 — Peter Schuster

    Icon BiologiePeter SchusterDie Vermehrung von Viren ist durch eine sehr hohe Mutationsrate geprägt. Dabei entstehen genetisch uneinheitliche Populationen , sogenannte Quasispezies, die sich in einem dynamischen Gleichgewicht von Mutation und Selektion befinde und damit einem Evolutionsprozeß unterliegen, der u.a. erhöhte Infektiosität und Pathogenität mit sich bringt. Eine weitere Erhöhung der Mutationsrate durch geeignete mutagene Verbindungen kann jedoch zur Auslöschung der Quasispezies-Populationen führen. Letale Mutagenese erscheint daher erfolgversprechend als eine neue Strategie im Kampf gegen virale Infektionen und deren Ausbreitung.

    Basierend auf fulminanten Erfolgen in der Bekämpfung von Infektionskrankheiten ging man in der Mitte des vorigen Jahrhunderts davon aus, daß die Erreger dieser Krankheiten wohl bald ausgerottet sein würden. Zwar wurden vereinzelt Veränderungen der Erregerstämme detektiert, diesen aber kaum Beachtung geschenkt. Erst der systematische Einsatz molekularbiologischer Methoden, vor allem die genetische Analyse der Mikroorganismen, zeigte wie schnell und in welchem Ausmaß Veränderungen eintreten, die vormals effektive antibakterielle und antivirale Strategien unwirksam werden lassen.

    Wie Viren sich vermehren

    Viroide (s.u.) und Viren können als non-plus-ultra Parasiten angesehen werden, welche – allein nicht lebensfähig - den Wirt ausnützen indem sie in seine Zellen eindringen und deren Stoffwechsel für ihre eigene Vermehrung umfunktionieren. Grundlegend für diese Vermehrung ist die erfolgreiche Kopierung (Replikation) des viralen Genoms, welches aus Ribonukleinsäure (RNA)- oder Desoxyribonuleinsäure (DNA)-Molekülen besteht (Abbildung 1). Erfolgreich bedeutet dabei, daß die viralen Nachkommen ebenfalls fähig sind sich zu vermehren.

    Anheften der Makrophage Genominjektion
    Abbildung 1. Bakteriophage heftet sich an die Zellwand eines Bakteriums an (links, elektronenmikroskopisches Bild) und injiziert sein Genom in die Wirtszelle (rechts). (Bilder modifiziert nach Wikimedia Commons)

    Die Vermehrung von Viren ist ein komplexer Vorgang, da bereits das Kopieren der Nukleinsäuren ein aus vielen Einzelschritten bestehender Prozeß ist, wobei der Stoffwechsel der Wirtszelle mehr oder weniger in Anspruch genommen wird (Abbildung 2). Viroide – Pflanzenpathogene -, die überhaupt nur aus dem „nackten“ RNA-Molekül bestehen, sind für ihre Replikation vollständig auf die biochemische Ausstattung und die Reaktionsmechanismen des Wirts angewiesen. Replikationszyklus eines Virus Abbildung 2. Replikationszyklus eines Virus. 1: Anheften an die Wirtszelle, 2: Aufnahme in die Zelle und 3: Abstreifen der Umhüllung (uncoating). 4: Transkription des Genoms und Umsetzung der mRNA zu viralen Proteinen (Translation), 5: Vervielfältiung (Replikation) des viralen Erbmaterials (RNA oder DNA), 6: Aggregation von Hüllproteinen – Bildung neuer Partikel, 7: Freisetzung (stark vereinfachte Darstellung, modifiziert nach commons, wikimedia).

    Das Genom von RNA-Viren ist besonders klein, es enthält bloß zwischen 3000 und 33000 Nukleotide. Derart einfache Genome kodieren nur für einige wenige Proteine: üblicherweise sind das i) ein Enzym, das spezifisch die virale RNA repliziert (RNA-Replicase), ii) ein zweites Protein, welches eine Hülle um die virale RNA bildet und iii) ein weiteres Protein, welches die Auflösung - Lyse - der Wirtszelle und damit die Freisetzung des Virus einleitet. Bei Bakteriophagen, das sind Viren, die sich in Bakterienzellen vermehren, weist die genomische RNA Ähnlichkeit mit den Messenger-RNAs der Wirtszellen auf. Sie wird deshalb von der Proteinsynthese-Maschinerie der Wirtszelle - den Ribosomen - erkannt und unmittelbar nach Eintritt in die Wirtszelle zu Virusproteinen umgesetzt (translatiert).

    Bestimmend für den Vermehrungszyklus von Viren: Mutation und Selektion

    Das System Bakteriophage – Bakterienzelle stellt ein einfaches Modell dar, mit welchem die Mechanismen der Viren-Vermehrung untersucht werden können. An diesem Modell (Qβ-Phage – Escherichia coli Bakterie) hat Charles Weissmann bereits in den 1970er-Jahren gezeigt, daß der Vermehrungszyklus bestimmt wird durch die Struktur der Virus-RNA und die Dynamik, mit der sich diese faltet und entfaltet.

    Generell erfolgt der Kopiervorgang eines Genoms nicht fehlerfrei. Unter allen Spezies zeigen Viroide und Viren die höchsten Mutationsraten (Abbildung 3). Diese beträgt etwas weniger als eine Mutation pro Genom und Replikation.

    Mutationsrate in Abhängigkeit der GenomgrößeAbbildung 3. Die Genauigkeit mit der ein Genom kopiert wird (Mutationsrate), hängt von der Größe des Genoms (Anzahl der Nukleotide) ab. Mutationsrate: Anzahl der Veränderungen/Nukleotid. ssDNA-Viren: Einfachstrang-DNA-Viren , dsDNA -Viren: Doppelstrang-DNA-Viren , Bakterien: E.coli, niedrige Eukaryonten: Hefen, höhere Eukaryonten: Caenorhabditis elegans, Drosophila melanogaster, Maus, und Mensch. Ein Viroid kann aus nur 250 Nukleotiden bestehen, das humane Genom ist 3,3 Milliarden Nukleotidpaare lang, (Quelle: S. Gago et al. Science, 2009, 323 (5919) 1308; powerpoint slide for teaching)

    Die Genauigkeit, mit welcher die virale RNA-Replicase die Nukleinsäure kopiert, ist ausschlaggebend dafür, ob brauchbare Information erzeugt wird, die zur Reproduktion von Nachkommenschaft befähigt. Der reproduktive Erfolg einer Variante – die sogenannte Fitness - wird üblicherweise an Hand ihrer Nachkommen in der nächsten Generation bestimmt. Eine Mutation in einem Gen führt zu einer Änderung in der Sequenz der Nukleotide und daraus kann sich eine Änderung in der Aminosäuresequenz des kodierten Proteins ergeben. Derartige Änderungen können die Struktur und damit die Funktion des Proteins in einer Weise beeinflussen, welche den reproduktiven Erfolg i) kaum beeinträchtigt (neutrale Mutation), ii) schmälert oder unmöglich macht, oder iii) in vorteilhafter Weise erhöht. Die im letzteren Fall entstehende Variante hat mehr direkte Nachkommen, als die um die Ressourcen desselben Systems konkurrierenden neutralen Varianten und das vererbte günstige Merkmal führt zu mehr und mehr Nachkommen in den folgenden Generationen während ungünstige Mutationen zu einem raschen Absinken der Häufigkeit führen mit der betroffene Varianten in der Gesamtpopulation angetroffen werden. Diese natürliche Selektion steuert den Evolutionsprozeß des Virus.

    Quasispezies - Ein Schwarm von Varianten

    Frühe, sehr arbeitsaufwändige analytische Untersuchungen an Viruspopulationen, die sich aus einer definierten Q-Phagen-RNA auf dem Bakterienrasen (E. coli) entwickelt hatten, zeigten: die Population RNA-Moleküle ist nicht einheitlich, sondern es existiert eine große Anzahl unterschiedlicher Sequenzen, die sich um 1 – 2 Mutationen von der ursprünglichen Sequenz unterscheiden. Dieses Ergebnis war überraschend, hatte doch bis dahin jede einschlägig arbeitende Gruppe die Sequenz „ihres“ Virus als fix angesehen. Der offensichtliche Schwarm an Varianten, der nun gleichzeitig in einer Virenpopulation nachgewiesen wurde, entsprach dem Konzept der sogenannten Quasispezies, deren Existenz Manfred Eigen in seiner molekularen Theorie der Evolution etwa gleichzeitig mit der Entdeckung der Heterogenität der Viruspopulationen postuliert hatte.

    Basierend auf den Prinzipien der Darwin’schen Theorie von Mutation und natürlicher Selektion berücksichtigt das Eigen’sche Konzept auch die dynamischen Eigenschaften der Replikationsprozesse und die Wechselwirkungen zwischen den Molekülen und ist direkt auf die Replikation viraler RNA anwendbar:

    Bei hinreichend genauer Kopierung der RNA und genügend lange nach der Infektion stellt sich eine stationäre Quasispezies –Mutanten Verteilung in der Viruspopulation ein: die Virusvariante mit der größten Fitness – die Mastersequenz - liegt in höchster Konzentration vor, daneben existiert ein Schwarm an Varianten. Wie hoch die Anteile von Mastersequenz und Varianten in der Quasispezies sind, hängt von der Mutationsrate und den Fitnessunterschieden ab (Abbildung 4):

    Exaktes Kopieren der Mastersequenz produziert eine homogene Population, welche ausschließlich aus der Mastersequenz besteht. Mit steigender Mutationsrate nimmt der Anteil der Varianten stetig zu bis ein kritischer Wert erreicht wird. An der Fehlerschwelle breiten sich die Kopierfehler in der Population so rasch aus, dass sich keine stationäre Mutantenverteilung mehr einstellen kann. Die Konsequenz beim Überschreiten der Fehlerschwelle ist ein sich Auflösen der Populationsstruktur, da alle Mutanten gleich wahrscheinlich sind und die Population zur Gleichverteilung strebt, die in der Realität niemals eintreten kann.

    Letale MutageneseAbbildung 4. Letale Mutagenese: Ausgehend von einem exakten (in der Realität unmöglichen) Kopieren der RNA führt eine steigende Mutationsrate (Kopierfehler während der Replikation) zu einem stetigen Absinken des Anteils an Mastersequenz und einem reziproken Anwachsen des Anteils bis eine Fehlerschwelle erreicht wird, ab der alle Mutanten gleichverteilt sind und die Populationsstruktur sich auflöst („driftet“). (Die Mutationsrate ist angegeben in: Veränderungen pro Replikation je Nukleotid).

    Die Alternative zum Überschreiten der Fehlerschwelle ist ein Aussterben der Population durch Akkumulation letaler, das bedeutet nicht vermehrungsfähiger Varianten. Auch diese Situation kann durch Erhöhen der Mutationsrate erreicht werden. In Abbildung 5 sind die beiden Wege zur Auslöschung der Virenpopulation einander gegenübergestellt. Je höher die Zahl der letalen Positionen in der Sequenz der viralen Nukleinsäure ist, umso eher tritt Aussterben durch akkumulierte Letalität ein.

    Letale Mutagenese

    Abbildung 5. Letale Mutagenese: bei steigender Mutationsrate (Kopierfehler während der Replikation) nimmt i) der Anteil an Varianten zu, bis eine Fehlerschwelle erreicht wird, ab der alle Mutanten gleichverteilt sind und die Populationsstruktur sich auflöst (blau strichlierter Pfeil; siehe Abbildung 4) und ii) die Zahl letaler Veränderungen im Genom sich erhöht und damit die Entstehung nicht vermehrungsfähiger Varianten (rot strichlierter Pfeil). In beiden Fällen resultiert das Aussterben der Viruspoulationen. (Mutationsrate: Veränderungen pro Replikation je Nukleotid)

    RNA-Viren replizieren mit geringer Genauigkeit, welche wie in Abbildung 3 gezeigt in der Nähe von einem Fehler pro Replikation des gesamten Genoms (zwischen 3000 und 33 000 Nukleotide) liegt. Eine einfache Abschätzung zeigt, dass dieser hohe Werte der Mutationsrate nur wenig unterhalb der Fehlerschwelle zu liegen kommt. Evolutionsmäßig betrachtet erscheint dieser Befund überzeugend, da Viren durch die Abwehrsysteme ihrer Wirtsorganismen – Restriktionsnukleasen, Immunabwehr, etc. – einem sehr hohen Selektionsdruck ausgesetzt sind und daher auf eine möglichst große Variationsbreite der Sequenzen in der Quasispezies angewiesen sind. In der Tat bereitet die hohe Variabilität einiger humanpathogener Viren besondere Probleme bei der Therapie, Beispiele sind das Influenza A Virus, das HIV I oder das Hepatitis C Virus.

    Letale Mutagenese als eine neue antivirale Strategie Krankheiten, welche durch RNA-Viren mit hoch variablen Sequenzen hervorgerufen werden, stellen wegen der raschen Ausbildung von Resistenzen gegen vorhandene Medikamente oder Vakzinen als Folge der Quasispeziesstruktur der Populationen ein enormes medizinisches Problem dar. Um den Selektionsprozeß möglichst zu verzögern, werden heute häufig Kombinationstherapien angewandt, etwa im Fall der antiretroviralen Therapie (HAART) bei HIV-infizierten Patienten. Auch hier entstehen schlußendlich aber Viren-Formen, die gegen alle Medikamente der Kombinationstherapie resistent sind und damit zumTherapieversagen. Einen Paradigmenwechsel in der antiviralen Strategie stellt die auf der Basis der oben beschriebenen Phänomene – Überschreiten der Fehlerschwelle oder Akkumulation letaler Varianten – basierende letale Mutagenese dar. Substanzen, welche die Mutationsrate des Virus erhöhen – unter ihnen die zurzeit wirksamsten antiviralen Medikamente – führen mit oder ohne Vergrößerung der Breite der Mutantenverteilung zu einer Auslöschung der Viruspopulationen und bestätigen damit die Gültigkeit des neuen Ansatzes. Derart mutagene Substanzen führten in relevanten Infektionsmodellen und auch in klinischen Studien u.a. zur Eliminierung des Polio-Virus, des mit dem Tollwut-Virus verwandten Vesicular stomatitis Virus, des Lymphozytären Choriomeningitis Virus, des Maul-und Klauenseuche Virus und des HIV-Virus. Wie Sequenzanalysen viraler RNA zeigen, dürfte die Wirksamkeit des klinisch gegen Hepatitis C angewandten Medikaments Ribavirin zumindest zum Teil auf seine mutagene Wirkung zurückzuführen sein. Einige neue Viren-mutagene Verbindungen befinden sich zur Zeit in der klinischen Entwicklung .


    Literatur

    Domingo, E. (1978). Nucleotide sequence heterogeneity of an RNA phage population Cell, 13 (4), 735-744

    Domingo E. et al. (2012) Viral Quasispecies Evolution Microbiol. Mol. Biol. Rev. 2012, 76(2):159 - 216

    Eigen M. (1971). Self-organization of matter and the evolution of biological macromolecules. Naturwissenschaften 58:465–523.

    Eigen M., Schuster P. (1977). The hypercycle—a principle of natural self-organization. A. Emergence of the hypercycle. Naturwissenschaften 64:541–565.

    Weissmann C. (1974). The making of a phage. FEBS Lett. 40(Suppl.):S10–S18.856.

    Weissmann C. et al., 1973. Structure and function of phage RNA. Annu. Rev. Biochem. 42:303–328.


    Anmerkung der Redaktion

    Dieser Essay setzt eine Serie zum Thema virale Infektionen aus der Sicht der Theoretischen Biologie fort. Bisher sind erschienen:

    Aus der Sicht des Biochemikers Gottfried Schatz: Spurensuche – wie der Kampf-gegen-Viren-unser-Erbgut-formte

    Aus der Sicht des Virologen Peter Palese: Influenza Viren – Pandemien: sind universell wirksame Impfstoffe in Reichweite?

    Weiterführende links

    Siehe auch links zu den beiden oben genannten Essays

    Zwei hervorragende, leicht verständliche (allerdings englische) Videos:

    Introduction to Viruses and Viral Replication (Craig Savage)
    http://www.youtube.com/watch?v=PEWjyx2TkM8&feature=endscreen 14:01min

    Virology 2013 Lecture #22 – Evolution (Vincent Racaniello)
    http://www.youtube.com/watch?v=2k3ZmuLlR9U 1:12:19

    Vincent Racaniello ist ein sehr prominenter Virologe, Professor an der Columbia Universität, NY, der auch einen exzellenten blog betreibt, welcher zu den aktuellsten Problemen der Virologie Stellung nimmt: Virology blog http://www.virology.ws/

    inge Fri, 24.05.2013 - 11:23

    Planet der Mikroben — Warum wir Infektionskrankheiten nie endgültig besiegen werden

    Planet der Mikroben — Warum wir Infektionskrankheiten nie endgültig besiegen werden

    Fr, 30.05.2013 - 04:20 — Gottfried Schatz

    Icon BiologieGottfried SchatzBakterien und Viren passen ihr Erbgut viel schneller an die Umwelt an als wir Menschen und finden deshalb immer wieder Wege, um die Abwehr unseres Körpers und unsere Medikamente zu überlisten. In diesem ungleichen Kampf ist unser Wissen die schärfste Waffe.

    Als mir am 22. September 1994 der Tontechniker am Internationalen Biochemie-Kongress in Delhi das Mikrofon anheftete, flüsterte er mir eine Botschaft zu, die mir das Blut in den Adern gerinnen liess: Am Tag zuvor sei in Surat, einer Stadt südwestlich von Delhi, die Pest ausgebrochen – und ein Patient bereits gestorben. Später erfuhr ich, dass es in Surat zu einer Massenpanik gekommen war, bei der dreihunderttausend Menschen in nur zwei Tagen die Stadt verließen. Wenn auch die Gesundheitsbehörden die Zahl der Todesopfer auf sechsundfünfzig begrenzen konnten, so zeigte doch die weltweite Bestürzung, wie sehr die Angst vor Pest das Gedächtnis der Menschheit belastet.

    Drei grosse Wellen der Pest

    Diese Angst ist wohlbegründet, denn das Pestbakterium hat im Verlauf der letzten eineinhalb Jahrtausende in drei gewaltigen Seuchenzügen ungezählte Menschen dahingerafft, weite Regionen ins Elend gestürzt und damit die menschliche Geschichte entscheidend mitgeprägt. Genetische Untersuchungen an Zähnen und Knochen aus historischen «Pestgruben» haben uns ein erstaunlich genaues Bild von den zwei ersten Pandemien gezeichnet. Beide kamen wahrscheinlich aus China und drangen über die Seidenstrasse und über Schiffe nach Westen. Die erste Welle erreichte Konstantinopel unter Kaiser Justinian im Jahre 542 n. Chr., tötete etwa die Hälfte der Bevölkerung Europas und dürfte so den muslimischen Eroberern den Weg geebnet haben. Die zweite Welle erfasste um die Mitte des 14. Jahrhunderts Sizilien und Italien und überrollte ab 1345 von dort aus über Marseille und Norwegen grosse Teile Europas. Der schwarze Tod wütete mit örtlichen Unterbrechungen bis ins 18. Jahrhundert, entvölkerte ganze Landstriche, untergrub die gesellschaftliche Ordnung und führte zu Hungersnot, Judenpogromen und religiöser Hysterie. Auch die dritte grosse Welle hatte ihren Ursprung in China: Sie erfasste 1894 die Provinz Yunnan und erreichte über Hongkong und die Schifffahrtsrouten schnell die ganze Welt.

    Doch nun konnte diese der gefürchteten Krankheit endlich die Stirn bieten. Der aus Aubonne stammende Schweizer Bakteriologe Alexandre Yersin entlarvte den Krankheitserreger mithilfe seines japanischen Mitarbeiters Kitasato Shibasaburō als ein Bakterium, das heute ihm zur Ehre den Namen Yersinia pestis trägt. Bald darauf zeigte es sich, dass das Bakterium bevorzugt wilde Nagetiere und andere Säuger befällt. Infizierte Ratten sind für uns besonders gefährlich, da sie unsere unerwünschten Mitbewohner sind und das Bakterium über Flöhe auf uns übertragen. Was hätte der französische König Philipp VI. wohl für dieses Wissen gegeben, als er im Oktober des Jahres 1348 die medizinische Fakultät der Universität Paris nach der Ursache der Seuche befragte! Er bekam zur Antwort, dass eine Konjunktion der Planeten Saturn, Mars und Jupiter am 20. März 1345 um 13 Uhr eine Korruption der Atmosphäre und damit die Krankheit ausgelöst habe.

    Verbreitung der Pest 1998Abbildung 1. Verbreitung der Pest im Jahre 1998. (Quelle: Centers for Disease Control (CDC), USA)

    Bis heute gibt es keinen wirksamen Impfstoff gegen die Pest, so dass wir darauf angewiesen sind, sie durch Rattenbekämpfung, vorsichtigen Umgang mit Hunden und Katzen sowie strikte Hygiene im Zaum zu halten – und notfalls durch schnelle Diagnose und Antibiotika in die Knie zu zwingen. Dennoch ist Yersinia pestis bei weitem nicht besiegt. Wenn es Flöhe infiziert, blockiert es deren Verdauungstrakt, so dass die Flöhe trotz ausreichender Nahrung Dauerhunger verspüren, unablässig warmblütige Opfer anfallen und dabei einen Teil des in ihnen angestauten infizierten Blutes übertragen. Und wenn Yersinia pestis von den Abwehrzellen unseres Körpers angegriffen wird, spritzt es ihnen ein Gift ein und setzt sie so außer Gefecht. Es ist wohl nur eine Frage der Zeit, bis das Pestbakterium, so wie die meisten Bakterien, allen unseren heutigen Antibiotika trotzt. Bereits 1995 entdeckten Ärzte in einem sechzehnjährigen pestkranken Knaben aus Madagaskar die ersten Pestbakterien, gegen die alle Antibiotika wirkungslos waren. Dieser neue Bakterienstamm hatte sich offenbar DNS (Desoxyriboncleinsäure; DNA)-Stücke einverleibt, die ein Arsenal verschiedener Resistenzgene tragen und in der Natur unablässig zwischen verschiedenen Bakterienarten hin und her springen. Diese wandernden Resistenzgene sind der Grund, weshalb Resistenz gegen ein Antibiotikum sich so rasend schnell verbreiten kann. Sollte es uns nicht gelingen, diese «multiresistenten» Pestbakterien mit einem neuartigen Antibiotikum zu beherrschen, könnten sie zu einer globalen Bedrohung werden. (Zur Verbreitung der Pest im Jahre 1998: siehe Abbildung 1)

    Genetisches Katz-und-Maus-Spiel

    Infektionskrankheiten verursachen immer noch etwa ein Drittel aller menschlichen Todesfälle; allein das Aids-Virus hat in den letzten drei Jahrzehnten mehr als fünfundzwanzig Millionen Todesopfer gefordert*. Und manche Leiden, denen wir bisher andere Ursachen zuschrieben – wie Magengeschwüre, chronische Müdigkeit sowie manche Formen von Krebs und chronischem Asthma – entpuppen sich als Folgen von Infektionen durch Bakterien oder Viren. Zudem haben viele Krankheitserreger gelernt, sich nicht nur in unserem Körper, sondern auch im Inneren unserer Zellen zu vermehren und dafür deren Strukturen und Stoffwechselwege zu missbrauchen. Aber auch unser Körper hat gelernt, sich gegen Krankheitserreger zu wehren. Seine «Polizeizellen» spähen unablässig nach Eindringlingen und versuchen sie zu verspeisen oder mit aggressiven Chemikalien zu zersetzen. Dabei kommen diese Polizisten oft selber ums Leben und enden als grüngelber Eiter.

    Viren und Bakterien verändern unablässig ihr Erbmaterial und schaffen damit neuartige Formen, gegen die unsere Verteidigung versagt. Dabei scheuen sie nicht davor zurück, sich Stücke unseres Erbmaterials einzuverleiben. Auch wir verändern unsere Gene, um uns besser zu verteidigen: Eine erbliche Blutkrankheit ist in Afrika weit verbreitet, weil sie Widerstandskraft gegen Malaria verleiht. Dennoch ziehen wir in diesem genetischen Katz-und-Maus-Spiel unweigerlich den Kürzeren: Unser Erbmaterial hat sich in den letzten sechs bis acht Millionen Jahren um etwa zwei Prozent verändert, doch das Poliovirus schafft dies in nur fünf Tagen. Auch die schnelle Vermehrung und immense Zahl von Bakterien und Viren erklärt, weshalb wir den genetischen Wettlauf mit mikrobiellen Krankheitserregern nie endgültig gewinnen können. – Dennoch ist unser Kampf nicht aussichtslos, denn wir führen ihn nicht nur mit der DNS unserer Gene, sondern auch mit unserem Wissen. Auch dieses ist «genetische Information», die wir vererben und schnell an veränderte Bedingungen anpassen können. Dieses Wissen schenkte uns die moderne Medizin und mit ihr die Antibiotika, von denen wir uns einst das Ende aller Infektionskrankheiten erhofften. Wir vergassen jedoch, dass Antibiotika seit Hunderten von Jahrmillionen in der Biosphäre vorkommen und deshalb Resistenz gegen sie weit verbreitet ist. In der Tat sind die meisten der bisher untersuchten Bodenbakterien gegen sieben oder acht der heutigen Antibiotika unempfindlich. Sie bilden ein schier unermessliches Reservoir an Resistenzgenen, aus dem Bakterien jederzeit schöpfen können.

    Keine «terre des hommes»

    Unsere Erwartung, Infektionskrankheiten mit Antibiotika ein für alle Mal zu besiegen, war die Hybris einer selbsternannten Herrenrasse, die mit Waffengewalt eine biologische Übermacht unterdrücken will. Doch die Natur duldet keine Apartheid. Unsere Heimat ist keine «terre des hommes», sondern ein Planet der Mikroben. Diese haben die Erde Jahrmilliarden vor uns besiedelt und für uns urbar gemacht. Wir haben uns sehr spät in das Netz des Lebens gedrängt und vergessen, dass wir darin nur eine winzige Masche sind. Könnten wir die DNS aller Menschen zu einem einzigen Faden verbinden, wäre dieser zwanzigmal länger als die Entfernung zwischen Erde und Mond. Die DNS aller Mikroben ergäbe jedoch einen Faden, der wahrscheinlich das gesamte Universum durchspannen würde. Gegen dieses in zahllosen mikrobiellen DNS-Fäden brodelnde, sich unablässig wandelnde biologische Wissen müssen wir uns behaupten. Vertrauten wir dabei allein unseren Genen, wären wir bald wieder kulturlose Tiere – oder vom Erdboden verschwunden. Nur unser wundersames Gehirn ist flink und erfindungsreich genug, um unsere biologischen Feinde in Schach zu halten und unserer Spezies eine ihrer würdige Zukunft zu sichern.

    *WHO Fact sheet No360, Nov. 2012. http://www.who.int/mediacentre/factsheets/fs360/en/index.html


    Anmerkung der Redaktion

    Zusammen mit anderen Artikeln ist dieser Essay dem Schwerpunktthema Infektionskrankheiten gewidmet. Es ist dabei offensichtlich, daß kontinuierliche Forschung auf höchstem Niveau unabdingbar ist um den Kampf gegen die allgegenwärtigen, sich dauernd verändernden Mikroben bestehen zu können. Einige Beiträge zum Thema virale Infektionen sind kürzlich erschienen - dargestellt von renommierten Experten aus der Sicht ihrer Fachrichtungen:

    Aus der Sicht des Theoretischen Chemikers Peter Schuster: „Letale Mutagenese - Strategie im Kampf gegen Viren“.

    Aus der Sicht des Biochemikers Gottfried Schatz: „Spurensuche – wie der Kampf-gegen-Viren-unser-Erbgut-formte".

    „Unheimliche Gäste — Können Parasiten unsere Persönlichkeit verändern?“

    Aus der Sicht des Virologen Peter Palese: „Influenza Viren – Pandemien: sind universell wirksame Impfstoffe in Reichweite?“


    Weiterführende links

    World Health Organization (WHO):
    http://www.who.int/topics/plague/en/

    Plague Manual: Epidemiology, Distribution, Surveillance and Control (50 p) http://who.int/csr/resources/publications/plague/whocdscsredc992a.pdf

    http://www.who.int/mediacentre/factsheets/fs360/en/index.html

    http://thoughteconomics.blogspot.ch/2013/02/fighting-hiv-aids-globally.html

    Zahlreiche YouTube-Videos sind empfehlenswert:

    Generell zu Infektionskrankheiten:

    Dokumentation - Die Rückkehr der Seuchen 43:52 min (Fehler: Rinderwahnsinn wird nicht durch Viren verursacht, sondern durch Prionen, d.s. infektiöse Proteine) http://www.youtube.com/watch?v=8jDcQ9SKDLQ


    Zur Pest: Ursachen, Epidemien, Immunität

    Der Schwarze Tod - Pest im Mittelalter DOKU (ZDF) Video 42:13 min http://www.youtube.com/watch?v=jP4Ou03-C04
    Die Pest | Deutsch Doku Universum Dokumentation; 42:37 min http://www.youtube.com/watch?v=DN4aU5Ncwzo


     

    inge Thu, 30.05.2013 - 08:09

    Feierliche Sitzung der Österreichischen Akademie der Wissenschaften (ÖAW): Bilanz mit Licht und Schatten

    Feierliche Sitzung der Österreichischen Akademie der Wissenschaften (ÖAW): Bilanz mit Licht und Schatten

    Fr, 17.05.2013 - 04:20 — Helmut Denk

    Icon Politik & GesellschaftHelmut Denk

    Die österreichische Akademie der Wissenschaften (ÖAW) ist Gelehrtengesellschaft und größter außeruniversitärer Forschungsträger unseres Landes. Im Rahmen der traditionellen Feierlichen Sitzung der ÖAW am 15. Mai 2013 hat der scheidende Präsident der ÖAW, Helmut Denk, über die während seiner Amtsperiode erfolgte Neustrukturierung der ÖAW berichtet: hin zu einer von Administration entlasteten Gelehrtengesellschaft und zu einem modern organisierten, auf Spitzenforschung fokussierten Forschungsträger (Ansprache leicht gekürzt).

     

    Hauptsitz der ÖAWHauptsitz der Österreichischen Akademie der Wissenschaften (erbaut 1755; ehem. Universitätsgebäude; 1010 Wien Dr. Ignaz Seipel-Platz 2)

    Wenn ich auf die vergangenen vier arbeitsreichen Jahre zurückblicke, zeigt sich mir ein vielfältiges Bild mit viel Licht aber auch einigem Schatten. Wie sieht unsere Bilanz nach vierjähriger Amtsperiode aus?

    Wo standen wir bei Amtsantritt im Juli 2009? Was wollten wir erreichen? Was haben wir erreicht? Was bleibt zu tun?

    Die dunklen Wolken der Finanzkrise überschatteten den Beginn unserer Tätigkeit. Die Akademie steckte in den Anfängen eines noch recht zaghaften Reformprozesses. Sie betrieb 64 Forschungseinheiten unterschiedlicher Fachrichtungen und Größe und mit uneinheitlicher Organisation. Personalstand, Budgeterwartungen und Berufungszusagen entsprachen noch den vergangenen „fetteren“ Jahren und mussten nun der finanziellen „Dürreperiode“ angepasst werden. Zahlreiche Gremien, mit beratenden Funktionen und ohne weitere Rechte, zeigten das Bemühen um Steigerung von Expertise und Transparenz. Die Verzahnung der Gelehrtengesellschaft mit dem Forschungsträger in administrativer Hinsicht wurde als Hemmschuh für die zeitgemäße Führung eines großen Forschungsbetriebs empfunden und von Akademiemitgliedern, Mitarbeiterinnen und Mitarbeitern, von Experten aus dem In-und Ausland, dem Rechnungshof und vom Geldgeber als inadäquat und konfliktträchtig kritisiert.

    Somit standen „Sparprogramm“, „Fokussierung“ und „administrative Professionalisierung“ als zu lösende Probleme im Vordergrund. Dies unter der Prämisse, die hervorragende Stellung der ÖAW in der nationalen und internationalen Wissenschaftslandschaft zu erhalten, ja möglichst noch zu verbessern.

    Also Reform!

    Reform ist noch kein Wert an sich, Reform muss richtungsweisend sein, ein Weg, der beherzte Schritte erfordert. Reform bedeutet, heiße Eisen anzufassen. „Never waste a crisis“ hat Ram Emanuel, ein Berater von Barack Obama, einmal gesagt. Krisen treiben Reformen, aber diese Reformen können auch selbst als Krise empfunden werden, bedürfen sie doch schmerzhafter Eingriffe und erzeugen Unsicherheit. Reform im Sinne ständiger Erneuerung ist wahrer Wissenschaft inhärent. Wissenschaft ist revolutionär, stellt Vertrautes in Frage, schafft aber neben Wissen kontinuierlich Unwissen. Die Akademie steht in ständigem Wettstreit. Um ihre Existenz zu rechtfertigen und zu sichern, müssen wir, ohne unsere Wurzeln zu vergessen, den Blick nach vorne richten und stets aufs Neue den geänderten Bedingungen entsprechend handeln.

    Was wollten wir erreichen?

    • Eine von Administration entlastete aktive Gelehrtengesellschaft als beachtete Stimme der Wissenschaft.
    • Einen modern organisierten, auf Spitzenforschung konzentrierten Forschungsträger.
    • Eine Entflechtung von Gelehrtengesellschaft und Forschungsträger in administrativer Hinsicht bei gegenseitiger wissenschaftlicher Befruchtung.

    Was haben wir erreicht?

    • Präzisierung des Kurses der Akademie auf Basis eines mehrjährigen Entwicklungsplans
    • Reorganisation und Fokussierung des Forschungsbereiches
    • Dreijährige Budget- und Planungssicherheit durch die mit dem Bundesministerium für Wissenschaft und Forschung geschlossene Leistungsvereinbarung
    • Budgetkonsolidierung bis Ende 2014
    • Exzellenzsicherung durch ein klar strukturiertes Evaluierungssystem
    • Leistungsgerechte Budgetierung der Institute im Rahmen von Zielvereinbarungen
    • Professionalisierung von Administration und Finanzverwaltung
    • Erweiterte Kompetenzen für Präsidium, Finanzdirektor und Institutsdirektoren
    • Einrichtung eines Akademierats mit Kontroll-, Anhörungs- und Zustimmungskompetenz.

    Wo stehen wir heute?

    Die fachlich breit zusammengesetzte Gelehrtengesellschaft ist legitimiert, autonom Zukunftsthemen zu formulieren, interdisziplinär zu diskutieren und gegenüber der Öffentlichkeit zu vertreten. Die ethischen Aspekte der Wissenschaft dürfen dabei nicht zu kurz kommen. Hohe Priorität gilt daher der Belebung des wissenschaftlichen Diskurses in der Gelehrtengesellschaft. Diesem Ziel dient die Einrichtung von disziplinären Sektionen und von interdisziplinären Kommissionen. In prominent besetzten Symposien und Vorträgen werden wichtige Fragen behandelt, die von personalisierter Medizin über Finanzkrise und Staatsbankrott, Ökosystemprobleme, Migration und Integration, gesellschaftlichen Wandel, Beschäftigungssicherheit, Nationalismus in Südosteuropa bis zur Auseinandersetzung mit unserer eigenen Vergangenheit reichen. Der Synthetischen Biologie ist unser diesjähriges Symposium gewidmet. Die Öffentlichkeit wird zum Dialog eingeladen. Durch die Vernetzung mit ausländischen Akademien und europäischen Akademieverbünden, wie Leopoldina, EASAC und ALLEA, reichen diese Aktivitäten über unsere Grenzen hinaus.

    Innovation wird erst dann wirksam, wenn sie in die eigene Lebenswelt integriert wird. So kann auch Wissenschaftserziehung nicht früh genug einsetzen. Aus Hören, Sehen, Tasten, Erleben und Diskutieren soll Verstehen werden. Durch Vorträge in Schulen, über Internet, Einrichtung von Schülerlaboratorien, Einladung der Jugend zu unseren Vortragsveranstaltungen, aber auch durch Motivierung der Lehrer versuchen wir, diesem Ziel in Zusammenarbeit mit anderen Institutionen näher zu kommen.

    Neustrukturierung des Forschungsträgers

    Mit Dezember 2012 war die Neustrukturierung des Forschungsträgers weitgehend abgeschlossen. Statt 64 Instituten und wissenschaftlichen Kommissionen befinden sich jetzt nur mehr 28 Institute unter unserem Dach. Bestimmend für diese Reduktion war die Konzentration auf Gebiete, in denen eine nationale und internationale Spitzenstellung besteht. Wir konzentrieren uns auf die Biomedizin mit besonderer Berücksichtigung molekularbiologischer Aspekte und personalisierter Medizin, auf Evolutionsbiologie, Quanten-, Hochenergie-, Material- und Weltraumphysik mit technologischen Anwendungsaspekten, angewandte Mathematik, auf Sozialwissenschaften mit Betonung demographischer, juridischer und medienwissenschaftlicher Aspekte, auf Asienwissenschaften, Geschichtswissenschaften sowie auf Fächer, die sich der Interpretation und Wahrung unseres kulturellen Erbes verschrieben haben. Die Grenzen innerhalb der Naturwissenschaften, aber auch zwischen den Natur- und Geisteswissenschaften verschwimmen dabei zusehends.

    Die Umstrukturierung des Forschungsträgers erfolgte

    • einerseits ÖAW- intern durch Bündelung fachnaher Bereiche, vor allem in den Geistes- und Kulturwissenschaften, zu größeren, international besser sichtbaren Instituten.
    • und andererseits durch Übertragungen an Universitäten. Nicht immer ist uns dieser fachlich aber auch budgetär motivierte Transfer leicht gefallen. Das Positive überwiegt: durch die Übertragungen werden Arbeitsplätze erhalten und Forschung und Lehre an den Universitäten gestärkt; die frei werdenden Budgetmittel kommen den verbliebenen ÖAW Instituten zugute. Ich möchte an dieser Stelle dem BMWF und den Universitätsleitungen für die konstruktive Zusammenarbeit danken.

    Neben den naturwissenschaftlichen Schwerpunkten ist die ÖAW traditionell ein Hort der Geistes-, Sozial- und Kulturwissenschaften. Über die Geisteswissenschaften entwickelt die moderne Gesellschaft ein strukturiertes Wissen von sich selbst: Woher kommen wir? Wo stehen wir? Wohin könnten wir gehen? Geisteswissenschaften vertiefen das Verständnis für kulturelle Unterschiede, Verhaltensmuster und soziale und ökonomische Zusammenhänge. Sie tragen damit zum friedlichen Zusammenleben in einer modernen Gesellschaft bei.

    Die Gewinnung der besten Köpfe als Voraussetzung für Spitzenforschung setzt Planungssicherheit voraus. Aus diesem Grund wird derzeit ein neues Karrieremodell erarbeitet. Die Besten ins Boot zu holen, ist nicht einfach; müssen wir doch mit Institutionen im In- und Ausland konkurrieren, die über mehr Finanzmittel und längerfristige Budgetsicherheit verfügen. Trotzdem sind in den letzten Jahren exzellente Berufungen gelungen.

    Entflechtung der Gelehrtengesellschaft und des Forschungsträgers

    Im Oktober 2012 fasste die Gesamtsitzung nach intensiven Vorarbeiten und Diskussionen den Grundsatzbeschluss zur administrativen Entflechtung der Gelehrtengesellschaft und des Forschungsträgers.

    Warum Entflechtung? Die Akademie zieht damit die Konsequenz aus der Erfolgsgeschichte der letzten dreißig Jahre, in denen sie sich von einer Gelehrtengesellschaft mit nur wenigen und kleinen Forschungseinrichtungen in ein Unternehmen mit mehr als 1.300 Mitarbeiterinnen und Mitarbeitern entwickelt hat. Die Entflechtung erleichtert die zeitgemäße Führung des Forschungsträgers und minimiert Interessenskonflikte.

    Warum nicht komplette Trennung? Warum ein gemeinsames Dach?

    In dem gemeinsamen Dach sehe ich das besondere Potential unserer Akademie. Es sichert die Expertise der Gelehrtengesellschaft für den Forschungsträger. Natürlich beruht der wissenschaftliche Fortschritt primär auf der Tätigkeit der Spezialisten in den Instituten. Je höher aber der Grad der Spezialisierung, desto wichtiger ist das Zusammenwirken des spezialisierten Wissens. Innovative Ideen und Problemlösungen entstehen oft an den Schnittstellen traditioneller Fachgebiete. Der Dualismus von Gelehrtengesellschaft und Forschungsträger spielt hier eine wichtige Rolle.

    Wissenschaftliche Exzellenz ist die Voraussetzung für die Errichtung und Weiterführung von Forschungseinheiten. Risikoreiche Grundlagenforschung ohne Erfolgsgarantie bedarf der Finanzierung durch die öffentliche Hand. Dieses Basisbudget wird nun auf Grund von Zielvereinbarungen leistungsgerecht an die Institute vergeben. Dafür wurde in den letzten zwei Jahren ein einheitliches Evaluierungssystem etabliert, das sich an internationalen Vorbildern orientiert. Zusätzlich sind Drittmittel kompetitiv einzuwerben. Dabei sind die meisten ÖAW Institutionen sehr erfolgreich. Mit 16 laufenden Grants des European Research Council mit einem Fördervolumen von >24 Mio. Euro belegt die ÖAW den zweiten Platz in Österreich nach der Universität Wien.

    „I have a dream“: eines Tages wird die Bundesregierung diesen Erfolg durch Verdoppelung der eingeworbenen Drittmittel anerkennen. Damit können wir dem Ziel, aus der Gruppe der „Innovation Followers“ zu den „Innovation Leaders“ in Europa aufzusteigen, näher kommen.

    Der Annäherung von Wissenschaft und Wirtschaft darf sich auch die Akademie nicht verschließen. Innovative, wirtschaftlich verwertbare Produkte setzen Grundlagenforschung voraus. „Anwendungsoffene“ Grundlagenforschung bezieht sich aber nicht nur auf die Zusammenarbeit zwischen Natur- und Ingenieurwissenschaften und Industrie, wie sie das kürzlich eröffnete Christian-Doppler-Laboratorium am Zentrum für Molekulare Medizin praktiziert, sondern schließt auch die Geistes-, Sozial- und Kulturwissenschaften ein. Innovation ist ja nicht nur im technologischen Sinn, sondern umfassender im Sinne intellektueller Kreativität als Basis jeglicher Kultur zu verstehen. Ist nicht auch die Tätigkeit der Gelehrtengesellschaft anwendungsoffen, wenn sie wissenschaftliche Erkenntnisse als Entscheidungshilfe der Gesellschaft vermittelt?

    Ohne Nachwuchs keine Zukunft!

    In der Nachwuchsförderung sieht die ÖAW eine ihrer wichtigsten Aufgaben. Dazu dienen die erfolgreichen Stipendienprogramme und das soeben angelaufene, von der Nationalstiftung finanzierte „New Frontiers Groups“ Impulsprogramm. Damit wird jungen Forschern aus dem In- und Ausland die Möglichkeit geboten, völlig frei ihren innovativen Ideen in einem ÖAW-Institut nachzugehen. Die ersten drei ausgewählten Kandidaten, nämlich eine Frau und zwei Männer, vertreten die Gebiete Mathematik, Molekularbiologie und Hochenergiephysik. Nachwuchsförderung wird auch in unseren Instituten hoch gehalten. Die Institute IMBA und CeMM können stolz sein: sie landeten im Vorjahr im internationalen Ranking in der Spitzengruppe jener Institutionen mit weltweit höchster Attraktivität für Nachwuchswissenschaftler.

    Was bleibt zu tun?

    Am Ende unserer Amtsperiode können wir mit Genugtuung feststellen, dass richtungsweisende Reformen umgesetzt und die Weichen für eine erfolgreiche Zukunft unserer Akademie gestellt sind. Zugegeben, wichtige weitere Vorhaben, die für die Neustrukturierung und Belebung der Gelehrtengesellschaft angedacht wurden, konnten noch nicht konkretisiert werden. Details zur Entflechtung von Gelehrtengesellschaft und Forschungsträger unter einem gemeinsamen Dach harren noch des Feinschliffs.

    Wahre Wissenschaft sprengt Grenzen und dringt in Neuland, in das Unwissen vor. Wie die Wissenschaft selbst erfordert auch die Reform einer Wissenschaftsakademie Einsatzfreude, Kompromissbereitschaft, Frustrationstoleranz, und den Mut, Rückschläge und sogar Scheitern in Kauf zu nehmen. Die Reformschritte müssen dann den Test der Praxis bestehen, nach dem Motto von Gottfried Wilhelm Leibniz, „Theoria cum Praxi“. Ich danke meiner Kollegin und meinen Kollegen im Präsidium, Sigrid Jalkotzy-Deger, Arnold Suppan und Georg Stingl, die sich nicht gescheut haben, mit mir heiße Eisen anzufassen und dafür manche Kritik zu ernten. Zusammenarbeit und die große Unterstützung in schwieriger Zeit; „Viribus unitis“ war unser Leitspruch in den vergangenen Jahren. Meinem Nachfolger Anton Zeilinger danke ich für die Bereitschaft, neben der Würde die Bürde des Amtes auf sich zu nehmen, und wünsche ihm und seinem Team Standfestigkeit und Erfolg.

    Auf Grund persönlicher Erfahrung zitiere ich in diesem Zusammenhang den scheidenden Erzbischof von Canterbury Rowan Williams bei der Amtsübergabe an seinen Nachfolger:

    “You have to preach with the bible in one hand and a newspaper in the other. I would hope that my successor has the constitution of an ox and the skin of a rhinozeros.”


    Information über die ÖAW

    http://www.oeaw.ac.at/


     

    inge Fri, 17.05.2013 - 06:15

    Influenza-Viren – Pandemien: sind universell wirksame Impfstoffe in Reichweite?

    Influenza-Viren – Pandemien: sind universell wirksame Impfstoffe in Reichweite?

    Fr, 10.05.2013 - 04:20 — Peter Palese

    Icon Medizin

    Peter PalesePeter Palese, weltweit einer der renommiertesten Virologen, hat entscheidend zur genetischen Analyse und Aufklärung der Funktion von Genen und Genprodukten der Influenzaviren beigetragen. Die Bausteine dieser Viren verändern sich laufend und führen rasch zur Resistenz gegen aktuell wirksame Grippeimpfungen und Medikamente. Um lebensbedrohende Epidemien durch neue, hochinfektiöse Virenstämme abwehren zu können, erscheint die Entwicklung universell gegen unterschiedliche Stämme einsetzbarer, langfristig – möglicherweise sogar lebenslang – wirksamer Impfstoffe vordringlich. Der folgende Essay ist eine aus Vorträgen und Publikationen Peter Paleses zusammengegestellte und von ihm autorisierte Fassung.

    Virusgrippe – ein enormes Gesundheitsproblem

    Jährlich erkranken Millionen Menschen an der Virusgrippe, der Influenza. Die Folgen können fatal sein, vor allem für Patienten, die dem Erreger keine ausreichende körperliche Abwehr entgegensetzen können. Weltweit sterben jährlich im Schnitt bis zu 500 000 Menschen an der Virusgrippe (nach den Daten von CDC WHO Am. Lung Assoc. sind allein in den US jährlich rund 37 000 Todesfälle und mehr als 200 000 Spitalsaufenthalte auf Virusgrippe zurückzuführen, bei geschätzten Kosten von 37,5 Milliarden $​)

    Im Falle verheerender Epidemien – wie der „Spanischen Grippe“ im Jahre 1918 – können es auch hundert mal so viele sein (Abbildung 1).

    Spansiche Grippe von 1918Abbildung 1. Die “Spanische Grippe” von 1918. An dieser Pandemie (= globalen Epidemie) erkrankten rund 30% der Weltbevölkerung, 50 bis 100 Millionen Menschen starben. (Abbildung: US National Museum of Health and Medicine; Wikimedia)

    Durch Influenza-Viren verursachte Grippe Epidemien stellen nach wie vor ein enormes Gesundheitsproblem dar. Die Bausteine der Viren mutieren laufend: Viren werden gegen heute noch wirksame Medikamente schnell resistent, ebenso gegen momentan angewandte Impfstoffe. Die Impfstoffe müssen daher jährlich, entsprechend den Empfehlungen der WHO [1], speziell den aktuellen (prognostizierten) Erregertypen angepaßt, Grippe-Impfungen im jährlichen Abstand vorgenommen werden. Diese jährliche Prozedur erweist sich als kostspielig, die Einführung der Impfstoffe als aufwendig und zeitraubend. Aber auch die kontinuierlich erfolgende Anpassung kann einem plötzlich auftretenden, in unserer globalisierten Welt sich rasch verbreitenden, neuen Erregertyp nachhinken.

    Das Verstehen der molekularen Grundlagen der Virus-Bausteine und ihrer Funktion, d.h. die Kenntnis darüber, wie sich Viren vermehren und Wirtszellen infizieren, erlaubt erstmals die Entwicklung universell, gegen unterschiedliche Stämme von Influenzaviren wirksamer Impfstoffe in Angriff zu nehmen.

    Das molekulare Make-up der Influenza Viren

    Influenza Viren sind RNA-Viren, d.h. ihre genetische Information liegt in der Ribonukleinsäure – RNA – gespeichert vor und zwar in acht RNA-Segmenten, die je nach Virus Stamm fuer 10-12 Genprodukte kodieren.

    Zwei dieser Genprodukte, die Proteine Hemagglutinin und Neuraminidase bilden an der Oberfläche des Virus einen dichten Rasen von „Spikes“ – diese sind das, was bei einer Infektion unser Immunsystem zu sehen bekommt (Abbildung 2). Hemagglutinin bewirkt das Andocken des Virus an der Wirtszelle und seine Aufnahme ins Zellinnere, das Enzym Neuraminidase die Freisetzung der in der Wirtszelle vervielfältigten Viruspartikel und damit deren Verbreitung innerhalb und außerhalb des befallenen Organismus.

    Elektronenmikroskopie von Influenzavirus-Partikeln Viruspartikel schematisch
    Abbildung 2. Influenza Virus Partikel. Links: Elektronenmikroskopie. Deutlich erkennbar sind die pilzartigen Spikes auf der Zelloberfläche . Rechts: Schematische Abbildung. Im Inneren des Virus ist sein aus acht RNA-Segmenten bestehendes Minichromosom zu sehen, an der Oberfläche die charakteristischen Spikes : Hemagglutinin (HA, blau) und Neuraminidase (NA, rot) (Die Bilder stammen aus: Wikipedia)

    Verglichen mit der infizierten Zelle (Durchmesser rund 10 – 20 Mikrometer) ist das Virus sehr klein (Durchmesser rund 100 Nanometer). Innerhalb von 8 Stunden kann es aber hunderttausende neue Partikel bilden, die „riesige“ Wirtszelle Zelle töten und neue Zellen infizieren.

    Spurensuche – Influenzaviren im letzten Jahrhundert

    Infektionen des Menschen mit Influenzaviren treten in der nördlichen Hemisphäre vorwiegend von November bis März auf und werden vor allem durch das Influenza Virus der Gattung A verursacht. Auch eine Vielzahl an Tierarten – Vögel, Schweine, Pferde, Hunde, Meerestiere, etc. – ist von Influenza A Infektionen betroffen. Influenza A Viren (oder auch einzelne ihrer Gene, z.B. bei „Schweinegrippe“, siehe unten) können dabei auch von einer Spezies auf andere übertragen werden. Infektionen mit Influenza B Virus sind auf den Menschen beschränkt, seltener als Influenza A Infektionen und haben meist einen milderen Verlauf.

    Auf Grund einer hohen Fehlerrate während des Kopiervorgangs (Replikation) der Influenza-Gene entstehen in diesen laufend Punktmutationen, welche ihrerseits zur Mutation einzelner Aminosäuren in den von ihnen kodierten Proteinen führen. Im Falle der immunitätsbildenden Oberflächenproteine, insbesondere im Fall von Hemagglutinin, kann die veränderte Aminosäuresequenz dazu führen, daß es von vormals wirksamen Antikörpern nicht mehr erkannt wird, daß das Virus so der Immunabwehr des Wirtsorganismus entkommen kann. Ein sogenannter ›Antigendrift‹ hat stattgefunden. Die serologische Identifizierung von Influenza A erfolgt auf Grund der Oberflächen-Proteine Hemagglutinin (H ) und Neuraminidase (N). Bis jetzt wurden 17 H-Subtypen (H1 – H17) und 10 N-Subtypen (N1 – N9) klassifiziert, die zu unterschiedlichen Kombinationen führen können (H1N1, H2N2,…). Von besonderer Wichtigkeit erscheint die Frage, welche Veränderungen zu einer erhöhten Pathogenität, zu einer länder- und kontinentübergreifenden Ansteckungsgefahr – einer Pandemie – führen können, mit katastrophalen Folgen wie im Fall der „Spanischen Grippe“ im Jahre 1918.

    Um die Frage beantworten zu können, was die Erreger der „Spanischen Grippe“ von anderen Epidemien-auslösenden Influenzaviren unterschied, wurde das heute nicht mehr vorhandene 1918-Virus rekonstruiert: Als Ausgangsmaterial dienten Proben aus den Lungen damals verstorbener Soldaten, aus denen mit molekularbiologischen Methoden die viralen Gene isoliert, sequenziert und daraus das damalige Influenzavirus rekonstruiert werden konnte. Mit dem wiederhergestellten Virus konnten nicht nur Fragen hinsichtlich der durch einzelne Gene vermittelten Pathogenität geklärt werden, das Virus dient seitdem auch als exzellenter Standard für das Design von Infektionsmodellen.

    Das 1918-Virus gehörte zum H1 Subtyp, dieses Virus wurde 1957 abgelöst durch einen H2 Subtyp („Asiatische Grippe“). Es folgten 1968 ein neuer Subtyp H3 („Hongkong-Grippe“), welcher heute noch vorhanden ist und 1977 ein anderes H1-Virus („Russische Grippe“), welches dem Virus aus den 50er Jahren sehr ähnlich ist. Ein neues Virus des H1N1-Subtyps trat im März 2009 auf („Schweine“- oder „Mexiko“-Grippe), welches eine Pandemie auslöste (bis Juni 2009 bestätigten 105 Länder insgesamt 59814 Fälle und 263 Tote mit dem neuem H1N1-Virus).

    Damit koexistieren drei unterschiedliche humanpathogene Virentypen: die H1- und H3-Subtypen und zusätzlich das Influenza B-Virus. Das erklärt warum aktuelle Grippeimpfstoffe dementsprechend drei unterschiedliche Komponenten aufweisen müssen. Da in jüngster Zeit nun zwei unterschiedliche B-Virusstämme zirkulieren, wird die Vakzine der 2013/2014 Saison aus 4 Komponenten bestehen und zusätzlich zum H1 und H3 Hemagglutinin 2 unterschiedliche B-Virus Hemagglutinine enthalten.

    Ein „historischer“ Überblick über die Influenza A Subtypen in der humanen Bevölkerung ist in Abbildung 3 gegeben. Prävalenz von Influenza A Subtypen im vergangenen Jahrhundert
    Abbildung 3. Prävalenz von Influenza A Subtypen im vergangenen Jahrhundert

    Die 2009 Pandemie (Schweinegrippe)

    Der zuletzt 2009 aufgetretene H1N1-Subtyp ist in mehrfacher Hinsicht ungewöhnlich. Abgesehen von einer verspäteten, sich über das Frühjahr ausbreitenden Pandemie, stammen die 8 Segmente des Minichromosoms aus verschiedenen Influenza-Subtypen: sie sind durch Neukombination – Reassortment – von 5 Gensegmenten der klassischen und Eurasischen Schweinegrippe, 2 Gensegmenten der Nordamerikanischen Vogelgrippe und einem Segment der Hongkong Grippe entstanden. (Ein derartiges Reassortment kann auftreten, wenn die Wirtszelle gleichzeitig mit unterschiedlichen Virustypen infiziert ist.) Abbildung 4A.

    Reassortment der Gensegmente Genetische Distanz zur 1918-Grippe
    Abbildung 4. Virus Influenza A 2009 Subtyp H1N1 (Schweinegrippe). A (links) – Reassortment der Gensegmente und B (rechts) – Genetische Distanz zur 1918-Grippe (rote Linien: prozentuelle Änderung der Aminosäuren-Zusammensetzung des Hemagglutinin)

    Ungewöhnlich erschien auch, daß im Test (Mikroneutralierungs-Test) von Proben junger Menschen unter 24 Jahren die saisonale Grippeimpfung keine Wirkung auf den neuen H1N1-Typ zeigte, bei älteren Populationen über 60 Jahre aber bereits partielle Immunität vorhanden war. Der Grund für diese partielle Immunität konnte damit erklärt werden, daß das für die Immunantwort hauptsächlich verantwortliche Hemagglutinin eine relativ große Ähnlichkeit mit dem Hemagglutinin des 1918-Virus aufweist, das bis in die 1950-Jahre einen großen Teil der älteren Bevölkerung infiziert hatte; diese wiesen offensichtlich noch zirkulierende Antikörper gegen das Virus auf. Der ebenfalls vom 1918-Virus abgeleitete Brisbane H1N1-Subtyp, Grundlage der saisonalen Grippeimpfung 2009, zeigte dagegen eine weitaus größere Veränderung des Hemagglutinins („genetische Distanz“). Die von den Geimpften gegen dieses Hemagglutinin gebildeten Antikörper erkannten das Hemagglutinin der Schweinegrippe nicht und boten somit kaum Schutz vor einer Infektion.

    Daß die 2009 Influenza nicht zu einer ähnlichen Katastrophe wie im Jahre 1918 geführt hat, war im wesentlichen darauf zurückzuführen, daß der neue Subtyp das Virulenz Gen (PB1-F2) des 1918-Virus verloren hatte und, daß bereits am Markt vorhandene Inhibitoren der Neuraminidase (Tamiflu, Relenza) hervorragende Wirksamkeit gegen das Virus zeigten. Es erscheint aber durchaus wahrscheinlich, daß zukünftige Pandemien auch unter wesentlich ungünstigeren Bedingungen ablaufen können, wenn ein neuer, hochvirulenter Erreger gegen vorhandene Medikamente resistent ist und wenn nach seiner Identifizierung es noch viele Wochen oder Monate dauert, bis ausreichend Impfstoff verfügbar wird.

    Wie hoch beispielsweise das Potential des kürzlich in China aufgetretenen Vogelgrippe-Virus H7N9 (nach Angaben der WHO:131 Erkrankungen und 32 Todesfälle seit Ende März 2013) ist eine Pandemie auszulösen, ist schwer zu prognostizieren. Das Virus wird von Geflügel (in welchem es keine Krankheitssymptome hervorruft) auf den Menschen übertragen; für eine Mensch zu Mensch Übertragung gibt es derzeit keine Bestätigung, diese kann aber durch Mutation des Virus hervorgerufen werden und dann zur schnellen Verbreitung führen. Ebenso besitzt auch das seit mehr als zehn Jahren in einigen Geflügelpopulationen zirkulierende und auf den Menschen übertragbare H5N1-Virus (nach Angaben der WHO von 2003 - 2013: 628 Erkrankungen und 374 Todesfälle) pandemisches Potential. Beide Erregertypen sind sensitiv gegenüber den oben erwähnten Inhibitoren der Neuraminidase.

    Um lebensbedrohende Epidemien durch neue, hochinfektiöse Virenstämme abwehren zu können, erscheint die Entwicklung universell gegen unterschiedliche Stämme einsetzbarer, langfristig – möglicherweise sogar lebenslang – wirksamer Impfstoffe vordringlich.

    Neue Technologien und Ergebnisse aus der Grundlagenforschung zeigen die Möglichkeit Hemagglutinin-Antikörper zu generieren, die gegen ein sehr breites Spektrum an Influenza Viren immunisieren und damit vor allem auch dem Ausbruch neuer Pandemien entgegenwirken können.

    Achillesferse des Hemagglutinins

    Hemagglutinin ist derzeit das primäre Zielmolekül (Target) antiviraler Strategien. Gegen dieses, an der Virusoberfläche exprimierte Protein generiert unser Immunsystem die robustesten, neutralisierenden Antikörper als Antwort auf eine natürliche Infektion mit Influenza oder auch auf eine Impfung. Damit wird der primäre Schritt des Anheftens und Eintritts des Virus in die Zelle verhindert:

    Das Hemagglutinin-Molekül ragt als pilzförmiger Spike aus der Virusoberfläche heraus. Die Rezeptor-Region, mit der es an die Oberfläche der Wirtszelle andockt, befindet sich in seinem Kopfteil. Rund um diese Region finden sich mehrere Stellen (Epitope), gegen welche Antiköper generiert werden und so aus sterischen Gründen das Anheften an den Wirt verhindern können (Abbildung 5). Derartige – konventionelle – Antikörper sind allerdings nur gegen den speziellen Erregerstamm hochwirksam, da die Epitope im Kopfteil rasch variieren und bereits geringfügige Änderungen in ihrer Aminosäuren-Zusammensetzung (Antigendrift; siehe oben) bewirken können, daß ein Antikörper nicht mehr „paßt“, d.h. unwirksam geworden ist.

    Reassortment der Gensegmente
    Reassortment der GensegmenteAbbildung 5. Andocken des Influenza A Virus an die Zellmembran einer Wirtszelle. Oben: Bindung des viralen Hemagglutinins (blau) an Kohlehydratreste (hellblau) der Zellmembran des Wirts (rosa). Dunkelrote Spikes an der Virusoberfläche: Neuraminidase. Rechts: „Pilzförmige“ Struktur des Hemagglutinins mit stark variablem Kopfteil (rot eingekreist), an welchem sich die Bindungsstelle für den Wirt befindet, und konservierter Stamm (lila) . (Bilder: http://www.cdc.gov/flu/freeresources/index.htm und Protein databank PDB ID 1RVX)

    Erst vor kurzem wurden beim Menschen nun Antikörper entdeckt, die kreuzreaktiv, d.h. gegen verschiedene Erregertypen, aktiv waren. Untersuchungen ergaben, daß sich diese Antikörper gegen eine, in verschiedensten Virustypen weitgehend konservierte Region des Hemagglutinins richteten, die sich an seinem Stamm befindet (Abbildung 5). In Mäusemodellen konnte gezeigt werden, daß bereits der Stamm – ein synthetisch herstellbares, 60 Aminosäuren langes Peptid – wenn er allein injiziert wird, Immunreaktionen gegen unterschiedliche Erregertypen erzeugte und den andernfalls letalen Ausgang der Infektion verhinderte [2].

    Antistamm-Antikörper könnten somit eine gleichermaßen verwundbare Stelle der (meisten) Influenza Viren darstellen. Die im Menschen beobachteten Antistamm-Antikörper bilden langanhaltende Titer, die offensichtlich durch Infektion (beispielsweise mit dem 2009-Virus) und Impfungen noch verstärkt werden. Die Entwicklung von breitest wirksamen Antistamm-Antikörpern und die Möglichkeit deren Effizienz durch Impfungen noch zu verstärken, könnte damit zu neuen Strategien führen, die nicht nur das Problem der saisonalen Virusgrippe, sondern auch das Risiko neuer gefährlicher Pandemien entscheidend reduzieren [3].


    [1] WHO recommendations for 2012/2013 influenza season in the northern hemisphere. http://www.euro.who.int/en/what-we-do/health-topics/communicable-disease...

    [2] J. Steel et al. (2010) Influenza Virus Vaccine Based on the Conserved Hemagglutinin Stalk Domain. mBio 1(1): doi:10.1128/mBio.00018-10

    [3] M.S.Miller et al., (2013) 1976 and 2009 H1N1 Influenza Virus Vaccines Boost Anti-Hemagglutinin Stalk Antibodies in Humans. JID 207:98-105


    Weiterführende Links

    Zur Wirksamkeit von Grippeimpfungen: siehe https://www.cdc.gov/flu/about/qa/vaccineeffect.htm

    European Centre for Disease Prevention and Control (ECDC): Annual epidemiological report 2012. (PDF – free download; 266 p., in English)

    Influenza - Die Angriffstaktik des Virus 1:25 min Influenza: Get the (Antigenic) Drift 2:52 min WHO: Clinical evaluation of universal influenza vaccines and pipelines for new influenza vaccines. R.C. Huebner (2013) US Dept. Health & Human Services, ASPR (PDF-slide show, in English).

    P.Palese

    Pasteur Award 2012 video 1:4 min The Wiley Influenza Virus, Porcine and Otherwise (2009) video 13:49 min. Influenza Pandemics: Past and Future (2006) video 45:12 min The Pathogenicity of Pandemic Influenza Viruses (2008) video 50:58 min


     

    inge Fri, 10.05.2013 - 04:29

    Spurensuche — Wie der Kampf gegen Viren unser Erbgut formte

    Spurensuche — Wie der Kampf gegen Viren unser Erbgut formte

    Fr, 03.05.2013 - 05:29 — Gottfried Schatz

    Icon BiologieGottfried SchatzInfektionen mit Retroviren haben seit jeher Spuren im Erbgut höherer Organismen hinterlassen. Mit rund 8 % der Sequenzen im menschlichen Erbgut nehmen fossile Überreste von Retroviren wesentlich mehr Raum ein als unsere eigenen Protein kodierenden Gene. Der Kampf gegen diese Eindringlinge, aber auch die Koexistenz mit diesen, hat zur Evolution der Spezies beigetragen.

    Woher kommen wir? Welche geheimnisvolle Kraft schuf die hoch geordnete Substanz, die mich Mensch sein lässt? Die Suche nach den Antworten gebar unsere Mythen, doch heute wissen wir, dass viele Antworten im Erbgut unserer Zellen schlummern.

    Jede meiner Körperzellen besitzt etwa 25 000 Erbanlagen (Gene), die in einer chemischen Schrift auf den fadenförmigen Riesenmolekülen der DNS niedergeschrieben sind. Die Gesamtheit meiner DNS-Fäden ist mein «Erbgut». Könnte ich an meinen DNS-Fäden entlangwandern, träfe ich nicht nur auf meine eigenen Gene, sondern auch auf etwa drei Millionen wahllos verstreute und verstümmelte Gene von Viren, die zusammen fast ein Zehntel meines Erbguts ausmachen. Diese genetischen Fossilien zeugen von erbitterten Kämpfen, die unsere biologischen Vorfahren vor Jahrmillionen gegen eindringende Viren geführt haben. Diese Kämpfe haben das Erbgut unserer Vorfahren aufgewühlt und so vielleicht mitgeholfen, sie zu Menschen zu machen.

    Viren sind keine Lebewesen, sondern wandernde Gene, die sich zu ihrem Schutz mit Proteinen und manchmal auch noch mit einer fetthaltigen Membran umhüllen. Da sie keinen eigenen Stoffwechsel besitzen, müssen sie in lebende Zellen eindringen, um sich zu vermehren. Einige von ihnen – die «Retroviren» – schmuggeln dabei sogar ihr eigenes Erbgut in das der Wirtszelle ein. Wenn diese Zelle sich dann teilt, gibt sie die fremden Gene zusammen mit den eigenen an alle Tochterzellen weiter. Sie kann die fremden Gene jedoch nicht an die nächste Generation des infizierten Tieres oder Menschen weitergeben – es sei denn, sie ist eine Ei- oder Samenzelle. In diesem Fall vererbt sie die eingebauten Virusgene getreulich an die kommenden Generationen, so dass die fremden Gene feste Bestandteile im Erbgut des Organismus werden.Zellinfektion durch Retrovirus, schematisch

    Abbildung 1. Schema: Infektion einer Wirtszelle mit einem Retrovirus. Aufnahme eines Retrovirus in die Wirtszelle, reverse Transkription der viralen RNA in DNA, deren Integration ins Wirtsgenom und Trankription in mRNA, Expression der viralen Proteine ribosomale Proteinsynthese, Assemblierung neuer Viruspartikel und Freisetzung. (Bild modifiziert nach Wikipedia).

    Unterwanderung

    In einer Zelle schlummernde Retroviren sind tickende Zeitbomben. Sie können aus dem Erbgut des Wirts wieder herausspringen und freie Viren bilden, die dann aus der Wirtszelle ausbrechen, in andere Zellen eindringen und sich nun in deren Erbgut einnisten. So folgt ein Infektionszyklus dem anderen. Was bewegt schlummernde Retroviren, plötzlich wieder zu erwachen und zu neuen Eroberungen aufzubrechen? Darüber wissen wir fast nichts. Doch wir wissen einiges darüber, wie wir uns gegen eindringende Retroviren zur Wehr setzen.

    Wie mittelalterliche Städte und Burgen setzen wir dafür mehrere Verteidigungsringe ein. In den äussersten Ringen versuchen wir, das Virus mit unserer immunologischen Abwehr zu überwältigen oder ein Anheften des Virus an unsere Zellen zu verhindern. Versagt diese Abwehr, versuchen wir die Freisetzung der Virusgene aus ihrer Verpackung oder das Einschleusen dieser Gene in unser Erbgut abzublocken. Wenn das Retrovirus auch diese Verteidigungsringe überwältigt hat, bleibt uns nur noch der zermürbende Grabenkrieg: Wir versuchen, die unerwünschten Virusgene Schritt für Schritt zu zerstören. Diese Taktik erfordert zwar Geduld, war aber für unsere Vorfahren und auch für unsere Spezies bisher meist erfolgreich: Nach einer Million Jahren sind von den eingedrungenen Virusgenen gewöhnlich nur noch Bruchstücke übrig, die als genetische Fossilien im breiten Strom unseres Erbguts von Generation zu Generation treiben.

    Unser Erbgut ist also nicht nur Quelle des Lebens, sondern auch ein immenses genetisches Totenhaus. Wenn wir dieses Totenhaus mit den Werkzeugen der Molekularbiologie durchsuchen, lässt es uns tief in unsere Vorzeit blicken und erahnen, welche Kräfte das Erbgut unserer Vorfahren geformt haben. Der Kampf zwischen Zellen und Retroviren tobt seit mehreren hundert Millionen Jahren. Es ist also nicht erstaunlich, dass wir im Erbgut aller Säugetiere so viele fossile Virusreste finden. Der Kampf ist noch nicht entschieden, denn infektiöse Retroviren nisten immer noch im Erbgut fast aller Säugetiere, bis hinauf zu unserem engsten Verwandten, dem Schimpansen.

    Und seit wir eine eigene Spezies sind, ist es mehr als hundert verschiedenen Stämmen von Retroviren geglückt, in unsere Ei- oder Samenzellen einzudringen und unser Erbgut zu unterwandern. Doch wir Menschen scheinen als erste Spezies den Kampf gegen vererbte Retroviren gewonnen zu haben: Alle Virusgene, die wir in unserem heutigen Erbgut ausmachen können, sind mit höchster Wahrscheinlichkeit zu verstümmelt, um wieder infektiöse Viren bilden zu können. Nur bei einem einzigen integrierten Retrovirus sind wir uns nicht ganz sicher, ob es nicht doch in einzelnen Menschen seine Infektionskraft bewahrt hat und Krankheiten verursachen könnte.

    Aber selbst Virusfossilien, die nicht mehr infektiöse Viren bilden können, schlummern nicht immer friedlich. Einige von ihnen, die fast bis zur Unkenntlichkeit verstümmelt sind, springen in unserem Erbgut immer noch ziellos und ohne ersichtlichen Grund von einem Ort zum anderen und hinterlassen dabei bleibende Spuren. Diese Spuren sind – wie so viele andere Spätfolgen eines Krieges – meist schädlich und verursachen etwa 0,2 Prozent aller Mutationen, die unser Erbgut im Laufe unseres Lebens unweigerlich erleidet. In einigen Menschen schädigte eine solche Mutation ein für die Blutgerinnung notwendiges Protein und machte diese Menschen zu «Blutern», für die selbst kleine Wunden lebensbedrohlich sind.

    Waren uns Retroviren nützlich?

    Aber durch springende Virustrümmer verursachte Mutationen können, wie alle Mutationen, gelegentlich auch nützlich sein. Ein springendes Virusfossil landete vor langer Zeit in der Nähe eines Gens, das die Entwicklung menschlicher Eizellen fördert, und erhöhte damit zufällig die Fruchtbarkeit - und so die Chancen für das Überleben - unserer Spezies. Und wenn wir die Angriffe von Retroviren anhand der genetischen Fossilien zurückverfolgen, erkennen wir, dass die plötzliche Entwicklung der Säugetiere vor 170 Millionen Jahren mit einer gewaltigen Invasionswelle von Retroviren einherging. Eine weitere Welle ereignete sich vor 6 Millionen Jahren, kurz bevor wir Menschen uns vom Schimpansen verabschiedeten.

    Diese biologischen Kriegswirren haben die Zellen unserer Vorfahren wahrscheinlich dazu gezwungen, ihr Erbgut auf vielfältige Weise zu verändern, um neuartige Waffen gegen die Eindringlinge zu schmieden. Handelt es sich hier nur um zeitliche Zufälle - oder haben diese Infektionswellen plötzliche Entwicklungssprünge ausgelöst? Könnte es sein, dass Retroviren die Entwicklung unserer menschlichen Spezies gefördert haben? Erfüllen einige dieser verstümmelten Virusgene Aufgaben, von denen wir heute noch nichts wissen? Und sind die Virustrümmer in meinem Erbgut nur überwältigte Eindringlinge – oder ein wichtiger Teil von mir?

     


    Weiterführende links

    Evolutionsbeweis durch endogene Retroviren. Video 8:25 min Dazu die Webseite Evolutionsbeweis durch endogene Retroviren Evolution: Genetic Evidence – Endogenous Retrovirus Video 5:75 min (Englisch) Endogenous Retroviruses: Life-Cycle and Ancestral Implications Video 9:43 min M. Emerman, H.S. Malik (2010) Paleovirology—Modern Consequences of Ancient Viruses. PLOS Biology 8 (2) (PDF – freier Download, Englisch)


     

    inge Fri, 03.05.2013 - 05:29

    Die Rolle des AIT–Austrian Institute of Technology in der österreichischen Innovationslandschaft

    Die Rolle des AIT–Austrian Institute of Technology in der österreichischen Innovationslandschaft

    Fr, 26.04.2013 - 04:20 — Wolfgang Knoll

    Wolfgang KnollaitIm nationalen Kontext ist das AIT, das Austrian Institute of Technology, zwar die größte außeruniversitäre Forschungseinrichtung des Landes; international gesehen ist es mit insgesamt rd. 1.100 MitarbeiterInnen aber ein eher kleines Institut. Mit der Neupositionierung und der Neuorganisation des AIT aus den ARC und dem Forschungszentrum Seibersdorf vor etwas mehr als vier Jahren haben wir damals einen Weg eingeschlagen, der es uns aufgrund einer konsequenten Fokussierung auf wenige Themen ermöglichen soll, internationale Exzellenz und damit eine globale Konkurrenzfähigkeit zu erreichen.

    Durch die Beschränkung auf nur wenige Themenfelder (Abbildung 1) ist der Aufbau einer kritischen Ressourcendichte innerhalb unserer fünf Departments - Energy, Mobility, Health & Environment, Safety & Security sowie Foresight & Policy Development - möglich geworden: im Mittel sind rund 60 Mitarbeiterinnen und Mitarbeiter an jeweils einem der 11 Forschungsthemen beteiligt. AIT – Forschungsschwerpunkte Abbildung 1. Fokussierung auf fünf Forschungsschwerpunkte

    Wir glauben, dass es uns nur so gelingen kann, gemeinsam ein eigenständiges Profil, ein – auch über Österreichs Grenzen weit hinaus sichtbares - Alleinstellungsmerkmal für das AIT und seine Experten als „Ingenious Partners“ zu erarbeiten. Damit ist ein wichtiger Schritt hin zu einer nachhaltigen Wettbewerbs- und damit Zukunftsfähigkeit gelungen.

    Ganzheitliche (systemische) Lösungen in der Wertschöpfungskette

    Ein wichtiges Anliegen unserer Arbeit ist es, mit den Kunden aus der Industrie und der öffentlichen Hand maximal vernetzt zusammen zu arbeiten. Daneben wollen wir uns auf den gesamten Weg der Innovation – entlang der Wertschöpfungskette also von der (wissenschaftlichen) Idee bis zur Markteinführung eines daraus von uns entwickelten technologischen Konzeptes oder praktischen Verfahrens durch unsere Kunden - konzentrieren, also Innovation in allen Belangen von Anfang bis zu Ende denken und begleiten. Dabei steht der systemische Ansatz im Zentrum unserer Arbeit. Ein solch holistisches Konzept für die Erarbeitung von Lösungen für die drängenden Fragen unserer modernen Gesellschaft – den sog. Grand Challenges (Klimawandel, Ressourcenknappheit, Energieeffizienz, Datensicherheit, Alternde Gesellschaft) - wird zunehmend stärker nachgefragt und gewinnt immer mehr an Bedeutung. Dies gilt in gleicher Weise für jene zahlreichen österreichischen Unternehmen, die hochspezialisiert sind und Antworten auf komplexe Fragestellungen benötigen. Ein mittelständisches Unternehmen hat im Normalfall nicht so sehr das „Big Picture“ im Auge. Aber gerade aus unserer Systemkompetenz heraus werden wir hier ein ganz wichtiger Partner und können garantieren, dass sich alle Komponenten, die unsere Kunden - selbst aus dem KMU Bereich - auf den Markt bringen, im Gesamtsystem erfolgreich getestet wurden, verstanden sind und sich auch in der Praxis bewähren werden.

    Beispiele ganzheitlicher Ansätze

    Im Mobility Department z.B. setzen wir auf einen ganzheitlichen Ansatz einer systemischen Betrachtung von Verkehrsinfrastruktur, Transportsystemen und Fahrzeugen. Wir erleben ja täglich, wie vor allem in und um Ballungszentren herum Verkehrsströme an ihre Grenzen stoßen. Unsere Mission ist daher Konzepte zu entwickeln, wie Mobilität in ihrer Gesamtheit neu gedacht und organisiert werden kann. Dabei ist z.B. die E-Mobility ein zentrales Element, aber auch viele andere moderne Technologien, wie z.B. Mobilfunk-Daten-basierte dynamische Transport Modelle für die Flottenlogistik oder für effiziente Krankentransporte können helfen, Lösungen zu erarbeiten.

    Die Informations- und Kommunikationstechnologie (IKT) ist der Innovationsmotor Nummer eins - die Digitalisierung wird im privaten wie im professionellen Leben rasant fortschreiten. In Bereichen wie z.B. dem Gesundheitswesen, dem eGovernment und dem Katastrophenmanagement setzt man zunehmend auf verteilte IKT Systeme. Im selben Ausmaß wie die Nutzung dieser Systeme ansteigt, nimmt auch die Abhängigkeit von der Verfügbarkeit und Sicherheit dieser Systeme und Netze zu. Immer stärkere und häufigere Hackerangriffe auf verteilte IKT Systeme erfordern daher neue Sicherheitskonzepte.

    So ist es auch ein übergeordnete Ziel des Forschungsbereichs „Intelligent Vision Systems“ des Departments Safety and Security am AIT, die stetig steigende Menge z.B. visueller Rohdaten in wertvolle, interpretierbare Information für zukünftige sichere Umgebungen umzuwandeln. Forschung und Entwicklung umfassen dabei die gesamte Kette in der Bildverarbeitung, vom Sensor über die High-Performance Signalverarbeitung und Bildanalyse bis hin zur Benutzerinteraktion und Visualisierung von Ergebnissen.

    Die Entwicklung innovativer Strategien und Konzepte für zukünftige Energiesysteme steht im Fokus eines Forschungsschwerpunkts des AIT Energy Departments. Energiekonzepte für Städte und/oder Regionen werden dabei auf Basis einer integrierten Betrachtung der entsprechenden Energiesysteme entwickelt und stellen ein wissenschaftliches Fundament für Entscheidungsträger dar. Dazu werden Simulationswerkzeuge und -verfahren entwickelt, die speziell auf die Beschreibung und Analyse komplexer Energiesysteme abzielt mit dem Ziel, diese effizienter und nachhaltiger zu betreiben.

    Der Forschungsbereich “Biomedical and Biomolecular Health Solutions“ des Health and Environment Departments adressiert sowohl den steigenden (Preis-) Druck auf das Gesundheitssystem und den demographischen Wandel unserer (alternden) Gesellschaft als auch den Trend in Richtung Individualisierung von Gesundheits-leistungen. Dabei entwickeln wir Technologien und Lösungen, um insbesondere im Bereich der Prävention und Diagnostik einen Mehrwert für den Patienten, unsere Partner in der Industrie und die öffentliche Hand zu generieren. Sensor-, Omics- und Imaging Technologien, Modellierung und Simulation sowie Materialoptimierung sind unsere Kernkompetenzen, die dabei zum Einsatz kommen.

    Einen ähnlich ganzheitlichen Ansatz verfolgen wir auch im Forschungsfeld „Ressource Exploitation and Management“, wo wir an den Systemen Wasser und Boden und an dem Zusammenspiel von Organismen im Boden, Wasser, Pflanzen und Nahrungsmitteln forschen. Dabei werden Technologien und Methoden entwickelt, um die Effizienz in der Nutzung dieser Ressourcen, um die Produktivität bei der Herstellung und die Zuverlässigkeit und Sicherheit für den Verzehr von Lebensmitteln zu steigern.

    Die Akzeptanz und Durchdringung - und damit der Erfolg - zukünftiger Technologien werden maßgeblich durch ein optimales Design und die konsequente Umsetzung von User Interfaces und User Experiences entschieden. Dies gilt auch und im Besonderen für die Technologie-basierten Lösungen, die am AIT für die zentralen Probleme und Herausforderungen im Bereich der Infrastruktursysteme erarbeitet werden: auch in den in unseren (technologischen) Departments adressierten Technologiefeldern stellt diese User-orientierte Betrachtung von Technologiesystemen ein wesentliches Element für die zielgerichtete Realisierung innovativer Lösungen dar und ist deshalb in einem eigenen Geschäftsfeld, „Technology Experience“, im Department Foresight and Policy Development, zusammengefasst.

    Von Grundlagenforschung zur Entwicklung – Kooperationen in der Grundlagenforschung

    Unser Weg, den Innovationsprozess mit Lösungen von der Idee bis zu ihrer Markteinführungen zu begleiten, soll helfen, die Kluft zwischen erfolgreicher Forschung und der Markteinführung der Forschungsergebnisse zu überbrücken, eine Lücke, die im Wesentlichen in allen industrialisierten Ländern als besonders problematisch identifiziert ist: So hat es z.B. auch Hermann Hauser in seinem Beitrag „The Current and Future Role of Technology and Innovation Centres in the UK1“ für Großbritannien beschrieben [2]. Das AIT orientiert sich an diesen Ansätzen und stellt damit für Österreich ein Bindeglied dar, das aus dem wissenschaftlichen und technologischen Knowhow einen maximalen Nutzen für seine Kunden und die Gesellschaft generiert (Abbildung 2). Wir sind derzeit die einzige Einrichtung im österreichischen Innovationssystem, die diese Rolle übernimmt, gleichzeitig von der Regierung und der Industrie beauftragt wird und die Lücke zwischen der Grundlagenforschung und der kommerziellen Verwertung überbrücken hilft. Hauptakteure F&E in Ö Abbildung 2. Die Hauptakteure und ihre Rolle im Forschungs- und Entwicklungsprozeß in Österreich (adaptiert nach [2]). Während sich die Universitäten auf die Grundlagenforschung konzentrieren und die Comet-Kompetenzzentren eher auf die kurzfristige Verwertung gemeinsamer Forschungsergebnisse der Universitäten abzielen, deckt das AIT das gesamte Spektrum ab: vom Engagement in den Emerging Technologies, dem ersten Proof of Concept und der angewandten Forschung bis hin zur Realisierung dieser aufkommenden Technologien im Rahmen spezifischer Anwendungen und Demonstratoren sowie der Entwicklung von Prototypen.

    Um diesem Anspruch gerecht werden zu können, kooperiert das AIT sehr eng mit einer ganzen Reihe von Universitäten im In- und Ausland. In Österreich bestehen z.B. sehr intensive Kontakte zu allen Technischen Universitäten (TU’s), der Universität für Bodenkultur (BOKU), der Universität Wien, der Wirtschafts-Universität Wien, den Medizinischen Universitäten in Wien, Graz und Innsbruck, der Paracelsus Medizinischen Universität (PMU) und Paris Lodron Universität (PLU) in Salzburg, etc. Universitäten stehen ihrem gesellschaftlichen Auftrag gemäß für (forschungsgeleitete) Lehre und sie sind Hauptträger der Grundlagenforschung. Damit nehmen sie – neben den Instituten der Österreichischen Akademie der Wissenschaften (ÖAW) und dem Institute of Science and Technology (IST) Austria - auch in Österreich einen einzigartigen Platz in der Forschungslandschaft ein.

    Für das AIT ist es von essentieller Bedeutung neben dem Aufbau eigener Grundlagen-Forschungskompetenz in seinen ureigenen Themenfeldern langfristige strategische Allianzen mit starken Gruppen an den nationalen, aber auch internationalen Universitäten (ETH, Zürich; MIT, Cambridge; NTU, Singapur; Georgia Tech, Atlanta; etc.) und anderen Forschungseinrichtungen (KIST, Seoul; Beckman, Urbana-Champaign; etc) zu etablieren und eine aktive Zusammenarbeit zu pflegen. Diese vertrauensvolle Partnerschaft ist die Basis auch für die erfolgreiche Einwerbung von Drittmitteln durch entsprechend angelegte strategische Kooperationen. Nur so können wir unsere eigenen Forschungsressourcen optimal einsetzen, Kompetenzen bzw. Forschungserfahrungen austauschen und unserer Verpflichtung bei der Ausbildung höchstqualifizierten Nachwuchses gemeinsam nachkommen. Dabei kann das AIT seine besondere Erfahrung im Bereich industrienaher Forschung auch in die gemeinsame Ausbildung einbringen und damit die Studierenden besser auf ihre berufliche Zukunft in der Industrie vorbereiten.

    Brückenschlag zwischen Forschung und technologischer Vermarktung – Kooperationen mit der Industrie

    Am anderen Ende der Innovationswertschöpfungskette stehen für das AIT die besonders wichtigen strategischen Kooperationen mit den großen Industrie-Playern wie Siemens, IBM, Infineon, AVL, und Magna aber auch mit den großen Infrastrukturbetreibern wie Asfinag, Verbund, ÖBB, Wiener Linien, u.a.. Mit ihnen zusammen entwickeln wir die langfristigen Zukunftskonzepte und arbeiten an Lösungen für die Großen Herausforderungen (Grand Challenges), bereiten wir uns schon heute gemeinsam vor für die technologischen Herausforderungen von morgen („Tomorrow Today“), und helfen damit unseren Partnern, sich auch durch unsere Antworten und Lösungsansätze einen entscheidenden Wettbewerbsvorteil auf den Weltmärkten zu erarbeiten und zu erhalten. Die schon angesprochene Systemkompetenz können wir aber auch nutzen, um KMUs in die Lage zu versetzen, bessere Bauteile, Komponenten und Maschinen zu fertigen und damit erfolgreicher am Markt zu platzieren.

    Dieser direkten, strategisch ausgerichteten und typischerweise langfristig angelegten Kooperation (Zeithorizont: 5 Jahre plus) mit der Industrie vorgeschaltet sind die anwendungsorientierten COMET Programme. In ihnen arbeiten Universitäten, Forschungseinrichtungen und Unternehmen in Kompetenzzentren zusammen, um durch die zeitlich begrenzte gemeinsame Forschungs- und Entwicklungsarbeit (auf der Zeitskala von 2-5 Jahren) an gemeinsam definierten Themen und Programmen ein international konkurrenzfähiges Niveau zu erreichen. Damit stellt diese Plattform auch für das AIT ein attraktives Instrument dar, um entwickelte Technologien und andere Forschungsergebnisse gemeinsam mit Unternehmen zu nutzen (Abbildung 3).

    Positionierung der Akteure in Ö Abbildung 3. Akteure im Forschungs- und Entwicklungsprozeß (R&D-Prozeß) in Österreich

    Seiner Mission entsprechend liegt das AIT mit seinem Finanzierungsmodell sehr ausgewogen zwischen einer Finanzierung durch die öffentliche Hand und einer durch Forschungsaufträge. Unser Auftrag ist es, eine 40:30:30 Finanzierung, also 40% Basisfinanzierung durch den Bund, 30% durch öffentlich geförderte kompetitiv eingeworbene Forschungsmittel, z.B. aus den EU- oder den nationalen Förderprogrammen, sowie 30% durch direkte F&E Aufträge, eingeworben aus Wirtschaft und Industrie, umzusetzen.

    Ausblick

    Das AIT hat sich in den wenigen Jahren seit seiner Neuausrichtung 2009 zu einem gefragten F&E-Partner im In- und Ausland entwickelt. Bei vielen unserer Forschungsthemen spüren wir die stark steigende Nachfrage nach unserer (systemischen) Lösungskompetenz. Dementsprechend haben wir von unseren Eigentümern (dem Bund mit 50.46% und dem Verein zur Förderung von Forschung und Innovation der Industriellenvereinigung mit 49.54%) für die nächsten Jahre einen Wachstumsauftrag erhalten, um spezielle Themenbereiche weiter ausbauen und stärken zu können. Damit soll die erreichte Position des AIT innerhalb der nationalen Innovationslandschaft gehalten und ausgebaut werden, aber auch die internationale Sichtbarkeit weiter gestärkt werden. Entsprechend dem aktuellen Stand der Planungen kann für den Strategie-Planungszeitraum 2014-2017 von einem realistisch darstellbaren Wachstum um 20% ausgegangen werden. Diese Größe stellt zwar eine ambitionierte Zielsetzung unter den sich abzeichnenden wirtschaftlichen Bedingungen dar, erscheint jedoch aus der heutigen Position des AIT erreichbar.

    Neben der Erarbeitung der dafür notwendigen finanziellen und räumlichen Ressourcen (wir sind ein Vollkosten-Institut, d.h., unsere Kostenrechnung basiert auf Vollkosten!) müssen wir uns vor allem einer Herausforderung stellen - der Rekrutierung der dafür notwendigen höchstqualifizierten MitarbeiterInnen in einem weltweit gnadenlosen Wettbewerb um die besten Köpfe. Hier kann das AIT nicht alleine erfolgreich sein, dieses Rennen ist nur in engster Abstimmung und strategischer Partnerschaft mit den Universitäten und den anderen Einrichtungen der Grundlagenforschung zu gewinnen. Das AIT leistet dazu auch einen erheblichen Ausbildungsbeitrag: unsere MitarbeiterInnen halten jährlich etwa 100 Vorlesungen (im Rahmen ihrer Stiftungsprofessuren, als Dozenten nach ihrer Habilitation, oder im Zuge von Lehrbeauftragungen an Universitäten und FHs), geben Vorträge über ihre Arbeit, präsentieren das AIT in Schulen („AIT macht Schule“).

    Neben einer Vielzahl von gemeinsam mit Kollegen an den Universitäten betreuten Einzel-Dissertationen haben wir ein sehr erfolgreiches Master- und Promotionsprogramm im Bereich „Innovation & Sustainability – Knowledge and Talent Development Program“ mit der TU Wien, der WU Wien und der TU Graz entwickelt und haben einen besonderen Akzent im Bereich der Internationalisierung unserer Ausbildungsinitiativen gesetzt durch die Etablierung einer binationalen Graduiertenschule „IGS BioNanoTechnology“ mit der Nanyang Technological University in Singapur (zusammen mit der BOKU und der Uni Wien und der MedUni Wien). Hier spielt das AIT eine Vorreiterrolle bei der Implementierung eines Paradigmenwechsels hin zu einer vernetzten, interdisziplinären und vor allem auch internationalen Ausbildung unseres wissenschaftlichen Nachwuchses als „Global Players“. Nur mit diesen wird das Match zu gewinnen sein – nicht nur für das AIT sondern auch für Österreich!

    [1] http://www.ait.ac.at/ueber-uns/die-rolle-des-ait-bei-innovationen-in-oes... /

    [2] H. Hauser: The Current and Future Role of Technology and Innovation Centres in the UK, Department for Business, Innovation and Skills, March 2010


    Anmerkungen der Redaktion

    Detaillierte Information zum AIT. U.a.:

    Videos sowohl zu aktuellen Forschungsthemen als auch zur Entwicklung des Unternehmens.

    Wissensbilanz Indikatoren 2012 (PDF) AIT-Magazin: TOMORROW TODAY


     

    inge Fri, 26.04.2013 - 04:20

    Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 3)

    Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 3)

    Fr, 19.04.2013 - 04:20 — Gerhard Glatzel

    Icon Wald

    Gerhard Glatzel

    Anm.: »ScienceBlog reloaded« — erster neuer Artikel. Der erste hier im neuen Format erscheinende wissenschaftliche Artikel rundet das hochaktuelle Thema »Biotreibstoff aus dem Wald« ab. Autor ist wieder der renommierte Waldökologe Gerhard Glatzel, der auch den Vorläufer dieses Blogs unter unserer Redaktion ein- und (durch Zufall) vor kurzem auch ausleitete.

    Kann Energie aus Biomasse einen wesentlichen, nachhaltigen Beitrag zur Energiewende leisten? Die Umwandlung von Wäldern in Energieholzplantagen erscheint höchst problematisch. An der Erstellung des richtungsweisenden EASAC policy reports: “The current status of biofuels in the European Union, their environmental impacts and future prospects” des European Academies Science Advisory Council war der Autor maßgeblich (als Experte für Biomasse aus dem Wald) beteiligt1.

    Teil 3: Biotreibstoff aus dem Wald2

    Zurück zur Energie aus Biomasse

    MeilerbetriebMeilerbetrieb in einer Darstellung von 1762 (Quelle: Landesamt für Kultur und Denkmalspflege Mecklenburg-Vorpommern.)

    Holz und die daraus hergestellte Biomasse waren in Österreich bis zur Mitte des 19. Jahrhunderts die einzigen Quellen thermischer Energie für den Bedarf von Gewerbe und Industrie. Wasserkraft, Menschen, Arbeitstiere und in bescheidenem Ausmaß auch Windmühlen leisteten die mechanische Arbeit. Nach einer Statistik des österreichischen Ökologie-Institutes betrug der Energieverbrauch des heutigen Österreich zur Mitte des 19. Jahrhunderts, also vor der Verwendung fossiler Energieträger, etwa 110 pJ (Billiarden Joule), die praktisch zur Gänze durch Biomasse aus dem Wald bereitgestellt wurden. Aktuell beträgt der Energieverbrauch etwas mehr als 1.200 pJ; er ist also um den Faktor 10 größer.

    Neue Energieträger lösen Holz als Quelle thermischer Energie ab

    Fossile Energieträger, zunächst Stein- und Braunkohle, dann Erdöl und Erdgas lösten Holz als Brennstoff rasch ab, und im 20. Jahrhundert ersetzten mit flüssigem Kraftstoff betriebene Motoren die Wasserräder und Dampfmaschinen in Industriebetrieben die menschliche Arbeitskraft und die Arbeitstiere. Die Wasserkraft blieb nur in der Elektrizitätswirtschaft konkurrenzfähig, weil die Energieverteilung in dünnen Drähten unüberbietbare Vorteile bietet. Da nahm man gerne in Kauf, daß sich elektrischer Strom viel schlechter speichern läßt als Holz, Kohle oder Flüssigkraftstoffe.

    Ab der zweiten Hälfte des 20. Jahrhunderts lieferten Kernkraftwerke wachsende Beiträge zur Stromversorgung. In Ländern mit geringem Potential für Wasserkraftanlagen und großer Abhängigkeit von importierten fossilen Energieträgern nahm man die Risiken im Umgang mit radioaktiven Stoffen in Kauf. Erst im 21. Jahrhundert begannen Windkraft- und Solaranlagen nennenswerte Beiträge zum Energiebedarf von Industrieländern zu leisten.

    Der unersättliche Energiehunger der entwickelten Welt und die Zielsetzungen der Energiewende haben auch das Interesse an Bioenergie, also Energie aus pflanzlicher Biomasse, wieder in den Vordergrund gerückt. Theoretisch ist diese Energiequelle CO2-neutral, weil das bei der Verbrennung freigesetzte CO2 beim Wachstum der Pflanzen wieder gebunden wird. Wegen des Energiebedarfs der agrarischen Produktion und der aus Düngemitteln und Prozeßabläufen freigesetzten Treibhausgase wird die CO2-Neutralität oft weit verfehlt.

    Bioethanol als Treibstoff

    Um die Nachfrage nach flüssigen und damit leicht zu lagernden sowie für Kraftfahrzeuge verwendbaren Treibstoffen zu bedienen, setzt man vermehrt auf Bioethanol. Biodiesel erreichte nie besonders hohe Marktanteile, weil er aus Pflanzenfetten gewonnen wird, für die auch sonst gute Nachfrage besteht. Angesichts der Tatsache, daß Bioethanol der ersten Generation (aus Getreide, Zuckerrohr oder Zuckerrüben gewonnener Äthylalkohol) in Europa nicht in ausreichenden mengen erzeugt wird - und angesichts der Konkurrenz zur Nahrungsmittel- und Futtermittelproduktion sowie des in Summe eher bescheidenen Beitrages zum Klimaschutz – wird Alkoholgewinnung aus Nahrungs- und Futtermitteln eher als Sackgasse gesehen. Kritische Stimmen aus der Entwicklungspolitik die vor der Verlagerung von Bioethanolproduktion in Entwicklungsländer warnen, haben die Skepsis gegenüber Bioethanol der ersten Generation noch verstärkt.

    Biotreibstoff aus dem Wald – ein Ausweg oder Holzweg?

    Wegen der Kritik von Bioethanol aus Nahrungs- und Futterpflanzen wird in Brüssel jetzt vehement für Bioethanol der zweiten Generation Lobbying betrieben. Das Bioethanol soll dabei aus der gesamten oberirdischen Biomasse von mehrjährigen Pflanzen gewonnen werden, die nicht als Nahrungs- und Futtermittel dienen.

    Chinaschilf Rutenhirse
    Chinaschilf (links): Wuchshöhe 80 – 200 cm; Rutenhirse (rechts). Wuchshöhe bis zu 250 cm. (Bild: Wikimedia Commons)

    Neben mehrjährigen Gräsern, wie Chinaschilf (Miscanthus sp.) oder Rutenhirse (Panicum virgatum, ein nordamerikanisches Präriegras), sollen vor allem Energieholzplantagen, meist als Ausschlagkulturen von Weiden- und Pappelklonen, den nötigen Rohstoff liefern. Dafür sollen nach den Konzepten der Bioalkoholindustrie bisher als Weide- und Ackerland sowie als Wald genutzte Flächen in Energiepflanzenkulturen mehrjähriger Pflanzen umgewandelt werden. Nur, wenn die Mitgliedsstaaten der EU diesbezüglich regelkonform agieren, können die für E10 benötigten Ethanolmengen in Europa erzeugt werden.

    Es wird gefordert, daß sowohl für die Landwirtschaft als auch für die Forstwirtschaft entsprechende Anreizsysteme geschaffen werden. Diese könnten aus wertgesicherten, langfristigen Absatzgarantien und Steuerbegünstigungen oder Subventionen für die Umwandlung bestehen. Außerdem könnten die Bioethanolwerke die hochmechanisierte Bewirtschaftung der Flächen leisten, sodaß der Grundbesitzer keine Geräte anschaffen müßte und keinen Aufwand für die Bewirtschaftung seines Landes hat. Arbeitsplätze in der Bioethanol-Wertschöpfungskette könnten ein zusätzlicher Anreiz sein.

    Massive Änderungen in der Form der Landnutzung

    Sowohl für Landwirte als auch für Waldbesitzer sind mehrjährige Energiepflanzen-Kulturen eine neuartige Form der Landnutzung. Für den Landwirt ist ein „Fruchtfolgewechsel“ zwischen mehrjährigen Energiepflanzenkulturen und einjährigen Nahrungs- oder Futterpflanzen wegen der unterschiedlichen Produktionszeiträume und der zur Bewirtschaftung benötigten unterschiedlichen Geräte kaum möglich. Mehrjährige Energiepflanzenkulturen bedeuten also de facto, daß Flächen, die bisher der Nahrungs- oder Futtermittelproduktion dienten, in Zukunft den unersättlichen Hunger der Automobile stillen sollen (eine mittlere Tankfüllung entspricht 100 kg Brot).

    Aber auch für den Forstwirt, der traditionell mit langlebigen Holzgewächsen arbeitet, bringt der Umstieg auf Energieholzplantagen-Wirtschaft massive Änderungen. Dabei ist für Waldbesitzer die energetische Nutzung der Biomasse von Wäldern nichts Neues. Vor der Verwendung fossiler Energieträger und industriell hergestellter Chemikalien wurden 80 – 90 % der Biomasse der Wälder nicht als Sägeholz verwendet, sondern als Brennholz, Holzkohle oder als Rohstoff für Gewerbe und Industrie, allen voran als Pottasche für die Glaserzeugung. Daneben wurde Laubstreu vom Waldboden gesammelt und als Einstreu in Ställen verwendet. Stallmist war früher das wichtigste Düngemittel in der Landwirtschaft.

    Als fossile Energieträger Brennholz und Holzkohle vom Markt verdrängten, wurden Forstbetriebe zu Veredelungsbetrieben, die versuchten, möglichst viel des Biomassezuwachses in hochwertige Holzsortimente – vor allem Rundholz für die Sägeindustrie – zu lenken. Heute beträgt der Anteil dieser Sortimente 70 – 80 %. Mit schwächerem Holz wird die Papier- und Zellstoffindustrie bedient, und auch dafür nicht geeignetes Holz wird meist in Form von Hackschnitzeln als Heizmaterial verwendet. Darüber hinaus noch Biomasse zu entnehmen, führt rasch zur Nährstoffverarmung und Bodenversauerung, weil gerade Reisig und Blattmasse die höchsten Gehalte an Pflanzennährstoffen aufweisen. Darüber wußte man bereits im 19. Jahrhundert gut Bescheid3. Auf Grund der geringen Mengen und geringen Lagerungsdichte sowie des Transportes über lange Wegstrecken, ist Restbiomasse aus konventioneller Holzbewirtschaftung keine Option für die Bioethanolindustrie. Auch aus ökologischen Gründen wäre der Entzug von Reisig und Blattmasse sehr bedenklich, weil damit dem Bodenleben die für die Aufrechterhaltung wichtiger Bodenfunktionen unerläßliche Nahrungs- und Energiequellen vorenthalten würden.

    Umwandlung von Wald in Energieholzplantagen?

    Bioethanol der zweiten Generation kann nach gegenwärtigem Wissensstand nicht in Kleinanlagen auf dem Bauernhof oder dezentral im Forstbetrieb hergestellt werden, sondern nur in Großanlagen, die in Plantagen innerhalb eines Umkreises von 20 – 30 km mit Biomasse bedient werden. Das bedeutet, daß Wald in erheblichem Ausmaß in Energieplantagen umgewandelt werden müßte. Wenn die gesetzlichen und finanziellen Rahmenbedingungen stimmen, werden Waldbesitzer vermutlich nicht zögern, von der aufwendigen Wertholzproduktion auf Biomasseplantagen umzusteigen, die sehr einfach maschinell zu bewirtschaften sind. Angesichts der langen Produktionszeiträume der traditionellen Forstwirtschaft von bis zu hundert Jahren werden vielleicht manche Waldbesitzer zögern, ihren Wald in Energieholzplantagen umzuwandeln, weil sie Zweifel haben, daß Energieholzerzeugung für den Bioethanolmarkt auf Dauer profitabler sein wird als Wertholzproduktion. In Wald rückgewandelte Energieholzplantagen liefern nämlich erst nach Jahrzehnten kostendeckende Erträge. Volkswirtschaftlich ist es höchst fragwürdig, von Holz als veredelter Waldbiomasse mit vielfältigem Gebrauchswert und Wertschöpfungspotential in der Verarbeitung auf rohe Biomasse für die Energiewirtschaft umzusteigen, insbesondere dann, wenn öffentliche Mittel eingesetzt werden müssen, um die geringe Wertschöpfung der Produktion zu kompensieren.

    Bioethanolfabriken der zweiten Generation verwenden die gesamte oberirdische Biomasse von Pflanzen und sind damit prinzipiell effizienter als die Anlagen der ersten Generation, die in Mitteleuropa vor allem Getreide oder Zuckerrüben verarbeiten. Ein weiterer, immer betonter Vorteil mehrjähriger Biomassekulturen ist der im Vergleich zu Getreide und Rüben längere Erntezeitraum. Energieholzplantagen können theoretisch das ganze Jahr über genutzt werden. Allerdings ist während des Austriebs der Wassergehalt sehr hoch, und im Winter können Reif und Schnee die Ernte und den Transport erschweren. Der Nachteil von Grasbiomasse und Holzschnitzeln gegenüber Getreide ist, daß diese wegen ihrer geringen Schüttdichte ungleich schwieriger im Ethanolwerk auf Vorrat zu halten sind. Ohne energieaufwendige Trocknung kann sich geschüttetes Hackgut im Freien bis zur Selbstentzündung erhitzen und dabei natürlich erhebliche Mengen an CO2 und anderen Treibhausgasen freisetzen. Ein hinsichtlich des Klimaschutzes möglicher positiver Effekt mehrjähriger Pflanzenkulturen ist die potentiell größere Kohlenstoffspeicherung im Boden. Um die Kohlenstoffsequestrierung umfassend bewerten zu können, muß man allerdings auch die mögliche Ausgasung von Treibhausgasen aus dem Boden unter verschiedenen Boden- und Klimabedingungen erfassen und berücksichtigen.

    Biomasseplantagen müssen wie alle Intensivkulturen gedüngt werden, um die Bodenfruchtbarkeit zu bewahren und hohe Produktivität zu sichern. Energieholzplantagen unterscheiden sich diesbezüglich grundlegend von Wäldern im traditionellen mitteleuropäischen Sinn, die aufgrund des extrem niedrigen Nährstoffgehaltes des Holzes und der langen Umtriebszeiten ohne Dünger auskommen. In Energieholzplantagen werden ungleich höhere Anteile an nährstoffreichen Pflanzengeweben, wie Rinden und Knospen, entzogen. Daher muß gedüngt werden und man kann bei Bioholzplantagen nicht von Wald im traditionellen mitteleuropäischen Sinn sprechen. Es ist also ökologisch sinnvoller und ressourcenschonender, nur die sonst nicht nutzbaren Holzanteile, die bei der Produktion anfallen, direkt thermisch zu nutzen.

    Auswirkungen auf Umwelt und Biodiversität

    Ausgedehnte Änderungen der Landnutzung von traditioneller Land- und Forstwirtschaft zu neuen mehrjährigen Biomassekulturen für die Biospritproduktion haben natürlich erhebliche Auswirkungen auf die Biodiversität. Mehrjährige Gräser (Miscanthus oder Panicum) und Ausschlagplantagen von Weiden oder Pappeln, sind völlig andere Habitate für Wildtiere als konventionelle landwirtschaftliche Felder mit Fruchtwechsel, Weideland oder Hochwald. In großflächigen Monokulturen können Schädlinge und Pflanzenkrankheiten unerwartet zum Problem werden. Mit erheblichen Auswirkungen auf Oberflächen- und Grundwasser ist zu rechnen. Da Pflanzung, Pflege und Ernte der Biomasse hoch mechanisiert sind, müssen sich auch die Menschen in ländlicher Umgebung an die geänderten Arbeitsmöglichkeiten anpassen. Der Transport des Ernteguts auf öffentlichen Straßen ist ein weiterer zu berücksichtigender Aspekt. Natürlich ist auch der Erholungswert der ländlichen Räume von den geforderten Umstellungen betroffen.

    Schlußfolgerungen

    Zusammenfassend meine ich, daß sich die Bioethanolproduktion aus mehrjährigen Biomasseplantagen auf umgewandelten land- und forstwirtschaftlichen als verhängnisvoller Holzweg erweisen wird.

    Solange wir nicht gesamthaft über eine ressourcenschonende Zukunftsentwicklung nachdenken, werden Lobbyisten und Geschäftsleute, die mit dubiosem Klimaschutz und insbesondere mit Emissionshandel viel Geld verdienen, versuchen, die Politik für ihre Zwecke zu beeinflussen. E10 ist ein Beispiel dafür. Insgesamt muß es aber das vorrangige Ziel sein, künftig mit weniger Ressourceninanspruchnahme – von Energie über seltene Erden bis zu Wasser und Boden - auszukommen und knappe Ressourcen klüger zu nutzen. Klare Vorgaben und Grenzwerte würden meiner Meinung nach Innovationen mehr stimulieren als einseitige Fokussierung auf zweifelhaftes „Energiesparen“, auf CO2-Emissionen und auf Emissionshandel.

    Solange wir genug Geld haben, werden wir Energie kaufen und ohne Hemmung für vielfältige Annehmlichkeiten und Nutzlosigkeiten verwenden. Es ist beschämend, daß mehr als eine Milliarde Menschen Hunger leiden, während die Energie- und Agrarpolitik nach Möglichkeiten sucht, die Böden vermehrt für die Erzeugung von Biotreibstoffen auszuquetschen. Und zwar nicht, weil unsere Fabriken zu wenig Energie für die Produktion haben oder, weil wir im Winter frieren, sondern, weil noch mehr Energie für überdimensionierte Autos oder abgehobene Freizeitaktivitäten bereitgestellt werden soll. Wir übersehen dabei geflissentlich, daß Böden eine knappe, nicht beliebig vermehrbare Ressource sind, und daß wir mit der Fokussierung auf Biotreibstoffe nicht nur zum Hunger in der Dritten Welt beitragen, sondern auch in unserer Luxuswelt Verluste an Wasserqualität, Biodiversität und Erholungswert hinnehmen müssen.

    Besonders problematisch ist die Umwandlung von Wäldern. In ihnen wird derzeit – meist sehr umweltschonend – Holz produziert, ein Rohstoff, der für Bauholz, für Möbel, aber auch für Papier und Zellstoff vielfältig verwendbar ist. Wenn wir Waldboden künftig vermehrt für die Bioethanolproduktion nutzen, bedeutet dies letztendlich, daß wir das knapp werdende Holz durch industriell hergestellte Kunststoffe aus Erdöl oder Biomasse ersetzen müssen. Ob dann die Gesamtbilanz hinsichtlich Klimaschutz oder Energieeinsparung dann noch positiv sein wird, darf bezweifelt werden.

    Derzeit versuchen Energiekonzerne sowie die Agrarindustrie und deren Lobbyisten die Politik für gewinnträchtige Bioenergieprojekte zu gewinnen. Ihre Argumente für Klimaschutz , Energiesparen und neue Einkommensmöglichkeiten in ländlichen Räumen sind aber allzu oft nur Feigenblätter, hinter denen sich letztendlich nackte Geschäftsinteressen verbergen.

    Wenn wir unseren Kindern und Enkelkindern nur annähernd so viel hinterlassen wollen, wie wir von unseren Eltern erhielten, müssen wir zu allererst mit unseren Ressourcen sorgfältig und sparsam umgehen. Das gilt nicht nur für die Energie, sondern auch für Boden, Wasser, Luft und Biodiversität. Wir müssen der Politik klarmachen, daß wir ungebremsten Energiekonsum durch kluge Bewirtschaftung beschränken müssen, statt nach alternativen Energiequellen für ungebremst wachsenden Verbrauch Ausschau zu halten. Auch durch Beschränkung können Innovationen stimuliert werden. Ziel muß sein, ein angenehmes Leben mit geringerem Gesamtenergieaufwand zu ermöglichen, anstatt in Technologien für eine intensivere Ausnützung der Landschaft zur Steigerung der Energieerzeugung zu investieren.

    Zu zeigen, daß man auch mit insgesamt geringerem Energiekonsum ein angenehmes Leben führen kann, wäre auch für Schwellen- und Entwicklungsländer ein wichtiges Signal und sicher ein wirkungs- und verantwortungsvollerer Beitrag zum Klimaschutz als Emissionshandel.


    [1] European Academies Science Advisory Council (EASAC): The current status of biofuels in the European Union, their environmental impacts and future prospects. EASAC policy report 19, December 2012. http://www.easac.eu/fileadmin/PDF_s/reports_statements/Easac_12_Biofuels... (free download)

    [2] Der Artikel basiert auf dem gleichnamigen Essay des Autors in: Qualitatives Wirtschaftswachstum – eine Herausforderung für die Welt. (H.Büchele, A. Pelinka Hsg; Innsbruck University Press, 2012), p 27.

    [3] Hausegger S. Intensive Forsthwirtschaft und die Folgen. Österreichische Vierteljahresschrift Für Forstwesen, XI, 1861, S. 88-104 und 248-277.

     


    Anmerkungen der Redaktion

    Teil 1: Energiewende und Klimaschutz und

    Teil 2: Energiesicherheit des Artikels Rückkehr zur Energie aus dem Wald – mehr als ein Holzweg? sind bereits erschienen

    Bioethanol: Äthanol (chem. Formel: C2H5OH), das aus Biomasse oder biologisch abbaubaren Komponenten von Abfällen für die Verwendung als Treibstoff produziert wird. E10: dem Benzin sind 10 Volumsprozent Bioethanol beigefügt.

    Weiterführende Links:

    Zu Teil 2: Energiesicherheit

    Univ.Bodenkultur, Wien: Beitrag des Instituts für Waldökologie zu den Life sciences http://www.wabo.boku.ac.at/fileadmin/_/H91/H912/div/beitrag_cluster.pdf
    und Leistungsprofil http://www.wabo.boku.ac.at/fileadmin/_/H91/H912/div/leistungsprofil.pdf

    D. Lingenhöhl, Noch eine Ohrfeige für die Politik, Spektrum.de 26.07.2012
    http://www.spektrum.de/alias/energiewende/noch-eine-ohrfeige-fuer-die-po...

    World Energy Council: 2010 Survey of Energy Resources (618 pages; 11,7 Mb) http://www.worldenergy.org/documents/ser_2010_report_1.pdf

    2013 World Energy Issues Monitor (40 pages; 3 Mb)
    http://www.worldenergy.org/documents/2013_world_energy_issues_monitor_re...

    Doha Climate Change Conference November 2012 http://unfccc.int/meetings/doha_nov_2012/meeting/6815.php

    Ökosystem Erde: http://www.oekosystem-erde.de/html/system-erde.html

    Leben im Boden Video (Lehrfilm 14:46 min)


     

    inge Fri, 19.04.2013 - 04:20

    ScienceBlog in neuem Gewande — Kontinuität und Neubeginn

    ScienceBlog in neuem Gewande — Kontinuität und Neubeginn

    Fr, 12.04.2013 - 04:20 — Inge Schuster

    Inge Schuster

    Vor rund einundzwanzig Monaten wurde der ScienceBlog als erste österreichische Plattform für Naturwissenschaften ins Leben gerufen. Ab heute erscheint dieser Blog (vormals „www.science-blog.at“) auf einer neuen Website im neuen Design.

    Der Anlaß, der zur Etablierung des ScienceBlogs geführt hat, besteht nach wie vor:

    Der Zustand naturwissenschaftlicher Bildung ist in unserem Land äußerst unbefriedigend. Als logische Konsequenz ergibt sich unzureichendes Verständnis für naturwissenschaftliche Fakten und Problemstellungen, das überdies mit Desinteresse gepaart ist. In unserer modernen Welt bilden aber gerade Verständnis und Wissen über technisch/naturwissenschaftliche Vorgänge nicht nur die Grundvoraussetzung dafür, daß der Einzelne eine für ihn optimale Lebensqualität anstreben kann, sondern auch, daß verantwortungsbewußtes ökonomisches und gesellschaftspolitisches Handeln auf allen Ebenen – von der lokalen bis zur globalen – möglich wird.

    Dementsprechend verfolgen wir unverändert unsere Ziele, nämlich „Laien über wichtige naturwissenschaftliche Grundlagen und Standpunkte zu informieren, deren Grenzen in kritischer Weise abzustecken, Vorurteilen fundiert entgegenzutreten und insgesamt – in Form eines zeitgemäßen Diskussionsforums – das zur Zeit sehr geringe, allgemeine Interesse an Naturwissenschaften zu steigern“.

    Zur Verfolgung dieser Ziele wird der Blog kontinuierlich weitermachen: durch die Vielfalt der Themen, deren Breite und Tiefe und nicht zuletzt den Qualitätsanspruch an Autoren und Inhalte bleiben wir ein Kaleidoskop der Naturwissenschaft.

    Abb.: Kaleidoskop; Artwork von Eric Taylor zum Debut-Album »Blue Siberia« des Rock-Trios »Star FK Radium«. (Lautstärkeregler für Maus im Video.)

    Themen des ScienceBlogs – ein Kaleidoskop der Disziplinen

    Seit dem Start des ScienceBlog sind im wöchentlichen Abstand mehr als neunzig Artikel erschienen, welche in bunter Reihenfolge Themen aus der Mathematik und den unterschiedlichen Naturwissenschaften zuzurechnenden beziehungsweise auf ihnen basierenden Gebieten behandelt haben. Dabei wurde ein weiter Bogen gespannt von Physik über Geowissenschaften, Weltraumforschung, Chemie, Biologie bis hin zur molekularen Pharmakologie und Medizin. Diese bunte Mischung – ein naturwissenschaftliches Kaleidoskop – werden wir beibehalten.Die Trennung in einzelne Disziplinen ist allerdings bereits weitgehend überholt, da viele Gebiete als multidisziplinär anzusehen sind, also ohne Grundlagen und Techniken anderer Disziplinen nicht mehr auskommen können. Beispielsweise ist die moderne Medizin u.a. geprägt von der Suche nach Krankheitsursachen auf der molekularen (d.h. chemisch/molekularbiologischen) Ebene, von der Verwendung physikalischer Techniken zur Sichtbarmachung, Analyse und Diagnose pathologischer Vorgänge und von dem Bedarf an Informatikern, welche die Speicherung und Auswertung der ungeheuren Datenflut erst ermöglichen. Dieser Multidisziplinarität, die sich auch in vielen der bisher erschienenen Artikel gezeigt hat, wird der neue ScienceBlog nun Rechnung tragen, indem zu jedem Artikel die relevantesten Stichworte (keywords) ausgewählt werden, auf deren Vorkommen dann blogweit alle anderen Artikel abgesucht werden können. Da die Umstellung auf diese neuen Möglichkeiten etwas Zeit erfordert, bitten wir um etwas Geduld, bis wir alle bis jetzt erschienenen Beiträge, versehen mit den entsprechenden Ergänzungen, online gestellt haben. Ein wichtiger Aspekt des ScienceBlogs werden auch weiterhin wissenschaftspolitische Themen sein. Nach Möglichkeit werden an der Spitze von Institutionen in Forschung und Lehre stehende Wissenschafter sich mit spezifisch österreichischen Problemen befassen, vor allem mit der Einstellung von Gesellschaft und Politik zu naturwissenschaftlicher Bildung, Forschung und deren Förderung.

    Qualitätsanspruch und Autoren

    Mit seiner die gesamten Naturwissenschaften umspannenden Breite unterscheidet sich unser ScienceBlog grundlegend von anderen (bis jetzt fast ausschließlich ausländischen) Blogs. Diese werden zumeist von einem einzelnen Blogger betreut, beschränken sich damit häufig auf ein einziges Fachgebiet (und weisen inhaltlich sehr variable Qualitäten auf).

    Mit dem Anspruch „höchste Seriosität und erste Qualität“ bieten zu wollen, haben wir einen anderen Weg beschritten, indem wir bis jetzt rund 40 international ausgewiesene, renommierte (größtenteils) österreichische Wissenschafter als Autoren rekrutieren konnten. Deren Beiträge – in leicht verständlicher (deutscher) Sprache abgefaßt – entstammten ihren jeweiligen Kompetenzbereichen, stellen also „Wissenschaft aus erster Hand“ dar.

    Auf diese Weise wird der ScienceBlog weiterhin wichtige Forschungsgebiete auf dem derzeitigen Stand darstellen und dazu weiterführende, seriöse Links anbieten, die ebenfalls leicht verständlich und frei zugänglich (oder von der Redaktion erhältlich) sein werden. Wenn auch von Zeit zu Zeit top-aktuelle Forschungsergebnisse gebracht werden, so kann der ScienceBlog allerdings kein Science-News-Portal sein: bei der Breite der Disziplinen und der enormen Flut an neuen Befunden würde ein kritisches Hinterfragen und Berichten sowohl den Rahmen des Blogs als auch die Möglichkeiten der Betreiber sprengen.

    Resonanz auf den Blog

    Der „ScienceBlog im neuen Gewand“ eröffnet zahlreiche neue Möglichkeiten. Heute möchten wir vor allem darauf hinweisen, daß wir die Beiträge nunmehr beschlagworten und so unterschiedliche Sichtweisen und Blickwinkel der diversen Fachgebiete und Autoren evident werden.

    Die neue Möglichkeit einer gezielten Suche schließt darüber hinaus auch Ihre Kommentare mit ein und erlaubt es blogweit, nach beliebigen Stichworten zu fragen. Für diese Suche werden in Kürze auch alle älteren Beiträge zur Verfügung stehen, die ja praktisch nicht an Aktualität verlieren!

    Die Reichweite des ScienceBlog lag zuletzt (auf der alten Adresse www.science-blog.at) bei mehreren Tausend Besuchern im Monat. Damit erreichten Beiträge eine Leserschaft, die das Fassungsvermögen auch großer Hörsäale überstieg. Der Blog erzielte ein sehr gutes Resultat im Google-Ranking und wurde auf der Webseite einer Reihe renommierter Institutionen gelistet.

    Natürlich hoffen wir an diesen Erfolg anknüpfen zu können, und daß unsere bisherigen Leser auch weiterhin den ScienceBlog besuchen und die Information über den Blog an möglichst viele Interessierte weitergeben. Vor allem aber hoffen wir auch, daß zu den einzelnen Themen rege Diskussionen entstehen, daß Kritik, Fragen, Wünsche und Vorschläge an uns weitergeleitet werden, die zu einem kontinuierlichen Besserwerden des Blogs beitragen.


     

    inge Fri, 12.04.2013 - 04:20

    Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 2)

    Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 2)

    Fr, 04.04.2013 - 04:20 — Gerhard Glatzel

    Icon Wald

    Gerhard GlatzelDer Waldökologe Gerhard Glatzel reflektiert über Klimaschutzpolitik im Allgemeinen, über Energiesparen und über die Rolle von Wäldern als Energiequelle und Kohlenstoffspeicher im Speziellen [1]. Im vorliegenden 2. Teil befasst er sich mit Energiesicherheit statt Klimaschutz und dem Dilemma des Energiesparens.

    Teil 2 - Energiesicherheit

    Paradigmenwechsel nach Fukushima: Energiesicherheit und Verfügbarkeit der Energieträger stehen im Vordergrund

    Die am 11. März 2011 von einem gewaltigen Erdbeben mit nachfolgender Tsunamiflutwelle ausgelöste Nuklearkatastrophe von Fukushima rückte den Ausstieg aus der Atomkraft, als das ursprünglich wichtigste Argument für die Energiewende, wieder in den Vordergrund. Deutschland faßte am 30. Mai 2011, also weniger als drei Monate nach Fukushima, den Beschluß aus der Atomenergie auszusteigen und innerhalb eines Zeitraums von zehn Jahren seine Kernkraftwerke abzuschalten. Für die deutsche Energiepolitik bedeutete die Entscheidung, daß Energieträgerverfügbarkeit sowie Energiesicherheit als Hauptargumente für die Energiewende in den Vordergrund traten und daß das durch ständige Wiederholung abgenutzte Klimaschutzargument in der öffentlichen Diskussion in den Hintergrund geriet. Die Verringerung der Abhängigkeit von den oft aus politisch instabilen Gegenden bezogenen fossilen Energieträgern und den sich insgesamt erschöpfenden Erdöl- und Erdgasvorräten des Planeten gaben der Forderung nach einem Umstieg auf nicht-fossile Energie, insbesondere Solar- und Windenergie, Wasserkraft und Biomasse starken Auftrieb.

    Der durch die Nuklearkatastrophe von Fukushima ausgelöste Schock bot die Gelegenheit, über die Energiefrage hinaus auch wieder über den Umgang mit endlichen und nicht erneuerbaren Ressourcen nachzudenken. Neue Technologien für die Erzeugung, Speicherung und Verteilung von Energie, insbesondere von elektrischem Strom, bauen auf der Verwendung von Metallen auf, die nicht unbegrenzt zur Verfügung stehen und bei verstärkter Nachfrage knapp und teuer werden. Die Lagerstätten dieser Rohstoffe sind meist ungleichmäßig auf unserem Planeten verteilt, so daß sich ähnliche Abhängigkeiten von einzelnen Lieferländern ergeben, wie bei Erdöl und Erdgas.

    Landwirtschaftliche Produkte für die energetische Nutzung

    Ein weiterer wichtiger Aspekt ist die landwirtschaftliche Produktion von Nahrungsmitteln, Viehfutter, pflanzlichen Rohstoffen und Biomasse für die energetische Nutzung.

    Die praktisch unbegrenzte Verfügbarkeit fossiler Energieträger und deren niedrige Preise, die oft noch durch Subventionen aus öffentlichen Mitteln (Agrardiesel) gestützt wurden, haben es erlaubt, die Produktivität durch großzügigen Einsatz des Betriebsmittels Energie zu intensivieren. Zu Buche schlagen sich auch Düngemittel und Agrarchemikalien für den Pflanzenschutz, deren Herstellung oft mit erheblichem Einsatz fossiler Energie erfolgt. Bei uns ist die Energieeffizienz der landwirtschaftlichen Produktion an sich noch immer relativ gut; man muß aber in einer Gesamtbeurteilung auch den Energiebedarf der Vermarktung hinzurechnen. „Just in Time“ und die Bewerbung und Vermarktung von Obst, Gemüse, Milchprodukten und Fleisch für ganze Supermarktketten zu im Voraus fixierten Zeitpunkten bedingt sehr großen Aufwand für Transporte. Für die Endverbraucher ist in vielen Gegenden Nahversorgung eher die Ausnahme als die Regel. Selbst in ländlichen Regionen muß man mit dem Auto zu den Supermärkten fahren, weil in den kleineren Orten die Gemischtwarenhandlungen, die Bäcker und die Fleischer längst zugesperrt haben.

    Kreislaufwirtschaft – Wälder als Vorbild

    Biologischer Landbau, der versucht, Pflanzennährstoffe zu recyceln und auf Agrarchemikalien zu verzichten, ist ein erfolgreicher Ansatz für den schonenden Umgang mit Ressourcen. Vorbild für die Kreislaufwirtschaft sind Wälder, insbesondere tropische Regenwälder. Die aus dem Boden aufgenommenen und in die Baumkronen transportierten Nährstoffe gelangen mit dem Laubfall wieder auf den Waldboden. Dort zersetzen komplexe Lebensgemeinschaften von Insekten, Würmern, Bakterien und Pilzen, um nur einige beteiligte Organismengruppen zu nennen, und die Pflanzennährstoffe werden wieder für die Wurzeln verfügbar. Ein dichter Wurzelfilz sorgt im Verein mit symbiontischen Pilzen – der Mycorrhiza – dafür, daß möglichst wenige Pflanzennährstoffe ausgewaschen werden und dem System verloren gehen (Abbildung).

    Stoffkreislauf

    Abbildung: Stoffkreislauf im Waldökosystem (modifiziert nach Amsel, Sheri: “Ecosystem Studies Activities.” Energy Flow in an Ecosystem. https://www.exploringnature.org/)

    Die Tatsache, daß sich in Waldbächen Fische ernähren können, zeigt, daß der Stoffkreislauf in Waldökosystemen nicht völlig geschlossen ist und Nährstoffe ausgetragen werden. Die geringen Verluste können aber selbst auf den alten und ausgelaugten Böden der Tropenwälder durch Nährstoffeinträge aus Niederschlägen und anderen Quellen ausgeglichen werden.

    Verlagerung von Nährstoffen mit verwehtem Laub oder dem Transport durch Tiere sorgt dafür, daß nicht alle Wälder gleich fruchtbar sind. Daher sind auch Wälder an Unterhängen fruchtbarer als an Oberhängen. Die Wahrscheinlichkeit, daß Laub hangabwärts transportiert wird, ist einfach größer als die der Verlagerung hangaufwärts gegen die Schwerkraft. Wandelt man Tropenwälder in Ackerland um, kommt es ohne Düngung sehr rasch zum Verlust der Bodenfruchtbarkeit, weil ausgelaugte Tropenböden Nährstoffe schlecht speichern oder neu durch Verwitterung zur Verfügung stellen. Die Ernte der Agrarprodukte unterbricht das weitgehend geschlossene Kreislaufsystem der Wälder und schafft ein offenes System, das auf die Ergänzung der bei der Ernte entzogenen Nährstoffe angewiesen ist. Das wußten schon unsere Vorfahren, die Nährstoffverluste durch Düngung mit Stallmist, der oft unter Verwendung der Laubstreu aus Wäldern erzeugt wurde, ausglichen. Bodenversauerung wurde durch Ausbringung von Mergel kompensiert. Die Ausdrücke „Mistvieh“ (ein altes Tier, das nur mehr für die Misterzeugung taugte) und „ausgemergelt“ (mangels Mergelung durch Zufuhr von Mergel – einem kalkhältigen Tongestein – unfruchtbar gewordener Boden) haben sich bis heute, losgelöst von der ursprünglichen Bedeutung erhalten.

    Es ist an dieser Stelle nochmals anzumerken, daß ein weitgehend geschlossener Stoffkreislauf innerhalb eines Ökosystems nicht einem „Nullwachstum“ gleichzusetzen ist. Innerhalb des Systems gibt es Wachstum, erbitterte Konkurrenz, Unterdrückung, Parasitismus und vieles mehr, was wir in der menschlichen Gesellschaft als „Garstigkeit“ ansehen würden, die mit den Menschenrechten nicht zu vereinbaren sind.

    Energie- und Kohlenstoffhaushalt in Wäldern

    Hinsichtlich des Energie- und Kohlenstoffhaushaltes sind aus dem Vergleich mit Wäldern allerdings andere Schlüsse zu ziehen. Kohlenstoff, und damit Energie, wird innerhalb des Waldes nicht im Kreislauf geführt. Kohlenstoff wird beim Abbau der organischen Substanz als CO2 freigesetzt und gelangt in die Atmosphäre, wo es sich verteilt und bis zur Fixierung durch Pflanzen oder in Sedimenten länger verweilt. Die Energie für ihr Wachstum beziehen Bäume von der Sonne. Für das Leben nutzbare Energie können sie nur in ihren lebenden Geweben speichern und nicht aus toter Pflanzenmasse gewinnen.

    Die in der abgestorbenen Biomasse gespeicherte Energie wird von den Bodenorganismen genutzt und ist für diese unersetzbar. Wenn die Lebensbedingungen für die Zersetzer ungünstig sind, sammelt sich tote Biomasse in Wäldern an:

    Ist die Ursache des gehemmten Abbaus Trockenheit, sammelt sich brennbares Material an und der darin gebundene Kohlenstoff wird bei Waldbränden in Form von CO2 in die Atmosphäre freigesetzt.

    Ist Vernässung des Bodens die Ursache, entsteht Torf. Die Kohlelagerstätten – der „unterirdische Wald [2]“ – sind Resultat dieses Prozesses.

    Bei Sauerstoffmangel entsteht beim Abbau der Biomasse auch Methan, ein weiteres sehr wirksames Treibhausgas. Wälder unterscheiden sich von anderen Ökosystemen der Erde auch darin, daß sie besonders große Mengen an Biomasse ansammeln können, also wichtige Kohlenstoff- und Energiespeicher sind. Der Hauptspeicher dabei ist Holz, ein Stoff, der in mehreren hundert Millionen Jahren dauernder Evolution auf hohe Festigkeit, Dauerhaftigkeit und minimale Bindung von Pflanzennährstoffen optimiert wurde. Daher waren Wälder für die meiste Zeit der Menschheitsgeschichte die wichtigsten Energie- und Rohstoffquellen.

    Spare in der Zeit, so hast du in der Not

    Energiesparen ist eine wesentliche Voraussetzung für die Energiewende. Energiesparen dient dem Klimaschutz, und die Abhängigkeit von fossilen Energieträgern wird verringert. Obwohl Energiesparen seit vielen Jahren gefordert und beworben wird, ist der Verbrauch an fossilen Energieträgern im selben Zeitraum nicht wesentlich zurückgegangen, in vielen Ländern sogar gestiegen. Dafür gibt es mehrere Ursachen.

    Zunächst ist der Begriff „Sparen“ schwammig und läßt sich durchaus unterschiedlich interpretieren. Unsere Eltern, die Lehrer in der Schule und auch die Sparkassen haben uns „Spare in der Zeit, so hast du in der Not“ vorgesagt und das fleißige Eichhörnchen als Beispiel gezeigt. Diese Art des Sparens ist auf das Anlegen von Vorräten für schlechtere Zeiten gerichtet. Es ist im Tierreich weit verbreitet, und auch die Menschen konnten den Winter oder Dürreperioden nur überstehen, wenn sie einen Teil der Nahrungsmittel nicht gleich konsumierten, sondern einlagerten. Auch das Geld, das wir auf’s Sparbuch einzahlen, wollen wir später einmal – mit Zinsen – genießen. Diese Art des Sparens ist also nicht Konsumverzicht, den wir in Hinblick auf den Klimaschutz und die Verringerung der Abhängigkeit von fossilen Energieträgern eigentlich erreichen wollen.

    Energiesparen – Auswirkungen auf den Gesamtenergieverbrauch

    Am Beispiel des Energiesparens durch bessere Wärmedämmung von Häusern läßt sich das Dilemma veranschaulichen. Wenn wir unsere Wohnung besser isolieren, sparen wir an der für die Heizung benötigten Energie. Da wir die Energie kaufen müssen, ersparen wir auch Geld. Das ersparte Geld vernichten wir aber nicht, sondern denken über andere Verwendungen nach. Vielleicht könnten wir uns ein größeres Auto leisten oder eine Fernreise oder den Swimmingpool beheizen? Wenn wir das ersparte Geld für den Ankauf eines Ölbildes verwenden, käme das in erster Annäherung tatsächlich einer Verringerung unseres Energiekonsums gleich. Aber was macht der Verkäufer des Ölbildes? Vielleicht kauft er sich ein größeres Auto oder macht eine Fernreise. Solange wir uns durch Energiesparen auch Geld ersparen, wird der Gesamtenergieverbrauch nicht sinken. Das bedeutet natürlich nicht, daß bessere Isolierung von Häusern sinnlos ist. Allein die höhere Sicherheit in Krisenzeiten rechtfertigt den Aufwand. Als Maßnahme zur Senkung des Energieverbrauchs in Österreich taugt bessere Wärmedämmung allerdings kaum. Wenig Energie verbrauchen nur Arme. Das wird besonders deutlich, wenn man den Energieverbrauch in verschiedenen Ländern den Familieneinkommen gegenüberstellt.

    Beim Klimaschutz schlug man einen neuen Weg ein. Im Vergleich zu früheren Maßnahmen des Verhinderung oder Verminderung schädlicher Stoffe in der Atmosphäre, die sich an verbindlichen Grenzwerten orientierten, welche wieder auf Grundlage wissenschaftlicher Erkenntnisse und technischer Machbarkeit definiert und gegebenenfalls nachjustiert wurden, schlug man bei CO2 und anderen Treibhausgasen den Weg des Emissionshandels ein. Damit wurden Grenzwertüberschreitungen nicht grundsätzlich verboten, sondern verursachen nun Kosten, weil Emissionsberechtigungen, die von der EU in einem komplexen Regelwerk definiert werden, gekauft werden müssen. Die erlöse sollen Klimaschutzaktivitäten zufließen. Die Möglichkeit, im Emissionshandel Geld zu verdienen, wurde von Geschäftsleuten rasch erkannt und führte zu einem breiten Angebot an Investitionsmöglichkeiten, für die Lobbyisten und sektorale Interessensvertretungen in Brüssel und in den nationalen Regierungen werben. Besonders erfolgreiche (oder von Lobbyisten erfolgreich vermarktete) Konzepte schaffen die Aufnahme in Empfehlungen oder Richtlinien der EU. Ein bekanntes Beispiel ist E10, ein für Automotoren vorgesehener Kraftstoff, der einen Anteil von 10 % Bioethanol enthält und damit zu den Ethanol-Kraftstoffen zählt. Er wurde 2011 in Deutschland in Zusammenhang mit den Erfordernissen der EU-Biokraftstoffrichtlinie eingeführt, um den fossilen Rohstoffverbrauch und CO2–Emissionen zu reduzieren.Grundsätzliches Problem aller Maßnahmen ist, daß sie als Einzelmaßnahme Senkungen der treibhauswirksamen CO2–Emissionen bewirken, aber im Gesamtkontext der Ressourcen-politik oft nicht evaluiert wurden. E10 erlaubt weiterhin, mit übergroßen Autos zu fahren, weil es keine Grenzwerte für den maximal zulässigen Treibstoffverbrauch pro Personenkilometer gibt. Bekanntermaßen werden die Automotoren zwar effizienter, die Autos selbst aber größer. Bei Biotreibstoffen wurden auch die Auswirkungen auf die Nahrungsproduktion und die Bodennutzung in Entwicklungsländern viel zu wenig berücksichtigt.

    Persönlich sehe ich den Wechsel von Grenzwertregelungen zum Emissionshandelskonzept als bisher schwerste Sünde der Ressourcen-, Umwelt- und Klimaschutzpolitik


    [1] Der Artikel basiert auf dem gleichnamigen Essay des Autors in: Qualitatives Wirtschaftswachstum – eine Herausforderung für die Welt. (H.Büchele, A. Pelinka Hsg; Innsbruck University Press, 2012), p 27.

    [2] Sieferle P. (1989) Der unterirdische Wald. Energiekrise und industrielle Revolution. München.


    Anmerkungen der Redaktion

    Zu Teil 1: Energiewende und Klimaschutz

    Zu Teil 3: Zurück zur Energie aus Biomasse

    Weiterführende Links

    Artikel zu verwandten Themen im Science-Blog:

    inge Thu, 04.04.2013 - 04:20

    Wie Computermethoden die Forschung in den Naturwissenschaften verändern

    Wie Computermethoden die Forschung in den Naturwissenschaften verändern

    Fr, 28.03.2013 - 04:20 — Peter Schuster

    Peter SchusterIcon MINTImmanuel Kant (1786) Metaphysische Anfangsgründe der Naturwissenschaft: „…Ich behaupte nur, daß in jeder besonderen Naturlehre nur so viel eigentliche Wissenschaft angetroffen werden könnte, als darin Mathematik anzutreffen ist. …“

    Bahnbrechende Entwicklungen im 20. Jahrhundert

    Basierend auf außerordentlichen technischen Innovationen im zwanzigsten Jahrhundert haben sich die Methoden in den Naturwissenschaften grundlegend geändert. Neue Techniken haben, aufeinander aufbauend, zu einer Flut an weiteren Entwicklungen und diversesten Anwendungen geführt. Einige der bedeutsamsten neuen Methoden sollen hier in chronologischer Reihenfolge aufgezählt werden:

    1. die Entwicklung hochauflösender spektroskopischer Methoden (beispielsweise Röntgen-, Fluroreszenz-, Kernresonanz-, Elektronenresonanzpektrometrie u.a.) die gleichermaßen ihre Anwendung in der Physik, Chemie und Medizin finden,
    2. die Entwicklung von Mikromethoden zur Bearbeitung und Analyse von (kleinsten) Proben in Physik, Chemie, Biologie und Medizin,
    3. die Revolution in der numerischen Mathematik durch elektronische Rechner (Computer),
    4. die molekulare Revolution in der Biologie, welche vor allem durch neue Techniken zur Sequenzierung von Nukleinsäuren ausgelöst wurde und u.a. zur Sequenzierung des humanen Genoms geführt hat, ebenso wie durch die Kristallisierung von Proteinen, die deren Strukturanalyse und Rückschlüsse auf deren Funktion erlaubte und schließlich durch „lab-on-chip“ Methoden, welche alle Funktionen eines makroskopischen Test-und Analysesystems auf einem nur plastikkartengroßen Chip vereinigen,
    5. die Entwicklung der Computer-unterstützten Quantenchemie (dafür wurde 1998 der Nobelpreis an – den ursprünglich aus Wien stammenden - Walter Kohn und an John A. Pople vergeben),
    6. die Revolution in der Bioinformatik, die mehr und mehr die Beschreibung hochkomplexer Systeme möglich macht und zu einer „Systembiologie“ - d.h. einer holistischen Darstellung der Chemie in der Biologie – führt

    All diesen Techniken und ihren unterschiedlichen Weiterentwicklungen ist gemeinsam, daß sie ohne „wissenschaftliches Rechnen“, das heißt ohne den intensiven Einsatz von Computermethoden, nicht denkbar wären. Auf diese primär in Punkt 3 und 6 genannten Methoden nimmt der gegenwärtige Artikel – entsprechend seinem Titel – Bezug.

    Steigerung von Rechenleistung und Speichervermögen moderner Computer

    Die beobachtete Steigerung von Leistungsfähigkeit und Speichervermögen moderner Computer folgt einer empirischen Regel, die Gordon Moore im Jahr 1965 für integrierte Schaltkreise feststellte und fand, daß sich deren Komplexität bei minimalen Kosten der Komponenten innerhalb von 12 – 24 Monaten verdoppelte. Abbildung 1 zeigt, daß diese Regel auch für die Entwicklung von Computern Gültigkeit hat. Der Zugang zu billiger Rechenleistung ist sehr einfach geworden. Im Jahr 2000 lag die Leistung bereits bei 100 Millionen Rechenoperationen pro Sekunde zu einem Preis von $ 1,0 (Abbildung 1). Dazu kommt, daß auch die technischen Probleme der langfristigen Datenspeicherung gelöst sind. Damit werden nun auch hochkomplexe Rechenprobleme immer mehr zur Routine.

    Moore's law Abbildung 1 Wie sich die Leistungsfähigkeit von Rechnern entwickelte. Adaptation der Moore’schen Regel auf die unterschiedlichen Typen von Rechnern. Zu beachten ist die logarithmische Einteilung der senkrechten Achse: jeweils 100-fache Werte von Teilstrich zu Teilstrich! (Quelle: Ray Kurzweil http://en.wikipedia.org/wiki/Image:PPTMooresLawai.jpg)

    Was aber noch nicht so sehr Eingang in das öffentliche Bewußtsein gefunden hat, ist die enorme Leistungsfähigkeit von rechnerischen Lösungsansätzen, von Algorithmen, welche die Leistungsfähigkeit der Hardware bereits überflügelt haben. (Unter einem Algorithmus versteht man eine aus endlich vielen Schritten bestehende, eindeutige und ausführbare Handlungsvorschrift zur Lösung eines Problems.) Numerische Mathematiker und Algorithmen-Entwickler schaffen hier ein enorm breites Repertoire an Methoden, welche Lösungen für diverseste Probleme bieten, die auf Grund ihrer Komplexität noch vor kurzem als nicht durchführbar angesehen wurden. Hier sollte insbesondere auf die Arbeiten von Bruno Buchberger hingewiesen werden, dem Gründer und Leiter des Research Institute for Symbolic Computation (RISC) an der Johannes Kepler Universität Linz.

    Martin Grötschel, ein deutscher Mathematiker und Experte in Optimierungsfragen an der TU Berlin, hat die Effizienzsteigerung von Computerleistung und Leistungsfähigkeit von Algorithmen am Beispiel eines Modells zur Planung eines Produktionsablaufes aufgezeigt: Wären im Jahr 1988 mit den damaligen Methoden zur Lösung des Problems 82 Jahre vonnöten gewesen, so war der Zeitbedarf 15 Jahre später, im Jahr 2003, bereits auf 1 Minute abgesunken. Zu dieser insgesamt 43-millionenfachen Effizienzsteigerung trug die erhöhte Computerleistung mit einem Faktor 1000 bei, die verbesserten Algorithmen mit einem Faktor 43000.

    Von der qualitativen Beschreibung biologischer Vorgänge…

    Bis in die siebziger Jahre des vergangenen Jahrhunderts war die quantitative, mathematische Beschreibung von chemisch/biochemischen Prozessen – beispielsweise wie einzelne Enzyme funktionieren oder wie ein Biopolymer seine dreidimensionale Struktur ändert - ein zentrales Element in der biowissenschaftlichen Forschung. Um 1950 wurde dann von dem englischen Strukturbiologen W.T. Astbury der Begriff „Molekularbiologie“ geprägt: diese sollte, über die dreidimensionalen Strukturen der Biomoleküle hinaus, die Fragen nach deren Entstehung, Funktionen und Regulation auf immer höheren Organisationebenen, d.h. immer komplexere Lebensvorgänge, einschließen [1].

    Die außerordentlichen Erfolge der Molekularbiologie über mehrere Dekaden hinweg sind unbestritten – eine unvollständige chronologische Aufzählung wichtiger Meilensteine ist in Abbildung 2 dargestellt. Allerdings schloß die Komplexität der Prozesse vorerst eine mathematische Betrachtungsweise und damit eine quantitative Verfolgung über die Zeit hin weitgehend aus.

    Meilensteine in der molekularen Beschreibung biologischer VorgängeAbbildung 2 . Meilensteine in der molekularen Beschreibung biologischer Vorgänge. Genomics: Sequenzierung und Analyse von Struktur und Funktion des gesamten Genoms in einem System. Proteomics: Sequenzierung und Analyse von Struktur und Funktion aller in einem System exprimierten Proteine (incl. aller Modifikationen).

    Ganz im Gegensatz zu den quantitativen Betrachtungsweisen, die in der Chemie und Physik üblich sind, bot die Molekularbiologie damit ein statisches, qualitatives Bild der Natur, basierend auf „Ja / Nein“-Antworten (beispielsweise: zu einem bestimmten Zeitpunkt ist ein Gen exprimiert oder nicht exprimiert). Dementsprechend sind wir es von der Molekularbiologie gewohnt, Strukturen von Molekülen in grob vereinfachten Bildern dargestellt zu sehen, und Funktionen von Molekülen werden mit Hilfe von Cartoons illustriert anstatt durch mathematische Gleichungen beschrieben zu werden.

    Erschwerend kommt dazu, daß eine generell akzeptierte Bezeichnungsweise (Nomenklatur) für die -zigtausend Gene und Genprodukte bislang fehlt: nach wie vor benennen Molekularbiologen neu entdeckte Gene mit willkürlich gewählten Namen, beispielsweise nach den Seiten des Laborjournals oder dem Code des Experiments. Das so entstandene Tohuwabohu an Bezeichnungen macht es selbst für Fachkollegen häufig schwierig den Ausführungen eines Vortragenden zu folgen. Die Molekularbiologie befindet sich hinsichtlich der Nomenklatur noch in einer prä-Linneischen Phase.

    …zur holistischen Beschreibung biologischer Systeme

    Ziel der biologischen Forschung muß es sein, Arten und Organismen als robuste Einheiten – Systeme – zu verstehen, deren Eigenschaften durch die Dynamik der in ihnen auf unterschiedlichen Zeitskalen und in ständigem Austausch von Energie und Material mit der Umgebung ablaufenden Vorgänge geprägt sind. Das Wissen um diese Vorgänge ist gleichzeitig die Basis dafür, daß Voraussagen über das Verhalten eines Systems gemacht werden können, die auch pathologische Fehlfunktionen erklären und zu deren Behebung beitragen können.

    Die Systembiologie will also ein Gesamtbild von den dynamischen Lebensvorgängen und Regulationsvorgängen schaffen: in einer Zellorganelle, einer gesamten Zelle, einem Zellverband, einem gesamten Organismus unter Einbeziehung sämtlicher Ebenen – vom Genom über das Proteom bis hin zu den Regulationsvorgängen kompletter Zellen oder gar einem vollständigen Organismus.

    Worum handelt es sich also, wenn man in quantitativer Weise etwa eine typische Säugetierzelle als biologisches System beschreiben will?

    Eine Darstellung in einem rezenten Nature-Artikel [2] zeigt am Beispiel einer Herzmuskelzelle, welche Komponenten in Betracht gezogen werden müssen:

    • Etwa 20 000 Gene (Genom) werden in mehr als 1 Million unterschiedliche m-RNAs (Transkriptom) und diese in ebenso viele Proteine umgeschrieben.
    • Die Proteine werden dann in verschiedener Weise zu mehr als 10 Millionen Proteinen mit veränderten Eigenschaften und Funktionen modifiziert (Proteom),
    • die nun den Stoffwechsel der Zelle unter Bildung von mehreren tausend unterschiedlichen kleinen Molekülen (Metabolom) regulieren.
    • Zu dem riesigen Datensatz, der die Konzentrationen aller Komponenten zeitabhängig beschreibt (Kinetik der Komponenten), kommen noch die Informationen, welche die Wechselwirkungen zwischen den Komponenten quantitativ zu erfassen versuchen und insgesamt ein enorm komplexes Netzwerk an Regulationsvorgängen ergeben.

    Meilensteine in der molekularen Beschreibung biologischer VorgängeAbbildung 3 . Die Komplexität der Information in einer Säugetierzelle: Vom Genotyp zum Phänotyp. Beschreibung siehe Text. (Quelle: Nature Education [2])

    Primär bedürfen systembiologische Untersuchungen daher einer großangelegten, interdisziplinären Zusammenarbeit, vor allem von Chemikern, Biologen, Medizinern, Mathematikern, Computerwissenschaftern, Systemwissenschaftern und Ingenieuren.

    Wie wird „systembiologisch“ vorgegangen?

    Es müssen vorerst die molekularbiologischen Daten aller Komponenten auf allen Organisationsebenen erhoben und die dynamischen Wechselwirkungen der Komponenten untereinander analysiert werden und dann die enorme Datenmenge durch präzise mathematische Modelle quantitativ beschrieben werden. Das zentrale Element systembiologischer Arbeiten ist dabei ein iterativer Prozeß zwischen Laborexperiment und Computer-Modellierung, der in Abbildung 4 in grober Vereinfachung dargestellt ist: experimentell erhobene Daten werden anhand entsprechender mathematischer Modelle analysiert, mit Hilfe der neu gewonnenen biologischen Information werden bestehende Hypothesen erweitert/verändert, diese durch geeignete experimentelle Ansätze geprüft, anhand von Modellen analysiert, die bestehenden Hypothesen abgeändert usw usf. Der iterative Prozeß in der SystembiologieAbbildung 4. Der iterative Prozeß in der Systembiologie (Beschreibung: siehe Text)

    Ist eine systembiologische Beschreibung komplexer Systeme noch reine Utopie?

    Zweifellos ist dies nicht mehr der Fall. In der kurzen Zeit seit ihren Anfängen hat sich die Systembiologie weltweit zu einer der dynamischsten Forschungsdisziplinen entwickelt und nimmt unter diesen bereits eine Spitzenposition ein. Reichlich gefördert, auch von öffentlicher Hand, begeben sich mehr und mehr Forschergruppen in dieses zukunftsträchtige Gebiet und untersuchen unterschiedlichste Systeme – von primitiven Einzellern bis hin zu komplexen Säugerzellen und ganzen Organismen. Um hier nur eine (kleine) Auswahl der Institutionen aufzuzählen:

    In den USA wird Systembiologie u.a. durch das National Institute of Health (NIH) gefördert: die “National Centers for Systems Biology”, sind 15 an den prominentesten Universitäten angesiedelte Institutionen, die sowohl Grundlagen erarbeiten („The quantity and quality of data required for the approaches often challenge current technologies, and the development of new technologies and cross-disciplinary collaborations may be required.“) als auch die unterschiedlichsten Systeme von Hefezellen und Pflanzenzellen bis hin zu einer virtuellen Laborratte systembiologisch untersuchen.

    In Japan wurde bereits im Jahr 2000 das „Systems Biology Institute“ (SBI) von Hiroaki Kitano gegründet – einem der Väter der Systembiologie; dieses untersucht Systeme in Hinblick auf das Design von Pharmazeutika, auf toxikologische Probleme, auf Infektions-ausgelöste Antworten des Wirts u.v.a.m.

    In Europa haben sich sehr viele nationale und internationale systembiologisch arbeitende Gruppen angesiedelt. So gibt es in der Schweiz die „Swiss Research Initiative in Systems Biology“, in der zur Zeit mehr als 1000 Wissenschafter in rund 300 Forschungsgruppen mehr als 1000 Projekte bearbeiten.

    In Barcelona ist eine Gruppe um Luis Serrano mit der systembiologischen Beschreibung eines der einfachsten Organismen, dem Bakterium Mycoplasma pneumoniae beschäftigt: dieses Bakterium ist eine der kleinsten Lebensformen, es wird von einer Minimalausrüstung von nur rund 700 Genen gesteuert (beim Menschen sind es 30 mal so viele), weist aber enorm komplexe Regulationsvorgänge auf.

    Zahlreiche Projekte werden in Deutschland u.a. vom Deutschen Bundesministerium für Bildung und Forschung gefördert – ein halbjährlich erscheinendes Magazin gibt in leichtverständlicher Sprache Auskunft über Initiativen und Fortschritte [3]. Beispielsweise wurde in der Initiative „Hepatosys“ eine virtuelle Leberzelle modelliert, welche breite Anwendungsmöglichkeiten für die Medizin, die Pharmaforschung oder den Bereich Ernährung verspricht [4].

    Transnationale Initiativen in Europa werden u.a. durch die “European Research Area for Systems Biology” – ERASysBio gefördert (beispielsweise untersuchen hier Forschergruppen aus mehreren Staaten gemeinsam "Systems Biology of Microorganisms").

    Ausblick

    Vor 11 Jahren hat der Biologe (und Nobelpreisträger) Sidney Brenner für die Vorgangsweise in der modernen biologischen Forschung die Metapher von Jägern und Sammlern gebraucht [5]: „Im prä-genomischen Zeitalter (Anmerkung: d.i. vor der Sequenzierung menschlichen Genoms im Jahr 2001) hatte man mir beigebracht Jäger zu sein. Ich hatte gelernt, wilde Tiere zu identifizieren, aufzustöbern und zu erlegen. Nun aber sind wir gezwungen Sammler zu sein, alles Herumliegende zusammenzutragen und in Lagerhallen zu speichern. Eines Tages wird hoffentlich jemand kommen, der sämtlichen Mist beseitigt, aber die wesentlichen Befunde behält (die Schwierigkeit liegt darin diese zu erkennen).“

    Das Sammeln hat seit dieser Zeit zugenommen.

    Die enorme Steigerung an Rechnerleistung und an der Leistungsfähigkeit rechnerischer Modelle ermöglicht die Speicherung, Analyse und Bearbeitung ungeheurer Datenmengen. Die quantitative Beschreibung komplexer Lebensformen erscheint nicht mehr als Utopie; es ist aber erst ansatzmäßig möglich die Funktion einfachster zellulärer Netzwerke darzustellen: vergleicht man ein derartiges Netzwerk mit einem Orchester, so sind wohl die enorm zahlreichen Instrumente - Gene, Gen-Transkripte, Proteine und Metaboliten – durch Hochdurchsatz- (high-throughput)- Techniken bestimmt worden, es fehlen aber weitestgehend noch essentielle Angaben zu deren räumlicher und zeitlicher Abstimmung – also die Partitur. Derartige „spatiotemporal maps of molecular behavior” werden von einer Reihe Institutionen, u.a. an den “National Centers for Systems Biology” (siehe oben) erarbeitet.


    [1] WT Astbury (1961) Molecular Biology or Ultrastructural Biology? Nature 17:1124

    [2] G Potters (2010) Systems Biology of the Cell. Nature Education 3(9):33

    [3] systembiologie.de: MAGAZIN FÜR SYSTEMBIOLOGISCHE FORSCHUNG IN DEUTSCHLAND

    [4] Systems Biology - Results, Progress and Innovations from BMBF Funding

    [5] S Brenner (2002) Hunters and gatherers. The Scientist 16(3):14.


    Weiterführende links

    Science Education: Computers in Biology. Website des NIH mit sehr umfangreichen, leicht verständlichen Darstellungen (englisch)

    Mycoplasma: Ein Modellorganismus für die Systembiologie.

    Die virtuelle Leber (Virtual Liver Networks: “The Virtual Liver will be a dynamic model that represents, rather than fully replicates, human liver physiology morphology and function, integrating quantitive data from all levels of organisation”). Englisch.

    Vorträge des Autors auch zu diesem Thema können von seiner Webseite heruntergeladen werden.


     

    inge Thu, 28.03.2013 - 04:20

    Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 1)

    Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 1)

    Fr, 21.03.2013 - 04:20 — Gerhard Glatzel

    Icon Wald

    Gerhard GlatzelAuf Grund des globalen Wachstums der Bevölkerung, des Wirtschaftswachstums, der fortschreitenden Urbanisierung und des steigenden Bedarfs an energieabhängigen Leistungen wird erwartet, daß sich der globale Energieverbrauch bis 2050 verdoppelt. Der Waldökologe Gerhard Glatzel reflektiert über Klimaschutzpolitik im Allgemeinen, über Energiesparen und über die Rolle von Wäldern als Energiequelle und Kohlenstoffspeicher im Speziellen [1].

    Teil 1: Energiewende und Klimaschutz

    Der Begriff „Energiewende“ war der Titel einer vom deutschen Öko-Institut erarbeiteten, wissenschaftlichen Prognose zur vollständigen Abkehr von Kernenergie und Energie aus Erdöl. Das Konzept wurde auch als Taschenbuch veröffentlicht [2]. Ursprünglich war der Ausstieg aus der Kernenergie die vorherrschende Motivation. Mit zunehmenden Erkenntnissen über die Klimaerwärmung wurde das Thema „Klimaschutz“ immer aktueller. Die unausweichliche Erschöpfung fossiler Energiequellen und die Abhängigkeit von Öl- und Gasimporten aus politisch instabilen Weltgegenden sind weitere starke Argumente für die Energiewende.

    Da die Gefahren von Atomkraftwerken in verschiedenen Ländern unterschiedlich dargestellt und wahrgenommen wurden, war es nicht möglich, globale Abkommen über den Ausstieg aus der Kernenergie zu erzielen. Daher wurde die Erderwärmung durch die Emission von Treibhausgasen sehr bald zum beherrschenden Element der Energiewende-diskussion.

    Das Kyoto-Protokoll

    1997 wurde von den Vereinten Nationen das „Kyoto-Protokoll“ (ein Zusatzprotokoll zur United Nations Framework Convention on Climate Change) beschlossen, das alle Vertragspartner verpflichtet, regelmäßige Berichte zu veröffentlichen, in denen Fakten zur aktuellen Treibhausgasemission und Trends enthalten sein müssen. Das Hauptgewicht liegt auf der Reduktion des Ausstoßes von Treibhausgasen, insbesondere von CO2 aus fossilen Energieträgern. Allerdings wurde das Protokoll von einer Reihe von Staaten nicht unterzeichnet oder ratifiziert (darunter die USA, die für etwa ein Viertel der weltweiten CO2–Emissionen verantwortlich sind). Kanada hat sich 2011 aus dem Kyoto-Prozeß zurückgezogen.

    Für jene Teilnehmer, die das Protokoll unterzeichnet und ratifiziert haben, sind die darin festgelegten Ziele bindend. In der Praxis bedeutet das, daß die vereinbarten Ziele eingehalten werden müssen, andernfalls treten Sanktionen in Kraft. Die Kyoto-Staaten haben beispielsweise vereinbart, daß Staaten, die ihre Emissionsziele nicht einhalten, eine doppelte Strafe erhalten: Sie müssen dann nämlich in einem neu vereinbarten Zeitraum nicht nur das alte versprochene Ziel erreichen, sondern ihren Ausstoß darüber hinaus noch um zusätzliche 30 % verringern.

    Bereits am 19. Oktober 2011, hat der österreichische Nationalrat ein Klimaschutzgesetz (Bundesgesetz zur Einhaltung von Höchstmengen von Treibhausgasemissionen und zur Erarbeitung von wirksamen Maßnahmen zum Klimaschutz; BGBl. I Nr. 106/2011) verabschiedet, das den einzelnen Wirtschaftssektoren ab 2012 verbindliche Einsparziele für CO2–Emissionen vorschreibt. Österreich verpflichtet sich, seine Treibhausgasemissionen bis 2012 um 13 Prozent (gegenüber 1990) sowie bis 2020 um 16 % (gegenüber 2005) zu senken.

    Da die in den Kyoto-Prozeß gesetzten Erwartungen hinsichtlich der globalen Verringerung der Emission von Treibhausgasen bislang nicht erfüllt wurden, bemüht man sich auf den UN-Klimakonferenzen neue Ziele zu formulieren sowie neue Mitglieder zu gewinnen und zu bindenden Vorgaben zu verpflichten. Dazu schrieb am 26. November 2011 „Die Presse“ als Schlagzeile auf ihrer Titelseite: „Klimapolitik ist klinisch tot – Die Verhandlungen über ein globales Klimaschutzabkommen stecken in einer Sackgasse. Ein Ausweg ist auch bei der UN-Konferenz in Dubai nicht in Sicht“. Die nächste Klimakonferenz im November 2012 war kaum erfolgreicher: „Die große UN-Klimakonferenz von Doha hat ganz den – geringen – Erwartungen entsprochen, die man in sie gesetzt hat: Als das Treffen am Wochenende zu Ende ging, hatten die teilnehmenden Staaten kaum Fortschritte erzielt. Als Minimalergebnis wurde lediglich das Kyoto-Protokoll, das eigentlich heuer ausgelaufen wäre, bis ins Jahr 2020 verlängert.“(Die Presse, 9. Dezember 2012)

    Dieser irritierende Widerspruch veranlaßt den emeritierten Waldökologen einmal mehr über Klimaschutzpolitik im Allgemeinen, über Energiesparen und über die Rolle von Wäldern als Energiequelle und Kohlenstoffspeicher im Speziellen zu reflektieren.

    Klimaschutz: Faktum – Fiktion – Illusion

    Faktum Klimaerwärmung

    Faktum ist, daß sich unser Planet gegenwärtig in einer Phase markanter Klimaerwärmung befindet und diese mit dem Anstieg der Konzentration von Treibhausgasen in der Atmosphäre aus anthropogenen Quellen, insbesondere aus der Verbrennung fossiler Energieträger sowie aus industriellen und agrarischen Aktivitäten, gut korreliert. Faktum ist auch, daß sich der Kyoto Prozeß bislang als nicht sehr effizient erwiesen hat. Der 17. UN-Klimagipfel in Durban im November 2011 ebenso wie der 18. Klimagipfel in Doha im November 2012, deren Ziel es war, eine wirksame Nachfolgeregelung zum Kyoto-Prozokoll zu finden und global verpflichtende Vorschriften für die Reduktion des Ausstoßes von Treibhausgasen zu beschließen, brachte letztendlich eine weitere Verschiebung. Erst 2015 soll ein Weltklimavertrag erarbeitet werden.

    Fiktion „Leben in Harmonie mit der Natur“

    Fiktion ist, daß es genügen würde, die Klimaerwärmung zu verhindern, um uns und künftigen Generationen ein Leben in Frieden und Wohlstand zu sichern. Eine sehr verbreitete, aber falsche Vorstellung geht vom „Gleichgewicht der Natur“ aus, das durch die industrielle Entwicklung und die damit verbundene Ausbeutung der Natur gestört wurde. Die Meinung, daß sich ohne Störung durch den Menschen in der Natur alles im Gleichgewicht befindet, ist ein naives Idealbild. Auch das „Leben in Harmonie mit der Natur“ ist eine Fiktion romantischer Naturvorstellung. Daß Goethes „Aber die Natur versteht gar keinen Spaß, sie ist immer wahr, immer ernst, immer strenge; sie hat immer recht, und die Fehler und Irrtümer sind die des Menschen“ (Goethe zu Eckermann; Gespräche II) immer wieder zitiert wird, entspricht vermutlich unserem inneren Harmoniebedürfnis. Wir verdrängen dabei, daß alles Leben das Ergebnis von Evolution ist, die auf Selektion durch sich laufend ändernde Bedingungen der unbelebten und belebten Umwelt beruht. Aus Goethes Worten die Vorstellung einer harmonischen, im Gleichgewicht befindlichen Natur abzuleiten, die nur vom Menschen gestört wird, ist ein Trugschluß, der von ihm selbst widerlegt wird: „Gleich mit jedem Regengusse/ Ändert sich dein holdes Tal, / Ach, und in dem selben Flusse / Schwimmst du nicht zum zweitenmal.“ Das auf den griechischen Philosophen Heraklit zurückgeführte „panta rhei“ („alles fließt“) ist eine Metapher für die Prozessualität der Welt. Das Sein ist demnach nicht statisch, sondern als ewiger Wandel dynamisch zu erfassen. Einer der Gründerväter moderner Naturwissenschaft, Gottfried Wilhelm Leibniz (1646 – 1716) betonte in seinen biologischen und geologischen Konzeptionen die Dynamik aller Naturvorgänge.

    Natürlich gibt es in der Natur Lebensgemeinschaften, die uns aus der Zeitperspektive eines Menschenlebens überaus stabil und gefestigt erscheinen. Wir wandern durch denselben Wald, den wir schon als Kinder mit dem Vater besucht haben, und er erscheint uns genau so dicht und grün wie damals. Wenn wir das Glück haben, mehr als tausend Jahre alte Mammutbäume bestaunen zu können, verstärkt sich der Eindruck der Dauerhaftigkeit. Innere Harmonie, nach der wir uns so sehr sehnen, gibt es aber auch in diesen Wäldern nicht. Es herrscht ein gnadenloser Wettbewerb um Ressourcen, es gibt Unterdrückung und Vernichtung. Aber auch als Ganzes sind Wälder nicht unveränderbar stabil, sondern können durch Sturm, Feuer, Lawinen oder Erdbeben, um nur einige der möglichen Umwelteinflüsse zu nennen, zerstört werden. Wir sprechen dann von „Naturkatastrophen“, die den „Waldfrieden“ jäh gestört haben.

    Die Vernichtung bestehender Strukturen bietet aber für viele Lebewesen neue Chancen, und aus dem Wettstreit der Pioniere erwachsen allmählich wieder Wälder, die wir wider besseres Wissen, als ausdauernde Endstadien ansehen. Der Vergleich mit der Geschichte von Imperien drängt sich auf – nach außen mächtig und auf Dauer konzipiert, innen von Machtkämpfen, Ausbeutung und Unterdrückung geprägt, aber in der Realität meist jäh endend und für Neues Platz machend. Auf den Stoffhaushalt von Wäldern werde ich im Zusammenhang mit dem Sparen noch zu sprechen kommen.

    Erhebliche Probleme verursacht für die Klimaschutzdiskussion die vereinfachte Argumentation eines für die künftige Entwicklung der Menschheit unverzichtbaren und daher unbedingt zu erhaltenden Gleichgewichtzustandes. Weil die Klimaforschung in immer größerer Detailliertheit zeigt, daß extreme natürliche Klimaschwankungen in der älteren und jüngeren Vergangenheit relativ häufig waren, wird von vielen Bürgern die gesamte Klimaschutzargumentation (zu Unrecht) angezweifelt. Es rächt sich auch, daß Klimaschutz meist sehr isoliert und singulär existenzbedrohend diskutiert wurde und nicht – im Gesamtkontext aller – die gedeihliche künftige Entwicklung der Menschheit bedrohlicher Limitationen und Gefahren.

    Illusion – einvernehmliche Nutzung von Ressourcen

    Illusion ist die Umsetzbarkeit globaler Vorgaben für Treibhausgasemissionen aus der Nutzung fossiler Energieträger. Während auf Klimakonferenzen über verbindliche Nachfolgeregelungen für das auslaufende Kyoto-Protokoll diskutiert wird, sehen wir im Fernsehen Bilder von der Erschließung der Kohlevorkommen in der Mongolei und in Mosambik sowie den Einsatz von „Hydraulic-Fracturing“ in überaus ergiebigen Shale-Gas-Feldern. Auch im österreichischen Weinviertel wollte die ÖMV Probebohrungen zur Erschließung der dort vorhandenen Schiefergaslager durchführen. „Global Governance“ als Basis für die einvernehmliche und gerechte Nutzung der Umwelt und der Ressourcen der Erde ist noch immer Utopie, wahrscheinlich sogar Illusion.

    Der große oberösterreichische Heimatdichter Franz Stelzhamer (1802 – 1874) hat es vor 150 Jahren auf den Punkt gebracht: „Oana is a Mensch, mehra hans Leit, alle hans Viech.“ (Einer ist ein Mensch, mehrere sind Leute, alle sind Vieh.)


    [1] Der Artikel basiert auf dem gleichnamigen Essay des Autors in: Qualitatives Wirtschaftswachstum – eine Herausforderung für die Welt. (H.Büchele, A. Pelinka Hsg; Innsbruck University Press, 2012), p 27.

    [2] Krause F., Bossel H., Müller-Reißmann K.F.: Energiewende – Wachstum und Wohlstand ohne Erdöl und Uran. Frankfurt am Main, 1980.


    Emer. Univ. Prof. Dr. Gerhard Glatzel war Vorstand des Instituts für Waldökologie an der Universität für Bodenkultur in Wien. Seit 2010 ist er Vorsitzender der IIASA (International Institute for Applied Systems Analysis)-Kommission, 2011 wurde er zum Mitglied der „Biodiversity Targets“ des Science Advisory Council of the European Academies (easac) ernannt.

    Forschungsschwerpunkte: Waldernährung, Waldökosystemdynamik und Sanierung von Waldökosystemen, historische Landnutzungssysteme.


    Weiterführende links:

    Zu Teil 2: Energiesicherheit

    Zu Teil 3: Zurück zur Energie aus Biomasse http://scienceblog.at/r%C3%BCckkehr-zur-energie-aus-dem-wald-%E2%80%94-m...

    World Energy Council: 2010 Survey of Energy Resources (618 pages; 11,7 Mb) 2013

    World Energy Issues Monitor (40 pages; 3 Mb) Doha Climate Change Conference November 2012


     

    inge Thu, 21.03.2013 - 04:20

    Der lebenspendende Strom — Wie Lebewesen sich die Energie des Sonnenlichts teilen

    Der lebenspendende Strom — Wie Lebewesen sich die Energie des Sonnenlichts teilen

    Fr, 14.03.2013 - 04:20 — Gottfried Schatz

    Icon BiologieGottfried Schatz

    Das Licht, das von der Sonne zur Erde gelangt, verwandelt sich zum grössten Teil in Wärme und verlässt früher oder später unseren Globus wieder. Dennoch ist die Sonnenenergie zum lebenspendenden Strom geworden, an dem – über die Nahrungskette - alle teilhaben.

    Edward Munch: Die SonneEdvard Munch: Die Sonne (1910 –13)

    «Die Sonne ging auf bei Paderborn, / Mit sehr verdrossner Gebärde. / Sie treibt in der Tat ein verdriesslich Geschäft – / Beleuchten die dumme Erde!» – Mit diesen Worten aus «Deutschland. Ein Wintermärchen» gibt Heinrich Heine unserer Erde übergrosse Bedeutung, obwohl er in seinem bitteren Versepos sonst nur wenig für sie übrig hat. Die Sonne gönnt uns nur ein Zehnmilliardstel ihres Lichts – und mehr als die Hälfte davon wird dann noch von unserer Lufthülle verschluckt oder in den Weltraum zurückgestrahlt.

    Jeder Quadratmeter Erdoberfläche empfängt im Durchschnitt pro Jahr nur etwa 1700 Kilokalorien Energie in Form von sichtbarem Licht, das sich zum grössten Teil in Wärme verwandelt und früher oder später als infrarote Strahlen die Erde auch wieder verlässt.

    Einfangen der Sonnenenergie

    Dennoch schafften es einzellige Lebewesen bereits vor fast vier Milliarden Jahren, einen kleinen Teil dieser Lichtenergie einzufangen und davon zu leben. Bald lernten andere Lebewesen, sich von diesen Lichtessern – und damit indirekt von der Sonne – zu ernähren. Sonnenenergie wurde zum lebenspendenden Strom, dessen unzählige Verästelungen die Vielfalt des Lebens auf unserem Planeten speisen. Diesem Strom entziehen sich nur urtümliche Einzeller, die tief unter der Erdoberfläche oder im Umfeld vulkanischer Erdspalten leben und geochemische Prozesse als Energiequelle verwenden.

    Energie ist die Fähigkeit, Arbeit zu leisten. Sie lässt sich weder erzeugen noch vernichten, sondern nur von einer Form in eine andere umwandeln: von Licht in Wärme, von Bewegung in elektrischen Strom – und von diesem in fast alle anderen Energieformen. Die Kilokalorie ist als Energiemass zwar offiziell veraltet, in der breiten Öffentlichkeit aber immer noch gebräuchlich. Eine Kilokalorie kann einen Liter Wasser um ein Grad Celsius erwärmen – und uns etwa dreizehn Meter weit laufen oder eine Minute lang leben lassen. Unter der falschen Bezeichnung «Kalorie» tyrannisiert sie das Leben unzähliger Menschen, die ihrem Körper Energie vorenthalten, um einem bizarren Schlankheitsideal zu frönen.

    Sosehr wir Menschen das wärmende Licht der Sonne auch geniessen – es kann uns nicht direkt nähren. Jeder hungernde Tropenbewohner ist ein moderner Tantalos. Nur Pflanzen und Licht-verwertende Einzeller können mit dem Zauberstab des Lichts Kohlendioxid und Wasser in organische «Biomasse» verwandeln. Diese liefert Pflanzenfressern Brennstoff für die Feuer der Zellatmung und damit Lebensenergie.

    Versickern der Sonnenenergie in der Nahrungskette

    Die Pflanzenfresser kommt ein solches Schmarotzertum allerdings teuer zu stehen: Sie können nur etwa ein Zehntel der in Pflanzen gespeicherten Lichtenergie in ihre eigene Biomasse hinüberretten, weil sie Energie verbrauchen, um sich zu bewegen und die Temperatur sowie die chemische Zusammensetzung ihres Körpers konstant zu halten. Ein Kilogramm Pflanzenfutter liefert deshalb oft weniger als hundert Gramm Fleisch. Noch grösser ist der Energieverlust aber für Raubtiere, weil sie ihre Beute meist mit grossem Energieaufwand über weite Entfernungen jagen.

    Ökologische PyramideÖkologische Pyramide: Versickern der Sonnenenergie über die Nahrungskette (dargestellt am Beispiel Silver Springs Florida): Von den rund 1,7 Mio. kcal Sonnenenergie, die jährlich pro m² auf die Erde fallen, „fangen“ Pflanzen etwas mehr als 1 % ein und verwandeln davon weniger als die Hälfte (8900 kcal) in verwertbare Biomasse. Die in Form der Biomasse gespeicherte Energie reduziert sich besonders stark beim Übergang von Pflanzenfressern zu Carnivoren und weiter zu Carnivoren, die von anderen Carnivoren leben – der Großteil der aufgenommenen Energie wird hier für Bewegung und Aufrecherhaltung des Stoffwechsels verbraucht (blau). (Daten aus: http://en.wikipedia.org/wiki/File:EcologicalPyramids.jpg und http://users.rcn.com/jkimball.ma.ultranet/BiologyPages/F/FoodChains.html, abgerufen 12.März 2013)

    Das «Versickern» von Sonnenenergie in dieser Nahrungskette ist dramatisch. In der freien Natur speichern Pflanzen im Verlauf ihres Lebens nur etwa ein halbes Prozent des eingestrahlten Sonnenlichts als Biomasse, Pflanzenfresser einige hundertstel Prozent und Raubtiere wiederum zehnmal weniger. Deshalb kennen wir zwar grosse Herden von Rentieren oder Antilopen, nicht aber solche von Tigern oder Leoparden. Noch schlimmer stünde es um Tiere, die sich von anderen Raubtieren ernährten. Ein Raubtier, das vorwiegend Leoparden frässe, müsste sich in der Warteschlange für Sonnenenergie so weit hinten anstellen, dass es sich niemals ausreichend vermehren könnte. Kein Wunder also, dass der Leopard keinen natürlichen Feind hat. Diese unerbittlichen Regeln der Nahrungskette gelten auch für uns Menschen. Jeder von uns muss jährlich etwa 700 000 Kilokalorien chemische Energie in Form von verwertbarer Nahrung zu sich nehmen, um langfristig ein gesundes und normales Leben zu führen. Als Vegetarier könnten sich die Bewohner der Stadt Zürich mit weniger als hundert Quadratkilometern Anbaufläche ernähren, doch bei einer reinen Fleischdiät wäre die erforderliche Fläche – und damit auch der Preis für Nahrung – etwa fünf- bis zehnmal grösser.

    Kulturen, Gene

    Das Streben nach Sonnenenergie hat auch die Entwicklung menschlicher Kulturen geprägt. Als Jäger und Sammler mussten unsere nomadischen Vorfahren weite Flächen durchstreifen, um sich ihren Anteil an Sonnenenergie zu sichern. Erst Landwirtschaft und intensive Viehzucht ermöglichten es ihnen, mit kleineren Flächen auszukommen, sesshaft zu werden, Städte zu gründen und eine hohe Kultur zu entwickeln. Um auf immer kleinerem Raum immer mehr Nahrung zu erzeugen, setzen wir heute gewaltige Mengen von Wasser, künstlichem Dünger, Pestiziden und Erdöl ein. Um eine Kilokalorie Nahrung zu schaffen, müssen wir oft eine Kilokalorie Erdöl verbrennen. Unsere industrielle Nahrungsproduktion ist zur grotesken Maschine geworden, die Erdöl in Nahrung verwandelt.

    Bei der Suche nach Sonnenenergie helfen uns auch unsere Gene. Ein Beispiel dafür liefern zwei eng verwandte Ariaal-Sippen in Kenya, von denen eine als nomadische Viehzüchter in den Bergen und die andere als sesshafte Ackerbauern im Tiefland lebt. Eine seltene Genvariante (Genvariante des Dopaminrezeptors DRD4 (Anm. der Redaktion)), die besonders häufig in Menschen mit Aggressivität, Konzentrationsschwäche, Impulsivität und Hyperaktivität vorkommt, findet sich bei den nomadischen Ariaals vorwiegend in gut genährten und muskulösen, bei den sesshaften hingegen vorwiegend in unterernährten und muskelschwachen Männern. Dies deutet darauf hin, dass diese Genvariante für Nomaden von Vorteil, für sesshafte Bauern dagegen von Nachteil ist. Impulsivität, Angriffsbereitschaft und die Fähigkeit, schnell zu reagieren, könnten Nomaden helfen, Herden zu verteidigen, neue Weidegründe zu entdecken oder als Kinder auch unter unsteten Lebensbedingungen zu lernen – und sich so eine ausreichende Ernährung zu sichern. In einer Dorfgemeinschaft wären solche Eigenschaften hingegen eher hinderlich.

    Unabhängig von der Sonnenenergie - Kernfusion?

    Wir Menschen haben uns in der Warteschlange für Sonnenenergie schon früh nach vorne gedrängt: mit der Zähmung des Feuers erschlossen wir uns die Sonnenenergie, welche Licht-verwertende Lebewesen über Jahre oder gar Jahrmillionen gespeichert hatten. Und mit Wind- und Wasserrädern, Sonnenkraftwerken und Solarzellen umgingen wir diese Warteschlange ganz. Doch erst die Kernspaltung erschloss uns eine breit anwendbare Energiequelle, die kein Erbe unserer Sonne ist. Vielleicht wird es uns dereinst gelingen, durch die gebändigte Verschmelzung von Atomkernen in Fusionsreaktoren künstliche Sonnen zu schaffen. Diese würden uns Menschen zwar Wärme und elektrische Energie, dem Leben auf unserer «dummen Erde» jedoch nicht genügend Licht schenken. Den lebenspendenden Strom des natürlichen Sonnenlichts könnten sie nie ersetzen.

     


    Zum Thema:

    inge Thu, 14.03.2013 - 04:20

    Das Weizmann-Institut — Spitzenforschung im Garten Eden

    Das Weizmann-Institut — Spitzenforschung im Garten Eden

    Fr, 07.03.2013 - 04:20 — Israel Pecht

    Israel PechtDas Weizmann-Institut in Rehovot (Israel) zählt zu den führenden naturwissenschaftlichen Forschungseinrichtungen der Welt. An fünf Fakultäten betreiben fächerübergreifend mehr als 2600 Wissenschafter und Techniker Grundlagenforschung. Das hier geförderte intellektuelle Potential ist der wichtigste Rohstoff eines Landes, dem natürliche Bodenschätze fehlen; seine Anwendungen haben Israel zu einem Hochtechnologie-Land gemacht. Der ursprünglich aus Wien stammende Autor, em. Prof. für Immunologie am Weizmann-Institut und gegenwärtiger Generalsekretär der FEBS (Federation of European Biochemical Societies) blickt auf die Entwicklung des Instituts zurück.

     

    Ficus-Allee Logo Weizmann-Institut
    Abbildung 1. Allee alter Ficus-Bäume — Vorbild für das Logo des Weizmann-Instituts.

    Chaim Weizmann (1874 – 1952), der Gründer und Namensgeber des Instituts (Logo: Abbildung 1), war der erste Präsident des Staates Israel und Naturwissenschafter. Ursprünglich aus Weißrußland stammend, hatte Weizmann in Deutschland und der Schweiz Chemie studiert, war dann 1904 nach England gezogen und hatte dort mit der Biosynthese des (kriegs)wichtigen Ausgangsstoffs Aceton Berühmtheit erlangt und in Folge Kontakte zu einflußreichsten britischen Politikern geknüpft.

    Vision eines durch Wissenschaft geschaffenen Garten Edens

    Als erfolgreichem organischen Chemiker war Weizmann das ökonomische Potential naturwissenschaftlicher Forschung voll bewußt. Er kämpfte daher mit voller Überzeugung für die Idee, in Israel moderne Zentren für naturwissenschaftliche Grundlagenforschung zu schaffen, als Motor für die wirtschaftliche Entwicklung des Landes, dem natürliche Bodenschätze ja fehlten.

    Für eine Hebräische Universität in Jerusalem hatte Weizmann 1918 den Grundstein gelegt und er war dann – in seiner Funktion als Präsident der Zionistischen Weltorganisation – zusammen mit Albert Einstein maßgeblich am „Fundraising“ für dieses geplante Zentrum akademischer Exzellenz beteiligt (Abbildung 2). Bei der Eröffnung der Universität im Jahre 1925 existierte bereits das Institut für Chemische Forschung, welches über eine Abteilung in der aufstrebenden Disziplin „Biochemie und Kolloidchemie“ verfügte.

    Im damals britisch regierten Palästina hatte es biochemische Forschung und auch Unterricht in Biochemie bereits gegeben. Es war eine kleine, idealistisch gesinnte Gruppe von Wissenschaftern, die noch vor der Machtergreifung durch die Nazis aus Europa emigriert waren und jetzt den Kern der Hebräischen Universität bildeten. Deren Wurzeln reichen nach Deutschland und auch nach Österreich zurück. Andor Fodor, der das oben erwähnte Institut für Chemische Forschung gründete und anfänglich nur mit zwei fix angestellten Assistenten leitete, kam von der Universität Halle, Max Frankel, Leiter des Laboratoriums für Theoretische und Makromolekulare Chemie, kam von der Universität Wien, Adolf Reifenberg, Leiter der Angewandten Biologischen und Kolloid Chemie, von der Universität Giessen.

    Weizmann mit EinsteinAbbildung 2. Chaim Weizmann und Albert Einstein 1921

    Diskussionen mit einer Reihe prominenter Wissenschafter wie Albert Einstein, dem Farbstoffchemiker Richard Wilstätter (er erhielt den Nobelpreis u.a. für seine Arbeiten zum Chlorophyll) oder Carl Neuberg, einem der „Väter“ der modernen Biochemie, brachten Weizmann dann dazu, das sogenannte „Daniel Sieff Forschungszentrums“ zu gründen – eine Stiftung der Londoner Industriellenfamilie Sieff – den Vorläufer des späteren Weizmann-Instituts. Als Vorbild dieses Zentrums dienten dabei die hochrenommierten Institute der Kaiser-Wilhelm-Gesellschaft (der heutigen Max Planck-Gesellschaft), die am Beginn des 20. Jahrhunderts in Deutschland entstanden waren: in 22 Jahren ihres Bestehens waren aus diesen bis 1933 immerhin 10 Nobelpreisträger hervorgegangen.

    Im Frühjahr 1934 öffnete das erste Gebäude des Zentrums – das Daniel Sieff Institut – seine Pforten, in Rehovot, einer 21 km von Tel Aviv entfernten Siedlung. Dieses, heute idyllisch inmitten von duftenden Orangenplantagen gelegene Institut, beschäftigte anfänglich zehn fix angestellte Wissenschafter, welche – unter der Leitung Weizmanns – Grundlagenforschung in den Gebieten Chemie, Biochemie und Pharmazie betrieben.

    In knapper, zu Fuß erreichbarer Entfernung befand sich auch eine 1921 gegründete landwirtschaftliche Versuchsanstalt, an der 1926 bereits 38 Natur- und Pflanzenbau-wissenschafter arbeiteten. Die Erwartung, daß die räumliche Nähe beider Institutionen zur Zusammenarbeit in ihren Forschungsbemühungen führen würde, erfüllte sich voll und ganz.

    Während des zweiten Weltkriegs war das Sieff-Institut intensiv in kriegswichtige Arbeiten involviert, insbesondere in die Produktion des Anti-Malariamittels Atabrin (das damals Chinin ersetzt hatte) und anderer essentieller Arzneimittel.

    Daniel Sieff-Institut → Weizmann-Institut → „Groß oder gar nicht“

    1949 – ein Jahr nach der Unabhängigkeitserklärung Israels – wurde das Institut – mit Zustimmung der Familie Sieff – zu Ehren seines nun bereits 75-jährigen Gründers in Weizmann-Institut umbenannt und in der Folge zu einem großangelegten Forschungszentrum ausgebaut.

    Schon in den 50er-Jahren war die Zahl der Mitarbeiter auf 600 angewachsen, die in 13 Gebäuden arbeiteten. Als der Atomphysiker Robert Oppenheimer in den späten 50er Jahren einen Besuch abstattete, fragte er, ob das Weizmann-Institut nicht viel zu groß wäre für einen so kleinen Staat wie Israel und meinte: „Dazu müßtet ihr das Land vergrößern“. Dazu kommentierte später lakonisch der Staatspräsident Shimon Peres: „Das ist das, was das Institut getan hat: es hat ja das Land vergrößert: intellektuell!“

    Schon in den 1950er Jahren erreichte das Institut Spitzenpositionen in verschiedenen Disziplinen, wie beispielsweise in der Isotopenforschung. Es baute auch eines der ersten Kernresonanz (NMR)-Spektrometer, mit WEIZAC eine der ersten (damals noch riesengroßen) Computeranlagen und es spielte eine herausragende Rolle in der makromolekularen Chemie, das heißt in der Biochemie großer biologischer Moleküle (Proteine und Nukleinsäuren), ebenso wie in der Welt der synthetischen Polymere. Es folgten pharmakologisch-medizinische Durchbrüche, wie die Entdeckung und Entwicklung von Wirkstoffen zur Behandlung von Krebs, multipler Sklerose, Parkinson und anderen Krankheiten, Durchbrüche in der Hirnforschung und die Erarbeitung neuer Methoden zur Diagnose u.a. von genetischen Defekten. Durchbrüche in chemisch-biochemischem Neuland waren beispielsweise im Bereich der Sensoren zu verzeichnen oder im Bereich der Nanopartikel, die als Katalysatoren oder biomedizisch Anwendung finden. Ebenso wurden in vielen anderen Sparten Erfolge erzielt, in landwirtschaftlichen Fragestellungen ebenso wie in der Telekommunikation, in Fragen der Energiegewinnung, wie in der Optik.

    Im Jahr 2009 konnte das Weizmann-Institut seinen ersten Nobelpreisträger feiern: Die Strukturbiologin Ada Yonath hatte die Auszeichnung für die Aufklärung der molekularen Struktur und Funktion des Ribosoms, der Fabrik an der die Synthese unserer Proteine abläuft, erhalten.

    Das Weizmann-Institut heute

    Das Institut beherbergt auf einem rund 1 km² großen Campus mehr als 100 Gebäude, in welchen die fünf Fakultäten: Mathematik und Informatik, Physik, Chemie, Biochemie und Biologie untergebracht sind. Dazu kommen rund 100 Wohnhäuser für Wissenschafter und Studentenwohnhäuser (Abbildung 3). Auf diesem Gelände arbeiten fächerübergreifend heute über 2600 Menschen, davon mehr als 2200 Forscher, Studenten und Techniker, aus 28 Ländern. Dazu kommen jährlich etwa 500 Besucher aus aller Welt, um am Institut zu arbeiten.

    Campus des Weizmann-InstitutsAbbildung 3. Blick auf den Campus des Weizmann-Instituts

    Die Forschungserfolge des Weizmann-Instituts haben es 2012 im Shanghai-Ranking der Universitäten erstmals unter die 100 besten Institutionen gereiht (in Computerwissenschaften erhielt es sogar weltweit Rang 12). Übertroffen wurde es durch die Hebräische Universität in Jersualem (Rang 53) und die Technische Universität (Technion) in Haifa (Rang 78).

    Ein wesentliches Ziel des Instituts ist der Technologietransfer, das heißt die Umwandlung von Forschungsergebnissen und Know-How der Forscher in kommerzialisierbare Produkte. Seit Ende der 50er Jahre ist die eigens für diesen Zweck gegründete Firma "Yeda Research and Development" dafür zuständig. YEDA fungiert dabei als Dachorganisation für viele Partner, kooperiert mit großen Pharma-Multis ebenso wie mit kleinen Firmen. Die Webseite zählt zahlreiche Erfolge auf: Spin-Offs, Firmen und Produkte. Beispielsweise wurde Copaxone – ein von Michael Sela, Ruth Arnon und Dvora Teitelbaum entdecktes Arzneimittel gegen multiple Sklerose – zum Blockbuster: im Jahr 2011 wurde damit ein Umsatz von rund 3 Milliarden Dollar erzielt. (Copaxone ist übrigens das Spitzenprodukt des Pharmakonzerns Teva: dieser hatte 1901 als kleine Drogerie in Israel begonnen und sich zur weltweit größten Generikafirma mit einem Jahresumsatz von 20 Milliarden Dollar im Jahr 2012 emporgearbeitet.)

    Im Laufe der letzten Jahrzehnte hat sich die israelische Industrie stark gewandelt. Israel hat pro capita enorm viel Geld in Forschung und Entwicklung investiert. Die Grundlagenforschung am Weizmann-Institut, aber auch an den Universitäten, hat Industrieparks mit hunderten Firmen entstehen lassen, welche die Forschungsergebnisse in kommerzielle Produkte umsetzen. Die Investitionen haben sich gelohnt: Israel ist zu einem Hochtechnologieland geworden.

    Israel Pecht and Uriel Z. Littauer (2008) Early Development of Biochemistry and Molecular Biology in Israel; IUBMB Life, 60(6): 418–420


    Im Artikel angeführte Details

    Webseite des Weizmann-Institut PDF-Download in Deutsch

    Daten, Fakten Rundgang durch das Weizmann-Institut; Video 3,1 min.

    Zu Chaim Weizmann


     

    Ficus-AlleeLogo Weizmann-Institut Abbildung 1. Allee alter Ficus-Bäume — Vorbild für das Logo des Weizmann-Instituts. Chaim Weizmann (1874 – 1952), der Gründer und Namensgeber des Instituts (Logo: Abbildung 1), war der erste Präsident des Staates Israel und Naturwissenschafter. Ursprünglich aus Weißrußland stammend, hatte Weizmann in Deutschland und der Schweiz Chemie studiert, war dann 1904 nach England gezogen und hatte dort mit der Biosynthese des (kriegs)wichtigen Ausgangsstoffs Aceton Berühmtheit erlangt und in Folge Kontakte zu einflußreichsten britischen Politikern geknüpft.

    inge Thu, 07.03.2013 - 04:20

    Die Evolution der Kooperation

    Die Evolution der Kooperation

    Fr, 01.03.2013 - 04:20 — Karl Simgund

    Icon MINTKarl SigmundDer Mathematiker Karl Sigmund untersucht mit Hilfe der Spieltheorie die Entstehung und Entwicklung von kooperativem Verhalten in biologischen Systemen bis hin zu menschlichen Gesellschaften. Er erklärt Formen des Altruismus: direkte Reziprozität (‚Ich kratz’ dir den Rücken, und du kratzt dafür meinen’) und die spezifisch menschliche, indirekte Reziprozität (‚Ich kratz dir den Rücken, damit mir ein anderer meinen Rücken kratzt.’) und erläutert Gründe für deren Entstehen.

    Schon Darwin war fasziniert von der Evolution sozialer Verhaltensmuster, und insbesondere von der Entstehung der Kooperation. Die Evolution der Kooperation gehört zu den wichtigsten Problemen des einundzwanzigsten Jahrhunderts. Vielen wird es aber zunächst sonderbar erscheinen, dass sich hier so ein großes Problem verstecken soll. Denn Kooperieren bringt ja offenkundig Vorteile, wieso sollten sich dann nicht Anlagen für kooperatives Verhalten durchsetzen?

    Das Problem ist jedoch, dass Kooperation zwar vorteilhaft ist, aber Ausbeuten noch vorteilhafter. Altruismus ist kostspielig.

    Evolutionsbiologen definieren altruistische Handlungen als solche, die die handelnden Person etwas kosten, anderen aber einen Vorteil bringen. Im einfachsten Fall vergleichen wir zwei mögliche Alternativen: (C) dem anderen einen Vorteil b zu vermitteln, was mit eigenen Kosten c verbunden ist, oder (D) das zu unterlassen. C steht für ‚to cooperate’ und D für ‚to defect’. Kosten und Nutzen werden hier in der einzigen Währung gemessen, die in der Evolutionsbiologie zählt, nämlich der sogenannten Fitness, also der durchschnittlichen Zahl an Nachkommen. Wie sollte sich eine Anlage durchsetzen, die Kosten verursacht, also den eigenen reproduktiven Erfolg verringert?

    Das Gefangenendilemma – ein Standardmodell für kooperatives Verhalten

    Diese Frage kann man mit Hilfe der Spieltheorie verdeutlichen, einem Zweig der Mathematik, der sich mit der Analyse strategischer Wechselwirkungen befasst und der seit den Vierzigerjahren des vorigen Jahrhunderts eingesetzt wird, um wirtschaftliches Verhalten zu untersuchen. Eines der bekanntesten Modelle hier ist das sogenannte ‚Gefangenendilemma’. Lassen wir uns nicht von dem etwas bizarren Namen ablenken, sondern stellen wir uns vor, dass zwei Personen, die einander nicht kennen, unabhängig voneinander entscheiden müssen, ob sie der anderen Person fünfzehn Euro zukommen lassen wollen oder nicht. Falls sie das wollen, müssen sie dem Spielleiter fünf Euro zahlen. Der Spielleiter überweist dann fünfzehn Euro ans Gegenüber. Die Alternative (C) bedeutet also, dem anderen Spieler etwas zu schenken, und die Alternative (D), das nicht zu tun. Wenn beide Spieler kooperieren, also (C) wählen, dann gewinnt jeder in Summe zehn Euro. Wenn beide Spieler (D) wählen, gewinnen sie nichts. Trotzdem ist es für den einzelnen vorteilhafter, (D) zu wählen, und zwar unabhängig davon, ob der andere sich für (C) oder (D) entscheidet. In jedem Fall erspart man sich die Überweisung von fünf Euro an den Spielleiter. In einem Fall erhält man fünfzehn Euro ohne Gegenleistung, man beutet also den Mitspieler aus. Im anderen Fall bekommt man zwar nichts, aber das ist immer noch besser, als selbst ausgebeutet zu werden, d.h. fünf Euro zu zahlen, ohne dafür etwas retour zu erhalten.

    Dieses Gefangenendilemma ist das einfachste Beispiel eines sozialen Dilemmas, also einer Situation, wo der Eigennutz selbstzerstörerisch wirkt. In solchen Situationen gelingt es der ‚unsichtbaren Hand’ ökonomischer Kräfte nicht, aus den Interessen der einzelnen Individuen ein gemeinnütziges Gesamtergebnis zu erzielen. Wenn es schon dem rationalen Kalkül nicht gelingt, in solchen Fällen die Kooperation durchzusetzen, wie schwer ist es dann erst in einem darwinistischen Wettbewerb um reproduktiven Erfolg, in einem vom blinden Zufall getriebenen Suchprozess?

    Evolutionsbiologische Modelle für kooperatives Verhalten: Verwandtenselektion und reziproker Altruismus

    Es gibt zahlreiche evolutionsbiologische Zugänge zur Lösung dieser Frage. Hier sollen bloß die beiden bekanntesten vorgestellt werden, die unter den Schlagworten ‚Verwandten-selektion’ und ‚reziproker Altruismus’ die einschlägige Literatur dominieren.

    Die Theorie der Verwandtenselektion geht im wesentlichen auf die Arbeiten von William D. Hamilton aus den Sechzigerjahren des vorigen Jahrhunderts zurück. Es gab allerdings schon wichtige Vorläufer. Einer der Väter der Populationsgenetik, der Statistiker R.A. Fisher, erklärte auf diese Weise bereits in den Zwanzigerjahren die auffällige Zeichnung gewisser ungenießbarer Raupen. Jeder Vogel, der so eine Raupe frisst, wird augenblicklich von heftiger Übelkeit heimgesucht und vermeidet fortan solche Nahrung. Die auffällige Zeichnung signalisiert also: ‚Wer mich schluckt, dem wird schlecht’. Das kommt freilich zu spät für die Raupe, die gefressen worden ist. Doch die Raupen dieser Art kriechen gewöhnlich im engen Familienverband herum, in Ketten von zehn oder mehr Individuen. Die Geschwister überleben, und tragen die Anlagen, die für die auffällige Zeichnung und den üblen Geschmack sorgen, in die folgende Generation. Auch JBS Haldane (ein weiterer Vater der Populationsgenetik) unterstrich diesen Gesichtspunkt, als er scherzhaft bemerkte, dass er jederzeit bereit wäre, sein Leben zu opfern, um zwei Brüder oder acht Vettern zu retten. Dahinter steckt eine Theorie.

    Diese Theorie beruht auf dem Begriff des Verwandtschaftsgrads. Der Grad der Verwandtschaft zwischen zwei Individuen wird definiert als die Wahrscheinlichkeit, dass ein (in der Bevölkerung seltenes) Gen, welches in einem Individuum vorkommt, sich auch im anderen befindet. Der Verwandtschaftsgrad zwischen mir und meiner Mutter (oder meinem Vater) ist ½, der zwischen mir und meinem Bruder ebenso, denn die Wahrscheinlichkeit, dass wir beide dieses Gen vom Vater (oder von der Mutter) geerbt haben, ist jeweils ¼. Zwischen mir und meinen Vettern ist der Verwandtschaftsgrad 1/8 usw. Vom genetischen Standpunkt aus sind also meine Verwandten einfach verwässerte Kopien meiner selbst (und zwar je nach Verwandtschaftsgrad mehr oder weniger verwässert), und dementsprechend stimmen die genetischen Interessen mehr oder weniger überein – ein reproduktiver Vorteil für meine Verwandten ist somit auch, auf diese indirekte Art, ein reproduktiver Vorteil für mich selbst, nur eben diskontiert um den Verwandtschaftsgrad.

    Wenn daher zwei Verwandte das Gefangenendilemma spielen, so ändert sich die Auszahlung. Zu meiner eigenen Auszahlung kommt noch die Auszahlung meines Partners dazu, diskontiert um den Verwandtschaftsgrad r. Und nun sieht man leicht, dass (C) jetzt die bessere Alternative bietet, egal was mein Partner macht, sofern nur der Verwandtschaftsgrad größer ist als das Verhältnis von Kosten zu Nutzen, also r > c/b gilt.

    Letztere Regel wird als Hamiltons Gesetz bezeichnet. Es ist die Grundlage der Theorie der Verwandtenselektion. Diese ist inzwischen mächtig ausgebaut worden. Insbesondere ist auch die Definition des Verwandtschaftsgrads ersetzt worden durch einen ähnlichen Begriff, der misst, wie sehr die Tatsache, dass ich die Anlage zur Kooperation habe, die Wahrscheinlichkeit erhöht, dass mein Gegenüber diese Anlage auch hat.

    Verwandtenselektion im Tierreich

    Die Verwandtenselektion ist in zahlreichen verhaltensbiologischen Beispielen untersucht worden. Die größten Erfolge liefern die Anwendungen auf soziale Insekten. Bekanntlich ist das kooperative Verhalten in einem Ameisenhaufen oder einem Bienenstock ganz besonders hoch, und geht oft bis zur Selbstaufopferung. Bienen können sich wie Kamikaze auf Eindringlinge stürzen: ihr Stich rettet den Bienenstock, und kostet sie selbst das Leben. Erklärt werden kann das durch die besonders engen Verwandtschaftsverhältnisse in solchen Gesellschaften. Typischerweise stammen alle Arbeiterinnen von einer Königin, die sich in vielen Fällen auch noch mit einem nahen Verwandten gepaart hat. Die Genome der Arbeiterinnen sind einander beinahe so ähnlich wie die Genome in unseren Körperzellen, und man ist geneigt, von einem ‚Superorganismus’ zu sprechen.

    Darwin schrieb in den ‚Origins’: ‚Eine besondere Schwierigkeit schien mir zunächst unüberwindlich, und geradezu fatal für meine ganze Theorie. Ich spiele hier auf die sterilen Weibchen in den Insektengesellschaften an, die sich sowohl von den Männchen als auch von den fruchtbaren Weibchen stark unterscheiden und die doch, da sie steril sind, ihresgleichen nicht fortpflanzen können.’ Darwin kannte, so wie alle seiner Zeitgenossen, die Mendelsche Vererbungslehre nicht, die sein Problem gelöst hätte. Doch Darwin kam der Lösung denkbar nahe, als er schrieb: ‚Die natürliche Auslese kann auf die Familie ebenso gut angewandt werden wie auf das Individuum.’ Und Darwin erläuterte seine Auffassung mit Beispielen: ‚Ein wohl schmeckendes Gemüse wird gekocht, doch der Gärtner sät Samen derselben Sorte und erwartet vertrauensvoll, beinahe dieselbe Varietät zu erhalten… Ein Tier wird geschlachtet, doch der Bauer greift mit Zuversicht nach derselben Familie…’

    Kooperatives Verhalten in menschlichen Gesellschaften – reziproker Altruismus

    Auch wir Menschen sind soziale Tiere: schon Aristoteles hatte uns, gemeinsam mit den Ameisen und den Bienen, als solche bezeichnet, und dieser Gedanke wurde immer wieder aufgegriffen, so etwa in der dreihundert Jahre alten ‚Fabel von den Bienen’ von Bernard de Mandeville. Heute wissen wir freilich, dass es in menschlichen Gesellschaften zwar ähnlich kooperativ zugeht wie bei den Ameisen und Bienen, aber die durchschnittliche Verwandtschaft eine viel geringere ist. Neben dem Nepotismus, der in menschlichen Gesellschaften zweifellos eine bedeutende Rolle spielt, muss es daher noch weitere Faktoren geben, die imstande sind, die häufige Zusammenarbeit zwischen nicht-verwandten Individuen zu erklären.

    Hier können also die indirekten Fitnesseffekte keine Rolle spielen. Es müssen demgemäß direkte Vorteile aus altruistischem Verhalten zu erwarten sein. Schon im achtzehnten Jahrhundert schrieb der Ökonom Adam Smith von ‚unserer Neigung, zu handeln, zu tauschen und zu feilschen’, und dies führt zum zweiten Lösungsansatz, um Kooperation zu erklären, nämlich der Theorie des reziproken Altruismus. Sie wird in erster Linie auf eine Arbeit von Robert Trivers aus dem Jahr 1971 zurückgeführt. Aber auch die Theorie vom reziproken Altruismus war von Darwin antizipiert worden, als er in der ‚Abstammung des Menschen’ schrieb: ‚Die geringe Kraft und Schnelligkeit des Menschen, sein Mangel an natürlichen Waffen etc werden mehr als wett gemacht durch seine sozialen Eigenschaften, die ihn dazu führen, Hilfe zu geben und zu nehmen.’

    Dieses Geben und Nehmen steckt hinter dem reziproken Altruismus, den Robert Trivers definierte als ‚den Austausch altruistischer Handlungen, in denen der Nutzen die Kosten überwiegt, so dass über längere Zeit hin beide Teile in den Genuss eines Nettogewinns kommen.’

    Der Aspekt der Wechselwirkung ‚über längere Zeit hin’ lässt sich am besten mit dem sogenannten wiederholten Gefangenendilemma modellieren. Hier nimmt man an, dass es mehrere Runden des Gefangenendilemmas gibt. Nach jeder Runde kommt es mit der Wahrscheinlichkeit w zu einer weiteren Runde. (Wir können uns beispielsweise vorstellen, dass die Wechselwirkung nur abgebrochen wird, wenn eine Sechs gewürfelt wird.) Dann ist die Zahl der Runden eine Zufallsgröße, deren Mittelwert M gerade der Kehrwert von 1-w ist (also im Mittel sechs Runden, falls gewürfelt wird.) Beim wiederholten Gefangenendilemma gibt es zahllose Strategien, wir betrachten zunächst nur zwei besonders einfache: (a) AllD, die Strategie, die niemals kooperiert, und (b) TitForTat, die Strategie, welche vorschreibt, in der ersten Runde zu kooperieren und fortan jenen Zug zu wählen, den der Gegenspieler in der Vorrunde verwendet hat. Zwei AllD-Spieler bekommen beide nichts, während zwei TitForTat Spieler in jeder Runde b-c erhalten. Ein TitForTat-Spieler, der auf einen AllD Spieler trifft, wird von diesem in der ersten Runde ausgebeutet, aber das gelingt in den weiteren Runden nicht mehr – der AllD-Spieler verzichtet also um des kurzfristigen Vorteils der Anfangsrunde willen auf die Aussicht auf (vielleicht viele) Runden künftiger wechselseitiger Unterstützung.

    Wenn die Wahrscheinlichkeit w einer weiteren Runde größer als das Kosten-Nutzen Verhältnis c/b ist, ist es demnach besser, einem TitForTat –Spieler mit TitForTat zu begegnen. Gegen einen AllD-Spieler ist freilich AllD die etwas bessere Strategie. Beim wiederholten Gefangenendilemma kommt es also darauf an, dieselbe Strategie wie der Gegenspieler zu wählen. Anders ausgedrückt, bilden sich hier so etwas wie gesellschaftlichen Normen. Es ist günstig, sich so zu verhalten wie die anderen Mitglieder der Gesellschaft.

    An dieser Stelle ist es angebracht, festzuhalten, dass es natürlich absurd wäre, anzunehmen, dass ein Programm, TitForTat oder AllD zu spielen, in unseren Genen kodiert ist. Ein Grossteil unserer sozialen Verhaltensweisen ist erlernt. Das kann auf vielerlei Weisen geschehen. Am einfachsten ist es wohl, jene Verhaltensweisen zu kopieren, die besonders erfolgreich scheinen. Wenn man derlei Imitationsprozesse spieltheoretisch modelliert, kommt man aber wieder zu spieltheoretischen Gleichungen von ganz ähnlicher Gestalt, wie bei der genetischen Übertragung. Es kommt lediglich darauf an, dass vorteilhafte Verhaltensweisen in der Bevölkerung häufiger werden (wobei freilich zu beachten ist, dass der Vorteil häufigkeitsabhängig sein kann, ja dass unter Umständen eine Strategie gerade dadurch nachteilig werden kann, weil sie zu häufig vorkommt).

    Viele Menschen helfen anderen aber auch dann, wenn eine Gegenleistung eher unwahrscheinlich ist. Der gute Samariter liefert hier wohl das bekannteste Beispiel. Es ist unwahrscheinlich, dass er je wieder auf den Fremden stößt, dem er seine Hilfe angedeihen ließ. Denkbar wäre es freilich, dass hier doch eine Gegenleistung erfolgt, nur eben nicht durch den Empfänger der Hilfe, sondern durch Dritte. Das führt zum Begriff der indirekten Reziprozität.

    Direkte und indirekte Reziprozität im sozialen Verhalten

    Bei der direkten Reziprozität geht es nach dem Prinzip: ‚Ich kratz dir den Rücken, und du kratzt dafür meinen’. Bei der indirekten Reziprozität hingegen: ‚Ich kratz dir den Rücken, damit mir ein anderer meinen Rücken kratzt.’ Warum sollte der andere das tun? Nun, vielleicht damit ihm seinerseits wieder jemand hilft.

    Bei der direkten Reziprozität treffe ich meine Entscheidung auf Grund der Erfahrungen, die ich mit meinem Mitspieler gemacht habe. Bei der indirekten Reziprozität verwende ich auch die Erfahrungen anderer. Der Biologe Richard Alexander hat es in seinem Buch ‚The biological basis of moral systems’ so formuliert: ‚Indirekte Reziprozität beruht auf Reputation und Status, und führt dazu, dass die Mitglieder der Gruppe stets bewertet und neu bewertet werden.’

    In einem rudimentären spieltheoretischen Modell lässt sich das folgendermaßen darstellen. Jeder Spieler hat eine Reputation, die der Einfachheit halber nur G (wie Gut) oder B (wie Böse) sein soll. Wir verwenden also eine binäres Bewertungssystem: eine Welt in schwarz und weiß, ohne alle Grautöne. Die Individuen treffen zufällig aufeinander, und der Zufall entscheidet auch, wer der potentielle Geber und wer der Empfänger der Hilfeleistung ist. Der ‚Geber’ kann nun einen Nutzen b an den anderen überweisen, was ihn selbst wiederum c kostet. Liefert der Geber tatsächlich eine Hilfeleistung, so ist seine Reputation in den Augen aller anderen G. Verweigert er aber die Hilfe, so ist seine Reputation B. Der TitForTat-Strategie von vorhin entspricht jetzt die sogenannte Scoring-Strategie, die vorschreibt, nur jenen Spielern Hilfe zu geben, die eine gute Reputation G haben. Dadurch wird die Hilfeleistung auf die Guten konzentriert, und kann nicht von den Bösen ausgebeutet werden.

    Hier taucht freilich sofort ein Paradox auf. Wieso sollte man B-Spielern die Hilfe verweigern? Hierdurch wird man ja selbst in den Augen der anderen zu einem Bösen, und die Wahrscheinlichkeit, selbst Hilfe zu empfangen, wird somit verringert. In anderen Worten, es kommt einen teuer, zwischen B- und G-Spielern zu diskriminieren. Vernünftigerweise sollte man also unterscheiden zwischen gerechtfertigter und ungerechtfertigter Verweigerung von Hilfe. Einer, der sich immer weigert, anderen zu helfen, verdient seinen bösen Ruf. Einer, der einem Bösen die Hilfe verweigert und dadurch einen Ausbeuter straft, sollte nicht in denselben Topf geworfen werden.

    Die Beurteilung, wer gut und böse ist, führt zu einem rudimentären Moralsystem. Davon gibt es allerdings viele, und es ist nicht klar, welches sich wann durchsetzen wird. Aber alle Moralsystem funktionieren nur, wenn die Information über den anderen in ausreichendem Maß vorhanden ist: das kann durch Sprechen, oder genauer durch Tratschen, erreicht werden. Insbesondere sind die modernen Mechanismen für online-trading, wie etwa eBay, auf einfachen Reputationssystemen aufgebaut.

    Zusammenfassend lässt sich sagen, dass direkte und indirekte Reziprozität Schlüssel zum Verständnis pro-sozialen Verhaltens beim Menschen sind, und dass es insbesondere die indirekte Reziprozität ist, die als spezifisch menschlich gelten kann und die den Selektionsdruck für soziale Intelligenz, Sprache und Moral liefert.

    Vielen wird spätestens jetzt Zweifel aufkommen, ob denn hier nicht die Grenzen der Naturwissenschaft überschritten werden? Moralische Werte können ja nicht, wie empirische Fakten und wissenschaftliche Theorien, überprüft und falsifiziert werden. Ist also die Moral nicht eigentlich ein Tabu-Thema für die Wissenschaft?

    Hier ein diesbezügliches Zitat: ‚Evolutionstheorien, die den Geist auffassen als aus den Kräften der lebendigen Materie entstanden, sind unvereinbar mit der Wahrheit über den Menschen.’ Von der etwas pompösen Sprache abgesehen, ist das eine Meinung, die bei vielen Geisteswissenschaftlern Zustimmung finden könnte. Das Zitat stammt auch keineswegs von einem amerikanischen Kreationisten, sondern von einem europäischen Intellektuellen, nämlich Papst Johannes Paul II, der diese ‚Botschaft an die päpstliche Akademie der Wissenschaften’ im hoch angesehen Quarterly Review of Biology veröffentlichte.

    Der Papst stellt sich keineswegs gegen die Evolutionstheorie, er spricht sich nur dagegen aus, sie auch auf die sogenannten höheren Fähigkeiten des Menschen anzuwenden. Er ist in diesem Sinne Exzeptionalist. Viele hoch gebildete Menschen würden ihm darin zustimmen. Sogar Alfred Russell Wallace, der Darwin beinahe den Rang des Entdeckers der Evolutionstheorie hätte streitig machen können, war Exzeptionalist. Er schrieb: ‚Die intellektuellen und moralischen Fähigkeiten des Menschen müssen einen anderen Ursprung haben […] im unsichtbaren Universum des Geistes.’

    Darwin kannte solcherlei Berührungsängste nicht. In seinem Nachlass finden sich Aufzeichnungen, die aus 1837 stammen (er war damals noch keine dreißig), und die später von ihm geordnet wurden unter der Rubrik: ’Alte und nutzlose Notizen über moralische Anlagen’. Später schrieb er: ‚Die moralischen Instinkte sind in den sozialen Instinkten begründet, wobei hier auch die Familienbande mitzählen.’

    Zur Reziprozität schrieb Darwin: ‚Die Hoffnung, Gutes zurück zu bekommen, führt uns dazu, andern mit Freundlichkeit und Sympathie zu begegnen:’ Und über Reputation: ‘Das Motiv der Menschen, Hilfe zu leisten, beruht nicht mehr nur auf einem blinden instinktiven Impuls, sondern wird weitgehend beeinflusst vom Lob und Tadel der Mitmenschen.’

    Ja, Darwin wird sogar zum Lamarckisten, wenn er schreibt: ‚Es ist nicht unwahrscheinlich, das tugendhafte Tendenzen durch langen Gebrauch vererbbar werden.’ Das erscheint uns heute im Gegenteil äußerst unwahrscheinlich, aber auch dieser Gedanke Darwins enthält einen wahren Kern, wenn wir die Theorie der genetisch-kulturellen Ko-Evolution heranziehen. So ist beispielsweise die Viehzucht bestimmt nicht in unserem Genom verankert, sondern eine kulturelle Errungenschaft. Aber in jenen Bevölkerungen, die über Jahrtausende hinweg Rinderzucht betrieben, breiteten sich genetische Anlagen aus, die es erlauben, auch nach der Kindheit noch Milchprodukte zu verdauen. In anderen Bevölkerungen, etwa in Japan, sind diese Gene dagegen sehr selten. Ähnlich lässt es sich vorstellen, dass eine Kultur der Kooperation bei Jägern und Sammlern oder Dorfbewohnern, über Jahrtausende hinweg, Bedingungen geschaffen hat, die zur Ausbreitung genetischer Anlagen führten, die in Darwins Sinn als ‚tugendhaft’ bezeichnet werden können.


    Weiterführende Links

    Sehr amüsant aufbereitet und nicht minder anschaulich und informativ, führt der Informatiker DI Heinrich Moser (Postdoc TU Wien, Institut für technische Informatik) in einem Bühnenvortrag beim "Science Slam Vienna" vor, was die durchaus ernsthaften Hintergründe der Spieltheorie sind: "Eisverkäufer, Politiker und Spiele in der Informatik"


     

    inge Fri, 01.03.2013 - 04:20

    Wissenschaftliches Fehlverhalten

    Wissenschaftliches Fehlverhalten

    Fr, 28.02.2013 - 04:20 — Inge Schuster

    Inge SchusterIcon Politik & GesellschaftBetrüger finden sich auf allen Ebenen – vom Studenten bis hin zum renommierten Institutschef. Fragt man nach dem Warum, so sind – außer dem Wunsch des Doktoranden endlich das Studium abschließen zu können – wohl der Kampf um Förderungen, ein Rittern um eine Tenure-Anstellung oder die Aufnahme in höchste akademische Gremien zu nennen. Dazu kommt noch der persönliche Ehrgeiz, in der Fachwelt besser dazustehen als andere Kollegen, in entscheidenden Gremien mitzuwirken, auf großen Tagungen durch keynote-lectures zu glänzen, vielleicht aber auch nur der Wunsch, persönliche Unfähigkeit zu verschleiern. Was ist und zu welchem Ende führt Fehlverhalten in den Naturwissenschaften?

    Weltweit stehen einflußreiche Repräsentanten aus Politik und Wirtschaft am Pranger, weil sie in ihren Doktorarbeiten – zumeist in geistes- und sozialwissenschaftlichen Fächern – fremde Arbeiten plagiiert haben. Auch in den Naturwissenschaften lassen falscher Ehrgeiz und/oder eigenes Unvermögen Forscher zu Betrügern werden. Deren Verhalten ist nicht nur moralisch inakzeptabel, es stellt auch die Integrität von Forschung und deren für die Zukunft unserer Gesellschaften essentiellen Ergebnisse in Frage. Dieser Artikel analysiert, wie und in welchem Ausmaß wissenschaftliche Fälschungen zustande kommen und weist auf Initiativen im Kampf gegen den Wissenschaftsbetrug hin.

    Was ist los mit den obersten Repräsentanten unserer Staaten, angefangen von den Präsidenten Ungarns und Rumäniens bis hin zum übermächtigen „Zaren“ Rußlands, von u.a. für Bildung zuständigen Ministern bis hin zu „Spitzen“ der Gesellschaft? Offensichtlich haben diese ihre Laufbahn auf Betrug aufgebaut, ihre Doktorarbeiten und damit ihre Karriere-begründenden, akademischen Titel durch Plagiieren fremder Arbeiten geschaffen, sich also „mit fremden Federn geschmückt“.

    Was bringt denn eigentlich ein Doktortitel? Ist er bloß ein Statussymbol? Der Politikwissenschaftler Gerd Langguth hat dies klar fomuliert2: „Gerade im bürgerlichen Lager werde jemandem, der einen Doktortitel trägt, einfach mehr Respekt entgegengebracht. Man wird ehrfürchtiger angehört und angeschaut.“ und "Wenn der Doktortitel aberkannt wird, kann auch leicht die Karriere zu Ende sein".

    Fremder Federschmuck

    „Sich mit fremden Federn schmücken“ ist keine Erfindung unserer Zeit. Mit der Fabel „von der Krähe und dem Pfau“ hat der griechische Dichter Äsop bereits vor rund 2600 Jahren die Annektion fremden Eigentums und deren Folgen veranschaulicht. Die Relevanz dieser Darstellung für das Thema Wissenschaftsbetrug ist offensichtlich (etwas frei übersetzte Version des vor rund 2000 Jahren lebenden Dichters Phaedrus3): Die Krähe und der PfauAbbildung 1. Die Krähe und der Pfau. Steinhöwel, Heinrich; Brant, Sebastian: Esopi appologi sive mythologi: cum quibusdam carminum et fabularum additionibus Sebastiani Brant. (Basel: Jacob <Wolff> von Pfortzheim., 1501; Bild: Uni Mannheim )

    „Daß man nicht seinem Hang nachgeben sollte sich mit fremden Verdiensten zu protzen und ein nur auf die Wirkung nach außen bedachtes Leben zu führen, zeigt uns Aesop an folgendem Beispiel: Eine vor eitler Selbstüberschätzung aufgeblasene Krähe hat die Federn aufgehoben, welche ein Pfau verloren hatte und sich damit geschmückt. Jetzt sieht sie auf ihre Artgenossen herab und mischt sich unter die prachtvolle Schar der Pfauen. Diese rupfen dem unverschämten Vogel die Federn aus und vertreiben ihn mit ihren Schnäbeln. Als die arg zugerichtete Krähe nun jammernd versucht zu ihren eigenen Artgenossen zurückzukehren, wird sie von diesen zurückgewiesen und wüst beschimpft. Eine von denen, die ihr früher zu minder waren, meint: "Hättest Du Dich mit unseren Milieu zufrieden gegeben und mit dem abgefunden, was die Natur Dir beschieden hat, dann wäre Dir diese Schande erspart geblieben und Dein Unglück wäre nicht auf Zurückweisung gestoßen.“

    Täuschung über die Eigenständigkeit der wissenschaftlichen Leistung – Plagiatoren und Plagiatsjäger

    In den meisten Ländern gibt der Doktorand in der Doktorarbeit – gleich welcher Fachrichtung – eine eidesstattliche Erklärung ab, daß diese auf seiner selbständigen Arbeit beruht. Wer hier nachweislich lügt, hat auch sonst das Vertrauen verspielt. In einem anzustrebenden System sollte persönliche Integrität – neben fachlicher Qualifikation – unabdingbare Voraussetzung für die Erlangung hoher politischer Funktionen sein, Betrüger aber sollten – frei nach Äsop – aus dem Kreis der Politiker schmählich verjagt, im Kreis der Wissenschafter als verächtlich gebrandmarkt werden!

    Ein „sich mit fremden Federn schmücken“ ist in den letzen Jahrzehnten mit den ungeheuren Möglichkeiten der Informationstechnologie immer leichter und verlockender geworden. Viele einschlägige Publikationen sind ja im Netz frei aufrufbar und können dann in Abschnitten oder auch zur Gänze im copy-paste-Verfahren zur „eigenen“ Dissertation zusammengefaßt werden.

    Gleichzeitig erleichtert das Internet aber auch Plagiate mittels geeigneter Software zu entdecken (ich spreche dabei aus eigener Erfahrung). Beispielsweise hat die Universität Wien seit dem Wintersemester 2007/2008 eine flächendeckende digitale Plagiatsprüfung aller – jährlich mehr als 5000 – Abschlußarbeiten eingeführt. Dabei erfolgt ein Textvergleich mit allen digitalisierten Büchern, Journalen und Texten im Internet und den elektronisch gespeicherten Diplom- und Doktorarbeiten. Seitdem wurden in 23 Fällen Verfahren eingeleitet, in 9 Fällen der akademische Titel aberkannt4.

    Ist damit von jetzt an ein Plagiieren weitgehend ausgeschlossen? Zweifellos „nein“. Nur stumpfsinniges 1:1 Kopierer bleiben im Netz der Plagiatsprüfung hängen. Leichte Veränderungen im kopierten Text, Ersetzen von Wörtern durch Synonyme, vielleicht sogar eine Übersetzung aus einer anderen Sprache, können das „Werk“ „plagiatssicher“ machen.

    Eine eben im Auftrag des Deutschen Bundesbildungsministerium fertiggestellte Studie „Fairuse“ der Universität Bielefeld, die von 2009 bis 2012 in mehreren Erhebungswellen zwischen 2000 und 6000 Studenten aller Fachrichtungen anonym befragte, ergab ein erschreckendes Bild zur Anfälligkeit von Studenten für’s Plagiieren und andere Formen wissenschaftlichen Fehlverhaltens: Demnach hatte jeder Fünfte bereits mindestens ein Plagiat fabriziert, 37 % der Studenten gaben zu, bei Klausuren bloß abgeschrieben zu haben5.

    Die Prüfung von Arbeiten aus der vor-digitalisierten Zeit ist sehr aufwändig. Diese werden durch zumeist anonyme Plagiatsjäger eingescannt und penibelst nach Plagiaten abgesucht, deren Quellen häufig ebenfalls noch nicht digitalisiert sein können. Derartige Initiativen können natürlich nur einen kleinen Teil der insgesamt vorhandenen Doktorarbeiten prüfen – dann, wenn ausreichend Verdachtsmomente (oder politisch-motiviertes Interesse) vorliegen. Beispielweise hat VroniPlag im November 2010 begonnen insgesamt 42 mutmaßliche Plagiate zu untersuchen, die zwischen 1987 und 2011 publiziert worden waren: in der Folge wurde bereits in neun Fällen der Doktortitel von der jeweiligen Universität aberkannt6. Eine Plattform PlagiPedi Wiki macht es sich zur Aufgabe, die Arbeiten von Akademikern zu untersuchen, die „derzeit aktiv eine öffentlich herausragende Funktion in einer öffentlichen Körperschaft bekleiden“7.

    Charakteristika naturwissenschaftlicher Fachrichtungen

    Studien der verschiedenen naturwissenschaftlichen und technischen Fachrichtungen unterscheiden sich von vielen anderen Studienrichtungen in wesentlichen Aspekten:

    • Zumeist sind es recht lange und schwierige Studien mit zu wenig Freizeit für ein „lustiges Studentenleben“ - also sicherlich keine „low-hanging fruits“.
    • Die größtenteils experimentellen Doktorarbeiten ziehen sich über mehrere Jahre hin, sind überaus arbeitsintensiv, die Ergebnisse oft frustrierend. Der Doktorand (der ja bereits Master ist) wird – wenn überhaupt – schlecht bezahlt.
    • Einen Doktortitel in diesen Fächern als bloßes Statussymbol anzusteuern, ist wohl kaum eine Option! Im allgemeinen bedeutet dieser Titel hier weder hohes Prestige, noch eine schnelle Eintrittskarte zu höchstbezahlten Positionen! Sicherlich sind es spezifische Fähigkeiten zusammen mit intellektueller Neugier – Forscherdrang – die Studenten zu diesen Fachrichtungen tendieren lassen.
    • Von Anfang an wird nach dem Motto „publish or perish“ auf möglichst viele Veröffentlichungen in möglichst hochrangigen Journalen hingearbeitet – diese Kennzahlen entscheiden, ob und welcher Karriereweg eingeschlagen werden kann.
    • Möglichst hohe Kennzahlen als Unterstützung eines erfolgversprechenden Projektvorschlags sind Voraussetzung für den immer schwieriger werdenden Kampf um Förderungsgelder (grants) aus den knappen Kassen öffentlicher und privater Einrichtungen; bei einer Ablehnung des grants wird das projekt unfinanzierbar und „stirbt“.

    Wissenschaftliches Fehlverhalten in den Naturwissenschaften

    Auch in der naturwissenschaftlichen Forschung sind Originalität und Eigenständigkeit essentielle Grundpfeiler. Allerdings basiert ein Großteil dieser Forschung auf experimentellen Untersuchungen, deren Methoden sich sehr schnell verändern – ein weitgehendes Abschreiben fremder Arbeiten ist damit zwar nicht unmöglich, tritt aber eher vereinzelt auf. Im Vordergrund des „scientific misconduct“ stehen dagegen Praktiken des Manipulierens, Fälschens und Erfindens von Daten und ein Zurechtbiegen von Interpretationen.

    Betrüger finden sich auf allen Ebenen – vom Studenten bis hin zum renommierten Institutschef. Fragt man nach dem Warum, so sind – außer dem Wunsch des Doktoranden endlich das Studium abschließen zu können – wohl der oben erwähnte Kampf um Förderungen, ein Rittern um eine Tenure-Anstellung (eine Professorenstelle auf Lebenszeit) oder die Aufnahme in höchste akademische Gremien zu nennen. Dazu kommt noch der persönliche Ehrgeiz, in der Fachwelt besser dazustehen als andere Kollegen, in entscheidenden Gremien mitzuwirken, auf großen Tagungen durch keynote-lectures zu glänzen, vielleicht aber auch nur der Wunsch, persönliche Unfähigkeit zu verschleiern.

    Datenfälschungen sind zumeist schwieriger aufzudecken als Plagiate. Bis vor kurzem waren es häufig Zufälle, die einen Betrug vermuten liessen, etwa wenn:

    • Labors trotz hoher Expertise und penibler Einhaltung von publizierter Methodik die dort beschriebenen Daten nicht und nicht reproduzieren konnten,
    • man bei Kollegen herausfand, daß diese nur die zu ihrer Hypothese passenden Daten anführten, die widersprechenden aber unter den Tisch fallen ließen oder
    • Kollegen Daten anführten, die mit ihrer Expertise und Ausrüstung überhaupt unvereinbar waren usw.

    Charakteristisch für zahlreiche eher zufällige Aufdeckungen ist der Fall des deutschen Physikers Jan Hendrik Schön, der als Nobelpreis-verdächtiges „Wunderkind“ galt. Hier waren es wohl die in sehr kurzen Abständen publizierten, offensichtlich bahnbrechenden Artikel, die stutzig machten. Diese wurden genauer untersucht, als er dieselben Grafiken zur Illustrierung verschiedener Sachverhalte verwendete. Er flog auf, wurde gefeuert und verlor seinen Doktortitel8.

    Selbstkorrektiv - Whistleblowers

    Wie hoch ist eigentlich der Anteil an Wissenschaftern, denen man besser nicht vertraut?

    Dazu gibt es eine Studie von D. Fanelli aus dem Jahr 2009: „How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data”9. Demnach gaben rund 2% der (insgesamt rund 11 600 befragten) Wissenschafter an, Daten selbst gefälscht oder erfunden zu haben; auf ihre Kollegen angesprochen meinten sie, sie hätten bei 14 % Derartiges beobachtet – also ein relativ hohes Potential.

    Betrug ist auch der Hauptgrund, warum eine jährlich steigende Zahl an Publikationen zurückgezogen werden (muß). Dies zeigt eine vor wenigen Monaten erschienene Studie von Fang et al.10, die alle in der Datenbank PubMed aufgegelisteten und zwischen 1940 und 2012 von den Autoren zurückgezogenen Veröffentlichungen untersuchte (es waren 2047 von mehr als 25 Millionen Artikel). Die Journale mit dem highest-ranking wiesen auch die meisten Zurückziehungen (retractions) auf.

    Insgesamt gesehen liegt also die Rate der offiziell zurückgezogenen Artikel bei etwa 1:10 000. Das klingt zwar sehr wenig, birgt aber das Potential, Wissenschaft und Wissenschafter zu diskreditieren.

    In den letzten Jahren hat sich die Vorgehensweise zur Entlarvung von Fälschern grundlegend geändert. Viele Forscher nehmen es nicht mehr hin, daß sie so viel Zeit, Mühe und vor allem Forschungsgeld verschwendet haben um Daten und Methoden zu reproduzieren, die sich schlußendlich als Fälschungen herausstellten. Sie nehmen auch nicht hin, daß sie im Kampf um Grants oder Anstellungen Kollegen unterliegen, deren Erfolg auf Betrug aufgebaut ist.

    Aus diesen Gründen, aber auch aus Redlichkeit, haben immer mehr Wissenschafter begonnen, die Artikel mutmaßlicher Fälscher penibelst zu recherchieren. Auf Internetforen und in Blogs untermauern sie dann als (meist anonyme) Whistleblower Anschuldigungen mit fundierten Belegen und lösen damit Diskussionen und Untersuchungen an den betroffenen Institutionen aus, die schlußendlich Betrügern (wie etwa vor knapp einem Jahr dem Salzburger Kristallographen Robert Schwarzenbacher) das Handwerk legen. Insbesondere ist hier die von Ivan Oransky and Adam Marcus vor rund 2½ Jahren ins Leben gerufene Plattform Retraction Watch zu erwähnen.

    Im übrigen, der auf RetractionWatch aufgeführte Rekordhalter im Zurückziehen von Artikeln ist ein berühmter Japanischer Anaethesist – Yoshitaka Fujii – der zwischen 1993 und 2011 Daten in 183 von 212 Publikationen gefälscht hatte. Verständlicherweise wurde er aus seinem Posten entfernt.

    Wie kommt es aber dazu, daß derartige Fälschungen überhaupt in höchstrangige Journale gelangen können, die ja einem „peer review“ Begutachtungssystem unterliegen? Dieses System sieht je eingereichten Artikel 2 bis 3 – den Autoren nicht genannte – Fachkollegen – „peers“ – als Gutachter vor, die freiwillig und unbezahlt innerhalb einer kurzen Frist ihren Review abliefern. Ein Großteil an Fehlern wird dabei erkannt und die Arbeit zur Korrektur zurückgesandt oder überhaupt abgelehnt. Sei es nun, daß der Gutachter einen der Autoren gut kennt und ihm voll vertraut, sei es, daß er sich bei dem Thema der Arbeit nicht wirklich auskennt oder – wie in den meisten Fällen – einfach zu wenig Zeit hat: die nötige Sorgfalt des Reviews wird dadurch nachteilig beeinflußt. Hier sind zweifellos die Verlage selbst gefordert, zur Qualitätssicherung beizutragen.

    Fazit

    Wissenschaftsbetrug wird zunehmend riskanter. Whistleblowers und Plagiatsjäger haben bereits erfolgreich eine Reihe von Betrügern mit Schimpf und Schande aus möglicherweise renommierten Positionen „verjagt“. Wissenschaftsbetrug schadet aber nicht nur dem Betrüger, sondern auch Betreuern, Mitautoren, Gutachtern und ganzen wissenschaftlichen Institutionen, weil diese die Fälschungen offensichtlich nicht erkannt oder ignoriert haben. Ob dies nun auf Inkompetenz oder auf einfaches „Wegsehen“ oder gar auf Vertuschen zurückgeführt werden kann: auch damit wird die Glaubwürdigkeit der Wissenschaft schwer beschädigt, auch dies sollte als wissenschaftliches Fehlverhalten geahndet werden!


    Literatur:

    1. Paraphrase des Titels von Friedrich Schillers Antrittsvorlesung in Jena, 1789.
    2. http://www.dw.de/wie-wichtig-ist-ein-doktortitel-f%C3%BCr-politiker/a-16308637 abgerufen am 24.2.2013
    3. Phaedrus, Fabulae 1, 3:“ Graculus superbus et pavo“
    4. http://studienpraeses.univie.ac.at/informationsmaterial/sicherung-der-guten-wissenschaftlichen-praxis-2/ abgerufen am 26.2.2013
    5. http://pdf.zeit.de/studium/hochschule/2012-08/schummeln-studie-studium.pdf PDF, abgerufen am 26.2.2013
    6. http://de.vroniplag.wikia.com/wiki/Home abgerufen am 26.2.2013
    7. http://de.plagipedi.wikia.com/wiki/PlagiPedi_Wiki abgerufen am 27.2.2013
    8. http://www.swp.de/ulm/nachrichten/suedwestumschau/Faelscher-verliert-seinen-Doktortitel;art4319,1113357 abgerufen am 27.2.2013
    9. http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0005738 abgerufen am 28.2.2013
    10. http://www.pnas.org/content/109/42/17028.full.pdf+html?sid=884d96ad-a4bb-40f8-962d-807d55858539 abgerufen am 28.2.2013 (Anmeldung erforderlich)
    inge Thu, 28.02.2013 - 04:20

    Woraus unsere Welt besteht und was sie zusammenhält. Teil 2: Was ist das Higgs-Teilchen?

    Woraus unsere Welt besteht und was sie zusammenhält. Teil 2: Was ist das Higgs-Teilchen?

    Fr, 21.2. 2013 - 04:20 — Manfred Jeitler

    Icon PhysikManfred JeitlerDas kürzlich am Forschungszentrum CERN in Genf entdecke Higgs-Teilchen hat die Gültigkeit des Standardmodells der Elementarteilchen erhärtet. Dieses Modell hatte als Kernstück ein das ganze Universum durchziehendes „Feld“ (Higgs-Feld) postuliert, mit dem die Elementarteilchen wechselwirken und daraus ihre Masse beziehen. Durch Zufuhr genügend hoher Energie im Teilchenbeschleuniger (Large Hadron Collider - LHC) ließen sich Störungen (Dichteschwankungen) im Higgs-Feld erzeugen, welche, als echtes Teilchen mit den für das Higgs-Teilchen geforderten Charakteristika aufschienen.

    Wieso braucht man im Standardmodell unbedingt ein Higgs-Teilchen?

    Das Problem besteht darin, dass in diesem Modell zuerst einmal alle Elementarteilchen masselos wären. Es gibt zwar wirklich Elementarteilchen, die keinerlei Masse haben, so z.B. das "Photon" oder Lichtteilchen (wenn wir etwas sehen, fliegen einfach solche Photonen in unsere Augen, die das dann wahrnehmen können). Aber man hat experimentell festgestellt, dass andere Elementarteilchen sehr wohl Masse besitzen. Jetzt meinen Sie vielleicht: "Na toll, diese Physiker! Weiß ich doch alles auch ohne die! Ich bestehe ja angeblich selbst aus diesen Teilchen, behaupten sie. Und dass ich selbst Masse habe, weiß ich nur zu gut. Ich ärgere mich jedes Mal über diese vielen Kilos, wenn ich auf die Badezimmerwaage steige! Also muss diese Masse ja irgendwie in den Teilchen drin stecken." Ganz so einfach ist das aber nicht! Ein System von Elementarteilchen kann, von außen gesehen, viel mehr Masse haben, als die einzelnen "Bestandteile". Das liegt daran, dass man sich das nicht einfach wie einen Lego- oder Matadorbaukasten vorstellen kann. Warum das so ist, werden wir ein bisschen später sehen.

    Was ist das Higgs-Feld?

    Einstweilen wollen wir einfach eine Theorie haben, die erklärt, warum manche Elementar­teilchen über Masse verfügen, also "etwas wiegen". Dazu haben der schottische Physiker Peter Higgs (jetzt wissen Sie, woher der Name kommt!) und andere ein "Feld" eingeführt, und das erzeugt diese Masse. (Sie haben vielleicht schon von elektrischen Feldern, Magnetfeldern oder dem Gravitationsfeld, also der Schwerkraft, gehört. Das Higgs-Feld ist im Wesentlichen auch ein solches Feld).

    Der englische Physiker David Miller hat das seinem Wissenschaftsminister einmal so erklärt: Bei einem diplomatischen Empfang kommt plötzlich ein bedeutender Politiker ins Zimmer (Abbildung 2.1, links). Sofort stürzen sich die Anwesenden auf ihn, allen voran die Reporter und Paparazzi, und wollen ihn befragen, fotografieren, oder wenigstens anstarren. Der Ärmste ist jetzt von einem Menschenknäuel umgeben und kann sich nicht mehr frei bewegen (Abbildung 2.1, rechts), nur noch ganz langsam. (Das kann natürlich peinlich sein, vielleicht wollte er nur einmal ganz rasch auf die Toilette.) Er hat sozusagen eine riesige Masse bekommen.

    Higgsfeld Higgsfeld verleiht einem Teilchen Masse
    Abbildung 2.1: Ein gleichförmiges Feld (links) kann einem dieses passierenden Teilchen (rechts) Masse verleihen (Higgs Mechanismus – wie ihn David Miller seinem Minister erklärte)

    Ähnlich geht das den Elementarteilchen: die sind der Politiker, und das Higgs-Feld sind die Paparazzis. Jetzt kann es aber passieren, dass überhaupt keine berühmte Persönlichkeit hereinkommt, aber trotzdem jemand irrtümlich (oder absichtlich, um sich über die anderen lustig zu machen) schreit: "Da kommt er!" (Abbildung 2.2, links) Sofort stürzen sich die Schaulustigen zur Tür und merken nicht gleich, dass da gar niemand ist, den man anstarren kann. Dieser Knäuel von Leuten, ganz ohne Politiker in der Mitte, sieht jetzt ganz ähnlich aus wie vorhin und bewegt sich langsam weiter, weil vorne immer neue Leute hinrennen, während sich hinten andere enttäuscht abwenden (Abbildung 2.2, rechts).

    Higgsfeld Higgsfeld bildet Teilchen
    Abbildung 2.2. Ein gleichförmiges Feld (links) kann ›Klumpen‹ bilden (rechts). In die Sprache der Physik übertragen ist dies das Higgs-Teilchen (Higgs Mechanismus – wie ihn David Miller seinem Minister erklärte)

    Das wäre jetzt, wieder in die Sprache der Physik übersetzt, ein Higgs-Teilchen. Also nochmals:

    • das Higgs-Feld brauchen wir, um die Masse der Teilchen zu erklären.
    • Aber dann muss es auch manchmal solche "Klumpen" bilden, ohne dass ein anderes Teilchen da wäre, und das muss man dann als Higgs-Teilchen nachweisen können.

    Wie entsteht das Higgs-Teilchen?

    Wie kann aber so ein schweres Teilchen entstehen, doch wohl nicht ganz von selbst? Schwer ist es nämlich tatsächlich, es wiegt mehr als hundert Mal so viel als ein Proton. Am CERN-Beschleuniger werden Protonen mit hoher Energie gegeneinander geschleudert. Wieso fliegt dann plötzlich wo ein hundert Mal schwereres Teilchen heraus?

    Sie haben sicher schon von der berühmten Formel der Relativitätstheorie gehört: E = mc², gesprochen: "E ist gleich m-c-Quadrat", d.h. "Energie ist gleich Masse mal Quadrat der Lichtgeschwindigkeit".

    Was bedeutet das?

    Energie ist eigentlich dasselbe wie Masse, nur multipliziert mit einer großen Zahl.

    Denken Sie ans Geld. Heute zahlt man in Italien mit Euros, früher zahlte man dort mit Lire. Ein Euro ist fast soviel Geld, wie damals zweitausend Lire waren. Aber Geld ist beides. Und wenn Sie wo einen alten Lireschein finden, können Sie damit zur italienischen Nationalbank pilgern und ihn in Euro umwechseln lassen.

    Ebenso sieht es mit Energie und Masse aus.

    In einem Kernkraftwerk wiegen die Abfälle nach der "Energieerzeugung" ein ganz kleines bisschen weniger als die Brennstäbe vorher: ein kleines bisschen Masse (Gewicht) ist in eine Menge Energie (Kilowattstunden) umgewandelt worden.

    Umgekehrt ist es bei einem Beschleuniger: man steckt viele Kilowattstunden in die Beschleunigung der Protonen, und wenn die dann mit Wucht aufeinander prallen, kann dabei ein Teil dieser Energie wieder in Masse, also in schwere Teilchen, umgewandelt werden, die die Physiker dann mit ihren Detektoren und etwas Glück finden können. (Jetzt kann man auch verstehen, wieso ein System von Elementarteilchen mehr wiegen kann als alle einzelnen Teilchen zusammen genommen: Die Energie, mit der die Elementarteilchen zusammengehalten werden bzw. umeinander fliegen, entspricht eben jener zusätzlichen Masse.)

    Wie lässt sich das Higgs-Teilchen finden und nachweisen?

    Aber was heißt das eigentlich, "ein Teilchen finden"? Und wo liegt das Higgs-Teilchen jetzt? Schwer bewacht in einem Tresor am Forschungszentrum CERN, damit nicht womöglich wer kommt und es uns wieder wegnimmt? Nein, natürlich nicht. Es ist ja nicht ein einzelnes Teilchen, wie die "Mona Lisa", von der es auf der Welt nur ein Exemplar gibt, sondern eine bestimmte Art von Teilchen. Außerdem ist es aber nicht stabil: wie gewonnen, so zerronnen.

    Dieses arme Higgs-Teilchen ist dermaßen kurzlebig, das es selbst, wenn es fast mit Lichtgeschwindigkeit fliegt, niemals die paar Meter bis zu unserem Detektor überdauert.

    Aber wieso erdreisten sich dann diese Physiker, zu behaupten, sie hätten diese Teilchen "gesehen"?

    Da müssen wir einmal nachdenken, was wir meinen, wenn wir sagen, wir "sehen" etwas. Wenn wir etwas sehen, müssen wir es nicht berühren. Wir können sogar ganz schön weit entfernt davon stehen, denken wir doch nur an die Sterne am Nachthimmel. Wichtig ist nur, dass uns die Lichtteilchen ("Photonen") treffen, die von dort ausgesendet werden.

    Ähnlich ist es beim Higgs-Teilchen (und bei vielen anderen sehr kurzlebigen Elementarteilchen): sie kommen nicht bis zu uns, sie zerfallen vorher, aber diese Zerfallsprodukte können wir dann in unseren Detektoren nachweisen. In der Bibel steht geschrieben: "An ihren Früchten sollt ihr sie erkennen." Diese Regel gilt in der Teilchenphysik auch: wenn man es schafft, alle Zerfallsprodukte eines Teilchens richtig zu messen, dann kann man ganz genau die Masse des zerfallenen Teilchens berechnen. Die Masse (sozusagen das Gewicht) ist aber so etwas wie die Visitenkarte eines Teilchens. Anders als bei den Menschen, wo es schon einmal vorkommen kann, dass zwei Leute genau gleich viele Kilos auf die Waage bringen, kann man ein Teilchen genau durch seine Masse identifizieren. (Es gibt ja auch nicht so viele verschiedene Arten von Teilchen, wie Menschen.)

    Genau so haben die Physiker am CERN das Higgs-Teilchen nachgewiesen.

    Die Entdeckung der Nadel im Heuhaufen

    Nur, ganz so einfach ist es dann auch nicht. Oft sieht man eben nicht alle Produkte von irgendeinem Zerfall, oder misst etwas falsch. Es gibt aber sehr, sehr viele andere Prozesse, die gar nichts mit dem Higgs-Teilchen zu tun haben, aber viel häufiger vorkommen. Dass das Higgs-Teilchen eher selten vorkommt, haben Sie sicher schon erraten: sonst hätten die Physiker es ja schon längst gefunden. Wenn es aber so viele andere Vorgänge gibt, die viel häufiger auftreten, und man manchmal einen Fehler macht, könnte das plötzlich so ausschauen, wie ein Higgs-Teilchen. (Sie wissen ja: Wer arbeitet, macht Fehler. Wer viel arbeitet, macht viele Fehler. Wer keine Fehler macht, wird Chef.) Die "Masse", die man dann ausrechnet, ist dann das, was wir eine "Hausnummer" nennen: irgendein Wert ohne wirkliche Bedeutung, einmal größer, einmal kleiner. Diese Fehler bilden den "Untergrund". (Hat nichts mit der Mafia zu tun, ist für Physiker aber auch sehr lästig.) "Das ist ja schrecklich!", werden Sie jetzt vielleicht stöhnen. "So viel Aufwand, und dann misst man erst was Falsches!" Aber es gibt einen Ausweg: der Untergrund wird eben irgendeinen Wert für die "Masse" geben, nicht immer denselben. Die wirklichen braven Higgs-Teilchen haben aber immer dieselbe Masse! Das heißt, bei dem richtigen Wert sieht man ein bisschen öfter etwas, als bei den falschen. Das ist so wie bei einem Telefon- oder Skype-Gespräch, wenn die Verbindung schlecht ist. Man versteht kaum etwas, aber wenn der Partner immer wieder die wichtige Information wiederholt, dann wird man sie schließlich doch kapieren.

    Masse des HiggsteilchenAbbildung 2.3: Masse des neu entdeckten Higgs-Teilchen 125 GeV

    Ein Bild sagt mehr als tausend Worte, und hier sehen Sie eines der Bilder, die die Entdeckung des Higgs-Teilchens dokumentiert haben (Abbildung 2.3). Man hat sich Fälle angesehen, wo genau zwei Photonen gesehen wurden (Photonen werden in der Physik aus irgendeinem Grund mit einem kleinen griechischen Gamma abgekürzt.) Auf der waagrechten Achse ist für jeden der vielen gemessenen Fälle die Masse aufgetragen, die irgendein anderes Teilchen haben würde, wenn es in diese zwei Photonen zerfallen wäre (für die Photonen wurde jedes Mal eine andere Energie und Flugrichtung gemessen, dadurch gibt es viele verschiedene Werte für diese "Masse", die vielleicht gar nicht der Masse eines wirklichen Teilchens entspricht und übrigens im Physiker-Jargon als "invariante Masse" bezeichnet wird). Die Einheit lautet hier "GeV" (Gigaelektronenvolt), lassen Sie sich aber dadurch nicht beunruhigen, wir hätten genau so gut Kilogramm hinschreiben können (nur müssten wir dann mit unpraktisch kleinen Zahlen arbeiten; Sie verlangen im Geschäft ja auch nicht "bitte eine Zehntausendstel Tonne Extrawurst", sondern "zehn Deka" oder "hundert Gramm").

    Der senkrechten Achse entspricht die Häufigkeit, mit der ein bestimmter Wert ausgerechnet wurde. Die falschen Werte kommen öfter bei niedrigen "Massen" vor als bei sehr hohen, drum geht die Kurve von links oben nach rechts unten. Wichtig ist aber der Buckel bei 125 GeV: der kommt von den wirklichen Higgs-Teilchen, die in zwei Photonen zerfallen sind, nicht von irgendwelchen Untergrund-Ereignissen. (Lassen Sie sich nicht von der Aufschrift auf dem Bild verwirren, das sind nur technische Details, die für uns hier belanglos sind.)

    Wie geht es weiter?

    Higgs-Teilchen zerfallen nicht immer in zwei Photonen, sie können auch andere Zerfallsprodukte hinterlassen. Solche Ereignisse hat man auch gemessen, immer denselben Wert für die Higgs-Masse gekriegt, und drum sind wir jetzt sehr zuversichtlich, dass wir wirklich das Higgs-Teilchen gefunden haben. Was nicht heißt, dass damit alles geklärt und nichts mehr zu tun ist. Jetzt müssen wir erst die Eigenschaften dieses neuen Teilchens genau untersuchen, da wird es erst richtig spannend!

    Es gibt noch viel Arbeit. Vielleicht wollen Sie rasch Physik studieren und dann dabei mithelfen?


    Anmerkung des Autors:

    Dieser Beitrag ist meinem Freund und Kollegen Laurenz Widhalm gewidmet, einem begeisterten Physiker, der sich besonders dafür engagiert hat, die Physik der Öffentlichkeit, vor allem aber der Jugend, näher zu bringen. Leider hat er uns viel zu früh verlassen.


    Anmerkungen der Redaktion

    Der erste Teil dieses Essays : „Woraus unsere Welt besteht und was sie zusammenhält. Teil 1: Ein Zoo aus Elementarteilchen“ erschien am 7. Feber 2013. 

    CERN: Europäische Organisation für Kernforschung (Conseil Européen pour la Recherche Nucléaire) Am CERN wird der Aufbau der Materie aus Elementarteichen erforscht und wie diese miteinander wechselwirken - also woraus das Universum besteht und wie es funktioniert.  Publikumsseiten des CERN; https://home.cern/science/physics/higgs-boson

    HEPHY: Institut für Hochenergiephysik der Österreichischen Akademie der Wissenschaften: Grundlagenforschung auf dem Gebiet der Elementarteilchenphysik, Teilnahme an internationalen Großexperimenten am CERN und am KEK (nationales japanisches Forschungszentrum), an der Planung des ILD Experiments (International Linear Collider (ILC)). Auf der Webseite finden sich leicht verständliche Darstellungen (in Deutsch) u.a. zum Higgs-Boson: http://www.teilchenphysik.at/wissen/das-higgs-boson/.


     

    inge Thu, 21.02.2013 - 04:20

    Gefährdetes Licht – zur Wissensvermittlung in den Naturwissenschaften

    Gefährdetes Licht – zur Wissensvermittlung in den Naturwissenschaften

    Fr, 14.02.2013 - 04:20 — Gottfried Schatz

    Icon Politik & Gesellschaft

    Gottfried SchatzDie sieggewohnten Naturwissenschaften sind heute dreifach bedroht. Sie kämpfen gegen den Verlust einer gemeinsamen Sprache, überbordendes Konkurrenzdenken und die Grenzen menschlicher Vorstellungskraft.

    Für den Astronomen Carl Sagan war Wissenschaft eine Kerze in einer dunklen und von Dämonen besessenen Welt. Und in der Tat: Das Licht dieser Kerze schützt uns vor dem Dunkel unbegründeter Ängste, sinnloser Zwänge und entwürdigender Vorurteile. Es wuchs aus vielen Funken, die sich in den letzten zwei Jahrhunderten zu einer mächtigen Flamme vereinten. Vor allem gilt dies für die Naturwissenschaft. Noch im frühen 19. Jahrhundert war sie in unzählige Einzelfächer aufgespalten, die sich emsig dem Schaffen und Ordnen von Detailwissen widmeten und im Schatten genialer Denker wie Kant und Schopenhauer standen

    Sprachverlust…

    Wissen ist jedoch keine Ware, die sich verpacken, etikettieren und für alle Zeiten ablegen lässt; es gehorcht seinen eigenen Gesetzen, die wir weder genau kennen noch ändern können. Wissen gleicht einem Zoo wilder Tiere, die ihre trennenden Gitter durchbrechen und unerwartete Nachkommen zeugen. Jean-Paul Sartres Ausspruch «Nicht wir machen Krieg; der Krieg macht uns» gilt auch für das Wissen. Unter dem Ansturm der wissenschaftlichen Forschung verändert es sich ohne Unterlass und verändert damit auch uns. Wir mögen es zwar kurzfristig bändigen oder sogar verfälschen, doch auf lange Sicht ist es stets stärker als wir. Das Victor Hugo zugeschriebene Zitat «Nichts ist mächtiger als eine Idee, deren Zeit gekommen ist» ist zwar nicht authentisch, aber dennoch wahr.

    Diese Dynamik des Wissens schöpft ihre Kraft aus der Zwiesprache der Wissenschafter und deren Bereitschaft, Wissen an die folgenden Generationen weiterzugeben. Erst als Naturwissenschafter verschiedener Disziplinen miteinander zu sprechen begannen, offenbarte sich ihr gemeinsames Wissen als Quelle grosser Wahrheiten über uns und die Welt. Das einigende Band dieser Zwiesprache machte die Naturwissenschaften zu einer philosophischen Kraft des 20. Jahrhunderts.

    Heute droht dieses Band zu zerreissen. Eine Vorwarnung war die Entfremdung zwischen den «Natur»- und den «Geistes»-Wissenschaften, die der britische Physiker Charles Percy Snow in seiner berühmten Rede «The Two Cultures» am 7. Mai 1959 im Senate House der Universität Cambridge mit grosser Eindringlichkeit beklagte: Seine Worte «Ich hatte dauernd das Gefühl, mich zwischen zwei Gruppen zu bewegen, die kaum noch miteinander sprachen» haben nichts von ihrer Gültigkeit eingebüßt. Naturwissenschafter sollten sie besonders ernst nehmen, sind sie doch auf dem besten Wege, ihre gemeinsame Sprache zu verlieren.

    …und babylonische Sprachverwirrung

    Diese babylonische Sprachverwirrung bedroht vor allem die Biologie und andere schnell wachsende Disziplinen, in denen die genaue Beschreibung einer rasant anwachsenden Vielfalt von Objekten und experimentellen Methoden eine zentrale Rolle spielt. Wohl deshalb sind die meisten biomedizinischen Vorträge heute mit wissenschaftlichem Jargon und unnötigen technischen Details derart überfrachtet, dass nur Experten des jeweiligen Spezialfachs sie noch verstehen können. Vorträge mit weit über hundert Power-Point-Projektionen komplexer Collagen aus vielen Einzelbildern sind keine Seltenheit, wobei meist nur ein winziger Bruchteil der projizierten Datenflut im Vortrag Erwähnung findet.

    Berauscht von der technischen Virtuosität ihrer schwierigen Experimente verzichten Vortragende immer häufiger darauf, das Ziel und die breitere Bedeutung ihrer Ergebnisse in einfachen Worten zusammenzufassen. Während meiner aktiven Forschertätigkeit hatte ich mich an diesen Verfall wissenschaftlicher Kommunikation gewöhnt, doch jetzt, in der Distanz meiner Emeritierung, zeigt er sich mit bestürzender Klarheit.

    Die grossen internationalen Wissenschaftskongresse drohen zu Trade-Shows zu verkommen, an denen die ausgestellten Geräteneuheiten und Bücher den wissenschaftlichen Dialog in den Hintergrund drängen. Wenn Kongressteilnehmer die meisten wissenschaftlichen Vorträge nur noch vage verstehen, zerbröckelt die mühsam erkämpfte Einheit der Naturwissenschaften. Datenflut und Konkurrenzdenken

    Zu diesem Sprachverlust gesellt sich eine gewaltige Herausforderung des Wissenschaftsbetriebes durch das dramatische Anwachsen von Daten und Wissen. Dieses Wachstum begann im frühen 18. Jahrhundert, beschleunigte sich bald darauf exponentiell und ist seit einigen Jahrzehnten sogar hyperbolisch. Sollte es ungebremst andauern, würde es um die Mitte dieses Jahrhunderts ins Unendliche explodieren. Natürlich ist dies unmöglich, da auch jedes nichtlineare Wachstum in einer endlichen Welt unweigerlich an seine Grenzen stößt. Doch schon heute haben Naturwissenschafter immer grössere Mühe, ihre Ergebnisse in wissenschaftlichen Zeitschriften zu veröffentlichen, obwohl auch deren Zahl unablässig anschwillt.

    Die Folge ist eine bizarre Zeitschriften-Hierarchie, in der einige wenige «Prestige-Zeitschriften» das Feld beherrschen. Und diese ermahnen ihre Begutachter oft unverblümt, möglichst viele der eingesandten Manuskripte ohne Prüfung durch unabhängige Experten abzulehnen, um das Renommee der Zeitschrift zu wahren. Da auch die Zahl der biomedizinischen Forscher in den letzten Jahrzehnten stark angewachsen ist, sind Konkurrenzdenken, Unsicherheit und Aggressivität im heutigen Forscheralltag weit verbreitet. Der Wettstreit der Besten wird zu dem der Lautesten. Könnte dies erklären, weshalb immer noch so wenige Frauen eine Karriere in der biomedizinischen Forschung anstreben? Wie weit geht unsere Vorstellungskraft?

    So beunruhigend der drohende Verlust einer gemeinsamen Sprache und des Gemeinschaftssinns auch ist – die größte Bedrohung der Naturwissenschaft könnte ihr eigener Erfolg sein. Sie schenkte uns atemberaubende Erkenntnisse über unsere Welt, unser Wesen und unsere Herkunft und hat dabei jahrtausendealte Traditionen über den Haufen geworfen. Die Entdeckungen von Physik, Astronomie, Chemie und Biologie begeisterten die Menschen und machten die DNS-Doppelhelix und das Satellitenbild unseres blauen Planeten zu Ikonen unserer Zeit. Je tiefer die Naturwissenschaft jedoch in die Geheimnisse der Welt eindringt, desto abstrakter werden ihre Entdeckungen.

    Schon längst verstehen nur wenige Eingeweihte, was die unterirdischen Riesenmaschinen am CERN uns verkünden sollen oder was kurz vor dem Urknall geschah. Ich vermute, dass das öffentliche Interesse am Higgs-Boson, am Raum-Zeit-Kontinuum oder an den Geheimnissen des Universums sich nicht so sehr an den wissenschaftlichen Resultaten, sondern an dem gigantischen personellen und finanziellen Aufwand für den Large Hadron Collider, dem exzentrischen Charisma eines alternden Albert Einstein oder der Tragik des genialen, schwerstbehinderten Astrophysikers Stephen Hawkings entzündet. Immer häufiger beantwortet die Natur unsere Fragen mit mathematischen Formeln, die den meisten von uns ebenso unverständlich und unvorstellbar sind wie ein vierdimensionaler Würfel oder die Heilige Dreifaltigkeit. Wo sind die Wissensvermittler?

    Selbst die bisher so anschauliche Biologie wagt sich nun als Systembiologie in ein Labyrinth immens komplexer Netzwerke, in denen nur elektronische Gehirne sich noch zurechtfinden. Die Erkenntnisse der Naturwissenschaft nähern sich heute den Grenzen menschlicher Vorstellungskraft und verlieren damit das Vermögen, unser inneres Leben zu bereichern. Mehr denn je braucht es Wissensvermittler, welche die Bedeutung naturwissenschaftlicher Erkenntnisse für unser Menschenbild und unser tägliches Leben in einfachen Worten und dennoch sachlich korrekt erklären. Dies können nur wenige Naturwissenschafter; bei ihren Fachkollegen gelten sie oft als publicitysüchtig, und wenn sie Hilfe bei den Geisteswissenschaften suchen, kämpfen sie nicht selten gegen eine tief verwurzelte Abwehrhaltung und eine unnötig komplizierte Sprache, die ebenso unverständlich sein kann wie das detailbesessene Newspeak der Naturwissenschaften.

    Wenn es uns nicht gelingt, diese Hürden zu überwinden und weiterhin junge Menschen für naturwissenschaftliche Forschung zu begeistern, werden die lachenden Dritten Esoterik, Spiritismus und Aberglaube sein. Sie sind die lichtscheuen Dämonen, von denen Carl Sagan sprach.

    Nur das Licht der Wissenschaft schützt uns vor ihnen.


    Anmerkungen der Redaktion

    Zum Problem des Niedergangs wissenschaftlicher Kommunikation (des „Sprachverlusts“) ist im Science-Blog kürzlich der Artikel »Umweltökologie und Politik - Der Frust der nicht gehörten Wissenschaftler« erschienen.

    Der 2-teilige Beitrag: »Woraus unsere Welt besteht und was sie zusammenhält« demonstriert, wie Wissen in einem unsere Vorstellungskraft übersteigenden Gebiet vermittelt werden kann.


     

    inge Thu, 14.02.2013 - 04:20

    Woraus unsere Welt besteht und was sie zusammenhält. Teil 1: Ein Zoo aus Elementarteilchen

    Woraus unsere Welt besteht und was sie zusammenhält. Teil 1: Ein Zoo aus Elementarteilchen

    Fr, 07.02.2013 - 04:20 — Manfred Jeitler

    Icon PhysikManfred JeitlerBei dem ursprünglich als unteilbar kleinste Einheit der Materie gedachten Atom stellte sich heraus, dass es aus einer Reihe von Elementarteilchen besteht: aus den Grundbausteinen der Atomkerne (Quarks), Leptonen (z.B. Elektronen) und Kraftteilchen (Eichbosonen), welche die Wechselwirkungen zwischen den Teilchen vermitteln. Was verschafft den Teilchen aber Masse? Welche fundamentale Rolle spielt das kürzlich entdeckte ›Higgs-Boson‹?

    Letztes Jahr wurde am Forschungszentrum CERN (Europäische Organisation für Kernforschung) in Genf das Higgs-Teilchen entdeckt - das haben Sie sicher schon gehört. Aber was hat es mit diesem geheimnisvollen Teilchen auf sich? Wozu „brauchen“ wir das? Man hört, dieses Teilchen erschaffe die Masse. Was soll das heißen? Würden wir ohne das Higgs-Teilchen vielleicht masselos umherschweben? Das wäre zwar angenehm beim Stiegensteigen, aber doch auch sehr lästig, wenn man beim ersten kleinen Freudensprung ohne Widerstand in den Weltraum entweicht und seine Lieben nie wieder sieht. Auch die ganze Erde würde ja dann nicht zusammenhalten, und jeder von uns würde auf seinem eigenen kleinen Asteroiden sitzen, wie der kleine Prinz von Saint-Exupéry. Das wäre doch ein wenig einsam. Haben vielleicht die Physiker am CERN letztes Jahr mit ihrer Entdeckung rasch noch die Welt gerettet, vor dem schon vorhergesagten Weltuntergang knapp vor Weihnachten? Manchmal wurde das fragliche Teilchen auch als „Gottesteilchen“ bezeichnet. Heißt das, dass die Physiker jetzt vielleicht auch noch den lieben Gott in ihren Apparaturen entdeckt haben, wie seinerzeit Goethes Faust den Homunculus?

    Nichts von alledem - so faszinierend das auch klingen mag. Das Higgs-Teilchen „erschafft“ nicht die Masse - und es gab natürlich dieses Teilchen auch schon, bevor es entdeckt wurde. Aber es hat tatsächlich etwas mit der Masse der anderen Elementarteilchen zu tun. (Was ein Elementarteilchen ist, werden wir gleich besprechen.) Der reißerische Ausdruck „Gottesteilchen“ hat noch viel weniger mit tiefsinniger Wahrheit zu tun. Der amerikanische Nobelpreisträger Leon Lederman schrieb ein Buch über das Higgs-Teilchen, das seit langem vorhergesagt, aber schwer zu finden war. Er wollte es deshalb das „gottverdammte Teilchen“ („goddamn particle“) nennen, genau so, wie wir vielleicht schimpfen: „Wo ist denn schon wieder diese blöde Brille?“, wobei es um den Intelligenzquotienten unseres Sehbehelfs um nichts schlechter bestellt ist als um das Seelenheil unseres kleinen Teilchens. Gotteslästerliche Flüche gelten in den USA aber nicht allgemein als cool, und drum wurde der Name dann auf „Gottesteilchen“ abgeändert. Manche Physiker glauben an den lieben Gott, andere nicht, aber es wird wohl kaum einen geben, der ihm ernstlich die Erschaffung gerade dieses Teilchens, aber nicht die der übrigen Bestandteile unserer Welt zuschreibt.

    Der Elementarteilchen-Zoo

    Wie sieht es nun aber mit diesen Bestandteilen aus? Zuerst einmal ist die Welt ja ein verwirrendes Durcheinander von Menschen, Autos, Bäumen, Maikäfern und anderen Objekten. Schon im Altertum versuchte man, etwas Ordnung in dieses Wirrwarr zu bringen und alles auf der Welt auf vier Grundstoffe oder Elemente zurückzuführen. Das hat nicht ganz geklappt. Klarheit geschaffen hat in der Chemie das im 19. Jahrhundert von Mendeleev und anderen entwickelte Periodensystem der Elemente. Wir wissen nun, dass im Wesentlichen alles auf der Welt aus Atomen besteht, von denen es knapp hundert verschiedene Arten gibt. Dieser Mendeleev zeigte übrigens eine ganz schöne Zivilcourage, denn zu seiner Zeit waren noch jede Menge Elemente in seinem Periodensystem nicht entdeckt worden. Er zeichnete gewisser Maßen eine Landkarte mit vielen weißen Flecken, die dann erst im Laufe der Zeit mit den neu entdeckten Elementen gefüllt wurden. Das Element Helium, das erst später auf der Sonne nachgewiesen wurde, ist nur eines von einer ganzen Reihe solcher Beispiele.

    „Atom“ heißt auf Griechisch „das Unspaltbare“, der Name geht ursprünglich auf den alten Griechen Demokrit zurück und wurde in der modernen Chemie und Physik wieder verwendet. Leider ist er irreführend, denn bekanntlich beschäftigen sich ja die AKW-Betreiber mit Begeisterung gerade damit, Atome zu spalten. Man hat gemerkt, dass Atome aus anderen Teilchen bestehen – Protonen, Neutronen und Elektronen. Bei Protonen und Neutronen hat sich herausgestellt, dass sie ihrerseits wieder aus anderen Teilchen zusammengesetzt sind, den so genannten „Quarks“. Die haben nichts mit Speisetopfen zu tun, der nette Name wurde vom amerikanischen Physiker Gell-Mann erfunden, der dieses Wort aus einem Buch von James Joyce entlehnt hat (aus „Finnegans Wake“; James Joyce ist viel schwieriger zu verstehen als Elementarteilchenphysik, und darum kann ich Ihnen auch nicht sagen, warum gerade dieser Name gewählt wurde). Elektronen und Quarks bezeichnet man als „Elementarteilchen“, weil man bei ihnen bis heute keinerlei innere Struktur festgestellt hat. Sie sind also „elementar“ in dem Sinne, dass sie – jedenfalls nach dem heutigen Stand des Wissens – nicht aus anderen Bausteinen zusammengesetzt sind.

    Man hat aber in der kosmischen Strahlung und in Beschleunigerexperimenten noch eine ganze Menge anderer Elementarteilchen gefunden, die man eigentlich gar nicht „braucht“, um die Materie zu bilden. Dafür brauchen wir nämlich eigentlich – so scheint es jedenfalls auf den ersten Blick – nur drei Teilchen: zwei Quarks (das „Up“-Quark und das „Down“-Quark, aus denen wir Proton und Neutron zusammensetzen können) und das Elektron. Es gibt aber noch eine Menge anderer Teilchen, die aus anderen Arten von Quarks bestehen (mit attraktiven Namen wie „strange“, „charm“, „bottom“ und „top“), und auch noch Elementarteilchen, die mit dem Elektron verwandt sind (das Myon, das Tau, und mehrere Neutrinos). Diese Teilchen sind allerdings nicht stabil, sie zerfallen innerhalb kurzer Zeit. („Zerfallen“ heißt aber nicht, dass sich die Teilchen in ihre „Bestandteile“ trennen, Elementarteilchen bestehen ja eben nicht aus mehreren Bausteinen. Es bedeutet vielmehr, dass sich die Teilchen in mehrere leichtere Teilchen umwandeln.) Trotzdem kommen diese instabilen Teilchen in der Natur vor: sie werden bei Zusammenstößen erzeugt, wenn hochenergetische [1] Teilchen aus der kosmischen Strahlung auf die Atome in der Erdatmosphäre treffen.

    Wechselwirkungen zwischen den Teilchen

    Was wir aber durchaus brauchen, um die Natur zu beschreiben, ist etwas, das die Wechselwirkungen zwischen Teilchen bewirkt. Sie haben vielleicht schon gehört, dass sich elektrisch geladene Körper anziehen, wenn sie verschiedene Ladungen tragen (negativ und positiv), und abstoßen, wenn dieselbe Ladungsart in ihnen vorliegt. Das nennt man die „elektromagnetische Wechselwirkung“. Dennoch können mehrere (positiv geladene) Protonen in einem Kern zusammen liegen, ohne dass dieser auseinanderfliegt. Dafür ist unserem Verständnis nach eine andere Wechselwirkung verantwortlich (die so genannte „starke“ Wechselwirkung). Dass ein Stein zu Boden fällt, wenn wir ihn auslassen, ist der Gravitation zu verdanken. Und schließlich beobachtet man bei radioaktiven Zerfällen auch noch eine vierte Art der Wechselwirkung, die als die „schwache“ Wechselwirkung bezeichnet wird.

    Wie aber kommen diese Wechselwirkungen zustande? Woher weiß ein Elektron, dass ihm gegenüber ein Proton sitzt, und es sich von diesem gefälligst angezogen fühlen soll? Woher weiß der Stein, in welche Richtung es da zum Boden geht? Woher wissen zwei Protonen in einem Atomkern, dass sie beieinander bleiben sollen? Nach unserem gegenwärtigen Verständnis sieht es so aus, dass dies durch eine andere Art von Teilchen bewirkt wird, so, wie die Ziegel in einem Bauwerk durch Mörtel zusammengehalten werden. Man kann sich das vielleicht wie zwei Hunde vorstellen, die sich um einen Knochen streiten und dadurch zusammen gehalten werden (oder wie zwei Burschen, die sich um die Gunst derselben jungen Dame bemühen). Eine abstoßende Wechselwirkung kann man sich z.B. wie einen Ball vorstellen, der von Leuten in zwei Booten hin- und hergeworfen wird, wodurch die Boote auseinander treiben. Das ist aber nicht nur ein Bild oder ein Gleichnis: diese Teilchen hat man tatsächlich gefunden und mit physikalischen Geräten (so genannten „Detektoren“) nachweisen können!

    Das Standardmodell der Elementarteilchen

    Das ist ja ganz schön kompliziert, nicht wahr? Der liebe Mendeleev hat die Natur so einfach und klar gemacht. Auch die Atome scheinen nur aus Protonen, Neutronen und Elektronen zu bestehen. Jetzt aber kommen diese Teilchenphysiker, finden in der kosmischen Strahlung und in Beschleunigerexperimenten noch jede Menge anderer Teilchen, und es herrscht wieder ein Riesendurcheinander. Wer soll sich alle diese „K-Mesonen“ und „Lambda-Hyperonen“ und „Baryonen“ und „Tau-Leptonen“ und vielen anderen Teilchen mit exotischen Namen denn merken? Auch die Physiker selbst waren darüber nicht immer glücklich und haben manchmal bei der Entdeckung eines neuen Teilchens gestöhnt: „Wer hat denn das schon wieder bestellt?“ oder „Statt eines Nobelpreises sollten die Leute für die Entdeckung eines neuen Teilchens lieber eine saftige Geldstrafe aufgebrummt bekommen!“. Aber mit der Zeit hat man in diesem so genannten „Teilchenzoo“, in dem es tatsächlich von exotischen Wesen wurlt wie im Tiergarten Schönbrunn, eine Ordnung erkannt und wieder so etwas Ähnliches wie ein Periodensystem entdeckt. Man nennt dieses System das „Standardmodell der Elementarteilchen“. Es gibt darin nur wenige Typen von elementaren Teilchen: Quarks, „Leptonen“ (das sind die Teilchen, die mit dem Elektron verwandt sind), und „Eichbosonen“ (die Kräfte-Teilchen, die die Wechselwirkungen vermitteln - also die Knochen, um die die Hunde streiten, oder die Bälle, die hin- und hergeworfen werden).

    Das Standardmodell der Elementarteilchen mit dem zentralen HiggsteilchenAbbildung 1. Das Standardmodell der Elementarteilchen mit dem zentralen Higgsteilchen

    Langsam glauben Sie vielleicht, ich mache mir hier eine Themaverfehlung zu Schulden. Da verspreche ich, Ihnen das Higgs-Teilchen zu erklären, und jetzt rede ich aber von jeder Menge anderer Teilchen, Wechselwirkungen und Modelle. Stimmt aber nicht, jetzt komme ich auf den Punkt: Dieses Higgs-Teilchen ist ein ganz wesentlicher Bestandteil des Standardmodells: sehen Sie sich das Bild des Standardmodells an, wo es in der Mitte zwischen Quarks, Leptonen und Kräfteteilchen thront.

    Aber bis letztes Jahr war es noch nicht experimentell gefunden worden! Es war sozusagen so etwas, wie das Element Helium für Mendeleevs Periodensystem: ein weißer Fleck auf einer Landkarte. Das Standardmodell wurde in den siebziger Jahren des 20. Jahrhunderts entwickelt, viele seiner Bestandteile waren damals schon bekannt. Im Laufe der Jahre wurden dann die restlichen vorhergesagten Teilchen gefunden, nur dieses gottverdammte … pardon, dieses schwer nachweisbare Teilchen ließ sich nicht und nicht entdecken. Und weil die Physiker ihm so lange erfolglos nachgelaufen sind, freuen sie sich jetzt natürlich besonders, es gefunden zu haben.


    Anmerkung des Autors

    Dieser Beitrag ist meinem Freund und Kollegen Laurenz Widhalm gewidmet, einem begeisterten Physiker, der sich besonders dafür engagiert hat, die Physik der Öffentlichkeit, vor allem aber der Jugend, näher zu bringen. Leider hat er uns viel zu früh verlassen.


    Anmerkungen der Redaktion

    [1] »Hochenergetisch« bedeutet zunächst einmal »sehr schnell«, d.h. jedenfalls im »relativistischen Geschwindigkeitsbereich«, also einem wesentlichen Bruchteil der Lichtgeschwindigkeit (die allerdings keinesfalls überschritten werden kann). Aber »schnell« allein ist auch etwas irreführend: denn bei Zufuhr von Energie erreichen Teilchen recht bald beinahe Lichtgeschwindigkeit und erhöhen diese dann bei weiterer Zufuhr von Energie kaum noch.

    Der Länge wegen wurde der Artikel von Manfred Jeitler geteilt. Hier geht es zum 2. Teil: »Woraus unsere Welt besteht und was sie zusammenhält: Was ist das Higgs-Teilchen?«.


    Weiterführende Links:

    Vorträge und Vorlesungen von Manfred Jeitler

    Higgs – CERN – Universum (PDF download; leicht verständliche Darstellung in Deutsch; zuletzt abgerufen am 17.11.2012) Die größte Maschine der Welt (PDF-download; leicht verständliche Darstellung in Deutsch; zuletzt abgerufen am 19.11.2012) Astro-Particle Physics (WS 2012/13) — PDF-Downloads:

    Introduction to Particle Physics CERN: Europäische Organisation für Kernforschung (Conseil Européen pour la Recherche Nucléaire) Am CERN wird der Aufbau der Materie aus Elementarteichen erforscht und wie diese miteinander wechselwirken - also woraus das Universum besteht und wie es funktioniert. Publikumsseiten des CERN Auf der Webseite des CERN findet sich u.a. eine Fülle hervorragender Darstellungen der Teilchenphysik (Powerpoint-Präsentationen)


     

    inge Thu, 07.02.2013 - 04:20

    Comments

    Assistive Technologien als Unterstützung von Aktivem Altern

    Assistive Technologien als Unterstützung von Aktivem Altern

    Fr, 31.01.2013 - 04:20 — IIlse Kryspin-Exner

    Icon MINT

    Ilse Kryspin-ExnerBis zum Jahr 2030 wird die Zahl pflegebedürftiger alter Menschen in Österreich auf über 800.000 Personen angestiegen sein und damit die Kapazitäten professioneller Hilfs- und Pflegesysteme weit überfordern. Inwieweit ist ein Ersatz konventioneller Pflege und Betreuung durch technische Produktentwicklungen zumutbar?

    Zu den bedeutsamsten Phänomenen des 21. Jahrhunderts zählen die rapid ansteigende Alterung der Bevölkerung und das zunehmende Tempo der Technisierung. Diese Schnittstelle hatte in den letzten Jahren großes Forschungsinteresse – vor allem der Technikseite – zur Folge. Psychologische Modelle zur Akzeptanz oder wie diese technischen Möglichkeiten optimal zu nutzen sind („usability“), ebenso wie ethische Gesichtspunkte, etwa Zumutbarkeit oder ständige Überwachung, wurden kaum oder nur am Rande beachtet.

    Die Alterspyramide

    Durch den wachsenden Anteil an Älteren - bereits viel diskutiert, wird die Alterspyramide in Zukunft im wahrsten Sinne des Wortes „auf den Kopf gestellt“ (Abbildung 1) – ist eine Veränderung der Altenpflege und Betreuung in den kommenden Jahrzehnten europaweit unabdingbar.

    Entwicklung der Bevölkerungspyramide in ÖAbbildung 1: Die Entwicklung der Bevölkerungspyamide in Österreich

    Die erhöhte Zahl von Single-Haushalten und das in den Hintergrund Treten von traditionellen Pflege- und Hilfeleistungen, die früher vorwiegend aus dem Familiensystem übernommen wurden, fordern einerseits einen höheren Bedarf an professionellen Dienstleistungen, andererseits sind bereits jetzt nicht genügend personelle Ressourcen vorhanden und auch vom Gesundheitssystem nicht finanzierbar.

    Die Zahl pflegebedürftiger Personen in Österreich wird für das Jahr 2030 auf 811.000 Personen geschätzt. Wie soll mit Prognosen wie diesen umgegangen werden, wenn man bedenkt, dass viele ältere Menschen so lange wie möglich in den eigenen vier Wänden verbleiben möchten? Noch bevor diese Überlegungen für die Zukunft zum gravierenden Problem werden, hat die Technik mit Produktentwicklungen begonnen, um in weiterer Folge als Ressourcen in das Gesundheitssystem integriert werden zu können

    Assistive Technologien

    Ein Lösungsansatz für diese Entwicklung ist es, den Wunsch älterer Menschen nach Autonomie und Selbstständigkeit in ihrer eigenen Wohnumgebung mit verschiedenen technischen Hilfsmitteln zu unterstützen und notwendige Ressourcen zur Verfügung zu stellen. Unter dem Schlagwort Assistive Technologien werden verschiedenste Produkte oder Hilfsmittel subsumiert, die Personen in ihren Tätigkeiten des täglichen Lebens (bei den ATLs - Aktivitäten des täglichen Lebens) unterstützen sollen. Die Tatsache, dass durch derartige technische Hilfsmittel Kosten für das Gesundheitssystem durch Einsparung von Pflegepersonal oder Transport zu Serviceeinrichtungen um bis zu 50% reduziert werden können, klingt viel versprechend. Allerdings muss gewährleistet werden, dass die Technik - wie propagiert -, die Lebensqualität der Älteren erhält bzw. erhöht. (Abbildung 2)

    Smart HomeAbbildung 2. Smart Home (LINE9, 2006)

    Gut vorbereitet und unter Berücksichtigung der Bedürfnisse und Wünsche der Nutzer entwickelt, können Technologien eine hilfreiche Rolle für die Betroffenen einnehmen: Darunter fallen Gehhilfen, Rollstühle, Bildschirmlesegeräte, aber auch spezielle Programme zur Unterstützung der Computeranwendung für Menschen mit Beeinträchtigungen; Vernetzung verschiedenster Technologien im Haushalt selbst, also die Integration von Technologien und Diensten in der häuslichen Umgebung, um den Verbleib im Eigenheim durch Automatisierung der alltäglichen Arbeiten zu fördern (Mikrowellen und Herde mit Kochsensoren, Automatisches Abschalten des Badewassers, Fernsteuerung von Rollläden, Ortungssysteme für verlegte Gegenstände, Teppiche oder andere Textilien mit Notrufalarmfunktionen usw.). Hier ist insbesondere auch die Unterstützung durch die Informations- und Kommunikationsmedien wie Internet, E-Mail, Seniorenhandys, Bildtelephonie, Videophonie zur Aufrechterhaltung und Pflege sozialer Netzwerke zu erwähnen - die sogenannten „silver surfers“ sind die derzeit am schnellsten wachsende Gruppe von Nutzern!

    E-Health - Telemonitoring

    Unter dem Begriff „E Health“ werden medizinische Assistive Technologiesysteme wie das Telemonitoring von körperlichen Parametern subsummiert wie die kontinuierliche Erfassung von Temperatur, EKG, Blutzuckerüberwachung, Kontrolle der Flüssigkeitszufuhr, etc.. Das heutige Telemonitoring profitiert vor allem von der Mobilfunktechnik und vom Internet. (Abbildung 3)

    e-Health: Überwachung von Blutdruck und Gewicht
    Abbildung 3: e-Health. Automatisierte Überwachung von Blutdruck und Gewicht (A. Bolz et al., 2005 Herzschr Elektrophys 16:134–142)

    Dabei werden über eine patientennahe Basisstation Patientenwerte an eine Datenbank gesendet, auf die die behandelnden Mediziner Zugriff haben. Die Datenmengen werden über ein tragbares digitales System, einem digitalen Assistenten oder ein Handy umgewandelt und an die zuständige Überwachungseinheit gesendet. Steigt zum Beispiel der Zuckergehalt im Blut eines Diabetikers gefährlich an, kann rechtzeitig eine Intervention in Gang gesetzt werden. Einer der häufigsten Gründe für Notarzteinsätze sind Herz-Kreislauf-Erkrankungen, da sie durch eine hohe Morbidität und Letalität gekennzeichnet sind. Eine telemedizinische Überwachung der Herzfunktionen könnte auch als

    Präventionsmaßnahme: Risikopatienten frühzeitig erkennen.

    Ein Vorteil wäre auch die damit einhergehende verkürzte Zeitspanne zwischen Diagnose und Therapiebeginn. Somit sollen Notfalleinsätze verringert bis verhindert werden.

    Unser Technikzeitalter hat es bereits selbstverständlich gemacht, immer und überall erreichbar zu sein. Es war somit nur eine Frage der Zeit, bis auch Personen über GPS Systeme ortbar und somit überwachbar waren. Dazu dienen Notrufsysteme, Überwachungskameras, Notfallarmbanduhren; es ist heute technisch leicht möglich, 24-Stunden Videoüberwachungssysteme zu konstruieren, die jedoch massiv in die Intimität und Privatheit eingreifen. Die Brücke zwischen Sicherheit und erwünschter Kontrolle bis hin zur ständigen Überwachung ohne Intimsphäre ist eine Gratwanderung. In erster Linie sollten immer das Anliegen und die Lebensqualität des älteren Menschen im Mittelpunkt stehen, doch auch Angehörige oder Betreuungspersonen müssen auf ihre Lebensqualität achten. Diese Interdependenz der Lebensqualität (Betroffener, Angehöriger, „significant others“, professionelle Pflege) ist bisher zu wenig beachtet und untersucht.

    Sony AIBOAbbildung 4: Virtueller Gefährte: Sony AIBO (Sony Entertainment Robot Europe, 2006)

    (Noch) ungewöhnlich wirkt der Einsatz von Robotern als technische „Butler“, in ihrer Funktion zum Heben schwerer Patienten bis hin zum Gesellschafter. Virtuelle „tierische“ Gefährten wie AIBO oder Paro, die versuchen, Zuwendung und Berührungen von Tieren, die in der Realität eventuell Allergien auslösen oder in Gesundheitsinstitutionen wie Pflegestationen nicht erlaubt sind, zu ermöglichen. Diese Roboter führen ihre Wirkmechanismen vor allem auf Studien über positive Effekte von Tieren auf Menschen zurück und werden besser akzeptiert als angenommen. (Abbildung 4)

    Ambient Assisted Living (AAL)

    Der kurze Überblick zeigt, dass sich unter dem neu anmutenden Begriff Ambient Assisted Living (AAL, siehe http://www.aal-europe.eu/) sowohl sehr vertraute Unterstützungsmaßnahmen wie Krücken oder Treppenlifte finden, aber auch futuristisch anmutende wie Spiegel, die Gesundheitsdaten wiedergeben (bereits in Planung) oder Teppiche, die man betritt und die kritische Daten in Bezug auf Sturzgefahr aufgrund der Ganganalyse an eine Zentrale weiterleiten. Dieser Eindruck lässt vermuten, dass in Zukunft – wenn auch derzeit vielleicht noch mit Skepsis betrachtet – einige dieser Produkte gut in das Leben der davon profitierenden Betroffenen integriert sein werden. Ein Paradebeispiel dafür ist sicherlich das Mobiltelefon oder Handy, das noch vor zwanzig Jahren einer elitären Gruppe vorbehalten war und heute bereits von Volksschulkindern tägliche Verwendung findet. Dass mittlerweile der Wirtschaftsmarkt der Älteren für die Entwicklung von Seniorenhandys entdeckt wurde, liegt auf der Hand.

    Ambient assisted living hat das Konzept der Ambient Intelligence (kurz AmI, deutsch Umgebungsintelligenz) zur Grundlage. Es ist ein technologisches Paradigma, das vor allem die IT- Unterstützung in den Vordergrund stellt; Ziel der Forschungsanstrengungen soll es sein, Sensoren, Funkmodule und Computerprozessoren massiv zu vernetzen, um so den Alltag zu verbessern. Der Focus liegt dabei auf der gesamten Lebensspanne und je nach Kontext wird von Ambient Assisted Working, Ambient Assisted Education, Ambient Assisted Transportation, oder Ambient Assisted Leisure gesprochen. Im Bezug auf das Altern spielt dies sowohl für das “normale/kompetente/aktive” Altern eine Rolle als natürlich auch in Hinblick auf Beeinträchtigungen (Multimorbidität, Gebrechlichkeit, etc.). Für erstere Gruppe sind technische Unterstützungsmassnahmen im Zusammenhang mit Arbeitsprozessen (AAL@work oder “Ambient Assisted Education” im Prozess des lebenslangen Lernens) zu sehen, wie auch beispielsweise im Bezug auf die Mobilität (adequate Einstiegshilfen, Automaten mit entsprechender altersgerechter Bedienung, was Handhabbarkeit bzw. Schriftgröße betrifft; “Ambient Assisted Transportation”). Dementsprechend haben Smart Home Anwendungen zum Ziel mit Hilfe verschiedenster Technologien und Dienstleistungen den Verbleib im Eigenheim zu ermöglichen oder zu verlängern, indem vor allem ATLs durch technische Unterstützung erleichtert werden. Die Technik verspricht eine Erhöhung an Sicherheit und Autonomie für den älteren Menschen im Sinne einer Ressourcenorientierung.

    So ist auch für den privaten Freizeitsektor gesorgt, etwa durch Einkäufe über das Internet, das Ausüben von Hobbies wie Hörbücher oder Musik hören, Spiele, die man im WWW mit virtuellen oder realen Partner durchführen kann oder es ist auch nur für Unterhaltung in Chat Rooms gesorgt. Man könnte meinen, dass Personen ihre vier Wände gar nicht mehr verlassen müssen oder wollen werden, wobei dieser Aspekt sicher kritisch zu betrachten ist, da Untersuchungen über die Gesundheit der Bevölkerung zeigen, dass die Menschen einerseits noch nie so viel Wissen über gesunde und ausgewogene Ernährung hatten, andererseits aber 80% der Weltbevölkerung zu wenig auf Bewegung und Ernährung achten und 70% aufgrund von Problemen der Wirbelsäule oder Gelenken den Arzt aufsuchen.

    Akzeptanz der Unterstützungsmaßnahmen

    Was die Akzeptanz dieser technischen Hilfsmittel oder Anwendungen betrifft, zeigen Studien, dass eine freundliche sowie einfache Benutzeroberfläche und eine hohe Zuverlässigkeit entscheidend sind, ob das Produkt eingesetzt wird oder nicht. Eine Befragung von älteren Menschen in ihrer Wohnung verdeutlicht, dass das individuell erlebte Bedürfnis nach Unterstützung und die Ausstattung des Eigenheims den Wunsch nach Hilfe mittels technischer Lösungen beeinflussen. Folglich wurden auch nur solche Produkte als hilfreich erachtet, die eine wirkliche Unterstützung im Leben der Personen waren und/oder die Räume oder die Einrichtung des Eigenheims tatsächlich bereits zu Einschränkungen oder Barrieren im täglichen Leben führten. Dies hat zweierlei Konsequenzen: erstens muss das Produkt auch von den Betroffenen als effizient, sicher und einfach zu bedienen eingeschätzt werden, und weiters müssen Szenarien antizipiert und vorstellbar gemacht werden, um technische Produkte vorausschauend in das Leben betagter Menschen integrieren zu können – ein schwieriges Unterfangen, da die Frage danach bei den sogenannten Bedürfnis-Analysen häufig so beantwortet wird: Das benötige ich noch nicht – das brauche ich nicht mehr…... Ältere Menschen müssen daher unbedingt in die Entscheidung für technische Hilfsmittel mit einbezogen werden und ausreichend Informationen und Schulungen über die Handhabung der Produkte erhalten. Nur dann kann der Einsatz neuer Technologien hilfreich für die Erhaltung von Selbstständigkeit sein, einen erheblichen Beitrag zur Verlängerung des Verbleibs in der häuslichen Umgebung leisten und tatsächlich die Lebensqualität steigern oder erhalten.

    Bedürfnis nach Sicherheit - Ablehnung von zu viel Kontrolle

    Die Schnittstelle Technik/Gerontologie wirft neue ethische Fragstellungen auf: Generell sollten technische Lösungen immer auf einem informed consent, das heißt einer vorab gut informierten Einwilligung beruhen. Allerdings ist gerade diese in fortgeschrittenen Krankheitsstadien, oder Erkrankungen wie der Demenz, oft eingeschränkt. Selbst wenn Betroffene ihre Einwilligung zum Einsatz solcher Maßnahmen geben, bleibt doch immer die Frage ungeklärt, ob die Konsequenzen für sie begreifbar sind und wie gut ihr Technikverständnis ist, nachzuvollziehen, was ihnen da in die Hand gegeben wurde. Älteren Menschen ist es manchmal auch ein starkes Bedürfnis dem sozialen Umfeld nicht zur Last zu fallen, und es ist denkbar, dass sie unter diesem Aspekt Überwachungsmaßnahmen eher zustimmen, diese dann aber als massiv beeinträchtigend empfinden. Zwar wissen wir, dass ältere Menschen ein Bedürfnis nach Sicherheit und Stabilität haben, aber wissen wir auch, ob und in welcher Intensität sie überwacht werden möchten? Wie viel Kontrolle und Selbstmanagement sind sie bereit für eine hohe Sicherheit „einzutauschen“ und bis zu welchem Grad würden sie das tun, nur um im Eigenheim verbleiben zu können? Dies gilt es in Zukunft vor allem von psychologischer und ethischer Seite zu erfassen.

    Was ist technisch machbar, was ist ethisch vertretbar?

    Berücksichtigt man die oben angestellten Überlegungen wird deutlich, dass eine übertriebene Euphorie im Sinne eines Überangebots an technischen Geräten weder der Realität noch einer Notwendigkeit entspricht. Vielmehr geht es um eine auf das Individuum zentrierte adaptive Problemfokussierung. Die kognitive Alterung und Kompetenzerhaltung der älteren Menschen sowie deren Bedürfnisse und Wünsche sollten verstärkt in der Entwicklung neuer Technologien berücksichtigt werden. Technisch möglich ist bereits vieles, nun geht es darum den Benutzer in den Mittelpunkt zu rücken und die Compliance für die Annahme von Assistiven Technologien unter ethischen Gesichtspunkten zu erhöhen. Es gilt individuell Zeitpunkte zu erfassen, ab wann der Einsatz einer Technologie nötig ist – zu früh appliziert, kann sie Eigeninitiative und Aktivitäten reduzieren. Andererseits kann die Angst vor dem Umgang mit bestimmten Technologien mit speziell entwickelten Trainingsprogrammen und durch verstärkte Beratung verbessert werden, ebenso auch durch allgemeine Informationen in Gesundheits- und Sozialinstitutionen, die einen Überblick über die Möglichkeiten von Assistive Technologies geben. Zu berücksichtigen ist auch der sogenannte „“digital devide”, die “digitale Kluft”, womit gemeint ist, dass die Chancen auf den Zugang zum Internet und anderen (digitalen) Informations- und Kommunikationstechniken ungleich verteilt und stark von sozialen Faktoren abhängig sind, somit ein unterschiedlicher Zugang zu diesen Möglichkeiten besteht.

    Studien haben gezeigt, dass professionelle Hilfe- und Pflegesysteme durch technische Unterstützung der Betroffenen zwar entlastet werden können, jedoch nicht ersetzbar sind - und es kann davon ausgegangen werden, dass beide Maßnahmen im Sinne einer Balance zwischen menschlicher und technischer Hilfestellung bestehen bleiben werden: diese Wechselwirkung gilt es noch genauer zu untersuchen!

     


    Anmerkungen der Redaktion

    Essay von Ilse Kryspin-Exner in ScienceBlog.at: Aktiv Altern: 2012 war das Europäische Jahr für aktives Altern und Solidarität zwischen den Generationen

    Weiterführende links

    Webseite des Ambient Assisted Living Joint Programme Smart Home mit intelligenten Assistenten (Offis 2009), PDF-download. slide show:

    Marktpotenziale und Entwicklungschancen von AAL-Technologien PDF-Download. R. Wichert, E. Berndt (2010)

    SmartAssist – Smart Assistance with Ambient Computing.; PDF-Download. A Schrader (2010) www.itm.uni-luebeck.de


     

    inge Thu, 31.01.2013 - 04:20

    Umweltökologie und Politik — Der Frust der nicht gehörten Wissenschaftler

    Umweltökologie und Politik — Der Frust der nicht gehörten Wissenschaftler

    Fr, 24.01.2013 - 04:20 — Gerhard Glatzel

    Icon Politik & GesellschaftGerhard GlatzelDie öffentliche Empörung über Korruption und Spekulation und entsprechender medialer Druck haben nun letztendlich zu Gesetzen geführt, die evidente Missstände eindämmen sollen. Nicht minder schädlich als Korruption ist aber auch die Nichtberücksichtigung wissenschaftlicher Erkenntnisse und/oder deren missbräuchliche Anwendung durch klientel-verpflichtete Lobbyisten, wenn politische Entscheidungen zu Umwelt- und Ressourcenfragen mit potentiell gravierenden Auswirkungen für künftige Generationen getroffen werden. Derartige politische Weichenstellungen sollten von den Akademien geprüft werden, vergleichbar dem Prüfauftrag der Rechnungshöfe in wirtschaftlichen Fragen. Darüber hinaus sollten in Parteiakademien verstärkt wissenschaftliche Grundkurse angeboten werden.

     Nach einer ganzen Reihe von erfolglosen Konferenzen zu Fragen des Klimawandels und des Klimaschutzes sowie politischen Fehlentscheidungen bei Biokraftstoffen und anderen Ressourcen fragt man sich, warum wissenschaftliche Erkenntnisse zu komplexen Systemfragen von der Politik so wenig berücksichtigt werden. Die stetig wachsende Zahl wissenschaftlicher Veröffentlichungen zu diesen Fragen nehmen Politik und Öffentlichkeit zur Kenntnis wie einst die Predigten Abraham a Santa Claras oder die Höllenbilder der Jesuitentheater. Wir erschaudern vor den Visionen der schrecklichen Folgen unseres Tuns, versprechen Besserung, sündigen aber hemmungslos weiter.

    Der negative Einfluß der Lobbyisten

    Wenn wir die Lösung für den Mangel an wissensbasierten politischen Entscheidungen darin sehen, die Politiker mit noch mehr wissenschaftlicher Forschung zum selben Thema zu fundierteren Entscheidungen zu bewegen, schließen wir vor der Realität politischer Entscheidungsvorgänge die Augen. Wir übersehen, dass der wichtigste Werkzeugkoffer der Naturwissenschaftler – gute wissenschaftliche Praxis und Veröffentlichungen in anerkannten, hochrangigen Zeitschriften – in erster Linie der wissenschaftsinternen Qualitätssicherung und der Leistungsbeurteilung von Wissenschaftlern dient, wenn es um deren Karrieren und um Forschungsfinanzierung geht. Es ist der international anerkannte Werkzeugkoffer für Ordnung innerhalb des „Elfenbeinernen Turmes“ aber für die Einflussnahme auf politische Entscheidungen wenig geeignet.

    Auch der zweite gut ausgestattete Werkzeugsatz der Natur- und Technikwissenschaften, das für industrielle Anwendungen bestimmte Patentwesen, taugt wenig, wenn es um politische Entscheidungen geht. Dort kommt nämlich der üppig ausgestattete Werkzeugkoffer der klientelverpflichteten Lobbyisten zum Einsatz. Dieser Werkzeugkoffer verfügt über eine gut gefüllte Geldlade, beinhaltet schlechte Wissenschaft, Pseudowissenschaft, falsche Argumente, mannigfache Zugänge zu den Medien, Netzwerke und, wie wir täglich lesen, oft auch Spezialwerkzeuge für Korruption.

    Politische Parteien halten sich „Experten“, die als Wissenschaftler auftreten, aber als Abhängige ihrer Auftraggeber in deren Interesse argumentieren. Gegen den Werkzeugsatz der Lobbyisten mit seriösen wissenschaftlichen Veröffentlichungen in hochrangigen internationalen Zeitschriften ankämpfen zu wollen ist aussichtslos, besonders dann, wenn die Entscheidungsträger wenige Hemmungen haben, moralische Grundsätze und Werte auszublenden und weder Verständnis noch Wertschätzung für wissenschaftliche Methodik haben.

    Die manipulierbare Stimme des Volkes

    Ein weiteres wirkungsvolles Werkzeug der Politik ist die „Stimme des Volkes“, die mit den dafür bestimmten Spezialwerkzeugen leicht manipuliert werden kann. Der sogenannte „Hausverstand“ gilt dabei als verlässlichere Entscheidungshilfe, als die Ergebnisse akribischer wissenschaftlicher Untersuchungen, die oft nicht für jedermann zu verstehen sind und die - wie leicht zu zeigen ist - immer wieder von neueren Erkenntnissen überholt werden, und daher von Menschen mit „Hausverstand“ grundsätzlich anzuzweifeln sind.

    Täglich sehen wir im Fernsehen Damen und Herren in weißen Mänteln vor Laborkulissen, die uns vermitteln wollen, dass die von ihnen angepriesenen Produkte wissenschaftlich geprüft sind. Wir erfahren von den wunderbaren Wirkungen besonderer Mikroorganismen im Joghurt und von den von ihnen getesteten Wundermitteln, die Gewichtsabnahme oder üppigen Haarwuchs garantieren. Da leicht zu durchschauen ist, dass die uns durch die Werbung vermittelten vorgeblichen „Forschungsergebnisse“ oft ein großer Schwindel sind, kommen viele Leute zum Schluss, dass man der Forschung und Wissenschaft insgesamt wenig trauen dürfe.

    Es ist nicht verwunderlich, dass die simplen Zerrbilder der Volksverhetzer geglaubt werden, obwohl sie die Wissenschaft als nicht der Faktenlage entsprechend bloßgestellt haben. Erschreckend ist, dass auch Politiker, wenn es um ihre Interessen und Vorteile geht, häufig so argumentieren, als hätte es Aufklärung und die Forderung, Entscheidungen auf Basis wissenschaftlicher Erkenntnisse zu treffen, nie gegeben.

    Unzulängliche Vereinfachungen und Worthülsen

    Fundamentalismus und übersimplifizierte Konzepte komplexer Phänomene entstehen auch aus Unverständnis für wissenschaftliche Methodik und Logik. Lehrer und Forscher versuchen allzu oft, die Dinge einfacher darzustellen, als sie in Wirklichkeit sind. Schlagwörter wie Klimagerechtigkeit, Gleichheit, Nachhaltigkeit, Gleichgewicht der Natur, Energiesparen, müssen in ihrer ganzen Komplexität erklärt werden, sonst bleiben sie Worthülsen oder Feigenblätter hinter denen sich Geschäftemacher verstecken können. Gerechtigkeit und Gleichheit bedeuten nicht, jedem Menschen dieselbe Menge an Wasser oder Medikamenten zu geben. Am Schreibtisch brauche ich viel, viel weniger Wasser als ein Bauer, der seine Felder bewässern muss oder als ein Donauschiffer, der sein Boot im Fluss bewegt. Naturkatastrophen resultieren nicht notwendigerweise aus einer Störung des Gleichgewichtes der Natur durch den Menschen, und sein Haus besser zu isolieren hilft nicht, den globalen Energieverbrauch zu senken, wenn man das ersparte Geld für eine Reise in die Karibik oder einen Schiurlaub verwendet.

    Fazit: Politisch unabhängige wissenschaftliche Instanzen als Berater

    Alle Schuld an den Defiziten der Umwelt-, Klima- und Energiepolitik auf inkompetente, unmoralische und korrupte Politiker abzuwälzen, wäre ungerecht, wäre zu einfach und würde kaum Möglichkeiten für Verbesserungen eröffnen.

    Resignierend zur Kenntnis zu nehmen, dass der Werkzeugkoffer der Naturwissenschaftler wenig geeignet ist, politische Entscheidungen mehr wissensbasiert zu machen, ist allerdings auch keine Lösung. Die Tatsache, dass naturwissenschaftliche Erkenntnisse über komplexe, interdisziplinär zu bewertende Phänomene von der Politik so wenig berücksichtigt werden, ist ein Systemfehler, der untersucht, diskutiert und behoben werden muss.

    Die Öffentlichkeit hat sich in den letzten Jahren zu Recht über Korruption und Spekulation empört und der mediale Druck hat letztendlich zu Gesetzen geführt, die evidente Missstände eindämmen sollen. Nichtberücksichtigung wissenschaftlicher Erkenntnisse und missbräuchliche Anwendung wissenschaftlicher Methoden bei politischen Entscheidungen zulasten der Umwelt im eigenen Land, aber auch in fernen Ländern, ist ebenso schädlich wie Korruption, - ist oft deren komplementärer Begleiter. Es ist daher höchste Zeit, auch für diesen Bereich strengere Regeln zu schaffen.

    In den entwickelten Ländern gibt es Akademien der Wissenschaft als höchste, politisch unabhängige wissenschaftliche Instanzen. Politische Weichenstellungen zu Umwelt- und Ressourcenfragen mit potentiell gravierenden Auswirkungen für künftige Generationen wären von den Akademien zu prüfen, vergleichbar dem Prüfauftrag der Rechnungshöfe in wirtschaftlichen Fragen. Die Wissenschaft müsste aber auch vermehrte Anstrengungen unternehmen, ihre Methoden und Ergebnisse der breiten Öffentlichkeit und der Politik verständlich darzustellen, ohne in die Falle der Übervereinfachung zu tappen.

    Besonders wichtig wäre es, auch in Parteiakademien, aus denen heutzutage der überwiegende Teil der Politiker hervorgeht, verstärkt Grundkurse über wissenschaftliche Methodik, insbesondere über systemwissenschaftliche Ansätze anzubieten und die Querbezüge zu Ethik und Moral zu betonen.


    Anmerkungen der Redaktion:

    National Academy of Sciences USA: ein herausragendes Beispiel für politisch unabhängige wissenschaftliche Instanzen als Berater ( (http://www.nasonline.org/): ):

    “Advisers to the Nation on Science, Engineering and Medicine

    These private, nonprofit institutions enlist the aid of the nation’s most knowledgeable scientists, engineers, health professionals, and other experts who volunteer their time to provide authoritative, independent advice on many of the pressing challenges that face the nation and world.”

    “Briefings are events organized through the Office of Congressional and Government Affairs to inform members of Congress and/or their staff on the conclusions and recommendations of reports of the National Academies.”

    Rezente Beispiele für derartige Reports sind nachzulesen unter: http://www.nasonline.org/about-nas/150th-anniversary/150-years-of-service.pdf


     

    inge Thu, 24.01.2013 - 04:20

    Kommt die nächste Sintflut?

    Kommt die nächste Sintflut?

    Fr, 17.01.2013 - 09:00 — Günter Blöschl

    Icon GeowissenschaftenGünter Blöschl

    2012 scheint ein Rekord-Hochwasserjahr gewesen zu sein. Hochwässer in China, Nigerien, Großbritannien. Wirbelsturm Sandy in den USA. Aber auch in Österreich standen Teile der Steiermark und Kärntens unter Wasser. Das Jahrhunderthochwasser 2002 ist noch allen in Erinnerung. Werden die Hochwässer größer? Wenn ja, warum? Und wie können wir uns vor ihnen schützen?

    Hochwasser ist nicht Hochwasser

    Überflutungen können die verschiedensten Ursachen haben. Küstenhochwässer werden zum Beispiel durch Erdbeben im Ozean ausgelöst, sogenannte Tsunamis wie 2004 in Indonesien und 2011 in Japan. Weniger bekannt ist, dass im Jahr 365 viele Städte am östlichen Mittelmeer und 1755 Lissabon in ähnlicher Weise verwüstet wurden. Aber auch Stürme können Wassermassen an die Küste treiben, wie bei der sogenannten Weihnachtsflut des Jahres 1717 an der Nordseeküste von Holland bis Dänemark und beim Wirbelsturm Sandy.

    Hohe Bodenfeuchtigkeit trägt entscheidend zur Gefährlichkeit von Hochwasser beiAbbildung 1. Hohe Bodenfeuchtigkeit trägt entscheidend zur Gefährlichkeit von Hochwasser bei.

     

    Für Österreich sind Flusshochwässer freilich relevanter. Früher waren sie oft auf einen Eisstoß zurückzuführen, bei dem Eisschollen das heran strömende Wasser blockierten, wie an der Donau bei Wien im Februar 1830, aber heute lassen höhere Lufttemperaturen und Flusskraftwerke die Bildung großer Eisstöße nicht mehr zu. Flusshochwässer werden jetzt meist durch großräumigen Niederschlag ausgelöst, oft verbunden mit sogenannten Vb-Wetterlagen, bei denen feuchte Luft aus dem Mittelmeerraum herantransportiert wird. Das größte bekannte Hochwasser an der Donau trat im August 1501 auf, das fast um die Hälfte größer war als das Hochwasser im August 2002. Entscheidend für solche Hochwässer ist nicht nur die Niederschlagsmenge, sondern auch der Feuchtezustand der Böden im Gebiet. Er bestimmt den Anteil des Niederschlags, der nicht versickern kann und deshalb zum Hochwasser beiträgt. Dieser Anteil kann zwischen 10% und 60% liegen und damit entscheiden, ob ein Hochwasser wirklich gefährlich wird oder nicht (Abbildung 1). Die große Bodenfeuchte war einer der Gründe, warum das Hochwasser 2002 so extrem ausfiel [1]. Eine Schneedecke im Gebiet kann die Bodenfeuchte zusätzlich erhöhen. Niederschläge, die an sich nicht außergewöhnlich sind, können dann zu großen Hochwässern führen, wie im März 2006 an der March.

    Eine dritte Gruppe von Hochwässern sind Sturzfluten, die durch kurze, kleinräumige, aber sehr intensive Niederschläge entstehen. Im Gebirge führt dies oft zu Hangrutschungen und Muren wie im Juli 2012 in St. Lorenzen im Paltental (Bezirk Liezen). Die größte bekannte Sturzflut in Österreich trat im Juli 1913 in der Nähe von Graz auf. Dabei fielen innerhalb weniger Stunden mehr als 600 mm Niederschlag, eine Menge, die sonst nur aus den Tropen bekannt ist. Aber auch in der Stadt können Sturzfluten gefährlich sein, besonders wegen der hohen Fließgeschwindigkeiten auf den asphaltierten Flächen, wie im Mai 2010 in der Wiener Lerchenfelderstraße.

    Werden Hochwässer größer?

    Nun, diese Frage wird in der Wissenschaft differenzierter gesehen, als sie manchmal in den Medien dargestellt wird. Ansatzpunkt für die Beantwortung dieser Frage sind die Hochwasser auslösenden Prozesse.

    Vorerst zu den Küstenhochwässern. Die Entstehung von Wirbelstürmen hängt mit der Temperatur der Meeresoberfläche zusammen. Eine globale Erwärmung könnte deswegen zu häufigeren und größeren Wirbelstürmen führen. Außerdem wurde in den letzten Jahrzehnten ein Anstieg des Meereswasserspiegels von durchschnittlich 3 mm pro Jahr gemessen, der räumlich stark variiert, und auf die Wärmeausdehnung des Ozeans und das Abschmelzen der Gletscher zurückzuführen ist. Bei einem höheren Meeresspiegel werden die Überflutungen häufiger, besonders wenn die Küste flach ist, wie etwa in Bangladesch. Ein in der Öffentlichkeit wenig beachteter Umstand kann allerdings bedeutender sein. Wird an der Küste Grundwasser entnommen, etwa für die Trinkwasserversorgung, kommt es bei bestimmten Untergrundverhältnissen zu Landsenkungen, z.B. 1 bis 15 cm pro Jahr in Jakarta [2]. Das erhöht das Überflutungsrisiko viel mehr. Man sieht, dass mit dem Wasserkreislauf vorsichtig umgegangen werden muss, sonst gibt es unbeabsichtigte Nebeneffekte.

    Hochwässer der DonauAbbildung 2. Große und kleine Hochwässer der Donau bei Wien seit 1828

    Bei Flusshochwässern gibt es im Wesentlichen drei potenziell verstärkende Faktoren. Der erste Faktor sind wasserbauliche Maßnahmen wie Flussbegradigungen zum rascheren Abführen der Wassermassen und Hochwasserdämme zum Schutz der Bevölkerung. Am Ort der Maßnahme reduzieren sie zwar Hochwässer (dafür werden sie ja gebaut), an der darunterliegenden Flussstrecke können sie aber Hochwässer erhöhen, da weniger Wasser am Ort der Maßnahme zurückgehalten wird. Bei Planung von Maßnahmen wird daher heute die gesamte Flussstrecke betrachtet. Insbesondere versucht man seitlich des Flusses Platz für das Wasser zu schaffen, wodurch die Hochwässer am ganzen Flusslauf reduziert werden. Bei extrem großen Hochwässern, bei denen die Schutzdämme überströmt werden, lässt aber der Einfluss wasserbaulicher Maßnahmen auf den Hochwasserablauf nach. Das sieht man in der nebenstehenden Abbildung 2, in der für jedes Jahr seit 1828 die Hochwässer an der Donau bei Wien dargestellt sind. Die kleinen Hochwässer sind wegen der wasserbaulichen Maßnahmen deutlich angestiegen, bei den großen Hochwässern sieht man kaum eine Veränderung. Zum Glück kann man diesen Effekt sehr gut mit den im Bauingenieurwesen üblichen hydraulischen Modellen berechnen und damit Dammhöhen für zukünftige Maßnahmen festlegen.

    Hochwasser im Paznauntal, August 2005Abbildung 3. Hochwasser im Paznauntal, August 2005

    Der zweite Faktor ist die Landnutzung im Gebiet. Im ländlichen Bereich kann die Bodenbearbeitung der Felder mit schweren Maschinen den Boden kompakter machen und dadurch den Oberflächenabfluss erhöhen. Dieser Effekt ist auf kleinen Flächen klar nachweisbar, für ganze Flussgebiete wegen der räumlichen Variabilität hingegen nicht, und wird derzeit in Forschungsprojekten der Hydrologie untersucht. Auch die Frage der Auswirkung des Waldes ist interessant. Er wirkt bei kleinen Ereignissen durch das Speichervermögen reduzierend auf den Hochwasserabfluss, bei großen Ereignissen hingegen kaum, wie für das Hochwasser in Paznaun im August 2005 (Abbildung 3) gezeigt wurde [3]. Schipisten oder Siedlungsflächen können lokal Hochwässer erhöhen, für ganze Flussgebiete ist der Einfluss wegen der geringen Flächenanteile aber meist sehr klein. Allerdings kann die Landnutzung indirekt Effekte bewirken. Schlägerung des Waldes kann zu verstärktem Bodenabtrag und damit einer Erhöhung des Oberflächenabflusses führen, was in den Tropenregionen dramatisch ist. In Österreich ist das nur ein lokales Problem, da insgesamt der Waldanteil in den letzten Jahren zugenommen hat.

    Der dritte Faktor ist das Klima. Da gibt es ein frappierendes Phänomen, das weltweit zu beobachten ist und vermutlich mit der Kopplung von Ozean und Atmosphäre zusammenhängt: es gibt hochwasserarme und hochwasserreiche Perioden. So sieht man bei den Hochwässern der Donau (Abbildung 2) eine Häufung großer Hochwässer am Ende des 19. Jahrhunderts, aber keine großen Hochwässer in der ersten Hälfte des 20. Jahrhunderts. In kleineren Gebieten können die Hochwässer noch viel unregelmäßiger auftreten, so war im Kampgebiet das Hochwasser 2002 mehr als dreimal so groß wie das größte in den hundert Jahren zuvor. Natürliche Variabilität und durch Klimawandel beeinflusste Änderungen sind dadurch schwierig zu trennen. Aber der Zeitpunkt des Auftretens der Hochwässer innerhalb des Jahres kann gute Anhaltspunkte für diese Differenzierung geben (Abbildung 4). In Gebieten, in denen Hochwässer im Winter auftreten (z.B. im Innviertel und im Mühlviertel), führen höhere Lufttemperaturen zu mehr flüssigem Niederschlag und weniger Schneefall und damit zu einer Verschärfung der Hochwassersituation [4]. In Gebieten, in denen Hochwässer im Sommer auftreten, tritt dieser Effekt nicht auf.

    Mittlerer Zeitpunkt des Auftretens von HochwässernAbbildung 4. Mittlerer Zeitpunkt des Auftretens von Hochwässern im Jahr

    Ob Sturzfluten größer werden hängt vor allem damit zusammen, ob Starkniederschläge größer werden, da die Bodenbeschaffenheit weniger wichtig ist. Die generelle Überlegung dazu basiert darauf, dass nach der Beziehung von Clausius-Clapeyron das Wasserspeichervermögen der Atmosphäre um 7% pro Grad Temperaturerhöhung ansteigt. Bei sonst gleichen Verhältnissen würde dies einer ebenso großen Zunahme der Starkniederschläge entsprechen, und einer noch größeren Zunahme der Hochwässer, da die Wasseraufnahme des Bodens gleich bleibt. Messungen belegen diesen Zusammenhang zwischen Niederschlag und Lufttemperatur. Die Schwankungen innerhalb eines Jahres sind aber viel größer als die Schwankungen zwischen den Jahren. Deswegen ist die Interpretation des Klimawandels in diesem Zusammenhang schwierig. Es ist also ein Effekt, der zwar plausibel ist, insgesamt aber aus den verfügbaren Daten noch nicht schlüssig abzulesen ist.

    Die Frage ob Hochwasser größer werden oder nicht, ist also nicht in einem Satz zu beantworten. Es gibt Situationen wo das klar der Fall ist (z.B. bei Küstenhochwässern durch Landsenkungen), andere Situationen wo das nicht der Fall ist (z.B. bei Flusshochwässern an der Donau durch Abholzung), und wieder Situationen, wo das noch nicht abschließend geklärt ist (z.B. bei Sturzfluten durch Starkniederschläge). Jedenfalls gibt es jetzt mehr Sachwerte, die durch Hochwässer betroffen sein können, als früher.

    Wie können wir uns vor Hochwässern schützen?

    Hochwasserschutz wird seit Jahrtausenden betrieben, besonders an den Flüssen, da dort der Siedlungsraum wegen der Nähe zur Wasserstraße immer schon attraktiv war. Entsprechend der zunehmenden technischen Möglichkeiten kam es im 19. Jahrhundert zu großen wasserbaulichen Projekten gegen Flusshochwässer, wie etwa die Donauregulierung bei Wien in den Jahren 1870-1875. Zweifelsfrei war dieses Konzept sehr wirksam, da das Hochwasser 1899 in Wien kaum Schaden anrichtete. Ebenso kam es zu Verbauungstätigkeiten an den Oberläufen von Wildbächen gegen Sturzfluten und zu vermehrten Maßnahmen gegen Küstenhochwässer.

    Maßnahmen  zum HochwasserschutzAbbildung 5. Maßnahmen zum Hochwasserschutz - Vorsorge und Bewältigung

    Besonders für die Flusshochwässer hat allerdings in den letzten Jahren ein gewisses Umdenken stattgefunden, nachdem jetzt nicht mehr ausschließlich Einzelmaßnahmen, sondern eine Fülle verschiedener Maßnahmen im Gesamtsystem gesetzt werden. Das wird als Integriertes Hochwasserrisikomanagement bezeichnet, und beruht auf einem Konzept des Kreislaufes von Vorsorge und Bewältigung (Abbildung 5). So werden bei der Raumplanung Hochwasserrisikoflächen (www.hochwasserrisiko.at) als Bauland vermieden („Flächenvorsorge“). Entsprechende Informationsmaßnahmen zur Bewusstseinsbildung der Bevölkerung fördern die Eigenvorsorge (z.B. Versicherungen). In den meisten Fällen ist der technische (wasserbauliche) Hochwasserschutz wegen seiner hohen Wirksamkeit nach wie vor das Rückgrat der Maßnahmen. Wie wichtig funktionsfähige Dämme sind, zeigte etwa das Marchhochwasser 2006. Daneben wird versucht möglichst viel Wasser im Gebiet zurückzuhalten. Die Hochwasserfrühwarnung zur rechtzeitigen Planung der Katastrophenabwehr (u.a. durch die Feuerwehr) gewinnt zunehmend an Bedeutung. Maßnahmen zur Bewältigung des Hochwassers sind u.a. Evakuierung, Soforthilfe und der Wiederaufbau beschädigter Gebäude. Dieses Konzept gilt auch für Österreich und wird in Plänen für das Hochwasserrisikomanagement implementiert.

    Die Betonung des Gesamtsystems beim Umgang mit Hochwässern entspricht auch generell der Tendenz im Bauingenieurwesen, den Blick nicht mehr ausschließlich auf das einzelne Bauwerk zu richten, sondern ein Gesamtsystem im Kontext von Gesellschaft, Wirtschaft und Umwelt zu betrachten, in das die Baumaßnahmen integriert sind. Dafür ist aber verbessertes Know-How erforderlich.

    Im Hydrological Open Air Laboratory bei Wieselburg (www.waterresources.at) werden die hochwasserauslösenden Prozesse im Detail erforscht, und in einem vom European Research Council (ERC) geförderten Projekt werden Veränderungen der Hochwässer in ganz Europa untersucht (erc.hydro.tuwien.ac.at). Die Forschungsergebnisse fließen dann in komplexe hydrologische Rechenmodelle ein, mit denen der Hochwasserschutz zuverlässiger geplant werden kann [5]. Auch im Bereich der Frühwarnung gibt es neues Know-How. Hochwasservorhersagen werden jetzt zwei Tage oder mehr im Voraus erstellt, etwa für die Donau und Donauzubringer wie den Kamp. Mit hydrologischen Rechenmodellen wird neuerdings auch die dabei erwartete Vorhersageunsicherheit abgeschätzt [6]. Damit können die Verantwortlichen der Einsatzplanung besser das Risikomanagement gestalten.

    Ob die nächste Sintflut kommt, kann man zwar wegen der Komplexität der Prozesse nicht über Jahre voraus prognostizieren. Aber die Maßnahmen des integrierten Hochwasserrisikomanagements erlauben eine optimale Vorbereitung auf die Situation, wenn es wirklich zu einem Hochwasser kommt.

    Literatur

    [1] Gutknecht et al. (2002) Jahrtausend-Hochwasser am Kamp? www.tuwien.ac.at/aktuelles/news_detail/article/3401

    [2] Abidin et al. (2001) Land subsidence of Jakarta (Indonesia) and its relation with urban development. Nat. Hazards 59, 1753–1771.

    [3] Kohl et al. (2008) Analyse und Modellierung der Waldwirkung auf das Hochwasserereignis im Paznauntal vom August 2005. www.interpraevent.at/palm-cms/upload_files/Publikationen/Tagungsbeitraeg...

    [4] Blöschl et al. (2011) Auswirkungen des Klimawandels auf Hochwasser und Niederwasser. Österr. Wasser- und Abfallwirtschaft, 63, (1-2), 21- 30.

    [5] Blöschl et al. (2008) Bestimmung von Bemessungshochwässern gegebener Jährlichkeit Wasserwirtschaft, 98 (11), 12-18.

    [6] Blöschl et al. (2008) Hydrologische Hochwasservorhersage für den Kamp. Österr. Wasser- und Abfallwirtschaft, 60 (3-4), a13-a18.

     


    Anmerkungen der Redaktion

    Zu Günter Blöschl:

    Advanced Grant des Europäischen Forschungsrats ERC (2011):

    Hochwasserforschung http://www.tuwien.ac.at/aktuelles/news_detail/article/7348/

    http://wirtschaftsblatt.at/home/nachrichten/oesterreich/1231580/index

    Doktoratkolleg TU Wien: Wasserwirtschaftliche Systeme (Ausbildung von 70 Doktoranden an der TU Wien):

    Standard Interview „Detektivarbeit Hochwasserforschung“ 19.1.2011

    Zur European Geosciences Union: www.egu.eu

    “EGU, the European Geosciences Union, is Europe’s premier geosciences union, dedicated to the pursuit of excellence in the geosciences and the planetary and space sciences for the benefit of humanity, worldwide. It was established in September 2002 as a merger of the European Geophysical Society (EGS) and the European Union of Geosciences (EUG), and has headquarters in Munich, Germany. It is a non-profit international union of scientists with over 12,500 members from all over the world. Membership is open to individuals who are professionally engaged in or associated with geosciences and planetary and space sciences and related studies, including students and retired seniors.”

    Sehr empfehlenswerte website der EGU, u.a. mit:

    14 peer-reviewed Open Access journals covering various topics of the Earth, planetary and space sciences

    Official YouTube channel: http://www.youtube.com/user/EuroGeosciencesUnion
    GeoQ: EGU's quarterly newsletter http://static.egu.eu/static/2272/newsletter/geoq/geoq_04.pdf
    Imaggeo: online open-access geosciences image repository of the European Geosciences Union.

    Hochwasser auf Youtube, u.a.:
    Hochwasser 2005 Paznauntal 4:03 min


     

     

    inge Thu, 17.01.2013 - 08:59

    Aktiv Altern: 2012 war das Europäische Jahr für aktives Altern und Solidarität zwischen den Generationen

    Aktiv Altern: 2012 war das Europäische Jahr für aktives Altern und Solidarität zwischen den Generationen

    Fr, 10.01.2013 - 05:20 — Ilse Kryspin-Exner

    Politik & GesellschaftIlse Kryspin-ExnerAltern unter positiven Aspekten aufzufassen bedeutet ein längeres Leben mit folgenden Möglichkeiten: Wahrung der Gesundheit, Aufrechterhaltung der persönlichen Sicherheit sowie aktive Teilnahme am Leben und am sozialen Umfeld. Die Weltgesundheits-organisation (WHO) hat den Begriff „Aktiv Altern“ deshalb aufgegriffen, damit der Prozess, der für das Erreichen dieser Vision erforderlich ist, greifbar wird.

    Aktives Altern bedeutet, bei guter Gesundheit und als vollwertiges Mitglied der Gesellschaft älter zu werden, ein erfüllteres Berufsleben zu führen, im Alltag unabhängiger und als Bürger engagierter zu sein. Wir können unabhängig von unserem Alter eine Rolle in der Gesellschaft spielen und höhere Lebensqualität genießen. Wichtig ist, das große Potenzial auszuschöpfen, über das wir auch in hohem Alter noch verfügen.

    Das Wort „aktiv“ bezieht sich demnach nicht nur auf die Möglichkeit, körperlich fit zu bleiben, vielmehr wird darunter die Möglichkeit verstanden, sein Reservoir für körperliches, soziales und geistiges Wohlbefinden im Verlaufe des gesamten Lebens zu nützen. Außerdem steht die Teilnahme am sozialen, wirtschaftlichen, kulturellen, spirituellen und zivilen Leben in Übereinstimmung mit den persönlichen Bedürfnissen, Wünschen und Fähigkeiten im Vordergrund.

    „Aktiv Altern“ bezieht sich zusammengefasst auf die Ausweitung der Lebensqualität und des Wohlbefindens alter Menschen - somit sind auch jene Personen inkludiert, die einer Unterstützung und Pflege bedürfen. Die Lebensqualität der älteren Generation hängt von den Möglichkeiten und Risiken ab, welche im Laufe des gesamten bisherigen Lebens gegeben waren. Selbstverständlich haben auch Art und Umfang an Hilfestellung und Unterstützung, die die nachfolgenden Generationen bei Bedarf zu gewähren bereit sind, einen entscheidenden Einfluss auf die Lebensqualität.

    Komponenten des aktiven Alterns

    1. Solidarität

    Das Kind von heute ist der Erwachsene von morgen und die Großmutter / der Großvater von übermorgen. Bestandteil eines aktiven Alterns ist ein wechselseitiges (reziprokes) Geben und Nehmen, einerseits zwischen einzelnen Personen und andererseits zwischen den jüngeren und älteren Generationen. Dies kommt auch im Schlagwort der „Solidarität zwischen den Generationen“ zum Ausdruck.

    2. Gewinne und Verluste

    „Aktiv Altern“ ist im Konzept der Psychologie der Lebensspanne integriert (Abbildung 1). Dieses geht entsprechend entwicklungspsychologischer Erkenntnisse von der Ansicht aus, dass Entwicklung im gesamten Leben eines Menschen stattfindet und niemals zum Abschluss kommt.

    Der Zugang zu einer derartigen Life-span-Psychologie zielt auf die Verbindung folgender Gesichtspunkte ab: Berücksichtigung der Multidirektionalität ontogenetischer Veränderungen (Entwicklungsprozesse, die erst in späten Phasen des Lebens beginnen oder in verschiedene Richtungen laufen), Einbeziehung altersabhängiger (biologische Vorgänge, lebensalterstypische gesellschaftliche Prozesse) und altersunabhängiger (Zeitströmungen, periodenspezifische Ereignisse) Entwicklungsfaktoren sowie Berücksichtigung individueller Lebensereignisse. Dabei wird von der Annahme ausgegangen, dass jeglicher Entwicklungsprozess sowohl einen Gewinn (Wachstum) als auch einen Verlust (Abbau) an Adaptionsfähigkeit darstellt; die Plastizität von Entwicklungsprozessen wird betont.

    MOUSEHINT Abbildung 1 Psychologie der Lebensspanne: Weg von der überkommenen Vorstellung eines stetigen Abbaus hin zur Vorstellung eines Wechselspiels zwischen Verlust und Gewinn

    Die psychische Entwicklung ist in jedem Lebensalter von diesen Gegebenheiten bestimmt, sie sind jedoch im frühen Lebensalter in einzelnen Phasen gesetzmäßiger und in größerem Maß normativ als im höheren. Ein „typisches“, für den letzten Abschnitt des Lebens einheitlich gültiges Verhalten älterer Menschen ist nicht bekannt (etwa, ob Verinnerlichung, Motivationsverlust, Resignation, Depression einen charakteristischen Ablauf zeigen). Dies liegt zum einen daran, dass die Gesetzmäßigkeiten des höheren Lebensalters noch nicht so gut erforscht wurden bzw. über lange Zeiträume beobachtet werden konnten – noch nie seit Bestehen der Menschheit erreichten durchschnittlich die Menschen ein so hohes Lebensalter! Da Verhaltens- und Denkweisen zudem sehr wesentlich durch Erfahrungen während des ganzen Lebens geprägt und überformt sind, was in früheren Entwicklungsabschnitten noch nicht in dem Ausmaß der Fall ist, gilt es, sowohl von verschiedene Formen als auch verschiedenen Stadien des Alterns auszugehen. Je nachdem, ob ein kalendarischer, subjektiver oder von außen beurteilender Standort eingenommen wird, ist es unzulässig eine Zeitspanne von durchschnittlich 30 Jahren, die Menschen heute „im Alter“ verbringen, als „einheitliche Etappe“ anzusehen.

    3. Gesundes Altern

    „Aktives Altern“ meint stets auch gesundes Altern. Die WHO definiert Gesundheit als Summe des körperlichen, geistigen und sozialen Wohlbefindens. Politische Maßnahmen und Programme, die eine Verbesserung oder Stabilisierung der körperlichen Gesundheit bewirken sollen, sind ebenso wichtig wie jene, die der Förderung von geistigem und sozialem Wohlbefinden dienen. Erst bei Beachtung sämtlicher eben genannter Aspekte kann der Weg für aktives bzw. kompetentes Altern geebnet sein.

    4. Autonomie, Selbstständigkeit und Kompetenz

    Unter Autonomie wird die bestmögliche Selbstständigkeit einer Person verstanden, die sich nicht nur auf die Verrichtung alltäglicher Fertigkeiten (z.B. Anziehen, Körperhygiene) bzw. lebensnotwendiger Routinetätigkeiten (z.B. Flüssigkeitsaufnahme) beschränkt ist. Die oberste Maxime lautet, Lebensformen zu gewährleisten, die soweit als möglich von anderen autonom bzw. unabhängig sind. Kompetenz bezieht sich wiederum primär auf die geistige und körperliche Leistungsfähigkeit.

    5. „Hilfe zur Selbsthilfe“

    Bei Berücksichtigung der Autonomie und Selbstständigkeit sollte die „Hilfe zur Selbsthilfe“ im Kontrast zu unreflektierter und uneingeschränkter Hilfeleistung bzw. Abnahme jeglicher Tätigkeit vordergründig sein. Pflegende Angehörige, professionelle Fachkräfte aber auch neuere technische Entwicklungen können hierfür einen bedeutsamen Beitrag leisten.

    6. Berücksichtigung von Wünschen

    Zu aktiv-kompetentem Altern zählt auch die Beachtung von Wünschen älterer Menschen. Dabei gilt als oberstes Ziel, so lange wie möglich zu Hause mobil bleiben zu können. Sowohl die Förderung des Selbsthilfepotentials als auch der Einbezug und die Inanspruchnahme technischer Hilfsmittel in unserer heutigen Zeit können der Berücksichtigung und Erfüllung dieser Anliegen dienen.

    Argumente, die berechtigen von Konzepten des „erfolgreichen“, „konstruktiven“ oder „emanzipierten“ Alterns zu sprechen

    Epidemiologische Resultate: Betrachtet man die Zahl der in Heimen und Pflegeinstitutionen untergebrachten alten Menschen, so betrifft dies ca. 4% der über 65jährigen Menschen. Dies ist insofern ein gewisser Trugschluss, als der Prozentsatz von zeitweise in Krankenhäusern und Pflegeinstitutionen untergebrachten Menschen natürlich viel höher ist und 18 bis 20% umfasst. Dennoch: 80% der über 65jährigen können zu Hause leben bzw. werden dort versorgt.

    Der Anteil psychisch kranker Menschen über 65 Jahre beträgt ca. 25%, eine unter Versorgungsgesichtspunkten sehr ernst zu nehmende Realität (Depression, Demenz, Verwirrtheit, paranoide Tendenzen). Die Zahl soll aber dennoch nicht den Blick dafür verstellen, dass eben 75% der älteren Menschen nicht – zumindest in keiner ernsthaften bzw. behandlungsbedürftigen Weise -, psychisch krank sind.

    Altern generell im Sinne eines Defizitmodells zu diskutieren ist obsolet.

    Untersuchungen über den altersbedingten Abbau wurden früher meist an einer Auslese von Leuten in Spitälern oder Altersheimen durchgeführt: Wer im Familienverband lebte oder sich bis ins hohe Alter allein versorgte, wurde lange Zeit in diesen Studien kaum berücksichtigt.

    Zudem hatte man Ende der 60er/ Anfang der 70er Jahre begonnen, Personen verschiedener Altersgruppen hinsichtlich ihrer Leistung zu untersuchen und miteinander zu vergleichen und damals wurde erhoben, dass die globale Intelligenz ab Mitte 20 leicht und ab 75 Jahren relativ rapid abnimmt. Daraus wurde das „Defizitmodell“ abgeleitet, d.h. dass Alter generell mit einem Defizit einherginge (Abbildung 2). Erst allmählich hat man festgestellt, dass es einen ab Mitte 20 beginnenden, allerdings sehr unterschiedlichen Altersabbau verschiedener Funktionen gibt, z.B: baut die motorische Geschicklichkeit relativ früh ab, wo hingegen das Optimum an Gedächtnisleistung im dritten Lebensjahrzehnt liegt. Andererseits werden manche Funktionen wie Urteilen und Vergleichen, Phantasie oder Problemlösefähigkeit mit dem Alter besser.

    Defizitmodell Erfolgreiches, konstruktive & kompetentes Altern
    Altern Phase der Lebensspanne
    Abbau Multidirektionalität
    Multidimensionalität der Leistung
    Biographische Intelligenz
    Konzepte der Sichtweise
    globale Betrachtung individuelle Sichtweise

    Depressitivät
    Motivationsverlust
    Resignation
    paranoide Tendenzen
    ...als primär störende Symptome

    ... diesen Kriterien Sinn geben
    Förderung von skills
    → Orientierung, Gedächtnis, Konzentration, soziale Fertigkeiten etc.
    Prävention
    (Auswirkungen von Lebensweise im mittleren Lebensalter, Zahl und Schweregrad von Noxen im Kindesalter auf späteres Altern)
    abrupter Übergang von Berusfstätigkeit in Pensionierung Allmähliche Überleitung bzw. Vorbereitung auf die Zeit ohne geregelten Beruf
    Verlust signifikanter Bezugspersonen
    Ausgliederung ("Ghettos")

    Neugestaltung des sozialen Netzes

    Soziale Integration

    Tabelle 1. Defizitmodell versus Aktives Altern

    Anhand dieser Beobachtungen wird „Intelligenz“ heute in viel komplexerer Form dargestellt und aufgezeigt, dass Intelligenzfunktionen mit dem Alter sehr unterschiedlich abfallen oder steigen. „Flüssige Intelligenz“, also Fähigkeiten der Umstellung und Motorik sowie das Gedächtnis bauen eher ab, das rasche Auffassen und Verarbeiten von Informationen, lässt tendenziell bereits ab dem 30.Lebensjahr nach. Hingegen nimmt die „kristallisierte Intelligenz“ – Problemlösefähigkeiten, Kombinationsfähigkeit usw. – eher zu, was heute in Zusammenhang mit dem Konzept der „Weisheit“ diskutiert wird bzw. in der „biographischen Intelligenz“, dem „über sich selbst klüger werden“, Ausdruck findet.

    Intelligenz ist demnach multimodal und multidimensional (siehe auch weiter oben): Manche Intelligenzfaktoren werden mit dem Alter besser, andere schlechter. Jedenfalls kann man nicht von einem allgemeinen Intelligenzabbau sprechen und dies ist ein wesentliches Argument gegen das Defizitmodell.

    Ausnützen der sog. „Reservekapazität“

    Anhand mannigfacher Untersuchungen konnte nachgewiesen werden, dass sich der Abbau-Prozess durch gezieltes Üben verlangsamen lässt, wenn beginnende Defizite rechtzeitig aufgespürt, Motivation erreicht und eine stimulierende Umgebung aufgebaut werden kann; hierbei spielen auch soziale Aspekte eine große Rolle, d.h. das Eingebundensein in Familie, Freundeskreis, Zugehörigkeit zu verschiedenen Gruppierungen.

    Dies soll anhand eines Beispiels über altersspezifische Geschlechtsdifferenzierung aufgezeigt werden: aus der Beobachtung, dass Frauen in ihren Hirnleistungsfunktionen schneller abbauen, wurde abgeleitet, dies müsse mit einer unterschiedlichen Hirnalterung zu tun haben. Aber man hatte Frauen im Alter untersucht, die in der Jugend wenig Förderung, keine besondere Schulausbildung erhielten und ihr Leben lang ihre intellektuellen Kapazitäten nur wenig nützen konnten. Im Alter bauen diese Personen dann rascher ab – und dies ist nicht geschlechtsspezifisch! Insofern ist der Abbau nicht ausschließlich ein Hirnalterungsprozess, sondern auch ein Förderungsdefizit von früher – was wiederum ein Argument, für das Konzept des „erfolgreiches Alterns“ bringt und zudem darauf hinweist, dass das Altern auch einen sozialen und gesellschaftlichen Aspekt hat.

    Altern ist nicht nur individuelles sondern auch soziales Schicksal!

    Die Möglichkeiten der Auseinandersetzung und Bewältigung von Alternsprozessen werden durch gesellschaftliche Erwartungen und Normen beeinflusst. In der Gesellschaft bestehen Bilder vom alten Menschen die sowohl negativ (=hilfebedürftig) als auch positiv (=die jungen aktiven Alten, die wohlhabend und wichtige Konsumenten sind) verzerrt sein können und die das Selbstwertgefühl und damit wiederum subjektiv erlebte Handlungsalternativen und das konkrete Verhalten beeinflussen.

    Aus letztgenanntem Punkt heraus soll eine weitere Überlegung entwickelt werden, der enorme präventive Bedeutung zukommt: Aus Längsschnittuntersuchungen ist heute bekannt, dass das Fundament zur Alterung bzw. verschiedener Alterungsformen sehr früh, im mittleren Lebensalter, gesetzt wird. Die Art der intellektuellen Betätigung (wobei hier intellektuell im Sinne der bestmöglichen Ausnützung der vorhandenen mentalen Fähigkeit bedeutet) sowie eine ansprechende berufliche Tätigkeit, haben sich als den Alterungsprozess positiv beeinflussend im Sinne einer geringen Progredienz herausgestellt, wohingegen risikoreiches Verhalten im Sinne von falscher Ernährung und insbesondere Alkoholmissbrauch, Mangel an körperlicher Fitness einen Abbau beschleunigen. Konzepte des „erfolgreichen“ Alterns, richtig an die entsprechenden Zielgruppen herangebracht, könnten somit an Selbstkompetenz und den Anteil der eigenen Gestaltmöglichkeit appellieren.

    Resumé

    Das Konzept des aktiven Alterns beruht auf der Anerkennung der Menschenrechte des älteren Menschen und der Grundsätze der Vereinten Nationen im Hinblick auf die Unabhängigkeit, die Einbindung in das soziale Umfeld, die Würde, die Verfügbarkeit von Pflege und die Erfülltheit eines Lebens. Dabei wird der Schwerpunkt der strategischen Planung weg von dem Konzept der „Bedürftigkeit“ hin zu einem Konzept eines „Rechts“ gelenkt; man geht also von der Annahme ab, dass ältere Menschen primär passive Objekte sind und erkennt ihr Recht auf die Gleichheit an Chancen und Behandlung in allen Lebensbereichen an. Dabei wird die Verantwortung zur Teilnahme an den politischen Prozessen und anderen Aspekten des sozialen Lebens hervorgehoben.


    Anmerkungen der Redaktion

    Ilse Kryspin-Exner: „Aktiv durchs Leben- Psychologische Aspekte des Älterwerdens“ Vortrag Mai 2011 (PDF)


     

    inge Thu, 10.01.2013 - 04:20

    Wie «unsichtbarer Hunger» die Menschheit bedroht

    Wie «unsichtbarer Hunger» die Menschheit bedroht

    Fr, 03.01.2013 - 05:20 — Gottfried Schatz

    Icon MINTGottfried Schatz

    «Unsichtbarer Hunger» nach Vitaminen und anderen Nährstoffen, die wir nur in kleinsten Mengen benötigen, bedroht ein Drittel aller Menschen und tötet jährlich Millionen von Kindern. Verbesserte Nutzpflanzen könnten diesen Hunger lindern, doch Vorurteile und irrationale Ängste verhindern deren Einsatz.

    «Fühlt ihr nicht, dass ich nicht beten kann, wenn der Hunger mir die Eingeweide zerreisst, wenn der Magen im Wahnsinn schreit: erst Brot für mich, dann Liebe, dann Geist, dann Wahrheit!» Als Conrad Alberti in seinem 1888 erschienenen Drama «Brot!» diese Worte dem jungen Thoma Münzer in den Mund legte, ahnte er nicht, dass es noch einen anderen Hunger gibt, der zwar nicht «die Eingeweide zerreisst», aber ebenso tötet wie der Hunger nach Brot.

    «Hunger nach Brot» ist immer noch die größte Bedrohung der Weltgesundheit – und seine heimtückische Schwester, die Unterernährung, bei Kindern die weitaus häufigste Todesursache. Etwa vierzehn Prozent der Weltbevölkerung sind chronisch unterernährt, doch zum Glück sinkt dieser Prozentsatz stetig; er war noch vor einem Jahrhundert mehrfach höher, ist heute nur halb so hoch wie vor dreißig Jahren – und dürfte in Zukunft noch weiter absinken. Moderne Landwirtschaft und wirtschaftliche Entwicklung haben – allen Zweiflern zum Trotz – ihre Schuldigkeit getan.

    Scharlatane und Diät-Gurus

    Unser Hungergefühl warnt uns bei ungenügender Zufuhr von Proteinen, Fetten und Kohlenhydraten, deren sechs «Lebenselemente» Kohlenstoff, Sauerstoff, Wasserstoff, Stickstoff, Phosphor und Schwefel unserem Körper als Bausteine und Energiequelle dienen. Um uns am Leben zu erhalten, braucht es jedoch noch weitere Elemente, darunter die «Spurenelemente» Eisen, Zink, Kupfer, Iod, Fluor, Kobalt, Mangan, Molybdän, Selen und Chrom. Schliesslich muss unsere Nahrung auch etwa ein Dutzend verschiedener «Vitamine» enthalten – komplexe organische Stoffe, die unser Körper nicht selber bilden kann. Wenn wir auch Spurenelemente und Vitamine nur in winzigen Mengen benötigen, so sind sie dennoch für Wachstum, Zellatmung, Bildung der Erbsubstanz DNS und viele andere wichtige Prozesse unersetzlich. Wenn sie uns fehlen, warnt uns kein Hungergefühl. Dieser «versteckte Hunger» bedroht mindestens drei Milliarden Menschen, darunter auch viele Bewohner reicher Staaten.

    Vielleicht braucht unser Körper auch noch Spuren von Bor, Silizium, Zinn, Vanadium oder Nickel, doch wir sind uns dessen nicht sicher und rätseln noch, welche Aufgaben diese Elemente in unserem Körper erfüllen könnten. Der tägliche Mindestbedarf ist selbst für viele der bereits gesicherten Spurenelemente und Vitamine umstritten, da er sich meist nur schwer genau bestimmen lässt. Ist das in einem Gewebe gemessene Spurenelement tatsächlich biologisch bedeutsam? Wurde es nur zufällig mit der Nahrung aufgenommen? Oder entstammt es gar einer Verunreinigung der Analysengeräte? Kann – oder darf – man gesunden Versuchspersonen über Tage oder Monate ein Spurenelement vorenthalten, um dessen Wirkung zu bestimmen? Die Aufnahme vieler Spurenelemente oder Vitamine hängt zudem stark von anderen Spurenelementen und Vitaminen sowie von der Diät ab, so dass Angaben über den täglichen Mindestbedarf oft nur grobe Schätzungen sind. Kein Wunder, dass sich in diesem Dunst des Unwissens Scharlatane und Diät-Gurus tummeln, die mit pseudowissenschaftlichen Argumenten, religiösem Eifer und cleverem Geschäftssinn den unnötigen Verzehr oft gefährlicher Mengen an Spurenelementen und Vitaminen predigen.

    Tödliche Bedrohung

    Für Menschen, die sich vorwiegend von Reis ernähren, ist ein Mangel an Vitaminen und Spurenelementen jedoch eine tödliche Bedrohung. Weltweit darbt jedes dritte Kind an Vitamin A (Abbildung 1) und jeder dritte Mensch – meist Frauen – an Eisen. Vitamin-A-Mangel lässt die vier Lichtsensoren des Auges verkümmern und das Zusammenspiel lebenswichtiger Gene entgleisen. Als Folge davon erblinden jedes Jahr Hunderttausende von Kindern – und Millionen erkranken oder sterben an Infektionen, weil ihre Immunabwehr geschwächt ist. Vitamin A MangelAbbildung 1. Vitamin A Mangel - ein massives Gesundheitsproblem in mehr als der Hälfte aller Länder, insbesondere in Afrika and Südost-Asien. Rund 250 Millionen Vorschulkinder leiden an Vitamin A Mangel, jährlich erblinden 250 000 bis 500 000 Kinder, davon stirbt die Hälfte innerhalb eines Jahres (Quelle: WHO [1]) Eisenmangel ist nicht minder bedrohlich; seine Folgen sind Anämie, bleibende Entwicklungsschäden und Anfälligkeit gegenüber Infektionen. Abbildung 2 zeigt die Prävalenz des Eisenmangels bei Vorschulkindern [2]. Eisenmangel bei VorschulkindernAbbildung 2. Eisenmangel bei Vorschulkindern – ein globales Problem (Quelle: WHO [2]).

    Ein Netz verschiedener Hilfsorganisationen, allen voran die Global Alliance for Vitamin A, verteilt seit Jahren an Kinder in den betroffenen Regionen Vitamin-A-Kapseln und senkte damit die Kindersterblichkeit um ein Viertel. Verteilung und regelmässige Einnahme der Kapseln bereiten jedoch immer wieder Probleme, und so träumten Wissenschafter und Entwicklungshelfer davon, die Versorgung mit Vitamin A und Eisen über die Nahrung sicherzustellen.

    Die Erfüllung dieses Traums war jedoch schwieriger als erwartet. Ein Reiskorn enthält fast kein Eisen und nur geringe Spuren von orangefarbigem Karotin, das unser Körper zu Vitamin A umformen kann. Diese Eisen- und Karotinspuren beschränken sich zudem auf die Schale des Reiskorns, die beim Polieren verloren geht. Dennoch würde unpolierter Reis die Versorgung mit Vitamin A und Eisen nicht verbessern, sondern neue Probleme schaffen: Die Reisschale könnte den kindlichen Vitamin-A-Bedarf bei weitem nicht decken, wird bei Lagerung schnell ranzig und enthält zudem Stoffe, welche die Aufnahme von Eisen aus anderen Nahrungsmitteln verhindern. Um Reiskörner an Eisen und Karotin anzureichern, müsste man die Pflanze mit etwa einem halben Dutzend aktiver Gene «aufrüsten», was mit klassischen Züchtungsmethoden kaum möglich wäre.

    Um Träume zu erfüllen, braucht es praktisch veranlagte Träumer – wie den Pflanzenforscher Ingo Potrykus, der ab 1987 an der ETH Zürich wirkte. Er träumte von einer neuen Reissorte, deren Körner nicht nur genügend Vitamin-A-Vorstufen, sondern auch genügend Eisen enthalten würden, um den Bedarf eines Kindes zu decken. Schon früh erkannte er, dass sich dieser Traum nur mithilfe der modernen Gentechnologie verwirklichen ließe. Zusammen mit seinem Kollegen Peter Beyer und vielen Mitarbeitern aus der ganzen Welt gelang es ihm in mehr als einem Jahrzehnt harter Arbeit, den Karotingehalt von poliertem Reis beträchtlich zu steigern. Es war ein steiniger Weg voller Rückschläge, doch eines Tages konnten die Forscher ihren Kollegen stolz Reiskörner zeigen, die dank ihrem hohen Karotingehalt goldig schimmerten: der «Goldene Reis» war geboren (Abbildung 3). Eine Tasse davon genügte, um zusammen mit der ortsüblichen Nahrung den kindlichen Tagesbedarf an Vitamin A zu decken.

    Golden RiceAbbildung 3: Goldener Reis (rechts). Im Korn des goldenen Reis’ (nicht aber im normalen Reis – links) wird das gelbe beta-Carotin (Provitamin A) gebildet, das nach der Aufnahme in den menschlichen Organismus zu Vitamin A (Retinol) umgewandelt wird. Aus Retinol entstehen das für den Sehvorgang essentielle Retinal und Retinsäure, ein für Wachstum und Entwicklung unabdingberes Hormon. (Bild: Wikipedia).

    Mit Hilfe erfahrener Patentanwälte sorgten dann Potrykus und seine Mitstreiter auch dafür, dass alle notwendigen Lizenzen und Verwendungsrechte frei für humanitäre Zwecke verfügbar waren. Reisbauern werden den «Goldenen Reis» meist als Einkreuzung in lokale Reissorten von staatlichen Reis-Institutionen beziehen, auf gleiche Weise wie herkömmlichen Reis anbauen und – unabhängig von Saatgutfirmen – mit den Körnern einer Ernte die nächste säen können. Untersuchungen staatlicher Bewilligungsgremien konnten bisher keine gesundheitlichen Nachteile dieser neuen Reissorte finden. In den letzten Jahren entwickelten Potrykus und seine Mitarbeiter überdies noch eine eisenreiche Reissorte, die nach herkömmlicher Kreuzung mit «Goldenem Reis» den «unsichtbaren Hunger» nach Vitamin A und Eisen gleichzeitig stillen könnte.

    Hunger ist oft auch eine Folge von Naturkatastrophen, Unterdrückung und Krieg. Wenn auch Wissenschaft und Technologie allein ihn deshalb nie bezwingen werden, so liefern sie uns dennoch dazu wirksame Waffen – wie den «Goldenen Reis». Dieser wurde vorwiegend mit öffentlichen Geldern entwickelt, stieß aber sofort auf die erbitterte Ablehnung jener, die «genetisch veränderten» Pflanzen den Krieg erklärt hatten. Auch diese Aktivisten wollen Hunger bekämpfen, doch ihre Argumente können mich nicht überzeugen.

    «Schwachmütiges Mitleid»

    Laut ihnen ist «Goldener Reis» ein «trojanisches Pferd», das gentechnisch veränderten Pflanzen die Märkte erschliessen soll. Ähnliches wurde einst auch vom ersten gentechnisch erzeugten Insulin behauptet – bis dann eine breite Palette lebensrettender gentechnischer Produkte diesen Vorwurf verstummen liess. Das Einschleusen fremder Gene, so ein weiteres Argument, habe das Erbgut von Reis nach «Jahrmilliarden der Ruhe plötzlich gestört», was nicht nur die Umwelt, sondern auch die Gesundheit Reis essender Menschen gefährde. Dieser Einwand übersieht, dass traditionelle Pflanzenzüchter seit Jahrtausenden ungezählte Gene unkontrolliert von einer Pflanze in eine andere einkreuzen – und dass in den fast vier Milliarden Jahren der Evolution Gene unablässig zwischen verschiedenen Lebensformen hin und her sprangen. Dennoch ist der Einsatz von «Goldenem Reis» seit zehn Jahren blockiert.

    Wie schade, dass man nicht auf die Stimmen der Mütter hörte, deren Kinder an Vitamin-A-Mangel starben. Mitleid mit den Hungernden dieser Welt ist grausam, wenn es diesen nicht mit allen verfügbaren Mitteln helfen will. – «Es gibt eben zweierlei Mitleid. Das eine, das schwachmütige und sentimentale, das eigentlich nur Ungeduld des Herzens ist, sich möglichst schnell freizumachen von der peinlichen Ergriffenheit vor einem fremden Unglück, jenes Mitleid, das gar nicht Mitleiden ist, sondern nur instinktive Abwehr des fremden Leidens vor der eigenen Seele.» Hat Stefan Zweig die Zukunft gesehen, als er 1938 diese mahnenden Worte fand?


    Einzelnachweise und Quellen

    [1] WHO: Vitamin A deficiency

    [2] WHO: Summary tables and maps on worldwide prevalence of anaemia


    Weiterführende Links

    Golden Rice and Vitamin A Deficiency (12:47 min)

     

    inge Thu, 03.01.2013 - 05:20

    Comments

    2012

    2012 Redaktion Wed, 20.03.2019 - 01:01

    Holzkonstruktionen werden berechenbar — Neue gestalterische Möglichkeiten im Ingenieurholzbau

    Holzkonstruktionen werden berechenbar — Neue gestalterische Möglichkeiten im Ingenieurholzbau

    Do, 20.12.2012 - 09:00 — Josef Eberhardsteiner

    Icon MINTJosef Eberhardsteiner Josef Eberhardsteiner

    „Holz ist der größten und nötigsten Dinge eines in der Welt, des man bedarf und nicht entbehren kann.“ (Martin Luther, 1532). Seit den frühesten Epochen dient Holz als Baumaterial für die verschiedenartigsten Konstruktionen, seine mechanischen Eigenschaften werden allerdings auch heute noch überwiegend empirisch, in langwierigen Testreihen, ermittelt. Mikromechanische Modelle von Holz machen die Materialeigenschaften berechenbar und ermöglichen es, das volle architektonische und konstruktive Potential von Holz auszuschöpfen.

    Holzwerkstoffe zur Herstellung von Strukturelementen gewinnen im Bauwesen zunehmend an Bedeutung. Der Verbrauch an Bauholz boomt nicht zuletzt auf Grund der offensichtlichen ökologischen Vorteile. Hinsichtlich des Holzvorrats liegt unser Land im europäischen Spitzenfeld (rund 48 % der Gesamtfläche sind bewaldet, davon etwa 54 % mit Fichten). Es wächst jährlich mehr Holz nach als geerntet wird und steht damit auch künftigen Generationen nachhaltig zur Verfügung (http://www.proholz.at/wald-holz/wald-in-zahlen/).

    Den gestalterischen Möglichkeiten des Bauens mit Holz sind allerdings enge Grenzen gesetzt. Nach wie vor gehen die Bemessungskonzepte von Holzkonstruktionen, ebenso wie zahlreiche Bauvorschriften von einer rein empirischen, veralteten Basis aus, welche leider häufig unbefriedigende Resultate hinsichtlich der Effizienz und Sicherheit von Holzbaukonstruktionen liefert. Stark überdimensionierte Tragelemente aus Holz sind oftmals das Ergebnis.

    Will man das volle architektonische und konstruktive Potential des überaus vielseitigen Werkstoffs Holz ausschöpfen und seine Verwendung für moderne, innovative Konstruktionen erleichtern, so bedarf es verlässlicher neuer Methoden zur Berechnung der Materialeigenschaften. Die rechnerischen Methoden sollten einerseits langwierige experimentelle Testreihen (zum Teil) ersetzen können und andererseits als Instrument zur Vorhersage und Optimierung der Materialeigenschaften von Holzwerkstoffen dienen.

    Ein Beispiel für derartige neue Konstruktionen, welche durch komplexe zwei-und dreidimensionale Beanspruchungszustände charakterisiert sind, ist das in Abbildung 1 dargestellte „Metropol Parasol“, eine zwar ästhetisch anspruchsvolle, konstruktiv aber äußerst herausfordernde Holzkonstruktion.

    Metropol Parasol Abbildung 1. Metropol Parasol: Das 2011 in der Altstadt von Sevilla fertiggestellte Bauwerk – sechs Riesen-Pilze (Architekt: Jürgen Mayer-Hermann) - gilt mit seinen Abmessungen von 150 x 70 m, einer Höhe von 26 m und insgesamt 3400 einzelnen Holzelementen als weltweit größte Holzkonstruktion. Das ursprüngliche Baukonzept erwies sich allerdings als undurchführbar und zog langwierige Untersuchungen zur Verbesserung der Materialeigenschaften nach sich, die zur Verlängerung der Bauzeit und Verdoppelung der Baukosten führten (aus: Wikipedia).

    Holz ist ein inhomogener Werkstoff

    Holz ist ein natürliches Material mit einer sehr heterogenen Mikrostruktur; sein Aufbau ist artspezifisch und durch das Vorhandensein von Astansätzen, Änderungen im Faserverlauf und anderen Defekten und Wuchsunregelmäßigkeiten gekennzeichnet.

    Alle Eigenschaften von Holz sind von seinem strukturellen Aufbau abhängig. Das mechanische Verhalten, beispielsweise Steifigkeit und Festigkeit, ist zudem stark anisotrop, d.h. von der Richtung der Beanspruchung – radial (R-Richtung), in Längsrichtung des Stammes (L-Richtung), tangential (T-Richtung) – abhängig und variabel. Die Heterogenität der Mikrostruktur ist in Abbildung 2 ersichtlich, die Richtungsabhängigkeit der mechanischen Eigenschaften wird daraus verständlich:

    Die wabenartige Mikrostruktur von Holz setzt sich bis zu 95 % aus so genannten Tracheiden zusammen. Das sind längs zur Stammachse ausgerichtete Zellen mit einem radialen Querschnitt von 20–50 Mikrometer und einer Länge von 2–5 mm. Am Beginn der Wachstumsphase weisen die Zellen ein größeres Lumen und dünnere Zellwände auf (Frühholz); erstere dienen dem Wassertransport von der Wurzel in die Krone. Die Zellen im Spätholz haben ein kleineres Lumen und sind dickwandiger, mit einem höheren Anteil an Lignin in den Zellwänden; sie dienen überwiegend der Stützfunktion.

    Makro- und Mikrostruktur von NadelholzAbbildung 2. Makrostruktur (links) und Mikrostruktur (rechts) von Nadelholz: Die wabenartige Mikrostruktur aus so genannten Tracheiden zeigt Zellen mit größeren radialen Lumen im Frühholz (A) und kleineren Lumen im Spätholz (B). Die Zellen sind in Stammrichtung ausgerichtet (C) und ihre Länge übertrifft ihren radialen Durchmesser um rund zwei Größenordnungen. (Bild modifiziert nach http://www.vcbio.science.ru.nl/images/stemgrowth/woodanatomy-slide-03.jpg)

    Wie können Materialeigenschaften von Holz berechenbar gemacht werden?

    Gegenwärtige Konzepte in der Holzbautechnologie sind vielfach charakterisiert durch:

    • Mangelhaftes Verständnis über das mechanische Verhalten von fehlerfreiem Holz und dessen Bezug zu den mikrostrukturellen Eigenschaften. Daraus resultiert eine unzureichende Kenntnis der Materialeigenschaften unterschiedlicher Holzarten und wie diese von holzspezifischen Parametern, wie beispielsweise Dichte und Feuchtigkeit, abhängen.
    • Ungenügende Kenntnis darüber, wie sich Astansätze und andere „Defekte“ auf die mechanischen Eigenschaften von Holzwerkstoffen auswirken. Entsprechend werden dann im Bauwesen Holzstrukturelemente als weniger geeignet eingestuft und das Potential ihrer Anwendungsmöglichkeiten nicht voll ausgeschöpft./li>
    • Vereinfachung und Vereinheitlichung der zu Grunde liegenden mechanischen Prozesse (beispielweise unterschiedliche Effekte bei Platten, Laminierungen, mechanischen Verbindungen). Da ein ausreichendes physikalisches Werkstoffverständnis und daraus resultierend ein umfassendes mechanisches Konzept fehlt, welches auf verschiedenste Holzkonstruktionen angewendet werden kann, werden aktuelle Modellierungsansätze vielfach von empirischen, experimentell bestimmten Parametern dominiert.

    Unter Berücksichtigung dieser wichtigen Probleme verfolgt eine Forschergruppe am Institut für Mechanik der Werkstoffe und Strukturen (IMWS) der Technischen Universität Wien die Strategie mikrostrukturelle Charakteristika mit dem mechanischen Verhalten von fehlerfreiem und in weiterer Folge von „fehlerbehaftetem“ Holz zu verknüpfen. Auf dieser Basis werden Modelle für Holz, Holzprodukte und Strukturelemente erstellt, die praktisch auf alle Holzbaukonsturktionen anwendbar sind:

    Diese Modelle gehen von einem Mehrskalenmodell aus, welches die mechanischen Eigenschaften von fehlerfreiem Holz beschreibt. Auf diesem Ansatz bauen weitere Berechnungskonzepte (3D-Finite Element Modelle) auf, welche (a) den Einfluss von Astansätzen und anderen Wuchsunregelmäßigkeiten berücksichtigen und zur Beschreibung von Holzprodukten dienen und (b) Modelle zur Analyse von Holzverbindungen, die die Geometrie der Verbindungen, ihre Belastbarkeit und Nachgiebigkeit sowie gegebenenfalls Verstärkungsmöglichkeiten charakterisieren. Ein dreidimensionales stochastisches numerisches Modell erlaubt die Vorhersage von Steifigkeits- und Festigkeitswerten von geschichteten Leimholzprodukten (Brettsperrholz, Brettschichtholz, u.a.) unter Berücksichtigung der unterschiedlich schwankenden mechanischen Eigenschaften der Einzellamellen.

    Eine Beschreibung all dieser Modelle würde den Artikel weit über die im Blog übliche Länge ausdehnen. Im Folgenden soll deshalb nur das grundlegende Mehrskalen-Modell dargestellt werden. Detaillierte Information über alle Modelle ist in [1] nachzulesen.

    Das Mehrskalen-Modell für Holz

    Hierarchischer Aufbau von Nadelholz

    Abbildung 3. Holz ist hierarchisch aufgebaut: Das Mehrskalenmodell für fehlerfreies Holz geht schrittweise von der submikroskopischen Ebene aus und verwendet repräsentative Volumselemente (rote Quadrate) um die Eigenschaften der jeweils nächsten höheren Beobachtungsebene zu beschreiben und zu prognostizieren. Die elementaren Komponenten bestimmen die Strukturen der Zellwände, die Zellwände die mechanischen Eigenschaften der Zellen und diese die Eigenschaften des Werkstoffs Holz. Zur Wabenstruktur von Holz siehe Abbildung 2. (Zu den Methoden siehe [1])

    Wie bereits weiter oben beschrieben, besitzt Holz eine sehr heterogene Mikrostruktur, sein mechanisches Verhalten ist stark richtungsabhängig und variabel. Geht man allerdings zu sehr kleinen, submikroskopischen Dimensionen, werden hierarchische Bauprinzipien ersichtlich, und man findet universelle Komponenten, die allen Holzarten gemeinsam sind (Abbildung 3):

    Diese elementaren biochemischen Komponenten – Zellulose, Hemizellulose, Lignin und in geringerem Ausmaß Extraktstoffe – bilden, vereinfacht dargestellt, ein Zellulosefaser-verstärktes, polymeres Netzwerk. Aus diesem sind in mehreren Schichten die Zellwände der in Stammrichtung verlaufenden Holzfasern aufgebaut. Zellulose liegt dabei zu größeren Struktureinheiten (Elementarfibrillen) gebündelt vor, diese wiederum (jeweils bis 2000 Zelluloseketten) sind zu fadenförmigen Mikrofasern zusammengefasst. Die Mikrofasern sind in eine Matrix aus Hemizellulose und Lignin eingebettet. Auf Grund der hygroskopischen Eigenschaften dieser Polymere ist auch Wasser in die Zellwände eingelagert.

    Die Zusammensetzung aus diesen elementaren Komponenten, deren Strukturen und Verteilung innerhalb des mikroheterogenen Materials, ebenso wie die Wechselwirkungen, die sie aufeinander ausüben und die daraus resultierenden mechanischen Eigenschaften, bestimmen auch die mechanischen Eigenschaften auf der makroskopischen Ebene! Dementsprechend zielen rechnerische Ansätze darauf ab, eine Beziehung zwischen den mechanischen Eigenschaften auf (sub)mikroskopischen Ebenen und jenen auf der makroskopischen Ebene herzustellen. Auf der Basis seiner hierarchischen Struktur können hier für fehlerfreies Holz so genannte Mehrskalen-Modelle entwickelt werden:

    Die Methode beruht darauf, dass in jeder Größenskala repräsentative Volumselemente oder Einheitszellen ausgewählt werden können, welche geeignet sind, die unterschiedlichen Mikrostrukturen in einer statistisch relevanten Art darzustellen. (Links zu den entsprechenden mikromechanischen Ansätzen – Mori-Tanaka-Methode, self-consistent scheme-Methode, Einheitszellen-Methode und Laminate-Theorie – sind in [1] zu finden.) Auf diese Weise wurden bereits Modelle für unterschiedliche Arten von Weichholz und Hartholz entwickelt, ebenso auch für Holz mit Pilzbefall und archäologisches Holz. In allen bisherigen Anwendungen haben Vergleiche mit experimentell, auf verschiedenen Größenskalen erhobenen Ergebnissen die Brauchbarkeit dieser Verfahren aufgezeigt, ebenso deren Potential, Holzeigenschaften ohne aufwändige Testreihen verlässlich prognostizieren zu können. Ein weiterer wesentlicher Vorteil der vorgestellten Methoden ist , erwünschte mechanische Eigenschaften auf der makroskopischen Ebene auf der Basis von mikroskopischen Änderungen definieren zu können.

    Ausblick

    Die Anwendung geeigneter rechnerischer Verfahren zur Charakterisierung von Holz, Holzprodukten und Holzverbundmaterialien liefert eine verbesserte Basis um mechanische Eigenschaften – wie Steifigkeit, Festigkeit, Belastbarkeit – von nicht experimentell getesteten Materialien verlässlich abschätzen und prognostizieren zu können. Die Etablierung derartiger Berechnungsmöglichkeiten, deren Relevanz durch experimentelle Untersuchungen bestätigt wurde, lässt hoffen, dass nicht nur ästhetisch anspruchsvolle und leistungsfähige Holzkonstruktionen verstärkt zum Einsatz gelangen, sondern – basierend auf zuverlässigen Technologien – sich auch innovative neue Betätigungsfelder im Ingenieur-Holzbau eröffnen.


    [1] J. Füssl, T.K. Bader, J. Eberhardsteiner (2012) Computational mechanics for advanced timber engineering – from material modeling to structural applications. IACM Expressions 32/12, 6-11.


    Anmerkungen der Redaktion

    Holz-Struktur

    "Structure of wood" (3:45 min) http://www.youtube.com/watch?v=E5GWBRMfF20&list=PL1815F6DBF74F31F0&index=17

    Zum Holzbau

    Wood in Education: Building a Strong Foundation (5:37 min) Inhabitat talks with Architect Jürgen Mayer H. about the Metropol Parasol (5:42 min) Zum Thema Mehrskalen-Analyse siehe auch den Artikel von Herbert Mang: »Multi-scale Analysen zur Prognose der Tragsicherheit von Bauwerken« im ScienceBlog

    Multiskalenansätze zur Bewältigung von Komplexität in Natur- und Geisteswissenschaften

     

     


     

    inge Thu, 20.12.2012 - 05:20

    Comments

    Stimmen der Nacht - Gedanken eines emeritierten Professors über Wissenschaft und Universitäten

    Stimmen der Nacht - Gedanken eines emeritierten Professors über Wissenschaft und Universitäten

    Do, 06.12.2012- 0:00 — Gottfried Schatz

    Icon Politik & Gesellschaft Gottfried Schatz

    Genügt es, wenn Professoren nur Fachwissen vermitteln? Sollten sie nicht vielmehr junge Menschen dazu ermuntern, unabhängig zu denken, sich von anerzogenen Vorurteilen zu befreien und Antworten auf die grossen Fragen zu finden - Fragen nach unserem Dasein und dem Wesen der materiellen und geistigen Welt? Gedanken eines Vermittlers von Wissenschaft par excellence, der auch hochkomplexe Zusammenhänge in einfachen, für Laien verständlichen Worten darzustellen vermag.

    Seit Jahren bin ich emeritiert - ein Professor im Ruhestand. Ich habe kein Laboratorium, keine Mitarbeiter und keine Forschungsgelder mehr, muss aber auch nicht mehr sinnlose Formulare ausfüllen, Berichte für Schubladen schreiben und an unnötigen Sitzungen mit dem Schlaf kämpfen. Meine Freiheit ist mir noch immer nicht ganz geheuer. Sie macht jeden Tag zu einem Experiment, das Unerwartetes zutage fördern kann - über Wissenschaft, über meinen ehemaligen Beruf oder über mich selbst.

    Zwischen Wachen und Träumen

    Als frischgebackener Biochemiker war ich fast stets im Laboratorium und arbeitete bis spät in die Nacht - manchmal auch bis in den frühen Morgen. Die Stille des nächtlichen Laboratoriums schenkte meinen Gedanken freien Lauf und mir neue Ideen. Wenn ich jetzt nachts wach liege und meinen Erinnerungen nachgehe, vermisse ich diese Stille, denn die Stimmen der Nacht stören sie mit ihren Fragen. Die Stimmen sind unerbittlich und lassen sich nicht belügen. Ich versuche, ihnen zu widerstehen, doch sie kommen zur Stunde des Wolfs, wenn meine Gedanken im Niemandsland zwischen Wachen und Träumen wandern und meine Verteidigung versagt.

    Immer wieder wollen die Stimmen wissen, was Wissenschaft mir gab. Es ist nicht leicht, darauf zu antworten, denn es gibt zu viele Antworten. Ich wollte Wissenschafter werden, um zu erfahren, wie die Welt um mich beschaffen ist. Bald jedoch erkannte ich, dass die wissenschaftliche Wahrheit von heute schon morgen falsch sein kann. Einer meiner Kollegen gestand dies in seiner Festrede für frischgebackene Doktoren mit folgenden Worten: «Wir haben unser Bestes getan, um Ihnen die neuesten Erkenntnisse der Wissenschaft beizubringen. Dennoch ist wahrscheinlich die Hälfte dessen, was wir Sie lehrten, falsch. Leider kann ich Ihnen nicht sagen, welche Hälfte.» Wissenschaft zeigte mir nicht die endgültige Wahrheit, sondern den Weg, um mich einer Wahrheit zu nähern. Ich erfuhr, dass sie nicht das Sammeln und Ordnen von Tatsachen ist, sondern der Glaube, dass wir die Welt durch Beobachten, Experimentieren und Nachdenken begreifen können. Wissenschaft zeigte mir auch die engen Grenzen des menschlichen Verstandes und lehrte mich Bescheidenheit. Arroganz, Hierarchie und Macht waren stets ihre Todfeinde.

    Dennoch konnte mich Wissenschaft nie ganz befriedigen. Das Adagio aus Mahlers Zehnter Sinfonie, Shakespeares Sonette oder Cézannes Visionen des Mont Sainte-Victoire erzählten mir von einem verzauberten Land, das jenseits jeder Wissenschaft liegt. Erst dieses Land schenkte meiner Sicht der Welt einen zweiten Blickwinkel und damit die Dimension der Tiefe.

    Und immer wieder die Frage, vor der ich mich fürchte: «Warst du ein guter Wissenschafter?» Nur allzu oft war ich es nicht, denn ich war nicht immer leidenschaftlich, mutig und geduldig genug. Wissenschaftlicher Erfolg entspringt nicht nur aus Intelligenz und Originalität, sondern auch vielen anderen Talenten. Die wichtigsten Voraussetzungen jedoch sind Leidenschaft, Mut und Geduld. Es braucht sie, um allgemein akzeptierte Ideen und Dogmen zu hinterfragen und ein schwieriges wissenschaftliches Problem zu lösen. Und es braucht sie auch, um trotz Fehl- und Rückschlägen ein Ziel über Jahre hindurch unbeirrt zu verfolgen.

    Die Waffe der Wissenschaft ist Wissbegierde - doch diese Waffe ist stumpf ohne die Schärfe der Intelligenz. Aber selbst die schärfste Intelligenz ist kraftlos ohne Leidenschaft und Mut - und diese wiederum sind Strohfeuer ohne die Macht der Geduld. Und die Stimmen fragen weiter. «Hast du deinen Studenten und Mitarbeitern geholfen, leidenschaftlich, mutig und geduldig zu sein?» Hier schmerzt die Antwort: «Sicher nicht genug.» Ich glaube nicht, dass Leidenschaft sich lehren lässt, doch Mut und Geduld erstarken im Umgang mit mutigen und geduldigen Menschen. Darum versuchte ich, so gut ich konnte, meinen Mitarbeitern Mut und Geduld vorzuleben, denn persönliche Vorbilder sind für die Entwicklung junger Menschen von überragender Bedeutung. Sie sind die wichtigste Gabe, die eine Universität ihren Studenten geben kann. Wie schade, dass ich dies erst jetzt ganz erkenne.

    Wissenschaft und Lehre

    Und dann die Frage: «Was würdest du besser machen, wenn du nochmals beginnen könntest?» Hier fällt mir die Antwort leicht: «Ich würde die Lehre mindestens ebenso wichtig nehmen wie die Forschung.» Unter «Lehre» verstehe ich nicht die Aufzählung wissenschaftlicher Tatsachen, sondern die Weitergabe meiner wissenschaftlichen Erfahrungen und meiner persönlichen Ansichten über Wissenschaft, die Welt und uns Menschen. Professoren dürfen nicht nur Fachwissen vermitteln, sondern müssen junge Menschen dazu ermuntern, unabhängig zu denken, sich von anerzogenen Vorurteilen zu befreien und Antworten auf die grossen Fragen zu finden - Fragen nach unserem Dasein und dem Wesen der materiellen und geistigen Welt.

    Alle jungen Menschen suchen Antworten auf diese Fragen, selbst wenn sie sich dessen nicht bewusst sind oder es nicht zugeben wollen. Und wenn unsere Bildungsstätten sie dabei im Stich lassen, werden sie bei Gurus und religiösen Fanatikern Rat suchen. Wie anders lässt es sich erklären, dass so viele Anhänger der berüchtigten Bhagwan-Sekte an den besten Universitäten der USA studiert hatten? Im Rückblick erscheint es mir fast unglaublich, dass Hunderte von begabten jungen Menschen mir bei meinen Vorlesungen über eine Stunde lang zuhörten. Welch einmalige Möglichkeit, diese jungen Menschen zu formen! Doch ich nutzte sie oft zu wenig, weil es mich zurück ins Laboratorium zog. «Was hat dich an der Wissenschaft überrascht?», fragt eine Stimme. Auch hier muss ich nicht lange nach der Antwort suchen. «Ich hatte einsames Forschen erwartet und nicht geahnt, wie sehr die Gemeinschaft mit anderen Wissenschaftern mein Leben prägen und bereichern würde.» Grosse wissenschaftliche Entdeckungen sind meist Kinder der Einsamkeit, werden aber dennoch nicht in Isolation geboren. Wir Wissenschafter arbeiten an einer Kathedrale, deren Vollendung keiner von uns erleben wird. Deshalb zehren wir doppelt von der Gemeinsamkeit unseres Schaffens.

    Meine nächtlichen Besucher wollen vieles wissen und verstummen erst im Morgengrauen. Um mich gegen ihre Fragen besser zu wappnen, schreibe ich nun meine Antworten im Schutz des Tages nieder. Es sind Versuche - essais. Michel Eyquem de Montaigne sah seine «Essais» als Versuche, sich selbst zu erforschen. Vielleicht wollte aber auch er nur die Stimmen der Nacht besänftigen.


    Anmerkung der Redaktion

    Zum obigen Thema und über dieses hinaus gibt es in der Reihe „Sternstunde Philosophie“ ein rezentes (12.08.2012), großartiges Interview mit Gottfried Schatz: „Das Rätsel unserer Lebensenergie. Über Biochemie, Forschungsintrigen und Wissenschaftspolitik“ (55 min)

    Schatz nimmt u.a. darin Stellung zu Themen wie: Arroganz und beschränkte Erkenntniskraft, Wahrheiten und Modelle in der Wissenschaft, Kultur und die Naturwissenschaften, Wissenschaft und Politik und Zukunft der Wissenschaft.

    Zahlreiche weitere Artikel von Gottfried Schatz zu wissenschaftlichen und wissenschaftspolitischen Themen sind im ScienceBlog erschienen und unter der Rubrik „Einträge nach Autoren“ nachzulesen.

    inge Thu, 06.12.2012 - 05:20

    Homo ludens - Spieltheorie

    Homo ludens - Spieltheorie

    Do, 29.11.2012- 04:20 — Karl Sigmund

    Icon MINTKarl Sigmund

    Die Spieltheorie ist eine mathematische Disziplin, die sich direkt aus dem Spiel ableitet. Auf der Basis von Gesellschaftsspielen (wie z.B. Schach oder Poker) modelliert die Spieltheorie die sozialen/ökonomischen Wechselwirkungen zwischen den Mitspielern. Der Zufall kann dabei eine Rolle spielen, jedoch kommt ein weiteres Element der Ungewissheit hinzu: der Spielausgang hängt nicht nur von den eigenen Entscheidungen, sondern von anderen ab, die zumeist andere Interessen haben.

    Spieltheorie ist die Theorie von Interessenskonflikten. Diese spielen bei sozialen, wirtschaftlichen oder militärischen Wechselwirkungen eine wesentliche Rolle; auch Recht und Moral dienen in erster Linie dazu mit Interessenskonflikten fertig zu werden.

    Spieltheoretiker befassen sich zumeist nicht mit der Theorie von Brett- oder Kartenspielen. Sie verwenden nur die Sprechweise von Gesellschaftsspielen – Spiel, Spieler, Strategien, Auszahlung - um soziale Wechselwirkungen zu beschreiben.

    • Die Wechselwirkung wird als Spiel bezeichnet,
    • die Individuen heißen Spieler,
    • diese müssen sich zwischen mehreren Alternativen (= Strategien) entscheiden und
    • je nachdem, was die Spieler gewählt haben, fällt dann ihre Auszahlung aus (die keineswegs in Geld bestehen muss, aber ihre Präferenzen widerspiegelt: jeder möchte möglichst gut abschneiden).
       

    Als Geburtstunde der Spieltheorie wird das Erscheinen des Buches von Oskar Morgenstern und John von Neumann angesehen, 1944: ‚Game Theory and Economic Behaviour‘ sollte ursprünglich ‚Theory of Rational Decisions‘ heißen, und wahrscheinlich wäre dann der Erfolg weniger fulminant gewesen. Das Buch begeisterte Journalisten, Politikberater und Militärs, vor allem aber junge Mathematiker wie etwa den genialen John Nash, der bald darauf die Spieltheorie auf neue Füße stellte, und dessen tragisches Leben durch den Film ‚A beautiful mind‘ einem großem Publikum bekannt wurde. Bald entdeckten auch Moralphilosophen, Ökonomen, und Verhaltensbiologen die Spieltheorie. Sie ist das Werkzeug par excellence des methodologischen Individualismus.

    Im folgenden möchte ich einige Beispiele für typische spieltheoretische Gedankengänge bringen.

    Beispiel 1: Schaden durch Eigennutz

    Stellen Sie sich folgenden Versuch vor. Zwei Probanden (also Spieler A und B), die einander nicht kennen und nie sehen werden (und die das wissen) sitzen in zwei Kämmerchen. Jeder hat die Wahl zwischen zwei Alternativen (also Strategien) C und D: Wenn ich C wähle, muss ich dem Versuchsleiter 5 € zahlen, und der andere Spieler erhält (durch den Versuchsleiter) 15 €. Wenn ich D wähle, geschieht das nicht. Wir müssen unsere Entscheidungen – soll ich dem anderen Spieler etwas schenken oder nicht? - unabhängig voneinander treffen.

    GefangenendilemmaAbbildung 1. Das Gefangenendilemma.

    Es ist klar: wenn der andere C wählt, und ich auch, erhält jeder unterm Strich 10 € . Mehr erhielte ich, wenn ich das Geschenk des anderen nicht erwidere, also D spiele: dann bekomme ich 15 €. Also: wenn der andere C spielt, ist es für mich besser, D zu spielen. Wenn der andere D spielt, natürlich erst recht. Denn wenn ich C wähle, verliere ich 5 €, und wenn ich D spiele, nichts. Also ist es in jedem Fall besser, D zu spielen. Das gilt für den anderen genau so. Dann bekommen wir aber beide nichts. Jeder hat dann auf 10 € verzichtet – und zwar aus Eigennutz!

    Das ist ein Beispiel für ein sogenanntes Gefangenendilemma (siehe unten). Das Paradoxon: durch Eigennutz schaden wir uns selbst!

    Oft fasst man das Wirtschaftsleben auf als Unterfangen, wo jeder seinen eigenen Nutzen verfolgt, zum schließlichen Wohle aller. Laut Adam Smith harmonisiert eine ‚unsichtbare Hand‘ die  eigennützigen Bemühungen der Wirtschaftstreibenden: dadurch, dass sie ihr eigenes Einkommen maximieren wollen, maximieren sie das Allgemeinwohl.

    „Durch das Verfolgen der eigenen Interessen fördert der Mensch oft das Interesse der Gesellschaft wirksamer, als wenn er es wirklich fördern wollte... Der Mensch beabsichtigt nur den eigenen Vorteil, und er wird so wie durch eine unsichtbare Hand zu einem Ziel geführt, das er gar nicht beabsichtigt.“ (Adam Smith)

    Und manchmal funktioniert das auch wirklich. Aber bei einem Sozialdilemma eben nicht! Da lässt sich mit Joseph Stiglitz sagen: ‚Die unsichtbare Hand ist unsichtbar, weil sie gar nicht da ist.‘

    Nebstbei gesagt, der ‚Eigennutz‘ ist nicht notwendigerweise Egoismus, Präferenzen müssen nicht selbstsüchtig sein. Mir könnte es beispielsweise ausschließlich um das Wohl von Seehundbabys gehen. Trotzdem, solange ich und mein Spielpartner verschiedene Präferenzen haben, können wir uns in so einer sozialen Falle verfangen.

    Es gibt tausende von wissenschaftlichen Artikeln und eine ganze Reihe von Büchern über das Gefangenendilemma! Es taucht immer dort auf, wo zwei Personen zusammenarbeiten. Sobald es möglich ist, den Beitrag des anderen auszubeuten, oder den eigenen Beitrag auf Kosten anderer zu verringern, können wir in eine soziale Falle tappen. Anscheinend sind Menschen aber besonders befähigt, sich daraus zu befreien. Wir kooperieren oft mit Erfolg, ohne immer zu wissen, wieso. Wenn man zum Beispiel ein Bild des anderen sieht, steigt die Bereitschaft, dem etwas zu schenken, umso mehr, als der uns ähnlich sieht (selbst wenn uns diese Ähnlichkeit gar nicht auffällt!). Man kann im Experiment das Bild des anderen digital manipulieren und damit auch die Bereitschaft, zu schenken.

    Beispiel 2: Das Ultimatum-Spiel - Homo oeconomicus

    Dieses Experiment erfordert wieder einen Spielleiter und zwei Spieler, die einander nicht kennen, nicht einmal sehen, und die wissen, dass sie einander nach dem Spiel nie wieder begegnen werden. Der Spielleiter verkündet, dass er 10 € unter die zwei Spieler aufteilen wird, unter den folgenden Bedingungen:

    • Zuerst entscheidet ein Münzwurf, wer von den zwei Spielern der Bieter ist.
    • Dann darf der Bieter (hier A) einen Vorschlag machen, wie die 10 € aufgeteilt werden.
    • Wenn der andere (hier B) zustimmt, wird das auch so gemacht, und das Spiel ist zu Ende.
    • Wenn aber der andere ablehnt, ist das Spiel ebenfalls zu Ende. Denn dann nimmt der Spielleiter die 10 € wieder an sich, und die beiden Spieler gehen ihrer getrennten Wege, ohne irgend etwas bekommen zu haben. Es gibt kein Feilschen, keine zweite Runde; sondern nur ein Angebot, das akzeptiert oder verworfen werden muss. Ein Ultimatum halt! Gespielt wird um echtes Geld.

    Wie würden Sie sich entscheiden, in der Rolle des Bieters oder des anderen? Homo oeconomicusAbbildung 2. Entscheidungsbaum für den Homo oeconomicus

    Ist der andere rational, sollte er jedes (positive) Angebot annehmen, auch wenn es noch so gering ist – ein Euro ist besser als keiner. Im Hinblick darauf sollte ein rationaler Bieter dem anderen einen Minimalbetrag anbieten, hier etwa 1 €, und sich den Rest behalten. So sollte der sogenannte Homo oeconomicus handeln, zumindest wenn er glaubt, seinesgleichen zum Partner zu haben. In Wirklichkeit geschieht das fast nie! Der weitaus überwiegende Teil der Angebote beträgt 4 oder 5 €, also die Hälfte der Summe oder knapp darunter. Nur ganz wenige Angebote betragen 2 € oder weniger. Solche ‚unfairen‘ Angebote werden fast ausnahmslos empört abgelehnt. Die meisten Spieler bestehen auf einer ‚fairen‘ Lösung, also einer Aufteilung zu etwa gleichen Teilen.

    Das Spiel ist an vielen Orten wiederholt worden (Tokio, Ljubljana, Chicago, Zürich…), die Resultate sind zumeist ganz ähnlich. Die Stadtmenschen sind in dieser Beziehung überall gleich. Aber dann hat man dieses Spiel in sogenannten small-scale societies durchgeführt, also etwa bei den Machiguenga (Jägern und Sammlern aus dem Amazonasbecken), den Hazda (einem Hirtenvolk aus Kenia), den Lamalera (Fischern in Indonesien). kulturelle bedingte Unterschiede. Die Jäger und Sammler sind am ‚unfairsten‘ (aber immer noch viel weniger unfair als der fiktive Homo oeconomicus: sie bieten im Mittel etwa ein Viertel der Gesamtsumme). Die Lamalera sind dagegen hyperfair, sie bieten mehr als die Hälfte (und lehnen übrigens solche Angebote meist ab: das hängt mit ihrer Geschenkkultur zusammen). Am ‚fairsten‘ sind Gruppen aus modernen Großstädten wie Los Angeles oder Chicago.

    Beispiel 3: Solidarität, Trittbrettfahrer und institutionelle Bestrafung

    In einer Gruppe von, sagen wir, 6 Spielern kann jeder einen gewissen Betrag in eine Gemeinschaftskasse einzahlen, sagen wir 20 €, wissend, dass der vom Versuchsleiter verdoppelt wird, und dann auf alle Teilnehmer gleichmäßig aufgeteilt. Auf alle, egal, ob die eingezahlt haben oder nicht! Die Gemeinschaftskasse ist ein öffentliches Gut, in dem Sinn. Jeder hat daran teil.

    Wenn alle brav einzahlen, bekommt jeder doppelte heraus. Das ist gut! Ich gewinne 20 €. Aber noch besser scheint es, ein sogenannter Trittbrettfahrer oder Schwarzfahrer zu sein. Wenn die fünf anderen 20 € einzahlen und ich nichts, gewinne ich 33€! Freilich, wenn alle schwarzfahren, also nichts einzahlen, dann erhält keiner was. Wieder so eine soziale Falle!

    Klar ist: Schwarzfahrer gehören bestraft. Denn wenn sie eine Strafe zahlen müssen, werden sie keinen Anreiz haben, schwarz zu fahren, also das öffentliche Gut auszubeuten. Ein Kontrollor gehört her! Aber stellen wir uns vor, dass so eine schwarzkäpplerische Obrigkeit nicht existiert, also Anarchie herrscht. Was dann?

    Nun, dann sollten wir die Missetäter selbst bestrafen. Aber das kostet uns etwas (Zeit und Aufwand, und das Risiko, dass sich der Schwarzfahrer rächt…). Im Experiment dürfen jetzt die Spieler die Ausbeuter bestrafen, aber das kostet sie etwas! Das Bestrafen wirkt, und verhindert das Schwarzfahren. Aber in Anbetracht der Kosten ist es besser, wenn ich es den anderen überlasse, die Schwarzfahrer bestrafen, und damit dafür zu sorgen, dass das öffentliche Gut nutzbar ist. Was ich dann aber mache, ist nichts anderes als Trittbrettfahren zweiter Ordnung! Wieder nutze ich andere aus!

    Kann sich in so einer Situation das Bestrafen von Missetätern durchsetzen?

    Strategien – Computersimulation [1,2]

    Es gibt zahlreiche Möglichkeiten, sich diesem Problem zu nähern. Ich möchte aus Zeitgründen nur einen Weg einschlagen, der dem Mathematiker besonders liegt, nämlich dem der Computersimulation, also ein rechnergestütztes Gedankenexperiment. Nehmen wir an, wir haben eine fiktive Population von (sagen wir) hundert Spielern. Jeder hat eine Strategie. Unsere Spieler sind also Roboter, jeder mit einem Verhaltensprogramm.

    Zur Wahl stehen drei Strategien:

    (a) zum öffentlichen Gut beizutragen, und Schwarzfahrer zu bestrafen;

    (b) beizutragen, aber Schwarzfahrer nicht zu bestrafen (das sind die Trittbrettfahrer zweiter Ordnung;

    (c) nicht beizutragen, und die anderen auszubeuten.

    Von Zeit zu Zeit werden sechs Spieler zufällig ausgewählt aus der hundertköpfigen Roboterpopulation, um dieses Spiel gemäß ihrer Strategie zu spielen. Von Zeit zu Zeit können sie auch Strategie wechseln, und zwar, wie wir naheliegender weise annehmen wollen, eher zu einer Strategie mit höherer als mit geringerer Auszahlung. Ein simpler Lernprozess.

    Die Auszahlung hängt natürlich davon ab, was die anderen in der Gruppe machen, hängt also von der Zusammensetzung der Bevölkerung ab; die Zusammensetzung wiederum hängt von den Auszahlungen ab, auf Grund des Lernprozesses; also ein Rückkoppelungskreis, wie bei einer Katze, die mit dem eigenen Schweif spielt.

    Was passiert, ist unausweichlich. Die Neigung, Ausbeuter zu bestrafen, verschwindet, denn sie ist kostspielig. Die ungebremsten Ausbeuter übernehmen die Gesellschaft, und bald gibt es keine Kooperation mehr. Das soziale Dilemma (oder: die Tragödie der Allmende) hat voll zugeschlagen. Führen wir aber jetzt eine weitere, vierte Strategie ein. Nämlich

    d) an dem gemeinsamen Unternehmen gar nicht teilzunehmen.

    Dieses Unternehmen ist ja eine Spekulation; eine, die aufgeht, wenn alle kooperieren, aber fehlschlägt, wenn viele schwarzfahren. Es kann sein, dass risiko-scheue Spieler sich lieber nicht auf so eine Spekulation einlassen wollen. Dann tragen sie weder zur Gemeinschaftsleistung bei, noch nehmen sie diese in Anspruch. Was passiert jetzt?

    Nun, erstaunlicherweise setzen sich jetzt, nach einer gewissen Lernphase, die Bestrafer durch, und die Bevölkerung kooperiert. Wohlgemerkt: es sind nicht die Eigenbrötler, die sich durchsetzen; aber sie wirken als Katalysatoren für die Emergenz der Zusammenarbeit.

    Das war nur ein Computermodell. Wir können jetzt Varianten untersuchen. Zum Beispiel, dass die Spieler nicht auf eigene Faust bestrafen, sich also gewissermaßen persönlich rächen, sondern in einen Fonds einzahlen, der eine Obrigkeit (einen Sheriff, vielleicht) finanziert. Wieder sehen wir dasselbe. Wenn die Spieler am Spiel teilnehmen müssen, dann erlischt die Zusammenarbeit. Wenn die Teilnahme freiwillig ist, also Eigenbrötler vorkommen dürfen, dann setzt sich die Zusammenarbeit durch.

    Dazu bedarf es bemerkenswerterweise gar keiner philosophischer Überlegungen und politischer Vereinbarungen, keiner höheren Offenbarung oder tieferen Einsicht. Bloßes Nachäffen erfolgreicher Verhaltensweisen führt schon zu dem Resultat. Andere Tierarten, wie etwa Bienen und Ameisen, kooperieren auch, aber nur innerhalb ihrer Familie (also des Bienenstocks, oder des Ameisenhaufens). Wir Menschen aber kooperieren auch mit Nichtverwandten, und das auf Grund zweier zusammengehöriger ‚Erfindungen‘ der Evolution, die unserer Spezies vorbehalten waren: einerseits Institutionen, die uns von außen, andrerseits Tugenden, die uns von innen steuern (und die ich aus Zeitmangel heute außer Acht lassen muss).

    Spielen mit Gesellschaften - Die freiwillige Festlegung gehört zum Spiel

    Unsere Computersimulationen sind Spiele mit fiktiven Gesellschaften. Von den Gesellschaftsspielen sind wir also zum Spielen mit Gesellschaften gelangt. Natürlich kann es bei derlei computergestützten Gedankenexperimenten nicht bleiben: alle Schlussfolgerungen müssen in wirklichen Gesellschaften getestet werden.

    An der Wirklichkeit haben wir uns zu messen, und das liefert ein Riesen-Programm für historische, soziologische, anthropologische, psychologische und neurologische Untersuchungen!

    Jedenfalls versprechen diese spieltheoretischen Modelle einige Einsicht. In unserem dritten Beispiel die Einsicht: Damit die Gemeinschaft trotz Sozialdilemma kooperiert, muss auf Ausbeutung Strafe stehen, wir müssen uns also einem Zwang unterwerfen. Aber das klappt besser, wenn das Unterwerfen freiwillig erfolgt, wir uns also freiwillig entscheiden, einander gegenseitig zu zwingen, zu kooperieren.

    Was doch stark an den Sozialkontrakt erinnert! Der erste Satz in Jean Jacques Rousseaus Büchlein lautet: ‚Der Mensch wird frei geboren, und überall liegen die Menschen in Ketten‘. Das wird oft falsch übersetzt, mit ‚aber‘ statt ‚und‘, so als gäbe es eine Opposition zwischen den beiden Halbsätzen. Unsere simplen spieltheoretischen Modelle zeigen, dass dem nicht so ist. Sondern vielmehr: gerade weil wir uns frei entscheiden können für die Teilnahme, gerade weil der Ausweg des Eigenbrötlers offen steht, bleibt es profitabel, uns Zwängen zu unterwerfen. Wir legen uns fest. Die freiwillige Festlegung gehört zum Spiel.

    Wir legen uns in Ketten, oder weniger pathetisch: wir zähmen uns gewissermaßen selbst. Haustiere, wie etwa Rinder und Schweine, haben wir erst im Lauf der letzten Jahrtausende domestiziert, Hunde (also Wölfe) seit höchstens hundert tausend Jahren, uns selbst vielleicht viel länger. Nicht homo homini lupus, sondern homo homini canes sollte es heißen!

    Konrad Lorenz hat diese Idee der Selbstdomestikation diskutiert, leider in einer Arbeit, die er schrieb, als er einigermaßen infiziert war von nationalsozialistischem Gedankengut. Lorenz spricht von der Verhausschweinung des Menschen im denkbar abschätzigen Ton, und insinuiert einen Widerspruch zu den edlen Wilden, oder blonden Bestien, und ähnlicher Tarzan-Romantik! Das ist wohl Unsinn.

    An der Selbstdomestikation ist aber etwas dran. Sie führt nicht, wie Lorenz glaubte, zu moralischem Verfall sondern im Gegenteil zur Ausbildung unserer Anlagen zu ethischen Normen und wechselseitiger Erziehung. Schon vor 200 Jahren hat der Zoologe Blumenthal, ein Lehrer Schopenhauers und Fakultätskollege von Gauss, den Menschen als das ‚vollkommenste aller Haustiere‘ bezeichnet.

    Die Selbstzähmung des Menschen, im Sinn eines Sozialkontrakts, ist keine Entartung, sondern Ausgangspunkt seines unerhörten stammesgeschichtlichen Erfolgs. Zur Selbstzähmung gehört die menschliche Bereitschaft, freiwillig Regeln zu folgen: genau das ist es aber, was beim Spielen geschieht.

    Wichtigste Funktion des Spieltriebs, beim Menschen, ist also vielleicht nicht, dass er dadurch seine Umgebung spielerisch erkundet, oder seinen Bewegungsapparat spielerisch trainiert, sondern dass er spielerisch lernt, mit Verhaltensregeln zu experimentieren. Dass er bei dieser fürs menschliche Überleben so wesentlichen Tätigkeit großen verspürt, verrät die Handschrift der natürlichen Auslese.

    Die freiwillige Festlegung auf Regeln macht nicht nur das Spielen möglich, sondern ermöglicht die Kooperation, also das Gesellschaftswesen Mensch – den Homo ludens.


    Einzelnachweise und Quellen

    [1] Karl Sigmund, et al., (2010), Social learning promotes institutions for governing the commons. Nature 466:861-863

    [2] T Sasaki, A Braennström, U Dieckmann, and K Sigmund (2012) The take-it-or-leave-it option allows small penalties to overcome social dilemmas. ProcNat AcadSci 109: 1165-69


    Anmerkungen der Redaktion

    Dieser Text entstand auf der Basis eines Referats mit dem Titel „Homo ludens: Offenheit, Wahrscheinlichkeit, Festlegung“, das am 27. September in der Österreichischen Akademie der Wissenschaften gehalten wurde. Der erste Teil des Referats ist unter dem Titel: „Homo ludens - Spiel und Wissenschaft“ am 15. November hier im Science-Blog erschienen.

    Gefangenendilemma: die Interaktion zwischen zwei Spielern wurde erstmals - der Anschaulichkeit halber - durch zwei schuldige, räumlich getrennte Untersuchungshäftlinge dargestellt, die vor die Wahl gestellt werden zu leugnen oder zu gestehen. Kooperieren (= beide leugnen) bringt das beste Gesamtergebnis, für den Einzelnen ist es am sichersten zu gestehen. Die Bezeichnung Gefangenendilemma wird seitdem für alle „Spiele“ unter denselben Rahmenbedingungen (Interaktion zwischen 2 Spielern, 2 Strategien, ohne Möglichkeit der Absprache, symmetrische Auszahlung) angewandt.

    Eine sehr gute Darstellung: „Das Gefangenendilemma als Paradigma von Kooperation - ZEIT Akademie Philosophie“ , 7:45 min


    Weiterführende Links

    Evolutionäre Spieltheorie. Von Gesellschaftsspielen zum Spielen mit Gesellschaften. (PDF-Download)

    im Science-Blog:

    Karl Sigmund Die Evolution der Kooperation

    Karl Sigmund : Homo ludens - Spiel und Wissenschaft

    Peter Schuster: Die Tragödie des Gemeinguts

    inge Thu, 29.11.2012 - 05:20

    Erkrankungen des Bindegewebes: Fibrose – eine häufige Komplikation bei Implantaten.

    Erkrankungen des Bindegewebes: Fibrose – eine häufige Komplikation bei Implantaten.

    Do, 22.11.2012- 04:20 — Georg Wick

    Icon MedizinGeorg Wick

    Unser Organismus reagiert auf ein Implantat, indem er um diesen Fremdkörper eine zarte und weiche Kapsel aus Bindegewebe aufbaut und ihn damit im umgebenden Gewebe verankert. Allerdings kann daraus in Folge einer verstärkten Körperreaktion eine exzessive, krankhafte Vermehrung und Verhärtung des Bindegewebes – eine sogenannte ›Fibrose‹ – entstehen. Die Grundlagen für die Entstehung und Entwicklung derartiger Fibrosen werden hier am Beispiel der relativ häufig an Silikon-Brustimplantaten auftretenden Komplikation „Kapselfibrose“ aufgezeigt.

    Der Wunsch nach Schönheit und „ewiger Jugend“ hat in unserer Zeit einen Boom in der plastischen Chirurgie ausgelöst. Eine vorrangige Rolle spielt dabei die Vergrößerung der weiblichen Brust, ebenso wie deren Wiederaufbau nach Tumoroperationen. (Laut einer Statistik der American Society of Plastic Surgeons unterzogen sich im Jahr 2010 beispielsweise in den USA 296 203 Frauen einer Brustvergrößerung und 93 083 einer Brustrekonstruktion [1]; die jährliche Gesamtzahl an Brustimplantaten liegt in der westlichen Welt bei rund 3 Millionen). Patientinnen mit Silikon-Brustimplantaten entwickeln allerdings relativ häufig um das Implantat herum verdickte, verhärtete Bindegewebskapseln – sogenannte Fibrosen -, die zur Kapselkontraktur führen und neben ästhetischen Problemen auch Schmerzen bereiten.

    Derartige Fibrosen finden sind nicht nur bei Brustimplantaten, sondern können sich auch um andere Silikon- (überzogene) Implantate entwickeln, wie beispielsweise um Herzschrittmacher, Cochleaimplantate, Insulinpumpen, etc. und um sogenannte passive Medizinprodukte wie Drainageschläuche, Kontaktlinsen oder Magenbänder (zur Gewichtsreduktion).

    Da Brustimplantationen weltweit an großen Gruppen von Frauen ausgeführt werden, liegen hier auch die umfangreichsten epidemiologischen Studien zu Silikon-Nebenwirkungen vor. Der vorliegende Artikel beschränkt sich nur auf die durch Brustimplantate bei ansonsten gesunden Frauen ausgelöste Kapselfibrose, die aber als Paradigma für Reaktionen auf andere Typen von Silikon-Implantaten gelten kann. Im weiteren werden neue Erkenntnisse zur Entstehung dieser Fibrosen aufgezeigt und verbesserte Möglichkeiten zur Abschätzung des Risikos ihrer Entstehung und zur frühzeitigen Diagnose. Zur besseren Verständlichkeit dieses pathogenen Prozesses erfolgt einleitend eine kurze Charakterisierung des Bindegewebes, aus welchem heraus sich Fibrosen entwickeln und eine vereinfachte allgemeine Beschreibung von Fibrosen.

    Was ist Bindegewebe?

    Bindegewebe ist eine Sammelbezeichnung für unterschiedlichste, überall im Organismus anzutreffende Gewebetypen, welche die Zellzwischenräume – das sogenannte Interstitium - bilden.

    Bindegewebe bestehen aus einem dichten fachwerkartigen Maschenwerk von Proteinfasern, der extrazellulären Matrix, die in eine dem Serum vergleichbare Flüssigkeit eingebettet ist. In dieser Matrix finden sich in lockerem Verband Gewebszellen – sogenannte Fibroblasten –, welche u.a. die kollagenen und nicht-kollagenen Matrixproteine aufbauen. Im Bindegewebe verlaufen auch Nervenbahnen, Blutkapillaren und Lymphgefäße. Sauerstoff und Nährstoffe, welche aus den Blutgefässen austreten versorgen die umliegenden Zellen, metabolische Produkte werden in Blut- und Lymphkapillaren abtransportiert. Neben den Fibroblasten finden sich im Bindegewebe mobile Zellen, wie u.a. Fresszellen – Makrophagen – und Mastzellen, welche essentielle Rollen in der körpereigenen Abwehr spielen und dem angeborenen („innate“) Immunsystem zuzurechnen sind. Eine stark vereinfachte Darstellung des Bindegewebes ist in Abbildung 1 gegeben. Bindegewebe schematisch

    Abbildung 1. Schematische Darstellung eines Bindegewebes. Den Raum zwischen den Epithelzellen eines Organs (Interstitium) nimmt die extrazelluläre Matrix ein, ein Maschenwerk aus Proteinfasern (Kollagen-, Elastinfasern,...), das, eingebettet in eine viskose, wässrige Flüssigkeit, Organen ihre Form und Festigkeit verleiht. Die Gewebeflüsssigkeit ist zusammengesetzt aus stark quellenden Glykoproteinen, Komponenten des Plasmas, die aus den Blutkapillaren austreten und sezernierten Produkten (Metaboliten, Hormonen, Kofaktoren, etc.) benachbarter Zellen. In die Matrix eingelagerte Fibroblasten sind für den Aufbau der kollagenen und nicht-kollagenen extrazellulären Matrix verantwortlich. Zellen des Immunsystems schützen vor Fremdkörpern, Infektionen (Bild: modifiziert nach Wikipedia)

    Was sind Fibrosen?

    Unter Fibrose versteht man eine krankhafte, exzessive Bildung der extrazellulären Matrix des Bindegewebes, die auf einer unkontrollierten Vermehrung und Aktivierung der Fibroblasten basiert. Der Umbau zu fibrotischem Gewebe kann in praktisch allen Organen auftreten (von Lungenfibrosen, Leberzirrhose bis hin zur Fibrose der arteriellen Innenwand, der Arteriosklerose), zur Einschränkung bis hin zum Verlust der Funktion betroffener Organe führen und stellt damit ein enormes globales Gesundheitsproblem dar. Rund 45 % aller Todesfälle sind durch Fibrosen verursacht. Dementsprechend finden sich zum Thema „fibrosis“ in der größten textbasierten biomedizinischen Datenbank PubMed (www.ncbi.nlm.nih.gov/pubmed) seit 1974 rund 153 000 Veröffentlichungen. Dennoch sind erstaunlicherweise die Prozesse, welche Fibrosen auslösen und deren Pathogenese im Detail noch zu klären, ebenso sind Diagnose und Therapie von Fibrosen noch unbefriedigend.

    Fibrosen können spontan, ohne feststellbare Ursache entstehen, häufiger entwickeln sie sich jedoch in Folge verschiedenster pathologischer Bedingungen: Entzündungsprozesse (verursacht durch Infektionen, Autoimmunreaktionen, etc.), Gewebsschädigung/-zerstörung (infolge von Trauma, Chemikalien, Verbrennungen, postoperativen Narben, Leberzirrhose, etc.), Tumore oder Kontakt mit Fremdmaterial (beispielsweise Silikonimplantate) können Fibrosen auslösen. Unabhängig davon, durch welche der diversen pathologischen Situationen eine Fibrose ausgelöst und perpetuiert wurde, entwickeln sich Fibrosen

    • in ihrem weiteren Verlauf völlig stereotypisch und
    • sind immer gekennzeichnet durch entzündlich-immunologische Merkmale:

    Als Abwehr- und Reparaturmechanismus des Bindegewebes findet um die Blutgefäße herum eine Infiltration mit Zellen des Immunsystems (Monozyten, Lymphozyten) statt, welche vorerst sowohl pro- als auch anti-entzündliche sowie pro- und antifibrotische Botenstoffe (Zytokine) produzieren und die Normalisierung des Gewebes bewirken können. In der Folge kann es aber zu einem Ungleichgewicht der Botenstoffproduktion in Richtung pro-entzündlicher und pro-fibrotischer Mediatoren kommen, die zu einer Vermehrung von Fibroblasten und zu deren verstärkter Ablagerung von kollagenen sowie nicht-kollagenen extrazellulären Matrixproteinen führt. Die Population dieser Fibroblasten (sogenannter Myofibroblasten)ist dabei stark heterogen und unterscheidet sich von der in gesundem Gewebe durch Entstehung, Eigenschaften und Profil der produzierten Botenstoffe.

    Wodurch der Abwehrmechanismus ursprünglich in Gang gesetzt wurde, ist in den meisten Fällen noch ungeklärt. Diesbezügliche, einander nicht ausschließende Hypothesen reichen von Infektionen, Reaktionen des Immunsystems gegen veränderte Proteinstrukturen („altered self“), Überproduktion von reaktivem Sauerstoff bis hin zu mechanischem Streß. Abbildung 2. fasst in vereinfachter Weise Ursachen und Entwicklung von Fibrosen zusammen.

    Ursachen und Entwicklung von FibrosenAbbildung 2. Ursachen und Entwicklung von Fibrosen. Beschreibung: siehe Text. (Bild: modifiziert nach Wick et al., 2010)

    Silikon-Implantate

    Das Polymer Silikon (Polydimethylsiloxan) ist auf Grund seiner hervorragenden Materialeigenschaften und einer relativ hohen Bioverträglichkeit seit Jahrzehnten das weltweit am häufigsten verwendete Fremdmaterial für medizinische Produkte, darunter auch für Implantate. Entsprechend den behördlichen Auflagen für die Zulassung medizinischer Produkte müssen Silikonimplantate eingehend geprüft werden, in Untersuchungen, die über eine physikalisch-chemische Charakterisierung und Feststellung der mechanischen und biologischen Stabilität ein breites Spektrum an biologischen Studien - in sowohl präklinischen, als auch klinischen Anordnungen - zur Verträglichkeit und Toxizität einschließen. Dennoch erzeugen Silikon-Implantate bei zahlreichen Patienten schädigende Nebenwirkungen.

    Ein Silikon-Brustimplantat besteht aus einer äußeren Schale, gebildet aus hochvernetztem Polymer Silikon, die (zumeist) mit einem Gel, einer Lösung von wenig-vernetztem Silikon oder mit einer physiologischen Kochsalzlösung gefüllt ist. Um dieses, wie auch um alle anderen Implantate bildet sich eine körpereigene Hülle aus einer zarten dünnen Schicht von Bindegewebe – diese ist nicht spürbar und „verankert“ das Implantat in dem umgebenden Gewebe. Häufig kommt es dann aber zur exzessiven Bildung von Bindegewebe um das Implantat herum, zur sogenannten Kapselfibrose, die eine Verhärtung und Kontraktion der Kapsel hervorruft (Abbildung 3). Silikonbrustimplantate

    Abbildung 3. Silikonbrustimplantate. Von links nach rechts: vor der Implantation, Entwicklung der Kapselfibrose um das Implantat bis hin zur Kapselkontraktion und verkalktem Implantat, darunter Patientin mit Kapselfibrose.

    Wie ensteht die Kapselfibrose?

    Unser Team hat die zelluläre und molekulare Zusammensetzung operativ entfernter, fibrotischer Kapseln analysiert und die aus den Befunden resultierenden Hypothesen durch in vitro und in vivo Modelluntersuchungen untermauert. In den fibrotischen Kapseln fanden sich reichlich Zellen des Immunsystems (T-Lymphozyten, Makrophagen, dendritische Zellen, einige B-Lymphozyten) und es zeigte sich klar, daß immunologische Prozesse eine primäre Rolle in der Pathogenese der Fibrosen spielen, deren Ablauf stark vereinfacht etwa so beschrieben werden kann [2, 3]:

    Primär lagern sich auf der Oberfläche des Silikonimplantats Proteine aus Serum und Wundbettflüssigkeit an. Ein derartiger Proteinfilm entsteht bereits unmittelbar nach der Implantation, sein Ausmaß nimmt mit zunehmendem Alter des Implantats zu.

    Es zeigte sich, dass die Proteine an der Silikonoberfläche quasi als Klebstoff wirken, an den sich dann Fibroblasten, Fresszellen (Makrophagen) und Proteine der extrazellulären Matrix anheften. Die Proteine an der Silikonoberfläche weisen zum Teil biochemische Veränderungen auf und/oder präsentieren Strukturbereiche, welche ansonsten im Innern des Protein verborgen sind („kryptische Strukturen“): diese, als fremd angesehenen Strukturen werden von den Makrophagen aufgenommen (phagozytiert) und bewirken deren Aktivierung. Eine Aktivierung der Makrophagen kann auch durch aufgenommene Silikon-Fragmente erfolgen.

    Die Komponenten des Proteinfilms konnten diversen Proteinklassen zugeordnet werden - es dominieren Proteine der extrazellulären Matrix, weiters Proteine, welche direkt in die Immunantwort involviert sind, Transportproteine, Proteine, die als Antwort auf Stress gebildet werden, u.a.m. Von besonderer Bedeutung erscheint die vermehrte Ausschüttung des Stressproteins HSP60 (Hitzeschockprotein 60). Dieses Protein wird auch in anderen fibrotischen Erkrankungen, wie beispielsweise der Arteriosklerose, als Antwort auf zellulären Stress an der Zelloberfläche exprimiert, lockt dort als Trigger T-Lymphozyten an und löst die Immunreaktion in der innersten Schicht der Aorta aus.

    Aktivierte Lymphozyten in der Kapsel und Makrophagen induzieren dann die Transformation von Fibroblasten in Typen, die mit verstärkter Synthese von Matrixproteinen den Umbau in fibrotisches Gewebe bewirken.

    Ausblick

    Zweifellos stellt die frühe Identifizierung und Eliminierung – oder zumindest Kontrolle - des auslösenden Faktors einer Fibrose den besten Ansatz zu deren Behandlung dar. Unsere Untersuchungen zur Kapselfibrose beschäftigen mit der Aufklärung der Prozesse, die den entzündlich-immunologischen Reaktionen zugrunde liegen, ebenso wie mit der Identifizierung molekularer Marker, die eine frühzeitige Diagnose der Fibrose ermöglichen und die Effizienz einer Therapie verfolgen lassen.

    Basierend auf der Analyse der an Silikonoberflächen anhaftenden Serumproteine wurde ein neues Testsystem – SILISAR - entwickelt, das es erlaubt, das individuelle Adhäsionsmuster (die „Signatur“) dieser Proteine zu bestimmen. Da diese Signatur sich bei Patientinnen mit fibrotischen Komplikationen signifikant von jenem bei Patientinnen ohne derartige Nebenwirkungen unterschied, kann der Test u.a. zur Abschätzung des Risikos von Komplikationen vor der Einsetzung unterschiedlicher Silikonimplantate herangezogen werden. Zusammen mit einem molekularbiologisch bestimmbaren Marker zur Erkennung früher Fibrosestadien, kann SILISAR auch zur regelmäßigen Kontrolle von Implantat-Trägerinnen und damit zur frühzeitigen Erkennung und Behandlung von fibrotischen Komplikationen eingesetzt werden. Schließlich kann mittels der Tests dazu dienen, dass verträglichere Silikon-implantate (nicht nur zur Brustvergrößerung) entwickelt werden.

    Diese Tests sollten zweifellos zu einer Verbesserung der gegenwärtigen Situation bei Brustimplantaten führen, die am besten mit der 2011 erfolgten Feststellung der amerikanischen FDA (Food and Drug Administration) aufgezeigt wird [1]:

    „Erkennen Sie, dass Brustimplantate keine lebenslang haltbaren Produkte darstellen. Beachten Sie, dass Brustimplantate mit erheblichen lokalen Komplikationen assoziiert sind. Je länger Sie Implantate haben, desto wahrscheinlicher wird es notwendig diese entfernen zu müssen.... Lokale Komplikationen und unerwünschte Nebenwirkungen inkludieren Kapselkontraktion, Umoperieren, Entfernung und Reissen des Implantats. Viele Frauen erleiden auch Schmerzen, Faltenbildung , Asymmetrie, Narbenbildung und Infektionen.“

    Einzelnachweise und Quellen

    [1] FDA Update on the Safety of Silicone Gel-Filled Breast Implants, June 2011

    [2] G.Wick et al., (2009) The immunology of fibrosis: innate and adaptive responses. Trends in Immunology 31: 110-119

    [3] Backovic, A. et al. (2007) Identification and dynamics of proteins adhering to the surface of medical silicones in vivo and in vitro. J.Proteome Res. 6, 376–381


    Weiterführende links

    Fibrosen: Laboratory of Autoimmunity (Georg Wick) Was versteht man unter Kapselfibrose und was kann man dagegen tun? 2:12 min Bindegewebe (Connective Tissue): The Basics 13:30 min, Englisch Connective Tissue Lecture 6:21 min, Englisch


     

    inge Thu, 22.11.2012 - 05:20

    Homo ludens – Spiel und Wissenschaft

    Homo ludens – Spiel und Wissenschaft

    Do, 15.11.2012- 04:20 — Karl Sigmund

    Icon MINTKarl Sigmund

     

    Von allen Wissenschaften ist sicher die Mathematik dem Spiel am nächsten verwandt und es leiten sich mindestens zwei wichtige mathematische Disziplinen - Wahrscheinlichkeitstheorie und Spieltheorie - direkt und unmittelbar aus dem Spiel ab. Mathematische Axiome entsprechen Spielregeln; es ist die freiwillige Festlegung auf Regeln, welche nicht nur das Spielen ermöglicht, sondern auch die Kooperation, also das Gesellschaftswesen Mensch schafft.

    In meiner akademischen Frühzeit war ich Ergodentheoretiker: wenn ich mich als solcher vorstellte, traf ich zumeist auf Stirnrunzeln und blankes Unverständnis. Ganz anders jetzt, wenn ich sagen kann, dass ich Spieltheoretiker bin: meist ernte ich freundliches, ja gelegentlich schelmisches Lächeln. Das Spielen hat einen guten Ruf: ‚Der Mensch spielt nur, wo er in der vollen Bedeutung des Worts Mensch ist, und er ist nur da ganz Mensch, wo er spielt‘ (Friedrich Schiller). Freilich, in der Spieltheorie wird der Begriff ‚Spiel‘ in einem sehr eingeschränkten Sinn verwendet.

    Um etwas weiter auszuholen: zum ersten Mal seit bald dreißig Jahren hab ich wieder in den „Homo Ludens“ von Johan Huizinga hinein gelesen, welcher die Rolle des Spiels in allen Bereichen der Kultur untersucht und es als Ursprungsort der großen kulturellen Haltungen ansieht. Der Historiker und Sprachwissenschafter Huizinga (1872 – 1945) liefert da in einem großartigen Galopp durch die geisteswissenschaftlichen Fächer eine klassische Studie des Spielelements in der Kultur. Kaum ein Bereich, zeigt er, der nicht vom Spiel geprägt ist. Aus den Spielregeln werden die selbstgesetzten Regeln zivilisierter Gemeinschaften: etwa für die Feste und Feiern, die besonders in frühen Gesellschaften einen gewaltigen Platz einnehmen. Das festliche Spiel ist ein Hauptbestandteil jedes Kults.

    Überall ist Spiel

    Thomas Bernhard ist ein Untertreibungskünstler, wenn er meint: ‚Die Leute am Land haben kein Theater außer der Kirche.‘

    Rituelle Spielregeln sind auch in der Rechtspflege wesentlich. Noch heute hat jede gerichtliche Verhandlung Elemente von Glücksspiel und von Mummenschanz. Dazu kommt noch das Element des Wettstreits. Spannung und Ungewissheit gehören oft zum Spiel.

    Rituelle Spielregeln finden wir auch bei Handel und Industrie wieder. Das Wort ‚Gewinn’ erinnert ans Glückspiel und Wetten (und steht damit im Gegensatz zum Wort ‚Lohn’). Jede Spekulation ist ein Hasardieren: die Börsenkurse beschreiben Irrfahrten. Börse und Spielhalle haben vieles gemeinsam.

    Auch die Jagd, lang ein dominierender Wirtschaftszweig, ist von spielerischen Elementen durchsetzt, sowohl in archaischen Gemeinschaften, in denen sie ja eine Lebensnotwendigkeit darstellt, als auch als adeliges Vergnügen. Das ist in der Sprache lebendig geblieben. Die Wienerische ‚Hetz‘ kommt von der Tierhatz. Im Englischen sagt man ‚game‘ zum Wild. Eine Fuchsjagd ist ein Spiel – so grausam einseitig wie jenes der Katze mit der Maus.

    Selbst der Krieg ist dem Spiel nahe verwandt. Ausdrücke wie ‚Kriegsspiel‘ (zur Vorbereitung des sogenannten ‚Ernstfalls‘) machen das deutlich. Schach ist angeblich ein Abkömmling generalstäblerischer Gedankenexperimente.

    Vom Krieg zur Liebe: Im Geschlechtsleben kommt dem Spiel vor allem bei der Einleitung eine wichtige Rolle zu: Tändeln, Necken, Flirten, die tausend Spielarten des Vorspiels. Und nun zur Kunst: beim Schauspiel ist der Bezug evident, sowohl Darsteller als auch Zuschauer spielen ’als ob’. Alle Literatur spielt mit Wortklang und Vorstellung. In Tanz und Film werden Bewegungsspiele durchgeführt. Und der Zusammenhang von Spiel mit Musik wird schon dadurch unterstrichen, dass auch Berufsmusiker ihre Instrumente ‚spielen‘, ob im Deutschen, Englischen ‚to play an instrument‘, Französischen, Slawischen oder Arabischen. Was die Malerei betrifft, ihre ‚Illusionen’ leiten sich von ‚in-ludere‘ ab, da steckt ‚spielen‘ drin.

    Und Architektur wird von sogar von einem Funktionalisten wie Le Corbusier definiert als das ‚korrekte, kluge und wunderbare Spiel von Volumen im Licht‘. Die Pyramidenbauer hätten es nicht besser ausdrücken können.

    Zeit zum Lernen, Zeit zum Spielen

    Hunderte Märchen und Mythen zeugen von der Bedeutung des Frage- und Antwort-Spiels, manchmal in der Form des Halsrätsels, das über Leben und Tod entscheidet. Im Deutschen löst man Rätsel, wie man Fesseln löst. Bis heute hat sich viel Spielerisches in den Riten der Gelehrsamkeit erhalten (auch das Theater in unserer Akademie der Wissenschaften spielt sich nicht immer nur im Theatersaal ab).

    Neben der gestrengen Prüfung gibt es die geheimbündlerischen Weihen und den öffentlichen Disput. Und überhaupt kommt das Wort ‚Schule‘ vom griechischen Scholé, was soviel wie ‚Muße‘ bedeutete. Die wird heute den Kindern, ebenso wie den Lehrpersonen geraubt. Verspieltheit gilt als Zeichen mangelnder Reife, und wird oft getadelt.

    Friedrich Nietzsche meinte: ‚In jedem rechten Manne ist ein Kind versteckt, das will spielen.‘ Konrad Lorenz gehörte zu den ersten, die darauf hinwiesen, dass in unserer Stammesgeschichte die verzögerte Reife eine entscheidende Rolle gespielt hat, also das Kind im Manne (und in der Frau). Der Mensch ist so etwas wie ein unreifer Affe. Ein ganzes Bündel sogenannter neotener Eigenschaften belegt das: körperliche Zeichen der Kindlichkeit wie etwa die hohe Stirn, das zarte Kinn, die spärliche Körperbehaarung.

    Von den Schimpansen sehen uns die Babys weit ähnlicher als die Erwachsenen. Wir sind steckengeblieben in der Kindheit. Wir benötigen ein Drittel unserer Lebensspanne zum Heranwachsen. Das gibt uns Zeit, um zu lernen, vor allem aber, zu spielen (Abbildung 1). Kinderspiele, P. Bruegel d.Ä. 1550Abbildung 1: Kinderspiele, P. Bruegel d.Ä. 1550 (Kunsthistorisches Museum, Wien. Bild: Wikimedia)

    Wir Menschen haben kein Monopol auf das Spiel

    Bei vielen Säugetieren und Vögeln lässt sich Spielverhalten beobachten. Vögel segeln im Sturm, Marder rutschen im Winter über schneebedeckte Windschutzscheiben, Menschenaffen verdecken ihre Augen und blinzeln verstohlen zwischen den Fingern hindurch.

    Zur Domestikation von einigen Haustieren hat wohl die Freude an einem verlässlichen Spielpartner erheblich beigetragen. Montaigne schreibt: ‚Wenn ich mit meiner Katze spiele, wer weiß, ob es ihr nicht noch mehr Spaß macht als mir?‘ Spielbereitschaft drückt sich bei Tieren durch eigene Signale aus, und wirkt ansteckend.

    Selten ist so ein Spiel von unmittelbarem Nutzen, aber offenbar längerfristig von Wert: ohne Zweck, aber sinnvoll. Bei der spielerischen Erkundung ihrer Umwelt und Gemeinschaft sammeln Heranwachsende viel Erfahrung. Neugierverhalten weist stets einen kindlich-verspielten Zug auf.

    Oft übt ein Jungtier Bewegungsabläufe ein, die es später braucht, etwa bei Beutefang, Flucht oder Balz. Eine Katze, die einen Fetzen beutelt, mit der Pfote unter den Teppich wischt oder einem Schnurende nachspringt, führt offenbar Jagdbewegungen aus. Und raufende Welpen erwerben spielerisch Erfahrung für spätere Kämpfe.

    Diese Tiere tun so, als ob. Dieses spielerische Üben und Lernen belohnt sich selbst. Eine Katze braucht kein Stück Wurst, um bereit zu sein, die Übung zu wiederholen.

    Doch selbst der ausgeprägteste Spieltrieb ist weit schwächer als andere Triebe. Schon ein geringes Maß an Angst oder Hunger reicht aus, um jedes Spiel zum Erliegen zu bringen. Nur dort, wo es von Notwendigkeiten nicht behelligt wird, kann es gedeihen. Jeder Zwang unterdrückt es.

    Selbst angeborenes Spielverhalten ist in diesem Sinn frei von Zwang, ist programmierte Offenheit. Diese Offenheit macht es so schwer zu Umschreiben wie keine andere biologische Funktion. Psychologen unterscheiden Funktionsspiele, Fiktionsspiele, Konstruktionsspiele, Rollenspiele und so fort, aber die Grenzen sind fließend.

    Was ist allen Spielen gemeinsam?

    Wittgenstein stellt diese Frage in seinen Philosophischen Untersuchungen:

    „Gibt es überall eine Konkurrenz der Spielenden? ‚Denk an Patiencen‘. Gibt es Gewinner und Verlierer? ‚Wenn ein Kind einen Ball an die Wand wirft und wieder auffängt, ist dieser Zug verschwunden‘. Schau, welche Rolle Geschick oder Glück spielen…Denk nun an Reigenspiele…Was ist noch ein Spiel und was keines mehr? Kannst du eine Grenze angeben? Nein.“ (PU §66 ff)

    Wittgenstein verwendet hier den Begriff des Spiels als ein Beispiel (Bei-Spiel!) für einen Begriff mit verschwommenen Rändern. Dass die Regeln für seinen Gebrauch nicht vollständig abgegrenzt sind, schadet nichts, solange sie ausreichen für seine Rolle im Sprachspiel. Wittgenstein führt noch andere unscharfe Worte an, etwa ‚Zahl’ oder ‚gut’ oder ‚wissen’. Doch hat er für das Wort ‚Spiel’ eine ausgeprägte Vorliebe. Vielleicht weil unter allen Tätigkeiten das Spielen die offenste ist. Jedenfalls ist Wittgensteins Frage ‚Wie ist denn der Begriff des Spiels abgeschlossen?‘ fast schon ein sophistischer Kunstgriff. Kein Wunder, dass der Begriff des Spiels sich nicht scharf umgrenzen lässt – zum Spiel selbst gehört ja ein Freiraum dazu. Man spricht auch vom Spielraum eines mechanischen Teils, von seinem Spiel, das für die Beweglichkeit nötig ist.

    Spiel und Wissenschaft

    Dass Wissenschaft mit Spiel zu tun hat, spiegelt sich auch darin wider, dass man immer häufiger Modelle statt Theorien untersucht. Wie Spielsachen lassen sich solche Modelle herzeigen, zerlegen, und dann oft genug wegwerfen. Modelle haben eine Art aufgehobener Wirklichkeit. Niemand würde für ein Modell den Scheiterhaufen riskieren.

    Spiel und Wissenschaft haben gemeinsam, dass sie zumeist nicht auf unmittelbaren Nutzen ausgerichtet sind. Ein Spiel braucht durch nichts gerechtfertigt werden, Grundlagenforschung auch nicht. Der weltberühmte österreichische Physiker Ludwig Boltzmann schrieb: ‚Solange die Alchemisten nur den Stein der Weisen suchten (sicher ein ungemein nützliches Ziel) war all ihr Bemühen vergeblich. Erst die Beschränkung auf scheinbar weniger wichtige Fragen schuf die Chemie.‘ Dass Wissenschaft langfristig nützlich sein kann, ist ein kollateraler Effekt.

    Von allen Wissenschaften ist sicher die Mathematik dem Spiel am nächsten verwandt, obwohl ihr hoher Unterhaltungswert oft übersehen wird. Die mathematischen Axiome entsprechen Spielregeln. Axiome wie Spielregeln schaffen – als Spielraum – eine eigene Welt in der Welt, Doderer würde sagen: ein Jenseits im Diesseits. Spielende Kinder können buchstäblich außer sich geraten. Weder Spielregeln noch Axiome lassen sich sinnvoll anzweifeln. Man kann sie nur akzeptieren oder nicht.

    [[Besonders beliebt ist der Vergleich von Mathematik mit Schach. Nicht mit Turnierschach, sondern mit der Lösung von Schachproblemen. Kann Schwarz den Gegner in drei Zügen matt setzen, ja oder nein? Solche Aufgaben findet man in den Spielecken der Beilagen, fein abgetrennt vom redaktionellen Teil der Zeitung. Wie ja überhaupt Abgrenzung oft als Vorbedingung zum Spiel gehört: ob jetzt ein Fußballplatz, eine Bühne, ein Boxring, eine Kultstätte, ein Gerichtsort. Im Altertum wurden manchmal sogar die Schlachtfelder abgesteckt. Das Spielbrett spiegelt diese Tatsache wieder, besser gesagt: es ist ein Modell dafür. Ganz analog gelten in mathematischen Räumen eigene selbstgewählte Gesetze.]]

    Das so-tun-als-ob gehört zum Handwerkszeug der Mathematiker. Besonders schön kommt das bei den indirekten Beweisen zum Ausdruck. Man tut so, als ob diese oder jene Aussage wahr wäre (etwa: es gibt eine größte Primzahl) und zieht daraus Folgerungen, die schließlich zu einem Widerspruch führen, was beweist, dass die Aussage falsch sein muss (hier: es gibt keine größte Primzahl, es muss also unendlich viele Primzahlen geben).

    Neben dieser allgemeinen Verwandtschaft zwischen Mathematik und Spiel leiten sich mindestens zwei wichtige mathematische Disziplinen direkt und unmittelbar aus Spielen ab, nämlich Wahrscheinlichkeitstheorie und Spieltheorie. Die Entstehung der Ersteren wird im Folgenden behandelt, die Spieltheorie in einem weiteren Essay.

    Glücksspiele als Wiege der Wahrscheinlichkeitstheorie

    Achilleus und Ajax beim WürfelspielAbbildung 2: Achilleus und Ajax beim Würfelspiel (ca. 500 AC, Louvre. Bild: Wikipedia)

    Die Wahrscheinlichkeitstheorie spielte bei den Griechen noch keine Rolle, aber mit dem Zufall gespielt haben sie schon!

    Die Griechen sahen sich als Erfinder des Würfelspiels – wie Abbildung 2 mutmaßt, könnte es ein Zeitvertreib der Belagerer Trojas gewesen sein. (Allerdings kannten die Ägypter den Würfel schon zur Zeit der ersten Dynastie.)

    Das Münzgeld dagegen kam erstmals in Griechenland auf, und man darf wohl vermuten, dass bald darauf 'Kopf oder Adler' gespielt wurde (vielmehr ‚Kopf oder Eule’).

    Kartenspiele gibt es seit dem Mittelalter.

    Gutenberg druckte zwar als erstes pflichtschuldigst die Bibel, aber noch im selben Jahr auch einen Satz Spielkarten. Lotterien stammen aus dem Florenz der Renaissance.

    Die französische Aufklärung bescherte uns das Roulettespiel (als Erfindung eines Polizeioffiziers). Die Russen entwickelten eine eigene Variante.

    Industrialisierung brachte Glückspielautomaten, usw.

    Glückspiele standen an der Wiege der Wahrscheinlichkeitstheorie. Fast gleichzeitig wendeten sich Geister wie Pascal, Fermat, Huyghens und Newton ihr zu.

    Eine typische Frage war folgende:

    Mit zwei Würfeln lässt sich die Augensumme 9 auf zweierlei Weise erhalten, als 3+6 oder als 4+5. Ebenso kann man die Augensumme 10 auf zweierlei Weise erhalten, als 4+6 oder 5+5. Wieso kommt es dann häufiger zur Augensumme 9 als zur Augensumme 10? Wenn man mit drei Würfeln spielt, kann man die beiden Augensummen 9 und 10 auf jeweils sechs verschiedene Weisen erhalten. Aber diesmal kommt die 10 häufiger vor als die 9. Das verlangt nach Erklärung!

    Inzwischen hat sich die Wahrscheinlichkeitsrechnung von den Spielsalons emanzipiert. Aber die ersten Anwendungen betrafen Versicherungen, die im Grunde ja auch Glücksspiele sind. Jährlich zahlen wir eine Prämie, unseren Einsatz: mit einer gewissen Wahrscheinlichkeit gewinnen wir eine hohe Summe, nämlich dann, wenn etwa unser Haus abbrennt. Das ist ein Glückspiel (und im Mittel verlieren wir dabei, genau so wie im Kasino): ein Glückspiel, dem freilich nichts Frivoles mehr anhaftet.

    Heute ist die Wahrscheinlichkeitstheorie aus Physik, Chemie, Wirtschaft, Biologie nicht wegzudenken. Mit dem Zufall zu rechnen haben wir spielerisch gelernt.

    Wahrscheinlichkeitstheorie und Risikobereitschaft

    Es herrschen große individuelle Unterschiede in unserer 'Risikobereitschaft'. Es gibt Spielernaturen und geborene Pessimisten. Man kann das durch Experimente mit Lotterien testen.

    Beispiel 1: Typischerweise wird die Versuchsperson gefragt, welche der folgenden Alternativen sie bevorzugt: A: 3000 Euro mit Sicherheit B: Teilnahme an einer Lotterie, bei der man mit 80 Prozent Wahrscheinlichkeit (W) 4000 Euro erhält und mit 20 Prozent W. nichts.

    Obwohl also der Erwartungswert der Lotterie B 3200 Euro ist, bevorzugen 82 Prozent der Befragten A. Sie sind risiko-scheu. Das ist ihr gutes Recht.

    Interessanterweise sieht die Sache bei der nächsten Lotterie ganz anders aus.

    Beispiel 2: Man wähle zwischen: A: 3000 Euro mit 25 Prozent W. (und 0 mit 75 Prozent W.) B: 4000 Euro mit 20 Prozent (und 0 mit 80 Prozent).

    Hier wählen 70 Prozent die zweite Alternative. Warum sollten sie nicht? Nun, das Bemerkenswerte ist, dass der zweite Test dieselben Alternativen bietet wie der erste, außer dass die Wahrscheinlichkeiten auf ein Viertel gestutzt sind.

    Anders ausgedrückt, die zweite Frage können wir so sehen: zuerst wird eine Münze zweimal geworfen, und nur wenn sie beide Male Kopf liefert (was mit einer Wahrscheinlichkeit von ein Viertel geschieht), wird die erste Frage gestellt. Wenn die Spieler nach dem zweifachen Münzwurf entscheiden, entscheiden viele anders, als vorher. Und das ist rational schwer zu begründen.

    Derlei Experimente sind von Allais in den Fünfzigerjahren, später von Kahnemann, Twersky etc durchgeführt worden (das lieferte einige Wirtschafts-Nobelpreise).

    Beispiel 3: Hier noch ein Beispiel, der sogenannte Stanford-Quiz. Nehmen wir an, dass die Wahrscheinlichkeit, zuckerkrank zu sein, 1:1000 beträgt. Stellen wir uns einen Test vor, der die Krankheit untrüglich erkennt, wenn sie vorliegt, aber mit einer Wahrscheinlichkeit von 5 Prozent auch bei einem Gesunden ein 'positives' Resultat liefert. Wenn dieser Test bei Ihnen die Diagnose 'zuckerkrank' liefert, ist also nicht sicher, dass sie wirklich daran erkrankt sind. Wie groß ist die Wahrscheinlichkeit? Die meisten Schätzungen liegen völlig falsch. Die Wahrscheinlichkeit ist kleiner als zwei Prozent. (Denn bei tausend Leuten liefert der Test 50 falsche 'positive' Ergebnisse, und nur ein richtiges).

    Ein anderes Paradox stammt vom Psychologen Ellsberg. Wenn der Spieler die Häufigkeit der roten und schwarzen Kugeln in einer Urne nicht kennt, so wird er mit gleicher Bereitschaft auf rot oder schwarz setzen.

    Wenn er andrerseits weiß, dass die Urne gleich viele rote wie schwarze Kugel enthält, so wird er wiederum keine Farbe bevorzugen.

    Wenn er aber, bevor er auf eine Farbe setzt, zwischen den beiden Urnen wählen kann, so hat er meist eine deutliche Vorliebe für die Urne mit dem bekannten Inhalt. Die Wahrscheinlichkeitsrechnung kann das nicht erklären - schließlich beträgt die Gewinnwahrscheinlichkeit in beiden Fällen 50 Prozent. Dieses psychologische Paradox wirft ein bezeichnendes Licht auf unser Verhältnis zu Ungewissheit und Risiko.

    Ich brauche nicht zu erwähnen, dass auch die Neurowissenschaftler davon fasziniert sind, und untersuchen, was in unseren Hirnen passiert, wenn wir Risiken eingehen.

    Spieltheorie, eine Theorie der Interessenskonflikte – wird, wie oben angekündigt, in einem nachfolgenden Essay behandelt.


    Anmerkungen der Redaktion

    Dieser Text entstand auf der Basis eines Referats mit dem Titel „Homo ludens: Offenheit, Wahrscheinlichkeit, Festlegung“, das am 27. September in der Österreichischen Akademie der Wissenschaften gehalten wurde.

    Glossar:

    Ergodentheorie: ist ein Begriff innerhalb des mathematischen Teilgebiets der Stochastik, entstanden aus dem Bemühen, Methoden und Folgerungen der statistischen Mechanik mathematisch korrekt zu formulieren und beweisen. Die Statistik eines Prozesses wird von einer Musterfunktion beschrieben

    Stochastik: Wissenschaft, die sich mit zufallsabhängigen Phänomenen beschäftigt.

    Links:

    Karl Sigmund im Science-Blog: Die Evolution der Kooperation

    PDF-Download: Evolutionäre Spieltheorie.

    Von Gesellschaftsspielen zum Spielen mit Gesellschaften.

    Ludwig Wittgenstein: Philosophische Untersuchungen


     

    inge Thu, 15.11.2012 - 05:20

    Wie erfolgt eine Optimierung im Fall mehrerer Kriterien? Pareto-Effizienz und schnelle Heuristik

    Wie erfolgt eine Optimierung im Fall mehrerer Kriterien? Pareto-Effizienz und schnelle Heuristik

    Do, 08.11.2012- 00:00 — Peter Schuster

    MINTPeter Schuster

    Eine gleichzeitige Optimierung mehrerer Kriterien ist komplex und führt zu einer Vielzahl an nicht-vergleichbaren Ergebnissen. Entscheidungen hinsichtlich dieser Ergebnisse müssen dann an Hand weiterer Kriterien getroffen werden. Allerdings sind rigorose Formalismen zur Optimierung im praktischen Leben häufig nutzlos, wenn Entscheidungen rasch und daher mit begrenzter Rationalität zu treffen sind.

    Jeder, der einmal in der Oberstufe eines Gymnasiums gesessen ist, hat gelernt, wie man das Maximum oder Minimum einer mathematischen Funktion bestimmt. Wie man optimiert, erscheint einem großen Teil unserer Bevölkerung – Wissenschafter miteingeschlossen – daher ein recht einfaches Unterfangen zu sein.

    Wer sich mit dem Problem der Optimierung aber näher befaßt, findet sehr schnell heraus, daß die im Lehrbuch aufgezeigte Lösung nur sehr wenig mit der realen Welt zu tun hat, in welcher ja gleichzeitig Optimierungen hinsichtlich mehrerer Parameter erforderlich sind. Mit eben mit diesem Problem beschäftigt sich ein kürzlich von einer Projektgruppe der Berlin-Brandenburgischen Akademie der Wissenschaften veröffentlichter Band [1]: „Wie erfolgt eine Optimierung im Fall mehrerer Kriterien, mehrerer Ziele und wie können wir derartige Situationen erfolgreich bewältigen?

    Optimierungsprozeß unter Einbeziehung mehrerer Kriterien

    Verständlicherweise führt ein Optimierungsprozeß unter Einbeziehung mehrerer Kriterien zu widersprechenden Lösungen – außer die Kriterien sind voneinander völlig unabhängig, was ja ein in der Realität höchst seltener Fall ist. Ein simples Beispiel einer derartigen Optimierung soll hier angeführt werden:

    Mit einem Auto von A nach B zu fahren braucht Zeit und man benötigt Benzin. Natürlich möchte jeder so schnell wie möglich B erreichen, natürlich sollten der Benzinverbrauch und damit die Kosten minimal sein. Klar ist auch, daß jedes Auto mehr Benzin verbraucht, wenn es schneller fährt. Wir haben es hier also mit zwei Pseudo-Optima zu tun: mit der kürzesten Zeit um von A nach B zu kommen und der wirtschaftlich günstigsten Geschwindigkeit diese Strecke zurückzulegen; es muß nicht erwähnt werden, daß die beiden Optima unterschiedlich ausfallen.

    Um das Beispiel Autofahren weiter zu spinnen: Jeder Autokäufer ist daran interessiert, die Produkte verschiedener Autohersteller zu vergleichen. Falls der Kunde nun alle anderen Kriterien außer Geschwindigkeit und Benzinverbrauch unberücksichtigt läßt, kann dafür ein einfaches Preis- Leistungs-Diagramm erstellt werden, das sogenannte Pareto-Effizienz aufweist; das heißt, einen Zustand angibt, in dem es nicht möglich ist, ein Kriterium zu verbessern, ohne zugleich das andere zu verschlechtern. Abbildung 1

    Pareto-SetAbbildung 1. Pareto-Set: Autofahren als Beispiel der Optimierung hinsichtlich zweier gegensätzlicher Kriteria, Geschwindigkeit und Kosten. Die inverse Geschwindindigkeit aufgetragen gegen die Fahrtkosten zeigt Pareto-effiziente Fahrzeuge (schwarze Sterne). Der rote Stern ist Pareto-ineffizient und kann hinsichtlich maximaler Geschwindigkeit und minimaler Kosten weiter optimiert werden.

    In diesem Plot liegen die Produkte der meisten Autohersteller nahe dem Pareto-Optimum – einer hyperbelartigen Funktion, die quasi eine Grenze zwischen Möglichem und Unmöglichem darstellt. Jeder einzelne dieser Punkte resultiert aus den unterschiedlichen individuellen Preferenzen, beispielsweise wieviel Geld es dem Käufer wert ist, schneller zu fahren.

    Ein Produkt in dieser Darstellung (mit rotem Stern gekennzeichnet) erscheint Pareto-ineffezient, d.h. seine Leistung in einem Kriterium kann gesteigert werden ohne das andere negativ zu beeinflussen – beispielsweise kann der Kraftstoffverbrauch gesenkt werden ohne negative Auswirkungen auf die maximale Geschwindigkeit zu haben und vice versa. Zwei Gerade, parallel zu den Achsen begrenzen die Kurve und beschreiben die beiden extremen Situationen: i) das schnellste Auto zu wählen unabhängig von seinen Kosten, ii) das wirtschaftlichste Auto unbhängig davon, wie langsam es dahinzottelt.

    In realen Situationen sieht man sich mit wesentlich mehr als zwei Kriterien konfrontiert, zudem ist der Raum persönlicher Präferenzen mehrdimensional anzusetzen. Ein Auffinden von Lösungen für eine zwei-Kriterien Optimierung ist rechnerisch billig, vorausgesetzt, gute Daten stehen zur Verfügung. Für hochdimensionale Probleme kann der rechnerische Aufwand enorm hoch werden.

    Optimierung oder knappe und schnelle Entscheidungen?

    Bis jetzt haben wir einen wichtigen Faktor noch nicht berücksichtigt, nämlich die für die Optimierung benötigte Zeitdauer, die ebenfalls optimiert werden muß. Schnelle Entscheidungen sind aber im täglichen Leben definitiv wichtig: Ein Autolenker, ein Pilot, ein Steuermann auf einem Schiff – sie alle müssen momentane Entscheidungen treffen; die Zeitdauer, welche sie für eine optimale Antwort benötigen, spielt eine essentielle Rolle. Aus gutem Grund wird hier die Qualität der Antwort – sie erfolgt „knapp und schnell“ – häufig zugunsten Sicherheitsaspekten geopfert. Zwei einfache – bei Entscheidungsträgern wohlbekannte – Fälle sollen als Beispiele dienen:

    Der erste Fall setzt nichts anderes voraus wie die Fähigkeit, Objekte zu beobachten. Ein Pilot sieht ein anderes Flugzeug sich nähern und fürchtet einen Zusammenstoß. Ein „knappes und schnelles“ Vorgehen ist hier einen Kratzer oder Fleck an der Windschutzscheibe anzuvisieren und zu beobachten, ob sich das entgegenkommende Flugzeug relativ dazu bewegt. Wenn dies nicht der Fall ist, ist raschestes Ausweichen unumgänglich. Der zweite Fall – auch Erkennungs-Heuristik genannt – wird von vielen Menschen unbewußt im Alltagsleben angewandt. Beispielsweise lautete eine 1-Million $ Frage in einem Fernseh-Quiz: Welche von den beiden Städten Detroit oder Milwaukee hat mehr Einwohner? Für Amerikaner erscheint die korrekte Antwort Detroit relativ leicht und wurde von zwei Drittel der undergraduate-Studenten an der Universität Chikago richtig gegeben. Als dieselbe Frage an Deutsche gerichtet wurde, war das Ergebnis aber höchst erstaunlich: es gaben praktisch alle die korrekte Antwort. Wie dies zu erklären war? Definitiv wußten die Deutschen über die Bundesstaaten Michigan und Wisconsin nicht besser Bescheid als die Amerikaner, intuitiv (unbewußt) wandten sie aber eine erfolgreiche Heuristik an: Städte mit einer höheren Einwohnerzahl sind eher bekannt als solche mit einer kleineren Einwohnerzahl. Dementsprechend hatten die Deutschen von Detroit eher gehört als von Milwaukee. Dieser Erkennungstest wurde mit vergleichbarem Erfolg auch für andere Städte angewandt, für Fußballmannschaften und einer Reihe anderer Objekte.

    Lassen wir die Psychologie beiseite und kommen wir zu den Optimierungsverfahren zurück, so sehen wir zwei wesentliche Ergebnisse:

    • Eine gleichzeitige Optimierung mehrerer Kriterien ist komplex und führt zu einer Vielzahl an nicht-vergleichbaren Ergebnissen. Entscheidungen hinsichtlich dieser Ergebnisse müssen dann an Hand weiterer Kriterien getroffen werden – zusätzlichen Gesichtspunkten und individuellen Präferenzen. Der rechnerische Aufwand für die entsprechenden mathematischen Formulierungen kann sehr hoch und zeitraubend sein.
    • Rigorose Formalismen zur Optimierung sind im praktischen Leben häufig nutzlos, wenn Entscheidungen rasch und daher mit begrenzter Rationalität zu treffen sind. Über lange Zeit hin wurden Entscheidungen auf der Basis eines heuristischen Ratens anstelle exakter Methoden als armselige mentale Krücken betrachtet, als irrationale Illusionen [2]. Innerhalb des letzten Jahrzehnts ist ein neues Programm entstanden, welches basierend auf einer wirtschaftlichen Rationalität Instrumente zur Optimierung untersucht und entwirft und zu einem Konzept der knappen und raschen Entscheidung geführt hat [3].

    Alles in allem ist ja der menschliche Geist das Produkt eines langdauernden Evolutionsprozesses, in welchem die richtigen Entscheidungen rasch und (gerade) ausreichend für das Überleben gefällt wurden.


    Einzelnachweise und Links

    [1] Lucas K, Roosen P. (2010) General Aspects of Optimization in Emergence, Analysis, and Evolution of Structures (Lucas K, Roosen P. eds, Springer Heidelberg)

    [2] Piattelli-Palmarini, M. Inevitable Illusions: How Mistakes of Reason Rule our Mind. Wiley: New York 1994.

    [3] Goldstein, D.G., Gigerenzer, G. Models of ecological rationality: The recognition heuristic. Psychological Review 2002, 109, 75-90. Das Paretokriterium und Paretoverbesserungen (5,35 min)


     

    inge Thu, 08.11.2012 - 05:20

    Grenzen des Ichs - Warum Bakterien wichtige Teile meines Körpers sind

    Grenzen des Ichs - Warum Bakterien wichtige Teile meines Körpers sind

    Do, 01.11.2012- 00:00 — Gottfried Schatz

    Icon BiologieGottfried Schatz

    Bakterienzellen besitzen zwar nur rund ein Tausendstel des Volumens unserer Körperzellen, ihre Zahl in und auf unseren Körpern ist aber zehn mal so hoch wie jene, und sie tragen beträchtlich zu unserer Gesundheit bei. Mehr als 10 000 Arten von Bakterien bewohnen unsere Körper, wobei der Großteil in unserem Verdauungstrakt residiert und eine bedeutende Rolle in der Umsetzung und Aufnahme von Nährstoffen spielt. Es gehen aber auch essentielle Bestandteile unserer Zellen – die Mitochondrien - ursprünglich auf Bakterien zurück und wurden zu einem Charakteristikum eukaryotischer Zellen.

    Als ich in meiner Mutter heranwuchs, war mein Ich noch klar umrissen: Alle Zellen meines Körpers trugen mein Erbgut. Doch kaum hatte ich den schützenden Mutterleib verlassen, begannen Bakterien mich zu besiedeln. In wenigen Wochen hatten sie die Oberfläche meiner Haut sowie die Schleimhäute meiner Nase, meines Mundes und meines Verdauungstrakts erobert. Heute bestehe ich aus etwa zehntausend Milliarden menschlichen Zellen und zehn- bis zwanzigmal mehr Bakterienzellen. Sind diese Bakterien Teil von mir – oder nur Parasiten? Wo endet mein Ich?

    Ein buntes Völkchen

    Da Bakterien etwa tausendmal kleiner als menschliche Zellen sind, machen sie nur wenige Prozente meines Körpergewichts aus – also etwa ein bis zwei Kilogramm. Sie sind ein buntes Völkchen, denn allein meine Haut beherbergt bis zu fünfhundert verschiedene Arten (Abbildung 1). Und es scheint, dass manche Arten nur auf mir leben und so meine molekulare Individualität mitbestimmen.

    Bakterien auf der HautAbbildung 1: Eine Vielzahl und Vielfalt von Bakterien besiedeln meine Haut (Bild: Wikipedia)

     

    Viele dieser Bakterien sind für mein Wohlbefinden fast ebenso wichtig wie mein Erbgut. Sie halten andere, krankmachende Bakterien von mir fern, förderten in meinen ersten Lebensjahren die Entwicklung meines Immunsystems und versorgten mich als hungerndes Kriegskind mit den lebenswichtigen Vitaminen K, B 12 und Folsäure, weil sie diese aus einfachen Bausteinen herstellen können. Mein Körper vermag dies nicht, und unsere kärgliche Kriegskost konnte meinen Bedarf an diesen Vitaminen nicht decken. Vielleicht haben mir die Synthesekünste «meiner» Bakterien damals das Leben gerettet.

    Nicht alle meine Bakterien sind friedfertig, doch solange ich gesund bin und vernünftig lebe, hält mein Immunsystem sie in Schach. Wenn diese Abwehr aber versagt, weil ich mich schlecht ernähre, zu viel arbeite oder mit einer Virusinfektion kämpfe, kann eine Bakterienart sich plötzlich stark vermehren, Gift ausscheiden und mich akut bedrohen. Auch offene Wunden stören die Eintracht zwischen mir und meinen Bakterien, weil sie diesen Zutritt zu meinem Blut und meinen Geweben geben, wo sie Amok laufen können. Und wenn ich mir nicht regelmässig die Zähne putze, bilden Rudel verschiedener Mundbakterien auf ihnen einen festen Film und zersetzen mit ihrer Säureausscheidung meinen Zahnschmelz.

    Alle uns bekannten Tiere beherbergen Bakterien, und viele könnten ohne sie nicht leben. Besonders eindrückliche Beispiele dafür liefern gewisse Insektenarten, die sich nur vom Saft bestimmter Bäume ernähren. Dieser Saft ist meist eine sehr einseitige Nahrung, weil ihm viele Aminosäuren fehlen, die das Insekt als Bausteine für Proteine benötigt, aber nicht selbst herstellen kann. Die im Insekt lebenden Bakterien können dies und sichern so ihrem Wirt das Überleben. Wohl deshalb leben viele Wirte seit Jahrmillionen mit ihren Bakterien zusammen und vererben sie über die Eier ebenso sorgfältig wie ihr eigenes Erbgut.

    Kein Bakterium beherrscht die Kunst dieses Zusammenlebens so souverän wie Wolbachia. Es haust in mindestens einem Viertel aller bekannten Insektenarten sowie in vielen Würmern, Krustentieren und Spinnenarten und ist vielleicht der erfolgreichste Parasit auf unserem Planeten. Viele Wolbachia-Wirte können zwar auch ohne das Bakterium leben, beziehen aber von ihm dennoch manche Zellbausteine, die sie nicht selbst herstellen können und in ihrer Nahrung nicht in ausreichender Menge vorfinden. Wahrscheinlich hat Wolbachia vor Jahrmillionen jeweils einen Vertreter dieser Wirte infiziert und ihn dann nie wieder verlassen. Als Schmarotzer konnte das Bakterium es sich leisten, etwa drei Viertel seines Erbmaterials verkümmern zu lassen. Dies tat jedoch seiner Ausbreitung keinen Abbruch, da es über die Eier infizierter Mütter vererbt wird und das Sexualleben der von ihm infizierten Wirte zu seinem eigenen Vorteil verändert.

    Je nach Art des Wirtes kann es dabei die Männchen vor dem Ausschlüpfen aus dem Ei töten, in Weibchen verwandeln oder überflüssig machen, indem es Weibchen selbst ohne Befruchtung infizierte Töchter gebären läßt (Abbildung 2).

    WolbachiaAbbildung 2: Wolbachia in der Eizelle einer kleinen parasitischen Wespe. Die hellgefärbten Bakterien sammeln sich an einem Ende der Eizelle an, aus dem sich die reproduktiven Organe bilden sollen und induzieren die Entwicklung eine weiblichen Nachkommens ohne vorherige Befruchtung. (Bild: MicrobeWiki)

    In wieder anderen Fällen können die von ihm befallenen Männchen nur mit infizierten Weibchen Nachkommen zeugen. Das Ziel ist dabei stets, möglichst viele infizierte Insektenweibchen in die Welt zu setzen, ihnen gegenüber Männchen und nicht infizierten Weibchen Vorteile zu verschaffen – und damit über infizierte Eier die eigene Ausbreitung zu fördern. Wolbachia würde selbst Niccolò Machiavelli vor Neid erblassen lassen. Vielleicht wird es in den kommenden Jahrmillionen immer mehr von seinem Erbgut an die jeweilige Wirtszelle abgeben und sich damit zu einem normalen Zellorgan mausern, das kaum mehr etwas von seiner bakteriellen Herkunft erkennen lässt.

    Auch in mir leben Nachkommen freilebender Bakterien, die vor eineinhalb Milliarden Jahren meine fernen Vorfahren infizierten und sich dann in diesen fest ansiedelten. Diese Bakterien hatten gelernt, organische Stoffe mit Hilfe von Sauerstoffgas zu verbrennen und dabei grosse Energiemengen freizusetzen: Sie hatten die Zellatmung erfunden. Erst diese atmenden Parasiten lieferten ihren Wirtszellen die nötige Energie, um komplexere Lebensformen zu entwickeln. Die Wirtszellen übernahmen schliesslich mehr als neunundneunzig Prozent des Erbguts ihrer atmenden Fremdarbeiter, so dass diese heute nur ein stark verkümmertes Erbgut in sich tragen. Wider die Abschottung

    Die atmenden Eindringlinge wurden so zu festen Bestandteilen meiner Zellen – den Mitochondrien. Und der winzige Rest ihres Erbguts, der nur noch Baupläne für dreizehn Proteine trägt, ist heute meine Mitochondrien-DNS. Sie ist mein zweites DNS-Genom, das zwar viel kleiner als das meines Zellkerns, aber für mich ebenso lebenswichtig ist. Meine Mitochondrien können nicht mehr frei leben oder Zellen infizieren, sondern werden, ebenso wie Wolbachia-Bakterien, über die Eizelle der Mutter vererbt. Männer sind für Mitochondrien also eine genetische Sackgasse: Ich konnte meine Mitochondrien keinem meiner Kinder weitergeben.

    Etwa fünf bis sieben Kilogramm von mir sind Mitochondrien. Weil sie von allem Anfang an in mir waren, empfand ich sie stets als Teil meines Ichs. Doch jetzt, wo ich um ihre Herkunft weiss, bin ich mir dessen nicht mehr so sicher. Und wenn ich dann noch an die ein bis zwei Kilogramm Bakterien denke, die mich nach meiner Geburt besiedelten, beginnen sich die Grenzen meines Ichs weiter zu verwischen.

    Vielleicht ist dies gut so. Wer sein Ich zu wichtig nimmt und argwöhnisch dessen Grenzen abschottet, verschliesst den Blick vor der Vielfalt der Welt und huldigt dumpfem Stammesdenken. Dies gilt nicht nur für einzelne Menschen, sondern auch für Völker, Nationen und Kulturen. Wem das eigene Ich Mass aller Dinge, der Mensch gesetzgebende Krone der Schöpfung oder die eigene Sicht der Welt die einzig wahre ist, der hat die letzten Jahrhunderte ebenso verschlafen wie der, für den unsere Erde immer noch das Zentrum des Universums ist. Wenn die moderne Biologie nun die Grenzen meines Ichs verwischt, schmälert sie es nicht, sondern schenkt ihm zusätzliche Einsicht und Tiefe.


    Weiterführende links

    Ulrich Kutschera: Video 9 – Was ist Symbiogenese? [Tatsache Evolution - Was Darwin nicht wissen konnte] 11:52 min

    Planet Wissen - Bakterien: Keimherd für Leben und Tod (1. von 6 Teilen à ca.9 min)

    Spiegel (14.06.2012): Mikroben-Inventur Das Gewimmel im Körper Joshua Lederberg: Das World Wide Web der Mikrobiologie

    M.Neukamm & A.Beyer: Die Endosymbiontentheorie - Allgemeine Grundlagen, Fakten, Kritik (PDF) Cinelecture 25 - The Endosymbionts (Chloroplasts, Mitochondria) (12:11 min)

     


     

    inge Thu, 01.11.2012 - 05:20

    Auge um Auge — Entwicklung und Evolution des Auges

    Auge um Auge — Entwicklung und Evolution des Auges

    Do, 25.10.2012- 04:20 — Walter Jakob Gehring

    Icon BiologieWalter Jakob Gehring

    "Die Wissenschaft übertrifft Hollywood“ titelte die New York Times im März 1995, als Walter Gehring mit dem Gen Pax6 den Hauptschalter in der Entwicklung des Auges entdeckt hatte und dessen Funktion durch die Generierung zusätzlicher Augen auf unterschiedlichen Körperteilen der Taufliege bewies. Spätere Untersuchungen Gehrings ergaben, daß das Pax6-gesteuerte Augenentwicklungsprogramm ein universelles, bei allen Tieren von den Plattwürmern bis zu den Säugetieren, vorliegendes Prinzip darstellt, der Ursprung all der unterschiedlichen Augentypen also vom selben Prototyp ausgeht.

    Die Natur hat im Verlauf der Evolution die verschiedensten Augentypen hervorgebracht. Diese reichen vom Kameraauge der Wirbeltiere mit einer Linse, die das einfallende Licht auf eine lichtempfindliche Netzhaut (Retina) projiziert, über das komplexe Facettenauge der Insekten und anderer Gliederfüßler, das aus zahlreichen Einzelaugen mit je einer Linse und einer Gruppe von Photorezeptorzellen zusammengesetzt ist, bis zum Spiegelauge, das beispielsweise bei der Jakobsmuschel sowohl über eine Linse als auch über einen reflektierenden Parabolspiegel verfügt, die das Licht auf eine Netzhaut projizieren. Abbildung 1.

    Unterschiedliche Augentypen Abbildung 1. Unterschiedliche Augentypen. A) Kamera-Auge der Eule, B) Facettenauge der Fliege, C) Spiegel-Auge der Jakobsmuschel, D) Prototyp-Auge bestehend aus einer Pigmentzelle und einer Photorezeptorzelle des Plattwurms Polycelis auricularis.

    Trotz dieser morphologischen Vielfalt bestimmen ähnliche physikalische und chemische Prinzipien den Sehvorgang. In allen Vielzeller-Organismen finden sich sogenannte Opsine als Sehpigmente. Dies sind Photorezeptor-Proteine, die - von einem einzelnen Lichtimpuls (Photon) angeregt - eine Konformationsänderung durchlaufen und damit einen Nervenimpuls auslösen.

    Darwins Hypothese zum Ursprung des Auges

    Für Darwin war es eine besondere Herausforderung, die Entstehung und Entwicklung des Auges zu erklären, und er widmete diesem Thema ein ganzes Kapitel in seinem Buch „The Origin of Species“. Er war davon überzeugt, daß ein so perfektes Organ wie beispielsweise das Auge eines Adlers nicht ein durch rein zufällige Variationen und Selektion entstandener Prototyp sein könnte, weil ja Selektion erst einsetzen kann, wenn ein bereits ansatzweise funktionierender Prototyp existiert. In genialer Weise fand er eine Lösung des Problems: Er postulierte, daß sehr früh in der Entwicklung ein ganz einfaches, aus zwei Zellen - einer Nervenzelle (Photorezeptorzelle) und einer Farbstoffzelle (Pigmentzelle) - bestehendes Auge existiert haben mußte, das ausreichte um seinem Träger bereits das Richtungssehen und damit einen Selektionsvorteil zu ermöglichen. Ausgehend von diesem höchst einfachen Prototyp hätten sich dann die viel komplexeren Augen eines Insekts, eines Fisches, eines Vogels entwickelt.

    Tatsächlich konnte später ein derartiger Prototyp bei bestimmten Plattwürmern in Japan gefunden werden (Abbildung 1 D). Derartige Neuentwicklungen sind in der Evolution sehr seltene, zufallsbedingte Ereignisse.

    Sind die verschiedenen Augentypen aus einem Prototyp oder voneinander unabhängig entstanden?

    Neodarwinisten unterlegten Darwins Theorie der „Entstehung der Arten“ mit genetischen Prinzipien. Da die verschiedenen Augentypen einen unterschiedlichen morphologischen Aufbau haben und sich embryologisch unterschiedlich entwickeln, wurde bis in die jüngste Zeit angenommen, daß die Augen in den 40 bis 60 verschiedenen Tiergruppen voneinander unabhängig – polyphyletisch - entstanden seien. Das klassische Dogma, das man zur Zeit noch in fast allen Lehrbüchern findet, besagt, daß das Komplexauge der Insekten und das Linsenauge der Wirbeltiere keine gemeinsamen Vorfahren hätten.

    Da sich die Entstehung derartiger Prototypen aber nicht durch Selektion erklären läßt, müßten diese sehr seltenen und zufälligen Ereignisse 40 bis 60 Mal unabhängig voneinander eingetreten sein.. Unsere neueren molekulargenetischen Untersuchungen haben jedoch gezeigt, daß die verschiedenen Augentypen, die man im Tierreich findet, alle durch das gleiche Masterkontrollgen – eine Art Hauptschalter – namens Pax6 gesteuert werden und somit – monophyletisch - auf einen gemeinsamen Ursprung zurückgehen.

    Pax6 – essentiell für die Entwicklung des Auges

    Welche Gene einen Einfluß auf die Entwicklung des Auges haben, läßt sich auf Grund auftretender Mutationen nachweisen: Bei der Maus wurde eine Mutation („small eye“) beschrieben, die bei mischerbigen Tieren (mit einer defekten und einer funktionstüchtigen Kopie des Gens) zu einer Reduktion der Augen führt. Bei reinerbigen Embryonen (mit zwei defekten „small eye“-Genen von beiden Eltern) werden keine Augen gebildet, aber auch keine Nase und ein großer Teil des Gehirns fehlt – die Embryonen sterben bereits im Uterus. Ein ähnlicher, als Aniridia (= fehlende Iris) bezeichneter Erbdefekt findet sich auch beim Menschen: Individuen mit nur einem funktionstüchtigen Gen bilden im Extremfall keine Iris, sind also blind. Zwei abortive – vermutlich reinerbige Föten hatten, wie bei der Maus keine Augen, Nasen und reduzierte Gehirne.

    Die mutantentragenden Gene wurden zuerst bei der Maus und anschließend beim Menschen kloniert und als sogenanntes Pax6-Gen identifiziert; ein bei der Taufliege Drosophila gefundenes homologes Pax6-Gen entsprach der bereits lange als „eyeless“ beschriebenen Mutante. Abbildung 2 Mutationen des Pax6-Gens Abbildung 2. Die Mutationen des Pax6-Gens. Links: Small-eye bei der Maus (a: normaler Mausembryo, b: mischerbiger Small-eye-Typ, c: reinerbiger Small-eye Typ), rechts eyeless bei der Taufliege (oben: normaler Kopf, unten reinerbiger eyeless-Typ).

    Pax6 – Hauptschalter in der Entwicklung und Evolution des Auges

    Das Pax6-Gen kodiert für ein Protein, das als Regulator (Transkriptionsfaktor) die Aktivität der ihm untergeordneten Gene steuert und in der Evolution hoch konserviert ist. In der Maus ist dieses Pax6-Protein bereits in den frühesten Stadien der Augenentwicklung – wenn sich das Augenbläschen aus dem Gehirn stülpt – in allen Teilen der Augenanlage exprimiert, ebenso trifft dies für die eyeless-Mutante der Fliege zu.

    Diese Übereinstimmung zwischen Wirbeltieren und Wirbellosen brachte mich auf die Idee, es könnte sich bei Pax6 um ein Masterkontrollgen – einen Hauptschalter – in der Augenentwicklung handeln. Den Nachweis ob dieses einzelne Gen fähig ist, die gesamte Kaskade der für die Augenentwicklung benötigten, mehr als tausend Gene zu induzieren, versuchten wir durch gezielte „ektopische“ Expression von Pax6 zu erbringen, d.h. durch Expression nicht nur in den Augen sondern beispielsweise in Beinen, Flügeln, Antennen der Taufliege. Da der Entwicklungsgang dieser Körperteile bereits im frühen dritten Larvenstadium festgelegt wird, mußte Pax6 noch vor diesem Zeitpunkt „angeschaltet“ werden.

    Zur großen Überraschung der Fachwelt war dieser Versuch erfolgreich, es gelang zusätzliche Augen auf den erwähnten Körperteilen zu erzeugen (Abbildung 3). Wie später gezeigt wurde, waren diese Augen auch zum Sehen befähigt. Ektopische Induktion zusätzlicher Augen Abbildung 3. Ektopische Induktion zusätzlicher Augen in der Taufliege durch Pax6. Gezielte Expression des mutierten Pax6 Gens „eyeless“ (Drosophila) führt zur Induktion zusätzlicher Augen in den Antennen (oben links) und in den Beinen (oben rechts). Drosophila. Das Maus Pax6-Gen induziert ebenfalls zusätzliche Augen in den Antennen (umten links, rechts in Vergrößerung). Die zusätzlichen Augen sind durch rote Linien markiert.

    Außerdem konnte gezeigt werden, daß auch die Expression des Pax6-Gens der Maus geeignet ist, zusätzliche Augen in ektopischen Stellen der Taufliege zu erzeugen. Die Pax6-Gene von Wirbeltieren und Wirbellosen sind also in ihrer Funktion äquivalent! Diese erstaunlich hohe evolutionäre Konservierung deutet auf einen starken Selektionsdruck und auf die wichtige funktionelle Bedeutung des Gens hin. Zusätzliche Augen wurden auch in Frosch-Embryonen erzeugt, denen das Pax6-Genprodukt der Taufliege injiziert worden war. Schlußendlich wurde das Pax6-Gen in einer Vielzahl an Spezies bis hin zu den Plattwürmern gefunden.

    Schlußfolgerungen

    Unsere molekulargenetische Untersuchungen haben ergeben, daß das Augenentwicklungsprogramm bei allen Tieren von den Plattwürmern bis zu den Säugetieren, den Menschen miteingeschlossen, übereinstimmt. Rund 65 % der Gene, die in der Retina der Taufliege exprimiert werden, sind auch in der Retina der Maus aktiv. Zuoberst in der Hierarchie steht das Masterkontrollgen Pax6. Bereits der zweizellige Prototyp des Auges, der noch in den Plattwürmern gefunden wird, wurde von Pax6 gesteuert. Diese Steuerung wurde auch bei allen höheren Lebewesen beibehalten, hat aber zu den verschiedensten Augentypen geführt, wobei immer mehr Gene (beispielsweise für die Entwicklung der Linsen) in den Entwicklungsweg eintraten.

    Der Ursprung all dieser Typen geht also vom selben Prototyp aus. Die Hypothese Darwins ist damit glänzend bestätigt worden. Abbildung 4.

    Schema der Evolution des Auges Abbildung 4. Schema der Evolution des Auges. Der erste Schritt ist die Evolution eines Lichtrezeptormoleküls, das bei allen vielzelligen Organismen Rhodopsin ist. Aus der ersten einzelligen Photorezeptorzelle entstand dann durch Pax6- und MITF-gesteuerte Zelldifferenzierung der zweizellige, von Darwin postulierte Prototyp des Auges (MITF ist ein Regulator für die Pigmentzelle). Aus diesem Prototyp haben sich alle komplexeren Augentypen entwickelt, wobei immer mehr Gene(beispielsweise für die Entwicklung der Linsen) in den Entwicklungsweg eintraten.


    Weiterführende Links

    PBS - Genetic Toolkit 4:47 min (Englisch)

    International workshop on Evolution in the Time of Genomics (7 – 9 May 2012)- part 07. 1:27:37. Vortrag von Walter Gehring rund 30 min (ab: 38 min). (in Englisch; setzt etwas an biologischen Grundkenntnissen voraus)


     

    inge Thu, 25.10.2012 - 05:20

    Reinhard Böhm, ScienceBlog-Autor, ist tot

    Reinhard Böhm, ScienceBlog-Autor, ist tot

    Do, 11.10.2012 - 05:20 — Inge Schuster

    In einem am 9. Oktober erschienenen Nachruf bezeichnet „Der Spiegel“ Reinhard Böhm als österreichischen Vater der Klimaforschung sowie einen der bedeutendsten Klimaforscher der Welt und charakterisiert ihn in äußerst treffender Weise: „Seine kritische Haltung widersprach oftmals der gerade modernen Meinung zu Umweltthemen ... er sprach jeder Art ideologischer, voreingenommener Wissenschaft sein Misstrauen aus.” In unserem Blog soll Reinhard Böhm noch einmal gehört werden: seine Ansichten zur Klimahysterie, aber auch ganz allgemein zum Wissenschaftsbetrieb in Österreich.

    Es ist nun gerade vier Wochen her, dass der letzte Beitrag von Reinhard Böhm „Spielt unser Klima verrückt – zur Variabilität der Klimaschwankungen im Großraum der Alpen“ im Blog erschienen und auf das – bis jetzt – größte Echo gestoßen ist. Am 9. Oktober erreichte uns die bestürzende Nachricht, daß Reinhard Böhm am Vortag plötzlich und völlig überraschend gestorben sei, an den Folgen eines Herzinfarkts, den er bei Feldmessungen auf den Gletschern des Sonnblickgebietes erlitten hatte.

    Reinhard Böhm hat seit 1973 an der Zentralanstalt für Meteorologie und Geodynamik (ZAMG) gearbeitet, mehr als 150 Studien veröffentlicht – die meisten über Klima- und Gletscherforschung im Alpenraum – und damit die Klimaforschung auch international geprägt. Neben seiner Tätigkeit als höchstrenommierter Wissenschafter hat Böhm versucht, den aktuellen Stand seines Fachgebietes der Öffentlichkeit klar und verständlich zu vermitteln, jedoch immer auf wissenschaftliche Korrektheit bedacht. Demzufolge war das Konzept unseres ScienceBlogs ganz nach seinem Geschmack, und er hat sofort zugesagt, Beiträge zu liefern.

    Der Versuch, Reinhard Böhm seinen Verdiensten als Wissenschafter und Persönlichkeit entsprechend zu würdigen, gelingt vielleicht am besten, indem man ihn selbst nochmals zu Wort kommen lässt. Im folgenden finden sich Auszüge aus dem e-mail Verkehr mit ihm vor rund vier Wochen: aus den von ihm vertretenen Standpunkten und kritischen Betrachtungen tritt die Person Reinhard Böhms als wahrer, gegen jede ideologische, voreingenommene Wissenschaft ankämpfender Naturforscher klar zutage.

    Neugier als Antrieb der Forschung

    „Für mich ist Neugier der allein erstrebenswerte Antrieb zur Forschung, und nicht der heute gerade in meinem Fach so dominante „postnormale“ (nach Funtovicz und Ravetz), der in einer rein zweckgebundenen Forschung endet. In meinem Fach ist das schlicht „die Rettung der Welt vor der Klimakatastrophe“, und das führt dann sehr schnell zu dem Zustand, dass nur noch öffentlich ausgetragene Hahnenkämpfe von „Alarmisten“ gegen „Abwiegler“ (letztere oft auch „Skeptiker“ genannt) erzeugt, und bei dem die „normale“ Forschung auf der Strecke bleibt.“

    Sonnblick als immaterielles Kulturerbe und ist Naturwissenschaft unter Kultur einzustufen?

    „Ich muss noch einige Texte schreiben, die notwendig sind, um den Sonnblick (bzw. dessen Klimadatensatz, um genau zu sein) in das „immaterielle Kulturerbe Österreichs“ aufzunehmen. Das ist eine auf den ersten Blick vielleicht etwas skurril erscheinende Idee unseres Direktors (bzw. eines Herrn vom Außenministerium, der in einer einschlägigen UNESCO-Kommission sitzt), die vielleicht nicht von Erfolg gekrönt sein wird: Etwas Naturwissenschaftliches als immaterielles Kulturerbe, inmitten von Dingen wie „Märchenerzähler“, „Spanische Reitschule“, „Ötztaler Mundart“ oder „Heiligenbluter Sternsinger“ zu plazieren, scheint einem gelernten Österreicher von vornherein als aussichtslos.

    Gerade das hat mich aber auch gereizt, da für mich (ich glaube, da habe ich Ähnliches auch bei ihnen im Blog schon gelesen) dieser weitestgehende Ausschluss der Wissenschaft und ganz speziell der Naturwissenschaft aus dem, was man hierzulande unter „Kultur“ versteht, ärgert.

    Deshalb werde ich die nächsten zwei oder drei Tage wohl speziell damit verbringen, die nötigen Bewerbungslisten mit Argumenten zu füllen, warum ein Klimadatensatz, der auf einem 3100m hohen Berggipfel seit 1886 praktisch ohne Lücken erzeugt worden ist, ein Kulturgut darstellt. Wäre später evt. auch ein Thema für ScienceBlog (?).“

    Zum ScienceBlog

    “Ich bin gern bereit, auch künftig mit Ihnen bzw. dem ScienceBlog zusammen zu arbeiten. Ich lese übrigens auch des Öfteren darin, was meistens ein Gewinn und ein Genuss ist. In die Rolle eines Kommentators anderer Beiträge bin ich (noch) nicht hineingewachsen - übrigens auch nicht in anderen Blogs, z.B. den von mir sehr geschätzten www.klimazwiebel.blogspot.com , den ich Ihnen auch empfehlen kann. Nicht zuletzt deshalb, da dort u.a. oft die Debatte „normale vs. postnormale“ Wissenschaft geführt wird. Daran hat mich bei Ihnen im ScienceBlog z.B. der Artikel über die Neugier als Forschungsantrieb (im Juli, Peter Schuster) erinnert.”

    Von den Gletschern und von den Eisbären

    Reinhard Böhm hat mir den sarkastischen, humorvollen und überaus lesenswerten Artikel „Von den Gletschern und von den Eisbären“ zugeschickt („Ich schieße gleich noch einen älteren Artikel nach, den ich anlässlich der Rauriser Literaturtage 2007 in einer Literaturzeitschrift unterbringen konnte (da damals auf unseren Vorschlag das Thema „Literatur trifft Wissenschaft“ das Thema war).“)

    Darin charakterisiert sich der Autor in treffendster Weise selbst: „Trotzdem nehme ich mir heraus, in der Wissenschaft auf Exaktheit zu bestehen, Zweifel immer zu zulassen, sie aber, genauso wie Übertreibungen im Dienste der guten Sache, nachzuprüfen und aufzuzeigen.“

    Ich hoffe, ich verletze kein Copyright, wenn ich abschließend einige Absätze aus diesem Artikel anführe:

    „Wir haben sie alle schon gesehen, die beeindruckenden Bildvergleiche von Alpengletschern aus der Anfangszeit der Freiluftfotografie im späten 19. Jahrhundert und den kümmerlichen Resten des „ewigen Eises“ auf modernen Aufnahmen – eines Eises, das so ewig nicht mehr zu sein scheint."

    "Wenn dann noch in den Hochglanzbroschüren von Umweltorganisationen oder im Fernsehen zur Universumzeit eine Eisbärenmutter mit zwei Kindern – meistens haben diese sogar Namen, damit wir uns mit ihnen besser identifizieren können – im nördlichen Eismeer schwimmt, und weit und breit kein Eis zu sehen ist, dann, spätestens dann ist wohl dem letzten Zweifler klar, dass wir knapp vor der größten Katastrophe dieses Jahrhunderts stehen, die über die Menschheit gerade hereinbricht. Der berühmte Eisbär, der von einer Eisscholle zur anderen springt, hat ja für den Klimawandel beinahe den Kultstatus erreicht, den das Ivo-Jima Foto der Soldaten mit der amerikanischen Flagge für das US Marine Corps hat."

    "Was ist denn so schlecht daran, den Gletscherrückgang, das kalbende Polareis und die Eisbären dazu zu benützen, Betroffenheit zu erzeugen, um die Menschen zu einer Umkehr zu bewegen? Gehen die Gletscher denn nicht zurück, kalbt das Polareis denn nicht, ist es denn unwahr, dass die Eisbären zunehmend Schwierigkeiten bekommen, auf dem Packeis Robben zu killen?"

    "… Der Zusammenhang scheint einfach und klar. Eis schmilzt, wenn es wärmer wird, und die Gletscher und das polare Meereis gehen zurück. Damit werden die Jagdgründe des Eisbären immer kleiner, und er ist vom Aussterben bedroht. Warum also bin ich Nörgler immer noch skeptisch und schließe ich mich noch immer nicht so ohne weiteres der Mehrheit der Klimaexperten an, von denen manche schon vor Jahren gemeint haben „geforscht ist nun genug, der Fall ist klar! Nun ist es Zeit zu handeln!“ Bin ich vielleicht wirklich einer von diesen Climate Sceptics? – eine Bezeichnung übrigens, die von einfacheren Gemütern gerne als Totschlagargument eingesetzt wird, wenn es bei ihnen für echte Argumentation nicht reicht. Interessant, dass wir in der Klimadebatte schon so weit sind, Skeptizismus tatsächlich als etwas Negatives einzustufen – für mich ist er jedenfalls immer noch eines der Fundamente für wissenschaftlichen Fortschritt, und einer der Hauptantriebe überhaupt, Wissenschaftler zu sein. Aber ich bin ja auch einer, der gerne Sätze mit mehr als fünf Wörtern schreibt, bei denen man sich konzentrieren sollte, wenn man sie liest. "

    "Darüber hinaus bin ich der Ansicht, dass man sich in der Wissenschaft spezialisieren muss, um auf irgendeinem Gebiet auf der Höhe der Zeit zu sein – schon wieder so eine veraltete Verschrobenheit von mir, wo doch heute jeder weiß, dass Vernetzung, die Zusammenführung des Detailwissens das Gebot der Stunde sind! Da dieser mir gefühlsmäßig auch sympathische, aber unendlich schwierig zu erfüllende Anspruch zur Interdisziplinarität gerne in die Untiefen der Banalität abgleitet, möchte ich mich hier ganz bewusst auf Sachverhalte beschränken, die in das Arbeitsgebiet der kleinen Forschungsgruppe fallen, in der ich arbeite: die Rekonstruktion des Klimas der Vergangenheit und die Gletscher."

    "Zurück also zum Gletscherrückgang, einem der führenden heiligen Kühe des Klimawandelmarketings. Dieser Kuh habe ich selbst viel Futter gegeben. Seit jetzt schon mehr als 25 Jahren fotografiere ich im Herbst die Gletscher der Goldberggruppe hier im Talhintergrund von Rauris, immer von denselben Standorten aus, bis hinauf zum Herzog Ernst zum Alteck und zur Wasserfallhöhe. Manche davon wurden schon seit 1896 von meinen Vorgängern benutzt. Vergleiche der alten Aufnahmen mit meinen eigenen habe ich wiederholt dazu herangezogen, um den Gletscherrückgang zu illustrieren. Ich selbst bin immer wieder beeindruckt von seinem enormen Ausmaß, wenn ich etwa im leeren Gletscherbett des Kleinfleißkeeses stehe und 150 Höhenmeter über mir die Seitenmoräne der Gletscherzunge sehe, die vor 150 Jahren noch bis dort hinauf gereicht hat.… "

    "Es erinnert mich auch daran, dass es jetzt höchste Zeit ist, den nötigen Hinweis darauf zu geben, dass ich nicht von der Erdölindustrie bezahlt werde ... dass ich nicht anzweifle, dass sich die untere Atmosphäre erwärmt und weiter erwärmen wird, und dass ich sogar selbst zu dem Wissen darüber im Rahmen meiner Möglichkeiten beigetragen habe. Trotzdem nehme ich mir heraus, in der Wissenschaft auf Exaktheit zu bestehen, Zweifel immer zu zulassen, sie aber, genauso wie Übertreibungen im Dienste der guten Sache nachzuprüfen und aufzuzeigen. Das Thema Klimawandel ist mir jedenfalls zu ernst, um es den Marketingstrategen von privaten Umweltorganisationen, der Kernkraft- und der Versicherungslobby zu überlassen.“

    Wer sich ein ausführliches Bild von der entspannten, ja schmunzelnden Art Reinhard Böhms machen möchte, die aber keinen noch so kleinen Spielraum für Ungenauigkeit jedweder Art zuließ, dem sei sein Buch »Heiße Luft – nach Kopenhagen" anempfohlen, das auf der Webseite des Austria Forum als freies e-Book online abrufbar ist.


    Weiterführende Links

     Kondolenzbuch (ZAMG)

    Nachrufe

    ZAMG Der Spiegel ORF

    Foren

    Klimazwiebel

    Wetterzentrale.de


     

    inge Thu, 11.10.2012 - 17:20

    Evolution – Quo Vadis?

    Evolution – Quo Vadis?

    Do, 04.10.2012- 05:20 — Uwe Sleytr

    Icon BiologieUwe Sleytr

    Die Evolution verläuft nach Regeln, die von einfacheren zu immer komplexeren neuen Lebensformen führen. Unglaublich viele dieser Lebensformen sind auf dem Weg bis zu uns Menschen bereits ausgestorben. Wie dieser Weg weitergeht, ist für uns nicht voraussehbar.

    Wir leben wissenschaftlich in einer faszinierenden Zeit. Einzelwissenschaften, wie beispielsweise Physik, Chemie, Biologie, Zell- und Molekularbiologie, Genetik, Synthetische Biologie, Materialwissenschaften und Kognitionswissenschaften, verlieren ihre Grenzen. Wir sprechen auch von einem Paradigmenwechsel, weg von den Einzelwissenschaften hin zu den „Converging Sciences“, also einer methodischen Verschmelzung der Wissens- und Forschungsgebiete. Fragt man nach den Gründen für diese Entwicklung, zeigt sich immer deutlicher, dass über ein immer tiefer gehendes Verständnis der Materie und der ihr innewohnenden Fähigkeit immer komplexere Strukturen einzunehmen, auch die Grenzen zwischen unbelebter und belebter Materie verschwinden. Am Horizont unserer Erkenntnis sehen wir immer klarer einen dem Universum innewohnenden Mechanismus. Insbesondere sind es die Gesetzmäßigkeiten der biologischen Evolution, die unsere naturwissenschaftliche Denkweise beeinflussen.

    Die Kreativität der Evolution

    Die Evolution besitzt keine Intelligenz aber ihre schöpferische Kraft, neue Systeme hervorzubringen, ist phantastisch.

    In kosmischen Dimensionen gedacht, sind wir mit einer etwa 3,5 Milliarden Jahre dauernden biologischen Evolution auf unserer Erde vermutlich erst in einer sehr frühen Phase der Entwicklungsmöglichkeiten oder des „Potentials“ des Lebens. Jetzt ist die Evolution eben erst beim Menschen angelangt. Provokant formuliert: Jetzt haben die Gesetzmäßigkeiten der Evolution eben erst den Menschen hervorgebracht. Selbst wenn wir uns sehr ernst nehmen und uns (aus offensichtlicher Arroganz heraus) als „Krone der Schöpfung“ bezeichnen, müssen wir akzeptieren, dass auf dem Weg bis zum Menschen bereits unglaublich viele Lebensformen ausgestorben sind. Wir sind somit – sehr wahrscheinlich – auch ein Zwischenprodukt auf einem nicht immer kontinuierlich laufenden Wege zu einer immer höheren Komplexität des Lebens oder der Lebensformen.

    Unser Dilemma ist, dass wir zwar in der jüngsten Zeit unserer Geschichte die molekularen Mechanismen, die zur Evolution führen, mehr und mehr verstehen und auch erstmals Methoden entwickeln, um gezielt in das Erbgut einzugreifen, diese Erkenntnisse aber nicht ausreichen, um die biologische Evolution im Sinne des ihr innewohnenden Prinzips zu betreiben. Soweit wir es erkennen, experimentiert die Natur nach dem Prinzip: Was „funktioniert“ setzt sich durch. Wie aber die Evolution in Fortsetzung des bisherigen Ablaufes weitere Systeme erzeugt und verfeinert – oder sollte man vielleicht besser sagen: „verfeinert wird“ – ist eine der faszinierendsten Frage der Gegenwart.

    Jedenfalls ist der Stand unserer heutigen wissenschaftlichen Erkenntnis, dass die Evolution ein System mit Regeln aber ohne Zielrichtung ist, das sich – zumindest auf der Ebene von Molekülen wie z.B. den Nukleinsäuren – im Reagenzglas experimentell ausführen lässt. Das heißt aber auch, dass das, was wir als Evolution erleben und erkennen, ein dem Universum innewohnender Mechanismus ist, bei dem „Chaos und Ordnung“ eng miteinander verbunden sind. „Chaos und Ordnung“ sind dabei zwei Pole desselben Phänomens, und wie auch mathematische Modelle zeigen, ist die Musterbildung und Selbstorganisation der Materie zu komplexeren Formen ein tief im Universum verankertes System.

    Ich verweise in diesem Zusammenhang nur auf die Schlüsselarbeiten von Mandelbrot, die stark darauf hinweisen, dass der Natur – die biologische Welt eingeschlossen – eine Mathematik zugrunde liegt (Abbildung 1). Offensichtlich beruhen komplexe Systeme oft auf sehr einfachen Regeln. Bei den Fragen nach der Entstehung der Vielfalt der Formen nimmt das Problem der Rückkopplung von Prozessen und der damit verbundenen nicht Vorhersehbarkeit der Ereignisse eine immer zentralere Stellung ein.

    Mandelbrot-MengeAbbildung 1. Die Mandelbrot-Menge (oben). Die Iteration einer einfachen Beziehung (zn+1 = zn2 + c, die Zahlen zi und c sind komplexe Zahlen) führt zu einem ungeheuren Formenreichtum selbstähnlicher Strukturen. Derartige, sogenannte fraktale Strukturen finden sich auch in der Natur (unten): Farn, Eis auf Glasscheibe, Romanesco (Karfiol-Variante).

    Grenzen der Erkenntnisfähigkeit

    Exzellente Wissenschaft bewegt sich auf einem reproduzierbaren Methodengefüge mit der gegebenen Limitierung, dass man mit seinen Experimenten in der gesicherten Erkenntnis nur so weit kommen kann, wie es die verfügbaren Methoden erlauben. Leider kommen wir auf diese Weise aber in unserer Erkenntnis nur dorthin, wohin wir können und nicht wohin wir wollen. Wir sind mit unserer Neugier und unserem Erkenntnisfortschritt gleichsam ein an einem Treibanker hängendes Schiff. Wir sehen den Horizont aber wir wissen nicht was dahinter liegt. Zudem führen die Erkenntnisse der Wissenschaft systemimmanent fast immer zu neuen Fragestellungen. In vielen Bereichen der Naturwissenschaften bewegen wir uns nur auf einem „reproduzierbaren Netzwerk der Erkenntnisse“. Aber was liegt dazwischen? Werden wir in diese offenen Bereiche je hineinschauen können, und werden wir diese Bereiche je mit „Erkenntnissen“ füllen können?

    Wenn wir unsere Position als Menschen auf der Basis der Erkenntnisse der Eigenschaften der Materie betrachten, bleiben unendlich viele Fragen offen und wir müssen uns – ob wir wollen oder nicht – zur Erkenntnis durchringen, dass wir nur einen Abschnitt in der weiterlaufenden biologischen Evolution auf der Erde repräsentieren, mit der Einsicht und dem Bewusstsein, dass ein tiefes Verständnis des Kosmos für immer jenseits unseres Verständnishorizontes liegen wird. Vieles was uns in einem kontinuierlichen Prozess vom „Einfachen“ zum immer „Komplexeren“ ausmacht, wird sehr wahrscheinlich auf Grund der Limitierung unseres neuronalen Netzwerkes (Erkenntnisleistung) nie erkennbar werden.

    Was kommt nach uns?

    Unsere engsten Verwandten, die Schimpansen, erfüllen uns mit Erstaunen, wenn sie primitive Werkzeuge verwenden. Beispielweise mit Grashalmen Termiten aus Löchern im Bau zu holen oder zu lernen mit Steinen Nüsse aufzuschlagen. Es würde uns allerdings nie in den Sinn kommen, ihnen die Relativitäts- oder Quantentheorie bzw. die Möglichkeiten der Synthetischen Biologie zu erklären. Obwohl wir uns, bildlich gesprochen, als die „Krone der Schöpfung“ ansehen, müssen wir erkennen, dass wir im Zuge der Evolution und der dem Universum innewohnenden Prinzipien – in einem vorhersehbaren Zeitverlauf – also im Verlauf der kommenden Evolutionsgeschichte uns als Äquivalente der Schimpansen finden könnten. Wir müssen akzeptieren, dass es Erkenntnishorizonte gibt, die selbst den genialsten Vertretern unserer Spezies nicht zugänglich sind und auch nicht zugänglich sein werden.

    Der Abstand von einem instinktmotivierten Verhalten zu einem abstrakten Denken, könnte den gleichen Abstand geben wie unser abstraktes Denken zur nächsten Stufe des Erkennens in der Evolution. Wir müssen wohl erkennen, dass für uns Menschen diese „nächste“ Stufe ungeachtet aller unserer naturwissenschaftlichen Anstrengungen (auch der zukünftigen Möglichkeiten von künstlicher Intelligenz) nicht zugänglich sein wird. Der Abstand zu uns mag dann wie zwischen dem einen Grashalm verwendenden Schimpansen zum Physiker am Teilchenbeschleuniger des CERN liegen.

    Ausblick

    MonsterAbbildung 2. Monster – Kreative „Schöpfungen“ auf der Basis bekannter Module (Hieronymus Bosch um 1500)

    Wir sind auf dem Punkt der Erkenntnis, dass die gesamte Komplexität des Universums bestimmten Regeln entspricht. Wir wissen, dass basierend auf diesen Regeln bei einer fortlaufenden Evolution Erstaunliches entstehen wird, aber die Produkte sind für uns nicht vorhersehbar. Der Versuch, die nächsten Stufen der Evolution aus den bisherigen Abläufen zu extrapolieren, muß in „Science Fiction“ enden, die – entsprechend unserer Erkenntnisfähigkeit – auf der kreativen Verwendung bekannter Module aufbaut (Abbildung 2).


     

    inge Thu, 04.10.2012 - 05:20

    Sonnenkinder — Wie das atomare Feuer der Sonne die Meerestiefen erhellt

    Sonnenkinder — Wie das atomare Feuer der Sonne die Meerestiefen erhellt

    Do, 27.09.2012- 00:00 — Gottfried Schatz

    Icon BiologieGottfried Schatz

    Sonnenlicht ist eine unerschöpfliche Energiequelle, welche die Natur schon sehr früh mit Hilfe des grünen Sonnenkollektors Chlorophyll in verwertbare Energie umzuwandeln gelernt hat.

    Am Anfang war das Licht. Der Urknall, der das Universum vor etwa 14 Milliarden Jahren schuf, war eine Explosion strahlender Energie. Als sich das Universum dann ausdehnte und abkühlte, ermattete das Licht zu unsichtbaren Radiowellen. Schon nach einigen hunderttausend Jahren begann eine 30 Millionen Jahre währende Finsternis, in der sich ein Teil der Strahlung zu Materie verdichtete. Diese wiederum ballte sich zu Gaswolken und dann zu Galaxien zusammen. In deren Innerem presste die ungeheure Schwerkraft Atomkerne so stark zusammen, dass sie miteinander verschmolzen und dabei gewaltige Energiemengen als Licht freisetzten. Die atomaren Feuer dieser ersten Sterne schenkten dem jungen Universum wieder Licht.

    Licht essen

    KrebsnebelAbbildung 1: Explodierter Stern ("Krebsnebel"). Es handelt sich um die Überreste der Supernova von 1054. Deutlich erkennt man, wie Gas (und somit im Stern produzierte schwere Elemente) in die Umgebung geschleudert wird. Aufnahme: Hubble Space Telescope.

    Manche Sterne fanden in ihrer Galaxie keine stabile Umlaufbahn und stürzten schliesslich – zusammen mit dem Rest der Gaswolke – zum Mittelpunkt der Galaxie in ein Schwarzes Loch. Bei diesem Todessturz heizten sich diese Sterne so stark auf, dass sie für kurze Zeit heller erstrahlten als die Abermilliarden Sterne der gesamten Galaxie. Die meisten dieser gigantischen, aber kurzlebigen Lichtquellen erloschen bereits vor etwa 10 Milliarden Jahren. Dennoch sehen wir sie noch heute, weil die rasende Ausdehnung des Universums nach dem Urknall sie – zusammen mit ihrer Galaxie – so weit in die Fernen des Universums getrieben hatte, dass ihr Licht uns erst jetzt erreicht.

    Viele Sterne brannten schliesslich aus oder explodierten und lieferten so die Bausteine für neue Sterne. Einer von diesen ist unsere Sonne, die erst vor 4,5 Milliarden Jahren zu leuchten begann. Wie manche andere Sterne schleuderte sie bei ihrer Geburt einen Teil von sich ab und formte ihn zu Planeten. Auf einem dieser Planeten bildeten winzige Materieklumpen immer komplexere Gebilde, die sich fortpflanzten, bewegten und schliesslich sogar Intelligenz und Bewusstsein erlangten.

    PhotosyntheseAbbildung 2: Photosynthese schematisch. Kohlenstoff (C) und Wasserstoff (H​) verbleiben in Form komplizierterer Verbindungen als Zellulose in der Pflanze.

    Ich bin ein später Spross dieses Adels hochgeordneter Materie. Mein Stammbaum ist über 3,5 Milliarden Jahre alt und lässt mich stolz sein. Meine Vorfahren «erfanden» schon sehr früh den grünen Sonnenkollektor Chlorophyll und konnten sich so vom Licht der Sonne ernähren. Um bei allzu greller Sonne deren gefährliches Ultraviolettlicht zu meiden, entwickelten sie überdies Sensoren für kurzwelliges Blaulicht und konnten so die Welt in Farben sehen.

    Ich trage drei chemische Nachkommen dieses Blau-empfindlichen Sensors in meiner Netzhaut – sie erkennen Blau, Grün und Rot. Da ihre Farbbereiche überlappen und mein Gehirn ihre Signale miteinander vergleicht, kann ich nicht nur drei, sondern Millionen verschiedener Farben sehen.

    Und doch bin ich nahezu blind, denn was ich als Licht empfinde, ist nur ein winziger Bruchteil aller elektromagnetischen Wellen. Diese reichen von 1000 Kilometer langen Radiowellen bis zu den Millionstel mal Millionstel Meter kurzen Gammastrahlen explodierender Sterne. Meine Augen erkennen lediglich Wellenlängen zwischen 400 und 700 Milliardstel Meter und melden sie meinem Gehirn als die Farben des Regenbogens – von Blauviolett bis Tiefrot.

    Meine Sonnenlicht essenden Vorfahren haben das Antlitz unseres Planeten tiefgreifend verändert. Da sie eine unerschöpfliche Energiequelle hatten, überwucherten sie das Land und die Meere. Und da sie dabei Sauerstoffgas aus dem Wasser freisetzten, reicherte sich dieses Gas in der ursprünglich sauerstofffreien Atmosphäre immer mehr an. Bald entwickelten einige Lebewesen die Fähigkeit, die Überreste anderer Zellen mit Hilfe dieses Gases zu verbrennen – sie «erfanden» die Atmung. Unser Körper und unsere Nahrung sind gespeicherte Lichtenergie – ein Abglanz des atomaren Feuers in unserer Sonne.

    Licht senden

    Ein schwacher Widerschein dieses Feuers glimmt sogar in den Tiefen unserer Weltmeere. Diese sind der weitaus grösste Lebensraum auf unserem Planeten, ab einer Tiefe von 1000 Metern jedoch dunkle, kalte und oft auch sauerstoffarme Wüsten. Wie orientieren Lebewesen sich in dieser schier grenzenlosen Finsternis? Wie finden sie Beute – oder Paarungspartner? Und wie erkennen sie rechtzeitig Räuber, um ihnen zu entfliehen? Vieles davon ist noch Geheimnis. Wir wissen jedoch, dass die meisten Tiefseebewohner dafür Lichtsignale verwenden. Gewöhnlich erzeugen sie diese in eigenen Lichtorganen, in denen Nervenimpulse die Reaktion körpereigener Substanzen mit Sauerstoff auslösen und dabei «kaltes» Licht erzeugen – wie Glühwürmchen dies tun. Einige Fische züchten in ihren Augensäcken sogar lichtproduzierende Bakterien und schalten diese raffinierten Scheinwerfer durch Hautbewegungen an und ab.

    Auch viele Meeresbakterien erzeugen Licht, doch im Gegensatz zu ihnen versenden Fische, Kopffüssler und Schalentiere ihr Licht meist in Pulsen, die vielleicht Information tragen. Das ausgesandte Licht ist fast immer blaugrün, da solches Licht Wasser besonders leicht durchdringt. Deswegen begnügen sich viele Tiefseefische mit einem einzigen, blaugrün-empfindlichen Sehpigment und leiten dessen Signale mit sehr hoher Verstärkung an das Gehirn. So können sie zwar keine Farben sehen, dafür aber kurze und schwache Lichtsignale mit grosser Genauigkeit orten.

    Schwach leuchtender Verstand

    Idiacanthus atlanticusAbbildung 3: Idiacanthus atlanticus (Schwarzer Drachenfisch). Weibchen. Wikimedia Commons.

    Ein Lichtpuls kann jedoch auch Beute alarmieren oder Räuber anlocken. Der in Tiefen ab 1000 Metern lebende Schwarze Drachenfisch umgeht diese Gefahr, indem er nicht nur blaugrünes, sondern auch tiefrotes Licht aussendet, das für andere Tiere unsichtbar ist. Über diese Privatfrequenz kann er sich ohne Störung von aussen mit seinen Artgenossen verständigen und ahnungslose Opfer ins Visier nehmen. Seine Rotscheinwerfer erzeugen zunächst blaugrünes Licht, verwandeln es aber mit Hilfe eines zusätzlichen Farbstoffs in rotes Licht und «reinigen» dieses dann noch mit einer farbigen Linse. Um das tiefrote Licht seiner Artgenossen wahrzunehmen, speichert der Drachenfisch in seinen Augen eine Variante des grünen Chlorophylls, das rotes Licht wirksam verschluckt und dessen Energie auf noch rätselhafte Weise an den Blaugrün-Sensor der Fischnetzhaut weitergibt. Da der Drachenfisch Chlorophyll nicht selbst herstellen kann, nimmt er es wahrscheinlich mit der Nahrung auf – doch wir wissen nicht, von wem. Was immer die Antwort sein mag – alle lichtspendenden Stoffe und der für ihre Reaktion erforderliche Sauerstoff stammen letztlich von eingefangener Sonnenenergie. Die pulsierenden Lichtpunkte in den Tiefen unserer Weltmeere sind ferne Nachkommen des Sonnenlichts.

    Vieles an uns und der Welt ist rätselhaft und dunkel – und die Finsternis unserer Vorurteile bedrohlicher als die der Meerestiefen. Unser Verstand ist uns Licht in dieser Finsternis. Er leuchtet nur schwach – und ist dennoch das wunderbarste aller Sonnenkinder.


     

    inge Thu, 27.09.2012 - 05:20

    Lise Meitner – weltberühmte Kernphysikerin aus Wien

    Lise Meitner – weltberühmte Kernphysikerin aus Wien

    Do, 20.09.2012- 05:20 — Lore Sexl

    Icon PhysikLore Sexl

    Lise Meitner hat, nachdem sie als zweite Frau vor mehr als hundert Jahren an der Universität Wien in Physik promovierte, die wissenschaftliche Laufbahn eingeschlagen und grundsätzliche Beiträge zum Verständnis des Aufbaus von Atomkern, Atomhülle und der Vorgänge beim radioaktiven Zerfall geleistet. Lise Meitner ist ein herausragendes Beispiel dafür, dass - auch für Frauen und unter schwierigsten Bedingungen - naturwissenschaftliche Begabung gepaart mit Enthusiasmus und enormem Einsatz zu Erfolg und Ruhm führen kann.

    ... ich fühle beinahe täglich mit Dankbarkeit, wieviel ich an Gutem und Schönem von zuhaus mitbekommen habe. Letzten Endes ist es noch heute der Boden, auf dem ich stehe ...." Lise Meitner an die Wiener Physikerin Berta Karlik 1951

    JAHRE DER PRÄGUNG - WIEN 1878-1907

    Mitten in die Regierungszeit Kaiser Franz Josephs wird Elise Meitner am 17. November 1878 als drittes von acht Kindern des Hof- und Gerichtsadvokaten Philipp Meitner und seiner Frau Hedwig, geb. Skovran, in Wien geboren. Durch Versehen eines Beamten wird der 7. November 1878 zu ihrem amtlichen Geburtsdatum. Lise Meitner und ihre sieben Geschwister wachsen in einem liberalen, intellektuellen, von Musik und Kultur geprägten Elternhaus auf.

    Lise Meitner schließt die Bürgerschule 1892 ab, damit ist die Schulausbildung der noch nicht Vierzehnjährigen beendet. Doch Lise Meitner will unbedingt studieren. Von Kindheit an interessiert sie sich für Naturwissenschaften und Mathematik.

    1892 gibt es in Wien keine öffentlichen Gymnasien für Mädchen, für Lise Meitner bleibt nur die Möglichkeit der Externistenmatura. Auf Drängen ihrer Eltern macht sie eine Ausbildung als Französischlehrerin und unterstützt die Ausbildung der beiden älteren Schwestern durch Privatstunden. In ihrer Freizeit arbeitet sie bei sozialen Hilfsorganisationen. Im Alter von zwanzig Jahren erhält sie von den Eltern finanzierten Privatunterricht, um sich auf die Externistenmatura vorzubereiten. Im Juni 1901 bestehen nur vier von vierzehn Mädchen die "überhaupt nicht einfache Prüfung" am Akademischen Gymnasium in Wien.

    Im Wintersemester 1901/02 inskribiert Lise Meitner an der Philosophischen Fakultät der Universität Wien; sie belegt die Fächer Physik, Mathematik und Philosophie. Zu ihren Lehrern gehören: Franz Seraphin Exner, Adolf von Lieben, Anton Lampa und der von ihr besonders verehrte Ludwig Boltzmann.

    Die Jugendjahre um die Jahrhundertwende in Wien prägen Lise Meitners Leben bis ins hohe Alter. In dieser Zeit entstehen ihre lebenslange Passion für Musik und ihr Interesse für Literatur. Lise Meitner liest in französischer, englischer, lateinischer und griechischer Sprache.

    Lise MeitnerAbbildung 1. Lise Meitner 1906 (Bild: Wikipedia)

    Lise Meitner promoviert am 1. Februar 1906 mit Auszeichnung; sie ist die zweite Frau, die an der Wiener Universität im Hauptfach Physik promoviert. Um eine gesicherte Arbeitsmöglichkeit zu haben, legt sie auch die Lehramtsprüfung für Mathematik und Physik ab, obwohl sie niemals Lehrerin werden will.

    1906 beginnt Lise Meitner auf Anregung von Stefan Meyer in dem jungen Gebiet der Radioaktivität zu arbeiten. Ihre erste selbständige Arbeit über Radioaktivität ist die Messung der Absorption von Alpha- und Betastrahlen in Metallen.

    Obwohl Lise Meitner in knapp zwei Jahren vier eigenständige wissenschaftliche Arbeiten macht, hat sie wie die meisten Mitarbeiter der Physikalischen Institute keine Aussicht auf eine bezahlte Anstellung an der Universität. 1906 lehnt sie das Angebot einer gut dotierten Stelle in der Gasglühlichtfabrik von Carl Auer von Welsbach ab; sie will in der Forschung bleiben. Sie bittet ihre Eltern um weitere finanzielle Unterstützung und beschließt, bei Max Planck, dem Begründer der Quantentheorie, weiterzustudieren.

    Mit der Absicht, ein oder zwei Semester in Berlin zu bleiben, verläßt Lise Meitner im Herbst 1907 ihre Heimatstadt Wien.

    JAHRE DER WISSENSCHAFT - BERLIN 1907-1938

    „Herzlich liebe ich die Physik. Ich kann sie mir schwer aus meinem Leben wegdenken. Es ist so eine Art persönliche Liebe, wie gegen einen Menschen, dem man sehr viel verdankt, und ich, die ich so sehr an schlechtem Gewissen leide, bin Physikerin ohne jedes böse Gewissen.“(Lise Meitner an Elisabeth Schiemann, 1915)

    Max Planck wird Lise Meitners wissenschaftliches und menschliches Vorbild. Da Frauen an preußischen Universitäten noch nicht zugelassen sind, ersucht Lise Meitner Max Planck, seine Vorlesungen hören zu dürfen. Max Planck erkennt Lise Meitner´s große wissenschaftliche Begabung und gestattet ihr nicht nur, seine Vorlesungen in theoretischer Physik zu besuchen.

    Neben der theoretischen Weiterbildung sucht Lise Meitner eine experimentelle Tätigkeit. 1907 beginnt die mehr als dreißigjährige Zusammenarbeit mit dem gleichaltrigen Radiochemiker Otto Hahn (Abbildung 2). Die Erforschung der Radioaktivität erfordert von Anfang an den gleichzeitigen Einsatz physikalischer und chemischer Methoden. Meitner und Hahn ergänzen sich in ihrer Zusammenarbeit ideal.

    Lise Meitner & Otto HahnAbbildung 2. Lise Meitner und Otto Hahn 1913. Kaiser Wilhelm Institut für Chemie, Berlin-Dahlem (Bild: Wikipedia)

    Zu den Laboratorien der Universität hat Lise Meitner als Frau keinen Zugang. Gemeinsam mit Otto Hahn experimentiert sie in einer ehemaligen Tischlerwerkstatt. Sie arbeitet zunächst unentgeltlich als Gast und lebt von der Unterstützung ihrer Eltern in einem kleinen Untermietzimmer; oft überlegt sie, ob sie Zigaretten oder Brot kaufen soll.

    In den ersten gemeinsamen Arbeitsjahren konzentrieren sich Meitner und Hahn auf die Untersuchung von radioaktiven Elementen und ihren Zerfallskonstanten.

    Ab 1910 spezialisiert sich Lise Meitner auf die Untersuchung der radioaktiven Betastrahlen. Lise Meitner gehört bald zu dem Kreis führender Wissenschaftler und nimmt an den legendären, von Max von Laue geleiteten "Berliner-Mittwoch-Kolloquien" teil, in denen die aktuellen physikalischen Themen besprochen werden. Sie hat Gelegenheit zu fruchtbaren Diskussionen mit Max Planck, Max von Laue, Gustav Hertz, Peter Pringsheim, Albert Einstein, James Franck und Otto von Baeyer.

    1912 wird Lise Meitner Max Plancks Assistentin und hat mit 33 Jahren zum ersten Mal eine bezahlte Anstellung. Sie ist "der erste weibliche Universitätsassistent" Preußens. 1912 übersiedeln Meitner und Hahn in das Kaiser-Wilhelm-Institut für Chemie in Berlin-Dahlem. Die neuen Laboratorien haben den Vorteil, nicht radioaktiv kontaminiert zu sein.

    Von August 1915 bis Oktober 1916 arbeitet Lise Meitner als Röntgenassistentin in österreichisch-ungarischen Lazaretten.

    1917 entdecken Meitner und Hahn nach jahrelangem Experimentieren die Muttersubstanz des Actiniums, die den Namen Protactinium erhält.

    1917 wird Lise Meitner der Titel Professor verliehen; sie wird Direktorin einer für sie geschaffenen radiophysikalischen Abteilung am Kaiser-Wilhelm-Institut und löst sich nun in ihrer Arbeit völlig von Otto Hahn. 1922 habilitiert sich Lise Meitner bei Heinrich Rubens und Max von Laue mit der Arbeit "Über die Entstehung der Betastrahlspektren radioaktiver Substanzen". Habilitationskolloquium und -vortrag werden ihr erlassen.

    In den Jahren 1922-1925 klärt Lise Meitner wesentliche Eigenschaften der Betaspektren auf. Sie leistet damit grundsätzliche Beiträge zum Verständnis des Aufbaus von Atomkern, Atomhülle und der Vorgänge beim radioaktiven Zerfall.

    Lise Meitner ist die erste, die erkennt, daß die Betastrahlen Atomelektronen entsprechen, die aus inneren Elektronenschalen, - das bedeutet hohe Energie - stammen. Diese werden durch die Absorption von Gammastrahlen ausgelöst, die aus dem Atomkern bei spontanen Umwandlungen freigesetzt werden. Die Energien der Betastrahlen entsprechen dem umgewandelten Atom. Damit weist sie nach, daß die Emission der Elektronen erst nach der Atomumwandlung (verbunden mit der Emission des Gammastrahls) erfolgt.

    Die Jahre zwischen 1917 und 1933 gehören zu den wissenschaftlich erfolgreichsten Jahren in Lise Meitners Leben.

    Als Adolf Hitler 1933 an die Macht kommt, verliert Lise Meitner durch das "Gesetz zur Wiederherstellung des Berufsbeamtentums" im September 1933 die Lehrbefugnis. Die Stellung am Kaiser-Wilhelm-Institut bleibt ihr als österreichische Staatsbürgerin erhalten. Trotz intensiver Interventionen von Planck und Hahn im Wissenschaftsministerium ist Lise Meitner ab 1933 von allen universitären Veranstaltungen ausgeschlossen.

    Max Planck, Max von Laue und Werner Heisenberg schlagen Lise Meitner mehrfach für den Nobelpreis vor. Diese soziale und wissenschaftliche Isolation ist ausschlaggebend, daß sie 1934 wieder eine gemeinsame Arbeit mit Otto Hahn initiiert, die Erzeugung von den sogenannten Transuranen: Elemente, die bei Beschuss von Uran mit Neutronen entstehen und daher schwerer als Uran sind. Der analytische Chemiker Fritz Straßmann wird 1934 zu den Experimenten zugezogen.

    Nach dem Anschluss Österreichs im März 1938 wird Lise Meitner Reichsdeutsche, die Rassengesetze gelten nun auch für sie. Ihre Lage am Institut verschlechtert sich dramatisch. Am 10. Juli 1938 schickt das Team Meitner, Hahn, Straßmann die letzte gemeinsame Arbeit an die "Naturwissenschaften". Am 13. Juli 1938 flieht Lise Meitner mit einem Handkoffer über einen wenig frequentierten Grenzübergang in die Niederlande.

    In den Jahren 1908-1938 publiziert sie 59 Arbeiten alleine und 68 Arbeiten gemeinsam mit Otto Hahn und anderen.

    JAHRE DES EXILS: STOCKHOLM - CAMBRIDGE 1938-1968

    „Etwas komme ich mir wie ein Toter vor, dessen Stimme nicht mehr gehört werden kann“ (Lise Meitner an E. Schiemann 1939)

    Lise Meitner entschließt sich, die von Manne Siegbahn angebotene Stelle am neu gebauten Nobelinstitut in Stockholm anzunehmen. Die Arbeitsbedingungen am Institut von Siegbahn sind für sie extrem schlecht. Es fehlt an den einfachsten Arbeitsgeräten. Sie hat kaum menschlichen Kontakt, weder einen Laboranten noch einen Assistenten und bezieht das Gehalt eines Anfängers. Erst nach drei Jahren hat sie die Möglichkeit, eine Vorlesung zu halten.

    Die Entdeckung der Kernspaltung.

    In Berlin setzen Otto Hahn und Fritz Straßmann die gemeinsam mit Lise Meitner begonnenen "Transuranexperimente" fort (Abbildung 3). Beim Beschuß des Urankerns mit Neutronen weisen Hahn und Straßmann ein Element nach, das sich chemisch wie das "leichte" Element Barium und nicht wie das erwartete "schwere" Transuran verhält. Otto Hahn informiert nicht seine Mitarbeiter am Institut, sondern bittet seine Kollegin in Stockholm um eine physikalische Erklärung.

    Im Dezember 1938 beginnt ein reger Briefwechsel zwischen Berlin und Stockholm, der den Ablauf der Berliner Experimente und die wesentlichen Beiträge, die Lise Meitner zur Deutung der Kernspaltung leistet, kommentiert: Briefwechsel zur Kernspaltung).

    Versuchsanordnung zum Nachweis von TransuranenAbbildung 3. Versuchsanordnung mit der Meitner, Hahn und Straßmann nach Transuranen suchten und mit der 1938 die Kernspaltung entdeckt wurde.(Bild: Wikipedia)

    Ende Dezember 1938 berichtet Lise Meitner ihrem Neffen Otto Robert Frisch über die Ergebnisse von Hahn und Straßmann. Meitner und Frisch erklären das Zerplatzen des Urankerns. Das "Zerplatzen" des Urankerns in zwei Bruchstücke mit Hilfe des Bohrschen Tröpfchenmodells. Sie schätzen nach Einsteins Formel E=mc2 die frei werdende Energie ab. Für den Vorgang des Zerplatzens eines Urankerns durch Neutronenbeschuß in zwei leichtere Bruchstücke prägen sie den Begriff "nuclear fission" bzw. Kernspaltung.

    Für die Entdeckung der Kernspaltung erhält Otto Hahn den Nobelpreis für Chemie 1944. Meitner und Straßmann werden nicht berücksichtigt.

    Lise Meitner und Otto Hahn ist die Gefährlichkeit der Auswirkung der Kernspaltung voll bewußt. Beide sprechen sich gegen die Erzeugung von Kernwaffen aus.

    Meitner, Hahn und Straßmann sind an der Entwicklung der Atombombe völlig unbeteiligt. Es ist unwahrscheinlich, daß Lise Meitner Kenntnis von den Arbeiten in den USA und in England hatte.

    Im August 1945 fallen Atombomben auf Hiroshima und Nagasaki.

    Lise Meitner rückt als Mitentdeckerin der Kernspaltung in das Licht der Öffentlichkeit; in Europa und USA werden zahlreiche Interviews mit ihr veröffentlicht.

    Lise Meitner macht ihrer engsten Freundin der Biologin Elisabeth Schiemann, aber auch Otto Hahn und Max von Laue und anderen Kollegen in Deutschland den Vorwurf, passiv und ohne Widerstand das Hitlerregime hingenommen zu haben. Im Juni 1945 schreibt sie an Otto Hahn einen Brief, der ihn aber nie erreicht hat: Lise Meitner macht Otto Hahn den Vorwurf, ihren Anteil an der Kernspaltung nicht genügend gewürdigt und sie nur als "seine Mitarbeiterin" bezeichnet zu haben.

    Zwischen Meitner und Hahn kommt es immer wieder zu Spannungen, Kontroversen und Mißverständnissen, die sich bei persönlichen Aussprachen und in Briefen im Laufe der Jahre auflösen.

    Ende 1945 nimmt Lise Meitner eine Gastprofessur an der katholischen Universität in Washington D.C. an und hält ein Semester lang Vorlesungen über Kernphysik. Sie wird von Präsident Truman empfangen, erhält vier Ehrendoktorate und wird wegen ihres Beitrages zur Kernspaltung zur Frau des Jahres gewählt, wie Jahre zuvor Marie Curie.

    1950 besucht sie zum ersten Mal wieder ihre Heimat Österreich. Es ist der erste von vielen weiteren Besuchen. Lebenslang behält sie die österreichische Staatsbürgerschaft, 1950 nimmt sie die schwedische Staatsbürgerschaft nur unter der Bedingung an, die österreichische behalten zu können.

    Lebensabend in Cambridge

    Mit 82 Jahren übersiedelt Lise Meitner von Stockholm nach Cambridge, um in der Nähe ihrer Verwandten zu leben. Auch im hohen Alter macht sie viele Reisen; sie hält Vorträge in den Vereinigten Staaten, Deutschland und Österreich. Weihnachten 1964 fährt sie mit 86 Jahren zum letzten Mal in die Vereinigten Staaten und hält Vorlesungen.

    Lise Meitner stirbt wenige Tage vor ihrem 90. Geburtstag in einem Pflegeheim in Cambridge. Auf ihren Wunsch wird sie auf dem kleinen Dorffriedhof von Bramley in der Nähe von Cambridge beigesetzt.

    Lise Meitners letztes öffentliches Auftreten im kleinen Kreis ist die Entgegennahme des Enrico Fermi Preises am 23. Oktober 1966 in Cambridge. Ihre Dankesworte sind:

    ... Es ist alles so schwierig geworden, weil wir an den alten Grundlagen hängen, die nicht mehr da sind. Es ist in der Politik nicht anders als in der Kunst. Überall ist es ein Suchen nach neuen Grundlagen, nach neuen Ausdrucksformen und wenig bewußter Wille, sich gegenseitig zu verstehen und sich zu verständigen ... Wir lernen langsam. Trotzdem glaube ich daran, daß es einmal wieder eine vernünftige Welt geben wird, auch wenn ich es nicht mehr erleben werde."


     

    inge Thu, 20.09.2012 - 05:20

    Zentralismus und Komplexität

    Zentralismus und Komplexität

    Do, 13.09.2012- 00:00 — Peter Schuster

    Icon Politik & GesellschaftPeter Schuster

    Zentralismus versagt in der Kontrolle hochkomplexer Systeme. Ein eindrucksvolles Beispiel aus den Regulationsmechanismen der Natur. Die Ineffizienz zentraler Kontrollen ist uns allen aus unserem täglichen Leben bekannt. In der Natur ist das Problem der Regulation komplexer Systeme, wie der Genexpression in höheren Organismen, durch ein Zusammenspiel von zentraler und dezentralisierter Kontrolle gelöst.

    Die Aussage, daß eine zentrale Kontrolle großer, komplexer Einheiten zum Scheitern verurteilt ist, stellt eine Binsenweisheit dar. Wirtschaft und Gesellschaft untermauern die Gültigkeit dieser Aussage durch zahllose Beispiele in der Vergangenheit und Gegenwart, welche beweisen: Systeme werden ineffizient, sobald sie eine kritische Größe überschreiten. Bereits in frühen Zeiten waren sich kluge Herrscher dieses Problems bewußt und haben dem eine Strategie des „divide et impera“ entgegengesetzt.

    Die Natur scheint eine elegante Lösung für die Regulation ihrer großen, hochkomplexen Systeme gefunden zu haben, indem sie modulare Strukturen verwendet und die Module darin partielle Autonomie besitzen. Das beste Beispiel dafür ist der Vielzeller-Organismus, in welchem jede einzelne Zelle über gerade so viel Autonomie in ihrem Stoffwechsel verfügt, als toleriert werden kann ohne dem gesamten System Schaden zuzufügen: Ein wenig mehr Unabhängigkeit für somatische Zellen und unlimitiertes Wachstum – ein Tumor – kann entstehen.

    Zentrale Kontrolle in Bakterien

    Die Regulierung von Stoffwechsel und Vermehrung der einfachsten Lebensformen, der Bakterien, wird noch zentral gesteuert. Um möglichst effizient zu bleiben, sich möglichst effizient zu vermehren, ist den Bakterien in der Größe ihres Genoms aber eine Obergrenze gesetzt. Wie aus der Sequenzierung von mehr als tausend bakteriellen Genomen hervorgeht, ist es die darin enthaltene Zahl an regulatorischen Genen, welche die Größe des Genoms limitiert [1, 2]: Bakterien mit einem kleinen Genom von einigen hundert Genen besitzen nur wenige dieser regulatorischen Gene. Mit wachsender Größe des Genoms nimmt deren Zahl aber in einer quadratischen Funktion zu (Abbildung 1) und führt schließlich dazu, daß jedes der nicht-regulatorischen Gene – welche ja für die in Stoffwechsel und Vermehrung essentiellen Proteine kodieren - ein eigenes regulatorisches Gen zur Steuerung besitzt. Es ist evident, daß eine weitere Steigerung dieses „Überwachungs-/Kontrollsystems“ zu „kostspielig“ wird, eine maximale Größe erreicht ist.

    Anzahl regulatorische GeneAbbildung 1. Die Zahl der regulatorischen Gene im bakteriellen Genom wächst mit dessen Größe im quadratischen Ausmaß. Die Zahl der Gene im Genom und die Zahl der Regulatorgene sind im logarithmischen Maßstab dargestellt. Meßwerte in Grün stammen von Archäbakterien, in Blau von Bakterien. Bild modifiziert nach Croft et al., [2].

    Zusammenspiel von zentraler Kontrolle und dezentralisierter Regulation in höheren Organismen

    Eukaryonten – das sind alle höheren Organismen von der Hefe bis zum Menschen – benutzen für die Regulation ihrer wesentlich komplexeren Systeme der Genexpression ein Zusammenspiel von zentraler Kontrolle und dezentralisierter Regulation:

    • Zentral ist dabei die genetische Kontrolle auf der DNA-Ebene, d.h. auf der Ebene der Übersetzung der in den Genen festgelegten, noch rohen Baupläne für Proteine.
    • Dezentralisiert erfolgt die Regulation der in die Vorläufer-Messenger RNA (pre-mRNA) kopierten (transkribierten) Baupläne durch alternatives Auseinanderschneiden (splicing) und Zusammenfügen von Abschnitten der pre-mRNA zu reifen Messenger-RNAs, den für die Synthese der Proteine verwendeten Vorlagen (siehe unten, Abbildung 2) und
    • Eine Reihe von epigenetischen Regulationsmechanismen greifen am Gen selbst oder in späteren Phasen der Übersetzung regulierend ein.

    Die Erforschung des Zusammenwirkens dieser Mechanismen ist neuesten Datums, basierend auf der im Human Genome (HUGO) Projekt erfolgten Entschlüsselung des menschlichen Genoms, d.h. aller Gene, welche die Baupläne für die den Aufbau und Stoffwechsel unseres Organismus bestimmenden Proteine enthalten. Damals, im Jahr 2001, war die Verwunderung groß, als beim Menschen mit rund 22 000 für Proteine kodierenden Genen nicht viel mehr Gene als beispielsweise beim Wurm Caenorhabditis (rund 19000 Gene) festgestellt wurden und diese insgesamt nur rund 1,5 % des gesamten Genoms ausmachten.

    Das ENCODE-Projekt

    Welche Funktion haben nun die restlichen – nicht für Proteine kodierenden – 98,5 % der DNA, sind diese nicht – wie häufig angenommen - zum Großteil nur Müll (junk DNA)? Ein riesiges internationales Team von 442 Forschern hat sich mit dem „Encyclopedia of DNA Elements (ENCODE)-Projekt“ die systematische Erkundung aller funktionellen Elemente der DNA zum Ziel gesetzt und vor wenigen Tagen die ersten Ergebnisse in rund 30, öffentlich zugänglichen Publikationen veröffentlicht [2]. Demnach konnten bereits zu rund 80 % der DNA biochemische Funktionen zugeordnet werden, die direkt – zentral - am Chromosom oder indirekt über RNA-Transkripte, die nicht in Proteine übersetzt werden und über weitere Mechanismen regulieren wann, in welchen Zelltypen, unter welchen Bedingungen und in welchem Ausmaß Gene abgelesen und in Proteine übersetzt werden.

    Für unsere Frage nach zentraler und dezentraler Regulierung kommt dabei besondere Bedeutung dem Mechanismus zu, mit dem die ursprünglich in der genetischen Information vorhandenen Baupläne in funktionelle Proteine übersetzt werden, dem Vorgang des alternativen Splicing der pre-mRNA (siehe oben).

    Hier wendet die Natur erfolgreich ein Modul-Schema an (Abbildung 2): Dasselbe Stück DNA, das von einem Gen in eine pre-mRNA transkribiert wird, kann durch unterschiedliches Herausschneiden und Zusammenfügen diverser Abschnitte zur Bildung mehrerer reifer mRNA Moleküle und in der Folge zu unterschiedlichen Proteinen führen. Wie ENCODE zeigt, folgt diese Expression keiner minimalistischen Strategie: abhängig vom individuellen Organismus und den Zelltypen/Geweben in welchen die Expression stattfindet, entstehen aus einer pre-mRNA simultan bis zu 10 – 12 Isoformen, wobei jeweils zumindest zwei Isoformen vorherrschen.

    Genexpression und SpleißenAbbildung 2. Genexpression und Alternatives Spleißen in eukaryontischen Zellen: Aus ein und demselben Gen, das in eine pre-mRNA kopiert (transkribiert) wurde, entstehen durch Alternatives Spleißen dieser pre-mRNA mehrere unterschiedliche reife mRNAs und aus diesen durch Proteinsynthese an den Ribosomen (Translation) eine Reihe verschiedener Protein-Isoformen.

    Zweifellos ist das von ENCODE gezeichnete Bild noch ein sehr unvollständiges, und wir müssen auf Überraschungen gefasst sein. Was aber als gesichert angesehen werden kann, ist, daß es Eukaryonten gelungen ist, durch dezentrale Regulierungsmechanismen – einem „divide et impera“ - die Limitierung in der Anzahl ihrer Gene aufzuheben und höchstkomplexe Systeme zu steuern.

    Zentrale – dezentrale Kontrolle: Versuch einer ökonomischen Betrachtung

    Um eine grobe Abschätzung der unterschiedlichen „Kosten“ von zentraler versus dezentraler Kontrolle zu treffen, wollen wir ein zentral reguliertes, 10 000 Gene enthaltendes Genom eines Bakteriums vergleichen mit einem gleich großen, virtuellen System, das aber aus 10 lokal regulierten Genomen zu je 1000 Genen bestehen soll:

    Im Fall der zentralen Organisation werden – wie aus Abbildung 1 ableitbar - rund 1200 Regulatorgene benötigt [1, 2]. Im dezentralen System reicht dagegen ein kleines Zentrum - beispielsweise mit 180 Regulatorgenen (jeweils 4 Gene für die insgesamt 45 paarweisen Wechselwirkungen) – aus um die Aktivitäten der 10 Untersysteme kontrollieren, je 12 Gene pro Untersystem sollten für dessen Regulation genügen und jeweils 2 „Kontrolloren“ für die Meldungen aus den Untersystemen an das Zentrum. In Summe könnte damit das skizzierte dezentralisierte Modell mit insgesamt 320 Regulatorgenen - einem Viertel des Bedarfs des zentralen Modells - sein Auslangen finden.

    Fairerweise muß man dazu anmerken, daß bei einem Einsparen von rund ¾ der Kontrolloren im dezentralisierten Modell auch einiges an Information verloren gegangen ist. Der Großteil der Kontrollfunktionen wird lokal geregelt, das „Nachrichten-Hauptquartier“ erhält gerade soviel an Information, wie für das Management der Wechselwirkungen zwischen den Untersystemen absolut erforderlich ist und kann damit kaum Planungen für die Zukunft des gesamten Systems anstellen. Derartige Konzepte können ja kaum ohne ein umfassendes Bild des gesamten Umfeldes und der daraus abgeleiteten Schlußfolgerungen erstellt werden.

    Der Darwin`sche Mechanismus einer Optimierung durch Variation und Selektion braucht sich aber um die Zukunft nicht zu kümmern, da er ja nach einem Prinzip von „trial and error“ vorgeht. Für sich allein existierende Vielzeller-Organismen können damit leicht mit einem Mindestmaß an zentraler Kontrolle und „Zukunftsplanung“ auskommen. Natürlich ändert sich die Situation, wenn es um Gesellschaften im Tier- und Menschenreich geht. Erziehung und Lernen des einzelnen Individuums verändern hier den Darwinischen Mechanismus in einen Lamarckschen: Information, die ein einzelnes Mitglied der Gesellschaft erhalten hat, kann schnell und weitgehend auch an zukünftige Generationen weitergegeben werden, zentralisierte Prognosen über zukünftige Entwicklungen liegen daher im Interesse der Gesellschaft. Ein Zuviel an Föderalismus, ein Zuwenig an zentraler Steuerung ermöglichen hier kaum eine erfolgreiche Planung für die Zukunft. Dazu möchte ich nur ein zur Zeit wichtiges Beispiel anführen: das Versagen einer weltweiten Reduktion der Kohlendioxyd-Emissionen trotz eindeutigen Nachweises von dessen Notwendigkeit.

    Schlußfolgerung aus akademischer Sicht

    Die Ineffizienz zentraler Kontrollen kennen wir alle aus unserem täglichen Leben. Wenn man an einer großen Universität mit mehr als 80 000 Studenten arbeitet, möchte man die Lehre aus dem Beispiel der Bakterien ziehen, daß die Größe eines Systems limitiert ist, das zentral verwaltet werden kann. Für eine dezentralisierte Universitätsverwaltung sprechen viele Gründe, einer davon liegt darin die Kosten für die „Overheads“ gering zu halten, da diese ja die ohnehin stark begrenzten Mittel der Forschungsgelder dramatisch reduzieren:

    Wir sollten daher auf unsere Forschungstätigkeit fokussiert sein und nicht darauf unsere Dekane und Rektoren permanent über Ideen und Planungen zu unterrichten, die sich möglicherweise nicht realisieren lassen, wenn wir - wie es ja unsere Aufgabe ist - ins Neuland vorstoßen. Der Erfolg dieses Vorgehens läßt sich an den Veröffentlichungen in der wissenschaftlichen Literatur sehr gut ablesen und bietet damit die Basis für Evaluierungen durch die zentrale Verwaltung. In den meisten anderen Belangen sollte sich diese aber heraushalten und kann damit so klein wie möglich gehalten werden.


    Einzelnachweise und Quellen:

    [1] EV Koonin, YI Wolf (2008) Genomics of bacteria and archaea: the emerging dynamic view of the prokaryotic world. Nucleic Acids Res. 36:6688-6719.

    [2] Croft, L.J.; Lercher, M.J.; Gagen, M.J.; Mattick, J.S.(2003) Is prokaryotic complexity limited by accelerated growth in regulatory overhead? Genome Biology, 5:P2

    [3] The ENCODE Project Consortium. An integrated encyclopedia of DNA elements in the human genome. Nature 489: 57- 74. 6 September 2012


    Glossar

    DNA: Desoxyribonucleinsäure; ein üblicherweise in Form eines Doppelstranges (Doppelhelix) vorliegendes Polymer, welches die primäre genetische Information aller Zellen enthält.

    RNA: Ribonucleinsäure. Polymere, welche unterschiedliche biochemische Funktionen ausüben können, in der Umsetzung von genetischer Information (Genexpression) ebenso wie als katalytisch aktive Moleküle.

    Pre-mRNA: primäres Transkript (Umschreibung) eines zu einem Gen gehörenden Abschnitts der DNA in ein mRNA-Molekül, durch alternatives Splicen entsteht daraus die messenger-RNA (mRNA).

    Alternatives Splicen: Abschnitte der pre-mRNA, die keine kodierende Informationen enthalten (Introns), werden entfernt und die verbleibenden Abschnitte (Exons) in unterschiedlicher Weise miteinander verbunden. Damit können aus ein und demselben Gen/derselben pre-mRNA mehrere verschiedene reife mRNA-Moleküle entstehen und aus diesen mehrere unterschiedliche Proteine.


    Weiterführende Links

    ENCODE: Encyclopedia Of DNA Elements (video 4,4 min) ENCODE, the Encyclopaedia of DNA Elements, is the most ambitious human genetics project to date. ENCODE: Encyclopedia of DNA Elements (video 6,5 min) Ewan Birney of EMBL-EBI, Tim Hubbard of the Wellcome Trust Sanger Institute and Roderic Guigo of CRG talk about ENCODE, an international project which revealed that much of what has been called 'junk DNA' in the human genome is actually a massive control panel with millions of switches regulating the activity of our genes.

    Read more about this at: http://www.embl.org/press/2012/120905_Hinxton.


     

    inge Thu, 13.09.2012 - 05:20

    Spielt unser Klima verrückt? Zur Variabilität der Klimaschwankungen im Großraum der Alpen

    Spielt unser Klima verrückt? Zur Variabilität der Klimaschwankungen im Großraum der Alpen

    Do, 06.09.2012- 05:20 — Reinhard Böhm

    Icon GeowissenschaftenReinhard Böhm

    Treten mit dem Klimawandel extreme Klimasituationen - Hitzewellen, Kältewellen, Trockenperioden und Starkniederschläge - immer häufiger auf? Die Analyse von 250 Jahren Klimavergangenheit aus direkten Messungen im Großraum Alpen (HISTALP) spricht dagegen.

    Im öffentlichen Diskurs wird es als erwiesen betrachtet, dass der Klimawandel mit einer Zunahme von Häufigkeit und Intensität extremer Wettersituationen einhergeht. So formulierte beispielsweise Erwin Mayer, ein Klimaexperte von Greenpeace, im Jahre 2005 „Heute gibt es in der Wissenschaft keine Zweifel mehr daran, dass das Klima immer extremer wird!“

    Zu diesem Thema hat sich der Weltklimarat IPCC (Intergovernmental Panel on Climate Change) in seinem jüngsten, 2012 erschienenen Bericht [1] allerdings sehr vorsichtig geäußert: „Confidence in observed changes in extremes depends on the quality and quantity of data and the availability of studies analyzing these data, which vary across regions and for different extremes“ und diesbezüglich angemerkt: „Extreme events are rare, which means there are few data available to make assessments regarding changes in their frequency or intensity.”

    Tatsächlich existiert ein ungewöhnlich langer und hochwertiger Datensatz aus dem Großraum Alpen, welcher auf die weltweit längste Tradition an Klimaaufzeichnungen – bis 250 Jahre in die Vergangenheit – zurückblicken kann. Diese Daten erfüllen die Ansprüche an Qualität und Quantität der Messreihen, an Dichte des Messnetzes und statistischer Signifikanz. Führt man an Hand dieser Klimadaten eine Analyse von Klimavariabilität und Klimaschwankungen aus, so findet man nur schwerlich einen Trend der Extremwerte, der vom Trend der Mittelwerte abweicht [2]. Im Gegenteil: Die Temperaturschwankungen sind in den letzten Jahrzehnten sogar geringer geworden. Es ist zwar wärmer geworden, aber die Schwankungen haben eindeutig nicht zugenommen.

    Klimadatensammlung aus dem Großraum Alpen

    HISTALP (Historical Instrumental Climatological Surface Time Series of the Greater Alpine Region) ist eine öffentlich zugängliche, internationale Klimadatenbank der Zentralanstalt für Meteorologie und Geodynamik (ZAMG) für den Großraum Alpen [3]. Diese Datenbank enthält in monatlicher Auflösung mehr als fünfhundert Zeitreihen von mehreren Klimaelementen (Temperatur, Luftdruck, Niederschlag, Sonnenscheindauer und Bewölkung), darunter 58 Langzeitreihen, die zumindest bis 1830 - einige davon bis vor 1800 - in die „frühinstrumentelle Klimaperiode“ zurückdatieren.

    Was bedeutet „Großraum Alpen“ (GAR: Greater Alpine Region)? Dieser schließt auch größere Gebiete Mitteleuropas und des Mittelmeerraums ein, wobei die Alpen eine scharfe Klimagrenze zwischen drei Hauptklimazonen (atlantisch, kontinental, mediterran) darstellen. Abbildung 1 zeigt die aktuelle Karte der Messstationen, wobei entsprechend den Klimazonen eine Regionalisierung in Subregionen Nordost, Nordwest, Südost und Südwest erfolgte.

    HISTALP StationsnetzAbbildung 1. HISTALP Stationsnetz (Stand 2008). Ein Netzwerk von ca. 200 Standorten und mehr als 500 einzelnen Klimazeitreihen, darunter 32 Langzeitreihen, die zum Teil bis 1760 zurückdatieren. Die objektiv analysierte Regionalisierung wird durch unterschiedliche Farben wiedergegeben, die Klimagrenzlinien sind eingezeichnet.

    Qualität der Messreihen. Da Messungen in frühen Perioden nicht unbedingt nach heutigen, standardisierten Kriterien stattfanden, wurde für diese Zeitabschnitte eine Anpassung an den aktuellen Zustand von Messstationen und Technologien durchgeführt. Diese Korrekturen von Fehlern und Inhomogenitäten – die sogenannte „Homogenisierung“ der Originaldaten – erfolgte hinsichtlich Änderungen des Standorts, der Instrumentierung, der Mess- und Auswertemethoden, der Umgebung und anderen wichtigen Kriterien. Beispielsweise wurden mehrjährige Parallelmessungen an einer historischen Installation und der modernen Gartenaufstellung in der Langzeitstation des Stifts Kremsmünster durchgeführt. Diese ermöglichten die Bestimmung der Abweichungen der historischen Messungen von den aktuellen Messungen und damit die Erstellung von Korrekturmodellen für den Vergleich der Messwerte der Gegenwart mit den historischen Abschnitten der Messreihen (Abbildung 2).

    Langzeitmessstelle Stift KremsmünsterAbbildung 2. Langzeitmessstelle im Stift Kremsmünster: Parallelmessung der Temperatur. Links: Historische Installation: 6 m vom Boden, Ausrichtung NNE, rechts: moderne Gartenhütte: 2 m vom Boden. Mitte: Differenz der gemessenen Temperatur: „historisch minus modern“ im Tagesverlauf, für die Monate Jänner – Juni.

    Zeitliche Auflösung der Messreihen – ausreichend um Klima-Extrema anzuzeigen? Der Datensatz HISTALP wurde zunächst für Zeitreihen in monatlicher Auflösung entwickelt: dadurch war es möglich die „instrumentelle Periode“ sehr weit in die Vergangenheit – bis maximal zum Jahr 1760 – auszudehnen. Die monatlichen Datensätze erweisen sich als durchaus geeignet vor allem die wirtschaftlich bedeutenden und großräumigeren Extremwerte verlässlich anzuzeigen: diese werden in monatlicher, aber auch saisonaler, jährlicher Auflösung gut sichtbar und voll analysierbar. Ein Beispiel dafür ist an Hand der Zeitreihen von lokalen Niederschlagsmengen in Abbildung 3 dargestellt. Die Debatte um Extremwerte als Folge des Klimawandels und um deren gravierende humanitäre und volkswirtschaftliche Folgen wird bei uns noch heute von der Hochwasserkatastrophe im August 2002 dominiert. Auch wenn die damaligen, enormen Niederschläge nur wenige Tage andauerten, treten sie in den Zeitreihen von Abbildung 3 überaus deutlich hervor. Dabei stellen die im Kerngebiet des Hochwassers gemessenen Monatssummen die absolut höchsten Werte auch der längsten Zeitreihen dar. Dass diese Katastrophe räumlich begrenzt war, wird aus den Messungen in den nicht sehr weit entfernten Städten Wien und Regensburg ersichtlich.

    Niederschlagszeitreihen für Aug. 2002Abbildung 3. Niederschlagszeitreihen für den Monat August im Kerngebiet der Hochwasser-Katastrophe im August 2002 und in entfernten Randgebieten. Die Niederschlagsmenge im August 2002 ist farbig (pink) hervorgehoben und mit dem Zahlenwert angegeben (Datenquelle: www.zamg.ac.at/histalp)

    Für die Zeit seit 1950 kann in Österreich für die Klimaelemente Minimum- und Maximumtemperatur sowie Niederschlagssumme nun auch auf rund 50 Zeitreihen in täglicher Auflösung zurrückgegriffen werden, die auf der Basis hochkorrelierter Referenz-Messstationen homogenisiert wurden.

    Analyse: 250 Jahre Klimavergangenheit [2]

    Es kann kein Zweifel daran bestehen, dass es in den letzten Jahrzehnten wärmer wurde, im Alpenraum sogar stärker als im weltweiten Mittel (Abbildung 4). Im Alpenraum können dabei zwei Phasen beobachtet werden: zwischen 1790 und 1890 kam es zu einer Abkühlung um rund 1 °C, in den darauffolgenden 116 Jahren zu einer Erwärmung um 1,48 °C. Im Vergleich dazu war die globale Erwärmung 1890 – 2005 mit 0,74 °C nur halb so hoch. (Globale Messsysteme existieren erst ab 1850.)

    Abweichungen der Jahrestemperaturen vom Mittelwert 1901-2000Abbildung 4. Abweichungen der Jahrestemperatur vom Mittelwert 1901 –2000. Mittlere Temperatur im Alpenraum (HISTALP-Datenbank): Abweichungen der Einzeljahre und 20-jährig geglättet (rot). Im Vergleich dazu das weltweite Ländermittel 1858 – 2005 (blau; Climatic Research Unit, Univ. East Anglia, Norwich).

    Mit der Klimaerwärmung werden natürlich auch Hitzewellen häufiger. Werden damit aber auch die Schwankungen insgesamt immer häufiger und stärker? Stimmt die allgemeine Ansicht, dass es kaum noch Übergangsjahreszeiten gibt, dass alle Jahreszeiten immer mehr durch extreme Kalt-Warm-Schwankungen gezeichnet sind? Unsere Studie [2] zeigt eindeutig, dass das nicht so ist. Dazu gibt es überraschende Ergebnisse (Abbildung 5):

    1. In den letzten 250 Jahren wurden im Alpenraum die saisonalen und jährlichen Schwankungsbreiten heiß-kalt, trocken-feucht nicht stärker und damit nicht extremer.
    2. Auch die letzten 30 Jahre, die stark durch den Einfluss des Menschen geprägt sind, zeigen im Vergleich zu den Jahrzehnten davor keinen Trend zu mehr Variabilität.
    3. In Langzeitverläufen zeigen sich bei Temperatur, Niederschlag und Luftdruck zwei lange Wellen der Variabilität mit einer Wiederkehrzeit von etwa hundert Jahren. Die Tatsache, dass dieser Zeitverlauf in allen drei, unabhängig von einander gemessenen Klimaelementen auftritt, spricht dagegen, dass es sich um Artefakte auf Grund unterschiedlicher Messtechnologien handelt. Variabler („verrückter“) war das Klima in der Mitte der beiden vergangenen Jahrhunderte, weniger variabel („ruhiger“) zu Beginn und Ende der Jahrhunderte. Diese langen Wellen lassen sich vorerst nicht erklären. Eine mögliche Ursache sind Wechselwirkungen mit den Ozeanen, die im Klimasystem sozusagen ein Langzeitgedächtnis besitzen.

    Veränderungen der Klimaschwankungen für die Klimaelemente Luftdruck, Temperatur und Niederschlag in den Subregionen NW, S, NE des AlpenraumsAbbildung 5. Veränderungen der Klimaschwankungen für die drei Klimaelemente: Luftdruck, Temperatur und Niederschlag in den drei Subregionen (NW, S, NE) des Alpenraums. Die Zeitverläufe stellen den 90 %-Bereich dar, innerhalb dessen die einzelnen Jahresmittel (bzw. -summen) in 30-jährigen Subintervallen gelegen sind. Die Subintervalle wurden „übergreifend“ (von Jahr zu Jahr fortschreitend) über die regionalen Zeitreihen berechnet.

    Fazit und Ausblick

    Die Analyse eventueller Trends von Extremwerten in der Vergangenheit erfordert lange und räumlich dichte Zeitreihen und eine sorgfältige Homogenisierung (siehe oben) dieser Datenreihen, um zu signifikanten Ergebnissen zu kommen, da ja die sehr seltenen, sehr starken Ausreißer das Ziel der Analyse sind. Trendanalysen auf der Basis der HISTALP Datenbank, die beide Voraussetzungen erfüllt, kommen zu folgenden Ergebnissen:

    • Mit der generellen Klimaerwärmung (Abbildung 4) steigen auch Extremwerte, die sich auf Hitze beziehen, und im gleichem Maß ist ein Rückgang der Kälteindizes zu beobachten. Eine umfassende Trendanalyse der oben erwähnten, in täglicher Auflösung verfügbaren homogenisierten Zeitreihen zeigt innerhalb Österreichs eine eher einheitliche Tendenz zu wärmeren Minimum- und Maximumtemperaturen.
    • Die Analyse dieser Zeitreihen hinsichtlich Niederschlagsindizes ergab deren größere räumliche Heterogenität. Eine Langzeitstudie in zwei benachbarten, durch den Alpenhauptkamm getrennten Tälern (Rauristal und Mölltal) der Region Hohe Tauern wies auf einen möglichen Ansatzpunkt für die Weiterentwicklung auf dem Gebiet der Zeitreihenanalysen von Klima-Extremwerten hin. Zumindest in dieser Region ist eine deutliche Ähnlichkeit der Trends von auf Tageswerten beruhenden niederschlagsbezogenen Extremwerten mit den Trends, bzw. den geglätteten Verläufen von Jahres-Gesamtniederschlägen zu sehen. Sollte dieses Ergebnisses auf andere Regionen übertragbar sein, könnte auch in Fällen unzureichender Extremwertindizes auf Tagesbasis eine Abschätzung auf der Basis homogenisierter Zeitreihen mit längerer Zeitauflösung getroffen werden.
    • Die Schwankungen in den Klima-Parametern haben in den letzten 30 Jahren, in einer von Menschen geprägten „Greenhouse Gas“ Atmosphäre, nicht zugenommen, für die Temperatur sogar abgenommen (Abbildung 5). Zumindest für den Großraum Alpen ist es also nicht unbedingt zu erwarten, dass zum Beispiel in Gegenden mit generell fallendem Niederschlagstrend (wie etwa im Südosten des Alpenbogens) ein Anstieg der Starkregen zu erwarten ist oder, im umgekehrten Fall in Regionen mit Niederschlagszunahme (wie etwa im Nordwesten des Alpenbogens) die Trockenperioden häufiger werden.

    -------------------------------------------------------------

    Nachweise und Quellen:

    [1] Special Report of the IPCC (2012): Managing the risks of extreme events and disasters to advance climate change adaptation (SREX)

    [2] R. Böhm (2012): Changes of regional climate variability in central Europe during the past 250 years. ; The European Physical Journal Plus 127/54, doi:10.1140/epjp/i2012-12054-6

    [3] R. Böhm et al., (2009): HISTALP (instrumentelle Qualitäts-Klimadaten für den Großraum Alpen zurück bis 1760).

    Wiener Mitteilungen 216, 7 – 20 (PDF-download)


     

    inge Thu, 06.09.2012 - 05:20

    Grausamer Hüter — Wie uns Schmerz schützt – oder sinnlos quält

    Grausamer Hüter — Wie uns Schmerz schützt – oder sinnlos quält

    Do, 30.08.2012- 00:00 — Gottfried Schatz

    Icon Gehirn

    Gottfried Schatz

     

    Nichts warnt so eindringlich vor Gefahr wie akuter Schmerz, nichts kann so zerstörerisch wirken wie chronischer Schmerz, der seine Signal- und Warnfunktion verloren hat. Der Kampf gegen den Schmerz (und seine überkommenen soziokulturellen Sichtweisen) hat neue, mechanistisch basierte Ansatzpunkte gefunden, deren therapeutische Umsetzung plausibel erscheint.

    Wir sehnen uns zeit unseres Lebens nach der Geborgenheit unserer Kindheit. Vielleicht hat Thomas Wolfe sein grosses Epos deswegen «Look Homeward, Angel» genannt. Wo ist mein Schutzengel geblieben, der mich einst behütete? Eltern und Lehrer, die ihn mir schenkten, haben ihn wohl mit sich ins Grab genommen. Dennoch bewahren mich auch heute noch unzählige winzige Hüter vor Gefahr. Es sind Sensoren meines Körpers, die mich sehen, hören, riechen, schmecken, fühlen – und Schmerz empfinden lassen.

    Sensoren

    Nichts warnt mich so eindringlich vor Gefahr wie der Schmerz. Er fällt mir in den Arm, wenn ich einen brühheissen Tee trinken, barfuss auf einen spitzen Stein treten oder ein gebrochenes Bein bewegen will. Und er lässt mich wissen, dass im Inneren meines Körpers etwas nicht im Lot sein könnte. Schmerz ist mein häufigster Grund für einen Arztbesuch. Die Schmerzsensoren an meiner Körperoberfläche sind dicht gesät, sprechen im Bruchteil einer Sekunde an und lassen mich den Schmerz millimetergenau orten. Die Sensoren meines Körperinneren reagieren viel langsamer. Sie sind zudem spärlicher gesät und sagen mir oft nicht genau, woher ein Schmerz kommt. Sie könnten mich sogar in die Irre führen und mir einen Herzschaden als harmlosen Schulterschmerz melden. Und mein Gehirn kann überhaupt keinen Schmerz empfinden.

    Wer keinen Schmerz fühlt, lebt gefährlich – und oft kurz. Vor einigen Jahren entdeckten Ärzte im Norden Pakistans eine Gruppe verwandter Menschen, die keinen Schmerz kennen. Viele von ihnen hatten sich als Kinder einen Teil der Zunge abgebissen oder Glieder gebrochen, ohne es zu bemerken. Und ein Knabe verdiente seinen Lebensunterhalt damit, vor Zuschauern über glühende Kohlen zu laufen oder sich ein Messer in den Arm zu stechen. Er starb, als er kurz vor seinem 14. Geburtstag von einem Hausdach sprang. Diese Menschen fühlen zwar den Stich eines Messers, empfinden ihn aber nicht als unangenehm. Sie sind völlig gesund – ausser dass ihnen ein intaktes Eiweiss fehlt, das in schmerzempfindlichen Nervenzellen ein elektrisches Signal auslöst. Manche Menschen besitzen eine überaktive Variante dieses Eiweisses, das ihr Gehirn mit grundlosen Schmerzsignalen überflutet und ihnen brennende und oft unerträgliche Schmerzen bereitet. Ihre hütenden Schutzengel wurden zu unbarmherzigen Folterern.

    Wir haben im Kampf gegen den Schmerz während der letzten zwei Jahrhunderte zwar entscheidende Schlachten gewonnen, den endgültigen Sieg aber noch nicht errungen. Ein Grund dafür ist, dass in unserem komplexen Körper Bewusstlosigkeit und Tod gefährlich nahe beieinander wohnen. Um Knaben den Schmerz der Beschneidung zu ersparen, würgten assyrische Ärzte sie vor dem Eingriff bis zur Bewusstlosigkeit – und oft auch noch darüber hinaus. Und so mancher schmerzlindernder Pflanzenextrakt erwies sich als Todestrunk. Der geniale Paracelsus erkannte zwar bereits um die Mitte des 16. Jahrhunderts die betäubende Wirkung von Äther, kam jedoch nicht auf die Idee, ihn zur Schmerzlinderung bei Operationen einzusetzen. So mussten Menschen noch fast drei Jahrhunderte lang das Grauen chirurgischer Eingriffe bei vollem Bewusstsein erleiden, bis am 13. Oktober 1804 der japanische Arzt Seishu Hanaoka der 60-jährigen Kan Aiya einen Brusttumor unter allgemeiner Betäubung entfernte. Zu dieser Zeit hatte sich Japan unter dem Tokugawa-Shogunat jedoch abgeschottet, so dass diese grossartige Leistung im Westen ebenso unbekannt blieb wie die Zusammensetzung des dabei verwendeten Pflanzenextrakts.

    Erst 1841 begann der 27-jährige amerikanische Provinzarzt Crawford Williamson Long, seine Patienten vor Operationen mit Äther zu betäuben. Da er seine Erfolge aber erst sechs Jahre später veröffentlichte, galt lange Zeit der ehrgeizige und umtriebige William T. G. Morton als Erfinder der Äthernarkose. Auf Äther folgte bald darauf Chloroform und schliesslich eine reiche Palette immer wirksamerer und sicherer Narkosegase, die heute nur noch äusserst selten tödliche Zwischenfälle verursachen. Wir wissen immer noch nicht genau, wie sie ihre segensreiche Wirkung entfalten. Wahrscheinlich binden sie sich an wasserabstossende Nischen in den Schmerzsensor-Proteinen und blockieren so deren Funktion.

    Unvernunft

    Im Kampf gegen den Schmerz mussten wir jedoch nicht nur die Komplexität unseres Körpers, sondern auch die menschliche Unvernunft überwinden. Für viele ist Schmerz gottgewollt und seine Bekämpfung Sünde. Heisst es nicht im Buch Genesis der Lutherbibel: «Und zum Weibe sprach er / Jch wil dir viel schmertzen schaffen wenn du schwanger wirst / Du solt mit schmertzen Kinder geberen»? Die buchstabengetreue Auslegung dieser fatalen Passage führte schon kurz nach den ersten Erfolgen der Äthernarkose zu heftigem Widerstand. Im Jahre 1865 untersagten die Zürcher Stadtväter diese Methode mit der Begründung, dass Schmerz eine natürliche und vorgesehene Strafe für die Erbsünde sei – und jeder Versuch, ihn zu beseitigen, unrecht sei.

    Selbst die angesehene Wissenschaftszeitschrift «The Lancet» zeigte sich im Jahre 1853 darüber schockiert, dass Königin Victoria ihr achtes Kind unter Chloroformnarkose geboren hatte. Solche Vorbehalte gehören heute der Vergangenheit an. Für mich ist schmerzfreie Chirurgie die grösste und menschlichste technische Erfindung der letzten zwei Jahrtausende. Als ich vor einigen Jahren wegen eines entzündeten Blinddarms auf dem Operationstisch lag und der Narkosearzt sich kurz vor dem Eingriff über mich beugte, vermeinte ich den Schutzengel meiner Kindheit wiederzuerkennen. Und insgeheim hoffte ich, er möge mein Ich in seine sicheren Hände nehmen und es mir unversehrt wieder schenken.

    Migräne, Krebs, Arthrose sowie Erkrankungen der Wirbelsäule oder der schmerzempfindlichen Nerven bereiten jedoch immer noch unzähligen Menschen unerträgliche Qualen, die selbst das gewaltige Morphium nicht immer lindern kann. Hier geben uns die schmerzfreien Pakistaner Hoffnung: Da sie trotz ihrem defekten Protein gesund sind, könnten wir dieses Protein in Schmerzpatienten vielleicht schon bald mit Medikamenten ausschalten und so den Teufelskreis des Schmerzes durchbrechen.

    Und die Psyche?

    Doch wie steht es mit unserem Kampf gegen psychische Schmerzen? Unsere Gesellschaft akzeptiert und bekämpft sie meist nur in Menschen, die offensichtlich geisteskrank sind, und betrachtet die Entzugsqualen eines Drogenabhängigen als selbstverschuldete und verdiente Strafe. Wie aber, wenn für manche Menschen das Leben ohne Drogen unerträglich wäre? Wie viele dieser Unglücklichen wählen wohl den Selbstmord als Ausweg? Weite Kreise unserer Gesellschaft finden es sündhaft – oder zumindest ungesetzlich – die psychischen Leiden scheinbar normaler Menschen mit «harten» Drogen zu lindern. Feiert die Anti-Narkose-Bewegung unseligen Angedenkens hier fröhliche Urständ? Und könnte diese Geisteshaltung daran mitschuldig sein, dass wir trotz enormen Anstrengungen auf bestem Wege sind, den «Krieg gegen die Drogen» zu verlieren? Die Frage ist zu vielschichtig für eine einfache Antwort – und dennoch müssen wir Antworten suchen. Wiederum kämpfen wir nicht nur gegen die Komplexität unseres Körpers, sondern auch gegen die Macht unserer Unvernunft.


    Anmerkungen der Redaktion

    Das in dem Artikel erwähnte, bei einigen pakistanischen Kindern festgestellte Fehlen von Schmerzempfindungen beruht auf Mutationen eines Gens (SCN9A). Dieses kodiert für das Protein Nav1.7 (einen Natrium-Kanal), welches eine essentielle Rolle in der Weiterleitung des Schmerzsignals spielt. Infolge der Mutation verliert Nav1.7 seine Funktionsfähigkeit und die Schmerzempfindung wird dadurch ausgeschaltet.

    Seit der Publikation dieses neuartigen Mechanismus im Jahr 2006 (J.J. Cox et al., „An SCN9A channelopathy causes congenital inability to experience pain" Nature 2006, 444: 894), haben sich mehrere Pharmaunternehmen zum Ziel gesetzt, das Protein Nav1.7 durch kleine synthetische Moleküle zu blockieren und damit Schmerzen unterschiedlichen Ursprungs auszuschalten. Von drei Firmen – Pfizer, Xenon und Convergence Pharmaceuticals – befinden sich chancenreiche Entwicklungskandidaten bereits in der klinischen Phase 2 – Prüfung an Patienten hinsichtlich Wirksamkeit und Fehlen von (limitierenden) Nebenwirkungen. Ergebnisse werden noch heuer erwartet.


    Weiterführende Links (in englischer Sprache)

    Der Übersichtsartikel „Hurt Blocker - The next big pain drug may soothe sensory firestorms without side effects” (R.Ehrenberg, 30. Juni 2012)


     

    inge Thu, 30.08.2012 - 05:20

    Carl Auer von Welsbach: Vorbild für Forschung, Entwicklung und Unternehmertum

    Carl Auer von Welsbach: Vorbild für Forschung, Entwicklung und Unternehmertum

    Do, 23.08.2012 - 00:00 — Inge Schuster

    Icon ChemieInge Schuster

    Der österreichische Chemiker Carl Auer von Welsbach (1858 – 1929) war Forscher, Entdecker, Erfinder und Unternehmer in einer Person. Seine drei großen Erfindungen - das Gasglühlicht, die Metallfadenglühlampe und der Zündstein - haben weltweit eine neue Epoche eingeleitet, seine auf diesen Erfindungen basierten Firmen florieren heute noch. Welcher Voraussetzungen bedurfte es zu derartig grandiosen Erfolgen?

    Das Auer von Welsbach Denkmal vor den Chemischen Instituten der Universität WienAbbildung 1: Das Auer von Welsbach Denkmal vor den Chemischen Instituten der Universität Wien. Details: Jüngling mit brennender Fackel an der Spitze. Inschrift auf der Rückseite

    Carl Auer von Welsbach kam 1858 in Wien zur Welt. Sein Vater stammte aus einer oberösterreichischen Flößerfamilie, hatte sich als Autodidakt zum Direktor der k.u.k. Hof-und Staatsdruckerei emporgearbeitet und daraus einen weithin berühmten, typographischen Musterbetrieb geschaffen. Der Sohn hatte Begabung, Bildungsdrang, enormen Fleiß und Durchsetzungskraft vom Vater geerbt, diesen in seinen Erfolgen aber weit übertroffen.

    Lassen sich Art und Weise, in der Carl Auer von Welsbach Forschung & Entwicklung betrieben hat, als Leitbild auf unsere Zeit übertragen?

    Welche Rolle spielten dabei persönliche Eigenschaften und Fähigkeiten, wie Bildung, Wissen, Expertise, Eigeninitiative, Kreativität und systematische Forschung, welche Risikobereitschaft und Geschick in finanziellen Belangen?

    Schlußendlich aber auch: welches Umfeld ermöglicht solche Erfolge?

    Der Weg zum Wissenschafter

    Auer von Welsbach hatte von Jugend an seine Interessen und Fähigkeiten richtig erkannt und eingeschätzt. Diese lagen überwiegend auf naturwissenschaftlichen Richtungen und waren gepaart mit einer besonderen Eignung für akribische experimentelle Arbeiten. So erklärt sich die Wahl der Studienfächer Chemie und Physik, vorerst an der Technischen Hochschule in Wien.

    Bereits nach drei Semestern entschloß er sich aber sein Studium in Heidelberg fortzusetzen, welches den Ruf eines Mekkas der Naturwissenschaften hatte und enorm viele Studenten und arrivierte Spitzenwissenschafter anzog.

    Insbesondere verdankte Heidelberg seinen Ruf einem Dreigestirn an Persönlichkeiten, die zusammen das gesamte Spektrum der damaligen Naturwissenschaften repräsentierten und außerordentlich zu deren Fortschritt beitrugen, nämlich dem Mathematiker und Physiker Gustav Robert Kirchhoff (1824-87), dem Universalgelehrten Hermann von Helmholtz (1821-94) und dem Chemiker Robert Bunsen (1811-99). Kennzeichnend für diese drei Wissenschafter waren ihr interdisziplinäres theoretisches und praktisches Wissen und ihre hervorragende Kooperation. Auf häufigen Spaziergängen diskutierten sie wissenschaftliche Fragen fachübergreifend, ohne auf Barrieren einzelner Disziplinen zu stoßen (dazu Bunsen: „Ein Chemiker, der kein Physiker ist, ist gar nichts“).

    An dem von Robert Bunsen geleiteten Chemischen Institut erhielt Auer seine wissenschaftliche Bildung, die prägend für sein Forschungsgebiet, die darin angewandten Methoden und die daraus resultierenden Innovationen wurde.

    Das Bunsensche Laboratorium

    Bunsen hatte Durchbrüche in der Chemie ebenso wie in der Physik erzielt. U.a. konstruierte er die Zink-Kohle Batterie (bis zur Erfindung des Dynamos die effizienteste elektrische Energiequelle), erfand die Wasserstrahlpumpe und entwickelte das Standardutensil jedes Laboratoriums, den sogenannten Bunsenbrenner (zusammen mit Peter Desaga) und die Schmelzfluß-Elektrolyse zur Reindarstellung von Metallen. Vor allem entwickelte er zusammen mit Kirchhoff die Spektralanalyse mit deren Hilfe ihnen die spektakuläre Entdeckung von zwei neuen Elementen – den Alkalimetallen Rubidium und Caesium – gelang.

    Das vielversprechende Potential der neuen spektroskopischen Methode – nicht nur als Werkzeug zur Entdeckung damals noch unbekannter Elemente, sondern beispielsweise auch zur Analyse des Lichts und damit der Zusammensetzung von Gestirnen - führte zu einem Ansturm von Studenten und Gast-Wissenschaftern aus aller Welt. Zwischen 1852 und 1889 dürften wohl mehr als 5000 Studenten und Gäste in dem Bunsenschen Laboratorium gearbeitet haben. Eine Liste der Mitarbeiter und Schüler [1] ist ein „Who is Who in Chemistry“. Daß „nur“ drei Mitarbeiter (Fritz Haber, Philip Lenard, Adolf von Baeyer) mit dem Nobelpreis ausgezeichnet wurden, ist darauf zurückzuführen, daß dieser erst von 1901 an verliehen wurde.

    In diesem wissenschaftlich zu Höchstleistungen stimulierendem Klima verbrachte Auer zwei Jahre (1880 – 82), arbeitete über Trennung und Spektralanalyse Seltener Erden und schloß mit der Promotion zum Doktor ab. (Seltene Erden sind eine Gruppe von 17 Metallen, die als Oxyde in Erzen vorliegen und auf Grund sehr ähnlicher chemischer Eigenschaften nur äußerst schwer voneinander getrennt werden konnten.)

    Seine Heidelberger Arbeiten hat Auer nach seiner Rückkehr nach Wien veröffentlicht.

    Der unabhängige Forscher und Erfinder

    In Wien konnte Auer von Welsbach die Forschungsarbeiten über Trennmethoden der Seltenen Erden nahtlos fortsetzen – neben einem hervorragenden theoretischen und experimentellen Know-How in diesem Gebiet, hatte er auch die benötigten Geräte, Materialien und sogar Gesteinsproben aus Heidelberg mitgenommen. Er arbeitete selbständig und selbstverantwortlich, als unbezahlter „Privatgelehrter“ vorerst in einem Labor des 2. Chemischen Instituts der Universität, dessen Vorstand der organische Chemiker Adolf Lieben war.

    Diese reine Grundlagenforschung führte bereits 1885 zur Entdeckung zweier neuer Elemente der Seltenen Erden, Praseodym und Neodym, die er in aufwändigsten Trennverfahren isoliert und charakterisiert hatte. Später entdeckte er zwei weitere Elemente, Ytterbium und Lutetium.

    Seine ausgefeilten Trennmethoden ermöglichten es Auer – dann bereits in seiner eigenen Firma in Atzgersdorf (s.u.) – 10 Tonnen Uranerzrückstände aus Joachimsthal aufzuarbeiten und daraus die weltweit größte Menge an Radium zu isolieren.

    Ausgehend von seinem Stammgebiet, den Seltenen Erden, und den dafür entwickelten Techniken schlug er neue Wege ein: In kreativer Weise verknüpfte er dabei Erkenntnisse und Methoden der Heidelberger Zeit mit neuen Ansätzen, die er mit Ausdauer, hohem handwerklichen Können und enormen Einsatz ausführte.

    Das Auersche GasglühlichtAbbildung 2: Das Auersche Gasglühlicht. A: Bunsenbrenner, B: Glühstrumpf mit Haltevorrichtung C. (Quelle:,.Bieler Anzeiger" No. 72, 25. März 1893).

    Erfindung des Gasglühlichts. Auf Untersuchungen zum außerordentlichen Strahlungsvermögen (Candoluminiszenz) von Seltenen Erden beruht die Erfindung des Gasglühlichts. Auer experimentierte mit Salzen unterschiedlicher Seltener Erden, mit denen er ein Baumwollgestrick imprägnierte, das in Form eines Strumpfes die Gasflamme des Bunsenbrenners umhüllte (Abbildung 2). Nach Veraschung des Gewebes blieb ein Gerüst aus den Oxyden der Elemente übrig, das in der Gasflamme hell strahlte: der Glühstrumpf. Auer war 27 Jahre alt als er das Patent für das erste „Gasglühlicht“ erhielt - einen modifizierten Bunsenbrenner, der den Glühkörper „Actinophor“ (aus Oxyden des Magnesiums und der Seltenen Erden Lanthan und Yttrium) zum Strahlen brachte -, 28 Jahre als er eine ehemals chemisch-pharmazeutische Firma in Wien-Atzgersdorf erwarb um dort (allerdings noch mit Mangel behaftete) Glühstrümpfe bereits in kommerziellem Maßstab herzustellen und 33 Jahre als das nun ausgereifte „Auerlicht“ – aus 99 % Thoriumoxyd und 1 % Ceroxyd - seinen globalen Siegeszug anzutreten begann.

    Das Auerlicht übertraf alle bis dahin bekannten Lichtquellen – auch die ersten elektrischen, von Thomas A. Edison entwickelten Kohlefadenglühlampen - an Leuchtkraft, längerer Lebensdauer (1000 h​) und niedrigeren Energiekosten. Bereits im ersten Jahr wurden 300 000, im zweiten 500 000 Auer-Brenner verkauft. In wenigen Jahren hatte sich der jährliche Umsatz an Glühstrümpfen allein in den USA auf 80 Millionen Stück erhöht [2].

    Dieser außerordentliche Durchbruch in der Lichttechnik wurde 1929 folgendermaßen beschrieben [3]:

    „In jener langen Spanne, beginnend mit dem Augenblick, in dem Prometheus die brennende Fackel zu den Menschen brachte und ihnen damit Feuer und Licht schenkte, bis zu jenem Zeitpunkt, da Auer seine Versuche anstellte, war stets nur glühender Kohlenstoff, die einzige Quelle künstlichen Licht gewesen, im Kienspan, in der Tranlampe, in der Kerze, im Petroleum, im Leuchtgas und in der Kohlenfadenlampe Edisons. Jetzt zum ersten Male lernte man wirkliche Lichtspender kennen, Licht war bisher nur gleichsam der Abfall der Wärmeerzeugung und der Verbrennung gewesen. Die Geburtsstunde des Auer-Strumpfes war gleichzeitig die Geburtsstunde der modernen Lichtwissenschaft und Lichttechnik“

    Erfindung der Metallfadenglühlampe. Trotz des wirtschaftlichen Erfolgs des Gasglühlichts beschäftigte sich Auer von Welsbach mit der Entwicklung einer innovativen elektrischen Glühlampe auf der Basis eines Glühfadens aus Metall. Um die Temperatur des Glühfadens und damit seine Leuchtkraft zu erhöhen, experimentierte er mit höchstschmelzenden Metallen, für deren schwierige Verarbeitung er erst ein neues Verfahren entwickelte – dies war der Beginn der Pulvermetallurgie. 1898 meldete er dann die erste Glühlampe mit einem Osmiumglühfaden – das Auer-Oslicht - zum Patent an, 1902 erfolgte die Markteinführung. Diese Lampe übertraf die Edison’sche Kohlefadenlampe an Lichtqualität, hoher Lebendauer und einem um 60 % niedrigerem Energieverbrauch und leitete den Siegeszug der elektrischen Beleuchtung ein. 1905 wurde der Osmiumglühfaden durch einen Glühfaden aus Wolfram ersetzt, dem Metall mit der höchsten Schmelztemperatur. Der Name, der von Auer gegründeten, weltbekannten Firma OSRAM (s.u.) ist eine Synthese der Namen Osmium und Wolfram.

    Erfindung des Zündsteins als Spin-off der Erzeugung von Gasglühstrümpfen. Als Rohstoff für die Erzeugung von Glühstrümpfen wurde Monazitsand aus Brasilien importiert, der viel Cer und wenig Thorium – die Hauptkomponente des Auer-Lichts – enthält. Dementsprechend sammelten sich große Halden an übriggebliebenem Cer an und Auer suchte nach einer Verwendung. Aus seiner Heidelberger Zeit kannte er die pyrophoren Eigenschaften des Metalls, d.h. bei mechanischer Bearbeitung Funken zu erzeugen, und entwickelte optimale Zusammensetzungen von Cer-Eisen-Legierungen mit dem Ziel, Zündvorrichtungen für Feuerzeuge, Gasanzünder und Gaslampen sowie zur Geschoß- und Minenzündung zu bauen. 1903 patentierte er diese Legierungen als „Auermetall“, aus welchem seitdem die Zündsteine aller Feuerzeuge gemacht sind.

    Der durchschlagende Erfolg seiner Erfindungen steigerte die Popularität Auers und zeigte auch, welcher Nutzen sich aus einer Verbindung von akademischer Forschung und kommerzieller Nutzung ergeben kann.

    Neben zahllosen hohen akademischen Auszeichnungen, Ehrenmitgliedschaften und Orden wurde Auer durch kaiserliches Dekret in den erblichen Adelsstand erhoben. Sein Wappen zeigt u.a. eine brennende Fackel und trägt die Inschrift „Plus Lucis“

    Der Unternehmer

    Auer von Welsbach besaß einen sechsten Sinn für vermarktbare Forschungs-Ergebnisse und daraus resultierendes Unternehmertum, aber auch für entsprechende Werbung für sich selbst und seine Produkte. Arbeitsweise, wissenschaftlicher Anspruch und wirtschaftliches Denken Auer von Welsbachs paßten ausgezeichnet in den Stil der damaligen Gründerzeit. Auer wirkte authentisch: er verkörperte sein Arbeitsgebiet voll, war überzeugt von der Bedeutung seiner Forschung und bereit für diese sich selbst und auch seine finanziellen Ressourcen einzusetzen. Im Bewußtsein des Marktpotentials seiner Ergebnisse sicherte er diese umgehendst durch weltweite Patente ab.

    Die Umsetzung von Innovationen zu kommerziellen Produkten erforderte zu allen Zeiten die Bereitstellung ausreichender finanzielle Ressourcen für die nötigen Investitionen. Anfängliche Forschungs-& Entwicklungsarbeiten Auers und sein Start als Unternehmer waren durch Vermögenswerte aus Familienbesitz und dem Erlös früher Patente gedeckt, nicht aber die Investitionen in Fabrikanlagen und deren Ausstattung, Rohmaterialien sowie in geeignetes Personal wie sie für eine Serienproduktion in großtechnischem Maßstab des Gasglühlichts und später der Metallfadenlampe benötigt wurden.

    Gründung der Deutschen Gasglühlicht Gesellschaft (heute OSRAM). Auer von Welsbach fand in dem Bankier Leopold Koppel einen passenden, visionären Partner. Koppel, ein Selfmade-Mann, der sich vom kleinen Bankgehilfen zum Millionär und Bankbesitzer emporgearbeitet hatte, erkannte das Potential, das in Auer’s Erfindungen steckte. Als Investor gründete er 1892 zusammen mit Auer als Erfinder die Deutsche Gasglühlicht Gesellschaft (später Auergesellschaft) mit dem Hauptsitz in Berlin und Tochterunternehmen in Österreich, England (Welsbach Company) und USA.

    Die Firmengründung erwies sich als nachhaltig. Mit dem beginnenden Siegeszug der Wolframfadenlampe - nach deren 1906 erhaltenen Warenzeichen - in OSRAM GmbH umbenannt, fusionierte der Konzern nach dem 1. Weltkrieg mit den Konkurrenten AEG und Siemens. Heute ist die OSRAM GmbH (im Besitz der Siemens AG) ein „Global Player“ in der Lichttechnik mit einem Marktanteil von 19 %, einem Umsatz von 4,69 Milliarden € und mehr als 41 000 Beschäftigten in rund 50 Tochterunternehmungen in aller Welt (Osram GmbH, Geschäftsbericht 2007).

    Gründung der Treibacher Chemischen Werke Ges.m.b.H. Die Verwertung der Patente zu seinen bahnbrechenden Produkten machte aus Auer einen reichen Mann der u.a. 1907 in Treibach (einem Teil der Gemeinde Althofen, Kärnten) ein High-Tech Unternehmen errichtete und damit die Seltenen Erden-Industrie begründete. Dieses Werk erwies sich als erfolgreich und wirtschaftlich stabil. Es ist heute ein Export-orientiertes Unternehmen mit den Schwerpunkten Seltene Erden, Metallurgie und Hochleistungskeramik. Es beschäftigt 670 Mitarbeiter und erreichte 515 Millionen € Jahresumsatz (Treibacher Industrie AG, Daten und Fakten 2007).

    Auer von Welsbach und das Umfeld einer modernen Forschungs- & Entwicklungslandschaft

    Auer hat sich lebenslang vor allem mit dem Thema „Seltene Erden“ beschäftigt und erreichte darin höchste wissenschaftliche und technische Kompetenz. Unabhängig in Planung und Ausführung seiner Projekte konnte Auer Beobachtungen erschöpfend analysieren und interpretieren. Die Frage „Warum?“ führte zu mehr und mehr Einblick in die komplexe Materie, die Frage „Wofür?“ zu kreativen Anwendungen, die Frage „Wie?“ zu methodischen Verbesserungen und technologischen Durchbrüchen.

    Im Vergleich dazu dominiert heute die Suche nach raschem Erfolg, führt zu schellem Wechsel von Zielvorgaben, und damit bleibt ungenügend Zeit um solides Wissen und Kompetenz im neuen Fachgebiet aufbauen zu können. Oberflächliche Kenntnisse und mangelhaftes Verstehen von Mechanismen und Techniken werden häufig kaschiert durch starre Vorschriften („Standard Operation Procedures“), welche die persönliche Arbeitsweise rechtfertigen. Wesentliche Untersuchungen werden in zunehmenden Maße auch an externe Auftragsfirmen vergeben („outsourcing“) und damit die Chance auf eigene Erfahrung vertan. Mangelnde Kompetenz führt vielfach zu unrichtiger Abschätzung von Potential und Risiko von Entwicklungsprodukten und daraus resultierend zu niedrigen Erfolgsraten bei gleichzeitig hohen Entwicklungskosten.

    Sicherheitsaspekte in Hinblick auf Einrichtungen, Methoden, Materialien, Mitarbeiterschutz und Sicherheit von Produkten, wie sie heute gelten, aber auch überbordender Bürokratismus hätten sicherlich einige der Arbeiten Auer von Welsbachs stark behindert, wenn nicht überhaupt unmöglich gemacht. Dies trifft beispielsweise auf den Umgang mit einem seiner wichtigsten Materialien, dem schwach radioaktivem 232Thorium zu. Vermutlich sähe das Produktespektrum Auers heute anders aus, zeugte aber ebenso wie damals von Exzellenz und Innovation.

    Wie werden Bildung, Forschung, Innovation heute gesehen? In ihrer Lissabon-Strategie hat die Europäische Union erklärt: „Damit ein wirklich wettbewerbsfähiger, wissensgestützter Wirtschaftsraum entstehen kann, muss Europa besser werden - bei der Hervorbringung von Wissen durch Forschung, bei dessen Verbreitung durch Bildung und bei dessen Anwendung durch Innovation. Dieses „Wissensdreieck“ aus Forschung, Bildung und Innovation funktioniert am besten, wenn die Rahmenbedingungen das Wissen begünstigen, das zum Nutzen der Wirtschaft und Gesellschaft zur Wirkung gebracht wird.“[4] Zur Förderung diese Ziels laufen EU Rahmenprogramme – zur Zeit das bis 2013 dauernde 7te Programm mit einem Volumen von 50 Milliarden Euro, welches „die Dynamik, die Kreativität und die herausragenden Leistungen der europäischen Forschung in den Grenzbereichen des Wissens verbessern soll.“

    Die Förderung der Kreativität als essentieller Triebkraft innovativer Leistungen muß dabei zweifellos ein Hauptanliegen sein.

    Kreativität und Umsetzung in innovative Leistung. Kreativität, allgemein verstanden als Originalität und Flüssigkeit des Denkens, Sensibilität gegenüber Problemen und Flexibilität der Ideen, benötigt ein geeignetes Umfeld um Ideen auch in Innovationen umzusetzen. Eine recht anschauliche Darstellung dieses Umfelds, entnommen der Financial Times Deutschland [5] zeigt ein Dreieck von drei von einander abhängigen Feldern, die das Zustandekommen kreativer Leistung bestimmen:

    Umfeld der Kreativität
    • Das Feld des Erkennens der persönlichen Begabungen und Defizite,
    • das Feld des Erkennens persönlicher Präferenz oder Ablehnung von Gebieten und
    • das Feld, das die Existenz oder das Fehlen von Ressourcen, von Unterstützung oder Behinderung zeigt.

    Ein Blick in unsere reale Welt der (angewandten) Forschung zeigt, daß wohl nur in den wenigsten Fällen optimale Bedingungen in allen drei Feldern vorliegen, es müssen also Kompromisse eingegangen und damit Abstriche in Wert und Qualität der umzusetzenden kreativen Ideen in Kauf genommen werden:

    • Persönliche Fähigkeiten und Kompetenz in einem Gebiet stoßen nicht unbedingt auf die nötigen Ressourcen – ein Umfeld, das vor allem akademische Forscher häufig vorfinden.
    • Persönliche Fähigkeiten gepaart mit ausreichenden Ressourcen aber wenig Freiraum im Arbeitsgebiet sind vielfach Charakteristika industrieller Forschung.
    • Ausreichende Ressourcen und Vorlieben für ein Themengebiet können ein Fehlen persönlicher Talente nicht wettmachen und höchstens mediokre Leistungen ergeben.

    Im Falle Auer von Welsbachs stimmte offensichtlich das gesamte Umfeld: Er war unabhängig, bestimmte selbst seine Spielregeln, wählte Forschungsgebiete aus, in denen er höchste Kompetenz mit persönlichen Begabungen verbinden konnte und verstand es dafür auch die nötige Unterstützung aufzutreiben. Sein Werdegang ist ein Beispiel für die Relevanz des von der EU Union proklamierten „Triangel des Wissens: Bildung, Forschung, Innovation“, insbesondere für die grundlegende Bedeutung einer exzellenten Ausbildung.

    Sollte sein Werdegang nicht dazu dienen um Rezepte abzuleiten, auf welche Art und Weise Durchbrüche in Grundlagenforschung und angewandter Forschung erzielt werden können?


    [1] Eine Bibliothek als beredte Zeugin eines umfassenden — Wandels des wissenschaftlichen Weltbilds; Teil 2 (PDF – Abruf: 20. August 2013)

    [2] Sidney Mason (1915) Contribution of the chemist to the incandescent gas mantle industry. J.Industr.Engin.Chem. April 1915, p.279

    [3] Robert Plohn (1929) Seltene Erden Das Lebenswerk Auer von Welsbachs (PDF – Abruf: 20.8.2013).

    [4] Vorausdenken, Optionen abwägen, die Zukunft gestalten: Zukunftsforschung für Europa. Schlussbericht der hochrangigen Expertengruppe für die Europäische Kommission. Abteilung RTD-K.2 – “Wissenschaftliche und technologische Zukunftsforschung; Verbindungen zum IPTS” September 2002.

    [5] Jürgen Fleiß. Kreativität Antriebskraft für den täglichen Erfindungsprozeß. Financial Times Deutschland.14.10.2007


    Weiterführende Links

    Webseite des Auer von Welsbach Museum in Althofen, die ausführliche illustrierte Details zur Biographie und den Forschungen und Erfindungen Auer von Welsbachs bietet. Das Museum selbst ist vom 1. Mai bis 26. Oktober täglich außer Montag geöffnet.


     

    inge Thu, 23.08.2012 - 05:20

    Das Element Zufall in der Evolution

    Das Element Zufall in der Evolution

    Do, 16.08.2012- 05:20 — Peter Christian Aichelburg

    Icon PhysikPeter Christian Aichelburg

    Die Bedingungen, die zur Entstehung und Entwicklung von Leben führten, sind eng mit der Entwicklung des gesamten Kosmos verknüpft. Wie sieht ein theoretischer Physiker die Aussage, die Evolution sei zufällig verlaufen.

    Nach der allgemein anerkannten Urknall-Theorie hat sich das Universum aus einer dichten, sehr heißen Urphase über nahezu 14 Milliarden Jahre zum heutigen Zustand in Form von Milliarden von Sternen zusammengeballt zu Galaxien und Galaxienhaufen, Superhaufen und Filamenten entwickelt, eingebettet in einen Kosmos der mit zunehmender Geschwindigkeit expandiert. Die heute beobachtbaren Strukturen des Universums sind also erst allmählich entstanden (Abbildung 1).

    UrknallAbbildung 1. Urknall-Modell: Entstehung und Expansion des Weltalls. Das anfänglich sehr dichte und heißere Universum enthielt im kosmischen Plasma Photonen, die vorerst an den geladenen Teilchen gestreut wurden, Nach der Abkühlung und Entstehung von Atomen konnten sich die Photonen nahezu ungehindert ausbreiten = Hintergrundstrahlung. Danach begann allmählich unter der Wirkung der Gravitation die Kondensation der Materie zu den Strukturen wie wir sie heute beobachten.

    Die biologische Evolution auf der Erde ist eng mit der Evolution des ganzen Kosmos verknüpft. Voraussetzung für das Leben auf der Erde war die Existenz von Kohlenstoff. Dieser kann aber nur im Inneren von Sternen durch Kernfusion entstanden sein: Waren in den ersten Sekunden nach der „Geburt des Kosmos“ aus der „Ursuppe“ von Elementarteilchen nur die leichtesten Atomkerne – Wasserstoff und Helium (und Spuren von Lithium, Beryllium) entstanden, so wurden die schwereren Elemente durch Kernfusionsprozesse im Innern der ersten, aus kollabierten Gaswolken entstandenen Sterne erzeugt. Somit ist die Entstehung von Leben erst nach dem Ausbrennen und Explodieren der ersten Sterne (Supernovae), das heißt erst ab der zweiten Sterngeneration möglich.

    Unsere Sonne entstand vor zirka 4,5 Milliarden Jahren aus Gaswolken, angereichert mit schweren Elementen, die von Explosionen früherer Sterngenerationen stammen, Damit begann die Evolution unseres Planeten Erde, auf der vor rund 3,5 Milliarden Jahre die ersten Lebensformen entstanden, deren immer weiter fortschreitende Evolution vor rund 6 Millionen Jahren zur Spezies Mensch geführt hat.

    Für die Entstehung von Leben bedurfte es anscheinend nicht nur besonderer Bedingungen in unserer unmittelbaren Umwelt, sondern im gesamten Kosmos.

    Was bedeutet nun die Aussage, die Evolution sei zufällig, das heißt ungerichtet, verlaufen?

    Ich möchte die Frage präziser fassen, um aufzuzeigen, dass eine klare Antwort vielleicht nicht so einfach ist. Ohne einer Designer-Theorie das Wort zu reden oder auf die Möglichkeit des Erkennens einer höheren Macht in den Naturgesetzen einzugehen.

    Nach Darwin entstanden die Arten durch Variation und Selektion. Heute wissen wir, daß Variationen durch Mutationen in der Erbsubstanz, der DNA, hervorgerufen werden. Die Kernaussage ist, dass diese Mutationen nicht zielgerichtet sind, das heißt, ihr Auftreten unabhängig davon ist, ob eine Mutation günstig für die Weiterentwicklung ist oder nicht. Die Ideen Darwins haben sich im Lauf der Zeit verfeinert: Evolutionsbiologen haben neben Mutation und Selektion noch andere, für die Evolution maßgebliche Mechanismen aufgefunden: Einschränkungen der Möglichkeit evolutionären Wandels bestimmen, wohin sich eine Art entwickeln kann, und wie sehr bestimmte Probleme ganz bestimmte Lösungen erzwingen. Die Evolution ist demnach keineswegs beliebig verlaufen.

    Dennoch bleibt der Zufall ein Element der Evolution.

    In der theoretischen Beschreibung wird das Auftreten von Mutationen durch Wahrscheinlichkeiten charakterisiert. Wie aber kommt es zu diesen? Biologische Abläufe werden auf der elementarsten Ebene durch physikalisch-chemische Prozesse beschrieben. Also erhebt sich die Frage: Woher kommt der Zufall in der Physik?

    Woher kommt der Zufall in der Physik?

    Würfeln als Prototyp für zufällige Resultate. Wenn jeder Augenzahl die Wahrscheinlichkeit 1/6 zugeordnet wird, ergibt sich nach einer großen Zahl von Würfen tatsächlich eine recht gute Gleichverteilung der Augenzahlen.

    Dennoch ist der Fall des Würfels in der klassischen Physik streng deterministisch, d.h. vorherbestimmbar: Wenn wir genau wissen, wie der Würfel die Hand verlässt und auch alle anderen Bedingungen (etwa Härte der Unterlage) genau beschreiben können, sollten wir voraussagen können, auf welche Augenzahl er fällt. Das ist zwar praktisch und auch theoretisch unmöglich, doch es geht hier ums Prinzip.

    Wieso aber stellt sich die mathematische Zufallsverteilung ein?

    Vereinfacht gesagt: Weil wir nicht darauf achten, wie wir werfen - im Gegenteil: Der Würfel wird manchmal vor dem Wurf in einem Becher geschüttelt. Genauer: Die Gleichverteilung der Augenzahlen kommt zustande, weil das Resultat sehr empfindlich auf auch nur kleine Änderungen des Wurfs ist und wir außerstande sind, völlig gleiche Würfe auszuführen.

    Wärmelehre – Beschreibung durch Wahrscheinlichkeiten. Der Wiener Physiker Ludwig Boltzmann hat Ende des 19. Jahrhunderts die Wärmelehre (Thermodynamik) auf statistische Mechanik zurückgeführt. Dabei wird etwa die Temperatur eines Gases als mittlere kinetische Energie der Atome (Moleküle) verstanden. Man interessiert sich nicht für die Bewegung einzelner Teilchen, sondern nur für gemittelte, also makroskopische Größen wie Temperatur. Hier kommt die Wahrscheinlichkeit ins Spiel: Ein Makrozustand ist umso wahrscheinlicher, je mehr mikroskopische Konfigurationen zu ihm gehören. (Daraus folgt z.B. dass zwei Körper mit zunächst unterschiedlichen Temperaturen ( mit an Gewissheit grenzender Wahrscheinlichkeit) sich im Laufe der Zeit angleichen. Diese Wahrscheinlichkeiten sind aber kein intrinsisches Element der klassischen Theorie, sondern werden durch die Beschreibung hineingetragen, weil wir eine vollständige Beschreibung nicht anstreben oder gar nicht dazu imstande wären.

    Oft wird chaotisches Verhalten als Quelle für zufällige Entwicklung genannt. Das ist missverständlich, denn dieses tritt bereits in streng deterministischen Systemen auf, deren Entwicklung in der Zeit eindeutig bestimmt ist. Wir sind nur außerstande, sie vorauszusagen, weil jede Messung nur mit endlicher Genauigkeit möglich ist.

    Der Zufall der Quantentheorie ist von ganz anderer Qualität: Wir beobachten im Mikrokosmos Ereignisse, deren Eintreten die Theorie prinzipiell nicht vorhersagen kann. Etwa den Zerfall eines radioaktiven Atomkerns: Niemand kann sagen, wann er stattfindet. Alles, was wir voraussagen können ist, mit welcher Wahrscheinlichkeit er in einem bestimmten Zeitintervall zerfällt. Dies gilt beispielsweise auch für die Aussendung eines Photons durch ein angeregtes Atom: Es lassen sich die Frequenz und die Wahrscheinlichkeit berechnen, aber wir können nicht den Augenblick voraussagen.

    Einstein hat sich stets gegen diese Konsequenz der Quantentheorie gewehrt. Auch andere Physiker haben nach "verborgenen Parametern" gesucht, um zu einer vollständigeren Beschreibung der Natur zu gelangen - ohne Erfolg. Nach unserem heutigen Wissen sind diese Wahrscheinlichkeiten der Natur immanent und nicht die Konsequenz einer unvollständigen Beschreibung.

    Bringt also die Quantentheorie den Zufall in die Evolution? Natürlich sind letztlich Atombindungen für die Kodierung in der DNA verantwortlich. Man weiß auch, dass Mutationen durch elementare Strahlungsprozesse ausgelöst werden können. Aber beschrieben werden sie eher als statistische Prozesse und damit durch klassische Wahrscheinlichkeiten.

    Unsere Beschreibung der Welt mittels der Quantentheorie ist zweifellos extrem erfolgreich. Ihre Gültigkeit bei der Erklärung lokaler Prozesse ist so gesichert, wie es eine physikalische Theorie nur sein kann. Macht es aber Sinn, sie auf das gesamte Universum anzuwenden?

    Liegt der Zufall schon im Urknall? Was heißt, das Universum ist mit einer bestimmten Wahrscheinlichkeit aus einer Quantenfluktuation des Vakuums entstanden?

    Welche Bedeutung hat dabei der Begriff "Wahrscheinlichkeit"?

    Wir kennen bis heute keine konsistente Quanten-Kosmologie, und niemand kann sagen, ob eine solche Theorie nicht die Grundlagen der heutigen Physik erschüttern und uns zwingen wird, den Zufall unter einer gänzlich neuen Perspektive zu beurteilen.

    Biologen werden zu Recht den pragmatischen Standpunkt einnehmen und darauf hinweisen, dass Evolutionsmodelle, die Wahrscheinlichkeitsverteilungen annehmen, sehr erfolgreich sind, ob es dafür eine weitergehende Erklärung gibt oder nicht. Aber erkenntnistheoretisch macht es einen Unterschied! So bleibt für mich offen: Liegt der Zufall in unserer Beschreibung, oder ist er ontologisches Element der Evolution?

    (Teile des Artikels sind dem in Der Presse publizierten Essay „Zufall in der Physik“ entnommen.)


    Weiterführende Links

    Video 2 - Vom Zufall und der Notwendigkeit in der Evolution (7:56 min) Prof. Dr. Axel Meyer (Universität Konstanz) Evolution - Nicht einfach nur Zufall - Logischer Zufall (1:34 min) Leben und Tod der Sterne ... (Doku; 26:44 min)


     

    inge Thu, 16.08.2012 - 05:20

    Chronische Entzündungen als Auslöser von Knochenschwund – Therapeutische Strategien

    Chronische Entzündungen als Auslöser von Knochenschwund – Therapeutische Strategien

    Fr, 9.08.2012 - 05:20 — Kurt Redlich & Josef Smolen

    Icon MedizinKurt RedlichJosef Smolen

     

    Entzündungsprozesse bewirken eine Aktivierung der knochenabbauenden Osteoklasten bei gleichzeitiger Blockierung der knochenaufbauenden Osteoblasten und sind damit wichtige, aber meistens ignorierte Ursachen für die Entstehung von Knochenschwund. Strategien zur Therapie des Knochenschwunds setzen bei der ursächlichen Bekämpfung des Entzündungsprozesses an, aber auch bei der Manipulation der für den Knochenumbau verantwortlichen Zellen.

    Die systemische Osteoporose kann als Begleiterkrankung verschiedener, chronisch-entzündlicher Erkrankungen auftreten. Ist bei diesen Erkrankungen die zugrunde liegende Ursache bekannt und kann beseitigt werden, so erweist sich dies auch als effiziente Therapie der assoziierten Osteoporose. Dafür können einige Beispiele angeführt werden:

    • Die Zöliakie ist eine chronisch-entzündliche Erkrankung der Schleimhaut des Dünndarms bedingt durch eine Überempfindlichkeit gegen Gluten-Bestandteile. Wird eine Gluten-freie Diät eingehalten, so kommt es auch zu einer raschen Besserung der Knochendichte.
    • Bei Patienten mit Parodontitis (ausgelöst durch Infektionen des Zahnfleisches) sind antibakteriell wirksame Tetrazykline auch erfolgreich in der Behandlung des systemischen und lokalen Knochenschwunds (allerdings dürften hier nicht nur antimikrobielle Aktivitäten dieser Medikamente zur Wirkung kommen).
    • Bei der Mukoviszidose, einer genetisch bedingten Stoffwechselerkrankung mit einer gesteigerten Bildung von klebrigem, zähflüssigen Schleimsekret (insbesondere in den Atemwegen und im Verdauungstrakt), kommt es zu wiederholten Infektionen, die für den systemischen Knochenschwund verantwortlich sein dürften: eine strenge antiinfektiöse Therapie führt auch hier zu einer Verbesserung der Knochendichte.

    Allerdings sind die Ursachen der meisten chronisch-entzündlichen Erkrankungen (noch) unbekannt. Daher sind hier therapeutische Strategien anzuwenden, die in spezifischer Weise den Entzündungsprozeß und essentielle Schritte in diesem Prozeß zum Ziel) haben.

    Behandlung von Knochenschwund – Allgemeines

    Wie bereits in unserem vorangegangenen Artikel beschrieben, sind entzündungsfördernde Botenstoffe (proinflammatorische Zytokine) nicht nur im finalen Verlauf der Entzündung wirksam, sie üben auch massive Effekte auf die Aktivitäten von Osteoblasten und Osteoklasten aus und führen damit zum systemischen Knochenschwund. Es ist daher ein wichtiges therapeutisches Ziel die Entzündung zu reduzieren, idealerweise diese zu eliminieren.

    Basistherapeutika. In einer prototypischen entzündlichen Erkrankung, wie der rheumatoiden Arthritis, beginnt die Standardtherapie mit synthetischen krankheitsmodifizierenden Antirheumatika (sogenannten “disease-modifying antirheumatic drugs“: DMARDs), wie dem bewährten Methotrexat. Mit diesen Basistherapeutika geht eine Verbesserung der Knochendichte einher. Solange allerdings die Erkrankung noch aktiv ist, kann auch der Knochenabbau weiter fortschreiten.

    Glukokortikoide. Das Entzündungsgeschehen wird häufig auch mit (synthetischen) Glukokortikoiden bekämpft, insbesondere in der chronisch obstruktiven Lungenerkrankung (COPD), der rheumatoiden Arthritis oder der chronisch-entzündlichen Darmerkrankung (IBD). Glukokortikoide sind Hormone, die eine Vielfalt unterschiedlicher Vorgänge im Stoffwechsel, im zentralen Nervensystem und im Immunsystem regulieren. Sie können den Entzündungsprozess zwar sehr effizient reduzieren, indem sie u.a. die Ausschüttung von entzündungsfördernden Zytokinen und Gewebshormonen blockieren, sie interferieren aber auch stark mit dem Knochenumbau und können damit zu Auslösern/Verstärkern der Osteoporose werden. Wenn Entzündungsprozesse mit Glukokortikoiden behandelt werden, müssen also geeignete Maßnahmen getroffen werden um den Knochenschwund zu verhindern. Eine ausreichende Zufuhr von Vitamin D und Calcium – aber auch Muskeltraining - sollte alle Behandlungen der Osteoporose begleiten.

    Biologika. Bei zielgerichteten medikamentösen Therapien, wie sie für verschiedene chronisch-entzündliche Krankheiten zugelassen sind, spielen seit rund einem Jahrzehnt Biologika, d.h. mit Mitteln der Biotechnologie hergestellte Produkte, eine zunehmend wichtigere Rolle: alle für die Behandlung der rheumatoiden Arthritis zugelassenen Biologika (Antikörper, Rezeptorkonstrukte) blockieren den lokalen Knochenschwund, einige der Produkte verbessern auch den systemischen Knochenschwund.

    Zielgerichtete Strategien zur Behandlung chronisch-entzündlicher Erkrankungen und Knochenschwund

    Im folgenden werden wesentliche Ansatzpunkte für zielgerichtete Therapien kurz beschrieben. Eine Auflistung zielgerichteter Therapeutika, die gegenwärtig für verschiedene chronisch-entzündliche Erkrankungen und/oder Knochenschwund zugelassen sind, findet sich abschließend in Tabelle 1.

    • Blockierung der Cytokine. Hier handelt es sich vorwiegend um die Blockierung der Entzündungsfaktoren Tumor Necrosis Factor Alpha (TNF-Alpha) und Interleukin (IL-1 und IL-6). Diese werden von unterschiedlicher Zelltypen gebildet, docken an der Oberfläche einer Vielzahl von Zelltypen an hochspezifische (Rezeptor-) Proteine an und lösen damit eine Kaskade von Entzündungsmediatoren und proteinabbauenden Enzymen aus, welche auf umgebende Gewebe zersetzend wirken. Die Blockierung erfolgt im wesentlichen durch spezifische gegen diese Cytokine gerichtete Antikörper, die damit die Verfügbarkeit der Cytokine reduzieren, oder durch Rezeptor-Konstrukte, welche die Bindung der Cytokine an deren eigentliche Zell-Rezeptoren und damit die Signalauslösung in der Zelle verhindern.
    • Blockierung von B- und T-Lymphocyten (B- und T-Zellen). Aktivierte B- und T-Zellen können auf verschiedenen Wegen die Bildung von Osteoklasten aus Vorläuferzellen beeinflussen, insbesondere auch auf Grund ihrer Expression des Proteins RANKL, das eine Schlüsselrolle im Knochenabbau spielt (Beschreibung siehe unten). Aktivierte T-Zellen interagieren mit anderen Zellen des Immunsystems und produzieren eine Reihe von pro-inflammatorischen Cytokinen. Die Aktivierung von T-Zellen kann durch spezifische, gegen ein (ko-stimulatorisches) Rezeptorprotein an der Zelloberfläche gerichtete Moleküle unterbunden werden. Im Falle von B-Zellen führt ein (gegen das Oberflächen-Antigen CD20 gerichtete) Antikörper zur Zerstörung der Zellen.
    • Blockierung der Osteoklasten-Bildung und Aktivität. Verschiedene Verbindungen können direkt die Aktivität von Osteoklasten inhibieren ohne, dass sie einen Effekt auf die Entzündung zeigen. Hier sind die klassischen Bisphosphonate zu nennen, die – gleichwertig mit den anorganischen Pyrophosphaten – eine hohe Affinität zum Calciumphosphat des Knochens aufweisen und eine sehr gute Wirksamkeit in der Behandlung der Osteoporose. Neuere Produkte vom Typ der Aminobisphosphonate werden erfolgreich in der Bekämpfung der postmenopausalen Osteoporose eingesetzt, einige zeigen auch gute Wirksamkeit in der Behandlung von Osteoporose, die als Begleiterscheinung entzündlicher Erkrankungen auftritt. Unerwünschte Nebenerscheinungen von Bisphosphonaten sind vor allem Irritationen der Speiseröhre bei oraler Verabreichung, Fieber und Muskelschmerzen bei intravenöser Applikation. Seltene, aber schwere Nebenwirkungen sind Beeinträchtigung der Nierenfunktion, Kiefernekrosen und atypische Knochenbrüche.
    • Denosumab. Ebenfalls zur Behandlung der postmenopausalen Osteoporose geeignet ist Denosumab, ein Antikörper gegen das Cytokin RANKL (RANKL = receptor activator of the nuclear factor kappaB ligand). RANKL wird von verschiedenen Zelltypen, u.a. von Osteoblasten auf der Zell-Oberfläche exprimiert und liegt auch in einer löslichen Form vor. Wenn RANKL an seinen spezifischen Rezeptor RANK, der u.a. auf Osteoklasten exprimiert ist, bindet, wird der Reifungs- und Aktivierungsprozess der Osteoklasten angeschaltet. Der physiologische Gegenspieler von RANKL ist Osteoprotegerin (OPG), das ebenfalls von Osteoblasten ausgeschüttet wird, an RANKL bindet und so seine Assoziation an RANK und auf diese Weise den Prozess der Osteoklasten-Reifung und damit des Knochenabbaus hemmt. Aktivierte T-Zellen und B-Zellen, aber auch Tumorzellen sezernieren RANKL und erhöhen damit das Verhältnis von RANKL zu Osteoprotegerin und leiten so den Weg zum Knochenabbau ein. Ein Schema des RANKL-RANK-OPG- Systems ist in Abbildung 1 gegeben.

     

    RANK-Weg der Reifung und Aktivierung von OsteoklastenAbbildung 1. Der RANK-Weg führt zur Reifung und Aktivierung von Osteoklasten. RANKL, das u.a. von Osteoblasten exprimiert wird, bindet an seinen Rezeptor RANK an der Oberfläche von Osteoklastenvorstufen und löst damit deren Reifungs- und Aktivierungsprozess aus. Osteoprotegerin (OPG), das ebenfalls von Osteoblasten produziert wird, ist der physiologische Gegenspieler: es bindet an RANKL und blockiert so seine Wechselwirkung mit RANK. Ein Ungleichgewicht von RANKL zu Osteoprotegerin – wenn RANKL auch von aktivierten T-Zellen und B-Zellen und/oder von Tumorzellen produziert wird – führt zum Knochenabbau. In analoger Weise bindet der Antikörper Denosumab (DS) überschüssiges RANKL und verhindert damit Reifung und Aktivierung von Osteoklasten.

    • Steigerung der Osteoblasten Aktivität. Strategien zur Aktivierung von Osteoblasten waren bei der postmenopausalen Osteoporose schon erfolgreich. Bei entzündlichem Knochenschwund sind sie noch nicht vollständig etabliert oder befinden sich im Entwicklungsstadium. Die intermittierende Anwendung von Parathormon – einem Hormon der Nebenschilddrüse, das unter anderem den Calciumspiegel im Blut kontrolliert –, ist ein wesentlicher Stimulator der Osteoblasten. In Arthritismodellen führte Parathormon zur Umkehr des systemischen Knochenabbaus, sogar tiefe lokale Erosionen wurden aufgefüllt. Ein derartiger Effekt wird üblicherweise mit keiner anderen Behandlung der rheumatoiden Arthritis gesehen: lokaler Knochenschwund kann dort zwar gestoppt aber nicht in Neubildung umgekehrt werden.

     

    Tabelle 1. Aktuelle Medikamente, die den Entzündungsprozess und/oder den entzündlichen Knochenschwund zum Ziel haben

    Medikament Molekül Target
    Wirkung
    Zulassung für
    Bisphosphonate Klein, synthetisch. Osteoklasten Osteoporose
    Denosumab Humaner mAb RANKL
     Adalimumab  (Humira) Humaner mAb TNF
    anti- entzündlich

    Rheumatoide Arthritis,
    Psoriatische Arthritis,
    Morbus Bechterew,
    Juvenile idiopathische Arthritis,
    enzündliche Darmerkrankung

    Certolizumab (Cimzia) Humanisierter mAb
    Etanercept (Enbrel) Rezeptor Konstruct
    Golimumab (Simponi) Humaner mAb*)
    Infliximab (Remicade) Chimärer  mAb
    Abatacept (Orencia) Rezeptorkonstrukt T-Zell Aktivierung
    anti-entzündlich
    Rheumatoide Arthritis
    Rituximab (Rituxan) Chimärer  mAb B-Zellen
    anti-entzündlich
    Rheumatoide Arthritis,
    B Zell Lymphom,
    (Multiple Sklerose)
    Tocilizumab (Actemra) Humanisierter  mAb IL-6 Rezeptor
    anti-entzündlich
    Rheumatoide Arthritis, Juvenile idiopathische Arthritis,
    Castleman Krankheit
    Belimumab (Benlysta) Humaner mAb B-Zellen Inhibierung Systemischer Lupus erythematodes (SLE)

    *) mAb: monoklonaler Antikörper (ist gegen ein einziges spezifisches Epitop eines Antigens gerichtet). Definitionen für chimäre, humanisierte und humane mAb’s finden Sie in diesem PDF. Hersteller und Details zu den einzelnen Medikamenten finden sich im Internet.

    Ausblick

    Knochenschwund, der als Begleiterscheinung chronisch-entzündlicher Erkrankungen auftritt, ist ein enormes medizinisches und auch sozio-ökonomisches Problem, dem häufig nicht genügend Beachtung geschenkt wird. Moderne Behandlungsstrategien haben die ehemals unabwendbare Entwicklung von Bewegungseinschränkung zur Invalidität dramatisch verändert und ermöglichen nun für viele Patienten eine gute Lebensqualität. Die fortschreitende Entwicklung, vor allem von innovativen, hochspezifischen Biologika, die regulierend in den Prozess des Knochenumbaus eingreifen, bieten Patienten nicht nur Chancen auf längerdauernde, klinische Remissionen sondern vielleicht auch auf Heilung von Gelenksdestruktion und Knochenabbau.


    Anmerkungen der Redaktion

    Dieser aufgrund des Themas naturgemäß etwas schwierigere Text ist der 2. Teil einer Artikelreihe ist, die am 19. Juli begann: Chronische Entzündungen sind Auslöser von Knochenschwund> Viele der hier verwendeten und zum Verständnis nötigen Begriffe werden dort einführend erklärt!


    Weiterführende Links

    Werden Rheuma-Gelenke bald Medizingeschichte? (aerztezeitung.de)

    Vitamin D – Allheilmittel oder Hype? (ScienceBlog Beitrag v. 10.5.2012)


     

    inge Sat, 09.06.2012 - 05:20

    Elektromobilität – Elektrostraßenfahrzeuge

    Elektromobilität – Elektrostraßenfahrzeuge

    Do, 02.08.2012- 05:20 — Erich Rummich

    Icon MINTErich Rummich

    Elektrische Straßen- und Hybridfahrzeuge haben in der letzten Zeit enorm an Bedeutung gewonnen. Der Artikel gibt Auskunft über den heutigen Stand der Speichertechnologien und Energiewandler, der Wärmebedarfsdeckung des Fahrzeugs und der verschiedenen Typen von elektrischen Antriebsmaschinen.

    In den letzten Jahren beschäftigen die Menschheit Themen wie das steigende Wachstum der Erdbevölkerung, der damit verbundene Klimawandel, die Erschöpfung der verschiedenen Ressourcen und die stets ansteigende Mobilität der Menschen.

    Ein neues Thema ist die so genannte Elektromobilität.

    Elektromobilität bezeichnet den Einsatz von elektrischer Energie zum Betreiben von individuellen Fahrzeugen oder elektrische Hybridantriebe (Elektro- und Verbrennungsmotor) für die Erfüllung der unterschiedlichen individuellen Mobilitätsanforderungen. In jüngster Zeit wird der Begriff Elektromobilität auch in Verbindung mit Programmen der unterschiedlichsten Institutionen zur Förderung des Einsatzes von Elektrofahrzeugen verwendet.

    Elektrischer Strom, erzeugt aus erneuerbaren Energieträgern, bietet die Vorteile einer abgas- und feinstaubfreien sowie geräuscharmen Verkehrsbewältigung.

    Ein erstes österreichisches Elektromobil

    Lohner-Porsche-Elektromobil. „Semper Vivus“ 1900Abbildung 1 Lohner-Porsche-Elektromobil. „Semper Vivus“ 1900. Akkumulator: Bleiakku mit 44 Zellen und ca. 80 V Gleichspannung (410 kg). Betriebsdauer ca. 3 Stunden, Höchstgeschwindigkeit 50 km/h. (Technisches Museum Wien; Bild: Wikipedia)

    Dabei sollte nicht vergessen werden, dass auch in Österreich Pionierleistungen auf diesem Gebiet der Elektromobilität erbracht wurden. Bereits zur Wende vom 19. zum 20. Jahrhundert konstruierte Ferdinand Porsche in den Lohner-Werken ein für die damalige Zeit richtungweisendes Elektromobil. Dieses wurde von zwei Gleichstrom- Radnabenmotoren, die in den beiden Vorderrädern integriert waren, angetrieben (Abbildung 1).

    Als Energiequelle diente damals sowie auch heute vereinzelt noch eine Bleibatterie. Nachteil dieser Batterien waren und sind ihre geringe Energiedichte von damals 10Wh/kg bis 20Wh/kg bzw. heute 35Wh/kg bis 50Wh/kg, damit verbundene hohe Masse und gleichzeitig geringe Reichweite des Fahrzeuges.

    Das in den Lohner-Werken gebaute Emobil wurde im Jahre 1900 auf der Pariser Weltausstellung gezeigt. Erwähnt sei auch, dass in diesen Jahren das weltweit erste allradgetriebene Elektrofahrzeug gebaut wurde.

    Energiespeicher

    Das Problem des Energiespeichers in reinen Elektrofahrzeugen ist bis heute nicht befriedigend gelöst.

    Bedenkt man, dass ein Kilogramm eines herkömmlichen Kraftstoffes (Benzin, Diesel) einen Energieinhalt von etwa 11kWh [d.s. 11000 Wh/kg, Anm.] besitzt, erkennt man rasch den Nachteil von heutigen Batteriesystemen mit 80Wh/kg bis 150 Wh/kg (Abbildung 2). Energieinhalte von Kraftstoffen und aktuellen BatteriesystemenAbbildung 2. Energieinhalte von Kraftstoffen und aktuellen Batteriesystemen (Bild: Wikipedia „Gewicht- und Volumenvergleich von Dieselkraftstoff+Tank gegenüber Traktionsbatterie - ohne Betrachtung der Gesamtsysteme mit Motor, Kühlung, Getriebe, Ansaug- und Abgasanlage u. ä“)

    Ein weiteres Problem ist das rasche Laden einer Traktionsbatterie (Zusammenschaltung von einzelnen Akkumulatorenzellen oder Blöcken als Energiespeicher). Wenn an einer normalen Tankstelle Kraftstoff mit etwa 40 l/min bis 60 l/min in den Tank gefördert wird, entspricht dies einer Leistung von etwa 40 MW bis 60 MW. Eine derart hohe elektrische Ladeleistung wäre nie ausführbar. Ferner muß erwähnt werden, daß es heute noch an der Infrastruktur von geeigneten Stromtankstellen mangelt!

    Bei der Elektromobilität ist zu unterscheiden zwischen dem individuellen Nahverkehr, der heute durchaus von Elektrostraßenfahrzeugen mit den gängigen Batteriesystemen bewältigt werden kann, und dem Fernverkehr.

    Für den Nahbereich haben sich in den letzten Jahren Nickel-Metallhydrid-Batterien und verschiedene Typen der Lithium-Batterien durchgesetzt.

    Für beide Batteriesysteme gilt, daß die Kapazität (Speicherinhalt) mit sinkender Umgebungstemperatur ebenfalls abnimmt – und damit auch die erzielbare Reichweite.

    Die Lebensdauer der Batterien ist mit wenigen hundert bis tausend Lade-Entladezyklen begrenzt und erfordert in bestimmten Zeitabschnitten eine Neuanschaffung, was mit erheblichen Kosten verbunden ist. Ein Batterie-Leasingsystem kann hier positive Impulse setzen.

    Vorteilhaft bei der Elektromobilität ist deren hohe Umweltverträglichkeit, so der elektrische Strom für den Betrieb des Fahrzeuges aus erneuerbaren Energieträgern (Wasser-, Windkraft, Solarenergie, Biomasse) gewonnen wurde.

    Ein weiterer Vorteil von Elektrofahrzeugen besteht darin, daß die durch Nutzbremsung gewonnene Energie in den Speicher rückgeführt werden kann, dabei arbeitet der elektrische Antriebsmotor als Generator. Zu erwähnen wäre weiters, daß der Gesamtwirkungsgrad des elektrischen Antriebsstranges wesentlich höher als jener von mit Verbrennungsmotoren betriebenen ist.

    Wärmebedarfsdeckung des Elektrofahrzeuges

    Ein nicht zu vernachlässigbares Problem stellt die Heizung des Elektrofahrzeuges dar. Bei Kraftfahrzeugen mit Verbrennungsmotor fällt durch den niedrigen Wirkungsgrad (kleiner 50 %) des Verbrennungsmotors genügend Abwärme an, die bei Bedarf für die Beheizung des Fahrzeuges herangezogen wird. Die Heizung ist nicht nur für den Komfort der Fahrgäste sondern auch für die Sicherheit des Fahrzeuges erforderlich (z.B. Enteisung der Fenster).

    Das Problem der Fahrzeugheizung bedarf noch eingehender Forschungs- und Entwicklungsarbeiten.

    Ansätze dazu bietet die Wärmespeicherung durch Anwendung der Heterogen-Verdampfung. Dabei wird einer Stoffkombination AB (Salzhydrate, Metallhydride) Wärme zugeführt. Diese bedingt eine Aufspaltung der Verbindung AB in den festen Bestandteil A und in die flüssige oder gasförmige Komponente B, wobei B in einem zweiten Behälter aufgefangen und dadurch vom Stoff A getrennt wird. In diesem Fall ist der thermische Speicher aufgeladen. Theoretisch kann dieser Zustand beliebig lange aufrecht erhalten werden, da sich das Speichersystem auf Umgebungstemperatur befndet. Bei gewünschter Wärmeabgabe aus dem Speicher wird Komponente B wieder in den Behälter von A transportiert und es erfolgt die Verbindung von A und B unter Wärmefreisetzung zu AB.

    Weitere thermische Speicher sind Latentwärmespeicher, bei welchen durch eine Phasenumwandlung fest/flüssig eines geeigneten Mediums (je nach gewünschter Schmelztemperatur eignen sich verschiedene Salzverbindungen oder Paraffine) große Wärmemengen gespeichert und diese beim Übergang flüssig/fest wieder abgeben werden können. Nachteilig ist, daß der Speicher im geladenen Zustand immer über der Kristallisationstemperatur (ist gleich der Schmelztemperatur) gehalten werden muss, was eine entsprechend gute thermische Isolation erfordert.

    Grundsätzlich können beide thermischen Speichersysteme durch eine elektrische Heizung während des Ladevorganges der Traktionsbatterie aufgeladen werden.

    Die Verwendung von herkömmlichen Standheizungen, wo ein fossiler Brennstoff verbrannt wird, stellt keine Lösung dar, da dabei Schadstoffe emittiert werden.

    Eine andere Möglichkeit zur Wärmebedarfsdeckung wäre die Verwendung von Hochtemperaturbatterien. Dies sind Batteriesysteme, die bei Temperaturen von 300 °C bis 350 °C betrieben werden. Eines dieser Batteriesysteme war die Natrium-Schwefel-Batterie, die aber seit einigen Jahren nach einem thermischen Unfall (Natriumbrand) aus dem Verkehr gezogen wurde und die Natrium-Nickelchlorid-Batterie. Bei letzterer wäre es möglich, beim Betrieb durch Kühlung von 350 °C auf etwa 300 °C genügend Wärme für die Beheizung des Fahrzeuges zu gewinnen.

    Brennstoffzellen

    Eine Alternative bestünde im Einsatz von Brennstoffzellen. Brennstoffzellen sind keine Energiespeicher sondern Energiewandler, welche die chemische Energie eines Brennstoffes (z.B. Wasserstoff H2 oder Methanol - CH3OH - aus Biomasse) unter Anwesenheit eines Oxidationsmittels (z.B. Sauerstoff der Luft) direkt in elektrische Energie und Wärme umsetzen.

    Mit H2 betriebene Brennstoffzellen besitzen seit vielen Jahrzehnten eine ausgereifte Technologie. Ein Problem ist hierbei die Speicherung von Wasserstoff im Fahrzeug. Auch hier existieren einige Möglichkeiten wie z.B. in Druckflaschen bis 300 bar, in fester Form als Metallhydrid, in flüssiger Form allerdings bei 20K [d.s. -253 °C, Anm.] oder in modernen Speichern mit Nanostrukturen.

    Neu in Entwicklung ist die Bindung von Wasserstoff an Carbazol, C12H9N, einem flüssigen Kohlenwasserstoff, der als Wasserstoffträger fungiert. Bei diesem Konzept wird an der Tankstelle mit Wasserstoff angereichertes Carbazol getankt. Im Fahrzeug erfolgt die Wasserstofffreisetzung und an der Tankstelle die Rückgabe von H2-armem Carbazol. Dieses wird durch geeignete chemische Verfahren wieder in eigenen ortsfesten Hydrieranlagen mit H2 angereichert. Die Erzeugung des Wasserstoffs müßte durch Wasserelektrolyse [Aufspaltung von Wasser 2⨉H2O in seine chemischen Bestandteile: 2⨉H2 + O2 durch elektrischen Strom, Anm.] erfolgen. Wenngleich die Wasserstoffwirtschaft als mögliches zukünftiges Energieszenario gesehen wird, stellt derzeit die Wasserstoffspeicherung einen erheblichen Aufwand an Speichervolumen und -masse dar.

    Der Einsatz der "Direkten Methanolbrennstoffzelle" (derzeit noch in Entwicklung) wäre eine günstige Lösung, bei der das Problem der geringen Reichweite von Elektrofahrzeugen nicht mehr vorhanden ist, da der Energieträger Methanol ein flüssiger Energieträger ist, der mit der bestehenden Infrastruktur der heutigen Tankstellen in Tanks, wie sie heute für konventionelle Kraftstoffe üblich sind, verwendet werden könnte.

    Die "Direkte Methanolbrennstoffzelle" wandelt den Energieträger Methanol auf direktem Wege in elektrische Energie, Wärme, Kohlendioxid und Wasser um. Diese Variante wäre nicht abgasfrei (CO2 wird emittiert), aber durch die Herstellung von Methanol aus Biomasse CO2-neutral. Die bei der Energieumsetzung in der Brennstoffzelle entstehende Wärme könnte für die Beheizung des Elektrofahrzeuges verwendet werden.

    Da sich Brennstoffzellen nicht für die Aufnahme von elektrischer Energie eignen (keine Nutzbremsmöglichkeit), muß ein elektrischer Energiespeicher parallel zur Brennstoffzelle geschaltet werden. Dies kann eine herkömmliche Batterie sein oder die seit wenigen Jahren verfügbaren Superkondensatoren, die sich durch extrem hohe Leistungsdichte (heute bis 3000W/kg) auszeichnen, allerdings nur geringe Energiedichte (bis etwa 5Wh/kg) aufweisen. Sie eignen sich daher für die Aufnahme großer elektrischer Leistungen und ebenso für deren Abgabe, was das Beschleunigungsverhalten des Elektrofahrzeuges positiv beeinflußt.

    Maßnahmen zur Steigerung der Elektromobilität

    Öffentlicher Verkehr

    Zur Steigerung der Elektromobilität im öffentlichen Verkehr sollte der weitere Ausbau von Straßenbahnen, Oberleitungsbussen und Elektrobussen mit Energiespeichern gefördert werden.

    Für den Fernverkehr ist der Ausbau und die Elektrifizierung von Bahnlinien erforderlich, wobei auf neu zu errichtende Park-&Charge-Anlagen bei den Bahnhöfen geachtet werden müsste. In diesen könnten Elektrofahrzeuge während der Abwesenheit der FahrzeugbetreiberInnen aufgeladen werden, wodurch eine Anbindung an das öffentliche Netz attraktiver wäre.

    Bauweise

    Da der Energiebedarf eines Elektrofahrzeuges wie auch eines konventionellen Fahrzeuges von dessen Masse abhängt, ist es wichtig, dass zukünftige Elektrofahrzeuge möglichst in Leichtbauweise hergestellt werden. Hier wären Anleihen aus dem Gebiet der Bionik zu nehmen. Batteriemanagement, Gesamtregelungskonzept. Große Bedeutung kommt dem Batteriemanagement und dem Gesamtregelungskonzept des Elektrofahrzeuges zu. Durch verschiedene neu zu etablierende Verkehrsleitsysteme, wo im voraus das Fahrstreckenprofil mit Steigungen und Gefällen, Behinderungen, Baustellen, Staus oder Witterungseinflüssen und Geschwindigkeitsbeschränkungen bekannt gemacht werden, würden dabei den Einsatz der gespeicherten elektrischen Energie optimieren.

    Die erforderlichen leistungselektronischen Systeme wie Frequenzumrichter und Stellglieder für die Drehzahländerung der Antriebsmotoren sowie für diverse Hilfseinrichtungen sind weitgehend ausgereift und weisen hohe Wirkungsgrade auf (über 90 %).

    Elektrische Antriebsmaschinen

    Ähnliches gilt für den Einsatz von elektrischen Maschinen. War in den letzten Jahren ein Trend zur permanentmagneterregten Synchronmaschine (PSM) zu beobachten, so wird heute wieder den Asynchronmaschinen (ASM) oder den elektrisch erregten Synchronmaschinen mehr Bedeutung zugemessen. Dies deshalb, weil zwar bei PSM das Verhältnis von erzeugtem Drehmoment zu Motorvolumen die besten Werte aufweist, benötigen sie aber für die Herstellung der modernen Seltenerdenmagnete (Neodym-Eisen-Bor-, Samarium-Kobalt-Magnete) die eben angesprochenen Seltenen Erdenelemente Neodym und Samarium. Diese chemischen Elemente sind Ressourcen, die leider relativ rasch zur Neige gehen dürften und deren Lagerstätten vorwiegend in China liegen, in einem Land, das selbst erhöhten Bedarf an diesen Rohstoffen und ein hohes Wachstum auf diesem Sektor aufweist.

    Bei ASM kommt praktisch nur die Kurzschlussläufermaschine zum Einsatz, bei der Kupfer für die Statorwicklung und meist Aluminium für die Rotorkurzschlußwicklung verwendet wird. Bei elektrisch erregten Synchronmaschinen kommt nur Kupfer für die Stator- und Rotorwicklung zum Einsatz. Weitere Synchronmaschinen stellen so genannte Reluktanzmaschinen dar. Diese besitzen einen unbewickelten Rotor, der relativ einfach ausgeführt werden kann, allerdings weisen diese Maschinen einen niedrigeren Wirkungsgrad auf.

    Vorteilhaft bei modernen kleineren PSM (bis etwa 100kW) ist die Ausführung von Zahnspulenwicklungen. Bei diesen handelt es sich um Drehfeld-Wicklungen, die durch das Aufschieben von Spulen auf die Statorzähne entstehen, was einfach und billig ist.

    Erhöhung der Reichweite

    Ist die mit heutigen Batteriesystemen erreichbare Fahrstrecke zu gering, besteht die Möglichkeit des Einsatzes von Hybridfahrzeugen. Auch dieses System ist nicht neu und wurde bereits von Lohner-Porsche um die Jahrhundertwende 1900 vorgestellt. Hiebei besitzt das Fahrzeug neben dem elektrischen Antriebsstrang einen Verbrennungsmotor, der die Fortbewegung des Fahrzeuges unterstützt. Hybridfahrzeuge sind bereits in vielen Varianten im Handel erhältlich.

    Wie heute schon von einigen Elektromobilherstellern propagiert, kann ein so genannter Range-Extender vorgesehen werden. Bei diesem handelt es sich um einen kleinen Verbrennungsmotor verbunden mit einem Generator, dieser liefert die elektrische Energie für den Antrieb. Es ist klar, daß in diesem Falle wieder die üblichen Emissionen von Verbrennungsmotoren auftreten.

    Vorteilhaft ist hier die Tatsache, daß dieser Range-Extender mit konstanter Drehzahl und Leistung betrieben werden kann und damit auch der spezifische Kraftstoffverbrauch und die Emissionen minimiert werden können. Benötigt der elektrische Antrieb eine kleinere Leistung als der Generator erzeugt, so wird die Überschußleistung in der Batterie gespeichert. (Abbildung 3).

    Range Extender (Serieller Hybridantrieb)Abbildung 3. Range Extender (Serieller Hybridantrieb). Der Verbrennungsmotor treibt lediglich einen elektrischen Generator an, der die Elektromaschinen mit Strom versorgt oder die Traktionsakkus lädt. (Bild: Wikipedia)

    Einspurige Elektrostraßenfahrzeuge

    Für den individuellen elektrischen Nahverkehr stehen auch die verschiedenen Typen von einspurigen Elektrostraßenfahrzeugen zur Verfügung. Mit steigender Antriebsleistung sind dies E-Fahrräder, Pedelecs, E-Scooter, E-Roller und E-Motorräader. Pedelecs (Pedal Electric Cycle) sind besondere Elektrofahrräder, bei denen der Elektromotor aufgrund von Kraftsensoren bei Betätigen der Tretkurbel mit unterschiedlicher Leistung zugeschaltet wird. Damit erreicht man eine für den/die AnwenderIn leichtere Fortbewegungsmöglichkeit.

    Das Laden der Batteriesysteme stellt bei den Fahrzeugen mit kleiner Leistung kaum größere Probleme dar, da deren Energiespeicher meist abnehmbar und damit an jeder Steckdose aufladbar sind.

    Für die verkehrstechnischen Bestimmungen (Mindestpersonenalter, Höchstgeschwindigkeit, Führerscheinpflicht etc.) sind die Straßenverkehrsordnungen der einzelnen Länder zuständig.

    Eine Sonderform eines zweirädrigen Fortbewegungsmittels stellt der so genannte Segway-Personentransporter (nach der US-Erzeugerfirma benannt) dar. Bei diesem sind zwei elektromotorgetriebene Räder auf gemeinsamer Achse für die Fortbewegung des Fahrzeuges verantwortlich. Der/die FahrerIn selbst steht zwischen den Rädern auf einem Trittbrett und steuert das Fahrzeug über eine Lenkstange. FahrerIn und Fahrzeug bilden ein "inverses Pendel"(ein starres Pendel mit unten angeordnetem Drehpunkt stellt ein instabiles System dar), das durch entsprechende Regelsysteme bei jeder Fahrbewegung im Gleichgewicht gehalten wird. Dieses Fahrzeug ist eher für sportliche Personen geeignet.


    Glossar

    Energiespeicher - Begriffe

    Energiespeicher: energietechnische Einrichtung, deren Energieinhalt durch Zufuhr von Energie bzw. eines Energieträgers steigt (Ladevorgang, Ladung), dann diesen Energieinhalt möglichst verlustfrei über eine bestimmte, vorgebbare Zeit speichert und bei Bedarf Energie bzw. den Energieträger wieder kontrolliert abgibt, wobei der Energieinhalt abnimmt (Entladevorgang).

    Kenngrößen

    Energiemenge: Nutzbarer Energieinhalt [Wh]

    Energiedichte: Nutzbare Energiemenge je Massen – oder Volumseinheit [Wh/kg oder Wh/m3]

    Leistungsdichte: Nutzbare Leistung je Massen – oder Volumseinheit [W/kg oder W/m3]

    Lade-/Entladezeit: Zeitdauer zur Voll/Entladung mit Nennleistung [s, min, h]

    Speicherdauer: Zeitdauer während der der vollgeladene Speicher die Energie ohne nennenswerte Verluste speichert [s, min, h, d]

    Lebensdauer: kalendarische oder durch Anzahl von Arbeitszyklen (1 Arbeitszyklus = Laden – Speichern – Entladen)


     

    inge Thu, 02.08.2012 - 05:20

    Unheimliche Gäste — Können Parasiten unsere Persönlichkeit verändern?

    Unheimliche Gäste — Können Parasiten unsere Persönlichkeit verändern?

    Do, 26.07.2012- 00:00 — Gottfried Schatz

    Icon Gehirn

    Gottfried Schatz

    Wenn der Parasit Toxoplasma gondii Nagetiere infiziert, setzt er sich in Gehirnregionen fest, welche Emotionen steuern und manipuliert diese. Latente Infektionen mit diesem Parasiten gehören zu den häufigste Infektionen des Menschen. Untersuchungen zu Persönlichkeits-Profilen, Verhalten und Psychomotorik zeigen ausgeprägte Unterschiede zwischen infizierten und nicht-infizierten Menschen.

    Das Besondere an uns Menschen ist, dass wir zwei Vererbungssysteme besitzen – ein chemisches und ein kulturelles. Das chemische System besteht aus DNS-Fadenmolekülen und einigen Zellstrukturen und bestimmt, was wir sein können. Das kulturelle System besteht aus der Zwiesprache zwischen den Generationen und bestimmt, was wir tatsächlich werden. Unser chemisches System erhebt uns kaum über andere Säugetiere, doch unser kulturelles System ist in der Natur ohne Beispiel. Seine formende Kraft schenkt uns Sprache, Kunst, Wissenschaft und sittliche Verantwortung. Die Genauigkeit, mit der diese zwei Vererbungssysteme Wissen von einer Generation zur anderen tragen, ist hoch, aber nicht absolut. Übermittlungsfehler – sogenannte Mutationen – im chemischen System verändern unseren Körper und solche im kulturellen System unser Denken und Verhalten.

    Saugwurm und Toxoplasma gondii

    Langfristig schützen uns diese Fehler vor biologischer und kultureller Erstarrung, doch kurzfristig können sie in Katastrophen münden. Im frühen Mittelalter bewirkte die Tay-Sachs-Mutation im chemischen System eines osteuropäischen Aschkenasen, dass dessen Gehirn verkümmerte und vielen seiner heutigen Nachkommen das gleiche Schicksal droht. Und das 20. Jahrhundert hat uns wieder einmal daran erinnert, welche Grauen kulturelle Mutationen bewirken können. Welches dieser beiden Vererbungssysteme ist dafür verantwortlich, dass Menschen verschiedener Kulturen so unterschiedlich denken und handeln? Vielleicht ist es manchmal keines der beiden, sondern ein Parasit, der unseren Charakter verändert. Dass Parasiten das Verhalten von Tieren verändern können, ist klar erwiesen. Wenn Larven eines Saugwurms den im Pazifik lebenden Killifisch infizieren, wirft dieser seine angeborene Vorsicht über Bord und macht durch wilde Kapriolen und Körperverdrehungen an der Meeresoberfläche Raubvögel auf sich aufmerksam. Diese fressen deshalb im Durchschnitt etwa dreissigmal mehr infizierte als gesunde Fische. Der biologische Sinn dieser Gehirnwäsche gründet im Lebenszyklus des Saugwurms, der drei verschiedene Wirte benötigt. Der Wurm bildet seine Eier im Darm von Vögeln, welche die Eier in Salzsümpfe an der kalifornischen Pazifikküste ausscheiden. Dort frisst sie eine Schnecke, in der sie sich zu Larven entwickeln. Die Larven infizieren einen Killifisch und kehren schliesslich mit diesem zurück in einen Vogeldarm.

    Noch eindrücklichere Beispiele liefern intelligente Säugetiere wie Mäuse und Ratten. Wenn das einzellige Tierchen Toxoplasma gondii diese infiziert, bevorzugt es die Gehirnregionen, welche Emotionen und Furcht steuern. Als Folge davon verkehrt sich die angeborene Furcht der Nager vor Katzenduft in ihr Gegenteil: Sie wird zur tödlichen Vorliebe. Dies erhöht natürlich die Chance, dass die infizierten Tiere einer Katze zum Opfer fallen – und der Parasit in eine Katze zurückkehren kann. Toxoplasma gondii kann nämlich nur im Darm von Katzen eierähnliche Oozysten bilden, die dann mit verunreinigter Nahrung in einen warmblütigen Zwischenwirt – zum Beispiel eine Ratte – gelangen. Der Parasit verändert das Verhalten von Mäusen und Ratten höchst präzise, denn er lässt deren angeborene Furcht vor offenen Flächen oder unbekannter Nahrung unverändert.

    Auch wir können für Toxoplasma gondii Zwischenwirt sein – und Milliarden von uns sind es auch, weil wir verseuchtes ungewaschenes Gemüse oder rohes Fleisch verzehren oder nicht bedenken, dass auch die geliebte Hauskatze uns den Parasiten schenken kann. Etwa ein Drittel aller Nordamerikaner und fast die Hälfte aller Schweizer tragen in ihrem Blut Antikörper gegen den Parasiten – ein untrügliches Zeichen dafür, dass sie einmal infiziert waren oder es noch immer sind.

    Viele Infektionen werden nämlich nicht erkannt und bleiben für den Rest des Lebens bestehen, ohne auffallende Schäden anzurichten. Bei Schwangeren, die gegen den Parasiten noch nicht immun sind, kann eine Infektion allerdings zu Missbildungen des Embryos führen oder diesen töten – und bei einigen Menschen vielleicht sogar Schizophrenie auslösen. Tatsächlich sind einige gegen Schizophrenie eingesetzte Medikamente auch gegen Toxoplasma gondii wirksam. Zerebrale ToxoplasmoseAbbildung 1. Zerebrale Toxoplasmose: Histologischer und immunhistochemischer Nachweis (kleines Bild) von Pseudozysten (Pfeile), Hirnbiopsie eines immungeschwächten Patienten. Bild: http://de.wikipedia.org/wiki/Datei:Toxoplasmose.jpg

    Einige Untersuchungen sprechen dafür, dass Toxoplasma unsere Psyche auch auf subtilere Weise verändern kann: Es macht Frauen oft intelligenter, dynamischer und unabhängiger, Männer dagegen eifersüchtiger, konservativer und gruppenhöriger. In beiden Geschlechtern erhöht es die Neigung zu Schuldbewusstsein, was manche Psychologen als negative emotionale Grundhaltung deuten.

    Substanzlose Schmarotzer

    Haben Parasiten den Charakter menschlicher Kulturen mitgeprägt? Wenn Toxoplasma gondii Männer tatsächlich traditionsbewusster und gruppentreuer macht, könnte es vielleicht dafür mitverantwortlich sein, dass manche Kulturen mehr als andere die herkömmlichen Geschlechterrollen hartnäckig verteidigen oder Ehrgeiz und materiellen Erfolg über Gemütstiefe und menschliche Beziehungen stellen. Und könnte es sein, dass verringerte Offenheit gegenüber Neuem die Innovationskraft ganzer Kulturen geschwächt hat? Ausführliche Befragungen in 39 Staaten sprechen in der Tat dafür, dass die negative emotionale Grundhaltung einer Bevölkerung umso ausgeprägter ist, je stärker diese mit Toxoplasma gondii infiziert ist. Natürlich lässt es sich nicht ganz ausschliessen, dass kulturelle Eigenheiten nicht Folge, sondern Ursache der Infektion sind. Vieles spricht jedoch gegen diese Interpretation, so dass Untersuchungen zur Rolle von Parasiten bei der Entwicklung menschlicher Kulturen noch einige Überraschungen liefern könnten.

    Die Vorstellung, dass Parasiten mein Denken und Handeln mitbestimmen könnten, verletzt mein Selbstverständnis und mein Menschenbild. Darf ich das Lied «Die Gedanken sind frei» immer noch mit der gleichen Überzeugung singen, wie ich es als Kind tat? Oder sollte ich versuchen, meine wissenschaftliche Sicht zu überwinden und die Natur als Ganzes zu fühlen, wie Künstler und Mystiker dies vermögen? Aus dieser Sicht wären gedankenverändernde Parasiten nur ein besonders grossartiges Beispiel für die Einheit des Lebensnetzes auf unserem blauen Planeten. Unser Verstand schenkt uns ja auch die Waffen, um solche Parasiten zu erkennen und zu vernichten.

    Doch wer schützt uns vor den substanzlosen Parasiten, die sich unserer Gedanken und Emotionen bemächtigen? Es gibt ihrer zuhauf – Rassenwahn, religiöser Fanatismus, Nationalhysterie, Spiritismus und Aberglaube. Sie sind hoch infektiös und entmenschlichen uns mehr, als es Toxoplasma gondii je vermöchte. Solange wir nicht gelernt haben, diese unheimlichen Gäste rechtzeitig zu erkennen und wirksam zu bekämpfen, sind sie unsere grösste Bedrohung.


    Weiterführende Links

    Gedankenkontrolle — Wie Parasiten ihre Wirte steuern (Die Presse)

    Können Parasiten unser Verhalten steuern? (Der Spiegel)

    Jaroslav Flegr (2007) Effects of Toxoplasma on Human Behavior. Schizophrenia Bulletin 33 (3):757–760 H

    as Your Cat Infected You With a Mind-Controlling Parasite? Probably.

    Parasites and the Brain: An Investigation of Toxoplasma Gondii and Schizophrenia. In English, 6:27 min.


     

    inge Thu, 26.07.2012 - 05:20

    Chronische Entzündungen sind Auslöser von Knochenschwund

    Chronische Entzündungen sind Auslöser von Knochenschwund

    Do, 19.07.2012 - 05:20 — Kurt Redlich & Josef Smolen

    Icon MedizinKurt RedlichJosef Smolen

     

    Knochen sind ein mineralisiertes Gewebe, das einem permanenten Aufbau und Abbau unterworfen ist. Dieser sehr streng regulierte Umbau-Prozeß kann durch viele Faktoren gestört werden, insbesondere durch hormonelle Veränderungen. Ebenso kann aber auch eine chronische Entzündung den Knochen-Metabolismus beeinträchtigen und zu Knochenschwund führen.

    Die wichtigsten Aufgaben unseres Skeletts bestehen in seiner Funktion als Stützsystem für den Körper, als Schutzsystem für die inneren Organe und als Ort, an dem im Knochenmark das „Blutkörperchen-bildende System“ (haematopoetic system) lokalisiert ist: Stammzellen, die zu den unterschiedlichen Blutzellen heranreifen. Darüber hinaus ist das Skelett das Depot des für viele Lebensvorgänge essentiellen Calciums.

    Knochenumbau – ein kontinuierlichen Prozeß

    Die Knochen des Skeletts befinden sich in einem kontinuierlichen Umbau-Prozeß (Remodellierung), der durch zwei wesentliche Arten von Zellen bewirkt wird: Osteoblasten, die Knochen aufbauen und Osteoklasten (Knochenfreßzellen), die Knochen abbauen. Die Entwicklung und Aktivierung dieser beiden Zelltypen sind streng regulierte Prozesse, in welche hochkomplexe Signalübertragungs- Netzwerke involviert sind.

    Stark vereinfacht kann die Remodellierung des Knochens in folgender Weise beschrieben werden (Abbildung 1).

     

    Remodellierung der KnochenstrukturAbbildung 1. Remodellierung der Knochenstruktur. Osteoklasten bauen Knochensubstanz ab und die entstehenden Hohlräume (Resorptionslacunen) werden von Osteoblasten mit neuem Matrix-material (türkis) gefüllt, welches anschließend mineralierisiert. In der Knochenmatrix sind Osteozyten eingebettet, die aus Osteoblasten entstanden sind und mit ihren verzweigten Fortsätzen miteinander und mit den Osteoblasten und Osteoklasten interagieren.

    Der Prozeß wird damit eingeleitet, daß aktivierte Osteoklasten an der Knochenoberfläche anhaften und dort das mineralisierte Knochengewebe auflösen (resorbieren) indem sie ein saures Milieu erzeugen und Protein-abbauende Enzyme sezernieren. Am Ort der resorbierten Knochenmatrix bleibt ein kleiner Hohlraum zurück - eine sogenannte Resorptionslakune. Darauf folgt eine Aktivierung von Osteoblasten, die den Hohlraum mit neuer Knochenmatrix füllen.

    Der Prozeß des Knochenumbaus ist nicht nur erforderlich, um die Knochenstärke an Wachstum und mechanische Belastung anzupassen, sondern auch um mechanische Schäden zu reparieren. Dieser Umbau findet über die gesamte Lebensspanne statt – in der kompakten äußeren (kortikalen) Knochensubstanz ebenso wie in dem aus Knochenbälkchen (Trabekeln) schwammartig aufgebauten inneren Gerüst. (Abbildung 2). Nur in der Kindheit, in der Knochenwachstum- und Modellierung stattfindet, kann Knochenbildung unabhängig von Knochenresorption erfolgen. Architektur des Knochens

    Abbildung 2. Architektur eines Knochens. Knochen bestehen aus einer Matrix und darin eingebetteten, aus Osteoblasten entstandenen, funktionellen Knochenzellen (Osteozyten). Die Matrix selbst ist aus Hydroxylapatit (rund 75 % des Trockengewichts) aufgebaut, welches zwischen Kollagenfasern eingelagert wird. Das Osteon ist die funktionelle Einheit der harten äußeren Schicht, der kompakten Knochensubstanz. Im Inneren des Knochens findet sich ein poröses, schwammartig aufgebautes Netzwerk aus Trabekeln, welches Platz für das Knochenmark bietet. (Bild: modifiziert nach https://en.wikipedia.org/wiki/File:Illu_compact_spongy_bone.jpg)

    Knochen stellen außerdem das Calcium-Depot im Körper dar, rund 99 % der Gesamtmenge des Calciums liegen dort in mineralischer Form als Hydroxylapatit vor. Neben der Architektur und Festigkeit, die das Calcium-Mineral den Knochen verleiht, spielt Calcium eine essentielle Rolle in einer Vielzahl von physiologischen Prozessen, wie beispielsweise in Signalübertragungs-Kaskaden, in der Kontraktion von Muskelzellen, in der Ausschüttung von Neurotransmittern aus Nervenzellen, in der Aufrechterhaltung von Membranpotentialen und als Kofaktor zahlreicher Enzyme (z.B. in der Blutgerinnung).

    Die Aufrechterhaltung eines konstanten Calciumspiegels im Blut wird durch den kontinuierlichen Knochenumbau ermöglicht.. Besteht ein erhöhter Bedarf für Calcium, beispielsweise als Folge des Stillens, auf Grund verringerter körperlicher Aktivität oder bei eingeschränkter Mobilität (z.B.im Alter), hält seine Bereitstellung durch Knochenresorption an und kann schließlich zur Osteoporose führen.

    Störungen des Knochenumbaus

    Abbau und Neubildung von Knochenmatrix finden permanent an Tausenden Stellen des Skeletts statt und sollten sich die Waage halten. Allerdings kann der Umbauprozeß durch Faktoren gestört werden, die mit der Funktion der Osteoblasten oder der Aktivität der Osteoklasten interferieren. Wenn Osteoklasten übermäßig aktiviert werden oder Osteoblasten zu geringe Aktivität aufweisen um die Resorptionslakunen zu füllen, ist ein Verlust an Knochengewebe die Folge - eine sogenannte Osteopenie, welche schließlich zur Osteoporose und einer erhöhten Brüchigkeit der Knochen führt.

    Andererseits kann als Folge intensiven Trainings, d.h. auf Grund wiederholter mechanischer Reize, ein Knochenaufbau erfolgen, der den Abbau überwiegt und zu erhöhter Knochenmasse führt.

    Ein Ungleichgewicht von Abbau zu Aufbau kann auf Grund eines gestörten Stoffwechsels auftreten, wie beispielsweise im Falle der Osteomalazie, die zumeist durch einen Mangel an Vitamin D oder Calcium ausgelöst wird. Ein Ungleichgewicht kann auch hormonell bedingt sein: eine vermehrte Bildung des Parathormons der Nebenschilddrüse (Hyperparathyroidismus) führt zum Knochenabbau und damit zu einer gesteigerten Freisetzung von Calcium aus den Knochen . Östrogen Mangel, wie er in der Postmenopause auftritt, ist die häufigste Ursache für eine übermäßige Aktivität von Osteoklasten. Diese führt zu einer Abnahme der Knochenmasse und einer erhöhten Fragilität der Knochen und damit zu einem hohen Risiko für Knochenbrüche und Folgeerkrankungen, die wiederum mit einer gesteigerten Sterblichkeit einhergehen. Postmenopausale Osteoporose befällt mehr als 50 % der Frauen über 60.

    Eine Störung des Gleichgewichts zwischen Bildung und Resorption der Knochen tritt auch bei zahlreichen Krankheiten auf, beispielsweise bei chronisch entzündlichen Erkrankungen.

    Entzündung – Auswirkungen auf den Knochenumbau

    Entzündung ist generell die Antwort des Körpers auf eine durch infektiöse oder nicht-infektiöse Auslöser hervorgerufene Schädigung, mit dem Ziel diese in Grenzen zu halten und zu beheben. Im Entzündungsprozeß werden unterschiedliche Zellpopulationen aus dem Repertoire des angeborenen, unspezifischen Immunsystems und des erworbenen (adaptiven), spezifischen Immunsystems aktiviert, welche mit der Ausschüttung von Botenstoffen (Cytokinen) reagieren.

    Cytokine sind Proteine, die Signale von Zelle zu Zelle übertragen: von einer Zelle ausgeschüttet docken sie an der Oberfläche einer anderen Zelle an ein hochspezifisches (Rezeptor-) Protein an und lösen damit im Inneren der Zelle Signalprozesse aus, die das Wachstum und die Differenzierung der Zelle initiieren und regulieren.

    Die im Entzündungsprozeß sezernierten Cytokine üben massive Effekte auf das Wachstum von Osteoblasten und Osteoklasten aus und auf deren Differenzierung aus Vorläuferzellen. Diese Signalmoleküle führen nicht nur zum Fortbestehen der Entzündung, sie bewirken auch, daß die Knochenresorption aktiviert und die Knochenbildung inhibiert werden. Tatsächlich konnte gezeigt werden, daß die Stärke der entzündlichen Reaktion mit dem Ausmaß an lokalem und systemischem (d.h. auf das gesamte Skelettsystem sich auswirkendem) Knochenschwund korreliert.

    Entzündliche Erkrankungen, die mit systemischer Osteoporose und erhöhter Anfälligkeit für Knochenbrüche einhergehen, können überall in unserem Organismus auftreten. Darunter fallen rheumatologische Krankheiten, wie die rheumatoide Arthritis im Stütz-und Bewegungsapparat, die Autoimmunerkrankung systemischer Lupus erythematodes (SLE), axiale Spondylarthritis und psoriatische Arthritis, ebenso wie die chronisch-entzündliche Darmerkrankung („inflammatory bowel disease“ Abkürzung: IBD), Zoeliakie, cystische Fibrose , chronisch obstruktive Lungenerkrankung („chronic obstructive pulmonary disease“, Abkürzung: COPD) und Parodontitis in der Mundhöhle. Der an Patienten mit diesen Erkrankungen beobachtete Knochenschwund findet seine Bestätigung auch in experimentellen Modellen zu Arthritis und Colitis.

    Zwei der beim Menschen am häufigsten auftretenden chronischen entzündlichen Defekte seien als Beispiele kurz beschrieben: Parodontitis, durch Infektionen des Zahnfleisches mit verschiedenen Bakterien ausgelöst, stellt ein erhöhtes Risiko für die Entstehung anderer Krankheiten dar, die mit chronischer Entzündung assoziiert werden, beispielsweise mit koronarer Atherosklerose und systemischer Osteoporose. Zusätzlich erfolgt hier auch lokaler – alveolarer (= hinter den oberen Schneidezähnen) – Knochenschwund. Dieser dürfte zumindest teilweise durch eine bakteriell verursachte Aktivierung von Immunzellen (T-Zellen) hervorgerufen werden, die ihrerseits lokal die Bildung von Osteoklasten stimulieren.

    Rheumatoide Arthritis führt zu ähnlichen systemischen Knochenveränderungen wie alle anderen entzündlichen Erkrankungen. Daneben erfaßt die Entzündung lokal alle Bereiche eines Gelenks, wie die Gelenkskapsel mit der zuinnerst liegenden synovialen Membran, Knorpel und gelenksnahe Knochen und führt zu deren Erosion. Unter dem Einfluß von Entzündungsfaktoren (die proinflammatorischen Cytokine IL-6 und TNF-alpha), die in sehr hoher Konzentration in der Gelenkinnenhaut (Synovialmembran) vorliegen, werden aus Vorläuferzellen Osteoklasten gebildet und aktiviert.

    Zusammenfassung

    Entzündung ist eine wesentliche, allerdings meistens ignorierte Ursache für die Entstehung von lokalem und systemischen Knochenschwund, der schließlich zur starken Einschränkung der Beweglichkeit bis hin zu Invalidität und erhöhter Mortalität führt.

    Welche Therapien zur kausalen Bekämpfung des Entzündungsprozeßes zur Verfügung stehen und welche Strategien zur Inhibierung von Differenzierung, Aktivierung und Funktion von Osteoklasten und zur Stimulierung von Osteoblasten erfolgversprechend sind, soll in einem folgenden Beitrag dargestellt werden.


    Weiterführende Links

    Der 2. Teil des Artikels: Chronische Entzündungen als Auslöser von Knochenschwund – Therapeutische Strategien http://scienceblog.at/chronische-entz%C3%BCndungen-als-ausl%C3%B6ser-von-knochenschwund-%E2%80%93-therapeutische-strategien#.

    Arthritis. Video 8:1 min. https://medizinmediathek.vielgesundheit.at/filme/krankheitsbilder/filmdetail/video/arthritis.html

    Werden Rheuma-Gelenke bald Medizingeschichte? (aerztezeitung.de)


     

    inge Thu, 19.07.2012 - 05:20

    Unzähmbare Neugier, Innovation, Entdeckung und Bastelei

    Unzähmbare Neugier, Innovation, Entdeckung und Bastelei

    Do, 12.07.2012- 00:00 — Peter Schuster

    Icon ###Gebiet###Peter Schuster

    Sind wir dazu verdammt auf dem Weg einer immerzu steigenden Komplexität unserer Welt fortzuschreiten? Unsere Neugier treibt uns an Unbekanntes zu erforschen, Neues zu entdecken und Innovation auf der Basis des bereits Etablierten zu suchen.

    Während die technologische Entwicklung auf der Entdeckung neuer Komponenten ebenso wie auf Innovation (das heißt, einer Verknüpfung bereits etablierter Bausteine zu neuen Objekten) beruht, bedient sich die biologische Evolution praktisch ausschließlich der Innovation, verknüpft bastelnd vorhandene Bausteine und gelangt so zu einer immer höheren Komplexität ihrer Schöpfungen.

    Ein Trapper des achtzehnten Jahrhunderts benötigte eine Schachtel Zündhölzer, ein Gewehr und ein Messer, vielleicht noch ein Zelt und ein Kanu oder einen Hundeschlitten, um in der Wildnis zu überleben. Heute würde sich in derselben Situation praktisch jeder von uns unbehaglich fühlen, hätte er nicht zusätzlich auch noch GPS, ein Handy mit Internet Zugang, eine Erste-Hilfe Schachtel mit zumindest Aspirin, einem Antibiotikum und einem Serum gegen Schlangenbisse und eine Reihe weiterer Utensilien mit dabei. Im Vergleich zur langen Geschichte des Menschen ist seit den glorreichen Tagen des Trappers nur eine winzige Zeitspanne vergangen, die Komplexität des Lebens hat seitdem aber zweifellos enorm zugenommen.

    Wie wird sich die Komplexität des Lebens weiter entwickeln?

    Dieser Artikel versucht dazu Aussagen aus drei verschiedenen Quellen zu kombinieren. Diese stammen: (i) aus dem Buch „Unersättliche Neugier. Innovation in einer fragilen Zukunft“ der österreichischen Soziologin und Wissenschaftsforscherin Helga Nowotny (1), (ii) aus einem Artikel des in den USA lebenden irischen Ökonomen Brian Arthur und des Informatikers Wolfgang Polak, die ein einfaches Computer-Modell zur Evolution der Technologie entwickelt haben (2) und (iii) aus dem Konzept des französischen Genetikers und Nobelpreisträgers Francois Jacob über „Evolution and Tinkering“ (Evolution und Herumbasteln) (3), das kürzlich von Wissenschaftern wiederaufgenommen wurde.

    Wie Helga Nowotny die Zukunft sieht

    Das Buch von Helga Nowotny (1), aus dessen Titel der Begriff der unersättlichen Neugier – variiert in unbezähmbare Neugier - übernommen wurde, zeichnet ein ziemlich unsicheres Bild der Zukunft, das man leicht modifiziert mit den folgenden Sätzen umreißen kann:

    • Naturwissenschafter und die Naturwissenschaft ganz allgemein sind von Neugier getrieben, Neugier ist ein nicht zu befriedigender Trieb, der zur Innovation führt.
    • Erfolg und Fortschritt in den Naturwissenschaften werden in Termen ihres Innovationspotentials gemessen. Die Zunahme an Innovationen treibt die westliche Welt und - auf Grund der Globalisierung- die gesamte Welt in eine fragile Zukunft, die voll von Risiken und Gefahren ist.
    • Zukunftsängste, die sich von den all zu raschen Veränderungen innerhalb der letzten Jahrzehnte herleiten, lassen unsere Gesellschaften am wissenschaftlichen Fortschritt zweifeln, hin- und hergerissen zwischen hoffnungsvoller Akzeptanz und heftigster Ablehnung der Neuerungen.

    Auch, wenn man in dem Gesagten den unausgesprochenen Wunsch Nowotnys zu spüren vermeint, diese ganze unheilbringende Entwicklung anhalten zu wollen, akzeptiert sie den Innovationsprozeß als unvermeidbar, plädiert aber für eine neue Synthese, die Naturwissenschaften, Technologie und Humanwissenschaften vereint. Wenn sie in dieser Synthese nun ein kulturelles und moralisches Filter für Neuerungsprozesse vorschlägt, die unsere kollektive Zukunft betreffen, so sollte bedacht werden, daß der naturwissenschaftlich-technologische Wissensstand (eines Großteils) der heutigen Kulturwissenschafter diese wohl kaum dazu befähigt um über Sinn und Bedeutung von Innovationsprozessen ein Urteil abzugeben. Läßt sich unersättliche Neugier durch kulturelle und moralische Filter überhaupt zähmen? Vielleicht in einigen (wenigen) Gesellschaften, sicherlich nicht auf globaler Ebene. Hier wäre dazu anzumerken, daß wir die Neugier ja von unseren Vorgängern, den Primaten und ganz generell von den Säugetieren, geerbt haben und, daß diese – ebenso wie Innovation oder Fortschritt – a priori weder als gut noch als schlecht zu bewerten ist. In anderen Worten: Neugier ist ein genetisch vererbtes Merkmal und keine moralische Kategorie.

    Ein Computer-Modell zur Evolution der Technologie

    Der Artikel von Arthur und Polak (2) führt ein Computer-Modell der kombinatorischen Evolution ein, welches die Entwicklung der Technologie-Welt recht gut abbildet. Die Grundlage des Modells ist, daß neue Objekte hergestellt werden durch die Kombination von Modulen aus einer Kollektion einfacherer Hilfsmittel. Ein Weiterverbinden von bereits kombinierten Einheiten zu neuen Kombinationen erlaubt so eine praktisch unendliche Zahl an Objekten mit steigender Komplexität zu entwerfen. Dabei führt auch ein wahlloses Kombinieren von einfachen logischen Elementen zu erstaunlich komplexen logischen Operatoren – und dies geschieht in einem Prozeß evolutionärer Selbst-Organisation ohne Eingriff von außen. Wenn auf diese Variation durch Kombination von Kombinationen nun auch noch Selektion durch Ökonomie und Gesellschaft erfolgt, entsteht ein plausibles Modell für die Entwicklung von Technologien. In diesem Zusammenhang ist erwähnenswert, daß bereits Jaques Monod die Evolution von Technologien als einen Fall von Darwin’scher Selektion ansah und sogar als ein besseres Beispiel als die in der Biologie erfolgende Selektion. Eine sehr attraktive Eigenschaft dieses kombinatorischen Evolutions-Modells ist es, daß Technologien wie in der realen Welt beschränkte Lebensdauern haben und ihr Ersatz den gut bekannten Regeln der selbst-organisierten Kritikalität folgt: Viele kleine Änderungen stehen dabei einigen großen Änderungen gegenüber und die Verteilung dieser Ereignisse folgen einer Exponentialfunktion, wie man sie auch für so unterschiedliche Phänomene wie den Abgang von Lawinen, die Stärke von Erdbeben, das Aussterben von Spezies in der Paläontologie oder das allometrisches Skalieren gefunden hat. Infolge der vielfachen Verwendung derselben Bausteine ergeben sich wechselseitige Abhängigkeiten und führen dazu, daß große Gruppen von Objekten gleichzeitig nutzlos werden, wenn ein Schlüssel-Baustein durch eine neue Technologie ersetzt wird. Daraus resultieren „Lawinen des Ersatzes“, wie sie schon von Josef Schumpeter diskutiert und als „Sturm der Zerstörung“ charakterisiert wurden. Dazu gibt es sehr viele Beispiele, unter anderem in der Beleuchtungstechnik, wo die Pechfackel durch die Kerze ersetzt wurde, die Kerze durch den Glühstrumpf und schließlich durch die Glühlampe. In der Elektronik wurden die Röhren nahezu vollständig durch Transistoren ersetzt. Die Einführung einer neuen Technologie führt meistens auch dazu, daß die Größe eines Gerätes, einer Anlage reduziert wird und manchmal auch – zumindest teilweise – deren Komplexität. Ein klares diesbezügliches Beispiel zeigt der Vergleich von mechanischen Rechenmaschinen, den riesigen voll mit Röhren ausgestatteten ersten Computern und den modernen Computern auf Basis der Silizium-Technologie.

    Biologische Evolution durch Herumbasteln

    Ein dritter, nicht weniger wichtiger Stein, der in das Puzzle der Innovation paßt, kommt aus der Biologie. Die Molekulargenetik und insbesondere die Genom-Forschung haben zahlreiche überzeugende Hinweise geliefert, daß biologische Evolution und Entwicklung als Folge eines Herumbastelns aber nicht auf Grund eines rationalen Designs erfolgen. Die Natur verhält sich nicht wie ein Ingenieur, sie geht nicht von einer Planung aus, sondern baut Neues in der Weise, daß sie Teile aus einem bereits bestehenden und rasch verfügbaren Repertoire von Bausteinen kombiniert. Die über die letzten dreißig Jahre gesammelten molekularen Daten haben zu völlig neuen Einsichten in der evolutionären Entwicklungsbiologie („evo-devo“) geführt. Das genetische Regulationssystem eines Organismus stellt sich als ein äußerst komplexes Netzwerk dar, in dem Genprodukte jeweils mehrere Funktionen erfüllen können, das bedeutet, daß ein- und dasselbe Molekül für verschiedene Zwecke in der Zelle, im Organismus eingesetzt wird. Neue Bauweisen von Körpern, neue phänotypische Anlagen entstehen nicht durch neue Moleküle, sondern durch die Wiederverwendung vorhandener Moleküle in verschiedenen neuen Kombinationen. Zahlreiche Verwendungszwecke einzelner Bausteine, anders als im Fall der Technologien, schaffen Netzwerke steigender Komplexität und erfordern immer kompliziertere Mittel der Regulation. Die besten indirekten Hinweise auf das Basteln der biologischen Evolution sind unsere enormen Schwierigkeiten die molekularen Maschinen der Natur zu durchschauen -- die Evolution hat sie ausschließlich so entwickelt, dass sie funktionieren, und nicht, dass wir ihre Funktionsweise verstehen können.

    Biologische Evolution versus technologische Evolution

    Es besteht ein wesentlicher Unterschied zwischen biologischer und technologischer Evolution: Sind Lösungen von Problemen einmal etabliert, so werden sie in der Biologie praktisch nie ersetzt. Unsere Zellen nutzen noch dieselben Synthesemaschinen für die Produktion von Biopolymeren wie der letzte gemeinsame Vorfahre allen terrestrischen Lebens (Es wird angenommen, daß dieser hypothetische einzellige Organismus ein Abkömmling der ersten lebenden Zelle , der sogenannten Progenote ist) . Der Innenraum heutiger Zellen, insbesondere das Cytosol spiegelt das Milieu der „Ursuppe“ bezüglich des Sauerstoffdrucks und des Verhältnisses der Kationen von Natrium zu Kalium und Calcium zu Magnesium viel besser wieder, als das Milieu heutiger Ozeane. Die Entwicklung des Auges von Wirbeltieren, Insekten und Mollusken folgt genetisch verfolgbaren, phylogenetischen Routen, die sich von einer einzigen genetisch regulatorischen Einrichtung und vermutlich von einem einzigen frühen lichtempfindlichen Pigment herleiten. Es könnten noch sehr viele weitere Beispiele angeführt werden für das Prinzip der Natur eines „Aufbauen auf dem Vergangenen“. Anders als in der Evolution von Technologien, wurde die Maschinerie, welche die Entwicklung zu höherer Komplexität treibt, niemals durch die Einführung einfacherer, auf neuen Technologien basierender Mittel zurückgefahren. Die Folgen sind ein unerhört komplexes System der genetischen Regulation, der Signalübertragung, des zellulären Metabolismus. Eben dieses unglaublich verwobene Netzwerk ist es, was Zellen und Organismen so schwer verständlich erscheinen läßt.

    Entdeckung ist nicht gleich Innovation

    Es erscheint hier angebracht den Unterschied zwischen den Begriffen Entdeckung und Innovation klar zu stellen. Eine Entdeckung führt etwas vollkommen Neues in ein bestehendes System ein. Beispielsweise war dies der Halbleiter in der modernen technologischen Entwicklung oder die Entdeckungen der Natur in der Phase der präbiotischen Evolution, wie die Proteinfaltung der alpha-Helix oder die DNA-Doppelhelix. Innovation kann dagegen als Kombination bereits bestehender Elemente in einem neuen Zusammenhang verstanden werden. Die beiden oben erwähnten Publikationen behandeln derartige Innovationen. Entsprechend diesen Definitionen stellt die technologische Entwicklung eine Mischung von beiden, Entdeckung und Innovation dar: Entdeckungen führen neue Technologien ein und ermöglichen die Entwicklung von Einrichtungen von Grund auf, wohingegen Innovation die Konstruktion komplexer Einrichtungen mit Hilfe der kombinatorischen Evolution bewerkstelligt. Dagegen sind in der Evolution der Natur Entdeckungen offensichtlich auf die frühen Phasen der Entwicklung beschränkt – auf die Schaffung neuer hierarchischer Ebenen von Komplexität, die auch als „Perioden großer Übergänge“ bezeichnet werden. Der Rest scheint ein Herumbasteln mittels neuen Kombination zu sein.

    Unersättliche Neugier: nach dem Unbekannten forschen, Innovation suchen und Herumbasteln

    Schließlich sollten wir eine Synthese der drei unterschiedlichen Begriffe: Entdeckung, Innovation und Bastelei versuchen und über den Ursprung und die Konsequenz der unbezähmbaren Neugier nachzudenken. Nach dem Unbekannten zu forschen und Innovation zu suchen, scheint eine Anlage zu sein, die wir in unterschiedlichem Ausmaß mit allen Säugetieren teilen und die möglicherweise ein Ergebnis der Evolution des Gehirns ist. Ich meine dazu, daß Neugier einen Selektions-Vorteil dar stellt, zumindest solange als dabei nicht ein Großteil der Bevölkerung infolge eines unkontrollierten Fortschreitens in gefährliches Terrain zugrunde geht. Die Vermeidung der Eigenschaften, die zu derartig fatalen Ergebnissen führen können, wird offensichtlich durch die Erziehung der Nachkommenschaft bewirkt, durch Eltern, die ihre Jungen eines zu neugierigen Forschens entwöhnen. Ein Herumbasteln, das zur Innovation führt, steigert die Komplexität, da sie Module zu Netzwerken mit auf allen Ebenen stattfindenden Wechselbeziehungen kombiniert. In der technologischen Evolution läßt sich die „Uhr der Komplexität“ zurückdrehen, wenn Elemente einer neuen Technologie entdeckt werden. In der Natur erscheint dies äußerst schwierig, wenn nicht überhaupt unmöglich zu sein. Soweit die Biologie betrachtet wird, bedeutet eine Reduktion der Komplexität ein Aussterben ganzer Stämme von Lebewesen, denn nur dann kann die Evolution an einer weniger komplexen Wurzel wieder starten. Sind wir also – wie im Titel gefragt - dazu verdammt auf dem Weg einer weiter und weiter steigenden Komplexität fortzuschreiten? Wenn die Evolution der humanen Spezies als Ganzes mehr einer biologischen Evolution entspricht, dann können wir dem Wettlauf nicht entkommen, daß immer komplexere Gesellschaften gebildet werden, mit immer steigendem bürokratischen Mehraufwand. Wenn sich Gesellschaften allerdings eher nach den Mechanismen der technologischen Evolution entwickelten, dann könnte es gelingen durch neue Qualitäten in den zwischenmenschlichen Beziehungen die „Uhr der Komplexität“ zurückzudrehen. Diese optimistische Sicht wird allerdings durch die Realität Lügen gestraft: Hypertrophe staatliche Verwaltungen haben sich noch nie von selbst zu einfacheren Strukturen zurückentwickelt, sie wurden vielmehr nur durch einen Zusammenbruch des Gemeinwesens beseitigt -- Beispiele dafür gibt es von der Antike bis in die jüngste Zeit. Holzstich des FlammarionUnbezähmbare Neugier, die den Menschen antreibt nach dem Unbekannten zu forschen und dabei über seine Grenzen hinauszugehen? Freie Interpretation des „Holzstichs des Flammarion“ (unbekannter Künstler aus Camille Flammarion, L'Atmosphere: Météorologie Populaire, Paris, 1888; Bild: Wikipedia)

    -----------------------------------------------------------------------------------------------

    [1] Nowotny, H. Unersättliche Neugier. Innovation in einer fragilen Zukunft. Kulturverlag Kadmos. Berlin 2005. In German. See also H: S. Markl. Fear of the future. Will scientific innovation bring progress and benefits, or just risks and dangers? Nature 437:319-320, 2005.

    [2] Arthur, W.B., Polak, W. The evolution of technology within a simple computer model. Complexity 11/5:pp-pp, 2006. See also W. Brian Arthur, The Nature of Technology: What it Is and How it Evolves. The Free Press, a division of Simon and Schuster, New York 2009.

    [3] Jacob, F. The possible and the actual. Pantheon Books, New York, 1982. See also: Evolution and tinkering. Science 196:1161-1166, 1977.


    Weiterführende links:

    Die unter (1) – (3) zitierte Literatur kann auf Anfrage vom Autor erhalten werden.

    Wissen macht unwissend: über die Thematik von Unersättliche Neugier. Innovation in einer fragilen Zukunft .


     

    inge Thu, 12.07.2012 - 00:00

    Entdeckungen vor 100 Jahren: Kosmische Strahlung durch Viktor Franz Hess, Kontinentalverschiebung durch Alfred Wegener

    Entdeckungen vor 100 Jahren: Kosmische Strahlung durch Viktor Franz Hess, Kontinentalverschiebung durch Alfred Wegener

    Do, 28.06.2012- 05:20 — Siegfried J. Bauer

    Icon Politik & GesellschaftSiegfried J. Bauer

    Eine historische Betrachtung der Zeitgenossen Wegener und Hess, die zu den bedeutendsten Naturwissenschaftlern gehören, die je an österreichischen akademischen Institutionen wirkten. Aus dem Konzept der Kontinentalverschiebung leitet sich die heutige Theorie der Plattentektonik ab. Die Entdeckung der Kosmischen Strahlung initiierte die Auffindung neuer Elementarteilchen und die Erforschung der in den Sternen ablaufenden Kernreaktionen, die zur Entstehung der Elemente führen und unser heutiges Bild vom Ursprung des Universums prägen.

    Alfred Wegener und Viktor Franz Hess gehören gewiß zu den bedeutendsten Naturwissenschaftlern, die je an der Grazer Universität wirkten. In den Zwanzigerjahren des vorigen Jahrhunderts waren sie sogar für einige Jahre zeitgleich „Nachbarn“ am Physikalischen Institut. Beide erlangten Weltberühmtheit durch einfache aber revolutionäre Ideen, bis zu deren Akzeptanz einige Jahrzehnte vergingen.

    Im Falle Alfred Wegeners war es seine Theorie der Kontinentalverschiebung, die – im Gegensatz zum damaligen Bild einer statischen Erde – horizontale Bewegungen der Erdoberfläche implizierte.

    Bei Viktor Hess war es das Konzept einer von außen kommenden energiereichen Strahlung, die unter anderem für die Leitfähigkeit der Luft verantwortlich ist, aber nicht von der Sonne kommen konnte, da sie auch nachts und bei Sonnenfinsternis beobachtbar war.

    Für Hess kam die allgemeine Anerkennung nach 25 Jahren durch die Verleihung des Physik-Nobelpreises im Jahr 1936 für seine Entdeckung der „Kosmischen Strahlung“. Wegener hat die Bestätigung seiner Hypothese von der Wanderung der Kontinente nicht erlebt; sie erfolgte erst 30 Jahre nach seinem Tod in Form des heute erbrachten Beweises der Plattentektonik. Beide, Wegener und Hess, präsentierten ihre revolutionären Ideen als kaum Dreißigjährige.

    Ihrer Herkunft nach unterscheiden sich die beiden in hohem Maße, doch ihre wissenschaftliche Karriere weist manche Ähnlichkeit auf. Wegener wurde am 1.11.1880 in Berlin als Sohn eines evangelischen Pastors und Lehrers geboren; Hess geboren am 24.6.1883 auf Schloß Waldstein bei Graz, war der Sohn eines Forstbeamten im Dienste des Fürsten Liechtenstein.

    Forscher zwischen Erde und Kosmos

    Wegener studierte Astronomie und Meteorologie in Berlin, mit ein paar Semestern in Heidelberg und Innsbruck, und promovierte in Astronomie summa cum laude im Jahre 1905 in Berlin. Hess studierte Physik an der Universität Graz und promovierte hier im Jahre 1906 sub auspiciis imperatoris.

    Kontinentalverschiebung n. WegenerAbbildung 1. Aus A. Wegener: Ursprung der Meere und der Kontinente „A. Wegener hat hingegen neuerdings den kühnen Gedanken aufgeworfen, daß die großen Kontinentalmassen auf der Erdoberfläche selbständige Verschiebungen gegen einander ausführen“ (Bild: Wikipedia)

    Für Wegener begann nach seiner Habilitation in Meteorologie und Astronomie an der Universität Marburg an der Lahn ebendort eine Tätigkeit als Privatdozent, wobei er sich mit der Meteorologie befaßte und im Jahre 1911 sein vielbeachtetes Buch Thermodynamik der Atmosphäre veröffentlichte. Im Jahre 1912 präsentierte er erstmals seine Kontinental-verschiebungstheorie vor der Geologischen Vereinigung in Frankfurt am Main. Nach seiner im Jahr 1913 erfolgten Eheschließung mit Else Köppen, der Tochter des berühmten deutschen Klimatologen Wladimir Köppen, leistete er seinen Kriegsdienst im Ersten Weltkrieg, wobei er zweimal verwundet wurde. Während eines Erholungsurlaubes veröffentlichte er 1915 die erste Auflage seines nachmals weltberühmtem Buches Der Ursprung der Meere und der Kontinente.

    Viktor F. Hess wiederum wollte seine als Dissertation in Graz begonnenen Arbeiten eigentlich in Berlin fortsetzen, wurde aber durch den plötzlichen Tod von Prof. Paul Drude daran gehindert. Darauf verschaffte ihm sein Lehrer Leopold von Pfaundler, einer der ersten Hausherren des neu erbauten Grazer Physikalischen Instituts, einen Arbeitsplatz am 2. Physikalischen Institut der Universität Wien. Dies wurde für die weitere wissenschaftliche Entwicklung von Hess entscheidend und war letzten Endes auch der Grund für eine große Entdeckung.

    Dort hatte Franz S. Exner einen Kreis von hochbegabten Schülern um sich geschart und beschäftigte sich mit zwei neuen gebieten der damaligen Physik: der Radioaktivität und der Luftelektrizität. Hess habilitierte sich im Jahr 1910 auch mit einer Arbeit über die Radioaktivität in der Luft und erhielt im gleichen Jahr die Stelle eines ersten Assistenten am neu gegründeten Radiuminstitut der Akademie der Wissenschaften, dessen Direktor Stefan Meyer war, in welchem er auch einen Freund und großzügigen Förderer seiner Arbeiten fand. Bei mehreren Ballonaufstiegen im Jahr 1912 konnte Hess nachweisen, daß die elektrische Leitfähigkeit der Luft, die auf Grund der Ionisation durch die harte Gammastrahlung von radioaktiven Substanzen am Boden hervorgerufen wird, zuerst mit der Höhe abnimmt, dann aber oberhalb einer Höhe von 1800 m wieder zunimmt, um bei 5000 Metern einen vielfach höheren Wert als am Boden zu erreichen.

    Ballonfahrt v. Viktor v. Hess um 1912Abbildung 2. Ballonfahrt von Viktor F. Hess. Zwischen 1911 und 1913 führte Hess bei Tag und Nacht 10 Ballonaufstiege bis in Höhen von über 5 km durch (Bild: Wikipedia)

    Für Hess lag die einzig mögliche Erklärung in einer von außen kommenden „extraterrestrischen“ Strahlung. Die Beobachtungen von Hess wurden im folgenden Jahr von W. Kohlhörster bestätigt, aber es bestanden noch viele Jahre Zweifel an der Existenz der von Hess entdeckten Strahlung, und zwar sowohl in Europa als auch in den USA. Die Zeit war offensichtlich noch nicht reif für eine solch revolutionäre Entdeckung. Erst durch die Verleihung des Nobelpreises im Jahr 1936, den Hess gemeinsam mit dem Amerikaner C.G.Anderson erhielt, fand seine Entdeckung allgemeine Anerkennung. Für den bedeutenden englischen Physiker und ehemaligen Astronomer Royal Sie Arnold Wolfendale waren die Ballonmessungen von Hess im Jahre 1912 gewissermaßen die Geburtsstunde der kosmischen Strahlung (englisch: cosmic rays).

    Die Entdeckung von Hess war nur dadurch möglich, daß er ein begeisterter und erfahrener Ballonfahrer war, eine Eigenschaft, die er mit Wegener teilte. Dieser hatte mit einem gemeinsam mit seinem Bruder, dem Meteorologen Kurt Wegener unternommenen, 52-Stunden-Ballonflug im Jahr 1906 einen Weltrekord aufgestellt. Wie Wegener leistete auch Hess Kriegsdienst im Ersten Weltkrieg, und zwar als Leiter der Röntgenabteilung eines Reservelazaretts. Daneben führte er mit einem Engländer namens Lawson, der in Wien vom Kriegsausbruch überrascht worden war, eine Präzisionsbestimmung der vom Radium ausgesandten Alphateilchen (Heliumkerne) durch und wandte als erster den heute wohlbekannten Geiger-Zähler für die Messung von Gammastrahlen an.

    Nach dem Ersten Weltkrieg wurde Alfred Wegener als Nachfolger seines Schwiegervaters W. Köppen als Chefmeteorologe an die Universität Hamburg berufen (1919 – 1924). Mitte der Zwanzigerjahre gab es dann auch den ersten Kontakt zwischen Wegener und Hess in Graz. Im Herbst 1920 wurde Hess zum Extraordinarius für Physik an der Universität Graz ernannt, aber fast gleichzeitig erhielt er, als einer der ersten Ausländer nach dem Ersten Weltkrieg einen Ruf in die USA, um dort als Chefphysiker der US Radium Corporation ein Forschungslabor aufzubauen. Er tat dies während einer zweijährigen Beurlaubung von seiner Grazer Position und hielt auch Vorträge an amerikanischen Universitäten; zudem war er auch als beratender Physiker des US Department of Interior tätig. Trotz günstiger Angebote zog es Hess jedoch vor, wieder an seine Grazer Lehrkanzel zurückzukehren, wo er 1925 zum Ordinarius ernannt wurde.

    Die „glücklichen Jahre“ Alfred Wegeners in Graz (1924 –1930)

    Im April 1924 wurde Alfred Wegener, nachdem sich die Verhandlungen mit dem Unterrichtsministerium wegen Fragen der Besoldung und der Bemessung des Pensionsdienstalters in die Länge gezogen hatten, als ordentlicher Professor für Meteorologie und Geophysik an die Universität Graz berufen. Damit begann Wegeners Grazer Periode, die in der von seiner Frau Else verfaßten Biographie als die „glücklichen Jahre“ bezeichnet wird. Wie wohl sich Wegener hier fühlte, kam in seiner Haltung zum Ausdruck, keinesfalls von Graz weggehen zu wollen und die ihm angebotenen Möglichkeiten von Berufungen nach Berlin und Innsbruck auszuschlagen.

    Zusammen mit den Wegeners übersiedelte nach Graz auch Alfred Wegeners Schwiegervater Wladimir Köppen, der, zehn Jahre nach Wegeners Tod in Grönland, im Alter von 93 Jahren in Graz verstarb. Mit ihm verfaßte Wegener im Jahr seiner Berufung nach Graz das Werk „Klimate der geologischen Vorzeit“, mit welchem die beiden Autoren auch den Arbeiten von Milutin Milankovitch über die astronomischen Ursachen der Eiszeiten zu einer weiten Verbreitung verhalfen. Auch dessen Theorie hatte einen gewissen revolutionären Charakter, denn die Periodizitäten in den Schwankungen von Erdachse, Präzession der Äquinoktien und Exzentrizität der Erdbahn wurden von Milankovitch als Ursache der Eis-und –Zwischeneiszeiten im Quartär angesehen.

    Heute weiß man, daß diese Theorie zwar nicht die wirklichen Temperaturschwankungen erklären kann, wohl aber, daß die Milankovitch-Zyklen als Zeitgeber in einem nichtlinearen Klimasystem wirken können. Das Buch von Köppen und Wegener war auch dazu angetan, aus Vergleichen des amerikanischen und afrikanischen Kontinents in der Vorzeit Argumente für die einstige Zusammengehörigkeit der beiden, und damit für die Existenz der Kontinentverschiebung zu liefern.

    Die Grazer Zeit war für Wegener insgesamt eine wissenschaftlich fruchtbare Periode. Es entstanden in diesen sechs Jahren vor seinem Tod 60 wissenschaftliche Publikationen, die von der ungeheuren Breite der Interessen Wegeners zeugen. Sie umfassen nicht nur neue Auflagen seines bekannten Buches Thermodynamik der Atmosphäre, sondern auch Neubearbeitungen seines magnum opus Entstehung der Kontinente und der Ozeane sowie Arbeiten über Impaktkrater durch Meteoriteneinstürze (Wegener war auch einer der ersten, der diese als Ursache der Mondkrater – statt Vulkanismus – vorschlug). Darüber hinaus befaßte er sich auch mit dem Polarlicht, leuchtenden Nachtwolken, Anfangs- und Endhöhen großer Meteore und beschäftigte sich mit der Atmosphäre in großen Höhen – in einem Bereich oberhalb des Wettergeschehens, der damals oft „Aerologie“ bezeichnet wurde, heute aber „Aeronomie“ genannt wird; diese bildet als Physik und Chemie der hohen Atmosphäre den Kontrast zur Meteorologie Es ist bemerkenswert, daß sich auch die Grazer Nachfolger Wegeners in der zweiten Hälfte des 20.Jahrhunderts (Otto Burkard und Siegfried Bauer) gerade auf dieses Gebiet besonders konzentrierten.

    Wegeners letzte Expedition

    Nachdem sich Wegener vor dem Ersten Weltkrieg bereits als ausländisches Mitglied der dänischen Grönland-Expedition angeschlossen hatte, nahm er auch an der Inlandeis-Expedition teil, die von seinem dänischen Freund Johann Peter Koch organisiert wurde und in deren Rahmen eine Überquerung der Grönland-Eiskappe von Ost nach West erfolgte. Es ist daher nicht verwunderlich, daß Wegener im Jahre 1928 eingeladen wurde, als Leiter einer kleinen Grönland-Expedition zu fungieren, die von der Notgemeinschaft der Deutschen Wissenschaft (Vorläufer der heutigen DFG) finanziert wurde, um Messungen der Eisdecke mittels Explosions-Seismik durchzuführen.

    Diese einzigartige Chance, nach Grönland zurückkehren zu können, benutzte Wegener auch, um meteorologische und glaziologische Untersuchungen vorzuschlagen. Eine Versuchsexpedition wurde 1929 mit den Meteorologen Johannes Gorgi und Fritz Loewe sowie dem Glaziologen Ernst Sorge durchgeführt. Während der im Jahr 1930 durchgeführten und bis 1931 geplant gewesenen Hauptexpedition wurde eine meteorologische Station „Eismitte“ auf 3000 m Höhe installiert.

    Auf seinem Wege von dort zurück mit dem Hundeschlitten ist Alfred Wegener kurz nach seinem 50. Geburtstag im November 1930 gestorben. Sein in einem Schlafsack eingenähter Leichnam wurde im Frühjahr 1931 entdeckt; von seinem Begleiter fehlt bis jetzt jede Spur. 30 Jahre nach seinem Tod im Grönlandeis wurde zum Gedenken an Alfred Wegener von österreichischen Bergsteigern eine Relief-Gedenktafel der Karl-Franzens-Universität Graz an einer Felswand im Kamarujukfjord in Grönland angebracht.

    Viktor F. Hess in Graz und Innsbruck (1920 – 1938)

    Während der „glücklichen Grazer Jahre“ Wegeners war auch Viktor Franz Hess sein Nachbar im Physikalischen Institut geworden. Eine enge persönliche Freundschaft verband Wegener jedoch mit dem damaligen Direktor des Physikalischen Instituts, Hans Benndorf, der ein besonderes Naheverhältnis zur Geophysik hatte. Da es in Graz keine Radiumpräparate gab, begann sich Hess wieder mit dem Problem der elektrischen Leitfähigkeit der Luft und ihren Ursachen zu beschäftigen, was in einem ausführlichen Werk seinen Niederschlag fand. Zur weiteren Erforschung der kosmischen Strahlung unternahm er auch Messungen auf dem Hochobir in Kärnten und organisierte mit Unterstützung der Österreichischen Akademie der Wissenschaften Expeditionen auf den über 3000 m hohen Sonnblick, zum Zwecke der Registrierung der zeitlichen Schwankung dieser Strahlung. Im Jahr 1931 erhielt Hess einen Ruf an die Universität Innsbruck, die ihm die Gelegenheit bot, auf dem mit der Seilbahn leicht erreichbaren Hafelekar ein Laboratorium zur Dauerregistrierung der Kosmischen Strahlung einzurichten. Dort führte er weitere Untersuchungen durch, einschließlich solcher, die sich auf die biologische Wirkung dieser Strahlung beziehen, welche ja auch für Mutationen der Erbmasse verantwortlich ist.

    Im Jahr 1937 folgte Hess, nachdem ihm der Nobelpreis verliehen worden war, einem Ruf nach Graz als Nachfolger Hans Benndorfs. Aber schon im darauf folgenden Jahr, nach der Annexion Österreichs, wurde er in den Ruhestand versetzt und ohne Pension entlassen. Sogar sein finanzieller Anteil am Nobelpreis ging verloren, da er gezwungen war, das Kapital gegen deutsche Reichsschatzscheine auszutauschen. Hess war zwar ein überzeugter Katholik und zeigte auch aufgrund seiner Auslandsaufenthalte eine kosmopolitische Einstellung, hatte sich aber politisch nie betätigt. Er empfand daher seine Behandlung durch die neuen Machthaber umso schmerzlicher und verließ im Herbst 1938 seine Heimat, um an der Fordham University in New York seine Arbeiten fortzusetzen, wo er bis zu seiner Emeritierung im Jahr 1956 wirkte.

    Viktor F. Hess in den USA (1938 – 1964)

    In den USA widmete sich Hess nicht mehr seinen experimentellen Arbeiten über Kosmische Strahlung, sondern der Radioaktivität von Gesteinen, Fragen des Strahlenschutzes und der Radiobiologie – alles Themen, die heute wieder von großer Wichtigkeit geworden sind. Es blieb daher anderen vorbehalten, das große Potential der kosmischen Strahlung auszunutzen. So wurden in der Folge verschiedene Bausteine der Materie, so etwa das Positron, die Mesonen und Hyperonen in der Kosmischen Strahlung entdeckt und diese Strahlung wurde damals überhaupt zum Laboratorium der Hochenergie-Physiker, da die Energien, wie sie die Teilchen der Kosmischen Strahlung besitzen, in irdischen Laboratorien nicht erreicht werden konnten.

    Obwohl Hess sich in den USA rasch eingelebt hatte, blieb er in seinem Inneren stets Österreicher. Er war zu wiederholten Malen nach Kriegsende in seiner Heimat und im Jahr 1948 wirkte er sogar als Gastprofessor an der Universität Innsbruck. Auch zu seinem 75. Geburtstag weilte Hess wieder in der Heimat, doch konnte er sich trotz wiederholter Einladungen nicht mehr dazu entschließen, nach Österreich zurückzukehren. Er starb im Dezember 1964 in Mount Vernon, N.Y. im Alter von 81 Jahren.

    Hess war allerdings noch vergönnt mitzuerleben, wie seine Entdeckung der Kosmischen Strahlung im Zeitalter der Weltraumforschung immer größere Bedeutung erlangte. So war auch die erste neue Entdeckung, die mit künstlichen Erdsatelliten im Jahr 1959 gemacht wurde, eigentlich das Resultat einer weiteren Erforschung der Kosmischen Strahlung. Prof. James van Allen hatte auf den ersten Explorer-Satelliten der USA Geiger-Zähler eingebaut, um die Kosmische Strahlung in großer Entfernung von der Erde zu messen. Dabei entdeckte er die sogenannten Strahlungsgürtel, die unsere Erde umgeben und heute seinen Namen tragen. Interessanterweise stellte sich heraus, daß diese Strahlungsgürtel durch die Einwirkung der kosmischen Strahlung auf unsere „Erdatmosphäre“ gespeist werden; auch das in der archäologischen Altersbestimmung verwendete radioaktive Kohlenstoffisotop C-14 entsteht auf diese Weise.

    Wie alle großen Entdeckungen haben auch die Hess’sche Entdeckung der Kosmischen Strahlung und Wegeners revolutionäre Theorie der Kontinentalverschiebung keine endgültigen Antworten gebracht, sondern neue Fragen für neue Generationen von Forschern aufgeworfen. Die Namen Alfred Wegener und Viktor Franz Hess sind mittlerweile längst in den Annalen der Wissenschaft verewigt.


    Weiterührende Links

    Zu Viktor F. Hess

    Viktor Hess und die Entdeckung der Kosmischen Strahlung, Georg Federmann: Thesis, 2003; http://www.federmann.co.at/vfhess/downloads.html

    Nobelpreis: http://www.nobelprize.org/nobel_prizes/physics/laureates/1936/hess-bio.html

    Woher kommt die Teilchenstrahlung aus dem Weltall? In: Uni(versum) für alle! (18,4 min) http://www.youtube.com/watch?v=iovpTxto93E

    Ausstellung Schloß Pöllau (Hartberg): Strahlung – der ausgesetzte Mensch (15. Mai bis 30. November 2014; Donnerstag bis Sonntag, von 10:00 bis 17:00 Uhr) im Museum echophysics (European Centre for the History of Physics)

    Zu Alfred Wegener

    Die Entstehung der Kontinente - Alfred Wegener und die Plattentektonik (14,59 min.) http://www.youtube.com/watch?v=mC9MLsenTCk

    Ausführliche Darstellung des Curriculums (aus dem Alfred Wegener Institut für Polar-und Meeresforschung): (http://www.awi.de/de/entdecken/geschichte_der_polarforschung/bedeutende_polarforscher/alfred_wegener/

    Transkription der handschriftlichen Bemerkungen in Alfred Wegener: Die Entstehung der Kontinente und Ozeane (1. Auflage 1915, 38 Seiten): http://www.awi.de/fileadmin/user_upload/News/2012_1/Transkr_Notizen_Entst_d_Kont_Ozeane.pdf


     

    inge Thu, 28.06.2012 - 05:20

    Der Kobold in mir — Was das Kobalt unseres Körpers von der Geschichte des Lebens erzählt

    Der Kobold in mir — Was das Kobalt unseres Körpers von der Geschichte des Lebens erzählt

    Do, 21.06.2012- 00:00 — Gottfried Schatz

    Icon Biologie

    Gottfried Schatz

    Das Kobalt enthaltende Vitamin B12 ist essentiell für die normale Funktion von Gehirn und Nervensystem spielt eine zentrale Rolle in der Blutbildung. Für die nötige Zufuhr sind wir direkt oder indirekt auf Mikroorganismen- die einzigen Produzenten des Vitamins - angewiesen.

    Die Fabelwelt der Alpen war stets reich an Schreckensgestalten. In Winternächten bedrohten Perchten, Habergeissen und Krampusse einsame Wanderer, und tief unter Tag spiegelten die Berggeister Kobold und Nickel in Gestalt gleissender Erze den Knappen Silberadern vor. Anstatt des begehrten Edelmetalls lieferten diese Erze bei der Schmelze jedoch nur unansehnliche Schlacke – und der Kobold dazu noch hochgiftiges Arsenoxid, das unter dem Namen «Hüttrauch» als heimtückisches Mordgift berüchtigt war. Erst als die Silberminen sich erschöpften, lernten schlesische Bergleute auch das einst verachtete Kobolderz schätzen, weil es Gläsern und Glasuren eine tiefblaue Farbe verlieh. Im Jahre 1737 zeigte schliesslich der schwedische Chemiker George Brandt, dass die giftigen Kobolderze neben den bereits bekannten Elementen Arsen und Schwefel ein bis dahin unbekanntes metallisches Element enthielten, das seither unter dem Namen Kobalt den Platz 27 im Periodensystem der Elemente besetzt.

    Ein molekularer Käfig

    Die schlesischen Bergleute hatten den Wert des Kobalts allerdings nicht als Erste erkannt. Die Ägypter waren ihnen dabei um mindestens drei Jahrtausende zuvorgekommen – und auch sie waren nur späte Epigonen einzelliger Lebewesen, die vor etwa drei Milliarden Jahren die Zauberkräfte des Kobalts für schwierige chemische Reaktionen einsetzten wie die Verknüpfung oder Trennung zweier Kohlenstoffatome. Die Zellen hefteten dazu das Kobalt an bestimmte Proteine an und konnten mit diesen kobalthaltigen «Enzymen» neuartige Stoffwechselprozesse entwickeln. Um einige dieser Enzyme noch wirksamer zu gestalten, umgaben die Zellen das Kobalt mit einem kunstvollen molekularen Käfig.

    Der molekulare Kobalt-KäfigAbbildung 1: Der molekulare Kobalt-Käfig. Der aus 183 Atomen bestehende Molekülkomplex hat im Zentrum ein Kobalt (Co,gelb), Kohlenstoffatome sind grau, Stickstoffe blau, Sauerstoffe rot, der Phosphor einer Phosphatgruppe ist grün. (Struktur: PDB1D 1DDY)

    Dieser Kobalt-Käfig ist eine chemische Glanzleistung des Lebens. Er gleicht einem molekularen Spinnennetz, in dessen Mittelpunkt ein Kobalt-Atom sich wie eine sechsbeinige Spinne mit fünf Beinen festhält und mit dem sechsten chemische Reaktionen vermittelt. Vieles spricht dafür, dass dieser Käfig vor etwa 2,75 bis 3 Milliarden Jahren entstand, als die Urmeere noch kein Sauerstoffgas enthielten. Chemiker tauften den mit Kobalt beladenen Käfig «Cobalamin». Sie versuchten vergeblich, seine Struktur aufzuklären, und mussten mit neidischer Bewunderung zusehen, wie dies der britischen Biophysikerin Dorothy Crowfoot Hodgkin nicht mit chemischen Methoden, sondern mit Röntgenstrahlen gelang. Im Jahre 1972 konnten dann der Schweizer Albert Eschenmoser und der US-Amerikaner Robert B. Woodward den Kobalt-Käfig im Laboratorium herstellen. Diese Synthese beschäftigte über hundert Chemiker elf Jahre lang und gilt als eine der schwierigsten und virtuosesten Totalsynthesen aller Zeiten.

    Höhere Lebensformen

    In seiner Frühzeit experimentierte das Leben nicht nur mit Kobalt, sondern auch mit Nickel, Eisen und Mangan, weil diese Metalle in den Urmeeren reichlich vorhanden waren. So entstanden metallhaltige Enzyme, die ungewöhnliche chemische Reaktionen ermöglichten und dem Leben immer neue biologische Nischen erschlossen. Als jedoch einige Lebewesen mit Hilfe des Sonnenlichts Sauerstoffgas aus dem Meerwasser freisetzten, liess dieses Gas schwefelhaltige Gesteine verwittern, so dass ihr Schwefel in die Meere spülte und Kobalt, Nickel, Mangan und Eisen als unlösliche Sulfide zum Meeresboden sanken. An ihrer Stelle reicherten sich nun Zink und Kupfer im Meerwasser an.

    Die damaligen Lebewesen konnten zwar ihre bereits vorhandenen Metall-Enzyme weiterhin herstellen, ersetzten jedoch deren Metalle allmählich durch Zink oder Kupfer oder entwickelten völlig neue zink- oder kupferhaltige Enzyme. Die höheren Lebensformen, die sich nach dem Auftreten von Sauerstoffgas entwickelten, erfanden kaum noch neue Kobalt-Enzyme, sondern begnügten sich mit denen, die sie von ihren Vorfahren erbten. Allmählich verlernten sie sogar, das lebenswichtige Cobalamin herzustellen. Sie überliessen diese Aufgabe einfachen Bakterien und mussten diese nun essen oder mit ihnen zusammenleben, um nicht zugrunde zu gehen. Nur höhere Pflanzen können heute ohne Cobalamin auskommen. Algen, Protozoen, Tiere und Menschen müssen es jedoch in winzigen Mengen mit ihrer Nahrung zu sich nehmen. Für sie ist es das lebenswichtige Vitamin B 12 – ein Erbe aus dem fernen «Kobaltzeitalter» des Lebens.

    Ich muss täglich nur ein bis zwei Millionstel Gramm dieses Vitamins essen, um langfristig zu überleben. Kein anderes Vitamin wirkt in so geringer Menge, vielleicht weil nur zwei der zahllosen chemischen Reaktionen in meinem Körper Vitamin B 12 benötigen. Doch ohne diese zwei Reaktionen wären meine Zellen gegen Sauerstoff überempfindlich und könnten weder genügend Energie noch Erbmaterial für Tochterzellen produzieren. Ich beziehe mein Vitamin B 12 zum Teil von meinen Darmbakterien, hauptsächlich aber von Fleisch, Milch und Eiern. Die Tiere, von denen diese Produkte stammen, bekommen das Vitamin wiederum von den in ihnen lebenden Bakterien oder von Pflanzen, die mit Bakterien oder an Vitamin B 12 reichen Tierexkrementen verunreinigt sind.

    Ein Tausendstelgramm

    Strikte Vegetarier oder Veganer, die auf alle tierischen Produkte verzichten und auf gut gewaschene Nahrung achten, könnten deshalb an Vitamin B 12 verarmen. Dies kann Jahrzehnte dauern, da die Leber einen mehrjährigen Vorrat speichert und der Dünndarm einen Grossteil des Vitamins vor seiner Ausscheidung in den Körper zurückrettet. Vitamin-B 12 -Mangel schädigt Nerven und Gehirn und verursacht die tödliche Blutarmut «perniziöse Anämie». Ihre Ursache ist meist nicht eine ungenügende Zufuhr des Vitamins, sondern die fehlende Bildung eines Proteins, das von den Zellen der Magenwand in den Magen abgeschieden wird und die Aufnahme des Vitamins im Dünndarm vermittelt. Wir können diesen Proteinmangel zwar nicht heilen, durch Injektion des Vitamins in die Muskeln jedoch wirksam überbrücken und so den betroffenen Menschen ein normales Leben sichern.

    Ich trage lediglich ein Tausendstelgramm Kobalt in mir. Sein Anteil an meinem Körpergewicht entspricht dem eines menschlichen Haars auf meinem Auto. Doch dieses Haar ist einer der unzähligen Fäden, die mich in das Netz des Lebens einbinden. Ich wurde Biochemiker, um das chemische Geschehen in mir zu verstehen, und ahnte nicht, dass es mir von meinen fernen Ahnen und der atemberaubenden Geschichte des Lebens erzählen würde. Diese Geschichte lässt mir die Kriege, Krönungen und Reichsgründungen meines Schulunterrichts klein und unwichtig erscheinen. Ist es noch berechtigt, unsere Geschichtsschreibung mit dem Erscheinen von Homo sapiens zu beginnen, da nun das molekulare Palimpsest lebender Materie unseren Zeithorizont um fünf Grössenordnungen erweitert hat? Sollten die Geschichtswissenschaften nicht ihre Scheuklappen ablegen und den Blick viel weiter als bisher in die Vergangenheit wagen?


    Weiterführende Links

    Vitamin B12 (Gesundheits-Wiki) Foods high in Vitamin B12


     

    inge Thu, 21.06.2012 - 05:20

    Metallverbindungen als Tumortherapeutika

    Metallverbindungen als Tumortherapeutika

    Do, 07.06.2012- 05:20 — Bernhard Keppler

    Icon Medizin

    Bernhard Keppler

     Internationale Pressemeldungen (ots/PRNewswire) berichten über den erfolgreichen Abschluß der klinischen Phase I Studie mit einem neuartigen, auf dem Metall Ruthenium basierten, Tumortherapeutikum, NKP-1339. Diese, an bereits austherapierten Patienten mit soliden, metastasierten Tumoren durchgeführte Studie, zeigte beeindruckende Anti-Tumor-Wirkung bei einem guten Sicherheitsprofil. Bernhard Keppler (Anorganisches Institut der Universität Wien) hat grmeinsam mit der Medizinischen Universität Wien NKP-1339 entwickelt und spricht darüber mit ScienceBlog.at

    SB: Der Einsatz von Metallen in der Medizin ist bereits bei antiken Kulturen zu finden – auf Gold und Silber basierende Heilmittel gab es bereits vor mehr als 4000 Jahren im alten China und Indien, Quecksilber und Arsen haltige Arzneien in der griechisch-römischen Antike. Wie diese Metalle wirkten und welche Bedeutung Metalle als Bestandteile der belebten Natur überhaupt haben, war zweifellos unbekannt.

    BK: Bis Anfang des 20. Jahrhunderts dachte man, dass Metalle und andere sogenannte anorganische Elemente keine oder nur wenig Bedeutung für die belebte Natur haben. Heute weiß man, dass viele dieser Elemente im Zentrum des Lebens stehen: Metalle sind essentiell für die Funktion von lebenswichtigen Enzymen (in einem 2009 erschienenen Artikel in Nature bezeichnet J. Finkelstein nahezu 50 % unserer Enzyme als Metallproteine) und von Transportproteinen.

    Mein hauptsächliches Arbeitsgebiet ist die bioanorganische Chemie, ein interdisziplinärer Forschungszweig der Chemie, der sich nicht nur mit der Erforschung der Rolle von (anorganischen) Elementen in lebendiger Materie beschäftigt, sondern in der letzten Phase der Entwicklung auch neue pharmazeutische Wirkstoffe synthetisiert, wie unter anderem die Therapeutika auf Platinbasis, die heute zu den am meisten angewandten Krebstherapeutika gehören. (Was übrigens das oben erwähnte Arsen betrifft, so wird heute ein auf Arsentrioxyd basiertes Präparat in der Therapie der Promyelozyten-Leukämie eingesetzt.) Darüber hinaus finden Metallverbindungen Anwendungen in Organismen u.a. als Sensoren, Diagnostika und - heute vermutlich am populärsten - in der Form von Endoprothesen als Ersatz für defekte Gelenke.

    Platinverbindungen in der Tumortherapie

    SB: Kommen wir zu den Anwendungen als Tumortherapeutika: Der Platin-Komplex Cisplatin wird verschiedentlich (beispielsweise in den „Chemical and Engineering News“) auch „Penicillin der Krebserkrankung“ genannt.

    BK: Das Antibiotikum Penicillin und das Tumortherapeutikum Cisplatin stellen jeweils das erste große Präparat in ihren Indikationen dar und beide finden nach wie vor breiteste Anwendung. Cisplatin

    Abbildung 1: Cisplatin. Das kleine Molekül besteht aus nur 11 Atomen: dem zentralen Platin (lila) um welches 2 Chloratome (grün) und 2 Aminogruppen (Stickstoff: blau, Wasserstoff: weiß) angeordnet sind.

    Cisplatin wirkt durch Bindung an die DNA: vor allem, indem es Quervernetzungen innerhalb eines DNA- Stranges hervorruft wird die für die Zell-Teilung (Zellwachstum) essentielle Replikation (Verdopplung der DNA) und Transkription der DNA (Ablesung von Genen) verhindert. Irreparable Schäden an der DNA leiten den programmierten Zelltod (Apoptose) ein. Cisplatin (Abbildung 1) wurde bereits 1844 von Michel Peyron synthetisiert, der ausschließlich an den chemischen Eigenschaften dieses sehr kleinen, Platin-enthaltenden Moleküls interessiert war. Es sollte aber noch mehr als 100 Jahre dauern bis Barnett Rosenberg durch Zufall die Tumor hemmende Wirksamkeit von Cisplatin entdeckte. Als er Bakterien einem elektrischen Feld aussetzte und diese sich nicht mehr teilten, konnte er diesen Effekt auf ein in kleinen Mengen entstandenes Elektrolyseprodukt seiner Platinelektrode mit anschließender photochemischer Umwandlung - Cisplatin - zurückführen.

    In Versuchen zur Anti-Tumorwirkung in Tiermodellen wies diese Verbindung hervorragende Aktivität auf. Klinische Studien am Beginn der 70er-Jahre zeigten dann einen ganz erstaunlichen Effekt von Cisplatin auf Hodenkrebs, eine Krankheit, die mehr als 50 von 100 000 jungen Männern erleiden. Diese Krankheit ist heute, Dank des Einsatzes von Cisplatin, zu einer beinahe komplett heilbaren Krebserkrankung geworden. (Beispielsweise konnte der Radrennfahrer Lance Armstrong nach erfolgreicher Therapie eines Hodentumors sieben Mal die Tour de France gewinnen.)

    Die Bedeutung von Cisplatin für die Krebspatienten ist enorm. Neben der außerordentlichen Wirkung gegen Hodenkrebs, zeigt Cisplatin hohe Wirksamkeit u.a. gegen das Ovarial-, Zervix-, Harnblasen- und Bronchialkarzinom und gegen Plattenepithelkarzinome an Kopf und Hals. Cisplatin wird heute – auch in Kombination mit anderen Tumortherapeutika - fast in jedem zweiten klinischen Therapieschema der Krebsbehandlung angewandt.

    Dieser Erfolg von Cisplatin hat umfangreiche Programme zur Synthese und Entwicklung von Nachfolgeprodukten mit verbesserten Eigenschaften initiiert, insbesondere in Hinblick auf eine Erweiterung des Indikationsspektrums und auf eine Reduktion der schweren Nebenwirkungen und der gravierenden Resistenzprobleme, welche die Cisplatin Therapie begleiten.

    In den letzten drei Jahrzehnten wurden mehr als 10 000 Platinverbindungen präklinisch untersucht, etwa 40 Platinverbindungen wurden dann auch klinisch am Patienten auf ihre Tumorwirksamkeit hin geprüft. Schlussendlich sind heute aber nur 3 Platinverbindungen weltweit zugelassen: Cisplatin und seine Nachfolger Carboplatin (das in den 80er-Jahren zugelassen wurde und breit angewandt wird) und Oxaliplatin (das Ende 90er bis Anfang 2000er Jahre zugelassen wurde, bei Colon-Carcinom angewandt wird und einen, zu Cisplatin und Carboplatin unterschiedlichen Wirkmechanismus aufweist); alle drei Verbindungen können schwere Nebenwirkungen hervorrufen – sie unterscheiden praktisch kaum zwischen Tumorzellen und normalen, rasch proliferierenden Zellen

    Ruthenium-haltige Verbindungen – ein neuer Durchbruch?

    SB: Offensichtlich haben die Bemühungen ein wesentlich verbessertes, „Neues Cisplatin“ auf Basis Platin-haltiger Verbindungen zu finden (noch) nicht den dringend notwendigen Erfolg gebracht. Nach wie vor können sehr viele Krebserkrankungen (beispielsweise Tumoren des Pankreas, der Speiseröhre, des Gehirns) nicht effizient therapiert werden. Laut Statistik Austria sind Krebserkrankungen für ca. 25 % der Todesfälle in unserem Land verantwortlich. Welche Strategien zur Auffindung tumorwirksamer Verbindungen verfolgt Ihre Gruppe?

    BK: Neuere, in unserer Arbeitsgruppe intensiv vorangetriebene Entwicklungen betreffen die Nutzbarmachung auch anderer metallhaltiger Verbindungen zur Therapie bösartiger Tumoren. Intensiv vorangetrieben heißt, daß unsere Gruppe ausreichende Größe und Expertise besitzt um eine breite Palette derartiger Verbindungen zu synthetisieren, diese mit analytischen und bioanalytischen Methoden zu charakterisieren, deren Wirkungsmechanismus zu erforschen und Untersuchungen an Zellkulturen durchzuführen.

    Eine Zusammenarbeit unseres Instituts mit dem Institut für Krebsforschung der medizinischen Universität Wien im Rahmen der Forschungsplattform „Translational Cancer Therapy Research“ ermöglicht dann die Testung ausgewählter Verbindungen in für Tumorerkrankungen repräsentativen Tiermodellen und schließlich in der Klinik am Patienten. Zu diesen Produkten gehören vor allem Ruthenium- und- Galliumverbindungen, die derzeit in den USA und in England auf ihre klinische Wirksamkeit am Patienten untersucht werden.

    SB: Die klinische Testung der aus Ihrem Labor stammenden Rutheniumverbindung NKP-1339 hat ja kürzlich für Schlagzeilen in den internationalen Meldungen gesorgt: Ein neues Tumortherapeutikum, mit einem neuen Wirkungsmechanismus, guter Verträglichkeit und offensichtlicher Wirksamkeit…

    BK: Die erste Testphase einer klinischen Studie wurde erfolgreich abgeschlossen und zwar an Patienten mit metastasierten festen Tumoren, die auf frühere Standardbehandlungen und neue experimentelle Therapien nicht mehr angesprochen haben. NKP-1339 wirkt tatsächlich krebshemmend - bei ungefähr der Hälfte der Patienten zeigte sich ein positiver Effekt - und ist außerdem gut verträglich. Im Vergleich zu den schweren Nebenwirkungen üblicher Krebstherapeutika wurden unter NKP-1339 Behandlung relativ milde, Grippe-ähnliche Symptome beobachtet. Besonders vielversprechende Effekte konnten an Neuro­endokrinen Tumoren (Karzinoiden) erzielt werden, für die es bis jetzt kaum eine effiziente Therapie gibt.

    SB: Wie erklärt man sich die Anti-Tumorwirkung von NKP-1339?

    BK: NKP-1339 hat einen völlig neuen Wirkmechanismus mit hoher Selektivität für Tumorzellen (Abbildung 2).

    Das Ruthenium-enthaltende Molekül ist klein und kann anstelle des Eisens in Eisentransportproteine eingebaut werden (Ruthenium ist ja ein Element der Eisengruppe). Transferrin, der Eisentransporter im Blut, baut die Ruthenium-Verbindung ein und transportiert sie quasi als Trojanisches Pferd dorthin im Körper, wo Eisen benötigt wird. Das ist vor allem bei rasch wachsenden Zellen der Fall. In vielen Tumorzellen sind nun im Vergleich zu normalen Zellen die spezifischen Rezeptoren für Transferrin an der Zelloberfläche hochreguliert, über welche dann Transferrin mit der Rutheniumverbindung in die Zellen eingeschleust wird. Dort wird NKP-1339 vom Protein gelöst und es kommt ein weiterer spezifischer Effekt solider Tumoren zum Tragen, eine Mangelversorgung der Zellen mit Sauerstoff (Hypoxie), welche zur Reduktion des Rutheniums und damit zu der eigentlich reaktiven Form von NKP-1339 führt.

    Vereinfacht dargestellt löst die aktive Form über den sogenannten „mitochondrialen pathway“ den programmierten Zelltod (Apoptose) der Tumorzellen aus. Unter anderem hemmt aktives Ruthenium das Protein GRP78 (ein sogenanntes Chaperon), welches für die Reparatur fehlgefalteter Proteine verantwortlich ist. Damit akkumulieren Abfallprodukte in der Tumorzelle und führen schlußendlich zum Zelltod. Eine Hochregulierung von GRP78 wird mit der chemotherapiebedingten Resistenzentwicklung vieler Tumorarten assoziiert. CisplatinAbbildung 2. Anti-Tumorwirkung von NKP-1399 (vereinfachte Darstellung). NKP1399 bindet an das im Blut zirkulierende Eisentransportprotein Transferrin, mit diesem an Transferrinrezeptoren der Tumorzelle und wird damit in die Zelle eingeschleust. Dort wird NKP-1339 aus der Proteinbindung freigesetzt und (im zumeist hypoxischen Milieu der Zelle) aktiviert. Die aktive Form reguliert u.a.GRP78 herunter und löst den Zelltod aus.

    SB: Ein neues First-in-Class Therapeutikum, welches selektiv zu Tumoren transportiert wird, selektiv in der Tumorzelle aktiviert wird und in einer ersten klinischen Prüfung Wirksamkeit an bereits austherapierten Patienten zeigt und dies bei geringen Nebenwirkungen, ist einfach sensationell! Wie geht es nun weiter?

    BK: Die klinische Entwicklung von NKP-1339 wird von Niiki Pharma (http://www.niikipharma.com) geleitet, einem Unternehmen, das seinen Schwerpunkt auf die Entwicklung von First-in-Class-Krebstherapeutika setzt. Die erwähnte, bereits abgeschlossene Studie hat auch das Ziel erreicht, das Dosierungsschema für den Wirkstoff in den nun folgenden Phasen der klinischen Entwicklung festzulegen und sie zeigt Opportunitäten auf, nämlich für Studien in der vielversprechenden Indikation „Neuroendokrine Tumoren“ und auf Grund des guten Sicherheitsprofils auch für Kombinationstherapien.

    Über die klinische Prüfung von NKP-1339 hinaus, hat Niiki Pharma im März den Start der klinischen Phase I Prüfung mit einem weiteren Präparat aus unserer Arbeitsgruppe angekündigt: NKP-2235 ist ebenfalls ein First-in-Class Anti-Tumorwirkstoff, allerdings Gallium-basiert, der einen neuen Wirkmechanismus aufweist und vor allem beim Nierenzell-Carcinom Erfolg haben könnte.

    Neben diesen beiden, in der Entwicklung bereits am weitesten fortgeschrittenen Verbindungen hat unsere Gruppe weitere, erfolgversprechende Metall-Verbindungen in der pipeline.

    SB: Zu diesen Leistungen kann man nur aufrichtigst gratulieren und vor allem viel Erfolg wünschen!


    Weiterführende Links

    GLOBOCAN: Datenbank der “International Agency for Reseach on Cancer” („provides contemporary estimates of the incidence of, mortality and prevalence from major type of cancers, at national level, for 184 countries of the world”) Ruthenium (Video in Englisch; 2'18") Details über die klinische Studie mit dem Ruthenium-Komplex NKP-1339: Natl. Cancer Institute (NIH, USA)


     

    inge Thu, 07.06.2012 - 05:00

    Die Tragödie des Gemeinguts

    Die Tragödie des Gemeinguts

    Do, 31.05.2012- 00:00 — Peter Schuster

    Icon Politik & GesellschaftPeter Schuster

    Selbst-Reglementierung kommt nicht von selbst. Aus der Übernutzung und Ausbeutung gemeinschaftlicher Güter und Ressourcen entstehen schwerstwiegende Probleme, die technisch unlösbar erscheinen. Modelle der Spieltheorie bieten Lösungsansätze an, die auf Strategien der Kooperation und Selbst-Reglementierung basieren. Reale Beispiele bestätigen die Machbarkeit dieser Ansätze.

    Ein von Garett Hardin 1968 im Journal Science veröffentlichter Artikel trägt den Titel „The Tragedy of Commons“ – Die Tragödie des Gemeinguts. Hardin umreißt darin das Problem der Erhaltung gemeinsamen Besitzes oder gemeinsam genutzter Ressourcen in einer ökonomisch orientierten Gesellschaft und folgt damit den Grundzügen der ein Jahrzehnt früher veröffentlichten Theorien zur irreversiblen Ausbeutung von Fischereigewässern (von HS Gordon und A. Scott ).

    Die Metapher von der Übernutzung des Weidelands

    Zur Illustration benutzt Hardin die Metapher eines Weidelands, das für alle offensteht:

    Auf dieser Weide kann jeder Farmer so viele Rinder halten, wie er möchte. Wenn der einzelne Farmer nun rational vorgeht, – so die Argumentation – wird er die Herde vergrößern und mehr und mehr Tiere züchten, um den für ihn maximalen Gewinn zu erzielen. Dieses Problem kann in den Termini der Spieltheorie formuliert werden und folgt – vereinfacht ausgedrückt – der folgenden Kalkulation: Überweidetes Land

    Der Nutzen, der sich aus dem Hinzufügen eines weiteren Rindes zur Herde ergibt, setzt sich aus einer positiven und einer negativen Komponente zusammen. Die Möglichkeit dieses weitere Tier zu verkaufen ergibt einen Profit (+P). Die negative Komponente (-P) resultiert aus dem „Überweiden“ des Weidelands durch das zusätzliche Tier. Freilich wird die, auf Grund der Überweidung erfolgende Abnahme des Profits von allen Farmern mitgetragen. Für den einzelnen Farmer, der nun ein Rind mehr auf die Weide stellt, ist der „negative Nutzen“ daher nur ein Bruchteil von -P und er erzielt insgesamt einen positiven Gewinn.

    Nimmt man an, daß alle Farmer rational, in der gleichen Weise wie der einzelne Farmer vorgehen, so ist das Ergebnis augenfällig: Das Land wird völlig überweidet und schlußendlich verwüstet.

    „Technisch unlösbare Probleme“ durch Übernutzung von Gemeingut

    Die obige Metapher diente Garret Hardin dazu eine ganze Klasse an Problemen zu illustrieren, die aus der unkontrollierten Übernutzung von Gemeingut entstehen und für die es keine technische Lösung gibt. Typische, im Übermaß ausbeutbare Ressourcen, die zu technisch unlösbaren Problemen führen, sind Ressourcen natürlichen Ursprungs - Land, ohne konkreten Besitzer, Meere und die Atmosphäre miteingeschlossen (d.h. Wälder, Weiden, Wasserversorgung, Fischereigewässer, Müllablagerung, Luftverschmutzung,...) - und globale Aspekte, wie beispielsweise die wachsende Weltbevölkerung, das Wettrüsten (insbesondere zur Zeit eines kalten Kriegs) und die globale Erwärmung.

    Der Artikel „Tragödie vom Gemeingut“ erregte großes Aufsehen und zahlreiche Veröffentlichungen folgten zu verwandten Fragestellungen. Auf nationaler Ebene erschien als einzige Lösung dieser Fragen eine Regulierung durch zentral angeordnete Maßnahmen und/oder durch Besteuerung der Gewinne, die durch die Ausbeutung des Gemeinguts erzielt wurden. Die Einmischung des Staates schien dabei unvermeidlich. Als Quintessenz derartiger Maßnahmen resultiert freilich, daß für Probleme auf der weltweiten Ebene keine, wie auch immer gearteten, attraktiven Lösungen möglich sind.

    Kooperative Strategien zur Lösung „technisch unlösbarer Probleme“ um die Erhaltung von Gemeingut

    Die Weiterentwicklung von Ideen um „technisch unlösbare Probleme“ zu verstehen und Strategien zu ihrer Bewältigung zu entwickeln, zeigte jedoch, daß die Situation keineswegs so hoffnungslos ist, wie ursprünglich erwartet. Spieltheoretische Modelle, basierend auf dem „Gefangenen-Dilemma“ (siehe unten), wiesen darauf hin, daß rational vorgehende Spiel-Teilnehmer, die schlußendlich zu kooperativen Strategien greifen, langfristig gesehen, davon profitieren. Modelle der Kooperation und wie sich diese entwickelt, lassen sich mit Hilfe der „Adaptiven Dynamik“ erstellen, Techniken, die eine langfristige Beschreibung phänotypischer Evolutionsprozesse ermöglichen.

    Zahlreiche Beispiele für dauerhafte kooperative Strategien existieren. So fanden Ökonomen heraus, daß in unterentwickelten Gesellschaften gemeinsame Ressourcen einer Zerstörung durch exzessive Ausbeutung dadurch entgehen, daß Gewinne in der Gemeinschaft geteilt werden.

    Ein anderes Beispiel aus einer bereits höher entwickelten Gesellschaft ist die gemeinsame Nutzung hochgelegener Weiden in den Alpen. Einige dieser Almen werden schon seit viertausend und mehr Jahren genutzt ohne, daß sie durch Überweidung zerstört worden wären.

    Repräsentativ für Tausende ähnlicher Beispiele kann das Management der Ressource Wasser im kleinen Maßstab gelten: dieses erfolgt selbst-reglementiert in dem Sinn, daß die Nutzer ihre eigenen Regeln aufgestellt haben, ohne Einmischung des Staates und ohne Bezug zu formaler Gesetzgebung.

    Ein aktuelles High-Tech Beispiel der Nutzung gemeinsamer Ressourcen durch eine selbst-organisierte Gemeinschaft, ist der freie Zugang und die freie Software im Internet. Die LINUX-Community stellt hier ein besonders gut untersuchtes Exempel dar. Diese wurde auch als „Bazar an der Grenze zum Chaos“ bezeichnet.

    Neuere Untersuchungen zur Ökonomie basierend auf dem Konzept des Nash-Gleichgewichts (einem zentralen Konzept der mathematischen Spieltheorie) und auf Simulationen von Multi-Agenten Systemen (= Systemen aus mehreren gleichartigen oder unterschiedlich spezialisierten handelnden Einheiten/Individuen), beschäftigen sich mit Art und Entwicklung selbst-reglementierter Strukturen, welche in autonomer Weise die nachhaltige Nutzung gemeinsamer Ressourcen erlauben können. Das Resultat derartiger Studien: Um Gemeingut erhalten zu können, müssen einzelne Altruisten vorhanden sein, die bereit sind einen Teil ihres „Gewinns“ zu opfern um damit steigende Bedürfnisse zu kompensieren. Wenn diese Individuen gegenseitig günstige Übereinkommen treffen können, lassen sich die zu kompensierenden Bedürfnisse reduzieren und die Gemeinschaft kann der Katastrophe (Tragödie des Gemeingutes) entrinnen.

    Diese Übereinkommen sind auch eine Art gegenseitiger Überwachung – eine Form von Selbst-Reglementierung, welche die Aneignung ungebührlicher Anteile am Nutzen verhindert. Kooperation, hier in Form von Übereinkommen, ist - wie im Gefangenen-Dilemma - der Schlüssel, zur Verhinderung des Ruins.

    Das Ergebnis stimmt optimistisch: nicht nur, daß es in der Ökonomie nun eine Theorie gibt, die als Lösung für „technisch unlösbare Probleme“ die Strategie der Kooperation anbietet, es existieren in der Realität ja bereits Tausende praktische Beispiele – in früheren und modernen Gesellschaften - wie die „Tragödie des Gemeinguts“ verhindert werden kann.

    Probleme von Gemeingut auf globaler Ebene

    Der Optimismus wird aber radikal gedämpft oder verwandelt sich sogar in Pessimismus, wenn wir, wie eingangs erwähnt, Probleme von Gemeingut auf globaler Ebene betrachten. In der Realität sind ja die meisten kooperativen Systeme, die sich selbst reglementieren, von kleinem Ausmaß. Menschen kooperieren wesentlich leichter in Gruppen, wo jeder jeden oder fast jeden kennt und das Entlarven von Betrügern und anderen kriminellen Elementen ungleich einfacher ist, als in großen Gesellschaften.

    Einer der interessantesten Fälle auf der globalen Ebene, aber nicht unbedingt ein Gegenbeispiel zu der oberen Feststellung, ist die Internet-Gemeinde, speziell die bereits erwähnte LINUX-Gemeinde. Hier erfolgt der Zugang weitestgehend anonym und die Zahl der Individuen in der Community ist offensichtlich sehr groß. Eine funktionierende sehr große, globale Gemeinde also? Näher betrachtet zeigt sich ein verändertes Bild, da nur sehr wenige Personen aktiv zu der weiteren Entwicklung des LINUX-Systems beitragen und bestimmen, wohin die LINUX-Gemeinde gehen wird. Unter diesen wenigen Personen kann dann auch unschwer eine Hierarchie der Entscheidungsträger ausgemacht werden. Die überwiegende Mehrheit in dieser Community sind aber bloß Anwender, die Material herunterladen und kaum zusätzliche Kosten verursachen (ganz im Gegensatz zu den anfangs zitierten überzähligen Kühen auf der Gemeinschafts-Weide).

    So hübsch erfolgreiche Beispiele von Selbst-Reglementierung sich auch darstellen mögen, man sollte doch nicht auf die vielen Fälle vergessen, in denen bis jetzt Selbstorganisation/-Reglementierung kläglich versagt hat. Dazu erwähne ich hier nur die zahlreichen (fruchtlosen) Anstrengungen das Entscheidungssystem an den Universitäten des europäischen Festlands, insbesondere in den deutschsprachigen Ländern, umzugestalten.

    Schlussendlich sehe ich nur wenig Hoffnung, dass sich die Einstellung der „Global Players“ zu den wirklich großen, globalen Problemen ändern wird: zum Bevölkerungswachstum, zur Ausbeutung allgemeiner globaler Ressourcen und zur Umweltverschmutzung, unter anderem auch durch Abgase aus der Verbrennung fossiler Brennstoffe.

    Wo immer Bevölkerungswachstum erfolgreich reduziert werden konnte, war dies auf Grund anderer Faktoren als der einer Selbst-Reglementierung. In den entwickelten Ländern haben Sozialversicherungssysteme Kinder zur Absicherung der finanziellen Bedürfnisse im Alter entbehrlich gemacht (Interessanterweise haben die Menschen in den USA mit einem weniger weitgreifenden Sozialversicherungssystem als am europäischen Festland mehr Kinder). In anderen Ländern wie China als bestem Beispiel, wurde die Geburtsrate von zentraler Stelle aus gesetzlich kontrolliert.

    Internationale Übereinkommen zur Beschränkung des Fischfangs waren nur teilweise erfolgreich, auf der Suche nach Profit werden sie weiter gebrochen. Ein noch heute gültiges Moratorium, das den kommerziellen Walfang und die Fanggebiete auf Null gesetzt hat, wird umgangen und durch eine Reihe von Ausnahmebestimmungen für Länder wie Japan, Norwegen und Island konterkariert.

    Die atmosphärische Verschmutzung ist geradezu ein ideales Bespiel für die „Tragödie des Gemeinguts“. Nach langen, zähen Verhandlungen wurde das sogenannte Kyoto-Protokoll zu völkerrechtlich verbindlichen Zielwerten der Emission von Treibhausgasen erstellt und bis jetzt von mehr als 190 Staaten ratifiziert. Die großen Schwellenländer China und Indien, die (pro Kopf zwar wenig) zusammen mehr als ein Drittel der gesamten Emissionen produzieren, haben aufgrund des Prinzips "gemeinsamer, aber differenzierter Verantwortung" bislang keine verbindlichen Emissionsminderungspflichten übernommen, die USA, als größter Emittent unter den Industrieländern (rund 1/5 der atmosphärischen Treibhausgase), haben den Vertrag noch nicht unterschrieben und Kanada ist kürzlich aus dem Vertrag wieder ausgetreten. Der Großteil der anderen Staaten betreibt einen quasi Ablasshandel mit Emissionen, indem nicht verbrauchte Quoten gehandelt werden. Eben dieses, der aktuellen Realität entnommene Beispiel zeigt, wie sich die „Tragödie des Gemeinguts“ entwickelt, ironischerweise auf einem Niveau, das große Gefahren mit sich bringen kann.

    Als Schlussfolgerung kann man wohl nur feststellen: der einzige Mechanismus, welcher ein vernünftiges Management globalen Gemeinguts ermöglichen könnte, ist - auf Grund der Tragikomödie von menschlichen Fehlern und Schwächen - auf globaler Ebene wohl nicht leicht gangbar; der Weg zur Selbst-Reglementierung noch zu wenig verstanden.

     


    Weiterführende Links

    Gefangenen-Dilemma: eine gute Beschreibung des Beispiels aus der Spieltheorie ist unter http://en.wikipedia.org/wiki/Prisoner's_dilemma zu finden.

    Weiterführende Fachliteratur kann vom Autor erhalten werden:

    Hardin, G. The tragedy of the commons. Science 1968, 162, 1243-1248.

    Gordon, H.S. The economic theory of common property resource: The fishery. J. Political Economy 1954, 62, 124-142.

    Scott, A. The fishery: The objectives of sole ownership. J. Political Economy 1955, 63, 116-124.

    Ostrom, E.; Gardner, R.; Walker, J. Rules, games and common pool resources. University of Michigan Press 1994, Ann Arbor, MI.

    Nowak, M.A.; May, R.M.; Sigmund, K. The arithmetics of mutual help. Sci.Am. 1995, 272 (6), 50-55.

    Mandl, F. Dachstein – 4 Jahrtausende Almen im Hochgebirge. Band 1. Verein ANISA 1996, Gröbming, AT (In German).

    Monsees, J. The German water and soil associations – Self-governance for small and medium scale water and land resources management. J. of Applied Irrigation Science 2001, 39, 5-22.

    Kuwabara, K. Linux: A bazaar at the edge of chaos. First Monday 2000, 5(3).


     

    inge Thu, 31.05.2012 - 05:20

    Bedrohtes Erbe — Wie unbeständige Datenspeicher unsere Kultur gefährden

    Bedrohtes Erbe — Wie unbeständige Datenspeicher unsere Kultur gefährden

    Do, 24.05.2012- 00:00 — Gottfried Schatz

    Icon MINTGottfried Schatz

    Die digitale Revolution lässt uns mit der exponentiell steigenden Informationsflut scheinbar mühelos Schritt halten. Auch wenn wir gigantische Datenmengen blitzschnell speichern, verbreiten, ordnen und untersuchen können, sind diese Informationen keineswegs langfristig gesichert, da die heutigen digitalen Speicher nicht beständig sind.

    «This is a present from a small, distant world, a token of our sounds, our science, our images, our music, our thoughts and our feelings. We are attempting to survive our time, so we may live into yours.» – «Dies ist ein Geschenk einer kleinen und fernen Welt, ein Zeugnis unserer Klänge und Geräusche, unserer Wissenschaft, unserer Bilder, unserer Musik, unserer Gedanken und unserer Gefühle. Wir versuchen, unsere Zeit zu überdauern, um in der euren fortzuleben.»

    Diese bewegende Botschaft, in englischer Sprache in eine vergoldete Kupferscheibe geritzt, trug die Raumsonde Voyager 1 mit sich ins All, als sie am 5. September 1977 die Erde verließ (Abbildung 1). Goldene Platte der Voyager-2-Sonde

    Abbildung 1. Goldene Platte der Voyager-2-Sonde. Hülle mit Anweisungen zur Dekodierung der Datenplatte.

    Die Sonde sollte den äussersten Rand unseres Sonnensystems erkunden und sich dann auf einer Reise ohne Wiederkehr in den Tiefen des Universums verlieren. Vielleicht würde sie nach Jahrmillionen lichtloser Einsamkeit dem Lockruf der Schwere einer Planeten-umringten fernen Sonne folgen und intelligenten Wesen von uns Menschen künden.

    Die vergoldete Scheibe könnte im Weltraum einige hundert Millionen Jahre überdauern. Sie trägt eine Datenspur mit hundertfünfzehn Bildern sowie Klang-, Musik- und Sprachproben, zeigt den Abstand unserer Erde vom Zentrum unserer Milchstrasse sowie von vierzehn weit sichtbaren pulsierenden Sternen; und sie enthält eine Hülle mit Anweisungen, wie die Botschaften der Platte zu entziffern sind. Dass dies je geschieht, ist höchst unwahrscheinlich – und dennoch ist diese kleine Scheibe eines der erhebendsten Werke von Menschenhand.

    Hyperbolisches Wachstum

    Dem Genius unserer Spezies wird sie allerdings kaum gerecht: Ungezählte Scheiben wären nötig, um unser gesamtes geistiges Erbe aufzuzeichnen. Demetrius von Phaleron hat dies im 3. Jahrhundert vor unserer Zeitrechnung im Auftrag des ägyptischen Königs Ptolemäus I. versucht, als er in Alexandrien einen gewaltigen Bibliothekskomplex gründete. Doch obwohl dieses «Mouseion» zuletzt eine halbe Million Papyri beherbergte, konnte es – mit wenigen Ausnahmen – nur Werke in griechischer Sprache berücksichtigen. Und die unersetzlichen Verluste, die es in Grossbränden erlitt, erinnern noch heute daran, wie schwer sich geistiges Erbe sichern lässt.

    Heute, da sich dieses Erbe gewaltig vergrössert hat, ist dies noch um vieles schwieriger. Vor allem naturwissenschaftlich-technologische Informationen begannen um die Mitte des 18. Jahrhunderts exponentiell, ab der zweiten Hälfte des 20. Jahrhunderts sogar hyperbolisch anzuwachsen und würden um die Mitte dieses Jahrhunderts ins Unendliche explodieren, müsste nicht ihr Anwachsen, wie jedes nichtlineare Wachstum, schon vorher an seine Grenzen stossen und sich verlangsamen.

    Die digitale Revolution lässt uns mit dieser steigenden Informationsflut scheinbar mühelos Schritt halten und gigantische Datenmengen blitzschnell speichern, verbreiten, ordnen und untersuchen. Die Zahl der Transistoren in den Gehirnen unserer Computer hat sich in den letzten vier Jahrzehnten alle achtzehn Monate verdoppelt, und dieser exponentielle Anstieg dürfte sich noch jahrzehntelang fortsetzen.

    Ähnliches gilt für das Fassungsvermögen elektronischer Speicher, die heute auf wenigen Quadratzentimetern ganzen Bibliotheken Platz bieten.

    Und obwohl elektronische Gehirne und Speicher sich derzeit ihren physikalischen Grenzen nähern, werden sich diese mit neuen Erfindungen überwinden lassen. Licht anstatt Elektrizität, einzelne Moleküle anstatt Transistoren oder genau positionierte einzelne Atome anstatt optisch oder magnetisch markierter Flächen sind nicht mehr Träume, sondern bereits weit fortgeschrittene Forschungsprojekte. Dank immer leistungsfähigeren digitalen Werkzeugen werden wir die unaufhörlich anschwellende Informationsflut auch in Zukunft beherrschen können.

    Damit sind diese Informationen jedoch keineswegs gesichert, denn die heutigen digitalen Speicher sind nicht beständig. Magnetbänder, Festplatten und optische Medien können je nach Hersteller, Lagerung und Anwendung schon nach einigen Monaten oder Jahren einen Teil ihrer mechanischen Festigkeit, ihrer Magnetisierung oder ihrer optischen Markierungen verlieren, so dass sie die ihnen anvertraute Information nur selten länger als einige Jahrzehnte sicher bewahren.

    Eine Seite aus dem Domesday Book von 1085

    Abbildung 2. Eine Seite aus dem Domesday Book von 1085.

    Das «Domesday Book», ein 1085 von Wilhelm dem Eroberer in Auftrag gegebenes Reichsgrundbuch, kann in seiner sorgfältig klimatisierten Museumsvitrine in Kew noch heute bewundert werden (Abbildung 2), doch seine digitalisierte Version aus dem Jahre 1986 überdauerte nur zwei Jahrzehnte.

    Sinkende Schiffe

    Bedrucktes säurefreies Papier oder herkömmliche Mikrofilme können zwar Jahrhunderten trotzen, sind jedoch für die Speicherung, Übertragung und Analyse digitaler Informationen wenig geeignet. Auf der Suche nach beständigen Speichern versucht man derzeit, analoge oder digitale Daten mit einem feinen Strahl elektrisch geladener Atome auf hochbeständige Metalloberflächen zu gravieren, als winzige Eisenkristalle in ebenso winzigen Röhrchen aus reinem Kohlenstoff zu fixieren oder in Form geordneter Silberkörner auf neuartigen Mikrofilmen zu speichern.

    Doch bis diese Technologien ausgereift sind, müssen wir unsere gespeicherten Informationen unablässig durch Umkopieren «auffrischen» – und so gleichsam von einem sinkenden Schiff auf ein anderes umladen, das ebenfalls bald sinken wird. Doch selbst beständige Speicher würden Informationen nicht langfristig sichern, da zukünftige Computer sie nicht mehr lesen könnten. Schon heute wissen unsere Computer mit zehn bis zwanzig Jahre alten Datenträgern nichts mehr anzufangen. Sollen wir gespeicherte Daten laufend in die neuesten Formate umschreiben, jeweils in das für sie gültige Betriebs- und Leseprogramm «verpacken» oder gar Archive alter Computer, Lesegeräte und Betriebssysteme anlegen? Und welche Bibliothek könnte sich dies wohl leisten?

    Auch der wachsende Energiehunger unserer Speichersysteme gibt Anlass zur Sorge. Das Ausmass dieses Problems ist noch umstritten, denn die Betreiber grosser Datenspeicher halten Typ und Energieverbrauch ihrer Geräte streng geheim. In den USA verbrauchen solche Speicher mit Kühlung und Beleuchtung heute etwa ein Prozent der gesamten Elektrizität; und Computer, Bildschirme sowie das Internet dürften diesen Anteil auf das Mehrfache erhöhen. Vielleicht ist dies nur ein Anfang – schliesslich beansprucht unser Gehirn nicht weniger als ein Fünftel unserer Körperenergie. Allerdings liefert es sich diese selbst und atmet deshalb intensiver als andere Gewebe unseres Körpers.

    Wissen erschafft uns

    Information bereichert uns jedoch nur, wenn wir sie zu Wissen veredeln und dieses an kommende Generationen weitergeben. Um die Zukunft unserer Kultur zu sichern, genügt es also nicht, zukunftssichere Speicher zu entwickeln. Es gilt vor allem, immer wieder schöpferische Menschen zu suchen und zu fördern, die das Gemeinsame scheinbar zusammenhangloser Informationen intuitiv erkennen und so neues Wissen schaffen oder überliefertes Wissen als falsch erkennen. Dank ihnen schlummert gespeichertes Wissen nie friedlich, sondern entwickelt sich unablässig nach Gesetzen, die sich unserem Einfluss entziehen.

    Wohin wird dieses Wissen uns noch treiben?

    Was Jean-Paul Sartre über den Krieg sagte, gilt auch für Wissen: Nicht wir erschaffen Wissen – Wissen erschafft uns. Könnte dies der Grund sein, weshalb heute eine vergoldete Scheibe in sechzehn Milliarden Kilometern Ferne durch die Weiten des Universums zieht?


    Weiterführende Links

    Die Webseite der NASA - Voyager-Mission (englisch)


     

    inge Thu, 24.05.2012 - 05:20

    Wissenschaft: Fortschritt aus Tradition

    Wissenschaft: Fortschritt aus Tradition

    Do, 17.05.2012- 05:20 — Helmut Denk

    Icon Politik & GesellschaftHelmut Denk

    Zur Rolle der österreichischen Akademie der Wissenschaften (ÖAW) als größter außeruniversitärer Forschungsträger unseres Landes und als Plattform für wissenschaftsbasierte Gesellschaftsberatung und Wissenschaftserziehung. Rede des Präsidenten der ÖAW, Helmut Denk, anläßlich der Feierlichen Sitzung am 9. Mai 2012 (leicht gekürzt).

    Die Akademie blickt auf ein schwieriges Jahr zurück, geprägt von Bestandsaufnahme, Strategiediskussion und Kontroversen, von Reform, Sparmaßnahmen und Neuorientierung, aber auch von beachtlichen wissenschaftlichen Erfolgen unserer Forschungseinrichtungen. (Auf letztere sind die Klassenpräsidenten eingegangen.)

    Hauptsitz der ÖAWAbbildung 1: Hauptsitz der Österreichischen Akademie der Wissenschaften (erbaut 1755; ehem. Universitätsgebäude; 1010 Wien, Dr. Ignaz Seipel-Platz 2)

     

    Reform und Entwicklung

    Auf Basis des im April 2011 beschlossenen Entwicklungsplanes für die Jahre 2012 bis 2014 wurde im November die Leistungsvereinbarung mit dem Bundesministerium für Wissenschaft und Forschung unterzeichnet, in der die Akademie ihre für diese Periode geplanten Leistungen darlegt und im Gegenzug dreijährige Finanzierungs- und Planungssicherheit erhält.

    Zentrale Wissenschaftsfelder

    Die Leistungsvereinbarung konkretisiert die im Zentrum stehenden Wissenschaftsfelder; nämlich:

    • Europäische Identitäten sowie Wahrung und Interpretation des kulturellen Erbes
    • Demographischer Wandel, Migration und Integration von Menschen in heterogenen Gesellschaften
    • Biomedizinische Grundlagenforschung auf Basis molekularbiologischer und molekulargenetischer Erkenntnisse
    • Molekulare Pflanzenbiologie als Grundlage für agrarische Ressourcennutzung
    • Angewandte Mathematik
    • Quantenphysik, Hochenergiephysik, Weltraum- und Materialforschung

    Inhalte und Umsetzung der Leistungsvereinbarung, aber auch die Budgetknappheit, die durchaus drastische Strukturmaßnahmen erfordert, haben zu Verunsicherung von Mitarbeiterinnen und Mitarbeitern und Kritik aus dem In- und Ausland geführt. Dabei ging aber weitgehend unter, dass eine Reform der Akademie zur Erfüllung ihrer Mission als moderner außeruniversitärer Forschungsträger grundsätzlich notwendig und nicht nur durch die finanzielle Krise aufgezwungen ist. Eine lebendige Akademie muss Forschungsfelder und Organisationsformen immer wieder kritisch hinterfragen und für Erneuerung offen sein.

    Es gibt keine traditionelle oder progressive Wissenschaft, sondern nur Wissenschaft auf der Höhe der Zeit mit ihren Voraussetzungen, das sind: kluge Köpfe, Budget und Planungssicherheit.

    Die österreichische Forschungspolitik hat zunehmend nicht einzelne Akteure, sondern die gesamte Wissenschaftslandschaft im Blick. Die Akademie identifiziert sich angesichts des zunehmend harten, globalen wissenschaftlichen Wettbewerbs und der beschränkten Mittel mit dieser Strategie der Bündelung der Kräfte; wir erwarten aber Gleichbehandlung aller exzellenten österreichischen Forschungsträger. Für die ÖAW gilt es, wissenschaftliche Fächer mit hochqualifizierten Arbeitsplätzen zu sichern – und zwar dort, wo die besten Entfaltungsmöglichkeiten bestehen. Wir danken Herrn Bundesminister Professor Töchterle und unseren Partnern im Bundesministerium für Wissenschaft und Forschung für die produktive Zusammenarbeit, aber auch den Universitäten für ihre Unterstützung.

    Leistungsvereinbarung

    Lassen Sie mich einige Überlegungen zur Leistungsvereinbarung anstellen:

    1. Was bedeutet Leistungsvereinbarung?

    Kann man Leistung in von Neugierde getriebener Grundlagenforschung überhaupt vereinbaren, einfordern und deren Erbringung und Qualität objektiv erfassen?

    Die meisten grundlegend neuen Ideen stammen von einigen begabten Menschen, die sehen und zu deuten verstehen, was vielen anderen nicht gelingt. Der Versuch, Forschung zu regulieren und in ein enges Korsett zu zwängen, hemmt die Innovation; die gescheiterten Diktaturen Europas haben dies hinlänglich gezeigt. Der innovative Forscher muss, wie Werner Heisenberg einmal gesagt hat, immer wieder „festen Grund verlassen und ins Leere springen“.

    Es liegt im Wesen der Grundlagenforschung, dass sie Wissen schafft, aber gleichzeitig neue Fragen aufwirft und sich damit neue Ziele steckt. Wie misst man die Qualität des Erreichten? Bemühungen um Objektivität führen oft (nach dem Prinzip: nur was man zählen kann, zählt) zu Überbewertung quantitativer Indikatoren, die aber die wirkliche Leistung, wie sie der wissenschaftliche Sachverstand sieht, nur unzureichend erfassen.

    Somit ist eine Balance zwischen der wissenschaftlichen Freiheit und der für die Zuteilung der Ressourcen notwendigen Steuerung zu finden. Der Konflikt zwischen Autonomie und Selbstverantwortung der Forschung einerseits und der Kontrolle durch den Geldgeber andererseits lässt sich mit dem Instrument der Leistungsvereinbarung nur unzureichend lösen.

    2. Profilschärfung der ÖAW als Forschungsträger

    Zur weiteren Profilierung der Akademie als Forschungsträger werden international höchst kompetitive Forschungseinrichtungen schwerpunktmäßig gefördert. Die Vernetzung fachnaher Bereiche und das Zusammenwirken von Disziplinen begünstigen die gesamthafte Bewältigung komplexer Themen.

    Von der Zusammenfassung kleiner thematisch verwandter Forschungsrichtungen in größeren Instituten erwarten wir neben Synergien verbesserte internationale Sichtbarkeit, effizientere Leitung und Administration und optimierten Mitteleinsatz.

    Die Übertragung von Forschungseinheiten oder Arbeitsgruppen an Universitäten sichert den Fortbestand und stärkt die aufnehmende Universität in Forschung und Lehre. Das dadurch freiwerdende Budget steht der ÖAW weiter zur Verfügung, sodass sie ihrer Mission, nämlich Kristallisationskeime für innovative, durchaus auch risikoreiche Forschung zu bilden, besser gerecht werden kann. Ich möchte allerdings nicht verschweigen, dass einige wegen des Budgetmangels erforderliche Übertragungen für die ÖAW durchaus schmerzhaft sind.

    Die weitere Steigerung der Drittmittelquote ist ein wichtiges Ziel. Die Höhe der Drittmittel ist in vielen Wissenschaftsdisziplinen ein brauchbarer Leistungsindikator. Bezüglich kompetitiver Drittmitteleinwerbung (z.B. Grants des European Research Council) sind die ÖAW Mitarbeiterinnen und Mitarbeiter in Relation zum Basisbudget und zur Mitarbeiterzahl schon jetzt klare Spitzenreiter in Österreich. Wir erhoffen uns die Anerkennung der Bundesregierung durch Verdoppelung der eingeworbenen Mittel.

    3. Neue Wege der Nachwuchsförderung

    Die Zahl der in der Forschung Tätigen liegt in Österreich unter dem europäischen Durchschnitt. Eine selektive Karrierestruktur, die den besten Talenten in unseren Forschungseinheiten einerseits optimale Förderung und andererseits schon früh wissenschaftliche Eigenständigkeit und Freiheit bietet, ist der beste Weg zum wissenschaftlichen Erfolg. Der Akademie wurden zusätzliche Mittel aus der Nationalstiftung für Forschung, Technologie und Entwicklung in Höhe von 8 Mio. Euro für fünf Jahre für innovative Vorhaben zuerkannt. Für die tatkräftige Unterstützung möchte ich Frau Sektionschefin Barbara Weitgruber vom Bundesministerium für Wissenschaft und Forschung sehr herzlich danken.

    Somit können im Rahmen unseres neuen Exzellenzprogramms „New Frontiers Groups“ neue Wege beschritten werden: hoch qualifizierte, im internationalen Wettbewerb bewährte Wissenschaftler(innen) aus dem In- und Ausland werden bei freier Themenwahl unabhängige Forschergruppen an einem ÖAW-Institut aufbauen und damit frischen Wind in unser Forschungsportfolio bringen. Wir hoffen, dass dieses Programm auch derzeit im Ausland tätige österreichische Wissenschaftlerinnen und Wissenschaftler zu selbständiger Tätigkeit in Österreich motiviert.

    4. Wissenschaftsbasierte Gesellschaftsberatung und Wissenschaftserziehung

    Was muss man über die Zusammenhänge zwischen Natur- und Technikwissenschaften, Geistes- und Sozialwissenschaften, Wissenschaftsethik, eigene und fremde Kulturen wissen, um sich ein Bild von der Welt zu machen? Wie jede andere Wissenschaftsinstitution hat die Akademie als Teil der Gesellschaft heute nicht nur dem wissenschaftlichen Fortschritt zu dienen, sondern muss auch als Aufklärer, Übersetzer und Vermittler wirken.

     

    Einstellung der Österreicher und Österreicherinnen zu Wissenschaft und Technologie im Vergleich zur EUAbbildung 2: Einstellung der Österreicher und Österreicherinnen zu Wissenschaft und Technologie im Vergleich zur EU. (Quelle: Special Eurobarometer: Science and Technology, June 2010

    Trotz erfreulicher Signale, wie z.B. der gute Besuch der Veranstaltungen im Rahmen der „Langen Nacht der Forschung“, ist der Stellenwert von Wissenschaft und Forschung in Österreich in der öffentlichen Wahrnehmung noch unzureichend. Abbildung 2. Laut einer von der Europäischen Kommission 2010 in Auftrag gegebenen Umfrage in allen EU-Ländern erklären 57 Prozent der Österreicherinnen und Österreicher, dass Informationen über Wissenschaft und Forschung für ihr tägliches Leben keine oder nur untergeordnete Bedeutung haben. Warum sind es fast doppelt so viele wie im EU-Durchschnitt? Ist es unter diesen Umständen wirklich verwunderlich, dass die Wissenschaftsförderung in der österreichischen Politik – im Unterschied zu so manchem Nachbarland – einen eher untergeordneten Rang einnimmt? Halbwissen und Nicht-Wissen führen zwangsläufig zu Unsicherheit, Verständnislosigkeit und mangelnder Unterstützung.

    Hier liegt eine Bringschuld der Wissenschaft vor.

    Jede Wissenschaft ist anwendungsoffen im weitesten Sinn; eines ihrer Ziele muss sein, in einer erkenntnisoffenen Gesellschaft zu agieren.

    Es ist daher ein Gebot der Stunde, dass sich die Akademie intensiver mit Wissenschaftskommunikation beschäftigt.

    Die Gesellschaft hat nur in selektiven Bereichen die Möglichkeit, eigene Erfahrung zu sammeln, und bezieht ihre Kenntnisse vor allem aus den diversen Medien. Welche Medieninhalte interessieren die österreichische Bevölkerung am meisten? Laut einer EU-weiten Umfrage und Untersuchungen unserer Kommission für vergleichende Medien- und Kommunikationsforschung steht Unterhaltung an erster Stelle, dicht gefolgt von Sport. Damit liegt Österreich deutlich über dem EU-Durchschnitt. Mit großem Abstand folgen Politik und Kunst. Wirtschaft und Wissenschaft bilden das Schlusslicht.

    Umfragen verweisen auf eine weitere prekäre Situation: Wissenschaftler können scheinbar nur selten die richtigen Worte finden, um mit einem breiteren Publikum zu kommunizieren.

    Dem Konzept einer wissenschaftszentrierten „Aufklärung“ der Öffentlichkeit lässt sich ein Modell entgegen setzen, das nicht mehr auf der bloßen Vermittlung, sondern auf der kommunikativen Einbettung wissenschaftlich fundierten Wissens in den Lebenszusammenhang der Menschen beruht.

    Die Österreichische Akademie der Wissenschaften sieht ihren Beitrag darin, eine Plattform für den Diskurs über gesellschaftlich relevante Problemstellungen zu bieten.

    5. Was wollen wir zur Wissenschaftserziehung beitragen

    Wissenschaftserziehung muss ein integraler Teil der Bildungsstrategie für alle sein; und dies unabhängig von Schultyp, Alter, Geschlecht oder Intelligenzgrad. Ziel ist, das natürliche Interesse von Kindern an Wissen und Wissensproduktion zu fördern und damit das Fundament für die Weiterbildung im späteren Leben zu schaffen. Sie sollen verstehen, was Wissenschaft ist und wie viel sie zur Kultur beiträgt.

    Wissenschaftserziehung ist also komplex und bezieht sich auf Fakten, Prozesse und Modelle; sie fordert körperlichen und geistigen Einsatz, heute heißt das „Minds on and hands on“. Sie funktioniert nur mit hoch qualifizierten Lehrern. Schon seit Jahren unterstützt die ÖAW verschiedene Initiativen des Bundes, der Bundesländer und privater Organisationen. Sie will zukünftig eine noch aktivere und koordinierende Rolle spielen.

    Fortschritt aus Tradition!

    Mit ihren Aktivitäten investiert die ÖAW in die Zukunft und setzt auf Neues, ohne Bewährtes und Bewahrungswürdiges aus den Augen zu verlieren. Mehr als die Vergangenheit interessiert mich die Zukunft. Denn in ihr gedenke ich den Rest meines Lebens zu verbringen. Albert Einstein (1879-1955)


    Weiterführende Links

    Special Eurobarometer: Science and Technology, June 2010”: Die in Abbildung 2 zitierte Quelle zeigt ein verheerendes Bild unseres Landes in Hinblick auf Akzeptanz und Interesse an Wissenschaft: Führend in Wissenschaftsignoranz, uninformiert und desinteressiert an wissenschaftlichen/technischen Neuerungen, besonders misstrauisch hinsichtlich der Ehrlichkeit von Wissenschaftern, allerdings aufgeschlossen, wenn die Forschung in Richtung Gesundheit geht, jedoch Tierversuche ausschließt, usw. Die kritische Lektüre des Eurobarometers ist dringendst zu empfehlen!


     

    inge Thu, 17.05.2012 - 05:20

    Vitamin D — Allheilmittel oder Hype?

    Vitamin D — Allheilmittel oder Hype?

    Do, 10.05.2012 - 00:00 — Inge Schuster

    Inge SchusterIcon Medizin

    „Stellen Sie sich eine Behandlung vor, welche Knochen aufbauen, das Immunsystem stärken und das Risiko für Krankheiten wie Diabetes, Herz-und Nieren Erkrankungen, Hypertonie und Krebs senken kann“.... Welches Potential hat Vitamin D für die Stärkung der Gesundheit? (Tara Parker-Pope, New York Times, Feb. 1. 2010)

    „Das ist gut gegen Rachitis“ hieß es in meiner Kindheit, wenn zwangsweise ein Löffel mit Lebertran in meinen Mund geschoben wurde und diesen mit widerwärtigem, tranigem Geschmack füllte. Rachitis, eine Krankheit, die sich bei Kindern durch Knochendeformationen manifestiert und unbehandelt zu lebenslangen Verkrüppelungen führt, ebenso wie das entsprechende Krankheitsbild im Erwachsenenalter, die Osteomalazie (Knochenerweichung), waren in der Zeit nach dem zweiten Weltkrieg noch häufig anzutreffen und dementsprechend gefürchtet.

    Rachitis ist eine schon seit der Antike bekannte Erkrankung, deren Symptome u.a. bereits von Galen beschrieben wurden. Mit der Industrialisierung, der damit einhergehenden Luftverschmutzung und den veränderten Arbeits- und Lebensbedingungen nahm die Rachitis dann in den dicht bevölkerten Städten der nördlicher gelegenen Regionen Europas und Amerikas überhand. Über sehr lange Zeit gab es für die – nach dem endemischem Auftreten in Teilen Englands benannte – „Englische Krankheit“ keine effiziente Therapie. Erst im 19. Jahrhundert wurde Lebertran, ein altes Hausmittel von Küstenbewohnern gegen alle möglichen Beschwerden, als wirksam gegen Rachitis erkannt und Mangel an Sonnenlicht als deren möglicher Auslöser.

    Der antirachitische Faktor

    Welcher Zusammenhang zwischen dem im Lebertran vermuteten und dem in Folge von Sonnenbestrahlung entstehenden „antirachitischen Faktor“ besteht, wurde vor rund 90 Jahren geklärt:

    Aus Lebertran konnte eine fettlösliche organische Verbindung isoliert werden, die sich in Versuchen an rachitischen Tiermodellen als hochwirksam erwies. In der Annahme, der menschliche Organismus könne diese Verbindung nicht selbst bedarfsdeckend herstellen, wurde sie in die Stoffklasse der damals gerade entdeckten Vitamine (A, B und C) eingereiht und der alphabetischen Reihenfolge entsprechend mit „Vitamin D“ bezeichnet. Die Bezeichnung „Vitamin“ blieb bestehen, auch als nachgewiesen wurde, daß eben diese Verbindung in der Haut nach Bestrahlung mit Sonnenlicht, resp. dem darin enthaltenen Anteil an Ultaviolett-Strahlung (UVB: Wellenlänge 290 – 315 nm) entstand und der Organismus damit nicht auf Supplementation (Zufuhr) von außen angewiesen war.

    Die chemische Struktur von Vitamin D und woraus es in der Haut gebildet wird, wurde ein Jahrzehnt später aufgeklärt. Demnach entsteht Vitamin D durch eine UVB-induzierte photochemische Reaktion aus der unmittelbaren Vorstufe von Cholesterin (dem 7-Dehydro-Cholesterin), einem Steroidmolekül, welches in der Haut in hohem Maße gebildet wird. Das aus der Haut in den Organismus gelangende Vitamin D ist aber noch nicht die eigentlich wirksame Form. Diese wurde vor rund 40 Jahren entdeckt und resultiert aus zwei aufeinanderfolgenden Reaktionen am Vitamin D Molekül (Abbildung 1): über das – noch inaktive – 25-Hydroxyvitamin D, das als Depotform im Blut zirkuliert, führt der zweite Schritt zum aktiven 1,25-Dihydroxyvitamin D (Calcitriol). Die an diesen Reaktionen beteiligten Enzyme wurden erst vor wenigen Jahren identifiziert. Biosynthese von Vitamin D

    Abbildung 1. Biosynthese von Vitamin D in der Haut als Folge der UVB-Strahlung und Aktivierung zum Hormon. Vereinfachte Darstellung.

    Vitamin D ist ein Prohormon, aus dem in zwei aufeinanderfolgenden Schritten das hormonell aktive Calcitriol synthetisiert wird. Die aktivierenden Enzyme sind in den meisten Zellen unseres Organismus vorhanden, ebenso wie der Vitamin D-Rezeptor, über den das Hormon seine spezifischen Wirkungen entfaltet.

    Aktives Vitamin D: Funktion und mögliche Rolle im Organismus?

    Calcitriol – zur Zeit als die wichtigste aktive Form von Vitamin D angesehen – ist ein Hormon. Es wirkt in analoger Weise wie die strukturell nahe verwandten Steroidhormone (Androgene, Östrogene, Gestagene, Corticoide), die – assoziiert an ihre spezifischen Rezeptorproteine – an DNA-Abschnitte hormonsensitiver Gene binden und deren Transkription regulieren.

    Der spezifische Rezeptor für Calcitriol (Vitamin D Rezeptor) findet sich in praktisch allen Körperzellen; dementsprechend kann das Hormon in allen diesen Zellen seine Wirkung entfalten. Untersuchungen, welche Gene durch Calcitriol an oder abgeschaltet werden können, haben eine Vielzahl an Genen – rund 4 % des humanen Genoms – als mögliche Targets (Angriffspunkte) aufgezeigt. Damit erscheint eine Beeinflussung verschiedenartigster Signalkaskaden und Stoffwechselvorgänge durch das Hormon plausibel. Abbildung 2.

    Die klassische – antirachitische – Rolle der hormonell aktiven Vitamin D-Form in der Mineralisierung des Skeletts, im Wachstum und Umbau der Knochen, manifestiert sich in der Regulierung zahlreicher Gene, welche den Calciumhaushalt – d.h. die Konstanthaltung des Calcium-Spiegels im Blut – kontrollieren.

     

    Einfluß von aktivem Vitamin D auf physiologische FunktionenAbbildung 2. Einfluß von aktivem Vitamin D auf physiologische Funktionen. Das Hormon (gelb) ist in die Regulation einer Vielfalt an Genen involviert, welche essentielle Rollen in den dargestellten Funktionen spielen. Es limitiert selbst seine Wirkdauer, indem es sehr rasch die Produktion eines Enzyms stimuliert, welchen seinen Metabolismus zu inaktiven Produkten bewirkt.

    Unabhängig von dieser Funktion hat aktives Vitamin D einen massiven Effekt auf die Bildung von Proteinen, die als Regulatoren des Zellwachstums und der Zell-Differenzierung fungieren. Damit wird (zumindest teilweise) der therapeutische Effekt von Calcitriol (und Analoga) auf proliferierende (sich exzessiv vermehrende) Zellen z.B. in der Psoriasis erklärt. Versuche an Tiermodellen, aber auch klinische und epidemiologische Studien, weisen auf einen direkten Zusammenhang zwischen der Konzentration von Vitamin D im Blut und der Prävention und Prognose verschiedener maligner Tumorerkrankungen – u.a. Darmkrebs, Prostatakrebs oder Brustkrebs – hin.

    Aktives Vitamin D moduliert die Immunantwort, wirkt stimulierend auf das Monozyten/Makrophagen-System und damit unterstützend auf dessen antimikrobielle, antitumorale Funktionen, dagegen supprimierend (unterdrückend) auf Lymphozyten und dendritische Zellen. Tiermodelle und epidemiologische Studien sehen einen direkten Zusammenhang zwischen Vitamin D-Mangel und Anfälligkeit für Autoimmunerkrankungen, wie beispielsweise multiple Sklerose, entzündliche Darmerkrankungen (Morbus Crohn), Lupus, Diabetes mellitus (Typ 1) und rheumatische Erkrankungen.

    Im Nervensystem reguliert aktives Vitamin D die Expression zahlreicher Genprodukte, die essentiell für das Wachstum von Nervenzellen und die Synthese von Neurotransmittern sind. Studien an einer großen Zahl älterer Probanden (University Cambridge, UK) zeigten, daß kognitive Leistungsfähigkeit der Probanden mit der Höhe ihrer Vitamin D-Spiegel korrelierten.

    Die Liste an vielversprechenden potentiellen Aktivitäten von aktivem Vitamin D ließe sich noch weiter fortsetzen. Das Hormon erscheint dabei quasi als Wundermittel, das bei richtiger Einstellung den Erhalt der Gesundheit und die Prävention physischer und psychischer Defekte verspricht.

    Supplementierung von Vitamin D

    Unsere primäre Quelle für Vitamin D, die Vorstufe des Hormons, ist die dem Sonnenlicht ausgesetzte Haut. Eine ausreichende Zufuhr über normale Nahrung ist dagegen kaum möglich: abgesehen von fetten Fischen, wie beispielsweise Lachs oder Hering, enthalten Nahrungsmittel zu wenig Vitamin D, um einigermaßen „normale“ Konzentrationen im Organismus erzeugen zu können. Supplementierung erfolgt daher häufig über Vitamin D-Präparate (Vorstufen des Hormons), in einigen Ländern, wie beispielsweise den USA und Finnland wird Vitamin D der Milch und Milchprodukten zugesetzt. Calcitriol selbst kann nur in kontrollierten, therapeutischen Anwendungen eingesetzt werden, da mögliche Überdosierungen des bereits in sehr niedriger – subnanomolarer1 - Konzentration wirksamen Hormons zu schwerwiegendsten Störungen des Calciumhaushalts führen und daher sorgfältigst vermieden werden müssen.

    Ob und wieviel Vitamin D die Sonne in der Haut erzeugt, hängt entscheidend von der geographischen Lage und dem Sonnenstand ab. Nördlich des 35. Breitengrades reicht der UVB-Anteil nur von Ende März bis Oktober und dann nur bei hohem Sonnenstand von 10 h bis 15 h aus um Vitamin D zu produzieren. Während dieser Zeit genügt ein relativ kurzes Sonnenbad mit nackten Armen und Beinen (5 – 30 min; gerade genug um eine geringe Rötung der Haut festzustellen) um bereits 25 – 50 mal so viel Vitamin D zu erzeugen, wie in üblichen Vitaminpillen enthalten ist. Aus der Haut in den Organismus gelangendes Vitamin D wird dann zum großen Teil im Fettgewebe gespeichert und aus diesen Depots über Monate hin langsam abgegeben. So reicht ein wöchentlich mehrmaliges „Sonne tanken“ aus um aus den Depots noch in den „sonnenlosen“ Wintermonaten mit Vitamin D versorgt zu werden.

    Der Eintritt von UVB-Licht in die Haut kann allerdings auch bei Sonnenhochstand durch viele Faktoren reduziert werden: Bewölkung, Luftverschmutzung, dunkle Hautfarbe, ausgiebige Verwendung von Sonnencremen mit hohem Lichtschutzfaktor und insbesondere Bekleidung reduzieren die Vitamin D Synthese. Wie umfangreiche Untersuchungen an Migrantinnen aus dem (Nahen) Osten zeigen, führt Ganzkörperverhüllung zu besonders niedrigen Vitamin D-Spiegeln. Damit verbunden sind ein hohes Risiko an Osteoporose und Osteomalazie zu erkranken und für die Säuglinge der verschleierten Mütter an Rachitis zu leiden.

    Vitamin D Mangel – eine Pandemie?

    In den letzten Jahren ist ein geradezu lawinenartiger Anstieg an Berichten zu verzeichnen, die Vitamin D-Mangel als einen wesentlichen Risikofaktor für die Entstehung unterschiedlichster Erkrankungen beschreiben. Diesen Befunden liegen zumeist großangelegte, über viele Jahre laufende epidemiologische Studien zugrunde – sogenannte Kohortenstudien mit jeweils mehreren tausend Probanden – deren Vitamin D-Status mit der Inzidenz (Anzahl von Neuerkrankungen) an Krankheiten korreliert wird. Auf einige dieser Korrelationen wurde schon früher hingewiesen (siehe auch weiterführende Links).

    Zur Feststellung des Vitamin D-Status im Organismus wird die Konzentration von 25-Hydroxyvitamin D (siehe oben) im Blutserum als aussagekräftiger Indikator herangezogen. Konzentrationen unter 12 nanogram/ml (30 nanomol/l) stellen eine „Defizienz“ (schweren Mangel) dar und führen zu Rachitis bei Kindern und Osteomalazie bei Erwachsenen. Werte unter 20 nanogram/ml (50 nanomol/l) werden als nicht adäquat zur Erhaltung der Gesundheit angesehen und als Vitamin D-„Insuffizienz“ (Mangel) definiert. Metaanalysen2 zufolge dürften derartig niedrige Spiegel auf rund 50 % der „westlichen Weltbevölkerung“ zutreffen.

    Niedrige Vitamin D-Spiegel sind natürlich auch eine direkte Folge der Lebensbedingungen in unserer modernen Welt. Sie sind bedingt durch zunehmende Urbanisierung und Berufe, die uns mehr und mehr ins Innere von Gebäuden verbannen (durch die Fensterscheiben eines noch so sonnigen Büros dringt halt eben kein UV-Licht). Sie sind Folge einer stark gestiegene Lebenserwartung (die Fähigkeit, Vitamin D in der Haut zu erzeugen, nimmt mit steigendem Lebensalter ab und kann bei Menschen über 70 Jahren bereits weniger als 25 % der Kapazität eines Kindes betragen). Auch befindet sich eine zunehmende Zahl chronisch kranker und pflegebeürftiger (alter) Menschen jahrelang in Heimen ohne „ins Freie“ zu gelangen und ohne entsprechende Supplementation von Vitamin D.

    Dazu kommt die Vermeidung von Sonnenlicht aus Furcht vor ernstzunehmenden, negativen Auswirkungen, insbesondere dem Risiko, an Hautkrebs zu erkranken. Es ist die „American Academy of Dermatology“, die empfiehlt, Sonnenlicht gerade dann zu meiden, wenn optimale Bedingungen für die Vitamin D Synthese bestehen. Dagegen plädieren die meisten Experten im Vitamin D-Gebiet – darunter sehr viele exzellente Dermatologen – aufgrund augenscheinlicher Vorteile für ein maßvolles „Sonnetanken“.

    Für Sonnenlicht gilt – wie für vieles anderes, das mit unserem Körper in intensiven Kontakt kommt: es kann beides, die Gesundheit stärken – beispielsweise durch die Synthese von Vitamin D – und die Gesundheit schädigen. Im zweiten Fall führt längeres Braten in voller Sonne sowohl zu kurzfristigen Schädigungen (Sonnenbrand, Immunsuppression) als auch zu langfristigen Folgen, vor allem zu Hautalterung und Schädigungen der DNA, die zur Entstehung von Hauttumoren (im wesentlichen „weißem Hautkrebs“) führen können.

    Sollte Vitamin D-Mangel demnach als Pandemie angesehen werden? Auch bei kritischer Sicht sprechen sehr viele Befunde dafür, daß ein verbesserter Vitamin D-Status beträchtlich zur Stärkung der allgemeinen Gesundheit beitragen würde. Aber, wieviel Vitamin D braucht der Mensch dafür? Wenn zur Zeit auch generelle Übereinstimmung bezüglich des unteren Grenzwerts der 25-Hydroxyvitamin D-Konzentration besteht, so gibt es bis jetzt kaum aussagekräftige Studien, die Abschätzungen von optimalen Vitamin D-Konzentrationen zur Prävention diverser Krankheiten erlauben würden. Ebenso wenig weiß man über Langzeit-Folgen und mögliche toxische Effekte von Vitamin D-Supplementierung in höheren Dosierungen Bescheid.

    In Anbetracht der Bedeutung einer adäquaten Vitamin D-Supplementierung für Bevölkerung und Gesundheitssystem soll diese Fragen nun eine umfassende neue randomisierte klinische Studie an prinzipiell gesunden Menschen beantworten: Diese VITAL (VITamin D and OmegA-3 Trial) genannte Studie wurde vom amerikanischen National Institutes of Health (NIH) initiiert und an der Harvard Medical School (Boston, MA) ausgeführt. Bis Ende 2012 werden dazu 20 000 gesunde Männer (ab 50 Jahren) und Frauen (ab 55 Jahren) rekrutiert, welche placebokontrolliert täglich eine relativ hohe Dosis an Vitamin D (50 Microgramm) und/oder Fischöl (1 Gramm) erhalten. Jedes Jahr wird dann der Gesundheitszustand der Probanden detailliert erhoben, wobei primär die Häufigkeit von Krebserkrankungen, Herz-Kreislauferkrankungen sowie Schlaganfällen untersucht wird, aber auch von Diabetes, kognitiven Fähigkeiten, Autoimmunerkrankungen, Infektionen u.v.a.

    Ergebnisse aus dieser Langzeitstudie werden zweifellos zeigen, ob und in welchem Umfang man Vitamin D als ein „Wundermittel“ sehen kann – allerdings ist bis zum Ende der Studie noch viel Geduld erforderlich.

    Ra und Amentit Surya
    Abbildung 3. Links: Der Sonnengott Ra mit Amentit, der Göttin des Okzidents (Grabkammer der Nefertari 1255 v Chr). Rechts: Der vedische Sonnengott Surya wird vom Volk angebetet (19. Jh.)

    Werden dann hochdosierte Vitamin D-Präparate das Sonnetanken ersetzen (können)? Immerhin hat die Sonne unsere Kulturen geprägt, sie war quasi das Ursymbol der göttlichen Verehrung und wurde als segensbringend erachtet (Abbildung 3). Zu den Gaben, die der indische Sonnengott Surya seinen Gläubigen gewährt(e), gehör(t)en hohe Lebenserwartung, Gesundheit, Erfolg, Sieg über Gegner und Erleuchtung – eigentlich alles Konsequenzen, die man auch mit dem Vitamin D-Status heutiger „Sonnenanbeter“ assoziiert.


    Anmerkungen der Redaktion

    Weiterführende links

    MF. Holick 2009. Sonne, UV-Strahlen, Vitamin D und Gesundheit. (Interview, 9 min.) NIH, Office of Dietary Supplements; US. 2011. Dietary Supplement Health Sheet: Vitamin D.

    MF. Holick 2006. Resurrection of vitamin D deficiency and rickets J.Clin.Invest 116:2062-2072 (PDF Download) F. Dellanna, 2012 Aktuelle Stunde - Vitamin-D Mangel - WDR Fernsehen (3,1 min) H. Dobnig (Med Uni Graz) 2009, Vitamin D Mangel ist ein großes Problem in Deutschland (5,4 min) (Achtung: Vitamin D Gehalte in Nahrungsmittel sind nicht Milligramm sondern Microgramm!!!)


     

    inge Thu, 10.05.2012 - 05:12

    Comments

    Wissenschaft: Notwendigkeit oder Luxus?

    Wissenschaft: Notwendigkeit oder Luxus?

    Do, 03.05.2012- 00:00 — Peter Skalicky

    Icon Politik & GesellschaftPeter Skalicky

    Universitäten sind dazu da, das Wissen der Zeit zu erhalten, durch Forschung weiter zu entwickeln und es in der forschungsgeleiteten Lehre der Bildung und Ausbildung anzubieten. Wissenschaft, oft unkritisch mit Luxus assoziiert, muß sich Forderungen nach Nachhaltigkeit stellen, der Bringschuld, den Transfer von Wissen und wissenschaftlicher Methodik in die Gesellschaft zu gewährleisten, aber auch einer ausufernden Wissenschaftsorganisation Einhalt gebieten.

    Wissenschaft ist lebensnotwendiger (immaterieller) Luxus (immateriell: lt. Lexikon etwas stofflich nicht Existentes). Immateriell können Liebe, Gesundheit, Freizeit, aber vor allem auch „materiell absichtsloser Erkenntnisgewinn“ sein. Für viele Menschen sind diese immateriellen Faktoren sogar der wahre Luxus. Sie sind in der Regel nicht zu kaufen, gehören aber zu den höchsten Gütern der Menschen.

    Die Wissenschaft, nahezu ausschließlich an Universitäten und wissenschaftlichen Instituten betrieben, zählt zu diesen Luxus-Gütern. Derartige Einrichtungen gehören, wenn man von der Kirche absieht, zu den ältesten, stabilen Institutionen, bestehen seit nahezu tausend Jahren nach den ersten Gründungen in Bologna, Paris und Oxford. und sind älter als die Nationalstaaten. Das Modell wissenschaftlicher Institutionen hat sich im Laufe der Zeit natürlich verändert,aber keineswegs bis zur Unkenntlichkeit.

    Die Gründungsabsicht der Institutionen war in erster Linie dem reinen Erkenntnisgewinn gewidmet. In den letzten beiden Jahrhunderten sind jedoch zwei wesentliche, neue Einfluß-Faktoren hinzugekommen:

    • der Triumph der modernen Naturwissenschaften und
    • die massenhafte Nachfrage nach wissenschaftlicher Bildung und Ausbildung.

    Man wagt es heute kaum mehr, Physik zu betreiben, ohne an der Entwicklung eines Quantencomputers zu arbeiten, oder Genetik ohne Bezug zu medizinischen Anwendungen. Die wissenschaftlichen Institutionen sind so etwas wie ein Teil des nationalen Innovationssystems geworden.

    Von Luxus kann nun nicht mehr die Rede sein, dafür aber von der Ökonomisierung der Bildung. Aber was ist mit der Predigtliteratur des Mittelalters? Auch das ist kein (materieller) Luxus.

    Die Universitäten und wissenschaftlichen Institute sind dazu da, das Wissen der Zeit zu erhalten, durch Forschung weiter zu entwickeln und es in der forschungsgeleiteten Lehre der Bildung und Ausbildung anzubieten. Der Erfolg besteht darin, sich zumindest einmal im Leben etwas wirklich ordentlich überlegen zu müssen und zur wissenschaftlichen Weiterentwicklung beizutragen. Im Zeitalter der Massenuniversität ist dies schwer zu realisieren, wie nicht zuletzt die Plagiatsaffären im Zusammenhang mit wissenschaftlichen Arbeiten zeigen. Wissenschaft ist eben zwar kein Luxus, aber nur bedingt als Massensport geeignet. Dennoch sind mehrheitlich alle Wissenschaftler, die je gelebt haben, unsere Zeitgenossen.

    Die Spannungsfelder, in denen sich die Wissenschaft bewegt, nehmen allerdings zu

    Die manchmal unkritische Assoziation von Wissenschaft mit Luxus gehört dazu. Materieller Luxus (v. lat.: luxus = Verschwendung, Liederlichkeit, eigentlich „üppige Fruchtbarkeit“) bezeichnet Verhaltensweisen, Aufwendungen oder Ausstattungen, welche über das in einer Gesellschaft als notwendig oder sinnvoll erachtete Maß hinausgehen. Dies wird daher manchmal missverständlich auf die moderne Großforschung bezogen, deren größte Anomalie in der Tat ein sehr hoher Geldbedarf ist. Es wird argumentiert: die Menschheit lechze eben nicht danach, mit Milliardenaufwand endlich den Nachweis für Higgs-Bosonen am CERN zu erleben, während Probleme des Klimaschutzes oder der Welternährung dagegen scheinbar unlösbar seien.

    Dies ist jedoch ein Missverständnis und nicht eine Frage luxuriöser oder frivoler Geldverschwendung. Die erforderliche Infrastruktur, wie Beschleuniger, Radioteleskope und dgl. sind ja nicht Selbstzweck, sondern dienen der Grundlagenforschung und sind billiger eben nicht zu haben. Die Alternative bestünde daher nur darin, es bleiben zu lassen. Das liefe jedoch auf ein wissenschaftliches Paradigma der Enthaltung hinaus, eine fatale Fehlentwicklung.

    Abgesehen von dieser „Luxus“-Diskussion muss sich die Wissenschaft noch weiteren Herausforderungen stellen, die auch zu Krisenerscheinungen führen. Sie betreffen die Paradigmen-Problematik, die Bringschuld der Wissenschaft in der Gesellschaft und die Forschungs- und Wissenschaftsorganisation.

    Paradigma: nachhaltige Entwicklung

    Thomas Kuhn hat Mitte des vergangenen Jahrhunderts die These aufgestellt, wissenschaftliche Revolutionen und letztlich die Weiterentwicklung der Wissenschaften würden durch Paradigmenwechsel herbeigeführt. Das derzeit (vor allem für die Angewandten Wissenschaften) meistzitierte Paradigma ist die „Nachhaltigkeit“ oder die „Nachhaltige Entwicklung“. Im Sinne von Generationengerechtigtkeit und globaler Gerechtigkeit, als Entwicklungsmodell ein hervorragender Fortschritt und ein ehrgeiziges Programm. Bei näherem Hinsehen handelt es sich jedoch eigentlich nicht um ein wissenschaftliches Paradigma, sondern eben um ein politisches Enwicklungsmodell.

    Die Forderung nach Nachhaltigkeit basiert auf einem Zitat von Saint Exupery, der meinte, „wir hätten die Welt eben nur von unseren Nachfahren geliehen“. Ein eleganter Satz, aber problematisch, wenn man ihn auf mehrere aufeinanderfolgende Generationen bezieht. „Nachhaltigkeit“ ist ein „Gummibegriff“, der zu Fehlinterpretationen und Missverständnissen einlädt. Vor allem im Zusammenhang mit dem Energiehaushalt.

    Natürlich ist hoher Energieverbrauch allein kein Zeichen von Intelligenz, die Senkung des Energieverbrauches allein macht aber aus der Menschheit noch keine nachhaltige Menschheit.

    Sieben Milliarden Menschen auf dem Planeten Erde mit ihren Ansprüchen sind nicht im thermodynamischen Gleichgewicht und werden es auch nie sein. Strenggenommen ist nichts wirklich nachhaltig (nicht einmal das Universum) wenngleich natürlich die Betrachtungszeiträume eine entscheidende Rolle spielen. Unser ganzes Leben ist ein Kampf gegen die Zunahme der Entropie, schlampig gesagt ein Maß für die Zunahme der Unordnung in irreversiblen Prozessen (noch schlampiger ausgedrückt: das Dilemma besteht darin, dass man aus einem Aquarium zwar eine Fischsuppe machen kann, die Umkehrung ist allerdings schwer möglich)

    Aus einem wissenschaftlichen Paradigma sollen ja auch Handlungsanleitungen und Herausforderungen im Einklang mit wissenschaftlicher Ethik sein. Im „Ethik-Dreieck“ „Ich will – Ich kann – ich darf“ sollte das Ergebnis nicht in der Regel in „ich darf nicht“ münden. Es ist zu bedenken, dass Ethik nicht unter ihrem Wert arbeitet, wenn sie sich auf eine Güter- und Übelabwägung einlässt. Auch gibt es keine konfliktfreie Moral und keine folgenlose Enthaltung. Wissenschaftliche „Paradigmen“, die als Handlungsanleitung in Enthaltung oder sogar im Zurückdrehen von Erfindungen und Entwicklungen münden, sind nicht nützlich. Sie führen zur Forderung an die Wissenschaft, ausschließlich rasch Lösungen für die angeblich von ihr selbstverschuldeten Probleme zu finden (Alternativenergie), oder, wenn das nicht geht, notfalls etwas „wegzuerfinden“ Kernenergie, Gentechnik). Diese Vorgangsweise ist jedoch zur Lösung realer Probleme ungeeignet. (Und mit Schuldzuweisungen kommen wir auch nicht weiter.)

    Es wäre daher angezeigt, unter Berücksichtigung des Entwicklungsprogramms der Nachhaltigkeit ein Paradigma zu entwickeln, das diese Ziele unterstützt. Es bietet sich der Ostwald’sche Imperativ an. Wilhelm Ostwald (Nobelpreis 1909) hat diesen Imperativ, der auf den Prinzipien der Thermodynamik beruht, ausführlich begründet. Kurz – aber durchaus richtig – gefasst lautet er: „Vergeude keine (freie) Energie, verwerte sie!“ Es geht darum, bei jedem Prozess die nicht nutzbare Energie, die letztlich als Abwärme, als Reibungsverlust u.dgl. „verloren“ geht – sehr vereinfacht ausgedrückt - so gering wie möglich zu halten. Die Begründungen und Anwendungen in der Original- und Sekundärliteratur Ostwalds nachzulesen ist hoch interessant und aufschlussreich (wie jede Beschäftigung mit der Thermodynamik). „Das Paradigma lautet also: die vom Menschen angestoßenen und verwendeten Prozesse müssen so gestaltet sein, dass der damit verbundene, unvermeidliche Zuwachs der Entropie möglichst gering ausfällt und keine freie Energie vergeudet wird“. Die Orientierung an diesem Paradigma ist auch viel leichter überprüfbar, als der zu weit gefasste Begriff der „Nachhaltigkeit“.

    Der Ostwald’sche Imperativ ist so etwas ist wie „Nachhaltige Entwicklung“ minus der utopischen Hoffnung auf ein thermodynamisches Gleichwicht.

    Erfreulicherweise kann man einen solchen Paradigmenwechsel auch schon erkennen, zum Beispiel im Zusammenhang mit Recycling und Stoffwandel, durch Einbeziehung der Überlegungen der Effizienzsteigerung, der Vermeidung von Energieverschwendung und der Minimierung des Entropiezuwachses.

    Bringschuld der Wissenschaft – Holschuld der Gesellschaft

    Wissenschaft, wie sie eben an Universitäten und wissenschaftlichen Instituten stattfindet, hat noch mit anderen problematischen Entwicklungen zu tun, nämlich mit der Forderung, den Transfer des Wissens und der wissenschaftlichen Methodik in die Gesellschaft sicherzustellen.

    Es liegt im ureigensten Interesse der Wissenschaftler, die Öffentlichkeit zu informieren, schließlich ist die Wissenschaft sehr teuer und wird nach wie vor hauptsächlich aus öffentlichen Mitteln finanziert. Die Frage ist jedoch, kommt diese Information auch an, wollen die Menschen das auch wirklich wissen?

    Hier gibt es das ewige Holschuld/Bringschuld Problem. Die Information wird in zunehmenden Maß als Bringschuld der Wissenschaft betrachtet. Das kann auf die Dauer nicht gutgehen, denn Information läuft in die Leere, wenn mangelndes Interesse daran besteht. Dann taucht auch erklärlicherweise das Luxus Argument auf. (Dafür wird Geld ausgegeben?)

    Der Bringschuld der Wissenschaftler muss also auch eine Holschuld der Gesellschaft, sich zu informieren und zu verstehen, gegenüberstehen. Das kann aber nur durch die Schule stattfinden, in der wissenschaftliche Methodik (und Wissen!) eine wichtigere Rolle spielen müssen als bisher.

    Eine unaufgeklärte Öffentlichkeit reagiert sonst wie jeder Uninformierte reagieren muss, mit Angst und wachsendem Misstrauen gegenüber Wissenschaft und Wirtschaft. Die Medien greifen diese Angststimmung auf und artikulieren sie, was rückgekoppelt das Misstrauen verstärkt. So entsteht eine wachsende innere Spannung in der Gesellschaft, die auf der einen Seite die Vorteile wissenschaftlicher Entwicklungen rücksichtslos nutzt und ihre Nutzung sogar einfordert (z.B. Gesundheitstechnologien), auf der anderen Seite mit wachsender Angst auf die möglichen negativen Folgen dieser selbst betriebenen Nutzung reagiert und diese Angst als Misstrauen und Aggressivität auf die Erzeuger dieser Nutzungsmöglichkeiten, Wissenschaft und Technik, ablädt. Auf der einen Seite wird dann die Grundlagenforschung in der Tat zunehmend als Luxus angesehen, weil sie scheinbar nicht ausreichend rasch zur Lösung der Probleme der Menschheit beiträgt und die Anwendungen der Angewandten Wissenschaften werden als Verursacher dieser Probleme hingestellt. Das führt zu einer Verteidigungshaltung der Wissenschaft, und das bringt uns nicht weiter.

    Es genügt daher auch nicht, wie das viele Wissenschaftspolitiker gerne tun, die Wissenschaftler in die ethische Pflicht zu nehmen, die Wertediskussion also zu privatisieren und damit auf die Ebene der allgemeinen Bürgerpflicht abzuschieben. Gefordert ist der ernsthafte, professionelle, offene und andauernde Dialog der Wissenschaften mit der Gesellschaft.

    Forschungs- und Wissenschaftsorganisation

    Zuletzt sei noch ein existentielles Problem der wissenschaftlichen Institutionen, vor allem der Universtäten angesprochen, nämlich der Ausbildungsaspekt. Wenn die Universitäten vorrangig als Schulen angesehen werden, können sie ihr Alleinstellungsmerkmal, das der forschungsgeleiteten Lehre nicht halten. Die Universitäten können den Anspruch, als flächendeckende Diplomverleihungsanstalten zu dienen, nicht einlösen. Dieser kommt daher, dass als Folge fehlinterpretierter Statistiken die Meinung entstanden ist, ein Universitätsdiplom würde vor Arbeitslosigkeit schützen und daher würde eine möglichst hohe „Akademikerquote“ die Arbeitslosigkeit senken. Die beste Förderung der Wissenschaft besteht jedoch in der Erhaltung verlässlich etatisierter wissenschaftlicher Institute und Universitäten, die Lehre und Forschung durchaus unter einen Hut bringen. Selbstverständlich unter demokratischer Kontrolle, da es sich um öffentliche Mittel handelt und entsprechender Evaluation. Diese muss aber so effizient organsiert werden, dass noch Luft für die Wissenschaft bleibt.

    Leider steigt das Volumen dieses Betriebs der Wissenschaftsorganisation und -politik ständig und teilweise stärker als die Wissenschaft selbst. Es gibt offensichtlich einen Punkt, an dem lähmender Gleichstand eintreten kann: wenn hinter jedem Wissenschaftler jemand steht, der beauftragt ist, ihn unaufhörlich auf seine Verantwortung einem Paradigma gegenüber, auf den richtigen Gebrauch seiner Werkzeuge, auf seine Forschungsanträge und seinen Rechtfertigungsauftrag hinzuweisen. Diese Gefahr ist derzeit gegeben. Wenn man alle Wissenschafts- und forschungspolitischen Programme, Programmlinien, Schwerpunkts-Konzepte, Profilbildungsmaßnahmen, Forschungsförderungskonzepte, gesetzliche Vorschriften und deren Interdependenz gleichzeitig zur Grundlage wissenschaftlicher Tätigkeit machen will, tritt Stillstand ein. Nichts geht mehr.

    Sonst geht’s der Wissenschaft gut, danke! Sie bringt nach wie vor höchst spannende neue Erkenntnisse und auch deren Umsetzung und Anwendung hervor. Wer es nicht glaubt, soll daran beim nächsten Zahnarztbesuch denken.


     

    inge Thu, 03.05.2012 - 05:20

    Die Faszination der Biologie

    Die Faszination der Biologie

    Do, 26.04.2012- 05:20 — Eva Sinner

    Icon BiologieEva Sinner

    Eva-Kathrin Sinner, o.Prof. für Nanobiotechnologie an der Universität für Bodenkultur in Wien, im Gespräch mit dem ScienceBlog. Die renommierte Biowissenschafterin erzählt über ihren Werdegang und von Möglichkeiten, das allgemeine Interesse an Naturwissenschaften zu stimulieren.

    SB: Biologie wird als Leitwissenschaft des ausgehenden 20. Jahrhunderts bezeichnet. Was bedeutet Biologie für Sie, Frau Professor Sinner?

    Logo von Eva-Kathrin SinnerLogo v. Eva Sinner & ihrer Tochter (symbolisiert die Wissenschaftlerin mit ihrer Tochter)

    E-K S: Biologie ist die Lehre des Lebens. Es ist faszinierend, dass wir heute bereits in das „ganz Kleine“ schauen können: Die Bausteine des Lebens sind ja um Größenordnungen kleiner, als wir mit dem Auge erkennen können. Wir leben in einer Welt, in der wir üblicherweise Dimensionen von Millimetern bis zu Kilometern wahrnehmen. Darunter – d.h. für unsere Augen bereits unsichtbar - liegt aber die Welt der Bakterien und Mikroorganismen und noch weiter darunter befindet sich die Welt der „Nano (= Zwergen) Einheit“. Als Biologe arbeitet man mittlerweile eng mit anderen Naturwissenschaftlern und Medizinern zusammen.

    Es ist faszinierend in der gemeinsamen Perspektive auf Mechanismen, Strukturen und möglichen (technischen) Anwendungen die Natur zu erforschen.

    SB: Der Untersuchung von Strukturen und Mechanismen haftet häufig der Geruch einer Forschung im Elfenbeinturm an....

    E-K S: Forschung ist kein abstrakter Begriff für mich und ich wünsche mir auch, daß die Gesellschaft dafür Interesse bekundet und daran teilhat.

    Es gibt ja Fragestellungen, welche die Natur bereits in Perfektion gelöst hat - die Natur kann uns „vorsagen“, wie wir beispielsweise nachhaltig mit Energiefragen umgehen können; hier ist die Photosynthese ungeschlagen in ihrem Wirkungsgrad. Oder die medizinische Seite, wenn es etwa um die Diagnostik von Krebserkrankungen geht, auch hier gibt es Parameter, wie Markerproteine, die wir in einen neuen Kontext stellen können– nämlich in den einer Früherkennungsstrategie.

    So sind es sicherlich Fragen aus dem „hier und jetzt“, die wir „in der Biologie“ untersuchen und das universitäre Umfeld erlaubt es, sowohl die Basis der Wissenschaft im Auge zu behalten, als auch die Sinnhaftigkeit und Relevanz für die Gesellschaft.

    Ich freue mich, wenn Studenten der Biowissenschaften immer breitere Perspektiven haben, in denen ihr Wissenshorizont eine Rolle spielen kann - von einem Pflanzenforscher bis zu einem Firmengründer, von einem Bürgermeister bis hin zu einem Anarchisten.

    SB: Kommen wir zu Ihrem eigenen Werdegang. Wenn Sie in Ihre Kindheit zurückschauen - wann haben Sie begonnen sich für Biologie zu interessieren und wie hat sich dies geäussert?

    Volvox aureusVolvox aureus (R.Wagner, Wikipedia)

    E-K S: Ich denke mal, ich war ‚ganz normal’ begeistert von allem, was lebte. Ich denke, es sind Orientierungen, die jedes Kind sucht, wenn die Welt der Erwachsenen zu kompliziert und zu fremd erscheint – dann gibt es den inneren Rückzug. Bei mir half ein Kindermikroskop, das mich den Gartenteich meiner Eltern hat tröpfchenweise „durchmikroskopieren“ lassen. Die Abbildung der kleinen Lebewesen in J.J. Grandville, “Volvox” aus dem Buch „Un Autre Monde“ – und ein Biologielehrer, der gleichzeitig Tierarzt war, taten ein Übriges.

    SB: Wahrscheinlich teilen auch heute die meisten Kinder Ihr Interesse und Ihre Begeisterung am Lebendigen. Warum gehen diese Anlagen dann verloren? Kamen Ihnen persönlich jemals Zweifel auf, daß Biologie für Sie die richtige Wahl war?

    E-K S: Mein Studium war nicht geradlinig. Nach einem nicht gerade grossartigen Abschluß eines humanistischen Gymnasiums, auf dem ich sicherlich aus Versehen gelandet war, hatte ich keine Ahnung von der Chemie. Eine durchgefallene Klausur in der Lebensmittelchemie der Universität Hannover bescherte mir ein Jahr Pause, da ich ohne diese Prüfung bestanden zu haben, nicht das nächste Praktikum machen durfte, welches für das Vordiplom Voraussetzung war. Für mich war damals genau die Frage erreicht, ob ich überhaupt in der Biologie „zuhause“ sein konnte.

    Dann habe ich aber in Herrn Prof. Klaus Kloppstech aus der Botanik einen Lehrer gefunden, bei dem ich im Labor mitarbeiten durfte. In der Zwischenzeit inskribierte ich mich bei der Chemie und hatte dann zurück in der Biologie die nötigen Grundlagen um in einer exzellenten Naturstoffvorlesung von Herrn Prof. Habermehl die Anwendung meines neuerworbenen Wissens zu sehen.

    Aus dieser Erfahrung kann ich nur raten: Die direkte Interaktion mit Universitäten und die Nutzung von Angeboten der direkten Besichtigung und Kontaktaufnahme – und das in jeder Lebensphase in dem einem „danach ist“ - nur so kann die Initialzündung erfolgen.

    SB: Ihr Studium hatte also interdisziplinären Charakter - Biologie, Chemie, Naturstoffe – ebenso Ihr weiterer Werdegang in der biophysikalischen Forschung, in der Sie ja sehr schnell Karriere gemacht haben.

    E-K S: Es sind immer Inspirationen, die zu den „roten Fäden“ führen in einem Lebenslauf. Ich erlaube mir, Herrn Prof. Helmut Ringsdorf sinngemäß zu zitieren „Wissenschaft passiert nie logisch, höchstens chronologisch“. Es ist weichenstellend für mich gewesen im Arbeitskreis von Herrn Prof. Knoll am Max Planck Institut für Polymerforschung in Mainz, Doktorarbeit machen zu können – als erste Biologin an einem Polymerforschungsinstitut. Mit 37 Jahren hatte ich meinen ersten Ruf an die Universität Regensburg, mit 39 die Berufung auf die Professur für Nanobiotechnologie hier an der Universität für Bodenkultur in Wien (und damit meinen ersten unbefristeten Arbeitsvertrag). Dazwischen lagen Japan und Singapur. Orte, an denen die Inhalte mich bewegten, dort lernen, bzw. forschen zu wollen. Die Max Planck Gesellschaft war lange Zeit meine wissenschaftliche Heimat gewesen und ich hatte das Glück bei Herrn Prof. Oesterhelt in Martinsried habilitieren zu können. Nach wie vor ist die Proteinbiochemie mein Hauptfach in Forschung und Lehre.

    SB: Also ein äußerst erfolgreicher Werdegang.

    E-K S: So würde ich meinen Werdegang nicht bezeichnen – mit dem „Elitemaßstab“ bin ich nie in Berührung gekommen, es war mehr das Glück und meine Offenheit, zu hören und irgendwann auch gehört zu werden. Diesbezüglich war beispielsweise die Einladung von Herrn Prof. Wegner an einer „exploratory round table conference“ der Max Planck Gesellschaft teilzuhaben, wo es um die Thematik „synthetische Biologie“ ging, ein Erfolgserlebnis, ebenso wie die Preisverleihung durch Frau Traudl Engelhorn-Vecciato für eine gute Idee in der Herstellung von „schwierigen“ Proteinen anlässlich der Winterschule von Herrn Prof. Manfred Eigen.

    SB: Um den von Ihnen oben zitierten Satz „Wissenschaft passiert chronologisch“ Ihrer Biographie entsprechend zu ergänzen, muß man hinzufügen „und verbunden mit hoher Mobilität“.

    E-K S: Mobilität ist Vorteil und Problem gleichzeitig. Es sind viele Faktoren und Orte an denen Forschung, Erfahrung und Lehre stattfinden. Die Wurzellosigkeit ist ein negativer Aspekt der Forschung und das Unverständnis der Umwelt für die Unvorhersehbarkeit von Forschungsergebnissen macht es nicht besser. Ich persönlich bin kein Weltenbummler, aber nolens volens ist es so geworden. Acht berufsbedingte Umzüge zähle ich in meinem Leben, keiner davon passierte „weil ich so gerne umziehe“.

    SB: Wenn man Ihre Biographie betrachtet, so findet man kaum Anhaltspunkte dafür, daß Sie als Frau vor dem Problem gestanden wären die vielzitierte „gläserne Decke“ durchstoßen zu müssen.

    E-K S: Zur Frage nach der „Geschlechterspezifität“ in meiner Wahrnehmung in Forschung und Lehre habe ich viele Erfahrungen gemacht, bzw. vieles berichtet bekommen. Ich wünschte, es wäre einfach kein Thema mehr, ob es sich um Männer oder Frauen handelt und habe mir vorgenommen, dass es mir schlicht egal ist. Mit meiner Ignoranz gegenüber den immer noch herrschenden Vorurteilen in jede Richtung bin ich gut gefahren, zumindest habe ich mich selten ärgern müssen.

    Ich möchte dabei gleich vorwegnehmen, dass für mich sowohl weibliche, als auch männliche Studenten Menschen sind, die natürlicherweise als „Studenten“ beschrieben werden können. Meine Privatmeinung dazu stelle ich gerne zur Diskussion: ich halte die „–Innen“ Lösung für schlicht „sprachlich mühsam“ und möchte daher auf die besondere Verwendung einer weiblichen Wortform verzichten.

    SB: Forschung und Lehre - Was versuchen Sie Ihren Studenten zu vermitteln?

    E-K S: Es geht mir um die Weitergabe des Wissens ‚um das Leben’. Auch wenn durch die Breite der Fächer es nur Facetten sind, auf die sich ein Forscher beziehen kann – so entwickelt sie oder er eine Kompetenz, die es gilt, weiterzugeben. Dazu gehören Studenten, die sich nicht abschrecken lassen von „Elite“ oder „Studienzeitenlimitierung“, sondern die standhalten, wenn es um Inhalte geht, auch wenn sie zunächst fast lebensfeindlich klingen mögen, wie die „Nanotechnologie“. Mein Eingang in die Thematik ist dazu, dass ein Verständnis der Möglichkeiten, zum Beispiel der Möglichkeiten der Gentechnik, erst überhaupt eine Mitsprache und Mitgestaltung ermöglicht – glaubt denn wirklich jemand ernsthaft, dass die Beschäftigung mit einer Wissenschaft überflüssig ist, um sie kritisch beurteilen zu können? Wer weiss denn schon, was eigentlich ein „Gen“ ist?

    Die sogenannte ‚Medienreligion’ ist nicht dienlich, wenn es um Vermittlung von Inhalten geht, die nicht auf der populistischen Skala ganz oben stehen – ich denke, die Grundlage für eine inhaltliche Diskussion schwieriger Themen, wie der Gentechnik, fehlt in der Gesellschaft.

    SB: Damit sprechen Sie ein enorm wichtiges Problem an: unserer Gesellschaft fehlt die Grundlage für eine inhaltliche Diskussion schwieriger naturwissenschaftlicher Themen, wie sie jedoch immer dringlicher werden. Wie sollte man Ihrer Meinung nach vorgehen um generell das Interesse an Naturwissenschaften zu stimulieren? Um unseren Jungen naturwissenschaftliche Berufe erstrebenswert erscheinen zu lassen?

    E-K S: Bei den Jungen gilt es die Scherben aufzukehren, welche die Schulzeit bei Vielen erzeugt hat. In erster Linie geht es darum bei weiblichen Studenten ein Selbstbewusstsein zu erzeugen, das schlicht fehlt - beginnend von der früh installierten Phobie vor Zahlen und analytischen Betrachtungsweisen, bis hin zu einer Bestärkung der Machbarkeit in der Vereinigung von Familie und Beruf. Auf der anderen Seite, sollten männliche Studenten bestärkt werden, ihre Väterrolle ebenfalls vereinbar mit einer beruflichen Perspektive in den Naturwissenschaften zu sehen: ein Studium ist zwar keine Berufsausbildung, aber steht dahinter ein Arbeitsmarkt, welcher langfristig vorausschaubar für Naturwissenschaftler Bedarf hat, dann ist das eine große Beruhigung. Wenn es auch ein internationaler Arbeitsmarkt sein kann, dann gibt es auch einen positiven Aspekt der oft zitierten Globalisierung, denn: die Welt ist gross!

    Persönlich gesehen, finde ich es befremdlich, dass auch ‚Väterstudenten’ ziemlich „schräg“ beäugt werden und noch weniger in die heute vorgegebenen Strukturen zu passen scheinen, als es für die als normal betrachteten jungen Mütter der Fall ist. Das macht es nicht leicht, zu behaupten, dass Naturwissenschaften in jedem Fall zu einer optimalen Lebensplanung gehören. Ich bin jedoch ein Optimist und glaube an eine positive Entwicklung der Gesellschaft in Bezug ihrer Akzeptanz gegenüber „unkonventionellen“ Lebensmodellen und einem gelebten Respekt gegenüber einer geschlechtsneutralen Elternrolle. Ich habe ja selber versucht, Beruf und Familie zu verbinden und habe es nicht geschafft.

    Auf die Gesellschaft übertragen meine ich, daß man durch das Aufzeigen realistischer Perspektiven die Begeisterung an den Naturwissenschaften wecken kann. „Lebenslängliches lernen“ ist für mich keine Worthülse.

    Ich habe die Gelegenheit gehabt, durchaus gestandene Forscher im hohen Alter erleben zu dürfen und das enorme Potential der soliden Basis verknüpft mit der legendären Neugier, die Herr Albert Einstein so einprägsam als Kriterium eines ‚Forschercharakters’ formulierte, zu sehen.

    Nur wer viel gesehen und verstanden hat, kann assoziieren und damit neue Strategien entwickeln - in meinen Augen eine wichtige Art des Forschens.

    SB: Wir danken für das Gespräch!


    Anmerkungen der Redaktion

    Forschungsprojekt: Schnüffeln für die Wissenschaft (Video, 7'30)

    inge Thu, 26.04.2012 - 05:20

    Die lange Sicht — Wie Unwissen unsere Energiezukunft bedroht

    Die lange Sicht — Wie Unwissen unsere Energiezukunft bedroht

    Do, 19.04.2012- 00:00 — Gottfried Schatz

    Icon MINTGottfried Schatz

    Elektrizität ist für unsere Technologie die vielseitigste Energieform. Um sie nachhaltig in ausreichender Menge bereitzustellen, braucht es den Mut zur langfristigen Forschung.

    Im Jahre 1850 zeigte der englische Physiker Michael Faraday dem Schatzkanzler seines Landes, wie die Bewegung eines Magneten durch eine Drahtspule elektrischen Strom erzeugt. Auf die skeptische Frage des Staatsmannes, wozu dies gut sei, antwortete Faraday: «Eines Tages, Sir, werden Sie es besteuern können . » Obwohl Faraday die zukünftige Bedeutung dieser neuartigen Energieform voraussah, ahnte er wohl nicht, dass ihre Produktion einmal hitzige politische Debatten auslösen und die Gesellschaft vieler Staaten in unversöhnliche Lager spalten sollte.

    Drohende Unordnung

    Energie ist die Fähigkeit, Arbeit zu leisten. Ohne sie verliert jedes dynamische System seine Ordnung – sei dies ein Kinderzimmer, eine lebende Zelle oder ein moderner Staat. Energie ist deshalb ein Grundpfeiler von Zivilisation und Kultur. Sie lässt sich weder erzeugen noch vernichten, sondern nur von einer Form in eine andere umwandeln. Der gebräuchliche Ausdruck «Energiegewinnung» bedeutet also in Wahrheit Energieumwandlung. Etwa achtzig Prozent der weltweit erzeugten Elektrizität entstammen der Verbrennung von fossilen Ressourcen. Erdöl und Erdgas werden zwar in einigen Jahrzehnten erschöpft sein, doch die bekannten Kohle- und Ölschieferlager würden noch für einige Jahrhunderte reichen. Dennoch wäre es töricht, wie bisher weiterzufahren: Der weltweite Elektrizitätsbedarf dürfte sich bis zum Jahre 2050 mindestens verdoppeln und würde damit eine gewaltige Zerstörung der Umwelt heraufbeschwören. Vor allem gilt dies für das Verbrennungsprodukt Kohlendioxid, das sich in der Atmosphäre anreichert und als «Treibhausgas» wirkt. Der Erdboden verwandelt Sonnenlicht in langwellige Wärmestrahlen, die in den Weltraum zurückstrahlen würden – wenn unsere Atmosphäre kein Kohlendioxid enthielte. Dieses verschluckt sie jedoch und erwärmt so die Atmosphäre. Die meisten Klimaforscher sind sich heute einig, dass Kohlendioxid, welches bei der Verbrennung von Fossilbrennstoffen frei wird, die gegenwärtige Klimaerwärmung bewirkt.

    Welche Kraft soll in Zukunft die Magnete und Drahtspulen unserer Dynamos gegeneinander bewegen, um uns mit elektrischem Strom zu versorgen? Sicher nicht die aus der Verbrennung fossiler Ressourcen gewonnene, die unseren Planeten mit Kohlendioxid und Erdölkriegen belastet. Wohl auch nicht die herkömmliche Kernspaltung, selbst wenn wir mittelfristig auf sie noch nicht verzichten können. Wasserenergie ist zumindest in der Schweiz bereits weitgehend ausgeschöpft, Strom aus Sonnenkollektoren noch viel zu teuer, und Windturbinen sind in kleinen und gebirgigen Ländern nur beschränkt einsetzbar. Wollen wir die Verwüstung unserer Welt verhindern, müssen wir unseren Stromhunger mit neuartigen Technologien stillen, die weder begrenzte Ressourcen vernichten noch die Atmosphäre mit Kohlendioxid verschmutzen.

    Jede Technologie der Energieumwandlung – und sei sie noch so «grün» – belastet die Umwelt, und mittelfristig kann keine von ihnen für sich allein den weltweiten Strombedarf decken. Doch welche Technologie-Mischung wollen wir verwenden? Die Debatte zu diesem Thema ist längst zu einem Religionskrieg verkommen und konzentriert sich fast ausschliesslich auf bereits bekannte Technologien wie Windräder, Wasserkraft, Sonnenkollektoren – und «Bioenergie». Die klassische Form der «Bioenergie» erzeugt aus Kohlendioxid, Wasser und Sonnenlicht pflanzliche «Biomasse» und verwandelt diese in «Biogas» oder Treibstoffe wie Alkohol oder «Biodiesel». Das land- und sonnenreiche Brasilien hat bewiesen, dass dies mit schnell wachsendem Zuckerrohr kostengünstig möglich ist, wenn der Zucker mit Hefe zu Alkohol vergoren wird. Brasilien verwendet dafür ein Zehntel seiner Anbaufläche und hat erreicht, dass sein «Bioalkohol» ohne staatliche Subvention mit Benzin wetteifern kann und so die Abhängigkeit des Landes von ausländischem Erdöl drastisch senkt.

    Unterentwickelte «Bioenergie»

    In den kühleren USA ist das wichtigste Ausgangsprodukt für Bioalkohol die in Maiskörnern gespeicherte Stärke. In ihr liegt Traubenzucker in Form leicht vergärbarer Ketten vor. Europa setzt vorwiegend auf Biodiesel aus ölhaltigen Kulturpflanzen. Solche Biotreibstoffe werden als umweltfreundliche Lösung angepriesen, da sie aus erneuerbaren Rohstoffen stammen und bei ihrer Verbrennung gleich viel Kohlendioxid freisetzen, wie es die Pflanzen der Atmosphäre ursprünglich entnommen hatten.

    Diese Technologie ist jedoch keineswegs so «grün», wie man sie oft schildert. Pflanzen wollen nicht Energie horten, sondern möglichst robust sein und selbst unter extremen Bedingungen überleben. Sie speichern deshalb meist nur weniger als ein Prozent des einfallenden Sonnenlichts als Biomasse. Zuckerrohr ist einer der effizientesten Lichtverwerter, die wir kennen, und dennoch liefert eine Zuckerrohrplantage selbst unter besten Bedingungen jährlich weniger als einen Liter Alkohol pro Quadratmeter. In kühleren und weniger besonnten Regionen wie der Schweiz wäre die Ausbeute noch viel geringer. Der intensive Anbau von Kulturpflanzen erfordert zudem gewaltige Wassermengen, verseucht das Grundwasser mit Pestiziden und verstärkt die Bodenerosion, welche langfristig die Umwelt ebenso bedroht wie eine Klimaerwärmung. Und schliesslich setzen die unerlässlichen Düngerstoffe stickstoffhaltige Treibhausgase frei, die den Gewinn einer Kohlendioxid-Einsparung weitgehend zunichtemachen.

    Diese Nachteile mögen für die Deckung unseres Nahrungsbedarfs vertretbar sein, machen jedoch Biotreibstoff aus pflanzlicher Nahrung zu einem ökologisch und ethisch verwerflichen Produkt. Viel besser wäre es, Baumstämme, Halme oder Kleinholz zu Alkohol zu vergären. Diese Pflanzenteile enthalten Zucker jedoch in Form von Zellulose, die vor der Vergärung erst unter grossem Zeit- und Energieaufwand zerlegt werden muss. Genetisch veränderte Kulturpflanzen, die nach der Fruchtreife die Zellulose ihrer Halme selber abbauen, könnten dieses Problem lösen, wären im heutigen Europa aber politisch untragbar.

    Obwohl «Bioenergie» derzeit nur einen bescheidenen Beitrag zur weltweiten Elektrizitätsversorgung leistet, müssen wir sie mit hoher Dringlichkeit weiterentwickeln. Grösste Hoffnungsträger sind derzeit ein- oder vielzellige Algen, die Sonnenlicht viel wirksamer als herkömmliche Kulturpflanzen verwerten, viel schneller als diese wachsen und den Boden kaum belasten, weil sie sich in grossen Teichen oder Bioreaktoren züchten lassen. Ihre Biomasse könnte nach Vergärung oder Vergasung zukünftig unsere Dynamos antreiben und uns so nachhaltig mit elektrischer Energie versorgen. Um jedoch diese und andere Zukunftsträume zu erfüllen, braucht es langfristige Grundlagenforschung.

    Unser Unwissen über Umwandlung, Speicherung und Transport von Energie ist nämlich viel grösser, als man allgemein annimmt. Um elektrischen Strom ohne grosse Verluste zu übertragen, in Licht zu verwandeln oder direkt aus Sonnenlicht zu gewinnen, müssen wir mehr darüber wissen, wie feste Materie mit Elektrizität und Licht zusammenspielt. Um grosse Mengen elektrischer Energie zu speichern, müssen wir besser verstehen, wie Sauerstoff und andere Elemente mit Elektroden reagieren. Um mithilfe von Sonnenlicht Wasserstoffgas aus Wasser auf rein chemischem Wege herzustellen, fehlen uns wirksame Katalysatoren – und um diese gezielt zu entwickeln, müssen wir mehr darüber wissen, wie Katalysatoren grundsätzlich wirken. Um gar die gewaltigen Energiemengen aus verschmelzenden Atomkernen zu zähmen, müssen wir noch eine Unzahl von Problemen lösen, deren wir uns zum Teil wohl noch gar nicht bewusst sind. Und schliesslich werden wir die weltweite Energieversorgung nur dann in den Griff bekommen, wenn wir die fast unvorstellbare Komplexität grossflächiger Stromnetze mit neuartigen mathematischen Ansätzen verstehen und steuern können.

    Notwendige Grundlagenforschung

    In unserer kurzfristig denkenden Zeit braucht es Weisheit und Mut, um die lange Sicht zu wagen und der Grundlagenforschung das Wort zu sprechen. Wer sie vernachlässigt und nur eng fokussierte «angewandte» Forschung betreibt, wird bald nichts mehr anzuwenden haben. Allzu oft erliegen wir der Versuchung, die Mängel des bereits Verfügbaren mit staatlichen Subventionen zu übertünchen. Sie aber schotten Technologien ebenso vom Wettbewerb ab, wie Importzölle dies für Inlandsprodukte tun. Auf kurze Sicht mögen Subventionen und Importzölle nützlich sein – langfristig verhindern sie unweigerlich die Geburt des Neuen. Wissen ist ein Kind der Vergangenheit; in einer stetig sich wandelnden Welt sichert es weder die Gegenwart noch die Zukunft. Dies vermag nur innovative Forschung, die in allem Gegenwärtigen die Hypothese der Zukunft sucht. Die Erdölkriege der letzten Jahrzehnte haben es gezeigt: Energieforschung ist auch Friedensforschung. Ich vermute, Michael Faraday hätte dem zugestimmt.


    Weiterführende Links

    ZeitNews.de Dokumentation - Folge 2: Algen und was sie alles können (Video; 5'10")

     

     

    inge Thu, 19.04.2012 - 05:20

    Wie universell ist das Darwinsche Prinzip?

    Wie universell ist das Darwinsche Prinzip?

    Do, 12.04.2012- 00:00 — Peter Schuster

    Icon BiologiePeter Schuster

    Das Darwinsche Prinzip der natürlichen Selektion kann als nahezu universell geltend angesehen werden, es ist wirksam in präzellulären Systemen und ebenso auf der Ebene der Einzeller und der Vielzeller. Die Selektion kann jedoch durch funktionelle Kopplung andernfalls konkurrierender Partner – konkretisiert am Modell des Hyperzyklus – aufgehoben werden.

    Charles Darwin hat sein Prinzip der natürlichen Selektion, bestehend aus dem Zusammenspiel von Reproduktion mit Vererbung und Variation, und begrenzten Ressourcen, von Beobachtungen hergeleitet, welche er einerseits in Großbritannien und andrerseits als Naturforscher auf den Erkundungsfahrten an Bord der HMS Beagle machte. Alle seine Schlußfolgerungen hat er dabei ausschließlich aus Untersuchungen an höheren Organismen, Tieren und Pflanzen gewonnen (1). Dennoch läßt sich sein Prinzip ebenso gut auf einzellige Organismen anwenden: auf Protisten, Eubakterien und Archebakterien. Es gilt auch für die Evolution von Viren und Viroiden bis hin zur „Züchtung“ von Makromolekülen im Reagenzglas Für das Darwinsche Prinzip gibt es keine einfach erkennbare Grenze der Anwendbarkeit, sogar konkurrierende Computerprogramme und andere nicht der Biologie zuzuordnende Objekte folgen den Gesetzen der „natürlichen“ Selektion.

    Der Darwinsche Mechanismus wird also immer schlagend, wenn Biomoleküle, Zellen, Organismen, Gesellschaften, Wirtschaftssystems aber ebenso Computerprogramme oder andere Elemente auftreten, die sich vermehren und bei der Reproduktion verändern können und um Ressourcen konkurrieren.

    Warum läßt sich das Darwinsche Prinzip praktisch universell anwenden?

    Die Antwort ist einfach: Es spielen weder die Details der Vermehrung eine Rolle noch die Art der sich reproduzierenden Spezies. Ausschlaggebend ist einzig und allein die Zahl der „Nachkommen“ in den folgenden Generationen. Es bedurfte aber des Genies eines Charles Darwins um dieses Faktum zu erkennen, um es aus der ungeheuren Fülle an Details zu abstrahieren, die er in Anpassung der Spezies an natürliche Gegebenheiten beobachtete.

    Wäre dies nicht so, und würden die Details der Mechanismen von Reproduktion und Vererbung in das Prinzip der natürlichen Auslese eingehen, dann hätte Darwin keine Chancen auf Erfolg gehabt: Seine Vorstellungen über Vererbung waren nach unserem heutigen Wissensstand schlicht und einfach falsch.

    Der Mechanismus, welcher dem Vorgang der Reproduktion lebender Spezies zugrunde liegt, wurde erst vor rund 60 Jahren entdeckt und basiert auf der Aufklärung der räumlichen Struktur der Desoxyribonukleinsäure (DNA) durch James Watson und Francis Crick, die damit als nahezu universaler Träger der Erbinformation identifiziert werden konnte (2). Die Einzelstränge dieses in Form einer Doppelhelix – einer schraubenförmigen Doppelwendeltreppe – vorliegenden Makromoleküls sind aus vier unterschiedlichen Bausteinen - Nukleotiden – aufgebaut; durch spezifische Paarbindung zwischen jeweils zwei Nukleotiden wird, wie in Abbildung 1 schematisch dargestellt, der Doppelstrang zusammengehalten.

    Die Doppelhelix (schematisch)Abbildung 1. Eine schematische Darstellung der Doppelhelix. Die Nukleotide bestehen aus jeweils einem Phosphatrest, der zusammen mit dem Zuckerrest (Desoxyribose) das nach außen gerichtete „Rückgrat“ der Doppelhelix bildet (türkis), und einer der vier Basen: Adenin (A, weiß), Thymin (T, rosa), Guanin (G, grün), Cytosin (C, gelb). Spezifische Paarbildung zwischen A und T und zwischen G und C hält die beiden Einzelstränge zusammen. Darin besteht die Besonderheit der DNA-Struktur: Nur AT oder TA und GC oder CG Basenpaare passen in die Doppelhelix hinein und, kennt man die Basenfolge an einem Strang, dann lässt sich der zweite eindeutig ergänzen – dies ist das molekulare Prinzip der Replikation von DNA und auch von RNA. (RNA – Ribonukleinsäure ist ein der DNA ähnliches Molekül, welches üblicherweise als Einzelstrang vorliegt und anstelle des Thymins als 4. Base Uracil enthält.) (Bild: DOE Human Genome Project)

    Die Doppelhelix lässt sich - vereinfacht ausgedrückt - wie ein Reißverschluß öffnen und repliziert sich – insofern die zum Aufbau nötigen Nukleotide ausreichend vorhanden sind, indem die Einzelstränge als Kopiervorlage verwendet, und an diesen, die Komplementarität der Basenpaare ausnutzend, Nukleotide anlagert und mittels geeigneter Enzyme zu neuen Strängen verknüpft werden. Diese fundamentale Grundlage der modernen Biologie wurde in dem berühmten ‚Letter‘ an die Zeitschrift Nature (1953; 177:737) geradezu in typisch Englischem Understatemenz dargestellt: „It has not escaped our notice that the specific pairing we have postulated immediately suggests a possible copying mechanism for the genetic material.“ (2)

    Das Experiment des Sol Spiegelman (3)

    Mit dem Verstehen des Replikationsvorgangs konnte dieser seit den 1960-er Jahren des vergangenen Jahrhunderts auch in in vitro Systemen „im Reagenzglas“ nachvollzogen werden. Sol Spiegelmans „dream experiment“ bestand aus der seriellen Verdünnung einer Ausgangslösung, die nur eine sich in Gegenwart eines geeigneten Enzyms – einer Replikase – replizierende virale Ribonukleinsäure (RNA des Bakteriophagen Qbeta, isoliert aus infizierten Escherichia coli Bakterienzellen) und die dazu notwendigen niedermolekularen Nukleotide enthielt. Nach entsprechender (z.B. 10-facher) Vermehrung der Ribonukleinsäure wurde ein Anteil (z.B. 1/10) auf ein nächstes Reagenzglas übertragen (das ausreichend niedermolekulare Bausteine und Replikase enthielt), nach der wiederholten Vermehrung wieder ein Anteil auf das folgende Reagenzglas. Nach 15 derartigen Transfer-Schritten war im letzten Reagenzglas praktisch keines der ursprünglichen Nukleinsäuremoleküle mehr vorhanden, die neu entstandenen Moleküle waren auch nicht mehr infektiös, vermehrten sich aber rascher als die ursprüngliche Phagen-RNA.

    Über die hohe Multiplikationsrate der ursprünglichen Moleküle hinaus, konnte Spiegelman in diesem in vitro Experiment erstmals Evolution an einzelnen Molekülen beobachten, die auf fehlerhafter Kopierung des Templates durch das Enzym und daraus resultierend auf Mutationen des Erbmaterials zurückzuführen war. Abhängig von den Versuchsbedingungen konnten sich dann die Kopien durchsetzen, welche an die jeweiligen Bedingungen besser angepaßt waren. Beispielsweise verkürzte sich das ursprünglich einige tausend Nukleotide lange Molekül auf ein paar Hundert Nukleotide, da unter anderem die für den Infektionsvorgang in Zellen kodierende Information im Reagenzglas obsolet war, ebenso wie die Versorgung mit den nötigen Bausteinen. Wenn Spiegelman einen Inhibitor der Replikation einsetzte, so führte der entstehende Selektionsdruck zu Formen, die sich nicht nur trotzdem vermehrten, sondern dies auch noch viel effizienter vermochten. Damit nahmen Extrapolationen des Darwinschen Prinzips auf präzelluläres Leben ihren Ausgang – der Vorstellung einer Welt von Biomolekülen, die im Sinne Darwins ihre Reproduktion optimieren können (4).

    Das Quasispecies-Modell (5)

    Für die Evolution neuer Spezies spielt die Balance von Mutation und Selektion eine entscheidende Rolle. Ist die Fehlerrate, mit welcher die Replikation erfolgt, gering, so besteht der Großteil der Nachkommen einer Spezies aus exakten Kopien, d.h. einem einzigen definierten Genotyp. Bei höheren Fehlerraten – wie insbesondere bei Viren aber generell bei allen natürlichen Organismen – weisen viele der Nachkommen eine oder mehrere Mutationen auf, es entsteht eine „Wolke“ ähnlicher Spezies, eine sogenannte Quasispezies. Deren „Nachkommen“ sind ebenfalls keine exakten Kopien und können sich durch Vor- und-Rückmutation immer wieder ineinander umwandeln. Die momentane Selektion der sich am raschesten vermehrenden Form einer Generation kann somit in der nächsten Generation wieder annulliert werden. Über einem scharf definierten Grenzwert der Fehlerrate bricht dann die „Vererbung“ völlig zusammen, man spricht von einer Fehlerkatastrophe, und es kann sich keine stationäre Population mehr ausbilden.

    Die Möglichkeit mit der Erhöhung der Fehlerrate einen Zusammenbruch weiterer Replikation auszulösen, ist vor allem von Virologen aktiv aufgenommen worden, verspricht diese Strategie doch einen Paradigmenwechsel im Kampf gegen virale Infektionen. Das Arzneimittel Ribavirin, ein synthetisches Nucleosid-Analog wird in die RNA von RNA-Viren eingebaut und wirkt dort als starkes Mutagen. Die erfolgreiche Anwendung gegen eine weite Palette viraler Infektionen, u.a. gegen Hepatitis-C-Virus, Respiratory-Syncytial-Virus, Influenza-Viren und vor allem gegen verschiedene haemorrhagisches Fieber erzeugende RNA-Viren dürfte zumindest zum großen Teil auf die Erhöhung der Mutationsrate zurückzuführen sein.

    Der Hyperzyklus (4, 5)

    Nukleinsäuren, deren spezifische Nukleotidsequenzen in Form der Gene – in ihrer Gesamtheit bei einem Organismus als Genotyp oder Genom bezeichnet – weiter vererbt werden, kodieren für Proteine und andere regulatorische Moleküle, die den Phänotyp ausmachen und das Weiterbestehen in der jeweiligen Umgebung möglichst effizient gestatten sollen. Wie kann die Integration einzelner Gene ohne einen Organismus erfolgen?

    Der HyperzyklusAbbildung 2. Der Hyperzyklus (Beschreibung siehe Text)

     

    Dazu wurde 1971 von Manfred Eigen erstmals eine kinetische Theorie der Reproduktion von Nukleinsäuren formuliert, ein sogenannter Hyperzyklus, wie er stark vereinfacht in Abbildung 2 dargestellt ist (4). Dieser Hyperzyklus weist eine zyklische Folge von Rückkopplungen auf, in welcher Nukleinsäuren (I1 – I5) die Bildung von Enzymen (E1- E5) durch Übersetzung (Translation) katalysieren, welche wiederum die Replikation der Nukleinsäuren katalysieren.

    Derartige Hyperzyklen umgehen die oberhalb genannte Fehlerkatastrophe, denn für die Fehlerakkumulation ist nur die Länge der einzelnen freien Gene entscheidend aber nicht das gesamte kodierende Genom (I1+I2+I3+I4+I5). Dieses Modell wurde unter anderem für die frühe Phase der Evolution in einer „RNA-Welt“ postuliert. Hier soll es als Beispiel für die Grenzen des Darwinschen Prinzips genannt werden. Natürliche Selektion würde unter den freien Genen das sich am schnellsten vermehrende auswählen und die anderen Gene würden verschwinden. Da jedoch alle Enzyme (E1, E2, …) für die Vermehrung gebraucht würden, müsste das System aussterben. Die dynamische Kopplung in Abbildung 2 führt aber zu einem anderen Resultat: Das Darwinsche Prinzip wird nicht realisiert, es tritt keine Selektion ein und der Hyperzyklus wächst als ein organisches Ganzes.

    Grenzen der Universalität des Darwinschen Prinzips

    Das Modell des Hyperzyklus wurde als ein Beispiel genannt, in dem Selektion durch funktionelle Kopplung andernfalls konkurrierender Partner aufgehoben wird. Gibt es derartige Beispiele in der Natur? Der Biologe kennt eine Vielzahl von Symbiosen und diese stellen eine Form von Hyperzyklen auf der Ebene von Organismen dar. In tierischen und menschlichen Gesellschaften finden wir eine wahre Fülle von Beispielen anscheinenden und scheinbaren altruistischen Verhaltens, bei welchen einzelne Individuen auf kurzfristige Erlöse verzichten, um langfristig größere Vorteile gewinnen zu können. Auch dies ist im Darwinschen Prinzip nicht vorgesehen, denn natürliche Selektion operiert hic et nunc und ist blind und taub für langfristige Entwicklungen.

    Die Entstehung und Entwicklung des Lebens kennt eine Fülle von Phasen, die so genannten ‚major transitions‘, in welchen die Selektion durch verschiedene Mechanismen außer Kraft gesetzt wurde. Diese Übergänge führen von einer Komplexitätsebene auf die nächst höhere. Nur ein Beispiel sei explizit genannt: der Übergang von den Einzellern zum Vielzellerorganismus. Auf der Ebene der Einzeller ist das Darwinschen Prinzip wirksam und ebenso auf der Ebene der Vielzeller, wo die einzelne Zelle nicht mehr nach Belieben wachsen kann wohl aber der Gesamtorganismus, der in der Population der Selektion unterworfen ist. Eine ‚Erinnerung‘ an ihre historische Freiheit ist den Körperzellen aber noch geblieben und sie entkommen im Fall von Tumoren auch mintunter der Kontrolle zum Schaden des Gesamtorganismus.

    Fazit

    Das Darwinsche Prinzip hat einen überaus großen Grad der Universalität, aber immer gilt es nicht, wie nichts auf dieser Welt.


    Literatur

    (1) C. Darwin (1859). The origin of species by means of natural selection or the preservation of favoured races in the struggle for life. J. Mussay, London.

    (2) JD Watson, FH Crick (1953) Molecular Structure of Nucleic Acids: A Structure for Deoxyribose Nucleic Acid

    (3) S. Spiegelman (1971) An approach to the exoperimental analysis of precellular evolution. Quart.Rev.Biophys. 4:213-253

    (4) M. Eigen (1971) Selforganization of matter and the evolution of macromolecules. Naturwissenschaften 58:465-523

    (5) M. Eigen, P. Schuster (1979).The Hypercycle - A Principle of Natural Self-Organization. Springer-Verlag, Berlin 1979.

     


    Weiterführende Links

    Howard Hughes Medical Institute (“plays a powerful role in advancing biomedical research and science education in the United States”): Vorlesungen von Spitzenwissenschaftern, Videos, Animationen zu einem breiten Spektrum an Naturwissenschaften und Medizin; speziell zu Evolution und =24143">DNA.

    The DNA Learning Center: (“the world's first science center devoted entirely to genetics education and is an operating unit of Cold Spring Harbor Laboratory, an important center for molecular genetics research”):

    Zahlreiche, hervorragende interaktive Websites. Publikationen und Vorträge von Peter Schuster

    Artikel zu verwandten Themen im Science-Blog

    Die Evolution der Kooperation

    Zum Ursprung des Lebens

    Gibt es Rezepte zur Bewältigung von Komplexität

    Der kleine warme Tümpel


     

    inge Thu, 12.04.2012 - 05:20

    Die Welt steht auf kein’ Fall mehr lang…

    Die Welt steht auf kein’ Fall mehr lang…

    Do, 29.03.2012- 05:20 — Franz Kerschbaum

    Franz KerschbaumIcon Politik & Gesellschaft

    Echte - leider - ebenso wie frei erfundene Ereignisse und Katastrophen beschäftigen seit jeher den Menschen. Das ist auch gut so, zeugt es doch vom prinzipiell vorhandenen Interesse an der Natur der Dinge und dem Verständnis des eigenen Platz in der Welt. Doch was unterscheidet wahre Sachverhalte von sensationsgieriger Auflagentreiberei?

    So singt Knieriem in Nestroys „Lumpazivagabundus“ und trifft damit punktgenau die zeitlose Grundeinstellung vieler Menschen. Unglücke, Katastrophen – angekündigte und wirklich stattgefundene – finden große mediale Verbreitung. Eine besondere Kategorie dieser „beliebten“ Katastrophen bilden die regelmäßig wiederkehrend angekündigten Weltuntergänge mit per Definition geradezu kosmischer Bedeutung. Hier kommt nun endlich meine Profession als Astronom ist Spiel. Kaum steht in Zeitungen etwas über erhöhte Sonnenaktivität, einen schönen Kometen am Abendhimmel, Mond in Erdnähe oder gar einen Kleinplaneten auf (vermeintlichem) Erdkurs, glühen bei uns an der Universitätssternwarte die Telefone und neuerdings auch die elektronischen Postfächer…

    Der Sonn’ ihr G’schundheit ist jetzt a schon weg,

    Durch’n Tubus sieht man’s klar, sie hat die Fleck’; …

    Wie schon zu Nestroys Zeiten geht’s mit der Aktivität unserer Sonne ziemlich regelmäßig auf und ab. In einem zirka zweimal elf Jahre langen Zyklus zeigen sich mehr oder weniger Sonnenflecken - kühlere Stellen auf der Sonnenoberfläche. Auch spektakulärere Phänomene wie koronale Massenauswürfe korrelieren damit und so ist es nicht verwunderlich, dass nach einem langen Sonnenfleckenminimum nun im ersten Halbjahr 2012 wieder öfters hochverdünnte Sonnenmaterie Richtung Erde geschleudert wird, die wunderschöne Polarlichter in die Hochatmosphäre zaubert. Natürlich gibt es dabei auch ein gewisses Gefährdungspotential – in der Vergangenheit gab es schon Stromausfälle oder Satellitenschäden – doch man hat daraus gelernt und ist durch die dauernde Überwachung der Sonne gut vorgewarnt. Also keine Panik; das Leben auf der Erde und damit auch wir Menschen halten das schon recht lange aus!

    Am Himmel is die Sonn’ jetzt voll Capriz,

    Mitten in die Hundstag’ gibt s’ kein´ Hitz’;

    Auf scheinbar ausschließlich schneelose Winter folgen heute durchgehend verregnete Sommer – so ganz anders als es noch in unserer Kindheit war, als in der Erinnerung endlose, winterliche Rodelpartien mit sommerlichen Badefreuden wechselten! Als Astronom werde ich mich nicht näher mit der teils panischen Klimadebatte auseinandersetzen und verweise gerne auf den ScienceBlog Beitrag „Erdfieber. Das Unbehagen der Wissenschaft bei der Klimadebatte“. Doch zu einer Katastrophenprognose fühle ich mich ausreichend kompetent: Unsere Sonne wird das Erdklima langfristig zu unseren Ungunsten beeinflussen und spätestens, wenn in einigen 100 Millionen Jahren die Durchschnittstemperatur auf der Erdoberfläche die 100 Grad Celsius Marke durchstößt, die Volksseele sprichwörtlich und real zum Überkochen bringen.

    Es is kein’ Ordnung mehr jetzt in die Stern’,

    D’ Kometen müßten sonst verboten wer’n.

    Ein Komet reist ohne Unterlaß um

    am Firmament und hat kein’ Paß;

    Buchdeckel Sternatlas; AstrofotoBuchdeckel: Littrow, Weiss, 1885; Foto: Franz Kerschbaum

    Schon immer faszinieren Kometen! Wie in Nestroys Kometenlied fürchten sich schon seit den Zeiten der Saurier Erdlinge vor den potentiell wirklich katastrophalen Folgen auf der Erde einschlagender Kometen und Kleinplaneten. Den möglichen globalen Schäden steht aber zum Glück die extreme Seltenheit solch fataler Ereignisse gegenüber. Während sternschnuppengroße Körper fast ununterbrochen auf die Erde oder besser die Erdatmosphäre treffen sind etwas größere (bis 10m) schon deutlich seltener: nur etwa 500 erreichen jährlich in kleinen Bruchstücken den Erdboden. Ein Tod durch Blitzschlag ist viel wahrscheinlicher als von diesen letztlich vielleicht faustgroßen Brocken erschlagen zu werden. Bei den wirklich gefährlichen Größeren wird es deutlich seltener: Körper größer als 50m treffen die Erde alle 1000 Jahre, größer 1km alle 500.000 Jahre, größer 5km alle 10 Mill. Jahre und der Einschlag des etwa 10km großen „Saurierkillers“ liegt schon 65 Mill. Jahre zurück!

    Heute wird diese Gefährdung von Forschung aber auch internationalen Organisationen sehr ernst genommen und eine Reihe von Himmelsüberwachungsprogrammen suchen Nacht für Nacht potentiell der Erde in ferner Zukunft nahekommende Objekte. Mittlerweile gehen dabei selbst größere Sternschnuppen VOR dem Eindringen in die Erdatmosphäre ins Netz! Im Jahr 2008 wurde erstmals ein kleiner Asteroid 20 Stunden vor dem Einschlag angekündigt und niedergegangene Fragmente von zusammen gut 10kg im Sudan gefunden.

    Auf Grund all dieser umfangreichen Beobachtungsprogramme lassen sich Einschläge globalen Ausmaßes über für uns heutige Menschen relevante Zeiten so gut wie ausschließen. Bei neu gefundenen Körpern kann es wegen der anfangs noch schlecht bekannten Bahndaten zur Vorhersage von sehr unwahrscheinlichen Kollisionen mit der Erde kommen. In den letzten Jahren gab es aber immer innerhalb von wenigen Wochen völlige Entwarnung!

    Die Millichstraßen, die verliert ihr’n Glanz,

    Die Milliweiber ob’n verpantschen s’ ganz;

    Eine Kombination aller möglichen Katastrophenszenarien findet man beim zur Zeit aktuellen Weltuntergangstag knapp vor Weihnachten 2012. Durch eine Unzahl von Publikationen kommerziell begleitet wird dann, angeblich von den Mayas mit dem Ende ihres Kalenders vorhergesagt ein Zusammentreffen einer Vielzahl von kosmischen Ereignissen unsere Welt sprichwörtlich auf den Kopf stellen: Milchstraßenstrahlung(?), Sonneneruptionen, Erdpolsprünge, Planetenkollisionen, Überschwemmungen und mehr werden uns wieder einmal den Garaus machen. Natürlich ist astronomisch genauso wie an allen in der Vergangenheit befürchteten Weltuntergängen nichts dran. Die Erde wird sich weiterdrehen und die Propheten des Untergangs werden mit neuen Büchern und neuen Vorhersagen kommerziell genauso erfolgreich sein wie immer. Besonders „runde“ Kalendertermine wie eben im Falle der Maya oder zuletzt im Jahr 2000 werden immer wieder die Kreativität der Apokalyptiker beflügeln.

     …’s bringt jetzt der allerbeste Astronom

    Kein’ saub’re Sonnenfinsternis mehr z’amm’…

    Dass selbst anerkannte Wissenschaftler nicht davor gefeit sind, solcher Apokalyptik zu verfallen soll noch durch das Beispiel eines der Gründerväter der Grünbewegung in Österreich, dem 2007 verstorbenen Geologen Alexander Tollmann verdeutlicht werden. Nach seiner Wissenschaftskarriere folgte eine kurze in der Politik Anfang der 1980er Jahre. Darauf wandte er sich mehr und mehr der „Sintflutforschung“ zu, die ihn letztlich zur Prophezeiung einer weltweiten Katastrophe anlässlich der auch in Österreich beobachtbaren totalen Sonnenfinsternis am 11. August 1999 führte. Dieses Ereignis versuchte er in seinem Waldviertler Bunker zu überleben…

    Und jetzt richt´t a so a Vagabund

    Und die Welt bei Butz und Stingel z’grund;

    Wenn es wirklich Gefahren für Welt und Menschheit gibt, dann gehen sie wohl eher von uns selbst aus – oder um es frei mit Falco zu sagen:

    …der Komet kommt zu spät, frag nicht!


    Zwei aktuelle Buchempfehlungen, zu Werken, die sich mit (möglichen) astronomischen Katastrophen kompetent und unaufgeregt auseinandersetzen sowie der Feder österreichischer Autoren entstammen, sollen auch genannt werden:

    Arnold Hanslmeier: Kosmische Katastrophen: Weltuntergänge. Was sagt die Wissenschaft dazu?, Vehling Verlag, 2011, ISBN-13: 978-3853332009

    Florian Freistetter: Krawumm!: Ein Plädoyer für den Weltuntergang, Ecowin Verlag, 2012, ISBN-13: 978-3711000255

     


    Weiterführende Links

    Eine hervorragende Seite, die sich auch explizit dem Kampf gegen die pseudowissenschaftliche Sensationsmacherei widmet, betreibt - nein nicht Don Quichote, sondern - der Österreicher Florian Freistetter (siehe die Buchempfehlung des Autors "Krawumm!") mit seinem Blog Astrodictium simplex

    inge Thu, 29.03.2012 - 05:20

    Die grosse Frage — Die Suche nach ausserirdischem Leben

    Die grosse Frage — Die Suche nach ausserirdischem Leben

    Fr, 22.03.2012- 01:00 — Gottfried Schatz

    Icon BiologieGottfried Schatz

    Leben wurde bisher nur auf unserer Erde gefunden. Die Entdeckung ferner Planetensysteme sowie neue Erkenntnisse über unser eigenes Sonnensystem nähren jedoch die Vermutung, dass auch andere Himmelskörper Leben tragen.

    Sind wir allein – oder regt sich Leben auch anderswo im Universum? Nichts würde unser Menschenbild so tiefgreifend verändern wie das Wissen um Leben auf anderen Himmelskörpern. Doch wie könnten wir es finden? Wie wäre es beschaffen? Und wie könnten wir es erkennen? Bereits im Altertum sprachen Denker von den «vielen Welten» des Universums, und das aus dem 10. Jahrhundert stammende japanische Märchen «Die Geschichte vom Bambusschneider» berichtet, wie die Prinzessin der Mondmenschen die Erde besucht. Doch als im frühen 17. Jahrhundert das Fernrohr die schier unendlichen Weiten des Universums offenbarte, schien die Suche nach ausserirdischem Leben ein hoffnungsloses Unterfangen.

    Ein Urexperiment

    Was ist «Leben»? Wissenschafter sind sich über eine Definition noch nicht einig, doch im weitesten Sinne ist es ein chemisches System, das sich reproduziert und durch zufällige Variation und Selektion immer komplexer wird. Doch welche ordnende Kraft schuf die komplexen Moleküle, aus denen irdisches Leben entstand?

    Am 27. Dezember 1984 fanden Forscher im antarktischen Eis einen 1,93 Kilogramm schweren Meteoriten, dessen chemische Zusammensetzung ihn als eines der ältesten Teile unseres Sonnensystems auswies. Ein gewaltiger Meteor hatte ihn offenbar vor etwa 4 Milliarden Jahren aus dem Gestein des jungen Planeten Mars herausgeschlagen. Er war dann an der Marsoberfläche liegengeblieben, bis ihn ein anderer Meteor vor 15 Millionen Jahren auf eine lange Irrfahrt durch das Sonnensystem schleuderte, die erst vor 13 000 Jahren im antarktischen Eis unseres Planeten endete. Am 6. August 1996 liess dieser «ALH-84001-Meteor» dann die Welt aufhorchen: Forscher der US-Raumfahrtbehörde hatten in ihm komplexe organische Moleküle, darunter sogar Bausteine von Proteinen, nachgewiesen. Ja noch mehr – im Elektronenmikroskop glaubten sie Strukturen zu sehen, die versteinerten Bakterien glichen. Handelte es sich um Zeugen einstigen Lebens auf dem Mars?

    Diese Strukturen sind jedoch wahrscheinlich keine Bakterienfossilien, sondern rein mineralogische Formationen. Die reiche Palette komplexer organischer Moleküle bewies jedoch, dass sich solche Moleküle bald nach der Geburt unseres Sonnensystems gebildet hatten. Dass dies chemisch plausibel ist, hatte der damals 23-jährige Student Stanley L. Miller bereits im Jahre 1952 in einem legendären Vortrag an der Universität Chicago verkündet: Er hatte eine Gasmischung, die der frühen Erdatmosphäre glich, tagelang mit elektrischen Entladungen bombardiert und dabei komplexe organische Moleküle erzeugt – darunter auch Bausteine von Proteinen. Einer der prominenten Zuhörer, die Millers Worten gebannt lauschten, war der Physiker Enrico Fermi. Auf dessen skeptische Frage «Wissen Sie, ob sich so etwas auch auf der jungen Erde abgespielt hat?» antwortete Stanleys Doktorvater Harold C. Urey schlagfertig: «Wenn Gott es nicht so tat, vergab er eine einmalige Chance.»

    Später zeigte es sich, dass in derartigen Versuchen Millionen verschiedener Moleküle, darunter auch die Bausteine der Erbsubstanz DNA, entstehen. Das Gasgemisch muss jedoch – ähnlich wie die frühe Erdatmosphäre – frei von Sauerstoffgas sein, da sonst die gebildeten organischen Moleküle durch Oxidation wieder zerstört würden. Unsere heutige Erdatmosphäre, die zu einem Fünftel aus Sauerstoffgas besteht, würde deshalb die Bildung komplexer Moleküle aus einfachen Gasen – und damit wohl auch die Entstehung von Leben – wirksam unterbinden.

    Auf unserer Suche nach ausserirdischem Leben beschränkten wir uns lange darauf, die Planeten und Monde unseres Sonnensystems mit immer leistungsfähigeren Fernrohren zu beobachten, Meteoriten zu untersuchen, im elektromagnetischen Rauschen des Universums nach «intelligenten» Signalen zu lauschen – und solche Signale unsererseits aus gewaltigen Antennen in die Tiefen des Weltalls zu senden. Nun aber sind unsere schärfsten Späher unbemannte Raumsonden, die wir in unser Sonnensystem entsenden. Sie umkreisen ferne Planeten und Monde, vermessen und fotografieren sie und landen manchmal sogar auf ihnen. Die Daten und Bilder, die sie uns zur Erde senden, zählen zu den erhebendsten, welche die Wissenschaft uns je bescherte. Sie berichten von Jahreszeiten, Sandstürmen und ausgetrockneten Flüssen auf dem Planeten Mars sowie von Geysiren, Seen aus flüssigem Methan, Gasausbrüchen, gewaltigen Gebirgen und erloschenen Vulkanen auf den Monden der Planeten Jupiter und Saturn. Ihre vielleicht wichtigste Botschaft ist, dass viele dieser Himmelskörper genügend Wasser tragen, um erdähnliches Leben zu ermöglichen. Und einige von ihnen besitzen auch eine Atmosphäre, in der Wasserstoffgas, Äthan und Acetylen unter Freisetzung von Energie Methan bilden und dem Leben Energie liefern könnten.

    Keine dieser fremden Welten ist geheimnisvoller als der Saturnmond Titan, auf dem die Raumsonde «Huygens» am 14. Januar 2005 landete und den die Sonde «Cassini» seither immer wieder umkreist. Diese Sonden zeigten uns, dass Titan nicht nur einen eisenhaltigen Kern, Seen aus flüssigem Methan sowie unterirdische Becken aus flüssigen Ammoniak-Wasser-Gemischen, sondern auch eine eindrückliche Atmosphäre besitzt. Sie enthält hauptsächlich Stickstoff und Methan sowie Spuren komplexer Moleküle und ist so dicht, dass in ihr Menschen dank der geringen Schwerkraft dieses Mondes mit angeschnallten Flügeln wie Fledermäuse fliegen könnten. Zudem ist sie reich an bräunlichen organischen Stoffen, die frappant jenen gleichen, die der Meteor ALH 84001 mit sich trug und Stanley L. Miller in seinen elektrisch bombardierten Gasgemischen vorfand.

    Sie sorgen auf Titan für einen derart dichten Smog, dass die Oberfläche dieses Mondes selbst bei Tag einem asphaltierten Parkplatz bei Abenddämmerung gleicht. Auf Titan ist es zwar mit minus 179 Grad Celsius sehr, sehr kalt, doch in tieferen Schichten könnte der radioaktive Zerfall instabiler Elemente für wesentlich mildere Temperaturen sorgen. Ist Titan eine kosmische Retorte, in der sich Leben zusammenbraut? Oder regt sich in dieser Retorte bereits Leben, das wir noch nicht erkannt haben? Verglichen mit diesem wundersam unruhigen Mond ist der rote Planet Mars ein kosmischer Greis. Das Wasser, das einst reichlich auf ihm floss, ist längst zum Eis der Polkappen oder zu Permafrost erstarrt, und auch seine Atmosphäre aus Kohlendioxid und Stickstoff ist dünn geworden wie das Haar eines alten Mannes. Anders als die Atmosphäre des Titan enthält sie jedoch auch etwas Sauerstoff. Stammt dieses Gas von Lebewesen? Der Nachweis unterirdischer Wasserreservoire und die relativ hohe Oberflächentemperatur von bis zu minus 5 Grad Celsius lassen vermuten, dass es auf Mars einst Leben gab oder noch immer gibt, doch die unbemannten Sonden, die auf dem Planeten landeten, konnten dies bisher nicht bestätigen.

    Selbst wenn Leben in unserem Sonnensystem sich auf unsere Erde beschränkte, könnte es dennoch auf Planeten ferner Sonnen vorkommen. Solche fernen Planeten senden zwar nur sehr wenig Licht aus, verdunkeln jedoch beim Umlauf um ihre Sonne deren Licht. Wir können diese winzigen periodischen Lichtschwankungen vermessen und aus ihnen und anderen Daten nicht nur die Umlaufzeit und die Masse des fernen Planeten, sondern sogar auch die Eigenschaften seiner Atmosphäre ableiten. Astronomen haben bisher mehr als fünfhundert solcher «Exoplaneten» entdeckt. Einige von ihnen könnten Leben tragen, weil sie weder zu weit noch zu nahe um ihre Sonne kreisen. Dies gilt in besonderem Masse für einen der sechs Planeten des roten Zwergsterns Gliese 581. Er ist mehr als 20 Lichtjahre von uns entfernt, so dass unsere derzeitigen Raumfähren ihn erst in etwa 800 000 Jahren erreichen könnten. Da nach heutigem Wissen weder ein Körper noch ein Signal schneller als das Licht reisen können, werden wir derart fernes Leben wohl kaum eindeutig nachweisen können.

    Eine einfache Rechnung

    Das Wort «nie» ist jedoch der Wissenschaft ebenso fremd wie das Wort «immer». Für die Existenz ausserirdischen Lebens spricht allein schon die immense Zahl ferner Planeten: Wenn unsere Annahmen zutreffen, dass in den uns bekannten 125 Milliarden Galaxien etwa ein Zehntel der Sterne von Planeten umringt ist, gäbe es im Universum etwa 6 mal 10 hoch 18 Planetensysteme – eine Zahl mit 18 Nullen! Sollte auch nur ein Milliardstel dieser Systeme Leben ermöglichen, wären es immer noch 6 Milliarden. Dass die Natur aus ungeordneter Materie Leben schafft, mag unendlich unwahrscheinlich sein, doch wenn sie es unendlich oft versucht, wird dies nicht nur möglich, sondern sogar wahrscheinlich. Es braucht ja nur einen einzigen Erfolg, um den Siegeszug des Lebens zu sichern – und Meteore könnten das Leben dann in den Weiten des Alls verbreiten.

    Stammt irdisches Leben von einem anderen Himmelskörper? Wir werden dies wohl erst erfahren, wenn wir es mit ausserirdischem Leben verglichen haben. Ich bin davon überzeugt, dass viele Planeten und Monde des Universums Leben tragen. Ob es sich um komplexe Vielzeller mit überragender Intelligenz, bakterienähnliche Einzeller, Systeme mit exotischen chemischen Eigenschaften oder gar um nichtchemische Systeme handelt, spielt für mich dabei keine Rolle. Für mich wäre der Nachweis ausserirdischen Lebens die aufwühlendste wissenschaftliche Entdeckung aller Zeiten.

     


    Anmerkungen der Redaktion

    Weiterführende Links

    Diese beiden Videos ( 7' und 9'25") erklären die Techniken, mit der Exoplaneten (Planeten in anderen Sternsystemen) aufgespürt werden und beschreiben die Suche nach extraterrestrischem Leben: Millions of Earths - Exoplaneten und außerirdisches Leben (OmU) Exoplaneten - Die Suche nach der zweiten Erde (deutsch)


     

    inge Thu, 22.03.2012 - 05:20

    Ist Gerechtigkeit eine Kategorie in der Forschungspolitik?

    Ist Gerechtigkeit eine Kategorie in der Forschungspolitik?

    Fr, 15.03.2012- 01:00 — Christoph Kratky

    Kratky

    Icon Politik & Gesellschaft

    Vor rund zwei Wochen wurde eine langfristige Finanzierung für das Institute of Science and Technology (IST) Austria in Milliarden € Höhe vereinbart. Dies hat einen Sturm der Entrüstung bei anderen, im internationalen Vergleich als exzellent eingestuften Institutionen hervorgerufen, deren Budget reduziert wurde.

    Christoph Kratky, Präsident des Fonds zur Förderung der wissenschaftlichen Forschung (FWF), d.i. der zentralen Einrichtung zur Förderung der Grundlagenforschung Österreichs, nimmt dazu Stellung und schreibt über:„Wie sieht eine gerechte Verteilung von Fördermitteln aus? Kann und/oder muss ein Forschungssystem überhaupt „gerecht“ sein?

    Wir erleben zurzeit eine heftige Debatte um die Finanzierungszusage für das IST Austria. 1,4 Milliarden Euro für 10 Jahre, und dies zu einer Zeit, in der die Unis darben (trotz fast einer Milliarde Euro mehr für die kommende 3-Jahres-Periode der Leistungsvereinbarungen – aber das System ist bekanntlich unterfinanziert) und in der die Österreichische Akademie der Wissenschaften (ÖAW) mit einem stagnierenden Budget auskommen muss, mit dem nicht einmal die laufenden Kosten aller ihrer Institute abgedeckt sind. Der Chef der Universitärenkonferenz „freut sich für das IST Austria über die Finanzierungszusage, findet aber auch, dass jede Forschungseinrichtung prinzipiell die gleichen finanziellen Möglichkeiten bekommen sollte.“

    Die Österreichische Akademie der Wissenschaften (ÖAW) „sieht darin eine völlig ungerechtfertigte Bevorzugung des IST Austria … offensichtlich wird hier mit zweierlei Maß gemessen“ und “wir protestieren nicht aus Neid oder Eifersucht, wir wehren uns gegen die eklatante Ungleichbehandlung und Diskriminierung der Akademie wie jeder anderen Forschungseinrichtung in Österreich, die Spitzenforschung betreibt.“ Man fordert Gleichbehandlung, was für die ÖAW 25 Millionen Euro mehr pro Jahr vom Staat bedeutet.

    Auch die weltbekannten Quantenphysiker von der Universität Innsbruck haben sich zu Wort gemeldet: Die Labor-Infrastruktur in Innsbruck leidet eklatant unter dem Zustand der Gebäude. Es gebe keine Räume mehr für den wissenschaftlichen NachwucAhs und von langfristiger Planungssicherheit könne keine Rede sein. Angesichts dessen seien die 1,4 Mrd. Euro für das IST eine dramatische Schieflage in der österreichischen Forschungslandschaft.

    Kurzum: der Vertrag zwischen Bund und Land Niederösterreich über den Finanzrahmen für das IST Austria wird von vielen als Provokation empfunden. Man spricht von Ungleichbehandlung und Schieflage. Der Ärger ist verständlich, und die Forderungen sind nachvollziehbar. Unbestreitbar ist auch, dass der Zeitpunkt der Bekanntgabe der Vereinbarung unglücklich gewählt war.

    Die Finanzierungszusage an das IST Austria gilt für die Jahre 2017 bis 2026, d.h. für einen Zeitraum, zu dem möglicherweise keiner der zurzeit politisch Verantwortlichen noch im selben Amt sein wird. Bis dahin werden – wenn man den politischen Ankündigungen Glauben schenken darf – 2% des BIP für die tertiäre Bildung und 1% des BIP für die Grundlagenforschung aufgewandt werden. Zurzeit sind die Kassen leider leer, aber 2020 werden Dank umsichtiger Budgetpolitik hier und jetzt Milch und Honig für Bildung und Forschung fließen, und zwar für alle ...

    Für sich alleine betrachtet würden vermutlich die meisten – wenn auch zähneknirschend – darin übereinstimmen, dass es richtig sei, eine neu gegründete Forschungseinrichtung dieses Zuschnitts mit einer Finanzperspektive auszustatten, die es ihr ermöglicht, den von Anfang an geplanten Aufbau durchzuziehen. Und auch bei sehr kritischer Betrachtung ist die bisherige Performance des IST Austria – beispielsweise 7 ERC Grants – beeindruckend. Der erste Schwung in der Pionierphase ist ermutigend – ein Versprechen für zukünftige Spitzenleistungen im Bereich der Grundlagenforschung.

    Relativierend könnte außerdem hinzugefügt werden, dass der jetzt geschlossene Staatsvertrag zwischen dem Bund und dem Land Niederösterreich lediglich den Finanzrahmen für die Entwicklung des IST Austria festlegt (andernfalls würde sich das Land Niederösterreich kaum darauf einlassen, hunderte Millionen Euro in Neubauten zu investieren). Er beinhaltet noch keine über die laufende Finanzierungsperiode hinausgehenden Finanzzusagen an das IST Austria. Diese werden zur gegebenen Zeit im Rahmen von Leistungsvereinbarungen – nach entsprechenden Evaluierungen – getätigt (kein Mensch zweifelt allerdings daran, dass das Geld am Ende des Tages beim IST Austria landen wird). „Für sich alleine betrachtet“ ist also alles Paletti, wäre da nicht die Sache mit der Gerechtigkeit, beziehungsweise mit der von vielen wahrgenommenen Ungerechtigkeit. Das IST Austria ist ein Wagnis der schwarzblauen Regierung, ursprünglich war von einer „Eliteuniversität“ die Rede, weshalb es von Beginn an mit besonderem Argwohn beäugt wurde. Dennoch sind die von den Quantenoptikern ins Treffen geführte „Schieflage“ und die von der ÖAW beklagte „Ungleichbehandlung“ zweifellos gegeben. Allerdings stellt sich für mich eine Reihe von Fragen, wie beispielsweise:

    • Was bedeutet „Gerechtigkeit“? Ist Gerechtigkeit überhaupt eine relevante Kategorie in der Forschungspolitik? Kann und/oder muss ein Forschungssystem „gerecht“ sein?
    • Wie sähe es denn aus, so ein (selbst-)gerechtes Forschungssystem? Gibt es im Ausland besonders herausragende Beispiele für „gerechte“ und „ungerechte“ Forschungssysteme?
    • Wenn man für Österreich unterstellt, dass irgendeine Form von „Gerechtigkeit“ anzustreben sei, ist es tatsächlich so, dass die „Schieflage“ erst durch die Finanzierungszusage an das IST A entstanden ist?

    Es gibt sicher nur wenige Stimmen in der Wissenschaft, die ein Forschungsfinanzierungssystem als „gerecht“ bezeichnen würden, in dem jede Institution (anteilig) gleich viel Geld für Forschung erhält – die berüchtigte „Gießkanne“. Vermutlich wird ein System eher als gerecht erlebt, wenn die Finanzierung von der erbrachten oder erwartbaren Leistung abhängig gemacht wird.

    Wie lässt sich Grundlagenforschung bewerten?

    Dies führt zwangsläufig zur Frage, worin denn eine „Leistung“ in der Grundlagenforschung (und von ausschließlich dieser schreibe ich hier) besteht. Zweifellos in allererster Linie sind hier Veröffentlichungen in renommierten Fachzeitschriften bzw. deren Zitierungen durch Fachkolleginnen und –kollegen zu nennen. Das ist bibliometrisch einigermaßen erfassbar, allerdings ist ein Vergleich über Disziplinengrenzen hinweg schwierig. Ein oft verwendetes und weniger disziplinen-abhängiges Maß für die Leistungsfähigkeit einer Forschungseinrichtung ist der Erfolg bei der Einwerbung kompetitiv vergebener Drittmittel, etwa von Institutionen wie dem Fonds zur Förderung der wissenschaftlichen Forschung (FWF) oder dem European Research Council (ERC). Beide Fördergeber wenden ein striktes Verfahren zur Qualitätssicherung durch Peer Review an – so vergibt der FWF pro Jahr ca. 170 Millionen Euro auf Basis von etwa 5000 Fachgutachten.

    Die österreichischen Universitäten haben für die dreijährige Finanzierungsperiode 2010-2012 gemäß Hochschulbericht ein Grundbudget von 7,888 Milliarden Euro bekommen, 46% davon werden gemäß OECD-Norm als forschungswirksam ausgewiesen. Das sind pro Jahr immerhin gut 1,2 Milliarden Euro für die Forschung an den Universitäten. Dazu kommen als größere Posten noch knapp 100 Millionen für die ÖAW. Wurde dieses Geld in der Vergangenheit „gerecht“ (d.h. abhängig von der erbrachten Forschungsleistung) verteilt? Nimmt man die Einwerbung von FWF-Mitteln als Indikator für die wissenschaftliche Produktivität unserer Forschungsträgereinrichtungen (und es kann natürlich nur ein sehr grobes Maß sein), so stellt man erstaunliche Unterschiede fest. Die Universität Wien hat in den Jahren 2007-2009 ca. 30% ihres für Forschung vorgesehenen Budgetanteils zusätzlich in Form von FWF-Projekten eingeworben, und ist damit absoluter Spitzenreiter. Bei der schwächsten der Forschungsuniversitäten (aus Diskretion nenne ich sie nicht) beträgt dieser Anteil 5%, der Durchschnittswert aller Universitäten liegt bei 16 %. Interessant ist der Vergleich mit der ÖAW: Bei der ÖAW ist selbstredend das gesamte Budget als forschungsrelevant einzustufen (weil sie als Institution keine Lehraufgaben erfüllt), Forscherinnen und Forscher der Akademie haben im zuvor genannten Zeitraum ca. 14% des ÖAW-Grundbudgets zusätzlich beim FWF eingeworben.

    Schieflaqen in der Forschungsförderung

    Um es auf den Punkt zu bringen: In meinen Augen bestand auch schon in der Vergangenheit eine erhebliche Schieflage in der Zuweisung von Forschungsmitteln an staatlich finanzierte Institutionen im Rahmen der jeweiligen Grundbudgets, welche nicht mit Parametern der Forschungsproduktivität korrespondieren – und kaum jemand hat sich echauffiert. Selbst die ÖAW mit ihrem expliziten Exzellenzanspruch wird diesem – zumindest wenn man die Einwerbung von FWF-Mitteln als Parameter akzeptiert – im Vergleich zu den Universitäten – kaum gerecht, obwohl die von der ÖAW beschäftigten Forscherinnen und Forscher in der Vergangenheit gegenüber ihren Kolleginnen und Kollegen an den Universitäten durchaus privilegierte Rahmenbedingungen hatten (sie mussten und müssen ja keine Lehraufgaben erfüllen). Wohlgemerkt: ich rede von der Forschungsproduktivität der Institutionen insgesamt, natürlich gibt es sowohl an den Universitäten wie an der ÖAW Personen mit herausragenden Forschungsleistungen.

    Also: Schieflagen, wohin man sieht. Es scheint, dass wir geneigt sind, den Status quo zu akzeptieren; Änderungen desselben werden aber augenblicklich auf „Gerechtigkeitsgehalt“ analysiert.

    Ich gestatte mir eine Randbemerkung in eigener Sache zum Thema Gerechtigkeit: der FWF vergibt zurzeit ca 170 Millionen Euro pro Jahr an Forscherinnen und Forscher an den Universitäten, der ÖAW, dem IST Austria und vielen anderen Einrichtungen. Die Verteilung des Geldes ist – wie oben aufgezeigt – extrem ungleich. Da die Vergabe von FWF-Projekten an eine strenge Qualitätssicherung geknüpft ist und nur die am besten evaluierten Projekte zum Zug kommen, werden die FWF-Mitteln in unserer Wahrnehmung sehr „gerecht“ verteilt. Ein richtiger Schritt in die Richtung „mehr Verteilungsgerechtigkeit“ wäre daher in der Tat eine Erhöhung des kompetitiven Anteils der Forschungsfinanzierung. Dieser ist bei uns im internationalen Vergleich extrem niedrig, und seine Erhöhung ist in der FTI-Strategie der Bundesregierung („Forschung, Technologie und Innovation für Österreich“) auch vorgesehen. Mit Genugtuung konnten wir überdies feststellen, dass auch im Zuge der laufenden Debatte über das IST Austria immer wieder der FWF ins Spiel gebracht wurde; insbesondere die Implementierung des von uns vor einigen Jahren vorgeschlagenen Exzellenzcluster-Programms wurde nachdrücklich eingefordert.

    Spitzenforschungseinrichtungen brauchen immens viel Geld, in Österreich und anderswo. Bei begrenzten Mitteln braucht es politischen Mut, einzelne Institutionen finanziell zu privilegieren. Das Beispiel IST Austria zeigt uns aktuell, wie schwierig es ist, diese Debatte zu führen. Ein Vergleich mit unseren beiden Nachbarländern Deutschland und Schweiz ist in diesem Zusammenhang erhellend: In beiden Ländern gibt es Spitzenforschungseinrichtungen, welche finanziell ungleich besser gestellt sind als das übrige Hochschulsystem. In der Schweiz sind dies die beiden Eidgenössischen Technischen Hochschulen (ETHs), in Deutschland u.a. die Institute der Max Planck Gesellschaft (MPG). Es ist kein Zufall, dass sowohl die ETHs als auch die MPG Bundeseinrichtungen sind, wohingegen die Universitäten in beiden Ländern von den Kantonen bzw. den Bundesländern finanziert werden. Natürlich gibt es in beiden Ländern auch eine Gerechtigkeitsdebatte, aber die Finanzierung von Spitzenforschungseinrichtungen aus einem „separaten Topf“ scheint Ungleichheiten erträglicher und politisch leichter vermittelbar zu machen.


    Anmerkungen der Redaktion

    Der FWF - Fonds zur Förderung der wissenschaftlichen Forschung http://www.fwf.ac.at/- ist Österreichs zentrale Einrichtung zur Förderung der Grundlagenforschung. Er ist allen Wissenschaften in gleicher Weise verpflichtet und orientiert sich in seiner Tätigkeit ausschließlich an den Maßstäben der internationalen Scientific Community. Evaluierung von Projekten durch „internationalen Peer-Review“ - Meinung von einschlägig ausgewiesenen ExpertInnen - bildet die Basis der Qualitätssicherung in allen Förderprogrammen.

    Die FFGDie österreichische Forschungsförderungsgesellschaft http://www.ffg.at/ Ist die nationale Förderstelle für wirtschaftsnahe Forschung ERC - European Research Council

    http://erc.europa.eu/ ist eine Institution zur Finanzierung von Grundlagenforschung, die 2006 von der Europäischen Kommission als Teil des spezifischen Programms Ideen im 7. Forschungsrahmenprogramm gegründet wurde. Förderungen werden an junge innovative Forscher, ebenso wie an etablierte Spitzenforscher vergeben, wobei über einen Zeitraum von fünf Jahren insgesamt 670 Millionen Euro zur Verfügung stehen

    ÖAW - Österreichische Akademie der Wissenschaften http://www.oeaw.ac.at/ ist die führende Trägerin außeruniversitärer akademischer Forschung mit mehr als 1100 Mitarbeitern. Sie betreibt anwendungsoffene Grundlagenforschung und greift neue, zukunftweisende Forschungsbereiche auf. Als Centers of Excellence müssen sich die Forschungseinrichtungen der ÖAW im internationalen Wettbewerb anhand regelmäßiger Evaluationen bewähren.

    IST-Austria- Institute of Science and Technology Austria http://ist.ac.at/de/ ist ein 2009 eröffnetes, nahe Klosterneuburg gelegenes Institut, welches naturwissenschaftliche Grundlagenforschung und Postgraduiertenausbildung betreibt und anstrebt sich zu einem erstklassigen Forschungszentrum zu entwickeln.


     

    inge Thu, 15.03.2012 - 01:00

    Zum Ursprung des Lebens — Konzepte und Diskussionen

    Zum Ursprung des Lebens — Konzepte und Diskussionen

    Fr, 16.02.2012- 04:20 — Peter Schuster

    Peter SchusterIcon Biologie

    Diskussionen über den Ursprung des Lebens – präziser ausgedrückt über den des terrestrischen Lebens – ebenso wie über jenen des Universums, werden in allen unseren Gesellschaften mit großem Interesse verfolgt. Für das letztere Problem existiert ein Standard-Modell, die Urknalltheorie (Big-Bang-Theorie), die sich von einer Extrapolation der Elementarteilchen-Physik auf den Beginn des Universums herleitet.

    Nichts Vergleichbares gibt es hingegen, wenn man nach der Entstehung des Lebens fragt. Es konkurrieren zwar viele unterschiedliche Ideen, jedoch bietet keine von ihnen eine ausreichend plausible Erklärung dafür, wie die ersten lebenden Organismen entstanden sein könnten. Es ist ja nicht einmal klar, was unter dem Begriff „Leben“ zu verstehen ist, und mögliche Definitionen sind heftig umstritten.

    Wo ist die Grenzlinie zwischen Unbelebtem und Belebtem zu ziehen?

    Eine Liste von Kriterien zur Unterscheidung was noch nicht und was schon Leben bedeutet, könnte beispielsweise enthalten

    i) Vermehrung und Vererbung

    ii) Variation infolge fehlerhafter Reproduktion und Rekombination

    iv) Individualisierung durch Einschließen in Kompartimente

    v) Selbsterschaffung (Autopoiese) und Selbsterhaltung (Homöostase)

    vi) Organisierte Zellteilung (Mitose)

    vii) Sexuelle Reproduktion und Reduktions-Zellteilung (Meiose)

    viii) Zelldifferenzierung in Zellen der Keimbahn und somatische Zellen

    Zur Illustrierung sind in Abbildung 1 einige Beispiele angeführt: Viroide (Krankheitserreger, die aus nur einer ringförmig geschlossenen, einzelsträngigen Ribonukleinsäure bestehen) erfüllen bloß Kriterien i) und ii), Viren nur i), ii) und iv), Bakterien dagegen alle Kriterien von i) bis vi).

    An Hand dieser Liste lassen sich sogar Artefakte klassifizieren: Computerviren erfüllen nur Kriterium i), Computerwürmer i) und iv). Interessanterweise genügen die Artefakte mit denen die aktuellen Angriffe auf unsere Computer erfolgen, nicht dem Kriterium ii) – deren Evolution liegt also völlig in der Hand der sie erschaffenden Hacker.

     

    Vom Unbelebten zum BelebtenAbbildung 1. Vom Unbelebten zum Belebten

    Biologische Evolution – chemische Evolution

    Zum Verständnis des Lebens, wie es sich heute darstellt, hat die biologische Evolution immer zwei Aspekte zu berücksichtigen: i) den historischen Aspekt der Entwicklung heutiger Lebensformen aus früheren Spezies und ii) den mechanistischen Aspekt, der erklärt wie der Evolutionsprozeß vor sich geht.

    Der geschichtliche Aspekt der Evolution ist gleichzusetzen mit dem Bestand an Fossilien und wie diese interpretiert werden. Dieser Bestand an Fossilien erweist sich allerdings als wertlos, wenn die Frage gestellt wird, wo der Beginn des Lebens anzusetzen ist. Die ältesten Fossilien, deren Ursprung mit höchster Wahrscheinlichkeit ein biologischer ist, sind etwa 3,5 Milliarden Jahre alt und Überbleibsel von Organismen, die den von heutigen Cyanobakterien geformten Stromatolithen entsprechen. Diese ältesten Zeugen des Lebens können jedoch – zumindest nach dem heutigen Wissenstand - keinen Hinweis auf die Wege geben, welche eine vorgelagerte chemische Evolution eingeschlagen hat. Eine historische Beschreibung der Straße, die vom Unbelebten zum Belebten führt, liegt im Bereich der Spekulation und wird es vermutlich auch immer bleiben. Untersuchungen zu Reaktions-Mechanismen, die für Fragen nach dem Ursprung des Lebens als wichtig erachtet werden, können weder falsifiziert noch bestätigt werden, sondern nur als unwahrscheinlich oder plausibel eingestuft werden.

    Was war zuerst?

    Seit dem 19. Jahrhundert als Alexander Oparin kleine Tröpfchen, die sich spontan aus Fettsäuren und Proteinen im wäßrigen Milieu bilden und sich in weitere Tröpfchen spalten können („coacervates“), als mögliche Vorläufer primitiver Zellen betrachtete, haben Wissenschafter eine beträchtliche Anzahl an Szenarien als mögliche Vorläufer der belebten Welt erstellt. Heute existiert praktisch generelle Übereinstimmung darüber, daß schon primitive Zellen drei essentielle Komponenten aufweisen mußten: Ribonukleinsäuren (RNA oder DNA) als molekulare Basis der Genetik, das Vorhandensein von Stoffwechsel und eine Strukturierung in abgrenzbare Kompartimente. Im wesentlichen wird aber darüber diskutiert, in welcher (zeitlichen) Reihenfolge diese Komponenten entstanden sind. Vereinfacht lassen sich diese Szenarien in drei Klassen einteilen:

    i) primär waren genetische Szenarien,

    ii) primär waren Szenarien des Stoffwechsels (Metabolismus) und

    iii) primär waren Szenarien der räumlichen Abgrenzung (Kompartimentierung)

    Alle drei Szenarien weisen Mankos auf in der Erklärung wichtiger Details, wenige Aspekte betreffend den Übergang von einer präbiotischen Chemie zu frühen Lebensformen sind zweifelsfrei. Ein wesentlicher Unterschied in den Szenarien betrifft die Frage, ob der Übergang unbelebt zu belebt autotroph war, das heißt, daß bereits ein präbiotischer Stoffwechsel vorhanden war, der die nötigen Bausteine zur Verfügung stellen konnte oder heterotroph. Im letzteren Fall muß angenommen werden, daß die benötigten Materialien vorerst aus der „Umgebung“ stammten und ein der modernen Biochemie entsprechender Stoffwechsel erst später in frühen Urformen des Lebens entwickelt wurde um von zufälligen Umweltsbedingungen unabhängig zu werden.

    Modelle, welche der Genetik die primäre Rolle zuschreiben

    Diese Modelle gehen davon aus, daß eine RNA-Welt der gegenwärtigen DNA-RNA-Protein-Welt vorangegangen sein muß. Wie allerdings die ersten RNA-Moleküle unter präbiotischen Bedingungen entstanden sind, ist trotz aktueller Fortschritte in diesem Gebiet noch nicht bekannt. Eine massive Unterstützung erhält die RNA-Welt Hypothese durch die Entdeckung von katalytisch aktiven RNA-Molekülen („Ribozymen“), welche wie Enzyme Reaktionen katalysieren, sich selbst replizieren und dabei der Selektion unterworfen sind. Damit kann in einer RNA-Welt eine Darwin’sche Evolution auch ohne Proteine ihren Anfang nehmen. Ribozyme sind nicht selten und eine breite Palette mit unterschiedlichen katalytischen Funktionen findet sich in unseren Zellen; von besonderem Interesse sind Formen, die in der Prozessierung von Nukleinsäuren und Proteinen eine essentielle Rolle spielen.

    Modelle, die eine primäre Rolle dem Vorhandensein eines Metabolismus zuschreiben

    Entsprechende Modelle erscheinen sehr attraktiv, da sie vielleicht erklären können, auf welchen Wegen präbiotische Chemie imstande war ein ausreichendes, passendes Reservoir für die abiotische Synthese von Biomolekülen bereitzustellen. Metabolismus, der innerhalb eines abgegrenzten Raums (Kompartiments) stattfindet, anorganische Materialien umsetzt und von einer Energiequelle außerhalb des Raums angetrieben wird, könnte alle notwendigen Bausteine für das Wachstum und die Vermehrung einer Proto-Zelle produzieren und somit autotroph sein.

    Die meisten der aktuellen Metabolismus-Modelle basieren auf dem einleuchtenden Argument, daß aus dem enorm vielfältigen Repertoire organischer Moleküle, die unter präbiotischen Bedingungen entstanden sein konnten, in katalytischen Kreisläufen Verlauf Teilmengen von Verbindungen selektiert wurden. Leider fehlen für diese Annahmen experimentelle Beweise und die Existenz größerer katalytischer Zyklen erscheint zumindest fragwürdig. Dies ist insbesondere der Fall bei Zyklen mit vielen Komponenten (wie z.B. dem Citronensäure Zyklus), die offensichtlich ohne katalytisch aktive Proteine nicht auskommen, da ihre einzelnen Schritte mit hoher Spezifität und Effizienz verlaufen müssen um Endprodukte in ausreichender Menge zu produzieren. (Ein Zyklus mit 10 Einzelschritten, von denen jeder mit einer hohen Ausbeute von 80 % erfolgt, bringt eine Ausbeute von nur 11 %!)

    Modelle der räumlichen Abgrenzung (Kompartimentierung) an primärer Stelle

    Diese Modelle basieren auf der Tatsache, daß amphiphile Moleküle (Moleküle, die wasserabstoßende – hydrophobe – Teile und mit Wasser interagierende – hydrophile – Gruppen besitzen) unter präbiotischen Bedingungen existierten. Derartige Moleküle aggregieren im wäßrigen Milieu, wobei unterschiedliche Aggregate entstehen können: von Micellen, welche die die hydrophoben Teile ins Innere, die hydrophilen Teile an der Grenzfläche mit Wasser ausrichten, bis hin zu Vesikeln, kugelförmige Gestalten, deren wäßriges Inneres durch eine Membran – eine Doppelschicht aus amphiphilen Molekülen- von dem umgebenden wäßrigen Milieu abgetrennt wird. Diese Membranen sind von speziellem Interesse, da sie grundlegende Eigenschaften von Zellmembranen besitzen.

    Auf der Basis relativ einfacherer Micellen-artiger Aggregate (Composomen) wurde ein Konzept entwickelt, das deren selbst-verstärkende Bildung und Evolution zum Thema hat (GARD-Modell). Eine Analyse der Composomen-Theorie ergab allerdings, daß derartige Partikel nur beschränkt evolvierbar sind und zwischen Formen iterieren, die bereits unter anfänglichen Bedingungen vorhanden waren.

    Auf dem Weg zu künstlichen Zellen

    Vor rund einem Jahrzehnt wurde von der Gruppe um Jack Szostak ein Programm zur Synthese artifizieller Zellen (Protocells) vorgeschlagen, welche die wesentlichen Eigenschaften die „Leben“ charakterisieren, besitzen sollten. Die grundlegende Idee war, genetisches Material in Vesikel einzuschließen, welches die Replikation ermöglichen und zur damit assoziierten Teilung der Vesikel führen sollte (entsprechend der am Beginn des Artikels angeführten Kriterien würden Protocells i), ii) und iv) erfüllen). Inzwischen wurde eine breite Palette an Protocells erzeugt, die erfolgreich unterschiedliche Funktionen des „frühen Lebens“ simulieren. In Lipidvesikeln lassen sich zunehmend kompliziertere Prozesse ausführen, wie die Umschreibung (Translation) von RNA in Proteine oder cyclisch ablaufende Stoffwechselvorgänge (entsprechend Kriterium iii)). Die kürzlich gezeigte Aufnahme von Nukleotiden (Bausteinen der Nuleinsäuren) in derartige Lipidvesikel und deren dort erfolgender Einbau in genetische Polymere stellt einen ‘proof of concept’ dar für die Vorstellung eines heterotrophen Ursprungs der ersten Zellen.

    Evolution des Metabolismus

    Information darüber, wie sich nach einem Beginn über eine RNA-Welt der Metabolismus entwickelt hat, kann auf einfachere Weise erhalten werden. Ein aktueller Ansatz beruht auf der vergleichenden Analyse der Genome („comparative genomics“) und Strukturen von Proteinen: Die Prüfung evolutionärer Verwandschaften („Phylogenomics“) von Protein-Architekturen zeigt die zeitliche Reihenfolge auf, in welcher die in heutigen Metabolismus-Netzwerken agierenden Module aufgetreten sind. Aus diesen Untersuchungen kann geschlossen werden, daß die erste „Übernahme“ präbiotischer Chemie durch enzymatische Katalyse mit der Synthese der Nukleotide für die RNA-Welt erfolgte. Weitere „Übernahmen“ betrafen Stoffwechselwege, die zu Aminosäuren, Kohlehydraten und zu Lipiden führten. Auf diese Anfangsphasen folgte eine schnelle Entwicklung zu den Proteinen der drei großen Reiche der Lebewesen (kingdoms of life): der Eubakterien, Archäbakterien und Eukaryoten.

    Befunde aus den phylogenomischen Untersuchungen sprechen (ebenso wie die oben erwähnten Protocell-Vesikel-Modelle) für einen Ursprung des Lebens auf heterotropher Basis: molekulare Bausteine dürften ja auf der prebiotischen Erde vorhanden gewesen sein, und Urzellen konnten diese inkorporieren. Es scheint auch einfacher zu sein, Selektivität für die Inkorporierung der „richtigen“ Moleküle aufzuweisen als die präbiotische Chemie so zu lenken, daß nur benötigte Moleküle entstehen. In jedem Falls mußten aber die „richtigen“ Moleküle in der „Ursuppe“ angereichert vorliegen.

    Ausblick

    Den pessimististischen Äußerungen von Gegnern eines natürlichen Ursprungs des Lebens zum Trotz, existiert bereits eine eindrucksvolle Sammlung von Befunden, die alle für eine konkrete Reihenfolge von präbiotischen Ereignissen sprechen und von Prozessen, die über Netzwerke dynamisch verknüpfter kleiner Moleküle und amphiphiler Moleküle zu biologischen Makromolekülen führten, zu Kompartiments und schließlich zur Urzelle. Wie die lebende Urzelle entstanden ist, kann zwar keines der vorgeschlagenen Szenarien für sich allein erklären, wohl ist dies aber bei deren Kombination plausibel.

    Beginnend von einer RNA-Welt, die sich im Inneren von Vesikeln befand und der Darwinschen Evolution unterworfen war, vermochte sehr wohl eine Entwicklung zu starten hin zu moderner Biochemie, welche auf DNA, RNA und Protein basiert, ebenso wie auf dem bekannten Protein-katalysierten Metabolismus. Zur Zeit stellt dieses Konzept noch ein unvollständiges Puzzle dar mit einer Reihe fehlender Teile. Zur Vervollständigung bedarf es außer experimentellen Untersuchungen auch einer neuen umfassenden Theorie chemischer Systeme, welche eine direkte Analyse dynamischer Netzwerke (Netzwerke, die sich zeitlich verändern) erlaubt.


    Anmerkungen der Redaktion

    Anstelle eines Glossars und detaillierter Literaturangaben (die für die meisten Leser wohl kaum zugänglich sind):

    inge Thu, 16.02.2012 - 05:20

    Zur Krise der Pharmazeutischen Industrie

    Zur Krise der Pharmazeutischen Industrie

    Fr, 08.03.2012 - 00:00 — Inge Schuster

    Icon Medizin Inge Schuster

    Die Pharmazeutische Industrie ist zunehmend mit Problemen konfrontiert, für deren Lösung sie (noch) keine adäquaten Strategien entwickelt hat; vor allem ist es der Umstand, daß trotz enorm steigender Aufwendungen die Produktivität - d.h. die jährlich registrierte Zahl an neuen Medikamenten - sinkt.

    Wo steht die Pharmazeutische Industrie?

    Die Pharmazeutische Industrie (kurz: Pharma) zählt zu den weltweit größten, innovativsten und erfolgreichsten Branchen. Im letzten Jahrzehnt konnte sie ihren globalen Umsatz mehr als verdoppeln – von 423 Mrd $ im Jahr 2002 auf 856 Mrd $ im Jahr 2010 – und weiteres Wachstum auf 1,1 Billionen $ wird bis 2014 erwartet. Im Jahr 2010 wurden rund 42 % des Umsatzes in Nord-Amerika erzielt, etwa 29 % in Europa.

    Weltweit ist Pharma Arbeitgeber für mehrere Millionen Menschen – davon finden sich bereits rund eine Million in den Top 10 Pharma-Konzernen – und ein Mehrfaches an zusätzlichen JAAobs hängt indirekt von Pharma ab. In Europa bietet Pharma Beschäftigung für 640 000 Personen, wobei ein überdurchschnittlich hoher Anteil aus Wissenschaftern verschiedenster Disziplinen und technischem Fachkräften besteht. Der Bedarf an hochqualifizierten Beschäftigten spiegelt sich in den Ausgaben für Forschung und Entwicklung (F&E) wider: Mit rund 27 Milliarden € – d.s. im Schnitt 15,9 % des Nettogewinns – rangiert Pharma in Europa weit vor allen anderen forschungsintensiven Sparten; für die an zweiter Stelle gereihte Computer-Branche werden 9,9 % des Nettogewinns aufgewandt.

    Die hohen Investitionen in F&E haben sich bis jetzt als besonders gewinnbringend erwiesen: Verglichen mit anderen Hochtechnologie-Sparten liegt Pharma auch in Hinblick auf den positiven Beitrag zur EU27-Handelsbilanz mit rund 47 Milliarden € an der Spitze.

    Der wirtschaftliche Erfolg von Pharma ist unmittelbares Ergebnis von auf Forschung basierender Innovation. Seit den Anfängen pharmazeutischer Forschung vor rund 100 Jahren wurden unbestreitbare Durchbrüche in der Therapie vieler ehemals fatal ausgehender Erkrankungen erzielt und damit entscheidend zu besserer Lebensqualität und einer beinahe verdoppelten Lebenserwartung beigetragen. Krankheiten, die noch in der Mitte des vorigen Jahrhunderts viele Opfer forderten, wie beispielsweise Tuberkulose, Kinderlähmung, Diphterie, Scharlach sind bei uns sehr selten geworden, chronische Krankheiten (z.B.Herz-Kreislauferkrankungen, metabolische Erkrankungen, etc.) führen nicht mehr zu einer verkürzten Lebenserwartung, Fortschritte wurden auch bei einer Reihe maligner Tumorerkrankungen erzielt (vor allem bei Brustkrebs, Prostatakrebs und einigen Leukämieformen).

    Wenn zur Zeit bei uns auch bereits mehr als 10 000 Medikamente zugelassen sind, so besteht doch ein enormer Bedarf an neuen Wirkstoffen für ein sehr weites Spektrum von noch überhaupt nicht oder nur unzureichend behandelbaren, schweren Erkrankungen. Für maligne Tumoren beispielsweise der Lunge, der Bauchspeicheldrüse, der Speiseröhre oder des Gehirns gibt es bis jetzt gibt es keine effiziente Therapie, ebensowenig für degenerative Erkrankungen des Nervensystems (z.B. Alzheimer-, Parkinson-Krankheit) oder für viele Defekte des Immunsystems. Es kann also auf weitergehende Forschung und Entwicklung in Pharma nicht verzichtet werden.

    Wieso kommt es zu einer Krise in Pharma?

    Bei oberflächlicher Betrachtung erfüllt die Pharma-Branche alle Kriterien, welche erfolgreichste Unternehmungen aufweisen: sie ist privat-finanziert, hoch innovativ, weist über Dekaden solidestes wirtschaftliches Wachstum auf und – vor allem – sie erzeugt Produkte, die für Gesundheit und Wohlergehen der gesamten Menschheit essentiell sind und für welche daher ein enormer Bedarf und ein geradezu gigantischer Markt besteht.

    Dennoch steht Pharma nun weltweit vor einer der größten Herausforderungen seit ihrem Bestehen. Diese Herausforderung ist nur zum Teil durch die aktuelle Wirtschaftskrise bedingt. Wesentlich wichtiger erscheint die Frage, ob und durch welche Maßnahmen die zur Zeit sehr niedrige Effizienz des Forschungs- und Entwicklungsprozesses gesteigert werden kann.

    Der Forschungs- und- Entwicklungsprozeß – langdauernd, sehr riskant, extrem teuer

    Während der letzten Jahrzehnte ist der zu neuen Medikamenten führende F&E-Pozeß immer riskanter und teurer geworden und dauert immer länger. Während 1975, 1987, und 2001 die Kosten rund 138, 318 und 802 Millionen $ betrugen, müssen heute bereits bis zu 1,9 Milliarden $ aufgewandt werden. Um heute ein neuartiges Medikament auf den Markt zu bringen, ist vom Beginn der Untersuchungen an eine Zeitspanne von 13 – 15 Jahren einzukalkulieren, von mehr als 10 000 eingangs geprüften Verbindungen erreicht vielleicht eine den Markt. Um zu verdeutlichen, warum der F&E-Prozeß so lange dauert und derartig hohe Kosten verursacht, soll dieser in seinen Abschnitten kurz beschrieben werden:

    • Der F&E Prozeß beginnt mit der präklinischen Phase. Diese dauert rund 6 Jahre, benötigt eine Reihe von biologischen und chemischen Laborkapazitäten und verschlingt rund ein Viertel der Gesamtkosten. Im ersten Abschnitt, der Forschungsphase, werden vorerst für eine zu behandelnde Krankheit Ansatzpunkte („Targets“) gesucht, deren Modulierung eine Besserung/Heilung des Krankheitsbildes verspricht. (Diese Targets sind zumeist Proteine, welche häufig auf Grund der unterschiedlichen Expression von Genen und/oder Proteinen in gesundem versus krankem Gewebe eruiert werden.) Kann ein geeignetes Target ermittelt werden, so erfolgt die Suche nach spezifischen Modulatoren für dieses Target durch Austesten von sehr großen Ensembles unterschiedlicher chemischer Verbindungen. Eine darauffolgende Optimierung passender Moleküle hinsichtlich angestrebter Wirkung und voraussichtlichem Verhalten im menschlichen Organismus resultiert schließlich in Entwicklungskandidaten. Diese treten in die präklinische Entwicklungsphase, in welcher in geeigneten Tiermodellen auf Wirksamkeit und Fehlen von toxischen Nebenerscheinungen geprüft wird. Kandidaten, die diese Phase erfolgreich bestehen, treten in die
    • Klinische Entwicklung. Diese Phase besteht aus drei Abschnitten: i) Testung des Entwicklungs-Kandidaten an einer kleinen Gruppe gesunder Freiwilliger, ii) Testung an mehreren hundert Patienten, iii) Multi-Center Studien an bis zu 10 000 Patienten. Die klinische Entwicklung benötigt bis zu sieben Jahre und rund 60 % der Gesamtkosten. Falls diese Phase erfolgreich verläuft, d.h erwünschte Wirksamkeit an Patienten gezeigt werden kann und im Vergleich dazu vernachlässigbare Nebenwirkungen, gelangt das Präparat in die
    • Registrierungsphase. Hier wird die sehr umfangreiche Dokumentation über ein erfolgreiches Präparat bei den Behörden eingereicht. Die Evaluierung, die im Schnitt rund 1,5 Jahre dauert, schließt im günstigen Fall mit der Registrierung des Produkts ab.

    Allerdings schaffen es nur die wenigsten Kandidaten bis zu diesem Ziel. Bereits in der Präklinik werden die meisten Projekte wieder aufgegeben. Von Kandidaten, die es bis in die Klinik schaffen, fallen bis zu 95 % durch, der Großteil davon im zweiten Abschnitt, wenn das Präparat erstmals an einer größeren Zahl an Patienten geprüft wird und es sich dabei als zu wenig wirksam und/oder als zu toxisch herausstellt. Zu diesem Zeitpunkt sind dann bereits mehrere 100 Millionen $ erfolglos aufgewendet worden.

    Blockbuster und Generika

    Wenn nun ein neues Medikament nach rund 13 – 15 Jahren F&E den Markt erreicht, bleibt nur noch eine kurze Zeitspanne, in der es gewinnbringend verkauft werden kann: Patente erlöschen nach 20 Jahren und dann können beliebige Hersteller recht billig Kopien des Medikaments – sogenannte Generika – herstellen und verkaufen, da sie nicht den extrem teuren F&E Prozeß durchlaufen müssen. Mit den stark zunehmenden Kosten der Gesundheitssysteme aller Länder steigt die Attraktivität der Generika; diese nehmen in vielen Ländern bereits ein beträchtliches Volumen der insgesamt verschriebenen Medikamente ein.

    Es erscheint verständlich, daß sich der Preis eines neuen Medikaments an der durch das Patent noch geschützten Zeitspanne und der geschätzten Zahl an Patienten orientiert. Um in der verhältnismäßig kurzen Zeitspanne die F&E Kosten zu lukrieren, waren Firmen bestrebt sogenannte Blockbuster zu kreieren, d.h. Medikamente, die jährlich mehr als 1 Milliarde $ einbringen. Dies sind auf der einen Seite Medikamente – wie z.B. für Indikationen von Herz-Kreislauferkrankungen oder Lipidstoffwechsel-Störungen – für die es mehrere Millionen „Kunden“ gibt, aber auch Medikamente für sehr seltene Erkrankungen mit nur wenigen tausend Patienten, deren Anwendung dann bis zu 409 000 $ im Jahr (Soliris; 8000 Patienten mit paroxysmal nocturnal hemoglobinuria) kostet. Allerdings können 7 - 8 von 10 neu eingeführten Medikamenten die Gestehungskosten bei weitem nicht einbringen und ihre Entwicklung muß daher von den Blockbustern getragen werden.

    Probleme in Pharma

    Eines der wichtigsten ungelösten Probleme: Während - wie bereits erwähnt - die Ausgaben für F&E seit den 70er Jahren auf das mehr als 10-fache gestiegen sind, ist die Produktivität, d.h. die jährliche Ausbeute an neuen Medikamenten gesunken. Gemessen am Pool präklinischer Kandidaten, die in die klinische Prüfung eintreten, sind die „pipelines“ zwar voller geworden, jedoch stiegen die Ausfallsraten in den klinischen Phasen noch wesentlich stärker. Die Wahrscheinlichkeit eines Präparats, das am Anfang der klinischen Prüfung steht, zur Marktreife zu kommen, ist von 10 % im Jahr 2002 auf 5 % im Jahr 2008 gesunken.

    Ein weiteres Problem: das Ende der Blockbuster Ära? Im Jahr 2009 gab es 125 Blockbuster, die rund 300 Milliarden $ einbrachten (d.i. mehr als 1/3 des globalen Medikamenten-Umsatzes). Bei einer Reihe gerade der gewinnträchtigsten Blockbuster erlöschen nun die Patente und sie werden durch billige Generika ersetzt. Entsprechende Umsatzrückgänge bis 2016 werden mit rund 130 Milliarden $ eingeschätzt. Bei Pharma-Giganten wie z.B. Pfizer oder AstraZeneca sind rund 40 % des Umsatzes von diesem Rückgang betroffen. Ein entsprechender Ersatz durch neue Blockbuster ist (noch) nicht in Sicht.

    Wie reagieren nun die Konzerne: Sie fusionieren, vergrößern damit die pipeline der Substanzen, lassen weniger erfolgversprechende Gebiete auf und reduzieren Duplizitäten. Im letzten Jahrzehnt entstanden aus insgesamt rund 50 großen Pharma-Firmen 10 Pharma-Multis, gleichzeitig wurden zahlreiche durchaus erfolgreiche Institutionen geschlossen und es gingen 300.000 Jobs verloren. Das Schließen von Einrichtungen in Europa und zum Teil auch in den USA wurde kompensiert durch die Verlagerung von Einrichtungen nach China, Indien, Süd-Korea – Länder, die in den letzten Jahren höchstes Wachstum am Pharma-Markt aufwiesen, hochqualifiziertes Personal bereitstellen, dabei aber billig produzieren.

    Was noch dazu kommt: Infolge der Wirtschaftskrise und der Sparmaßnahmen in Europa wird nicht nur bei den Medikamentenkosten gespart und verstärkt auf Generika umgestellt, einige Länder schulden der Pharmaindustrie für Medikamentenlieferungen insgesamt 13 - 15 Milliarden € (Spanien als größter Schuldner 6,34 Milliarden € ). Es wächst die Besorgnis, daß diese Schulden nicht mehr bezahlt werden können.

    Pharma ist zur Zeit mit diesen und weiteren Problemen konfrontiert und hat wenige erfolgversprechende Strategien zu deren Lösung aufzuweisen.


    Anmerkungen der Redaktion

    Weiterführende Information

    Wesentliche Informationen und Daten in diesem Artikel stammen aus frei zugänglichen Quellen:

    Pharmaceuticals & Biotech Industry Global Report — 2011 Transformation of the Pharmaceutical industry –mergers, acquisitions, outsourcing, patent expiration, price cuts, growing regulatory pressures . . . (PDF Download)

    The Big Pharma Recession Survey 2011 “Recently a number of high profile pharmaceutical companies have announced significant job cuts and many pharmaceutical professionals feel uncertain about their job stability in 2012”

    EFPIA - The Pharmaceutical Industry in Figures. Key data – 2011 update Global trends and the European market.

    (Eurostat, External and intra-European Union trade, Monthly statistics – Link derzeit broken)

    sowie dieses Video der VFA: MISSION MEDIKAMENT: Forscher im Einsatz für die beste Medizin


     

    inge Thu, 08.03.2012 - 01:00

    Die biomimetische künstliche Nase – wie weit sind wir? Teil 3: Konstruktion einer biomimetischen Nase

    Die biomimetische künstliche Nase – wie weit sind wir? Teil 3: Konstruktion einer biomimetischen Nase

    Fr, 09.02.2012- 04:20 — Wolfgang Knoll

    Wolfgang Knoll

    Icon MINT Im Teil 2 „Aufbau und Funktion physiologischer Geruchssensoren“ (Science-Blog, 26. Jänner 2012) wurde ein Bild der biologischen Vorgänge bei der Geruchsempfindung beschrieben, vor allem die molekularen Prozesse der Erkennung und Bindung der Geruchsstoffe und Pheromone, sowie die nachgeschalteten enzymatischen Verstärkungskaskaden. Auf dieser Basis definiert sich der Raum, in dem die Ansätze für eine biomimetische Geruchs- (und Geschmacks-) Sensorik angesiedelt werden müssen.

    Komponenten einer biomimetischen Nase

    Zentrales Element ist offensichtlich eine Membran nach dem Vorbild der natürlichen Lipid Doppelschicht (lipid bilayer) der Zellmembran. Diese Membran muß

    i) für technische Anwendungen robust sein,

    ii) durch eine Reihe unterschiedlicher funktioneller Komponenten, also mittels Einbau von Membranproteinen für die verschiedenen Schritte im Reaktionsablauf bei der Geruchserkennung (olfaktorische Sensorik) fit gemacht werden und

    iii) es letztendlich erlauben, bei Bindung eines Duftstoffes ein entsprechend ausgelöstes, elektrisches Signal zu detektieren. Auch wenn im Moment kein Labor der Welt in der Lage ist, auch nur annähernd die Komplexität der Riechzellen- Membran, sei es auch nur in der vereinfachten, in Teil 2 (Abb. 4) diskutierten Version, nachzubauen, so sind bereits einzelne Schritte der Reaktionskaskade realisiert worden. Auf Basis dieser im Folgenden beschriebenen Ergebnisse erscheint es durchaus vorstellbar, dass wir das Ziel einer künstlichen biomimetischen Nase erreichen können.

    Die einfachste biomimetische Architektur, die als zentrales Matrix-Element die Reaktionskette bei der Geruchsrezeption nachzustellen erlaubt, ist eine immobilisierte Lipid Doppelschicht Membran („tethered Bilayer Lipid Membran“: tBLM). Eine der verschiedenen, in der Literatur beschriebenen Ausführungsformen ist eine auf einem Polymer-Kissen, einem weichen Hydrogel, immobilisierte Lipid-Doppelschicht, welche durch den Einbau eines Geruchsrezeptors für die Erkennung und Bindung eines Geruchsstoffes funktionalisiert wurde (Abbildung 5). (Geruchsrezeptoren sind GPCR-Proteine, die mit 7 durch die Membran reichenden helikalen Peptidsequenzen charakterisiert sind. Beschreibung: ScienceBlog, 5. Jänner 2012, „Wie wir die Welt um uns herum wahrnehmen“)

    Ausführung als Polymerkissen Abbildung 5: Auf einem festen Substrat, welches auch als Transducer/ Elektrode fungiert, wird über einen Abstandshalter/Verknüpfer (Spacer/Tether) eine sog. tethered Lipid Bilayer Membrane (tBLM) immobilisiert und durch den Einbau eines Geruchsrezeptors funktionalisiert, was die Bindung eines Duftstoffes, hier: Lilial, zu detektieren erlauben muß.

    Diese Grund-Architektur kann tatsächlich sehr einfach, reproduzierbar und robust hergestellt werden (Abbildung 6): Ein fester Träger, in diesem Fall ein mit Gold (Au) beschichtetes Glassubstrat, wird in eine Lösung eines Thiol-Lipid Derivats (siehe Glossar) getaucht, was zur spontanen Bildung einer über einen Abstandshalter immobilisierten Lipid-Monoschicht (Lipid-Monolayer) führt. Taucht man nun diesen mit einer Lipid-Monolage beschichteten Träger in eine wässrige Dispersion von Lipid-Vesikeln (kleine geschlossene Lipid-Doppelschicht-Kugeln), kommt es wieder zu einem spontanen Prozess, nämlich der Fusion einiger Vesikel mit der immobilisierten Lipid Monolayer, der zu einer zuverlässigen Präparation der gewünschten tBLMs führt. Aufbau einer tBLM

    Abbildung 6: Aufbau einer tBLM durch Self-Assembly eines Thiol-Lipid-Derivates, welches spontan zur Bildung einer tethered Lipid-Monoschicht am Gold (Au)-Substrat führt. Diese Monolage wird durch Vesikel Fusion aus einer wässrigen Dispersion zur tethered Lipid-Doppelschicht, einer Festkörper-gestützten Membran erweitert, welche durch den Einbau von Proteinen funktionalisiert werden kann.

    Qualitätskriterien der immobilisierten Lipid Doppelschicht Membran

    Die erhaltenen Membranen erweisen sich als sehr stabil (in einer Flüssigkeitszelle in wässriger Lösung liegt unser persönlicher Rekord bei einer Stabilität von über 7 Monaten). Wichtige Qualitätskriterien bei der Bewertung ihrer Tauglichkeit für sensorische Anwendungen allgemein, besonders aber für den Einbau und die elektrische Auslesbarkeit von Ionen–Kanälen, sind die Fluidität und die elektrische Dichtigkeit der Membranen.

    Fluidität (genauer: die laterale Beweglichkeit der die Membran aufbauenden Lipide): Messungen mit einer aus der Membran-Biophysik bekannten Methode, dem „Fluorescence Recovery after Photobleaching“ (FRAP), zeigten eine fluide Membran an, wenn auch - abhängig von der Dichte an Anker-Lipiden (welche für die Immobilisierung an das Substrat verantwortlich sind) - eine Reduktion der lateralen Beweglichkeit gegenüber der freien lateralen Diffusion der Lipide in einem Vesikel gefunden wurde. Die Fluidität der Membran wurde auch durch Daten mit einem Ionen-Carrier, Valinomycin, bestätigt, dessen molekularer Mechanismus für den Ionentransports über die Membran - als bewegliches Shuttle - eine entsprechende Fluidität der Lipid Matrix voraussetzt.

    Elektrische Dichtigkeit (Permeabilität für Ionen). Mindestens ebenso wichtig wie die Beobachtung, dass wir mit unserer Methode eine stabile und fluide Membran aufbauen können, war der Befund, dass diese Festkörper-gestützten Membranen in Hinblick auf die elektrische Dichtigkeit das beste bisher bekannte Modell-Membran System, die Black Lipid Membranes, sogar noch übertreffen. (Man kann spekulieren, dass diese geringe Permeabilität für Ionen direkt mit der Fluidität der Membran korreliert: ein dünner Flüssigkeitsfilm hat per Definition keine Löcher (aber natürlich laterale Dichtefluktuationen…)). Die gefundenen Werte für die elektrische Dichtigkeit der reinen Lipid-Doppelschicht mit einem spezifischen Widerstand besser als 10 Megaohm x cm² erlauben die Beobachtung des Öffnens und Schließens von einzelnen Kanal-Proteinen mit Strom-Inkrementen von 10 pA (s.u.).

    Funktionalisieren der immobilisierten Lipid Doppelschicht Membran

    Durch den Einbau von Membranproteinen wird eine solche Lipid Matrix für die verschiedenen grundlegenden Untersuchungen im Rahmen biophysikalischer Fragestellungen funktionalisiert und damit auch für praktische Anwendungen in der Bio-Medizin oder eben in der Sensorik fit gemacht. Im Prinzip laufen auch diese Prozesse spontan ab, jedoch gibt es Prozess-bedingte Barrieren. Das manifestiert sich schon bei einfacheren Membran-Proteinen, die im Normalfall aus einer biologischen Membran herausgelöst (solubilisiert) werden müssen, um dann aufgereinigt wieder in die künstliche Membran eingebaut (rekonstituiert) zu werden. Auch wenn man bei diesen Prozessen auf eine jahrzehntelange Erfahrung aus der Membran-Biophysik zurückgreifen kann, ist doch ein Element der Magie oder zumindest eine künstlerische Komponente dabei. Dennoch gelang es im Laufe der Jahre eine ganze Reihe von Proteinen selbst oder in Kooperation mit biologisch arbeitenden Gruppen einzubauen und zu charakterisieren.

    Die Quantifizierung der Eigenschaften der Lipid-Protein-Verbundmatrix geht immer dann besonders gut, wenn es sich um elektrogene (elektrische Spannung erzeugende) Prozesse handelt. Neben fast trivialen Experimenten mit Ionen-Carriern, wie z.B. Valinomycin (s.o.), seien hier einige Beispiele von in unserer Gruppe bearbeiteten Systemen angesprochen:

    A0A1-ATPase - Membran: in Zusammenarbeit mit Prof. Peter Gräber (Albert-Ludwigs-Universität, Freiburg/Breisgau) konnte gezeigt werden, dass das System in der Lage ist, nach Zugabe von ATP als Energie-Quelle Protonen über die (tethered) Membran zu pumpen. Die enzymatische Aktivität der eingebauten ATPase konnte durch die anschließende elektrochemische Reduktion der transportierten Protonen quantifiziert werden.

    Redox-Proteine – Membran: Der Einbau der Cytochrom c Oxidase erlaubte mit Hilfe elektrochemischer Methoden eine äußerst detaillierte Analyse der heterogenen Elektronen-Transfer-Prozesse von der Elektrode (als welche das Gold-beschichtete Substrat eingesetzt werden konnte) zu den vier Redox-Zentren des Proteins (heme a, heme a3, CuA, CuB) durchzuführen, und zwar als Funktion von pH und Temperatur, sowie unter aeroben als auch unter anaeroben Bedingungen. (Cytochrom C Oxidase wurde von den Forschungsgruppen um Prof. Robert B. Gennis, University of Illinois/Urbana und Prof. Shelagh M. Ferguson-Miller, Michigan State University/East Lansing zur Verfügung gestellt.)

    Geruchsrezeptor – Membran: Eine Spezialität unserer Gruppe sind spektroskopische Methoden, die es erlauben wichtige Aussagen zur Korrelation von Struktur und Funktion von Membran-integrierten Proteinen zu erarbeiten (die höchst-auflösende sog. surface-enhanced infrared reflection-absorption spectroscopy (SEIRRAS) und die surface-enhanced resonance Raman spectroscopy (SERRS), stationär oder zeitaufgelöst (mit einer Zeitauflösung von besser als 100 µs)). Dies ist vor allem auch bei Systemen und Prozessen, wie z.B. der Bindung eines Geruchsstoffes an einen Membranrezeptor, von Bedeutung, die nicht unmittelbar zu einer elektrogenen Antwort - also dem Transfer von Ladungen über die Membran - führen (welcher elektrochemisch mittels Impedanzspektroskopie beobachtbar wäre). Ein Beispiel ist in Abbildung 7 gezeigt. In Zusammenarbeit mit Prof. Eva Sinner und ihrem Team konnten wir die Bindung des Geruchsstoffes Lilial, einem kleinen hydrophoben Molekül, an seinen Rezeptor, eingebaut in eine tethered Membran verfolgen und quantifizieren (dies durch die Aufnahme der zeitlichen Änderung einiger Banden). Zeitliche Abfolge der Infrarot-Spektren im Spektralbereich der Amide I und Amide II Banden Abbildung 7: Zeitliche Abfolge der Infrarot-Spektren im Spektralbereich der Amide I und Amide II Banden (SEIRRAS Daten), aufgenommen in Abständen von einer Minute nach Zugabe einer 1 µM Lösung des Duftstoffes Lilial zu einer mit einem Geruchsrezeptor (OR5 der Ratte) funktionalisierten tethered membrane (Zusammenarbeit mit Prof. Eva Sinner, Universität für Bodenkultur/Wien, früher MPI für Polymerforschung/Mainz).

    Mit den beschriebenen Untersuchungen hat man also einen ersten direkten experimentellen Zugang zur Quantifizierung bislang unbekannter Prozess-Parameter von Membranrezeptoren und ihren aus Lösung bindenden Liganden in der Hand, wie der Geschwindigkeit von Bindung und Loslösung (Assoziations- und Dissoziationsraten), der Festigkeit der Bindung (Affinitätskonstante),etc Dies ist ein wichtiger Schritt für die physikalisch-chemische Charakterisierung der Elementarprozesse bei der Geruchsrezeption, es ist aber auch ein Schritt hin zum Design von künstlichen Geruchssensoren auf der Basis biomimetischer Prozesse.

    Eine Strukturänderung, aber auch eine bloße Umorientierung des Membranproteins infolge der Bindung des Duftstoffs an seinen Rezeptor kann sowohl zu einer Zunahme als auch zu einer Abnahme der Intensität einzelner Banden führen. Die signifikante Änderung von Infrarot-Banden im Beispiel der Bindung von Lilial an den Geruchs-Rezeptor OR5 (Abb. 7), könnte darauf hinweisen, dass sich bei der Reaktion (auch) einige der transmembranen Helizes des Rezeptors in ihrer Orientierung ändern und damit die gemessene IR- Bandensignatur beeinflussen. (Eine damit einhergehende und experimentell elektrochemisch nachweisbare Änderung der entsprechenden Dipolmomente steht zur Zeit noch aus.)

    Ein nächster Schritt zum Design von Geruchssensoren

    Die Konstruktion der tBLM und das damit erreichte und dokumentierte Eigenschaftsprofil sollten es erlauben, die Möglichkeit der elektrischen/elektrochemischen Detektion der Bindung von Geruchsstoffen an ihren Membran-Rezeptor im Hinblick auf die Entwicklung von Sensoren auszuloten und zu validieren. Die bereits angesprochene hervorragende elektrische Dichtigkeit der tBLMs - die Grundlage dafür, dass wir nur Hintergrundströme im Bereich von pA vorliegen haben - ermöglicht es alle sonstigen elektrogenen Prozesse mit hoher Empfindlichkeit zu detektieren. Dies ist am Beispiel des muscarinischen Acetylcholin-Rezeptors demonstriert (Abbildungen 8 und 9). Experimenteller Aufbau zur empfindlichen Messung elektrischer/elektrochemischer Prozesse an tBLMs Abbildung 8: Experimenteller Aufbau zur empfindlichen Messung elektrischer/elektrochemischer Prozesse an tBLMs. Die einzelnen Gold- beschichteten Sensor- Pads (100x100 µm²) sind die Basis- (Working-) Elektroden, auf denen die Lipid-Doppelschichten präpariert wurden. Hier sind sie mit einigen wenigen Poren, dem inneren Kanal-Fragment des Acetylcholine-Rezeptors, funktionalisiert worden. In die darüber liegende Elektrolytschicht taucht die Gegen-Elektrode (Ag/AgCl- Silber/Silberchlorid) ein. Diese ist an einen Patch-clamp Verstärker zur rauscharmen Messung der Stromfluktuationen, welche durch die stochastisch öffnenden Kanäle verursacht wird, angeschlossen.

    Hier kann das statistische Öffnen und Schließen eines einzelnen Kanal-Protein- Fragmentes des M2 muscarinischen Acetylcholine Rezeptors gezeigt werden (Abbildung 9). Nachdem das an die Gold(Au)-Basiselektrode angelegte Potential von 0 auf + 100 mV geschaltet wurde, zeigt der abnehmende Strom die Umverteilung der positiven und negativen Ionen im räumlich sehr beschränkten wässrigen Spalt zwischen der Elektrode und der Membran (Spacer/Tether Schicht: siehe Abb. 5 und 6): Wie Simulationsrechnungen gezeigt haben, wird dabei z.B die Kaliumionen Konzentration von zunächst 100 mM im Spalt auf 85 mM im stationären Zustand erniedrigt. Das sich dabei aufbauende elektrochemische Gegenpotential reduziert die an der Membran anliegende Spannung von 100 mV bis auf wenige 10 mV, was zu der beobachteten Abnahme des Stromes über die Membran führt. Entscheidend ist aber, dass diesem sehr niedrigen Hintergrund Fluktuationen von spontanen Stromänderungen im Bereich von wenigen pA überlagert sind, die dem stochastischen Öffnen und Schließen einzelner Kanalproteine zugeordnet werden können. Um es noch einmal hervorzuheben: diese Stromfluktuationen können wir nur detektieren, weil wir Membranen präparieren können, die einen so geringen Hintergrundstrom führen und damit die Fluktuationen klar detektierbar sind. Stromverlauf durch eine mit einem Kanal-Protein-Fragment der M2 Isoform des muscarinischen Acetylcholine Rezeptors funktionalisierte tBLM nach Anlegen eines Spannungssprunges von 100 mV Abbildung 9: Stromverlauf durch eine mit einem Kanal-Protein-Fragment der M2 Isoform des muscarinischen Acetylcholine Rezeptors funktionalisierte tBLM nach Anlegen eines Spannungssprunges von 100 mV. Dem durch Ladungs- Umverteilungsprozesse kontinuierlich abnehmenden Basisstrom überlagert sind die Strom-Fluktuationen, welche durch das stochastische Öffnen und Schließen des Protein- Kanals verursacht werden.

    Mit diesem Ergebnis haben wir einen weiteren Meilenstein in Richtung Entwicklung eines biomimetischen Geruchssensor erreicht: Wie in Abb. 4 (Teil 2: science-blog, 26. Jänner 2012) schematisch gezeigt wurde, steht am Ende einer Reaktionskaskade, die mit der Bindung eines Geruchsstoffes an seinen Membran-ständigen Rezeptor beginnt, das Öffnen (und Schließen) von Ionen-Kanälen, die mit ihrem intrinsischen Verstärkungsfaktor (ein einzelner bindender Ligand erlaubt durch das Öffnen des Kanals den Durchtritt von 10 – 100 Millionen Ionen durch die Membran) letztendliche die hohe Empfindlichkeit von Nasen und Insekten-Antennen für Geruchsstoffe bestimmen.

    Die biomimetische künstliche Nase – Ausblick

    Man sollte das bisher Erreichte auf keinen Fall überbewerten. Auf der einen Seite sind wir noch sehr weit davon entfernt, auch nur annähernd die Komplexität der Reaktionskaskaden in einem Modellsystem nachbilden zu können. Der gesamte Verstärkungsmechanismus, der durch die G-Protein-Fragment-induzierte Aktivierung der Adenylat-Zyklase erreicht wird, hat bislang noch keine modellmäßige, biomimetische Realisierung erfahren. Insofern haben wir keine Ahnung, wie weit wir eigentlich noch vom natürlichen System und seinen unglaublichen Empfindlichkeiten bei unseren künstlichen Nasen entfernt sind.

    Aber selbst wenn wir es in absehbarer Zeit schaffen sollten, für einen Rezeptor und damit für einen Geruchsstoff oder eine Klasse von Gerüchen einen Sensor bauen zu können, der den Vergleich mit der Nase eines Hundes nicht zu scheuen braucht, sind wir vom Endziel doch noch sehr, sehr weit entfernt.

    Anders als bei der optischen Kommunikation, wo wir die Entstehung eines künstlichen Farb-Bildes auf einem Bildschirm und die Detektion eines Bildes mit einer hochempfindlichen Kamera auf die drei Grundfarben rot, grün, blau als den digitalen Informationsträgern reduzieren können, lebt die Geruchswelt nicht nur von einer Vielzahl von Rezeptoren (der Mensch hat etwa 350 davon, der Hund das Vierfache), die Sinneseindrücke, die wir beim Riechen erleben, werden von einer nahezu unüberschaubaren Vielfalt von Geruchsstoffen als den Informationsträgern bestimmt. Eine kleine Auswahl davon, klassifiziert nach Größe und Gestalt der Moleküle, ist in Abbildung 10 gegeben. Komplexität der Geruchssensorik Abbildung 10: Zur Komplexität der Geruchssensorik: Klassifizierung von Gerüchen nach ihren zugrunde liegenden molekularen Strukturen und deren Parameter: Größe und Gestalt.

    Zwar gibt es fast schon „klassische“ Beispiele, welchen Einfluss ein einzelner Geruchsstoff, wie etwa der Maiglöckchenduft (Bourgeonal und Zyklamal) auf uns (bzw. unsere Spermien) haben, aber in der Regel setzt sich unser Geruchseindruck aus vielen (Kombinationen von) Duftstoffen zusammen. Damit haben wir nicht nur das Problem der enormen Empfindlichkeiten, welche die Natur realisieren kann und unsere biomimetischen Nasen mindestens in etwa auch so zeigen müssen, wir werden auch lernen müssen, mit der Kombinatorik von Dufteindrücken umzugehen.

    Gemessen an der Komplexität der molekularen Grundprozesse und ihrer biomimetischen Nachbildung im künstlichen Sensor scheint dieses Problem aber eher lösbar zu sein: wenn wir erst das System für einen Rezeptor optimiert haben, sollte es möglich sein auf dem Membran-Chip eine Vielzahl von Rezeptoren mit ihren unterschiedlichen Spezifitäten unterzubringen, parallel auszulesen und über Bioinformatik den kombinatorischen Zugang zu komplexeren Mischungen zu finden. Immerhin war das ja die Basis der - was die Identifikation von Geruchsmischungen angeht - relativ erfolgreichen Versuche, eine elektronische Nase zu realisieren:

    eine Reihe von unterschiedlichen Polymeren oder anderen organischen Matrizen, die alle auf einen einzelnen Geruchsstoff relativ unspezifisch reagierten, konnten in der Kombinatorik der Muster-Erkennung tatsächlich einen Bourbon von einem Scotch oder Irish Wiskey unterscheiden. (Nur was die Empfindlichkeiten anlangte, waren die Ergebnisse absolut unbefriedigend und nährten den Wusch, über einen biomimetischen Weg verstärkt nachzudenken). (Nicht ganz ernst gemeinte) Vision von der künstlichen Nase

    Abbildung 11: Die (nicht ganz ernst gemeinte) Vision von der künstlichen Nase auf einem elektronischen Chip.

    Es ist also noch ein weiter Weg bis zur künstlichen biomimetischen Nase, aber ein Anfang ist gemacht. Wie dieser Sensor am Ende aussehen wird, weiß heute noch niemand (Abbildung 11 - ein nicht ganz ernst gemeinter Vorschlag). Aber, um mit Goethe, der ja ein ausgewiesener Kenner der (Geruchs-) Welt war (Zitat:“...man möchte zum Maikäfer werden, um im Meer von Wohlgerüchen herumschweben zu können…“) zu enden: „…wer immer strebend sich bemüht…“ wir werden es weiter versuchen - und irgendwann müssen wir dann nicht mehr selbst „unsere Nase in alles stecken“!


    Anmerkungen der Redaktion

    Glossar

    1 µm (mikrometer): 1 millionstel Meter, 1 nm (nanometer): 1 milliardstel Meter Amphiphil: Moleküle besitzen hydrophile (polare) und hydrophobe (lipophile) Bereiche; z.B. Emulgatoren, Tenside; vor allem aber Phospholipide , die essentielle Komponenten von Biomembranen sind

    Adenosintriphosphat (ATP): Universeller Energielieferant für zelluläre Prozesse. Bei (enzymatischer) Spaltung der Phosphatbindungen wird Energie freigesetzt, die u.a. zur Synthese von Biomolekülen, zum Stofftransport durch Membranen, zur Muskeltätigkeit,.. benötigt wird. Daneben spielt ATP auch eine bedeutende Rolle im Signaltransfer

    Biomembranen: trennen wässrige Kompartments von der Umgebung (Zellmembranen, intrazelluläre Membranen); in die Lipid-Doppelschicht sind verschiedene Arten von Membranproteinen eingelagert, u.a. (im Text erwähnt):

    Black Lipid Membrane: über einen kleinen Spalt eines hydrophoben Materials (Teflon) spannt sich eine künstliche Lipid-Doppelschicht

    Cytochrom c Oxidase: in der inneren Mitochondrienmembran lokalisiertes essentielles Enzym der „Atmungskette“, welches Sauerstoff zu Wasser reduziert. Die dabei freiwerdende Energie wird zur Synthese von ATP (aus ADP und Phosphat) verwendet.

    „Fluorescence Recovery after Photobleaching“ (FRAP): Methode mit der die Geschwindigkeit der Diffusion eines bestimmten Moleküls in der Membran bestimmt wird. Dazu wird das Molekül mit einem fluoreszierenden Marker versehen, seine Fluoreszenzintensität in der Membran (mittle Fluoreszenzmikroskop) gemessen, dann die Fluoreszenz mittels eines kurzen Laserimpulses „gebleicht“ und die Zeit bestimmt mit der fluoreszierende Moleküle aus der Umgebung einwandern (diffundieren).

    G-Protein gekoppelte Rezeptoren: Sehr große Familie von Transmembranproteinen (u.a. Geruchsrezeptoren), die mit 7 helikalen Segmenten die Zell-Membran durchqueren und Signale von außerhalb in die Zelle leiten (siehe Beitrag vom 5.1.2012)

    Hydrophil: starke Wechselwirkungen mit Wasser („polare“ Wechselwirkungen), häufig wasserlösliche Stoffe.

    Hydrophob: wasserabstoßende, fettlösliche (lipophile) Eigenschaften (z.B. Fette, Wachse)

    Ionenkanäle: bilden Poren durch die Membran hindurch, durch welche elektrisch geladene Teilchen die Membran durchqueren können

    Ionenpumpen: Transmembran-Proteine, die bestimmte Ionen „aktiv“ durch eine Biomembran transportieren. Aktiver Transport erhält seine Energie aus der enzymatischen Spaltung (durch ATPasen) von Adenosintriphosphat (ATP).

    Lipid-Doppelschicht: Struktur, die sich aus amphiphilen Lipiden in wässriger (polarer) Lösung ausbildet. Der hydrophile Teil der Lipide ist nach aussen, der wässrigen Lösung zugewandt, der hydrophobe Teil der Lipide (Fettsäureketten) weist ins Innere der Doppelschicht (siehe Abbildungen 6, 8). Die Lipid-Doppelschicht ist rund 5 namometer dünn und für geladene Teilchen praktisch undurchlässig.

    Ligand (Biologie): Molekül/Atom, das an ein Ziel-(Target-) Protein bindet; in den meisten Fällen ist die Bindung reversibel, d.h. der Ligand löst sich (dissoziiert) vom Target. Irreversible (kovalente) Bindung kann erfolgen, wenn der Ligand durch eine chemische Reaktion mit dem Target verknüpft wird.

    Patch-clamp Technik: Methode nach dem Prinzip der Spannungsklemme mit der sich der durch einzelne Ionenkanäle in der Zellmembran fließende Strom messen lässt.

    pH-Wert: Maß für den sauren oder basischen Charakter einer wässrigen Lösung; definiert durch den negativen (dekadischen) Logarithmus der Wasserstoffionenkonzentration (-aktivität). Wasser mit üblicherweise neutralem Charakter hat einen pH-Wert um etwa 7.0. Lösungen mit pH-Werten unter 7 werden als sauer bezeichnet, über 7 als basisch.

    Thiol-Lipid Derivat: Lipide mit einer Thioalkohol (-SH)-Gruppe, die zur sehr festen Bindung des (Tether-)Lipids an das Gold-Substrat führt


    Weiterführende Links

    In diesem Video (7½ min.) des Max-Planck-Institut für Polymerforschung erläutert Professor Eva-Kathrin Sinner (siehe SB-Beitrag vom 15. Dezember 2011), wie es gelang, einen Sensor für den Duftstoff Lilial herzustellen:


     

    inge Fri, 09.03.2012 - 05:20

    Sprachwerdung — Wie Wissenschafter der Geburt menschlicher Sprache nachspüren

    Sprachwerdung — Wie Wissenschafter der Geburt menschlicher Sprache nachspüren

    Fr, 02.02.2012- 04:20 — Gottfried Schatz

    Icon Poltik & Gesellschaft Gottfried Schatz

    Nichts adelt uns Menschen mehr als die Fähigkeit zur Sprache. Sie fehlt selbst unserem nächsten biologischen Verwandten, dem Schimpansen, dessen Laute stereotyp und angeboren sind.Manche Singvögel lernen zwar ihren Gesang von den Eltern und können ihn sogar individuell gestalten, doch nichts spricht dafür, dass sie mit ihm komplexe oder gar abstrakte Gedanken vermitteln. Auf unserem Weg zur Menschwerdung war das Werden von Sprache der bisher letzte und grossartigste Höhepunkt.

    Ein Dorf und eine Schule

    Doch wie begannen wir zu sprechen? Lange schien es unmöglich, diese Frage zu beantworten, da Sprachen meist vor Jahrtausenden entstanden und keine versteinerten Fossilien hinterliessen. Viele Forscher vermuten seit langem, dass Sprache ein Kind der Gestik ist, die mit Arm- und Handzeichen begann, dann das Gesicht mit einbezog und schliesslich Gesichtsausdrücke durch Mund- und Kehlkopflaute «verinnerlichte». Diese Vermutung wird nun durch Beobachtungen gestützt, die unterschiedlicher nicht sein könnten und eindrücklich die Einheit aller Wissenschaft zeigen. Kinder im Gazastreifen lernen Gebärdensprache

    Kinder im Gazastreifen lernen Gebärdensprache (Bild: Reuters)

     

    Einer dieser Hinweise kam aus einem Beduinendorf in der Negevwüste Israels. Fast alle der etwa dreitausendfünfhundert Dorfbewohner entstammen einer einheimischen Al-Sayyid-Beduinin und einem ägyptischen Zuwanderer, die vor zweihundert Jahren die Dorfgemeinschaft gründeten und ihr eine Erbanlage für Gehörlosigkeit bescherten. Und da Inzucht im Dorf die Regel war, gab es nach etwa vier Generationen bereits viele Gehörlose. Heute, nach drei weiteren Generationen, sind etwa hundertfünfzig Dorfbewohner gehörlos und verständigen sich nicht nur untereinander, sondern auch mit ihren anderen Dorfgenossen in einer Gebärdensprache, die jeder im Dorf beherrscht und Gehörlose vollwertige Mitglieder der Gemeinschaft sein lässt.

    Die «Al-Sayyid-Gebärdensprache» entstand also vor etwa siebzig Jahren und entwickelte im Verlauf von nur einer Generation einen reichen Wortschatz und eine eigene Grammatik, die sich von der Grammatik der in Israel gelehrten Gebärdensprache und der Regionalsprachen Arabisch und Hebräisch unterscheidet. Da aber für Menschen Sprache nicht nur Werk-, sondern auch Spielzeug ist, verändern die Dorfbewohner ihre Gebärdensprache ohne Unterlass, wobei vor allem Kinder als treibende Kraft wirken. Jede der drei noch lebenden Generationen «spricht» die Gebärdensprache also leicht anders – und die jüngste Generation spricht sie doppelt so schnell wie die älteste und verwendet auch komplexere Sätze. Die Geburt und die Entwicklungsstufen dieser jungen Sprache sind also wie in einer freiliegenden geologischen Verwerfung klar erkennbar.

    Ein normal intelligentes Menschenkind erlernt mühelos selbst mehrere Sprachen. Und wenn einem gehörlosen Kind Lehrmeister fehlen, erfindet es seine eigene Gebärdensprache, um sich anderen mitzuteilen. Diese individuellen Gebärdensprachen sind jedoch nicht entwicklungsfähig, da ihnen die Wechselwirkung mit einer «gleichsprachigen» Gemeinschaft fehlt. Als jedoch Nicaragua nach der Revolution von 1979 Hunderte von gehörlosen Kindern zum ersten Mal in eigenen Schulen zusammenführte, erfanden die Kinder in nur wenigen Jahren ihre eigene Gebärdensprache. Sie entwickelte sich ohne Zutun der Lehrer gewissermassen aus dem Nichts und gewann laufend an Komplexität, weil die Kinder sie von ihren älteren Kameraden lernten und dann auch später untereinander verkehrten. Lokale Gebärdensprachen haben sich in mehreren isolierten afrikanischen und asiatischen Dörfern entwickelt, in denen Gehörlosigkeit endemisch war. Sie sind Fenster, die uns die Geburt einer Sprache beobachten lassen. – Welche Gene steuern eine solche Geburt, und wie haben sich diese Gene während der Entwicklung des modernen Menschen verändert? Erste Antworten lieferten Untersuchungen an einer britisch-pakistanischen Familie, in der jedes zweite Mitglied grosse Mühe hat, verständlich zu sprechen, Gesprochenes zu verstehen oder nachzuahmen und den Gesichtsausdruck zu kontrollieren.

    Ein Gen

    Der Erbgang dieser Krankheit sprach dafür, dass sie den Ausfall eines einzigen Gens widerspiegelte. Forscher spürten dieses Gen auf und tauften es «FOXP2». Obwohl jede Körperzelle von ihm zwei Kopien besitzt, genügt der Ausfall von nur einer, um die Krankheit auszulösen. Das Gen koordiniert die Aktivität von Hunderten, vielleicht sogar von Tausenden anderer Gene und sichert so die geordnete Entwicklung komplexer Lebewesen.

    FOXP2 findet sich in fast identischer Form auch in Affen und Mäusen, hat sich also im Verlauf von vielen hundert Millionen Jahren nur sehr wenig verändert. Doch nachdem vor etwa sechs bis sieben Millionen Jahren in Afrika unsere ersten menschenähnlichen Vorfahren aufgetreten waren, veränderte sich deren FOXP2-Gen an zwei wichtigen Stellen und gewann so wahrscheinlich zusätzliche Funktionen.

    Vor einer halben Million Jahren war diese neue Genvariante bereits fester Bestandteil des Erbgutes aller modernen Menschen. Könnte es sein, dass diese ihren beispiellosen Erfolg auch ihrem veränderten FOXP2-Gen und der von ihm geförderten Entwicklung einer komplexen Sprache verdanken? Das Gen ist besonders in den Hirnregionen aktiv, die Sprache, Grammatik, Kontrolle der Gesichts- und Mundmuskeln und die Fähigkeit zu Nachahmung betreuen. Es ist für die Entwicklung des Sprechens zwar unerlässlich, aber dennoch kein spezifisches «Sprachgen», da es auch für die Entwicklung von Lunge, Darm oder Herz wichtig ist. Wahrscheinlich ist es nur eines von vielen Genen, die uns die anatomischen und neurologischen Voraussetzungen für Sprechfähigkeit und Sprache schenken. Leider wissen wir noch nicht, ob es auch für die spontane Entwicklung oder Beherrschung einer Gebärdensprache notwendig ist. Untersuchungen zur Rolle dieses Gens und zur Entwicklung neuer Gebärdensprachen versprechen uns faszinierende Einblicke in das Werden menschlicher Sprache.

    Ich fühle das Wunder dieses Werdens, wenn ich meinem kleinen Enkel das Wort «Opa» vorspreche, er mit höchster Anspannung zuhört – und dann mit einem Baby-Gurgeln antwortet, das jede Woche mehr wie «Opa» klingt. Wann wird er wohl den ersten Kinderreim nachsprechen? Diese Momente zeigen mir ebenso eindrücklich wie die spontane Entwicklung einer Gebärdensprache in den Sonderschulen Nicaraguas, wie wichtig menschliche Gemeinschaft für die Entwicklung einer differenzierten Sprache ist.

    Eine solche Sprache ist aber auch Voraussetzung für jede dauerhafte menschliche Gemeinschaft, weil sie uns abstrakt denken und Wissen und Wertvorstellungen an nachfolgende Generation weitergeben lässt. So gesehen sind selbst die Werke unserer Dichter und Philosophen letztlich Gemeinschaftswerke. Das komplexe Band, das mich mit meinem Enkel im Drang nach Sprache und Gemeinsamkeit vereint, ist aus den Fäden unserer Gene gewirkt. FOXP2 ist nur eines von vielen. Wenn wir einmal alle diese Gene kennen, werden wir vor der grossen Frage stehen, wie dieser Drang in ihnen verschlüsselt ist.


     

    inge Thu, 02.02.2012 - 05:20

    Die biomimetische künstliche Nase – wie weit sind wir? Teil 2. Aufbau und Funktion physiologischer Geruchssensoren

    Die biomimetische künstliche Nase – wie weit sind wir? Teil 2. Aufbau und Funktion physiologischer Geruchssensoren

    Fr, 26.01.2012- 04:20 — Wolfgang Knoll

    Icon MINTWolfgang Knoll

    Fortsetzung von Teil 1: Künstliche Sensoren nach dem natürlichen Vorbild unserer fünf Sinne, erschienen am 12.Jänner 2012).Einige heute bekannte Details über den Aufbau der Geruchssensoren, und zwar sowohl für Wirbeltiere als auch für Wirbellose, also z.B. den Insekten, sind stark vereinfacht in Abbildung 3 gegeben.

    Bei den Wirbeltieren, also auch bei der Ratte, dem Hund und beim Menschen befinden sich die meisten Nervenzellen im Riech-Epithel (Riechschleimhaut) im Dach der Nasenhaupthöhle. Hier sitzen Millionen von Riechzellen. Die Signale werden von dort über den Riechnerv direkt an das Gehirn weitergeleitet. Die Riechzellen (Olfactory Sensory Neurons) reichen mit ihren Riechhaaren (Ciliae) bis in die Nasenschleimhaut (Mucosa), die mit ihrem Sekret (Mucus) die Zellen und ihre Membranen vor dem Austrocknen schützen müssen, da diese im direkten Kontakt mit der eingeatmeten Luft mit den mitgeführten zu detektierenden Duftstoffen und Pheromonen steht. Aufbau von Geruchssensoren

     

    Abbildung 3: Zum Aufbau der Geruchssensoren von Wirbeltieren (Mensch, rechte Bilder) und Wirbellosen (Insekten, linker Cartoon) mit dem zentralen Element einer durch Geruchs- Rezeptoren funktionalisierten Membran im Zentrum (im Kreis).

    Bei Wirbellosen wird der Riechnerv in den Sensillen der Antennen durch die sogenannte Cuticula (selbsttragende „Körperdecke“) mechanisch geschützt und vor dem Austrocknen bewahrt. Die durch die vorbei streichende Luft antransportierten Duftstoffe können durch Poren in der Cuticula den Riechnerv erreichen, welcher von der Lymphe umgeben ist und bei Bindung eines Duftstoffes oder eines (Art-) spezifischen Pheromons ein bestimmtes elektrisches Signal, die Spikes, generiert.

    Wie erreichen Duftstoffe ihre Geruchssensoren?

    Da die über Geruchssensoren ablaufenden molekularen Prozesse die Basis für jede Überlegung zum Konzept und Bau einer künstlichen biomimetischen Nase darstellen, sollen sie im Folgenden noch etwas genauer, wenn auch nach wie vor sehr schematisch dargestellt werden. Dazu betrachten wir die Abbildung 4: Aufbau von Geruchssensoren

    Abbildung 4: Die wesentlichen molekularen Einzelschritte, die bei Erkennung und Bindung eines Duftstoffes (Odorants) zu einem elektrischen Signal führen. Geruchsstoffrezeptor ist ein G-Protein gekoppelter Rezeptor (GPCR), G: G-Protein, AC: Adenylat-Cyclase

    Geruchsstoffe (Odorants) aus der Luft müssen an irgendeiner Stelle den Übergang in die wässrige Phase schaffen. Bei den Wirbellosen passiert dies beim Durchtritt durch die Poren in der Cuticula, während der in Abbildung 4 dargestellte Fall eher typisch für Wirbeltiere ist, wo dieser Übergang in der Grenzfläche der Mucosa zur Luft geschieht. Da es sich bei vielen Duftstoffen um kleine und vor allem hydrophobe (d.h. wasserabweisende) Moleküle handelt, sorgen die Geruchsstoff-bindenden Proteine (Odorant Binding Proteins - OBPs) oder Pheromon-bindende Proteine (PBPs), welche mit den Duftstoffen einen Komplex bilden, nicht nur für eine erhöhte Löslichkeit, sie „shutteln“ die Duftstoffe zu den in der Membran sitzenden Duftstoff-Rezeptoren (Odorant Receptors, ORs). Ob dies allein durch freie Diffusion geht ist noch unklar; bei den Wirbellosen wird wegen der hohen OBP Konzentration in der Lymphe auch ein gerichteter Transport entlang perkolierender Protein- Aggregate diskutiert.

    Bindung von Duftstoffen an den Rezeptor und Signaltransfer

    Weiterhin auch nicht völlig klar ist, ob die OBPs auch an der entscheidenden Bindung der Duftstoffe an den Rezeptor beteiligt sind oder einfach nur ihr Cargo abgeben. Als gesichert gilt aber, dass die Bindung der Odorants eher weniger spezifisch ist, allerdings die der Pheromone an ihre entsprechenden hochspezifischen Rezeptoren, eine Reaktionskaskade auslöst, die die wesentlichen Verstärkungsmechanismen für die hohe Empfindlichkeit beim Riechen ausmacht. Hier sollte man darauf hinweisen, dass die gegenüber dem Menschen deutlich höhere „Riechleistung“ des Hundes nicht auf einem anderen Mechanismus beruht, sondern lediglich vor allem Ausdruck der Tatsache ist, dass wir Menschen in Summe nur etwa 5 cm2 aktive Fläche mit Riechzellen haben, während der Hund auf das Fünffache kommt. Aber auch beim Weltmeister der Riechchampions, dem Seidenspinner Bombyx Mori, der nur ganz wenige Moleküle des von den Weibchen ausgesandten Pheromones Bombycol benötigt, um die Angebetete zu finden, sind die molekularen Mechanismen der Duftstofferkennung sehr ähnlich.

    Die Bindung von Odorants an der einen Seite der Membran an transmembrane, also Membran-überspannende ORs, die alle zur großen Klasse der G-Protein gekoppelten Rezeptoren (G-Protein Coupled Receptors, GPCRs) gehören, führt auf der anderen Seite der Membran zur Dissoziation des G-Proteins als Trigger des Signal-Übertragungsmechanismus.* Die ?-Untereinheit de G-Proteins bindet an die Adenylat-Cyclase, einem integralen Membran-Enzym, das aus Adenosintriphosphat (ATP) die Synthese eines sogenannten second Messenger – des cyclischen Adenosine Monophosphat (cAMP) - katalysiert. Da die Bindung eines einzigen Duftmoleküls zur Synthese von über 1000 cAMP Molekülen führt, ist damit ein erster Verstärkungsmechanismus identifiziert.

    In weiterer Vereinfachung der biologischen Komplexität fasst dann Abb. 4 zusammen, dass der second messenger cAMP Ionen-Kanäle in ihrer Permeabilität beeinflusst: so wirkt das cAMP direkt auf einen Ionen-Kanal, der bei Bindung von einem cAMP Molekül geöffnet wird. Durch diesen Kanal passieren dann zwischen einer Million und 100 Millionen Calcium- und Natrium-Ionen die Membran von außen nach innen, während Kalium-Ionen ausströmen können – eine weitere enorme Verstärkung eines einzelnen molekularen Ereignisses. Die damit verbundenen transienten, elektrischen Signale sind die Basis der Informationsverarbeitung beim Riechen in den Glomeruli und dann letztendlich im Gehirn.


    Anmerkungen der Redaktion

    Aufbau und Funktion von G-Protein Coupled Receptors (GPCRs) und G-Proteinen sind beschrieben in dem einleitenden Artikel „Wie wir die Welt um uns herum wahrnehmen“ (erschienen am 5.1.2011)

    Glossar

    Adenosintriphosphat (ATP): Universeller Energielieferant für zelluläre Prozesse. Bei (enzymatischer) Spaltung der Phosphatbindungen wird Energie freigesetzt, die u.a. zur Synthese von Biomolekülen, zum Stofftransport durch Membranen, zur Muskeltätigkeit,.. benötigt wird. Daneben spielt ATP auch eine bedeutende Rolle im Signaltransfer.

    Adenylatcyclase: katalysiert die Bildung des second messenger cyclo-AMP (c-AMP) aus ATP unter Abspaltung des Pyrophosphatrestes.

    Glomeruli: kugelige Gebilde im Riechkolben in denen sich die Nerven aller Riechzellen sammeln (jeweils ein Glomerulus je Typ Riechzelle); Abb. 3.

    Pheromone: Flüchtige Substanzen, die Information zwischen Mitgliedern derselben Spezies vermitteln. Sie werden von einem Individuum sezerniert und wirken auf das Verhalten eines anderen Individuums

    Second Messenger: sekundärer Botenstoff; intrazelluläre Verbindung, deren Konzentration sich als Antwort auf ein von außen kommendes primäres Signal (ausgelöst z.B. durch Andocken eines Duftstoffs am Rezeptor) ändert und, die damit ein von außen kommendes Signal in der Zelle weiterleitet.


     

    inge Thu, 26.01.2012 - 05:20

    Signal to noise — Betrachtungen zur Klimawandeldiskussion

    Signal to noise — Betrachtungen zur Klimawandeldiskussion

    Fr, 19.1.2012- 04:20 — Reinhard Böhm

    Reinhard BöhmIcon Geowissenschaften

    Als im 19. Jahrhundert das erste Unterseekabel verlegt worden war, konnten die an der Ostküste Amerika abgegebenen Morsesignale bei Ihrer Ankunft an der Westküste Irlands kaum noch vom störenden Rauschen unterschieden werden. Im analogen Zeitalter der Phonotechnik waren hohe „signal to noise ratios“ ein Qualitätsmerkmal einer HiFi Anlage.

    Heute ersparen uns die digitalen Speichermedien, die immer ein „Entweder oder“ bzw. ein „0 oder 1“ zur Grundlage haben, die Schwierigkeiten, aus einem Grundrauschen ein Signal herauszuhören oder zu sehen.

    Vielleicht trägt unterbewusst diese Fixierung auf klar Unterscheidbares dazu bei, dass auch in der Diskussion über den Klimawandel – sei es in der Öffentlichkeit, den Medien aber auch in der Wissenschaft selbst, meist ebenfalls die klaren und einfachen Aussagen dominieren. Dies obwohl uns einerseits die Gesetze der Statistik nahelegen, einen Trend, oder anders ausgedrückt ein „Klimasignal“, immer zunächst auf seine Signifikanz gegenüber dem „weißen Rauschen“ der Zufälligkeit zu prüfen. Auf einer anderen Ebene, jener der Modellergebnisse über die Klimazukunft, ist das auch der Fall, obwohl gerade sie Aussagen sehr unterschiedlicher Härtegrade liefern.

    Letzteres ein Gräuel offenbar speziell für Physiker, die es gewohnt sind, in ihren Experimenten zunächst ganz klare „Laborverhältnisse“ zu schaffen um auf ihre Fragestellungen auch ganz klar definierte Antworten zu bekommen. Nicht zuletzt deshalb gibt es unter denen, die der Diskussion über den Klimawandel skeptisch gegenüberstehen, nicht wenige auch renommierte Physiker, die offenbar die Klimatologie für eine weiche Wissenschaft halten.

    Der Wissenschaft vom Wetter und Klima ist ja, bis auf wenige Ausnahmen, der Weg über das klar definierte Experiment versperrt. Das vernetzte Klimasystem der Erde in verkleinertem Maßstab ins Labor zu holen ist nicht möglich. Die Nachprüfung von postulierten Zusammenhängen ist, wenn es ums Klima geht, nur über „in situ“ Messreihen möglich. Und diese müssen in hoher räumlicher und zeitlicher Auflösung und mit möglichst einheitlich definierten Messanordnungen stattfinden.

    Diese zunächst als Nachteil zu empfindende Notwendigkeit hat allerdings in der Meteorologie zu einem in anderen Wissenschaften selten gegebenen global vernetzten Beobachtungs- und Messnetz geführt, dessen Daten ohne gröbere Probleme frei zugänglich sind. Spätestens seit der Gründung der Meteorlogischen Weltorganisation im Jahr 1873 in Wien (heute als WMO eine Teilorganisation der UNO) geschieht dies auch für einen genau definierten Kanon an Messgrößen und nach genormten Bedingungen, was die Instrumente betrifft, deren Aufstellung, deren Kalibrierung, die Messtermine u.a.m.

    Das alles macht die Wissenschaft vom Klima sehr wohl zu einer Naturwissenschaft im strengen Sinn, deren Messbefunde allerdings in einem räumlich und zeitlich chaotischen System erhoben werden, in dem es vor Nichtlinearitäten, Rückkopplungen und anderen unangenehmen Dingen nur so wimmelt. Genau deshalb ist in unserer Wissenschaft bei Messbefunden die strenge statistische Betrachtungsweise notwendig, auf die ich im Titel hinweisen wollte. Und genau deshalb können auch noch so aufwändig konstruierte Modellsimulationen immer nur Aussagen unterschiedlicher Härtegrade liefern. Diese werden dann von den „Klimawandelleugnern“ oder „Klimaskeptikern“ als „weich“ bis „unbrauchbar“ bezeichnet, für die „Klimabewegten“ oder „Alarmisten“ sind sie in der Regel so etwas wie heilige und damit nicht in Frage zu stellende Glaubenswahrheiten – eine wunderbare Ausgangssituation also für all den überflüssigen Streit, die gegenseitigen Unterstellungen wie wir sie in der öffentlichen Abhandlung des Themas Klimawandel vorfinden. Die emotionslose und rationale Zugangsweise steht eher im Hintergrund.

    Gerade in jüngster Zeit kann das mit einigen praktischen Beispielen belegt werden, die aus unserem Haus, der Zentralanstalt für Meteorologie und Geodynamik, stammen, die das Basismessnetz für Wetter und Klima in Österreich betreibt. Gerade das Jahr 2011 eignet sich dazu, da es einige „Rekordwerte“ geliefert hat, die sofort – von uns Datenlieferanten kaum noch beeinflussbar – die ebenso übliche und für das Klimawandelmarketing zu schnellem Erfolg führende Zuordnung „Klimawandel = Zunahme der Extremereignisse“ gefunden haben.

    Beispiel 1: Das warme Rekordjahr 2011 auf Österreichs Bergen

    (und seine beinahe korrekte Auslegung in den Medien):

    Das Jahr 2011 war an den österreichischen Hochgebirgsstationen das wärmste bisher gemessene (Reihenbeginn 1851). Das Mittel der Gipfelobservatorien lag um 4.5°C über dem des 20. Jahrhunderts. Das zweitwärmste Jahr (1938) war nur um 3.7°C zu warm. Der Rekordwert 2011 liegt auch im statistisch signifikanten Erwärmungstrend, der seit dem 19. Jahrhundert in Österreich beinahe 2°C betragen hat. Lufttemperatur Österreich Berggipfel

    Diese Aussage war eine statistisch harte Aussage, die von den Medien auch mit Freuden aufgenommen wurde. Im Überschwang der Sensationsberichterstattung wurde aus den Österreichischen Bergstationen gern auch ganz Österreich, was dann nicht mehr stimmte, da im Tiefland das Jahr 2011 zwar ebenfalls ein warmes, aber kein Rekordjahr war.

    Beispiel 2: Der trockene Rekordnovember 2011

    (und seine statistisch falsch interpretierte Weitergabe in den Medien):

    Der November 2011 war, über alle österreichischen Langzeitstationen gemittelt, der mit Abstand trockenste November seit Beginn der Messreihe (1820). Es wurden nur 2% des langjährigen Niederschlagsmittels des 20. Jahrhunderts gemessen. Der zweittrockenste November (im Jahr 1920) war mit 13% deutlich feuchter. Der November 2011 war jedoch ein extremer statistischer Ausreißer und lag nicht in irgendeinem Trend. Ein Zusammenhang mit dem anthropogenen Klimawandel ist nicht ersichtlich, wie auch das Diagramm der Novemberzeitreihe zeigt. Niederschlag Regionalreihe Österreich NOVEMBER

    Der vom Moderator der ORF ZIB-1 am Abend unserer entsprechenden Aussendung offenbar „aus dem Bauch heraus“ formulierte Zusammenhang mit dem gängigen Klimawandelklischee „es wird immer trockener“ war leider ebenso populär wie er falsch war. Der Ausreißer 2011 war eben zufällig und entsprach gar keinem Trend und war schon gar nicht durch „den Klimawandel“ verursacht (worunter üblicherweise der menschlich verursachte Klimawandel verstanden wird).

    Beispiel 3: „UNO warnt: Bis zu 50 Grad Celsius auch in Österreich“

    Eine neue Veröffentlichung des IPCC (Intergovernmental Panel on Climate Change) wird offenbar ohne irgendetwas davon zu lesen sofort ins übliche Klischee „Klimawandel = Zunahme der Extremwerte“ gerückt. Dieses Beispiel zeigt besonders gut, wie dabei ein beinahe schon automatisch ablaufender Vorgang wie von selbst stattfindet – ich will ihm daher mehr Raum geben (der Abschnitt stammt aus einer von mir verfassten Stellungnahme der ZAMG vom 23.11.2011):

    „Am 18.11.2011 gab das IPCC (Intergovernmental Panel on Climate Change) die politische Kurzfassung (Summary for Policymakers) eines neuen Berichts heraus, der sich mit den Möglichkeiten befasst, durch Anpassungsmaßnahmen die Schäden, die extreme Wetter- und Klimaereignisse verursachen, gering zu begrenzen bzw. zu vermeiden. Der Bericht heißt im englischen Original (Deutsch ist keine offizielle UN-Sprache) „Special Report on Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation“ – kurz SREX.

    Da unserer Ansicht nach die starke Präsenz des Themas der Extremwerte und Katastrophen vor allem in der öffentlichen Debatte über „den Klimawandel“ nicht in Relation dazu steht, was dazu mit gut abgesicherten Fakten seitens der Wissenschaft auf rationale Art zu sagen ist, stellt die politische Zusammenfassung von SREX eine wohltuende Überraschung dar. Sie diskutiert sehr rational den Wissensstand, versucht eine Abwägung zwischen dem, was gut abgesichertes Wissen darstellt und dem was weniger bis gar nicht verstanden, durch Daten beweisbar oder durch Modellierung für die Zukunft vorhersehbar ist.

    Leider begeht IPCC wieder den Fehler, aus Aktualitätsgründen mit der politischen Kurzfassung Monate vor der Publikation der ausführlichen Langfassung herauszukommen, die für das Frühjahr 2012 angekündigt ist. Das macht es schwer, den angeführten Aussagen nachzugehen und sie zu überprüfen. Sie müssen „geglaubt“ werden, und glauben ist in der Wissenschaft nie eine gute Basis. Wir empfehlen trotzdem, diese geringe Mühe auf sich zu nehmen und die weniger als 20 Seiten englischen Originaltext zu lesen. Offenbar ist jedoch das in der schnelllebigen Welt unserer Medien noch zuviel verlangt, sonst wäre der sofort entstandene Minihype nicht erklärlich, der bereits am Tag der Veröffentlichung und davor unter folgender Überschrift in Österreich die Runde machte: „UNO warnt: Bis zu 50 Grad Celsius auch in Österreich“ (http://www.krone.at)

    Einen Tag später war es auch in der Schweiz soweit:
    „Der Schweiz droht Extremhitze bis 50 Grad“ (http://www.blick.ch)

    Und auch in Medien wie der Frankfurter Rundschau (http://www.fr-online.de) wurde gemeldet, „Klimaforscher der UN … prophezeien Europa extreme Hitzesommer und Temperaturen bis 50 Grad“.

    Die Welt (http://www.welt.de) hatte es schon vor der Freigabe des IPCC-Berichtes gewusst , dass laut Klimaforscher Mojib Latif im Deutschlandfunk (http://www.dradio.de) „Temperaturen bis 50 Grad möglich seien“ wobei aus dem Zusammenhang klar Deutschland angesprochen war.

    Es ist offenbar nutzlos zu betonen, dass von diesen 50°C im veröffentlichten Originaldokument des IPCC nirgends die Rede war. Anscheinend genügt es bereits, wenn ein IPCC Bericht in einem Titel etwas wie „Extremwerte“ führt, dass sofort die selbstverstärkenden Rückkopplungsprozesse des modernen Medienzirkus darauf anspringen. Es braucht lediglich den Hauch der Beteiligung eines „Experten“, wie in diesem Fall des allgegenwärtigen Kollegen aus Kiel, und aus einem seriösen und ernst zu nehmenden Bericht wird in Windeseile einer dieser hochgradig entbehrlichen Hypes, die auf lange Sicht gesehen der Glaubwürdigkeit der Wissenschaft nur abträglich sein können.

    Daher zum Schluss zur Sicherheit nochmals in aller Deutlichkeit:

    1. es drohen weder Österreich noch Deutschland Temperaturen von 50°C

    2. Nichts von dieser Behauptung ist in dem gerade erschienenen SREX Bericht des IPCC enthalten“

    Soweit unsere Stellungnahme vom vergangenen November. Das Medienecho auf diese Zurechtrückung war endenwollend, genau genommen Null. Gegen den gängigen Grusel-Mainstream schwimmt es sich eben nicht leicht.

    Was können wir daraus ableiten?

    Seitens der Öffentlichkeit:

    Wenn man das Thema Klimawandel für ein wichtiges Thema hält – und der Verfasser dieser Zeilen tut dies aus verschiedenen Gründen sehr wohl – dann muss man dem auch einen gewissen Teil seiner Zeit und Aufmerksamkeit widmen. Lediglich Schlagzeilen zu konsumieren führt in vielen Fällen dazu, den Alarmisten auf den Leim zu gehen. Gewarnt sei vor allem vor den verdächtig runden Sensationszahlen wie z.B. die oben genannten 50 °C. Sie sind das spiegelbildliche Gegenstück zu den Preisen mit der Kommastelle .9 oder .99, die uns ebenfalls für dumm verkaufen wollen.

    Was man auch ohne spezielles Expertenwissen als Laie tun kann und sollte, ist Fragen zu stellen. Etwa die an einen Experten, der gerade hochtrabend die Welt als Ganzes erklärt, auf welchem Gebiet genau er denn seine Spezialexpertise hat. Man wird sich wundern, wie wenige tatsächliche Klimatologen dann als „Klimaexperten“ übrig bleiben.

    Gerade in einer demokratischen Gesellschaft sollten wir es uns nicht nehmen lassen, bei wichtigen Fragen uns unsere Meinung selbstständig zu bilden. Das mag zwar nicht der bequemste Weg sein, die Alternative jedoch ist der Verzicht auf rationale Mitbestimmung.

    Wie heißt es doch so richtig im Buchtitel der „Science Busters“ Gruber, Oberhummer und Puntigam: „Wer nichts weiß muss alles glauben“ – wer will das schon?

    Seitens der (Klima)Wissenschaft:

    Es ist höchste Zeit, unser gestörtes Verhältnis zur Öffentlichkeit zu korrigieren. Wir gehen in der Mehrzahl ebenfalls den bequemen Weg, den des problemlosen Mitschwimmens mit dem Mainstream. Das bringt zwar kurzzeitig Erfolg, Forschungsgelder fließen leichter, man wird von den Medien eher beachtet. Gerade das von mir in diesem Beitrag aufgegriffene Thema „Klimawandel und Extremwerte“ ist da besonders verführerisch. Gerade der langfristige Klimatrend, um den es ja in der Frage des anthropogenen Klimawandels eigentlich geht, versteckt sich perfekt hinter dem Zufallsrauschen der hochfrequenten Klimavariabilität. Auch „spürt“ niemand einen Langfristtrend in der Größenordnung von sagen wir 2°C pro Jahrhundert. Da kann man besser „Aufmerksamkeit erregen“, wenn man mit Katastrophenmeldungen „aufrüttelt“. Auf längere Sicht hingegen - gebrauchen wir jetzt endlich das Modewort „nachhaltig“ - werden wir mit Übertreibungen „um der guten Sache zu dienen“ nicht Erfolg haben. Früher oder später fliegt das auf und das Thema ist tot.

    Oberstes Ziel seitens der Wissenschaft kann nur höchstmögliche Rationalität sein. Nur sie kann langfristig unsere Glaubwürdigkeit absichern.

    Weiterführende und vertiefende Hinweise

    zur rationalen naturwissenschaftlichen Information über den Klimawandel sind in der Informationsplattform Klimawandel der ZAMG populärwissenschaftlich aufbereitet: http://www.zamg.ac.at/klimawandel.

    Eine empfehlenswerte Plattform für die soziologisch-philosophisch-politische Abhandlung des Themas ist der Blog http://klimazwiebel.blogspot.com in dem Hans von Storch und seine Freunde mit viel Freude und Engagement die Zwiebel „Klimawandel“ Schicht für Schicht schälen.

    Manchmal schadet auch ein gutes Buch nicht. 3000 Seiten wissenschaftliche Klimainformation und unglaublich viele Literaturzitate findet man frei zugänglich im Internet in dem IPCC-Reports (http://www.ipcc.ch) . Ich meine übrigens die vollständigen Reports, die zuletzt 2007 erschienen sind. Fragwürdig, weil auch politisch beeinflusst, sind die diversen Kurzfassungen („summaries for policymakers“), von denen ich abrate. Wen die 3000 Seiten (auf Englisch) abschrecken, dem gebe ich zu bedenken, dass er wahrscheinlich auch ein Lexikon daheim stehen haben. Auch das muss man nicht zur Gänze lesen, aber als Nachschlagwerk kann es gar nicht umfangreich genug sein.

    http://www.zamg.ac.at/klimawandel http://klimazwiebel.blogspot.com http://www.ipcc.ch


     

    inge Thu, 19.01.2012 - 05:20

    Die biomimetische künstliche Nase – wie weit sind wir? Teil 1: Künstliche Sensoren nach dem natürlichen Vorbild unserer fünf Sinne

    Die biomimetische künstliche Nase – wie weit sind wir? Teil 1: Künstliche Sensoren nach dem natürlichen Vorbild unserer fünf Sinne

    Fr, 12.01.2012- 04:20 — Wolfgang Knoll

    Icon MINTWolfgang Knoll

    Wenn wir uns unsere fünf Sinne vergegenwärtigen  (allegorische Darstellung in Abbildung 1) und uns fragen, welche dieser Sinne eigentlich eine technische Umsetzung im Sinne der Entwicklung von künstlichen Sensoren in den letzten Jahrzehnten erfahren hat, so fällt uns sofort ein, dass wir mit physikalischen Transducern, basierend auf der sehr weit entwickelten Halbleitertechnik, heute was das Sehen angeht sogar das menschliche Auge übertreffen können

    Wir sind in der Lage, einzelne Photonen nachzuweisen und zu zählen. Vergleichbare Empfindlichkeiten bei der Detektion von Schall erreichen wir mit höchst-sensitiven Mikrophonen, deren technische Leistungsfähigkeit, z.B. beim Abhören von Gesprächen über weite Distanzen, uns sogar ein wenig erschaudern lässt. Hans Makart: Die fuenf Sinne

    Abbildung 1: Die fünf Sinne, Gemälde von Hans Makart aus den Jahren 1872–1879: Tastsinn, Hören, Sehen, Riechen, Schmecken

    Schmecken und Tasten

    Das Schmecken (der Geschmackssinn) im engeren physiologischen Sinne als gustatorische Wahrnehmung muss etwas differenzierter betrachtet werden: Der Geschmack ist der komplexe Sinneseindruck bei der Nahrungsaufnahme. Er entsteht durch das Zusammenspiel von Geschmackssinn, Geruchssinn und Tastsinn (der Lippen, der Zunge und der Mundhöhle).

    Etwa 80 Prozent des empfundenen Geschmacks sind in Wirklichkeit die Aromen einer Speise, die vom Geruchssinn wahrgenommen werden, nur rund 20 Prozent entstehen auf der Zunge. Die Haptik von Speisen, die den Sinneseindruck beim Ertasten von Nahrungsmitteln im Mund bestimmt, ist in der Nahrungsmittelindustrie längst ein ganz wichtiger Faktor bei Produktion und Vermarktung von Nahrungs- und Genussmitteln. (Und wer jemals Mayonnaise selbst gemacht und nicht aufgepasst hat, das Produkt aber dennoch gekostet hat, weiß, wovon hier die Rede ist…). Nicht nur bei der Haptik von Speisen, auch beim Beispiel vom Makart, wo es um das Ertasten eines Gegenstandes oder Körpers mit den Händen geht, haben wir technisch rein gar nichts vorzuweisen: wir schaffen es gerade mal in der Robotik ein Ei von künstlichen Greifarmen so aufheben zu lassen, dass die Eierschale nicht bricht - einen Tasteindruck durch entsprechend eingebaute Sensoren können wir bei diesem Vorgang nicht nachbauen.

    Der Vollständigkeit halber wollen wir kurz erwähnen, dass derzeit fünf Geschmacks-qualitäten als allgemein wissenschaftlich anerkannt gelten: süß, sauer, salzig, bitter und umami. Für sie sind eigene Geschmacksrezeptoren auf der Zunge nachgewiesen. Die generell weniger vertraute Geschmacksqualität “umami” wurde vom japanische Forscher Kikunae Ikeda 1908 beschrieben. Er fand heraus, dass es eine Geschmacksqualität abseits der üblichen Einteilung in süß, sauer, salzig und bitter gibt, welche besonders proteinreiche Nahrungsmittel anzeigt. Der Träger des Umami-Geschmacks ist die freie, aus den Proteinen stammende Aminosäure Glutaminsäure.

    Die entsprechende künstliche Sensorik für diese Geschmacksqualitäten ist sehr unterschiedlich entwickelt. Sauer und salzig sind – entsprechend ihrer einfachen physikalisch-chemischen Definition als pH-Wert einer Lösung oder der Konzentration an gelösten Ionen - sehr präzise und schon seit langem mit entsprechenden technischen Sensoren bestimmbar. Ähnliches gilt für die Bestimmung der Zuckerkonzentration einer Lösung, denken wir nur an den Glucose-Sensor für die Bestimmung des Blutzuckerspiegels. Allerdings sollten wir auch hier die Komplexität des Problems für die Sensorik, gegeben durch die Vielzahl von chemisch unterscheidbaren Zuckern und ihrer physiologischen Wirkung auf unseren Geschmack, nicht unterschätzen.

    Und schließlich sollte auch erwähnt werden, dass wir bei der Entwicklung eines Sensors für die Geschmacksrichtung „bitter“ noch ganz am Anfang stehen, was damit zu tun hat, dass die entsprechende Forschung noch sehr jung ist: so haben Forscher der TU München erst 2009 Nierenzellen gezüchtet, in denen jeweils einer der 25 menschlichen Bitterrezeptoren zur Expression gebracht wurde. Diese Spezialzellen dienten im Laborversuch als Biergeschmacks-Sensor – ein Anfang ist also gemacht…

    Riechen

    Ganz ähnlich ist die Situation beim Riechen, der Sinneswahrnehmung und ihrer technischen Implementierung in einem Geruchssensor, von denen dieser Beitrag eigentlich handeln soll. Wie wohl eines der ältesten sensorischen Elemente und aus der archaischen, schon beim Einzeller entwickelten Chemotaxis entwickelt, sind wesentliche wissenschaftliche Erkenntnisse erst in jüngerer Zeit erarbeitet worden. Abbildung 2 gibt den zeitlichen Ablauf einiger wichtiger Meilensteine in der Erforschung des Geruchssinns wider. Besonders das Jahr 1991 – also erst vor gerade mal 20 Jahren – markiert einen wissenschaftlichen Durchbruch durch die Arbeiten von Linda Buck vom Fred Hutchinson Cancer Research Center in Seattle und Richard Axel vom Howard Hughes Medical Institute und der Columbia University in New York, in denen sie die Entdeckung der olfaktorischen Rezeptoren (Geruchsrezeptoren) in Wirbeltieren, also im Hund und auch beim Menschen beschreiben. Die Bedeutung, die man diesen Ergebnissen beimisst, kann man daran erkennen, dass beiden Wissenschaftlern dafür 2004 der Nobel-Preis für Medizin zuerkannt wurde. Wichtige Erfolge und ihre zeitliche Abfolge in der Forschung zum Thema Geruchssinn

    Abbildung 2: Wichtige Erfolge und ihre zeitliche Abfolge in der Forschung zum Thema Geruchssinn.

    Dieser enorm späte Aufbruch in das Zeitalter der Geruchsforschung ist umso erstaunlicher, wenn man bedenkt, welche Bedeutung der Geruchssinn und damit die chemische Kommunikation auch zwischen Menschen hat (wer eine kabarettistische Aufarbeitung dieses Themas bevorzugt, sollte sich die entsprechenden Kapitel in "Die Leber wächst mit ihren Aufgaben: Komisches aus der Medizin, von Eckart von Hirschhausen" gönnen…).

    So sehr wir bemüht sind, unsere natürlichen Geruchssignale an unsere Umwelt durch entsprechende Hygiene und Beträufeln mit zum Teil penetranten Duftstoffen wie Parfum, Rasierwasser oder Deodorant zu verschleiern, werden wir doch täglich in ungeahnter und einer im Wesentlichen völlig un(ter)bewussten Art und Weise durch Gerüche erheblich manipuliert: An verschiedenen Stellen im Supermarkt muss es in ganz bestimmter Weise riechen, damit wir das gewünschte Kaufverhalten austoben (und wir tun es!); manche Airlines geben ihrer Frischluft in der Business Klasse einen bestimmten Duftstoff bei, der diesen (wichtigen) Kunden dort auch das (unbewusste) Gefühl vermittelt, in der Business Klasse zu fliegen (wofür sie schließlich viel Geld bezahlt haben); wir alle lieben den Geruch von Weichmachern, die für die Fertigung von Plastikteilen unerlässlich ist – schließlich sind sie es, die uns durch ihr ständiges Ausdünsten aus frisch gefertigten Armaturenbrettern bestätigen, dass wir in einem brandneuen schicken Wagen fahren. Wer noch nicht überzeugt ist, wie wichtig Gerüche und chemische Kommunikation in unserem Leben sind, sollte mal seinen eigenen Wortschatz durchforsten („mir stinkt’s“, „ich kann den Kerl nicht riechen“, „jemandem etwas auf die Nase binden“, etc) oder sollte sich die historisch-literarische Aufarbeitung der Themas in Patrick Süskind’s Buch Das Parfum gönnen.

    Ernster gemeint ist der Hinweis, dass neuere Forschungen zur chemischen Kommunikation zwischen Menschen über den Austausch von Pheromonen einen faszinierenden Einblick in menschliches Sozialverhalten, auch und gerade bei der Partnerwahl geben: neben den optischen und akustischen sind es vor allem die chemischen Signale, die den entscheidenden Einfluss auf unsere Entscheidung haben.

    Es geht aber noch weiter: Duftstoff und Rezeptor sind ein wichtiges Instrument der Arterhaltung. Dies kann man einer Notiz aus Zeit Online vom 7.10.2004 aus Anlass der Verleihung des Nobel Preises an Axel und Buck entnehmen: “… Drum prüfe, wer sich ewig bindet, empfiehlt Friedrich Schiller Brautpaaren in seinem Klassiker. Dem prüfenden Paar können Molekularbiologen nun einen neuen Tipp geben: mit der Nase testen, ob künftig seine Spermien den Weg zu ihrem Ei finden. Der Fruchtbarkeitstest geht so: Sie lässt ihn an Maiglöckchenduft schnuppern. Riecht der Bräutigam nichts, dann hat er sehr wahrscheinlich ein Problem. Nicht nur in seiner Nase fehlt der funktionierende Riechrezeptor für den Maiglöckchenduft, sondern auch auf seinen Spermien. Normalerweise schwimmen diese, quasi immer nur der Nase nach, zum Maiglöckchenduft verströmenden Ei. Ist der Duftrezeptor der Spermien defekt, dann geht es ihnen wie einem Radio ohne Antenne – sie rauschen nur sinnlos herum.….“ (Anm.: diese Forschung geht auf Hanns Hatt von der Ruhr Universität Bochum zurück).

    Es ist wohl vor allem der bereits angedeuteten Komplexität des Geruchsvorgangs zuzuschreiben, dass wir erst so langsam verstehen, wie die zugrunde liegenden Prozesse ablaufen und wie sie in der Natur durch entsprechende Strukturen realisiert sind. Und ohne diese Kenntnis der Baupläne und ihrer Funktionsbeschreibung war es natürlich nur unzureichend möglich, über einen biomimetischen Geruchssensor nachzudenken.


    Anmerkungen der Redaktion

    Glossar

    Chemotaxis: Bewegung von Zellen (Organismen) in Richtung des Konzentrationsgradienten einer chemischen Substanz

    Glucose: einfacher Zucker, der Lebewesen als primäre Energiequelle dient und Lieferant wichtiger Zwischenprodukte im Stoffwechsel ist. Hauptprodukt der Photosynthese, kann aber auch von allen Lebewesen selbst hergestellt werden.

    pH-Wert: Maß für den sauren oder basischen Charakter einer wässrigen Lösung; definiert durch den negativen (dekadischen) Logarithmus der Wasserstoffionenkonzentration (-aktivität). Wasser mit üblicherweise neutralem Charakter hat einen pH-Wert um etwa 7.0. Lösungen mit pH-Werten unter 7 werden als sauer bezeichnet, über 7 als basisch.


     

    inge Thu, 12.01.2012 - 05:20

    Wie wir die Welt um uns herum wahrnehmen — Membran-Rezeptoren als biologische Sensoren

    Wie wir die Welt um uns herum wahrnehmen — Membran-Rezeptoren als biologische Sensoren

    Fr, 05.01.2012 - 04:20 — Inge Schuster

    Inge Schuster

    Icon Biologie

    Dieser Beitrag dient als Einleitung zum Artikel von Wolfgang Knoll: „Die biomimetische künstliche Nase – wie weit sind wir?“, der in mehreren Teilen in den nächsten Wochen erscheinen wird.

     

    Der letzte Beitrag von Gottfried Schatz im Science-Blog „Wie Gene und chemische Botenstoffe unser Verhalten mitbestimmen“ hat sich mit der Kommunikation von Nervenzellen beschäftigt. Diese erfolgt mit Hilfe kleiner chemischer Moleküle – Botenstoffen – die von einer elektrisch angeregten Senderzelle ausgestoßen werden, an spezifische Rezeptoren von Empfängerzellen andocken und mittels dieser Rezeptoren die Auslösung elektrischer Signale bewirken. Der Signaltransfer hängt von Art, Eigenschaften und individuellen Varianten der Rezeptoren ab, ebenso wie von denen der Proteine, die Synthese und Metabolismus der Botenstoffe bewirken.

    Rezeptoren finden sich nicht nur auf Nervenzellen. Alle Zellen, von Einzellern bis zu den Zellen hochkomplexer Organismen, sind auf ihrer Oberfläche mit einer Vielfalt derartiger, hochspezifischer Sensoren ausgestattet, mit deren Hilfe sie miteinander kommunizieren und ebenso. unterschiedlichste Informationen aus ihrer Umgebung aufnehmen und auf deren Reize reagieren. Rezeptoren kontrollieren praktisch alle unsere physiologischen Funktionen, beginnend bei unseren Sinnesempfindungen, indem sie optische und akustische Reize, Reize des Riechens, Schmeckens und Tastens verarbeiten, Temperatur, Druck und räumliche Orientierung wahrnehmen -, bis hin zu komplexen, für die Entwicklung und Homöostase (= Aufrechterhalten eines ausgeglichenen, relativ konstanten Zustand) unseres Organismus essentiellen regulatorischen Netzwerken.

    G-Protein gekoppelte Rezeptoren („GPCR“s) – die größte und vielseitigste Familie an Membranrezeptoren

    GPCRs sind eine bereits in frühen Lebensformen vorhandene Familie von Membran-Proteinen, deren räumliche Struktur ebenso wie ihr Mechanismus des Signaltransfers über die Evolution konserviert geblieben sind. GPCRs sind offensichtliche Erfolgsmodelle. Seit ihrem ersten Auftreten hat die Natur daraus tausende Isoformen für das „Empfangen und Verarbeiten“ unterschiedlichster Signale entwickelt und damit eine der größten und vielseitigsten Protein-Superfamilien geschaffen. In den meisten Tierspezies stellen GPCRs die größte Proteinfamilie dar: Im menschlichen Genom gibt es beispielsweise mehr als 800 verschiedene Gene – das sind nahezu 4 % des Genoms -, die für unterschiedliche GPCRs kodieren.

    GPCRs leiten Informationen von außerhalb ins Innere der Zelle weiter. Diese Informationen werden durch ein sehr weites Spektrum an Signalen ausgelöst: durch körpereigene Signale wie z.B. Kationen, Hormone, Lipide, Zucker, Neurotransmitter, Wachstumsfaktoren, ebenso wie durch sensorische Signale aus der Umwelt wie z.B. Photonen (Licht), Geruchs- und Geschmacksstoffe. Daraus resultiert eine Schlüsselrolle der GPCRs im Großteil aller unserer physiologischen Funktionen und ebenso in der Wahrnehmung unserer Umwelt.

    Folgerichtig sind inadäquate Expression und/oder Dysfunktion des einen oder anderen Rezeptors auch mit einer Vielzahl an Krankheiten assoziiert. Es verwundert nicht, daß GPCRs zu den erfolgreichsten Zielstrukturen für wirksame Therapeutika wurden: Bis zu 50 % aller heute verschriebenen Arzneimittel wirken über GPCRs, darunter fallen so bekannte Klassen wie z.B. Beta-Blocker, Antihistaminika, Antipsychotika, zahlreiche Schmerzmittel u.v.a.m.

    Als Sensoren für die Umwelt kommt unseren Geruchsrezeptoren offensichtlich besondere Bedeutung zu: Nahezu 400 GPCRs – d.i. die Hälfte aller humanen GPCRs – sind Rezeptoren für Geruchsstoffe, 28 GPCRs vermitteln Geschmacksempfindungen, 4 Rezeptoren optische Signale.

    Wie funktionieren GPCRs?

    GPCR’s sind in der Zellmembran eingebettet, durchdringen diese von der Außenseite bis ins Zellinnere und leiten Signale von außerhalb der Zelle ins Zellinnere weiter. Vereinfacht dargestellt: Jeder GPCR besitzt in seinem zur Außenseite orientierten Teil eine für ein bestimmtes Molekül (Ligand) hochspezifische „Bindungstasche“. Wenn ein Ligand in diese Tasche genau hineinpaßt, bewirkt dies eine Konformationsänderung des Rezeptors, auch in seinem innerhalb der Zelle befindlichen Teil. An dieses intrazelluläre Ende koppelt ein sogenanntes G-Protein, welches durch die Strukturänderung des Rezeptors aktiviert wird, seinerseits nun Effektorproteine aktiviert und damit eine spezifische, vielfach verstärkte Kaskade von Signalen auslöst, die schließlich zur zellulären Antwort führen (Abbildung 1).

    Abbildung 1: Struktur eines GPCR und Signaltransfer

    Kristallstruktur des aktivierten beta-2 -Adrenozeptors Links: Kristallstruktur des aktivierten beta-2 -Adrenozeptors, an den ein G-Protein (Gs) bindet. Der Rezeptor durchquert mit helikalen Segmenten 7x die Zellmembran. Der Ligand bindet im oberen Teil der Transmembran-domänen. An das intrazelluläre Ende ist das aus 3 Untereinheiten (blau, grün, lila) bestehende Gs-Protein assoziiert. (Quelle: PDB 3SN6) Unten: Bindung eines Liganden bewirkt Struktur-änderung des Rezeptors, die eine Aktivierung des G-Proteins auslöst (Austausch GDP gegen GTP) und dessen Dissoziierung in Untereinheiten, die ihrerseits unterschiedliche Signalkaskaden auslösen. (modifiziert nach Sven Jähnichen GNU-FDL, 2006)
    Kristallstruktur des aktivierten beta-2 -Adrenozeptors

    Sensoren nach dem Vorbild der Natur

    Weltweite Grundlagenforschung an einer Vielzahl an GPCRs hat deren essentielle Rolle in physiologischen Funktionen nachgewiesen und die wichtigsten Schritte in den von GPCRs ausgelösten Signalkaskaden auf molekularer Ebene aufgeklärt. Die Ergebnisse dieser Forschungen haben u.a. zu zahlreichen neuen, hochspezifischen und hochwirksamen Arzneimitteln geführt (siehe oben) und zu innovativen therapeutischen Konzepten.

    Aufbauend auf den Erkenntnissen zur Funktionsweise von GPCRs lassen sich diese Prinzipien biomimetisch – d.i. die Natur nachahmend – auch in technische Anwendungen umsetzen. Besondere Bedeutung kommt hier Sensoren zu, die nach dem Vorbild der Photosynthese Lichtenergie in elektrische Energie umwandeln können – etwa die „elektrochemische Farbstoff-Solarzelle“ von Michael Graetzel (http://www.heise.de/tr/artikel/31-Prozent-Wirkungsgrad-sind-mit-intensiver-Forschung-drin-1027456.html) – oder nach dem Vorbild des Riechvorgangs als „künstliche Nase“ unterschiedlichste Gerüche erkennen. Die Anwendungsmöglichkeiten derartiger künstlicher Nasen sind enorm: von der Qualitätskontrolle unterschiedlichster Produkte, Erkennung von Schadstoffen in der Umwelt, Diagnostik von Krankheiten bis hin zu kriminaltechnischen Anwendungen (Aufspüren von Drogen, explosiven Stoffen).

    Zu diesem neuen und innovativen Gebiet biomimetischer Anwendungen erscheint, wie schon eingangs angekündigt, ein detaillierter Bericht über die Grundlagen zur Schaffung künstlicher Nasen und den Status der technischen Umsetzung von Wolfgang Knoll (wissenschaftlicher Geschäftsführer des Austrian Institutes of Technology (AIT)) ab nächster Woche.


    Glossar

    GPCR
    G-Protein gekoppelter Rezeptor
    G-protein
    Guanin-Nukleotid (G) bindendes Protein. Ein aus drei unterschiedlichen Untereinheiten bestehendes Protein, welches in seinem „Ruhezustand“ Guanosindiphosphat (GDP) bindet, in der aktivierten Form GDP durch Guanosintriphosphat (GTP) austauscht. Dieser Austausch führt zur Dissoziation der α-GTP-Untereinheit vom Rest des G-Proteins, die dann auf (membrangebundene) Effektoren stößt – Proteine und diese anschaltet.
    GTP
    Guanosintriphosphat, energiereiches Molekül, das aus der Purinbase Guanin, dem Zucker Ribose und drei Molekülen Phosphat zusammengesetzt ist. Hydrolyse eines Phosphatrestes zu GDP setzt Energie frei. GTP wird im Citrat-Cyclus erzeugt und findet als Energieüberträger Anwendung u.a. im Signaltransfer via G-Proteine, in der Protein Biosynthese, in der Polymerisierung von Tubuli, etc.

     

    inge Thu, 05.01.2012 - 05:20

    2011

    2011 Redaktion Wed, 20.03.2019 - 01:01

    Was ist und was bedeutet für uns die Nano-Biotechnologie? - Ein Diskurs von Karin Saage und Eva Sinner

    Was ist und was bedeutet für uns die Nano-Biotechnologie? - Ein Diskurs von Karin Saage und Eva Sinner

    Fr, 15.12.2011 - 04:20 — Eva Sinner & Karin Saage

    Eva SinnerKarin Saage

    Die „Technik“ als in der ursprünglichen Wortbedeutung Kunstfertigkeit, handwerkliches Geschick, ist etwas, das schon immer zum Menschen gehörte. Schon lange vor der sprichwörtlich gewordenen Erfindung des Rades hat sich der Mensch verschiedener Werkzeuge bedient, um seine Umwelt, aber auch sein eigenes Leben zu verändern. Natürlich immer im guten Glauben an eine Verbesserung.

    Auch die Gegenwart ist schon so sehr von Technik geprägt, dass wir kaum im Stande wären, die Uhr zurückzudrehen. Selbst wenn derartige Phantasien im Moment Konjunktur haben – ein Leben wie vor hundert Jahren wäre ja schließlich kein Leben frei von Technik. Erschaffung des Menschen durch Prometheus

    Am Beginn der Menschheit: Die Erschaffung der Menschen durch Prometheus, den Kreativität, »Technik« (Kunstfertigkeit, handwerkliches Geschick) und die Eigenschaft auszeichnen, das (Nach)denken seinen Handlungen voranzusetzen. Athene hilft indem sie ihre Klugheit und ihr Wissen zur Verfügung stellt (Marmorrelief, 3 Jh bC, Louvre)

    Allerdings zeigen solche Phantasien, wie zwiespältig der Mensch der Technik, die doch wesensmäßig zu ihm gehört, gegenübersteht. Als wolle er mit dem Blick zurück immer wieder seiner ihm zur Verfügung stehenden Technik entfliehen.

    Ein Grund dafür liegt sicher darin, dass in der jüngeren Vergangenheit sich die Biotechnologie als neue Technologie zu verselbständigen und damit immer unbeherrschbarer zu werden schien. Ein neuer Forschungszweig der Biotechnologie, der die kleinsten Bausteine des Lebens thematisiert, ist die Nanobiotechnologie, von „nanos“, dem Zwerg – die Grösseneinheit, die 1000mal kleiner als der Mikrometer ist und damit die Größe von Molekülen beschreibt.

    In Kombination mit den Werkzeugen der Gentechnik, ist es ja sogar eine Hoffnung an die Nanobiotechnologie, dass mit ihr neue Möglichkeiten angegangen werden können, die dem Menschen innovativ helfen und damit wertvoll sein können.

    Die Frage muß also eher lauten: wie kann man die Gesellschaft mit dem Begriff der Nanobiotechnologie anfreunden und nicht eine Ablehnung riskieren, wie es bei Gentechnik und Strahlenforschung durchaus passiert ist? Wie kann man ein Bewusstsein dafür schaffen, dass dieses Forschungskonzept immens potent, aber nicht bedrohlich sein muss?

    Sicher ist ein wichtiger Schritt zu einem positiveren Verhältnis gegenüber der Technik eine breitere Diskussion innerhalb der Gesellschaft darüber, worin das Ziel dieser technischen Entwicklungen bestehen soll.

    Wissen wir denn, was das Optimum für den Menschen ist, zu dem ihm die die aktuelle Forschung verhelfen soll?

    Meistens denkt man bei dieser Frage an das, was sich ein jeder wünscht: Gesundheit, Glück und ein langes Leben. Aber schon bei der Gesundheit fangen die Probleme an. Was ist Gesundheit?

    Heutzutage wird Gesundheit als Freiheit von sämtlichen Schmerzen definiert. Die Akzeptanz gegenüber altersentsprechenden Beschwerden und Makel ist sehr gesunken und bei vielen kaum noch vorhanden. Dass ein langes Leben so ohne weiteres auch nicht Ziel einer Optimierung sein kann, wussten schon die alten Griechen. Als Äos, die Göttin der Morgenröte für ihren Geliebten Tithonos bei Zeus ewiges Leben erbat, um es mit ihm gemeinsam zu verbringen, vergaß sie damit auch den Wunsch nach ewiger Jugend zu verknüpfen. Tithonos alterte immer weiter, ohne je sterben zu können – Ein nicht erstrebenswertes Schicksal, endete er so als zikadenähnliche Daseinsform. Es könnte also einen Kompromiss sein zwischen Lebensqualität und dem Recht, dem Leben zu entkommen, wenn das „Maß“ als voll empfunden wird.

    Mit der Definition des Glückes ist es hingegen schwieriger: letztendlich wird Glück sicherlich von jedem ein wenig anders definiert werden. Und das ist wiederum ein Glück für die Forschung. Es scheinen sich für viele, auch skurril anmutende Technologieentwicklungen, Forscher und Geldgeber zu finden, wie zum Beispiel der Temperaturanzeige durch Farbveränderungen auf Getränkedosen, tragbare Telephone, die photographieren können oder Heimroboter in Hundegestalt. Und Vieles, das noch vor einigen Jahren nicht existent war, ist heute eine Selbstverständlichkeit, und Gefahrenpotentiale (siehe Atomenergie) sind durch die Regulativa der Gesellschaft durchaus als „gezähmte“ Technologien existent.

    Aber es gibt auch technische Entwicklungen, deren ausschließlicher Nutzen unbestritten ist. Es gibt zum Beispiel neue Oberflächenbeschichtungen von Implantaten, die durch ihre Ähnlichkeit mit einer natürlichen Gewebeoberfläche, das Anwachsen bestimmter Zellarten begünstigen und damit stabiler in den Knochen integriert werden als herkömmliche Implantate. Sowohl bei Hüft- als auch bei Zahnimplantaten ist das eine wesentliche Entwicklung, um die Stabilität zu verbessern.

    Wegen der gründlichen Tests ist es grundsätzlich ein langer Weg vom Labor zum Patienten, deshalb ist es auch sehr wichtig, eine breite Basis von Neuentwicklungen zu legen, damit die Wahrscheinlichkeit steigt, dass es einige Forschungsprojekte bis hin zu ihrer Bestimmung in der Gesellschaft schaffen.

    Die Identifizierung neuer Medikamente wird ebenfalls durch die Nanobiotechnologie beeinflusst werden: die Strukturaufklärung von Molekülen des menschlichen Körpers, die für die Wirkung von Medikamenten entscheidend sind durch Erschaffen neuer experimenteller Ansätze in der Proteinforschung. Durch die Kenntnis einer molekularen Struktur können viel gezielter, und damit viel schneller, passende Substanzen gefunden werden, die dann als Medikamente eingesetzt werden können. Damit seien an dieser Stelle nur einige willkürliche Beispiele für die Relevanz und Präsenz technologischer Entwicklungen genannt. Es wird anhand dieser Beispiele noch klarer, wie breit das Spektrum in der Nanobiotechnologie ist und es ist zugegeben fast unmöglich, über alle Fortschritte in allen Gebieten informiert zu sein.

    Ein Blick in Richtung eines möglichen Ursprungs für technologische Entwicklungen gibt mehr Aufschluss über den Platz in unserer Gesellschaft, den die Technik unserer Meinung nach haben sollte.

    Vereinfacht lässt sich sagen, dass es drei Grundmotive für eine technologische Neuentwicklung gibt: wirtschaftliche, gesellschaftliche und „individuelle“. Die gesellschaftlichen und wirtschaftlichen Motivationen sind in jüngster Zeit sehr nahe aneinander gerückt – was wirtschaftlich von Bedeutung ist, findet meist auch in der Gesellschaft eine hohe Akzeptanz und umgekehrt. Ein drittes Motiv ist ein sehr unkontrollierbares und fast als Zufallsereignis zu werten: die persönliche Neugier und Forschungsleidenschaft eines Menschen, der sogar unter widrigen Umständen eine Idee verfolgt. Giordano Bruno, Galileo Galilei oder Sokrates sind hier gute Beispiele für solche Forschernaturen. Die Vorstellung seines Weltbildes war gesellschaftlich extrem unpopulär und dennoch hat er seine Überzeugung bist zur Selbstaufgabe verfolgt. Das ist jetzt ein prominentes und ‚altes’ Beispiel, es würde zu weit führen, alle hier aufzuführen, die praktisch gegen die herrschende Meinung geforscht haben oder durch die Wahl eines abseitigen Themas in einem unpopulären Gebiet geforscht haben.

    Es ist nicht sinnvoll die drei Motive mit einer ethischen und moralischen Wertung zu versehen. Aber es ist sehr wichtig im Sinne der Gesellschaft, die alle drei Quellen letzten Endes trägt, diese Motive zu erkennen und am Leben zu erhalten. Dabei ist letzteres Motiv besonders im Auge zu behalten, da Spitzenforschung, die zu neuen Technologien führt, oft aus unpopulären Nischen zu stammen schien. Diese Art der Forschung an neuen Technologien findet in einer geschützten Atmosphäre statt – entkoppelt von wirtschaftlichen und gesellschaftlichen Motiven.

    Als prominentes Beispiel für so eine „Nische“, in der ein ausgezeichneter Forscher seine Erkenntnisse erzielte, ist hier Gregor Mendel zu nennen, der in einem Klostergarten Grundlagen der Pflanzengenetik erkannt hat. Seine Forschung fand ohne wirtschaftliche Unterstützung und allein aus persönlichen Motiven statt. Es wäre wünschenswert, wenn der individuelle Forscherdrang auch in Zukunft in einer Art Nischenförderung erhalten bleiben könnte, auch wenn das auf den ersten Blick den aktuellen Elitebestrebungen entgegenwirkt.

    Geduld ist etwas, das die Gesellschaft momentan nicht mit der Wissenschaft zu haben scheint. Es werden Programme aufgesetzt und Ziele gesteckt, die gewachsene Ausbildungsstrukturen sowohl an Schulen als auch an Universitäten in kurzer Zeit neu strukturieren wollen – oft mit Vorbildern aus der Wirtschaft. Das mag für manche Bereiche ein geeigneter Ansatz sein, aber tendiert dazu, die Nischen zu eliminieren, in denen langfristig Forschung und Ausbildung stattfindet. Es gibt keine planbare Forschung, da es keine Vorhersehbarkeit von Visionen gibt, aus denen Neuentwicklungen werden können.

    Was planbar ist, ist die Ausbildung wissenschaftlichen Nachwuchses. Ausbildung, auf welcher Ebene auch immer, ist untrennbar mit Forschung verknüpft, und je früher ein Interesse an Naturwissenschaften geweckt werden kann, um so eher entsteht eine Gesellschaft, die in Wechselwirkung mit ihren Forschungeinrichtungen sich über mögliche Ziele austauschen kann sowie eine Gesellschaft, die überhaupt erst motivierte und geeignete Forscher hervorbringt. Dabei ist ein Exkurs über den Ursprung von Forschern aus unserer Gesellschaft im Folgenden nötig.

    Zunächst sei folgende Arbeitshypothese vorgestellt: Wenn die Forscher aus dem gesamten Spektrum der Gesellschaft stammen, werden sie auch Ziele und Visionen haben können, die dann wiederum den vielen Wünschen und Vorstellungen der Gesellschaft entsprechen. Waren es in der Vergangenheit oft die „reinen“ Disziplinen wie zum Beispiel Medizin, Chemie, Physik, Biologie und Mathematik aus denen die Kernentwicklungen hervorgingen, ist es in der Gegenwart mehr und mehr das fächerübergreifende Forschen, aus dem Fortschritt entsteht. Die Bildung einer Kommission aus verschiedensten Gebieten und Disziplinen, um Bewertungsgrundlagen von menschlicher Stammzellforschung in Deutschland zu beurteilen, ist ein Beispiel dafür, wie wichtig das Ringen um einen gesellschaftlichen Konsens ist, schwierige Forschungsentwicklungen fächerübergreifend und gesellschaftskonform beurteilen zu können – es wird auch in Zukunft die Situation geben, dass Forschungsprojekte schnell und kompetent beurteilt werden müssen, die potenziell gefährlich oder aus moralischen und ethischen Gesichtspunkten untragbar erscheinen – ein wichtiger Punkt in der Diskussion um die synthetische Biologie.

    Das ist nicht nur aus Gründen der beiderseitigen Akzeptanz zwischen Forschung und Gesellschaft wichtig. Genauso wie das Sprichwort mit den zwei Seiten einer Medaille, so hat auch die Forschung durchaus bedrohliche Seiten – und sei es auch manchmal nur aus Unkenntnis über die Tatsachen und Hintergründe von Forschungsrichtungen. Wer weiß denn schon in unserer Gesellschaft, was ein Gen eigentlich genau ist, und was die Argumente in der Diskussion um die Gentechnik an Pflanzen so mysteriös werden lässt, dass es offenkundig nur noch „Kontras“ gibt? Es gibt einfach bestimmte Reizworte, die inzwischen von vorne herein negative Reaktionen auslösen, wie zum Beispiel „Genfood“, „Pestizide“, „Tierversuche“. Häufig ist zu diesen Themen eine ausgewogene Diskussion nicht mehr möglich.

    An dieser Stelle wäre ein „science communicator“ sinnvoll. Momentan gibt es bereits eine Anleitung, wie diese Kommunikation von den Wissenschaftlern selbst ausgehen könnte und zwar publiziert von der Europäischen Kommission, 2006. Dieses ist zwar schon ein wichtiger Ansatz, wird aber in unseren Augen nur zum Teil den Effekt haben, dass die Wissenschaft den Elfenbeinturm verlässt. Ein Wissenschaftler kann sich aus verschiedenen Gründen nicht neben seiner Forschung um die Außenwirkung seiner Tätigkeit in aller Konsequenz kümmern. Zum einen ist er nicht dafür ausgebildet, zum anderen fehlt es ihm auch schlicht an der Zeit. Unserer Erfahrung nach ist also ein Forscher oft auf geeignete „Übersetzer“ angewiesen.

    Die Sensibilisierung in Medien, wie Zeitung und Fernsehen für aktuelle Forschungsergebnisse, hat zugenommen, jedoch ist es immer noch eher Zufall, welche Forschungsergebnisse der Öffentlichkeit mitgeteilt werden. Die Pressestellen der Forschungsinstitute müssen in ihrer Position gestärkt werden, um eine bessere Präsenz und Wirksamkeit zeigen zu können. Die Forscher könnten in diesem Bereich der Wissensverbreitung mehr Bereitschaft zeigen, mit Journalisten zu kommunizieren und könnten dafür durch ein Medientraining vorbereitet werden, denn dadurch fänden beide Seiten zu einer gemeinsamen Sprache. So könnte der Gesellschaft ihr aktueller wissenschaftlicher Kenntnisstand durch die bekannten Medien nahe gebracht werden.

    Allerdings muss auch die Gesellschaft, an die die Forschungstätigkeit kommuniziert wird, in der Lage sein, ihr auf Augenhöhe begegnen zu können. Oben genannte, irrationale Reaktionen auf Reizworte entstehen aus Unverständnis und Verunsicherung. An dieser Stelle könnte ein direkter Kontakt zwischen Forschung und Schule eine Perspektive bieten, wie es in jüngster Zeit in Schülerlabors oder auf Wissenschaftsforen geschieht. In diesen Schülerlabors wird Bezug auf aktuelle Forschung genommen und anhand leicht verständlicher Experimente, wie zum Beispiel die Isolation von DNA Molekülen aus Pflanzen, soll das Interesse an Forschung geweckt werden. In Wissenschaftsforen, die in den Zentren verschiedener Städte organisiert werden, wird darüber hinaus ein entscheidendes Grundverständnis vermittelt, das zu einer differenzierten Beurteilung und daraus resultierenden Akzeptanz oder Ablehnung von technologischen Entwicklungen im Alltag führen kann.

    Eine Stärkung der Kommunikation zwischen Gesellschaft und Forschern würde auch ein wenig zur Entkopplung wissenschaftlicher Entwicklungen von rein wirtschaftlichen Interessen beitragen. So soll eben nicht nur die Wirtschaft ihre Bedürfnisse an die Forschung formulieren; es wäre schön, wenn dieses auch die Gesellschaft täte. Wir sollten es eben nicht einfach der Wirtschaft überlassen, konkrete Ziele und Bedürfnisse an die Forschung zu formulieren. Damit wäre sichergestellt, dass Innovationsinitiativen, wie die der Bionanotechnologie, als Ergebnis von Forschungsaktivitäten im Interesse der Gesellschaft in ihrer Mitte einen Platz hat und haben wird. Mit dem Szenario von schon oft propagierten „Hybrid-Androiden“, als Ergebnis der Nanobiotechnologie, lassen wir uns noch ein wenig Zeit auf beiden Seiten: der Forschung, die davon noch weit entfernt ist und der Gesellschaft, die das Bedürfnis noch nicht geäußert hat.

    inge Thu, 15.12.2011 - 05:20

    Das weite Land — Wie Gene und chemische Botenstoffe unser Verhalten mitbestimmen

    Das weite Land — Wie Gene und chemische Botenstoffe unser Verhalten mitbestimmen

    Fr, 08.12.2011- 04:20 — Gottfried Schatz

    Gottfried Schatz

    Icon Biologie

    Unser Charakter wird entscheidend durch die chemische Zwiesprache zwischen den Nervenzellen unseres Gehirns geprägt. Dieses Gesprächsnetz ist so komplex, dass es jedem Menschen seine eigene Persönlichkeit schenkt.

    Die Seele ist ein weites Land“ befand der Schriftsteller und Arzt Arthur Schnitzler, der in seinen Novellen und Dramen Sigmund Freuds Ideen mit aus der Taufe hob. Dieses weite Land der Seele ist jedoch schwer zu fassen, denn Religion, Dichtung, Psychologie und Medizin ordnen ihm jeweils andere Breitengrade zu. Ist es verwegen, dieses Land auch mit dem Kompass der modernen Naturwissenschaft zu erkunden? Darf ein Molekularbiologe auf Seelensuche gehen?

    Dieses Wagnis kann nur gelingen, wenn wir „Seele“ enger als „Verhaltensmuster“ oder „Charaktereigenschaft“ definieren. Erst diese Beschränkung erlaubt die präzisen und überprüfbaren Fragen, an denen Naturwissenschaft ihre Kraft entwickelt. Und in der Tat - diese Kraft gewährt uns bereits atemberaubende Einblicke in die chemischen Vorgänge, die unsere Persönlichkeit prägen.

    Eindrückliches Beispiel dafür waren gesunde Versuchspersonen, die nach Einnahme des Parkinson-Medikaments Dopa (ein Kürzel für Dihydroxyphenylalanin) bei Glücksspielen risikofreudiger wurden. Dies betraf jedoch nur diejenigen von ihnen, die eine seltene Variante eines bestimmten Gens ererbt hatten, das die Übertragung von Signalen zwischen Nervenzellen steuert. Dieses Gen tritt in verschiedenen Formen auf, die leicht unterschiedlich wirken und so das Verhalten eines Menschen gezielt beeinflussen können.

    Nervenzellen verständigen sich untereinander vorwiegend mit Hilfe chemischer Botenstoffe. Meist sind dies einfache kleine Moleküle, wie das mit Dopa eng verwandte Dopamin, die Aminosäuren Glyzin und Glutamat, oder die Aminosäure-Abkömmlinge γ-Aminobuttersäure und Serotonin. Sie werden von einer elektrisch angeregten Senderzelle ausgestossen, wandern zu einer Empfängerzelle, binden sich an spezifische „Rezeptoren“ an deren Oberfläche, und lösen so in der Empfängerzelle ein elektrisches Signal aus.

    All dies spielt sich in nur ein bis zwei Tausendstel einer Sekunde in einem hauchdünnen Spalt zwischen den birnenförmig aufgeblähten Enden der beiden Nervenzellen ab. Die beiden Nervenenden und der sie trennende Spalt bilden zusammen eine „Synapse“, die nach Übertragung des Signals wieder schleunigst vom Botenstoff gereinigt werden muss, um einen gefährlichen Dauerreiz der Empfängerzelle zu vermeiden.

    Wie diese Reinigung erfolgt, hängt vom Botenstoff und von den beteiligten Nervenzellen ab. Manche Nervenzellen warten einfach darauf, dass der Botenstoff durch Diffusion von selbst verschwindet. Für die meisten Zellen ist dieser Vorgang jedoch zu langsam, sodass sie ihn aktiv beschleunigen: Manche Senderzellen saugen den von ihnen ausgesandten Botenstoff wieder auf, während Empfängerzellen ihre Rezeptoren für ihn maskieren können. Rezeptoren und Aufsaugmaschinen sind Proteine; ihr Bauplan ist in den entsprechenden Genen niedergelegt. Die Entschlüsselung der chemischen Struktur unseres gesamten Erbmaterials offenbarte die erstaunliche Vielfalt solcher Gene und damit auch von Synapsen, mit deren Hilfe unser Gehirn seine noch weitgehend rätselhafte Arbeit bewältigt. Wir kennen mehrere Dutzend Botenstoffe und für fast jeden gibt es eine Vielzahl verschiedener Rezeptor- und Aufsaugproteine, die auf den Botenstoff unterschiedlich ansprechen und eine Synapse unverwechselbar charakterisieren.

    Vieles spricht dafür, dass dieses chemische Netzwerk unseren Charakter mitbestimmt. Der Botenstoff Dopamin lindert nicht nur die Leiden von Parkinson-Kranken, sondern kann bei ihnen auch intensive Glücksgefühle, Aggression oder zwanghafte Spielsucht auslösen. Und die Genvariante, die Dopa-behandelten Versuchspersonen erhöhten Wagemut verleiht, enthält den Bauplan für ein spezifisches Rezeptorprotein, über das Dopamin an einen Empfängernerv andockt. Diese Genvariante findet sich auch häufig in impulsiven, rastlosen oder aggressiven Menschen, die Mühe haben, sich über längere Zeit auf ein Thema zu konzentrieren oder sich in eine Gemeinschaft einzufügen. In unserer hoch organisierten Welt ist diese Genvariante meist von Nachteil, doch Nomaden scheint sie Vorteile zu verschaffen; vielleicht schenkt sie ihnen Wagemut und hilft ihnen so, neue Weide- und Jagdgründe zu erobern und Angreifer schneller und mutiger abzuwehren. Dafür spricht, dass diese Gen-Variante erst vor etwa 20'000 bis 40'000 Jahren entstand - also ungefähr zur Zeit, als moderne Menschen Afrika verliessen und nach Nordeuropa vordrangen – und dass sie sich seither in unserer Population behauptet hat. Neuere Untersuchungen haben gezeigt, dass ihre Träger ungewöhnlich bereitwillig sind, asoziale oder finanziell riskante Entscheidungen zu treffen.

    Könnte es sein, dass diese Genvariante die periodischen Finanzkrisen unserer kapitalistischen Gesellschaft mitverschuldet?

    Der Botenstoff Serotonin löst nicht nur, wie das Dopamin, Glücksgefühle aus, sondern beeinflusst auch das Sexualverhalten von Fliegen und Ratten: Verändert man in diesen den Serotonin-Stoffwechsel durch genetische Eingriffe oder Medikamente, so werden die Tiere homo- oder bisexuell. Und eine einzige Mutation in einem Rezeptorprotein für den Botenstoff Vasopressin kann ein monogames Wühlmaus-Männchen in einen passionierten Don Juan verwandeln.

    Synapsen spielen fast überall dort eine Rolle, wo wir mit chemischen Mitteln psychische Krankheiten lindern oder unser Bewusstsein verändern wollen. Antipsychotische Medikamente dämpfen die Signalübertragung durch Dopamin, Serotonin und andere Botenstoffe; LSD löst Halluzinationen aus, weil es sich wie ein „Super-Serotonin“ hartnäckig an einen Serotonin-Rezeptor klammert und so die entsprechende Empfängerzellen übermässig stark und lange anregt. Und die Rauschdroge Kokain verhindert, dass Senderzellen das von ihnen ausgeschüttete Dopamin wieder aufsaugen. Als Folge davon häuft sich dieser glücksspendende Botenstoff in der Synapse an, sodass Kokain-Konsumenten die euphorische Wirkung der Droge bald nicht mehr missen wollen. Um sich gegen diesen Dopamin-Überreiz zu wehren, verringern Empfängernerven die Zahl ihrer Dopamin-Rezeptoren. Sinkt dann bei Kokainentzug der Dopaminspiegel in der Synapse plötzlich ab, so kann diese nicht mehr normal arbeiten und verursacht die gefürchteten Entzugserscheinungen.

    Mut, Glücksgefühl, sexuelle Vorliebe und Sozialverhalten sind zwar wichtige Teile dessen, was wir gemeinhin „Charakter“ nennen, reichen aber bei weitem nicht aus, um diesen erschöpfend zu beschreiben. Und ihre genetische Kontrolle ist bei uns Menschen viel subtiler und komplexer als bei einfachen Tieren. Sie unterliegt einem Netzwerk vieler Gene, in dem jedes Gen nur eine bescheidene Rolle spielt.

    Wir Menschen haben weder ein „Mut-Gen“ noch ein „Monogamie-Gen“, sondern viele Gene, die diese Verhaltensmuster geringfügig, aber statistisch signifikant beeinflussen. Und selbst diese Behauptung steht auf wackligen Beinen, da sie sich in den meisten Fällen nicht auf eindeutige genetische Beweise, sondern nur auf Korrelationen stützt. Dennoch besteht kein Zweifel daran, dass Synapsen die Fäden sind, aus denen die Natur den wundersamen Gobelin unseres Charakters wirkt. Dieser Gobelin verdankt seinen Farbenreichtum der Wechselwirkung der verschiedenen Rezeptor- und Ansaugproteine in unseren Synapsen, über die ein und derselbe Botenstoff eine breite Palette verschiedener Reaktionen und Empfindungen auslösen kann. Da unser Gehirn etwa 10’000 Milliarden Nervenzellen besitzt und jede von ihnen durch 1000 bis 10'000 Synapsen mit anderen Nervenzellen vernetzt ist, steigt die Zahl der möglichen Wechselwirkungen ins Unendliche. Die Balance zwischen den verschiedenen Fäden dieses unvorstellbar komplexen Netzwerks ist zum Teil erblich, kann aber auch durch Umwelteinflüsse verändert werden; sie ist deshalb für jeden Menschen auf dieser Erde – selbst für eineiige Zwillinge – einmalig.

    Sollte es uns je gelingen, alle Fäden dieses Netzwerks zu entwirren und ihre Verflechtung mit Computern darzustellen, so wird die Komplexität dieses Musters alle unsere Vorstellkraft übersteigen. Das Land, von dem Schnitzler sprach, wird wohl auch für Biologen seine geheimnisvollen Weiten wahren.

    inge Thu, 08.12.2011 - 05:20

    HOLZWEGE – Benzin aus dem Wald

    HOLZWEGE – Benzin aus dem Wald

    Fr, 01.12.2011- 04:20 — Gerhard Glatzel

    Gerhard Glatzel

    Icon Wald

    Am 26. November 2011 schreibt „Die Presse“ als Schlagzeile auf ihrer Titelseite:„Klimapolitik ist klinisch tot – Die Verhandlungen über ein globales Klimaschutzabkommen stecken in einer Sackgasse. Ein Ausweg ist auch bei der UN-Konferenz in Durban nicht in Sicht“

    Eine Woche zuvor, am 19. Oktober 2011, hat der österreichische Nationalrat ein Klimaschutzgesetz [1] verabschiedet, das den einzelnen Wirtschaftssektoren ab 2012 verbindliche Einsparziele für Kohlendioxidemissionen vorschreibt. Österreich verpflichtet sich, seine Treibhausgasemissionen bis 2012 um 13 Prozent (gegenüber 1990) sowie bis 2020 um 16 Prozent (gegenüber 2005) zu senken.

    Dieser irritierende Widerspruch veranlasst den emeritierten Waldökologen einmal mehr über Klimaschutzpolitik im Allgemeinen und über die Rolle von Wäldern als Energiequelle und Kohlenstoffspeicher im Speziellen zu reflektieren.

    Klimaschutz: Faktum – Fiktion – Illusion

    Faktum ist, dass sich unser Planet gegenwärtig in einer Phase markanter Klimaerwärmung befindet und diese mit dem Anstieg der Konzentration von Treibhausgasen in der Atmosphäre aus anthropogenen Quellen, insbesondere aus der Verbrennung fossiler Energieträger sowie aus industriellen und agrarischen Aktivitäten, gut korreliert.

    Diese Erkenntnis führte 1992 zur Verabschiedung der United Nations Framework Convention on Climate Change (UNFCCC), einem internationalen Umweltabkommen mit dem Ziel, eine gefährliche anthropogene Störung des Klimasystems zu verhindern und die globale Erwärmung zu verlangsamen sowie deren Folgen zu mildern. Am 11. Dezember 1997 wurde das Kyoto-Protokoll als Zusatzprotokoll zur Klimarahmenkonvention der Vereinten Nationen beschlossen. Das am 16. Februar 2005 in Kraft getretene und 2012 auslaufende Abkommen legte erstmals völkerrechtlich verbindliche Zielwerte für den Ausstoß von Treibhausgasen in den Industrieländern fest.

    Bis Anfang 2011 haben 191 Staaten sowie die Europäische Union das Kyoto-Protokoll ratifiziert, wobei die USA die bedeutendste Ausnahme bilden. Die Aussichten, beim gegenwärtigen 17. UN-Klimagipfel in Durban (Beginn am 28. November 2012) eine wirksame Nachfolgeregelung zum Kyoto-Protokoll zu finden und global verbindliche Vorschriften für die Reduktion des Ausstoßes von Treibhausgasen beschließen zu können, werden als gering eingestuft.

    Fiktion ist, dass die Aktivitäten einer noch immer wachsenden und immer mehr industrialisierten Weltbevölkerung das „Gleichgewicht der Natur“ gestört haben, denn das „Gleichgewicht der Natur“ ist Fiktion. Die Evolution allen Lebens basiert auf Selektion durch sich laufend ändernde Bedingungen der unbelebten und belebten Umwelt. Das auf den griechischen Philosophen Heraklit zurückgeführte „panta rhei“ („alles fließt“) ist eine Metapher für die Prozessualität der Welt. Das Sein ist demnach nicht statisch, sondern als ewiger Wandel dynamisch zu erfassen. Einer der Gründerväter moderner Naturwissenschaft, Gottfried Wilhelm Leibniz (1646 - 1716), betonte in seinen biologischen und geologischen Konzeptionen die Dynamik aller Naturvorgänge.

    Auch das „Leben in Harmonie mit der Natur“ ist eine Fiktion romantischer Naturvorstellung. Dass Goethes „Aber die Natur versteht gar keinen Spaß, sie ist immer wahr, immer ernst, immer strenge; sie hat immer recht, und die Fehler und Irrtümer sind immer die des Menschen“ (Goethe zu Eckermann; Gespräche II) immer wieder zitiert wird, entspricht unserem inneren Harmoniebedürfnis. Wir übersehen dabei aber allzu leicht, dass wir in einer vom Menschen seit Jahrtausenden geprägten Kulturlandschaft leben und unsere Nahrungsmittel und Rohstoffe überwiegend nicht aus natürlichen Systemen beziehen. Wir verdrängen auch gerne, dass der große Dichter J.W. Goethe auch Folgendes geschrieben hat: „Gleich mit jedem Regengusse / Ändert sich dein holdes Tal, / Ach, und in dem selben Flusse / Schwimmst du nicht zum zweitenmal.“ (Johann Wolfgang von Goethe, Band 1: Sämtliche Gedichte. Artemis, Zürich 1950, S. 512).

    Eine weitere Fiktion sind die Harmonie und das Gleichgewicht innerhalb natürlicher Systeme, die immer wieder als Vorbilder für menschliches Handeln angeführt werden. Scheinbare Gleichgewichtszustände sind statistische Mittelungen von meist erbarmungslosen Kämpfen um limitierende Ressourcen und sagen wenig über die Immunität des Systems gegenüber Veränderungen aus.

    Für die Klimaschutzdiskussion verursachte die vereinfachte Argumentation eines für die künftige Entwicklung der Menschheit unverzichtbaren und daher unbedingt zu erhaltenden Gleichgewichtszustandes erhebliche Probleme. Als die Klimaforschung immer mehr harte Daten über die häufig extremen Klimaschwankungen in der älteren und jüngeren Vergangenheit präsentierte, wurde von vielen Bürgern völlig zu Unrecht die gesamte Klimaschutzargumentation angezweifelt. Es rächt sich auch, dass Klimaschutz meist sehr isoliert und singulär existenzbedrohend diskutiert wurde und nicht im Gesamtkontext aller, die gedeihliche künftige Entwicklung der Menschheit bestimmenden Limitationen und Gefahren.

    Illusion ist die Umsetzbarkeit globaler Vorgaben für den Ressourceneinsatz. Während in Durban über verbindliche Nachfolgeregelungen für das auslaufende Kyoto-Protokoll diskutiert wird, sehen wir im Fernsehen Bilder von der Erschließung der Kohlevorkommen der Mongolei und in Mosambik sowie den Einsatz von „Hydraulic-Fracturing“ in überaus ergiebigen neuen Shale-Gas-Feldern. „Global Governance“ als Basis für die einvernehmlichen und gerechte Nutzung der Umwelt und der Ressourcen der Erde ist noch immer Utopie oder wahrscheinlich sogar Illusion. Der große oberösterreichische Heimatdichter Franz Stelzhamer (1802 – 1874) hat es vor 150 Jahren auf den Punkt gebracht: „Oana is a Mensch, mehra hans Leit, alle hans Viech“ (Einer ist ein Mensch, Mehrere sind Leute, Alle sind Vieh).

    Klimaschutzmaßnahmen – Der Teufel liegt im Detail

    Im Vergleich zu früheren Maßnahmen zur Verhinderung oder Verminderung schädlicher Stoffe in der Atmosphäre, die sich an verbindlichen Grenzwerten orientierten, die auf Grundlage wissenschaftlicher Erkenntnisse und technischer Machbarkeit definiert und gegebenenfalls nachjustiert wurden, schlug man bei CO2 und anderen Treibhausgasen den neuen Weg des Emissionshandels ein. Damit wurden Grenzwertüberschreitungen nicht grundsätzlich verboten, sondern verursachen Kosten, weil Emissionsberechtigungen, die von der EU in einem komplexen Regelwerk definiert werden, gekauft werden müssen. Die Erlöse sollen Klimaschutzaktivitäten zufließen.

    Die Möglichkeit im Emissionshandel Geld zu verdienen, wurde von Geschäftsleuten rasch erkannt und führte zu einem breiten Angebot an Investitionsmöglichkeiten, für die Lobbyisten und sektorale Interessensvertretungen in Brüssel und in den nationalen Regierungen werben. Besonders erfolgreiche (oder von Lobbyisten erfolgreich vermarktete) Konzepte schaffen die Aufnahme in Empfehlungen oder Richtlinien der EU. Ein bekanntes Beispiel ist E10, ein für Automotoren vorgesehener Kraftstoff, der einen Anteil von 10% Bioethanol enthält und damit zu den Ethanol-Kraftstoffen zählt. Er wurde 2011 in Deutschland im Zusammenhang mit den Erfordernissen der EU-Biokraftstoffrichtlinie eingeführt, um den fossilen Rohstoffverbrauch und CO2–Emissionen zu reduzieren. Ein anderes Beispiel sind die Richtlinien zur Wärmedämmung von Gebäuden, um den Energieverbrauch für Heizung und Klimatisierung zu senken.

    Grundsätzliches Problem all dieser Maßnahmen ist, dass sie als Einzelmaßnahme Senkungen der treibhauswirksamen CO2–Emissionen bewirken, aber im Gesamtkontext der Ressourcenpolitik oft nicht evaluiert werden. Beispielsweise lässt sich leicht berechnen, um wie viel eine bessere Wärmedämmung den Energiebedarf für einen Haushalt senkt. Es wird aber nicht gefragt, ob die Einsparungen möglicherweise für die Beheizung der Terrasse oder des Swimmingpools verwendet oder vielleicht in energieintensive Fernreisen investiert werden. E10 wiederum erlaubt, weiterhin mit übergroßen Autos zu fahren, weil es keine Grenzwerte für den maximal zulässigen Treibstoffverbrauch pro Personenkilometer gibt. Bekanntermaßen werden die Automotoren zwar effizienter, die Autos selbst aber größer. Bei Biotreibstoffen wurden auch die Auswirkungen auf die Nahrungsproduktion und die Bodennutzung in Entwicklungsländern viel zu wenig berücksichtigt.

    Persönlich sehe ich den Wechsel von Grenzwertregelungen zu Emmissionshandelskonzepten als bisher schwerste Sünde der Umwelt- und Klimaschutzpolitik.

    Biotreibstoff aus dem Wald – ein Holzweg?

    Angesichts der Tatsache, dass Bioethanol der ersten Generation (aus Getreide, Zuckerrohr oder Zuckerrüben gewonnener Äthylalkohol) in Europa nicht in ausreichenden Mengen erzeugt wird, um die Vorgaben der EU-Biokraftstoffrichtlinie zu erfüllen und Angesichts der Konkurrenz zur Nahrungs- und Futtermittelproduktion sowie in Anbetracht des in Summe eher bescheidenen Beitrages zum Klimaschutz, wird Alkohol aus Nahrungs- und Futtermitteln zunehmend als Sackgasse gesehen.

    Kritische Stimmen aus der Entwicklungspolitik, die vor der Verlagerung von Bioethanolproduktion in Entwicklungsländer warnen, haben die Skepsis gegenüber Bioethanol der ersten Generation noch verstärkt. Daher wird in Brüssel jetzt vehement für Bioethanol der zweiten Generation Lobbying betrieben. Das Bioethanol soll dabei aus der gesamten oberirdischen Biomasse von mehrjährigen Pflanzen gewonnen werden, die nicht als Nahrungs- und Futtermittel dienen. Neben mehrjährigen Gräsern wie Chinaschilf (Miscanthus sp.) oder Rutenhirse (Panicum virgatum, ein nordamerikanisches Präriegras), sollen vor allem Energieholzplantagen, meist als Ausschlagkulturen von Weiden und Pappelklonen, den nötigen Rohstoff liefern. Dafür sollen nach den Konzepten der Bioalkoholindustrie bisher als Weide- und Ackerland sowie als Wald genutzte Flächen in Energiepflanzenkulturen mehrjähriger Pflanzen umgewandelt werden.

    Nur wenn die Mitgliedsstaaten der EU diesbezüglich regelkonform agieren, können die für E10 oder höhere Beimengungen benötigten Ethanolmengen in Europa erzeugt werden. Es wird gefordert, dass sowohl für die Landwirtschaft als auch für die Forstwirtschaft entsprechende Anreizsysteme geschaffen werden. Diese könnten aus wertgesicherten langfristigen Absatzgarantien und Steuerbegünstigungen oder Subventionen für die Umwandlung bestehen. Außerdem könnten die Bioethanolwerke die hochmechanisierte Bewirtschaftung der Flächen leisten, sodass der Grundbesitzer keine Geräte anschaffen müsste und keinen Aufwand für die Bewirtschaftung seines Landes hat. Arbeitsplätze in der Bioethanolwertschöpfungskette könnten ein zusätzlicher Anreiz sein.

    Sowohl für Landwirte als auch für Waldbesitzer sind mehrjährige Energiepflanzenkulturen eine neuartige Form der Landnutzung. Für den Landwirt ist ein „Fruchtfolgewechsel“ zwischen mehrjährigen Energiepflanzenkulturen und einjährigen Nahrungs- oder Futterpflanzen wegen der unterschiedlichen Produktionszeiträume und der zur Bewirtschaftung benötigten unterschiedlichen Geräte kaum möglich. Mehrjährige Energiepflanzenkulturen bedeuten also de facto, dass Flächen, die bisher der Nahrungs- oder Futtermittelproduktion dienten, in Zukunft den unersättlichen Energiehunger der Automobile stillen sollen (eine mittlere Tankfüllung entspricht 100 kg Brot).

    Aber auch für den Forstwirt, der traditionell mit langlebigen Holzgewächsen arbeitet, bringt der Umstieg auf Energieholzplantagenwirtschaft massive Änderungen. Dabei ist für Waldbesitzer die energetische Nutzung der Biomasse von Wäldern nichts Neues. Vor der Verwendung fossiler Energieträger und industriell hergestellter Chemikalien wurden 80 – 90 % der Biomasse der Wälder nicht als Sägeholz verwendet, sondern als Brennholz, Holzkohle oder als Rohstoff für Gewerbe und Industrie, allen voran als Pottasche für die Glaserzeugung. Daneben wurde Laubstreu vom Waldboden gesammelt und als Einstreu in Ställen und als Düngemittel in der Landwirtschaft verwendet.

    Als fossile Energieträger Brennholz und Holzkohle vom Markt verdrängten, wurden Forstbetriebe zu Veredelungsbetrieben, die versuchen, möglichst viel des Biomassezuwachses in hochwertige Holzsortimente, vor allem Rundholz für die Sägeindustrie, zu lenken. Heute beträgt der Anteil dieser Sortimente 70 – 80 %. Mit schwächerem Holz wird die Papier- und Zellstoffindustrie bedient und auch dafür nicht geeignetes Holz wird meist in Form von Hackschnitzeln als Heizmaterial verwendet. Darüber hinaus noch Biomasse zu entnehmen, führt rasch zur Nährstoffverarmung und Bodenversauerung, weil gerade Reisig und Blattmasse die höchsten Gehalte an Pflanzennährstoffen aufweisen. Darüber wusste man bereits im 19. Jahrhundert gut Bescheid [2].

    Aufgrund der geringen Mengen und geringen Lagerungsdichte sowie des Transportes über lange Wegstrecken ist Restbiomasse aus konventioneller Waldbewirtschaftung keine Option für die Bioethanolindustrie. Auch aus ökologischen Gründen wäre der Entzug von Reisig und Blattmasse sehr bedenklich, weil damit dem Bodenleben für die Aufrechterhaltung wichtiger Bodenfunktionen unerlässliche Nahrungs- und Energiequellen vorenthalten würden.

    Bioethanol der zweiten Generation kann nach gegenwärtigem Wissensstand nicht in Kleinanlagen am Bauernhof oder dezentral im Forstbetrieb hergestellt werden, sondern nur in Großanlagen, die aus Plantagen innerhalb eines Umkreises von 20 bis 30 km mit Biomasse bedient werden. Das bedeutet, dass Wald in erheblichem Ausmaß in Energieplantagen umgewandelt werden müsste.

    Wenn die gesetzlichen und finanziellen Rahmenbedingungen stimmen, werden Waldbesitzer vermutlich nicht zögern, von der aufwändigen Wertholzproduktion auf Biomasseplantagen umzusteigen, die sehr einfach maschinell zu bewirtschaften sind. Angesichts der sehr langen Produktionszeiträume der traditionellen Forstwirtschaft von bis zu hundert Jahren, werden vielleicht manche Waldbesitzer zögern, weil sie Zweifel haben, dass der Bioethanolmarkt für so lange Dauer gesichert ist. In Wald rückgewandelte Energieholzplantagen liefern nämlich erst nach Jahrzehnten kostendeckende Erträge. Volkswirtschaftlich ist es höchst fragwürdig, von Holz als veredelter Waldbiomasse mit vielfältigem Gebrauchswert und großem Wertschöpfungpotenzial in der Verarbeitung auf rohe Biomasse für die Energiewirtschaft umzusteigen, insbesondere dann, wenn öffentliche Mittel eingesetzt werden müssen, um die geringe Wertschöpfung der Produktion zu kompensieren.

    Bioethanolfabriken der zweiten Generation verwenden die gesamte oberirdische Biomasse von Pflanzen und sind daher prinzipiell effizienter als die Anlagen der ersten Generation, die in Mitteleuropa vor allem Getreide oder Zuckerrüben verarbeiten. Ein weiterer, immer betonter Vorteil mehrjähriger Biomassenkulturen ist der im Vergleich zu Getreide und Rüben längere Erntezeitraum. Energieholzplantagen können theoretisch das ganze Jahr über genutzt werden. Allerdings ist während des Austriebes der Wassergehalt sehr hoch, und im Winter können Reif und Schnee die Ernte und den Transport sehr erschweren. Der Nachteil von Grasbiomasse oder Holzschnitzeln gegenüber Getreide ist, dass diese wegen ihrer geringen Schüttdichte ungleich schwieriger im Ethanolwerk auf Vorrat zu halten sind. Ohne energieaufwändige Trocknung kann sich geschüttetes Hackgut im Freien bis zur Selbstentzündung erhitzen und dabei natürlich erhebliche Mengen an CO2 und anderen Treibhausgasen freisetzen. Ein hinsichtlich des Klimaschutzes möglicher positiver Effekt mehrjähriger Pflanzenkulturen ist die potenziell größere Kohlenstoffspeicherung im Boden. Um die Kohlenstoffsequestrierung umfassend bewerten zu können, muss man allerdings auch die mögliche Ausgasung von Treibhausgasen aus dem Boden unter verschiedenen Boden- und Klimabedingungen erfassen und berücksichtigen.

    Biomasseplantagen müssen wie alle Intensivkulturen gedüngt werden, um die Bodenfruchtbarkeit zu bewahren und hohe Produktivität zu sichern. Energieholzplantagen unterscheiden sich diesbezüglich sehr grundlegend von Wäldern im traditionellen mitteleuropäischen Sinn, die aufgrund des extrem geringen Nährstoffgehaltes des Holzes und der langen Umtriebszeiten ohne Dünger auskommen. In Energieholzplantagen werden ungleich höhere Anteile an nährstoffreichen Pflanzengeweben, wie Rinde und Knospen, entzogen. Daher muss gedüngt werden und man kann bei Biomasseholzplantagen nicht von Wald im traditionellen mitteleuropäischen Sinn sprechen.

    Ausgedehnte Änderungen der Landnutzung von traditioneller Land- oder Forstwirtschaft zu neuen mehrjährigen Biomassekulturen für die Biospritproduktion haben natürlich auch erhebliche Auswirkungen auf die Biodiversität. Mehrjährige Gräser (Miscanthus oder Panicum) und Ausschlagplantagen von Weiden oder Pappeln sind völlig andere Habitate für Wildtiere als konventionelle landwirtschaftliche Felder mit Fruchtwechsel, Weideland oder Hochwald. In großflächigen Monokulturen können Schädlinge und Pflanzenkrankheiten unerwartet zum Problem werden. Mit erheblichen Auswirkungen auf Oberflächen- und Grundwasser ist zu rechnen. Da Pflanzung, Pflege und Ernte der Biomasse hoch mechanisiert sind, müssen sich auch die Menschen in ländlichen Gebieten an die geänderten Arbeitsmöglichkeiten anpassen. Der Transport des Erntegutes auf öffentlichen Straßen ist ein weiterer zu berücksichtigender Aspekt. Natürlich ist auch der Erholungswert der ländlichen Räume von den geforderten Umstellungen betroffen.

    Zusammenfassend meine ich, dass sich auch die Bioethanolproduktion aus mehrjährigen Biomasseplantagen auf umgewandelten land- und forstwirtschaftlichen Flächen als Holzweg erweisen wird. Solange wir nicht gesamthaft über eine Ressourcen schonende Zukunftsentwicklung nachdenken, werden Lobbyisten und Geschäftsleute, die mit Klimaschutz und insbesondere Emissionshandel viel Geld verdienen, versuchen, die Politik für ihre Zwecke zu beeinflussen. E10 ist ein Beispiel dafür. Insgesamt muss es aber das vorrangige Ziel sein, künftig mit weniger Ressourceninanspruchnahme – von der Energie über seltene Erden bis zu Wasser und Boden – auszukommen und knappe Ressourcen klüger zu nutzen. Klare Vorgaben und Grenzwerte würden meiner Meinung nach Innovationen mehr stimulieren als einseitige Fokussierung auf Kohlenstoffemissionen und Emissionshandel. So schwer das Klimaproblem auch wiegt, es ist bei Weitem nicht die einzige Bedrohung, mit der künftige Generationen fertig werden müssen. Einschränkung von unnötigem Ressourcenverbrauch bedeutet automatisch auch Klimaschutz. GG, Wien, 29.11.2011


    [1] Bundesgesetz zur Einhaltung von Höchstmengen von Treibhausgasemissionen und zur Erarbeitung von wirksamen Maßnahmen zum Klimaschutz; BGBl. I Nr. 106/2011

    [2] S. Hausegger: „Intensive Forstwirthschaft und ihre Folgen“, Österreichische Vierteljahresschrift für Forstwesen, XI, 1861, S. 88–104 und 248–277


    Emer. Univ. Prof. Dr. Gerhard Glatzel war Vorstand des Instituts für Waldökologie an der Universität für Bodenkultur in Wien. Forschungsschwerpunkte: Waldernährung, Waldökosystemdynamik und Sanierung von Waldökosystemen, historische Landnutzungssysteme.


     

    inge Thu, 01.12.2011 - 05:20

    Leben am Mars, Neutrinos und ein schmaler Grat…

    Leben am Mars, Neutrinos und ein schmaler Grat…

    Fr, 24.11.2011- 04:20 — Franz Kerschbaum

    Icon Politik & GesellschaftFranz Kerschbaum

    Manche von uns erinnern sich noch an den August 1996, als von einem Tag auf den anderen alle Medien voll mit Sensationsmeldungen zum endlich nachgewiesenen Leben auf dem Mars waren. Am besten gefällt mir immer noch die wunderbare Headline von Täglich Alles am 8. August: „ Also doch: Marsmännchen. Ziemlich klein, 3 Milliarden Jahre alt — leider tot“.

    Der deutlich sachlichere Artikel in der Presse „Auf der Suche nach Geschwistern im All“ vom 9. August wurde ironisch mit Meister Yoda aus Star Wars illustriert. Die kritischeren Geister mahnten ein Déjà-vu der Anfang des 20. Jahrhunderts von Percival Lowell [1] verursachten Mars-Hysterie ein — doch es half nichts, Zeitungen, Magazine, TV- und Radioformate waren über Wochen voll mit immer spekulativeren Beiträgen zum vermeintlichen Leben am Mars.

    Was war geschehen? Am 7. August 1996 stellte die NASA in einer Pressekonferenz bzw. Aussendung [2] der staunenden medialen Öffentlichkeit die sensationellen Ergebnisse einer Untersuchung des Marsmeteoriten ALH84001 vor [3]. Aus mikroskopischen und chemischen Evidenzen schlossen die Forscher in Science: “Although there are alternative explanations for each of these phenomena taken individually, when they are considered collectively, particularly in view of their spatial association, we conclude that they are evidence for primitive life on early Mars.” In der NASA-Pressekonferenz klang dies aus dem Munde einer der Autoren, Richard Zare weniger vorsichtig: “The existing standard of proof, which we think we have met, includes having an accurately dated sample that contains native microfossils, mineralogical features characteristic of life, and evidence of complex organic chemistry."

    Selbst das war für die Medien nicht explizit genug. Am besten erhellt der schon am 8. August (!) in der Baltimore Sun erschienene, geradezu hellsichtige Cartoon von Kevin Kallaugher die mediale Rezeptionsgeschichte. Kevin KAL Kallaugher: Life on Mars

    Cartoon von Kevin KAL Kallaugher [4]. Der Cartoon erschien erstmals in der Baltimore Sun am 8. August 1996 anlässlich der NASA Pressekonferenz vom 7. August 1996 bei der Wissenschaftler mögliche Anzeichen für vergangenes, mikrobielles Leben am Mars bekanntgaben. Wiedergabe mit Erlaubnis des Künstlers.

    Wie ging die Sache weiter? Schon wenige Monate später erschienen die ersten kritischen Arbeiten, die die einzelnen Indizien für mikrobielle Lebensspuren in ALH84001 auch durch anorganische Prozesse erklärten. Heute ist von der damaligen Euphorie wenig übrig und ALH84001 in der Scientific Community eher ein warnendes Beispiel für allzu „aufgeregte“ Pressearbeit. Die weiteren kritischen Arbeiten zu ALH84001 haben ohne NASA-Rückenwind mit wenigen Ausnahmen [5] keinen Platz mehr in populären Medien gefunden.

    Die Moral von der Geschichte: Insbesondere bei Themen mit echtem „Sensationspotential“ werden Wissenschaftler, oft finanziell oder organisatorisch abhängig und eingespannt in professionelle PR-Maschinerien wie der der NASA leicht verführt, bei ihren Aussagen den schmalen Grad wissenschaftlicher Seriosität mit all der nötigen Differenzierung zu Gunsten eines schnellen Medialen Ruhms zu verlassen. Medien greifen dies nur allzu gerne für marktschreierische Schlagzeilen und ebensolche Beiträge auf.

    Haben die an wissenschaftlicher Öffentlichkeitsarbeit Beteiligten, die Wissenschaftler und Forschungsinstitutionen einerseits und die Medien andererseits nun etwas daraus gelernt?

    Wie mir scheint, zumindest ein klein wenig.

    Vor wenigen Wochen, ab dem 23. September 2011 waren die Medien wieder einmal voll mit „bahnbrechenden“, „revolutionären“ Meldungen wie: „Hat Einstein geirrt?“, „Physiker rätseln: Relativitätstheorie widerlegt?“ und ähnlichem. Meist waren selbst in der Boulevardpresse [6] zumindest Fragezeichen dabei, als über die von CERN [7] stolz präsentierten vorläufigen Ergebnisse [8] zu möglicherweise überlichtschnellen Neutrinos berichtet wurde. CERN spielte vorsichtig aber doch mit dem verlockenden Sensationspotential: “If this measurement is confirmed, it might change our view of physics, but we need to be sure that there are no other, more mundane, explanations. That will require independent measurements.” oder “The potential impact on science is too large to draw immediate conclusions or attempt physics interpretations.” Während sich die weitere Fachwelt nach einer kurzen Schrecksekunde unaufgeregt auf die Fehlersuche [9] machte, wurde in den nächsten Tagen und Wochen in Kommentaren und Blogs weiter wild spekuliert . Mittlerweile wurde die Arbeit nach weiteren Tests der Autoren bei Science offiziell eingereicht [10].

    Was weitere wissenschaftliche Arbeiten ergeben werden, wissen wir sowohl beim (vergangenen) Leben auf dem Mars als auch bei der (zu hohen?) Geschwindigkeit der Neutrinos nicht – beides zweifelsohne spannende Fragen der gegenwärtigen Forschung mit „Sensationspotential“. In jedem Fall zeigen uns diese und vergleichbare andere mediale Rezeptionsprozesse, wie schmal der Grat zwischen differenzierter wissenschaftlicher Öffentlichkeitsarbeit und Sensationsmache ist.

    Und uns Forscherinnen und Forschern sei wieder einmal die alte Forderung “Extraordinary claims require extraordinary proof.“ von Marcello Truzzi ins Stammbuch geschrieben…


    Quellen und Einzelnachweise

    [1] http://query.nytimes.com/mem/archive-free/pdf?res=F1071FFE3C5512738DDDA00894DA415B868CF1D3 (Seite nicht mehr verfügbar)

    [2] http://nssdc.gsfc.nasa.gov/planetary/text/mars_life.txt

    [3] http://www.earth.northwestern.edu/people/seth/351/search.life.pdf (Web Archive)

    [4] http://www.kaltoons.com

    [5] http://www.usatoday.com/tech/science/space/2006-08-06-mars-life_x.htm

    [6] http://www.krone.at/Wissen/Physiker_raetseln_Relativitaetstheorie_widerlegt-Neutrinos_verblueffen-Story-297080

    [7] http://public.web.cern.ch/press/pressreleases/Releases2011/PR19.11E.html (Web Archive)

    [8] http://arxiv.org/abs/1109.4897

    [9] http://www.nature.com/news/2011/111020/full/news.2011.605.html

    [10] http://news.sciencemag.org/scienceinsider/2011/11/faster-than-light-neutrinos-opera.html (Web Archive)

    inge Thu, 24.11.2011 - 05:20

    Zu Wirkung und Nebenwirkungen von Medikamenten

    Zu Wirkung und Nebenwirkungen von Medikamenten

    Fr, 17.11.2011 - 04:20 — Inge Schuster

    Icon MedizinInge Schuster

    In der zentralen, hochromantischen Szene des Freischütz werden in der Wolfsschlucht Zauberkugeln gegossen, die nie ihr angepeiltes Ziel verfehlen. Die Treffsicherheit derartiger Zauberkugeln hat Paul Ehrlich, der Vater der Chemotherapie, vor rund hundert Jahren als Vision auf die erwünschte Wirkungsweise von Medikamenten übertragen.Ausgehend von den Versprechungen der damals noch jungen Chemie formulierte er: „Wir müssen chemisch zielen lernen“ und meinte damit, daß Medikamente spezifisch an den jeweils relevanten Krankheitserreger und nur an diesen andocken dürften. Dies bedeutete in den von ihm konkret behandelten Projekten: „Das Abtöten von Parasiten ohne erhebliche Schädigung des Organismus“.

    Nach wie vor ist es oberstes Ziel der Pharmaforschung Arzneimittel zu finden, die bei einer angestrebten Wirkung frei sind von unerwünschten Nebeneffekten. Dies konnte aber weder zu Zeiten Ehrlichs verwirklicht werden (Ehrlich hatte mit Salvarsan zwar das erste wirksame Mittel gegen Syphilis gefunden, allerdings zeigte dieses erhebliche Nebenwirkungen) noch mit unseren heutigen Mitteln. Jeder Arzneistoff bindet im Organismus an eine Vielzahl von Strukturen und kann deren Eigenschaften modulieren. Das Spektrum der daraus resultierenden Nebenwirkungen reicht von harmlosen Effekten, manchmal auch durchaus positiven Begleiterscheinungen, bis hin zu schwer-und-schwerstwiegenden negativen Auswirkungen.

    Die Weltgesundheits-Organisation (WHO) faßt dies in wenigen Sätzen zusammen [1]: “All medicines have side effects and some can be damaging. The effects of any treatment with a medicine cannot be predicted with absolute certainty. All medicines have both benefits and the potential for harm. People in every country of the world are affected by adverse drug reactions (ADRs). Unintended, harmful reactions to medicines – ADRs - are among the leading causes of death in many countries.”

    Wie häufig treten schwere und schwerste Nebenwirkungen von Arzneimitteln (ADRs) auf?

    Sehr umfangreiche Studien in den USA und England geben an, daß rund 6,6% aller Aufnahmen in Spitäler auf Grund von ADRs erfolgen [2]. Von den Patienten, die bereits wegen anderer Ursachen in stationärer Behandlung sind, erleiden rund 15% Nebenwirkungen, deretwegen sich der Spitalsaufenthalt bedeutend verlängern kann [3]. Vergleichbare Zahlen kommen aus vielen anderen Ländern, vergleichbar sind diese auch hinsichtlich schwerster, zum Tod führender Nebenwirkungen, die an 4.- 6. Stelle der Todesursachen rangieren [3, 4]. Berücksichtigt man, daß Nebenwirkungen bei Patienten in ambulanter Behandlung nicht ausreichend dokumentiert werden, dürfte das gesamte Problem noch wesentlich gravierender sein.

    Welche Maßnahmen können getroffen werden um die für betroffene Patienten höchst schädigende, für Institutionen und natürlich auch Leistungsträger höchst unbefriedigende Situation zu verbessern?

    Nach Meinung der WHO sollten zumindest 60% der ADRs vermeidbar sein. Deren Ursachen sind u.a:

    1. eine fehlerhafte Diagnose und damit die Verschreibung einer falschen Medizin oder falschen Dosis einer an und für sich richtigen Medizin,
    2. das Nichteinhalten der Anweisungen zur Anwendung eines Arzneimittels („Non-Compliance“),
    3. eine naive Selbstbehandlung mit Arzneimitteln und
    4. die individuelle genetische Prädisposition des Patienten [1].

    Wenn man an diesem multifaktoriellen Rad in Richtung Reduktion von ADRs drehen möchte, kann dies – abgesehen von Fehldiagnosen und Schlampereien – durch bessere Information des Patienten (in einer ihm verständlichen Sprache) geschehen, mit dem Hinweis auf Nutzen und Risiken der empfohlenen Behandlung. Darüber hinaus sehe ich vor allem Chancen in der Berücksichtigung des individuellen genetischen Make-ups eines Patienten, welches Konzentration und Verweildauer eines Arzneimittels im Körper bestimmt und – damit z.T. zusammenhängend – in der Vermeidung von Mehrfach-Medikationen.

    Was geschieht mit Fremdstoffen im Allgemeinen und Arzneistoffen im Besonderen im Organismus?

    Unser Organismus, wie auch der aller höherer Lebewesen, ist permanent einer ungeheuren Vielfalt und Vielzahl an Fremdstoffen aus Umwelt und Nahrung ausgesetzt, die über Kontakt mit der Körperoberfläche, über das Verdauungssystem oder über die Atemwege in den Organismus gelangen können. In besonderem Maße sind kleine, fettlösliche (lipophile) Fremdstoffe geeignet sich in Fettgewebe und in den Lipid-Membranen, die Zellen und Organellen innerhalb der Zellen umschließen, einzulagern. Ohne einen entsprechenden Schutzmechanismus würde dies zu einer enormen Akkumulation derartiger lipophiler Verbindungen führen und daraus resultierend zum Versagen von Zell-und Organfunktionen.

    Im Laufe der Evolution haben Organismen eine Reihe von Enzymen – Katalysatoren – entwickelt, die lipophile Fremdstoffe in zunehmend wasserlösliche Produkte (Metabolite) verwandeln können, welche eine geringere Akkumulation in Zellen zeigen und leichter aus dem Organismus ausgeschieden werden können (Abbildung 1).

    Metabolisierung lipophiler Fremdstoffe (schematisch)Abbildung 1. Fettlösliche (lipophile) Fremdstoffe (türkis), die in Zellen eintreten und sich darin anreichern, werden zu wasserlöslicheren, weniger akkumulierenden Metaboliten (grün) umgewandelt.

    Im Prinzip ist dieses Set an Enzymen imstande, jedes bereits vorhandene und auch jedes in Zukunft noch zu synthetisierende Molekül zu Produkten umzuwandeln, die den Organismus über die üblichen Ausscheidungswege (Urin, Kot) verlassen können. (Nur wenige Typen von Molekülen, wie z.B. die Dioxine, leisten diesen Enzymen Widerstand, reichern daher bei fortgesetzter Exposition mehr und mehr im Organismus an und führen zu dessen massiver Schädigung).

    Für die Fähigkeit verschiedenartigste Fremdstoffe metabolisieren zu können, bedarf es keiner sehr breiten Palette an unterschiedlichsten Enzymen, es genügt eine relativ kleine Gruppe, die sehr breite, zum Teil überlappende Spezifitäten für derartige Substanzen aufweisen. Eine besonders wichtige Rolle spielen dabei Enzyme aus der sogenannten Cytochrom P450 Familie (Eine Familie von Proteinen, die bereits in den primitivsten Lebensformen vorhanden waren und deren Struktur und Funktion über die Evolution konserviert wurde). Diese Enzyme (CYPs) sind für die Umwandlung von mehr als 75% aller lipophilen Fremdstoffe und damit auch für den Großteil an Arzneistoffen verantwortlich.

    CYPs finden sich in praktisch allen Organen, besonders viel davon sitzt in Organen wie Leber und Darm, die über die Nahrungsaufnahme primär sehr hohen Konzentrationen an Fremdstoffen ausgesetzt sind. Für den Metabolismus der gebräuchlichen Arzneimittel sind - abhängig von deren jeweiligen Strukturen - nur wenige CYP-Formen verantwortlich (Abbildung 2): Der Großteil aller Pharmaka – vor allem relativ große Moleküle – werden von CYP3A4 umgewandelt, rund 20% von CYP2D6 und ein vergleichbarer Anteil von den nahe verwandten CYPs 2C9 und 2C19.

    Metabolisierung von PharmazeutikaAbbildung 2. Nur wenige CYP-Formen sind für den Metabolismus aller gebräuchlichen Arzneistoffe verantwortlich.

    Konsequenzen der Metabolisierung von Arzneimitteln

    Die Metabolisierung von Arzneistoffen führt zu einer Veränderung des Molekülcharakters und damit in den meisten Fällen zum raschen Verlust der erwünschten pharmakologischen Wirkung. Es hängt daher von der vorhandenen Menge und Aktivität der CYP-Formen ab, wie stark ein Medikament wirkt und wie lange seine Wirkung anhält.

    Werden – wie es häufig der Fall ist – mehrere unterschiedliche Medikamente gleichzeitig angewandt, die über dieselbe CYP-Form metabolisiert werden, so konkurrrieren diese um dieses Enzym (sogenannte drug-drug interactions) und können sich gegenseitig in ihrem Abbau beeinträchtigen. Langsamerer Metabolismus führt zu längeranhaltenden höheren Konzentrationen und damit zu längerer Wirkung, steigert aber – entsprechend einer „Überdosierung“ – das Risiko für unerwünschte Nebenwirkungen.

    Mehrfachmedikationen spielen eine besonders große Rolle bei Spitalspatienten (denen manchmal auch mehr als 15 unterschiedliche Medikamente pro Tag verabreicht werden) und ebenso auch bei Senioren aufgrund steigender Morbidität. Bei erhöhtem Substrat-Angebot können CYPs zwar verstärkt synthetisiert (induziert) werden, jedoch oft nicht ausreichend für Multi-Medikationen. Zunehmend demonstrieren Studien die klinischen Auswirkungen der drug-drug interactions, die besonders ausgeprägt sind, wenn es sich um die Konkurrenz für das CYP2D6 handelt. Dieses Enzym ist nur in relativ niedriger Konzentration vorhanden, aber für den Metabolismus von rund 20% aller gebräuchlichen Pharmaka verantwortlich (Abbildung 2), darunter befinden sich überaus wichtige, häufig gleichzeitig angewandte Klassen von Schmerzmitteln, Antidepressiva, Antipsychotika, Antiarrhythmika und Beta-Blockern.

    Menschen unterscheiden sich in der Art und Weise, wie sie mit Arzneistoffen umgehen.

    Ein besonderes Problem resultiert aus der genetischen Ausstattung einzelner Patienten. Gene der CYP-Enzyme weisen sogenannte Polymorphismen auf, d.h. es gibt Genvarianten die für CYP-Formen kodieren, deren Spektrum von nicht-funktionsfähigen über (normal-) funktionierende zu extrem rasch funktionierenden Enzymen reicht [5]. Je nachdem welche dieser Formen ein Mensch in seinem Genom geerbt hat, reagiert er in unterschiedlicher Weise auf Medikamente (und andere Fremdstoffe).

    Von gravierender klinischer Bedeutung sind hier die Polymorphismen des oben bereits erwähnten CYP2D6: Bis zu 10% der Bevölkerung besitzen kein funktionsfähiges Enzym, d.h. sie können entsprechende Medikamente nicht oder nur sehr langsam (über andere Enzyme) abbauen, das Risiko für Nebenwirkungen ist damit hoch, insbesondere bei (der häufig entbehrlichen) Multi-medikation (siehe oben). Eine ebenso große Bevölkerungsgruppe besitzt ultra-rasch metabolisierende CYP2D6-Formen, d.h. entsprechende Medikamente werden zu rasch abgebaut und können teilweise überhaupt nicht ihre Wirkung entfalten. Was dies für die Therapie mit den oben angegebenen Medikamenten bedeutet, braucht wohl nicht näher angeführt werden.

    Pharmakogenetische Tests zur Erhöhung der therapeutischen Wirkung und Vermeidung von Nebenwirkungen

    Die junge Wissenschaft Pharmakogenetik untersucht den Einfluß des genetischen „Make-ups“ von Patienten auf Wirkung und Nebenwirkungen von Pharmaka. Als prominentes Beispiel für die erfolgreiche Anwendung pharmakogenetischer Methoden, wird in Fachliteratur und Populärliteratur die Testung auf Genvarianten von CYPs angeführt. Hier ist bereits seit mehreren Jahren ein Bio-Chip am Markt, der es erlaubt, auf die häufigsten Genvarianten von CYP2D6 (und auch CYP2C19) zu prüfen. Dieser Test ist mit rund 1000 € zwar nicht billig, erlaubt es aber einem großen Teil der Untersuchten festzustellen, welcher Gruppe von „Metabolisierern“ sie angehören. Mit dieser Information kann einerseits die Verschreibung von Medikamenten vermieden werden, die schlecht oder gar nicht metabolisiert würden und damit zu schweren Nebenwirkungen führen könnten. Andererseits kann hier und auch im Falle von ultra-rasch Metabolisierern durch entsprechende Adjustierung des Dosierungsschemas die erwünschte Wirkung bei gleichzeitig gemindertem Risiko für schwere Nebenwirkungen erzielt werden.

    Die Übernahme der Kosten derartiger Testungen durch öffentliche Kassen sollte für unser Gesundheitssystem prioritäre Bedeutung haben: Patienten würden entscheidend profitieren, wenn sie nicht mehr mit der Wirkung schwerste Nebenwirkungen riskierten oder ein Medikament nach dem anderen auszuprobieren bräuchten, bis endlich eines wirkte. Es würden aber auch die Kosten für das Gesundheitssystem bedeutend sinken, infolge reduzierter Ausgaben für Medikamente ebenso wie infolge insgesamt reduzierter Behandlungskosten.


    Einzelnachweise und Quellen:

    [1] WHO (2008): http://www.who.int/mediacentre/factsheets/fs293/en/

    [2] Pirmohamed M, et al (2004): Adverse drug reactions as cause of admission to hospital: prospective analysis of 18 820 patients. Bmj 329: 15–19

    [3] Pirmohamed M. (2010) Drug-drug interactions and adverse drug reactions: separating the wheat from the chaff. Wien Klin Wochenschr 122:62-64

    [4] Lazarou J, et al., (1998) Incidence of adverse drug reactions in hospitalized patients: a metaanalysis of prospective studies. Jama 279: 1200–1205

    [5] Ingelman-Sundberg M, et al., (2007) Influence of cytochrome P450 polymorphisms on drug therapies: Pharmacogenetic, pharmacoepigenetic and clinical aspects. Pharmacol Ther 116: 496-526


     

    inge Thu, 17.11.2011 - 05:20

    Gibt es Rezepte für die Bewältigung von Komplexität?

    Gibt es Rezepte für die Bewältigung von Komplexität?

    Fr, 03.11.2011- 05:20 — Peter Schuster

    Icon Biologie Peter Schuster

    Die biologische Evolution schafft komplexe Gebilde und kann damit umgehen.

    Unsere heutigen Gesellschaften sind mit überaus komplexen Problemen in Wirtschaft, Zusammenleben und Auseinandersetzung mit der Natur konfrontiert, deren Ursachen zum Teil der Natur inhärent, zum Teil vom Menschen verursacht sind.

    Zweifellos sahen sich aber auch frühere Generationen entsprechend ihrem damaligen Wissensstand nicht weniger komplexen Situationen ausgesetzt. Das stetig steigende Wissen der Menschheit liefert zwar immer mehr Einsichten in Zusammenhänge, welche früheren Gesellschaften verschlossen waren, die zu lösenden Probleme haben aber nicht zuletzt durch die rasante Zunahme der Weltbevölkerung in einem ebenso gewaltigen Ausmaß zugenommen.

    Wenn man beispielsweise den Problemkreis Wetter und Klima betrachtet, so wurden Unwetter, Blitze, Überflutungen und Dürre bis zum Beginn der Neuzeit als Strafmaßnahmen erzürnter Götter oder als Untaten von Hexen und Zauberern interpretiert. Die zum Teil sehr ausgereifte Weltsicht der Mayas versetzte diese zwar in die Lage die Bewegungen der Gestirne mit einer erstaunlichen Präzision vorauszuberechnen und einen äußerst genauen Kalender zu erstellen, verhalf ihnen aber nicht zum dringend benötigten Regen, für den sie dem Regengott Chaac so viele Menschenopfer darbrachten.

    Erst die Physik des ausgehenden 17. und des 18. Jahrhunderts schuf mit der Entdeckung elektrischer Phänomene auch eine neue Basis für die Interpretation der Wettererscheinungen. Benjamin Franklin nutzte diese Kenntnisse und erfand 1752 den Blitzableiter, als er einen Papierdrachen mit Metallspitze in einem Gewitter steigen ließ. Es dauerte allerdings noch zwei Jahrhunderte, bevor eine Theorie der Gewitterbildung und Blitzentladung entwickelt war; die Vorhersagemöglichkeiten, wann und wo ein Blitz einschlagen wird, sind auch heute noch beschränkt. Jedoch war mit dem Blitzableiter eine Schutzmaßnahme möglich geworden, welche viel vom Schrecken der Gewitter genommen hat.

    Die Möglichkeit, komplexe Fragestellungen in Angriff zu nehmen, ließ noch auf sich warten. Vorerst feierte die Physik triumphale Erfolge indem es ihr gelang, komplexe Sachverhalte auf möglichst wenige messbare und kontrollierbare Faktoren zu reduzieren. Die Suche nach dem Einfachen führte zur Entwicklung von Telephon, Radio, Grammophon, Kino, Automobil, Flugzeug, Turbine und vielem anderen mehr. Erst Ende des 19. Jahrhunderts begann mit den Pionieren Ludwig Boltzmann und Josiah W. Gibbs die Erforschung der Physik komplexer Vorgänge.

    Wann bezeichnen wir einen Sachverhalt als komplex?

    Drei Merkmale müssen gleichzeitig zutreffen: (i) die Nichtdurchschaubarkeit, (ii) die Nichtvorhersagbarkeit des Ergebnisses und (iii) die Beeinflussbarkeit des Ergebnisses durch viele Faktoren.

    Darüber hinaus kann Komplexität sich in unterschiedlichen Formen manifestieren: als unorganisierte Komplexität und als organisierte Komplexität (W.Weaver: Science and Complexity. 1948).

    Brownsche Bewegung Hurricane Katrina
    Abbildung 1 - Komplexität: links: Die Brownsche Bewegung als Beispiel für unorganisierte Komplexität (Bild: Christian Bayer, Thomas Steiner, CC-by-SA 2.5); rechts: organisierte Komplexität am Beispiel des Hurrikans Catrina (Bild: NASA 28.8.2005)

    Als Beispiel für unorganisierte Komplexität kann die Bewegung von Molekülen in einem Gas herangezogen werden. Jedes dieser Milliarden und Abermilliarden Moleküle bewegt sich geradlinig, bis es mit einem anderen Molekül zusammenstößt und abrupt die Richtung ändert. Als sogenannte Brownsche Bewegung unter dem Mikroskop sichtbar gemacht, sieht man die Spur eines großen Teilchens, das – gestoßen durch die aus allen Richtungen kommenden Atome – sich wie in einem Irrflug bewegt. (Abbildung 1). Diese („thermische“) Bewegung erscheint regellos, das Kollektiv der Gasmoleküle weist aber eine ganz genau messbare Dichte und Temperatur auf. Die thermische Bewegung ist unter anderem auch verantwortlich für den Temperaturausgleich durch den Wärmefluss zwischen einer wärmeren und einer kälteren Schicht. Unorganisierte Komplexität ist durch statistische Verfahren – heute in Form der statistischen Mechanik ein integraler Bestandteil der Physik – behandelbar und wird nicht mehr den wirklich komplexen Phänomenen zugeordnet.

    „Organisierte Komplexität“ kennen wir in vielen unterschiedlichen Facetten; in ihrer einfachsten Form charakterisiert man sie als das Ergebnis der Selbstorganisation physikalischer Systeme. Zur Illustration als einfaches Beispiel betrachten wir eine Flüssigkeit in einer flachen Schale, die von unten erhitzt wird: Die heiße leichtere Flüssigkeit befindet sich unten, die kalte schwere Flüssigkeit ist oben – ein Ausgleich ist unvermeidbar. Bei geringen Temperaturdifferenzen erfolgt der Temperatur- und Dichteausgleich durch die unkoordinierte thermische Bewegung. Bei größeren Temperaturunterschieden wird diese Form des Ausgleichs zu langsam und die regellose Diffusion wird abgelöst von der Rayleigh-Bénard-Konvektion: an bestimmten Stellen einer Flüssigkeit steigen alle Moleküle nach oben, an anderen Stellen fließen sie nach unten, wodurch der Dichteausgleich rascher bewerkstelligt wird. In der flachen Schale beobachtet man bienenwabenartige Säulchen: Im Inneren der Sechsecke strömt die Flüssigkeit nach oben, an den Rändern nach unten.

    Diese Koordination der Bewegung einzelner Moleküle bei höheren Temperaturunterschieden kann auf die Atmosphäre übertragen werden und hat mitunter fatale Konsequenzen: Bei genügend hohen Bodentemperaturen führen die koordinierten Bewegungen der Luftsegmente zur Ausbildung von Gewittern und unter Umständen zu Tornados. Über sehr warmen Meeresoberflächen können Hurrikans oder Taifune entstehen (Abbildung 1). Die gegenwärtige Atmosphärenphysik stellt eine ausgereifte Theorie für die Entstehung von Gewittern, Tornados und Hurrikans zur Verfügung, kann jedoch (noch) nicht präzise vorhersagen, wann und wo ein Tornado oder ein Hurrikan auftreten wird.

    Organisierte Komplexität – Selbstorganisation - Musterbildung

    Selbstorganisationsprozesse sind überaus weit verbreitet und keineswegs auf Flüssigkeiten und Gase beschränkt (Abbildung 2). Musterbildung gibt es z.B. wenn der Wind über den feinen Sand einer ebenen Wüste streicht und sich erst waschrumpelartige Formen, später wachsende Sandhaufen und schließlich Dünenlandschaften ausbilden. Bergsteigern bekannt sind die von Kühen auf den Abhängen von Almböden ausgetretenen regelmäßigen Pfadmuster („Ochsenklavier“). Von Termiten gebaute Nester erinnern an Miniaturkathedralen. Alle diese Phänomene werden als Ergebnisse von Selbstorganisation interpretiert – hinreichend komplexe Systeme verhalten sich ohne Zutun von außen so, als ob eine ordnende externe Kraft am Werk wäre. Dieses Entstehen von Ordnungen manifestiert sich nur in Kollektiven und kann nicht direkt aus den Eigenschaften und Handlungen der Individuen erklärt werden.

    Sanddünen Termitenbau
    Abbildung 2 - Beispiele für Selbstorganisation: links: Sand Dünen: Murzuq Desert, SW Libya (http://earthobservatory.nasa.gov/ ); rechts: Cathedral Termite Mounds, Northern Territory (photo: Brian Voon Yee Yap, GNU free doc license)

    Selbstorganisation und ihre Mechanismen wurden zu einem zentralen Thema von Physik, Chemie und Biologie des 20. Jahrhunderts. Eindrucksvolle Beispiele für die Entstehung von Mustern bei chemischen Prozessen wurden Anfang der Fünfzigerjahre von Alan Turing, einem englischen Mathematiker und Pionier der Computerwissenschaften vorhergesagt und zur selben Zeit vom russischen Biophysiker Boris Belousov am Beispiel einer komplexen chemischen Reaktion experimentell nachgewiesen. Heute ist die Musterbildung bei chemischen Reaktionen ebenso gut verstanden wie die Kinetik einfacher chemischer Prozesse: Die entstehenden Muster können mit beeindruckender Genauigkeit vorausberechnet werden. Ebenso wie bei den Modellen für die Ausbildung von Tornados oder Hurrikans hängt aber die genaue Vorhersage, wann und wo die Patterns zuerst entstehen werden, von nicht bestimmbaren feinsten Details ab – beispielsweise den molekularen Details der Gefäßoberfläche oder dem Auftreten von winzigen Gasblasen.

    Selbstorganisation lebender Systeme - Reproduktion, Mutation, Selektion

    Computerrechnungen auf der Basis des Turingschen Modells der Musterbildung ergaben erstaunliche Übereinstimmungen mit den in der Natur auf den Fellen, Häuten und Schalen aufgefundenen Färbungspatterns (Beispiele in Abbildung 3). Das Turingsche Modell auf die embryologische Morphogenese bei Insekten und Wirbeltieren übertragen konnte nicht nur viele Phänomene beschreiben, sondern sogar Fehlbildungen bei mechanischen oder chemischen Störungen des Entwicklungsprozesses korrekt vorhersagen. Allerdings hat die molekulare Aufklärung der Entwicklungsgenetik gezeigt, dass die Prozesse, welche tatsächlich im Organismus ablaufen, viel komplizierter sind als in dem chemisch motivierten Turingschen Modell. Informationsaustausch durch Kontakte zwischen den Zellen, organisierter Transport von Molekülen in und aus Zellen und Signalkaskaden tragen ganz entscheidend zu Stabilität und Reproduzierbarkeit der Entwicklungsvorgänge bei.

    Conus textile Cethosia cyane
    Equus quagga
    Abbildung 3: Musterbildung in der Biosphäre auf Schalen, Flügeln, Fellen von Tieren können mit dem Modell der Turingschen Musterbildung simuliert werden. Links oben: Conus textile (Quelle: Richard Ling, 7.8.2005; GNU free license); rechts oben: Cethosia cyane (Quelle: AirBete, 4. 3. 2006; GNU free license); unten Zebras Equus quagga (Quelle: http://www.flickr.com/photos/eismcsquare/97418367/)

    Alle Organismen werden von Beginn ihres Lebens an durch Ablesung und Interpretation der auf Nukleinsäuremolekülen – mit Ausnahme einiger weniger Klassen von Viren den Desoxyribonukleinsäuren (DNA) – verschlüsselt niedergelegten genetischen Information aufgebaut. Die Information kann dabei direkt durch Mendelsche Vererbung von den Eltern an die Nachkommen weitergegeben werden oder sie wird über einen der verschiedenen epigenetischen Mechanismen zusätzlich zu den elterlichen Genen übertragen. Der Übersetzungsschlüssel für die genetische Information ist universell: Alle Organismen sprechen dieselbe Sprache. Vor jedem Vermehrungsschritt wird das DNA-Molekül kopiert. Trotz der unwahrscheinlich hohen Genauigkeit sind Kopierfehler (Mutationen) unvermeidbar. Mutationen sind die Ursache der Vielfalt in der Biologie, und sie bauen auch das Reservoir an Varianten auf, unter welchen der Selektionsprozess wählen kann. Nach dem heutigen Stand des Wissens ist die überwiegende Zahl der Mutationen ohne Auswirkung auf den Organismus („neutrale“ Mutationen) oder nachteilig. Eine wichtige Aufgabe des Selektionsprozesses ist die Eliminierung der nachteiligen Varianten. Die seltenen vorteilhaften Varianten werden durch die Selektion verstärkt und manifestieren sich in den Anpassungen an die komplexe Umwelt.

    Komplexität lebender Organismen. Wie schafft es die Natur mit diesem ungeheuren Grad an Komplexität erfolgreich umzugehen?

    Die Molekularbiologie hat seit ihren Anfängen in den Fünfzigerjahren des vorigen Jahrhunderts die ungeheure Komplexität des molekularen Geschehens in den lebenden Organismen aufgezeigt: Im menschlichen Genom kodieren rund fünfundzwanzigtausend Gene für Proteinmoleküle, welche das komplexe Netzwerk der chemischen Reaktionen des Stoffwechsels zum Laufen bringen und steuern. In unserem Gehirn sind einhundert Milliarden Nervenzellen mit einhundert bis eintausend mal so vielen Verknüpfungen verbunden. Unser Immunsystem kann eine überastronomisch große Zahl von molekularen Erkennungs- und Diskriminierungsakten setzen.

    Das größte Rätsel der Biologie besteht weniger im Ausmaß der Komplexität als in der Tatsache, dass derart komplexe Systeme lebenstüchtig und anpassungsfähig sind. (Denken wir doch nur an die von Menschen geschaffenen komplexen Gebilde in der Politik, Gesellschaft und Wirtschaft. Sie alle tendieren zur Instabilität, wenn sie zu groß werden.) Die Lösung dieses Rätsels ist eng verknüpft mit dem evolutionären Mechanismus von Vererbung, Variation und Selektion. Die Natur entwirft neue Strukturen nicht mit den Augen eines Ingenieurs und hat keine Visionen. Sie löst die bestehenden Probleme durch Basteln (die englischen und französischen Begriffe tinkering und bricolage treffen besser, was gemeint ist). Das „Design“ des menschlichen Körpers ist dafür ein eindrucksvolles Beispiel: Stammesgeschichtlich ursprünglich ein Wurm, der sich durch den wässrigen Schlamm schlängelte, wurde daraus ein Torpedo in Fischform, der rasch durch das Wasser schwimmen konnte und im nächsten Schritt den Flossenantrieb zu Gliedmaßen umfunktionierte als er an Land ging. Schließlich, mit Beinen zur Fortbewegung und Armen für geschicktes Handwerk, richtete sich der umgebaute Torpedo auf (und hatte fortan Probleme mit Gelenken und Wirbelsäule).

    Der Erfolg der evolutionären Methode besteht in ihrer universellen Anwendbarkeit. Variation und Selektion arbeiten mit einfachen Molekülen ebenso wie mit hochkomplexen Organismen (allerdings ist der Vorgang alles andere als ökonomisch, da eine enorme Zahl nicht zweckdienlicher Konstrukte auftreten kann). Worauf es ankommt sind lediglich die drei Grundvoraussetzungen, Vermehrung mit Vererbung, Mutation durch ungenaue Reproduktion und Selektion auf Grund beschränkter Ressourcen.

    Die Evolution einfacher Moleküle findet ihre erfolgreiche Anwendung u.a. in der Evolutionären Biotechnologie, die seit zwanzig Jahren Moleküle züchtet, die z.B. als hochspezifische Diagnostika in der Medizin eingesetzt werden oder als Protein spaltende Enzyme in Waschmitteln. Es fehlt nicht an biologischen Beispielen bei den höchst komplexen Organismen: drei Beispiele für genetisch gesteuerte Begleitentwicklungen der Evolution zum Menschen sind die Verzögerung des Erwachsenwerdens, die Entwicklung eines für menschliche Sprachen geeigneten Kehlkopfs und die besondere Beweglichkeit der Finger für einen diffizilen Werkzeuggebrauch.

    Zum Umgang mit Komplexität

    In der unbelebten Umwelt bedarf es ausreichenden physikalischen Wissens, um komplexen Phänomenen begegnen zu können. Der Blitzableiter war ein Beispiel für eine einfache und wirkungsvolle Problemlösung. Andere Phänomene können zwar perfekt modelliert werden (z.B. Musterbildung bei atmosphärischen Ereignissen wie Hurrikans, Taifune oder Tornados), aber weder verhindert noch – auf Grund der Natur des Problems – mit ausreichender Präzision vorausgesagt werden. Besonders schwierig ist die gegenwärtige Situation im Fall von globalen Klimaänderungen, da die Zahl der beeinflussenden Faktoren sehr hoch ist und deren Zusammenhänge noch nicht ausreichend verstanden sind.

    Eine andere Dimension der Komplexität finden wir in der belebten Natur vor: Die Zahl, der in stark verschachtelten Netzwerken miteinander verknüpften Elemente ist ungeheuer groß und sehr viele Einzelheiten der Interaktionen sind noch unbekannt. Das Rezept, das die Natur hier erfolgreich anwendet um mit diesem Komplexitätsgrad umzugehen, ist der Evolutionsmechanismus.

    Noch um einiges komplexer sind Beispiele aus den menschlichen Gesellschaften, wo eine getätigte Vorhersage die weitere Entwicklung beeinflussen kann. Ein typisches Beispiel einer sich selbst erfüllenden Prophezeiung ist z.B. die Ankündigung eines Kursverlusts von Aktien, die zum Verkauf von Aktien führt und damit zum tatsächlichen Kursverlust. Ein anderes Beispiel aus dem Bereich der Medizin ist der Placebo-Effekt - eine Erwartungshaltung, die mit im Prinzip unwirksamen Verbindungen zu therapeutischem Erfolg führt. Hier müssen Naturwissenschafter und Mediziner mit Psychologen, Soziologen und Nationalökonomen zusammenarbeiten, um ein besseres Verständnis dieser Phänomene zu erreichen und vielleicht auch Rezepte für den Umgang mit diesem höchsten Grad an Komplexität erarbeiten zu können.


     

    inge Thu, 03.11.2011 - 06:20

    Analytische Chemie als Wegbereiter der modernen Biowissenschaften

    Analytische Chemie als Wegbereiter der modernen Biowissenschaften

    Do, 20.10.2011- 04:20 — Günther Bonn

    Icon ChemieGünther Bonn

    Die Analytische Chemie ist ein Teilgebiet der Chemie und beschäftigt sich mit der Identifizierung und Konzentrationsbestimmung von chemischen Verbindungen. Sie hat in den letzten Jahrzehnten zunehmend an Bedeutung gewonnen. Ein Rückblick zeigt, dass es im Laufe der Jahre immer wichtiger wurde, die Zusammensetzung von Stoffen in verschiedenen Bereichen wie z.B. der Lebensmittel- oder Pharmaindustrie aber auch in der Medizin, präziser und empfindlicher bestimmen zu können.

    Damit verbunden ist die ständige Entwicklung von neuen analytischen Methoden, die Einblick in die Zusammenhänge von Molekülen liefern. Die Bedeutung der Analytischen Chemie wird auch durch die steigende Anzahl an Publikationen verdeutlicht (Abbildung 1).

    Publikationen mit Schlüsselwort »Analytik«Abbildung 1: Anzahl der in den letzten 60 Jahren publizierten Artikel mit dem Schlüsselwort „Analytik“

    Die Analytische Chemie ist geprägt von einer rasanten technologischen Entwicklung beginnend im letzten Jahrhundert. Nachfolgende Tabelle 1 gibt einen auszugsweisen Überblick über signifikante innovative analytische Entwicklungsschritte.

    In den letzten Jahrzehnten wurden Trenn­me­tho­den wie die Gas­chro­ma­to­gra­phie (GC) oder die Hoch­lei­stungs­flüs­sig­keits­chro­ma­to­gra­phie (HPLC) entwickelt und optimiert. An dieser Stelle seien Prof. Erika Cremer als Pionierin erwähnt, die 1946 an der Universität Innsbruck mit ihren Dissertanten an der Entwicklung der GC entscheidend mitwirkte und Prof. Csaba Horvath, der an der Yale Universität (USA) in den 60er Jahren mit anderen Kollegen die Hochleistungsflüssigkeitschromatographie-Trenntechnologie entwickelte. Ebenfalls dort wurden Kopplungsverfahren zwischen Trenntechnologie- (HPLC) und Struk­tur­auf­klä­rungs­me­tho­den (Massenspektrometrie – MS) geschaffen, die heute aus den Laboratorien nicht mehr wegzudenken sind. Dafür erhielt Prof. John Fenn 2002 den Nobelpreis für Chemie.

    Jahr Analysenmethode
    1906 Chromatographie
    1930 Elektrophorese
    1937 Rasterelektronenmikroskopie
    1941 Verteilungschromatographie
    1946 NMR-Spektroskopie (NMR)
    1946 Gaschromatographie (GC)
    1950 Massenspektrokopie (MS)
    1960 Röntgenstrukturanalyse
    1963 Hochleistungsflüssigkeits-
    chromatographie (HPLC)
    1976 DNA-Sequenzanalyse
    1987 MALDI-MS
    1987 ESI-MS

    Tabelle 1: Entwicklung wichtiger analytischer Methoden im letzten Jahrhundert

    Insbesondere Fachgebiete der Biowissenschaften (engl. life sciences) benötigen immer empfindlichere und selektivere Methoden, um Mechanismen der Entstehung von Krankheiten oder ganze Krankheitsbilder möglichst früh zu erkennen. Dadurch können kontinuierlich neue Erkenntnisse über molekulare Zusammenhänge komplexer Krankheiten wie Krebs, Diabetes oder Alzheimer gewonnen werden. Ziel ist eine personenbezogene Diagnostik und Therapie. Im Zentrum des Interesses steht dabei die Biomarkerforschung, die sich mit der systematischen Erforschung von Biomolekülen wie DNA, RNA, Peptiden, Proteinen und Metaboliten beschäftigt, um deren Funktion in biologischen Systemen für die Entstehung und den Verlauf von Krankheiten zu untersuchen. Der interdisziplinäre Fachbereich Bioanalytik liefert die erforderlichen Werkzeuge und Methoden zur Lokalisierung und Identifizierung dieser Biomarker. Um im unteren Konzentrationsbereich (attomol=10-18 Mol) Analysen durchführen zu können, ist es insbesondere in der biowissenschaftlichen Forschung und in der Diagnostik notwendig, Moleküle aufzukonzentrieren, um sie dann mit den modernen Trennmethoden und Detektoren, wie z.B. die der Massenspektrometrie zu erfassen.

    Am Institut für Analytische Chemie und Radiochemie der Leopold-Franzens Universität Innsbruck werden seit Jahren innovative Verfahren entwickelt, mit deren Hilfe potentielle Biomarker an modifizierten Trägermaterialien angereichert werden können. Diese Oberflächen sind chemisch so gestaltet, dass nur ganz bestimmte Biomoleküle an ihnen anhaften, sodass eine hohe Selektivität und Empfindlichkeit erreicht wird. Leitet man eine biologische Probe wie Blutserum oder Urin über derartige Trägermaterialien, werden die relevanten Moleküle gebunden und in weiterer Folge einer Identifizierung unterzogen. Die gebundenen Biomoleküle dienen in der medizinischen Diagnostik als Marker für z.B. Tumorerkrankungen oder neurodegenerative Erkrankungen. Die neu entwickelten analytischen Verfahren werden vor allem im Bereich der so genannten Proteomforschung (engl. proteomics) eingesetzt. Die Proteomforschung ist ein noch junger Fachbereich, der sich mit der systematischen Erforschung der Eiweißstoffe in biologischen Systemen beschäftigt. Sie analysiert Art und Menge der vorhandenen Proteine sowie deren Mechanismus.

    In diesem Zusammenhang kommt der Phosphoproteomforschung (engl. phos­pho­pro­teomics) eine große Bedeutung zu, deren Inhalt die Untersuchung von Proteinen ist, die mit einer oder mehreren Phosphatgruppen versehen sind. Das Anhängen und Abspalten von Phosphatgruppen ist einer der wichtigsten Mechanismen zur Feinregulierung zellulärer Abläufe. Auf diese Weise werden Signalwege, die zu Wachstum, Reifung oder Tod einer Zelle führen, durch Phosphorylierungen an- oder ausgeschaltet. Einer der Schlüssel zur Erforschung natürlicher Systeme ist es zu verstehen, welche Proteine, wann, wo und wie oft phosphoryliert werden. Auch bei der Entstehung vieler Krankheiten spielen fehlgesteuerte Phosphoproteine eine entscheidende Rolle. Neue analytische Werkzeuge kommen auch hier zum Einsatz. Für die selektive Anreicherung von phosphorylierten Peptiden und Proteinen wurden spezielle Methoden entwickelt, die auf Basis der Festphasenextraktion beruhen. So wurden bereits 2008 am Institut für Analytische Chemie und Radiochemie Pipettenspitzen inwendig mit einem organischen Polymer ausgekleidet, das von winzigen Kanälen und Poren durchzogen ist (Abbildung 2).

    Modifizierte Pipettenspitze Abbildung 2: Modifizierte Pipettenspitze zur Anreicherung von phosphorylierten Peptiden (A)... Massenspektrum vor (B) und nach der Anreicherung eines enzymatischen Erk1 Protein Verdaues (C). Die zwei phosphorylierten Peptide (m/z 2252 und 2333) können mit Hilfe der Extraktionsspitzen komplett isoliert werden

    In diesem Polymer befinden sich Titan- und Zirkoniumdioxid-Nanopartikel. Diese sind in der Lage, Phosphoproteine zu binden, und zwar spezifischer als das mit bisherigen Materialien möglich gewesen ist. Mit derartigen Pipettenspitzen kann man biologische Proben aufsaugen und die Phosphoproteine bleiben in der Spitze kleben. Der Rest der Probe wird ohne Phosphoproteine wieder entlassen. Mit ähnlichen Methoden lassen sich auch bestimmte Proteine, die in Verbindung mit der Alzheimerkrankheit stehen, selektiv aus Liquor anreichern.

    Ein weiteres innovatives Verfahren zur selektiven Anreicherung von Biomolekülen ist die Entwicklung von chemisch modifizierten DVD Trägern. Dabei wurde eine konventionelle DVD mit einem Diamantfilm so beschichtet, dass an der Oberfläche Biomoleküle selektiv angereichert werden können. Anschließend wird die DVD mit einem Laser beschossen. Dabei wirkt die Diamantschicht als energieabsorbierende Matrix, welche die Biomoleküle vor der Lasereinwirkung schützt. Durch den Laserpuls geraten die Moleküle in die gasförmige Phase und können anschließend in einem Massenspektrometer identifiziert werden. Die Unterseite der DVD dient als Speichermedium der erhaltenen Daten (Abbildung 3). Diamantbeschichteter DVD Träger

    Abbildung 3: Diamantbeschichteter DVD Träger für die Analytik von niedrig konzentrierten Proben. Die DVDs wurden in Kooperation mit der Firma Sony DADC (Anif, Salzburg) entwickelt

    Eine weitere Trennmethode wurde im Bereich der Genomforschung für die Mutationsanalytik von Brustkrebs entwickelt. Mutationen des BRCA1-Gens auf Chromosom 17 erhöhen die Wahrscheinlichkeit einer Tumorbildung, insbesondere für Brustkrebs. Frauen mit einer Mutation in einem der Brustkrebs-Gene haben je nach Literaturquelle ein lebenslanges Risiko von 50-80% an Brustkrebs zu erkranken. Diese Gen-Mutationen können in einem an der Innsbrucker Universität entwickelten Verfahren mit Hilfe der denaturierenden Hochleistungsflüssigkeitschromatographie (DHPLC) und einer speziell entwickelten Trennsäule analysiert werden. In der HPLC werden Proben mit Hilfe eines Laufmittels durch eine mit einer stationären Phase (ein organisches Polymer) gefüllten Trennsäule gepumpt. Dabei werden die Substanzen aufgetrennt und anschließend in einem Detektor analysiert. Im konkreten Fall können die mutierten DNA-Fragmente schnell aufgetrennt und die BRCA1-Mutationen festgestellt werden. Diese Information bietet neue Ansätze für eine personalisierte Medizin, die zielgerichtete und individuell auf die Patienten abgestimmte Therapien ermöglicht. Tausende derartiger Analysegeräte sind derzeit weltweit im Einsatz.

    Eine weitere moderne Entwicklung im Bereich der Flüssigkeitschromatographie (HPLC) ist der Einsatz neuer selektiver Trennmaterialen, die in hauchdünnen (Durchmesser beträgt 200 Mikrometer) Kapillaren zum Einsatz kommen. Es handelt sich dabei um organische Polymere, sogenannte Monolithen, die sowohl über kleine als auch große Poren verfügen. Mit diesen neuen Materialien können erstmals selektiv kleine und große Biomoleküle gleichzeitig getrennt und identifiziert werden.

    Auch auf dem Gebiet der Infrarotspektroskopie wurden in den letzten Jahren in der biowissenschaftlichen Forschung große Fortschritte gemacht. Die Geburtstunde der Infrarotspektroskopie ist eng mit der Entdeckung der Infrarotstrahlung durch Sir William Herschels berühmtes Experiment im Jahr 1809 verknüpft, bei dem das Sonnenlicht mit Hilfe eines Prismas in die verschiedenen Wellenlängenbereiche aufgespalten wurde. In den 50ern des letzen Jahrhunderts wurden schließlich die ersten effizienten Infrarotspektrometer gebaut, welche bereits eine frühe Fingerprintanalytik und Identifizierung von einzelnen Inhaltsstoffen erlaubte, was zu jener Zeit besonders im Bereich der Landwirtschaft von Interesse war.

    Heutzutage sind hochentwickelte Infrarotspektrometer, welche im mittleren (400 – 4.000 / cm) und im nahen (4.000 – 12.000 / cm) Infrarotbereich arbeiten erhältlich, deren Leistungsfähigkeit durch Kombination mit chemometrischen Auswerteverfahren durch leistungsstarke Rechner deutlich erhöht wird. Am Institut für Analytische Chemie und Radiochemie konnte die Spektroskopiegruppe unter der Leitung von Prof. Christian Huck bereits existierende Verfahren weiterentwickeln und für die Bereiche Metabolomics, Proteomics und Materialwissenschaft aber auch für pharmazeutische Anwendungen im Bereich der Heilpflanzen (Phytochemie) etablieren.

    Diamantbeschichteter DVD Träger

    Abbildung 4: Dreidimensionales infrarotspektroskopisches Abbild der Proteinverteilung in der Brennesselwurzel

    Dabei wird auf die Kombination von Trenn- und Anreicherungsverfahren mit infrarotspektroskopischen Methoden gesetzt, was eine deutliche Erhöhung der Selektivität und Sensitivität erlaubt. Diese neuen Methoden ermöglichen eine einfachere und schnellere Identifizierung der zu untersuchenden Spezies, sowie eine präzisere und empfindlichere simultane quantitative Analytik. Durch die Kombination dieser Verfahren mit hochauflösender Mikroskopie kann zudem erstmals die Verteilung von Inhaltsstoffen mit einer Auflösung von bis zu 1.5 µm in 3 Dimensionen erfasst werden. Abbildung 4 zeigt die Verteilung von hochwirksamen Proteinen in einer Brennesselwurzel gemessen mittels Infrarotspektroskopie. Die ständige Entwicklung neuer analytischer Technologien für die biowissenschaftliche Forschung ist vor allem wegen des rasanten Fortschritts auf den Gebieten der Genom- und Proteomforschung von enormer Bedeutung. Der Einsatz derartiger Technologien zeigt auch international hohes Interesse, sodass mittlerweile einige dieser Methoden am Sino-Austrian Biomarker Research Center in China durchgeführt werden, das gemeinsam von den Universitäten Innsbruck und Peking betrieben wird. Die erwähnten Analysemethoden sollen nur als Beispiel für die Bedeutung der Fortschritte auf dem Gebiet der Analytischen Chemie in den Biowissenschaften verstanden werden. Die Erfolge der modernen Biowissenschaften beruhen weitgehend auf der Entwicklung neuer, selektiver und sensitiver Analysemethoden. Diese stellen nicht nur die Grundlage für theoretische wissenschaftliche Forschungen dar, sondern sind auch aus der modernen angewandten medizinischen Forschung und Diagnostik nicht mehr wegzudenken.


    Weiterführende Literatur

    Rainer M. et al.: Analysis of protein phosphorylation by monolithic extraction columns based on poly(divinylbenzene) containing embedded titanium dioxide and zirconium dioxide nano-powders. Proteomics (2008), 8(21), 4593-4602.

    Bonn G. K., Huber C., Oefner P.: Separation of nucleic acid fragments with alkylated nonporous polymer beads. PCT Int. Appl. (1994), 30 pp.

    Wagner T. M. et al.: BRCA1-related breast cancer in Austrian breast and ovarian cancer families: specific BRCA1 mutations and pathological characteristics. International journal of cancer. (1998), 77(3), 354-60.

    Trojer L. et al.: High capacity organic monoliths for the simultaneous application to biopolymer chromatography and the separation of small molecules. Journal of Chromatography, A (2009), 1216(35), 6303-6309.

    Najam-ul-Haq M. et al.: Nanostructured diamond-like carbon on digital versatile disc as a matrix-free target for laser desorption/ionization mass spectrometry. Analytical chemistry (2008), 80(19), 7467-72.

    Huck C.W. et al.: Advances of Infrared Spectroscopic Imaging and Mapping Technologies of Plant Material , PLANTA MEDICA 77, 12, 1257-1258 (2011)

    Lottspeich F.: Bioanalytik. Spektrum Akademischer Verlag, Auflage: 2. 2006. ISBN-10: 3827415209


    Glossar

    Biomarker
    Charakteristische biologische Merkmale, die objektiv gemessen werden können und als Indikator für einen normalen biologischen oder pathologischen Prozess dienen. In der Medizin werden Biomarker zur Erstellung einer Diagnose, Prognose, zum Verfolgen des Krankheitsverlaufs und der Effizienz einer therapeutischen Intervention angewandt (z.B. PSA-Wert bei Prostata-Ca).
    Gaschromatographie (GC)
    Analytische Trennmethode für Substanzgemische, die sich unzersetzt in die Gasphase überführen (verdampfen) lassen. Das gasförmige Gemisch wird mit einem (inertem) Trägergas durch ein sehr langes gebogenes Kapillarrohr geschickt. Je nach ihrem Dampfdruck und den Wechselwirkungen mit dem Trägermaterial der Kapillare erfolgt der Austritt der einzelnen Komponenten zu unterschiedlichen Zeiten und wird mit entsprechenden Detektoren nachgewiesen.
    Hochleistungsflüssigkeitschromatographie (HPLC)
    Analytische Trennmethode mit besonders hohem Trennvermögen bei der ein gelöstes Substanzgemisch auf eine Trennsäule aufgetragen und zusammen mit einem Laufmittel durch die Säule gepumpt wird. Der Austritt der einzelnen Substanzen aus der Säule erfolgt entsprechend der Stärke mit der sie mit dem Material der Säule wechselwirken, der Nachweis mit ensprechenden Detektoren.
    Infrarotspektroskopie (IR-Spektroskopie)
    Analytische Methode der Chemie zur Identifikation, Quantifizierung und Strukturaufklärung von organischen Verbindungen. IR-Spektroskopie beruht auf der Absorption infraroter Strahlung (Wellenlänge 800 nm - 1mm) durch das zu analysierende Molekül; dabei ändern sich dessen Rotations- und Schwingungsenergien.
    Liquor
    Cerebrospinal-Flüssigkeit (= Gehirn-Rückenmarksflüssigkeit: CSF) umfließt das Zentralnervensystem und schützt es gegen Druck und Stöße. Die Zusammensetzung des Liquors ändert sich bei Defekten, wie zB. Entzündungen, Infektionen, Blutungen im ZNS und wird zur Diagnostik herangezogen.
    Massenspektrometrie (MS)
    Methode zur Identifizierung und Strukturaufklärung von Molekülen. Die in die Gasphase überführte Verbindung wird ionisiert und die resultierenden Ionen entsprechend ihres Masse/Ladungs-Verhältnisses (m/z) aufgetrennt und anschließend registriert. Um Substanzgemische aufzutrennen und deren Komponenten zu analysieren, wird der MS häufig eine Trennung durch Gaschromatographie oder Flüssigkeitschromatographie vorgelagert.
    Metabolomics
    Untersuchung der Gesamtheit der biochemischen Stoffwechselprodukte, der an ihrer Entstehung beteiligten Stoffwechselwege (Enzyme) und deren Umsatzraten.
    inge Thu, 20.10.2011 - 05:20

    Des Lebens Bruder — Wie Zellen mit ihrem Selbstmord dem Leben dienen

    Des Lebens Bruder — Wie Zellen mit ihrem Selbstmord dem Leben dienen

    Fr, 27.10.2011- 04:20 — Gottfried Schatz

    Icon BiologieGottfried Schatz

    „Eure Kinder sind nicht eure Kinder. Sie sind die Söhne und Töchter der Sehnsucht des Lebens nach sich selbst“. Der 1931 verstorbene Dichter Khalil Gibran beschrieb mit diesen Worten nicht nur den Drang des Lebens nach steter Erneuerung, sondern auch unser einjähriges Enkelkind so eindringlich, als hätte er es selbst in den Armen gehalten.

    Wer könnte in einem kleinen Kind diese Sehnsucht des Lebens nicht verspüren? Die klaren Augen, die fein geformten Finger und die Versuche des erwachenden Gehirns, die Welt zu deuten, zeigen eindrücklich das Wunder neuen Lebens. Max Klinger (1857-1920): Opus XI, »Vom Tode. Erster Teil«, Der Tod als Heiland. (1898) Max Klinger (1857-1920): Opus XI, »Vom Tode. Erster Teil«, Der Tod als Heiland. (1898)

    Unser Enkelkind ist aber auch ein Geschenk des Todes: in einem wachsenden Organismus lässt er unermüdlich Zellen sterben, um anderen Zellen das Leben zu sichern oder neuen Zellen Platz zu machen. Er half bei der Entwicklung der klaren Augen, weil er sie behutsam von Zellen befreite, die den Weg des Lichts zur Netzhaut behindert hätten. Er entfernte Teile der werdenden Hand, um die Finger zu gestalten. Und er liess im wachsenden Gehirn fast die Hälfte aller Nervenzellen wieder absterben, um Platz für die Verknüpfung neuer Zellen zu schaffen. Er umsorgte das Kind sogar vor dessen Zeugung, weil er die meisten Keimzellen des Vaters vernichtete, auf dass nur eine gesunde der Sehnsucht des Lebens diene. Der Tod, der unser Enkelkind mitschuf, war jedoch nicht der gefürchtete Raffer von Kranken, Alten und Kämpfern, sondern ein Bruder des Lebens, der einzelne Zellen mit sanfter Hand berührt und sie dazu bewegt, sich selbst zu töten.

    Dieser sanfte Tod schlummert in jeder Zelle meines Körpers. Wenn er erwacht, ruft er in der Zelle ein Selbstmordprogramm auf, das fast ebenso wundersam und aufwändig ist wie die Programme, die das Wachstum und die Teilung der Zelle steuern. Unter Anleitung dieses Programms verdaut die Zelle sich selber, verpackt ihre Überreste in kleine Membransäcke und bietet diese streunenden Fresszellen als Beute. Die sterbende Zelle verhindert so Entzündungen des umgebenden Gewebes und verabschiedet sich leise, ohne das Leben um sich zu stören.

    Jedes Jahr töten sich in meinem Körper fast die Hälfte aller Zellen, um mich am Leben zu erhalten. Einige Zellen töten sich aus eigenem Antrieb – wenn ihre Atmungsmaschinen versagen, oder ihr Erbmaterial geschädigt ist. Der Anstoss dafür kommt meist von den Atmungsmaschinen selbst, die kurz vor ihrem Zusammenbruch Proteine ausscheiden, welche die Zelle als SOS Signale erkennt. Der Befehl zum Selbstmord kann aber auch von aussen kommen. Erkennen meine Immunzellen, dass eine Körperzelle von einem Virus befallen ist, befehlen sie ihr, sich zu töten, um ein Ausbreiten des Virus zu verhindern. Auch diese Immunzellen hat der sanfte Tod mitgestaltet: Als sie zu Abermilliarden in meinem Knochenmark entstanden, hätten viele von ihnen auch meinen eigenen Körper angegriffen und zerstört. Meine Thymusdrüse spürte sie jedoch rechtzeitig auf und zwang sie zum Selbstmord. Dank dieser Auslese bin ich zwar gegen fremde Eindringlinge geschützt, kann aber auch hoffen, von Autoimmunerkrankungen wie Multiple Sklerose oder Psoriasis verschont zu bleiben.

    Auch Bakterien begehen manchmal Selbstmord, um den Fortbestand der Population zu sichern. Bakterien verständigen sich untereinander, ähnlich wie die Zellen meines Körpers, über chemische Signale – und dies umso angeregter, je stärker sie sich bedroht fühlen. Da Bedrohung in der freien Natur die Regel ist, verhält sich eine Bakterienpopulation meist wie ein vielzelliger Organismus. Die einzelnen Bakterienzellen erkennen dabei über ihre chemischen Antennen, wie viele Artgenossen in der Nähe sind – und wenn es genügend viele sind, vereinigen sie sich mit ihnen zu schleimigen Ablagerungen oder festen Biofilmen, denen weder Antibiotika noch andere Gifte etwas anhaben können und in denen manchmal Dutzende verschiedener Bakterienarten auf geheimnisvolle Weise zusammenleben. Einige der Signalstoffe, über die Bakterien miteinander sprechen, gleichen in ihrer chemischen Struktur den Duftstoffen, mit denen Tiere und wahrscheinlich auch wir Menschen in Artgenossen unbewusste Affekthandlungen auslösen.

    Bakterien haben im Verlauf ihrer langen Geschichte verschiedene Selbstmordprogramme entwickelt. Eines besteht aus dem Wechselspiel zweier Proteine: ein Protein ist ein stabiles Gift, und das andere ist ein labiles Gegengift. Unter normalen Bedingungen bilden die Zellen ohne Unterlass beide Proteine, sodass das Gegengift das Gift in Schach hält. Bedrohen jedoch Viren, Hitze, Antibiotika oder Hunger die Zelle, stellt sie die Bildung beider Proteine ein. Nun verschwindet das labile Gegengift aus der Zelle, das stabile Gift gewinnt die Oberhand, und die Zelle stirbt. So kann sie anderen Zellen als Nahrung dienen, ein Ausbreiten des Virus verhindern, oder durch ihren Freitod dazu beitragen, knappe Ressourcen einzusparen. Bakterien können das Überleben einer Population aber auch durch Vergiften ihrer Artgenossen retten. Sie wählen dieses chemische Massaker, wenn sie am Verhungern sind und ihnen als letzter Ausweg nur noch die Umwandlung in schlummernde Sporen bliebe.

    Dieser Ausweg erfordert jedoch viel Energie und lässt sich nur langsam wieder rückgängig machen, sodass die Zellen ihn so lange wie möglich hinauszögern. Bevor eine Zelle sich unwiderruflich zur Sporenbildung entscheidet, scheidet sie deshalb ein Gift aus, das all die Artgenossen tötet, deren Entscheidung zur Sporenbildung noch nicht so weit gediehen ist. Um sich vor dem eigenen Gift zu schützen, bildet die mörderische Zelle auch eine Pumpe, mit der sie das Gift laufend aus sich hinauspumpt. Mit dieser Strategie kann sie sich eine Weile von ihren vergifteten Artgenossen ernähren und die Sporenbildung verzögern. Dies kann sich lohnen, denn Sporen keimen nur langsam wieder aus und haben deshalb bei einem plötzlichen Ende der Hungerperiode gegenüber aktiv gebliebenen Zellen keine Chance. Die Entscheidung, welche Zellen einer Kolonie zu Mördern und welche zu Opfern werden, erfolgt rein zufällig. Sie wird von Steuermolekülen bestimmt, die in der Zelle in so geringen Stückzahlen vorkommen, dass ihre Reaktionen nicht mehr den voraussagbaren Gesetzen der Chemie, sondern dem Zufall gehorchen. Wer je einen Krieg miterlebt hat, weiss nur zu gut, dass auch bei uns Menschen der Zufall entscheiden kann, wer zum Mörder und wer zum Opfer wird.

    Altruistischer Selbstmord oder die Bereitschaft, sich zum Wohl der Population vergiften zu lassen, fördert die Entstehung von Mutanten, die diese „Ethik“ verletzen, indem sie den Selbstmord verweigern oder gegen das Gift ihrer Artgenossen Resistenz entwickeln. Solche „asozialen“ Mutanten stellen ihr eigenes Wohl über das der Gemeinschaft und können deshalb kurzfristig erfolgreich sein. Langfristig bedrohen sie jedoch den Fortbestand ihrer Art, weil dieser ein ausgewogenes Geben und Nehmen voraussetzt. Weil egoistische Schwindler keine Grundlage für ein stabiles Gemeinwesen sind, überleben reine Kulturen asozialer Mutanten nur im Laboratorium, nie aber in der freien Natur.

    Altruismus spielt auch bei Tieren und Menschen eine wichtige Rolle und hat Charles Darwin schlaflose Nächte bereitet. In seinem Buch „Über die Entstehung der Arten“ beichtet er seine Besorgnis mit folgenden Worten: „Soziale Insekten konfrontieren uns mit einer besonderen Schwierigkeit, von der ich zunächst meinte, sie wäre unüberwindbar und für meine Theorie tödlich“. Heute erkennen wir im Altruismus von Bakterien die weitsichtige Hand des sanften Todes - und vielleicht auch einen urtümlichen Vorläufer sozialen Verhaltens und menschlicher Moral.

    Alles Leben auf unserer Erde ist Gemeinschaft mit anderen – und mit dem sanften Tod. Wahrscheinlich erklärt dies, weshalb über 99% aller Bakterienarten nicht für sich allein wachsen können und viele von ihnen bei Überbevölkerung den Freitod wählen. Bei diesem Freitod vermachen sie ihr Erbmaterial den Überlebenden, die Teile davon gegen die entsprechenden Teile ihres eigenen Erbmaterials austauschen. Das Ergebnis entspricht einer sexuellen Paarung, welche die Gene der Partner neu aufmischt und den Nachkommen neuartige Eigenschaften und bessere Überlebenschancen schenkt. Obwohl der sanfte Tod das Leben dabei einer einzelnen Bakterienzelle beendet, sichert er damit – wie auch in unserem Körper - nur das langfristige Wohl des Ganzen. Ist dies nur la petite mort à la bactérienne – oder die uralte Weise von Liebe und Tod, von der die Mythen und Gedichte der Romantik künden? Könnte es sein, dass diese Weise nicht den Tod besingt, sondern die Sehnsucht des Lebens nach sich selbst?

    inge Thu, 27.10.2011 - 05:20

    Die Wissenschaftler sind ja selbst schuld!

    Die Wissenschaftler sind ja selbst schuld!

    Fr, 13.10.2011- 04:20 — Franz Kerschbaum

    Icon Politik und GesellschaftFranz Kerschbaum

    Normalerweise ärgere ich mich gar nicht mehr über Umfragen mit manchmal allzu durchsichtiger Motivation von Seiten der jeweiligen Auftraggeber. Wenn ich aber im Wirtschaftsblatt lese, dass 78% der österreichischen Bevölkerung wenig bis gar nicht an wissenschaftlichen Erkenntnissen interessiert sind und gleichzeitig 60% die Wissenschaftler selbst für die Misere verantwortlich machen, weil diese „nicht genug Anstrengungen unternehmen, um die Öffentlichkeit über ihre Forschung zu informieren“, dann kann ich nicht umhin nachzuschauen, wo diese Zahlen herkommen.

    Quelle dieser Meldung ist das aktuelle Forschungstelegramm "Wissenschaft und Technik: Wie die Österreicher zu wissenschaftlicher Forschung stehen" des Instituts für Freizeit-und Tourismusforschung, das auf Basis von den Eurobarometerdaten 340/341 aus dem Jahr 2010 diesen Fragenkreis in einen Entwicklungs- bzw. europäischen Kontext stellt. Die im Wirtschaftsblatt zitierten Zahlen finden sich dort gut nachvollziehbar und scheinen (leider) plausibel. Viele andere Umfrageergebnisse aus dieser Studie wären ebenso ein Nachdenken wert und bestätigen die generell sehr wissenschaftsskeptische wenn nicht gar -feindliche Grundstimmung in Österreich besonders im Vergleich zu den EU-27.

    Sind wir Forscherinnen und Forscher also wirklich selbst schuld, dass die Öffentlichkeit verkürzt gesagt an Wissenschaft nicht interessiert ist, vor vielen Forschungsdisziplinen geradezu Angst hat und letztlich gar keinen Nutzen an unserer Arbeit erkennen kann? Ist es noch dazu Mangel an Vermittlung, ob qualitativ oder quantitativ?

    Natürlich gibt es immer noch Forscher, die kein Interesse an Öffentlichkeitsarbeit haben und derartige Aktivitäten ihrer Kollegen sogar geringschätzen – doch deren Zahl ist heute sehr, sehr klein geworden. Heutige Studierende wachsen in einem universitären Umfeld heran, in dem es selbstverständlich ist, Presseaussendungen zu verfassen, Medienanfragen zu beantworten, Führungen und Tage der offenen Tür abzuhalten. Ob University meets Public oder Kinderuni, noch nie waren unsere Türen so offen, noch nie investierten wir so viel Zeit und Kreativität, um weite Teile der Bevölkerung zu erreichen. Buchhandlungen bieten eine fast schon unüberschaubare Flut von seriösen und weniger seriösen einschlägigen Druckwerken. Auch sind TV oder Internet voll mit wissenschaftsnahen Formaten, die auch beachtliche Einschaltquoten erzielen.

    Wiener Ferienspiel 2007

    Wiener Ferienspiel 2007

    Vor wenigen Wochen wurde eine schon geradezu inflationäre Medienpräsenz in meinem eigenen Fach, der Astronomie von BM Töchterle in Alpbach diagnostiziert, welcher sinngemäß meinte, dass wir es mittlerweile schaffen, die Entdeckung eines jeden noch so kleinen Himmelskörpers in die Medien zu bringen – welch tolle Aussichten bei unseren wahrhaft „astronomischen“ Objektzahlen…

    Wo ist also das Problem?

    An den Angeboten kann es ja wohl nicht liegen! Werden diese nur nicht wahrgenommen? Besucherzahlen und Einschaltquoten sprechen dagegen. Oder werden diese Angebote uns, den Forscher gar nicht mehr zugeordnet? In manchen populären TV-Formaten könnte man glauben, der fesche Moderator hat das alles selbst herausgefunden. Ein paar schnelle Experimente und schon haben wir wieder etwas gelernt. Wissenschaft ist doch so einfach!? Auch werden Universitäten fast nur noch als Ausbildungsort, und das meist negativ medial thematisiert - von dortiger Forschung keine Rede, als gelte es dort nur noch, neue Rekordzahlen an Studierenden zu bewältigen.

    Vielleicht liegt es also am falschen Wissenschaftlerbild! Langfristige, mühsame Beschäftigung mit einem kleinen – die Welt nicht täglich revolutionierenden Thema, unterbrochen von Lehre, Administration und Geldbeschaffung für viele der Jüngeren verbunden mit persönlichen Existenzängsten ist nun nicht so attraktiv vermittelbar wie hemdsärmelige Welterklärung oder das, was man als „Popscience“ bezeichnen könnte.

    Ein zweites Problem mag beim potentiellen Konsumenten unserer populären Angebote selbst zu finden sein. Einer zweifellos steigenden, interessierten, aktiven Öffentlichkeit – wir erleben dies bei all unseren einschlägigen Angeboten – steht eine noch schneller wachsende durch mediale Übersättigung passiv gewordene Gruppe gegenüber, die auch in wissenschaftlichen Angeboten, so überhaupt wahrgenommen, nur noch deren beliebig austauschbaren Unterhaltungswert sieht. Eigenes Erfahren wird abgelöst durch passives Konsumieren - Neugier durch Kuriositätenschau. Zwischen den „Tödlichsten Tieren im Universum“ und „Germany's Next Topmodel“ kann man ohne Gehirnverrenkung hin- und her zappen.

    Sind also die Österreicher selbst schuld? Ich will nun den Spieß keineswegs umdrehen. Derartige gesellschaftliche Entwicklungen kann man auch selten an einem einzigen Parameter festmachen. Trotzdem denke ich, sollten da bei Bildungsverantwortlichen, und damit uns allen, die Alarmglocken läuten. Gibt es zur Bring- nicht auch eine Holschuld? Nicht nur Wissenschaft, Forschung oder auch Kunst werden in Zukunft darunter leiden, wenn die seriöse, ja oft auch anstrengende, doch letztlich lohnende Beschäftigung mit einer Sache mehr und mehr von austauschbaren Ablenkungen verdrängt wird. Das Lernen eines Instrumentes macht sich selten in den ersten Übungsstunden bezahlt, der langfristige Gewinn ist aber durch nichts sonst erzielbar.

    inge Thu, 13.10.2011 - 05:20

    Das Leben ein Traum — Warum wir nicht Sklaven unserer Gene sind

    Das Leben ein Traum — Warum wir nicht Sklaven unserer Gene sind

    Fr, 06.10.2011- 00:00 — Gottfried Schatz

    Gottfried Schatz

    Icon Biologie

    Umwelt und Lebensweise hinterlassen Spuren in unseren Genen. Bei der Befruchtung einer Eizelle werden die meisten dieser Spuren gelöscht, doch einige bleiben bestehen. Eigenschaften, die wir während unseres Lebens erwerben, können deshalb erblich sein.

    Ist unser Leben Schicksal? Mythen und antike Tragödien haben diese Frage meist bejaht, und Jahrtausende später schien ihnen die moderne Biologie recht zu geben. Je mehr wir über die Rolle der Gene bei der Entwicklung von Lebewesen lernten, desto zwingender schien der Schluss, dass Gene unseren Körper, unsere Begabungen und unser Verhalten bereits vor der Geburt festlegen und bis zu unserem Tode bestimmen. Erben wir also unser Schicksal?

    Künstler und Philosophen haben sich gegen diese Vorstellung immer wieder aufgelehnt – so auch der spanische Dichter Pedro Calderón de la Barca. Sein 1635 uraufgeführtes Versdrama La vida es sueño (Das Leben ein Traum) handelt vom polnischen Königssohn Sigismund, der seine von den Sternen vorausbestimmte Gewalttätigkeit aus eigener Kraft überwindet und sich zum weisen Herrscher wandelt.

    Vor einigen Jahrzehnten begannen auch einige Biologen daran zu zweifeln, dass wir Sklaven unserer Gene sind. Warum sind eineiige Zwillinge, die derselben befruchteten Eizelle entstammen und somit die gleichen Gene besitzen, nicht völlig identisch? Warum leidet manchmal nur einer von ihnen an einer Krankheit? Und warum werden sie mit dem Alter immer verschiedener? Zunächst begnügte man sich mit der Erklärung, dass die Umwelt zwar nicht die Gene, wohl aber deren Auswirkungen verändern kann.

    Diese Erklärung ist jedoch nur ein Teil der Wahrheit – und diese ist überraschend und erhebend zugleich: Unsere Gene sind keine unabänderlichen Gesetze, sondern können sich als Antwort auf die Umwelt oder unseren Lebenswandel verändern. Natürlich wussten wir schon lange, dass Umweltgifte, Radioaktivität, Viren oder Fehler bei der Zellteilung die Reihenfolge der vier chemischen Buchstaben in unseren Genen verändern und damit erbliche „Mutationen“ auslösen können. Solche Mutationen sind jedoch sehr selten und treffen ein Gen rein zufällig. Nun aber wissen wir, dass im Verlauf unseres Lebens manche Gene auch durch die chemische Markierung einzelner Buchstaben gehemmt oder abgeschaltet werden können, und dass solche Markierungen sogar erblich sein können.

    Das Markierungszeichen ist eine „Methylgruppe“: ein kleines Gebilde aus drei Wasserstoffatomen und einem Kohlenstoffatom, dem Chemiker die Formel -CH3 geben. Wenn sich eine Methylgruppe an einen Genbuchstaben anheftet, lockt sie Proteine an, die den „methylierten“ Genabschnitt umhüllen und damit hemmen oder ganz stilllegen. Im Gegensatz zu klassischen Mutationen verändert eine solche „epigenetische“ Markierung also nicht die Folge, sondern nur den Charakter einzelner Gen-Buchstaben. Verwendet man für die vier verschiedenen Gen-Buchstaben die Alphabet-Buchstaben a, b c und h, dann würde in einer klassischen Mutation das Wort „bach“ vielleicht zu „bbch“, „bcch“ oder „bhch“; in einer epigenetischen Veränderung hingegen zu „bäch“. Teilt sich eine Zelle, kopiert sie die methylierten Buchstaben getreulich und gibt sie an die Gene der Tochterzellen weiter. Wir wissen noch nicht, wie diese Methylierungen ausgelöst und gesteuert werden, können sie jedoch durch eine geeignete Ernährung fördern oder durch ein bestimmtes Antibiotikum teilweise wieder rückgängig machen.

    Die Gene einer befruchteten Eizelle sind weitgehend unmethyliert und daher jederzeit bereit, auf Befehl ihre volle Wirkung zu entfalten. Entwickeln sich dann aus dem befruchteten Ei verschiedene Zelltypen, methylieren diese ihre Gene nach einem genauen internen Programm, um zu verhindern, dass Gene zur falschen Zeit oder am falschen Ort aktiv werden und die Entwicklung stören. Diese Methylierungen kommen selbst in einem erwachsenen Menschen nicht zur Ruhe, wobei sie dann aber nicht nur durch zellinterne Programme, sondern auch durch die Lebensgewohnheiten und die Umwelt bestimmt werden. Epigenetische Methylierung von DNS kann also sowohl durch innere als auch durch äussere Faktoren verursacht werden. Und diese äusseren Faktoren sind bunt gemischt: Essgewohnheiten, Drogen, Wechselwirkung mit anderen Menschen – sie alle können ihre Methyl-Spuren in unseren Genen hinterlassen.

    In einer normalen Körperzelle verlöschen alle Methyl-Spuren mit dem Tod des Individuums. Auch in einer Ei- oder Samenzelle verschwinden die meisten von ihnen bei Reifung und Befruchtung; manche bleiben jedoch bestehen, sodass das befruchtete Ei einige Erinnerungen an das bewahrt, was vorher war. So kann es Eigenschaften, welche die Eltern im Verlauf ihres Lebens erwarben, an das neue Lebewesen und dessen Nachkommen weitergeben. Der französische Biologe Jean Baptiste Lamarck hatte bereits vor zweihundert Jahren vorgeschlagen, dass erworbene Eigenschaften erblich sein können, doch Charles Darwins Theorie der Evolution durch natürliche Zuchtwahl drängte Lamarcks Idee bis vor kurzem in den Hintergrund. Die grosse Pragmatikerin Natur kümmert sich jedoch nicht um Theorien und benützt beide Wege, um Lebewesen an ihre Umwelt anzupassen.

    Wird eine Pflanze ultraviolettem Licht ausgesetzt, aktiviert sie Reparaturmechanismen, um Strahlenschäden an den Genen wieder auszubügeln. Diese Mechanismen arbeiten dann auch in Abwesenheit von Ultraviolettlicht weiter und bleiben sogar über mehrere Generationen hinweg in den Nachkommen aktiv - selbst wenn diese nie von ultraviolettem Licht bedroht waren. Die Pflanze vermittelt so ihre Erfahrung „epigenetisch“ an die Nachkommen und wappnet sie für kommende Gefahren. Selbst komplexe Verhaltensmuster lassen sich auf diese Weise vererben: Rattenweibchen unterscheiden sich in der Zärtlichkeit, mit der sie ihre frisch geworfenen Jungen säugen. Zärtlich gesäugte Junge sind dann für den Rest ihres Lebens besonders unempfindlich gegenüber Stress, wobei es gleichgültig ist, ob sie von ihrer biologischen Mutter oder von einer Amme gesäugt wurden.

    Diese vermittelte Stressresistenz geht mit einer verminderten Methylierung von Genen einher, welche die Wirkung von Stresshormonen im Gehirn steuern. Löscht man Gen-Methylierungen in den Ratten durch Verabreichung eines bestimmten Antibiotikums, verschwinden die Unterschiede zwischen zärtlich und weniger zärtlich gesäugten Ratten. Erhöhte Stressresistenz und Risikobereitschaft scheinen auch bei uns Menschen mit einer erhöhten Methylierung gewisser Gene einherzugehen. Wahrscheinlich spielt auch hier die Beziehung zwischen Mutter und Kind eine wichtige Rolle.

    Man sagt, jeder alte Mensch habe das Gesicht, das er verdient. Ähnliches gilt wohl auch für meine Gene. Sie erzählen nicht nur von den Jahrmilliarden des Lebens vor mir, sondern auch von den siebeneinhalb Jahrzehnten meines eigenen Lebens: von der Fürsorge meiner Eltern, der Wärme meiner eigenen Familie, den wissenschaftlichen Kämpfen, den Krankheiten und Enttäuschungen und vielleicht sogar von meinem Bemühen, die Kunst des Violinspiels zu meistern. Auch ich bin dafür verantwortlich, was aus meinen Genen wurde. Es beruhigt mich zu wissen, dass die Natur die meisten meiner Lebensspuren aus ihnen löschte, bevor ich sie meinen Kindern vererbte. So gewährte sie diesen die Freiheit des Neuanfangs.

    Ein befruchtetes Ei gleicht einem eingestimmten Orchester, das lautlos auf den Einsatz des Dirigenten wartet. Alles ist noch Versprechen und die Partitur ein Traum, der seiner Erfüllung harrt. Diese Erfüllung bestimmt nicht nur der Dirigent, sondern auch das Umfeld, das die Spielweise der Musiker und den Musikgeschmack der Zeit geprägt hat. Wie viel mehr braucht es, um aus einem befruchteten Ei einen Menschen zu schaffen! Es braucht den Körper der Mutter, die elterliche Fürsorge nach der Geburt und den Einfluss unzähliger anderer Menschen. „Ein Kind wird vom ganzen Dorf erzogen“ weiß ein altes Sprichwort. Erst die Wechselwirkung mit anderen Menschen schenkt dem Kind Sprache, Gemeinschaftssinn und sittliche Verantwortung. Ein befruchtetes menschliches Ei ist ein Traum, der sich nur mit Hilfe vieler anderer erfüllt. Wer unsere Gene als „Bauplan eines Menschen“ oder ein tiefgefrorenes befruchtetes menschliches Ei als „Menschen“ sieht, verleugnet den Genius unserer Spezies und beleidigt mein Menschenbild. Wenn wir ins Leben treten, sind wir nicht Sklaven, sondern Traum unserer Gene. Hat Calderons künstlerische Intuition dies geahnt, als er sein Versdrama schuf?

    inge Sun, 16.10.2011 - 01:00

    Gekürzte Fassung der Inaugurationsrede des Rektors der Universität Wien, Heinz W. Engl am 3.Oktober 2011

    Gekürzte Fassung der Inaugurationsrede des Rektors der Universität Wien, Heinz W. Engl am 3.Oktober 2011

    Fr, 02.10.2011- 23:00 — Heinz Engl

    Heinz EnglIcon Politik & Gesellschaft

    Ein Rektor übernimmt die Universität von seinem Vorgänger und hat die Verpflichtung, dieses Erbe pfleglich zu behandeln, weiter zu entwickeln und an den Nachfolger oder die Nachfolgerin zu übergeben. Diese Aufgabe erfülle ich gemeinsam mit meinem Team: Prof. Susanne Weigelin-Schwiedrzik, Vizerektorin für Forschung und Nachwuchsförderung, Prof. Heinz Faßmann, Vizerektor für Personalentwicklung und Internationale Beziehungen Prof. Christa Schnabl, Vizerektorin für Studierende und Lehre, Dr. Karl Schwaha, Vizerektor für Infrastruktur.

    Universitäten sind Teil der Gesellschaft und orientieren sich damit einerseits an den Bedürfnissen dieser Gesellschaft in der jeweiligen Phase ihrer Entwicklung, haben aber andererseits eine starke Rolle bei der Weiterentwicklung dieser Gesellschaft. Um ihre Kernaufgaben in Forschung und Lehre (in Verbindung miteinander) wahrnehmen zu können, müssen sie bei der Gesellschaft, welche die Universitäten ja immer (bei uns hauptsächlich über den Staat) in der einen oder anderen Weise finanzieren wird, um Verständnis für ihre zentrale Rolle werben und auch davon überzeugen, dass die Universitäten die in sie investierten Mittel zum Wohle der Gesellschaft einsetzen (und dies natürlich auch tun).

    Forschung und Lehre

    Während in der Forschung für jede Universität klar sein sollte, dass diese nur auf einem international konkurrenzfähigen Niveau betrieben werden kann, muss sich jede Universität in der Lehre die Frage stellen, ob sie sich (etwas vereinfacht ausgedrückt) als Massen- oder als Eliteuniversität verstehen will. Die Antwort kann dabei für die meisten Universitäten keine eindeutige sein. Nur eine Handvoll Universitäten wie etwa Harvard können als ihre Aufgabe die reine Elitenausbildung sehen.

    In Österreich war es lange so, dass alle tertiären Bildungseinrichtungen alle Aufgaben zugleich erfüllen sollten, und das in möglichst uniformer Qualität. Erst die Universitätsautonomie und die Einrichtungen von Fachhochschulen haben die Konkurrenz und die Ausdifferenzierung belebt, dieser Prozess wird sich gerade in Zeiten budgetärer Knappheit beschleunigen. Diese Ausdifferenzierung sowohl im Fächerspektrum im Sinne der oft beschworenen Schwerpunktbildung als auch in der Betonung einerseits der Grundlagen und andererseits der Anwendungsorientierung ist durchaus zu begrüßen. Für die Universität Wien ist es dabei wichtig, ihr breites Fächerspektrum und die besonderen damit verbunden Möglichkeiten zu interdisziplinären Programmen sowohl in der Forschung als auch in der Lehre zu erhalten und auch noch besser zu nutzen.

    Universität und Fachhochschulen

    Der aktuelle Hochschulplan fordert den Ausbau der Fachhochschulen. Von der ehemaligen Regierungsvereinbarung, nach der bis 2015 ein Drittel der Studienanfängerinnen und Studienanfänger an Fachhochschulen studieren sollten, sind wir derzeit weit entfernt. Ein Ausbau des Fachhochschulsektors, der nicht auf Kosten der Universitäten geht, sondern zusätzliche Möglichkeiten für tertiäre Bildung schafft, ist zu begrüßen. Das Grundprinzip, dass Fachhochschul-Studienplätze nur eingerichtet werden, wenn sie auch finanziert sind, sollte auch für die Universitäten gelten; auch davon sind wir weit entfernt. Die derzeitigen Überlegungen zu einer echten Studienplatzfinanzierung, verbunden mit einer Vollkostenfinanzierung der Forschung, geben Anlass zu Hoffnung.

    Kooperationen im akademischen Bereich

    Innerhalb des universitären Sektors ist es wichtig, die richtige Balance zwischen Konkurrenz und Kooperation zu finden. So halte ich es durchaus für sinnvoll, wenn es am Wiener Standort in den Natur- und Lebenswissenschaften Studienangebote mit unterschiedlichen Schwerpunkten an mehreren Universitäten gibt, wenn zugleich die bereits begonnenen Kooperationen fortgeführt und verstärkt werden. Ein besonderer Schwerpunkt soll für uns dabei die Vertiefung der Kooperation mit der Medizinischen Universität Wien in Projekten zwischen Grundlagenforschung und klinischer Forschung sein. Das erfolgreiche Beispiel der Errichtung eines gemeinsamen High-Performance-Computing Centers zwischen der Technischen Universität Wien und der Universität Wien unter Beteiligung der Universität für Bodenkultur zeigt, dass wir durch Kooperation bei Planung, Anschaffung und Betrieb teurer Forschungsinfrastruktur durchaus mit der internationalen Konkurrenz mithalten können, diese Kooperation dafür aber auch notwendig ist.

    Auch für die künftige Gestaltung der Lehramtsstudien wird die Beantwortung der Frage nach Konkurrenz und Kooperation, in diesem Fall mit den Pädagogischen Hochschulen, wichtig sein. Für die Universität Wien, die bereits jetzt die größte Lehrerausbildungsstätte Österreichs ist, ist die Lehramtsausbildung von zentraler Bedeutung. Ich glaube, dass es für das gesamte Bildungssystem in unserer Wissensgesellschaft wichtig ist, dass die künftigen Lehrerinnen und Lehrer während ihrer Ausbildung an der Universität mit aktuellen Entwicklungen in der Forschung zumindest in Berührung kommen. Ich hoffe, dass die Rahmenbedingungen der neuen Lehramtsausbildung bald politisch geklärt sind; wir werden uns dann den dabei auf uns zukommenden Herausforderungen gerne stellen.

    Als (derzeit noch) Leiter eines großen Forschungsinstituts der Österreichischen Akademie der Wissenschaften (ÖAW) ist mir bewusst, wie wichtig die Kooperation zwischen der Akademie und der Universität für beide Seiten und für die österreichische Forschungslandschaft insgesamt ist. In der Weiterentwicklung dieser Kooperation zwischen der Universität Wien und der Akademie sehe ich große Chancen für beide Seiten, gerade in budgetär schwierigen Zeiten.

    Bolognaprozeß - Studium - Karriere

    Die Universität hat, insbesondere in ihren Bachelor-Studiengängen, auch eine breite Bildungsaufgabe. Sie kann dieser allerdings nur nachkommen, wenn angemessene Betreuungsrelationen sichergestellt sind, was derzeit zumindest in einigen Studienrichtungen bei weitem nicht der Fall ist. Unter Betreuungsrelationen verstehe ich dabei nicht nur das Zahlenverhältnis zwischen Studierenden und Lehrenden, sondern auch die Verfügbarkeit ausreichender Raum- und Laborkapazitäten. Gute Betreuungsverhältnisse sind gerade in der Anfangsphase des Studiums wichtig, und zwar insbesondere für solche Studierende, die von nicht so guten Schulen, aus bildungsfernen Schichten oder von einem Migrationshintergrund her kommen und damit möglicherweise Umstellungsschwierigkeiten haben. Es ist klar, dass wir (bei beschränkten Budgets, von denen man realistischerweise ausgehen muss) Zugangsregelungen brauchen werden, um gerade in der schwierigen und entscheidenden Anfangsphase des Studiums auch die nötige Förderung bieten zu können. Zugangsregelung muss dabei nicht unbedingt Zugangsbeschränkung heißen.

    In seiner Inaugurationsrede vom 4. Februar 2000 hat Georg Winckler für das österreichische Studienrecht die Europäisierung des Bildungssystems im Sinne einer Konkretisierung der Bologna-Erklärung aus dem Jahr 1999 gefordert. Diese Vision ist inzwischen Wirklichkeit geworden, die Bologna-Umstellung an der Universität Wien ist weitgehend abgeschlossen. Es hat sich jedoch gezeigt, dass weitere Schritte notwendig sind, um auch den Geist von Bologna in unser Studiensystem zu bringen. In manchen Studienrichtungen besteht für die Studierenden zu wenig Wahlfreiheit, die eigentlich charakteristisch für ein universitäres Studium sein sollte; die Spezialisierung und die Regulierung sind möglicherweise zu stark. Naturwissenschaften etwa leben heute mehr denn je von der Kooperation untereinander, die Disziplinengrenzen lösen sich auf. Der frühere Akademiepräsident und emeritierte Professor der Universität Wien Peter Schuster regte in einem Symposium im letzten Jahr die Einführung eines gemeinsamen „Bachelor of Science“-Studiums und eine Aufspaltung in die einzelnen Fächer erst während des Masterstudiums an. Nun ist so etwas möglicherweise im Detail schwer zu realisieren, aber Überlegungen in diese Richtung anstellen könnte man durchaus. Oder man könnte auch die Einrichtung von Studien überlegen, die nicht rein disziplinenorientiert sind, sondern zumindest in der Anfangsphase einen gesellschaftlich wichtigen Themenbereich von einer Disziplinen- und Methodenvielfalt her beleuchten. Eine Schwierigkeit dabei ist natürlich das Finden des richtigen Verhältnisses von Breite und Tiefe.

    Nicht jeder Bachelor-Studierende soll und will Wissenschafter werden, ein eigenes Berufsbild für Absolventen der Bachelorstudien ist zum Teil noch zu entwickeln. Es wäre dabei ein wichtiges Signal, wenn endlich der Bund auch Absolventen von Bachelorstudien als Akademikerinnen und Akademiker anerkennen würde.

    Eine große, noch zu wenig realisierte Chance des Bologna-Systems sehe ich in der vertikalen Mobilität. Um ein Beispiel aus meinem eigenen Fachbereich zu bringen: Natürlich wird es auch weiterhin sinnvoll sein, nach einem Bachelorabschluss in Mathematik ein Masterstudium in Mathematik oder in Computational Science zu beginnen. Es schafft aber völlig neue Kompetenzfelder, wenn man etwa ein Masterstudium in Bioinformatik einrichtet, das (mit entsprechenden Eingangsmodulen) von Bachelorstudien wie Mathematik, Informatik, Physik, Chemie oder Biologie aus zugänglich ist. Wir werden gemeinsam mit der Universität für Bodenkultur und der Medizinischen Universität Wien in diese Richtung gehen. Auch in anderen interdisziplinären Feldern, etwa der Internationalen Entwicklung, könnte man in diese Richtung denken.

    In der letzten Zeit wurde manchmal der Zustrom von Studierenden aus dem Ausland, insbesondere aus Deutschland, für derzeitige Probleme verantwortlich gemacht. Ich möchte betonen, dass internationale Mobilität ein Grundpfeiler des europäischen Bildungsraums ist und bleiben muss. Wir wollen ein attraktiver Studienort für internationale Studierende sein, insbesondere im Master- und Doktoratsstudium. Die Universität Wien hat das Doktoratsstudium in den letzten Jahren neu strukturiert und in Richtung klarer Forschungsorientierung weiterentwickelt. Es muss ein Schwerpunkt in den nächsten Jahren (sowohl der Universität Wien als auch des FWF) sein, die Finanzierung von Doktoratsstudien deutlich zu verbessern. Doktorandinnen und Doktoranden leisten heute einen wesentlichen Beitrag zum Fortschritt der Forschung, das Doktoratsstudium muss als der erster Schritt einer wissenschaftlichen Karriere und damit als Beruf anerkannt und auch behandelt werden.

    In der weiteren Entwicklung einer wissenschaftlichen Karriere bestand bisher ein grundlegender Unterschied zwischen den USA und dem System in Österreich und Deutschland: Charakteristisch für die USA sind die frühe Selbständigkeit und auch die Mobilität junger Forscherinnen und Forscher. Diese frühe Entlassung in die Selbständigkeit ist natürlich eine große Herausforderung, aber auch eine große Chance. Die Universität Wien hat begonnen, ihre Karriereentwicklung in diese Richtung umzustellen. Dies kann aber nur funktionieren, wenn auch verstärkt kompetitive Mittel für den Aufbau von Forschungsgruppen zur Verfügung stehen. Den jährlich etwa sechs diesem Zweck dienenden START-Preisen des FWF stehen mehr als dreißig analoge Forschungsprofessuren des Schweizerischen Nationalfonds gegenüber. Die angekündigte Erhöhung der Mittel des European Research Council (ERC) ist für diesen Bereich von besonderer Bedeutung. In dieser entscheidenden Phase der Karriereentwicklung müssen auch spezielle Frauenfördermaßnahmen ansetzen und bestehende Programme, etwas des FWF, verstärkt werden.

    Grundlagenforschung – angewandte Forschung

    Auf dem Weg über die Doktoratsausbildung komme ich damit vom Studium nochmals zur Forschung. Der eben veröffentlichte Hochschulplan definiert als Aufgabe der Universitäten die Grundlagenforschung, als Aufgabe der Fachhochschulen die angewandte Forschung. Wenn man dem auch in der Grundtendenz zustimmen kann, so überzeugt mich insbesondere meine eigene Erfahrung als Professor für Industriemathematik davon, dass die beiden Bereiche schwer voneinander zu trennen sind. Angewandte Forschung kann nur auf Basis hochwertiger Grundlagenforschung wirklich erfolgreich sein. Auch und gerade für die Wirtschaft, die sich die benötigte Expertise auf dem internationalen Forschungsmarkt besorgen kann, sind nur Forschungspartner wirklich interessant, die die nötige Basis in der Grundlagenforschung aufweisen können. Mehr denn je gilt der Satz von Max Planck „Dem Anwenden muss Erkennen vorausgehen“.

    Die Gründung der Treibacher Chemischen Werke durch Carl Auer von Welsbach zeigt, dass erfolgreiche Grundlagenforschung manchmal wirtschaftliche Umsetzung auch kurzfristig nach sich ziehen kann. Meist aber ist der Zeitraum zwischen Grundlagenforschung und wirtschaftlicher Umsetzung wesentlich länger. Ich möchte hier ein Beispiel aus meinem engeren Fachgebiet anführen, das mit Johann Radon, einem bedeutenden Wiener Mathematiker, der 1954 auch Rektor der Universität Wien war, zu tun hat. Dazu möchte ich drei scheinbar unzusammenhängende Fragestellungen formulieren:

    1. Nur für Mathematiker verständlich: Kann man eine Funktion von zwei Variablen aus den Werten aller ihrer Linienintegrale rekonstruieren?
    2. Stellen Sie sich ein Geländemodell, etwa eines Gebirges, vor. Nehmen wir an, wir könnten für jeden zweidimensionalen Schnitt durch dieses Gebirge orthogonal zur Grundfläche jeweils das Gewicht bestimmen. Kann man aus diesen Daten die Form des Gebirges rekonstruieren?
    3. Kann man aus der Schwächung von Röntgenstrahlen in alle oder viele Richtungen durch einen Körper die Dichteverteilung innerhalb dieses Körpers rekonstruieren?

    Alle drei Fragen sind in ihrem mathematischen Kern völlig äquivalent. Während die erste Frage eine rein mathematische und die zweite eine ziemlich unnötige Denksportaufgabe ist, stellt die dritte Frage das dar, was in der Computertomographie stattfindet. Die Antwort auf die erste Frage, die Johann Radon 1917 ohne jede praktische Motivation gesucht, gefunden und auch publiziert hat, liefert daher auch die Basis für die Antwort auf die dritte Frage und damit die Grundlage für die mathematischen Algorithmen der Computertomographie und aller darauf aufbauender moderner medizinischer Bildgebungsverfahren. Diese Verfahren haben die medizinische Diagnostik revolutioniert und eine Milliardenindustrie geschaffen.

    Viele Ergebnisse der Grundlagenforschung werden nie irgendeine Umsetzung finden, können auch in Irrwege führen. Natürlich lässt sich das aber nicht im Vorhinein feststellen; auch deshalb ist neugiergetriebene Grundlagenforschung einerseits als Selbstzweck, als Erfüllung eines Erkenntnistriebs, andererseits aber gerade für eine erfolgreiche spätere Umsetzung notwendig. Dies heißt trotzdem nicht, dass alles und jedes in der Forschung ohne Rechtfertigung und Motivation gefördert werden kann. Instrumente zur Entscheidung über Förderungen sind entsprechende Evaluierungsverfahren, die allerdings nicht in der Verkürzung auf wenige quantitative Indikatoren bestehen können, sondern auf inhaltlicher Begutachtung, also Peer-Review, aufbauen müssen.

    Ausblick

    Es ist die Aufgabe eines Rektorats, auch neue, zukunftsträchtige Forschungsrichtungen und vor allem fächerübergreifende Kooperationsmöglichkeiten zu identifizieren, Impulse von den Forscherinnen und Forschern der eigenen Universität und externer Ratgeber aufgreifend. Die einzigartige fachliche Breite verbunden mit hochwertiger disziplinärer Forschung an der Universität Wien bietet die Chance, in einigen Bereichen auch weltweit führend sein zu können. Dies zeigen auch Erfolge unserer Wissenschafterinnen und Wissenschafter bei europäischen Forschungsprogrammen und –preisen. Die weitere Stärkung der Universität Wien als europäische Forschungsuniversität mit weltweitem Ansehen ist ein Ziel dieses Rektorats.

    Österreich hatte seit Mitte des 20. Jahrhunderts mindestens vier verschiedene Universitätsorganisationsmodelle, von einer Gremienuniversität mit direkter staatlicher Steuerung zu einer nun autonomen Universität mit klaren internen Entscheidungs- und Verantwortungsstrukturen. Expertenorganisationen wie eine Universität benötigen für ihr Funktionieren, dass die Expertise der an der Universität Tätigen in die Entscheidungsfindungsprozesse eingebracht werden kann. Um dies verstärkt zu ermöglichen, sind die Mechanismen der internen Kommunikation in alle Richtungen zu verbessern. Bei einer großen und komplexen Universität wie unserer ist dies leichter gesagt als getan, das Rektorat wird diesem Aspekt aber große Aufmerksamkeit widmen. Gerade in schwierigen Zeiten, die uns möglicherweise bevorstehen, werden wir die Universität nur gemeinsam mit allen ihren Angehörigen, denen ihr Gedeihen ein Anliegen ist, voranbringen können. Ich lade Sie herzlich ein, diesen Weg gemeinsam mit dem Rektorat zu beschreiten.

    inge Mon, 03.10.2011 - 00:00

    Menschen in der Weltraumforschung – mehr als bessere Roboter?

    Menschen in der Weltraumforschung – mehr als bessere Roboter?

    Do, 29.09.2011- 04:20 — Wolfgang Baumjohann

    Wolfgang BaumjohannIcon Astronomie

    Die wissenschaftliche Erkundung des Weltraums, hier definiert als der Bereich zwischen der Ionosphäre der Erde in 100 km Höhe und den äußeren Grenzen unseres Sonnensystems in einigen 10 Milliarden Kilometer Entfernung, und insbesondere Messungen dort vor Ort, sind bis jetzt größtenteils durch Roboter erfolgt.

    Warum?

    Für das äußere Sonnensystem - jenseits der Mars-Umlaufbahn (Orbits) oder des Asteroidengürtels - gibt es eine einfache Antwort: Unsere Technologien erlauben es noch nicht, dass Menschen in diese Zonen aufbrechen und dort auf sich allein gestellt überleben können. Was das innere Sonnensystem betrifft, so liegt die Venus hinsichtlich Reisedauer zwar in Reichweite, jedoch herrschen dort und auch auf dem Merkur dermaßen feindliche Bedingungen, dass Menschen nicht überleben können.

    Damit bleiben Mond und Mars, möglicherweise erdnahe Asteroiden und der erdnahe Weltraum als Ziele für bemannte Missionen. Bezüglich dieser Himmelskörper und Regionen hängt das Problem bemannte oder unbemannte Mission von einem kleinen Unterschied in der Fragestellung ab. Auf die Frage: „Sollen bemannte Missionen aufbrechen, um Mond und Mars zu erforschen?“, ist die Antwort: Nein! Auf die Frage: „Sollen bemannte Missionen aufbrechen und Mond und Mars erforschen?, ist die Antwort: Ja!

    Wissenschaftliche Erforschung

    Die wissenschaftliche Weltraumforschung begann 1958 mit dem Abschuss des ersten wissenschaftlichen Satelliten „Explorer-1“ in die Erd-Umlaufbahn und führte zur Entdeckung des nach dem Astronauten Van-Allen benannten Strahlungsgürtels. (Der russische Satellit „Sputnik-1“ war zwar vier Monate früher gestartet, hatte jedoch noch keine Messinstrumente an Bord.)

    Abbildung 1 - Raumsonden: Darstellung eines Orbiters und eines Landers.

    Während Van-Allen’s Geigerzähler noch kaum unter die Definition Roboter fielen, wurden mit Anbruch des Computerzeitalters die wissenschaftlichen Instrumente und Raumsonden immer ausgereifter und werden heute zu recht als Roboter bezeichnet. Dies trifft insbesondere auf die Marssonden „Spirit“ und „Opportunity“ zu, die - auch dem Aussehen nach typische Roboter - als Geländefahrzeuge (Rover) von 2004 bis 2011 die Marsoberfläche erkundeten.

    Die von Robotern an Ort und Stelle ausgeführten Untersuchungen haben unser Wissen über den erdnahen Weltraum und unser Sonnensystem enorm erweitert. Die meisten Planeten und eine Anzahl kleinerer Himmelskörper wurden so - zumindest während eines Vorbeiflugs - besichtigt. Weitere Orbiter (Roboter, die in die Umlaufbahn eines Himmelskörpers gebracht werden) und Landeroboter (Lander) sind unterwegs, im Bau oder zumindest im Planungsstadium.

    Die Frage ist: „Hätten Menschen dies besser gekonnt?“

    Ja, selbstverständlich. Das Apollo Programm hat gezeigt, dass in der Wissenschaft Menschen den Computern noch überlegen sind. Allerdings muss dafür ein Preis gezahlt werden, der zu hoch ist für Wissenschaft.

    Bereits in tiefer Erdumlaufbahn, am Übergang zum Weltraum, ist es beträchtlich kostspieliger, Experimente von Menschen durchführen zu lassen als von Robotern, die nach erfolgreicher Mission automatisch auf die Erde zurückkehren, wie z.B. der Foton-M Satellit. Sogar biologische und medizinische Untersuchungen können während dieser relativ billigen unbemannten Missionen im Raum-Labor vollzogen werden.

    Abbildung 2: Das Innere des Instruments MIDAS (Micro-Imaging Dust Analysis System). MIDAS wird an Bord der Raumsonde Rosetta den Kometen Churyomoy-Gerasimenko umkreisen und soll die physikalischen Parameter des bei Annäherung zur Sonne freigesetzten Kometenstaubs untersuchen. Das Bild zeigt u.a. das dazu verwendete Rasterkraftmikroskop (Atomic Force Microscope) und die Vorrichtungen, die den Staub zum Sensor transportieren. Das IWF ist maßgeblich an Entwicklung und Bau dieses und weiterer Instrumente zur Untersuchung des Kometen beteiligt.

    Der Unterschied in den Kosten wird noch viel höher, wenn man Missionen mit automatischer Rückkehr der Roboterkapsel mit denen vergleicht, die bei der Errichtung einer Mondbasis oder gar bei bemannten Expeditionen zum Mars und zurück entstehen. Kostenschätzungen für die Errichtung einer Mondbasis belaufen sich auf 100 Milliarden € und auf 400-500 Milliarden € für ein kombiniertes Mond-Mars Programm. Dagegen liegen die Kosten eines fahrbaren Landeroboters (Rover) bei rund einer Milliarde €, die einer Rückkehr der Roboterkapsel bei 3 - 4 Milliarden €. Die Möglichkeit bei ungleich günstigeren Kosten eine höhere Zahl an Roboter-Missionen durchführen zu können, dürfte wohl das Argument aufwiegen, dass Menschen auf unvorhergesehene Situationen besser reagieren können.

    Die 12-stelligen Summen in Euro oder Dollar (oder noch höherstelligeren in Yuan) sind aber sicherlich nicht der einzige Preis, der gezahlt werden muss. Unglücklicherweise hat der bemannte Raumflug bereits mehrmals unbezahlbares Gut gefordert: das Leben von Menschen. In der Vergangenheit wurden diese Katastrophen durch das Versagen menschlicher Technologien verursacht. Wenn es in der Zukunft um die Erforschung des Monds oder die Expedition zum Mars geht, kommt eine andere, ebenso gefährliche Bedrohung ins Spiel: stürmisches Weltraumwetter.

    Die Sonne emittiert kontinuierlich einen Strom Energie-geladener Partikel, den sogenannten Sonnenwind. Zeitweilig treten gewaltige Eruptionen in der äußeren Schichte der Sonne auf, sogenannte koronale Massenauswürfe, die riesige Mengen an Materie, mit noch mehr hochenergetischen Ionen und Elektronen, in den umgebenden Weltraum schleudern.

    Wenn solche Eruptionen solaren Plasmas auf die Erde treffen, wird der Grossteil der potentiell gefährlichen Partikel durch das Magnetfeld der Erde abgelenkt. Dieses Magnetfeld erstreckt sich über zehn- bis mehrere hunderttausend Kilometer in den Weltraum und fungiert als ein magnetischer Schutzschild, der die sogenannte Magnetosphäre von den bedrohlichen Vorgängen zumindest partiell abschirmt. Dennoch hat während derartiger Vorgänge eine Reihe unbemannter Raumschiffe die Funktion eingestellt, höchstwahrscheinlich durch schwerste Schäden an ihren elektronischen Bestandteilen hervorgerufen durch Elektronen und Ionen mit Energien von einigen hunderttausend bis Millionen Elektronenvolt.

    Bis jetzt haben derartige Weltraumstürme noch kein Menschenleben gefordert, hauptsächlich deshalb, weil bemannte Flüge kaum eine tiefe Erdumlaufbahn verlassen haben, in welcher die magnetische Abschirmung besonders stark ist und den Grossteil der schädigenden Partikel ablenkt. Die Situation verändert sich bei Expeditionen zum Mond. In der Mondumlaufbahn ist das terrestrische Magnetfeld bereits sehr abgeschwächt und kann nicht mehr als Schutzschild fungieren. Tatsächlich sind mehrere Apollomissionen um nur wenige Tage bis Wochen derartigen Weltraumstürmen entronnen. Allein die Millionen Elektronenvolt an energetischen Protonen hätten für die Astronauten zumindest ein sehr hohes Krebsrisiko oder schwere Strahlenkrankheit bedeutet und zwischen den Apollo Missionen 16 und 17 vermutlich eine für alle tödlich ausgehende Katastrophe.

    Es besteht Hoffnung, dass dieses Problem für Mond-Missionen lösbar ist. Die koronalen Massenauswürfe und ihre gefährlichen Partikel benötigen drei bis vier Tage um von der Sonne zur Erde zu gelangen – eben dieselbe Zeitdauer wie Astronauten für die Fahrt zum Mond brauchen. Mit der Etablierung moderner Sonnenobservatorien wie dem kürzlich errichteten STEREO (einem Paar baugleicher Raumsonden, die die Sonne und das gesamte dynamische Geschehen an der Sonnenoberfläche und in Sonnennähe beobachten), kann man sehen, wann ein koronaler Massenauswurf beginnt und die Mission verschieben, bis sich der Sturm gelegt hat.

    Eine unterschiedliche Situation ist für Astronauten (Kosmonauten, Taikonauten) auf ihrer monatelangen Fahrt zum Mars gegeben. Deren Raumschiff wird die volle Kraft der Weltraumstürme erleben mit tödlichen Folgen oder zumindest schweren Strahlenschäden für die Besatzung, sofern das Raumschiff nicht massiv abgeschirmt ist. Abschirmung ist prinzipiell möglich, jedoch bedeutet dies Erhöhung des Gesamtgewichts durch dicke Schichten von Metall oder Verbundstoffen, Wassertanks oder starken magnetischen Abschirm-Vorrichtungen.

    Die Entwicklung leichtgewichtiger Abschirmung gegen Sonnenstürme und gegen die noch schädlichere kosmische Strahlung, die ihren Ausgang in Supernova-Explosionen hat (ungleich andere Voraussetzungen als zur Abschirmung von Strahlung in der Nähe undichter Atomkraftwerke), wird essentielle Voraussetzung sein, um bemannte interplanetare Raumfahrt bis zum Mars und noch weiter möglich zu machen.

    Klassische Erkundung

    Erkundung im klassischen Sinn, das bedeutet das Vordringen zu neuen Grenzen und ein Ausdehnen des menschlichen Lebensbereichs in den Weltraum, unterscheidet sich von der vorher besprochenen wissenschaftlichen Erkundung. Hier spielt nun die Kostenfrage keine so große Rolle und auch das Risiko für das Leben steht nicht mehr zur Diskussion.

    Während Leute, die ihr Leben riskieren um zu neuen wissenschaftlichen Erkenntnissen zu gelangen, häufig als potentielle Selbstmörder angesehen werden, werden Menschen, die für irgendein größeres Ziel ihr Leben lassen, zu Helden. Ebenso wie bei der Erkundung der Polargebiete, bei den Erstbesteigungen der 8000-Meter hohen Gipfel im Himalaja und auch bei der Apollo-Mission, kommen nationales Prestige und Patriotismus mit ins Spiel und platzieren die Kosten, seien es finanzielle oder das Risiko umzukommen, in die zweite Reihe. Auch wenn sie Patriotismus oder Nationalstolz durchaus nicht befürworten, meinen viele Menschen (der Autor miteingeschlossen), dass faktische Erkundung einer höheren Förderung würdig ist als rein wissenschaftliche Erkundung. Wenn auch die meisten Weltraum-Wissenschafter nicht zustimmen werden, dass einige Kilogramm von Menschenhand mitgebrachte Marsbrocken eine halbe Billion Euros und eine mögliche Gefährdung des Lebens wert sind, so fühlen sie tief im Herzen wie alle Menschen: In der klassischen Erkundung können Roboter aufklären, aber nicht Menschen ersetzen.

    Wie viele historische Erkunder werden die Weltraumerkunder während ihrer Expeditionen auch wissenschaftlich arbeiten. Gute Beispiele sind dafür Polarforscher. Oberste Priorität von Fridtjof Nansen waren nicht neue Erkenntnisse über die Polarregion, trotzdem enthält sein zweibändiger Bericht über die Reise des Schiffes „Fram“ in den Jahren 1893-96 eine Fülle an neuem Wissen über die Nordküste von Westsibirien und über das Arktische Meer.

    Schlussfolgerung

    Der Einsatz von Menschen für die rein wissenschaftliche Erforschung des Weltraums verbietet sich – auf Grund der exzessiv hohen Kosten und des hohen Risikos. Für die Erkundung im klassischen Sinn, das ist die Reise zu unbekannten Regionen, ist aber eine Beteiligung von Menschen unabdingbar, und die hohen Kosten und Risiken werden tragbar. Aus diesem Grund können die Impulse zur Erforschung des Weltraums nicht von der Wissenschaft ausgehen. Nichtsdestoweniger sind neue wissenschaftliche Erkenntnisse ein natürliches Nebenprodukt bemannter Expeditionen zu Mond, Mars und darüber hinaus.


    Glossar

    Asteroide (Kleinplaneten, Planetoiden): felsige und metallische Objekte mit einem Durchmesser bis zu 1000 km, die die Sonne umkreisen

    Ionosphäre: äußerste Schicht der Erdatmosphäre bestehend überwiegend aus geladenen (ionisierten) Teilchen - daher der Name. Beginnt in etwa 80km Höhe und geht fließend in den freien Raum über.

    Kometen: bestehen aus verschiedenen Arten von Eis, Mineralien und organischen Stoffen. Im Inneren sehr ähnliche Zusammensetzung wie Urmaterie aus der die Planeten unseres Sonnensystems entstanden sind. Bei Annäherung an die Sonne erwärmt sich der Komet und emittiert Gas und Staub (= Kometenschweif).

    Lander: Raumsonde, die auf einem Himmelskörper landet und dort Forschungsaufgaben erfüllt

    Orbiter: Raumsonde, die einen Himmelskörper umkreist

    Rover: bemanntes oder ferngesteuertes motorisiertes Geländefahrzeug zur Erkundung, fremder Himmelskörper.

    Sample Return: Proben eines Himmelskörpers oder Partikel aus dem Weltraum werden zur Erde zurückgeführt.

    Unser Sonnensystem: besteht aus 8 Planeten, diversen Zwergplaneten, > 80 natürlichen Satelliten (umgangsspr. „Monden“), unzähligen Kometen sowie Asteroiden und ist erfüllt von Magnetfeldern, Strahlung jeder Art und einem steten Strom von geladenen Sonnenwind-Teilchen.

    Van-Allen-Gürtel: Strahlungsfeld um die Erde, resultierend aus dem Sonnenwind und der kosmischen Strahlung

     


    Weiterführende Präsentationen und Links

    Informationen zu Erdkörper, Weltraum, Missionen und diesbezüglichen Aktivitäten des Instituts für Weltraumforschung

    G. Kargl, Mars: Fernerkundung durch Raumsonden (Präsentation; PDF)

    C. Moestl, Hurrikans im Sonnenwind


    inge Thu, 29.09.2011 - 05:20

    Der kleine warme Tümpel — Was urtümliche Einzeller von der Frühzeit des Lebens berichten

    Der kleine warme Tümpel — Was urtümliche Einzeller von der Frühzeit des Lebens berichten

    Fr, 22.09.2011- 00:00 — Gottfried Schatz

    Icon Biologie

    Gottfried Schatz

    «Woher kommen wir?» Diese Frage hat uns Menschen seit Urzeiten beschäftigt, doch lange konnten allein Mythen und heilige Bücher uns darauf eine Antwort geben. Erst als Biologen über die Entstehung der vielfältigen Lebensformen nachzudenken begannen, erkannten sie, dass diese keine einmaligen Schöpfungen waren, sondern sich unaufhörlich zu neuen Lebensformen wandelten.

    An diesem Stammbaum des Lebens [1] sind wir Menschen nur ein winziger und später Zweig. Doch wo liegen die Wurzeln dieses Baums?

    Wie begann das Leben auf unserer Erde?

    Diese Frage werden wir wohl nie mit letzter Sicherheit beantworten können. Wir wissen aber, dass unsere Erde schon bald nach ihrer Entstehung Leben trug. Kurz zuvor hatte der Aufprall eines verirrten Planeten sie in einen weissglühenden Feuerball verwandelt und ihr dabei den Mond entrissen, und in den folgenden Hunderten Jahrmillionen schlugen ihr gewaltige Meteore unzählige Krater, die heute wieder eingeebnet sind. Doch als vor 3,6 bis 3,8 Milliarden Jahren wieder Ruhe einkehrte, gab es bereits Leben. Waren die heißen Krater vielleicht Retorten, in denen unbelebte Materie sich zu Leben formte? Könnte es sein, dass das biblische Paradies fatal der Hölle glich?

    Tatsächlich leben heute die urtümlichsten Organismen in kochend heißen Geysiren und Schwefelquellen, in kilometertiefen Erdspalten und sogar in glosenden Kohleabfallhalden. Ihr extremstes Habitat sind jedoch Erdspalten am Meeresboden, denen bis zu 500 Grad heißes Wasser entquillt. Wenn dieses Wasser, das wegen des hohen Drucks nicht siedet, auf das eiskalte Wasser des Meeresgrundes trifft, entlässt es gelöste Metallsalze, die als dichter Rauch nach oben steigen und diesen unterseeischen Erdspalten den Namen „Schwarze Raucher“ gegeben haben. In diesem heißen, lichtlosen und chemisch hoch reaktiven Mikrokosmos tummeln sich Mikroorganismen, welche die primitivsten und widerstandsfähigsten aller bekannten Lebewesen sind.

    Einige von ihnen sind kleiner als die Wellenlänge des grünen Lichts; andere enthalten das in Zellen nur ganz selten vorkommende Metall Wolfram; viele vermehren sich nur in bei 100 Grad Celsius und stellen unterhalb von 80 – 90 Grad ihr Wachstum ein; und wieder andere überleben Temperaturen von bis zu 130 Grad. Warum ihre Proteine so hitzebeständig sind, ist noch rätselhaft, da sie weitgehend den unseren gleichen. Unter dem Mikroskop sehen diese Einzeller zwar wie Bakterien aus, haben aber mit diesen sonst wenig gemein. Deshalb ordnen wir sie der Domäne „Archaea“ zu. Ihr Erbmaterial verrät, dass sie am Stammbaum des Lebens den untersten Ast bilden. Sie sind die engsten überlebenden Verwandten des unbekannten Urwesens, von dem alles Lebens auf unserer Erde abstammt.

    Auch der Stoffwechsel dieser Einzeller trägt den Stempel einer urtümlichen und vulkanischen Welt. Viele von ihnen gewinnen ihre Lebensenergie weder aus Sonnenlicht noch durch die Verwertung von Biomasse, sondern aus geochemischen Prozessen. Im Gegensatz zu den meisten heutigen Lebewesen sind sie nicht Kinder des Lichts, sondern Geschöpfe der Unterwelt. Man fand sie in 20 Millionen Jahre altem heissem Wasser aus der südafrikanischen Mponeng Goldmine, eine der tiefsten Minenschächte der Welt. Diese Hadesbewohner benützen als Energiequellen Wasserstoffgas und schwefelhaltige Salze, die sie zu übelriechendem Schwefelwasserstoff umsetzen. Das Wasserstoffgas bildet sich durch die Einwirkung von heißem Wasser auf eisenhaltige Basalte. Das Leben um uns herum nährt sich von Luft und Licht – das Leben im Erdinneren von Wasser und Gestein.

    Obwohl es diesen unterirdischen Einzellern offenbar nicht an Energie fehlt, wachsen sie milliardenfach langsamer als die meisten anderen Mikroorganismen. Wahrscheinlich haben sie nicht genügend biologisch verwertbaren Stickstoff – dieser ist selbst an der Erdoberfläche Mangelware. Wie viel Leben regt sich wohl in den Tiefen unserer Erde – oder auf anderen Planeten oder Monden unseres Sonnensystems? Mars und der Jupitermond Europa sind zwar unwirtlich kalt, tragen aber Wasser, das auf Mars unterirdische warme Nischen und auf Europa sogar unterirdische Ozeane mit einem eigenen Meeresboden bilden könnte. Beide Himmelskörper könnten Archaea-ähnlichen Einzellern also unterirdische Lebensräume bieten. Sollten wir je Leben anderswo in unserem Sonnensystem finden, wird es wahrscheinlich dem gleichen, das wir in den Tiefen unserer Erdkruste und den Spalten unserer Meeresböden finden.

    Oft vergessen wir, welch unvollständiges und verzerrtes Bild unsere Sinne vom Leben auf der Erde zeichnen. Mehr als die Hälfte aller Biomasse besteht aus Bakterien und Archaea, von denen wir die Mehrzahl noch gar nicht kennen. Wir haben bisher weniger als 10'000 von ihnen identifiziert – nicht einmal ein Tausendstel der 10 Millionen Arten, die es wahrscheinlich gibt. Und nur eine einzige von ihnen könnte kraft ihrer besonderen Eigenschaften unsere heutigen Vorstellungen von der Entstehung des Lebens völlig über den Haufen werfen.

    Eindrückliche Zeugen unseres Unwissens sind die Wasserproben, die amerikanische Biologen auf einer zweijährigen Expedition aus verschiedenen Regionen der Weltmeere einsammelten. Die Forscher waren im Jahre 2003 auf einer umgebauten Privatjacht von Halifax aus die nordamerikanische Ostküste hinab, durch den Panamakanal in den Pazifik und über die Galapagos Inseln bis hin nach Polynesien gesegelt. Auf dieser Reise entnahmen sie alle 320 Kilometer eine Wasserprobe und untersuchten das in ihr enthaltene Genmaterial – eine rasche und eindeutige Methode, um Mikroorganismen zu identifizieren, ohne sie mühsam züchten zu müssen. Das Resultat überraschte sogar die Forscher: In jedem Teelöffel Meereswasser fanden sie Millionen von Bakterien und mindestens 10 bis 20 mal so viele Bakterienviren. Unzählige neue Gene und Bakterienarten waren die reiche Beute dieser Expedition. Und dabei entstammten die Wasserproben nur der Meeresoberfläche. Wer weiss, was die lichtlosen Tiefen der Ozeane verbergen?

    In einem Brief an den Botaniker Joseph Hooker vermutete Charles Darwin, dass Leben in einem “kleinen warmen Tümpel“ entstanden sein könnte. Bescheiden wie er war, fügte er jedoch hinzu „Im Moment ist es glatter Unfug, über den Ursprung des Lebens nachzudenken; ebenso gut könnte man über den Ursprung der Materie sinnieren”. Seither haben wir beides gewagt und atemberaubende Erkenntnisse über den Ursprung des Universums und die Herkunft des Menschen gewonnen. Eine dieser Erkenntnisse ist, dass Darwins kleiner warmer Tümpel wahrscheinlich ein brodelndes Kraterloch war und sich das Leben erst im Verlauf der darauffolgenden Jahrmilliarden an die tieferen Temperaturen der alternden Erde gewöhnen musste. Die Frage, woher wir kommen, harrt immer noch einer eindeutigen Antwort.

    Für mich ist dies kein Grund zur Trauer. Leben ist auch deshalb so faszinierend, weil wir noch so wenig darüber wissen.


    Weiterführende Links

    [1] The Tree of Life Web Project

    inge Thu, 22.09.2011 - 01:00

    Multi-scale Analysen zur Prognose der Tragsicherheit von Bauwerken

    Multi-scale Analysen zur Prognose der Tragsicherheit von Bauwerken

    Fr, 15.09.2011- 04:20 — Herbert Mang

    Herbert MangIcon MINT

    Worum geht es bei solchen Analysen? Viele Baustoffe weisen ungeachtet ihres makroskopisch homogenen Erscheinungsbildes eine inhomogene Mikrostruktur auf. Sie enthalten verschiedene Bestandteile, die sich auf einer hinreichend kleinen Längenskala unterscheiden lassen. Multi-scale Analysen erlauben die Quantifizierung des Einflusses der Mikrostruktur auf das makroskopische mechanische Verhalten solcher Materialien.

    Worin liegt die praktische Bedeutung solcher Analysen?

    Multi-scale Analysen ermöglichen wirklichkeitsnahe mathematische Beschreibungen des Materialverhaltens. Da der Kollaps von Bauwerken oftmals eine Folge von Materialversagen ist, hängt die Qualität von Prognosen möglicher Kollapsszenarien wesentlich von der Qualität solcher Beschreibungen ab.

    Woher stammt das Wissen um solche Szenarien?

    Um vorhersehbare Schadensfälle im Bauwesen zu verhindern bzw. die Schäden infolge unvorhersehbarer Naturkatastrophen für Mensch, Bauwerk und Umwelt möglichst klein zu halten, beschäftigt sich die baumechanische Forschung intensiv mit dem Versagen von Konstruktionselementen und damit zusammenhängend mit dem Kollaps von Bauwerken. Darauf beziehen sich die ersten drei der vier folgenden Beispiele.

    Ferrybridge: Einsturz Kühlturm Das erste betrifft den Baustoff Stahlbeton und bezieht sich auf den Einsturz dreier je 114 m hoher, aus diesem Baumaterial hergestellter Kühltürme in England im Jahre 1956 während eines orkanartigen Sturms. Das linke Bild zeigt den Einsturz eines der drei Kühltürme, während das rechte die Situation nach dem Einsturz der Kühltürme illustriert.
    Das zweite Beispiel bezieht sich auf den Baustoff Holz. Es betrifft den Einsturz einer aus diesem Baumaterial errichteten Eissporthalle in Bad Reichenhall Anfang Jänner 2006. Ausgelöst wurde er durch eine zwar außergewöhnlich große Schneebelastung, die jedoch kleiner als die der statischen Berechnung zugrunde gelegte Schneelast war. Einer der Einsturzgründe war die durch Feuchtigkeit in der Eissporthalle verursachte erhebliche Schädigung der mit einem Klebstoff aus Harnstoff-Formaldehyd geklebten Verbindungen der Dachkonstruktion. Bad Reichenhall: Einsturz Eishalle
    Straßenschäden Das dritte Beispiel betrifft den Baustoff Asphalt und handelt von Schäden an Straßen zufolge von kombinierter Beanspruchung aus Temperatur und Verkehr. Sie bewirken eine Reduktion der Verkehrssicherheit. Die Sanierung solcher Schäden sowie allfällige damit verbundene Straßensperren verursachen zumeist hohe Kosten.
    Das letzte Beispiel – der Bruch eines menschlichen Knochens – betrifft zwar keine Baukonstruktion, lässt sich nichtsdestoweniger aber mit der Methodik, die Multi-scale Analysen zu eigen ist, behandeln. Experimentelle und numerische biomechanische Forschung erfolgt sowohl auf dem Niveau ganzer Knochen – ein solcher ist im linken Bild zu sehen – als auch auf der Ebene der Rissfortpflanzung, worauf sich die beiden rechten Bilder beziehen. Das untere Bild zeigt Kollagenmoleküle, die den Bruchfortschritt durch Brückenbildung über den Riss hinweg zu bremsen scheinen, wodurch die Zähigkeit des Materials erhöht würde. Knochenbruch

    Experimentelle Simulationen des Versagens von Baukonstruktionen stoßen vielfach an technische und finanzielle Grenzen. Deshalb kommt rechnerischen Simulationen – vor allem mittels der außerordentlich vielseitigen Methode der Finiten Elemente – große Bedeutung zu. Dabei spielen Multi-scale Analysen eine immer stärkere Rolle. Ein wesentlicher Bestandteil solcher Analysen sind Homogenisierungsverfahren.

    Was versteht man unter solchen Verfahren?

    Bei Homogenisierungsverfahren Homogenisierungsverfahrenwerden effektive Materialeigenschaften, wie z.B. Festigkeit, Steifigkeit, Wärmeausdehnung, Wärmeleitfähigkeit, bestimmte weitere Transporteigenschaften, elektromagnetische Charakteristika, usw., aus entsprechenden Eigenschaften der einzelnen Bestandteile und aus deren geometrischer Anordnung abgeleitet. Voraussetzung für die Anwendbarkeit solcher Verfahren ist die Möglichkeit, ein sogenanntes repräsentatives Volumenelement (RVE) zu definieren. Seine charakteristische Länge muss zumindest eine Größenordnung kleiner als die Abmessungen L und der untersuchten, in der nachstehenden Abbildung grau unterlegten Struktur bzw. der auf sie einwirkenden Belastung sein. Die in dieser Abbildung aufscheinende mathematische Beziehung, in der d für die charakteristische Abmessung der einzelnen Bestandteile steht, wird als „separation-of-scales-Bedingung“ bezeichnet. Die Homogenisierung besteht in der Ermittlung eines mechanisch äquivalenten Materials für das RVE. Seine Steifigkeit Chom – sie kennzeichnet den Zusammenhang von Verzerrungen und Spannungen – lässt sich beispielsweise mittels der Kontinuumsmikromechanik aus der chemischen Zusammensetzung des RVE, den Steifigkeiten cr der Einzelbestandteile, ihrer Morphologie – etwa kugelförmig oder zylindrisch – sowie aus ihrer Interaktion ermitteln.

    Als Beispiel für Multi-scale Analysen in der Baumechanik diene die Ermittlung von Steifigkeit und Festigkeit von jungem Spritzbeton.

    Worum handelt es sich bei einem solchen Beton?

    Spritzbeton ist ein in einem besonderen Verfahren hergestellter und eingebauter Beton, der unter anderem zur Konsolidierung des Vortriebs im Rahmen der Neuen Österreichischen Tunnelbaumethode verwendet wird. Beton ist in der Regel Umwelteinflüssen wie etwa Temperaturschwankungen und dem Transport aggressiver Fluide, ausgesetzt. Eine realitätsnahe Beschreibung des Materialverhaltens erfordert neben der Einbeziehung unterer Wirkungsebenen in die Multi-scale Modellierung die Erfassung der Bauteil- bzw. Strukturverformung, der Temperaturverteilung sowie etwaiger Transportprozesse. Es liegen also mehrere Variablenfelder vor. Zur Lösung des kombinierten Mehrskalen- und Mehrfeldproblems ist folglich neben der Multi-scale Modellierung ein Multi-field Ansatz erforderlich.

    Wechselwirkungsfelder bei Beton

     

     

     

     

    Welche Felder enthält dieser Ansatz?

    Bei der Hydratation jungen Betons kommt es zu einer Temperaturerhöhung im Bauteil und in weiterer Folge zu einer Verbesserung der mechanischen Eigenschaften des Betons. Andererseits beeinflusst die Temperatur die chemische Reaktion zwischen Zement und Wasser. Verzerrungen infolge von Temperaturänderungen bewirken eine zusätzliche mechanische Beanspruchung der Struktur. Bei jungem Beton stehen also die Felder Chemie, Temperatur und Mechanik miteinander in Wechselwirkung. Folglich sind diese drei Felder im Multi-field Ansatz zu berücksichtigen. Multiskalenmodell für Beton

     

    Wie sieht ein typisches Multi-scale Modell für Beton aus?

    Infolge von Hydratation ändert sich die Materialzusammensetzung des jungen Betons. Bei der vorliegenden Multi-scale Modellierung wird diese Änderung auf den beiden untersten Ebenen – der Hydrat- bzw. Klinkerebene und der Zementsteinebene – berücksichtigt. Zusätzlich zu diesen beiden Betrachtungsebenen weist das abgebildete Multi-scale Modell für jungen Beton zwei weitere Betrachtungsebenen – die Mörtel- und die Makroebene – auf. Die makroskopischen Materialeigenschaften werden mittels geeigneter Homogenisierungsverfahren auf Basis der Morphologie der Einzelbestandteile und ihrer mechanischen Eigenschaften auf den drei unteren Betrachtungsebenen erhalten.

    Wie lassen sich die mechanischen Eigenschaften dieser Bestandteile identifizieren?

    Die Identifizierbarkeit dieser Eigenschaften wurde durch jüngere Entwicklungen auf dem Gebiet der Nanoindentation, auf das sich die folgende Abbildung bezieht, erleichtert. Bei der Nanoindentation dringt eine diamantene Spitze von gegebener Form in die Oberfläche des Betons ein. Dabei werden Kraft und Eindringung als Funktionen der Zeit aufgezeichnet. Aus den erhaltenen Kraft-Eindringungskurven lassen sich elastische und viskose Charakteristika sowie Festigkeitseigenschaften bestimmen. Aufgrund der Heterogenität des Betons werden für die statistische Auswertung Indentitätsversuche in den Punkten eines quadratischen Rasters durchgeführt. Die drei Konturplots in der nachstehenden Abbildung zeigen die Verteilung des Elastizitätsmoduls über die gerasterte Oberfläche für drei Zemente mit verschiedenen Mahlfeinheiten. Der Abstand zweier benachbarter Rasterpunkte beträgt fünf Mikrometer. Mit den solcherart ermittelten Eigenschaften lassen sich die elastischen Eigenschaften von Beton auf Basis seiner Zusammensetzung durch Homogenisierung bestimmen. Die Qualität der Prognose elastischer Eigenschaften wird in Validierungsversuchen überprüft. Wie das Bild rechts unten zeigt, stimmt der für einen typischen Spritzbeton prognostizierte Elastizitätsmodul in Abhängigkeit vom Hydratationsgrad gut mit experimentell ermittelten Werten des Elastizitätsmoduls überein. Identifizierungsversuche Spritzbeton

     

    Wie bestimmt man die Tragsicherheit von Spritzbetonschalen beim Tunnelvortrieb mittels des vorgestellten Multi-scale Modells?

    Dieses Modell wurde in ein hybrides – experimentelles und numerisches – Verfahren zur Bestimmung der Auslastung von Spritzbetonschalen beim Tunnelvortrieb implementiert. Mittels des Modells werden im Rahmen des erwähnten Verfahrens die elastischen Eigenschaften sowie das Kriech- und Schwindverhalten des Spritzbetons bestimmt. Auf diese Weise fließen die jeweilige Materialzusammensetzung und die Baustellenverhältnisse in die Berechnung ein. Zwischen den in einzelnen Punkten der Tunnellaibung gemessenen Verschiebungen wird interpoliert. Damit stehen die zeitlich veränderlichen Randwerte zur Ermittlung des zeitlich variablen Verformungs- und Spannungszustands in der Schale durch Lösung einer kombinierten Rand- und Anfangswertaufgabe zur Verfügung. Bei Kenntnis der zeitlichen Evolution des Spannungszustands lässt sich die Evolution des Auslastungsgrades bestimmen. Dieser ist durch den Abstand des Punktes a im rechten unteren Bild der nachstehenden Abbildung von dem auf der Versagenskurve gelegenen Punkt b gekennzeichnet. Der Punkt a repräsentiert den Spannungszustand im betrachteten Punkt der Spritzbetonschale. Die Versagenskurve stellt den geometrischen Ort aller kritischen Spannungszustände dar. Ihre Form hängt vom gewählten Materialmodell ab. Ein Auslastungsgrad von 100 % signalisiert Materialversagen. Aufgabenstellung: Auslastungbestimmung bei SpritzbetonschaleDas linke und das mittlere farbige Bild zeigen den zeitlichen Verlauf der Verteilung des Auslastungsgrades über einen bestimmten Querschnitt beim Vortrieb des Lainzertunnels am Stadtrand Wiens, wobei zuerst nur an der Firste und erst später an den Ulmen ausgebrochen und mit Spritzbeton gesichert wurde. Mit den mit Hilfe des Multi-scale Modells bestimmten elastischen und viskosen Materialeigenschaften wird die Berechnung als Multi-field Analyse durchgeführt. Auf diese Weise lässt sich etwa der Temperaturanstieg in der Spritzbetonschale in der Frühphase der Hydratation realitätsnahe quantifizieren. Die stark ausgeprägte Kriechfähigkeit des jungen Spritzbetons führt zu einem raschen Abbau der in der Schale anfänglich aufgebauten Druckbeanspruchung, die eine Verringerung der Auslastung nach sich zieht.

    Was blieb bei der Beschreibung der vorgestellten Multi-scale Analyse ausgeblendet?

    Es waren das vor allem mechanische, thermische und chemische Details der Analyse von Steifigkeit und Festigkeit von jungem Spritzbeton. Dazu kam die algorithmische Übersetzung problemspezifischer gekoppelter nichtlinearer partieller Differentialgleichungen und die mit entsprechenden Algorithmen für inkrementell-iterative numerische Berechnungen verbundenen Probleme der numerischen Stabilität und der Konvergenzgeschwindigkeit. Nicht berücksichtigt, weil im gegebenen Fall nicht erforderlich, wurden ferner extrem kleine Längenskalen, die eine atomistische Modellierung verlangen würden, sowie Zeitskalen.

    Abschließende Bemerkungen

    Neben der Forderung nach ausreichend großer Tragsicherheit, um die es in diesem Beitrag ging, müssen Bauwerke Mindesterfordernisse an Gebrauchstauglichkeit und Dauerhaftigkeit erfüllen, den Forderungen nach angemessenen Bau- und geringen Betriebskosten sowie möglichst geringer Beeinträchtigung der Umwelt entsprechen und darüber hinaus ästhetischen Ansprüchen genügen. Breit ausgebildete und gebildete Bauingenieure, ausgestattet mit hoher fachlicher und sozialer Kompetenz, bieten gute Voraussetzungen für die Erfüllung der erwähnten Forderungen. Unter breiter Ausbildung ist eine umfassende wissenschaftliche Fachausbildung zu verstehen, die auf ein breites mathematisches, naturwissenschaftliches und informationstechnisches Fundament aufsetzen muss. Bestandteil der Bildung aber sollte ganz allgemein die Erkenntnis sein, dass es nicht zuletzt die Wissenschaft ist, die einen wesentlichen Anteil an der Funktionstüchtigkeit technischer Schöpfungen hat. H. Mang


    Anmerkungen der Redaktion

    Glossar

    Algorithmus: Berechnungs- bzw. Handlungsvorschrift zur Lösung eines Problems in endlich vielen und eindeutig beschriebenen Schritten

    Asphalt: ein Gemisch aus Bitumen und Gestein mit Korngrößen bis zu einer je nach Asphaltart unterschiedlichen Maximalgröße. Teer (Abfallprodukt der Holzkohle- und Koksgewinnung) wird aufgrund seiner krebserregenden Eigenschaften im Straßenbau nicht mehr eingesetzt.

    Bitumen: letzter Rückstand bei der Raffinierung von Erdöl und dort im Grunde Abfallprodukt. Besteht aus einem Gemisch von Kohlenwasserstoffketten unterschiedlichster, aber durchwegs großer Längen. Die kürzerkettigen Kohlenwasserstoffe wurden durch die Raffinierung bereits als div. Alkohole, Benzin, Kerosin, Diesel bzw. Heizöl leicht, Heizöl schwer etc. extrahiert.

    Beton: Gemisch aus Zement, Gesteinskörnung und Anmachwasser (zusätzlich Betonzusatzstoffe/mittel). Die Reaktion mit Wasser (Hydratation) führt zum Auskristallisieren der Klinkerbestandteile des Zements, wobei die endgültige Festigkeit erst nach längerer Zeit erreicht wird.

    Fluid: Flüssigkeiten und Gase unterscheiden sich in vielen Eigenschaften nur größenordnungsmäßig und werden als Fluide zusammengefaßt: fließende Stoffe.

    Kollagen (letzte Silbe betont): häufigstes Protein bei Säugetieren (über 30 % des Gesamtproteins) und Hauptkomponente der extrazellulären Matrix des Bindegewebes (in Knorpel, Bändern Sehnen, Haut, Knochen,..). Kollagen liegt vor assoziiert zu langen Fibrillen und Fasern von hoher Zugfestigkeit.

    Mörtel: Gemisch aus Bindemittel (Zement oder Kalk), Gesteinskörnung (maximal 4mm Korngröße) und Anmachwasser (zusätzlich Betonzusatzstoffe/mittel).

    Stahlbeton: Verbundwerkstoff, bei dem die Druckfestigkeit des Beton und die Zugfestigkeit eingelegter Stahltrossen oder Gitterstahllagen kombiniert werden.

    Zement: Bindemittel für Beton und Mörtel. Zement ist ein feingemahlenes kompliziertes anorganisches Stoffgemisch - bei hohen Temperaturen gebranntes Rohmehl aus Kalkstein, Sand, Ton, Eisenerz (Klinker), vermahlen mit weiteren Zusätzen -, das nach Anrühren mit Wasser (Anmachwasser) unter Ausbildung von Hydraten/Hydratphasen erstarrt und erhärtet (Hydratation).


    Weiterführende Links

    Zum Thema Mehrskalen-Analyse siehe auch den Artikel von Josef Eberhardsteiner: »Holzkonstruktionen werden berechenbar — Neue gestalterische Möglichkeiten im Ingenieurholzbau« im ScienceBlog

    Multiskalenansätze zur Bewältigung von Komplexität in Natur- und Geisteswissenschaften: H. Neunzert: Vortrag anlässlich der Verleihung des Akademiepreises des Landes Rheinland-Pfalz am 21.11.2001; p.10 - 12 http://www.itwm.fraunhofer.de/fileadmin/ITWM-Media/Zentral/Pdf/Berichte_ITWM/2001/bericht29.pdf

    Aufsatz: Zukunft im Rechner (p 8 – 12): http://www.fraunhofer.de/archiv/magazin04-08/fhg/Images/magazin3-2006_tcm5-65475.pdf

    Entwicklung integrativer Zukunftsfelder neuen Zuschnitts - Transdisziplinäre Modelle und Multiskalensimulation (Fraunhofer ISI und IAO, Foresight-Prozess – Im Auftrag des Deutschen Bundesministeriums für Bildung & Forschung) http://www.bmbf.de/pubRD/05_Modelle_Multiskalensimulation_Auszug.pdf

    zum Tunnelbau: http://www.geodz.com/deu/d/Tunnelbau

    inge Thu, 15.09.2011 - 05:20

    Grundlagenforschung in Österreich: Förderung des wissenschaftlichen Nachwuchses

    Grundlagenforschung in Österreich: Förderung des wissenschaftlichen Nachwuchses

    Fr, 08.09.2011- 04:20 — Peter Schuster

    Peter SchusterIcon Politik & Gesellschaft

    Besondere Bedeutung kommt Exzellenzstrategien bei der Rekrutierung und Ausbildung des wissenschaftlichen Nachwuchses zu. Erfolg verspricht die kompromisslose Kombination von drei Faktoren:

    (i) möglichst frühe Erkennung von Talenten,

    (ii) Förderung durch gezielte Herausforderungen und aktive Betreuung und

    (iii) Ausbildung in Institutionen der Weltspitze.

    Die uneingeschränkte Zulassung aller Interessenten für (fast) alle Fächer ist schlicht und einfach Realitätsverweigerung oder drastischer ausgedrückt Unfug [1]. Zum Forscher benötigt man ebenso Eignung wie zum Musiker oder Schifahrer. Niemand würde auf die Idee kommen, jemanden der jämmerlich auf der Violine kratzt zum Studium am Mozarteum zuzulassen oder einen Schifahrer der nur mühsam Bogen fahren kann, in den nationalen Schikader aufzunehmen. Unzureichende Selektion vergeudet nicht nur sehr viel Geld sondern macht die unbewusst Ungeeigneten zumeist für ein Leben lang unglücklich. Überfüllte Studienfächer mit eklatantem Personalmangel und dadurch unvermeidbar schlechter Ausbildung helfen niemandem.

    Zudem kommt noch erschwerend, dass auf Grund der Gesetze in der Europäischen Union Studierende einschließlich der Studienanfänger, die aus anderen EU-Ländern kommen, unter den gleichen Bedingungen wie Österreicher zum Studium zugelassen werden müssen. Um nicht missverstanden zu werden, Ortsveränderungen während des Studiums sind sehr wichtig und die Mobilität ist in Europa ohnehin viel zu gering. Das Problem aber ist die Zuwanderung von Studierenden, die auf Grund von Selektionskriterien in ihrem Heimatland keinen Studienplatz bekommen haben, und deshalb sind es nicht immer die besten, die in Österreich ihr Glück versuchen. Die meisten Studierenden in den Massenfächern schließen, wenn überhaupt, mit einem Mastergrad – seit kurzem auch mit einem Bachelorgrad – ab. Die zahlreichen Absolventen der Massenfächer können darüber hinaus mit ihrer oft schlechten Ausbildung kaum sinnvoll in den Arbeitsmarkt integriert werden.

    Von der völlig freien Studienwahl, wie sie dem sozialdemokratischen Bildungsideal entspricht, wird man sich wegen Nichtfinanzierbarkeit sehr bald verabschieden müssen [1]. Eine pragmatische Vorgangsweise müsste in vielen Fächern die Ausbildung an die Berufsbilder und den Bedarf des Arbeitsmarktes heranführen. Zwei Beispiele sollen dies illustrieren: Absolventen des Magisterstudiums in der Pharmazie haben in ihrer Ausbildung zwar gelernt, chemische Synthesen durchzuführen und Pflanzenextrakte zu bereiten, aber kaum etwas von den wissenschaftlichen, kommerziellen und politischen Rahmenbedingungen der zeitgemäßen Arzneimittelforschung und Arzneimittelentwicklung erfahren. Es gibt es einen klar überschaubaren Bedarf an Magistern in den Apotheken und dementsprechend sind ausreichend viele Studierende für diesen Beruf auszubilden. Es werden viel mehr Apotheker als pharmazeutische Forscher für Industrie und Hochschule gebraucht. Die letzteren benötigen jedoch eine längere und sehr viel tiefer gehende Ausbildung in den chemischen, biologischen und medizinischen Fächern. An einigen Hochschulen Deutschlands und der Schweiz werden diesem unterschiedlichen Bedarf Rechnung tragend verschiedene Ausbildungsgänge für die beiden Berufsbilder angeboten und damit Ressourcen gespart.

    Im Studium der chemischen und biologischen Fächer wurde an Österreichs Universitäten die Ausbildung in Mathematik und Physik reduziert, und dies entspricht einem fatalen lokalen Anachronismus, denn eine fächerüberschreitende Vereinheitlichung des Wissens in den naturwissenschaftlichen Kernfächern Physik, Chemie und Biologie einschließlich der Mathematik ist auf Weltniveau nicht mehr aufzuhalten. An einigen erfolgreichen Universitäten Großbritanniens wurden diesem Trend folgend chemische Departments in Departments für Chemie und Biologie oder in Departments für Materialwissenschaften umgewandelt. Bei der Reorganisation der Studien nach dem Bologna-Prozess wurde aus meiner Sicht eine große Chance verpasst: die Einführung eines Studiums zum gemeinsamen ‚Bachelor of Science‘ und eine Aufspaltung in die einzelnen naturwissenschaftlichen Fächer erst während des Masterstudiums. Viele andere Beispiele von Ausbildung verbessernden und dennoch kostenneutralen, wenn nicht sogar kostensparenden Maßnahmen sind ähnlich gelagert. Ein konstruktives Zusammenspiel von Fachhochschulen und Universitäten, um allen wirklich Talentierten eine optimale Ausbildung und Entfaltungsmöglichkeit zu bieten und gleichzeitig den gesellschaftlichen Bedarf voll abzudecken, wäre ein Gebot der Stunde.

    Andere Länder zeigen, wie man erfolgreich nach Talenten in der Wissenschaft Ausschau halten kann. Zwei Beispiele aus Ländern mit völlig verschiedenen politischen Systemen sollten als Illustration dienen:

    Chinesische Studenten werden vor der Zulassung zum Studium sehr selektiven Auswahltests unterzogen. Einer meiner früheren Mitarbeiter und Doktoranden ist ‚Full-Professor‘ für diskrete Mathematik an der Nankai University in Tien Tsin und führt an, dass er weder in Deutschland noch in den USA so gut ausgebildete Studenten hatte wie jetzt in China.

    Die Studienstiftung des deutschen Volkes ist ein Beispiel aus unmittelbarer Nähe: Schüler und Schülerinnen in den Abiturklassen werden mit Hilfe der Lehrkräfte und durch direkten Kontakt in Form von Interviews ausgewählt, erhalten ein Stipendium und werden während ihres Studiums von erfahrenen Vertrauensdozenten beraten und betreut. Eigene von der Studienstiftung veranstaltete Sommerkurse erweitern das Wissen der Betreuten. Bundesweit werden zurzeit jedes Jahr etwa 3000 Stipendiaten aufgenommen, die Gesamtzahl der Geförderten beträgt 9500 – Tendenz stark steigend – und darunter befinden sich 900 Doktoranden. Etwa 75% der Mittel der Studienstiftung, da sind 37,3 Millionen EUR kommen von der öffentlichen Hand. Die Zugehörigkeit zu den von der Studienstiftung Betreuten wird in Deutschland als eine Auszeichnung für besondere Leistungen empfunden. Ein besonders wichtiges Merkmal der Studienstiftung ist das Einsetzen der Förderung und der Betreuung schon bei Beginn des Studiums, wodurch Selektion und Studienberatung automatisch inkludiert sind. Es wird diskutiert, die Begabtenförderung auch auf die obersten Gymnasialklassen auszudehnen.

    Zum Unterschied von der Studieneingangsphase hat sich bei uns die Betreuung der Diplomanden und Doktoranden in den vergangenen zehn Jahren entscheidend verbessert. Die Österreichische Akademie der Wissenschaften (ÖAW) vergibt Stipendien, die Betreuung und Finanzierung von Auslandsaufenthalten zum Zweck der Erlernung von Techniken und der Durchführung von Arbeiten, die für den Fortschritt der Doktorarbeit essentiell sind, beinhalten. In vielen Fächern wurden Doktorandenkollegs eingerichtet, die eine volle Betreuung während der Dissertation sicherstellen. Ein weiterer wichtiger Schritt in Richtung internationaler Standards wäre die flächendeckende und zwingende Einführung eines fachspezifischen, internationalen Stellenausschreibungs- und Auswahlverfahrens für alle Doktoranden und zwar nicht durch einzelne Professoren sondern durch ein Kollegium, ein Verfahren welches zurzeit nur in einigen wenigen Fächern praktiziert wird. Auch für die PostDoc-Phase der wissenschaftlichen Karrieren gibt es einschlägige Programme: Das Erwin Schrödinger- und das Max Kade-Stipendium für Auslandsaufenthalte mit der Erwartung, dass die Stipendiaten nach Österreich zurückkehren werden, sowie die APART-Stipendien der ÖAW, welche die Zeit von der Promotion bis zu einer Habilitation überbrücken sollen.

    In die Karrieremöglichkeiten bereits etablierter junger Forscher ist in Österreich noch einiges zu investieren. Das wichtigste Kriterium für die Förderungsstrategie ist die vollständige wissenschaftliche Unabhängigkeit der Geförderten durch eigenes Budget und eigenes Personal. Nachwuchsgruppenleiter dürfen nicht einem Professor oder ‚Senior-Researcher‘ unterstellt sein. Die Start-Preise des Fonds zur Förderung der wissenschaftlichen Forschung (FWF) sind zwar vorbildlich in Hinblick auf die kompetitive Vergabe und die garantierte Unabhängigkeit der jungen Forscher aber zahlenmäßig viel zu wenige. Manche Wissensgebiete fallen völlig heraus, obwohl es in Österreich international erstrangige junge Leute in diesen Fächern gibt. Ein Vergleich der Nachwuchsförderung in den beiden etwa gleich großen Ländern Österreich und Schweiz ist überaus illustrativ (Tabelle 1).

    Tabelle 1: Förderung des wissenschaftlichen Nachwuchses in Österreich und in Schweiz

      Österreich (FWF) Schweiz (SNF)
      Zeitraum Anträge Erfolg % Zeitraum Anträge Erfolg %
    Gesamt 1996-2009 502 76 15 1999-2009 2522 402 16
    Pro Jahr 1996-2009 35,9 5,4 15 1999-2009 229,3 36,5 16

     

    Der österreichische Startpreis ist unmittelbar vergleichbar mit der erst drei Jahre später eingeführten Förderungsprofessur, welche vom Schweizerischen Nationalfonds vergeben wird. Die Erfolgsquoten für eingereichte Anträge sind nahezu gleich aber in der Schweiz werden mehr als fünfmal so viele Nachwuchsstellen vergeben. Deutschland hat mehrere Förderprogramme, welche von der DFG – Emmy Noether-Programm, Heisenberg-Professuren – , von der Max Planck-Gesellschaft – Nachwuchsgruppenleiterstellen – und privaten Institutionen vergeben werden. Nahezu alle diese Programme und ebenso die vom European Research Council (ERC) vergebenen Starting Grants haben sich als überaus erfolgreich etabliert. Ein sehr hoher Prozentsatz der Ausgezeichneten beginnt nach Auslaufen der Nachwuchsstellen eine erfolgreiche Karriere als Spitzenwissenschaftler. Leider verzeichnet Österreich eine besonders hohe Quote der Abwanderung der exzellenten Nachwuchsforscher in andere Länder, welche eine bessere Perspektive bieten. Maßgeblich, wenn auch nicht ausschließlich für diese prekäre Situation verantwortlich, ist das Fehlen einer transparenten, durchgängigen und dennoch höchst selektiven Karrierestruktur mit dem international üblichen Tenure Track.

    Ein gravierendes Problem des Brain Drains aus Österreich besteht in der Tatsache, dass die Kompensation in Form eines Brain Gains aus dem Ausland viel zu schwach ist. Dies beginnt mit dem Fehlen geeigneter Programme für Gastprofessoren der internationalen Spitzengruppe – etwa in Form der Humboldt-Professuren in Deutschland – und reicht bis zu schwachen Angeboten bei Berufungen. Im letzteren Fall hat dies zur Konsequenz, dass von ganz wenigen Ausnahmen abgesehen nur schwächere Wissenschaftler mit Erfolg aus dem Ausland nach Österreich angeworben werden. Es sind aber gerade die hochrangigen internationalen Gastwissenschaftler oder die rekrutierten Spitzenwissenschaftler, die mit ihrer Expertise die Wissenschaft eines Landes ungeheuer bereichern können.

    Österreich – eine entwickelbare Forschungslandschaft

    Bei der Feierlichen Sitzung 2010 der Österreichischen Akademie der Wissenschaften hat Präsident Denk den Satz geprägt: „Österreich hat keine entwickelte aber eine entwickelbare Forschungslandschaft.“ Ende des Zitats. An diese Worte möchte ich hier anknüpfen: Die Voraussetzungen für den Erfolg einer Exzellenzstrategie sind gegeben aber, um sie umzusetzen, fehlen kompromissloses Bemühen und konsequentes Durchhalten. Die gesetzliche Lage – UOG 2002 – ermöglicht den Universitäten eine schrittweise Umwandlung in forschungsintensive Spitzeneinrichtungen. Einer positiven Entwicklung stehen im Wesentlichen drei Hindernisse im Weg:

    (i) der gegenwärtige Geldmangel,

    (ii) die durch Gesetz verordnete Durchführung von Massenausbildung in einigen von Studierenden ‚überrannten‘ Fächern und

    (iii) jene Berufungsgremien, die kein Interesse an echter wissenschaftlicher Qualität haben.

    Alle diese Probleme sind nicht unüberwindbar und lassen sich mit entsprechendem Einsatz der Verantwortlichen in der Politik und an der Universität beheben. Zur Pflege der Forschung in einer naturwissenschaftlichen, technischen oder medizinischen Fachrichtung gehören dementsprechend zweierlei, genügend finanzielle Mittel, um den Gerätepark für Forschung und Lehre auf dem weltweit modernsten Stand halten zu können, und die Berufung von Spitzenforschern auf vakante Stellen. Mittelmäßige Forschung bringt keine Innovationen, sie kostet nur Geld für sogenannte ‚Me too‘-Projekte. Der Schaden, der durch eine Nichtbesetzung einer Professorenstelle entsteht, ist viel geringer als jener, der durch eine Fehlbesetzung verursacht wird. Wenn eine Aufstockung der finanziellen Mittel ausgeschlossen erscheint, dann kann der Mangel durch eine Verringerung der Personalstellen behoben werden. In vielen Fächern, vor allem im mathematisch-naturwissenschaftlichen und technischen Bereich ist das Verhältnis von Lernenden zu Lehrenden so günstig, dass eine richtig durchgeführte Reduktion des Lehrkörpers bei gleichzeitiger Steigerung der wissenschaftlichen Leistung keine Verschlechterung der Ausbildung nach sich zu ziehen bräuchte. Allerdings wäre eine solche ‚Redimensionierung‘ wegen der dienstrechtlichen Situation der Mitarbeiter in der Übergangsphase mit einigen zusätzlichen Kosten verbunden. In den vergangenen fünfzig Jahren österreichischer Wissenschaftspolitik gab es zwei Phasen einer beachtlichen Steigerung der von der öffentlichen Hand auf diesem Sektor aufgewendeten finanziellen Mittel: i) den Zeitraum von etwa zehn Jahren vor dem UOG 1975 (Eine kurz gefasste Schilderung der österreichischen Wissenschaftspolitik insbesondere in Hinblick auf den Fonds zur Förderung der wissenschaftlichen Forschung (FWF) findet sich in der Diplomarbeit von Richard Aichner [2]) und die Begleitmaßnahmen zur Implementierung des Gesetzes bis zum Ende der Achtzigerjahre und ii) die Zeit von 1998 bis 2008, in welcher die Zuwendungen des Bundes für Forschung und Entwicklung von 1 Milliarde EUR auf etwa 3 Milliarden EUR gesteigert wurden. Die erste Phase war wegen der Begleitumstände des UOG bei weitem nicht so wirkungsvoll, wie sie hätte sein können. Die zweite Phase hat es erlaubt, eine Reihe von Neuentwicklungen an den Universitäten und in der außeruniversitären Forschung in Richtung auf das Erreichen des Weltspitzenniveaus zu initiieren. Um diesen vor mehr als einem Jahrzehnt begonnenen Pfad einer Exzellenzstrategie in der Grundlagenforschung erfolgreich bis zu dem gewünschten Ziel weiter gehen zu können, müssen Schwachstellen in der österreichischen Wissenschaft beseitigt werden:

    (i) die akademische Forschung muss ausreichend gefördert werden und dazu sind entweder mehr direkte Mittel oder indirekte Mittel für eine Umgestaltung der Wissenschaftslandschaft notwendig,

    (ii) die Rekrutierung von Spitzenkräften für die Leitung wissenschaftlicher Einrichtungen muss noch deutlich verbessert werden und dies beinhaltet sowohl eine bessere, international konkurrenzfähige Ausstattung der Forschungsstätten mit Arbeitsmitteln und Personal als auch mehr Exzellenzbewusstsein bei der Auswahl und

    (iii) ein umfassendes und griffiges Programm zur Förderung des wissenschaftlichen Nachwuchses, um den ‚Brain Drain‘ umzukehren.

    Ausblick

    Im Sinne der Vision einer wesentlichen Rolle Österreichs im zukünftigen gemeinsamen Wissenschaftsraum Europa müssten die hier angesprochenen Probleme möglichst rasch gelöst werden. Dazu appelliere ich an die zuständigen Politiker wieder zu dem im Jahre 2008 geplanten und dann nach der Regierungsbildung verlassenen Forschungspfad zurückzukehren und wie in fast allen westlichen Ländern die Ausgaben für Bildung und Wissenschaft trotz oder gerade wegen der Krise zu erhöhen. Den Verantwortlichen an den Hochschulen kommt die Aufgabe zu, Exzellenzstrategien konsequent anzuwenden, und für Berufungen nur erstrangige Wissenschafter auszuwählen. Bei der Erstellung der laufenden Budgets für Forschungsgruppen, Abteilungen und Institute müssen die erbrachten Leistungen als Orientierung ernst genommen und persönliche Präferenzen oder Abneigungen hintangestellt werden. Wenn dann auch noch die Förderung der jungen Talente verstärkt wird, ist kein Grund zu sehen, warum die österreichische Wissenschaft nicht einen weltweit erstrangigen Platz einnehmen sollte, wie dies schon heute für die Schweiz, die Niederlande, die skandinavischen Länder und andere Staaten mit vergleichbarer Größe und ähnlich erfolgreichen Volkswirtschaften der Fall ist.


    Der Artikel ist der vierte Teil der ausführlichen Fassung eines Referates, das im vergangenen Jahr anläßlich des von der Österreichischen Akademie der Wissenschaften veranstalteten Symposiums „Wa(h)re Forschung“ gehalten wurde:


    Literatur

    [1] Hans Pechar. 2010. 30 Jahre Realitätsverweigerung sind genug. Der „offene Hochschulzugang“ liegt offenbar in den letzten Zügen, Und das ist gut so. – Vorauseilender Nachruf zu einem österreichischen Sonderweg und seine fatalen bildungspolitischen Folgen. Der Standard. 24./25.Juli 2010, p.31. [2] Christoph Aichner. 2007. 40 Jahre im Dienste der Forschung. Gründung und Geschichte des Fonds zur Förderung der wissenschaftlichen Forschung (1967-2007). Diplomarbeit, Universität Innsbruck, Philosophisch-Historische Fakultät.

    inge Thu, 08.09.2011 - 05:20

    Die letzten Tage der Wissenschaft (Satire)

    Die letzten Tage der Wissenschaft (Satire)

    Fr, 01.09.2011- 04:20 — Gottfried Schatz

    Gottfried SchatzIcon Politik & Gesellschaft

    Leben duldet kein ungehemmtes Wachstum. Wenn eine Spezies sich zu sehr vermehrt, lockt sie Räuber oder Parasiten an, die an ihr zehren und sie sogar vernichten können. Diesem unerbittlichen Gesetz fielen auch die einst so erfolgreichen Wissenschafter zum Opfer. Sie regierten die Welt und verunsicherten sie mit Ideen und Entdeckungen, um die niemand sie gebeten hatte.

    Sie waren bereits auf gutem Wege, die „dunkle Materie“ des Universums und die Arbeitsweise unseres Gehirns zu verstehen und hätten vielleicht sogar die Grammatik der menschlichen Ursprache aufgedeckt, wenn sie genügend Zeit zum Nachdenken gehabt hätten. Doch plötzlich zerstückelten Parasiten ihnen diese Zeit zu zielloser Geschäftigkeit. Diese zeitspaltenden Chronoklasten lebten von der Zeit anderer, so wie wir von der Nahrung oder Pflanzen vom Sonnenlicht.

    Chronoklasten hatten seit jeher zusammen mit Wissenschaftern gelebt. Sie sahen diesen täuschend ähnlich, ließen sich aber daran erkennen, dass sie an Kongressen stets um die gefeierten Stars herumschwirrten, diese ausschliesslich beim Vornamen nannten, und bei deren Vorträgen in der vordersten Reihe saßen. Sie besaßen einen hochempfindlichen Sensor für Berühmtheit und verströmten einen flüchtigen Lockstoff, der rückhaltslose Bewunderung und Ergebenheit vorspiegelte. Damit erreichten es Chronoklasten meist ohne große Mühe, zu einem Vortrag eingeladen zu werden und auf diese Weise ihrem unfreiwilligen Gastgeber mindestens zwei konzentrierte Arbeitstage zu geistiger Makulatur zu zerstückeln. Besonders einfallsreiche Chronoklasten wussten es sogar einzufädeln, dass der eine oder andere Wissenschafter sie für einen unbedeutenden wissenschaftlichen Preis oder ein Ehrendoktorat an einer drittklassigen Universität vorschlug - und dann wohl oder übel ungezählte Stunden mit dem Verfassen lobender Gutachten oder in Fakultäts- oder Preiskomitees vergeuden musste.

    Wissenschafter hatten allerdings gelernt, sich gegen diese Frühformen der Chronoklasten zu wehren. Sie behandelten sie mürrisch und herablassend, ließen ihre Briefe unbeantwortet, machten auf Kongressen weite Bögen um sie, und gingen manchmal so weit, sie den Unbilden einer Universitätskantine auszusetzen. Sie entrannen ihnen damit zwar nicht, konnten sie aber unter Kontrolle halten und als unwillige Wirte mit ihnen im Gleichgewicht leben. Viele Wissenschafter hofften, dies würde immer so bleiben.

    Doch die Wirte hatten die Rechnung ohne den Parasiten gemacht. Als Wissenschafter für ihre Forschung immer mehr Geld benötigten und deshalb zum Spielball von Politik und Verwaltung wurden, unterschätzen sie die ihnen daraus drohende Gefahr und vergruben sich wie eh und je in ihre Laboratorien und Bibliotheken. Die Parasiten hingegen nützten ihre Chance und mutierten zu einer hochvirulenten Form, die im Handumdrehen Ministerien und Universitätsverwaltungen unterwanderte und die Zeit der Wissenschafter nun über diese mächtigen Organisationen vernichtete. Statt Sensoren und Lockstoffen verwendeten diese modernen Chronoklasten nun einschüchternde Kommandolaute wie intra-, trans- und multi-disziplinär, Schwerpunkt, master plan, Portfolio, center of excellence, relevant, governance, Vision, multifokal, ranking, impact factor, Fokussierung, Vernetzung oder Effizienz. Was diese Laute bedeuteten, welcher Sprache sie angehörten, und ob sie überhaupt als Sprache zu werten waren, ist bis heute ungeklärt. Chronoklasten inspirierten sich zudem an der Computertechnik und erfanden die massive parallel infection - den elektronischen Massenversand kurzfristiger Aufforderungen zu langfristigen master plans. Dank dieser on-line governance konnten sie nun ihren Opfern mit einem einzigen Mausklick gewaltige Zeitmengen entreissen und multifokal vernichten.

    Selbst dies hätte jedoch nicht genügt, um die Wissenschafter-Spezies bis an den Rand der Ausrottung zu dezimieren, denn wie alle Parasiten mussten auch Chronoklasten danach trachten, sich ihre eigenen Wirte zu erhalten. Das Wechselspiel zwischen Wirten und Parasiten ist jedoch ein listenreicher Kampf, der manchmal unerwartete Wendungen nimmt. Wissenschafter fanden nämlich Gefallen daran, nicht mehr lange und angestrengt nachdenken zu müssen, sondern nur noch Fragebögen auszufüllen oder fantasiereiche master plans zu komponieren. Am liebsten schrieben sie jedoch Jahresberichte. Sie wussten zwar, dass niemand diese lesen würde, konnten sie aber auf Hochglanzpapier drucken lassen und – mit ihrem Konterfei an prominenter Stelle – wie einen Weihnachtsgruss zu Tausendenden in alle Welt versenden.

    Bald beherrschten viele Wissenschafter auch die Kommandolaute der Chronoklasten so fließend und akzentfrei wie diese selbst und wurden unmerklich selbst zu Parasiten. Diese neuen Wirtsparasiten unterschieden sich kaum von den ursprünglichen Parasitenwirten; als typische Konvertiten waren sie aber mit viel größerem Eifer und profunderem Fachwissen bei der Sache als die alten Parasiten und verdrängten diese von ihren Machtpositionen. So wurden die Wirtsparasiten zu Parasiten der noch verbliebenen Parasitenwirte – ja sogar zu neuen Parasiten der alten Parasiten. Dieses heillose Durcheinander verwirrte selbst die sonst so souveräne Natur.

    Sie hielt plötzlich so viele Fäden in der Hand, dass sie den roten verlor und den seidenen, an dem das Schicksal der Wissenschafter hing, fahren ließ und der Selbstausrottung der Wissenschafter tatenlos zusah. Wissenschafter, die genügend Zeit zum Nachdenken haben, fristen deshalb heute nur noch in biologischen Nischen und auf Reservaten ein kümmerliches Dasein.

    Kaum jemand vermisst sie, denn über Jahrhunderte hinweg hatten sie und ihre Gesinnungsgenossen altvertraute Glaubensregeln und Überlieferungen in Frage gestellt oder gar als Unsinn abgetan. Nun ist endlich alles wieder im Lot: Krankheiten sind psychosomatisch, Medikamente Schwingungen und Universitäten postdisziplinäre Glaubenszentren. Der Mensch lebt wieder im Einklang mit sich und der Natur. Diese kennt jedoch kein stabiles Gleichgewicht und könnte den Chronoklasten das gleiche Schicksal bescheren wie einst den Wissenschaftern. Die Angst vor einem Wiederaufleben wissenschaftlicher Gewaltherrschaft wächst – und auch die Konstellation der Planeten verheißt nichts Gutes.

    inge Thu, 01.09.2011 - 05:20

    Pathologie: Von der alten Leichenschau zum modernen klinischen Fach

    Pathologie: Von der alten Leichenschau zum modernen klinischen Fach

    Fr, 25.08.2011- 04:20 — Helmut Denk

    Icon Medizin Helmut Denk

    „Der Pathologe weiß alles, kann alles, kommt aber immer zu spät“: diese abschätzige Bemerkung, die sich auf die alte Bezeichnung des Faches „Pathologische Anatomie“ (Beschäftigung mit Leichen im Rahmen der Obduktion) bezieht, ist sogar in Ärztekreisen noch verbreitet.

    Vielfach wird von medizinischen Laien noch immer die Tätigkeit des Pathologen ausschließlich mit der Leiche assoziiert (Fernsehkrimis, in denen skurrile Typen als Pathologen bezeichnet werden, obwohl es sich tatsächlich um Gerichtsmediziner handelt, leisten dabei Vorschub). Und auf die zentrale Rolle der Pathologie in der modernen medizinischen Grundlagenforschung und in der klinischen Medizin wird vergessen.

    Im klinischen Bereich kann der Pathologe/die Pathologin (zahlreiche Frauen sind in diesem Beruf tätig!) heute ohne Übertreibung als „Lotse“ der Therapie gelten. Dabei soll die ursprüngliche Haupttätigkeit der Pathologen als Obduzenten von Leichen auch heute nicht minder bewertet werden. Carl Freiherr v. Rokitanksy: Pathologie als Klinisches FachDurch diese Tätigkeit und die damit verbundene Erfassung krankhafter Organveränderungen wurde vor ca. 250 Jahren erst die Basis für das Verständnis von Krankheitsmanifestationen (Krankheitssymptomatik) und einer rationalen Therapie, und damit für die moderne Medizin, gelegt. Der österreichischen Pathologie, im 19. Jahrhundert prominent vertreten durch Carl von Rokitansky (1804-1878; Präsident der Österreichischen Akademie der Wissenschaften, 1869- 1878; Mitbegründer der Zweiten Wiener Medizinischen Schule) kam dabei eine zentrale Rolle zu (Zitat siehe Kasten)

    Der Begriff „Pathologie“ bedeutet Krankheitslehre und Krankheitsforschung. Das Fach bereitet somit die Grundlage für das Verständnis des Wesens, der Erscheinungsformen, der Ursachen (Ätiologie) und der Entwicklung (Pathogenese) von Krankheiten. Im klinischen Bereich lassen sich auf Basis dieser Kenntnisse wichtige diagnostische und prognostische Hinweise, Krankheitsmanifestationen sowie therapeutische Prinzipien ableiten (Klinische Pathologie). Die Pathologie ist somit nicht nur ein zentrales Fach in der biomedizinischen Forschung sondern auch in der Klinik und in der Lehre. Sie sieht sich dabei in einer Mittlerrolle zwischen der naturwissenschaftlichen Grundlagenforschung und dem Krankenbett.

    Das Fach besteht aus zwei interagierenden Bereichen: der biomedizinischen Grundlagenforschung und der klinisch-diagnostischen Anwendung (einschließlich klinisch-angewandter Forschung).

    Die klinisch-diagnostische Pathologie beruht auf der mikroskopischen Untersuchung von Gewebeproben aus verschiedenen Organen, die durch Operation oder Biopsie (Gewebeentnahme mit Hilfe von Messer, Nadel oder Zange) gewonnen werden (Pathohistologie), von Zellen (gewonnen durch Aspiration mit Hilfe von Nadeln unter Kontrolle bildgebender Verfahren, z.B.Röntgen, Ultraschall, durch Abstrich von Organoberflächen oder Isolierung aus Körperflüssigkeiten; Zytodiagnostik) nach entsprechender Aufbereitung (Fixierung, Anfertigung von sehr dünnen Gewebeschnitten oder Zellausstrichen, Färbung). Durch die lichtmikroskopische Untersuchung lassen sich krankhafte Veränderungen (z.B. Entzündung, Tumoren, Erreger, Gewebsfehlbildungen, etc.) erfassen (Abbildung 1). Sehr bösartiges Magenkarzinom vom „Siegelringzelltyp“Abbildung 1. Pathohistologie: Sehr bösartiges Magenkarzinom vom „Siegelringzelltyp“. Die Tumorzellen (im linken Bild blau, im rechten Bild braun gefärbt) zeigen ein aggressiv-infiltrierendes Wachstum.

    In der modernen Medizin genügt aber die bloße Feststellung eines krankhaften Prozesses nicht mehr. Vielmehr ist dessen möglichst exakte Klassifikation mit Aussagen zur Ätiologie und zum voraussehbaren Verhalten (z.B. Grad der Bösartigkeit bei Tumoren; Intensität eines entzündliche Prozesses und der damit verbundenen Gewebeschädigung) als Basis für die Abschätzung der Prognose und die Planung der Therapie notwendig. So gewährt beispielsweise bereits die Lichtmikroskopie Einblicke in das biologische Verhalten von Tumoren: z.B. Hinweise auf die Vermehrung der Tumorzellen (Zellteilungen, Mitosen) Atypiegrad der Tumorzellen („grading“), aggressives und zerstörerisches Wachstum, Stadium der Tumorausbreitung („staging“), Einbruch in Blut- oder Lymphgefässe als Voraussetzung für die Ausbildung von Tochtergeschwülsten (Metastasen) in anderen Organen. Abbildung 2.

    Aggressives Tumorwachstum - Karzinom der BrustdrüseAbbildung 2: Aggressives Tumorwachstum - Karzinom der Brustdrüse: Das linke Bild zeigt ein lichtmikroskopisches Bild in kleiner Vergrößerung (beachte das sternförmige, aggressive Wachstum), das rechte das stärker vergrößerte lichtmikroskopische Bild des Karzinoms.

    Erweitert wird die Aussagekraft der klassischen Lichtmikroskopie durch neuere Untersuchungsmethoden wie Immunhistochemie zum Nachweis von Proteinen (tumorassoziierte Eiweißkörper, Hormone, etc.) oder Erregern sowie Methoden aus dem Bereich der Molekularbiologie (einschließlich Elektronenmikroskopie, Hybridisierungstechniken, Molekulargenetik). Damit gewinnt die Molekularpathologie auch im klinisch-diagnostischen Bereich immer mehr an Bedeutung. Abbildung 3.

    Karzinomatöse Umwandlung des Oberflächenepithels des Gebärmutterhalses — Assoziation mit Tumorzellen — KarzinomfokusAbbildung 3: Karzinomatöse Umwandlung des Oberflächenepithels des Gebärmutterhalses (oberes Bild). Eine molekularpathologische Untersuchung auf Viruskomponenten (Nukleinsäuren von humanen Papillomviren) zeigt deren Assoziation mit Tumorzellen (blau im mittleren Bild). Im unteren Bild findet sich ein kleiner Karzinomfokus, der in das umliegende entzündlich veränderte Gewebe vordringt.

    Die Obduktion (Untersuchung von Leichen) hat zwar heute aufgrund der Fortschritte der klinischen Diagnostik etwas an diagnostischer Bedeutung verloren, ist aber nach wie vor ein wichtiges Instrument der Lehre, der Qualitätssicherung, der Überprüfung und Weiterentwicklung klinisch-diagnostischer Methoden, der Erfassung von Therapieeffekten und der Epidemiologie von Krankheiten und deren Vorstufen und damit auch der Krankheitsprävention.

    Molekularpathologie bedient sich der Erkenntnisse und Methoden der modernen Molekularbiologie (einschließlich Biochemie, Genetik, Zellbiologie, Biophysik) bei Einsatz an pathologischem Humanmaterial. Wesentlich sind auch die Untersuchungen an Krankheitsmodellen in vivo und in vitro (z.B. Zellkultur, Tierversuch, genetisch modifizierte Organismen). Dies beruht auf der Überlegung, dass die „Krankheit“ einer „Karikatur des Normalen“ entspricht und das Verständnis für krankhafte Veränderungen, deren Entwicklung und eventuelle therapeutische Beeinflussung Kenntnisse der Normalsituation voraussetzt. Wichtige molekularpathologische Fragestellungen ergeben sich im Bereich von Infektions-, Stoffwechsel- und Tumorerkrankungen. Abbildung 4.

    Nachweis einer Hepatitis-B-Virus InfektionAbbildung 4 . Nachweis einer Hepatitis-B-Virus Infektion. Immunhistochemische Darstellung von Komponenten des Hepatitis-B-Virus in der Leber zum Nachweis einer Virusinfektion. Im linken Bild ist das Hepatitis-B-Core-Antigen (braun), im rechten das Hepatitis-B-Oberflächen-Antigen (rot) dargestellt.

    Aus dem Gesagten geht hervor, dass in der Pathologie Grundlagenforschung und klinische Pathologie im Sinne einer Translation an das Krankenbett eng verknüpft sind. Moderne Medizin ist ohne die Beiträge der Pathologie undenkbar.

    Conclusio:

    Wie in allen Bereichen der Medizin weiß auch der Pathologe nicht alles, kann nicht alles, kommt aber ebenso wenig immer zu spät.

    inge Thu, 25.08.2011 - 05:20

    Das Immunsystem – Janusköpfig?

    Das Immunsystem – Janusköpfig?

    Mi, 17.08.2011- 23:00 — Peter Swetly

    Peter Swetly

    Das Immunsystem höherer Lebewesen hat sich im Laufe der Evolution zu einem hochspezialisierten und effektiven Netzwerk entwickelt, welches gezielt Infektionen abwehren und als fremd erkanntes Gewebe abbauen kann. Eine Vielfalt von Mechanismen für die Erkennung und Eliminierung von Fremdkeimen kommen dabei zum Einsatz und ermöglichen das Überleben.

    Seit langem wird auch die Rolle des Immunsystems bei der Erkennung und Eliminierung von Tumoren untersucht. Die grundlegende Annahme ist, dass das Immunsystem imstande ist, Tumorgewebe als fremd zu erkennen und zu eliminieren. Diese Hypothese wird durch eine histologische Beobachtung genährt: Maligne Tumoren, wie etwa das Mammacarcinom, weisen eine hohe Dichte an Zellen des Immunsystems im Tumorgewebe auf.

    Besonders prominent vertreten sind dabei Makrophagen oder Fresszellen. Makrophagen sind Immunzellen, die an der vordersten Front als Abwehrspezialisten stehen. Sie verschlingen Pathogene, tote Zellen und Fremdzellen und bauen sie zu kleinen Molekülen ab. Eine besonders hohe Dichte dieser Fresszellen im Tumorgewebe (tumorassoziierte Makrophagen = TAM) schien daher eine gute Voraussetzung dafür, dass das Immunsystem das Tumorgewebe angreift.

    DeNardo und Mitarbeiter haben nun diese Hypothese in Mammacarcinomen geprüft [1]. Und sie haben eine interessante Erkenntnis gewonnen.

    Sie haben beobachtet, dass eine Tumorabwehr vom Zusammenwirken der TAM`s mit anderen Immunzellen, den sogenannten cytotoxischen T-Lymphozyten abhängig ist:

    Wenn das Verhältnis von TAM zu cytotoxischen T-Zellen ausgewogen ist, dann kommt es zu Tumorregression und Erhöhung der Lebenserwartung der Patientinnen. Das ist die erwartete Wirkung der Immunzellen. Wenn hingegen eine hohe Zahl an TAM`s und eine geringe Zahl an cytotoxischen T-Zellen im Tumorgewebe vorliegen, resultiert eine Förderung des Tumorwachstums und eine Herabsetzung der Lebenserwartung.

    Es scheint also vom Verhältnis Makrophagen zu cytotoxischen T-Zellen abzuhängen, ob Tumorabwehr oder Tumorwachstum entstehen.

    Nun beginnt die Suche nach Substanzen, welche die TAM-Konzentration in Tumorgeweben verringern können, um ein unbalanciertes Verhältnis ausgleichen zu können.

    Erste Ergebnisse weisen darauf hin, dass die Herabsetzung der TAM Konzentration auch mit einer erhöhten Wirksamkeit einer chemotherapeutischen Behandlung einhergeht und eine Reduktion von Primärtumor und Metastasierung beobachtet wird.

    Das Immunsystem ist also janusgesichtig in seinem Verhältnis zu Tumoren, und es bedarf einer exakten Analyse, um sein Potential zum Wohle der Patientinnen und Patienten umzusetzen.

    Literatur

    [1] D.G. DeNardo et.al., "Cancer Discovery", DOI:10.1158/2159-8274, CD-10-0028 (2011)


    Anmerkungen der Redaktion

    cytotoxisch: für Zellen giftig. Pathogene: Einflussfaktoren, die Erkrankungen ursächlich bedingen können. Das kann alles mögliche sein, beginnend bei bakteriellen Erregern über giftige Substanzen bishin zu Stress oder Lärm.

    Empfehlenswert für alle, die einen leicht verständlichen Überblick über das Immunsystem und seine Bedeutung bei Krebserkrankungen bekommen möchten: Deutsches Krebsforschungszentrum: Immunsystem

    inge Thu, 18.08.2011 - 00:00

    Grundlagenforschung in Österreich: Rekrutierung von Spitzenkräften

    Grundlagenforschung in Österreich: Rekrutierung von Spitzenkräften

    Do, 11.08.2011- 04:20 — Peter Schuster

    Peter SchusterIcon Politik & Gesellschaft

    Ein oft gehörter Ausspruch sagt: „Erstklassige Wissenschaftler rekrutieren nur erstklassige Wissenschaftler, zweitklassige rekrutieren nur drittklassige“. Die Folgen dieses Faktums sind überall zu sehen, besonders ausgeprägt in Ländern, in denen Wissenschaft kein besonderes Prestige besitzt. Eine mittelklassige Forschungsstätte kann nicht mit Hilfe sondern nur gegen den Willen der dort tätigen Wissenschaftler zu einer Spitzeneinrichtung aufgerüstet werden.

    Eine Konsequenz davon ist den alljährlich durchgeführten Rankings der Universitäten zu entnehmen: Die Spitzenplätze – und dies erinnert an die berühmtesten Opernhäuser – werden stets von denselben Lehr- und Forschungseinrichtungen mit kleinen Verschiebungen innerhalb der Spitzengruppe eingenommen. Die heimischen Universitäten besetzen bestenfalls Ränge der Mittelklasse und die Tendenz ist vor allem für die Bewertung der großen Universitäten weiterhin fallend.

    (In dem vor kurzem publizierten ‚Academic Ranking of World Universities 2010’ liegt von den österreichischen Universitäten eine in den Rängen 151-200, zwei liegen in den Rängen 201-300, drei in den Rängen 301-400 und eine liegt schließlich in den Rängen 401-500. Gegenüber 2009 haben sich zwei Universitäten von den Rängen 401-500 in die Ränge 301-400 verbessert. Das Ranking 2010 der renommierten privaten Firma QS-Quacquarelli Symonds Ltd. sieht ähnliche Positionen für die österreichischen Universitäten vor. Im davon unabhängigen auf etwas anderen Kriterien basierenden Ranking 2010 der englischen Zeitung Times besetzen die beiden besten österreichischen Universitäten die Ränge 187 und 195.)

    Das Wissenschaftsmagazin Nature führte eine Umfrage unter 10.500 Wissenschaftler aus 16 Staaten durch, welche die Zufriedenheit mit der eigenen wissenschaftlichen Karriere und den Faktoren, die zu dieser beitragen – Entlohnung, Infrastruktur, Unabhängigkeit in der Forschung – ermitteln sollte [1]. Mohammed Hassan bringt das Ergebnis auf die einfache Formel [2]:

    ‚Pay them and they will stay. Keep them and it will pay‘

    Diese zwei Sätze treffen den Nagel auf den Kopf, wenn man unter ‘pay them’ auch die Ausgaben für die Wissenschaftsinfrastruktur und die Kosten für die wissenschaftliche Arbeit mit einbezieht, denn Spitzenkräfte in den Naturwissenschaften können nur dann erfolgreich angeworben werden, wenn die Forschungsbedingungen exzellent sind und ein stimulierendes wissenschaftliches Umfeld existiert. Den höchsten Stellenwert für die Wissenschaftler hat nach der Nature-Umfrage der Grad an Unabhängigkeit bei der wissenschaftlichen Arbeit.

    Gewünscht ist die verantwortliche Mitarbeit in einem Team gleichberechtigter Forscher, das alte Modell der ‚Sklavenwirtschaft‘ unter einem ‚allmächtigen‘ Abteilungs- oder Institutsleiter hat endgültig ausgedient. Interessant ist, dass über alle einzelnen Faktoren genommen der Zufriedenheitsgrad bei den Wissenschaftlern aus den skandinavischen Staaten und den Niederlanden am größten ist, gefolgt von der Schweiz, Nordamerika, Großbritannien, Frankreich, Deutschland und Australien. Die Schlusslichter hinsichtlich der Zufriedenheit bilden Indien, China und überraschenderweise Japan an letzter Stelle. Aus Österreich hatten zu wenige Wissenschaftler geantwortet, um eine signifikante Auswertung durchführen zu können.

    Wie steht es an Österreichs Universitäten mit der Rekrutierung von Wissenschaftlern?

    Zur Hinterfragung der Tragfähigkeit oft angesprochener Exzellenzstrategien möchte ich nur ein Illustrationsbeispiel anführen und auf Entwicklungen in meinem eigenen Fach eingehen. Die Chemie kann stellvertretend für die meisten anderen naturwissenschaftlichen Fächer angesehen werden – als ein ähnlich gelagertes Beispiel außerhalb der Naturwissenschaften sei auch die Situation in der österreichischen wissenschaftlichen Geographie zitiert [3]. Es ist unverfänglich, mit der universitären chemischen Forschung im ausgehenden neunzehnten Jahrhundert zu beginnen: Mittelmäßige Forscher bereiteten großen Schaden. Der Zyniker und Spötter Karl Kraus hat dies für die Chemie an der Technischen Hochschule Wien um 1900 so ausgedrückt [4]:

     

    „ … Bis zum Jahre 1894 war diese Lehrkanzel (Anmerkung des Verfassers: Gemeint ist die organisch-chemische Technologie) mit dem berüchtigten J.J. Pohl besetzt, der die ganze Farbenchemie als einen „reichsdeutschen Schwindel“ bezeichnete. Ihm folgte der jetzige Hofrath Professor Dr. Hugo Ritter von Perger. Das bedeutete immerhin einen Fortschritt; denn während Pohl Farbstoffe kaum vom Hörensagen kannte, hat Perger schon manchen gesehen. Freilich erfunden hat er noch keinen. …“

    Ein Jahr später äußerte er sich über die Verhältnisse an der Universität Wien nicht weniger sarkastisch [5]:

    „ … Weder Hofrath von Perger noch der gegenwärtig einzige ordentliche Professor der Chemie an der Wiener Universität, Hofrath Adolf Lieben – ein Gelehrter, der vor Jahrzehnten wissenschaftliche Leistungen aufzuweisen hatte – sind im Stande, den Anforderungen zu entsprechen, die die vom österreichischen Chemikerverein entworfene Studienordnung an die Lehrer stellt. … Möge Herr von Hartel (Anmerkung des Verfassers: Wilhelm August von Hartel war in den Jahren 1900 bis 1905 Minister für Kultus und Unterricht) rechtzeitig auch an den Gelehrten denken, dem man … einen erst zu errichtenden Lehrstuhl an der Wiener Technik einräumen muss, wenn die chemische Industrie Oesterreichs sich von der deutschen Unterstützung durch technische Kräfte und vom deutschen Druck durch überlegene Concurrenz befreien soll.“

    Die zum Teil von Vorurteilen getragenen und von Emotionen gespeisten Schilderungen mögen übertrieben erscheinen aber eine von Karl Kraus unabhängige Beschreibung der tristen Verhältnisse an der Universität Wien kann der im Jahre 1902 verfassten Denkschrift über die Philosophische Fakultät entnommen werden. Sie ist um nichts positiver [6]:

    „ … Sollten unsere naturwissenschaftlichen Institute jemals mit denen Deutschlands in Konkurrenz treten, so wird es nicht genügen hier und dort durch momentane Flickarbeit die ärgsten Mängel zu beheben; es wird einer großen und groß angelegten Aktion bedürfen, um die Schäden, die durch langjährige Vernachlässigung entstanden sind wieder gutzumachen.… Dass jemand aus dem Ausland nach Wien an eine experimentelle Lehrkanzel kommt, ist so gut wie ausgeschlossen…“

    Es ist wichtig zu erwähnen, dass das katastrophal geschilderte Niveau der Chemie an Wiens Universitäten einen Zeitpunkt betrifft, zu dem in Deutschland die großen chemischen Industriebetriebe – Badische Anilin- und Sodafabrik (BASF), Bayer AG, Farbwerke Hoechst AG – bereits drei Jahrzehnte bestanden und die Basis für die wirtschaftlich Stärke Deutschlands in der Chemie der ersten Hälfte des zwanzigsten Jahrhunderts legten.

    Dies ist wahrscheinlich auch eine der Ursachen dafür, dass es in Österreich nie eine bodenständige chemische Großindustrie gegeben hat, mit Ausnahme der 1907 von Carl Auer von Welsbach gegründeten, vergleichsweise kleinen Treibacher Chemischen Werke. Carl Auer von Welsbach war ein höchst erfolgreicher Wissenschaftler, Erfinder und Unternehmer in einer Person und sein Lebenslauf stellt eindrucksvoll unter Beweis, wie erfolgreiche Grundlagenforschung Erfindungen und ihre wirtschaftlichen Umsetzungen unmittelbar nach sich ziehen kann.

    In der Zeit nach dem zweiten Weltkrieg lag die Wissenschaft in Österreich danieder, insbesondere in den Naturwissenschaften äußerte sich der drastische Mangel an finanziellen Mitteln in vorsintflutlichen Ausrüstungen der experimentellen Labors. Während sich die Situation der Forschung im westlichen Europa rasch besserte, blieben die Zustände in Österreich bis in die späten Sechzigerjahre unverändert.

    Die ausgebildeten Wissenschaftler wanderten in Scharen vorwiegend nach Deutschland aus, wo an den Max Planck-Instituten bereits wieder international erstrangige Verhältnisse herrschten – beispielsweise verließen 1967 von den Absolventen des Studiums aus dem Fach Chemie etwa 80% Österreich und zwar sofort nach der Promotion. Mehr Geld für die Wissenschaft und mehr Personal für die Universitäten gab es erst ab 1971 unter der Bundesministerin für Wissenschaft und Forschung Hertha Firnberg. Mit einigem Erfolg wurde der Versuch unternommen, abgewanderte Österreicher durch Berufungen an heimische Universitäten zurückzuholen. Es gab finanzielle Mittel für die Anschaffung zeitgemäßer Ausrüstung, ohne die erfolgreiche Forschung in den Naturwissenschaften nicht möglich ist.

    Diese zweifelsohne sehr positiven Aspekte für die Wissenschaft wurden durch zwei Maßnahmen überschattet, welche gewaltige Handicaps für die österreichische Wissenschaft im europäischen und internationalen Kontext darstellten und bis heute noch nicht überwunden sind [7][8]:

    (i) das oft als ‚Lex Firnberg‘ apostrophierte Universitätsorganisationsgesetz (UOG) 1975 und

    (ii) die Umwandlung der auf dem Humboldtschen Ideal der Einheit von Forschung und Lehre aufbauenden bürgerlichen Universität in die Massenuniversität der sozialliberal geprägten Gesellschaft des Wohlfahrtsstaates.

    An dieser Stelle wird nur auf Punkt (i) in Form der Konsequenzen des UOG 1975 für die Rekrutierungen von neuen Professoren eingegangen, ein paar Bemerkungen zu den Auswirkungen von Punkt (ii) auf die Ausbildung der Nachwuchskräfte folgt im nächsten Abschnitt.

    Ende der Sechzigerjahre gab es an den Universitäten Österreich kaum jemanden, der nicht die Notwendigkeit von Reformen eingesehen hätte, und es war auch klar, dass der Einfluss der Lehrstuhlinhaber, der ordentlichen Universitätsprofessoren, die ihre Institute wie kleine, mehr oder minder aufgeklärte Fürsten regierten, einer Kontrolle und in manchen Fällen einer Korrektur unterworfen werden musste. An schlecht geführten Instituten mangelte es vor allem an Transparenz der Entscheidungen, insbesondere an solchen, die die Rekrutierung von Personal betrafen.

    Das neue Gesetz schuf die ‚Universität der Kurien‘: Professoren, Vertreter des Mittelbaus, Vertreter des technischen Personals und Studierende trafen die Entscheidungen – Personalentscheidungen durch geheime Abstimmungen. Neben vielen Schwierigkeiten, die unter anderem durch das Überhandnehmen der Arbeit in den diversen neuen Gremien entstanden, war die Trennung von Entscheidung und Verantwortung der Entscheidung das gravierendste Problem. Auf Grund der weniger autoritären Wissenschaftskultur und der von zu erlernenden Labortechniken dominierten Ausbildung waren die negativen Auswirkungen der Mitbestimmung auf der Basis des UOG 1975 in den Naturwissenschaften weit geringer als in anderen Fakultäten.

    Eine Ausnahme bildete allerdings die Rekrutierung von Professoren. Es wurden paritätisch zusammengesetzte Berufungsgremien eingeführt, in denen Studierende und Mittelbauvertreter über die Auswahl künftiger Fachvertreter entschieden, ohne dass sie ihre Entscheidungen gegenüber irgendeiner Person oder Instanz zu verantworten hatten. In Berufungskommissionen vor und nach der Implementierung des UOG 1975 tätig gewesen, kann ich nur bestätigen, dass die Transparenz der Entscheidungen in den paritätisch zusammengesetzten Gremien nicht zu- sondern abgenommen hatte.

    An die Stelle mangelnder Einsicht in die Entscheidungen der autoritär agierenden Professoren traten ‚Clubzwang‘ bei der Mittelbaukurie und der Studentenkurie. Intrigen auf allen Ebenen taten das Übrige, um Entscheidungen über Berufungslisten herbeizuführen, welche argumentativ zu untermauern des Öfteren eine Zumutung für die Kommissionvorsitzenden war.

    Die einmalige Chance, die substantielle Vermehrung der Planstellen für Professoren und wissenschaftliche Mitarbeiter für eine Exzellenzstrategie zur Anhebung der wissenschaftlichen Leistung an Österreichs Universitäten zu nutzen, wurde vertan. Im internationalen Ranking fiel die österreichische Hochschulwissenschaft sogar einige Plätze zurück. Fast alle Berufungen waren Hausberufungen und sie erfolgten ad personam, das heißt ohne internationale oder nationale Konkurrenz.

    Die Einstellung zu Hausberufungen ist an fast allen nordamerikanischen Universitäten eine nachahmenswert pragmatische: Kann der lokale Kandidat in einer fairen weltweiten Konkurrenz bestehen, so ist er willkommen. Der Provost an einer Universität in den USA würde vom Board of Trustees sofort gefeuert, wenn er einen zweit- oder drittklassigen Forscher von auswärts einem jungen, nobelpreisverdächtigen Talent aus dem Hause vorzöge.

    Er hätte aber auch die Hölle auf Erden, wenn er eine hausinterne wissenschaftliche Niete bevorzugte. Die in Österreich aus dem Haus berufenen Professoren der Ära Lex Firnberg hatten nur in ganz wenigen Ausnahmefällen Konkurrenzangebote in Form von Berufungen an ausländische Universitäten. Daneben taten sich fatalerweise für den Mittelbau neue Karrieremöglichkeiten als Funktionäre in den zahlreichen Gremien auf, und dabei gingen weitere wertvolle Personalstellen für eine anspruchsvolle Wissenschaft verloren.

    Die eigentlichen Verlierer des UOG 1975 waren aber jene Personen, für die es ursprünglich gedacht war: die jungen Hochschulassistenten und Hochschuldozenten, die an einer Laufbahn als Wissenschaftler interessiert waren. Anstatt den jungen Forschern ideale Arbeitsbedingungen und ein kompetitives wissenschaftliches Umfeld zu bieten, in welchem sie sich durch Verantwortung für eigene Forschung und jüngere Mitarbeiter als Wissenschaftlerpersönlichkeiten hätten profilieren können, wurden ihnen allen ‚inhaltsleere Professorentitel‘, ‚Mitsprache ohne Verantwortung‘ in den Hochschulgremien und ‚Tenure‘ gegeben.

    Damit wurde die Entwicklung der Wissenschaft auf Jahrzehnte blockiert und der neue Karrierepfad des Hochschulfunktionärs ohne nennenswerten eigenen wissenschaftlichen Beitrag geschaffen. Die talentierten jungen Wissenschaftler wurden um ordentliche wissenschaftliche Karrieren gebracht, auch wenn sie exzellente Leistungen erbrachten.

    Gut schnitten jene jungen Talente ab, die so früh wie möglich ins Ausland abwanderten, in Westeuropa oder in den USA eine wissenschaftliche Laufbahn einschlugen und nicht mehr wieder nach Österreich zurückkehrten. Fairerweise muss man ergänzen, dass die Situation in den Naturwissenschaften dadurch gemildert wurde, dass alle Wissenschaftler ohne Ansehen ihrer Position an den Universitäten durch den Fonds zur Förderung der wissenschaftlichen Forschung (FWF) Forschungsmittel für international kompetitive Projekte erhalten konnten und erhielten [9]. Ein weiteres Vorankommen in der wissenschaftlichen Karriereleiter war allerdings nicht mit inbegriffen.

    Die Zeit der Lex Firnberg endete formal mit dem unter dem Wissenschaftsminister Erhard Busek eingeführten UOG 1993. Zwei Gründe ließen dieses Gesetz aber praktisch ohne Auswirkung verpuffen:

    (i) die Schritte zur Befreiung der Universitäten von zentraler staatlicher Regulierung und die Stärkung der Machtbefugnisse der Verantwortungsträger waren zu zögerlich, und

    (ii) das neue Gesetz wurde so schleppend implementiert, dass das UOG 2002 schon vor der Tür stand noch ehe sich das UOG 1993 auswirken konnte.

    Unter der Ministerin für Bildung, Wissenschaft und Kultur, Elisabeth Gehrer, wurde – abgesehen von zwei Novellen – ein Schlussstrich unter die Universitätsreform gezogen. Die Mitbestimmung wurde auf ein vernünftiges Maß reduziert, Entscheidung und Verantwortung der Folgen der Entscheidung wurde wieder in einzelnen Personen vereinigt. Die Universitäten sollen nach wirtschaftlichen Kriterien verwaltet werden. Die oft geschmähte ‚neoliberale‘ Grundhaltung des UOG 2002 hatte eine Reihe von positiven Auswirkungen:

    Erstmals entstand an den Universitäten ein wirtschaftliches Bewusstsein für Ausgaben und Folgekosten, das Bewusstsein für eine mögliche kommerzielle Nutzung von Erfindungen wurde geweckt und – ein wichtiges drittes Beispiel – die finanzielle Verfilzung von universitären Forschungslaboratorien mit den eingelagerten ‚Spin off‘-Firmen wurde durch die Einführung von Gesamtkostenrechnung entwirrt.

    Für die Personalpolitik der Universitäten wurden Möglichkeiten zur Verbesserung der Rekrutierung von Spitzenwissenschaftlern geschaffen: Jede Universität kann – im Prinzip – autonom agieren und ihre Schwerpunkte dort setzen, wo sie ihre Stärken vermutet. Die Kontrollaufsicht des Ministeriums sollte nur über das Budget erfolgen, welches durch Leistungsvereinbarungen festgelegt wird.

    Einige wenige Fakultäten an einzelnen Universitäten Österreichs haben die verbesserten Möglichkeiten zur Rekrutierung von Spitzenkräften schon genutzt. Im Großen und Ganzen zeigen aber die Rankings von Österreichs Universitäten nach wie vor einem Abwärtstrend bei bereits mäßigen Bewertungen im Mittelfeld und in den unteren Rängen.

    In der heutigen globalisierten Wissenschaft ist die internationale Rekrutierung eine unabdingbare Voraussetzung für exzellente Nachwuchskräfte. Wenn die zur Verfügung stehenden Stellen nicht international sichtbar und in englischer Sprache ausgeschrieben werden, verzichten wir von vornherein auf einen Großteil der verfügbaren jungen Talente. Lockerer Umgang mit oder völliges Ignorieren der wissenschaftlichen Qualifikation von Bewerbern begleitet von unzureichenden Angeboten hat fatale Konsequenzen: Wo die Exzellenzkriterien zu reinen Lippenbekenntnissen verkommen, gehen Qualität und Anzahl der Interessenten für Professorenstellen dramatisch zurück. In einigen Fächern gibt es diese warnenden Anzeichen bereits.

    Für Erfolge der viel gerühmten Autonomie von Österreichs Universitäten sind ausreichende und langfristige Budgets eine conditio sine qua non, andernfalls wird die Autonomie zu einem zahnlosen Papiertiger. Der von den Universitäten selbst zu leistende Betrag ist eine Strukturänderung in Richtung auf echte Departments nach ausländischem Vorbildern unter gleichzeitiger Übertragung der Entscheidungsvollmacht auf Professorenkollegien, die sich mit einer leistungsorientierten und dynamischen Entwicklung ihrer Einheit und der gesamten Universität identifizieren – mit der reinen Umbenennung von alten Instituten in ‚neue Departments‘, wie dies an einigen österreichischen Universitäten geschehen ist, wurde erwartungsgemäß gar nichts erreicht.

    Dessen ungeachtet gibt es auch positive Entwicklungen wie einige Beispiele zeigen, unter anderen: ein paar physikalische Institute gehören zur Weltspitze, die Entwicklung des Vienna Biocenters in der Dr. Bohrgasse in Wien ist eine über Österreich hinaus bekannte Erfolgsgeschichte – ein Grundlagenforschungsinstitut des pharmazeutischen Industriebetriebs Boehringer-Ingelheim, zwei außeruniversitäre Forschungsinstitute der Österreichischen Akademie der Wissenschaften und Institute zweier Universitäten kooperieren auf einem vor zwanzig Jahren gegründeten Campus und betreiben bereits Forschung der Spitzenklasse. Die stimulierende Atmosphäre hat auch schon zur Neugründung einiger Biotechnologiefirmen geführt.

    Das Vienna Biocenter in der Dr. Bohrgasse ist leider eine Ausnahme in der Entwicklung österreichischer Forschungszentren. Österreichs Universitäten sind mit kleinen Einheiten über große Flächen verteilt. Kein Entwicklungsplan für die Wissenschaft hat die Widmung von Grundstücken und Arealen für die Wissenschaft bestimmt, sondern die Tatsache, dass irgendwo ein Grundstück zur Verfügung stand, welches kein zahlungskräftiger Partner erwerben wollte.

    Wie könnte es sonst geschehen sein, dass sich die größte Universität Österreichs mit Dutzenden von Standorten fast über das gesamte Gebiet der Bundeshauptstadt Wien mit kleinen und kleinsten Einheiten erstreckt? Im Zeitalter der Disziplinen übergreifenden Forschung ist dies ein Anachronismus der besonders gravierenden Art.

    Weltweit werden zu kleine Einheiten zusammengeführt, um das für innovative Forschung unentbehrliche Gespräch zwischen Wissenschaftlern verschiedener Fachrichtungen zu stimulieren. Es entstehen überaus produktive Konzentrationen von verwandten Wissenschaften. Ich beschränke mich auf ein einziges Beispiel stellvertretend für viele andere: Am Campus für Molekularbiologie der ETH Zürich am Hönggerberg wurde ein neues Gebäude für das in Gründung befindliche Institut für Systembiologie gebaut, um Informatiker, Mathematiker und Biologen zusammenzubringen.

    Zurück zu Positivem: Auf dem Gelände des Allgemeinen Krankenhauses entstand inmitten der Universitätskliniken ein Forschungsinstitut der Österreichischen Akademie der Wissenschaften (ÖAW), welches entsprechend der Rockefellerschen Vision den biomedizinischen Forscher möglichst nah an das Krankenbett heranführt. In Linz entstand mit dem ‚Johann Radon-Institute for Computational and Applied Mathematics’ (RICAM) der ÖAW eine neue Einrichtung, die in wenigen Jahren Bekanntheit auf Weltniveau erreichte. Die im Vergleich zu Universitätsinstituten kleinen Forschungseinrichtungen der Österreichischen Akademie schneiden ebenso wie das Boehringer-Institut bei der Rekrutierung von Spitzenforschern wesentlich besser ab als die Universitäten.

    Das Rezept für die erfolgreiche Anwerbung ist einfach: Wenige Entscheidungsträger mit voller Verantwortung für ihre Auswahl gestatten das bei internationaler Konkurrenz unabdingbare rasche Handeln und Verhandeln. Ein weiterer Kandidat für eine wissenschaftliche Exzellenzeinrichtung ist das ‚Institute for Science and Technology Austria‘ (ISTA), welches in Maria Gugging in der Nähe von Wien errichtet wird und wissenschaftlich noch im Aufbau begriffen ist.


    Der Artikel ist der dritte Teil der ausführlichen Fassung eines Referates, das im vergangenen Jahr anläßlich des von der Österreichischen Akademie der Wissenschaften veranstalteten Symposiums „Wa(h)re Forschung“ gehalten wurde:

    Dieses Symposium hatte den sich eben in allen Bereichen der Wissenschaft vollziehenden Paradigmenwechsel zum Thema: „Weg von der erkenntnisorientierten Grundlagenforschung und hin zur Anwendungsorientierung“ und ist eben in Buchform erschienen („Wa(h)re Forschung – Change of Paradigms?“ Präsidium ÖAW Hsg, Friedrich VDV, 4020 Linz; 2011).


    Literatur

    [1] Gene Russo. 2010. For Love and Money. Nature 465:1104-1107.

    [2] Mohammed H.A. Hassan. Brain circulation. Nature 465:1006-1007.

    [3] Elisabeth Lichtenberger. 2008. Die institutionelle Situation der österreichischen wissenschaftlichen Geographie zu Beginn des 21. Jahrhunderts. Mitteilungen der Österreichischen Geographischen Gesellschaft 150:33-48.

    [4] Karl Kraus. 1900. Chemie in Wien an der Technik. Die Fackel 31(2):18.

    [5] Karl Kraus. 1901. Hofrath Lieben. Die Fackel 74(4):16.

    [6] Akademischer Senat der Universität Wien. 1902. Denkschrift über die gegenwärtige Lage der Philosophischen Fakultät der Universität Wien. Adolf Holzhausen, Wien. Zitiert aus: Ulrike Felt. 2000. Die Stadt als verdichteter Raum der Begegnung zwischen Wissenschaft und Öffentlichkeit. Reflexionen zu einem Vergleich der Wissenschaftspopularisieung in Wien und Berlin der Jahrhundertwende. In: Constantin Goschler, Ed. Wissenschaft und Öffentlichkeit in Berlin, 1870 – 1930. Franz Steiner Verlag, Stuttgart, p.185-220.

    [7] Manfried Welan. 2002. Schon viermal Universitätsreform. Wiener Zeitung – Archiv. 29.November 2002.

    [8] Hans Pechar. 2010. 30 Jahre Realitätsverweigerung sind genug. Der „offene Hochschulzugang“ liegt offenbar in den letzten Zügen, Und das ist gut so. – Vorauseilender Nachruf zu einem österreichischen Sonderweg und seine fatalen bindungspolitischen Folgen. Der Standard. 24./25.Juli 2010, p.31.

    [9] Christoph Aichner. 2007. 40 Jahre im Dienste der Forschung. Gründung und Geschichte des Fonds zurFörderung der wissenschaftlichen Forschung (1967-2007). Diplomarbeit, Universität Innsbruck, Philosophisch-Historische Fakultät.

    inge Thu, 11.08.2011 - 05:20

    Ist die Kernenergie böse?

    Ist die Kernenergie böse?

    Fr, 04.08.2011- 04:20 — Helmut Rauch

    Icon MINT Helmut Rauch

    Vor der Erdbeben-, Tsunami- und Reaktorkatastrophe in Fukushima am 11. März 2011 sprach man von einer Renaissance der Kernenergie, und in vielen Ländern wurden Expansionspläne für diese Energiegewinnungsmethode geschmiedet. Nun sind jedoch die Bedenken bezüglich der Kernenergie wieder beachtlich gestiegen, und bei der Realisierung neuer Anlagen ist mit einem deutlichen Rückschlag zu rechnen. Dazu ist zu bemerken, dass der Schaden durch den Tsunami deutlich größer ist als der durch die damit in Verbindung stehende Reaktorkatastrophe.

    Hier ist deswegen eine rationale Analyse der Ursachen, der Konsequenzen und der zukünftigen Entwicklung erforderlich. Im Folgenden sollen kurz die Grundprinzipien der nuklearen Energiegewinnung, deren Vorteile und die damit verbundenen Risikofaktoren angesprochen werden.

    Status [1]

    Derzeit sind 432 Kernkraftwerke weltweit in Betrieb und 62 in Bau, dazu kommen noch 240 Forschungsreaktoren und über 200 Reaktoren in U-Booten und Flugzeugträgern sowie 25 Reaktoren in erdnahen Umlaufbahnen. Die weltweite elektrische Kernenergieproduktion beträgt 2558 TWh, was einem Anteil von ca. 16% entspricht und im Vergleich mit fossilen Kraftwerken einer Reduktion des CO2-Ausstosses um 1,2 Milliarden Tonnen gleichkommt.

    Grundprinzipien [2,3,4]

    • Schwere Atomkerne (z.B. Uran-235 oder Plutonium-239) unterliegen bei der Absorption eines Neutrons einem Spaltprozess, bei dem zwei bis drei weitere Neutronen freigesetzt werden und jeweils zwei, meist radioaktive, Spaltprodukte entstehen. Es handelt sich dabei um einen statistischen, also völlig unvorhersagbaren, Prozess, weswegen unvermeidlich eine große Anzahl von verschiedenen Spaltprodukten mit sehr unterschiedlichen Halbwertszeiten entstehen, die dann sowohl bei der Nachzerfallswärme als auch beim radioaktiven Abfall Probleme bereiten. Bei jedem Spaltprozess wird gleichzeitig eine Energie von zirka 200 MeV freigesetzt, d.h. eine millionenfach höhere Energie als bei chemischen Reaktionen, was wohl den zentralen Vorteil der Kernenergie ausmacht.
    • Mit den erzeugten Spaltneutronen kann auf verschiedene Arten eine selbsterhaltende Kettenreaktion aufrecht erhalten werden. Davon leiten sich die verschiedenen Reaktortypen ab, die in Abbildung 1 skizziert sind. Für eine stabile Steuerung der Kettenreaktion spielen neben den Spaltneutronen auch der kleine Anteil (ca. 0,6%) der verzögerten Neutronen eine entscheidende Rolle. Diese entstehen verzögert nach dem vorhergehenden Zerfall einiger Spaltprodukte. Dieser 0,6%-Anteil stellt gleichzeitig eine Sicherheitsmarge dar, die zum Glück vorhanden ist, die aber größer sein könnte.

    Reaktortypen

    Druck- und Siedewasserreaktor mit und ohne Wärmetauscher

    Abbildung 1: Schema der hier diskutierten Kernkraftwerkstypen. Der meistinstallierte Druckwasserreaktor mit, und der Siedewasserreaktor ohne (wie Fukushima) internen Wärmetauscher (oben) und der Druckröhrenreaktor (wie Tschernobyl) sowie der mit flüssigem Natrium gekühlte Schnelle Reaktor (unten).

    • Für die Betriebssicherheit eines Kernreaktors ist die Stabilität der Kettenreaktion in Bezug auf Temperaturänderungen, auf Geometrieänderungen und Änderungen der Zusammensetzung wesentlich. Während jeder Temperaturanstieg stets dämpfend auf die Kettenreaktion wirkt, können Geometrie- und Zusammensetzungsänderungen auch stimulierend wirken. Das ist der Fall bei Tschernobyl-Typ Reaktoren, wo zum Beispiel Dampfblasen die Kettenreaktion wegen der geringeren parasitären Absorption in Wasser anheizen (void effect). Eine ähnliche Situation besteht leider auch bei den schnellen Reaktoren.
    • Unter den Spaltprodukten und deren Zerfallsprodukten befinden sich auch solche, die Neutronen sehr stark parasitär absorbieren (z.B. Xenon-135) und daher die Kettenreaktion behindern. Da diese Substanzen meist durch Zerfall anderer Spaltprodukte entstehen, werden diese auch nach dem Abschalten der Reaktoren weiter produziert, ohne parasitär absorbiert zu werden. Das führt zu einer Art Vergiftung des Reaktors, was seine kurzfristige Wiederinbetriebnahme verhindert und bedeutet, dass Kernenergie im Wesentlichen nur für die Grundlastversorgung geeignet ist.

    Problemfelder

    1. Geringe Sicherheitsmarge der Kettenreaktion

    Wie bereits oben angesprochen beträgt die Sicherheitsmarge bezüglich der Kettenreaktion nur etwa 0,6% bei Uran-235 und ist bei Plutonium-239 noch geringer (0,3%). Das bedeutet, dass es bei stärkeren Änderungen des Vermehrungsfaktors der Kettenreaktion zu einer prompten Kritikalität, d.h. zu einem Durchgehen der Kettenreaktion innerhalb einiger Millisekunden kommt. Das kann verursacht sein durch unkontrollierte Bewegungen der Kontrollstäbe oder bei einigen Reaktortypen auch durch Dampfblasenbildung im Kühlmittel. Letzteres war mit entscheidend beim Reaktorunglück in Tschernobyl.

    Bei zukünftigen Entwicklungen wird diskutiert, die Sicherheitsmarge dadurch zu verbessern, indem man zusätzlich zu den Spaltneutronen noch Neutronen durch andere Kernprozesse erzeugt. Das kann mit hochenergetischen Protonen (ca. 1 GeV) erfolgen, die man in einem Beschleuniger erzeugt und auf ein Target im Reaktor schießt, wo es zu einer Zertrümmerung (Spallation) schwerer Kerne kommt, bei der bis zu 20 Neutronen pro Reaktion erzeugt werden.

    2. Nachzerfallswärme

    Nachzerfallswärme eines 1000 MWe Kernkraftwerkes

    Abbildung2: Nachzerfallswärme eines 1000 MWe Kernkraftwerkes

    Hier liegt das zentrale Problem der Reaktorsicherheit. Der hochradioaktive Abfall zeigt selbst nach dem Abschalten der Kettenreaktion noch eine beträchtliche Wärmeentwicklung, wie in Abbildung 2 dargestellt ist. Nach einigen Tagen sind das noch immer zirka 10 MW, die sicher weggekühlt werden müssen. Dafür stehen in der Regel 3 unabhängige Notkühlsysteme zur Verfügung, die durch redundante Energieversorgungssysteme ständig einsatzbereit sein sollten. Bei der Reaktorkatastrophe in Fukushima wurden alle diese Systeme infolge der Überflutung durch den Tsunami gleichzeitig außer Kraft gesetzt, was zum Schmelzen der Brennelemente, zur Wasserstoffproduktion und zu den bekannten Explosionen geführt hat. Bei zukünftigen Reaktorkonzepten versucht man, auch geschmolzene Brennelemente sicher innerhalb des Containments beherrschen und mittels Naturzirkulation über längere Zeitabschnitte hinweg kühlen zu können.

    3. Radioaktiver Abfall

    Radiotoxizität des radioaktiven Abfalls

    Abbildung 3: Radiotoxizität des radioaktiven Abfalls

    Auch hier spielen die radioaktiven Spaltprodukte eine wesentliche Rolle, dazu kommen noch die sehr langlebigen Transurane, die durch die Absorption von Neutronen in Uran-238 während des Reaktorbetriebes entstanden sind. Der radioaktive Abfall wird in Wiederaufbereitungsanlagen vom restlichen Uran und vom während des Betriebes entstandenen Plutonium getrennt und sollte einer sicheren Lagerung zugeführt werden. Dabei gibt es neben einiger technischer vor allem gesellschaftspolitische Probleme. Bei geeigneter Behandlung kann man erreichen, dass das Toxizitätsniveau nach ca. 800 Jahren unter das des ursprünglich verwendeten Erzes sinkt (Abbildung 3). Neuerdings gibt es Anstrengungen, den langlebigen radioaktiven Abfall durch Transmutation mittels hochenergetischer Protonen im kurzlebigen Abfall zu konvertieren. Damit ergeben sich interessante Perspektiven nicht nur für die Behandlung des radioaktiven Abfalls sondern, falls die Sache innerhalb eines Reaktors stattfindet, auch für eine Erhöhung der vorher besprochenen Sicherheitsmarge bei der Kettenreaktion (bis zu 10%) (accelerator driven system – ADS).

    4. Terror und Einwirkungen von außen

    An sich sind Kernkraftwerke massive Bauwerke, und Anschläge von außen wären wahrscheinlich nicht sehr wirksam. Was Anschläge durch eingeschleuste Personen oder das Betriebspersonal betrifft, so sind hier effiziente Kontrollsysteme angezeigt. Flugzeugabstürze, die zentral das Containment betreffen, sind bei den derzeitigen Anlagen nicht voll abgesichert, sollen das aber bei der nächsten Generation solcher Anlagen sein.

    Neue Entwicklungen

    • Im Bereich konventioneller Kernkraftwerke Hier ist die Weiterentwicklung konventioneller Kernkraftwerke auf der Basis der Druck- und Siedewasserreaktoren zu erwähnen. In Europa ist das der „European Pressurized Water Reactor – EPR“ der bereits in Finnland und Frankreich gebaut wird. Er besitzt ein doppeltes Containment, was ihn unter anderem gegen Flugzeugabstürze sicher macht, und er beherrscht auch Kernschmelzunfälle, indem er die Kernschmelze auf einer großen Fläche verteilt und durch Luftkonvektion über längere Zeiträume hinweg kühlen kann. In den USA gibt es ähnliche Projekte (AP-600 und ABWR).
    • Generation 4 Kernkraftwerke. Einen Schritt weiter geht man bei Reaktoren der 4. Generation (z.B. [5]). Es sind das meist „Schnelle Reaktoren“, die mit flüssigem Natrium oder flüssigem Blei gekühlt werden müssen und die im Prinzip in der Lage sind, mehr Brennstoff zu erbrüten als sie verbrauchen. Dadurch wären derartige Reaktoren extrem resourcenschonend. Statt 200 t/Jahr bei Druck- und Siedewasserreaktoren werden hier beim Betrieb eines 1000 MWe Kraftwerkes nur 1,1 t/Jahr Uranerz benötigt. Die Frage der nuklearen Sicherheit stellt sich dabei jedoch in besonderer Form; einerseits wegen des zumindest lokal positiven Dampfblasenkoeffizienten (void coefficient) und andererseits wegen der Notwendigkeit eines doppelten Wärmetauschers (siehe Abbildung 1).

    Transmutation durch Reaktor/Beschleuniger-Kombination Kombination eines Reaktors mit einem Protonen-Beschleuniger zur Energieerzeugung und zur Transmutation des radioaktiven Abfalls.

    Abbildung 4: Kombination eines Reaktors mit einem Protonen-Beschleuniger zur Energieerzeugung und zur Transmutation des radioaktiven Abfalls.

    Kombinationen mit einem „accelerator driven system (ADS)“ und einem Abfalltransmutator erscheinen machbar [6]. Auch gasgekühlte Hochtemperaturreaktoren stehen bei dieser Generation zur Diskussion. Diese wären speziell für die chemische Prozesswärme und eine zukünftige Wasserstofftechnologie von Bedeutung.

    • Fusionskraftwerke. Hier wird die Verschmelzung leichter zu schwereren Kernen ausgenützt. Auch in diesem Fall kann Energie gewonnen werden, wie es uns ja die Sonne seit Jahrmilliarden vormacht. Man versucht seit Jahrzehnten und zum Teil mit großem Aufwand, auch auf der Erde eine derartige Reaktion zu beherrschen und zu verwenden.
    • Da es sich dabei jedoch um die Reaktion gleichartig geladener Teilchen handelt, muss die Coulomb-Abstoßung überwunden werden. Das bedeutet, man benötigt extrem hohe Temperaturen oder extrem hohe Dichten. Ersterer Weg wird bei Tokomak- und Stellerator-Anlagen benützt, wo in sehr starken Magnetfeldern versucht wird, ein Deuterium-Tritium Plasma genügend lange zusammen zu halten, um genügend Fusionsvorgänge zu ermöglichen. Ein Deuterium-Tritium Gemisch bietet sich deshalb als beste Möglichkeit an, da damit die kritische Reaktionskinetik am ehesten erreichbar erscheint (Lawson-Kriterium).

    Tritium selbst ist aber radioaktiv, was die Sache nicht einfacher macht. Man benötigt Temperaturen bis zu ca. 100 Mill. Grad und Tritiummengen, die einer Aktivität von ca. 1,6x106 TBq und einer Menge von Ca. 4,5 kg entspricht. Die weltweit größte Fusionsanlage (ITER) wird derzeit im Rahmen einer weltweiten Kooperation in Südfrankreich errichtet und soll erstmals das Lawson-Kriterium überschreiten, d.h. die erfolgten Fusionen sollen mehr Energie liefern als vorher in das Plasma investiert wurde. Die Stabilität des Plasmas, aber auch Materialprobleme bezüglich der extremen Hitze- und Strahlungsbelastung werfen zum Teil noch ungeklärte Fragen auf.

    Eine Alternative zur Magnetfusion stellt die Trägheitsfusion dar. Bei dieser versucht man, ein Deuterium-Tritium Gemisch so stark zu komprimieren, dass die entsprechenden Atomkerne fusionieren. Diese notwendige Verdichtung kann man am ehesten durch einen allseitigen Beschuss eines geeigneten Pellet mit intensiver Laser- oder Partikelstrahlung erreichen [7]. Der technische Aufwand ist auch bei dieser Methode sehr hoch, und ein Durchbruch ist auch hier in nächster Zeit nicht zu erwarten. Außerdem steht diese Forschung in relativ engem Zusammenhang mit militärischer Forschung, weswegen der aktuelle Stand nicht genau bekannt ist.

    Résumé

    Die im Titel enthaltene Frage kann in der gestellten Form wohl nicht beantwortet werden, zumal „gut“ und „böse“ zwar auf Menschen nicht aber auf technische Entwicklungen anzuwenden ist.

    Die Kernenergie ist so eine technische Entwicklung, die eine neue Dimension der Energiegewinnung eingeleitet hat und sich hier die Frage eher nach der Effizienz und nach der Sicherheit stellt. Bezüglich der Effizienz scheint die Situation geklärt zu sein. Die überwiegende Zahl der Staaten, die Kernenergie nutzen, wollen diese ausbauen und andere wollen in diese Technologie einsteigen.

    Die Stromerzeugungskosten und die Verfügbarkeit sind als sehr günstig einzuschätzen. In diesem Sinne wird die Kernenergie auch weiterhin einen wesentlichen Beitrag zum Energiemix leisten. Die Sicherheit derartiger Anlagen wird aus verschiedenen Blickwinkeln gesehen, und es ist schwer, rationale Elemente in die Diskussion einzubringen. Unabhängige Untersuchungen zeigen, dass das Risiko der Kernenergie keineswegs höher ist als das bei anderen Stromerzeugungsmethoden, aber das persönliche Empfinden in der Bevölkerung ist anders [8,9].

    Unfälle, wie die in Tschernobyl und Fukushima, haben dazu beigetragen, wobei man allerdings auch berücksichtigen sollte, dass gerade aus derartigen Unfällen sehr viel gelernt werden kann, was zu einer Erhöhung der Sicherheit beitragen wird [10]. In diesem Sinne wird es auch im Bereich der Kernenergie weitere Fortschritte bezüglich Effizienz und Sicherheit geben und damit eine Verbesserung der Akzeptanz.


    Literatur

    [1] „International Status and Prospects of Nuclear Power - Edition 2010“, IAEA, Vienna 2011

    [2] www.kernfragen.de

    [3] H. Rauch: „Derzeitige und künftige nukleare Energiesysteme“, E & M, 98 (1998) 139

    [4] H. Böck, M. Gerstmayr, E. Radde: „Kernfrage Atomkraft“, Goldeck Verlag, Wien 2011

    [5] J.G. Marques: „Evolution of nuclear fission reactors“, Energy Conversion and Management 51 (2010) 1774

    [6] C. Rubbia: „A high gain energy amplifier operated with fast neutrons”, AIP Conf. Proc. 346 (1994) 44

    [7] S. Atzeni, J. Meyer-ter-Vehn: „The physics of inertial fusion“, Clarendon Press, Oxford 2004

    [8] R.P. Gale and A. Butturini: „Chernobyl and Leukemia-Perspective”, Leukemia 5 (1991) 441

    [9] R.P. Gale: „Die wahre Gefahr“, Der Spiegel 14 (2011) 114

    [10] C. Peachey: „Safety first“, Nucl.Eng.Int., June 2011, S.18, www.neimagazine.com


    Anmerkungen der Redaktion

    Glossar

    Coulomb-Abstoßung: abstoßende Kraft zwischen elektrisch gleich geladenen Körpern, auch Teilchen, die von den elektrischen Ladungen (positiv oder negativ) bewirkt wird. Ungleiche Ladungen ziehen einander an. Die Coulomb-Abstoßung zwischen den im Molekül außen befindlichen, negativ geladenen Elektronen bewirkt bspw., dass Festkörper einander nicht einfach durchdringen.

    Deuterium, Tritium: Isotope des Wasserstoff (Elementsymbol H​). Das chemische Element als solches wird durch die Anzahl der im Atomkern vorhandenen, elektrisch positiv geladenen Protonen bestimmt. Alles mit einem einzigen Proton im Kern bspw. ist Wassertoff und benimmt sich chemisch gleich. Die Anzahl der elektrisch ungeladenen, neutralen, Neutronen bestimmt das Isotop: 2 Neutronen: Deuterium, 3 Neutronen: Tritium. Chemisch ist Tritium also Wasserstoff (und kann als solcher durchaus z.B. in einem Wassermolekül (H2O) vorkommen).

    eV: Elektronenvolt. In der Atom- und Kernphysik gebräuchliche Einheit der Energie. Ein Elektronvolt ist die von einem Elektron oder sonstigen einfach geladenen Teilchen gewonnene kinetische Energie beim Durchlaufen einer Spannungsdifferenz von 1 Volt im Vakuum. 1 MeV = 1 000 000 eV.

    Kettenreaktion: Reaktion, die sich von selbst fortsetzt. In einer Spaltungskettenreaktion absorbiert ein spaltbarer Kern ein Neutron, spaltet sich und setzt dabei mehrere Neutronen frei (bei 235U im Mittel 2,46). Diese Neutronen können ihrerseits wieder durch andere spaltbare Kerne absorbiert werden, Spaltungen auslösen und weitere Neutronen freisetzen.

    Parasitäre Absorption: beschreibt den Neutronenverlust durch Absorption im Kühlmittel, den Struktur- und Kontrollmaterialien sowie den Spaltprodukten.

    Transmutation: Umwandlung der beim Betrieb von Kernreaktoren durch Neutroneneinfang im U-238 entstehenden langlebigen Nuklide in stabile oder kurzlebige Nuklide.

    Transurane: Chemische Elemente im Periodensystem, deren Kernladungszahl größer als die des Urans (= 92) ist. Mit Ausnahme des Plutoniums werden Transurane künstlich hergestellt.

    TWh: Terawattstunde. 1 Milliarde kWh. Empfehlenswert für alle, die mehr über den Aufbau von Atomen und Atomkernen, von Kernumwandlungen und Radioaktivität erfahren möchten: Kernenergie Basiswissen; Martin Volkmer, 2007 und als Nachschlagewerk: Lexikon zur Kernenergie; W. Koelzer, Forschungszentrum Karlsruhe GmbH, Mai 2011

    inge Thu, 11.08.2011 - 05:20

    Auf dem Weg zu einer neuen Emeritus-Kultur in Österreich?

    Auf dem Weg zu einer neuen Emeritus-Kultur in Österreich?

    Fr, 28.07.2011- 06:27 — Georg Wick

    Icon Politik & GesellschaftGeorg Wick

    Im Jahr 2009 wurde ich von der Zeitschrift „Cellular and Molecular Life Science“ eingeladen, einen Beitrag für deren gelegentlich erscheinende Rubrik „Memories of Senior Scientists“ zu schreiben. Nach längerem Überlegen habe ich diese Einladung angenommen und einen Artikel mit dem Titel „Self and Non-Self“ verfasst (1)

    In dieser Rubrik sollen ältere Wissenschaftler auf relativ engem Raum beschreiben, welche Personen und äußere Umstände ihren wissenschaftlichen Lebenslauf besonders geprägt haben. Die Bewältigung dieser Aufgabe stellte sich als äußerst schwierig heraus, und nach Fertigstellung des Manuskripts zeigte sich interessanterweise, dass vor allem positive Einflüsse vermerkt wurden, die vielen negativen Erlebnisse und Enttäuschungen, die ja für einen wissenschaftlichen Lebenslauf ebenfalls sehr prägend sind, aber ausgeklammert worden waren.

    Wahrscheinlich lag das daran, dass man positive Konnotationen mit bestimmten Personen leicht zu Papier bringen kann, während man negative Assoziationen mit bestimmten Namen zu Lebzeiten ungern preisgibt oder diese - was noch wahrscheinlicher ist - verdrängt. bzw. nicht mehr wichtig nimmt.

    Ich habe jedenfalls diesen Artikel mit dem Satz begonnen „Life has been good to me!“, und so habe ich mein wissenschaftliches Leben auch wirklich empfunden. Da der Zeitpunkt des Verfassens dieses Artikels ungefähr mit jenem meiner Emeritierung zusammenfiel, kann ich inzwischen auf fast 4 Jahre wissenschaftlicher Tätigkeit als Emeritus zurückblicken, und ich kann sagen, dass die zu Beginn meiner „Memories“ gemachte Feststellung auch heute noch Gültigkeit hat.

    Ich habe, dank der Unterstützung durch das Rektorat der Medizinischen Universität Innsbruck (MUI) sowie Prof. Lukas Huber, meinem früheren Dissertanten und PostDoc, dem jetzigen Leiter des Biozentrums der MUI, auch als Emeritus weiterhin ausgezeichnete Arbeitsbedingungen vorgefunden. Die ungebrochene Fortsetzung meiner wissenschaftlichen Tätigkeit war allerdings nur möglich, weil es mir gelungen ist, kompetitive Drittmittel (FWF, EU) einzuwerben und damit eine junge und kompetente Arbeitsgruppe zu rekrutieren bzw. aufzubauen. Das bringt mich zum eigentlichen Themas dieses ScienceBlogs.

    In Österreich geht durch unsere verfehlte Pensionspolitik außerhalb und innerhalb der akademischen Szene viel Know-How verloren, das für unsere Wirtschaft und Wissenschaft einen beträchtlichen Wert haben könnte. In Bezug auf die Wirtschaft bedenke man nur den Verlust seltener handwerklicher Fähigkeiten, das Know-How älterer Techniker und Ingenieure, Archivare, etc. Künstler haben es da besser, denn sie können, wenn sie wollen, bis an ihr Lebensende weiter ihrer Passion frönen.

    Auch für Wissenschaftler wäre dies eine Option, wenn man, ähnlich wie in den Vereinigten Staaten, auch nach der Pensionierung bzw. Emeritierung weiterarbeiten könnte. Dabei gäbe es für die Berechtigung zum Weiterarbeiten ein ganz einfaches Kriterium: die Einwerbung kompetitiver Drittmittel. Dies bedeutet also, dass bei erfolgreichem fachlichen Wettbewerb - und damit einer strikten Qualitätskontrolle - eines eingereichten Projekts von der universitären oder extrauniversitären akademischen Institution die Infrastruktur bereitgestellt werden sollte, um diese international noch wettbewerbsfähigen Wissenschaftler an der Institution zu halten.

    Dies hat nicht nur für die involvierten Wissenschaftler, sondern auch für die an diesem Projekt arbeitenden Studenten, Postdocs und Techniker Vorteile: Sie können von der Erfahrung, der Übersicht und dem persönlichem Netzwerk des Senior Investigators profitieren, insbesondere wenn sie auch - wie dies bei meiner Arbeitsgruppe der Fall ist – in einen grösseren Verbund, in unserem Fall das Biozentrum der MUI, eingebunden sind und an Diskussionen und Seminaren, Ausschreibungen und Wettbewerben etc. aktiv teilnehmen.

    Abgesehen von den bereits lange existierenden derartigen Programmen in angelsächsischen Ländern haben auch schon einige Deutsche und zwei Schweizer Universitäten, insbesondere aber die Max-Planck-Gesellschaft, eigene Programme für die Weiterbeschäftigung älterer Wissenschaftler entwickelt und implementiert.

    Es ist zu hoffen, dass es auch in Österreich gelingt, eine meines Wissens bis jetzt noch nicht flächendeckend existierende Emeritus-Kultur zu etablieren, die es erlaubt, unser wichtigstes Kapital, nämlich die intellektuellen Ressourcen, in ihrer Gesamtheit voll auszuschöpfen.


    (1) Wick G. Memories of a Senior Scientist: Self and Non-Self (PDF; kostenpflichtiges Angebot) Cell Mol Life Sci., Mar 66(6):949-61 (2009)

    inge Thu, 28.07.2011 - 06:26

    Grundlagenforschung in Österreich: Erkennen von Exzellenz

    Grundlagenforschung in Österreich: Erkennen von Exzellenz

    Fr, 21.07.2011 - 05:20 — Peter Schuster

    Peter SchusterIcon Politik & Gesellschaft

    Die Bewertung von innovativen Projekten ist zweifellos schwierig. Eine Förderung von Grundlagenforschung, die in wissenschaftliches Neuland vordringt, ist ohne einen hohen Vertrauensvorschuss in die Forscher unmöglich.

    Das Vertrauen in die Wissenschaft ist in den USA besonders hoch und deutlich stärker als in Kontinentaleuropa: Im Jahre 2009 ergab eine breit angelegte Umfrage, dass die Wissenschaftler im Vertrauen der Bürger hinter den ‚Firefightern‘ an Stelle zwei stehen1, Politiker und Banker dagegen die Schlusslichter bildeten.

    Weltweit wird mehr Vertrauen den Wissenschaftlern entgegengebracht, die bereits Erfolge verzeichnen können. Aus diesem Grund ist es von vorrangiger Bedeutung, Nachwuchswissenschaftlern schon sehr früh in ihrer Karriere die Chance zu unabhängiger, wissenschaftlicher Arbeit zu geben – ein Gesichtspunkt, auf den in der Folge noch eingegangen werden wird.

    Forschungsleistung muss selbstverständlich auch in der Grundlagenforschung beurteilt werden können. Die Bürger verlangen mit Recht einsichtige Kriterien der Begutachtung des Erfolges und der Bewertung der Ergebnisse. Politiker und Referenten, welche über die verhältnismäßig hohen Förderungssummen zu entscheiden haben, legen großen Wert auf einfach handhabbare, quantitative Indikatoren. Diese gibt es mittlerweile auch auf der Basis einer Bewertung der Zahl der Publikationen und der Publikationsmedien, in welchen die Wissenschaftler über ihre Ergebnisse berichten. Auch das Echo, welches die Publikationen in der wissenschaftlichen Community finden, kann in Form von bibliometrischen Maßzahlen quantifiziert werden (z.B.: "Impact factor" - Gesamtzahl der Zitierungen eines Autors, "Hirsch factor" - Zitierungshäufigkeit der Publikationen).

    Sieht man diese Indikatoren für berühmte Naturwissenschaftler nach, so erhält man ein eindeutiges Ergebnis2: Kein Spitzenwissenschaftler schneidet bei diesen Kriterien schlecht ab, aber der Umkehrschluss ist unzutreffend, denn es gibt auch viele durchschnittliche Wissenschaftler mit beeindruckenden quantitativen Faktoren. Allerdings sind die oft benutzten und oft geschmähten quantitativen Kriterien zum Erkennen von Minderleistung sehr gut einsetzbar: Wenn ein Forscher kaum publiziert oder seine Arbeiten in der wissenschaftlichen Community keine Beachtung finden, dann ist der Grund dafür ernsthaft zu hinterfragen.

    Wie kann man nun Exzellenz erkennen?

    Ein Beispiel aus der Musikwelt soll als Illustration dienen: Wenn man einen Opernliebhaber nach dem besten Opernhaus der Welt fragt, dann erhält man verschiedene Antworten, einer nennt die Covent Garden Royal Opera in London, ein anderer bevorzugt die Wiener Staatsoper, einem dritten gefällt die MET in New York am besten. Fragen Sie aber nach den zehn besten Opernhäusern der Welt, dann werden die Wiener Oper, die Mailänder Skala und die Metropolitan Opera mit größter Sicherheit darunter sein. Ein zweites Beispiel kann dem Spitzensport entnommen werden: Ob man den Medaillenspiegel der olympischen Winterspiele heranzieht, die Weltmeisterschaftstitel oder den Weltcup, Österreich liegt immer unter den ersten zehn Nationen.

    Tabelle 1: Zahlen der bis heute verliehenen Nobelpreise. Die für die Fächer Physik, Chemie und Physiologie/Medizin seit Beginn der Nobelstiftung bis heute (1901-2010) verliehenen Preise nach Nationen aufgeschlüsselt. Halbe Zahlen entstehen durch die Zuordnung von Preisträgern zu zwei Ländern. Quelle: Veröffentlichungen der Nobelstiftung, Statistik der Preise.

    Physik  Chemie Physiologie /Medizin 
    Nation Zahl Nation Zahl Nation Zahl
    U.S.A. 82 U.S.A. 59½ U.S.A. 92
    Deutschland 23½ Deutschland 28 Großbritannien 27
    Großbritannien 21 Großbritannien 25 Deutschland 16
    Frankreich 12 Frankreich 8 Frankreich 10
    Russland (UdSSR) Schweiz 6 Schweden 8
    Niederlande 8 Japan 4 Schweiz
    Japan 6 Schweden 4 Australien 6
    Schweden 4 Kanada Dänemark 5
    Schweiz Israel 3 Österreich 5
    Dänemark 3 Niederlande 3 Belgien 4
    Österreich 3 Argentinien 1 Italien
    Italien 3 Belgien 1 Kanada 2
    China Dänemark 1 Niederlande 2
    Kanada 2 Finnland 1 Russland
    (UdSSR)
    2
    Indien 1 Italien 1 Argentinien
    Irland 1 Neuseeland 1 Japan 1
    Pakistan 1 Norwegen 1 Portugal 1
      Österreich 1 Spanien 1
    Russland (UdSSR) 1 Südafrika 1
    Tschechoslowakei 1 Ungarn 1
    Ungarn 1 Neuseeland ½
    Ägypten ½  
    Australien ½

    Geht man in der Wissenschaft analog vor, so kann man die Spitzeninstitute und die Spitzenwissenschaftler in einem Forschungsgebiet unschwer identifizieren. Einem Vertreter der Naturwissenschaften drängt sich der Nobelpreis als Ausdruck der Spitzenleistung auf. Seit 1901 wurden einige hundert Preise auf den Gebieten Physik, Chemie und Physiologie/Medizin vergeben. Es ist beachtenswert, dass es hier einen Wettbewerb zwischen den führenden Nationen in der Wissenschaft gibt, welcher jenem im Sport oder in der Kultur nicht nachsteht.

    Die Länder erachten den Erfolg ihrer Spitzenwissenschaftler als eigenen Prestigegewinn und sind stolz auf ihre Preisträger. Dasselbe gilt für Universitäten: Sie erachten diese Preise für ihre Angehörigen als eigenen Erfolg. Die Größe der Länder spielt natürlich auch eine entscheidende Rolle, wie die Reihenfolge US > DE, GB > FR zeigt (Tabelle 1).

    Der deutschsprachige Raum ist wegen der ähnlichen Wissenschaftsstruktur für einen detaillierten Vergleich gut geeignet. Die Zahl der Nobelpreise auf den einzelnen Gebieten spiegelt die bekannten wissenschaftlichen Stärken wie Chemie in Deutschland und der Schweiz, Medizin in Österreich wider. Um den zeitlichen Verlauf erkennen zu können, ist die kumulative Zahl der Nobelpreise für die drei deutschsprachigen Nationen in Abbildung 1 gegen die Jahreszahl aufgetragen: Nobelpreise nach 1901

    Abbildung 1: Kumulative zeitliche Entwicklung der an Forscher aus dem deutschsprachigen Raum – Deutschland, Schweiz und Österreich – vergebenen Nobelpreise im Zeitraum 1901-2009. Quelle wie Tabelle 1.

    Die Graphik zeigt eine überraschend geringe Abflachung der deutschen Kurve nach dem zweiten Weltkrieg. Die Kurven für die Schweiz und Österreich weisen hingegen eine solche auf. Während sich in der Schweiz um 1970 herum wieder der Vorkriegszuwachs einstellt, bleibt Österreich auf dem Wert von 1945 stehen. Einzige Ausnahme ist der Nobelpreis an Konrad Lorenz im Jahre 1973.

    Sicherlich ist das oft verwendete Argument zutreffend, dass Österreich wegen der Vertreibung und Ermordung der jüdischen Intelligenz durch die Nationalsozialisten niemals mehr zur Vorkriegswissenschaft zurückgefunden hat. Der Vergleich zeigt jedoch, dass dies nicht die einzige Ursache sein kann. Weitere Gründe für das schlechte Abschneiden Österreichs sind sicherlich in der Vernachlässigung der akademischen Forschung und in dem schlechten Zustand der Universitäten bis lange nach dem Zweiten Weltkrieg zu finden.

    Die deutsche Wissenschaftslandschaft erlaubt einen unmittelbaren Vergleich der Leistungsfähigkeit außeruniversitärer und universitärer Grundlagenforschung an Hand der zugesprochenen Nobelpreise: Von Deutschlands insgesamt 67 Nobelpreisträgern kommen 32 aus Kaiser Wilhelm- (seit 1947 Max Planck-) Instituten. Rund die Hälfte aller Nobelpreise erhielten Mitarbeiter der Max Planck-Gesellschaft (MPG), ebenso viele wie Forscher an den heute 105 Universitäten Deutschlands und anderen außeruniversitären Instituten, wobei die gesamte MPG etwa die Größe von etwa drei mittleren deutschen Universitäten hat. Der bekannte amerikanische Soziologe und vergleichende Geschichtsforscher Roger Hollingsworth begründete die Notwendigkeit außeruniversitärer Grundlagenforschung so3:

    „The more functions an individual … tries to fulfill, the more unlikely it is to achieve excellence in all or even in one. Scientists who teach a lot have less time for research.”

    Die amerikanischen Universitäten haben ein anderes Rezept, Spitzenwissenschaftler von unproduktiver Tätigkeit zu befreien: Die Inhaber von ‚Named Chairs‘ oder ‚Distinguished Professorships‘ werden von Verwaltungstätigkeit und Lehre weitestgehend entlastet. Der Erfolg dieses Modells hängt davon ab, dass jedes Fakultätsmitglied seine Rolle im Gesamtkonzept der Universität sieht und die überwiegend mit Lehre betrauten Kollegen nicht mit dem Argument: „Ohne die Belastung durch Lehre und Verwaltung wäre ich auch ein Spitzenwissenschaftler“, gegen die hauptsächlich in der Forschung engagierten Kollegen intrigieren.

    Nobelpreise sind natürlich nicht der alleinige Gradmesser der naturwissenschaftlichen Leistungen eines Landes. Zieht man andere Indikatoren zu Rate, kommt man aber zu ganz ähnlichen Ergebnissen. Die traditionellen Stärken einiger Nationen in bestimmten Forschungsgebieten treten immer wieder zu Tage. Man kann dies sehr schön an Hand der Mathematik zeigen, für die es bekannter Weise keinen Nobelpreis gibt. Die Auszeichnung höchsten Ranges ist dort die Fields-Medaille, die alle vier Jahre durch die ‚International Mathematical Union‘ verliehen wird. Neben den Vereinigten Staaten dominieren Frankreich, Russland und Großbritannien.

    Seit sieben Jahren vergibt die Norwegische Akademie der Wissenschaften eine andere höchste Auszeichnung auf dem Gebiet der Mathematik, den Abel-Preis. Trotz verschiedener Vergabemodalitäten – die Fields-Medaille wird nur an Mathematiker im Alter unter 40 Jahren vergeben, wogegen der Abel-Preis keine Altersbeschränkung kennt – stehen wieder die gleichen Nationen an der Spitze: die USA und Frankreich. Nach Österreich ist bis jetzt weder eine Fields-Medaille noch ein Abel-Preis gegangen.

    Exzellenz bedarf einer Tradition von Spitzenleistung und kann nicht von einem Tag auf den anderen geschaffen werden. Ein Schulbeispiel für die Schaffung einer Einrichtung für Spitzenleistung bietet die Rockfeller University in New York [3]. Am Beginn im Jahre 1901 steht die Vision des reichen Philanthropen John D. Rockfeller, Senior, in den Vereinigten Staaten ein Institut für Biomedizinische Forschung von Weltrang zu schaffen, welches die Wissenschaft unmittelbar an das Krankenbett im Spital bringt. 1910 wird dasRockefeller Institute Hospitaleröffnet und 1965 wird das Institut zurRockefeller Universityumbenannt.

    Die EDie kompromißlose Suche nach und erfolgreiche Rekrutierung von erstrangigen Talenten führte zu einer weltweit einmaligen Erfolgsgeschichte: Im spitalsmedizinischen Bereich wurden unter anderem Methoden zur Konservierung von Gesamtblut, Diätvorschriften zur genauen Kontrolle der Nährstoffe im Essen, die Methadon basierte Entwöhnungstherapie für Heroinsüchtige sowie die erste Therapie mit Kombinationspräparaten gegen HIV Infektionen entwickelt. ntdeckungen in der Grundlagenforschung wurden beispielsweise durch 23 Nobelpreise aus Chemie und Physiologie/Medizin gewürdigt, die an die ‚Rockefeller University‘ gingen.

    Besonders eindrucksvolle Beispiele höchst erfolgreicher Exzellenzstrategien in der Wissenschaft bieten die rasch aufstrebenden Volkswirtschaften in Asien und Südamerika, die innerhalb weniger Jahre den Sprung von Entwicklungsländern zu Industrienationen geschafft haben. Zwei Voraussetzungen müssen dabei für die Schaffung von wissenschaftlichen Spitzeneinrichtungen gegeben sein:

    1. ausreichende finanzielle Mittel zur Investition in den Aufbau von Exzellenzzentren – Universitäten oder außeruniversitäre Forschungszentren – und
    2. kompromisslose Rekrutierung der besten Wissenschaftler, die bereit sind, am Aufbau mitzuarbeiten.

    Drei asiatischen Staaten mit völlig verschiedenen politischen Systemen ist es innerhalb weniger Jahre gelungen, zu ernst zu nehmendenPlayernin der Wissenschaft zu werden.

    • Der kleine Tigerstaat Singapur mit einer ‚Einparteiendemokratie‘ besitzt heute mit derNational University of Singapureine Universität, welche in den internationalen Rankings vor den besten Universitäten Österreichs rangiert und hat es geschafft, mit einer ‚aggressiven‘ Investitions- und Rekrutierungspolitik zu einem weltweiten Spitzenplatz in der Biotechnologie zu werden.
    • Die kommunistische Diktatur der Volksrepublik China übt mit einer strikten Exzellenzstrategie erfolgreich Druck auf die eigenen Wissenschaftler aus, indem unter anderem Anreize und Anerkennungen für den wissenschaftlichen Erfolg gegeben werden. Trotz eines weit geringeren Entlohnungsniveaus gelingt die Rückholung von Chinesen vor allem aus den USA, welche mit dem mitgebrachten ‚Know-How‘ die Basis für den spektakulären Aufstieg der chinesischen Wissenschaft gelegt haben.
    • Einen ebenso kometenhaften Aufstieg in der Wissenschaft verzeichnet die Demokratie Indien: Der Subkontinent hat ohne strikte zentralistische Direktiven zuerst auf Informationstechnologie, insbesondere Dienstleistung in Form von beauftragter ‚Software‘-Entwicklung, gesetzt und dann, als die IT-Branche zu stagnieren begann, sich dem Biotechnologiesektor zugewendet. Für Indien typisch ist die große Zahl an neu entstandenen Privatunternehmen, die sich hervorragend entwickeln und eine gute wirtschaftliche Prognose haben.

    Weitere Beispiele aufzuzählen fiele nicht schwierig; es sei hier nur festgehalten, dass Exzellenzstrategien zum Erfolg führen, wenn sie ernsthaft verfolgt werden, und dies unabhängig von der Größe und dem politischen Regime eines Staates.


    Der Artikel ist der zweite Teil der ausführlichen Fassung eines Referates, das im vergangenen Jahr anläßlich des von der Österreichischen Akademie der Wissenschaften veranstalteten Symposiums „Wa(h)re Forschung“ gehalten wurde:

    Teil 1:Grundlagenforschung in Österreich: Exzellenzstrategie – Mehr als ein Lippenbekenntnis?

    Teil 3: Grundlagenforschung in Österreich: Rekrutierung von Spitzenkräften

    Teil 4: Grundlagenforschung in Österreich: Förderung des wissenschaftlichen Nachwuchses

    Dieses Symposium hatte den sich eben in allen Bereichen der Wissenschaft vollziehenden Paradigmenwechsel zum Thema: „Weg von der erkenntnisorientierten Grundlagenforschung und hin zur Anwendungsorientierung“ und ist eben in Buchform erschienen: „Wa(h)re Forschung – Change of Paradigms?“ Präsidium ÖAW Hsg, Friedrich VDV, 4020 Linz; 2011 


    Literatur

    [1] Ralph J. Cicerone. 2010. Growing trust in science. Address of the President at the 147th Annual Meeting of the National Academy of Sciences USA. Washington. D.C.

    [2] Peter Schuster. 2009. Welche Voraussetzungen benötigt Spitzenforschung und woran kann man ihre Ergebnissemessen? Österreichische Akademie der Wissenschaften, Almanach 2008, 158. Jahrgang. Verlag der Österreichischen Akademie der Wissenschaften, Wien, pp.333-344.

    [3] J. Rogers Hollingsworth. 2004. Institutionalizing Excellence in Biomedical Research. The Case of the RockefellerUniversity. In: D. H. Stapelton (Ed.). Creating a Tradition of Biomedical Research. Contributions to the History of the Rockefeller University. The Rockefeller University Press, pp.17-63, New York

    inge Thu, 21.07.2011 - 05:20

    Der Mythos des Jungbrunnens: Die Reparatur des Gehirns mit Stammzellen

    Der Mythos des Jungbrunnens: Die Reparatur des Gehirns mit Stammzellen

    Fr, 14.07.2011 - 04:20 — Hans Lassmann

    Hans LassmannIcon Gehirn

    Für lange Zeit galten das Gehirn und Rückenmark (gemeinsam bezeichnet als das zentrale Nervensystem) als Organe des menschlichen Körpers, die zu keiner Regeneration fähig sind. Diese pessimistische Sicht der Dinge hat sich jedoch zunehmend geändert.

    Einschlägige Forschungsarbeiten lieferten eindrückliche Beweise für eine erhebliche Plastizität des zentralen Nervensystems. Die Funktion geschädigter Anteile kann durch andere Regionen des Gehirns zumindest zum Teil übernommen werden, und dies ist mit einem Umbau der Hirnstruktur und der Ausbildung neuer Verbindungen in den Nervenzellnetzwerken verbunden.

    Neue Erkenntnisse aus der Grundlagenforschung zeigen, dass darüber hinaus das zentrale Nervensystem über eine Population von Stammzellen verfügt, aus denen sich neue Nerven- und Stützzellen entwickeln, die auch in neue, funktionell relevante Schaltkreise eingebaut werden können. In der Praxis ist jedoch das Ausmaß dieser Fähigkeit zur Reparatur und Regeneration begrenzt, und funktionelle Ausfälle nach einer Zerstörung von Hirngewebe können sich nur zum Teil zurückbilden.

    Trotzdem haben diese neuen Forschungsergebnisse große Hoffnungen geweckt, durch therapeutische Verfahren die Regeneration im Nervensystem zu fördern und damit Dauerschäden neurologischer Erkrankungen zu mindern. Dies gilt nicht nur für Schäden nach direkter Verletzung oder nach Schlaganfällen, sondern auch für degenerative Erkrankungen des Nervensystems, wie zum Beispiel die Parkinson’sche oder die Alzheimer’sche Erkrankung. Ein in diesem Zusammenhang gegenwärtig besonders intensiv diskutiertes Gebiet ist die Förderung der Reparatur von Krankheitsherden im Nervensystem durch die Transplantation von Stammzellen oder neuronalen Vorläuferzellen.

    Die Ergebnisse dieser Bemühungen sind aus wissenschaftlicher Sicht durchaus beeindruckend. Werden solche Zellen in experimentellen Krankheitsmodellen transplantiert, können dauerhafte klinische Ausfälle vermindert und eine zumindest teilweise Reparatur der Schäden nachgewiesen werden. Illustrative Beispiele dafür sind der Ersatz von dopaminergen1 Nervenzellen durch Transplantation von neuronalen Vorläuferzellen in Modellen der Parkinson’schen Erkrankung, oder die durch Stammzellen induzierte Neubildung von Myelinscheiden2 in Modellen der Multiplen Sklerose.

    Stammzellen können auf verschiedenen Wegen zur Reparatur beitragen. Sie überleben im Nervensystem nach Transplantation. Sie können sich in Nervenzellen und Stützzellen differenzieren und damit zerstörte Zellen ersetzen. Dies ist jedoch nur in relativ geringem Ausmaß der Fall. In den meisten Fällen überleben sie im Transplantat als undifferenzierte Zellen, die Faktoren produzieren, welche die endogene Regeneration im Gehirn fördern.

    Darüber hinaus produzieren Stammzellen Faktoren, die die Entzündung und Abwehrreaktionen im Gewebe unterdrücken und damit das Fortschreiten der Zerstörung des Gewebes vermindern. Eine zusätzliche, erstaunliche Eigenschaft von Stammzellen ist, dass sie selbst nach Injektion in das Blutgefäßsystem ihren Weg in die geschädigten Körperteile (einschließlich derer des Gehirns und Rückenmarkes) finden und damit nicht direkt in das geschädigte Organ injiziert werden müssen.

    Trotz diesen viel versprechenden Ergebnissen ist man heute noch weit davon entfernt, größere, vollkommen zerstörte Anteile des Nervensystems wiederherzustellen, die auch in sinnvolle funktionelle Einheiten integriert werden. Und es ist fraglich, ob dies jemals gelingen kann.

    Gegenwärtige Ergebnisse lassen vielmehr hoffen, die Regeneration in partiell geschädigten Anteilen des Gehirns und Rückenmarkes zu fördern und damit eine funktionelle Verbesserung zu erzielen. Es gibt unterschiedliche Arten von Stammzellen, die für eine solche Therapie zur Verfügung stehen. Diese umfassen pluripotente3, embryonale Stammzellen, Stammzellen aus dem Blut der Nabelschnur von Neugeborenen, adulte Stammzellen aus verschiedenen Organen – einschließlich des Nervensystems – und adulte Vorläuferzellen, die zum Beispiel bereits in Richtung neuronaler Zellen vorprogrammiert sind.

    Pluripotente embryonale Stammzellen sind aus vielen Gründen am besten für therapeutische Zwecke geeignet, sie sind jedoch mit einem erheblichen ethischen Problem verbunden.

    Ist es ethisch akzeptabel, menschliche Embryonen als Ersatzteillager für Patienten zu verwenden?

    Aus diesem Grund konzentrieren sich viele Bemühungen darauf, Stammzellen von den betroffenen Patienten selbst zu gewinnen. Beispiele sind mesenchymale Stammzellen4 aus dem Knochenmark oder aus anderen Organen. Auch ist es in den letzten Jahren gelungen, ausdifferenzierte Zellen, zum Beispiel aus der Haut, durch genetische Manipulation in Stammzellen zurück zu verwandeln.

    Diese faszinierenden Ergebnisse aus der Grundlagenforschung haben große Hoffnungen geweckt. Dementsprechend groß ist der Druck von Patienten und ihren Organisationen, endlich klinische Studien zu starten, die eine Anwendung dieser Erkenntnisse zum Wohl der betroffenen Patienten umsetzen.

    Es gibt allerdings wesentliche Argumente, die diesem Ziel entgegenstehen. Als erstes muss man sich der Frage stellen, unter welchen Bedingungen überhaupt eine Reparatur oder die Förderung der Regeneration des geschädigten Nervengewebes sinnvoll ist. Im Unterschied zu niedrigeren Lebewesen hat die Evolution in Säugetieren Mechanismen entwickelt, die die Regeneration im zentralen Nervensystem aktiv unterdrücken. Offensichtlich ist in einem extrem komplexen Gehirn und Rückenmark eine fehlgeleitete Regeneration schädlicher als keine Regeneration.

    Ein einfaches Beispiel dazu: Nach Verletzung des Rückenmarks ist es sicher wünschenswert, die fehlende Funktion einer Querschnittslähmung durch eine Regeneration der Nervenbahnen zum Teil wiederherzustellen. Führt dies jedoch durch Fehlregeneration in Regionen des Rückenmarkes, die für die Verarbeitung von Schmerzreizen verantwortlich sind, zu chronischen Schmerzzuständen des Patienten, ist dies wahrscheinlich belastender als der ursprüngliche Zustand. Man kann sich vorstellen, dass die Frage der Fehlregeneration im Gehirn, dessen Verschaltung viel komplexer ist als die im Rückenmark, zu noch viel größeren Problemen führen kann.

    Ein zweites Beispiel ist die Transplantation dopaminerger Nervenzellen oder deren Vorläuferzellen in Patienten mit Parkinson’scher Erkrankung. Bei dieser Erkrankung gehen jene Nervenzellen zugrunde, die den Überträgerstoff Dopamin produzieren, und dies führt zu schweren Störungen des Bewegungsablaufes bei den betroffenen Patienten. Ziel der Transplantation ist, diese verlorenen dopaminergen Nervenzellen durch Stammzellen oder Vorläuferzellen zu ersetzen und damit wieder ausreichend Dopamin als Neurotransmitter zur Verfügung zu stellen. Klinische Studien an betroffenen Patienten haben gezeigt, dass dies im Prinzip möglich ist und die neurologischen Störungen gebessert werden können.

    Man kann jedoch ein ähnliches Ergebnis erzielen, wenn man die Patienten mit L-DOPA, einem Vorläufer des Dopamins, behandelt. Das riskante Prozedere einer Zelltransplantation ist demnach nur gerechtfertigt, wenn sich zeigen lässt, dass der Zellersatz durch Transplantation zu besseren Ergebnissen führt als die pharmakologische Therapie. Dies ist bislang nicht überzeugend gelungen. Darüber hinaus hat sich rezent gezeigt, dass auch in den transplantierten Zellen ähnliche Veränderungen auftreten, die bei den Patienten zum Untergang ihrer eigenen dopaminergen Nervenzellen führen. Das heißt, dass die transplantierten Zellen nicht vor den krankheitsspezifischen Mechanismen der Neurodegeneration geschützt sind.

    Sehr ähnliche Probleme muss man auch berücksichtigen, wenn man Stammzelltransplantation als Therapie für Patienten mit Multipler Sklerose vorschlägt. Hier zeigte sich in experimentellen Modellen, dass der direkte Ersatz des geschädigten Gewebes durch Stammzellen nur für einen geringen Anteil des therapeutischen Erfolges verantwortlich ist, und dass die Förderung der endogenen Regeneration und die Unterdrückung der Entzündungsreaktion durch Stammzellen besonders wichtig sind. Diese Effekte können jedoch auch die gegenwärtig in den Patienten bereits etablierten immunsuppressiven und immunmodulierenden Therapien erzielen. Ob dies durch die Transplantation von Stammzellen besser und mit weniger Nebenwirkungen erreicht werden kann, ist gegenwärtig unklar.

    Das zweite Problem in der klinischen Anwendung der Stammzelltransplantation betrifft Aspekte der Sicherheit und des Risikos. Im Unterschied zu einer Therapie mit Medikamenten sind transplantierte Zellen schwer zu kontrollieren. Sind sie einmal transplantiert und überleben sie im Gewebe ist es nahezu unmöglich, sie wieder zu eliminieren, wenn sie unerwünschte oder gefährliche Eigenschaften entwickeln. Es gibt eine Reihe von Indizien, dass dies ein erhebliches Problem bereiten kann: ein wesentlicher Wirkmechanismus der transplantierten Stammzellen ist, dass sie „neurotrophe“ Faktoren produzieren, die die körpereigene Regeneration im Nervensystem fördern.

    Diese Neurotrophine sind im normalen Nervensystem sehr eng reguliert. Stammzellen produzieren diese Faktoren in den meisten Fällen jedoch dauerhaft und ohne Regulation. Dies kann für die Periode der Reparation von Vorteil sein, es ist jedoch keineswegs klar, ob dadurch nicht auch langfristig Schäden induziert werden, wenn die Produktion nicht rechtzeitig gestoppt werden kann. Ein ähnliches Problem gilt für die entzündungshemmende oder immunsuppressive Wirkung von Stammzellen. Auch hier muss gewährleistet sein, dass diese Wirkung blockiert werden kann, wenn die Abwehr zur Bekämpfung von Infektionen nötig ist.

    Ein bedeutendes Sicherheitsrisiko betrifft die Frage einer möglichen onkologischen Transformation der Zellen. Bisherige Daten zeigen, dass bestimmte Stammzellen, wenn sie in das Nervensystem transplantiert werden, als undifferenzierte Zellen im Gewebe persistieren, die sich langsam vermehren. Wenn das nicht gestoppt wird, ist langfristig im Gehirn oder Rückenmark ein Problem zu erwarten, da selbst langsam wachsende „gutartige“ Tumore im Nervensystem deletär5 sind.

    Darüber hinaus besteht die Gefahr, dass solche Zellen durch die kontinuierliche Zellteilung Mutationen entwickeln, die auch zur malignen Transformation führen können. Dieses Risiko wird darüber hinaus potenziert, wenn Stammzellen durch genetische Manipulation induziert wurden.

    Ohne Zweifel eröffnet die moderne Stammzellforschung faszinierende Perspektiven, die vollkommen neue Erkenntnisse über die Entwicklung des Nervensystems und sein Potential zur Reparatur und Regeneration geliefert haben.

    Darüber hinaus lassen die bereits gewonnenen Erkenntnisse hoffen, dass damit neue Wege der Therapie neurologischer Erkrankungen eröffnet werden. Die Frage jedoch, ob und wann mit der klinischen Anwendung für Patienten begonnen werden soll, wird sehr kontrovers diskutiert. Aus meiner Sicht wird eindringlich vor einer vorschnellen und unkritischen Übertragung (Translation) dieser Forschungsergebnisse in die klinische Anwendung gewarnt. Eine solche sollte erst erwogen werden, wenn die hier genannten Fragen der Anwendung und langfristigen Sicherheit geklärt sind. Bis das soweit ist, ist noch ein langer Weg experimenteller Forschung zu gehen.

     


    [1] auf Dopamin reagierend

    [2] fettreiche Schicht um das Neuron, den faserartigen Fortsatz von Nervenzellen (de.wikipedia.org/wiki/Myelinscheide)

    [3] Stammzellen mit der Fähigkeit, sich zu Zellen der drei Keimblätter (Ektoderm, Entoderm, Mesoderm) und der Keimbahn eines Organismus zu entwickeln (de.wikipedia.org/wiki/Pluripotenz)

    [4] Vorläuferzellen des Bindegewebes (de.wikipedia.org/wiki/Mesenchymale_Stammzelle)

    [5] schädlich, verderblich


    Literatur

    Allen LE et al 2010; Curr Opin Neurol 23: 426-432

    Martino G, Pluchino S 2006, Nat Rev Neurosci 7:395-406

    Pera MF 2011; Nature 471: 46-47

    Reekmans K et al 2011; Stem Cell Rev Epub ahead of print

    Sahni V, Kessler JA 2010, Nat Rev Neurol 6:363-372

    inge Thu, 14.07.2011 - 05:20

    Ein Regelbruch in der Proteinchemie

    Ein Regelbruch in der Proteinchemie

    Fr, 08.07.2011 - 00:00 — Peter Swetly

    Icon ChemiePeter SwetlyWas ist ein Leben ohne Regeln? Ist es die große Freiheit? Regeln erlauben das Miteinander von Individuen und das Zusammenleben in Gemeinschaften. Wissenschaft, im besonderen Naturwissenschaft, ist auf Regeln angewiesen, entfaltet sich innerhalb der Regeln – und bricht diese manchmal. So sind einige Regeln kurzlebig, andere überdauern Jahrhunderte. Ein Beispiel von langer Haltbarkeit ist eine Regel der Biochemie: „Die Struktur eines Proteins bestimmt dessen Funktion.

    Diese Regel gilt seit über 50 Jahren. In den 50er Jahren des 20. Jahrhunderts ist es gelungen, die Struktur von Proteinen auf verschiedenen Ebenen zu charakterisieren.

    Zunächst gelang es die Primärstruktur von Proteinen aufzuklären. Proteine sind Aminosäureketten1, wobei die zwanzig natürlichen Aminosäuren linear aneinander gereiht und durch chemische Koppelung miteinander verbunden sind. Die Reihenfolge der Aminosäuren in der Proteinkette stellt nun die Grundlage für eine geordnete räumliche Struktur der Proteine dar. Durch Kristallisation der Proteine und durch Röntgenstrukturanalyse dieser Kristalle gelang es, die dreidimensionale Figur vieler Proteine bis in atomare Dimensionen genau nachzubilden.

    Diese Methoden wurden in den letzten 50 Jahren schrittweise verfeinert, sodass einige tausend Proteine in ihrer räumlichen Struktur erfasst und beschrieben sind.

    Warum führt die Aufklärung der Proteinstrukturen zu vielen Erkenntnissen der biochemischen Forschung? Diese Erkenntnisse helfen die physiologischen Abläufe in Zellen und Organismen zu erklären und waren für die Entwicklung moderner Arzneimittel grundlegend. Die Grundlage dafür ist die schon angeführte Hypothese: Die räumliche Struktur eines Proteins legt dessen biologische Funktion fest. Und Proteine haben vielfältige Funktionen in einem Organismus, von: „hochspezifischer Katalysator für biochemischen Prozess“, bis zu: „Bindungspartner für andere Proteine, für Nukleinsäuren, für Lipide (Fette), Zucker, Chemikalien und Arzneimittel“.

    Die Arzneimittelwissenschaft hat sich aufgrund der Regeln, was Strukturen und damit zusammenhängende Funktionen betrifft, besonders zielorientiert entwickelt; die Identifizierung von Zielproteinen für Arzneimittel und von Arzneimitteln für ausgewählte Zielproteine ist die zentrale Fragestellung der Arzneimittelforschung geworden. Dabei gelingt es, die Bindung eines Arzneimittels an ein Protein im atomaren Maßstab nachzubilden und die winzige Strukturänderung, die durch die Bindung zustande kommt, mit einer geänderten Funktion des Proteins zu korrelieren.

    Dadurch gelang es, sehr spezifische Arzneimittel zu finden, die selektiv an eine bestimmte Stelle nach dem Schlüssel-Schloss-Prinzip eines Proteins binden und möglichst nicht an andere Proteine. So können Nebenwirkungen der Arzneimittel reduziert werden.

    Die Regel hat sich auf diese Weise tausendfach bewährt. Eines der Enzyme, die als Zielmolekül für die Entwicklung von immunsuppressiven Arzneimitteln identifiziert wurden, ist „Calcineurin“.

    Als die Struktur des Calcineurins untersucht wurde, stellte sich heraus, dass nur ein Teil des Proteins eine exakte räumliche Struktur aufweist, ein Teil jedoch durch Aminosäurepositionen gekennzeichnet ist, die so variabel waren, dass keine exakte räumliche Zuordnung dafür möglich war. Das war eine große Überraschung, umso mehr, als eben diese variable Struktur für die Funktion des Calcineurins im Immunsystem notwendig war.

    Die Regel „Die Struktur eines Proteins bestimmt dessen Funktion“ hat damit eine Ausnahme gefunden – das war 1995 – und seither ging die Suche los: gibt es weitere Ausnahmen? Gibt es Proteine mit Regionen, die derart ungeordnet sind, dass sie nicht spontan eine spezifische dreidimensionale Struktur bilden? Und es gibt sie. Heute gilt die Annahme, dass 40 Prozent aller menschlichen Proteine zumindest eine ungeordnete Region enthalten.

    Warum wurden diese Ausnahmen nicht früher entdeckt? Dafür gibt es eine einfache Erklärung: Proteine mit derartig ungeordneten Regionen lassen sich nicht kristallisieren – und Kristalle sind die Voraussetzung, dass eine Röntgenstrukturanalyse durchgeführt werden kann. Sie wurden daher ignoriert.

    Aber Kernmagnetresonanz-Spektroskopie2 als neue Methode erlaubt es nun auch Proteine mit ungeordneten Strukturen zu untersuchen, und die „Unordnung“ stellt sich als neue Eigenschaft von Proteinen dar. Noch hat diese Sichtweise nicht die Lehrbücher erreicht, aber sie hilft zu erklären, warum manche Proteine mit sehr vielen Partnern Bindungen aufbauen können. Biologie scheint die „Unordnung“ zu nützen, um vielfältige Funktionen aufzubauen. Es wird also eine Neubeurteilung des Struktur-Funktion-Paradigmas notwendig werden.

    Auch die Arzneimittelforschung entwickelt nun großes Interesse an ungeordneten Proteinen, weil viele dieser Proteine eine entscheidende Rolle in Krankheiten spielen.

    Schritt um Schritt entwickelt sich ein neues Bild hinsichtlich des Zusammenhangs zwischen Aminosäuresequenz in Proteinen, Struktur und Funktion: das Spektrum reicht von rigiden Strukturen, wie sie in molekularen Maschinen notwendig sind, bis hin zu völlig ungeordneten Proteinen. Die Aufklärung der Funktion der ungeordneten Proteine wird die Wissenschaft noch Jahre beschäftigen.


    Literatur

    T. Chonard, Nature 471/15.03.2011

    Für diejenigen, die über die NMR-Spektroskopie von Proteinen mehr wissen wollen: Der Nobelvortrag von Kurt Wüthrich (2002) (PDF)

    Erstellt: P. Swetly, 06.06.2011 1

    1. Aminosäuren sind relativ kleine organische Verbindungen (Carbonsäuren), die zumindest eine Carboxylgruppe (-COOH) und eine Aminogruppe (-NH2) besitzen. Aus der Verknüpfung dieser Gruppen in der "Peptidbindung" resultieren lineare Ketten. Proteine bestehen aus ein bis mehreren dieser Ketten und können zwischen 100 bis zu mehrere 10 000 Aminosäuren enthalten.

    2 Strukturbestimmung von Proteinen mittels Kernresonanz (NMR) Spektroskopie. Bestimmte Atomkerne, wie z.B. der Kern des in Proteinen sehr zahlreich vorkommenden Wasserstoffatoms 1H, besitzen ein magnetisches Moment und richten sich (wie Stabmagneten) in einem starken Magnetfeld unter Absorption von Energie in diskreten Orientierungen mit unterschiedlichen Energieniveaus aus. Ein Übergang zwischen diesen Niveaus wird durch ein zweites, variables Magnetfeld (Frequenz im Radiowellenbereich) induziert, wenn dessen Frequenz exakt dem Energieunterschied der Niveaus entspricht (= Resonanzfrequenz), und kann als elektrisches Signal gemessen werden. Form des Signals und Resonanzfrequenz jedes Wasserstoffatoms im Protein hängen von dessen jeweiliger chemischer Umgebung ab. Aus dem Spektrum aller Signale läßt sich die Positionierung der Wasserstoffatome im Protein feststellen und daraus dessen dreidimensionale Struktur bestimmen.

    inge Fri, 08.07.2011 - 12:00

    Grundlagenforschung in Österreich: Exzellenzstrategie – Mehr als ein Lippenbekenntnis?

    Grundlagenforschung in Österreich: Exzellenzstrategie – Mehr als ein Lippenbekenntnis?

    Fr, 03.07.2011 - 00:00 — Peter Schuster

    Peter SchusterIcon Politik & GesellschaftForschung wird als eine Ware oder besser als ein Produkt verstanden, welches die Öffentlichkeit dem Forschenden oder der Institution, in welcher der Wissenschaftler arbeitet, durch Zuwendungen „abkauft“. Der Wert des Produktes setzt sich aus verschiedenen Beiträgen zusammen: aus dem Kulturgut Wissenschaft, aus dem Prestigegewinn des Landes bei erstrangiger Spitzenforschung und aus dem kommerziellen Nutzen im Falle erfolgreicher Anwendung der Ergebnisse. Von diesen Werten und ihrer Mehrung durch gezielte Strategien soll am Beispiel der österreichischen Grundlagenforschung in Mathematik und Naturwissenschaften die Rede sein.

    Obwohl die Problematik in anderen Wissensgebieten ähnlich gelagert ist, gelten dort zumeist andere Maßstäbe der Bewertung. Grundlagenforschung wird hier als selbstbestimmte Forschung verstanden, im Unterschied zu Forschung, die auf vorgegebene Ziele ausgerichtet ist. Exzellente Forschung ist heute überall anwendungsoffen, sie kann mögliche Anwendungen in der nahen Zukunft erkennen lassen, oder zur Zeit anwendungsfern erscheinen. Langfristige Prognosen über mangelnde Nutzbarkeit von Forschungsergebnissen haben sich nahezu immer als falsch herausgestellt. Selbst abstrakte Gebiete der Mathematik, wie die Zahlentheorie, finden wichtige Anwendungen.

    Zahlen und Fakten

    Wissenschaft und Forschung nehmen in den Gesellschaften aller entwickelten und an Entwicklung interessierten Länder einen breiten Raum ein. Die öffentliche Hand teilt den Budgetposten Bildung und Wissenschaft beachtliche Summen zu. Seit dem Jahre 1998 sind in Österreich die Ausgaben des Bundes zur Finanzierung von Forschung und Entwicklung ständig gestiegen. Auch die Bundesländer haben ihre Ausgaben auf diesem Sektor erhöht. Ungeachtet der Finanz- und Wirtschaftkrise gab es auch in den Jahren 2009 und 2010 Steigerungen in den Ausgaben des Bundes, welche allerdings im Wesentlichen nur den Rückgang der industriellen Forschungsausgaben kompensierten (siehe Tabelle). Der Auslandsbeitrag blieb nahezu konstant und so ergab sich in Summe eine geringe Steigerung der Forschungsquote in Prozenten des Bruttonationalprodukts (BIP).

     

    Ausgaben für Forschung und Entwicklung in Österreich*)
      2009 2010
    Herkunft der Gelder Mrd Euro % Mrd Euro %
    Wirtschaft 3,44 45 3,38 43,3
    Öffentlicher Sektor 2,95 38,6 3,22 41,2
    davon Bund 2,55 33,3 2,82 36,1
    Länder 0,40 5,2 0,40 5,1
    Ausland 1,13 14,8 1,17 15,0
    Sonstige 0,13 1,7 0,04 0,5
    Gesamt 7,65 2,73 % BIP 7,81 2,76 % BIP

    *) Quelle: Statistik Austria, 22.04.2010. Die Zahlen für 2010 entstammen einer Globalschätzung

    Der geringe Anteil der Industrie an der Forschung ist in der Tat das Hauptproblem der Forschungslandschaft Österreichs: Den 43,3% an industriellem Forschungsanteil in Österreich stehen etwa 67,7% in Deutschland und 71% in den USA gegenüber.

    Forschung und Entwicklung umfassen ein breites Spektrum von wissenschaftlichen und technologischen Aktivitäten. Welcher Anteil der genannten Aufwendungen in die Grundlagenforschung geflossen ist, ist nicht ganz einfach zu beantworten, da an den Universitäten die Aufwendungen für Forschung und Lehre nicht sauber getrennt sind. Die Statistik Austria spricht von 0,41% des BIP in Österreich im Jahre 2009 verglichen mit 0,53% in den USA und 0,83% in der Schweiz. Der Faktor zwei im Prozentsatz des BIP, welches pro Kopf im Jahre 2009 laut Weltwährungsfonds in der Schweiz mit US$ 67.600 deutlich über dem österreichischen Wert von US$ 46.000 lag, erklärt bereits die wesentlich schlechtere finanzielle Situation der Grundlagenforschung an den österreichischen akademischen Institutionen.

    Eine noch bessere Illustration der Problematik ermöglichen die absoluten Zahlen, und ein Vergleich der Mittel für die Grundlagenforschung in Österreich und der Schweiz ist angebracht, da die beiden Staaten in den Bevölkerungszahlen ungefähr gleich groß sind:

    Der schweizerische Nationalfonds (SNF) vergibt Bundesmittel in der Höhe von etwa 460 Millionen EUR für die Grundlagenforschung gegenüber den 135 Millionen EUR Budget des österreichischen Fonds zur Förderung der wissenschaftlichen Forschung (FWF). Die Schweizer Forscher im akademischen Bereich haben um einen Faktor 3,4 mehr Mittel zur Verfügung als ihre österreichischen Kollegen.

    Dem stehen 90 Millionen EUR in der Schweiz aber 210 Millionen EUR in Österreich gegenüber, die über die Forschungsförderungsgesellschaft (FFG) in die Industrie fließen. Darüber hinaus ist die geringere Schweizer Summe nur den Universitäten zugänglich, wenn sie mit Unternehmen gemeinsame Forschungen durchführen. Der Präsident des SNF, Dieter Imboden, sagte in einem Interview mit dem Titel "Wir machen seit hundert Jahren dasselbe" in der Tageszeitung ‚Der Standard‘ vom 21. April 2010: „Die Schweiz scheut sich, direkt in Unternehmen zu investieren. … Das ganze Potential der Pharmaindustrie ist aus sich heraus gewachsen, ohne Geld des Bundes.“ Ende des Zitats.

    Dessen ungeachtet liegt die Schweiz in der Anwendung von Forschungsergebnissen im Spitzenfeld: Der EU-Innovationsanzeiger führt die Schweiz weltweit als Nummer eins. Abgesehen von den Details aller Zahlen können wir eines festhalten: Der FWF hat zu wenig Geld, um die akademische österreichische Forschung so zu unterstützen und zu gestalten, wie dies in den erfolgreichen europäischen Ländern Europas der Fall ist. Es ist sehr schmeichelhaft, wenn die Österreichische Akademie der Wissenschaften mit ihren Forschungsinstituten als ‚Leuchtturm‘ apostrophiert wird.

    In den Budgets der letzten beiden Jahre – von 2006 bis 2009 saß ich am Verhandlungstisch – haben sich die wissenschaftlichen Leistungen der Akademieinstitute nicht gespiegelt. Hervorragende Evaluierungen konnten nicht in von den Wissenschaftlern zu recht erwartete Budgetsteigerungen für die erfolgreichen Institute umgesetzt werden. Um zur Metapher zurückzukehren: Was nützt ein Leuchtturm in der rauhen See, wenn er keine Energie zum Betrieb seiner Lampen hat? In die österreichische Grundlagenforschung fließen leider weit weniger Mittel, als Ankündigungen und freudige Meldungen manchmal erwarten lassen. Wissen und Anwendung

    Selbstbestimmte Forschung ist primär auf Wissenserwerb ausgerichtet und wird sinnvoller Weise nicht (nur) an der Erreichung von Zielvorgaben gemessen. Zum Unterschied davon streben zielorientierte Forschung und Entwicklung die Lösung vorgegebener Aufgaben an und sind erfolgreich, wenn die vorgegebenen Ziele erreicht, wenn die ‚Milestones‘ passiert wurden; ihr Erfolg ist dementsprechend einfach messbar: entweder wurden die Vorgaben erfüllt oder nicht. Auf Erkenntnisgewinn ausgerichtete Grundlagenforschung, das Vordringen in wissenschaftliches Neuland ist gerade dadurch gekennzeichnet, dass wir nicht wissen, wohin die Reise geht:

    Neuland ist nur Neuland, wenn man es nicht schon von vornherein kennt. Würden Sie den Entdecker Christoph Kolumbus als gescheitert betrachten, weil er einen unbekannten Kontinent entdeckte, und damit das vorgegebene Ziel, Indien auf dem Seeweg nach Westen zu erreichen, verfehlte? Es ist unbestritten, dass die objektive Bewertung von echt innovativen Projekten im heute üblichen konventionellen Peer Review-System schwierig, wenn nicht gar unmöglich ist. Um eine Beurteilung unkonventioneller Vorhaben zu bewerkstelligen, sind Forschungspolitik und Wissenschaft gefordert.

    Eine triviale Lösung des Problems wäre, Grundlagenforschung zu einem „Hobby“ der Wissenschaftler zu degradieren, wie es von einigen Extremisten in den Siebziger Jahren des vorigen Jahrhunderts gefordert wurde: „Wozu weitere Grundlagenforschung, wir wissen doch schon genug!“ war das Motto, und es hat sich auf allen Gebieten ad absurdum geführt. In Erinnerung rufen möchte ich einen Fünfjahresplan für die wissenschaftliche Forschung in der DDR aus jener Zeit. Der Plan, an den ich denke, legte unter anderem fest, dass die Forschungsvorhaben an Hochschulen nützliche Anwendungen finden müssen, und dass die Projekte gemeinsam mit den Industriebetrieben der DDR durchgeführt zu werden haben. Aus meinem eigenen Fach läßt sich berichten, dass die theoretische Chemie in der DDR vor der Verpflichtung zur Anwendbarkeit durchaus mit dem Leistungsniveau im westlichen Europa vergleichbar war, dann aber während des anwendungsbestimmten Fünfjahresplanes stark zurückfiel und sich bis zur Wende nicht mehr erholte.

    Ergänzend sei hier noch ein Ausspruch zitiert, der auf Max Planck zurückgeht und von der Max-Planck-Gesellschaft in das Mission-Statement aufgenommen wurde: „Wissen muss der Anwendung vorausgehen“. Dies ist ein sehr tiefer und wichtiger Gedanke, denn es fehlt nicht an Beispielen, bei denen die Anwendung dem Wissen vorausging und gewaltige Schäden verursachte. Es seien hier nur drei Beispiele angeführt:

    1. Die Entdeckung der hochenergetischen Strahlung und ihre frühen Anwendungen. Radiumpräparate wurden einige Zeit lang als Schönheitsmittel empfohlen, in der Literatur findet sich auch ein Bericht über den Versuch, Dunkelhäutige mit Radiumpräparaten zu bleichen [1] und die Älteren unter uns erinnern sich sicherlich noch an die Uhren mit radioaktiv strahlenden Leuchtziffern.
    2. Das Märchen vom gesunden Spinat. Weit weniger schädlich ist dieses bekannte Beispiel mangelnder Wissensübermittlung aus den Ernährungswissenschaften: Im Jahre 1890 veröffentlichte der Schweizer Physiologe Gustav von Bunge Daten über den Eisengehalt verschiedener Gemüsesorten. Im Fall des Spinats bezog er den Eisengehalt auf getrocknete Spinatblätter und dieser ist, da 90 Gewichtsprozent Wasser fehlen, um etwa eine Zehnerpotenz größer als bei den anderen Pflanzen, für welche die Bestimmung auf Frischgewicht durchgeführt wurde [2]. ‚Popeye the Sailor‘ wäre ohne diese Fehlinterpretation der Daten niemals kreiert worden und vielen Millionen von Kindern wäre die Fütterung mit Spinat erspart geblieben.
    3. Das Märchen vom bösen Cholesterin. Dieses letzte Beispiel ist zweifelsohne weniger harmlos und gleichzeitig höchst aktuell: Der allgemein akzeptierte Zusammenhang zwischen der Konzentration des Cholesterins im Blut und dem Auftreten von Arteriosklerose sowie deren Folgen, Herzinfarkt und Schlaganfall, wurde durch eine Reihe von groß angelegten Untersuchungen in Frage gestellt und ist gegenwärtig Gegenstand intensiver Diskussion (Gegensätzliche Standpunkte sind in drei Monographien behandelt [3, 4, 5]. Angesichts der Tatsache, dass ein nicht unwesentlicher Teil der Bevölkerung eine Langzeitbehandlung mit Cholesterinsenkern aus der Gruppe der Statine verschrieben bekommt, welche beachtliche Nebenwirkungen aufweisen, erhält die Debatte um die Bedeutung von Cholesterin für Herz-Kreislauferkrankungen eine volksgesundheitliche Dimension (einige Ärzte haben vor Jahren sogar angeregt, Statine den Grundnahrungsmitteln beizumischen!). Die Notwendigkeit, mehr Wissen durch intensive Grundlagenforschung zu erwerben, tritt im Fall der gesundheitlichen und ernährungsphysiologischen Bedeutung von Cholesterin zwingend zu Tage.

    Dieser Artikel ist der erste Teil der ausführlichen Fassung eines Referates, das anlässlich des von der Österreichischen Akademie der Wissenschaften veranstalteten Symposiums „Wa(h)re Forschung“ gehalten wurde. Dieses Symposium hatte den sich in allen Bereichen der Wissenschaft vollziehenden Paradigmenwechsel zum Thema: „Weg von der erkenntnisorientierten Grundlagenforschung und hin zur Anwendungsorientierung“ und ist eben in Buchform erschienen („Wa(h)re Forschung – Change of Paradigms?“ Präsidium ÖAW Hsg, Friedrich VDV, 4020 Linz; 2011..

    Teile 2 bis 4 des Referats finden sich unter:


    Literatur

    [1] Maria Rentetzi. 2007. Trafficking materials and gendered experimental practices. Columbia University Press, New York

    [2] Mike Sutton. 2010. Spinach, iron and Popeye: Ironic lessons from biochemistry and history on the importance of healthy eating, healthy skepticism, and adequate citation. Internet Journal of Criminology. March 2010

    [3] Uffe Ravnskov. 2000. The cholesterol myths: Exposing the fallacy that saturated fat and cholesterol cause heart disease. New Trends Publishing Co., Washington, D.C., USA

    [4] Anthony Colpo. 2006. The great cholesterol con. Why everything you’ve been told about cholesterol, diet and heart disease is wrong! Second Ed. Anthony Colpo, Melbourne, AUS.

    [5] Daniel Steinberg. 2007. The cholesterol wars: The skeptics vs. the preponderance of the evidence. Academic Press, San Diego, CA, USA

    Redaktion Sun, 03.07.2011 - 12:00

    Hat die Menschheit bereits den Boden unter den Füßen verloren?

    Hat die Menschheit bereits den Boden unter den Füßen verloren?

    Fr, 28.06.2011 - 06:00 — Gerhard Glatzel

    Icon BiologieGerhard GlatzelSechs, acht oder in wenigen Jahrzehnten vielleicht mehr als neun Milliarden Menschen zu ernähren und mit pflanzlichen Rohstoffen zu versorgen, ist keine einfache Aufgabe. Bisher war es möglich, zumindest in der entwickelten Welt, die wachsende Bevölkerung mit Nahrungsmitteln zu versorgen, weil Pflanzenzüchtung, Pflanzenschutz, Düngung und Mechanisierung der Pflanzenproduktion in Großbetrieben eine Vervielfachung der Produktivität je Flächeneinheit Boden ermöglichten. Durch Umwandlung von Wald in Weide- und Ackerland sowie durch Bewässerung von Trockengebieten und Entwässerung von Sumpfland konnten scheinbar unbegrenzte Mengen an Nahrungsmitteln und pflanzlichen Rohstoffen erzeugt werden.

    Überschüsse stellten die Agrarpolitik vor die schwierige Aufgabe, die Grundlagen der Agrarproduktion in den ländlichen Räumen der entwickelten Länder trotz extrem niedriger Weltmarktpreise für Agrargüter zu sichern. In vielen Entwicklungsländern hingegen konnte die Agrarproduktion mit dem Bevölkerungswachstum nicht Schritt halten, und Hunger, Brennholzmangel sowie dadurch begünstigte Krankheiten sind für fast eine Milliarde Menschen nach wie vor drückende Realität.

    Die steigenden Preise von Lebensmitteln und pflanzlichen Rohstoffen wie Baumwolle zeigen, dass die Zeiten agrarischer Überproduktion und Überschüsse vermutlich vorüber sind, und dass wir uns in Zukunft immer mehr anstrengen werden müssen, um genügend pflanzliche Biomasse für Ernährung, Industrie und verstärkt auch für die energetische Nutzung bereitstellen zu können. Man kann natürlich einwenden, dass einiges an der Verknappung auf Spekulation oder Agrarpolitik zurückgeführt werden kann.

    Es fällt aber auch auf, dass in der Diskussion um Energie aus Biomasse immer mehr die Energiesicherheit im Vordergrund steht und nicht mehr der Klimaschutz, der oft als Feigenblatt dafür diente, dem ländlichen Raum zusätzliche, aus öffentlichen Mitteln geförderte Einkommensmöglichkeiten zu erschließen. Besonders nach dem Nuklearreaktorunfall von Fukushima und der Abschaltung von Atomkraftwerken in Deutschland wird der Anbau von Energiepflanzen energisch gefordert und gefördert, auch wenn dessen Wirksamkeit hinsichtlich des Klimaschutzes oft umstritten ist und negative ökologischen Folgen in Kauf genommen werden müssen.

    Die alles entscheidende Frage für eine Zukunft ohne Hunger und Rohstoffmangel ist, ob mit den klassischen Ansätzen der „grünen Revolution“ der stetig steigende Bedarf an Biomasse beherrschbar sein wird. Die massiven Investitionen in Agrarland seitens der internationalen Agrarindustrie und anderer Investoren („Land Grabbing“) zeigen, dass der Verfügbarkeit von Boden eine Schlüsselrolle eingeräumt wird. Daher soll im Folgenden über Boden als knappe Ressource diskutiert werden.

    Die FAO (Food and Agricultural Organisation) der Vereinten Nationen veröffentlicht regelmäßig globale und regionale Übersichten über die Landnutzung und deren Veränderung (http://www.fao.org/landandwater/agll/landuse/). Die Daten zeigen, dass laufend landwirtschaftlich genutzter Boden durch Erosion, Versalzung, Wüstenbildung, Inanspruchnahme für Siedlungen sowie industrielle und Verkehrsinfrastruktur verloren geht, dass aber auch nach wie vor neues Land für die agrarische Produktion erschlossen wird.

    Erschließung neuer Nutzflächen durch Rodung von Waldboden

    Gobal nutzbare AckerbauflächenAbbildung 1. Gobal nutzbare Ackerbauflächen.

    Anhand einer groben Übersicht über die globale Bodennutzung (Abbildung „Soil limits agriculture“) kann man die Möglichkeiten und Grenzen der Urbarmachung des bisher nicht für den Ackerbau genutzten Landes aufzeigen. Nur ein sehr kleiner Teil der Böden der Erde, nämlich gerade einmal 11 Prozent, sind ohne Einschränkungen für acker-bauliche Pflanzenproduktion, also für den Anbau von Getreide, Kartoffeln, Gemüse oder Faserpflanzen nutzbar.

    Ursprünglich war ein Teil dieses Landes Steppe, ein erheblicher Teil aber auch Wald auf tiefgründigen Böden, welche nach der Rodung fruchtbares Ackerland ergaben. Die Rodung von Wald zur Gewinnung von Acker- und Weideland hat in allerjüngster Zeit einen neuen Höhepunkt erreicht. In Brasilien hat die Waldrodung im März und April 2011 gegenüber dem gleichen Zeitraum des Vorjahres um 473 Prozent zugenommen (The Economist, Sunday, June 5th, 2011). Brasilien hat im Mai dieses Jahres weitere Rodungen im Regenwald des Amazonas legalisiert. Die negativen Auswirkungen auf die Biodiversität und das Weltklima sind unbestritten, werden aber aus ökonomischen und politischen Gründen in Kauf genommen.

    Die Satellitenbilder, die man sich in Google Earth ansehen kann, zeigen aber auch eine neue Dimension der Landnutzung nach der Rodung des Regenwaldes. Während man rechts im Bild die traditionelle Umwandlung in Weideland erkennen kann, die legal und illegal von Kleinbauern durch Brandrodung betrieben wird (achten Sie auf die gut erkennbaren Rauchfahnen), finden sich links die ausgedehnten Betriebe der Großgrundbesitzer und der Agrarindustrie. Umwandlung des Regenwalds im Amazonasgebiet in Weideland und AgrarlandAbbildung 2. Umwandlung des Regenwalds im Amazonasgebiet in Weideland und Agrarland.

    Der immer weiter wachsende Markt für Rindfleisch, für den die OPIC (International Meat Organisation) bis 2050 eine Verdoppelung vorhersagt (Merco Press, September 28, 2010), führt zu diesem Boom. Da die Produktion von qualitativ hochwertigem Rindfleisch eine Mästung mit Kraftfutter voraussetzt, werden auf den besseren Böden zunehmend Getreide sowie Hülsen- und Ölfrüchte angebaut.

    In Südostasien wurden riesige Regenwaldflächen in Ölpalmenplantagen umgewandelt. Zunächst hat man das naiven Europäern als Beitrag zum Klimaschutz verkauft, in der Zwischenzeit ist der Schwindel längst aufgeflogen, aber die Plantagen werden weiter ausgebaut, weil sich der Markt für Pflanzenöl günstig entwickelt hat.

    Eine in der Öffentlichkeit weniger beachtete Umwandlung ist die Rodung von Naturwald für Holzplantagen. Im Urwald sterben die Bäume eines natürlichen Todes und ihr Holz ist oft morsch und von minderer Qualität. In Plantagen werden die Bäume, lange bevor sie altersschwach werden, geerntet. Durch Mechanisierung und Verwendung besonders wüchsiger Zuchtsorten, kann die Produktivität sehr wesentlich gesteigert werden. Auf der Strecke bleibt die Biodiversität, weil nur einige wenige Baumarten, wie Eukalyptus-, Akazien- oder Kiefernarten verwendet werden. Auch auf diesem Sektor hat massiv steigende Nachfrage an Holz für die Papier- und Zellstoffindustrie, insbesondere aus China und Indien, zu stark steigenden Investitionen in Forstplantagen geführt. Die WBCSD (World Business Council for Sustainable Development) sagt bis 2050 weltweit eine Verdreifachung der Holzplantagenflächen voraus. (http://www.internationalforestindustries.com/2011/05/23/fierce-competition-over-worlds-wood-supply/).

    In Mitteleuropa haben sich Forstbetriebe nach der durch die Industrialisierung ausgelösten Energiekrise des 19. Jahrhunderts und der Ablöse des Holzes durch Kohle, Erdöl und Erdgas als thermische Energieträger zu Veredelungsbetrieben entwickelt, die darauf spezialisiert sind, den Zuwachs an Holzbiomasse in möglichst wertvolle Holzsortimente umzuwandeln. Ob unsere hochentwickelte, naturnahe Forstwirtschaft langfristig dem Trend zu vollmechanisierten Plantagen raschwüchsiger Baumarten widerstehen kann, wird sich zeigen. Massive Subvention von Energieholz nach Fukushima könnte den Trend verstärken, denn Forstbetriebe sind letztendlich auch nur Wirtschaftsbetriebe, die am Ende Ausgaben für die Waldbewirtschaftung mit den Erlösen vergleichen. Natürlich wird die Nachhaltigkeit der forstlichen Produktion weiterhin beachtet werden, aber negative Auswirkungen auf die Biodiversität, den Erholungswert und den Wasserhaushalt wird man wohl in Kauf nehmen müssen.

    Erschließung anderer Böden durch Trockenlegung oder Bewässerung

    Wie steht es um Möglichkeiten, andere als Waldböden für die Befriedigung des Hungers nach Biomasse der weiter wachsenden und anspruchsvoller werdenden Weltbevölkerung zu erschließen? Sieht man von den Permafrostböden und den Böden mit schwer änderbaren chemischen Problemen ab, sind die größten Tortenstücke im FAO-Kuchen die zu trockenen Böden (28%), die zu seichten Böden (22%) und die zu nassen Böden (10%).

    In Mitteleuropa war die Entwässerung von Mooren ein probates Mittel, um der Landwirtschaft bislang nicht genutztes Land zu erschließen. Das Oderbruch, unter dem preußischen König Friedrich II. im 16. Jahrhundert entwässert und urbar gemacht, ist ein klassisches Beispiel für erfolgreiche technische Maßnahmen zur Erschließung von Neuland für die wachsende Bevölkerung mit militärisch strategischer Perspektive. Die Trockenlegung von Feuchtgebieten wurde in Mitteleuropa bis nach dem Zweiten Weltkrieg gefördert.

    Heute weiß man, dass dabei riesige Mengen an CO2 freigesetzt wurden, der Landschaftswasserhaushalt oft massiv verschlechtert und die Biodiversität sowie der Erholungswert extrem geschmälert wurden. Daher erfolgte in den letzten Jahrzehnten oft ein Rückbau der Drainagen, und nicht zuletzt aus Klimaschutzgründen ist die Trockenlegung von Sümpfen zur Zeit kein Thema und wird auch in Entwicklungsländern international kaum gefördert.

    Ganz anders sieht es hinsichtlich der trockenen Böden aus. Weltweit werden Bewässerungsprojekte gefördert und es gibt eine starke Zunahme der bewässerten Agrarflächen. Die FAO berichtet, dass während der vergangenen vier Jahrzehnte die künstliche Bewässerung den wesentlichsten Beitrag zur Steigerung der Nahrungsmittelproduktion leistete. Gegenwärtig werden 30 bis 40 Prozent der global konsumierten Nahrungsmittel auf bewässertem Land erzeugt. Während der vergangenen 50 Jahre hat sich die Fläche an Agrarland, das bewässert wird, verdoppelt (http://www.paristechreview.com/2011/03/03/hungry-land-potential-availability-arable-land-alternative-uses-impact-climate-change/). Bodenbewässerung mit Wasser aus Gletscherregionen in NeuseelandAbbildung 3. Bodenbewässerung mit Wasser aus Gletscherregionen in Neuseeland.

    Ein neuerer Trend ist die Bewässerung von Weideland, wie sie beispielsweise in Neuseeland (Google Bild) betrieben wird. Mit Wasser aus Gletscherregionen kann sommerliche Trockenheit überbrückt werden, und für den Ackerbau zu seichtgründige Böden können bewässert und als Weideland genutzt werden. Tiefgründigere Böden im selben Bewässerungssystem können für den Anbau von Mastfutter genutzt werden.

    Ein kritisches Problem wird in Zukunft der Rückgang der Gletscher im Gefolge der globalen Erwärmung sein. Bestehende Probleme sind die Verminderung der sommerlichen Wasserführung der Flüsse und die Grundwasserverschmutzung durch Düngemittel und Agrarchemikalien.

    Besonders bedenklich ist die nicht nachhaltige Nutzung von Grundwasser für die Bewässerung von Ackerland. In vielen Gegenden der Welt, insbesondere in Nordafrika, in Indien und in Arabien wird Grundwasser aus dem Boden gepumpt, das durch Niederschläge nicht oder nicht hinreichend ergänzt wird. Wasser ist unter diesen Bedingungen genauso erschöpflich wie Erdöl. Bevölkerungswachstum, das sich auf begrenzte und zu Ende gehende Grundwasserreserven stützt, verschiebt derzeit unlösbare Probleme in die Zukunft und verstärkt sie. Defizite in der Grundwasserneubildung sind aber auch in Teilen Europas ein Problem und müssen in der Diskussion über die Steigerung der Biomasseproduktion zur Absicherung der Energieversorgung berücksichtigt werden.

    Zusammenfassend ist festzuhalten, dass die Ressource „Boden“, als Grundlage der Biomasseproduktion auf dem Festland ein kritischer Engpass für die Ernährung der wachsenden Weltbevölkerung und deren Versorgung mit pflanzlichen Rohstoffen geworden ist. Wir sind tatsächlich dabei, den Boden unter den Füßen zu verlieren. Über Biomasse aus der Retorte oder aus den Meeren nachzudenken ist geboten, auch wenn sich befriedigende Lösungen noch nicht klar abzeichnen.


    Emer. Univ. Prof. Dr. Gerhard Glatzel war Vorstand des Instituts für Waldökologie an der Universität für Bodenkultur in Wien. Forschungsschwerpunkte: Waldernährung, Waldökosystemdynamik und Sanierung von Waldökosystemen, historische Landnutzungssysteme.

    Redaktion Tue, 28.06.2011 - 12:00

    Comments